В ответах нейронных сетей достоверные факты зачастую перемешаны с нелепым вымыслом. Доверие к искусственному интеллекту уже стоило некоторым людям здоровья и репутации. Специалисты по ИИ называют правдоподобные, но неверные ответы нейросети галлюцинациями.
Эксперты уверяют: в том, что нейросети с уверенным видом говорят ерунду, виноваты сами разработчики. Однако эту проблему можно решить, если изменить подход к тестированию искусственного интеллекта.
Один из подходов к использованию ИИ — предоставить ему набор готовых ответов, проверенных человеком. Задача программы — научиться определять, какой из них лучше подходит к запросу пользователя. В худшем случае нейросеть ответит не на тот вопрос, который ей задали. С этим, наверное, сталкивался каждый, кто общался с роботами в системах поддержки клиентов. Первый источник ошибок — это сами обучающие данные. Учебников и энциклопедий не хватит, чтобы набрать терабайты текста. Приходится обучать ИИ на текстах сомнительной достоверности, взятых из интернета. Но даже если данные безупречны, обученная система все равно будет порой допускать ошибки.
Комментарии: