Чат-боты разучились говорить «я не знаю»
Большие чат-боты на основе искусственного интеллекта (ИИ) стали чаще допускать ошибки при отвечании на сложные вопросы, как показывает исследование, опубликованное в журнале Nature. Автор работы, Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании, проверил работу трех крупнейших чат-ботов, использующих передовые модели ИИ. Он отметил, что чат-боты перестали корректно отвечать «я не знаю» на сложные вопросы, предпочитая давать неверные ответы из-за паттерна «отвечать любой ценой», заложенного в модели их создателями.
Исследователи изучили три семейства крупных языковых моделей (LLM), включая GPT OpenAI, BLOOM и модель от академической группы BigScience. В ходе тестирования ученые задавали сложные вопросы и математические задачи ИИ. Было обнаружено, что модели стали более развитыми, но начали допускать ошибки вместо того, чтобы признавать свою неспособность ответить.
Эрнандес-Оралло отметил, что все три модели время от времени давали неверные ответы даже на простые вопросы, что подтверждает недостаточный контроль над ними со стороны людей. Ученые призывают создателей моделей предусмотреть возможность для чат-ботов пропускать вопросы, на которые они не могут дать верный ответ, чтобы избежать введения пользователей в заблуждение.
В конце сентября исследователи фирмы AMCI Testing обнаружили, что новая версия автопилота Tesla склонна к рискованным действиям, что подтверждается случаем, когда тестируемый автомобиль проехал на красный свет и чуть не попал в ДТП.
Больше новостей на сайтах Медиахолдинга