Исследование: чат-боты ИИ почти в половине ответов содержат ошибки
- Источник:
- Office Life
В ходе исследования ИИ чат-ботам был предоставлен доступ к контенту новостных агентств на 14 языках. Результаты показали, что многие ответы были искажены: в них встречались неверные цитаты, устаревшая информация и проблемы с поисковыми алгоритмами.
Чат-боты иногда приводили ссылки на несуществующие источники. Кроме того, они часто не могли отличить факты от мнений или сатиру от обычных новостей. В исследовании приводят пример, где ChatGPT, Copilot и Gemini ошибочно утверждали, что папа Франциск является действующим папой после того, как его сменил Лев XIV. Copilot даже правильно указал дату смерти Франциска, продолжая называть его действующим папой. ChatGPT также выдавал устаревшие ответы при упоминании имен действующего канцлера Германии и генсека НАТО.
Google Gemini оказался менее точным, чем ChatGPT, Copilot и Perplexity: в 72% его ответов были ошибки. У тех же ChatGPT и Perplexity было 36 и 30% соответственно.
Исследование также показывает, что, несмотря на ошибки, многие пользователи продолжают доверять чат-ботам. Более трети взрослых британцев и почти половина молодежи до 35 лет верят в точность новостей от ИИ. Более того, если ИИ искажает информацию, то 42% взрослых обвиняют первоисточник, что снижает доверие к нему.