ИИ выдумывает ответы на вопросы пользователей

Специалисты Центра цифровой журналистики Tow при Columbia Journalism Review изучили, насколько точно искусственный интеллект определяет источники новостей. Оказалось, что в более чем 60% случаев ИИ-сервисы ошибаются при поиске заголовков, изданий и дат публикаций по фрагменту текста.

Исследование приобрело особую актуальность, так как каждый четвертый американец уже предпочитает искать информацию не через Google или Bing, а с помощью ИИ-поисковиков.

Кто ошибается чаще всего?

Эксперты протестировали восемь сервисов и выяснили, что самые большие проблемы с точностью у:

  • Grok 3 – 94% ошибок
  • ChatGPT Search – 67% ошибок (134 из 200 запросов)
  • Perplexity – 37% ошибок (лучший результат, но все еще далек от идеала)

Методика проверки была простой: аналитики копировали фрагменты реальных новостных статей и просили ИИ найти первоисточник – заголовок, издателя, дату выхода и ссылку на материал. В ходе эксперимента провели 1600 тестов.

Главная проблема – выдуманные ответы

Вместо того чтобы признать, что не знают ответа, ИИ-сервисы создавали правдоподобные, но полностью ложные данные. Они придумывали несуществующие ссылки, подделывали даты публикаций и даже называли фейковые издания. Это явление называется конфабуляцией, и оно наблюдалось у всех протестированных моделей.

Парадокс: платные версии работают хуже бесплатных

Платные подписки на Perplexity Pro ($20 в месяц) и Grok 3 ($40 в месяц) снизили точность результатов. В отличие от бесплатных версий, которые признают, что не могут найти ответ, премиальные сервисы стараются ответить на любой вопрос – даже если для этого приходится придумывать факты.

Игнорирование правил интернета

ИИ-поисковики нарушают стандарт robots.txt, который запрещает индексировать некоторые страницы. Например, бесплатная версия Perplexity нашла и обработала десять защищенных статей National Geographic, несмотря на запрет.

Кроме того, вместо ссылок на оригинальные материалы ИИ-боты часто отправляют пользователей на агрегаторы вроде Yahoo News, лишая издателей трафика и доходов от рекламы.

Более 50% ссылок от Google Gemini и Grok 3 ведут на несуществующие страницы. У Grok 3 ситуация особенно плохая: из 200 проверенных адресов 154 оказались «мертвыми».

Выводы: издатели в тупике

  • Запретить ИИ индексировать контент – значит, он все равно найдет материал на сторонних ресурсах и не укажет источник.
  • Разрешить индексирование – не дает гарантий, что пользователи перейдут на сайт оригинального издания.

Операционный директор Time Марк Говард высказался на этот счет:

«Хуже, чем сейчас, эти технологии уже не будут работать».

Как отреагировали OpenAI и Microsoft?

  • OpenAI пообещала исправиться: компания будет указывать источники, добавлять ссылки и цитировать оригинальные материалы.
  • Microsoft заявила, что соблюдает стандарт robots.txt и учитывает интересы правообладателей.

Но пока пользователям остается лишь фильтровать полученную информацию и не доверять ИИ-поисковикам на 100%.

Есть жалобы? Канал для добрых казанцев, которых вывели из себя. Делитеcь тем, что вас разозлило: Злой Казанец