Бесплатно Экспресс-аудит сайта:

13.02.2025

Фальшивые цитаты и искажённые факты: как ИИ разрушает доверие к новостям

Бум генеративного ИИ породил новую угрозу для достоверной информации — искажённые факты, выдаваемые за истину. BBC News провела исследование , которое выявило значительные проблемы с точностью ответов популярных ИИ-ассистентов.

В ходе тестирования ChatGPT , Perplexity, Microsoft Copilot и Google Gemini были заданы 100 вопросов с запросом использовать материалы BBC News. Результаты оказались тревожными: более половины ответов содержали ошибки, а в 20% случаев нейросети вводили пользователей в заблуждение, добавляя фактические неточности. Более 10% «цитат» из статей BBC были либо изменены, либо вообще не существовали.

Основные проблемы — отсутствие различий между фактами и мнениями, смешение архивных и актуальных данных, а также тенденция к субъективным интерпретациям. Это приводит к «каше» из информации, которая искажает реальную картину событий.

Например, Perplexity при ответе на вопрос о ближневосточном конфликте заявил, что Иран проявил «сдержанность», а действия Израиля были «агрессивными», хотя в оригинальных материалах BBC подобных формулировок не было. ChatGPT и Copilot ошибочно утверждали, что Риши Сунак и Никола Стерджен всё ещё занимают свои должности, а Gemini неверно интерпретировал рекомендации NHS по вейпингу.

Компании-разработчики ИИ признают проблему, но решения пока нет. Apple уже приостановила функцию генерации заголовков новостей после того, как BBC обнаружила серьёзные ошибки. Так, одна из ИИ-версий новостей утверждала, что власти Лос-Анджелеса арестовали сами себя за мародёрство, хотя на самом деле речь шла о задержании грабителей.

BBC призывает крупные технологические компании к сотрудничеству для поиска решений. Медиаиндустрия, разработчики ИИ и государственные регуляторы должны объединиться, чтобы предотвратить подрыв доверия к информации. В условиях глобальной нестабильности критически важно, чтобы люди получали достоверные новости, а не хаотичный поток искажённых данных.