Европейский вещательный союз (ЕВС) совместно с BBC провёл масштабное международное исследование точности работы ИИ-помощников с новостным контентом. Результаты оказались тревожными: искусственный интеллект регулярно искажает информацию независимо от языка, страны или конкретной платформы.
Профессиональные журналисты из 22 медиаорганизаций в 18 странах проверили более трёх тысяч ответов чат-ботов ChatGPT, Copilot, Gemini и Perplexity. Они оценивали точность информации, качество источников, способность отделять факты от мнений и наличие контекста.
В 45% всех ответов обнаружилась как минимум одна значимая ошибка. У 31% ответов были выявлены серьёзные проблемы с указанием источников — они либо отсутствовали, либо вводили в заблуждение, либо были неверными. Каждый пятый ответ содержал грубые неточности: выдуманные детали, устаревшую информацию или откровенные галлюцинации.
Хуже всех показал себя Gemini — у него значимые ошибки нашлись в 76% ответов, что более чем вдвое превышает показатели конкурентов. Основная проблема этого помощника — крайне слабая работа с источниками.
Согласно отчёту Института Reuters о цифровых новостях за 2025 год, 7% потребителей онлайн-новостей уже используют ИИ-помощников для получения информации. Среди пользователей младше 25 лет эта доля достигает 15%.
Медиадиректор ЕВС Жан Филип де Тендер подчеркнул, что выявленные недостатки носят системный, трансграничный и многоязычный характер.
Когда люди не знают, чему доверять, они в конечном счёте перестают доверять всему, а это может препятствовать демократическому участию.
Жан Филип де Тендер
Медиадиректор ЕВС
OpenAI и Microsoft ранее признавали проблему конфабуляций — ситуаций, когда модель генерирует неверную информацию из-за недостатка данных. Компании утверждают, что работают над решением этой проблемы.
Ранее исследователи выяснили, что стиль общения с чат-ботами влияет на точность их ответов.