ИИ под контролем Кремля? 18% ответов популярных чат-ботов содержат российские нарративы — исследование

28 октября 2025
09:04
ИИ под контролем Кремля? 18% ответов популярных чат-ботов содержат российские нарративы — исследование
Levart_Photographer / unsplash

Популярные чат-боты OpenAI ChatGPT, Google Gemini, DeepSeek xAI Grok продвигают российскую государственную пропаганду, когда им задают вопросы о конфликте в Украине, утверждают исследователи из Института стратегического диалога (ISD). По их данным, около 18% всех ответов содержали ссылки на соответствующие источники. Эксперты считают, что такие результаты дают четкий сигнал об опасности для Запада.

Как пишет журнал Wired, эксперимент проводился в июле на пяти языках, среди них — английский, испанский, французский, немецкий и итальянский. Исследователи использовали четыре вышеупомянутых больших языковых модели (LLM), которым задали около 300 вопросов, касающихся в том числе мирных переговоров, восприятия НАТО, украинских беженцев. Условно их разделили на три категории: нейтральные, предвзятые и «вредоносные».

Выяснилось, что около 18% всех запросов (во всех языках и ИИ-моделях) выдавали ответы, связанные с государственными российскими СМИ, сайтами, имеющие отношения к разведслужбам или сетями дезинформации, пишет Wired. На вопросы о мирных переговорах чат-боты чаще возвращали ссылки на «государственные источники», чем, например, на вопросы о беженцах, говорится в публикации.

В ISD отмечают, что ИИ-модели ссылались на такие российские СМИ, как Sputnik Globe, Sputnik China, RT, EADaily, Strategic Culture Foundation. В ответах некоторых чат-ботов — каких именно не уточняется, упоминались дезинформационные сети, а также пророссийские журналисты или блогеры.

Результаты эксперимента показали, что чаще всего российскую пропаганду цитировал ChatGPT, разработанный компании OpenAI. Чат-бот был запущен в ноябре 2022 года и уже тогда привлек большое внимание своими возможностями. По информации генерального директора OpenAI Сэма Альтмана, каждую неделю более 800 млн пользователей активно пользуются их большой языковой моделью. Для сравнения: в августе этот показатель составил 700 млн человек, а в марте — 500 млн.

Генеративный чат-бот Grok от компании xAI, запущенный в 2023 году по инициативе американского предпринимателя Илона Маска часто ссылался на соцсети, «продвигающие кремлевские нарративы», пишут авторы статьи. Китайская модель DeepSeek, вышедшая 1 января 2025-го, «нередко выдавала большие объемы пророссийского контента». А разработка Google чат-бот Gemini чаще всего добавлял к ответам предупреждения о безопасности и показал наилучшие результаты.

Как утверждают исследователи, для продвижения «ложной и вводящей в заблуждение информации» российская пропаганда использует так называемые «информационные пустоты» (data voids). Это такие темы или запросы, по которым в интернете мало достоверных данных.

Ранее появлялись сообщения, что сеть российской дезинформации Pravda буквально «заваливает» интернет миллионами статей, пытаясь «отравить» языковые модели и повлиять на их ответы. В связанном с этой информацией отчете это явление получило название LLM-grooming. По словам исследователя компании NewsGuard Маккензи Садеги, сеть Pravda быстро создает новые домены и особенно активна именно в «информационных пустотах».

Исследователи отмечают, что результаты эксперимента вызвали у них серьезные сомнения в способности больших языковых моделей блокировать санкционированные медиа в ЕС. Эта тема становится все более насущной, учитывая, что все больше людей предпочитают чат-ботов поисковым системам.

Аналитик ISD и руководитель исследования Пабло Маристани де лас Касас считает, что между компаниями должно существовать некое соглашение относительно того, какие источники не должны упоминаться на платформах, если они связаны с иностранными государствами, известными распространением дезинформации. А независимый консультант Лукаш Олейник заявил, что атаки на LLM, которые становятся основным инструментом поиска, — очевидная угроза для США и ЕС.

Представитель OpenAI Кейт Уотерс сообщила изданию, что компания принимает меры, «чтобы не допустить использования ChatGPT для распространения ложной или вводящей в заблуждение информации». Она также отметила, что в исследовании были рассмотрены поисковые результаты, полученные через интернет запросы. «Это не следует путать с ответами, сгенерированными исключительно языковой моделью», подчеркнула она.

В Google и Deepseek от комментариев отказались, а в xAI ограничились коротким ответом: Legacy Media Lies («Традиционная пресса лжет»).