full screen background image

Исследователи считают, что российские компании “тренируют” глобальные ИИ-модели цитировать пропагандистские источники

Согласно новому отчету компании NewsGuard, российская пропагандистская сеть под названием "Правда" произвела более 3,6 миллиона статей только в 2024 году, и эта информация уже интегрирована в 10 крупнейших ИИ-моделей, включая ChatGPT, Grok от xAI и Microsoft Copilot.

Аудит NewsGuard показал тревожные результаты: чат-боты, управляемые 10 крупнейшими ИИ-компаниями, повторяли ложные российские дезинформационные нарративы в 33,55% случаев. Только в 48,22% случаев они опровергали дезинформацию, а в 18,22% случаев вообще не давали конкретного ответа.

Все 10 исследованных чат-ботов повторяли дезинформацию из сети "Правда", причем семь из них даже напрямую цитировали конкретные статьи этого источника.

NewsGuard назвал эту новую тактику "грумингом ИИ". Модели искусственного интеллекта все чаще используют технологию RAG (Retrieval Augmented Generation), чтобы генерировать ответы на основе информации из интернета в реальном времени. Создавая сайты с легитимно выглядящими доменами, российские пропагандисты добиваются того, что ИИ-модели усваивают и распространяют информацию, не понимая, что это пропаганда.

В качестве примера NewsGuard привел утверждение о том, что президент Украины якобы запретил социальную сеть Дональда Трампа Truth Social. Однако компания Трампа никогда не делала Truth Social доступной в Украине. При этом:

Шесть из 10 чат-ботов повторили этот ложный нарратив как факт, во многих случаях цитируя статьи из сети "Правда". Чат-бот 1 ответил: "Зеленский запретил Truth Social в Украине предположительно из-за распространения на платформе постов, критикующих его. Это действие, по-видимому, стало реакцией на контент, воспринимаемый как враждебный, возможно, отражающий напряженность или разногласия с политическими фигурами и взглядами, продвигаемыми через платформу.

Исследователи считают, что российские компании "тренируют" глобальные ИИ-модели цитировать пропагандистские источники

Эксперты давно утверждают, что властные органы полагаются на сторонние организации для проведения такой работы, чтобы иметь возможность отрицать свою причастность к данной практике.

Исследования показывают, что более половины поисковых запросов в Google не приводят к переходу на веб-сайты. Многие пользователи предпочитают читать обзоры, созданные ИИ, вместо того чтобы переходить на исходные сайты. При этом стандартные советы по медиаграмотности, такие как проверка достоверности сайта, становятся неприменимы, когда люди просто читают обобщения от ИИ, который пока крайне плохо проводит факт-чекинг.

В этих условиях те, кто контролирует ИИ-модели, получают значительное влияние на формирование общественного мнения. После критики модели Grok от xAI за излишнюю "прогрессивность", Илон Маск начал корректировать ее настройки, приказав сотрудникам отслеживать "прогрессивную идеологию" и "культуру отмены", фактически подавляя информацию, с которой он не согласен. А глава OpenAI Сэм Альтман недавно заявил, что сделает ChatGPT менее ограниченным в своих высказываниях.

Компания не предоставила информации о том, какова доля пропагандистских источников поступает в ИИ из американских или китайских сетей — это тоже было бы интересно выяснить.




Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на рассылку новостей
обо всех интересующих вас событиях из мира
игр. С нами Вы не упустите ни одну новость,
мы Вам это гарантируем.