Россия и Китай используют ИИ от OpenAI для распространения дезинформации
Компания OpenAI обнаружила, что выявила случаи использования своих моделей искусственного интеллекта (ИИ) для создания и распространения дезинформации связанную с Россией, Китаем, Ираном и Израилем.
Об этом пишет Financial Times.
Отмечается, что возможности моделей ИИ OpenAI были использованы по крайней мере в пяти операциях скрытого воздействия для генерации текста и изображений в больших объемах, с меньшим количеством языковых ошибок, чем раньше, а также для генерации комментариев или ответов на свои собственные посты.
"Контент был сосредоточен на вопросах, вторжения России в Украину, конфликта в Газе, выборов в Индии, политики в Европе и США, а также критику китайского правительства со стороны китайских диссидентов и иностранных правительств", - говорится в сообщении.
Кроме того, ИИ использовали для повышения собственной производительности, применяя его для таких задач, как отладка кода или исследование активности пользователей в социальных сетях.
Главный исследователь по вопросам разведки и расследований OpenAI Бен Ниммо заявил, что использование моделей OpenAI не привело к значительному повышению уровня вовлеченности или охвата в результате кампаний.
В OpenAI добавили, что стремятся разоблачать такие дезинформационные кампании и работают над собственными инструментами на основе ИИ, чтобы сделать обнаружение и анализ более эффективными.
В отчете OpenAI также говорится о нескольких известных государственных дезинформационных субъектах, которые использовали ее инструменты. Среди них российская операция Doppelganger, которую впервые обнаружили в 2022 году и которая обычно пытается подорвать поддержку Украины.
Также китайская сеть, известная как Spamouflage, продвигающая интересы Пекина за рубежом. Обе кампании использовали модели OpenAI для создания текста или комментариев на нескольких языках перед размещением на таких платформах, как X Илона Маска.
В докладе говорится и о российской операции под названием "Плохая грамматика", о которой ранее не сообщалось, и которая использовала модели OpenAI для отладки кода для запуска бота Telegram и создания коротких политических комментариев на русском и английском языках, которые затем публиковались в Telegram.
Компания также сообщила, что предотвратила произраильскую дезинформацию на заказ, которую, вероятно, осуществляла тель-авивская компания по управлению политическими кампаниями под названием STOIC, использовавшая свои модели для создания статей и комментариев в Instagram, Facebook и X, принадлежащих Meta.
Напомним:
Дезинформация и ложная информация впервые возглавили список крупнейших краткосрочных глобальных рисков в мире.
Экономическая правда.