Українська правда

Росія та Китай використовують ШІ від OpenAI для поширення дезінформації

Ігор Пилипів — 30 травня, 20:45

Компанія OpenAI виявила, що виявила випадки використання своїх моделей штучного інтелекту (ШІ) для створення та поширення дезінформації пов'язану з Росією, Китаєм, Іраном та Ізраїлем. 

Про це пише Financial Times.

Зазначається, що можливості моделей ШІ OpenAI були використаними принаймні у п’яти операцій прихованого впливу для генерації тексту і зображень у великих обсягах, з меншою кількістю мовних помилок, ніж раніше, а також для генерації коментарів або відповідей на свої власні пости. 

"Контент був зосереджений на питаннях, вторгнення Росії в Україну, конфлікту в Газі, виборів в Індії, політики в Європі і США, а також критику китайського уряду з боку китайських дисидентів та іноземних урядів", - йдеться у повідомленні.

Крім того, ШІ використовували для підвищення власної продуктивності, застосовуючи його для таких завдань, як налагодження коду або дослідження активності користувачів у соціальних мережах. 

Головний дослідник з питань розвідки та розслідувань OpenAI Бен Німмо заявив, що використання моделей OpenAI не призвело до значного підвищення рівня залученості або охоплення в результаті кампаній. 

У OpenAI додали, що прагнуть викривати такі дезінформаційні кампанії і працюють над власними інструментами на основі ШІ, щоб зробити виявлення та аналіз більш ефективними. 

У звіті OpenAI також йдеться про кілька відомих державних дезінформаційних суб'єктів, які використовували її інструменти. Серед них російська операція Doppelganger, яку вперше виявили у 2022 році і яка зазвичай намагається підірвати підтримку України.

Також китайська мережа, відома як Spamouflage, що просуває інтереси Пекіна за кордоном. Обидві кампанії використовували моделі OpenAI  для створення тексту або коментарів кількома мовами перед розміщенням на таких платформах, як X Ілона Маска.

У доповіді йдеться й про російську операцію під назвою "Погана граматика", про яку раніше не повідомлялося, і яка використовувала моделі OpenAI для налагодження коду для запуску бота Telegram і створення коротких політичних коментарів російською та англійською мовами, які потім публікувалися у Telegram.

Компанія також повідомила, що запобігла проізраїльській дезінформації на замовлення, яку, ймовірно, здійснювала тель-авівська компанія з управління політичними кампаніями під назвою STOIC, що використовувала свої моделі для створення статей і коментарів в Instagram, Facebook і X, що належать Meta.

Нагадаємо:

Дезінформація та неправдива інформація вперше очолили список найбільших короткострокових глобальних ризиків у світі.

Економічна правда.

штучний інтелект Китай технології РФ