У 2024 році понад 2 мільярди людей проголосують. Уже зараз всі хвилюються через ШІ. Що відбувається?
Як і хто використає штучний інтелект для перемоги на виборах та чому нейромережі можуть зруйнувати демократію.
Вересень 1960 року, Чикаго, США. У телевізійній студії CBS до ефіру готуються два чоловіки з однаково чітким бажанням: стати наступним президентом США.
У день теледебатів кандидат від демократів Джон Кеннеді виглядав краще за свого опонента від республіканців Річарда Ніксона. Другий напередодні пошкодив коліно, деякий час лікувався і схуд. Через це костюм на ньому трохи висів.
Уже в телевізійній студії він ще раз вдарився коліном, відмовився від послуг гримера і загалом виглядав доволі кепсько. На його фоні Кеннеді був втіленням упевненості, енергійності та життєвої сили.
Ті дебати стали першими в історії США, які наживо транслювали по телебаченню. Той факт, що мільйони американських виборців змогли не просто почути, а й побачити своїх кандидатів, став для Кеннеді ключем до перемоги. Телебачення допомогло йому стати президентом. Американці, які слухали дебати по радіо і не бачили втомленого і спітнілого Ніксона, віддали перевагу останньому.
У 2024 році в США та низці інших країн, серед яких Індія, Мексика, Велика Британія та Євросоюз, пройдуть чергові вибори, які можуть стати ще одним фактором для посилення міжнародної нестабільності. Використання загальнодоступних інструментів штучного інтелекту так само може зіграти в цих процесах одну з ключових ролей, як це зробило 60 років тому телебачення.
Активний розвиток і застосування штучного інтелекту (ШІ), здатного створювати тексти, зображення і копіювати голоси, стає новим викликом для демократії. Інструменти ШІ можуть назавжди змінити уявлення про виборчий процес.
Вибори для 2 мільярдів людей
В останні роки виборчі перегони нагадують медійні війни.
Чого лише варті вибори президента США у 2020 році. Коли стало відомо, що Дональд Трамп програв перегони, група його прихильників вирішила змінити результати голосування, захопивши будівлю Конгресу США. Насильницький мітинг, який охрестили штурмом Капітолію, призвів до загибелі пʼяти осіб. Федеральна служба безпеки тоді відкрила понад 160 розслідувань.
У 2024 році голосуватимуть понад 2 млрд виборців. Для України виборчі процеси у світі будуть особливими: вони пройдуть у країнах, які є для неї стратегічними партнерами у війні з РФ. Серед них – США, ЄС та Велика Британія. В останній парламентські вибори мають відбутися не пізніше 28 січня 2025 року.
Крім союзників України, вибори також пройдуть у державах, які мають значний вплив не тільки на глобальну економіку, а й на ситуацію у світі загалом. Так, в Індії, економіка якої в останні 20 років зростає щорічно на 5-8%, пройдуть парламентські вибори. У голосуванні братимуть участь близько 1 млрд осіб.
Політична конкуренція в розвинених демократіях давно набула жорстких форм. Політики використовують усі ресурси, зокрема соцмережі, вплив яких на громадську думку значно посилився. Разом з генеративним штучним інтелектом вони можуть стати небезпечною зброєю для поширення дезінформації.
Генерування текстів, зображення й голосу за допомогою ШІ наблизить кандидатів до виборців, що дозволить політикам ефективніше представляти інтереси громадян. Це може зробити виборчі кампанії точними та ефективними.
Однак зростає і побоювання, як ШІ може вплинути на виборчі процеси та демократію загалом. Технологічним корпораціям доведеться докладати значно більше зусиль, щоб модерувати контент та захищатися від шторму фейків.
Основні загрози ШІ для виборів
Використання штучного інтелекту в передвиборчих кампаніях не створює нових загроз. Небезпекою використання нейромереж є підсилення давно відомих проблем, серед яких – маніпуляція інформацією, фейки, відверта дезінформація.
Раніше для створення такого контенту залучали великі людські ресурси. Фахівці повинні були вигадати фейки, оформити їх у повідомлення для конкретних цільових груп, створити фото чи відео, які б виконували роль підтвердження. Тепер такий контент за допомогою ШІ може створювати одна людина.
ШІ дозволяє збільшити кількість творців політичної пропаганди, а її використання дешевшає. ChatGPT, який створює текстові відповіді, доступний усім.
Крім поширення дезінформації, ШІ є інструментом прихованої дії. Нейромережі дозволяють чітко таргетувати аудиторію, яка має вирішальне значення під час виборів. Виявлення потрібних виборців підвищує шанси політиків на перемогу.
Враховуючи високий рівень поляризації населення на Заході, є лише малий відсоток виборців без чіткої позиції. Саме за них відбуватиметься основна боротьба. Згідно з опитуванням Коледжу Емерсона, проведеним у квітні 2023 року, лише 6% американців не визначилися з вибором майбутнього президента.
Використовуючи дані комерційних брокерів, які мають детальну інформацію про те, що люди читають, дивляться, купують і яка їхня політична поведінка, політтехнологи за допомогою генеративного ШІ зможуть створити саме той меседж, який допоможе виборцю ухвалити остаточне рішення.
Голоси, що звучать, як справжні
Ще однією загрозою для виборів є Deepfake, коли за допомогою алгоритмів машинного навчання створюються неправдиві відео або аудіо. Голова комітету з розвідки Сенату США Марк Ворнер заявив, що фінансові ринки та вибори 2024 року найбільш уразливі до маніпуляцій з використанням штучного інтелекту.
"Це сфери, де ШІ може мати миттєвий руйнівний ефект", – сказав він. На його думку, Сполучені Штати вразливі, зокрема, перед китайськими технологіями.
Прикладом використання Deepfake під час виборів є випадок у Словаччині. За два дні до голосування у Facebook з'явився аудіозапис, на якому чути два голоси. Вони обговорюють, як можна сфальсифікувати вибори, зокрема, через купівлю голосів маргіналізованої ромської меншини в країні.
Словацький виборець в одному з голосів міг упізнати лідера партії "Прогресивна Словаччина" Міхала Шимечки, в іншому – Моніку Тодову з газети Denník N.
Хоча сторони заявили, що аудіозапис є фейком, його публікація мала значний ефект. Річ у тім, що аудіо зʼявилося у Facebook під час 48-годинної тиші у ЗМІ та політиці. Це означало, що пост було важко широко спростувати. Пізніше було встановлено, що аудіозапис зробили за допомогою нейронної мережі.
У результаті "Прогресивна Словаччина" програла проросійській партії SMER-SD. Для України ця новина була невтішною, адже лідер SMER-SD Роберт Фіцо заявляє про необхідність припинення військової підтримки Києва.
У квітні Республіканський національний комітет відповів на заяву президента США Джо Байдена про намір балотуватися на другий термін. Комітет опублікував згенероване штучним інтелектом відео, у якому зображена антиутопічна версія майбутнього, якщо чинний президент США знову переможе.
Відео складається із створених нейромережею зображень, на яких Байден та віцепрезидентка Камалу Харріс святкують перемогу в день виборів, після чого йде серія уявних репортажів про міжнародні та внутрішні кризи, які, як припускає реклама, відбудуться після перемоги Байдена у 2024 році.
Хоча це відео можна доволі просто викрити в неправдивості, його головною перевагою є те, що для його створення не потрібні спеціалісти, які володіють фотошопом чи монтажем. Будь-хто може створювати подібне. Якість відео залежить лише від коректності поставлених завдань та навченості ШІ.
Технологія ШІ може навіть створити фальшивий електорат. Професори Корнельського університету Сара Крепс і Даг Крінер надіслали десятки тисяч електронних листів до понад 7 тис представників штатів. Зміст листів імітував звернення небайдужих виборців, проте половина з них була згенерована ШІ.
Експеримент показав, що за допомогою ШІ можна створити вигадані запити, спроможні заплутати передвиборчий штаб кандидата. Завдяки технології машинного навчання згенеровані тексти важко відрізнити від написаних людьми.
Як запобігти ризикам
Протистояти поширенню дезінформації, згенерованій ШІ, складно. У випадку з виборами до парламенту Словаччини використання штучного інтелекту суттєво ускладнило роботу організації Demagog, яка займається фактчекінгом.
Річ у тім, що зображення та відео, згенеровані ШІ, можна створювати набагато швидше, ніж фактчекери встигають їх переглянути та спростувати. Ця диспропорція є однією з головних проблем майбутніх виборів. Для мінімізації ризиків масового використання штучного інтелекту потрібен трирівневий захист.
Перший рівень – розробники ШІ. Великі технологічні компанії (OpenAI, Alphabet, Meta) пообіцяли Білому дому позначати "водяним знаком" контент, створений ШІ. Це зобов'язання є частиною кампанії у сфері регулювання нейромережі.
Другий рівень – модерація соціальних мереж. Платформи на кшталт X, Facebook, TikTok та YouTube мають власну політику щодо цього. Відповідно, їхні правила мають бути переглянуті для боротьби з дезінформацією. Проте соцмережа Х після приходу Ілона Маска настільки змінила свої правила, що недавні події в Ізраїлі лише підкреслили її безпорадність у боротьбі з фейками.
Закон може змусити платформи видаляти неправдивий контент. Наприклад, недавно запроваджений закон ЄС про цифрові послуги (DSA) вимагає від великих онлайн-платформ вилучати незаконний вміст і вживати заходів щодо усунення ризиків для громадської безпеки та громадянського дискурсу.
У разі порушення законодавства компанії загрожуватиме штраф у розмірі до 6% світового обороту, а систематичних порушників можуть навіть заблокувати в Євросоюзі. Посилаючись на DSA, європейський регулятор змусив технологічні компанії видалити із своїх платформ фейки про війну в Ізраїлі.
Третій рівень – персональна обережність. Звісно, відрізнити згенеровані текст чи аудіо від оригіналу складно. На жаль, навіть автоматичні інструменти перевірки текстів, створених ШІ, далеко не завжди дають точний результат.
Так, OpenAI розробила класифікатор, навчений розрізняти тексти, написані машиною та людиною. Однак через низьку точність компанія закрила до нього доступ. Класифікатор правильно визначав авторство тільки у 26% випадків.
Утім, вихід є: старі правила інформаційної гігієни. Слід скептично ставитися до прочитаного, почутого і побаченого, споживати інформацію тільки з офіційних джерел та перевірених ЗМІ. Зрештою, штучний інтелект, коли створює зображення, любить домальовувати людині шостий палець.