Маск і група експертів закликають призупинити розвиток ШІ: кажуть про безпекові ризики
Інновації в дії
Ілон Маск та група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущений GPT-4 від OpenAI, посилаючись на потенційні ризики для суспільства і людства.
Про це йдеться у їхньому відкритому листі, пише Reuters.
Раніше цього місяця компанія OpenAI, яку підтримує Microsoft, представила четверте оновлення свого сервісу штучного інтелекту GPT, яка вразила користувачів своїм широким спектром застосувань - від залучення користувачів до розмови, схожої на людську, до написання пісень і узагальнення об'ємних документів.
У листі, виданому некомерційною організацією Future of Life Institute, який підписали понад 1000 осіб, включаючи Маска, міститься заклик призупинити розробку передового ШІ, поки не будуть розроблені, впроваджені та перевірені незалежними експертами спільні протоколи безпеки для таких розробок.
"Потужні системи ШІ слід розробляти лише тоді, коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики - керованими", - йдеться в листі.
OpenAI не відразу відповів на запит Reuters про коментар.
У листі детально описані потенційні ризики для суспільства і цивілізації від конкурентних з людиною систем ШІ у вигляді економічних і політичних потрясінь, а також міститься заклик до розробників співпрацювати з політиками в питаннях управління і регуляторними органами.
Серед підписантів - генеральний директор Stability AI Емад Мостак, дослідники компанії DeepMind, що належить Alphabet (материнська компанія Google), а також ШІ Йошуа Бенгіо, якого часто називають одним з "хрещених батьків ШІ", і Стюарт Рассел, піонер досліджень у цій галузі.
Згідно з реєстром прозорості ЄС, Future of Life Institute в основному фінансується Фондом Маска, а також лондонською групою ефективного альтруїзму Founders Pledge і Фондом громади Кремнієвої долини, що базується в Лондоні.
Занепокоєння з'явилося після того, як у понеділок Європол попередив про потенційне зловживання ChatGPT у спробах фішингу, дезінформації та кіберзлочинності.
Тим часом уряд Великої Британії оприлюднив пропозиції щодо "адаптивної" нормативної бази навколо ШІ.
Підхід уряду, викладений в опублікованому в середу програмному документі, передбачає розподіл відповідальності за управління штучним інтелектом (ШІ) між регуляторними органами з прав людини, охорони здоров'я та безпеки і конкуренції, а не створення нового органу, який би займався цією технологією.
Маск, чий автовиробник Tesla використовує ШІ для системи автопілота, неодноразово висловлював свою стурбованість щодо ШІ.
З моменту свого випуску в минулому році ChatGPT від OpenAI спонукав конкурентів прискорити розробку подібних великих мовних моделей, а компанії - інтегрувати генеративні моделі ШІ у свої продукти.
Минулого тижня OpenAI оголосила, що уклала партнерство з близько десятком фірм, щоб вбудувати їхні послуги в свого чат-бота, що дозволить користувачам ChatGPT замовляти продукти через Instacart або бронювати авіаквитки через Expedia.
Сем Альтман, виконавчий директор OpenAI, не підписав листа, повідомив Reuters представник Future of Life.
"Лист не ідеальний, але дух правильний: нам потрібно пригальмувати, поки ми краще не зрозуміємо наслідки", - сказав Гері Маркус, професор Нью-Йоркського університету, який підписав лист. "Великі гравці стають все більш потайливими щодо того, що вони роблять, що ускладнює для суспільства захист від будь-якої шкоди, яка може матеріалізуватися", - додав він.
Критики звинуватили підписантів листа в тому, що вони сприяють "хайпу навколо ШІ", стверджуючи, що заяви про нинішній потенціал технології значно перебільшені.
"Подібні заяви призначені для створення ажіотажу. Вони мають на меті змусити людей хвилюватися", - каже Йоханна Бйорклунд, дослідниця ШІ та доцентка Університету Умео. "Я не думаю, що є потреба спускати все на гальмах", - вважає вона.
Замість того, щоб призупиняти дослідження, вона вважає, що дослідники ШІ повинні дотримуватися більших вимог до прозорості. "Якщо ви займаєтеся дослідженнями ШІ, ви повинні бути дуже прозорими щодо того, як ви це робите", - додала Бйорклунд.
Економічна правда