Регламент всього: як буде врегульовано штучний інтелект
Штучний інтелект уже зараз повсюди: у додатках вашого смартфона, у гуглі, у рекламі, у теслі, а за чутками – навіть у деяких урядах.
Зауважте, що штучний інтелект це не лише алгоритм дій, а й обробка масивів даних, і навіть збір таких даних. При цьому, реально наразі не існує лімітів на використання штучного інтелекту: де хочемо, там вставляємо.
Із іншого боку, немає і можливостей його легально залучати там, де це прямо не передбачено – ну в судах, наприклад.
Тобто, потрібно це все діло впорядкувати регулюванням: тут можна, тут можна тільки обережно, а тут взагалі ніт.
У середині квітня Європейська комісія опублікувала 108-сторінковий проект Регламенту, який регулює використання штучного інтелекту. Потенційно, скоро ми станемо свідками появи першого "повноцінного" закону про штучний інтелект.
Незважаючи на всі переваги використання, штучний інтелект несе в собі багато ризиків. Це і загроза приватним даним, "дискримінаційні алгоритми", діпфейки, і навіть автоматизована зброя.
Не беручи до уваги приватні дані, які покриваються славнозвісним GDPR, все інше практично нічим не регулюється. Регламент – це найбільш глобальна спроба врегулювати вкрай перспективні, але водночас суперечливі технології.
Що передбачає майбутній Регламент?
Регламент передбачає чотири "зони" використання штучного інтелекту:
Перша категорія – це неприйнятний ризик. Використання таких технологій є абсолютно забороненим.
Це програми, які можуть маніпулювати поведінкою людини – наприклад, іграшки, що заохочують малолітніх до небезпечної поведінки, або система розпізнавання облич в публічному просторі.
Щодо останнього, законодавці все-таки пропонують робити деякі винятки задля проведення кримінального розслідування. До цієї групи також відносяться системи соціального оцінювання (такі як в Китаї), а також програми, які націлені на "конкретні вразливі групи".
Друга категорія – це високий ризик – сюди входять технології штучного інтелекту, що використовуються в критичній інфраструктурі (наприклад транспорт, лікарні) - тобто такі технології, які потенційно можуть поставити під загрозу людське життя, а також, ті які використовуються в сферах освіти, юстиції, та працевлаштування.
Регламент Європейського Союзу вимагатиме від компаній, що розробляють штучний інтелект у зонах високого ризику, надавати регуляторам докази його безпеки, включаючи оцінки ризиків та документацію, що пояснює, як технологія приймає рішення.
Компанії також повинні контролювати те, чи не відбувається порушення прав людини при створенні чи використанні відповідної програми.
Окрім цього, Європейська Комісія також пропонує, щоб системи ШІ мали щось на кшталт "вимикача" - кнопка, яка здатна негайно зупинити роботу системи, якщо виникне така необхідність.
У разі якщо ШІ спробує виявити емоції людини, або класифікувати людей за біометричними ознаками, такими як стать, вік, раса, сексуальна орієнтація чи політичні уподобання – людина має бути про це повідомлена.
Третя категорія, це обмежений ризик - користуючись системами ШІ, такими як чат-боти, користувачі повинні розуміти, що вони взаємодіють з машиною, а не з людиною.
І наостанок, мінімальний ризик. Переважна більшість систем ШІ відноситься саме до цієї категорії. Це, наприклад, відеоігри з підтримкою ШІ або фільтри спаму.
Оскільки ці системи ШІ представляють лише мінімальний ризик або зовсім не становлять ризик для прав чи безпеки громадян, вони не регулюються Регламентом.
Окрім цього, зі сфери дії закону виключається використання ШІ у військових цілях – зокрема через те, що регулювання орієнтоване на внутрішній ринок ЄС.
Які наслідки?
Запланований закон поширюватиметься на будь-яку компанію, що продає в ЄС продукт або послугу ШІ, а не лише на компанії та приватні особи, що базуються в ЄС, тож, за своєю суттю, він буде екстериторіальним.
В першу чергу, це звісно торкнеться відомих тек-гігантів, таких як Google, Facebook, Amazon та Microsoft, адже в приватному секторі саме вони є лідерами з дослідження, розробки та впровадження технологій штучного інтелекту.
Деякі фахівці навіть порівнюють наслідки прийняття такого закону з наслідками прийняття GDPR, наразі головного документу з захисту приватних даних.
Основна схожість полягає в розмірі штрафів та процесах контролю за дотриманням законодавства. Ті компанії, які порушуватимуть вимоги Регламенту будуть змушені сплатити штраф у розмірі від 4 до 6 відсотків від глобальних доходів за рік.
А для того, щоб контролювати компанії, та, відповідно, накладати штрафи, у кожній державі-члені ЄС будуть створені спеціальні відомства (знову ж таки, паралель з захистом приватних даних та їхніми National data protection authorities).
Для того, щоб новостворені національні органи належним чином працювали, на рівні ЄС буде створений ще один орган – Європейська рада з питань штучного інтелекту (European Artificial Intelligence Board).
Разом з Європейською Комісією, новостворений орган опікуватиметься контролем за виконанням державами-членами ЄС своїх зобов`язань, а також вестиме загальноєвропейську базу даних систем високого ризику.
З іншого боку, впровадження цього документу може й не мати такі самі наслідки, як впровадження GDPR – зокрема через те, що поняття штучного інтелекту є набагато ширшим за поняття приватних даних.
Невідомо також, чи дійсно національні органи будуть спроможні забезпечити повний контроль за дотриманням законодавства – знову ж таки через те, що не зрозуміло, яким чином розмежовуватимуться категорії ризику.
Однак, можна не сумніватись лише в одному – документ, у будь-якому випадку, матиме неабиякий вплив на цю сферу. І можемо сподіватись, що ми побачимо цей вплив у найближчому майбутньому.
Більше того, Брюссель наголосив на тому, що імплементація відповідного законодавства допоможе створити внутрішній ринок систем штучного інтелекту.
Це має допомогти змістити фокус зі США та Китаю, які стали лідерами у цій сфері за останні 10 років.
На думку законодавців, численні стартапи та молоді компанії віддаватимуть перевагу саме ринку ЄС, адже, за наявності законодавчого врегулювання, компанії зможуть адекватно оцінювати не лише вигоди, а й ризики використання таких систем.
Це допоможе усунути можливі ризики та забезпечити прозоре використання штучного інтелекту з обов'язковим дотримання прав та європейських цінностей.