Искусственный интеллект: курс на правовое урегулирование
Проблематика штучного інтелекту (ШІ) давно хвилює людство. Досить згадати класиків-фантастів, зокрема Айзека Азімова та його три закони робототехніки.
Насправді ж перед людством два ключові виклики: запровадження штучного інтелекту нарощує темпи, і трьох законів робототехніки відверто бракує.
Якщо перше є питанням до науковців та футурологів, то друге – чітко до юристів. Правове врегулювання штучного інтелекту потребує напруженої роботи юристів як на глобальному рівні силами ООН, так і регіональному.
Уже понад рік в Україні працює урядова група, а місяць тому була зареєстрована спеціалізована ГО – Асоціація з розвитку штучного інтелекту.
На обох рівнях уже є певні напрацювання: в Україні концепція врегулювання представлена для публічного обговорення, а ООН проводить низку експертних консультацій з розробки етичних рекомендацій щодо штучного інтелекту.
Наразі неможливо визначити поняття "штучний інтелект". Вважається, що цей термін уперше запропонував американський учений-інформатик Джон Маккарті у 1956 році як "наука і техніка створення інтелектуальних машин".
Наразі це інформаційні системи, здатні виконувати завдання, що за своєю складністю дорівнюють людським можливостям у вирішенні проблем і потребують відповідних алгоритмів для розпізнавання мовлення, візуального сприйняття та ухвалення рішень, а також для передбачень.
Сфери застосування ШІ потребують з'ясування, адже нас буде цікавити і правове врегулювання. Приклади – "Нетфлікс", "Сірі", "Гугл-перекладач". ШІ часто виступає агентом людини: пропозиція від "Сірі" "увімкнути будильник" потребує схвалення людини, а далі "Сірі" дає відповідну вказівку будильнику.
Помічали, що навігаційні програми часто пропонують їхати до певної точки в певний час? Іноді – у певні дні. Погодитися – означає уповноважити ШІ звернутися до навігаційного алгоритму і доручити прокласти маршрут.
Цікавою є проблематика, пов'язана з можливою дією ШІ проти інтересів людини, особливо в поєднанні з відомими законами робототехніки Азімова.
Ця теза проходитиме червоною ниткою через все дослідження. Ми навіть не будемо пробувати знайти відповідь на питання, що є інтересами людини або чи може ШІ діяти проти інтересів одних людей в ім'я інтересів інших людей.
У трудовому праві, у широкому його сенсі, є низка проблем.
Так, ШІ дедалі ширше використовується для оцінки ефективності працівників, в окремих випадках – для їх звільнення. Це породжує етичне застереження: чи може ШІ звільняти людину? Що це: зверхність робота чи неминучість еволюції? Порушення прав людини чи суто прагматизм в інтересах іншої людини?
В освіті ШІ здатний значною мірою замінити людину, а навчання інженерів із ШІ повинно відбуватися з урахуванням низки етичних застережень.
У сфері культури є острах втрати унікальності контенту, що створює людина. Теоретично, штучний інтелект може підірвати культурне різноманіття, адже він може наслідувати так званий культурний код у будь-якому його вигляді.
Не можна не торкнутися особливо болісної теми, яка загострилася в період пандемії. На тлі великої кількості тяжких хворих лікарям доводилося робити складний вибір: цього пацієнта рятуємо, а цього відкладаємо на потім.
Потім могло не настати. Уявімо, що вибір робить не людина, а ШІ за алгоритмами, розробленими, можливо, навіть не лікарями. Чи готове людство прийняти той факт, що умовний робот вирішує, кому жити, а кому померти?
Ще один приклад застосування ШІ, що потребуватиме правового врегулювання, – так зване алгоритмічне правосуддя. Приклад – камери фотофіксації порушень правил дорожнього руху. Вони фіксуватимуть всі порушення чи допускатимуть винятки? Хто відповідатиме за неправосудні рішення?
Наступна проблема – "чорні коробки" ШІ. Останні визначаються як автоматизовані системи ухвалення рішень, чиї алгоритми базуються на машинному навчанні та обробці даних. Характерна особливість – недоступність процесингу ухвалення рішень, закритість алгоритмів обробки даних та, як наслідок, неможливість дати оцінку ухваленим "коробкою" рішенням.
Загалом вважається, що функціонування "чорних коробок" мусить бути прозорим та супроводжуватися належним правовим врегулюванням.
Показово, що тематика ШІ давно проникла в художню літературу.
Одним з гарних прикладів є роман Дена Брауна "Джерело", де комп'ютеризований помічник "Вінстон" не тільки вражав штучним інтелектом, а й організував убивство кількох людей. При цьому, якщо вірити автору, "Вінстон" прямої на те вказівки від свого творця не отримував.
Власне, завдання було іншим, але заради найкращого його виконання "Вінстон" пішов навіть на вбивства. Чим не кейс для правничого аналізу?
Дослідники ШІ визнають важливість уважного ставлення навіть до розмов про нього. Зокрема, Девід Якобі, Робін Фрімен та Олівер Вірн зазначають: "The AI community and conservation scientists need to promote the responsible and ethical use of AI in conservation".
Хочу також поділитися аналітикою Канта Діела та Стівена Кейла, які дослідили ШІ у літературі, а також спільно з ВВС провели масштабне опитування сприйняття ШІ простими людьми. За їх даними, 85% опитаних знають про ШІ (автор переконаний, що в Україні ця частка не перевищить 30%).
Чверть з опитаних описали ШІ як "робот", майже половина – як "щось, що думає". Понад половини побоюються, що ШІ та роботи позбавлять людей роботи (такі собі неолудити), а близько 30% – що роботи повстануть.
Водночас, кожен другий респондент сподівається на полегшення життя завдяки ШІ, а кожен п'ятий – що людство набуде безсмертя.
На завершення наведу один з принципів розвитку та впровадження штучного інтелекту, на якому наполягає ООН: ніхто не повинен бути залишений позаду.
Мається на увазі, що всі держави повинні отримати рівні права на дослідження в сфері ШІ, його запровадження та використання. Переконаний, що саме такий підхід стане запорукою щасливого майбутнього для всього людства.
Колонка написана за сприяння засновників ГО "АРШІ" Ольги Кравцової, Дмитра Нікандрова, Бориса Працюка та Владислава Власюка