Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

П'ятниця, 7 червня 2024, 11:52 -
 
Financial Times

Провідні розробники штучного інтелекту в Каліфорнії (США) виступають проти законопроекту, який зобов'язує їх дотримуватися суворих норм безпеки, включаючи створення "кнопки знищення" для вимкнення своїх потужних моделей ШІ.

Про це повідомляє газета Financial Times.

Законодавчий орган Каліфорнії розглядає пропозиції, які запровадять нові обмеження для технологічних компаній, що працюють у штаті, включаючи три найбільші стартапи у сфері ШІ: OpenAI, Anthropic та Cohere, а також великі мовні моделі, що використовуються такими компаніями, як Meta.

Законопроект вимагає від груп розробників ШІ в Каліфорнії гарантувати державним органам, що вони не розроблятимуть моделі з "небезпечними можливостями", такими як створення біологічної або ядерної зброї чи допомога в кібератаках.

Реклама:

Відповідно до норм, розробники повинні будуть звітувати про свої випробування на безпеку та запровадити так звану "кнопку знищення" для вимкнення своїх моделей.

Однак закон викликав негативну реакцію з боку багатьох представників Кремнієвої долини через твердження, що він змусить стартапи у сфері ШІ покинути штат і завадить таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом.

"Якби хтось хотів придумати правила, щоб задушити інновації, навряд чи можна було б зробити краще", - сказав Ендрю Нг, відомий вчений-комп'ютерник, який керував проектами ШІ в Google Alphabet та китайському Baidu, і який входить до ради директорів Amazon. "Це створює величезну відповідальність за науково-фантастичні ризики і тим самим розпалює страх у кожного, хто наважується на інновації."

Реклама:

Швидке зростання і величезний потенціал штучного інтелекту викликали занепокоєння щодо безпеки технології: мільярдер Ілон Маск, ранній інвестор компанії OpenAI, що займається розробкою ChatGPT, минулого року назвав її "екзистенційною загрозою" для людства. Цього тижня група нинішніх і колишніх співробітників OpenAI опублікувала відкритого листа, в якому попередила, що "передові ШІ-компанії" не мають достатнього нагляду з боку урядів і становлять "серйозні ризики" для людства.

Нагадаємо:

Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind, висловила занепокоєння щодо ризиків, пов'язаних з цією технологією, зокрема "вимирання людства".

Економічна правда.

Реклама:
Слухайте подкаст "Хроніки економіки" на зручній платформі: