Технокомпании в США выступают против создания "кнопки уничтожения" мощных моделей ИИ

Пятница, 7 июня 2024, 11:52 -
 
Financial Times

Ведущие разработчики искусственного интеллекта в Калифорнии (США) выступают против законопроекта, который обязывает их соблюдать строгие нормы безопасности, включая создание "кнопки уничтожения" для отключения своих мощных моделей ИИ.

Об этом сообщает газета Financial Times.

Законодательный орган Калифорнии рассматривает предложения, которые введут новые ограничения для технологических компаний, работающих в штате, включая три крупнейших стартапа в сфере ИИ: OpenAI, Anthropic и Cohere, а также крупные языковые модели, используемые такими компаниями, как Meta.

Законопроект требует от групп разработчиков ИИ в Калифорнии гарантировать государственным органам, что они не будут разрабатывать модели с "опасными возможностями", такими как создание биологического или ядерного оружия или помощь в кибератаках.

Реклама:

В соответствии с нормами, разработчики должны будут отчитываться о своих испытаниях на безопасность и ввести так называемую "кнопку уничтожения" для отключения своих моделей.

Однако закон вызвал негативную реакцию со стороны многих представителей Кремниевой долины из-за утверждения, что он заставит стартапы в сфере ИИ покинуть штат и помешает таким платформам, как Meta, работать с моделями с открытым исходным кодом.

"Если бы кто-то хотел придумать правила, чтобы задушить инновации, вряд ли можно было бы сделать лучше", - сказал Эндрю Нг, известный ученый-компьютерщик, который руководил проектами ИИ в Google Alphabet и китайском Baidu, и который входит в совет директоров Amazon. "Это создает огромную ответственность за научно-фантастические риски и тем самым разжигает страх у каждого, кто решается на инновации."

Реклама:

Быстрый рост и огромный потенциал искусственного интеллекта вызвали беспокойство относительно безопасности технологии: миллиардер Илон Маск, ранний инвестор компании OpenAI, занимающейся разработкой ChatGPT, в прошлом году назвал ее "экзистенциальной угрозой" для человечества. На этой неделе группа нынешних и бывших сотрудников OpenAI опубликовала открытое письмо, в котором предупредила, что "передовые ИИ-компании" не имеют достаточного надзора со стороны правительств и представляют "серьезные риски" для человечества.

Напомним:

Группа бывших и нынешних работников компаний, занимающихся искусственным интеллектом (ИИ), включая OpenAI и Google DeepMind, выразила обеспокоенность относительно рисков, связанных с этой технологией, в частности "вымирания человечества".

Экономическая правда.

Реклама:
Слушайте подкаст "Хроники экономики" на удобной платформе: