Маск и группа экспертов призывают приостановить развитие ИИ: говорят о рисках для безопасности
Инновации в действии
Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в разработке систем, мощнее недавно запущенного GPT-4 от OpenAI, ссылаясь на потенциальные риски для общества и человечества.
Об этом говорится в их открытом письме, пишет Reuters.
Ранее в этом месяце компания OpenAI, которую поддерживает Microsoft, представила четвертое обновление своего сервиса искусственного интеллекта GPT, которая поразила пользователей своим широким спектром применений - от привлечения пользователей к разговору, похожему на человеческий, до написания песен и обобщения объемных документов.
В письме, изданном некоммерческой организацией Future of Life Institute, которое подписали более 1000 человек, включая Маска, содержится призыв приостановить разработку передового ИИ, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких разработок.
"Мощные системы ИИ следует разрабатывать только тогда, когда мы будем уверены, что их последствия будут положительными, а риски - управляемыми", - говорится в письме.
OpenAI не сразу ответил на запрос Reuters о комментарии.
В письме подробно описаны потенциальные риски для общества и цивилизации от конкурентных с человеком систем ИИ в виде экономических и политических потрясений, а также содержится призыв к разработчикам сотрудничать с политиками в вопросах управления и регуляторными органами.
Среди подписантов - генеральный директор Stability AI Эмад Мостак, исследователи компании DeepMind, принадлежащей Alphabet (материнская компания Google), а также ИИ Йошуа Бенгио, которого часто называют одним из "крестных отцов ИИ", и Стюарт Рассел, пионер исследований в этой области.
Согласно реестру прозрачности ЕС, Future of Life Institute в основном финансируется Фондом Маска, а также лондонской группой эффективного альтруизма Founders Pledge и Фондом общины Кремниевой долины, базирующимся в Лондоне.
Беспокойство появилось после того, как в понедельник Европол предупредил о потенциальном злоупотреблении ChatGPT в попытках фишинга, дезинформации и киберпреступности.
Тем временем правительство Великобритании обнародовало предложения по "адаптивной" нормативной базе вокруг ИИ.
Подход правительства, изложенный в опубликованном в среду программном документе, предусматривает распределение ответственности за управление искусственным интеллектом (ИИ) между регуляторными органами по правам человека, здравоохранения и безопасности и конкуренции, а не создание нового органа, который бы занимался этой технологией.
Маск, чей автопроизводитель Tesla использует ИИ для системы автопилота, неоднократно выражал свою обеспокоенность в отношении ИИ.
С момента своего выпуска в прошлом году ChatGPT от OpenAI побудил конкурентов ускорить разработку подобных обширных языковых моделей, а компании - интегрировать генеративные модели ИИ в свои продукты.
На прошлой неделе OpenAI объявила, что заключила партнерство с около десятком фирм, чтобы встроить их услуги в своего чат-бота, что позволит пользователям ChatGPT заказывать продукты через Instacart или бронировать авиабилеты через Expedia.
Сэм Альтман, исполнительный директор OpenAI, не подписал письмо, сообщил Reuters представитель Future of Life.
"Письмо не идеально, но дух правильный: нам нужно притормозить, пока мы лучше не поймем последствия", - сказал Гэри Маркус, профессор Нью-Йоркского университета, подписавший письмо. "Крупные игроки становятся все более скрытными в отношении того, что они делают, что затрудняет для общества защиту от любого вреда, который может материализоваться", - добавил он.
Критики обвинили подписантов письма в том, что они способствуют "хайпу вокруг ИИ", утверждая, что заявления о нынешнем потенциале технологии значительно преувеличены.
"Подобные заявления предназначены для создания ажиотажа. Они имеют целью заставить людей волноваться", - говорит Йоханна Бьорклунд, исследовательница ИИ и доцент Университета Умео. "Я не думаю, что есть необходимость спускать все на тормозах", - считает она.
Вместо того, чтобы приостанавливать исследования, она считает, что исследователи ИИ должны придерживаться больших требований к прозрачности. "Если вы занимаетесь исследованиями ИИ, вы должны быть очень прозрачными в отношении того, как вы это делаете", - добавила Бйорклунд.
Экономическая правда