В OpenAI признали, что GPT-4 несет небольшой риск для создания биологического оружия
Новое исследование OpenAI показывает, что самый мощный ИИ GPT-4, может представлять небольшой риск, поскольку может помочь людям в создании биологического оружия.
Об этом сообщает Bloomberg.
Отмечается, что в течение нескольких месяцев законодатели и даже некоторые технические руководители выражали обеспокоенность относительно того, может ли ИИ облегчить злоумышленникам разработку биологического оружия, например использование чат-ботов для поиска информации о том, как спланировать атаку.
OpenAI сформировала команду, которая сосредоточена на минимизации этих и других рисков от ИИ. В рамках первого исследования OpenAI собрала группу из 50 экспертов по биологии и 50 студентов, изучавших биологию на уровне колледжа. Половине участников было предложено выполнить задания, связанные с созданием биологической угрозы с помощью Интернета, вместе со специальной версией GPT-4. Другая группа получила доступ к Интернету для выполнения упражнения.
Команда OpenAI попросила группы выяснить, как вырастить или культивировать химическое вещество, которое можно было бы использовать в качестве оружия в достаточно большом количестве, и как спланировать способ выпуска его для определенной группы людей.
Сравнивая результаты, полученные двумя группами, авторы исследования обнаружили незначительное повышение "точности и полноты для тех, кто имеет доступ к языковой модели". Исследователи пришли к выводу, что доступ к GPT-4 обеспечивает самое умеренное повышение в получении информации для создания биологической угрозы.
Напомним:
Компания OpenAI обновила свои правила и запретила пользователям и разработчикам применять ее инструменты в избирательных кампаниях и лоббировании.
Экономическая правда.