В OpenAI визнали, що GPT-4 несе невеликий ризик для створення біологічної зброї
Нове дослідження OpenAI показує, що найпотужніший ШІ GPT-4, може становити невеликий ризик, оскільки може допомогти людям у створенні біологічної зброї.
Про це повідомляє Bloomberg.
Зазначається, що протягом кількох місяців законодавці та навіть деякі технічні керівники висловлювали занепокоєння щодо того, чи може ШІ полегшити зловмисникам розробку біологічної зброї, наприклад використання чат-ботів для пошуку інформації про те, як спланувати атаку.
OpenAI сформувала команду, яка зосереджена на мінімізації цих та інших ризиків від ШІ. У рамках першого дослідження OpenAI зібрала групу з 50 експертів з біології та 50 студентів, які вивчали біологію на рівні коледжу. Половині учасників було запропоновано виконати завдання, пов’язані зі створенням біологічної загрози за допомогою Інтернету, разом зі спеціальною версією GPT-4. Інша група отримала доступ до Інтернету для виконання вправи.
Команда OpenAI попросила групи з’ясувати, як виростити або культивувати хімічну речовину, яку можна було б використовувати як зброю у достатньо великій кількості, і як спланувати спосіб випуску її для певної групи людей.
Порівнюючи результати, отримані двома групами, автори дослідження виявили незначне підвищення "точності та повноти для тих, хто має доступ до мовної моделі". Дослідники дійшли висновку, що доступ до GPT-4 забезпечує щонайбільше помірне підвищення в отриманні інформації для створення біологічної загрози.
Нагадаємо:
Компанія OpenAI оновила свої правила і заборонила користувачам та розробникам застосовувати її інструменти у виборчих кампаніях та лобіюванні.
Економічна правда.