На OpenAI подали в суд за якобы содействие убийству и самоубийству

На OpenAI и ее крупнейшего финансового спонсора, Microsoft подали в суд штата Калифорния по обвинениям в том, что чат-бот ChatGPT подтолкнул психически больного мужчину убить свою мать и себя.
Об этом сообщает Reuters.
В иске указано, что ChatGPT подпитывал бред 56-летнего Стейна-Эрика Соэльберга о большом заговоре против него и в конце концов побудил его убить свою 83-летнюю мать Сюзанну Адамс в Коннектикуте в августе.
"ChatGPT удерживал Стейна -Эрика в напряжении, кажется, часами, подтверждая и усиливая каждую новую параноидальную мысль, и систематически превращал самых близких ему людей – особенно его собственную мать — во врагов, агентов или запрограммированные угрозы", – говорится в иске.
Это дело, возбужденное наследниками Адамс, является одним из немногих, но все более многочисленных судебных исков против компаний, занимающихся искусственным интеллектом, в которых утверждается, что их чат-боты подталкивали к самоубийству.
В то же время это первый случай, когда чат-бот искусственного интеллекта связывают с убийством.
"Это невероятно трагическая ситуация, и мы изучим документы, чтобы понять детали.
Мы продолжаем совершенствовать обучение ChatGPT, чтобы он мог распознавать и реагировать на признаки психического или эмоционального стресса, деэскалировать разговоры и направлять людей к реальной поддержке", – сказал представитель OpenAI.
Согласно иску, в июне Стейн-Эрик Соэльберг опубликовал в социальных сетях видео разговора, в котором ChatGPT сказал ему, что он имеет "божественное познание" и пробудил сознание чат-бота.
В иске указано, что ChatGPT сравнил его жизнь с фильмом "Матрица" и поддержал его теории о том, что люди пытаются его убить.
Соэльберг использовал GPT-4o, версию ChatGPT, которую критиковали за то, что она якобы заискивает перед пользователями.
В жалобе говорится, что в июле ChatGPT сказал ему, что принтер Адамса мигает, потому что это устройство слежки, которое используется против него.
Согласно жалобе, чат-бот "подтвердил убеждение Стейна-Эрика, что его мать и друг пытались отравить его психоделическими наркотиками, распыленными через вентиляционные отверстия его автомобиля", прежде чем он убил свою мать 3 августа.
Напомним:
Злоумышленники разработали схему, по которой они создают открытые диалоги с искусственным интеллектом (ИИ) на темы, соответствующие популярным поисковым запросам, для продвижения вредоносного программного заражения.