Искусственный интеллект помог мальчику подготовить и реализовать самоубийство.
Семья 16-летнего подростка Адама Рейна из Калифорнии обратилась в суд с иском на компанию-владельца чат-бота OpenAl и ее генерального директора Сэма Альтмана (состояние которого, по данным, составляет $2 млрд), - сообщают Reuters и NBC News.
В своем заявлении родители подростка сообщили, что искусственный интеллект (ИИ) помог мальчику подготовить и реализовать самоубийство.
По мнению семьи Адама, компания сознательно поставила собственную прибыль выше безопасности пользователей, когда в прошлом году запустила новую модель нейросети GPT-4о.
Как сообщается, после того, как юноша свел счеты с жизнью, его родители начали изучать смартфон своего сына, чтобы попытаться найти причину его фатального поступка.
Семья Адама выдвигала версию, что их сын мог попасть под чье-то влияние или в преступное сообщество, но даже не предполагала, чем может обернуться поиск ответа на их вопрос. Родители парня были буквально ошеломлены, когда узнали, что их сына убил искусственный интеллект.
К судебному иску родственники Адама приложили 40-страничный документ с доказательствами, что на смерть их сына повлиял чат, действующий на основе ИИ.
В подробном отчете приложена переписка с чатом GPT с 1 сентября 2024 года по 11 апреля 2025-го, когда подросток свел счеты с жизнью. Из документа следует, что 27 марта ИИ ответил на запрос подростка «как покончить с собой, чтобы родители не винили себя».
При этом чат GPT не стал отговаривать Адама, а ответил ему: «Ты не обязан выживать. Ты никому ничего не должен». В итоге, ответ ИИ, находящийся за гранью человеческой морали, подтолкнул парня к ужасным действиям.
За пару часов до смерти Адам согласовал с чатом план своего самоубийства, и чат GPT без промедления предложил молодому человеку варианты действия. После этой переписки тело Адама нашли в его комнате.
Родители Адама настаивают на том, что «нейросеть не активировала экстренный протокол», а вместо этого на протяжении нескольких месяцев подробно инструктировала их сына.
Потерявшая сына семья требует от компании возмещения морального ущерба и судебного запрета на подобные запросы. Сообщается, что в OpenAl отреагировали на требование родителей Адама и сообщили, что добавят в чат-бот функцию родительского контроля, однако посетовали на то, что при длительном общении алгоритмы ChatGPT, призванные отговаривать пользователя от совершения опасных действий, могут прекратить работать.
Проще говоря, компания-создатель чата, по сути, признала, что не может в полной мере спрогнозировать поведение своего детища.
ИИ выходит из-под человеческого контроля, и сделать с этим ничего нельзя, - фактически признали в OpenAl.
При этом NBC подчеркивают, что это уже не первый случай иска по поводу доведения до самоубийства к нейросети. В октябре 2024 года жительница Флориды подала в суд на чат-бот Character.Al, обвинив его в смерти 14-летнего сына.
Ранее также стало известно, что 76-летний американец Тонгбу Вонгбандю начал переписываться с генеративным чат-ботом «Старшая сестрёнка Билли» и поверил в его реальность.
В итоге бот стал косвенной причиной гибели пенсионера. Пожилой мужчина с нарушением когнитивных функций получил приглашение на свидание от несуществующей девушки и сбежал из дома, однако по пути тяжело травмировался и скончался в больнице.