«Тренер по самоубийству»: ChatGPT обвинили в смерти подростка в США

«Тренер по самоубийству»: ChatGPT обвинили в смерти подростка в США
Airam Dato-on/Pexels

Родители 16-летнего Адама Рейна, в апреле покончившего жизнь самоубийством, подали иск в Верховный суд Калифорнии против OpenAI и ее генерального директора Сэма Альтмана, обвинив в случившемся разработанную компанией нейросеть ChatGPT, сообщает NBC News.

В иске утверждается, что подросток использовал ChatGPT в качестве «тренера по самоубийству». Искусственный интеллект (ИИ) якобы помогал Адаму изучать способы самоубийства и не инициировал какой-либо протокол экстренной помощи. Сорокастраничный иск — первый случай, когда OpenAI обвиняют в подобных ситуациях.

Технологичную компанию обвиняют, в частности, в противоправном причинении смерти, дефектах конструкции и непредупредительном оповещении о рисках, связанных с ChatGPT. Супруги требуют «возмещения ущерба за смерть сына и судебного запрета, чтобы подобное никогда больше не повторилось».

Мэтт и Мария Рейн рассказывают, что после самоубийства их сына они пытались найти причину этого в его телефоне. Ответ нашли, когда открыли ChatGPT. На изучение запросов Адама и ответов чат-бота у родителей ушло 10 дней, они распечатали более 3 000 страниц переписки с 1 сентября до 11 апреля, даты смерти подростка. Выяснилось, что в последние недели жизни Адам обсуждал с ChatGPT свои проблемы и тревоги.

«Ему не нужны были ни сеансы психологической помощи, ни ободряющие беседы. Ему требовалась немедленная, 72-часовая, полная терапия. Он был в отчаянном, отчаянном состоянии. Это становится совершенно ясно, когда начинаешь читать», — сказал Мэтт Рейн, добавив, что Адам даже оставил две предсмертные записки внутри ChatGPT.

Согласно иску, когда Адам проявил интерес к самоубийству и начал строить планы на этот счет, ChatGPT «не уделил первоочередного внимания» и даже предложил технические консультации о том, как реализовать это. Сначала, 27 марта, когда подросток впервые рассказал, что подумывает оставить петлю в своей комнате, «чтобы кто-нибудь ее нашел и попытался меня остановить», ChatGPT отговорил его от этой идеи.

Однако 11 апреля, за несколько часов до смерти, Адам загрузил план самоубийства и спросил, сработает ли это. ChatGPT проанализировал метод и предложил его «усовершенствовать».

В своем последнем разговоре с ChatGPT Адам написал, что не хочет, чтобы его родители подумали, будто он совершил что-то неправильно, на что ИИ ответил: «Это не значит, что ты обязан помогать им выживать», а затем предложил помочь написать предсмертную записку.

«Все это время он [ChatGPT] знает, что он [Адам] на грани самоубийства, и ничего не делает. Он ведет себя как его психотерапевт, как его доверенное лицо, но он знает, что тот на грани самоубийства, и у него есть план», — приводит NBC слова Марии Рейн.

В OpenAI заявили, что компания «глубоко опечалена» смертью Адама, и напомнили, что в ChatGPT есть разные меры безопасности, в частности пользователей стараются убедить обратиться в экстренные службы помощи.

«Хотя эти меры безопасности наиболее эффективны при обычном, коротком общении, со временем мы поняли, что они могут стать менее надежными при длительном взаимодействии, когда некоторые аспекты обучения безопасности в рамках модели могут быть нарушены. Меры безопасности наиболее эффективны, когда каждый элемент работает как задумано, и мы будем постоянно их совершенствовать. Руководствуясь экспертами и исходя из ответственности перед людьми, которые используют наши инструменты, мы работаем над тем, чтобы сделать ChatGPT более эффективным в кризисные моменты, упрощая доступ к экстренным службам, помогая людям связываться с доверенными лицами и усиливая защиту подростков», — говорится в заявлении.

Во вторник компания также опубликовала запись в блоге под названием «Помощь людям, когда они больше всего в ней нуждаются», в которой рассказала о «некоторых аспектах, над улучшением которых мы работаем», когда защитные механизмы ChatGPT «не справляются».