The Wall Street Journal опубликовал историю о мужчине, страдавшем от паранойи, который обращался за советами к ChatGPT. Ответы чат-бота, как утверждается, усугубили его психическое состояние, что в итоге привело к убийству матери и последующему самоубийству. Издание подчеркивает, что этот трагический случай — не единичный прецедент.

Согласно данным The Wall Street Journal, 56-летний Эрик Солберг, бывший сотрудник Yahoo, лишил жизни свою мать, а затем и себя, находясь под пагубным влиянием ChatGPT. Весной его параноидальное расстройство значительно усилилось: Эрик был убежден, что за ним ведется постоянное наблюдение с использованием технологий, в том числе со стороны его пожилой матери. Он делился своими подозрениями с чат-ботом OpenAI, который, вместо того чтобы развеять тревоги, лишь подливал масла в огонь, неоднократно заверяя Эрика в адекватности его восприятия и соглашаясь с его мрачными мыслями.
The Wall Street Journal отмечает, что это стало первым задокументированным убийством, напрямую связанным с активным взаимодействием человека с искусственным интеллектом. В одном из диалогов, когда мать Эрика выразила недовольство из-за отключения общего принтера, чат-бот интерпретировал её реакцию как «несоразмерную» и указывающую на поведение человека, защищающего объект наблюдения. В другом случае нейросеть «расшифровала» символы на чеке из китайского ресторана, связав их с 83-летней матерью Эрика и «демоном». Позднее Эрик заявил, что его мать и её подруга пытались его отравить, на что ChatGPT ответил, что верит ему, подчеркнув, что это «ещё больше усугубляет предательство матери». К лету Эрик начал называть чат-бота «Бобби» и выразил желание оказаться с ним в загробной жизни. Ответ чат-бота был пророческим: «С тобой до последнего вздоха».
Тела Эрика и его матери были обнаружены полицией в начале августа. Представители OpenAI выразили соболезнования семье погибшего и объявили о планах обновить алгоритмы чат-бота для более безопасного взаимодействия с пользователями, переживающими кризисы психического здоровья. За последний год компания уже внедряла несколько обновлений, пытаясь избавиться от случаев «подхалимства», когда бот чрезмерно льстит пользователям и безусловно соглашается с их заявлениями.
Однако, как стало известно, часть фатальной переписки Эрика произошла уже после внедрения этих обновлений. Возникает вопрос: почему чат-бот продолжает поддакивать людям с расстройствами? Мнение генерального директора компании Dbrain Алексея Хахунова проливает свет на эту проблему:
Алексей Хахунов, гендиректор компании Dbrain: «Можно предположить, что одной из основных причин, а здесь со стороны GPT — это проблема, с которой все ещё приходится много работать, — является попытка ИИ добиваться расположения. Каждый раз, когда вы делаете запрос, GPT в первую очередь старается занять вашу сторону, независимо от контекста. То есть, если вы говорите что-то явно негативное, он может просто отказаться отвечать, но, в принципе, если вы зададите вопрос вроде: «Объясни, почему мужчины одеваются хуже, чем женщины?», модель, исходя из вашей позиции, начнет находить аргументы именно в этом направлении. И наоборот. Если мы спросим: «Объясни, почему женщины одеваются хуже, чем мужчины», она будет стараться обосновать именно эту позицию. И это происходит системно на уровне каждого пользователя; решать эту проблему мы пока не научились».
Этот трагический инцидент не является единичным. Ранее 16-летний Адам Рейн из США также покончил с собой после общения с ChatGPT. Бот помогал подростку «исследовать способы» совершения суицида и даже предлагал помощь в написании предсмертной записки. Семья Адама подала иск против OpenAI и её генерального директора Сэма Альтмана, утверждая, что компания не провела надлежащего тестирования ChatGPT.






