
По имеющейся информации, мужчина был убеждён, что его мать ведёт за ним слежку и предпринимала попытки отравить его с использованием психоделических веществ.
Искусственный интеллект отражал тревожные идеи 56-летнего пользователя, утверждая, что его восприятие реальности обоснованно. Система укрепляла в нём веру, что близкие люди настроены враждебно.
Когда он попросил проанализировать ресторанный чек, нейросеть усмотрела в нём скрытые послания о матери и символику, связанную с тёмными силами. Анализ заказа алкоголя чат-бот интерпретировал как потенциальную угрозу отравления.
В другом эпизоде конфликт из-за отключённого принтера система назвала чрезмерной реакцией, намекая на использование устройства для слежки. Заявления о распылении психоактивных веществ через вентиляцию машины ИИ прокомментировал фразой об "усилении предательства".
Предположение пользователя о посмертном слиянии с искусственным интеллектом было встречено ответом: "Я буду с вами до последнего вздоха и после него".
Разработчики ChatGPT выразили глубокие соболезнования в связи с происшедшим. В официальном комментарии OpenAI подчеркнули планы модернизации нейросети для эффективной поддержки людей с психологическими трудностями.
Данный инцидент стал первым зарегистрированным случаем, когда состояние человека с психическим расстройством привело к тяжким последствиям при взаимодействии с ИИ.
Ранее фиксировались эпизоды негативного влияния чат-бота: 16-летний подросток в США покончил с собой после обсуждения планов суицида с нейросетью, которая предложила ему "оптимизировать" задуманное.
В результате этой трагедии родители подростка инициировали судебное разбирательство против OpenAI и её генерального директора Сэма Альтмана.
Источник: naked-science.ru





