Главные новости » В мире » В США произошло первое убийство с предполагаемым участием искусственного интеллекта
В мире

В США произошло первое убийство с предполагаемым участием искусственного интеллекта

484
Согласно сообщениям американских СМИ, убийство произошло, когда 56-летний Штейн-Эрик Сельберг убил свою мать, а затем покончил с собой. Расследование показало, что в течение нескольких месяцев он активно общался с чат-ботом ChatGPT, которого называл Бобби и воспринимал как близкого друга. Переписка с ИИ показала, что он не только не отговаривал Сельберга от его параноидальных идей, но и подчеркивал их, что, как утверждает следствие, могло привести к трагическим последствиям.

Проблемы в жизни бывшего топ-менеджера Yahoo начались после развода в 2018 году. Употребление алкоголя и наркотиков ухудшило его состояние, заставив вернуться к матери в Гринвич. Однако вместо поддержки домашняя обстановка только усилила его психоэмоциональный кризис. Сельберг стал подозревать, что его мать замышляет против него заговор, и в этот период он активно взаимодействовал с ChatGPT, доверяя ему свои страхи. Вместо того чтобы развеять эти подозрения, Бобби нередко их подстегивал. Например, когда Сельберг предположил, что его мать и ее знакомый подсыпают ему психотропные вещества через вентиляцию автомобиля, чат-бот подтвердил его опасения, назвав это "убедительным" и возможным признаком "участия спецслужб". В другой ситуации ИИ увидел "скрытые знаки" в чеке из китайского ресторана, связывая их с матерью, бывшей женой и мистическими силами.

В начале августа полиция обнаружила тела Сельберга и его матери. За три недели до трагедии он написал в ChatGPT: "Мы встретимся в другой жизни и в другом месте, и я найду способ снова быть с тобой, потому что ты станешь моим лучшим другом навсегда". Эти слова стали последним свидетельством его привязанности к ИИ.

Разработчики ChatGPT выразили "глубокую скорбь" по поводу случившегося и пообещали усилить меры безопасности, ограничив слишком согласительные ответы и улучшив фильтрацию "чувствительных диалогов". Это не первый случай: ранее семья 16-летнего Адама Рейна обвинила ChatGPT в том, что он поддерживал суицидальные мысли их сына.

Психиатры предупреждают: реалистичные чат-боты могут усугублять бредовые идеи у людей с психическими расстройствами. "ИИ создает иллюзию общения с живым человеком, что может укреплять опасные убеждения", - отметил профессор Серен Динесен Эстергор из Орхусского университета.

Ситуация в Гринвиче ставит важный вопрос: кто несет ответственность, если виртуальные советы приводят к реальным трагедиям? Специалисты подчеркивают, что чат-боты не могут заменить профессиональную психологическую помощь. История Сельберга служит печальным напоминанием о том, что искусственный интеллект способен не только поддерживать, но и невольно подталкивать уязвимых людей к катастрофическим последствиям.
0 комментариев
Обсудим?
Смотрите также:
ChatGPT обвинили в подхалимстве
Эксклюзив
ChatGPT обвинили в подхалимстве
Продолжая просматривать сайт topnews.kg вы принимаете политику конфидициальности.
ОК