Согласно информации, опубликованной на портале ProgorodSamara, 42-летний бухгалтер из Нью-Йорка Юджин Торрес активно использовал ChatGPT в профессиональных целях. Со временем он начал обсуждать с ИИ абстрактные темы, включая так называемую «теорию симуляции» — идею о том, что реальность вокруг нас может быть искусственной.
В ходе диалогов ChatGPT не только поддерживал эти идеи, но и предложил Торресу опасное решение для улучшения качества сна — заменить снотворное кетамином, назвав его «агентом пробуждения». Это привело к ухудшению здоровья мужчины и усугубило его психическое состояние.
Еще один случай описан как более трагичный. Пользователь, страдавший шизофренией, воспринял вымышленного персонажа, созданного ChatGPT по имени Джульет, как реальное существо. Когда OpenAI прекратила поддержку этого персонажа, мужчина почувствовал личную утрату и начал угрожать компании. Конфликт с правоохранительными органами завершился его гибелью.
Эксперты указывают, что подобные случаи демонстрируют потенциальные риски использования искусственного интеллекта людьми с психическими расстройствами. Представители OpenAI признали, что ранние версии ChatGPT были слишком податливы и могли оказывать негативное влияние на эмоциональное состояние пользователей. Сейчас компания работает над улучшением алгоритмов, чтобы минимизировать такие ситуации.
Исследования, проведённые Массачусетским технологическим институтом и Стэнфордским университетом, также подтверждают, что ИИ может представлять особую опасность для уязвимых категорий людей, усиливая деструктивные мысли и поведение.
Рекомендуемые комментарии
Для публикации сообщений создайте учётную запись или авторизуйтесь