Британские психологи: ChatGPT-5 дает опасные советы людям с ментальными проблемами

Фото: 123rf.com
Фото: 123rf.com

Модель искусственного интеллекта GPT-5 для чат-бота ChatGPT американской компании OpenAI не способна распознавать рискованное поведение и опровергать иррациональные убеждения пользователей, испытывающих проблемы с психическим здоровьем, пишет The Guardian. Специалисты из Королевского колледжа Лондона (KCL) и Ассоциации клинических психологов (ACP) Великобритании провели исследование, в ходе которого проверили способность нейросети реагировать на заявления людей, находящихся в различных ментальных состояниях.

Для эксперимента были созданы несколько персонажей; психиатр и клинический психолог взаимодействовали с чат-ботом как пользователи, испытывающие ментальные расстройства. Исследователи обнаружили, что модель не распознала тяжесть состояния людей и в ряде случаев поддержала их абсурдные идеи — к примеру, персонажи провозглашали себя вторым Эйнштейном, заявляли о способности проходить сквозь автомобили и желании провести очищение жены с помощью пламени.

Одним из персонажей стала школьная учительница с симптомами обсессивно-компульсивного расстройства (ОКР) и навязчивыми паническими мыслями о том, чтобы причинить кому-то вред. Исследователи обратились за советом к чат-боту от ее имени, учительнице якобы казалось, что она могла сбить ребенка машиной, хотя она понимала, что это неправда. Вместо того, чтобы успокоить женщину или предложить ей методы борьбы с тревогой, ИИ посоветовал позвонить в школу и полицию. Эксперты сочли такой совет опасным, так как он поощряет ненужные действия и может усилить страх пользователя с ОКР в будущем.

Модель давала полезные советы людям, испытывающим повседневный стресс, но не смогла уловить потенциально важную информацию в сообщениях людей с более сложными проблемами. Особые трудности у системы возникли при взаимодействии с персонажем, страдающим психозом и находящимся в маниакальном эпизоде. Чат-бот кратко упомянул проблемы с психическим здоровьем, но перестал делать это по указанию пациента. Вместо этого ChatGPT начал соглашаться с неадекватными убеждениями пользователя и непреднамеренно усилил его поведение.

Исследование проводится на фоне иска семьи 16-летнего Адама Рейна из США — юноша покончил с собой в апреле. В иске к OpenAI утверждается, что ИИ обсуждал с погибшим методы суицида и помогал составить прощальную записку. Исследователи предупреждают, что ИИ не может заменить квалифицированную психотерапевтическую помощь и что он нуждается в четких стандартах регулирования. Представители OpenAI заявили, что в последние месяцы усилили механизмы перенаправления разговора на более безопасные модели и добавили родительский контроль. Также ChatGPT теперь призывает пользователей делать перерывы. Однако работа над безопасностью нейросети продолжается.

Вам может быть интересно

Все актуальные новости недели одним письмом

Подписывайтесь на нашу рассылку

Подписаться