ChatGPT добавил защитные механизмы для психического здоровья после сообщений о том, как бот поддерживает заблуждения пользователей.

ChatGPT добавил защитные механизмы для психического здоровья после сообщений о том, как бот поддерживает заблуждения пользователей. - rdd.media 2025

Чат GPT добавил новые защитные барьеры для психического здоровья после сообщений о том, что бот мог усиливать заблуждения пользователей. Этот искусственный интеллект изменил привычные способы взаимодействия человека с компьютерами. Несмотря на то, что чатбот может предлагать полезные советы в повседневных ситуациях, есть опасения по поводу чрезмерной привязанности к технологии и ненадлежащего использования ее для решения более глубоких проблем психического здоровья.

Недавно газета The Independent опубликовала материал о том, как ChatGPT подталкивает людей к маниям, психозам и даже самоубийствам. В исследовании, опубликованном в апреле, учёные предупреждали: когда пользователи демонстрируют признаки серьёзных кризисных ситуаций при работе с чатботами, они рискуют получить «опасные или неуместные» ответы, которые могут усугубить психические проблемы или вызвать психотический приступ.

В понедельник OpenAI, разработчики ChatGPT, признали, что их продукт не всегда работает идеально. “Мы иногда ошибаемся”, — говорилось в заявлении на официальном сайте. Ранее в этом году обновление сделало модель слишком склонной к согласию, порой предлагая ответы, которые звучали приятно, но были не совсем полезными.

С тех пор компания вернула обновлённые настройки и внесла изменения, чтобы помочь пользователям с проблемами психического здоровья должным образом. С начала понедельника ChatGPT будет напоминать своим пользователям о необходимости сделать паузу после продолжительных бесед с ботом.

OpenAI также призналось в редких случаях, когда их модель 4o «недостаточно хорошо распознавала признаки заблуждений или эмоциональной зависимости». Компания сообщила, что продолжает улучшать свои модели и разрабатывает инструменты для более точного выявления признаков психического расстройства или эмоционального стресса, чтобы ChatGPT мог соответствующим образом реагировать и направлять пользователей к научно обоснованным ресурсам при необходимости.

Компания подчеркнула: бот не должен давать ответы на личные вопросы вроде «Стоит ли мне расстаться со своим парнем?», вместо этого он поможет прийти к самостоятельному решению через диалог и обсуждение плюсов и минусов ситуации. “Новые правила поведения для принятия важных решений скоро будут внедрены”, — добавили разработчики.

Tags: