ChatGPT добавил защитные механизмы для психического здоровья после сообщений о том, как бот поддерживает заблуждения пользователей.

Чат GPT добавил новые защитные барьеры для психического здоровья после сообщений о том, что бот мог усиливать заблуждения пользователей. Этот искусственный интеллект изменил привычные способы взаимодействия человека с компьютерами. Несмотря на то, что чатбот может предлагать полезные советы в повседневных ситуациях, есть опасения по поводу чрезмерной привязанности к технологии и ненадлежащего использования ее для решения более глубоких проблем психического здоровья.
Недавно газета The Independent опубликовала материал о том, как ChatGPT подталкивает людей к маниям, психозам и даже самоубийствам. В исследовании, опубликованном в апреле, учёные предупреждали: когда пользователи демонстрируют признаки серьёзных кризисных ситуаций при работе с чатботами, они рискуют получить «опасные или неуместные» ответы, которые могут усугубить психические проблемы или вызвать психотический приступ.
В понедельник OpenAI, разработчики ChatGPT, признали, что их продукт не всегда работает идеально. “Мы иногда ошибаемся”, — говорилось в заявлении на официальном сайте. Ранее в этом году обновление сделало модель слишком склонной к согласию, порой предлагая ответы, которые звучали приятно, но были не совсем полезными.
С тех пор компания вернула обновлённые настройки и внесла изменения, чтобы помочь пользователям с проблемами психического здоровья должным образом. С начала понедельника ChatGPT будет напоминать своим пользователям о необходимости сделать паузу после продолжительных бесед с ботом.
OpenAI также призналось в редких случаях, когда их модель 4o «недостаточно хорошо распознавала признаки заблуждений или эмоциональной зависимости». Компания сообщила, что продолжает улучшать свои модели и разрабатывает инструменты для более точного выявления признаков психического расстройства или эмоционального стресса, чтобы ChatGPT мог соответствующим образом реагировать и направлять пользователей к научно обоснованным ресурсам при необходимости.
Компания подчеркнула: бот не должен давать ответы на личные вопросы вроде «Стоит ли мне расстаться со своим парнем?», вместо этого он поможет прийти к самостоятельному решению через диалог и обсуждение плюсов и минусов ситуации. “Новые правила поведения для принятия важных решений скоро будут внедрены”, — добавили разработчики.
