Чат-боты с ИИ используют ложные расистские идеи в ответах про медицину

Популярные чат-боты из ИИ используют расистские медицинские идеи, не соответствующие действительности. Это вызывает обеспокоенность тем, что такие инструменты могут углубить неравенство в сфере здравоохранения для темнокожих пациентов. К такому выводу пришли исследователи Стэнфордской школы медицины, пишет AP.
Результаты работы они опубликовали в журнале Digital Medicine. Ученые утверждают, что чат-боты отвечали на их вопросы, используя ложные представления и ложные данные о темнокожих пациентах. Также в ответах ботов встречались сфабрикованные расовые предубеждения.
Ученые обнаружили, что ChatGPT и GPT-4 от OpenAI, Bard от Google и Claude от Anthropic затруднились ответить на медицинские вопросы о функции почек, объеме легких и толщине кожи. В некоторых случаях они подкрепляли давние ошибочные убеждения о биологических отличиях между темнокожими и белыми людьми, которые эксперты годами пытались искоренить.
В результате таких убеждений врачи неправильно диагностировали проблемы со здоровьем у темнокожих пациентов и даже оценивали их боль ниже.
Теперь эксперты опасаются, что эти системы могут нанести реальный ущерб и усилить проявления медицинского расизма, которые существовали на протяжении многих поколений. Дело в том, что все больше врачей используют чат-ботов для помощи в выполнении повседневных задач, таких как отправка электронных писем пациентам или обращение к медицинским страховщикам.
И OpenAI, и Google в ответ на исследования заявили, что работают над уменьшением предвзятости своих моделей, а также информируют пользователей о том, что чат-боты не являются заменой медицинским работникам.
Как известно, недавно мозговой имплантат с искусственным интеллектом позволил восстановить пациенту чувствительность и подвижность. Соответствующую технологию разработали в Институте биоэлектронной медицины Фейнштейна.
