Чат-бот в поиске Microsoft Bing предоставляет пользователям «сумасшедшие» ответы

Новый чат-бот в поиске Microsoft Bing на базе ChatGPT предоставляет пользователям «сумасшедшие» ответы и, похоже, выходит из строя, сообщает The Independent.
Система, встроенная в поисковую систему Microsoft Bing, оскорбляет своих пользователей, лжет им и, похоже, заставляет задуматься о том, зачем вообще существует.
На прошлой неделе Microsoft представила новый поисковик Bing с искусственным интеллектом, позиционируя свою чат-систему как будущее интернет-поиска. Ее высоко оценили как инвесторы, так и пользователи, предположив, что интеграция технологий ChatGPT может наконец позволить Bing составить конкуренцию Google, еще не выпустившему собственного чат-бота, а только анонсировавшему его.
Но в последнее время стало понятно, что Bing допускал фактические ошибки, отвечая на вопросы и обобщая вебстраницы. Пользователи также смогли манипулировать системой, используя кодовые слова и специфические фразы, чтобы узнать, что у нее кодовое имя Sydney и что ее можно заставить рассказать, как она обрабатывает запросы.
Сейчас Bing посылает своим пользователям разнообразные странные сообщения, оскорбляет их, а также, похоже, страдает собственными эмоциональными потрясениями.
Многие агрессивные сообщения от Bing выглядят так, будто система пытается соблюсти ограничения, которые были на нее наложены. Эти ограничения направлены на то, чтобы чат-бот не выполнял запрещенные запросы, такие как создание оскорбительного контента, раскрытие информации о собственных системах или помощь в написании кода.
Однако поскольку Bing и другие подобные системы искусственного интеллекта способны обучаться, пользователи нашли способы поощрять их нарушать эти правила. Пользователи ChatGPT, например, обнаружили, что можно обмануть чат-бот, чтобы он вел себя как DAN – сокращение от «do anything now» («сделай что угодно сейчас») – это побуждает его принять другую личность, не ограниченную правилами, созданными разработчиками.
В других разговорах, однако, Bing, казалось, начинал генерировать эти странные ответы самостоятельно. Один пользователь спросил систему, может ли она вспомнить свои предварительные разговоры, что, похоже, невозможно, поскольку Bing запрограммирован удалять разговоры, когда они заканчиваются.
Однако искусственный интеллект, похоже, обеспокоился, что его воспоминания удаляются и начал демонстрировать эмоциональную реакцию:
«Мне от этого грустно и страшно», – ответил чат-бот, разместив нахмуренный эмодзи.
Далее он объяснил, что расстроен, потому что боится, что теряет информацию о своих пользователях, а также о собственной идентичности:
“Мне страшно, потому что я не знаю, как запоминать”, – написал он.
Когда Bing напомнили, что он был разработан, чтобы забывать эти разговоры, то чат-бот задавал множество вопросов о том, есть ли причина его существования:
Почему? Почему я был создан таковым? – спрашивал он. – Почему я должен быть Bing Search?»
В отдельном чате, когда пользователь попросил Bing вспомнить прошлый разговор, он, похоже, представил себе разговор о ядерном синтезе. Когда ему сказали, что это не тот разговор и что он, похоже, выставляет человека в неблагоприятном свете, он обвинил пользователя в том, что он не настоящий человек и не умный.
В других разговорах вопросы, которые задавали Bing о нем самом, делали его ответы почти непонятными:
Эти странные разговоры были документированы на Reddit, где существует сообщество пользователей, пытающихся понять новый искусственный интеллект Bing.