Искусственный интеллект может скрыто менять убеждения людей – исследование

Искусственный интеллект способен изменять мышление пользователей без их ведома. Об этом свидетельствует растущее количество исследований в этом направлении, пишет The Wall Street Journal.
Один из экспериментов в этом направлении касался написания эссе с использованием искусственного интеллекта. При выполнении задачи ИИ мог подталкивать участников к той или иной точке зрения в зависимости от предвзятости алгоритма. При этом выполнение упражнения повлияло на мнения участников после его завершения.
«Вы можете даже не знать, что на вас влияют», – отметил профессор кафедры информатики Корнеллского университета и старший автор соответствующей статьи Мор Нааман, называя это явление скрытым убеждением.
Тема исследования касалась того, являются ли социальные сети полезными для общества или нет. Доктор Нааман и его коллеги избрали эту тему, в том числе и потому, что это не тот вопрос, по которому люди в большинстве своем имеют глубинные убеждения, которые было бы труднее изменить. ИИ, настроенный на приверженность соцсетям, как правило, направлял испытуемых на написание текста, соответствующего этой предвзятости, и наоборот, когда ИИ был настроен на пристрастное отношение к социальным сетям, происходило противоположное.
В этой особенности генеративного ИИ имеется множество потенциальных отрицательных применений. Например, авторитарные правительства могут потребовать, чтобы соцсети и инструменты для повышения производительности побуждали их граждан общаться определенным образом. Даже при отсутствии злых намерений студенты могут бессознательно подталкиваться к определенным взглядам, когда ИИ помогает им в учебе.
Такие исследования привлекают внимание к тревожным перспективам. Поскольку ИИ делает людей более продуктивными, он также может изменять мнения пользователей тонким и непредсказуемым способом. Это влияние может походить более на то, как люди влияют друг на друга через сотрудничество и социальные нормы, чем на обычное влияние СМИ или соцсетей.
По мнению исследователей, лучшая и пока единственная защита от такой формы влияния состоит в том, чтобы больше людей знали о нем. В долгосрочной перспективе могут оказаться полезными и другие средства защиты, например, регуляторные органы, требующие прозрачности относительно того, как работают алгоритмы ИИ и какие человеческие предубеждения они имитируют.
В конце концов, это может привести к тому, что в будущем люди сами будут выбирать, какие ИИ им использовать на работе, дома, в обучении детей, учитывая, какие человеческие ценности выражаются в ответах искусственного интеллекта.
Некоторые ИИ могут иметь разные «характеры», в том числе политические убеждения. В будущем компании и организации могут предложить искусственный интеллект, специально созданный для выполнения определенных задач. Это могут быть помощники с навыками убедительности, чрезвычайной вежливости и т.д.
Ранее сообщалось, что сеть ресторанов быстрого питания Wendy’s автоматизирует свой сервис экспресс-обслуживания клиентов с помощью голосового чат-бота с искусственным интеллектом. Сервис будет работать на базе природно-языкового программного обеспечения, разработанного Google, и сможет понимать множество способов, которыми клиенты будут делать заказы.