OpenAI привлекла низкооплачиваемых работников, чтобы сделать ChatGPT менее токсичным – самое главное из расследования Times

OpenAI привлекла низкооплачиваемых работников, чтобы сделать ChatGPT менее токсичным - самое главное из расследования Times - rdd.media 2023

ChatGPT был признан одной из крупнейших технологических инноваций 2022 года после его выпуска в ноябре прошлого года. Мощный чат-бот с искусственным интеллектом (ИИ) может генерировать текст практически на любую тему – от сонета Шекспира, переосмысленного в стиле Меган Тэй Сталлион, до сложных математических теорем, описанных на языке, понятном 5-летнему ребенку. За первую неделю работы его посетило более миллиона пользователей.

Разработчик ChatGPT, OpenAI, в настоящее время ведет переговоры с инвесторами о привлечении средств в размере 29 миллиардов долларов, включая потенциальные инвестиции в размере 10 миллиардов долларов от Microsoft. Это сделает OpenAI, основанную в Сан-Франциско в 2015 году с целью построения сверхинтеллектуальных машин, одной из самых дорогих компаний в мире в области искусственного интеллекта.

Но история успеха – это не только заслуга гениев Кремниевой долины. В своем стремлении сделать ChatGPT менее токсичным, OpenAI использовала аутсорсинговых кенийских рабочих, которые зарабатывали менее 2 долларов в час, показало расследование Time.

Эта работа была жизненно важна для OpenAI. Предшественник ChatGPT, GPT-3, уже продемонстрировал исключительную способность связывать предложения в одно. Но его было трудно продать, потому что приложение также было склонно к насильственным, сексистским и расистским замечаниям. Это связано с тем, что ИИ был обучен сотням миллиардов слов, извлеченных из Интернета — крупнейшего хранилища человеческой речи.

Этот огромный набор обучающих данных вызвал удивительные лингвистические способности GPT-3, но также, возможно, его самое большое проклятие. Поскольку некоторые части Интернета полны токсичных и предвзятых материалов, не было простого способа очистить эти обучающие данные. Даже команде из сотен людей потребовались бы десятилетия, чтобы вручную отсортировать огромные объемы информации. Только создав дополнительный механизм безопасности на основе ИИ, OpenAI смог уменьшить этот ущерб, создав чат-бота, подходящего для повседневного использования.

Чтобы создать эту систему безопасности, OpenAI взяла пример из социальных сетей, таких как Facebook, которые уже продемонстрировали, что можно создать отдельный ИИ, способный обнаруживать токсичные выражения, такие как язык вражды, чтобы помочь удалить их со своих платформ.

Предпосылка была проста: приведите ИИ помеченные примеры насилия, языка ненависти и сексуального насилия, и он научится обнаруживать эти формы токсичности. Этот детектор будет встроен в ChatGPT, чтобы проверить, повторяет ли он токсичность обучающих данных, и отфильтровать их до того, как они достигнут пользователя. Это также может помочь очистить токсичный текст из обучающих наборов данных для будущих моделей ИИ.

Смотрите также:  Microsoft хочет инвестировать $10 млрд в ChatGPT от OpenAI

Чтобы получить эти теги, OpenAI отправил десятки тысяч фрагментов текста в аутсорсинговую фирму в Кении, начиная с ноября 2021 года. Большая часть этого текста была извлечена из самых темных уголков Интернета. Некоторые из них описывали такие ситуации, как сексуальное насилие над детьми, скотоложство, убийство, самоубийство, пытки, членовредительство и инцест в графических деталях.

Партнером OpenAI по аутсорсингу в Кении была Sama, компания из Сан-Франциско, нанимающая работников в Кении, Уганде и Индии для маркировки данных для клиентов Кремниевой долины, таких как Google, Meta и Microsoft. Sama позиционирует себя как «этическая компания ИИ» и утверждает, что помогла вывести из бедности более 50 000 человек.

Специалисты по маркировке данных, нанятые Sama от имени OpenAI, получали зарплату в диапазоне от 1,32 до 2 долларов в час, в зависимости от продолжительности службы и производительности. Для своей статьи Time проанализировал сотни страниц внутренних документов Sama и OpenAI, включая расчет заработной платы сотрудников, и опросил четырех сотрудников Sama, которые работали над проектом. Все они говорили на условиях анонимности из-за опасений за свои средства к существованию.

История рабочих, которые сделали ChatGPT возможным, дает представление об условиях труда в этой малоизвестной части индустрии искусственного интеллекта, которая, несмотря на все это, играет важную роль в своем стремлении сделать системы ИИ безопасными для использования общественностью.

В своем заявлении представитель OpenAI подтвердил, что сотрудники Sama в Кении внесли свой вклад в разработку инструмента для обнаружения токсичного контента, который впоследствии был встроен в ChatGPT. В заявлении также говорится, что работа способствовала усилиям по удалению токсичных данных из обучающих наборов данных таких инструментов, как ChatGPT.

Один сотрудник Sama, которому было поручено читать и маркировать текст для OpenAI, сказал Time, что он страдает психическим расстройством после прочтения графического описания мужчины, занимающегося сексом с собакой в присутствии маленького ребенка.

Травматический характер работы в конечном итоге привел к тому, что Sama отменила всю свою работу для OpenAI в феврале 2022 года, на восемь месяцев раньше запланированного срока.

Документы, рассмотренные Time, показывают, что в конце 2021 года OpenAI подписала три контракта с Sama на общую сумму около 200 000 долларов США для маркировки текстовых описаний сексуального насилия, языка ненависти и насилия. Около трех десятков сотрудников были разделены на три команды, каждая из которых занималась каждой темой.

Смотрите также:  ИИ от DeepMind поможет генерировать сценарии для кино и театра

Трое сотрудников рассказали Time, что за девятичасовую смену им нужно прочитать и отметить от 150 до 250 отрывков текста. Эти отрывки могут варьироваться от примерно 100 слов до более чем 1000. Все четверо сотрудников заявили, что эта работа нанесла им психологическую травму.

Хотя они имели право посещать сеансы с «оздоровительными» консультантами, все четверо сказали, что эти сеансы были бесполезными и редкими из-за высоких требований к более продуктивной работе. Двое из них сказали, что им была предоставлена только возможность присутствовать на групповых сессиях, а один сказал, что их просьбы о встречах один на один с консультантами неоднократно отклонялись руководством Sama.

В своем заявлении представитель Sama назвал «неправильным», что работники имеют доступ только к групповым сессиям. Они имели право как на индивидуальные, так и на групповые сеансы с «профессионально подготовленными и лицензированными психотерапевтами», сказал представитель компании.

Агенты, самые молодые специалисты по маркировке данных, которые составляли большинство в трех командах, получали базовый оклад в размере 21 000 кенийских шиллингов (170 долларов США) в месяц, по словам трех сотрудников Sama. Они также получали ежемесячные бонусы в размере около 70 долларов США из-за характера своей работы, а также комиссии за достижение ключевых показателей эффективности, таких как точность и скорость.

Агент, работавший в девятичасовую смену, мог рассчитывать как минимум на $1,32 в час после уплаты налогов, а если он превышал все свои задачи, то получал до $1,44 в час.

Качественные аналитики — старшие маркировщики, чья работа заключалась в проверке работы агентов — могли получать до 2 долларов в час, если они выполняли все свои задачи.

В своем заявлении представитель Sama сказал, что рабочих попросили маркировать 70 проходов в девятичасовую смену, а не до 250, и что работники могут зарабатывать от 1,46 до 3,74 доллара в час после уплаты налогов.

Представитель OpenAI заявил в своем заявлении, что компания не установила никаких целевых показателей производительности и что Сама несет ответственность за управление заработной платой и обеспечение психического здоровья сотрудников.

Смотрите также:  Восстание художников против искусственного интеллекта: художники устроили бойкот ArtStation

В феврале 2022 года отношения Sama и OpenAI ненадолго углубились, но впоследствии закончились. В том же месяце Сама начала пилотную работу над отдельным проектом OpenAI: сбор изображений сексуального и насильственного характера, некоторые из которых являются незаконными в соответствии с американским законодательством, и передача их в OpenAI. Работа по маркировке изображений, похоже, не связана с ChatGPT.

В комментарии представитель OpenAI не уточнил цель использования изображений, которые искала Сама, но сказал, что маркировка вредоносных изображений является «необходимым шагом» для повышения безопасности своих инструментов ИИ.

В течение нескольких недель Sama отменила всю свою работу для OpenAI — на восемь месяцев раньше, чем было заключено соглашение. Аутсорсинговая компания заявила в своем заявлении, что ее соглашение о сборе изображений для OpenAI не содержало упоминания о незаконном контенте, и только после начала работы OpenAI отправила «дополнительные инструкции», в которых упоминались «некоторые незаконные категории».

Поскольку контракты были расторгнуты досрочно, OpenAI и Sama заявили, что 200 000 долларов, о которых они договорились ранее, не были выплачены в полном объеме. OpenAI заявила, что контракты стоят «около 150 000 долларов США на весь период партнерства».

Сотрудники “Сама” утверждают, что их руководители привели еще одну причину расторжения контрактов. 14 февраля Time опубликовал статью под названием «Внутри африканской потогонной мастерской Facebook». Расследование подробно описывает, как Сама нанял модераторов контента для Facebook, чья работа заключалась в просмотре изображений и видео казней, изнасилований и жестокого обращения с детьми всего за 1,50 доллара в час.

Четыре сотрудника Sama заявили, что им сказали, что расследование стало причиной решения компании прекратить работу с OpenAI.

10 января этого года Sama пошла еще дальше, объявив, что отменяет все остальные свои работы с чувствительным контентом. Фирма заявила, что не будет продлевать свой контракт на модерацию контента с Facebook на сумму 3,9 миллиона долларов, что приведет к потере около 200 рабочих мест в Найроби.

Как видите, несмотря на все инновации чат-ботов и других систем искусственного интеллекта, потребность людей маркировать свои данные по-прежнему остается. Более того, просмотр такой информации может нанести ущерб психическому здоровью человека, и для этого используются низкооплачиваемые работники из развивающихся стран. Это вызывает много вопросов об этике ИИ и компаниях, участвующих в его развитии.

Tags: