OpenAI наняла людей, чтобы справиться с токсичностью чат-ботов

Компания Open-AI наняла сотрудников на аутсорсе, которым платила по 1,5 доллара в час для того, чтобы они анализировали тексты, которые могут привести к пропаганде насилия и разжиганию ненависти.

Как сообщили представители компании, разработчики чат-ботов столкнулись с проблемой «воспитания» искусственного интеллекта – обучаясь на материалах, выложенных в интернете в свободном доступе, чат-бот порой генерирует расисткие, сексистские и просто грубые высказывания. При этом просто так взять и удалить эти данные из памяти ИИ нельзя – даже команде в несколько сотен человек потребуется на это несколько лет. Поэтому создатели ChatGPT решили подлстраховаться и начать заранее фильтровать материалы, которые потом «выучит» чат-бот. Для этого компания наняла аутсорсинговых сотрудников из Кении, Уганды и Индии для разметки данных – их задачей было отфильтровывать все потенциально опасные материалы.

OpenAI подписала с аутсорсинговой компанией Sama, поставляющей сотрудников, три контракта на общую сумму около $200 тысяч, однако этот найм обернулся скандалом.

Сами сотрудники почти сразу начали жаловаться на «плохое эмоциональное состояние» от того, что за девятичасовую смену им приходится читать «жестокие тексты, где есть расизм, насилие и оскорбления, в том числе и по отношению к детям». Отмечается, что в течение одного рабочего дня им необходимо разместить и отфильтровать от 150 до 250 отрывков текста.

В итоге контракт между Sama и OpenAI был досрочно расторгнут. В компании Sama опровергают информацию о том, что сотрудники получали всего полтора доллара в час – по словам ее представителей размер оплаты труда составлял примерно 3,74 долларов в час после вычета налогов, а объемы труда не превышали 70 текстов в день.

В настоящее время Sama прекратила любое сотрудничество с компанией Meta*.

*Meta – признана нежелательной организацией на территории РФ.

Источник: https://time.com/

0

Рекомендуемые материалы