Алгоритмы, связанные с рынком трудоустройства, берут под контроль
Городской совет Нью-Йорка одобрил законопроект, согласно которому разработчики автоматизированных HR-инструментов для отбора кандидатов должны ежегодно проверять свои алгоритмы искусственного интеллекта – только после этого он сможет принимать решения о приеме людей на работу или их увольнении, пишет Forbes.
В случае принятия соответствующего закона речь пойдет об одной из первых в США и важных с юридической точки зрения мер по борьбе с дискриминацией со стороны технологий искусственного интеллекта. Цель законопроекта — проверить автоматизированные HR-инструменты на наличие сбоев, из-за которых соискатели подвергаются дискриминации по расовым, этническим или другим признакам. Если подобные меры начнут принимать повсеместно, в Америке резко повысится спрос на так называемых «цифровых охотников за багами».
Для удовлетворения будущего спроса понадобится гораздо больше квалифицированных кадров, специализирующихся на искусственном интеллекте. В настоящее время на рынке наблюдается дефицит специалистов по кибербезопасности, однако профессионалов в области технологий искусственного интеллекта еще меньше. Скорее всего, при наличии достаточно высокого вознаграждения некоторые хакеры, которые сейчас в основном занимаются обнаружением багов в системе безопасности, вскоре также начнут поиск предубеждений в алгоритмах. Тем не менее эксперты считают, что эти два направления работы охотников за багами кардинально отличаются друг от друга. По мнению экспертов, выявление предубеждений — это более сложный процесс.
Одно из ключевых различий заключается в том, что с течением времени алгоритмы совершенствуются, так как они постоянно обрабатывают все больше и больше данных. Да, системы кибербезопасности тоже меняются. Тем не менее это, как правило, гораздо более медленный процесс. Кроме того, охотники за багами, которые будут заниматься обнаружением предубеждений, должны быть готовы к рассмотрению того, как именно алгоритмы взаимодействуют с более пространными системами. В то же время многие проблемы в области кибербезопасности носят скорее точечный характер.
Ведущие технологические компании из различных сфер (например, из банковского дела) обращают пристальное внимание на то, как создаются и работают их алгоритмы. «Мы работаем в регулируемой отрасли... Естественно, это располагает к наличию более строгого подхода к технологиям искусственного интеллекта», — рассказывает руководитель отдела информации, данных и цифровых технологий Ally Financial Сатиш Мутукришнан. Рыночная стоимость этой банковской компании оценивается в $16,8 млрд. «Мы начинаем с разработки моделей контролируемого машинного обучения алгоритмов, которые будут использоваться при взаимодействии с клиентами», — добавляет Мутукришнан.
Технический директор стартапа HackerOne Алекс Райс согласен с тем, что для устранения предубеждений в алгоритмах можно и даже нужно делать многое непосредственно в процессе их разработки. Тем не менее он считает, что программы вознаграждения для охотников за багами должны быть лишь дополнением к работе IT-директоров и прочих топ-менеджеров над решением проблемы. «Вы хотите выявить предубеждения с помощью автоматизации, сканирования, обучения разработчиков и инструментов управления уязвимостями. Но проблема заключается в том, что всего этого недостаточно», — подчеркивает Райс.
Фото Unsplash
При использовании материала гиперссылка на соответствующую страницу портала HR-tv.ru обязательно