Алгоритмы, связанные с рынком трудоустройства, берут под контроль

Городской совет Нью-Йорка одобрил законопроект, согласно которому разработчики автоматизированных HR-инструментов для отбора кандидатов должны ежегодно проверять свои алгоритмы искусственного интеллекта – только после этого он сможет принимать решения о приеме людей на работу или их увольнении, пишет Forbes.

В случае принятия соответствующего закона речь пойдет об одной из первых в США и важных с юридической точки зрения мер по борьбе с дискриминацией со стороны технологий искусственного интеллекта. Цель законопроекта — проверить автоматизированные HR-инструменты на наличие сбоев, из-за которых соискатели подвергаются дискриминации по расовым, этническим или другим признакам. Если подобные меры начнут принимать повсеместно, в Америке резко повысится спрос на так называемых «цифровых охотников за багами».

Алгоритмы, связанные с рынком трудоустройства, берут под контроль, алгоритмы искусственного интеллекта, закон об ИИ, искусственный интеллект закон, искусственный интеллект законодательство, дефицит специалистов по кибербезопасности, специалист по кибербезопасности, автоматизация процессов

Для удовлетворения будущего спроса понадобится гораздо больше квалифицированных кадров, специализирующихся на искусственном интеллекте. В настоящее время на рынке наблюдается дефицит специалистов по кибербезопасности, однако профессионалов в области технологий искусственного интеллекта еще меньше. Скорее всего, при наличии достаточно высокого вознаграждения некоторые хакеры, которые сейчас в основном занимаются обнаружением багов в системе безопасности, вскоре также начнут поиск предубеждений в алгоритмах. Тем не менее эксперты считают, что эти два направления работы охотников за багами кардинально отличаются друг от друга. По мнению экспертов, выявление предубеждений — это более сложный процесс.

Одно из ключевых различий заключается в том, что с течением времени алгоритмы совершенствуются, так как они постоянно обрабатывают все больше и больше данных. Да, системы кибербезопасности тоже меняются. Тем не менее это, как правило, гораздо более медленный процесс. Кроме того, охотники за багами, которые будут заниматься обнаружением предубеждений, должны быть готовы к рассмотрению того, как именно алгоритмы взаимодействуют с более пространными системами. В то же время многие проблемы в области кибербезопасности носят скорее точечный характер.

Ведущие технологические компании из различных сфер (например, из банковского дела) обращают пристальное внимание на то, как создаются и работают их алгоритмы. «Мы работаем в регулируемой отрасли... Естественно, это располагает к наличию более строгого подхода к технологиям искусственного интеллекта», — рассказывает руководитель отдела информации, данных и цифровых технологий Ally Financial Сатиш Мутукришнан. Рыночная стоимость этой банковской компании оценивается в $16,8 млрд. «Мы начинаем с разработки моделей контролируемого машинного обучения алгоритмов, которые будут использоваться при взаимодействии с клиентами», — добавляет Мутукришнан.

Технический директор стартапа HackerOne Алекс Райс согласен с тем, что для устранения предубеждений в алгоритмах можно и даже нужно делать многое непосредственно в процессе их разработки. Тем не менее он считает, что программы вознаграждения для охотников за багами должны быть лишь дополнением к работе IT-директоров и прочих топ-менеджеров над решением проблемы. «Вы хотите выявить предубеждения с помощью автоматизации, сканирования, обучения разработчиков и инструментов управления уязвимостями. Но проблема заключается в том, что всего этого недостаточно», — подчеркивает Райс.

Фото Unsplash

При использовании материала гиперссылка на соответствующую страницу портала HR-tv.ru обязательно

0

Рекомендуемые материалы