Искусственный интеллект не пройдет: в России обсуждают запрет на автоматический отсев кандидатов при приеме на работу

В публичном поле активно обсуждается инициатива, которая может кардинально изменить подход к цифровому рекрутингу. Речь идет о возможном запрете для работодателей использовать алгоритмы искусственного интеллекта (ИИ) на этапе первичного отбора резюме. Параллельно эксперты и законодатели поднимают более широкий вопрос: стоит ли обязать компании не только раскрывать сам факт применения ИИ в кадровых процессах, но и предоставлять понятное объяснение решений, которые затрагивают права граждан, например, отказ в трудоустройстве.

Эта дискуссия уже давно вышла за рамки чисто теоретической. На сегодняшний день ИИ-инструменты широко применяются для сортировки откликов, автоматической оценки резюме и «отсева» неподходящих, по мнению программы, кандидатов — и всё это зачастую происходит до того, как к процессу подключится HR-специалист. Именно здесь кроется главный юридический риск: кто на самом деле принимает кадровое решение — человек или бездушный алгоритм?

Даже при отсутствии специального закона об «алгоритмическом найме» у работодателей уже есть существенные ограничения. Статья 16 Федерального закона «О персональных данных» напрямую ограничивает принятие решений, основанных исключительно на автоматизированной обработке персональных данных, если такие решения затрагивают права и законные интересы гражданина. В свою очередь, статья 64 Трудового кодекса РФ запрещает необоснованный отказ в заключении трудового договора и обязывает работодателя в течение семи рабочих дней по письменному требованию соискателя предоставить причину отказа.

Таким образом, проблема не в самом по себе использовании современных технологий при подборе персонала. Ключевыми становятся три условия: сохраняется ли за человеком (HR-менеджером) реальная роль в принятии финального решения, можно ли объективно обосновать отказ деловыми качествами кандидата, и не превращается ли процесс найма в непрозрачный «черный ящик».

Что важно учесть бизнесу уже сейчас, чтобы минимизировать риски:

  1. Провести аудит: проверить, используются ли автоматические системы для первичного отсева кандидатов без участия человека.
  2. Зафиксировать участие человека: документально подтвердить, что окончательное кадровое решение принимает сотрудник, а не алгоритм.
  3. Обеспечить обоснованность критериев: убедиться, что все критерии отбора напрямую связаны с деловыми качествами кандидата, а не с настройками ИИ, которые могут быть неочевидны.
  4. Подготовить порядок обратной связи: разработать понятный регламент для объяснения причин отказа в случае официального запроса от соискателя.

Вывод: Прямых законодательных запретов на алгоритмический найм пока не введено, однако предпосылки для судебных споров и претензий со стороны контролирующих органов в этой сфере уже сформировались. Чем менее прозрачен процесс отбора кандидатов и чем сильнее он автоматизирован без контроля человека, тем выше для компании риск признания отказа в приеме на работу необоснованным.

Источник: «Юридический дом на Неве»

В контент лист
0

Рекомендуемые материалы