Россиянам рассказали, могут ли их уволить за использование ИИ

Штрафовать сотрудника за само по себе использование нейросетей работодатель не имеет права — Трудовой кодекс этого не позволяет. Однако увольнение за конкретные действия с искусственным интеллектом, которые нанесли ущерб компании, вполне реально. Об этом предупредил эксперт в области информационных технологий Артем Жадеев.

По словам специалиста, работодатель вовсе не безоружен перед рисками, которые несёт бесконтрольное применение ИИ. За использование публичных нейросетей вроде ChatGPT или DeepSeek сотрудник может получить дисциплинарное взыскание вплоть до увольнения, а если его действия причинили компании ущерб — то и гражданский иск.

Самые частые и опасные нарушения, которые грозят серьёзными последствиями, — это слив коммерческой тайны или персональных данных в публичные большие языковые модели, выдача сгенерированного контента за свой собственный результат без какой-либо проверки, а также попытки написать с помощью нейросети скрипты для обхода систем безопасности.

Жадеев подчеркнул: если сотрудник скопировал в чат-бот информацию, составляющую коммерческую тайну, это прямое нарушение, за которое могут уволить. При доказанном крупном ущербе компания вправе обратиться в суд с иском о возмещении прямого действительного ущерба.

Если же работник выдал отчёт или программный код, полностью сгенерированные нейросетью и не проверенные им, и это привело к сбоям или убыткам, основанием для увольнения становится неисполнение трудовых обязанностей. Наконец, использование ИИ для взлома, создания кейлоггеров или автоматизации действий, которые прямо запрещены политикой компании, квалифицируется как грубое нарушение, а в ряде случаев — как уголовное преступление, где уже предусмотрен реальный штраф от государства до 300 тысяч рублей.

Эксперт резюмировал: никакого штрафа от работодателя за использование ИИ быть не может, но увольнение по статье, судебный иск о возмещении ущерба или уголовная ответственность — это те последствия, которые наступают вполне реально.

Источник: Газета.Ru

В контент лист
0

Рекомендуемые материалы