Скрытая угроза: искусственный интеллект может начать ядерную войну к 2040 году

Американская некоммерческая организация RAND Corporation опубликовала исследование , согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.

«ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания», — говорится в исследовании.

Аналитики утверждают, что хотя на протяжении десятилетий хрупкий мир поддерживался идеей того, что любое ядерное нападение может спровоцировать взаимное гарантированное уничтожение, потенциал ИИ и машинного обучения для принятия решений о военных действиях может означать, что отсутствие критического мышления у ИИ может дать неверную оценку ситуации. «Некоторые эксперты опасаются, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — сказал Эндрю Лон, соавтор статьи из RAND.

Авторы исследования считают, что в будущем улучшение технологий может привести к нарушению баланса сдерживающих сил, таких как подводные и мобильные ракеты. ИИ, используемый в качестве советника, может склонить человека к решению о нанесении упреждающего удара против другой нации: даже если противник не намерен нападать, но ИИ увидит возможность получения преимущества в результате атаки.

ИИ может оказаться «восприимчивым к состязательности». Следовательно, отметил Лон, сохранение стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в создании институтов, которые помогут ограничить ядерные риск.

В документе RAND также подчеркивается опасность использования ИИ для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых постоянно предупреждает Илон Маск.

Выступая на ежегодном фестивале технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил создать общественный регулирующий орган, который будет следить за безопасностью разработок в области искусственного интеллекта и предусматривать все возможные риски. «Запомните мои слова, — сказал он, — ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?»

Читайте также
Вежливая сеть: как научить искусственный интеллект относиться к людям непредвзято
В контент лист
0

Рекомендуемые материалы

Оксана Титова
Снижение продуктивности – организационная травма как последствие внедрения изменений

После организационных изменений компании часто сталкиваются с парадоксальной ситуацией: новые структуры внедрены, процессы перестроены, стратегия обновлена, но продуктивность падает, растёт абсентеизм, сотрудники теряют инициативу и вовлеченность. Эти явления обычно объясняют сопротивлением изменениям или недостаточной мотивацией, однако на практике они часто являются последствиями организационной травмы – состояния, в котором сотрудники теряют чувство контроля, доверие к организации, ощущение справедливости и смысл своей работы. В этой статье Оксана Титова, организационный консультант, бизнес-психолог, основатель проекта “Организационная динамика” и xHRD рассматривает, почему изменения могут снижать продуктивность, как связаны организационные изменения, травма выжившего, потеря доверия и абсентеизм, а также что HR и руководителям необходимо делать, чтобы восстановить вовлеченность, доверие и эффективность организации после трансформаций.