Как искусственный интеллект меняет методы ведения войны?


Осенью прошлого года Марк Милли, бывший председатель Объединенного комитета начальников штабов вооруженных сил США, и Эрик Шмидт, бывший генеральный директор Google, сделали озадачивающие заявления в американском журнале Foreign Affairs. Сначала они написали, что новые технологии, такие как искусственный интеллект и беспилотники, меняют характер войны. Позже в той же статье они заявили, что новые технологии фундаментально влияют только на характер или форму войны, но не на ее природу.
NZZ.ch требует JavaScript для важных функций. Ваш браузер или блокировщик рекламы в настоящее время препятствует этому.
Пожалуйста, измените настройки.
Что теперь? Природа или форма, или и то, и другое? Противоречие между Милли и Шмидтом демонстрирует, насколько запутанными являются нынешние дебаты. Как это часто бывает, теоретик войны 19 века Карл фон Клаузевиц может дать некоторые указания. В конце концов, именно он наиболее четко определил различие между природой и формой войны.
Что изменилось?По мнению Клаузевица, форму войны можно обнаружить в каждом конфликте в истории человечества: в Пелопоннесской войне, Тридцатилетней войне, Второй мировой войне, войне на Украине и так далее.
Природа войны, однако, включает в себя то, что Клаузевиц называет «троицей». Во-первых, война подобна состязанию по борьбе, в котором две стороны пытаются навязать друг другу свою волю. Война — это физическое принуждение, антагонизм, и ею движет слепое, естественное стремление уничтожить врага. Во-вторых, война — это не изолированная система, а продолжение политики другими средствами. В-третьих, война подобна карточной игре, то есть она также зависит от вероятности и удачи. Она требует талантливых, опытных и смелых командиров и солдат с тем, что называется «счастливой рукой», чтобы одержать победу в ее сложных ситуациях.
Для Клаузевица различие между природой и формой войны является эвристическим инструментом. Он позволяет сопоставить появление многих конкретных войн в истории с абстрактными определениями, чтобы затем задаться вопросом, что же на самом деле изменилось.
В этом свете дрейф в природе войны происходит только тогда, когда, например, исчезает боевой аспект войны per se — или какой-то другой фундаментальный аспект Троицы. Тот, кто все еще говорит о войне, не понимает определения этого термина. В конце концов, что такое война без насилия, политических лиц, принимающих решения, вооруженного народа или командиров? Для Клаузевица природа войны вряд ли изменится.
Однако форма войны различна. Для Клаузевица война — это хамелеон. Она меняется внешне — также из-за достижений в области технологий и науки. Таким образом, когда война меняет свою форму, меняется и способ ведения войны. Разрабатываются тактические боевые процедуры, адаптируются используемые материалы и технологии, а также структура более крупных операций, которые в идеале обрамлены стратегическими целями. Это недавно было видно в атаке украинских беспилотников на авиабазы в России.
Вооруженные силы Украины/Reuters
ИИ, в понимании Клаузевица, является и технологией, и наукой. Его партнерство с военными отнюдь не ново. Оно восходит к временам Второй мировой войны, когда криптоаналитики в Блетчли-Парке, Англия, работали над расшифровкой немецкой шифровальной машины Enigma. Союзники пытались перехватить зашифрованные радиосообщения, чтобы остановить атаки на подводные лодки и бомбардировщики.
Алан Тьюринг был одним из таких криптоаналитиков и разработал собственную электромеханическую машину, Turing Bombe, которая благодаря своей автоматизированной работе натолкнула его на мысль задаться вопросом: могут ли машины мыслить, т. е. обладают ли они разумом.
Через два года после смерти Тьюринга, в 1956 году, на Дартмутской конференции впервые был использован термин «искусственный интеллект». Это ознаменовало начало символического ИИ. Как следует из названия, эти машины способны манипулировать абстрактными символами, т. е. обозначениями формальной логики.
В дело вмешалось Американское агентство перспективных исследовательских проектов в области обороны (DARPA), которое проводит исследовательские проекты для вооруженных сил. Была создана программа Dart, которая помогла решить проблемы логистической цепочки поставок во время первой войны в Персидском заливе и сэкономила американским военным миллионы.
Также финансируемая DARPA, компания iRobot разработала робота PackBot в 1990-х годах. После 11 сентября и Фукусимы PackBot помогал разбирать завалы. В Ираке и Афганистане он помогал обезвреживать мины-ловушки.
Хотя эти примеры показывают, что ИИ использовался различными способами во время и после Второй мировой войны, эта технология не изменила принципиально природу или форму войны. Скорее, она улучшила существующие тактические и логистические процессы, такие как расшифровка сообщений, управление цепочками поставок и обезвреживание бомб.
То же самое относится и к использованию ИИ на современных полях сражений. Израильские силы обороны используют системы обнаружения и рекомендации с использованием ИИ для определения целей ХАМАС. Украинская армия использует беспилотники с использованием ИИ, которые автономно обнаруживают и атакуют цели. В гибридной войне Россия использует ИИ для дипфейков в кампаниях по дезинформации, так же как террористические негосударственные группировки, такие как Аль-Каида и ИГИЛ, используют генеративный ИИ для пропаганды и вербовки.
ИИ — это технология общего назначения. Он может встраиваться в любую цифровую систему, усиливая ее и делая более эффективной. Но дезинформация, пропаганда, вербовка и бомбардировки — не новые изобретения на тактическом уровне.
Многочисленные этические проблемы, связанные с ИИ, часто цитируются для утверждения, что ИИ быстро меняет не форму, а даже природу войны. Однако это сомнительно, поскольку новые технологические изобретения, безусловно, обладают потенциалом для увеличения жестокости войны. Однако именно это делает войну, по самой своей природе, физическим принуждением, реализующим себя. Она становится более интенсивной, но не принципиально иной.
Например, в отношении ИИ возникает вопрос, могут ли автоматизированные системы вооружения различать гражданских лиц и комбатантов, что так важно в международном гуманитарном праве. Это особенно верно, поскольку известно, что ИИ допускает простые ошибки в распознавании изображений. Поэтому решения ИИ не всегда надежны.
Но у людей тоже есть слабости. Например, так называемое «предубеждение автоматизации», которое относится к тому факту, что люди чрезмерно доверяют автоматизированным инструментам принятия решений. Часто машинам доверяют слепо. Более того, если машина действует автономно, возникает вопрос, кто на самом деле несет ответственность за ее действия: разработчик и производитель машины, командир или даже сама машина?
Согласно международному гуманитарному праву, ответственность лежит на командире. Однако, хотя этот вопрос, кажется, решен, все еще существуют правовые проблемы. Не существует международного соглашения, например, соглашения по ядерному оружию, которое единообразно регулировало бы автономные системы вооружения. Законодательство в этом отношении является обязанностью отдельных государств. Закон ЕС об ИИ также выявляет пробелы в регулировании автономных систем вооружения.
Эти все еще решенные этические и правовые проблемы приглашают к созданию угрожающих вымышленных сценариев. Например, говорят о поле битвы сингулярности, своего рода гипервойне, в которой решения принимают только машины, что приводит к полностью автоматизированной войне.
Однако возможность такого сценария весьма сомнительна. Согласно Клаузевицу, война всегда проста и логична на бумаге. Применение максимальной силы достаточно для подавления противника. В крайнем случае ИИ будет использоваться беспощадно, без всякого ручного тормоза.
В реальности, однако, все обстоит иначе. Война характеризуется незнанием и неизвестностью, совпадениями и случайностями. Туман окутывает войну, постоянно возникают новые трения, возникает сопротивление, задерживающее реализацию планов: недоразумения, погода, опасности, ошибки.
Нет ничего опаснее войны; ее ход всегда остается непредсказуемым. Неконтролируемая эскалация вредит собственным рядам и политическим интересам. Сингулярное поле битвы было бы военным, политическим и социальным самоубийством — как и ядерная война со стратегическим ядерным оружием.
Опасности ИИ реальны, они уже существуют и будут увеличиваться в будущем. Однако ни характер, ни форма войны в настоящее время не кажутся существенно измененными ими. Скорее, ИИ будет интегрирован в существующие тактические процедуры и этические и правовые нормы.
Если Эрик Шмидт, в частности, хочет увидеть изменение формы или характера войны, то это, вероятно, потому, что его новый стартап White Stork специализируется на военных дронах с искусственным интеллектом. Его интерес заключается в вооружении и максимизации прибыли. Однако он прав в том, что искусственный интеллект останется в армии.
Оливье Дель Фаббро работает старшим ассистентом на кафедре философии в ETH Zurich. Его интересы включают сложные системы и искусственный интеллект, философию медицины и философию войны.
nzz.ch