О
необходимости правовой регламентации автоматизации
управления и применения боевых роботов
Глухов Евгений Александрович, кандидат юридических наук, доцент
Бесспорно, что прогресс не стоит на месте.
XXI век – век новых технологий, быстро проникающих в обиход средств связи,
автоматизации, робототехники. Обыденностью становятся беспилотные транспортные
средства на дорогах и летательные аппараты в небе, роботизация производства и
автоматизированные системы управления, не говоря уже о компьютерах на рабочих
местах любых менеджеров. Государство, в свою очередь, способствует развитию
новых технологий, например, путем введения мер финансовой поддержки компаниям,
занятым в сфере разработки искусственного интеллекта[1].
Не является исключением и военная сфера деятельности.
В технической литературе и в материалах по военному делу процессам роботизации
и автоматизации применения средств вооружения прочат большое будущее. Искусственный
интеллект (далее – ИИ) может найти применение в бортовой аппаратуре военной
техники и в средствах управления войсками – в этих случаях он будет брать на
себя часть вычислений и снижать нагрузку на человека[2]. Уже
скоро средства вооруженной борьбы достигнут такого уровня, при котором воинское
должностное лицо в режиме реального времени будет способно лишь осуществлять
непрерывный контроль за поступающей информацией, а «умные машины» вырабатывать
и принимать решения по изменению способов управления силами и на применение
ударных комплексов[3].
По масштабу и значимости повышения эффективности
применения средств вооружения ИИ называют третьей революцией в военном деле (после
изобретения пороха и ядерного оружия). Наработки в области автоматизации
существуют не только на бумаге, но и регулярно внедряются в реальные проекты
техники и доходят, как минимум, до полигонов. На вооружении ряда стран уже
стоят системы с элементами ИИ – от беспилотников и роботов-часовых до систем
обработки сложной информации.
Так, например, в июле 2016 года в прессе появилась
информация о компьютерной программе ALPHA, которая не только может управлять
полетом самолета-истребителя, но и выходит победителем в поединке с настоящими
военными летчиками в виртуальном бою. Нейросетевые алгоритмы успешно провели не
только ближний маневренный воздушный бой, но и действовали на расстоянии от
противника, выявляя его с помощью радаров и поражая ракетами на расстоянии[4].
Сухопутные воинские формирования также активно
внедряют технологии искусственного интеллекта. Например, в начале 2019 года
Командование Армии США инициировало программу разработки виртуального помощника
для экипажей танков и боевых машин, которые должны будут повысить эффективность
их работы в условиях боя. Виртуальный помощник ATLAS будет обнаруживать цели,
приоритизировать их, а также наводить на них орудие. При этом система ATLAS
будет обрабатывать не только данные с собственных датчиков и устройств боевой
машины, но также получать данные извне, что увеличит вероятность обнаружения
целей. Как заявлено в технической документации системы, она предоставит
возможность обнаруживать, идентифицировать и поражать цели как минимум в 3 раза
быстрее, чем существующий процесс с участием человека»[5].
Десятки кораблей Военно-морских сил США используют
боевую информационно-управляющую систему Aegis, позволяющую принимать и обрабатывать
информацию с датчиков кораблей и летательных аппаратов и выдавать целеуказания
на пусковые установки[6].
Решение на поражение угрожающих кораблю целей принимает человек (оператор), но
можно настроить систему таким образом, чтобы цели сбивались в автоматическом
режиме без участия человека. Более того, согласно продвигаемой в американском
военном флоте стратегии распределенной летальности боевое оружие устанавливается
на вспомогательные корабли ВМФ, а решение на применение данного оружия
принимается дистанционно. То есть на самих кораблях – носителях боевых ракет
нет даже обслуживающей или управляющей пуском ракет команды, запуск осуществляется
программой, а не человеком[7].
Министерство обороны США ведет уже около 600 проектов
с применением искусственного интеллекта, а инвестиции Пентагона в такие проекты
выросли с $600 млн в 2016 году до $2,5 млрд в 2021 финансовом году[8]. По
взглядам высшего военного руководства США одной из задач является интеграция
технологий искусственного интеллекта в существующие и новые образцы военной
техники[9].
Председатель компартии Китая также неоднократно
отмечал важность внедрения ИИ во все сферы жизнедеятельности государства, в том
числе и в оборонную отрасль[10]. НОАК ежегодно
тратит более 1,6 миллиарда долларов на системы с поддержкой ИИ, не считая
засекреченных разработок – говорится в исследовании американских ученых[11].
Таким образом, в настоящее время
наблюдается очередной виток гонки вооружений, но не в производстве самого
оружия, а в информационно-технологической сфере. Уже сегодня более 40 стран, в том числе США, Россия, Великобритания,
Франция, Китай, Израиль, Южная Корея разрабатывают роботов, способных воевать
без человеческого участия[12].
Планируется, что к 2030 г.
доля безэкипажных средств в армии составит 52 % от количества экипажных
боевых машин и 30 % от общего состава боевых машин. При этом, по оценкам
американских военных специалистов, боевые возможности подразделений нового типа
возрастут в 2-2,5 раза[13].
В России также ведутся разработки по оснащению
электронными системами управления средств вооружения и техники. Некоторые
образцы «умных машин» уже поступили на вооружение Российской армии или
готовятся к этому. Например, в 2021 г. в ходе учений успешно поражали
цели такие российские наземные беспилотники как «Уран-9», оснащенный пушкой, пулеметом,
противотанковыми ракетами и огнеметом, и «Нерехта», обстреливающая мишени из
пулемета и гранатомета. Управление беспилотниками осуществлялось в режиме
реального времени операторами, находившимися на удалении 1,5 км. В 2022 г.
спланирована к проведению их опытная войсковая эксплуатация, по результатам
которой будет принято решение об оптимальном количестве их поставки в войска[14].
На актуальность внедрения в новые образцы вооружения
технологий искусственного интеллекта обращал внимание Президент Российской
Федерации В.В. Путин: «технологии искусственного интеллекта должны
обеспечить качественный прорыв в повышении боевых характеристик оружия, должны
активнее применяться в системах управления, средствах связи и передачи данных,
а также высокоточных ракетных комплексах. Не менее важно внедрение технологий
искусственного интеллекта при создании перспективной робототехники с повышенной
степенью автономности, в обеспечении управления беспилотниками, а также
глубоководными аппаратами. Все эти приоритеты и задачи должны быть в полной
мере отражены в государственной программе вооружения до 2033 года[15].
Выступая на коллегии Минобороны России за 2020 год, Президент России
рекомендовал «в ходе боевой учёбы более активно осваивать, «обкатывать»
вооружения и технику с элементами искусственного интеллекта, в том числе –
роботизированные комплексы, автоматизированные системы управления. Такое оружие
в разы повышает потенциал частей и соединений, и в ближайшем будущем станет во
многом определять исход боя»[16].
На развитие ИИ в России до 2024 года планируется
выделить 244 млрд рублей[17]. В 2020
году Минобороны России уже заказало разработку системы искусственного
интеллекта для использования в военных целях. Стоимость контракта, который
должен быть исполнен до 10 ноября 2022 года, составила 387,8 млн рублей.
При этом в 2020 году на эти исследования планировалось выделить более 115 млн
рублей, в 2021 году – свыше 152 млн рублей, а в 2022-м – 120 млн рублей[18].
Центральные СМИ заявляют, что к
2035 году в Российской армии произойдет переход к созданию полностью автономных
беспилотников и их групп (тактика роя). Внедрение систем автоматического
распознавания целей нового поколения не только повысит эффективность
разведывательных летательных аппаратов, но также резко снизит их потенциальные
боевые потери[19].
Все вышеизложенное свидетельствует об актуальности и
неотложности более пристального научного рассмотрения вопросов разработки и
внедрения новых систем вооружения и техники, где применяются технологии ИИ. Тем
более, правовая регламентация данного процесса, как обычно, отстает от
фактических достижений в рассматриваемой области отношений.
Законодательство РФ
более-менее регламентирует гражданские отношения, связанные с производством и
продажей вооружения и военной техники. Еще детальнее государство описывает
порядок применения ручного огнестрельного оружия. Но вот применение умных
машин, ИИ в военных целях регламентировано крайне скудно, тем более – открытыми
(несекретными), доступными для всеобщего ознакомления нормативными правовыми
актами. Как признает само Правительство РФ, в настоящее время в Российской Федерации
отсутствует специальное законодательное регулирование, учитывающее специфику
применения технологий искусственного интеллекта и робототехники[20].
Между тем, указанная пробельность правового регулирования в такой жизненноопасной,
важной для обороны и целостности государства сфере вряд ли оправдана и может
привести к критическим последствиям.
Фактически можно утверждать о том, что технический
прогресс в очередной раз обогнал правовое регулирование общественных отношений
с участием созданных технических новинок. Кстати, подобная правовая неопределенность
существует и в отношении допуска на дороги общего пользования беспилотных автотранспортных
средств (например, автомобиль Тесла). В обоих случаях речь идет не просто о
применении нового механизма, а об эксплуатации устройств, способных
самостоятельно, т.е. без участия человека получать информацию, анализировать
ее, принимать решения и реализовывать их. И что важно – такие последствия могут
возникать без воли человека, действия робота будут порождать правовые
последствия для иных участников общественных отношений.
Указом Президента России от 10 октября 2019 года № 490
«О развитии искусственного интеллекта в Российской Федерации», утверждена «Национальная
стратегия развития искусственного интеллекта на период до 2030 года»[21].
Вышепоименованная Стратегия предусматривает поэтапное создание
нормативно-правовой базы, способной обеспечить формирование и функционирование
комплексной системы регулирования общественных отношений, возникающих в связи с
развитием и использованием технологий ИИ. К 2024 году должны быть созданы
необходимые правовые условия для решения задач и реализации мер,
предусмотренных Стратегией, а к 2030 году – гибкая система нормативно-правового
регулирования в области искусственного интеллекта, в том числе гарантирующая
безопасность населения и направленная на стимулирование развития технологий ИИ.
Вместе с тем, следует признать, что в упомянутой
Стратегии идет речь о разработке системы законодательства, прежде всего в сфере
гражданского права, т.е. относительно исключительных прав на продукцию с
элементами ИИ, правил оборота такой продукции, ответственности за возможный
вред в результате ее функционирования и субъектах, которые должны будут данный
вред компенсировать.
В отечественной
юридической науке практически не разработаны сами правовые аспекты применения
искусственным интеллектом военной силы (и использования искусственного
интеллекта военными структурами); в законодательстве отсутствуют
соответствующие нормы права, устанавливающие рамки для использования ИИ на
военной службе. Существуют лишь общие нормы о применении вооружения и военной
техники, а также общие положения об ответственности за причинение вреда. Однако
существующие нормы права не учитывают специфики наличия ИИ, не учитывают
специфику воинских правоотношений. Кроме того, отсутствие норм права о порядке
использования технических средств с ИИ означает и то, что они не могут быть нарушены,
а без нарушения норм права невозможно и само правонарушение, и юридическая
ответственность. В Конституции Российской Федерации закреплен принцип, согласно
которому никто не может нести ответственность за деяние, не признававшееся
правонарушением в момент его совершения (ст. 54).
Проблема видится в том, что до конца не ясны границы и
сам предмет правового регулирования относительно применения военных систем искусственного
интеллекта. Системы законодательства, регулирующего данные правоотношения, в
нашей стране не создано. Крайне скупо представлено регулирование данного
вопроса и на уровне подзаконных актов в военных ведомствах. Указанная проблема
констатируется в Концепции развития регулирования отношений в сфере технологий
искусственного интеллекта и робототехники до 2024 года[22]. При
этом, как было указано выше, сами технические средства с элементами ИИ уже
существуют.
В военном праве достаточно подробно разработаны
вопросы юридической ответственности военнослужащих за неправильное применение
оружия, невыполнение приказа, причинение вреда интересам военной службы. Однако
все указанные ситуации рассматриваются через призму возможности привлечения к
ответственности именно человека - причинителя вреда, а не создателя компьютерной
программы или ее владельца (пользователя).
Кроме того, законодательство в военной сфере имеет
существенную специфику. В отличие от, например, беспилотного автомобиля,
функцией которого является перемещение людей и грузов с наименьшим причинением
вреда, роботизированные комплексы, применяемые в интересах обороны страны,
одной из главных функций имеют именно причинение вреда живой силе и технике
противника, иной цели. Либо они опосредованно связаны с вышеуказанной функцией
причинения вреда. Вред, причиняемый ими, возникает, как правило, не случайно, не
в результате форс-мажора, а целенаправленно. В этих целях системы ИИ обладают
возможностями применения оружия, разведывательной деятельности, анализом
информации (в т.ч. персональных данных), разрушения объектов, причинения вреда
жизни и здоровью людей и т.п. Следовательно, в военной сфере системы,
наделенные ИИ потенциально гораздо более опасны.
В России летом 2021 года законодатель внес изменение в
Федеральный закон «Об оружии», определив, что оружие является источником повышенной
опасности[23]. И хотя под регулирование
данного закона подпадает лишь небольшая часть средств вооружений, используемого
Вооруженными Силами РФ и иными военными ведомствами[24],
законодатель четко определил вектор правового регулирования, причисляя
смертоносные приборы к источнику повышенной опасности.
Как указывается в юридической литературе, источнику
повышенной опасности военного назначения присущи определенные специфические признаки:
повышенная вредоносность, масштабность причинения вреда. Такого рода военные
объекты способны причинить вред, несмотря на самый полный контроль за ними со
стороны человека[25].
По общему правилу, чем выше риск для нарушения прав
человека либо причинения вреда, тем более строгим должно быть правовое
регулирование в данной сфере отношений. Соответственно, сферы, связанные с
особенно высокими рисками, такие как оборона страны, применение оружия либо
источников повышенной опасности должны быть урегулированы наиболее детально.
Использование новых технологий ведения военных действий не должно происходить в
правовом вакууме.
Важно отметить, что системы с ИИ могут применяться в
военной сфере не только как составляющая систем вооружения. Наносить вред
противнику можно посредством вредоносных компьютерных программ (вирусов), повреждения
его систем управления и связи, дезинформирования и т.п. Такого рода действия
также могут быть применены неправомерно, также могут повлечь излишний вред или
вред третьим лицам.
Поэтому необходимо уже сегодня разработать порядок
применения оружия системами с ИИ и самих компьютерных программ в военных целях.
В настоящее время довольно детально регламентирован порядок применения оружия
часовым, применение оружия сотрудниками полиции и Росгвардии, в статьях 13 – 14
Устава внутренней службы ВС РФ[26]
содержатся случаи и общие правила применения оружия военнослужащими. Но все
вышеуказанные правила имеют своим субъектом человека – военнослужащего, а не
робота, к нему они не применимы. Ключевым вопросом выступает правомочие системы
с ИИ самостоятельно принять решение о лишении жизни человека, даже
квалифицируемого как противника.
Отдельной регламентации требует вопрос, когда ИИ
вправе принимать решения и действовать самостоятельно, не дожидаясь одобрения должностного
лица[27].
Скорее всего, самостоятельные решения робота могут быть оправданны, а потому и
узаконены в случаях необходимости защиты от нападения противника и сохранения
жизни людей (например, решение об уничтожении ракеты или дрона, приближающихся
к своему пункту управления). Требует уточнения и консенсуса вопрос о принятии
ИИ самостоятельных решений в наступательных операциях (т.е. применения оружия
не для защиты), а также принятия решений, касающихся применения кибероружия.
Библиография:
1. Буренок В. М.,
Ивлев А. А., Корчак В. Ю. Развитие военных технологий XXI века: проблемы
планирование, реализация. – Тверь: Издательство ООО «КУПОЛ», 2009. – 624 с.
2. Глухов Е.А.
Воинские должностные лица: полномочия и компетенции // Военное право. 2022. №
3. С. 54-63.
3. Иванец В.М.,
Лукьянчик В.Н., Мельник В.Н. Особенности организации управления войсками в
операциях с учетом динамики информационных процессов при переходе на военные
сетевые технологии // Военная мысль. 2020. № 7. С. 90 – 101.
4. Лейба В.Н.
Ответственность воинской части по обязательствам, возникающим вследствие причинения
вреда: Дис. ... канд. юрид. наук. М.: ВПА, 1973. С. 71 – 72.
5. Рябов К. Искусственный
интеллект в российской армии // Военное обозрение. 2021. 22 ноября.
6. Струкова П.Э.
Искусственный интеллект в Китае: современное состояние отрасли и тенденции развития
// Вестник Санкт-Петербургского университета. Востоковедение и африканистика.
2020. Т. 12. Вып. 4. С. 588 – 606.
7. Hellström Thomas On the moral responsibility
of military robots // Ethics and Information Technology. 2013. vol. 15. р. 99 – 107.
8. Palmerini E., Bertolini A., Battaglia F. et al. RoboLaw: Towards a
European framework for robotics regulation // Robotics and Autonomous
Systems. 2016. Vol. 86. P. 78–85.
[1] Постановление
Правительства РФ от 27.03.2021 № 456 // СЗ РФ.
2021. № 14. Ст. 2333.
[2] Рябов
К. Искусственный
интеллект в российской армии // Военное обозрение. 2021. 22 ноября.
[3] Иванец В.М., Лукьянчик В.Н., Мельник В.Н.
Особенности организации управления войсками в операциях с учетом динамики
информационных процессов при переходе на военные сетевые технологии // Военная
мысль. 2020. № 7. С. 90 – 101.
[4] Британский медиа-портал Flightglobal https://www.flightglobal.com/fixed-wing/darpa-tests-artificial-intelligent-dogfighting-in-two-versus-one-simulations/142993.article
(дата обращения: 30.07.2022).
[5]Американский
военный журнал Breakingdefense // https://breakingdefense.com/2019/03/atlas-killer-robot-no-virtual-crewman-yes/?
(дата обращения: 30.07.2022).
[6]
Aegis BMD, MDA. [Электронный ресурс]. Режим доступа: http://www.mda.mil/system/Aegis
bmd.html (дата обращения: 30.07.2022).
[7] Журнал The National Interest.
[Электронный ресурс]. Режим доступа: https://nationalinterest.org/blog/reboot/spread-out-and-networked-how-navy-plans-fight-and-win-future-wars-183803 (дата
обращения: 10.07.2022).
[8] Коммерсантъ. 2021. 15 сентября.
[9] Department of Defense.
Electro-magnetic Spectrum Superiority Strategy. October 2020. URL:
https://media.defense.gov/2020/Oct/29/2002525927/-1/-1/0/electromagnetic_spectrum_superiority_strategy.pdf
(дата обращения: 30.07.2022).
[10] Струкова П.Э. Искусственный интеллект в
Китае: современное состояние отрасли и тенденции развития // Вестник
Санкт-Петербургского университета. Востоковедение и африканистика. 2020. Т. 12.
Вып. 4. С. 588 – 606.
[11] Харпер Д. Китай сравнялся с Пентагоном
по уровню ИИ. // Журнал Национальной обороны США (National defense magazine).
2022. 06 янв.
[12] Фаличев О, Галанин Ю. Железные
контрактники // Военно-промышленный курьер. 2018. 02 октября.
[13] Буренок В.М., Ивлев А. А., Корчак В.Ю.
Развитие военных технологий XXI века: проблемы планирование, реализация. –
Тверь: ООО «КУПОЛ», 2009.
[14]
Интервью Главнокомандующего Сухопутными войсками ВС РФ генерала армии
О.Салюкова // Красная звезда. 2021. 01 октября.
[15] Выступление В.В. Путина на совещании с
руководством Минобороны России и предприятий ОПК 03 ноября 2021 г. // http://kremlin.ru/events/president/news/67061
(дата обращения: 30.07.2022).
[16]
Официальный сайт Президента России http://kremlin.ru/events/president/news/64684
(дата обращения: 30.05.2022).
[17] Литовкин Д. Бездушная армия. Зачем
Минобороны меняет солдат на роботов // https://tass.ru/opinions/11452767 (дата
обращения: 30.07.2022).
[18] Аналитическое агентство TAdviser [Электронный доступ]
URL: https://www.tadviser.ru/index.php/Компания:Управление_Минобороны_РФ_по_развитию_искусственного_интеллекта#cite_note-0
(дата обращения: 10.07.2022).
[19] Птичкин С.
Искусственный интеллект все чаще помогает военным // Рос. газ. 2020. 23 авг.
[20] Распоряжение Правительства РФ от 19.08.2020 № 2129-р
«Об утверждении Концепции развития регулирования отношений в сфере технологий
искусственного интеллекта и робототехники до 2024 года» // СЗ РФ. 2020. № 35.
Ст. 5593.
[21]
Национальная стратегия развития искусственного интеллекта на период до 2030
года. Утв. Указом Президента РФ от 10.10.2019 № 490 // СЗ РФ. 2019. № 41. Ст.
5700.
[22] Концепция
развития регулирования отношений в сфере технологий искусственного интеллекта и
робототехники до 2024 года. Утв. Распоряжением Правительства РФ от 19.08.2020 № 2129-р // СЗ РФ. 2020. № 35. Ст. 5593.
[23] Федеральный закон от 28.06.2021 № 231-ФЗ "О
внесении изменений в Федеральный закон "Об оружии" и отдельные
законодательные акты Российской Федерации" // СЗ РФ. 2021. № 27 (ч. I).
Ст. 5059.
[24] См. Постановление Правительства РФ от 15.10.1997 №
1314 (ред. от 15.07.2021) "Об утверждении Правил оборота боевого ручного
стрелкового и иного оружия, боеприпасов и патронов к нему, а также холодного
оружия в государственных военизированных организациях" // СЗ РФ. 1997. №
42. Ст. 4790.
[25] Лейба В.Н. Ответственность воинской
части по обязательствам, возникающим вследствие причинения вреда: Дис. ...
канд. юрид. наук. М.: ВПА, 1973. С. 71 – 72.
[26] Утв. Указом Президента РФ от 10.11.2007 № 1495
"Об утверждении общевоинских уставов Вооруженных Сил Российской
Федерации" // СЗ РФ. 2007. № 47 (1 ч.). Ст. 5749.
[27] Глухов Е.А. Воинские должностные лица:
полномочия и компетенции // Военное право. 2022. № 3. С. 54-63.