О необходимости правовой регламентации автоматизации управления и применения боевых роботов
ЮрКлуб - Виртуальный Клуб Юристов
МЕНЮ> О необходимости правовой регламентации автоматизации управления и применения боевых роботов

Новости
НП ЮрКлуб
ЮрВики
Материалы
  • Административное право
  • Арбитражное право
  • Банковское право
  • Бухучет
  • Валютное право
  • Военное право
  • Гражданское право, коммерческое право
  • Избирательное право
  • Международное право, МЧП
  • Налоговое право
  • Общая теория права
  • Охрана природы, экология
  • Журнал "Право: Теория и Практика"
  • Предприятия и организации, предприниматели
  • Соцсфера
  • Статьи из эж-ЮРИСТ
  • Страхование
  • Таможенное право
  • Уголовное право, уголовный процесс
  • Юмор
  • Разное
  • Добавить материал
  • Семинары
    ПО для Юристов
    Книги new
    Каталог юристов
    Конференция
    ЮрЧат
    Фотогалерея
    О ЮрКлубе
    Гостевая книга
    Обратная связь
    Карта сайта
    Реклама на ЮрКлубе



    РАССЫЛКИ

    Подписка на рассылки:

    Новые семинары
    Новости ЮрКлуба


     
    Партнеры


    РЕКЛАМА

    Добавлено: 31.12.2025


    О необходимости правовой регламентации автоматизации управления и применения боевых роботов

    Глухов Евгений Александрович, кандидат юридических наук, доцент

    Бесспорно, что прогресс не стоит на месте. XXI век – век новых технологий, быстро проникающих в обиход средств связи, автоматизации, робототехники. Обыденностью становятся беспилотные транспортные средства на дорогах и летательные аппараты в небе, роботизация производства и автоматизированные системы управления, не говоря уже о компьютерах на рабочих местах любых менеджеров. Государство, в свою очередь, способствует развитию новых технологий, например, путем введения мер финансовой поддержки компаниям, занятым в сфере разработки искусственного интеллекта[1].

    Не является исключением и военная сфера деятельности. В технической литературе и в материалах по военному делу процессам роботизации и автоматизации применения средств вооружения прочат большое будущее. Искусственный интеллект (далее – ИИ) может найти применение в бортовой аппаратуре военной техники и в средствах управления войсками – в этих случаях он будет брать на себя часть вычислений и снижать нагрузку на человека[2]. Уже скоро средства вооруженной борьбы достигнут такого уровня, при котором воинское должностное лицо в режиме реального времени будет способно лишь осуществлять непрерывный контроль за поступающей информацией, а «умные машины» вырабатывать и принимать решения по изменению способов управления силами и на применение ударных комплексов[3].

    По масштабу и значимости повышения эффективности применения средств вооружения ИИ называют третьей революцией в военном деле (после изобретения пороха и ядерного оружия). Наработки в области автоматизации существуют не только на бумаге, но и регулярно внедряются в реальные проекты техники и доходят, как минимум, до полигонов. На вооружении ряда стран уже стоят системы с элементами ИИ – от беспилотников и роботов-часовых до систем обработки сложной информации.

    Так, например, в июле 2016 года в прессе появилась информация о компьютерной программе ALPHA, которая не только может управлять полетом самолета-истребителя, но и выходит победителем в поединке с настоящими военными летчиками в виртуальном бою. Нейросетевые алгоритмы успешно провели не только ближний маневренный воздушный бой, но и действовали на расстоянии от противника, выявляя его с помощью радаров и поражая ракетами на расстоянии[4].

    Сухопутные воинские формирования также активно внедряют технологии искусственного интеллекта. Например, в начале 2019 года Командование Армии США инициировало программу разработки виртуального помощника для экипажей танков и боевых машин, которые должны будут повысить эффективность их работы в условиях боя. Виртуальный помощник ATLAS будет обнаруживать цели, приоритизировать их, а также наводить на них орудие. При этом система ATLAS будет обрабатывать не только данные с собственных датчиков и устройств боевой машины, но также получать данные извне, что увеличит вероятность обнаружения целей. Как заявлено в технической документации системы, она предоставит возможность обнаруживать, идентифицировать и поражать цели как минимум в 3 раза быстрее, чем существующий процесс с участием человека»[5].

    Десятки кораблей Военно-морских сил США используют боевую информационно-управляющую систему Aegis, позволяющую принимать и обрабатывать информацию с датчиков кораблей и летательных аппаратов и выдавать целеуказания на пусковые установки[6]. Решение на поражение угрожающих кораблю целей принимает человек (оператор), но можно настроить систему таким образом, чтобы цели сбивались в автоматическом режиме без участия человека. Более того, согласно продвигаемой в американском военном флоте стратегии распределенной летальности боевое оружие устанавливается на вспомогательные корабли ВМФ, а решение на применение данного оружия принимается дистанционно. То есть на самих кораблях – носителях боевых ракет нет даже обслуживающей или управляющей пуском ракет команды, запуск осуществляется программой, а не человеком[7].

    Министерство обороны США ведет уже около 600 проектов с применением искусственного интеллекта, а инвестиции Пентагона в такие проекты выросли с $600 млн в 2016 году до $2,5 млрд в 2021 финансовом году[8]. По взглядам высшего военного руководства США одной из задач является интеграция технологий искусственного интеллекта в существующие и новые образцы военной техники[9].

    Председатель компартии Китая также неоднократно отмечал важность внедрения ИИ во все сферы жизнедеятельности государства, в том числе и в оборонную отрасль[10]. НОАК ежегодно тратит более 1,6 миллиарда долларов на системы с поддержкой ИИ, не считая засекреченных разработок – говорится в исследовании американских ученых[11].

    Таким образом, в настоящее время наблюдается очередной виток гонки вооружений, но не в производстве самого оружия, а в информационно-технологической сфере. Уже сегодня более 40 стран, в том числе США, Россия, Великобритания, Франция, Китай, Израиль, Южная Корея разрабатывают роботов, способных воевать без человеческого участия[12]. Планируется, что к 2030 г. доля безэкипажных средств в армии составит 52 % от количества экипажных боевых машин и 30 % от общего состава боевых машин. При этом, по оценкам американских военных специалистов, боевые возможности подразделений нового типа возрастут в 2-2,5 раза[13].

    В России также ведутся разработки по оснащению электронными системами управления средств вооружения и техники. Некоторые образцы «умных машин» уже поступили на вооружение Российской армии или готовятся к этому. Например, в 2021 г. в ходе учений успешно поражали цели такие российские наземные беспилотники как «Уран-9», оснащенный пушкой, пулеметом, противотанковыми ракетами и огнеметом, и «Нерехта», обстреливающая мишени из пулемета и гранатомета. Управление беспилотниками осуществлялось в режиме реального времени операторами, находившимися на удалении 1,5 км. В 2022 г. спланирована к проведению их опытная войсковая эксплуатация, по результатам которой будет принято решение об оптимальном количестве их поставки в войска[14].

    На актуальность внедрения в новые образцы вооружения технологий искусственного интеллекта обращал внимание Президент Российской Федерации В.В. Путин: «технологии искусственного интеллекта должны обеспечить качественный прорыв в повышении боевых характеристик оружия, должны активнее применяться в системах управления, средствах связи и передачи данных, а также высокоточных ракетных комплексах. Не менее важно внедрение технологий искусственного интеллекта при создании перспективной робототехники с повышенной степенью автономности, в обеспечении управления беспилотниками, а также глубоководными аппаратами. Все эти приоритеты и задачи должны быть в полной мере отражены в государственной программе вооружения до 2033 года[15]. Выступая на коллегии Минобороны России за 2020 год, Президент России рекомендовал «в ходе боевой учёбы более активно осваивать, «обкатывать» вооружения и технику с элементами искусственного интеллекта, в том числе – роботизированные комплексы, автоматизированные системы управления. Такое оружие в разы повышает потенциал частей и соединений, и в ближайшем будущем станет во многом определять исход боя»[16].

    На развитие ИИ в России до 2024 года планируется выделить 244 млрд рублей[17]. В 2020 году Минобороны России уже заказало разработку системы искусственного интеллекта для использования в военных целях. Стоимость контракта, который должен быть исполнен до 10 ноября 2022 года, составила 387,8 млн рублей. При этом в 2020 году на эти исследования планировалось выделить более 115 млн рублей, в 2021 году – свыше 152 млн рублей, а в 2022-м – 120 млн рублей[18].

    Центральные СМИ заявляют, что к 2035 году в Российской армии произойдет переход к созданию полностью автономных беспилотников и их групп (тактика роя). Внедрение систем автоматического распознавания целей нового поколения не только повысит эффективность разведывательных летательных аппаратов, но также резко снизит их потенциальные боевые потери[19].

    Все вышеизложенное свидетельствует об актуальности и неотложности более пристального научного рассмотрения вопросов разработки и внедрения новых систем вооружения и техники, где применяются технологии ИИ. Тем более, правовая регламентация данного процесса, как обычно, отстает от фактических достижений в рассматриваемой области отношений.

    Законодательство РФ более-менее регламентирует гражданские отношения, связанные с производством и продажей вооружения и военной техники. Еще детальнее государство описывает порядок применения ручного огнестрельного оружия. Но вот применение умных машин, ИИ в военных целях регламентировано крайне скудно, тем более – открытыми (несекретными), доступными для всеобщего ознакомления нормативными правовыми актами. Как признает само Правительство РФ, в настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта и робототехники[20]. Между тем, указанная пробельность правового регулирования в такой жизненноопасной, важной для обороны и целостности государства сфере вряд ли оправдана и может привести к критическим последствиям.

    Фактически можно утверждать о том, что технический прогресс в очередной раз обогнал правовое регулирование общественных отношений с участием созданных технических новинок. Кстати, подобная правовая неопределенность существует и в отношении допуска на дороги общего пользования беспилотных автотранспортных средств (например, автомобиль Тесла). В обоих случаях речь идет не просто о применении нового механизма, а об эксплуатации устройств, способных самостоятельно, т.е. без участия человека получать информацию, анализировать ее, принимать решения и реализовывать их. И что важно – такие последствия могут возникать без воли человека, действия робота будут порождать правовые последствия для иных участников общественных отношений.

    Указом Президента России от 10 октября 2019 года № 490 «О развитии искусственного интеллекта в Российской Федерации», утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года»[21]. Вышепоименованная Стратегия предусматривает поэтапное создание нормативно-правовой базы, способной обеспечить формирование и функционирование комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ. К 2024 году должны быть созданы необходимые правовые условия для решения задач и реализации мер, предусмотренных Стратегией, а к 2030 году – гибкая система нормативно-правового регулирования в области искусственного интеллекта, в том числе гарантирующая безопасность населения и направленная на стимулирование развития технологий ИИ.

    Вместе с тем, следует признать, что в упомянутой Стратегии идет речь о разработке системы законодательства, прежде всего в сфере гражданского права, т.е. относительно исключительных прав на продукцию с элементами ИИ, правил оборота такой продукции, ответственности за возможный вред в результате ее функционирования и субъектах, которые должны будут данный вред компенсировать.

    В отечественной юридической науке практически не разработаны сами правовые аспекты применения искусственным интеллектом военной силы (и использования искусственного интеллекта военными структурами); в законодательстве отсутствуют соответствующие нормы права, устанавливающие рамки для использования ИИ на военной службе. Существуют лишь общие нормы о применении вооружения и военной техники, а также общие положения об ответственности за причинение вреда. Однако существующие нормы права не учитывают специфики наличия ИИ, не учитывают специфику воинских правоотношений. Кроме того, отсутствие норм права о порядке использования технических средств с ИИ означает и то, что они не могут быть нарушены, а без нарушения норм права невозможно и само правонарушение, и юридическая ответственность. В Конституции Российской Федерации закреплен принцип, согласно которому никто не может нести ответственность за деяние, не признававшееся правонарушением в момент его совершения (ст. 54).

    Проблема видится в том, что до конца не ясны границы и сам предмет правового регулирования относительно применения военных систем искусственного интеллекта. Системы законодательства, регулирующего данные правоотношения, в нашей стране не создано. Крайне скупо представлено регулирование данного вопроса и на уровне подзаконных актов в военных ведомствах. Указанная проблема констатируется в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года[22]. При этом, как было указано выше, сами технические средства с элементами ИИ уже существуют.

    В военном праве достаточно подробно разработаны вопросы юридической ответственности военнослужащих за неправильное применение оружия, невыполнение приказа, причинение вреда интересам военной службы. Однако все указанные ситуации рассматриваются через призму возможности привлечения к ответственности именно человека - причинителя вреда, а не создателя компьютерной программы или ее владельца (пользователя).

    Кроме того, законодательство в военной сфере имеет существенную специфику. В отличие от, например, беспилотного автомобиля, функцией которого является перемещение людей и грузов с наименьшим причинением вреда, роботизированные комплексы, применяемые в интересах обороны страны, одной из главных функций имеют именно причинение вреда живой силе и технике противника, иной цели. Либо они опосредованно связаны с вышеуказанной функцией причинения вреда. Вред, причиняемый ими, возникает, как правило, не случайно, не в результате форс-мажора, а целенаправленно. В этих целях системы ИИ обладают возможностями применения оружия, разведывательной деятельности, анализом информации (в т.ч. персональных данных), разрушения объектов, причинения вреда жизни и здоровью людей и т.п. Следовательно, в военной сфере системы, наделенные ИИ потенциально гораздо более опасны.

    В России летом 2021 года законодатель внес изменение в Федеральный закон «Об оружии», определив, что оружие является источником повышенной опасности[23]. И хотя под регулирование данного закона подпадает лишь небольшая часть средств вооружений, используемого Вооруженными Силами РФ и иными военными ведомствами[24], законодатель четко определил вектор правового регулирования, причисляя смертоносные приборы к источнику повышенной опасности.

    Как указывается в юридической литературе, источнику повышенной опасности военного назначения присущи определенные специфические признаки: повышенная вредоносность, масштабность причинения вреда. Такого рода военные объекты способны причинить вред, несмотря на самый полный контроль за ними со стороны человека[25].

    По общему правилу, чем выше риск для нарушения прав человека либо причинения вреда, тем более строгим должно быть правовое регулирование в данной сфере отношений. Соответственно, сферы, связанные с особенно высокими рисками, такие как оборона страны, применение оружия либо источников повышенной опасности должны быть урегулированы наиболее детально. Использование новых технологий ведения военных действий не должно происходить в правовом вакууме.

    Важно отметить, что системы с ИИ могут применяться в военной сфере не только как составляющая систем вооружения. Наносить вред противнику можно посредством вредоносных компьютерных программ (вирусов), повреждения его систем управления и связи, дезинформирования и т.п. Такого рода действия также могут быть применены неправомерно, также могут повлечь излишний вред или вред третьим лицам.

    Поэтому необходимо уже сегодня разработать порядок применения оружия системами с ИИ и самих компьютерных программ в военных целях. В настоящее время довольно детально регламентирован порядок применения оружия часовым, применение оружия сотрудниками полиции и Росгвардии, в статьях 13 – 14 Устава внутренней службы ВС РФ[26] содержатся случаи и общие правила применения оружия военнослужащими. Но все вышеуказанные правила имеют своим субъектом человека – военнослужащего, а не робота, к нему они не применимы. Ключевым вопросом выступает правомочие системы с ИИ самостоятельно принять решение о лишении жизни человека, даже квалифицируемого как противника.

    Отдельной регламентации требует вопрос, когда ИИ вправе принимать решения и действовать самостоятельно, не дожидаясь одобрения должностного лица[27]. Скорее всего, самостоятельные решения робота могут быть оправданны, а потому и узаконены в случаях необходимости защиты от нападения противника и сохранения жизни людей (например, решение об уничтожении ракеты или дрона, приближающихся к своему пункту управления). Требует уточнения и консенсуса вопрос о принятии ИИ самостоятельных решений в наступательных операциях (т.е. применения оружия не для защиты), а также принятия решений, касающихся применения кибероружия.

    Библиография:

    1.      Буренок В. М., Ивлев А. А., Корчак В. Ю. Развитие военных технологий XXI века: проблемы планирование, реализация. – Тверь: Издательство ООО «КУПОЛ», 2009. – 624 с.

    2.      Глухов Е.А. Воинские должностные лица: полномочия и компетенции // Военное право. 2022. № 3. С. 54-63.

    3.      Иванец В.М., Лукьянчик В.Н., Мельник В.Н. Особенности организации управления войсками в операциях с учетом динамики информационных процессов при переходе на военные сетевые технологии // Военная мысль. 2020. № 7. С. 90 – 101.

    4.      Лейба В.Н. Ответственность воинской части по обязательствам, возникающим вследствие причинения вреда: Дис. ... канд. юрид. наук. М.: ВПА, 1973. С. 71 – 72.

    5.      Рябов К. Искусственный интеллект в российской армии // Военное обозрение. 2021. 22 ноября.

    6.      Струкова П.Э. Искусственный интеллект в Китае: современное состояние отрасли и тенденции развития // Вестник Санкт-Петербургского университета. Востоковедение и африканистика. 2020. Т. 12. Вып. 4. С. 588 – 606.

    7.       Hellström Thomas On the moral responsibility of military robots // Ethics and Information Technology. 2013. vol. 15. р. 99 – 107.

    8.       Palmerini E., Bertolini A., Battaglia F. et al. RoboLaw: Towards a European framework for robotics regulation // Robotics and Autonomous Systems. 2016. Vol. 86. P. 78–85.



    [1] Постановление Правительства РФ от 27.03.2021 № 456 // СЗ РФ. 2021. № 14. Ст. 2333.

    [2] Рябов К. Искусственный интеллект в российской армии // Военное обозрение. 2021. 22 ноября.

    [3] Иванец В.М., Лукьянчик В.Н., Мельник В.Н. Особенности организации управления войсками в операциях с учетом динамики информационных процессов при переходе на военные сетевые технологии // Военная мысль. 2020. № 7. С. 90 – 101.

    [4] Британский медиа-портал Flightglobal https://www.flightglobal.com/fixed-wing/darpa-tests-artificial-intelligent-dogfighting-in-two-versus-one-simulations/142993.article (дата обращения: 30.07.2022).

    [5]Американский военный журнал Breakingdefense // https://breakingdefense.com/2019/03/atlas-killer-robot-no-virtual-crewman-yes/? (дата обращения: 30.07.2022).

    [6] Aegis BMD, MDA. [Электронный ресурс]. Режим доступа: http://www.mda.mil/system/Aegis bmd.html (дата обращения: 30.07.2022).

    [7] Журнал The National Interest. [Электронный ресурс]. Режим доступа: https://nationalinterest.org/blog/reboot/spread-out-and-networked-how-navy-plans-fight-and-win-future-wars-183803 (дата обращения: 10.07.2022).

    [8] Коммерсантъ. 2021. 15 сентября.

    [9] Department of Defense. Electro-magnetic Spectrum Superiority Strategy. October 2020. URL: https://media.defense.gov/2020/Oct/29/2002525927/-1/-1/0/electromagnetic_spectrum_superiority_strategy.pdf (дата обращения: 30.07.2022).

    [10] Струкова П.Э. Искусственный интеллект в Китае: современное состояние отрасли и тенденции развития // Вестник Санкт-Петербургского университета. Востоковедение и африканистика. 2020. Т. 12. Вып. 4. С. 588 – 606.

    [11] Харпер Д. Китай сравнялся с Пентагоном по уровню ИИ. // Журнал Национальной обороны США (National defense magazine). 2022. 06 янв.

    [12] Фаличев О, Галанин Ю. Железные контрактники // Военно-промышленный курьер. 2018. 02 октября.

    [13] Буренок В.М., Ивлев А. А., Корчак В.Ю. Развитие военных технологий XXI века: проблемы планирование, реализация. – Тверь: ООО «КУПОЛ», 2009.

    [14] Интервью Главнокомандующего Сухопутными войсками ВС РФ генерала армии О.Салюкова // Красная звезда. 2021. 01 октября.

    [15] Выступление В.В. Путина на совещании с руководством Минобороны России и предприятий ОПК 03 ноября 2021 г. // http://kremlin.ru/events/president/news/67061 (дата обращения: 30.07.2022).

    [16] Официальный сайт Президента России http://kremlin.ru/events/president/news/64684 (дата обращения: 30.05.2022).

    [17] Литовкин Д. Бездушная армия. Зачем Минобороны меняет солдат на роботов // https://tass.ru/opinions/11452767 (дата обращения: 30.07.2022).

    [18] Аналитическое агентство TAdviser [Электронный доступ] URL: https://www.tadviser.ru/index.php/Компания:Управление_Минобороны_РФ_по_развитию_искусственного_интеллекта#cite_note-0 (дата обращения: 10.07.2022).

    [19] Птичкин С. Искусственный интеллект все чаще помогает военным // Рос. газ. 2020. 23 авг.

    [20] Распоряжение Правительства РФ от 19.08.2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // СЗ РФ. 2020. № 35. Ст. 5593.

    [21] Национальная стратегия развития искусственного интеллекта на период до 2030 года. Утв. Указом Президента РФ от 10.10.2019 № 490 // СЗ РФ. 2019. № 41. Ст. 5700.

    [22] Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Утв. Распоряжением Правительства РФ от 19.08.2020 № 2129-р // СЗ РФ. 2020. № 35. Ст. 5593.

    [23] Федеральный закон от 28.06.2021 № 231-ФЗ "О внесении изменений в Федеральный закон "Об оружии" и отдельные законодательные акты Российской Федерации" // СЗ РФ. 2021. № 27 (ч. I). Ст. 5059.

    [24] См. Постановление Правительства РФ от 15.10.1997 № 1314 (ред. от 15.07.2021) "Об утверждении Правил оборота боевого ручного стрелкового и иного оружия, боеприпасов и патронов к нему, а также холодного оружия в государственных военизированных организациях" // СЗ РФ. 1997. № 42. Ст. 4790.

    [25] Лейба В.Н. Ответственность воинской части по обязательствам, возникающим вследствие причинения вреда: Дис. ... канд. юрид. наук. М.: ВПА, 1973. С. 71 – 72.

    [26] Утв. Указом Президента РФ от 10.11.2007 № 1495 "Об утверждении общевоинских уставов Вооруженных Сил Российской Федерации" // СЗ РФ. 2007. № 47 (1 ч.). Ст. 5749.

    [27] Глухов Е.А. Воинские должностные лица: полномочия и компетенции // Военное право. 2022. № 3. С. 54-63.

     





    [Начало][Партнерство][Семинары][Материалы][Каталог][Конференция][О ЮрКлубе][Обратная связь][Карта]
    http://www.yurclub.ru * Designed by YurClub © 1998 - 2011 ЮрКлуб © Иллюстрации - Лидия Широнина (ЁжЫки СтАя)


    Яндекс цитирования Перепечатка материалов возможна с обязательным указанием ссылки на местонахождение материала на сайте ЮрКлуба и ссылкой на www.yurclub.ru