본문 바로가기

신학이야기

인공지능 킬러로봇의 종교와 과학 - 정당한 전쟁론의 원칙을 중심으로-/ 김성호.한신大

Ⅰ. 들어가는 말

 

전쟁에서 화약과 핵무기에 이어 제3의 혁명이 일어나고 있다. 기술 이 고도로 발전하면서 특히 민간 상용기술인 인공지능을 활용하여 인간 의 개입이나 통제 없이 자율적으로 작동하는 자율살상무기체계(일명 킬러 로봇)가 빠르게 개발, 배치, 사용되고 있다. 우리는 이를 “인공지능의 군 사화” 또는 “인공지능이 주도하는 군사 혁명”1)이라 부를 수 있을 것이다.

 

     1)  Nik Hynek and Anzhelika Solovyeva, MILITARIZING ARTIFICIAL INTELLIGENCE: THEORY, TECHNOLOGY, AND REGULATION (London and New York: Routledge, 2022), 169.

 

이에 따라 각국의 군비경쟁도 치열해지고 있다. 만일 이런 무기를 가능 하게 하는 기술의 추가 개발이 금지되거나 규제되지 않는다면 생사여탈 권을 비인간 지능과 사전에 프로그래밍된 알고리즘에 위임하는 상황에직면할지도 모른다.

설사 운영자가 자율무기체계의 비살상적 사용을 의 도했다 해도 자율무기체계는 여전히 치명적으로 행동할 수 있다.2)

이 문 제는 금새 해결될 사안은 아니다. 왜냐하면 미국, 중국, 러시아, 이스라 엘, 유럽연합, 북한 등이 서로 경쟁하듯 자율살상무기체계를 개발하여 배 치하고 있기 때문이다. 물론 한국도 예외가 아니다.

한국은 치명적(lethal) AI와 자율무기체계 개발 분야에서 미국, 중국, 러시아, 유럽연합과 함께 상위 5개 경쟁국에 들어가며, AI 무기 경쟁에서 주요 경쟁국은 인도, 이 스라엘, 일본이다.3)

한국군은 자율과 반자율 무기체계의 연구개발을 추 진하고 있고4), 40여 개 국가가 AI 기반 무기체계 연구 및 개발에 적극 나서고 있으며 2030년이면 인간의 개입이나 통제 없이 완전히 자율적으 로 작동하는 완전자율살상무기체계가 상용화될 것으로 보인다.5)

물론 자율무기는 자율성의 정도는 다양하지만 이미 배치되어 사용되 고 있다. 예컨대, 완전자율무기에 해당하는 이스라엘의 자폭 드론인 하 피는 인간의 개입 없이 임무를 수행하는데 가자 지구, 서안 지구에서 사 용되었으며, 전자신호를 추적하여 하마스의 방공 시스템, 미사일 발사기 지와 주요 군사시설을 파괴했다.6)

 

     2)  Alexander Blanchard & Mariarosaria Taddeo, “Jus in bello Necessity, The Requirment of Minimal Force, and Autonomous Weapons Systems,” Journal of Military Ethics 21/3-4 (2022), 298.

     3)  Justin Haner and Denise Garcia, “The Artificial Intelligence Arms Race: Trends and World Leaders in Autonomous Weapons Development,” Global Policy 10/3 (2019), 332.

    4)  윤대엽, “인공지능의 무기화 경쟁과 인공지능 군사혁신,” 「국제정치논총」 64/1 (2024), 357, 362

    5)  황용하, “전쟁의 참상과 인공지능,” 서보혁·이찬수·허지영 편, 『전쟁에게 평화를 묻다: 이스라엘-하 마스 전쟁 연구』(서울: 모시는사람들, 2025), 117.

    6)  Ibid. 140 

 

AI 무기인 가스펠(Gospel), 라벤더 (Lavender), 웨얼스대디(Where’s Daddy) 시스템도 사용되고 있다. 가스펠 은 최근 팔레스타인 가자 지구 전쟁에서 사용된 AI 기반 공격 목표 선정 시스템이다. 가스펠은 하마스의 지휘 본부, 무기 창고, 로켓 발사대 등을 우선 목표로 설정하고, 공격 시 예상되는 민간인 사망자 수까지 계산해 정보요원에게 제시한다. 가스펠이 주로 건물을 표적으로 삼는다면, 라벤더는 주로 하마스 및 팔레스타인 이슬람 지하드와 관련된 가자 지구의 개인을 식별하고 표적화하도록 설계된 AI 기반 시스템이다. 이 시스템은 안면 인식, 소셜 미디어 활동, 전화 기록 및 기타 생체 인식 데이터를 포 함한 방대한 양의 데이터를 처리하여 군사 공격을 위한 목표 목록을 생 성한다. 이 시스템은 개인을 1부터 100까지의 점수로 평가하여 이 등급 을 기반으로 표적 살해를 위해 개인을 추천한다. 그러나 라벤더는 오류 가능성이 10%에 달한다. 웨얼스대디는 특정 인물의 위치를 추적하고, 그 에 맞는 무기를 추천해 폭격을 유도하는 기능을 갖춘 시스템인데, 교활 하고 잔인한 시스템이다. 왜냐하면 암살 대상 목록에 있는 팔레스타인 남성들을 추적하여 그들이 귀가하거나 가족과 함께 집에 있을 때 쉽게 타격할 수 있도록 설계되었기 때문이다.7)

물론 이스라엘만 AI 기반 무기 를 사용하는 것은 아니다. 하마스는 인공지능 기능을 일부 사용한 것으 로 추정되는 쿼드콥터 드론을 이용하여 가자 국경 벽의 이스라엘 감시 타워를 무력화시킨 바 있다. 북한은 러시아로부터 공격형 자폭 드론 기 술을 이전받아 자국에서 직접 생산할 가능성이 있다. 러시아가 북한에 제공한 게란(Geran) 드론은 이란이 설계한 Shahed-136 자폭 드론을 개 량한 모델인데, 러시아가 우크라이나를 공격하고 이란이 이스라엘을 공 격할 때 이미 사용한 바 있다.

북한이 생산하게 될 게란 드론은 북한 내 어디에서 발사하든 한반도와 일본 전역은 물론이고 주일미군기지까지 날 아가 공격할 수 있다.8)

 

   7)  Ibid., 122. 8)  정철환, “러·이란·北 ‘드론 커넥션’,” 「조선일보」(2025. 8.4). 

 

이처럼 AI가 탑재된 자율살상무기체계는 우리가 모르는 사이에 현재 막강한 위력을 발휘하고 있고 미래의 전장을 누빌 것이다. 필자는 이런 위기 의식 아래 자율살상무기체계를 비판적으로 고찰하고자 한다. 먼저 1장에서는 자율무기체계와 관련하여 다양하게 사용하는 용어를 통일하 고 자율무기체계의 개념을 분류하는 방법을 제시하며 그 개념을 정의하고자 한다. 필자는 자율살상무기체계, 자율무기체계, 자유무기, 킬러로 봇, 완전자율무기체계라는 용어를 사용하기로 한다. 2장에서는 자율살상 무기체계에 대한 찬반 논쟁을 다룬다. 3장에서는 현재 자율무기체계를 금지하거나 규율하는 국제체제가 없는 상황에서 국제인도법(국제인도주의 법)을 중심으로 자율무기체계의 국제법적 문제를 다룬다. 먼저 자율무기 체계가 법적으로 허용될 수 있는지를 살펴보고 그 이후에 국제인도법의 원칙들 즉 인도주의의 원칙, 군사적 필요의 원칙, 구별의 원칙, 비례성의 원칙, 사전예방의 원칙을 자율무기체계를 적용하여 자율무기체계가 그 원칙들을 준수할 수 있는지를 비판적으로 고찰한다. 마지막으로 4장에서 는 아우구스티누스와 토마스 아퀴나스에게서 발전되어 온 정당한 전쟁론 의 네 가지 원칙들을 자율무기체계에 적용하여 자율무기체계를 비판적으 로 고찰하고자 한다.

 

Ⅱ. 용어, 개념 분류 방법, 개념 정의

 

1. 용어

 

먼저 용어를 통일해야 할 것 같다. 논자들이 서로 다른 용어를 사용 하여서 혼란스럽기 때문이다.

자율무기체계(autonomous weapons systems, AWS)9)는 흔히 킬러로봇(killer Robots)10)으로 불리는데 자극적이고 비하적인 뉘앙스를 풍긴다.

 

     9)  Raj M. Shah and Christopher M. Kirchhoff, “The U.S. Military Is Not Ready for the New Era of Warfare,” 「New York Times」(2024.9.13.); 김상배, “미래전의 진화와 국제정치의 변환: 자율무기 체계의 복합지정학,” 「국방연구」 62/3 (2019), 93.

     10)  천현득, “‘킬러로봇’을 넘어: 자율적 군사로봇의 윤리적 문제들,” 「탈경계인문학」 12/1 (2019), 5; 이연희·변순용, “킬러로봇에 대한 윤리적 고찰,” 「한국초등교육」 31 (2020), 217; 장기영, “‘킬러로 봇’을 둘러싼 국제적 갈등: ‘국제규범 창설자’와 ‘국제규범 반대자’ 사이의 정치적 대립을 중심으 로,” 「국제·지역 연구」 29/1 (2020), 201.

 

킬러로봇은 종종 터미네이터의 이미지를 연상시 키는데 양날의 검이 될 수 있다. 즉 킬러로봇은 실존적 위협이라는 강력 한 개념을 전달하고 언론과 대중에게 큰 공감을 불러오지만, 다른 한편 으론 메시지에 공상과학의 느낌을 부여하여 메시지를 흐리게 하고 자율 무기체계가 아직 존재하지 않는다는 인식을 강화할 수 있다. 자율무기체 계는 킬러로봇 외에도 자율살상무기체계, 자율살상무기, 자율무기, 자율 로봇, 자율형 무기체계, 자율형 살상무기시스템, 자율살상로봇이나 로봇 무기체계(크리스토퍼 헤인즈), 자율형 로봇 무기, 로봇 무기, 치명적인 자 율살상무기(Lethal Autonomous Weapon), 치명적인 자율무기체계, 치사성 자율무기시스템, 자율적 군사 로봇, 군사 로봇이나 전쟁 로봇, 완전자율 무기, 완전자율무기체계, 살인기계(Killer Machine), 무인자율로봇, 무인 자율무기체계(로봇과 드론을 총칭함), 자율무인무기체계, 인공지능 무기, 군사용 AI, AI 무기체계, 지능형 무기체계, 지능형 로봇 등으로 불리기 도 한다. 이 용어들은 킬러로봇에 비해 덜 통속적이고 중립적인 뉘앙스 를 풍긴다. 현재까지 자율무기체계에 대해 국제적으로 합의된 용어는 없다. 미 국 국방부, 국제적십자위원회, 국제인권감시기구는 자율무기체계라는 용어를 사용하고 있다. 교황청 AI 연구 그룹은 자율무기, 자율무기체계, 로봇 무기라는 용어를 사용한다.11)

프란치스코 교황은 자율살상무기체계 라는 용어를 사용한 적 있다. 자율무기체계는 흔히 “자율살상무기(Lethal AWS), 군사 로봇, 무인무기체계, 군사용 드론, 킬러로봇 등을 포괄하여 사용하는 개념”12)으로 알려져 있다.

 

     11)  교황청 AI 연구 그룹, 매튜 J. 고데 외 3인 엮음/이성효 외 9인 옮김, 『인공지능과 만남: 윤리적 인 간학적 탐구』(화성: 수원가톨릭대학교 출판부, 2025), 282-285.

    12)  신성호, “자율무기에 대한 국제 사회 논쟁과 동북아,” 「국제·지역연구」 28/1 (2019), 5. 김성호 | 인공지능 킬러로봇의 종교와 과학 - 정당한 전쟁론의 원칙을 중심으로 143 

 

이런 구분은 킬러로봇을 자율무기체 계의 하위 유형으로 보는 것이다. Maciej Zajac도 킬러로봇을 “건물이나 장갑차와 같은 손상 저항형 목표물이 아닌 보호되지 않은 인간을 표적으 로 삼도록 설계된 자율무기체계의 하위 유형(a sub-type of AWS)”13)으로 본다.

 

    13)  Maciej Zajac, “Stopping Killer Robot Proliferation to Tyrants and Terrorists: Why A Global Ban Is Neither Necessary Nor Sufficient,” Philosophy & Technology 38 (2025), 88. 

 

필자는 자주 사용되는 자율무기체계와 자율살상무기체계 중 자율 살상무기체계라는 용어를 사용하기로 한다. 그러나 글을 전개하면서 불 가피한 경우에는 자율무기, 자율무기체계, 킬러로봇 등을 비롯하여 미국 국방부 훈령과 살인로봇반대캠페인, 국제적십자사의 보고서 등에서 자 주 사용하는 완전자율무기체계라는 용어도 사용할 것이다.

 

2. 자율무기체계의 개념 분류 방법

 

자율무기체계의 개념 분류 방법 중 가장 널리 사용되는 것은 보이드 의 주기(Boyd’s Cycle) 또는 OODA ROOP라고 하는데, 한국전쟁 이후 미 국의 군사전략가 존 보이드(John Boyd) 대령이 개발한 것이다. 이 분류 방법은 관측(목표물을 찾는 것, observation), 상황판단(목표물을 탐지하고 선 택하는 것, orientation), 결정(목표물을 공격할지 여부를 결정하는 것, decide), 행동(목표물을 공격하는 것, act)의 단계로 구성되는 의사결정 과정에서의 인간 운영자의 위치 즉 인간의 지시와 통제 정도에 기반하는 것인데 세 가지 시나리오로 구분된다.14)

첫 시나리오는 ‘human-in-the-loop’(인간 통제, 인간의 적극 개입, 부 분 자율성) 단계다. 여기서 루프(loop)는 무기체계가 작동하는 과정에서의 관측-상황판단-결정-행동의 고리를 의미한다.15)

 

     14)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” UNISCI Journal 67 (2025), 117.

     15)  임예준, “인공지능 시대의 전쟁자동화와 인권에 관한 소고 - 국제법상 자율살상무기의 규제를 중 심으로,” 「고려법학」 92 (2019), 270. 

 

이 단계는 인간이 제 어 루프 안에서 결정권을 갖는 원격조정 시나리오인데, 인간 운영자가 언제(시점) 그리고 어떻게 행동하는지(행동 방법)를 결정하는 것, 즉 인간이 적극 개입하여 인간의 통제 아래 이루어지는 단계다. 이 단계는 반(半) 자율적 시스템으로서 명령된 임무를 자율적으로 수행하지만 목표물을 검 증하고 조치를 실행하기 위해 전략적/전술적 인간 지휘와 통제 시스템의 개입이 필요한 단계다.16)

인간이 최종 결정권자로서 교전 여부를 결정하 기 때문에 관리형 자율무기체계(인간 지배형)로 불린다.17)

공격용으로 사용되는 대부분의 무기체계는 이 방식으로 작동되며, 학자들마다 분류하는 것이 다르다는 것을 전제로, 자동화 화기, 박격포, 탄도 미사일과 크루즈 미사일, 최근 분쟁에서 배치된 대부분의 자살(자 폭, 카미카제) 드론 등이 이에 해당한다.18)

또한 마크스(Marks 2012)와 김 광우에 따르면 이스라엘의 아이언 돔(Iron Dome)도 여기에 포함되는데, 아이언 돔은 자율적 단거리 공중미사일 방어체계로서 로켓(미사일)을 탐 지하고 궤적을 예측한 후 이 정보를 인간 병사에게 전달하며 해당 병사 가 요격 로켓 발사 여부를 결정하는 시스템이다.19)

조현석은 이 범주에 들어가는 무기로 가드보트, 타라니스(영국), C-RAM, 에코 보이저, 블랙 윙, MK-60 캪터, PK-2(중국), 시 어친(영국), MARRS(무인지상무기차량, 미국), (정찰) RQ-4A 글로벌 호크, RQ-7A 섀도 200(미국), (정찰, 동굴 수 색) 마틸다, 팩봇, 탈론, 레무스(미국)을 포함시키고 있다.20)

 

     16)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 117; Licenciada Luciana Micha and Comodoro Pablo Farías, “The evolution of disruptive technologies and lethal autonomous weapons systems: considerations from the military field,” March 16, 2021, https://www.stopkillerrobots.org/wp-cont ent/uploads/2021/09/The-evolution-of-disruptive-technologies-and.pdf [접속 2025.8.15.]

     17)  황용하, “전쟁의 참상과 인공지능,” 116.

    18)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 117; 김보연, “인공지능을 통한 전쟁수행은 정당한가-자율 무기체계를 통한 국제인도법 준수가능성을 중심으로,” 「고려법학」 107 (2022), 420.

    19)  Amitai Etzioni, Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism (Washington: Springer International Publishing AG, 2018), 260; 김광우, “자율살상무기(일명 킬러 로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 「국방과 기술」 473 (2018), 124.

     20)  조현석, “인공지능, 자율무기체계와 미래 전쟁의 변환,” 조현석·김상배 외 지음, 『인공지능, 권력 변환과 세계정치』(서울: 삼인, 2018), 235. 

 

두 번째 시나리오는 ‘human-on-the-loop’(인간 감독, 인간의 소극 개입, 인간 참여형, 감독하의 자율성) 단계다. 이는 인간이 루프 위에 있는 단계 다. 이 단계에선 인간 운영자가 무기체계를 작동시키지만, 이후의 모든 후속 의사결정과 행동은 자율적으로 수행되고 필요한 경우에는 인간이 무기체계를 수정, 교정 또는 거부, 중지시킬 수 있다. 즉 인간 운영자의 역할은 작동, 감독, 대응 중단에 한정된다.21)

국가별 개발 상황을 다 알 기는 어렵고, 학자들마다 다르게 분류하지만, 이 단계에 해당하는 무기 는 사전에 지정한 지역에서 수색하고 사격할 수 있는 무장 쿼드콥터, 미 해군의 팔랑스(MK 15-Phalanx CIWS), 미 육군의 대로켓, 포병 및 박격포 시스템(C-RAM)과 미 해군의 Northrop Grumman X-47B, 독일이 아 프가니스탄에 배치한 맨티스(MANTIS), 다수의 드론을 이용한 군집비행 (SWARMS), 프랑스·스웨덴의 보누스(BONUS 155mm projectile), 남북한 비무장지대(DMZ)에 배치된 한화테크윈의 감시 경계 로봇 SGR-A1 등이 다.22)

이 외에도 인공지능 기반 드론이나 ‘신경 회로망’ 기술을 활용하여 총알이 적과 아군을 구별하는 전자동 소총, 자율 시스템 기관총, 인공지 능 탑재 미사일, 무인 공격기/무인 항공기, 무인 지상차량, 무인 함정, 무인 지상감시체계, 인간과 로봇과 무인 시스템을 통합한 유인·무인 복 합전투체계(MUM-T: Manned-Unmanned Teaming), 로봇개, 대테러 작전 용 다족보행 로봇 등이 포함될 것이다.23)

 

     21)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 117; Licenciada Luciana Micha and Comodoro Pablo Farías, “The evolution of disruptive technologies and lethal autonomous weapons systems: considerations from the military field,” 16; 김현중, “넥스트 오펜하이머 시대: 자율살상무기 발전에 따른 예상쟁점 및 대응방안,” 「전략보고」 284 (2024), 11.

     22)  김보연, “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인도법 준수가능성을 중심으로,” 「고려법학」 107 (2022), 420; 임예준, “인공지능 시대의 전쟁자동화와 인권에 관한 소 고-국제법상 자율살상무기의 규제를 중심으로,” 「고려법학」 92 (2019), 272; 김자회, “치사성 자율 무기시스템에 대한 적법성 검토-제네바협약 제1추가의정서 제36조 검토의무를 중심으로,” 「인도 법논총」 38 (2018), 15; 신성호, “자율무기에 대한 국제 사회 논쟁과 동북아,” 5; 김광우, “자율살 상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 125.

    23)  Frank Slijper, Slippery Slope: The arms industry and increasingly autonomous weapons, 6-8; 이 종훈, “인공지능 자율무기 진화: 회복력 강화와 전장 생존성,”48-60. 

 

세 번째 시나리오는 ‘human-out-of-the-loop 또는 human off the loop’(인간 배제, 완전자율)다.

이 시나리오는 인간이 루프 밖에 있는 단계인데, 인간의 초기 명령 입력 후 인간의 개입 없이 완전히 자율적으 로 작동하는 단계다. 인간이 기계를 작동시키면, 인간과의 통신 없이 임 무를 수행하고 인간은 제어 루프에서 완전히 배제된다.24)

대표적인 무기 체계는 이스라엘의 공격형 자폭 드론인 하피(Harpy)다. 하피를 개량한 것 이 하롭(Harop)이다. 하피는 일단 발사되면 2.5 시간동안 특정 지역에서 레이더 기지를 탐색할 수 있고, 레이더 기지를 발견하면 인간의 개입이 나 통제 없이 공격한다. 하피 외에도 TARES(독일), 155mm 포로 발사하 는 자율폭탄(프랑스, 스웨덴, 독일), 브림스톤(영국), 브라모스(러시아, 인도, 크루즈미사일), 몬스터마인드(사이버무기, 미국)가 있다.25)

이렇게 OODA ROOP가 가장 널리 사용되는 분류 방법이지만 이러 한 3단계 구분이 현실적으로 쉽지 않을 경우도 있다. 가령 인간과 인공 지능이 융합된 의사결정이 발생할 때 어디까지를 인간이 결정하고 어디 까지를 인공지능이 결정한 것인지를 구분하기가 힘든 경우가 있을 수 있 다.26)

한편 OODA ROOP라는 분류 방법 외에도 미국 국방부는 표적 선 정 및 병력 투입 결정이 인간에 의해 통제되는 ‘인간 감독 자율무기’, 인 간 통제 수준이 중간 정도가 되는 ‘반(半)자율형 무기’, 일단 작동되면 인 간의 추가 개입 없이 표적을 선택하고 공격하는 ‘완전 자율무기’로 구분 하고 있다.27)

 

   24)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 117.

   25)  조현석, “인공지능, 자율무기체계와 미래 전쟁의 변환,” 235.

   26)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 124.

   27)  김보연, “인공지능을 통한 전쟁수행은 정당한가 - 자율무기체계를 통한 국제인도법 준수가능성 을 중심으로,” 420. 

 

3. 자율무기체계의 개념 정의

 

아직 자율무기체계의 개념이나 인간 책임의 문제에 대한 국제적 규 범이 정립되어 있지 않다.28)

에트지오니에 따르면 자율 시스템은 자동화 된 시스템보다 예측하기 어려운데, 왜냐하면 AI가 결정을 내리고 인간이 명령하지 않은 행동을 취할 수 있기 때문이다. 그래서 그는 AI가 “기계 제작자, 프로그래머, 사용자가 제공한 지시사항이나 조건을 넘어선다”는 의미에서 자율성을 “기계가 수집한 정보를 바탕으로 결정을 내리고 그 결정에 따라 행동하는 능력”29)으로 정의내린다.

유엔 특별보고관 크리스 토프 헤인즈는 자율무기체계를 “활성화되면 추가적인 인간의 개입 없이 스스로 목표를 선택하고 공격하는 무기체계”30)라고 정의했다.

미국 국방 부는 지침 3000.09에서 자율무기체계를, 비록 인간 운영자가 언제든지 작동을 중단시킬 수 있다 해도31), “일단 작동되면 운용자에 의한 추가적 인 개입 없이 표적을 선택하고 공격할 수 있는 무기체계”32) 또는 “인간의 개입을 최소화하고, 다양한 센서를 통한 인지 및 인공지능 기반의 판단 에 따라 행동이 수행되는 무기체계”33)로 정의한다.

 

     28)  박문언, “자율무기체계와 지휘책임,” 「서울국제법연구」 31/2 (2024), 3.

     29)  Amitai Etzioni, Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism, 260.

     30)  Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions, UN Doc. A/HRC/23/47 (2013), para 38. 임예준, “인공지능 시대의 전쟁자동화와 인권에 관한 소고 - 국제 법상 자율살상무기의 규제를 중심으로,” 269에서 재인용.

     31)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 112.

    32)  U.S. DoD Directive 3000.09, “Autonomy in Weapon Systems,” Jan. 25. 2023. 이종훈, “인공지 능 자율무기 진화: 회복력 강화와 전장 생존성,” 62에서 재인용함. 2018년 무인시스템 통합 로드 맵 (2017-2042)에서 미국 공군은 자율성을 “실재(개체)가 세계, 자신, 그리고 상황에 대한 지식과 이해를 바탕으로 목표를 달성하기 위해 다양한 행동 경로 사이에서 독립적으로 개발하고 선택하 는 능력”으로 정의한다. Steven J. Barela and Avery Plaw, “Programming Precision? Requiring Robust Transparency for AWS,” Jai Galliott, Duncan Macintosh, and Jens David Ohlin (ed.), Lethal Autonomous Weapons: Re-examining the Law and Ethics of Robotic Warfare (New York: Oxford University Press, 2021), 75 참조.

    33)  여세동·황규환·태현성, “자율무기체계 시험평가를 위한 실제 - 가상 연계 포인트 클라우드 증강 기법,” Journal of the KIMST 27/3 (2024), 375에서 재인용함.

 

국제적십자위원회는미국 국방부의 정의를 채택하여34) 자율무기체계를 “목표물을 독립적으 로 선택하고 공격할 수 있는 무기, 즉 목표물의 탐지, 추적, 선택 및 공격 과 같은 ‘핵심 기능’에서 자율성을 갖춘 무기”(국제적십자위원회, 2014)로 정의한다.

더 최근에 국제적십자위원회는 “인간의 개입 없이 목표물을 선택하고 목표물에 힘을 적용하는” 로봇 무기 시스템으로 정의하고 “사 람에 의해 초기 활성화된 이후 혹은 발사된 이후에 자율무기체계는 센서 를 통해 환경으로부터 받은 정보와 일반화된 ‘목표물 프로파일’에 기반하 여 자체적으로 공격을 시작하거나 발동한다”고 정의한다.

세계교회협의 회(WCC)에 소속된 제니퍼 필포트 니센은 2021년에 발간한 소책자 『킬러 로봇: 교회를 위한 캠페인 가이드』에서 자율살상무기체계 또는 킬러로봇 이라는 용어를 사용하면서 “의미 있는 인간의 통제 없이(without meaningful human control) 목표물을 선택하고 공격하는 무기”35)로 정의하고 있다.

2017년 2월 지능형 자율 로봇에 전자 인격을 부여한 유럽의회는 로봇의 자율성을 “외부통제나 외부영향을 받지 않고 독립적으로 외부 세 계에서 의사 결정을 내리고 구현할 수 있는 능력”36)으로 정의한다.

 

    34)  Andreas Heinz Westhues, “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS,” 112.

    35)  Jennifer Philpot-Nissen, Killer Robots: A Campaign Guide for Churches (Swizerland: WCC Publications, 2021), 6.

    36)  김자회·장신·주성구, “자율 로봇의 잠재적 무기화에 대한 소고 - 개념정립을 통한 규제를 중심으 로,” 「입법과 정책」 9/3 (2017), 145에서 재인용함. 

 

그러 나 칸트의 관점에서 자율무기체계의 자율성에 도덕적 지위와 책임을 부 여할 수 있는지와는 별도로 인공지능이 탑재된 상태에서 인간의 통제 없 이 목표물을 선택하고 공격하는 완전자율무기체계에는 아직 진입하지 못 한 것으로 보인다. 그러나 곧 완전자율무기체계가 등장할 것으로 예측된 다.

게다가 인간의 정신적, 신체적 능력을 모방하는 로봇 병사(Robot Soldier)도 등장할 것으로 보인다. 

 

Ⅳ. 자율살상무기체계에 대한 찬반 논쟁

 

1. 반대 입장

 

자율살상무기체계에 대한 반대 논증은 일반적으로 기술적 한계와 무 고한 피해, 인간 존엄성 침해 문제, 책임 귀속의 불명확성을 근거로 한 다. 알고리즘의 오작동이나 불완전한 기술력 때문에 민간인이나 아군이 피해를 입을 수 있다는 것, 기계가 인간을 살해하는 것은 인간 존엄성에 대한 근본적 침해라는 것, 개발자와 운영자, 지휘관 중 누구에게 책임을 귀속해야 하는지 불명확하다는 것이다.37)

메렐 에켈호프(Merel Ekelhof)와 미리암 스트루이크(Miriam Struyk)는 일반적 논거를 넘어 더 구체적으로 킬러로봇에 반대하는 8가지 이유를 제시한 바 있다.38)

 

     37)  Ibid., 179.

     38)  Merel Ekelhof and Miriam Struyk, DEADLY Decisions: 8 objections to killer robots, 6-26 참조. 

 

첫째, 완전자율무기체계는 가슴 없는 살인(Killing without a heart)이라는 것이다. 혹자는 로봇이 특별히 그렇게 하도록 프 로그램 되어 있지 않다면 복수, 공포, 분노, 증오, 편견, 두려움 등으로 행동하지 않을 것이라고 주장하지만, 완전자율무기체계는 지휘관에 의 해 분노나 복수로 사용될 수 있다는 것이다. 더 중요한 것은 감정이 전쟁 에서 잔혹성을 제약하는 주요 요소 중 하나라는 것이다. 여기에는 예컨 대, 국가가 민간인을 살해하도록 명령할 때 병사들이 탈영하는 경우(예: 시리아)뿐만 아니라 병사들이 생명을 빼앗는 것에 대한 본능적인 혐오도 포함된다는 것이다.

그러므로 완전자율무기체계는 본질적으로 비윤리적 이라는 것이다.

둘째, 완전자율무기체계는 전쟁의 문턱을 낮출 수 있다는 것이다.

완 전자율무기체계는 정치적 장벽을 제거하고 당국자들이 전쟁을 선포하고참여하는 기준을 낮추게 한다는 것이다. 또한 정부는 전쟁에 참여하는 것이 더 쉬워지고 전쟁을 지속하거나 전쟁을 은폐하는 것도 더 쉬워진다 는 것이다. 이는 민주주의 사회에도 영향을 미치는데, 기계에 완전한 자 율권을 부여함으로써 전쟁과 분쟁에 참여하는 데 필요한 논의가 줄어들 기 때문에 민주주의 사회의 균형 장치가 약화된다는 것이다.

  셋째, 완전자율무기체계는 민간인과 전투원을 구별하여 적절한 결정 을 내릴 수 있도록 프로그래밍될 수 없고 현재 기계적인 정보 처리 방식 은 구별의 원칙을 적용하는 것을 불가능하게 만든다는 것이다. 따라서 설사 발사를 회피하도록 설계되었다 해도, 예컨대 AK-47(자동소총)을 들 고 있는 사람과 지팡이를 들고 있는 사람을 구분하는 것, AK-47을 들고 있는 비전투원과 AK-47를 들고 있는 전투원을 구분하는 것, 반군들이 민간인으로 위장하는 상황에서 전투원과 비전투원을 구분하는 것, 전투 중인 전투원과 부상으로 전투가 불가능한 전투원과 투항한 전투원을 구 분하는 것 등은 소프트웨어 엔지니어들에게는 도전과제가 될 것이다.39)

 

    39)  Anzhelika Solovyeva·Nik Hynek, “When stigmatization does not work: over-securitization in efforts of the Campaign to Stop Killer Robots,” AI & SOCIETY 38 (2023), 2552. 

 

  넷째, 전쟁 상황에서 군사적 이익과 인간의 고통을 평가하는 것은 극 히 복잡한 문제이므로 의미 있는 인간 개입 없이 작동하는 기계는 비례 성의 원칙 즉 민간인과 민간 시설에 대한 피해가 예상되는 군사적 이익 에 비해 과도하지 않아야 한다는 것을 적용할 수 없다는 것이다.

  다섯째, 완전자율무기체계는 책임(responsibility)의 사슬을 복잡하게 만들고, 국제법 위반에 대해 아무에게도 책임지게 할 수 없는 책무성의 공백(an accountability vacuum)을 초래한다는 것이다.

  여섯째, 자율무기체계의 개발과 배치는 의미 있는 책무성에 필요한 투명성 수준을 충족시키지 못한다는 것이다. 무기시스템 자체가 익명으 로 운영되고 비밀 임무를 수행할 것이기 때문에 무기시스템을 점검하고 논의하며 민주적 감시를 하기가 어려워진다는 것이다.

  일곱째, 완전자율무기체계는 배치될 국가의 현지 주민들을 공포에 떨게 하고 가능하면 더 강한 증오와 추가적인 불안정을 초래할 수 있다 는 것이다. 제퍼슨 모리의 보고서에 따르면, 미국의 드론 공격에 대한 분 노는 예멘의 불안정성을 심화하는 데 기여했고, 2009년 12월 공격이 시 작될 당시 알카에다는 200-300명의 구성원을 보유하고 있었고 영토도 통제하지 못했지만, 이제는 1,000명 이상의 구성원을 보유하고 도시를 통제하고 있다는 것이다. 게다가 완전자율무기체계는 공격받은 측이 적 의 민간인을 표적으로 삼는 과도한 대응을 유발할 수 있다는 것이다. 동 시에 완전자율무기체계를 배치하는 고도 기술 사회에서 데이터의 사용이 증가함에 따라 시민들이 기계에 쉽게 노출되고 잠재적인 반격(사이버 공 격)에 더 취약해질 수 있다는 것이다. 마지막 여덟째는 완전자율무기체계는 상대적으로 값싸고 복제가 쉽 다는 것입니다. 그래서 만약 생산되어 사용된다면 국가와 비국가 행위자 들(반군 등)에 의해 널리 확산된다는 것이다. 그리고 완전자율무기체계는 다른 완전자율무기체계와 상호작용할 것이고 그 영향은 예측 불가능하고 대부분 파괴적이라는 것이다.

 

2. 찬성 입장

 

자율살상무기체계 개발에 찬성하는 사람들의 논거는 다음과 같다.

  첫째, 인간 병력의 수를 줄일 수 있다는 것이다. 인간 병사 대신에 군사 로봇을 전쟁터에 보내면 더 적은 수로 전쟁 임무를 수행하고 마무리할 수 있다는 것이다.40)

 

     40)  천현득, “‘킬러로봇’을 넘어: 자율적 군사로봇의 윤리적 문제들,” 12; steven Umbrello and Nathan Gabriel Wood, “Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status,” Information 12 (2021), 216. 

 

즉 소수의 병력으로 적에게 치명적인 손상을 입히고 아군 사상자는 최소화할 수 있다는 것이다.41)

미군의 경우 2025년경 에는 인간 병사보다 로봇이 개입된 자율무기체계의 수가 더 많아질 것으 로 예측된다.42)

그러나 군대를 기계로 대체할 경우 인명 손실에 대한 양 심의 가책을 느끼지 않는 기계들이 훨씬 쉽게 전쟁을 선택하고 갈등과 분쟁을 증폭시킬 수 있다는 반론도 있다.43)

둘째, 이상적인 가정이지만 국제인도법을 준수하고 폭력 수준이 감 소되도록 설계된다면 적 병사를 살상하거나 신체적 고통을 가하지 않으 면서 무기를 파괴하고 철수함으로써 적을 무력화할 수 있다는 것이다.44)

 셋째. 자율무기는 병사와 달리 3D 즉 힘들고 더럽고 위험한 임무도 불평 없이 장시간 성실히 수행할 수 있으므로 극한 상황에 유용하다는 것이 다.45)

가령 정찰 임무를 포함하여 지뢰 제거나 폭발물 처리, 핵 구름이나 고방사선 지역에서의 작전과 같은 위험한 업무 수행 시 인간 병사 대신 에 투입되어 불필요한 인명 피해를 줄일 수 있다는 것이다.46)

  넷째, 방위 비 부담을 줄일 수 있어 경제적이라는 것이다. The Fiscal Times에 따르 면, 아프카니스탄에 파견된 미군 군인 한 명당 연간 약 85만 달러(일부 추 산치는 100만 달러 이상)의 비용이 들었지만 탈론 로봇(소형 무장로봇) 한 대 는 약 23만 달러로 임무 수행이 가능하였고 유지보수 비용도 상대적으로 저렴하였다.47)

 

   41)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 125. 42)  신성호, “자율무기에 대한 국제 사회 논쟁과 동북아,” 7.

   43)  Ibid., 13. 44)  오민용·이장희, “자율무기체계와 인간 죽음의 존재론적 지평,” 「중앙법학」 27/2 (2025), 178. 45)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 125-126. 46)  유준구, 『자율살상무기체계의 논의 동향과 쟁점』(서울: 국립외교원 외교안보연구소, 2019), 3; Amitai Etzioni, Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism, 254.

   47)  Amitai Etzioni, Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism, 260; 김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시 사점,” 126.

 

  다섯째, 위험한 상황에서는 인간 병사보다 자율로봇을 투입하는 것 이 더 윤리적일 수 있다는 것이다. 병사들은 전장에서 극도의 스트레스, 분노, 복수심 등 감정적 요인과 정신질환으로 인해 무차별 사격, 강간, 약탈 등 전쟁범죄를 저지를 수 있는 반면에, 감정적 편향에서 자유로운 로봇은 주어진 임무 수행에만 전념하기 때문에 전쟁범죄를 저지르지 않 는다는 것이다.48)

또한 로봇은 확증 편향에 덜 취약하다는 것이다. 확증 편향은 정보를 이미 가지고 있는 생각이나 신념을 뒷받침하거나 검증하 는 방식으로 해석하는 경향인데, 로봇은 확증 편향 없이 모든 증거를 공 정하게 판단할 가능성이 높다는 것이다.49)

  여섯째, 첨단 센서와 알고리 즘을 통한 정확한 타격 가능성이 높아짐에 따라 오인 사격 가능성과 인 명 피해를 줄일 수 있다는 것이다.

  일곱째, 자율무기체계가 인간보다 압 도적으로 정보 속도 처리가 빠르기 때문에 표적 식별과 주변 환경을 분 석하여 최적의 결과를 가져올 수 있다는 것이다.50)

   여덟째, 민간인 피해를 최소화할 수 있다는 것이다. 안토니 핀은 자 율살상무기가 민간인 피해를 줄이고 전쟁을 조기에 끝낼 수 있다고 본 다.51)

그러나 병사와 민간인이 혼재되어 있는 경우, 그리고 민간 전투원 과 민간인을 구분하기 어려운 저강도 분쟁이나 시가전에서 살상을 어떻 게 조절할 수 있는지 하는 문제가 제기된다.52)

   아홉째, 살인 책임자의 경 계가 모호할 수 있다는 반대론자의 주장에 대해 토마스 심슨(Thomas Simpson)과 빈센트 뮐러(Vincent Müller)는 오히려 누가 명령했는지를 기 록하기가 더 쉬워 책임자도 정확하게 가려낼 수 있다고 주장했다.53)

 

       48)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 126; 오민용·이장희, “자율무기체계와 인간 죽음의 존재론적 지평,” 180; Nathan G. Wood, “The Problem with Killer Robots,” Journal of Military Ethics 19/3 (2020), 228.

      49)  Nathan G. Wood, “The Problem with Killer Robots,” 227.

      50)  오민용·이장희, “자율무기체계와 인간 죽음의 존재론적 지평,” 180-181.

      51)  한희원, “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 「중앙법 학」 20/1 (2018), 333.

     52)  신성호, “자율무기에 대한 국제 사회 논쟁과 동북아,” 10.

      53)  한희원, “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 333. 

 

열번째, 전쟁 수행의 범위와 방식을 획기적으로 개선할 수 있다는 것이다. 자 율무기는 더 넓은 지역에서 더 정교한 작전을 수행할 수 있으며, 군집 기 술을 통해 여러 로봇들이 서로 통신하고, 소수에 의해 관리되며, 동시다 발적 대규모 로봇 공격이 가능하다는 것이다.54)

 

     54)  천현득, “‘킬러로봇’을 넘어: 자율적 군사로봇의 윤리적 문제들,” 13. 

 

Ⅴ. 자율무기체계의 국제법적 문제 ― 국제인도법을 중심으로

 

1. 자율무기체계는 법적으로 허용될 수 있는가

 

현재 국제 사회는 자율무기 사용의 허용 여부 문제를 놓고 의견이 분 분하다. 일부 국가들은 자율무기 사용을 절대 금지해야 한다고 주장하는 반면에 다른 국가들은 완전히 반대하지는 않지만 국제적으로 구속력 있 는 협약(협정) 채택을 통해 자율무기 사용을 규제해야 한다고 제안하고 있다.55)

그러나 미국, 러시아, 영국, 인도, 이스라엘은 자율무기에 대한 법적으로 구속력있는 규범의 도입을 반대하고 있다. 금지 조치를 반대하 는 학자들도 의견이 분분하다.

금지 조치가 효과가 없을 것이고(schmit 2013), 자율살상무기체계의 사용이 기존 국제법과 규범에 의해 충분히 규 제되고 있으며(Anderson et al, 2014), 또는 금지 조치가 너무 늦었고 이제 는 효과적인 규제가 필요하다(Sehrawat 2017)고 주장하기도 한다.56)

 

  55)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” Zbornik radova Pravnog fakulteta u Splitu 61/4 (2024), 531.

  56)  Austin Wyatt and Jai Galliott, “Proposing a Regional Normative Framework for Limiting the Potential for Unintentional or Escalatory Engagements with Increasingly Autonomous Weapon  Systems,” 262. 

 

그러나 금지 조치 반대자들의 의견이 다양해도 그들의 기본 논리는 현행 국 제인도법과 기타 규범적 틀 내에서의 책임적 설계와 배치가 자율살상무 기체계의 영향을 규제하는 가장 효과적인 방법이라는 것이다. 이렇게 금 지 조치 반대자들도 국제인도법 내에서 책임적 설계와 배치를 주장하고 있다. 물론 자율무기체계를 공식적으로 금지하거나 의도적으로 규제하는 전세계적 체제나 국제조약, 법적 수단은 아직까지 없다.57)

국제인도법의 맥락에서도 자율무기를 명시적으로 다루는 구체적인 규정은 없다. 그러 나 자율무기에 대한 명시적 규정이 국제인도법에 없다 해도 자율무기 허 용 여부는 그 무기들이 현행 국제인도법 또는 국제인도주의법(international humanitarian law)의 원칙들과 양립가능한지를 검토하여 평가해야 한다.58)

즉 자율무기가 국제인도법의 원칙의 요건들을 충족시키고 있는 지를 검토해야 한다. 먼저 국제인도법을 통해 자율무기체계가 법적으로 허용될 수 있는지를 살펴보고 그런 다음에 자율무기체계가 국제인도법의 기본 원칙인 인도주의의 원칙, 군사적 필요의 원칙, 구별의 원칙, 비례성 의 원칙, 사전예방의 원칙을 준수할 수 있는지를 검토할 것이다. 국제인도법은 무력 분쟁의 수단을 통제하기 위한 국제법이다. 국제 인도법의 토대는 1899년과 1907년의 헤이그 육전규칙과 제1차 세계대전 과 제2차 세계대전을 치른 후 1949년에 체결된 4건의 제네바 협약이다. 그 후 제네바 협약은 1977년에 제1추가의정서(국제적 무력충돌의 희생자 보 호에 관한 의정서)와 제2추가의정서를 통해 보충되었다.59)

 

  57)  Nik Hynek and Anzhelika Solovyeva, MiLITARIZING ARTIFICIAL INTELLIGENCE: THEORY, TECHNOLOGY, AND REGULATION, 169; Evhen Tsybulenko and Aleksi Kajander, “Customary International Humanitarian Law and Article 36 of Additional Protocol Ⅰ to the Geneva Conventions: A Stopgap Regulator of Autonomous Weapons Systems?,” TalTech Journal of European Studies Tallinn University of Technology 12/2 (2022), 90.

   58)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 531. 

  59)  이상용, “자율무기의 법과 윤리,” 「일감법학」 56 (2023), 376-377. 

   

우리가 논의하 Systems,” 262. 156 神學思想 212집 · 2026 봄 는 자율무기체계가 과연 법적으로 허용될 수 있는지의 문제를 고찰하기 위해 기준이 되는 조항은 제1추가의정서 제36조다. 새로운 무기, 전투 수단 또는 전투 방법의 연구, 개발, 획득 또는 채 택에 있어서 제1추가의정서 당사국은 그 사용이 본 의정서 또는 해당 고등 계약 당사국에 적용되는 국제법의 다른 규범에 의해 일부 또는 모든 상황에서 금지될 것인지 여부를 결정할 의무가 있다.60)

먼저 고찰할 것은 자율무기체계를 합법성 검토 대상으로 간주할 수 있는지 여부다. 인간의 개입이 없는 완전자율무기를 무기의 범주에 포함 해야 하는지 그리고 그 무기에 인간과 동일한 전투원의 지위를 부여할 수 있는지에 대한 논의는 지속되고 있다.61)

우선 제36조에는 단순히 “새 로운 무기”라고만 언급되어 있고 새로운 무기에 대한 정확한 정의가 없 기 때문에 자율무기체계는 합법성 검토 대상에서 제외된다고 볼 수도 있 다.62)

이와 유사한 관점에서 바야르(Erdal BaYar)는 자율무기체계가 합법 적인지 그리고 기존 무기나 시스템이 금지되는지를 검토한 결과 어떤 결 론도 도출되지 못했고 따라서 이는 무기 사용의 합법적 가능성(the potential for legitimacy)을 보여준다고 말했다.63)

 

    60)  Protocol Additional to the Geneva Conventions of 12 August 1949, and ProtocolⅠon Protection of Victims of International Armed Conflicts, 8 june 1977. 한희원, “인공지능(AI)의 치명적 자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 347에서 재인용함. 번역은 필자가 함.

   61)  유준구, 『자율살상무기(LAWS)체계의 규범 창설 논의의 쟁점과 시사점』, 17.

   62)  김자회, “치사성 자율무기시스템에 대한 적법성 검토 - 제네바협약 제1추가의정서 제36조 검토 의무를 중심으로,” 22.

   63)  Erdal Bayar, “AUTOMOUS WEAPONS SYSTEMS: A LEGAL CHALLENGE FOR INTERNATIONAL HUMANITARIAN LAW,” KAUJEASF 16/31 (2025), 48. 

 

반면에 국제적십자위원회 는 “새로운 무기, 전투 수단 또는 전투 방법”의 적용 범위가 넓기 때문에 합법성 검토 대상에 무기 시스템을 포함시키고 있다. 국제사법재판소의 의견도 이를 지지하는데, 1996년 국제사법재판소의 사건 권고적 의견에 따르면, “무력충돌법의 원칙에 포함된 인도주의적 성격은 모든 형태의 전쟁과 미래 무기를 포함하여 모든 종류의 무기에 적용”64)된다. 그러므 로 국제인도법 규칙도 모든 종류의 무기에 적용되기 때문에 자율무기체 계를 무기로 볼 수 있다. 스테리오(Milena Sterio)는 자율무기체계를 새로 운 무기로 보고 “만약 당사국들이 새로운 무기인 자율무기체계를 개발하 고 있다면, 당사국들은 이러한 무기 사용을 감시하고 그 사용이 제네바 협약 및 추가의정서에 의해 금지되지 않도록 보장해야 할 지속적인 의무 가 있다”65)고 말한다. 배성민과 정종구는 자율무기가 국제인도법 규정에 명시되어 있지 않지만 “새로운 무기 또는 전쟁방식의 적법성을 검토해야 하는 의무(제1추가의정서 제36조 등)에 비추어 여전히 적용된다”66)고 본다. 또한 합법성 검토 범위에서도 의견이 나뉜다. 무기를 사용하지 않고 단순히 무기를 소유·보유하고 있는 것은 합법성 검토의 대상이 아니라고 보는 입장이 있다. 반면에 합법성 검토 범위를 넓게 보아 자율무기체계 와 같은 새로운 무기를 사용하지 않고 다만 소유하는 것도 합법성 검토 의 대상이 된다고 보는 입장이 있다.67)

그러므로 회원국은 제1추가의정 서 제36조에 따라 “새로운 무기, 전투 수단이나 전투 방법”을 자국의 국 가방위시스템에 편입시키기 전에 의정서나 국제법의 규범에 비추어 그 합법성을 필수적으로 고려할 의무가 있다.68)

 

       64)  김보연, “인공지능을 통한 전쟁수행은 정당한가 - 자율무기체계를 통한 국제인도법 준수가능성 을 중심으로,” 429. 65)  Milena Sterio, “Autonomous Weapons Systems and the Need to Update International Humanitarian Law,” Case Western Reserve Journal of International Law 57 (2025), 308. 66)  배성빈·정종구, “자율무기에 대한 규범적 고찰,” 「연세 의료·과학기술과 법」 12/2 (2021), 20. 67)  김자회, “치사성 자율무기시스템에 대한 적법성 검토-제네바협약 제1추가의정서 제36조 검토의 무를 중심으로,” 22-23, 25.

      68)  한희원, “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 347. 

 

물론 제1추가의정서 제36조 에서 언급된 ‘국제법의 다른 규범’이 아직 없는 상태에서 자율무기체계의 합법성을 직접 판단하기가 어려운 것은 사실이다. 그러나 제1추가의정서 제36조에서 언급된 모든 범주의 “새로운 무기, 전투 수단이나 전투 방  법”에 비추어 보면 자율무기체계와 같은 “새로운 무기도 기존 국제법에 위배되는 것으로 판명되면 배치가 금지된다는 것이 현재의 법규범 체계 다.”69)

그런데 합법성 검토 의무가 국제관습법상 국가의 의무인가 하는 문제가 제기될 수 있다. 바야르에 따르면 현재 자율무기체계를 금지하거 나 제한하는 협정이나 관습법의 규범은 없다.70)

그러나 김자회에 따르면 일반적으로 국가는 새로운 무기를 개발하고 획득할 경우 합법성 검토를 할 의무가 있으며 이 의무는 국제관습법적 의무로 간주된다.

그러므로 제네바 협약을 비준한 국가나 설사 제네바 협약에 가입하지 않은 국가라 해도 새로운 무기의 합법성을 검토할 의무가 있다.71)

 

      69)  Ibid., 348. 70)  Erdal Bayar, “AUTOMOUS WEAPONS SYSTEMS: A LEGAL CHALLENGE FOR INTERNATIONAL HUMANITARIAN LAW,” 48.

     71)  김자회, “치사성 자율무기시스템에 대한 적법성 검토-제네바협약 제1추가의정서 제36조 검토의 무를 중심으로,” 19.

     

2. 자율무기체계는 국제인도법의 원칙을 준수할 수 있나

 

이번에는 자율무기체계가 과연 국제인도법의 원칙을 준수할 수 있는 지를 고찰하고자 한다. 모든 국가들은 새로운 무기를 개발하고 배치할 때 국제법이나 국제관습법에 위배되지 않는지 검토해야 한다. 이 때 적 용되는 원칙들이 있는데 구별의 원칙, 비례성의 원칙, 군사적 필요의 원 칙, 인도주의의 원칙(마르텐스 조항) 등이 있다.72)

윈터(Elliot Winter)는 인 도주의의 원칙, 군사적 필요의 원칙, 구별의 원칙, 비례성의 원칙, 사전 예방의 원칙으로 종합했다.73)

 

     72)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 126.

     73)  Elliot Winter, “The Compatibility of Autonomous Weapons with the Principles of International Humanitarian Law,” 10.

 

필자는 윈터의 견해를 따르기로 하고, 자 율무기체계가 과연 국제인도법의 다섯 가지 원칙을 준수할 수 있는지를 검토하고자 한다.

 

1) 인도주의의 원칙

 

국제인도법의 기본 원칙은 인도주의의 원칙(the principle of humanity)이다. 인도주의의 원칙은 마르텐스 조항(Martens clause)으로 알려져 있는데, 그 핵심 내용은 1977년 제1추가의정서 제1조 제2항에 명시되어 있다. 마르텐스 조항은 1899년 헤이그 제2조약의 서문과 1907년 헤이그 제4협약에 처음으로 등장한다.74)

1899년 제1차 헤이그 평화회의에서 러 시아 대표이자 국제법학자인 마르텐스(Fyodor F. Martens)의 간청에 의해 헤이그 제2협약 전문에 마르텐스 조항으로 불리는 문장이 삽입되었다.75)

제1추가의정서 제1조 제2항에 명시된 마르텐스 조항은 다음과 같다. “본 의정서나 다른 국제 협정의 적용을 받지 않는 경우에, 민간인과 전투원 은 기존 관습, 인도주의의 원칙과 공적 양심의 요구에서 파생된 국제법 의 원칙들의 보호와 권위 아래에 있다.”76)

즉 어떤 무기나 전쟁 방식이 구체적으로 또는 명시적으로 금지되지 않았더라도 “인도주의의 원칙과 공적 양심의 요구”가 적용된다는 것이다.77)

국제사법재판소도 마르텐스 조항이 군사 기술의 진화를 통제할 수 있는 효과적인 법 규범임을 보여 주었다.78)

 

    74)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 536.

    75)  박문언, “자율무기체계의 발전과 우리 군의 현실에 대한 고찰,” 「법과 기술」 2/6 (2016), 54.

    76)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 536.

   77)  박문언, “자율무기체계의 발전과 우리 군의 현실에 대한 고찰,” 54-55.

   78)  한희원, “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 348.

 

자율무기체계를 마르텐스 조항에 적용할 경우 두 가지 입장이 상반된다. 자율무기체계를 사용하여 민간인 피해를 줄일 수 있다면 금지 해선 안 된다는 입장이 있고, 민간인 피해 여부와 관계 없이 기계가 인간 의 생명을 박탈하는 것 자체가 인간의 존엄성을 침해한다는 입장이 있 다.79)

그래서 혹자는 자율살상무기체계가 그 자체로 본질적 범죄로서 마 르텐스 조항을 위반한 것이라고 주장하기도 한다.

그러나 마르텐스 조항 이 자율무기체계의 사용을 금지하는 주요 근거로 단독으로 작용할 수 없 지만, 개인의 보호를 보장할 수 있고, 무기의 위협과 사용에 대한 법적 규제의 토대가 될 수 있다.80)

 

    79)  유준구, 『자율살상무기체계의 논의 동향과 쟁점』, 21.

    80)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 537. 

 

2) 군사적 필요의 원칙

 

군사적 필요의 원칙(the principle of military necessity)은 1868년 상 트페테르부르크 선언에 도입되었고, 1907년 헤이그 규약에서 구체화되 었다. 군사적 필요의 원칙은 전쟁의 필요에 의해 절대적으로 요구되지 않는 한, 적의 재산을 파괴하거나 압류하는 것을 금지하는 것이다.81)

다 시 말해 전쟁의 필요상 부득이한 경우를 제외하고 적의 재산을 파괴하거 나 압수(압류)할 수 없다는 것이다.82)

군사적 필요의 원칙은 그 목적을 적 의 군사력을 약화시키고 무력화하는 데 두기 때문에 강조점은 군사력과 그 합법적 목표를 달성하는 데 필요한 행동이다.83)

그러므로 적이나 적 의 무장력이나 적의 재산을 완전히 파괴하는 것은 군사적 필요의 원칙을 위반하는 것이다.84)

 

    81)  Ibid.

    82)  박문언, “자율무기체계의 발전과 우리 군의 현실에 대한 고찰,” 55.

    83)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 537.

    84)  Ibid. 

 

예컨대, 군사적 필요의 원칙에 따르면 적군의 병사 가 아군의 총격으로 치명상을 입어 전투력을 상실했다면 추가 사격은 금지된다. 그러나 킬러로봇에게 이런 기능을 프로그램이나 알고리즘으로 입력하여 군사적 필요의 원칙을 준수하게 하는 것은 불가능하다.85)

 

   85)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 126.

 

3) 구별의 원칙-무차별적 공격 제한

 

구별의 원칙(the principle of distinction)은 1977년 제네바 협약 제1추 가의정서 제48조에 규정되어 있다: “민간인과 민간 물자에 대한 존중과 보호를 보장하기 위해 충돌 당사국들은 항상 민간인과 전투원, 민간 물 자와 군사 목표물을 구별하여야 하며 따라서 작전을 군사 목표물에 대해 서만 수행해야 한다.”86)

이처럼 구별의 원칙은 민간인과 전투원, 민간 물 자와 군사 목표물을 구별하고 작전 대상을 전투원과 군사 목표물에만 한 정하는 것이다. 다만 의심스러운 경우, 사람이나 물자는 민간인으로 간 주되어야 한다.87)

구별의 원칙에서 주목할 점은 인도주의의 원칙과 군사 적 필요의 원칙이 모두 균형있게 반영되어 있다는 것이다. 즉 민간인은 표적이 될 수 없는데 왜냐하면 그것은 반인도적이기 때문이고, 반면에 전투원은 표적이 될 수 있는데, 이는 군사적으로 필요하기 때문이다.88)

 

     86)  APⅠ, supra note 23, art. 48. Milena Sterio, “Autonomous Weapons Systems and the Need to Update International Humanitarian Law,” 308에서 재인용; 김보연, “인공지능을 통한 전쟁수행 은 정당한가 - 자율무기체계를 통한 국제인도법 준수가능성을 중심으로,” 430.

    87)  Arts. 50(1) and 52(3), 1977 Additional ProtocolⅠ. Nathalie Weizmann·Milena Costas Trascasas, “Autonomous Weapon Systems under International Law,” ACADEMY BRIEFING 8 (2014), 13에서 재인용.

    88)  Elliot Winter, “The Compatibility of Autonomous Weapons with the Principles of International Humanitarian Law,” 12. 

 

이 구별의 원칙이 자율무기체계에도 적용된다면 자율무기체계가 민 간인과 병사, 민간 물자와 군사 목표물을 구별해야 하는 구별의 원칙을 준수하면서 국제인도법상 합법적인 군사 목표물에 타격을 가할 수 있는 가 하는 문제가 제기될 수 있다.

먼저 자율무기체계가 구별의 원칙을 준수할 수 있다는 견해가 있다.

자율무기체계가 정보 수집과 처리 능력, 공 격의 정밀도에서 인간보다 정확하게 공격할 수 있고 따라서 인간보다 구 별의 원칙을 더 잘 준수할 수 있다는 것이다.

그러나 반대 의견도 있다. 자율시스템이 복잡성과 동적 환경, 특히 도시나 민-군 복합 환경에서 요 구되는 판단력, 윤리적 상황 처리, 정보에 대한 맥락적 고려 등에서 인간 과 동일한 수준을 갖추지 못하고 있기 때문에 구별의 원칙을 준수할 수 없다는 것이다. 따라서 구별의 원칙은 기계화하기 어렵다는 것이다.89)

윈터(Winter)에 따르면 “비록 자율무기체계가 목표물을 식별하는 데 이미 매우 성공적이라 해도 인간과 비교할 때 특정 상황에서의 맥락적 변화들 을 해석하는 능력은 부족하다.”90)

예컨대, ‘적대행위에 직접 참여하는 민 간인’과 국제인도법의 보호 대상인 ‘민간인’을 구별하는 것은 어려운 일이 다.91)

또 민간시설이 군사시설로 전용되거나 전용될 수 있기에 자율무기 가 민간시설과 군사시설을 어떻게 구분할 수 있는지도 문제가 된다.92)

게다가 앞으로 인간이 군사 목표물을 사전에 지정하지 않거나 인간의 개 입이나 통제를 벗어나는 완전자율무기체계가 활용된다면 특정 군사적 목 표물을 겨냥하지 않는 무차별적 공격(indiscriminate attacks)을 금지하는 국제인도법의 규범(제1추가의정서 제51조 제4항)을 처음부터 위반할 수 있 다.

즉 자율무기체계가 스스로 목표물을 선정하고 이에 대한 인간의 사 후 통제가 불가능하다면 제1추가의정서 제51조 제4항을 위반한 것으로 볼 수 있다.93)

 

     89)  Ahmad Talha, Amina Iqbal & Faisal Shahzad Khan, “Revisiting the Geneva Conventions: Are the four Core Conventions Sufficient for 21st Century Warfare?,” The Critical Review of Social Sciences Studies 3/2 (2025), 2221.

    90)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 541.

     91)  김보연, “인공지능을 통한 전쟁수행은 정당한가 - 자율무기체계를 통한 국제인도법 준수가능성 을 중심으로,” 431.

     92)  유준구, 『자율살상무기체계의 논의 동향과 쟁점』, 25.

     93)  김보연, “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인도법 준수가능성을 중심으로,” 432; Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 540.  

 

그럼에도 아직 자율무기체계가 구별의 원칙을 갖추었는지는 정확하게 알 수 없으므로 법적 해석의 대상에서 벗어나지만 자율무기 체계를 사용하는 인간이 구별의 원칙을 준수하지 않는다면 국제인도법의 규범을 위반하는 것이 될 것이다.94)

 

    94)  김자회, “치사성 자율무기시스템에 대한 적법성 검토-제네바협약 제1추가의정서 제36조 검토의 무를 중심으로,” 32-33. 

 

4) 비례성의 원칙-과도한 불균형적 공격 제한

 

비례성의 원칙(The principle of proportionality)은 제1추가의정서 제 51조 제5항과 제1추가의정서 제57조 제2항에 규정되어 있는 국제인도법 의 기본 원칙이다.

비례성의 원칙은 무장충돌이 민간인과 민간 물자에 미치는 영향을 제한하기 위해 설계된 것이다.

비례성의 원칙은 민간인의 인명 손실이나 부상 또는 민간 물자 손상과 같은 우발적(부수적, incidental) 손실이나 부상, 손상이 군사적 이익보다 과도하다면 그 공격은 위법 하다는 것이다.95)

그런데 ‘과도한’에 대한 판단 기준을 확정하기 어렵고 군사적, 지정학적, 정치적, 경제적 변수를 고려할 때 비례성의 원칙이 준 수되었는지의 여부를 정량화하기도 어렵다. 또한 군사적 이익이 정확히 무엇인지도 불명확하다.96)

 

    95)  Milena Sterio, “Autonomous Weapons Systems and the Need to Update International Humanitarian Law,” 309; 김보연, “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인 도법 준수가능성을 중심으로,” 433.

    96)  김보연, “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인도법 준수가능성을 중심으로,” 434. 

 

그럼에도 비례성의 원칙이 자율무기체계에 적용된다면 자율무기체 계는 비례성의 원칙을 잘 준수할 수 있을까?

우선 인공지능이 탑재된 자 율무기체계가 학습된 데이터를 기반으로 하여 민간인 인명 피해와 민간 물자 손상 수치를 예측하고 공격 여부를 결정할 수 있을 것으로 기대할 수 있다.

그러나 비례성의 원칙은 군사적 이익과 민간인 피해 사이의 평가적 균형을 요구하는 것인데, 이는 인공지능의 범위를 벗어나는 매우 주관적인 문제다.97)

따라서 김광우에 따르면, 비례성의 원칙은 지휘관의 건전한 상식과 합리적 판단에 의존할 수밖에 없고 자율무기의 인공지능 알고리즘이 비례성의 원칙을 준수하게 하는 것은 사실상 불가능하다.98)

오히려 자율무기체계가 스스로 판단하여 공격한다면 군사적 이익을 우선 시함으로써 인명을 살상할 가능성이 높다.

또한 자율무기체계가 비례성 의 원칙을 준수하려면 민간인과 전투원의 구별이 요구되며 “단지 개별 전투상황에 한정된 데이터에 기초한 평가가 아니라 전체 전쟁의 맥락과 다양한 변수를 고려한 고도의 전략적 평가가 요구된다.”99)

그러므로 자 율무기가, 컴퓨터가 인간처럼 생각할 수 있는지 여부를 조사하는 튜링 테스트를 통과할 수 있다 해도, 교전 당사국 사이의 변화하는 환경에 지 속적으로 적응해야 하고 상황이 요구할 경우 명령 없이 자체적으로 필요 한 업데이트를 인식하고 운영자에게 복귀할 수 있는 능력을 갖추어야 한 다.

그러나 기계가 공격 실행 단계 전반에 걸쳐 비례성의 원칙을 준수할 수 있을지에 대해선 회의적이다.100)

 

     97)  Ahmad Talha, Amina Iqbal & Faisal Shahzad Khan, “Revisiting the Geneva Conventions: Are the four Core Conventions Sufficient for 21st Century Warfare?,” 2221.

    98)  김광우, “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점,” 126.

    99)  김보연, “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인도법 준수가능성을 중심으로,” 434-435.

  100)  Petra Perišić and Marija Tomljenović, “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW,” 543-544.

무엇보다 자율무기체계는 인간의 생 명과 고통을 포함한 복잡한 시나리오를 평가할 도덕적 주체성이 없다는 것이 문제다.

 

5) 사전예방의 원칙

 

사전예방의 원칙(the principle of precaution)은 제1추가의정서 제57조에 있다. 사전예방의 원칙은 충돌 당사국들이 민간인과 민간 물자에 대한 우발적 피해를 피하거나 최소화하기 위해 실현 가능한 모든 사전예 방 조치를 취해야 한다는 것이다.101)

1996년 특정재래식무기사용금지조 약(CCW) 제2의정서도 ‘실현 가능한 예방조치’(feasible precautions)를 규 정하고 있다.102)

사전예방의 원칙이 자율무기체계에 적용된다면, 비례성 의 원칙과 사전예방의 원칙을 동시에 만족시키기는 어려울 것으로 보이 며 설사 자율무기체계가 예방의 원칙을 준수하도록 프로그래밍된다 해도 “전장에서 입력되는 데이터와 프로그래밍 기준이 충돌하지 않고 확고히 준수될 수 있는 자율무기시스템을 제작한다는 것도 쉬운 일은 아닐”103) 것이다.

 

     101)  Milena Sterio, “Autonomous Weapons Systems and the Need to Update International Humanitarian Law,” 310.   

     102)  한희원, “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구,” 352.

     103)  Ibid., 353. 

 

이상과 같이 필자는 자율무기체계가 국제인도법의 다섯 가지 원칙을 준수할 수 있는지를 검토해 보았다.

이제 마지막으로 전통적인 정당한 전쟁론을 정리하면서 정당한 전쟁론의 네 가지 원칙을 자율무기체계에 적용하면서 자율무기체계를 비판적으로 고찰하고자 한다. 필자는 예수 가 추구한 평화주의 노선을 원칙적으로 지지한다. 그렇기에 킬러로봇 반 대운동처럼 자율무기에 대한 계속적인 금지운동에 대해 찬성을 표한다.

그럼에도 자율무기에 대한 국제적 금지가 실현 가능성이 낮기 때문에 최 소한 자율무기가 전쟁 개시와 수행 과정, 종결과 관련된 정당성 문제를 검토하고 자율무기가 절제되고 책임감 있는 방식과 정의로운 방식으로 사용될 수 있도록 절차와 가이드라인을 개발해야 한다고 보면서 이를 위 해 정당한 전쟁 전통에 기반한 새로운 규범과 관습을 확립할 것을 제안 하고 있는 헤르츠펠드의 견해를 수용하고자 한다. 따라서 필자는 이를 위해 정당한 전쟁론의 원칙들, 즉 전쟁 개시의 정당성, 전쟁 수행 과정의 정당성 그리고 전쟁 종결 이후의 정당성, 마지막으로 마이클 왈저가 도입한 무력의 정당한 사용을 자율무기에 적용하여 자율무기체계를 비판적 으로 검토하고자 한다.

 

Ⅵ. 자율무기체계와 정당한 전쟁론

 

1. 정당한 전쟁론

 

아우구스티누스는 정당한 전쟁론의 기초를 확립한 사람이다.

아우구 스티누스(354-430)는 전쟁은 필요악이라는 것104), 정당한 전쟁은 상대방 의 불의(비행)105)에 대한 정당방위나 범죄자 처벌을 위한 경우에만 정당 화된다는 것, 정당한 전쟁은 불법을 징벌한다는 것, 전쟁의 동기는 기독 교적 사랑이고 정당한 전쟁의 조건은 정당한 원인과 정당한 의도라는 것, 군복무와 기독교인의 소명이 양립할 수 있다는 것, 합법적으로 인정 된 권세자가 전쟁을 명령했을 경우에만 그리스도인은 정당하게 전쟁을 수행할 수 있다는 것, 지배욕·반역·야만성·잔인성과 같은 동기에서 시작 되는 전쟁은 배격한다는 것, 공적으로 사람을 죽이라는 명령을 받았을 때 양심의 동요 없이 그 명령을 수행해야 한다는 것, 교회의 분열을 조장 하는 자들에 대해 무력 사용이 가능하다는 것 등을 주장했다.106)

 

     104)  성 아우구스티누스/조호연·김종흡 옮김, 『하나님의 도성』(고양: 크리스챤다이제스트, 2012), 932.

     105)  Ibid.

     106)  유석성, 『정의와 평화윤리』, 162; 존 드라이버/이상규 옮김, 『군대 가는 그리스도인에게-초기 교 회가 보내는 편지』(서울: 대장간, 2021), 118-122; 최성훈, “전쟁이론과 국방개혁: 정당전쟁론을 중심으로,” 151; 전용갑, “가톨릭의 영혼의 정복: 후안 히네스 데 세풀베다, 바르톨로메 데 라스 카사스, 프란시스코 데 비토리아의 원주민 관과 정당한 전쟁(Guerra Justa)론을 중심으로,” 271; 서을오, “토마스 아퀴나스의 전쟁과 평화론,” 「법철학연구」 14/1 (2011), 18-19, 35. 

 

이 중 아우구스티누스가 오늘날의 정당한 전쟁론에 영향을 끼친 것은 “정당한명분(이유)의 원칙”과 “적절한 권한(권위)의 원칙”이다.

즉 이기적인 이유 와 동기로 전쟁할 수 없고 전쟁은 적합한 권위에 의해 수행되어야 한다 는 것이다.107)

이 두 가지 원칙은 개전이나 참전에 대한 결정을 다루는 전쟁 개시의 정의(ius ad bellum 또는 jus ad bellum)와 관련된 것이다.

이 처럼 아우구스티누스는 전쟁 개시의 조건에 대해서만 간단히 언급했을 뿐 전장에서 전투행위의 문제를 다루는 ‘전쟁 수행 중의 정의’(ius in bello 또는 jus ad bello), ‘전쟁 이후의 정의’(ius post bellum 또는 jus post bellum)108)에 대해서는 다루지 않았다.

이는 그가 체계적인 전쟁론을 펼치지 않았다는 것을 보여 주는 것이다.109)

아퀴나스는 아우구스티누스처럼 전쟁 수행 중의 정의와 전쟁 이후의 정의는 다루지 못했지만 중세 시대 전쟁의 무분별성과 무차별성을 제한 하기 위해 전쟁 개시의 조건을 추가했다.

아퀴나스는 전쟁을 죄로 보면 서도 키케로와 아우구스티누스의 사상을 계승하여 전쟁을 정당한 것으로 간주할 수 있는 조건을 세 가지, 즉 군주의 권한(권위), 정당한 원인, 전쟁 수행자의 올바른 의도로 보았다.

군주의 권한은 전쟁은 오직 군주의 명 령에 의해서만 시작되어야 한다는 것이고, 정당한 원인은 불법 탈취와 같이 불법의 원인이 있어야 한다는 것이다.

이 두 가지 원칙은 전쟁이 시 작되는 전쟁 개시의 정당성(ius ad bellum)과 관련된 것이다.

마지막으로 전쟁수행자의 올바른 의도는 평화를 추구하고 선을 증진하거나 악을 회 피하는 정당한 의도가 있어야 한다는 것이다. 이는 전쟁 수행 과정과 관 련된 것인데, 전쟁 수행 중의 정의(ius in bello)로 표현된다.110)

 

   107)  박원곤, “정당한 전쟁론 연구 - 평화주의, 현실주의와의 비교,” 「신앙과 학문」 21/2 (2016), 60.

   108)  마이클 왈저/유홍림 외 옮김, 『전쟁과 정의』(서울: 인간사랑, 2009), 17.

   109)  박문수, “가톨릭은 ‘정당한 전쟁’ 교리를 폐기할 수 있을까?,” 이찬수 외, 『평화의 신학』(서울: 동 연, 2019), 190-191.

   110)  서을오, “토마스 아퀴나스의 전쟁과 평화론,” 31-35.

 

이후 네덜 란드의 법학자이자 정치가인 휴고 그로티우스(Hugo Grotius, 1583-1645) 는 정당한 전쟁의 조건으로서 정당한 원인, 비례성(상응성), 성공의 가능성, 공적인 전쟁 선포, 합법적 권위, 그리고 최후의 수단을 제시했다.111)

전통적으로는 정의로운 전쟁을 할 수 있는 조건을 일곱 가지 즉 정당한 원인, 합법적인 권위, 공식적인 선언, 평화적인 의도, 최후의 수단, 성공 의 희망, 목적을 추구하는 비례로 제시한다.112)

또한 미국 주교단은 이웃 에 해를 끼치지 않는 것을 최우선 가치로 두면서 정당한 전쟁의 조건으 로서 아퀴나스의 세 가지 기준을 여덟 가지 즉 정당한 이유, 합법적 권 위, 상대적 정의, 올바른 의도, 최후의 수단, 성공의 가능성, 비례성, 분 별성으로 확장했다.113) 가톨릭 사회교리에선 기독교 평화주의가 존중받 는 선택지이지만 윤리적 의무는 아니다.114)

가톨릭 주교회의는 정당한 전 쟁의 조건으로서

  1. 정당한 원인

  2. 실재적 권위

  3. 상대적 정의관

  4. 올 바른 의도

  5. 최후의 수단

  6. 성공의 개연성

  7. 상응성(proportionality)

  8. 상응성(7과 같은 원칙이 전쟁의 수행에서도 적용되어야 함),

  9. 분별성을 제시 하고 있다.

 

이 중 1-7까지는 전쟁 개시의 정당성 조건과 관련된 사항이 고 8-9는 전쟁 수행 방식의 정당성 조건과 관련된 것이다.115)

 

     111)  권기붕, “전쟁의 일반이론과 정당한 전쟁론,” 「철학연구」 68 (2005), 30.

     112)  박도영, 『정의로운 전쟁과 평화주의』(서울: 예영커뮤니케이션, 2010), 52. 상대적 정의는 분쟁 당 사자 간에 공히 정당성이 있다는 인식 아래 자신의 전쟁 개시의 정당성에 한계가 있을 수 있음 을 인정해야 하고, 따라서 목표 수행에 있어서 오직 제한된 수단만을 행사해야 한다는 것을 뜻 한다. 권기붕, “전쟁의 일반이론과 정당한 전쟁론,” 철학연구회 엮음, 『정의로운 전쟁은 가능한 가』(서울: 철학과 현실사, 2006), 49 참조.

    113)  박문수, “가톨릭은 ‘정당한 전쟁’ 교리를 폐기할 수 있을까?,” 196-198.

    114)  Roderick O’Brien, “ARTIFICIAL INTELLIGENCE, ARMED CONFLICT, CATHOLIC THEOLOGICAL ETHICS,” ASIAN HORIZONS 14/3 (2020), 677.

    115)  권기붕, “전쟁의 일반이론과 정당한 전쟁론,” 31-32.

 

이와 같은 정당한 전쟁론은 국제법에서 도덕적, 법적 정당성의 틀이 되는 역할을 했다. 예컨대, 정당한 전쟁론은 정당방위나 유엔 안보리의 승인을 받는 경우를 제외하고 무력 사용을 금지하는 유엔 헌장이나 1949 년 제네바 협약과 추가의정서에 반영되어 있다. 그러나 정당한 전쟁론은 핵무기, 대량살상무기뿐만 아니라 자율무기의 등장으로 인해 논쟁의 대 상이 되고 있고 따라서 혹자는 이와 같은 새로운 현실을 고려하여 정당한 전쟁론을 수정해야 한다고 주장하기도 한다. 더 나아가 정당한 전쟁 론에 대한 비판이 있는 것은 사실이다. 그럼에도 특히 자율무기와 관련 하여 컴퓨터 과학자이자 신학자로서 교황청 AI 연구 그룹의 일원인 노린 헤르츠펠드(Noreen Herzfeld)는 최적의 해결책은 평화주의자들이 말하듯 이 전쟁을 금지하는 것이지만, 자율무기에 대한 국제적인 금지가 이뤄질 가능성이 낮다고 본다. 따라서 자율무기에 대한 국제적인 금지가 없다면 최소한 자율무기가 전쟁 개시와 수행 과정, 종결과 관련된 정당성 문제 를 검토하고 자율무기가 절제되고 책임감 있는 방식과 정의로운 방식으 로 사용될 수 있도록 절차와 가이드라인을 개발해야 한다고 말한다.

헤 르츠펠드는 이를 위해 정당한 전쟁 전통에 기반한 새로운 규범과 관습을 확립할 것을 제안하고 있다.116)

 

  116)  Noreen Herzfeld, “Can Lethal Autonomous Weapons Be Just,” 170

 

필자는 자율무기 문제에서 “칼을 쳐서 보 습을 만들고 창을 쳐서 낫을 만들 것이며, 나라와 나라가 칼을 들고 서로 를 치지 않을 것이며, 다시는 군사훈련도 하지 않을 것이”(사 2:4)라는 제 1이사야의 가르침 및 예수의 삶과 가르침에 뿌리를 두고 있는 평화주의 노선을 원칙적으로 지지한다. 그러면서도 필자는 헤르츠펠드의 견해를 수용하여 정당한 전쟁론의 원칙들, 즉 전쟁 개시의 정당성의 원칙, 전쟁 수행 과정의 정당성의 원칙 그리고 전쟁 종결 이후의 정당성의 원칙, 마 지막으로 마이클 왈저가 도입한 무력의 정당한 사용의 원칙을 자율무기 에 적용하여 자율무기를 비판적으로 검토하고자 한다.

 

2. 정당한 전쟁론의 원칙과 자율무기

 

1) 전쟁 개시(결정)의 정당성(jus ad bellum)의 원칙: 자율무기는 전쟁 을 너무 쉽게 만드나?

 

 앞서 살펴보았듯이 정당한 전쟁의 조건으로서 아우구스티누스는 정 당한 명분(이유, 원인)과 적절한 권한(권위)을, 아퀴나스는 정당한 명분과 합법적 권위, 정당한 의도를 제시하면서 전쟁 개시의 정당성을 엄격하게 확보하고자 했다. 정당한 원인에는 침략으로부터의 방어, 강탈된 영토 회복, 방어를 돕기 위한 개입, 인간의 존엄성 회복을 위한 인도주의적 개 입 등이 포함된다. 전쟁 개시의 정당성 조건으로서 정당한 원인, 합법적 권위, 정당한 의도 중 자율무기와 관련하여 중요한 조건은 합법적 권위 의 원칙이다. 전통적으로 전쟁 참여의 결정권이 인간에게 있었다면 이제 는 자율무기에게 전쟁 참여 결정권을 위임할 수 있는가 하는 문제가 대 두되고 있다. 군사 전략가 애덤스는 미래에 인간은 전쟁에 대한 초기 정책 결정만 내리고 자동화 시스템에 대한 상징적인 권한만 갖게 될 것이라고 경고했 다.117)

도노반 필립스에 따르면,

“전쟁 참여 결정권의 권위를 자율무기체 계에 위임하는 것은 그것이 아무리 정교하다 해도 현재 정당한 전쟁의 결정에 적용되는 법적, 윤리적 틀과 원칙적으로 충돌한다.”118)

그리고 전 쟁을 개시하는 “권위(권한)의 자동화는 정당한 권위의 원칙을 가장하여 정당한 전쟁론의 도덕적 요구사항뿐만 아니라 가능한 한 무장 충돌을 방 지하고 그렇지 않을 경우 무고한 사람들을 보호하기 위해 마련된 많은 법적 안전 장치들 또한 피해 간다.”119)

 

    117)  Amitai Etzioni, Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism (Washington: Springer International Publishing AG, 2018), 260.

    118)  Donovan Phillips, “The Automation of Authority: Discepancies with Jus Ad Bellum Principles,” Jai Galliott, Duncan Macintosh, and Jens David Ohlin (ed.), Lethal Autonomous Weapons: Re-examining the Law and Ethics of Robotic Warfare, 160.

   119)  Ibid., 168.

 

그러므로 자율무기가 앞으로 자유 의지, 양심, 공감의 능력을 갖출 것인지와는 별도로 전쟁 참여 결정은 자 율무기가 아니라 인간에게 있어야 한다. 정당한 원인, 합법적 권위, 정당한 의도 외에도 앞서 언급했듯이 전 쟁 개시를 정당화하는 조건으로서 전쟁은 최후의 수단이어야 한다는 것, 승리의 가능성이 있어야 한다는 것, 비례성을 추가할 수 있다.120)

그렇다 면 오늘날에도 이 기준들을 자율무기에도 적용할 수 있는가 하는 문제가 제기될 수 있다. 자율무기를 반대하는 사람들은 자율무기가 폭력과 전쟁 의 문턱을 낮춘다고 비판한다. 신학자 브라이언 스틸트너도 자율무기가 전쟁을 너무 쉽게 만든다고 주장한다. 같은 맥락에서 영국의 국제 문제 학자인 케네스 페인은 자율무기가 전쟁에 대한 심리적 장벽을 너무 많이 제거하고, 방어보다는 공격에 더 많은 특권을 부여할 것이라고 주장한 다.121)

둘째, 헤르츠펠드에 따르면 자율무기를 사용하면 공격 비용을 크 게 낮출 수 있다고 한다. 예컨대, 지능형 드론의 경우 공격에 물질적 비 용이 거의 추가되지 않는다. 따라서 드론은 정당한 전쟁의 기준이 되는 최후의 수단에 심각한 위협이 되며 결국 재래식 군인과 무기로 전쟁을 수행하는 것보다 더 바람직한 선택으로 보일 수 있다.122)

 

    120)  유석성, 『정의와 평화윤리』, 162-163; 박원곤, “정당한 전쟁론 연구 - 평화주의, 현실주의와의 비 교,” 65.

    121)  Noreen Herzfeld, “Can Lethal Autonomous Weapons Be Just,” 76.

    122)  Ibid., 76-77.

 

또한 자율무기 는 비례성의 원칙을 준수할 수 없을 것이다. 비례성의 원칙은 민간인의 인명 손실이나 민간 물자 손상이 군사적 이익보다 과도하다면 그 공격은 불법이라는 것인데, 앞 장에서 언급한 대로 자율무기의 인공지능 알고리 즘이 비례성의 원칙을 준수하게 하는 것은 사실상 불가능하다.

 

2) 전쟁 수행 과정에서의 정당성(jus in bellum)의 원칙: 로봇이 윤리 적으로 행동할 수 있나?

 

전쟁 수행 과정에서의 정당성은 전쟁 중에 취하는 행동의 옳고 그름 의 문제와 관련돼 있는데, 제한된 목표에 한정하여 공격해야 하고 공격 을 당한 피해에 비례(상응)해서 공격해야 하며 공격 대상에서 민간인을 철저히 배제해야 한다는 것이다. 인간의 본성을 비관적으로 보는 아킨은 자율무기가 인간보다 더 고결하게 행동할 수 있고, 전투원과 민간인을 더 잘 구별하며 전쟁 범죄와 민간인 사상자를 줄일 수 있다고 믿고 있다. 그러나 자율무기가 이를 충족시키기는 어려울 것이다. 예컨대, 미국은 파키스탄과 아프가니스탄에서 ‘징후 타격’(signature strikes)123)을 사용하 여 무기를 운반하거나 젊은 남성들이 대규모로 모이는 등 특정 행동 프 로필에 부합하는 사람에 대한 무력 사용을 승인한 바 있다.

그 결과 미국 은 소총을 쏘는 것이 전통적인 축하의 일부이고 성별 배타주의로 인해 남성과 여성 결혼식 참가자가 분리되어 있는 일부 지역에서의 결혼식을 표적으로 삼았던 것이다. 이는 자율무기가 높은 수준의 상황 민감성과 구별의 능력을 갖추기가 어렵고 이를 프로그래밍하기가 복잡하다는 것을 보여 주는 것이다.124)

 

     123)  징후 타격(Signature strikes)은 미국의 드론 공습 전략 중 하나로, 개인의 신원이 명확히 확인되 지 않은 상태에서 특정 행동 패턴이나 ‘징후’(signature)를 근거로 공격을 감행하는 방식이다. 이 는 일반적인 ‘표적 타격’(targeted strike)과는 구별된다.         124)  Noreen Herzfeld, “Can Lethal Autonomous Weapons Be Just,” 77-78. 

 

그러므로 로봇은 완전히 윤리적으로 행동할 수 없 다.

 

3) 전쟁 이후의 정당성(jus post Bellum)의 원칙: 누구에게 책임이 있 나?

 

전쟁 이후의 정당성은 전쟁이 종결된 후 정당한 점령, 처벌의 범위, 복구 대상, 철수, 강화조약, 정권교체, 침략국의 영토에 대한 한시적 점 령 등을 다루는 것이다. 이 가운데 처벌의 범위와 관련된 책임의 문제로 논의를 좁혀 보자. 자율무기가 내린 결정에 책임 문제가 생겼을 경우 누 가 책임질 수 있을까? 사실 자율무기가 관련 기준을 위반하거나 프로그 래밍이나 운영의 오류 또는 오작동이 발생한 경우 누구에게 책임을 물어 야 하는지는 명확하지 않다.125)

 

    125)  Hatice kübra ECEMİŞ YILMAZ, “AUTONOMOUS WEAPON SYSTEMS AND THE JUST WAR THEORY: CHALLENGE AND IMPLICATIONS,” 408.

 

자율무기체계와 같은 인공 행위자, 전투원, 지휘관, 설계자, 프로그래머, 국제법상의 국가? 일반적으로는 군사용 로봇은 도덕적 책임을 질 수 없다고 본다. Iurii Usmanov와 Marta Chernychka에 따르면, 자율무기에 책임을 부과하 려면 범죄의 의도성이 있다는 것을 입증해야 하는데 범죄의 의도성은 자 율적으로 작동하는 군사 로봇에게는 불가능하다.126)

데이빗 애커슨은 로 봇을 처벌할 수 없기 때문에 로봇은 법적 전투원이 될 수 없다고 주장했 다.127)

기술윤리학자이자 철학자인 플로리디는 군사용 로봇이 자율적으 로 결정하고 살인을 저질러도 기계 자체가 행위의 결과에 대해 책임질 수 없다고 보았다.128)

플로리디와 대조적으로 대니얼 티가드는 “도덕적 책임의 얼굴”이 존재한다고 주장하면서 기술이 제한적이나마 특정 방식 의 책임을 질 수 있다고 본다.129)

아킨과 헬스트룀도 기술의 발전이 로봇 이 자신의 행동에 책임지도록 할 수 있다고 주장한다.130)

독일 철학자 크 리스티 리스트는 기계가 책임 공백을 메꿀 수 있다고 본다. 리스트는 지 능형 기계를 마치 기업이나 군대처럼 집단에 비유하면서 집단 행위자 즉 도덕적 행위자로 이해한다. 그러면서 그는 이 집단이 자신의 행위와 그 결과에 책임질 수 있고 자기 행동의 결과를 통제하고 예측하고 그 통제 와 예측에 대해 도덕적 판단을 내릴 수 있다고 주장한다.131)

 

     126)  Iurii Usmanov and Marta Chernychka, “Maritime Autonomous Weapon Systems from the Standpoint of International Humanitarian Law,” LEX PORTUS 8/2 (2022), 43-44. 127)  Mark Gubrud, “Stopping Killer robots,” 36.              128)  스벤 쉬홀름/윤준식·박형배 옮김, 『이것이 기술윤리다』(서울: 그린비, 2025), 51.

    129)  스벤 쉬홀름, 『이것이 기술윤리다』, 52.

    130)  Teresa Limata, “Decision Making in Killer Robots is not Not Bias Free,” JOURNAL OF MILITARY ETHICS 22/2 (2023), 126.

    131)  스벤 쉬홀름, 『이것이 기술윤리다』, 246-247.

 

그러나 스패 로우는 기계가 책임질 수 있다는 견해를 비판한다. 스패로우에 따르면 기계는 비난과 처벌에 따른 죄책감이나 수치심을 느낄 수 없고 인간처럼 고통을 겪고 처벌될 수 없기 때문에 기계에게 가하는 비난이나 처벌은 아무런 의미가 없다. 그러므로 기계에게 악행에 대한 책임이 있다는 것은 어불성설이라는 것이다.132)

그러나 부리(Burri)는 로봇이 고통을 느낄 수 없다는 스패로우의 견해를 거부한다. 부리는 자율살상로봇이 자신의 목표와 욕망을 갖는다면, 그 목표나 욕망이 좌절될 경우 고통을 느끼지 않을 이유가 무엇인가 하고 물으면서 자율살상로봇이 고통을 느낄 수 있 다고 믿는 것 같다.133)

만약 기계가 책임질 수 없다면 남은 선택지는 인간과 국가다. 국제법 상 두 가지 책임의 형태가 있는데 개인 책임과 국가 책임이다. 만약 인간 에게 책임이 있다면 누구에게 책임이 있는가? 자율무기의 오용, 또는 의 도적 오용이나 악용에 책임질 수 있는 사람은 전투원, 지휘관, 개발자, 프로그래머가 포함될 것이다. 우선 개발자에게 책임을 부과하기 어렵다. 프로그래밍이 무력 충돌이 시작되기 훨씬 이전에 이루어질 수 있는데, 이는 국제형사재판소 로마규약 제8조 제2항에 따라 전쟁 범죄로 유죄판 결을 받을 가능성이 없다. 또 시스템이 국제인도법을 명시적으로 위반하 도록 프로그래밍되었다는 점을 입증해야 하는데 이 또한 어려운 문제 다.134)

게다가 시스템을 프로그래밍하거나 사용한 개인이 책임질 수 있 다 해도 그들이 자율 시스템의 행위에 책임질 수 있는 정도는 불명확하 다.135)

 

       132)  Ibid., 251.

       133)  Ognjen Arandjelović, “A case for ‘killer robots’: why in the long run martial AI may be good for peace,” Journal of Ethics in Entrepreneurship and Technology 3/1 (2023), 24.

       134)  Iurii Usmanov and Marta Chernychka, “Maritime Autonomous Weapon Systems from the Standpoint of International Humanitarian Law,” 44.

       135)  Hatice kübra ECEMİŞ YILMAZ, “AUTONOMOUS WEAPON SYSTEMS AND THE JUST WAR THEORY: CHALLENGE AND IMPLICATIONS,” 409.

 

그렇다면 전투원과 지휘관에게 책임을 부과할 수 있을까?

국제인도 법에서 개인의 책임은 정신적 요소와 물리적 요소를 입증하는 것을 포함 한다. 정신적 요소는 국제형사재판소 로마규약(1998년) 제30조에 명시되 어 있는데 의도와 지식으로 구성된다. 의도는 개인이 위반 행위에 참여 하려는 의도, 위반의 결과를 초래하려는 의도, 또는 위반이 발생할 것이라는 사실을 인지하는 것을 뜻한다.

반면 지식은 위반 행위를 알고 있거 나 그 결과가 발생할 것이라는 사실을 인지하는 것을 뜻한다. 물리적 요 소는 개인이 저지른 범죄가 해당 범죄의 범죄 요건을 충족해야 한다는 것이다. 따라서 개인이 정신적 요소와 물리적 요소를 모두 충족하는 것 으로 입증되면 개인은 개별적으로 책임져야 한다.136)

만약 자율무기 운영 이 국제인도법의 규정을 위반할 것이라는 사실을 알고 있다면 전투원은 자율무기 사용에 대해 책임질 수 있으며, 지휘관도 만약 자율무기 운영 이 국제인도법의 규정을 위반한다면 개별적으로 책임질 수 있다(Sehrawat, 2020).137)

그리고 자율무기의 운영에 대해 특공대원이 어느 정도 책임질 수 있 는지를 판단하는 문제는 자율성 수준에 따른 무기 시스템의 분류 체계와 연결될 것이다.

2장에서 언급되었듯이 무기 시스템은 자율성 수준에 따 라 반(半)자율무기체계로서 인간의 명령에 의해서만 목표물을 선택하는 단계인 ‘human-in-the-loop Weapon’(인간 적극 개입) 단계, 특정 목표 물을 자유롭게 선택하고 공격하는 것을 인간이 결정하지 않지만 필요할 경우에는 인간이 작전을 중단시킬 수 있는 ‘human-on-the-loop’(인간 감독) 단계, 완전자율 단계인 ‘human-out-of-the-loop’ 단계로 분류 된다.

이 세 가지 범주에 근거하여 볼 때 인간의 지휘 책임은 인간이 개 입하는 ‘human-in-the-loop Weapon’ 단계의 무기, ‘human-onthe-loop’ 단계의 무기에만 적용된다. 그러므로 이 두 가지 범주의 무기 가 사용되어 전쟁 범죄로 이어질 경우, 지휘관은 책임을 질 수 있다.138)

 

      136)  Yordan Gunawan, Muhamad Haris Aulawi, Rizaldy Anggriawan & Tri Anggoro Putro, “Command responsibility of autonomous weapons under international humanitarian law,” Cogent Social Sciences 8/1 (2022), 2139912. 137)  Ibid.        138)  Ibid., 2139914. 

 

완전자율 단계인 ‘human-out-of-the-loop’ 단계의 무기가 인간의 지 휘 책임의 원칙에 적용될 수 있는지는 여전히 논쟁 중이지만, 지휘관이나 부하가 목표물에 대한 알고리즘 데이터를 입력하는 과정을 수행한다 면 지휘 책임의 원칙을 적용하는 것이 가능할 수 있다.139)

이제 마지막으로 인간 책임에 이어 국가 책임에 대해 살펴보자. 국가 책임은 국제법상의 의무를 위반하는 국가의 행위가 있을 경우에 발생하 며, 이는 2001년 유엔 국제법위원회에서 마련한 국제위법행위에 대한 국 가 책임 초안 제1조에 명시되어 있다.140)

“국가의 모든 국제적으로 불법 적인 행위는 해당 국가의 국제적 책임을 수반한다.”141)

그리고 국가의 행 위에 대해선 제8조에 이렇게 규정되어 있다. “만약 개인이나 개인들의 집단이 그 행위를 수행하면서 해당 국가의 지시나 지휘나 통제 아래 실 제로 행동하고 있다면 개인이나 개인들의 집단 행위는 국제법상 국가의 행위로 간주되어야 한다.”142)

제4조에는 더 좁고 구체적인 규정이 명시 되어 있는데, 이에 따르면 국가 행위로 분류될 수 있는 행위 중 하나는 국가 기관이 공식적 지위에서 국가를 대표하여 행동할 권한을 가진 국내 법에 근거하여 수행하는 행위다. 예컨대, 국가의 군대가 이에 해당한 다.143) 이런 규정에 따라 국가가 군대를 배치하고 자율무기를 사용하여 공격을 수행하고 국제인도법 위반이 발생한다면, 해당 국가는 국제적으 로 책임을 질 수 있다.144)

유준구는 군대의 임무수행 일환으로 자율무기 를 사용하기 때문에 자율무기 사용이 국가의 행위로 귀속될 가능이 크다 고 본다.145)

 

      139)  Ibid. 140)  Ibid., 2139911. 141)  Ibid., 2139912. 142)  Ibid. 143)  Ibid. 144)  Ibid. 145)  유준구, 『자율살상무기체계의 논의 동향과 쟁점』, 30.

 

불법 행위에 대해 국가 책임으로 귀속시키려면 여러 조건을 충족시켜야 한다. 즉 “국가에 귀속시킬 수 있는 행위가 발생해야 하고, 해당 행위로부터 발생한 손해가 존재해야 하며, 행위와 손해 사이에 인 과관계가 있어야 하고, 해당 행위를 합법적으로 만드는 이유가 없어야  한다.”146)

그러나 불법 행위에 대한 국가 책임의 범위는 전쟁 개시의 정 당성과 전쟁 수행 과정에서의 정당성에 따라 별도로 검토되어야 한다.147)

 

     146)  Yordan Gunawan, Muhamad Haris Aulawi, Rizaldy Anggriawan & Tri Anggoro Putro, “Command responsibility of autonomous weapons under international humanitarian law,” 2139912.

     147)  Ibid. 

 

4) 무력의 정당한 사용(Jus ad Vim, the just use of force)의 원칙: 전 쟁 외에서의 자율무기 사용

 

무력의 정당한 사용의 원칙은 제한된 힘(무력)의 정당한 사용의 원칙 또는 전쟁까지 가지 않는(전쟁에 미치지 못 하는) 무력(force-short-of-war) 의 정당한 사용의 원칙이다. 이는 미국의 정치철학자 마이클 왈저(Michael Walzer)가 도입한 것이다.

왈저는 『정당한 전쟁과 부당한 전쟁』(2006년) 제4판 서문에서 전쟁과 전쟁까지 가지 않는 무력을 구분한다.

즉 그는 지상 침공과 같은 실제 전쟁과 “전쟁에 못 미치는 형태의 수단”(Measures short of war)을 구분하면서 비록 제한되어야 한다고 말하지만 전쟁까지 가지 않는 무력 사용을 정당화한다. 전쟁에 못 미치는 형태의 수단에는 봉쇄, 대량학살을 방지하기 위한 비행금지구역 설정, 무역 제재 등이 포 함된다.148)

크리스티안 나콜라우스 브라운은 전쟁에 못 미치는 형태의 수단에 드론 공격과 특수부대작전을, 다니엘 브룬스테터와 메간 브라운 은 정밀 공중/미사일 공격과 CIA 작전을 포함시킨다.149)

 

    148)  마이클 월저/권영근·김덕현·이석구 옮김, 『마르스의 두 얼굴-정당한 전쟁·부당한 전쟁-』(서울: 연경문화사, 2022), 30-35 참조.

    149)  Christian Nikolaus Braun, “But Is It Good Enough? Jus ad Vim and the Danger of Perpetual War,” Ethics & International Affairs 36/4 (2022), 87; Daniel Brunstetter and Megan Braun, “From Jus ad Bellum to Jus ad Vim: Recalibrating Our Understanding of the Moral Use of Force,” Ethics & International Affairs 27/1 (2013), 87. 

 

아무튼 왈저는 이런 수단들이 국제법상 전쟁 행위로 분류될 수 있다 해도 전쟁과 매우 다르다고 주장한다. 왈저는 이런 수단들을 규율하는 윤리적 틀을 무력의 정당한 사용(Jus ad Vim)이라고 부르며, 국가 영토를 벗어난 국가와 비국 가 행위자들(반군 등)에 대한 국가의 무력 사용에 적용한다.150)

즉 무력의 정당한 사용(Jus ad Vim)의 맥락에서 국가는 테러 폭탄 공격, 대사관이나 군사시설 공격, 시민 납치 등의 경우에 전쟁에 못 미치는 형태의 수단을 사용할 수 있다는 것이다.151)

그렇다면 이런 행위들이 정당화될 수 있는지와는 별도로 오늘날 전 쟁의 확대를 막기 위해 전쟁에 직접 참여하지 않으면서도 무기 지원을 통해 우크라이나를 돕는 나토의 행위는 정당화될 수 있는가 하는 질문이 가능하다.152)

또 전쟁까지 가지 않는 무력을 사용하여 특정인과 특정 집 단을 위협하는 것은 정당화될 수 있는가 하는 물음도 가능하다.

헤르츠 펠드에 따르면, 자율무기는 전쟁터에서만 사용되는 것이 아니라 전쟁 이 외의 국내의 적에게도 사용될 수 있다.

국제 엠네스티 2015년 보고서에 따르면 소수자들이나 정치적 표적에 대한 얼굴 인식 또는 신체적 특징에 기반한 선택 능력을 갖춘 무기의 배치 가능성에 대해 우려를 표명한 바 있다.

헤인즈도 유엔 인권이사회 특별 보고서에서 국내의 적을 진압하고 국민 전체를 위협하며 시위를 진압하고 마약과의 전쟁을 수행하는 데 자 율무기가 사용될 수 있다고 우려했다.153)

세계교회협의회(WCC)에 소속된 제니퍼 필포트 니센도 킬러로봇이 특정 종교나 종교인들을 위협할 수 있 다고 경고한다.154)

니센에 따르면 킬러로봇에 탑재된 인공지능은 인간의 행동 패턴을 학습할 수 있고 특정 종교를 믿는 사람들을 특정 행동 패턴 (예배당에 정기적으로 참석하는 것 등)을 통해 식별할 수 있으며, 특정 예배일 에 입는 특별한 복장 때문에 특정 종교를 믿는다고 결론지을 수 있다. 따 라서 만약 이런 기술을 갖춘 무기가 종교적 극단주의자들의 손에 들어 간다면 특정 종교 집단이 구체적인 표적이 될 수 있다는 것이다.155)

 

      150)  Ibid.

      151)  Ibid., 96.

     152)  Christian Nikolaus Braun, “Weapons for Ukraine as force-short-of war,” Ethics & International Affairs 101/1 (2025), 291-308 참조.

    153)  Noreen Herzfeld, “Can Lethal Autonomous Weapons Be Just,” 81.   

    154)  Jennifer Philpot-Nissen, Killer Robots: A Campaign Guide for Churches, 14. 

    155)  Ibid., 14-15. 박태웅, 『박태웅의 AI 강의』(서울: 한빛비즈, 2023), 219.

 

미국 캘리포니아대학교 컴퓨터과학 교수인 스튜어트 러셀도 자율무기가 특정 인종 집단이나 종교 신자를 겨냥할 수 있음을 경고하고 있다.156)

 

  156)  스튜어트 러셀/이한음 옮김, 『어떻게 인간과 공존하는 인공지능을 만들 것인가』(서울: 김영사, 2021) 2023), 169.   

 

Ⅶ. 나가는 말

 

인공지능을 활용하여 인간의 개입이나 통제 없이 자율적으로 작동하 는 자율살상무기체계(일명 킬러로봇)가 빠르게 개발, 배치, 사용되고 있다. 한편에선 자율 시스템을 재앙을 초래하는 위험한 기술로 간주한다. 소위 로봇 아포칼립스(Robocalypse)다. 그러나 다른 한편에선 전쟁을 더 정밀 하고 인도적으로 만들 수 있는 잠재적인 유익 기술로 본다. 소위 로봇 유 토피아(Robutopia)다.157)

그럼에도 자율살상무기체계가 그 어떤 효용성 (분쟁 억지력, 방어 등)을 주장한다 해도, 설사 금지 조치가 늦었거나 시기 상조158)라 해도 최소한 규제되지 않는다면 기계, 비인간 지능, 사전에 프 로그래밍된 알고리즘에 인간의 생사여탈권을 위임하는 상황이 펼쳐질지 도 모른다.

 

     157)  Paul Scharre, “Autonomous Weapons and Operational Risk,” Ethical Autonnomy Project February 2016, 6.           158)  Wolfgang Engelhardt·Volker Kessler, “The ethical debate about the use of autonomous weapon systems from a theological perspective,” Verbum et Ecclesia 45/1 (2024), a3182.

 

필자는 이런 위기 의식 속에서 자율무기체계에 대한 비판적 고찰을 시도했다. 자율무기체계가 사람을 죽이는 치명적 무기이든 물질의 파괴나 장비 를 무력화하는 비치명적 무기이든 간에 그리스도인들은 자율무기체계를 데리고 다니는 전쟁을 반대하고 지양해야 한다. 전쟁은 원초적으로 그리 스도의 삶과 가르침과 어긋나기 때문이다. 필자가 자율무기체계를 비판 적으로 고찰하기 위해 활용한 정당한 전쟁론도 죄로 인해 상처받은 인간 본성의 표현으로서 현실적으로 불가피하지만 근원적 해결책은 아니다. 고도로 자율화된, 그리고 앞으로 더 고도로 자율화될 자율무기체계는 세 련되게 피를 덜 흘리게 할 뿐이다. 또한 우리는 전투원의 고통도 간과해 선 안 된다. 예컨대, 독일 개신교 주교회 바덴 지역 주교였던 요헨 코르 넬리우스 분트슈에 따르면, 이미 드론 조종사들 사이에서 정신질환 사례 가 보고되고 있고 디지털 경험 배후에 숨겨진 고통이 관련 개인의 심리 사회적, 감정적 경험에 깊이 침투하기 때문이다.159)

고대 그리스의 역사학자 투키디데스는 전쟁의 원인을 두려움에서 찾 았다. 두려움이 군비경쟁과 무기개발을 촉발한다. 두려움을 치유하는 길 은 하나님께로 돌아가고 타자의 필요를 채워주는 것이다. 인공지능 기반 자율무기체계가 설사 인간과 긴밀하게 협력한다 해도 인간처럼 자신의 현존재와 존재 자체와의 관계를 맺을 수 없고 하나님 안에 있는 실재의 무거움과 고통을 모를 것이며, 타자를 죽일 수 있으나 타자를 위해 죽을 수는 없을 것이다. 강대국들은 금지까지는 몰라도 자율살상무기체계에 대한 상세한 규제 조치를 위해 적극 협조해야 할 것이다. 또한 이와 별도 로 2019년 11월 세계교회협의회(WCC) 실행위원회가 권고한 대로 회원 교회들은 자율살상무기체계를 개발하고 있는 자신들의 정부에 무기 개발 을 중단하고 국제적 금지를 지지하도록 노력해야 할 것이다.160)

 

    159)  Jochen Cornelius-Bundschuh, “The Military Defense System and the Public Soul in Germany: A Protestant Perspective,” Stephen Pickard·Michael Welker·John Witte, Jr. (Eds.), The Impact of the Military: on Character Formation, Ethical Education, and Communication of Values in Late Modern Pluralistic Societies (Leipzig: Evangelische Verlagsanstalt, 2022), 37.

    160)  “세계 교회와 신학계 역시 인공지능의 발전이 야기하는 윤리적·존재론적 도전에 대해 적극적으 로 응답하고 있다. 세계교회협의회(WCC)는 자율살상무기(일명 ‘킬러 로봇’) 문제, 디지털 정의, 그리고 규제되지 않은 인공지능 개발의 위험성을 주요 의제로 다루며, 기술 발전에 대한 신학적 책임성과 국제적 규범 형성의 필요성을 강조해 왔다. 가톨릭 교회 또한 디지털문화센터와 교황 청 산하 연구 그룹을 중심으로, 인공지능 기술이 인간과 사회에 미치는 영향을 분석하고 이에 대한 윤리적·인간학적 성찰을 심화하고 있다. 한국기독교학회 역시 AI 기술이 제기하는 윤리적 문제와 인간학적 도전에 주목하며, 교회와 사회가 공유할 수 있는 신학적 판단 기준과 실천적 준칙을 제시한 바 있다.” 전철, “신, 인간, 인공지능-인공지능의 신학적 인간학,” 「신학사상」 211 (2025/겨울), 41-42 참조; 전철, “신의 지능과 사물의 지능: 지능의 본성에 대한 신학적 연구,” 「신학사상」 183 (2018/겨울), 79-109; 전철, “신, 인간, 사물: 신의 창조와 사물의 진화,” 「신학사 상」 200 (2023/봄), 95-113도 참조할 것. 

 

더불어 자율무기의 사용에 대한 대중과 시민사회, 학계의 논의가 필요할 것이 다.

마지막으로 러시아 군이 정교회 사제들에게 러시아의 대륙간 탄도미 사일(international ballistic missiles)에 성수(holy water)를 뿌리게 했는 데,161) 그리스도인들은 킬러로봇에 성수를 뿌리게 해서도 안 되고 성수를 뿌려선 안 될 것이다. 

 

    161)  Kjølv Egeland, “Sustaining social license: nuclear weapons and the art of legitimation,” International Politics 60 (2023), 598. 

 

 

 

 

참고문헌

교황청 AI 연구 그룹, 매튜 J. 고데 외 3인 엮음/이성효 외 9인 옮김, 『인공지능과 만남: 윤리적 인 간학적 탐구』(화성: 수원가톨릭대학교 출판부, 2025) 권기붕, “전쟁의 일반이론과 정당한 전쟁론,” 「철학연구」 68 (2005), 15-40. 김광우. “자율살상무기(일명 킬러로봇)에 대한 국제법적 문제와 우리나라에 대한 정책적 시사점.” 「국방과 기술」 473 (2018), 122-129. 김민혁·차영호. “자율살상무기체계(LAWS)의 법적·윤리적 판단을 위한 학습데이터셋 구축방안.” Journal of the Korea Academia-industrial cooperation Society 26/1 (2025), 361-375. 김보연. “인공지능을 통한 전쟁수행은 정당한가-자율무기체계를 통한 국제인도법 준수가능성을 중심으로.” 「고려법학」 107 (2022), 413-448. 김상득. 『AI 로봇 윤리』. 서울: 커뮤니케이션북스, 2024. 김상배. “미래전의 진화와 국제정치의 변환: 자율무기체계의 복합지정학.” 「국방연구」 62/3 (2019), 93-118. 김상수. “자율무기체계(AWS)의 도덕적 책임 귀속에 대한 고찰 - 집단적 책임을 중심으로.” 「윤리 학」 13/2 (2024), 6-7. 김자회. “치사성 자율무기시스템에 대한 적법성 검토 - 제네바협약 제1추가의정서 제36조 검토의 무를 중심으로.” 「인도법논총」 38 (2018), 9-41. 김자회·장신·주성구. “자율 로봇의 잠재적 무기화에 대한 소고-개념정립을 통한 규제를 중심으로.” 「입법과 정책」 9/3 (2017), 135-156. 김지연. “우크라전이 불붙인 군사용 AI ‘양날의 검’.” 「마이더스」 3 (2023), 50-51. 김현중. “넥스트 오펜하이머 시대: 자율살상무기 발전에 따른 예상쟁점 및 대응방안.” 「전략보고」 284 (2024), 11. 김효은. 『인공지능과 윤리』. 서울: 커뮤니케이션북스, 2022. 드라이버, 존/이상규 옮김. 『군대 가는 그리스도인에게-초기 교회가 보내는 편지』. 서울: 대장간, 2021. 러셀, 스튜어트/이한음 옮김. 『어떻게 인간과 공존하는 인공지능을 만들 것인가』. 서울: 김영사, 2021. 마정목. “통제가능한 자율무기체계의 개념과 설계에 관한 연구.” 「국방정책연구」 128 (2020), 81- 102. 마정목. “국방 AI 전략 모색을 위한 군사용 AI 프레임워크 연구.” 「한국군사학논집」 80/2 (2024), 439-460. 문현영·김상수. “치명적 자율무기체계의 도덕적 책임 문제 연구: 로버트 스패로우의 ‘책임간극’ 이 론에 대한 고찰.” The Journal of the Convergence on Culture Technology 9/4 (2023), 375- 381. 박도영. 『정의로운 전쟁과 평화주의』. 서울: 예영커뮤니케이션, 2010. 박문언. “자율무기체계의 개념과 비례성의 원칙.” 「국제법학회논총」 64/2 (2010), 85-109. 김성호 | 인공지능 킬러로봇의 종교와 과학 - 정당한 전쟁론의 원칙을 중심으로 183 _______. “자율무기체계의 발전과 우리 군의 현실에 대한 고찰.” 「법과 기술」 2/6 (2016), 51-67. _______. “자율무기체계와 지휘책임.” 「서울국제법연구」 31/2 (2024), 1-40. 박원곤. “정당한 전쟁론 연구 - 평화주의, 현실주의와의 비교.” 「신앙과 학문」 21/2 (2016), 57-88. 박태웅. 『박태웅의 AI 강의』. 서울: 한빛비즈, 2023. 배성빈·정종구. “자율무기에 대한 규범적 고찰.” 「연세 의료·과학기술과 법」 12/2 (2021), 1-33. 배일수. “안보적 차원의 자율형 무기체계와 미래전 준비.” 「월간군사」 6 (2024), 18-21. 변순용·이연희. 『인공지능 윤리하다』. 서울: 어문학사, 2020. 서보혁·이찬수·허지영 편, 『전쟁에게 평화를 묻다: 이스라엘-하마스 전쟁 연구』. 서울: 모시는사람 들, 2025. 서을오. “토마스 아퀴나스의 전쟁과 평화론.” 「법철학연구」 14/1 (2011), 1-42. 성 아우구스티누스/조호연·김종흡 옮김. 『하나님의 도성』. 고양: 크리스챤다이제스트, 2012. 손인근·박상준·김용철. “국방 무인자율로봇을 위한 윤리 이슈와 추진과제.” 「국방로봇학회논문집」 3/1 (2023), 27-34. 쉬홀름, 쉬벤/윤준식·박형배 옮김. 『이것이 기술윤리다』. 서울: 그린비, 2025. 신성호. “자율무기에 대한 국제 사회 논쟁과 동북아.” 「국제·지역연구」 28/1 (2019), 1-28. 신홍균. “인공지능을 이용한 무기체계의 국제인도법상 무차별성에 관한 연구.” 「법학논총」 35/3 (2023), 105-138. 여세동·황규환·태현성. “자율무기체계 시험평가를 위한 실제-가상 연계 포인트 클라우드 증강기 법.” Journal of the KIMST 27/3 (2024), 375-386. 오민용·이장희. “자율무기체계와 인간 죽음의 존재론적 지평.” 「중앙법학」 27/2 (2025), 169-170. 유석성. 『정의와 평화윤리』. 부천: 서울신학대학교 출판부, 2016. 유준구. 『자율살상무기체계의 논의 동향과 쟁점』. 서울: 국립외교원 외교안보연구소, 2019. _______. 『자율살상무기(LAWS)체계의 규범 창설 논의의 쟁점과 시사점』. 서울: 국립외교원 외교 안보연구소, 2019. 윤대엽. “인공지능의 무기화 경쟁과 인공지능 군사혁신.” 「국제정치논총」 64/1 (2024), 333-369. 월저, 마이클/권영근·김덕현·이석구 옮김. 『마르스의 두 얼굴-정당한 전쟁·부당한 전쟁-』. 서울: 연 경문화사, 2022. _______/유홍림 외 옮김. 『전쟁과 정의』. 서울: 인간사랑, 2009. 이상근. “미·중의 군사용 AI 개발이 新군비경쟁에 미치는 영향 연구.” 「군사발전연구」 16/1 (2022), 123-151. 이상용. “자율무기의 법과 윤리.” 「일감법학」 56 (2023), 351-399. 이연희·변순용. “킬러로봇에 대한 윤리적 고찰.” 「한국초등교육」 31 (2020), 217-225. 이유철. “자율살상무기(Lethal Autonomous System)와 인간 인식론의 동기화: AI-LAWS에 대한 윤 리적 문제와 다면적책임체제(Multi-faceted Responsibility System).” 「국제정치논총」 64/3 (2024), 47-93. 이종훈. “인공지능 자율무기 진화: 회복력 강화와 전장 생존성.” 「정보학회지」 31/3 (2024), 47-62. 이찬수 외. 『평화의 신학』. 서울: 동연, 2019. 이창규. “치명적 자율무기 시스템(LAWS)의 합리적인 규제방안에 관한 연구,” 「안보군사학연구」 184 神學思想 212집 · 2026 봄 17/1 (2016), 173-203. 임예준. “인공지능 시대의 전쟁자동화와 인권에 관한 소고-국제법상 자율살상무기의 규제를 중심 으로,” 「고려법학」 92 (2019), 265-302. 장기영. “‘킬러로봇’을 둘러싼 국제적 갈등: ‘국제규범 창설자’와 ‘국제규범 반대자’ 사이의 정치적 대 립을 중심으로.” 「국제·지역 연구」 29/1 (2020), 201-226. 장 용. “미래 무인자율무기체계의 군사적 운용에 관한 연구.” 「한국군사」 11 (2022), 135-155. 전용갑. “가톨릭의 영혼의 정복: 후안 히네스 데 세풀베다, 바르톨로메 데 라스카사스, 프란시스코 데 비토리아의 원주민 관과 정당한 전쟁(Guerra Justa)론을 중심으로.” 「중남미연구」 41/1 (2022), 263-298. 전 철. “신, 인간, 인공지능-인공지능의 신학적 인간학.” 「신학사상」 211 (2025/겨울), 39-67. _______. “신의 지능과 사물의 지능: 지능의 본성에 대한 신학적 연구.” 「신학사상」 183 (2018/겨 울), 79-109. _______. “신, 인간, 사물: 신의 창조와 사물의 진화.” 「신학사상」 200 (2023/봄), 95-113. 정철환. “러·이란·北 ‘드론 커넥션’.” 「조선일보」(2025. 8.4) 조현석·김상배 외 지음. 『인공지능, 권력변환과 세계정치』. 서울: 삼인, 2018. 천현득. “‘킬러로봇’을 넘어: 자율적 군사로봇의 윤리적 문제들.” 「탈경계인문학」 12/1 (2019), 5-31. 철학연구회 엮음. 『정의로운 전쟁은 가능한가』. 서울: 철학과 현실사, 2006. 최성훈. “전쟁이론과 국방개혁: 정당전쟁론을 중심으로.” 「영산신학저널」 60 (2022), 145-172. 한희원. “인공지능(AI)의 치명적자율무기(LAWS)의 법적·윤리적 쟁점에 대한 기초연구.” 「중앙법 학」 20/1 (2018), 325-365. AQUINAS ST THOMAS, SUMMA THEOLOGIAE VOLUME 35 CONSEQUENCES OF CHARITY(2a2ae. 34-46). London: Blackfrairs, 1972. Arandjelović, Ognjen. “A case for ‘killer robots’: why in the long run martial AI may be good for peace.” Journal of Ethics in Entrepreneurship and Technology 3/1 (2023), 20-32. Asaro, Peter. “On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal dicision-making.” International Review of the Red Cross 94/886 (2012), 687-709. Bayar, Erdal. “AUTOMOUS WEAPONS SYSTEMS: A LEGAL CHALLENGE FOR INTERNATIONAL HUMANITARIAN LAW.” KAUJEASF 16/31 (2025), 36-58. Blanchard, Alexander & Taddeo, Mariarosaria. “Jus in bello Necessity, The Requirment of Minimal Force, and Autonomous Weapons Systems.” Journal of Military Ethics 21/3-4 (2022), 286-303. Braun, Christian Nikolaus. “Weapons for Ukraine as force-short-of war.” Ethics & International Affairs 101/1 (2025), 291-308. Bremer, Maximilian K. and Grieco, Kelly A. “Reimagining the American War Machine.” 「New York Times」(2025. 2.7). Brunstetter, Daniel and Braun, Megan. “From Jus ad Bellum to Jus ad Vim: Recalibrating Our Understanding of the Moral Use of Force.” Ethics & International Affairs 27/1 (2013), 87-106. Egeland, Kjølv. “Sustaining social license: nuclear weapons and the art of legitimation.” Interna김성호 | 인공지능 킬러로봇의 종교와 과학 - 정당한 전쟁론의 원칙을 중심으로 185 tional Politics 60 (2023), 598-615. Ekelhof, Merel and Struyk, Miriam. DEADLY Decisions: 8 objections to killer robots. Letherlands: PAX, 2014. Engelhardt, Wolfgang·Kessler Volker. “The ethical debate about the use of autonomous weapon systems from a theological perspective.” Verbum et Ecclesia 45/1 (2024), a3176-a3182. Etzioni, Amitai. Happiness is the Wrong Metric: A Liberal Communitarian Response to Populism. Washington: Springer International Publishing AG, 2018. Galliott, Jai, Macintosh, Duncan, and Ohlin, Jens David (ed.), Lethal Autonomous Weapons: Re-examining the Law and Ethics of Robotic Warfare. New York: Oxford University Press, 2021. Gubrud, Mark. “Stopping Killer robots.” Bulletin of the Atomic Scientists 70/1 (2014), 32-42. Gunawan, Yordan, Muhamad, Haris Aulawi, Rizaldy Anggriawan & Tri Anggoro Putro. “Command responsibility of autonomous weapons under international humanitarian law.” Cogent Social Sciences 8/1 (2022), 2139906-2139920. Haner, Justin and Garcia, Denise. “The Artificial Intelligence Arms Race: Trends and World Leaders in Autonomous Weapons Development.” Global Policy 10/3 (2019), 331-337. Herzfeld, Noreen. “Can Lethal Autonomous Weapons Be Just.” Journal of Moral Theology 11/1 (2022), 70-86. Hynek, Nik·Solovyeva, Anzhelika. “When stigmatization does not work: over-securitization in efforts of the Campaign to Stop Killer Robots.” AI & SOCIETY 38 (2023), 2547-2569. _______. MILITARIZING ARTIFICIAL INTELLIGENCE: THEORY, TECHNOLOGY, AND REGULATION. London and New York: Routledge, 2022. Limata, Teresa. “Decision Making in Killer Robots is not Not Bias Free.” JOURNAL OF MILITARY ETHICS 22/2 (2023), 118-128. Nikolaus, Braun Christian. “But Is It Good Enough? Jus ad Vim and the Danger of Perpetual War.” Ethics & International Affairs 36/4 (2022), 527-537. Nissen, Jennifer Philpot. Killer Robots: A Campaign Guide for Churches. Swizerland: WCC Publications, 2021. O’Brien, Roderick. “ARTIFICIAL INTELLIGENCE, ARMED CONFLICT, CATHOLIC THEOLOGICAL ETHICS.” ASIAN HORIZONS 14/3 (2020), 674-685. Patterson, Eric. A Basic Guide to the Just War Tradition: Christian Foundations and Practices. Grand Rapids, MI: Baker Academic, 2023. Perišić, Petra and Tomljenović, Marija. “LEGAL PERMISSIBILITY OF AUTONOMOUS WEAPON SYSTEMS, WITH SPECIFIC REFERENCE TO THE PRINCIPLE OF INTERNATIONAL HUMANITARIAN LAW.” Zbornik radova Pravnog fakulteta u Splitu 61/4 (2024), 531-555. Pickard, Stephen ·Welker, Michael·Witte, John, Jr. (Eds.). The Impact of the Military: on Character Formation, Ethical Education, and Communication of Values in Late Modern Pluralistic Societies. Leipzig: Evangelische Verlagsanstalt, 2022. Rosert, Elvira & Sauer, Frank. “How (not) to stop the killer robots: A comparative analysis of humanitarian disarmament campaign strategies.” Contemporary Security Policy 42/1 (2021), 4-29. 186 神學思想 212집 · 2026 봄 Scharre, Paul. “Autonomous Weapons and Operational Risk.” Ethical Autonnomy Project February 2016, 1-54. Shah, Raj. M. and Kirchhoff, Christopher M. “The U.S. Military is Not Ready for the New Era of Warfare.” 「New York Times」(2024. 9.13.) Sharkey, Amanda. “Autonomous weapons systems, Killer robots and human dignity.” Ethics and Information Technology 21 (2019), 75-87. Slijper, Frank. Slippery Slope: The arms industry and increasingly autonomous weapons. Netherlands: Pax, 2019. Sterio, Milena. “Autonomous Weapons Systems and the Need to Update International Humanitarian Law.” Case Western Reserve Journal of International Law 57 (2025), 301-314. Talha, Ahmad, Iqbal, Amina & Khan, Faisal Shahzad. “Revisiting the Geneva Conventions: Are the four Core Conventions Sufficient for 21st Century Warfare?.” The Critical Review of Social Sciences Studies 3/2 (2025), 2213-2229. Tsybulenko, Evhen and Kajander, Aleksi. “Customary International Humanitarian Law and Article 36 of Additional Protocol Ⅰ to the Geneva Conventions: A Stopgap Regulator of Autonomous Weapons Systems?.” TalTech Journal of European Studies Tallinn University of Technology 12/2 (2022), 87-112. Umbrello, Steven and Wood, Nathan Gabriel. “Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status.” Information 12 (2021), 216-226. Usmanov, Iurii and Chernychka, Marta. “Maritime Autonomous Weapon Systems from the Standpoint of International Humanitarian Law.” LEX PORTUS 8/2 (2022), 33-53. Vlk, Mirko. “The Inhumanity of War and the Fragility of Peace in Light of Political Theology and the Social Doctrine of the Church.” Obnovljeni Život 78/3 (2023), 309-320. Weizmann, Nathalie·Costas Trascasas, Milena. “Autonomous Weapon Systems under International Law.” ACADEMY BRIEFING 8 (2014), 1-27. Westhues, Andreas Heinz. “THE MILITARIZATION OF ARTIFICIAL INTELLIGENCE AND THE AUTONOMOUS WEAPONS.” UNISCI Journal 67 (2025), 111-136. Winter, Elliot. “The Compatibility of Autonomous Weapons with the Principles of International Humanitarian Law.” Journal of Conflict & Security Law 27/1 (2022), 1-20. Wood, Nathan G. “The Problem with Killer Robots.” Journal of Military Ethics 19/3 (2020), 220- 240. YILMAZ, Hatice kübra ECEMİŞ. “AUTONOMOUS WEAPON SYSTEMS AND THE JUST WAR THEORY: CHALLENGE AND IMPLICATIONS.” İnÜHFD 14/2 (2023), 401- 407. Zajac, Maciej. “Stopping Killer Robot Proliferation to Tyrants and Terrorists: Why A Global Ban Is Neither Necessary Nor Sufficient.” Philosophy & Technology 38(2025), 86-107. 

 

한글초록

 

민간 상용기술인 인공지능을 활용하여 인간의 개입이나 통제 없이 자율적으로 작동하는 자율살상무기체계(일명 킬러로봇)가 빠르게 개발, 배 치, 사용되고 있다. 자율살상무기체계가 그 어떤 효용성을 주장한다 해 도 금지되거나 규제되지 않는다면 기계, 비인간 지능, 사전에 프로그래 밍된 알고리즘에 인간의 생사여탈권을 위임하는 상황이 펼쳐질 것이다. 필자는 이런 위기 의식 속에서 자율무기체계에 대한 비판적 고찰을 시도 했다. 특히 현재 자율무기체계를 금지하거나 규제하는 국제체제가 없는 상황에서 국제인도법(국제인도주의법)을 중심으로 자율무기체계의 국제법 적 문제를 다루면서 자율무기체계가 법적으로 허용될 수 있는지를 살펴 보고 그 이후에 국제인도법의 원칙들 즉 인도주의의 원칙, 군사적 필요 의 원칙, 구별의 원칙, 비례성의 원칙, 사전예방의 원칙을 자율무기체계 에 적용하여 자율무기체계가 그 원칙들을 준수할 수 있는지를 비판적으 로 고찰했다. 마지막으로 아우구스티누스와 토마스 아퀴나스에게서 발 전되어 온 정당한 전쟁론의 네 가지 원칙들을 자율무기체계에 적용하여 자율무기체계를 비판적으로 고찰했다. 

 

주제어 인공지능, 자율살상무기체계, 킬러로봇, 국제인도법, 정당한 전쟁론, 아우구스티누스, 토마스 아퀴나스 

 

Abstract

A Neurohumanities Study on Shame

Sung-Ho Kim( Research Professor, Christian Ethics The Center for Religion and Science (CRS) Hanshin University) Lethal Autonomous weapons systems (also known as killer robots), which operate autonomously without human intervention or control by utilizing commercially available artificial intelligence technology, are being rapidly developed, deployed, and used. If lethal autonomous weapons systems are not banned or regulated, regardless of any claimed utility, a situation will unfold where the power over human life and death is delegated to machines, nonhuman intelligence, and pre-programmed algorithms. It is within this sense of crisis that I attempted a critical examination of autonomous weapon systems. Particularly in the absence of an international regime currently prohibiting or regulating autonomous weapons systems, this examination addresses the international legal issues surrounding autonomous weapons systems, focusing on international humanitarian law(IHL). It explores whether autonomous weapons systems can be legally permissible and then critically examines whether the principles of IHL—the principles of humanity, military necessity, distinction, proportionality, and the principle of precaution. Finally, I critically examined autonomous weapon systems by applying the four principles of just war theory, developed from Augustine and Thomas Aquinas, to autonomous weapon systems.

Keyword (Artificial Intelligence, Lethal Autonomous Weapons Systems, Killer Robots, International Humanitarian Law, Just War Theory, Augustinus, Thomas Aquinas)

 

 

논문접수일: 2025년 9월 10일 논문수정일: 2025년 12월 7일 논문게재확정일: 2026년 3월 20일

神學思想 212집 · 2026 봄

 

인공지능 킬러로봇의 종교와 과학 - 정당한 전쟁론의 원칙을 중심으로.pdf
0.74MB