< 목 차 >
1. 문제 상황을 확인함
2. 인공지능 로봇과 인격체의 본성에 관한 토론인가, 사회적 장치의 합리성에 관한 토론인가
3. 전자인격이 책임공백 문제를 해결할까
4. 결론과 전망
1. 문제 상황을 확인함
특정한 속성을 갖춘 인공지능 로봇에 법적 차원에서 인격체의 지위를 부여하 는 일이 2017년 1월 유럽연합 의회(EU Parliament)의 법사위원회가 제출하고 그해 2월 유럽연합 의회가 승인한 보고서1)를 통해 제안된 이후, 전자인 (electronic person)이라는 새로운 존재 범주의 도입에 관한 논의가 최근까지 이 어지고 있다.
반면에 2024년 8월 발표된 유럽연합의 포괄적 인공지능 규제법 EU AI Act에서 이 개념은 전혀 언급되지 않았고, 이로써 현 시점에서 2017년의 저 제안은 불수용되었다고 평가할 수 있다.
유럽에 견주어 인공지능 기술에 관하 여 규제보다 혁신을 촉진하는 데 관심을 기울이고 규제의 경우에도 보편적 방식 보다 영역별 접근의 특성을 보여온 미국의 경우에도, 2025년 8월말까지 국가 수준의 법제에서 전자적 존재자에 법적 주체의 지위를 부여하는 일에 대한 고려는 찾아볼 수 없다.2)
그러나 두 가지 점에서, 이를 전자인격3)에 관한 최종적 판결이라고 볼 이유는 없다.
1) “Civil Law Rules on Robotics, European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL))”. 이 보고서는 2015년 5월부터 2016년 9월까지 10차에 걸쳐 진행된 작업반 회의의 논의 결과를 매디 델보(M. Delvaux)가 주도하여 정리한 것이었다. 학술 논문은 아니지만 로페즈(P. A. Lopez)의 글 “The 2017 AI Rights (Electronic Persons) Debate”는 이 문건의 등장과 반응에 관한 일목요연 한 정보를 제공한다. 2) 이러한 평가를 위하여 다음 세 문건을 참조하였다.
① National AI Initiative Act of 2020 (국가 인공지능 구상법 2020), ② 2023년 10월, Executive Order on Safe, Secure, and Trustworthy Development of AI (안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호. 단, 이 문건의 효력은 행정명령 제14148호(다음 ③)에 의하여 대체되었다.), ③ 2025년 1월, Executive Order on Advancing U.S. Leadership in AI. 3) 본고가 논하는 법적 위격을 가진 존재자를 ‘전자인’, 그것이 가진 법적 위격을 ‘전자인격’이라고 구별하여 부르는 것은 적절한 일일 것이다. 그러나 이러한 법적 위격의 타당성과 활용 방안을 논하 는 이 논문에서는, 존재자와 그것의 위격을 구별하여 말해야 하는 경우가 아닌 한, 일관성 있게 ‘전자인격’이라는 표현을 쓸 것이다.이 말의 번역에 관한 문제는 정성훈, 2022, 88-89쪽을 참조 하라.
하나는 법사위원회 보고서에서 언급된 전자인 부여의 공학기술적 조건이 아직 충족되지 않았다고 볼 수 있다는 것이고, 다른 하나는 EU AI Act가 견지하 고 있는 현행의 법률적 전략의 유효성 역시 앞으로 계속 평가되어야 할 대상이라 는 것이다.
다시 말해, 인공지능 기술과 로봇공학이 발전함에 따라 더 고도화된 지능형 로봇이 개발, 활용될 미래에 전자인 지위의 도입이 타당한 사회 관리의 방안이 될 여지는 소멸되지 않았다.4)
기술과 사회가 함께 변하고, 그런 가운데 둘의 접속면에서 기술 현실을 포섭하는 법적, 제도적 방식도 변해갈 것이기 때문 이다.
한국에서도 이에 관한 논의가 법학과 철학 등 분야에 속한 논자들에 의하여 진행되었다.
법학자들의 논의가 압도적으로 많다.
다양한 입장이 개진되는 가운 데,5) 논의에 참여한 논자 중 일부는 전자인격이라는 법적 지위의 도입을 조심스 러우면서도 우호적인 자세로 검토하고 있다.
공학박사이기도 한 법학자 오병철 은 「전자인격 도입을 전제로 한 인공지능 로봇의 권리능력의 세부적 제안」6)에서 사회가 전자인격을 도입하는 경우를 상정한 세부 사항을 논의함으로써 그러한 도 입의 현실성을 적극적인 관점에서 전망하였다. 또 양천수는 인공지능 로봇에 대 한 형사처벌의 가능성을 검토하는가 하면,7) 나아가 그것들의 권리주체성을 검토 하면서 “로봇중심적 법체계”의 전망을 언급하기도 했다.8)
이런 마당에 본고는 법이 그것을 가진 사회의 결정의 산물인 동시에 그 사회의 구성원들에게 구속력을 지닌다는 기본적인 관계에 주목하면서, 이런 관점에서 전자인격에 관한 숙고를 “그것이 사회를 합리적으로 운영하는 방편인가?”라는 물음과 결부시키려 한다. 단, 여기서 합리성은 우선적으로 비용-편익 관점의 합 리성이다.
이러한 전략이 이미 법의 본질에 관한 특정한 견해와 가깝거나 멀다는 이유를 들어 이하의 논의나 그것의 결론을 비판할 수도 있다.
그러나 본고는 방금 언급 한 “그런 관점을 채택한다면”이라는 가정 하에서의 논의다.9)
4) 2025년 7월말 영국 정부가 발간한 보고서 AI and the Law: A Discussion Paper는 (법적) 책임공 백의 문제와 관련하여 전자인격의 가능성과 문제점을 검토하고 있다.
5) 김건우(2021)을 일별하는 것만으로도 이 문제에 얼마나 여러 가지 주제들이 연루되어 있는지 실감 할 수 있다. 그 주제는 법이 본질적으로 무엇인가, 인격 같은 법적 개념은 약정인가, 어떤 주체가 법적으로 권리를 지닌다는 것은 어떤 것인가, 인간 아닌 존재에게 법인격을 부여할 경우 그 근거는 어디서 찾아야 하는가 등을 포함한다.
6) 오병철, 2020.
7) 양천수, 2017.
8) 양천수, 2018. 9) 논의의 과정에서 자연히 법학자들의 견해를 참고하고 논하지만, 법의 본질을 논하는 것은 본고의 몫이 아니다.
그리고 오늘의 현 실에서 더 긴급히, 그리고 더 중요한 의미에서 필요한 것이 이런 논의라고 생각 된다.
또 전자인격에 관한 논의는 일차적으로 법과 제도에 관한 것이지만, 그 근간에 인공지능으로 작동하면서 고도의 자율성을 발휘하는 기계들을 무엇으로 보 는 것이 적절한가 하는 철학적 물음이 놓여 있음을 간과해서는 안 된다.
2017년 전자인격에 관한 제안의 요지는 다음과 같다.
인공지능 기술의 발달로 인하여 인간에게 영향을 미치는 다양한 결정이 인공지능 체계에 의하여 대행되는 일이 벌어지고 있다. 이미 인공지능 프로그램은 재화를 구매하거나 판매하는 것 은 물론, 계약서를 작성하고, 검토하여 조정을 제안하고, 사람 대신 실질적으로 계약 체결 과정을 진행하기도 한다. 그런데 이러한 기술 여건에서 발생할 수 있 는 다양한 사태들에 대하여 현행의 법률체계는 충분한 해법을 제공하지 못한다. 이뿐만 아니라 이러한 부족의 범위와 심도는 인공지능과 로봇공학 기술의 발전과 더불어 점점 더 확대될 것이다. 이를 해결하는 하나의 방안은 그처럼 인간의 일 을 대행하는 로봇에게 “전자인격”이라는 특정한 지위를 부여하는 것이다. 그렇 게 함으로써 현행 법체계의 부족을 보완할 수 있을 것이다. 이러한 부족을 드러내는 핵심 문제는 책임의 공백이다. 전자인격 제안의 배경 에는, 고도의 자율성을 지니고 작동하는 인공지능 로봇이 인명 피해나 재산 손실 을 발생시켰을 때 특정한 인간 주체에게 그것에 대한 책임을 귀속시키는 일이 어 려운 반면, 문제의 사건을 일으킨 인공지능 로봇이 법적 인격체의 지위를 지니고 있다면 책임 귀속과 보상의 문제를 해결할 수 있으리라는 기대가 있다.10)
그러나 이 제안에 관해서는, 거의 즉각적인 반응을 포함하여, 거센 반론도 제 기되었다.
인문, 사회 분야의 인사와 기업인을 포함하여 2025년 8월말 현재 285 명의 인공지능-로봇공학 관련 전문가들이 서명한 공개서한 “Open Letter to the European Commission Artificial Intelligence and Robotics”(2018)11)는 부정 적 반응의 대표적인 사례다.
10) 2017년 유럽연합 의회에 법사위원회가 제출한 보고서는 이러한 기대를 분명하게 드러낸다. 본고 2. 1) 참조. 11) https://robotics-openletter.eu/. 이 공개서한에 명시된 반론의 요지는
1) 전자인격 제안이 인공지 능 기술에 대한 부적절한 이해에 근거하고 있다는 것, 그리고 2) 윤리적-법적 관점에서, 로봇에 법적 인격의 지위를 부여하는 것은 법적 지위에 관하여 인류가 경험하여 알고 있는 어떤 기존의 프레임에서도 적절히 도출될 수 없다는 것이다. 이에 관하여 본고 2장 참조.
본고는 현재 시점에서 이 제안을 평가하고 그럼으로써 전자인격에 관하여 적 절한 정보와 철학적 합리성에 근거한 견해를 도출하는 일을 시도한다. 전자인격 의 개념이 처음 제안되었던 것도, 또 이후 가장 활발하게 후속 논의가 전개된 것도 모두 법의 영역이었음을 고려할 때, 이 문제는 일차적으로 법학 분야에 속 할 것이다.
그러나 이 문제는 법률의 해석과 적용을 고민하거나 법률안을 평가하 는 법학 토론의 테두리를 넘어 법과 제도의 근저에 깔린 인격, 주체성, 책임, 테크놀로지와 인간의 관계 같은 주제들을 소환한다는 점에서, 동시에 고유한 의 미의 철학적 문제다.
이제 전자인격이라는 새로운 법적 장치가 그것의 제안에 담 긴 기대의 취지를 달성할 수 있을지 그 전망을 비판적으로 검토해보도록 하자.
2. 인공지능 로봇과 인격체의 본성에 관한 토론인가, 사회적 장치의 합리성에 관한 토론인가
1) 대상의 본질이 아니라 사회 관리의 방안에 관한 토론이다
먼저 전자인격에 관한 토론의 성격을 확인하는 일이 필요하다.
이것은 인공지 능 로봇과 인격체의 본성에 관한 토론인가 아니면 그런 로봇들에 부여될 법적 인 격이라는 사회적 장치(social artifact)의 합리성에 관한 토론인가?
이 토론은 실 제로 두 가지 주제 모두와 상관이 있다.
그러나 본고의 작업을 효율적으로 수행 하기 위해서는 그것의 관점을 명료하게 설정해야 한다.
이것은 “둘 중 어느 것이 진정한 문제인가?” 같은 질문이 아니라, 두 물음 간의 우선성 질서에 관한 요구 다.
이런 관점 설정이 불명료한 경우, 복잡하고 다기한 맥락의 얽힘 속에서 논의 의 효율성이 감쇄될 위험이 크다.12)
12) 어떤 물음이든 다양한 관점에서 살피는 것은 언젠나 가치 있는 일이지만, 대부분의 경우 그 이유는 다양성 자체가 중하기 때문이 아니라 다양한 관점 덕분에 물음에 대한 더 나은 답을 찾거나 기존의 답을 정련할 수 있다는 잠재적 효용에 있다. 그러나 만일 ‘다른 관점’에 의해 이런 효용보다 토론을 오도하는 부작용이 유발된다면, 그것은 본고가 지향하는 사회 문제 해결의 맥락에서 경계하고 억제 해야 할 위험이다.
본고는 이러한 선결문제에 관하여 후자, 즉 사회적 장치의 합리성에 관한 평가의 관점을 논의의 기반으로 설정한다.
그리고 이것은 근본적으로 선택의 문제지만, 임의적인 것이 아니라 적어도 다음과 같은 두 가지 이유에서 정당화될 합리적 선택이다.
첫째, 그것이 이 문제에 관한 논의가 요청된 맥락, 즉 문제의 기원(起源)에 부합한다.
전술한 것처럼, 이 문제가 표면화된 것은 2017년 초 유럽의회 법사위 원회의 제안 때문이었다.
이 제안은 발달하는 로봇공학과 인공지능 기술을 사회의 현실에 활용하는 일과 관련된 일반 원칙들(general principles)의 일부로 다음 과 같이 언급되었다.
거기서 전자인격이 특히 자율 로봇의 작동으로 발생할 손해 배상 책임과 관련한 “가능한 법적 해결책”의 일환으로 제안된 점에 주목하라.13)
13) 이 문제를 보는 이러한 관점은 1장에 언급된 공개서한에서도 유지되었다. 법사위원회의 2017년 문 건에 담긴 제안에 대한 반론으로 2018년 4월 로봇공학자, 철학자, 법학자, 생명의료윤리 전문가, 기업인을 포함하는 14개국 156명의 인공지능 관련 전문가들이 공동 공개서한 형식으로 발표된 이 서한은 네브장(Nathalie Nevejans, 법학), 샤틸라(Raja Chatila, 로봇공학 및 인공지능윤리), 샤키 (Noel Sharkey, 컴퓨터과학) 등의 주도로 작성되었다.
위원회가 향후 입법 수단(legislative instrument)에 대한 영향 평가를 수행할 때 다음과 같은 모든 가능한 법적 해결책의 함의를 탐구, 분석하고 고려할 것을 촉구한다: [...] f) 장기적으로, 로봇에 적용할 특별한 법적 지위를 만들어, 적어도 최고 수준 의 정교한 자율 로봇이 전자적 인격체(electronic persons)로서 지위를 인정받고 이들이 초래할 수 있는 손해를 배상할 책임을 지도록 하며, 로봇이 자율적 결정 을 내리거나 제3자와 독립적으로 상호작용하는 경우에도 전자적 인격체의 지위 를 적용할 수 있도록 하는 방안
그런데 여기서 전자인격의 부여 대상으로 임의의 로봇이 아니라 “최고 수준의 정교한 자율 로봇”이 거론되고 있는 것을 보라.
대상의 속성은 전자인격 부여라 는 문제를 따지는 데 고려될 유관한 사항일 뿐만 아니라 부여 대상의 범위를 결 정하는 판단에 필수적인 사항이다.
그러나 여기서 작동하는 논리는 “속성 a를 지 닌 대상 A에, 단적으로 그것이 그러한 속성을 지녔음을 이유로, Z의 지위를 부 여한다.”가 아니라, “A와 유사한 대상들을 관리함에 있어 Z라는 지위를 활용하 는 것이 합리적인 방안이라고 판단되었고, 이러한 목적에 부합하는 Z의 조건으 로 ‘해당 대상이 a라는 속성을 지닌 경우’를 설정하였다.
대상 A가 이러한 조건 에 부합하므로, A에 Z의 지위를 부여한다.”이다.
여기서 확인되는 한 가지 관계 는, 앞의 두 물음 가운데 사회적 장치의 합리성에 관한 토론이 그 진행 과정에서 대상 자체의 속성에 대한 평가를 끌어들인다는 사실이다.
반면에 그 역은 성립하 지 않는다. 본고의 선택이 정당한 둘째 이유는 법과 제도가 그것을 만들어 운용하는 인간 사회의 성쇠에 영향을 미치는 장치라는 데 있다.
법과 제도는, 허버트 사이먼 (H. Simon)의 개념으로 말하자면, 인공물(artifact)이다.14)
다시 말해 그것은 집합적 인간이 스스로의 생존과 번영을 지향하면서 내적 환경과 외적 환경을 조 절하는 과정에서 설계하고 만들어내는 유형 혹은 무형의 산물이다.
이러한 맥락 을 고려한다면, 전자인격이라는 새로운 법적 존재의 범주에 관한 토론의 기반은 인간과 로봇에 관한 존재적 진리의 차원이 아니라, 사이먼의 의미에서 새로운 인 공물로 검토되고 있는 법적 장치의 효능에 관한 평가이어야 할 것이다.
이런 판단은 인격이라는 법적 범주의 활용의 역사와도 부합한다.
인격의 범주 가 인간 이외의 존재자에게 부여되는 일은 13세기 초 교황 인노첸시오 4세가 교 회법에서 수도원들에 “가상 인격(persona ficta)”의 지위를 부여한 데서 비롯되 었다.
이러한 교회법의 규정에 의해 수도원은 수도원장 같은 특정인과 결부되는 일 없이 법적 이름을 가지고, 재산을 소유하고, 계약을 체결하고, 소송의 당사자 가 되는 등의 법적 행위를 할 수 있게 되었다.
이런 역사를 인노첸시오 4세가 존재적 진리의 차원에서 수도원의 본래적 인격성을 꿰뚫어봄으로서 이루어진 일 이라고 해석할 이유는 없을 것이다.
오늘날 이 논의에 참여하는 다수의 법학자도 전자인격을 의제(擬制)의 문제로 평가한다.15)
그러나 이런 관점에 포섭되지 않는 논의도 있고, 불명료하거나 애 매한 경우도 있다. 오병철은 인공지능 로봇이 인공물임에도 불구하고 “사회적 필 요에 따라 일정한 요건을 충족하는 특별한 경우에 전자인격을 의제적으로 부여하 고자 시도하는 것”이라고 확인하면서 “물건인 인공지능 로봇을 권리능력을 갖는 전자인격으로 ‘탄생’시킬 것인가의 결정은 전적으로 소유자의 자유의지에 달려 있다.”16)라고 한다.
이것은 어떤 로봇에 전자인격이라는 지위가 부여되는 경우, 그런 결정의 근거가 해당 로봇의 속성보다 우선적으로, 그것을 현실에서 활용하 는 우리의 사회적 필요에 있다는 견해를 반영한다.
그런데 같은 논문에서 인간과 대등한 능력을 가진 인공지능 로봇에 대한 전망 을 언급하면서 그는 “이제 인공지능 로봇에 권리능력을 인정할 수 있을 것인가를 현실적인 차원에서 검토하는 단계에 이르렀다.”17)고 말한다.
14) Simon, 1996, 특히 1장과 2장 참조.
15) 한 예로 김자회·주성구·장신, 2017, 139쪽을 보라. 표준국어대사전은 의제를 “본질은 같지 않지만 법률에서 다룰 때는 동일한 것으로 처리하여 동일한 효과를 주는 일”로 풀이한다.
16) 이상 오병철, 2020, 56쪽.
17) 오병철, 2020, 52쪽.
명시적이지 않지만, 이러한 서술에는 앞서 언급한 의제나 결정이 적어도 부분적으로 대상 자체의 속성에 근거한 것이어야 한다는 생각이 반영되어 있다.
그리고 그것은 합당한 생 각이다.
합리적인 사회 관리를 지향하는 의제가 임의적이기보다 의제의 대상이 지닌 존재 속성을 참조해야 한다는 것은 마땅한 인식이겠기 때문이다.
그러나 로봇의 지위에 관한 타당한 의제의 방식을 결정하기 위하여 로봇의 구 체적인 존재 속성을 참고한다는 것과 로봇의 존재 속성을 그것의 지위에 관한 결 정의 기준으로 삼는다는 것은 다르다. 이 차이는 미묘하지만 중요하다.
전자의 “참고”는 결정을 위한 고려사항에 포함한다는 것을 의미한다.
예를 들어, 대부분 의 학교는 입학생의 자격을 판단할 때 그의 나이를 고려하고, 우리는 그러한 관 행을 이상하게 여기지 않는다.
그러나 그런 학교가 그 학교의 학생들과 동떨어진 연령의 입학생을 받는 일은 가능하다. 반면에 두 사람 모두 대한민국 국민인 부 모에게서 태어난 아이는 대한민국 국민이고, 이러한 판단에는 아이의 외양이나 여타 생물학적 속성이 개입하지 않는다.
이것은 한국의 국적법이 그의 대한민국 국민 지위를 판단함에 있어 가장 가까운 직계존속 혈연관계를 기준으로 삼았기 때문이다.
한편 미국 법학자 로버트 리(R. J. Rhee)는 전자인격 문제에 관하여 본고의 관점과 대비되는 관점을 보여준다.
그는 법적 인격체로서의 인공지능이 경영자 가 되어 회사의 경영을 관리하는 미래를 적극적으로 검토하면서, 그런 자격을 갖 춘 인공지능에 대해 다음과 같이 말한다.
나는 존재론적 인격체로서의 인공지능을 자기 완결성(self-containment), 자 기 인식(self-awareness), 행위 능력, 그리고 고유한 지능을 지닌 독립적 실체 로 정의한다. 기업 경영자의 역할을 수행하기 위한 목적으로, 인공지능은 다음 네 가지 기준을 충족할 경우 존재론적 인격성을 획득한다. [...] 법적 지위가 부 여되었기 때문에 인격체가 되는 것이 아니다. 그런 관점은 본말전도다. 법적 지 위가 부여되는 것은 인격성이 부여될 만할 뿐만 아니라 [그런 자격이] 명백하기 때문이다.18)
18) Rhee, R. J., 2025, p.1026.
여기서 리는 전자인격의 지위가 부여될 인공지능은 그 자체로 인격체의 지위 에 부합하는 속성을 지녔기 때문에 부여 대상이 되는 것이고 그런 자격의 도달 여부는 객관적인 사태라는 견해를 표명하고 있다.
이처럼 대상의 내적 속성에만 주목하는 인격체 지위 판단은 가능하다.
그러나 그런 판단 방식은 앞에서 검토한 전자인격 도입 취지와 어긋난다.
더욱이, 전자인격의 문제를 전통적 의미의 인격체인 인간과 비교하면서 후자가 지닌 자의식(self-consciousness)이나 자기 인 식의 존재 여부를 판정의 기준으로 삼는 것은, 의식에 관한 과학의 이해 수준과 더불어 의식에 관한 철학적 논의를 고려할 때, 자격 평가를 피상적인 논쟁에 머 물도록 만들 비효율적인 전략이다.
앞에서 오병철은 전자인격의 생성이 리가 말하는 것과 같은 객관적 사태의 반 영이 아니라 소유자의 결정에 달린 일이라고 말했는데, 이는 다음 장에 거론될 책임재산 문제의 참고항인 고대 로마의 페쿨리움(peculium)19)에 관한 상황과 부합하는 평가다.
19) 3장에서 거론될 전자인격의 책임재산은 종종 고대 로마에서 일부 노예에 적용되었던 페쿨리움과 견주어진다. Pagallo, U., 2018, Katz, A. & MacDonald, M., 2020 참조.
페쿨리움은 재산을 처분할 권한을 가진 가장 이외에 그의 아들 이나 노예가 처분할 수 있도록 허용된 돈이었다.
고대 로마에서 인격체가 아니라 주인의 소유물일 뿐인 노예도 주인이 허용하는 범위 안에서 주인을 대신하여 노 예를 사거나 물품을 구매하고, 사업과 관련된 계약을 체결할 수 있었다.
이때 어 느 노예가 그런 권한을 가지게 되는지는 근본적으로 노예의 개별적 속성에 달린 문제가 아니다.
주인은 노예의 성품이나 능력 같은 속성을 고려할 수 있지만, 어 떤 속성을 고려할 것인지는 전적으로 주인의 소관이다.
전자인격에 관한 현행 토론의 요체는 인격체의 본성과 성립 조건에 대한 형이 상학적 문제가 아니다.
달리 말해, 이 문제에 대한 토론이 우선적으로 지향하는 것은 고도의 인공지능을 장착한 로봇이 인간과 본질적으로 대등한 의미의 인격체 인지 아닌지, 또는 어떤 수준이나 속성의 기능을 실현해야 그런 인격체가 되는지 에 대한 해명이 아니다.
이 논의가 지향하는 것은 기술 현실의 변화로 인하여 생성된 새로운 종류의 문제 상황을 적절히 다룰 사회적 방안을 결정하는 일이다.
이런 논의 기반을 전제한다면, 전자인격이 실재의 본성에 근거한 지위가 아니 라 법적 허구임을 지적하는 것은 그것에 대한 유효한 비판이 되지 않는 반면, 전자인격이 그런 허구를 도입하는 취지에 부응하지 못한다는 것을 지적하는 것은 유효한 비판이 된다.
그런 허구의 도입과 활용이 그 효용 이상의 비용, 또는 위 험을 수반한다는 것도 유의미한 비판이 될 것이다.
2) 이 토론에서 인간중심주의는 극복해야 할 편견이 아니다
논의의 기반을 분명히 설정하기 위해 거론할 또 하나의 개념은 인간중심주의 이다.
양천수는 인공지능 로봇을 규율할 법체계를 논하고 또 그 미래를 전망하는 과정에서 다음과 같이 말한다.20)
“한편 다음과 같은 의문도 제기된다. 인공지능 로봇에게 법적 인격성을 부여 할 수 있는가 하는 논의는 여전히 인간중심적인 사고에바탕을 두고 있다는 것이 다. 왜냐하면 이 문제는 인공지능 로봇이라는 기계적 체계를 인간의 소통에 의해 창발된 인간중심적 법체계 안으로 끌어들일 수 있는가의 문제이기 때문이다. 그런데 만약 강한 인공지능이 실현되어 완전한 자율성을 갖춘 인공지능 로봇이 창 발된다면, 이들이 굳이 인간중심적 법체계 안으로 들어오고자 할지, 달리 말해 이들이 인간중심적 법체계에 복종할지 의문이 든다.”21)
20) 양천수(2018)은 인공지능 로봇에 인격성을 확장하는 것이 “이론적으로 가능하다”고 말하면서 “특 히 우리가 완전한 탈인간중심적 모델인 체계모델을 수용하면, 인간이 아닌 인공지능 로봇에게도 충 분히 법적 인격성을 인정할 수 있다”(이상 21쪽)고 주장한다. 그러나 이론적으로 가능하다는 것은, 본고에서 따지는 사회적 결단의 전제 조건이기는 해도, 그것에 기여하는 바는 미미할, 약한 주장이 다. 더구나 그것이 ‘완전한 탈인간중심 모델을 수용하면’이라는 가정 아래 성립하는 주장인 한, 완 전한 탈인간중심 모델을 수용해야 하는지에 대하여 유보적인 사람들에게 그것은 실질적인 내용을 가지는 주장으로 작용하지 않는다.
21) 양천수, 2018, 21쪽.
이 부분의 논리를 다음과 같이 재구성할 수 있다.
① 전자인격에 관한 현재의 논의는, 인간이 아닌 로봇을 인간의 법체계에 편입시키려 한다는 점에서, 인간중 심적 사고에 근거하고 있다.
② 강한 인공지능을 장착한 로봇이 생겨난 상황에서 는, 이들을 인간의 법체계에 편입시키는 것이 어려울 것이다.
로봇과 인간의 규 범 체계가 서로 대등하면서 상충하는 관계에 놓일 것이기 때문이다.
③ 전자인격 에 관한 논의가 완전한 자율성을 갖춘 인공지능 로봇의 경우까지 포함한다는 점 을 고려할 때, 현재와 같은 인간중심적 논의는 부적절하다.
양천수의 강한 인공지능 개념이 그것을 도입한 썰(John Searle)의 개념22)을 준용한 것인지는 명시적이지 않지만, “인간처럼 스스로 생각하고 느끼며 욕망하는 강한 인공지능”23)이라는 표현을 토대로 그가 그것을 의식을 가진 인공지능이 라는 썰의 의미로 사용했다고 추정할 수 있다.
이 개념을 제시한 썰은 불가능하 다고 보았던 강한 인공지능의 전망에 관해서는 철학자들 간의 이론적 논쟁도 종 결되지 않았고, 최근 세간의 논의에서는 이 개념 자체가 다의적으로 사용되는 증 상도 확연하다.
그러나 한 가지, 앞의 논증이 (어떤 의미에서든) 강한 인공지능 을 가진 로봇이 등장한 상황을 가정하고 있다는 것은 분명해보인다.
그리고 양천 수는 그런 상황에서 인간과 상충하는 규범을 가진 인간과 대등한 존재들이 만들 문제를 걱정어린 눈으로 바라보고 있다.
하지만 이것은 고인석이 “(위험한) 존재 론적 망각”이라고 표현한 것에 부합하는 장면이다.
만에 하나 양천수가 말하는 것과 같은 로봇의 불복종과 인간-로봇의 대립 상황이 실현된다면, 그것은 존재 론적 망각으로 인한 우리의 과오 때문이고, “정말 슬프고도 우스꽝스러운 “일일 것이다.24)
고든(John‑Stewart Gordon)은 논문의 “왜 로봇들에게 법적 인격을 부여해야 하는가?”라는 제목의 절25)에서 [로봇의] 도덕적 인격성(personhood)이 종국적 으로 인간들의 동의에 의지하는 문제가 아니라 객관적인 평가의 문제라고 말한 다.
22) 썰은 1980년 중국어방 논증과 결부시켜 이 개념을 최초로 언급했고, 거기서 강한 인공지능은 언어 를 다룸에 있어 구문론(syntax)뿐만 아니라 의미론(semantics)의 역량을 지닌, 다시 말해 말의 의 미(meaning)를 이해하는 인공지능을 가리키는 개념이었다. 한편 1992년 발간된 The Rediscovery of the Mind에서 그는 그것을 의식(consciousness)과 결부시켰다.
23) 양천수, 2018, 12쪽.
24) 고인석, 2022, 54쪽.
25) Gordon, J.-S., 2020, 4.1.
또 그는 로봇에게 인격의 지위를 부여함으로써
(i) 그것들의 응당한 도덕적 법적 지위를 인정하게 되고, 그럼으로써
(ii) 법적으로 그것들을 해악(harm)으 로부터 보호하는 일이 가능해질 것이라고 주장한다.
그 논문의 이 절은, 그 제목 과 달리, 방금 언급한 “객관적인 평가”가 왜 로봇의 인격성에 대한 긍정으로 귀 결되어야 하는지 해명하지 않는다.
그 대신 저자는 그런 긍정이 가져올 두 가지 ‘긍정적’ 효과—앞의 (i)과 (ii)—를 언급할 뿐이다.
그러나 그런 효과로 언급된 것은 둘 다 로봇이 진정한 인격체라고 전제할 경우에 한하여 유효할 것들이다. 따라서 이것은 일종의 순환 논증이다.
저자는 도덕적-법적 지위를 인정 받아야 할 로봇의 조건을 따지는 일 없이 마땅히 부여되어야 할 지위를 부여함으로써 존 재의 정의에 부합하게 될 것이라고 평가함으로써 순환을 고착시킨다.
고든은 이런 지위 부여의 비용-편익 비교를 토대로 로봇 인격화에 반대하는 브라이슨(Joanna Bryson)의 논거를 검토하지만, 그런 인간중심 관점의 비교가“오도적일 뿐만 아니라 현대적 법철학의 관점에서 볼 때 법의 토대 자체를 훼손 한다”26)고 비판한다.
그러나 그의 비판은 부적절하다.
우선 본고가 검토한 법학 분야의 논고들만 보더라도 법의 토대에 관한 고든의 이러한 비평은 객관성을 결 여한다.
그럼에도 불구하고, 인공지능이나 로봇의 법인격을 지지하는 논자들에 게서 양천수나 고든의 논문에 표명된 것과 같은 인간중심주의 비판이 자주 등장 한다는 사실은 주목할 가치가 있다.27)
인간중심주의나 종차별주의에 대한 다양한 관점의 유의미한 비판이 존재한다 는 사실을 고려하더라도, 본고가 참여하고 있는 인공물의 법적 지위에 관한 토론 은 인간중심주의의 방식으로 진행하는 것이 적절하다.28)
그 이유는, 이것이 존 재의 진리에 관한 문제가 아니라 법의 문제이기 때문이다.
앞에서 이미 언급한 것처럼 법은 사이먼의 인공물, 즉 집합적 인간이 스스로의 생존과 번영을 위하여 만들고 조절하는 산물이다.29)
이러한 관계는 법이 집합적 인간의 생존과 번영에 긍정적으로 기여해야 한다는 요청을 함축한다.
또 반대로 인간 공동체의 생존과 번영을 위협하는 법은 그것의 본령을 위배하고 있음을 함축한다.
인공지능 로봇의 법적 인격에 관한 숙고가 인간 중심의 관점에서 이루어져야 한다는 생각은 전자인격 제안을 반대하는 2018년 공개서한에서도 뚜렷이 표명되 었다.
이 문건은 작성자들의 견해를 표명하는 첫 부분에서 “인공지능과 로봇공학 의 영향은 인류의 편익이라는 관점에서 검토되어야 한다.”라고 말한다.30)
26) Gordon, J.-S., 2020, p.465.
27) 양천수, 2017, 양천수, 2018, V장, 그리고 신동일·김두환, 2019, 466쪽을 보라. 고든의 논문에 서 이것은 ‘인간중심주의’ 비판 대신 ‘종차별주의(speciesism)’에 대한 비판으로 나타났다. 본고의 시각에서 둘의 취지는 동등한 것으로 간주된다.
28) 이러한 관점이 그 자체로 인공물에 인격체 지위를 부여하는 일에 반대하지 않는다는 사실 정도는 이미 분명해졌으리라고 기대한다. 이 토론에 참여한 논자 중 상당수가 인간중심의 관점에서, 즉 인 간 사회의 편익과 비용이라는 관점에서 전자인격의 도입에 찬성하는 점을 기억하라.
29) 이런 까닭에 “탈인간중심적 법률체계” 같은 말은, 만일 거기서 “탈-”이 부정이나 ‘반(反)-’을 뜻 하는 접두어로 사용되었다면, 모순을 내포하는 오개념이다. 반면에 인간 사회의 관점에서 더 나은 법률체계를 추구한 결과가 호모 사피엔스 이외의 존재자들을 적극 법적 주체로 끌어들이는 법체계 변화로 나타났다면, 그리고 그러한 결과를 가리켜 “탈인간중심적”이라고 표현한다면, 적절하고 정 당한 개념 표현으로 볼 수 있을 것이다.
30) 강조가 추가됨. 정보철학의 주요 논자인 플로리디(L. Floridi)는 2018년 5월 네이처에 게재된 글 “Don’t grant robots legal personhood”(Nature 557, Correspondence)에서 자신이 이 공개서한 에 서명하지 않았지만 그것의 취지에 동의한다고 밝히면서, 전자인격이 도덕적 책임과 인과적 책 무, 그리고 법적 책임의 소재를 오도할 위험이 있다고 경고한다.
단, 법의 이와 같은 인간중심주의적 지향이 ‘인간만을 고려하는 법률체계’를 의미하지 않는다는 점은 강조할 가치가 있다.
개인의 행복한 삶, 나아가 인류 공 동체의 존속과 번영은 인간 이외의 수많은 존재자들과 얽혀 있는 과제다. 이는 숨 쉴 수 있는 깨끗한 대기와 마실 수 있는 물만 생각하더라도 이미 분명한 관계 다. 인간만을 고려하는 법률체계는 이론적으로도 상상하기 어렵지만, 예를 들어 인간 이외의 어떤 존재에게도 “법률에 근거한 보호”라는 개념을 적용할 수 없게 끔 되어 있는 법률체계를 상상해보자. 그래서 법적으로 하천이나 임야, 식물과 동물, 우리가 사는 건물 같은 대상들을 위해로부터 보호할 방도가 없다고 상상해 보라. 그것은 결과적으로 인간이 생존하고 번영할 수 있는 조건이 위험에 처하는 일을 우리가 스스로의 법률로 방치하는 상황을 뜻할 것이다. 법과 제도의 문제를 논함에 있어서, 인간중심주의는 탈피해야 할 편파적 견해 가 아니다.
그것은 오히려 최대한 세련되게 다듬고 근시안적 시야를 벗어나게끔 확장해야 할 논의 기반이다. 이제 이러한 기반 위에서, 전자인격이라는 법적 장 치의 가치를 따져보자.
오늘의 기술과 사회 환경 속에서 그것이 우리가 그것에 기대하는 역할을 실현할 수 있을지, 그러한 실현은 사회 차원에서 어떤 비용을 요구할지, 결과적으로 그것이 우리가 채택해야 할 합리적인 방안일지 살펴보자.
3. 전자인격이 책임공백 문제를 해결할까
1) 책임공백이라는 문제
2장에서 확인한 것처럼, 사회적 효용의 관점에서 전자인격이라는 범주의 도입 을 고려할 필요가 있다는 제안의 핵심 근거는 책임공백(responsibility gap)의 문 제다.31)
31) 본고의 논의 범위에서는 도덕적 책임의 공백과 법적 책임의 공백(liability gap)을 구별하여 다루지 않는다.
고도의 공학적 자율성을 지닌 인공지능 로봇의 작동이 인명이나 재산의 피해를 유발한 경우를 상상해보자.
이 경우 인공지능 프로그램의 설계자, 로봇의 제작을 담당한 공학자, 그것의 작업을 관리하는 공학자, 이 로봇이 재산으로 등 록된 회사의 경영자 가운데 어느 누구에게도 윤리적으로 타당한 방식으로 피해에 대한 책임을 물을 수 없는 상황들이 발생한다.
다량의 데이터를 기반으로 하는 기계학습의 속성과 복잡한 신경망 구조에서 비롯되는 인풋-아웃풋 관계의 특성을 고려할 때, 공학자나 경영관리자의 관점에서 인공지능의 작동 방식을 예견하 면서 일일이 제어하는 일이 불가능하다고 보아야 하기 때문이다.
그렇다면 인공 지능 로봇에게 책임을 귀속하면 어떨까?
그것은 현행법상 불가능하다.
인공지능 로봇은 “현행법상 물건”이고, 따라서 민법 제750조에서 말하는 “고의 또는 과실 로 인한 위법행위로 타인에게 손해를 가한 자”가 될 수 없음으로 인해 불법행위 책임의 주체가 될 수 없기 때문이다.32)
책임공백은 이처럼 책임 귀속과 그에 따른 손실 보전이 요청되는 상황임에도 불구하고 합리적인 책임 귀속이 어려운 상황을 가리킨다.33)
자율주행자동차의 사고를 비롯하여 이런 류의 사태는 인공지능과 로봇기술 발달과 더불어 일상적으 로 발생하리라고 예상되며, 따라서 이러한 책임공백을 해결하는 일은 현재 시점 에서 중요한 사회적 과제다.
이러한 상황에서, 인공지능 로봇에 전자인격이라는 법적 지위를 부여하고 소 정의 권리와 의무를 부여함으로써 책임공백의 문제를 해소한다는 것이 사회적 효 용의 관점에서 전자인격을 지지하는 사람들의 중요한 논거다.34)
전자인격에 관 한 입법과 제도화를 통해 앞에서 “현행법상 불가능”이라고 평가했던 방안의 법적 장애물을 제거한다는 것이다. 흥미로운 사실은, 반대론자들 역시 책임공백의 문제를 들어 전자인격이라는 방안을 비판한다는 것이다.
책임의 진정한 주체가 될 수 없는 로봇에게 법적 책 임을 부과하는 일은 합당한 책임 귀속을 저해하게 되는 결과를 낳을 뿐만 아니 라, 실제로 특정한 인간 주체에게 상당히 분명한 책임 귀속이 가능한 경우에조차 인간의 책임을 기계 시스템에 귀속시킴으로써 책임회피를 돕고, 그럼으로써 결 과적으로 한층 더 위험한, 진정한 의미의 책임공백을 유발한다는 비판이다.35)
32) 김진우, 2021, 32쪽.
33) 본고가 다루는 의미의 책임공백을 처음 거론한 것은 철학자 마티아스(A. Matthias)다. Matthias, 2004 참조. 김상득(2023)과 이상헌(2023)은 AI 로봇과 결부된 책임공백 문제에 관한 개관을 제공 한다.
34) 여기서 유의할 점은, 책임의 문제를 전자인격이라는 법적 장치로 해결하고자 하는 경우 권리의 문 제가 따라온다는 것이다. 이것은 전자인격이 전통적인 의미의 인격과 차별된다는 점을 근거 삼아 그것에서 생명권, 자유권, 평등권, 참정권 같은 권리들을 분리한다고 해도 남는 문제다. 조성은 등 (2018)은 “전자인에 대하여 권리 없이 의무만 인정되는 특별한 지위가 부여된다면, 당장 책임재산 의 귀속주체가 누구인지에 관한 문제가 발생한다.”(42쪽 각주)라고 지적함으로써 이 문제를 간명하 게 드러낸다. 이것은 본고의 범위를 넘어서는 미세한 논의를 요청하는 문제다.
35) 김상득(2023)은 이러한 책임회피의 위험을 “윤리세탁(ethics washing)”이라는 개념으로 표현한 다. 책임공백 문제를 주제로 다룬 이상헌(2023)은 결론 부분에서 책임공백을 이유로 로봇 같은 인 공물에 책임을 귀속시키는 일이 “도덕의 공백”(114쪽)을 불러올 것이라고 경고한다. 로봇이 진정한 의미의 책임 주체일 수 있는가 하는 문제에 관해서는 고인석(2012)을 보라.
정리하자면, 찬성론자들은 현상 차원의 책임공백 문제를 지적하면서 전자인격의 방안을 옹호하는 반면, 반대론자들은 잠재적 해결안인 전자인격이 초래할 심층 적 책임공백을 우려하여 전자인격 도입을 비판하는 셈이다.
책임이라는 개념에 대한 관점의 차이를 잠시 가려두고 본고의 시각인 사회적 효용의 관점에서 바라보면, 이 문제에 관한 토론의 일차적 핵심은 전자인격이라 는 범주의 도입이 여기서 서술된 책임 귀속의 어려움을 해결하는 유효한 방안일 것인가 하는 물음이다.
그런데 이 방안의 효능을 의심하게 하는 현실적인 문제들 이 있다. 하나는 책임재산과 관련된 문제이고, 다른 하나는 인격체의 정체 확인 및 재확인과 결부된 문제이다.
2) 책임재산의 문제
특정한 조건을 충족하는 로봇이나 인공지능 프로그램에 전자인격이라는 지위를 부여하고 그것의 작동으로 인해 인명이나 재산의 손실이 발생했을 때 그것에 대한 책임을 지도록 하는 방안은 전자인격의 그런 책임 보전에 쓸 재산, 즉 책임재산이 있어야만 실행 가능하다. 전자인격이 책임의 주체라면, 금전적 보상이 실질적으로 유일한 책임 보전의 방식이겠기 때문이다.
이런 까닭에 김진우는 “인공지능에 대 한 전자인 제도의 도입을 위한 핵심요소는 책임재산이다.”36)라고 말한다.
그런데 다수의 전자인격이 사회의 다양한 맥락에서 활동하는 상황을 상상해 보라. 이들의 재산도 자연인의 재산과 마찬가지로 규모가 아주 다양할 것이다.
우선, 김진우가 말하는 것처럼 “책임재산의 1차적 출연자는 [인공지능 시스템이 나 로봇의] 제조자와 사용자이어야 할 것”37)이고, 현실에서 그런 출연의 수준은 천차만별일 것이다.
36) 김진우, 2019, 37쪽.
37) 김진우, 2021, 38쪽. 108 철학·사상·문화 제49호
물론 책임재산(liability fund)은 해당 인공지능 시스템이나 로봇의 활동이 이루어지면서 부가가치를 산출함으로써 1차 출연의 수준을 넘어 증가할 것이며, 이렇게 증가한 재산은 해당 시스템이 유사시에 더 강력한 책임 보전을 할 수 있는 배경이 될 것이다. (이것이 전자인격을 책임 배분의 장치로 활용하려는 논자들의 기대다.) 그러나, 역시 자연인들의 사회와 마찬가지로, 책임재산의 증가는 전혀 일률적이지 않을 것이다.
이런 상황에서, 전자인격이 그것의 책임재산을 훨씬 상회하는 규모의 손실 보 전을 해야 하는 경우도 발생할 것이다.
이와 유사한 일은 현재의 사회에서도 발 생하며, 그런 사태를 처리하는 방식과 유사한 법과 제도를 마련하는 일 역시 가 능할 것이다.
단, 이런 절차의 실행이 상당한 사회적 비용을 요구하고 이러한 비 용이 전자인격 도입의 결정을 위한 효용-비용 계산에 반영되어야 한다는 사실은 고려되어야 한다.
더 중요하다고 생각되는 문제는 방금 언급한 재산의 증감 과정에서 예상되는 원리적인 문제다.
전자인격을 부여받은 인공지능의 세련도와 질적 수준이 높을 수록 그것이 손실을 발생시킬 확률은 원칙적으로 작아지는 반면, 그 질적 수준이 낮거나 현실을 다루는 세련도가 낮은 인공지능은 크고 작은 사고를 일으켜 손실 을 발생시킬 확률이 상대적으로 크다.
예상컨대 전자는 차츰 재산을 불려 가겠지 만, 후자는 시장 진입 초기 단계에서 퇴출될 위험이 크다.
이런 위험을 경제적 불평등이나 부익부 빈익빈이 별도의 고려를 요구하는 특별한 현상이 아니라 현대 사회의 일반적 현상이라는 사실을 들어 정당화할 수는 없다.
지금 따지고 있는 것이 기존의 사회에 대한 분석이 아니라 새로 도입할 사회적 장치에 대한 결정이 기 때문이다.
앞에 언급한 문제와 마찬가지로, 회사법인 등의 유사한 문제에 대응하는 법 적, 제도적 방안을 참고하여 이 문제를 해결하거나 완화할 방안을 마련하는 일은 가능할 것이다.
그러나 방안을 구상하고 실행의 세부를 설계하기에 앞서 답해야 할 선결 물음은 우리가 그런 방안을 모색하고 애써 사회에 적용할 충분한 이유가 있는가 하는 것이다.
그런 방안의 실행이 사회적 비용을 소모한다는 사실을 기억 하면서, 일관되게 비용-편익 합리성의 관점을 적용해야 한다.
3) 전자인격의 정체 확인과 재확인이라는 문제
우리가 전자인격이라는 새로운 법적 지위를 도입한다면, 그런 사회적 장치가 그 취지에 맞게 작동한다는 가정, 다시 말해 그것이 책임공백의 문제를 해결하리 라는 가정을 우리가 받아들였기 때문일 것이다.
뒤집어 말하면, 만일 전자인격이 그것의 도입 취지에 부합하는 결과를 산출하리라는 희망적 예견이 흔들리는 경우, 전자인격 도입의 권유는 약화될 것이다.
그런데 실제로 이런 부정적 영향을 미칠 문제가 있다.
그것은 전자인격의 정체 확인(identification) 및 재확인 (re-identification)38)이라는 문제다.39)
전자인격이 책임공백의 문제를 해결하는 방안으로 작동할 수 있기 위해 갖추 어야 할 기본 요건 중 하나는 정체 확인과 재확인이 명확하면서도 중요한 어려움 없이 이루어질 수 있어야 한다는 것이다.
이것은 자연인이 책임 주체인 경우에는 발생하지 않는 종류의 문제라는 점에서 별도의 주의가 필요하다.
예를 들어, 우 리는 누가 A를 죽음에 이르게 한 주체인지를 특정하기까지 어려움을 겪을 수 있 지만 일단 그것이 B라는 인물로 특정되고 나면 수많은 사람들 가운데 누가 B인 지를 확인하는 일은 비교적 간단한 과제가 된다.
B가 성형으로 외모를 바꾸고 여권을 위조하여 신분을 속인다고 해도, B의 지문이나 홍채, 또는 DNA에 관한 데이터가 있다면 정체를 재확인하는 일은 의문의 여지 없이 이루어질 수 있다.
그러나 전자인격의 경우는 사정이 다르다.
대체 불가능한 단일한 신체로 구현 되는 인간의 경우와 달리, 전자인격은 전자적인 방식으로 구체화되기 때문이다.
이러한 본질적 속성 때문에, 한 번 태어나 한 번 죽기까지 단선 구조의 역사를 지니는 인간과 달리, 현실에서 전자인격의 유일성과 고유성은 다양한 방식으로 흐트러질 위험에 처한다.
기술을 활용하여, 동시에 법과 제도의 세부 사항을 정 밀하게 규정하고 조정함으로써 이러한 어려움을 구제하는 것은 가능한 일일 것이 다.
그러나 본고가 채택하는 효용-비용의 관점에서 그러한 구제의 노고가 합리 성의 수준에 도달하리라고 확신할 이유는 없다.40)
전자인격의 속성은, 심리철학의 개념으로 말하자면, 기능주의(functionalism) 의 관점에서 평가되어야 한다.41)
38) 재확인 역시 정체 확인의 방식으로 이루어질 것이므로 둘을 ‘정체 확인’의 문제로 묶어서 규정할 수도 있다. 그러나 전자인격의 경우, 기본적인 법적 절차에 따라 법적 정체성이 부여된 (혹은 확인 된) 전자적 존재자와 책임 유무의 평가 대상인 전자적 존재자 간의 동일성을 확인하는 재확인이 중 요한 문제라는 점을 고려하여 ‘정체 확인과 재확인’의 방식으로 병렬하여 쓴다.
39) ‘소통’이라는 주제의 관점에서 전자인격의 전망을 평가한 정성훈(2022)은 소통의 개념이 그 핵심 에서 “후속 소통과의 연결”(105쪽)을 필수조건으로 요청한다고 강조하면서, “후속 소통들에서 기 계가 동일화될 수 있느냐”(106쪽)가 이 문제의 관건이라고 평가한다. 본고의 방식으로 말하자면, 그 역시 정체 확인과 재확인이라는 문제에 주목하고 있는 것이다.
40) 이에 관한 전망을 평가하려면 구체적인 사례를 기반으로 하는 비용-편익 분석 작업이 필요할 것 이다.
41) 다나허(John Danaher)는 로봇의 도덕적 지위를 평가하는 데 “윤리적 행태주의(ethical behaviourism)”의 관점을 적용하기를 권유한다. 이 관점은 기능주의와 부분적으로 중첩되지만, 그의 결론은 본고와 상이하다. Danaher, J., 2020 참조.
즉, 만일 전자인격 X와 Y가 동일한 조건이 주어졌을 때 예외없이 동일한 방식으로 작동한다면, 다시 말해 입력이 동일할 경우 출력이 반드시 동일하다면, X와 Y는 동일한 전자인격이라고 보아야 할 것이다.
본고의 관점에서, 전자인격이 부여된 존재자들에게 우리가 기대하는 것이 바로 주어진 조건에서 인간 사회가 유용하다고 인정하는 방식으로 행동하는 것, 다시 말해 특정하면서도 일관된 입출력 관계 특성이기 때문이다. 만일 특정한 인공지 능 로봇이 사고를 내거나 부적절한 계약을 체결하여 재산 손실을 유발했다면, 문 제가 되는 것은 주어진 조건에서 사고 혹은 재산 손실로 이어진 출력 반응을 산 출한 그것의 속성, 다시 말해 기능주의적 속성에 있다고 보아야 한다.
그런데 이러한 기능주의 관점의 정체성은 다수실현(multiple realization)이 가 능하다.42)
고장난 전자기기 대신 그것과 같은 모델의 제품을 재구매한다면, 그 경우 구매자가 기대하는 것은 기능주의적 동일성일 것이다.
그런데 전자인격을 옹호하는 사람들이 동일한 인공지능 소프트웨어를 장착한 두 로봇 X1과 X2를 동 일한 전자인격체라고 볼 것인지, 또 그렇게 보는 것이 옳은지는 불분명하다.43)
42) 다수실현 가능성에 관해서는 스탠포드 철학사전의 관련 항목(https://plato.stanford.edu/ entries/multiple-realizability/), 특히 1장을 참고하라.
43) 더구나 특정한 시점(t0)에 동일한 소프트웨어를 장착하고 작동하기 시작했더라도 그 이후 세계와 상호작용하면서 추가되는 데이터를 기반으로 하는 학습이 이루어지고 그 결과로 전자인격의 입출력 속성이 변할 수 있으리라는 점을 고려하면 문제는 더 복잡해진다.
물리적으로 다수실현 가능하다는 전자적 존재자의 속성은 그것의 복제가 가능 하다는 사실과 연결된다.
나아가 인공지능의 바탕에 놓인 소프트웨어 같은 전자 적 존재자는 복제뿐만 아니라 부분 복제, 미세수정(fine modification), 자르기 와 합치기 같은 조작이 용이하다.
예를 들어, 어떤 전자인격의 기능 중 특정한 부분만 잘라 베껴서 다른 로봇에 이식하거나 몇 가지 상이한 전자인격들로부터 그것들의 특정한 요소들을 수집하여 새로운 한 전자인격으로 만드는 일이 가능하 다.
전자인격의 특정 속성에서 아주 특수한 조건에서 나타날 반응만 선택하여 미 세하게 조절하는 일도 가능하다.
이렇게 다채로운 변화의 결과로 생성되는 전자 적 존재자들은 모두 서로 다른, 별개의 전자인격인가?
만일 미시물리적 관점에서 완벽한 쌍둥이인 자매 중 한 사람이 사고를 일으켜 구금의 방식으로 법적 책임을 져야 할 경우, 구금 대상은 당연히 사고를 낸 그 사람뿐이다.
그런데 어떤 인공지능 로봇이 사고를 일으켜 큰 인명 피해를 유발했을 때, 그것의 책임재산을 활용하여 금전적 보상을 실행하는 동시에 사고의 중대 성을 고려하여 —인간의 사형에 해당하는— 그것의 폐기 판결이 내려졌다고 해 보자. 이때 누군가가 이 로봇의 잠재적 효용을 고려하여 그것의 인공지능 소프트 웨어를 고스란히 장착한 새 로봇을 제작한다면, 이전 로봇과 새 로봇 사이에 우 리가 쌍둥이인 두 사람 사이에 적용했던 관점을 똑같이 적용할 수 있을지는 의심 스럽다.
이런 의심은 미세한 조정을 통해 원래 로봇과 동일하지는 않지만 99% 유사한 입출력 속성을 지닌 새 로봇을 제작하는 경우에도 작동한다.
인간의 경우 신체가 자연스럽고도 강력한 개별화의 원리로 작용하는 반면, 기능주의의 기반 에서 평가되어야 하는 전자인격의 정체성은 소프트웨어에 수반한다고 생각되기 때문이다.
이미 특정한 신체와 일대일 대응되지 않는 회사 같은 법인의 사례가 있음을 들어 전자인격에도 유사한 방식으로 정체 확인의 실행이 가능하리라는 기대를 표 명하는 견해가 있을 수 있다.
이 문제를 명시적으로 언급하지 않았지만, 오병철 이 전자인격의 시기와 종기를 확정하는 절차를 논하는 배경에도 전자인격의 단일 한 정체성을 확보하는 일에 관한 관심이 깔려있다고 본다.44)
44) 오병철(2020)은 본론의 첫 장(II) 전체를 ‘전자인격의 시기와 종기’라는 주제에 할애하였다.
전자인격의 법률 적, 제도적 실행에 관한 논의에서 등록(registration)을 통한 전자인격 관리는 일 반적인 견해이기도 하다.
그러나 방금 논한 문제가 등록을 통한 정체확인의 방식 으로 해소되기를 기대하기는 어렵다.
기본적으로 그런 등록이 신체와 정신이 불 가분으로 결합된 자연인의 상황을 기반으로 수립된 관리 방식이기 때문이다.
또한 무엇보다도, 앞에서 검토한 공개서한이 이미 지적하고 있듯이, 전자인격 은 회사 등 기존 법인과 달리 대표이사나 이사회 같은 특정 자연인 또는 자연인 들 집합과 결부되어 있지 않다는 중요한 속성을 지니며, 이러한 차이 때문에 전 자인격과 회사법인의 유사성은 이 문제에 도움을 주지 못한다.
더구나 회사처럼 특정한 자연인(들)과의 대응 관계를 설정하지 않고 반대로 적극 분리된다는 것이 전자인격 도입의 취지에서 도출되는 전자인격의 핵심 속성이라는 점을 고려하 면, 이러한 한계는 근본적이다.
이상의 논의를 기준으로 판단할 때, 전자인격이라는 법적 지위는 인공지능 로 봇의 활동으로 인한 책임공백 문제를 해결하는 방안으로 적절하지 않다.
1장에서 언급한 유럽연합과 미국 법제의 현황도 이를 간접으로 뒷받침한다.
그러나 이것 이 최종적 판결일 이유는 없다.
날로 변하는 기술 현실과 사회 여건 속에서 오히 려 우리는 계속, 그리고 적극적으로, 최적 최선의 사회 경영 방식을 탐색하고 비 교, 평가해야 하며, 전자인격은 점점 더 다양한 영역에서 고도의 자율성을 지니 고 활동하는 인공지능 존재자들과 결부된 문제들을 다루는 방안으로서 계속 탐구 될 것이다.
4. 결론과 전망
이상 논의의 결론을 정리해보자.
(i) 고도의 자율성을 발휘하는 로봇이 유발하는 법적 책임의 귀속 문제를 해결 할 방안을 모색한다는 문제의 맥락에서, 전자인격에 관한 토론은 인공지능, 로 봇, 인격체의 본성에 관한 토론이 아니라 제안된 방안의 편익-비용 합리성 평가 라는 관점에서 진행되어야 한다.
(ii) 전자인격의 도입을 통해 책임공백 문제를 해소하는 데는 중요한 어려움이 있다. 특히 다수실현 가능하고 복제, 부분 복제, 변조가 용이한 전자적 존재자의 특성으로 인해 책임 관리의 기본 조건인 정체 확인과 재확인에 난제와 혼란이 야 기될 것이고, 이는 책임을 배분하고 귀속시키는 일을 어렵게 만들 것이다.
(iii) 따라서 전자인격이라는 법적 지위는 그것을 도입하려는 목적에 부응하는 장치가 되지 못한다.
본고는 전자인격의 문제를 일관성 있게 사회 관리 또는 사회 경영의 방안이라 는 관점에서 논하려 했다.
그러나 책임재산이라는 운영 방식이 이미 전자인격의 권리라는 문제를 끌어들인다는 조성은 등의 지적45)이 예고하듯, 사회적 장치로 서의 전자인격 도입은 전자인격을 지닌 존재자의 권리에 관한 논의를 유발할 것 이고, 이러한 권리와 기본적이고 본래적인 의미의 인권(human rights) 사이의 경계선을 흐릿하게 만드는 도전적 논의는 계속 생성될 것이다.46)
45) 앞의 각주 34 참조.
46) 전자인격 반대자들의 2018년 공개서한이 전자인격이 초래할 권리 주장이 인권에 관한 기존의 원칙 과 상충한다는 점을 반대의 근거로 들었던 것을 상기하라.
이런 전망 앞 에서 본고는, 천부(天賦)의 인권이 지닌 속성과 인권의 원리적 확장 가능성에 대한 논의를 보류하고 다시 한 번 효용-비용 합리성의 관점에서, 전자적 존재자 들이 기능주의 관점에서 자연인과 대등하거나 그보다 더 우월한 능력을 발휘한다 는 이유로 그것들에 인권에 상응하는 권리들을 부여하는 일이 자연인들의 인권에 미칠 현실적인 파급효과를 엄밀히 검토해야 할 것이라는 개략적인 원칙만 제안해 둔다.
고인석은 인공지능 존재자들의 자율성을 위임이라는 구도에서 볼 것을 제안하 였다.47)
그리고 이러한 위임의 주체는, 일반적으로, 특정 개인이 아니라 사회공 동체이다. 예컨대 레벨 5의 자율주행을 하는 자동차가 운송 시스템의 일부를 담 당하게 된다면, 그것은 자율주행 기술을 그렇게 활용하기로 한 사회의 결정에 의 한 위임이다.
한편 이 일을 떠맡아 운전자의 기능을 수행하는 자율주행시스템은 그것의 공학적 설계, 전자-정보-기계 시스템의 제작, 그리고 그것의 보수와 관 리를 담당하는 자들의 집합적 정신이 외화된 결과물이다.48)
47) 고인석, 2012, 18쪽.
48) 고인석, 2012, 5장을 참조하라.
이러한 집합적 정신 (collective mind)은, 좀 더 정밀하게 말하자면, 자연인들로 구성된 특정한 구조 의 연결망에 해당할 것이다.
이와 유사한 인공지능 로봇들의 작동 결과와 결부된 책임의 문제를 적절하게 다루는 것이 관건이라면, 그것들을 독립적인 지위의 법적 인격으로 다루기보다 그것의 생성과 운용이라는 차원에서 공학과 경영의 맥락으로 결부된 배후의 자연 인 네트워크와 대응시키는 방식으로 다루는 것이 더 적절할 것이다.
그러나 본고 의 역할은 전자의 방안이 부적절한 것임을 논증하는 것이었고, 후자의 방식이 합 리적인 대안임을 보이는 일은 다른 연구의 몫이다.
참고문헌
고인석, 「로봇이 책임과 권한의 주체일 수 있는가」, 철학논총67, 새한철학회, 2012. , 「인공지능과 로봇의 윤리」, 세창출판사, 2022. 김건우, 「법인격론의 최근 연구 동향」, 법철학연구24/3, 한국법철학회, 2021. 김상득, 「AI 로봇의 도덕적 책임에 관한 윤리학적 연구」, 동서철학연구107, 한국동서철학회, 2023. 김자회·주성구·장신, 「지능형 자율로봇에 대한 전자적 인격 부여: EU 결의안을 중심으로」, 법조66/4, 법조협회, 2017. 김진우, 「인공지능에 대한 전자인 제도 도입의 필요성과 실현방안에 관한 고찰」, 저스티스171, 한국법학원, 2019. , 「인공지능 시스템의 책임능력: 전자인 제도의 도입 필요성에 관한 논의를 중심으로」, 중앙법학23/4, 중앙법학회, 2021. 신동일·김두환, 「인공지능과 법체계: 전자인격론의 모순과 정보권한과의 갈등을 중심으로」, 강원법학57, 강원대 비교법학연구소, 2019. 양천수, 「인공지능과 법체계의 변화: 형사사법을 예로 하여」, 법철학연구20/2, 한국법철학회, 2017. , 「현대 지능정보사회와 인격성의 확장」, 동북아법연구12/1, 전북대 동북아법연구소, 2018. 오병철, 「전자인격 도입을 전제로 한 인공지능 로봇의 권리능력의 세부적 제안」, 법조69/3, 법조협회, 2020. 이상헌, 「‘인공지능의 책임’ 쟁점에 대한 비판적 고찰」, 신학과 철학45, 서강대 신학연구소, 2023. 정성훈, 「인공소통의 한계와 기계의 인격화 비판」, 법철학연구25/3, 한국법철학회, 2022. 조성은·선지원·이시직·김진우·양천수, 「인공지능시대 법제 대응과 사회적 수용성」, KISDI 연구총서, 4차 산업혁명의 사회적 수용성 확보를 위한 국가전략 연구 (I) (연구책임자: 김진우, 양천수), 2018. “Civil Law Rules on Robotics, European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL))”, 2017. URL=https:// □ 고 인 석—전자인격이 책임공백 문제를 해결할 적절한 방안인가 115 eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:5 2017IP0051. “Open Letter to the European Commission Artificial Intelligence and Robotics”, 2018. URL=http://robotics=openletter.eu/. Bickle, J., “Multiple Realizability”, The Stanford Encyclopedia of Philosophy, 2020. URL=https://plato.stanford.edu/archives/sum2020/entries/mul tiple-realizability/. , “Robots should be slaves”, in: Y. Wilks (ed.), Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues, John Benjamins, 2010. Danaher, J., “Welcoming Robots into the Moral Circle: A Defence of Ethical Behaviourism”, Science and Engineering Ethics 26, 2020. Floridi, L. & Taddeo, M., “Don’t grant robots legal personhood”, Nature 557, 2018. Gordon, J.-S., “Artificial moral and legal personhood”, AI & Society 36, 2020. Katz, A. & MacDonald, M., “Autonomous Intelligent Agents and the Roman Law of Slavery”, in: Edwards, L. et al. (eds.), Future Law: Emerging Technology, Regulation and Ethics, Edinburgh University Press, 2020. Lopez, P. A., “The 2017 AI Rights (Electronic Persons) Debate”. URL=https://airights.net/the-2017-ai-rights-electronic-perso ns-debate. Matthias, A., “The responsibility gap: Ascribing responsibility for the actions of learning automata”, Ethics and Information Technology 6/3, 2004. Pagallo, U., “Vital, Sophia, and Co.—The Quest for the Legal Personhood of Robots”, Information 9/9, 2018. Rhee, R. J., “Do AIs Dream of Electric Boards?”, Northwestern University Law Review 119/4, 2025. Simon, H., The Sciences of the Artificial (3rd ed.), MIT Press, 1996. UK Law Commission, AI and the Law: A Discussion Paper, URL=https:// lawcom.gov.uk/project/contempt-of-court-2/, 2025.
【요약문】
본고는 고도의 자율성을 지닌 인공지능 로봇이 야기하는 책임공백 문제를 해결할 법적 방안으로 논의되어 온 전자인격이 이 문제의 적절한 방안인지 검토한다.
본고는 먼저 이러한 평가를 인공지능 로봇의 속성과 인격체의 본질에 관한 토론이 아니라 사회적 장치의 편익과 비용을 따지는 합리성의 관점에서 접근해야 할 문제로 규정한다.
본고의 검토에서 전자인격 제도에 책임재산 운영과 관련한 위험이 있다는 것, 그리고 인격체의 정체 확인과 재확인이 중요한 난관에 부딪힌다는 사실이 드러난다.
단일하고 고유한 신체를 기반으로 존속하는 인간과 달리 전자적 존재자가 본성상 다수실현 가능하다는 것, 그리고 그 기능주의적 정체성이 소프트웨어에 놓여 있기 때문에 복제, 수정, 결합 같은 조작이 용이하다는 것이 문제다.
이는 책임 귀속의 전제가 되는 주체의 고유성과 연속성을 보장하기 어렵게 만들기 때문에 근본적인 문제가 된다.
본고는 따라서 전자인격이 사회가 인공지능과 로봇을 활용하면서 생기는 책임공백 문제를 해결하는 방안으로 적절하지 않다고 평가한다.
【주제어】 인공지능 로봇, 책임공백, 전자인격, 다수실현 가능성, 비용-편익 분석
Abstract
Is Electronic Personhood an Effective Solution to the Problem of Responsibility Gap?
Insok Ko( Inha University)
This paper examines whether electronic personhood, which has been proposed and discussed as a legal solution to the responsibility gap problem caused by highly autonomous AI robots, is an effective solution. First, this paper frames the evaluation not as a debate on the attributes of AI robots and the nature of personhood, but as a matter of rationality that weighs the benefits and costs of social artifacts. The examination reveals that the electronic personhood entails risks related to the management of liability funds and faces a significant obstacle in the identification and re-identification of the person. The problem is that unlike humans, who exist based on a single unique body, an electronic entity is by its nature characterized by multiple realizability. Its functionalist identity lies in the software, making it susceptible to operations such as copying, modification, and combination. This becomes a fundamental problem because it makes it difficult to guarantee the uniqueness and continuity of the subject, which are prerequisites for the attribution of responsibility and liability. Therefore, this paper concludes that electronic personhood is not an effective solution for resolving the problem of responsibility gap that arises from ever-widening use of autonomous AI robots.
【Key words】 AI Robot, Responsibility Gap, Electronic Person, Multiple Realizability, Cost-Benefit Analysis
논문접수일: 2025.09.17. 논문심사기간: 2025.09.17.~10.10. 게재확정일: 2025.10.13.
철학·사상·문화 제49호 2025.10. 93-116쪽
'사회·정치' 카테고리의 다른 글
| 2026년 주택시장 전망과정책방향(25-12-23)/김덕례外.주택산업연구원 (0) | 2026.01.10 |
|---|---|
| 일본내 거주 외국인의 분포(26-1-2)/서혜진.파이낸셜뉴스 (0) | 2026.01.02 |
| 은퇴해도 못 쉬는 노인경제상황(25-11-25)/신현보.한경닷컴 (0) | 2025.12.22 |
| 연명의료, 누구의 선택인가:환자선호와 의료현실의 괴리, 그리고 보완방안(25-12-11)/김태경外.한국은행 경제연구원 (0) | 2025.12.18 |
| 일본에서의 국제결혼의 안정성(25.12月)/Fusae OKANIWA(岡庭 英重.山形大学)外.RIETI (0) | 2025.12.10 |