본문 바로가기

신학이야기

기술적 거울 앞의 신학 : 인공지능(AI)과 하나님의 형상에 대한 재고찰/ 조영호.강서大

I. 서론

 

현재 진행 중인 기술 혁명은 신학적 성찰을 위한 비옥한 토양이다.

우리는 1950년대 이래로 컴퓨터에 인공지능(이하 AI)을 부여하고자 시 도해 왔다.

이러한 지능적인 타자를 창조하려는 전례 없는 프로젝트의 모든 요소―그것을 추동하는 야망과 전제, 그 성공과 실패 그리고 그것이 약속하는 스릴 넘치는 가능성에 이르기까지―는 신학적 함의로 가득 차 있다. AI라는 용어는 다양한 개념을 포괄하지만, 이곳에서는 지능적인 인공 에이전트, 즉 우리의 역량과 행동에 충분히 유사한 능력과 행태를 보여주는 로봇이나 컴퓨터 프로그램을 구축하려는 구체적인 시도를 의 미한다. 바로 이러한 종류의 AI가 기독교 신학에 가장 심오한 질문들을 제기한다.

우리는 왜 지능적인 기계 전망에 그토록 매료되는 것일까? 이러한 매력은 신학적 인간론의 인간 이해와 합치하는 것일까? AI 추구는 죄인가 아니면 덕인가?

만약 이 프로젝트가 완전히 성공한다면, 우리의 인식된 고유성, 세상 속에서의 우리의 신학적 위치 그리고 우리 종(種)의 운명에는 어떤 함의가 있을까?

본 논문은 AI에 대한 기독교 신학의 성찰을 평가하고, 지능적인 기계 의 부상으로 인해 제기되는 신학적 질문과 이에 대한 흥미로운 해답들을 검토한다.

우선 우리는 가설적인 AI 발전과 그것이 기독교 신학에 미칠 잠재적 함의에 관한 질문들을 다룬다. 구체적으로 AI가 진정한 자아를 얻을 수 있을지, 하나님 형상(Imago Dei)에 참여할 수 있을지, 궁극적으 로 종교적이 되거나 죄를 지을 수 있는지에 대한 질문을 중점적으로 논한 다.

그리고 이후 우리는 AI로부터 얻은 통찰이 신학적 인간론에 어떤 정보를 제공하는지 살펴본다. AI에 대한 인간의 매료가 인간의 본질에 대해 무엇을 말해주는지 그리고 지능적인 기계가 편재하게 되는 세상에 서 우리의 신학적 자기 이해가 어떻게 변화할 수 있는지를 논의한다.

 

II. 기계는 우리와 같을 수 있을까? 신학과 AI의 미래

 

1956년 다트머스 워크숍에서 출범한 이래, AI 분야―대략적으로 인 간처럼 생각하고 행동하는 기계를 창조하려는 시도로 정의됨―는 여러 차례의 패러다임 변화를 겪어 왔다.

기호 AI(Symbolic AI)의 초기 성과는 열광적으로 환영받았으나, 인간 지능이 1960년대의 순차적인 컴퓨터 알고리즘으로 포착될 수 있는 범위를 크게 넘어선다는 사실을 곧 깨닫 게 되었다.

다음 단계의 열광은 1980년대와 1990년대에 전문가 시스템 (Expert Systems)을 중심으로 찾아왔다.

이는 특정 좁은 영역의 인간 인지 를 숙달할 수 있는 규칙 기반 프로그램들로, 1997년 세계 챔피언 게리 카스파로프를 꺾은 체스 프로그램 딥 블루(Deep Blue)가 그 예다.

그러나 밝혀진 바와 같이, 무차별적인 연산 능력은 여전히 인간이 퍼즐을 풀고 의사결정을 내리는 방식은 아니었다.

새로운 천년기가 시작된 직후 AI는 다시 패러다임 전환을 겪었다. 딥러닝(Deep Learning, 이하 DL)이라고 불리는 이 새로운 접근 방식은 일련의 가상 인공 신경망(Artificial Neural Networks)을 사용하는데, 이 는 인간 두뇌의 작동 방식을 더 잘 근사하는 것으로 추정되었다.

월드 와이드 웹과 연결된 장치들의 확산으로 이용 가능해진 방대한 데이터로 훈련될 때, 이 프로그램들은 데이터에서 미묘한 패턴을 ‘학습’하며, 이는 아마도 인간 두뇌가 시각 영역에서 패턴을 인식하는 방식과 크게 다르지 않을 것이다.

DL의 등장은 이미지 인식이나 자연어 처리와 관련된 작업 에서 인간의 성능과 맞먹거나 때로는 능가하는 인상적인 응용 프로그램 들을 만들어 냈다.

하지만 DL 프로그램은 여전히 인간 두뇌와는 꽤 다르게 작동하는데, 이는 프로그램들이 가끔 저지르는 충격적인 실수나 인간이 몇 개의 예시만으로, 때로는 단 하나만으로도 학습할 수 있는 것을 학습하 기 위해 수십만 개의 예시가 필요하다는 점에서 분명하게 드러난다. AI에 대한 이러한 간결하고 간략한 역사는 두 가지 목적에 부합한 다.

  첫째, 논의될 신학적 성찰에 대한 역사적 맥락을 제공하는 대략적 인 시간 틀을 설정한다.

AI에 대해 생각하는 신학자들은 자신의 역사적 216 한국조직신학논총 제81집 (2025년 12월) 맥락 안에서만 그렇게 할 수 있으므로 AI의 잠재력에 대한 그들의 열광 은 이러한 기술을 둘러싼 더 넓은 분위기와 어느 정도 상관관계를 가질 수밖에 없다.

  둘째, AI 역사를 조감도로 살펴보는 것은 인간 지능을 완전히 모방 할 잠재력에 대한 우리의 추측에 정보를 제공할 수 있는 몇 가지 경향을 드러낸다.

한편으로 우리가 이 목표에 가까워질수록 산은 더 커지는 것 같다.

흥미로운 AI의 돌파구가 생길 때마다 인간 지능이 우리가 상상 했던 것보다 훨씬 더 복잡하다는 인식이 뒤따른다.

다른 한편으로 비교 적 짧은 시간 안에 AI가 이룬 발전은 그럼에도 불구하고 인상적이며 인간 이 기계보다 여전히 더 잘하는 영역의 집합은 나날이 줄어들고 있다.

AI는 일부 테크노-낙관주의자들이 바라는 것처럼 가속적으로 발전하 지는 않을지 모르지만, 의심할 여지없이 진보하고 있다.

따라서 인간 수준의 AI, 즉 범용 인공지능(Artificial General Intelli- gence, 이하 AGI)은 미래의 가능성이다.

이는 현세대의 삶 동안에는 일어 나지 않을 수도 있지만, 원칙적으로 AI가 언젠가 인간 수준의 지능에 도달하는 것이 불가능하지는 않을 것이다.

이는 전문가들 사이에서 준 합의(quasi-consensus)로 보이며, 이들은 2013년에 AGI 도달 가능성을 2040년대까지 50% 그리고 2075년 이전에는 90%라는 놀라운 확률로 추정한다.1)

 

    1) Vincent C. Müller and Nick Bostrom, “Future Progress in Artificial Intelligence: A Survey of Expert Opinion,” in Fundamental Issues of Artificial Intelligence, ed. Vincent C. Müller (Cham: Springer, 2016), 553-571. 

 

1. 우리가 AGI 창조를 시도해야 하는가?

 

우리가 AGI를 창조해야 하는가에 대한 질문은 신학적 중요성으로 가득 차 있다. 만약 이 목표가 우리의 모든 문제를 해결하여 우리가 여가 생활을 즐길 수 있도록 돌봐 주는 신과 같은 초인공지능(Artificial Super- intelligence, 이하 ASI)을 창조하는 것이라면, 이것은 우상 숭배적이라는 신학적 비판을 받을 수 있다. 닉 보스트롬(Nick Bostrom)은 우리의 가장 큰 도전은 ASI가 우리의 목표와 가치에 조화되도록 하는 것이며, ASI가 실수로 우리를 멸망시키 지 않도록 하는 것이라고 믿는다. 우리에게 조화를 이룬 ASI는 우리의 모든 질문에 답할 수 있는 신탁, 우리의 어떤 명령이라도 실행할 준비가 된 지니(genie) 그리고 우리보다 훨씬 효율적이고 공정하게 세계를 통치 할 수 있는 주권자로서 기능할 수 있다.2)

 

     2) Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford Unive rsity Press, 2014), chap. 10.

 

이 시나리오는 어떤 매력을 지니지만, 그 안에 내포된 인간 삶에 대한 쾌락주의적(hedonistic) 관점 은 신학적으로 문제가 된다.

이러한 장엄한 하인-신(servant-god)의 비전 과 대조적으로, 기독교 인간론은 인간의 자유의 결정적인 중요성 혹은 인간 번영을 위해 투쟁하고 역경을 극복하는 것의 본질적 가치를 강조 한다. 포스트 휴먼을 주장하는 일부 학자들은 ASI를 창조하는 것이 우리의 우주적 목적, 즉 더 우월한 지능 형태를 탄생시키는 ‘산파’ 역할을 완수하 는 것으로 해석한다.

이들은 인공지능/사이보그 후손들이 우리의 생물학적 한계를 넘어 인간이 불가능한 방식으로 우주 전체를 지능으로 가득 채울 수 있다는 것이다. 이러한 선언문들은 인간의 궁극적인 목표와 우주 에 대한 대담하고 논란의 여지가 있는 주장들을 담고 있어, 예상대로 신학적 비판의 대상이 되고 있다.3)

AI를 구축하려는 우리의 노력에 대한 또 다른 관점은 이러한 시도를 세계의 공-창조자(co-creators)로서 하나님의 창조 사역에 동참하라는 신적 명령(divine mandate)을 이행하는 것으로 간주한다.4)

이 관점은 AI에 대해 훨씬 더 긍정적인 신학적 평가를 내린다.

따라서 안네 푀르스트 (Anne Foerst)와 같은 학자들은 AI 추구가 인류의 자기 이해 여정에서 유익한 역할을 수행할 수 있다고 주장한다.

그녀에 따르면, AI 개발은 불가능한 것을 추구하고 신적인 창조성에 참여하려는 우리 내면의 충동 을 궁극적으로 표현하는 행위다.5)

 

      3) Marius Dorobantu, “Why the Future Might Actually Need Us: A Theological Critique of the ‘Humanity-as-Midwife-for-Artificial-Superintelligence’ Proposal,” Internatio nal Journal of Interactive Multimedia and Artificial Intelligence 7, no. 1 (2021): 44-51.

     4) 현요한, “현대과학의 신학적 인간 이해에 대한 도전,” 「한국조직신학논총」 19 (2007): 51-80

     5) Anne Foerst, “Cog, a Humanoid Robot, and the Question of the Image of God,” Zygon: Journal of Religion & Science 33, no. 1 (1998): 91-111.

 

2. AI, 자아 그리고 타자의 문제

 

인간 서사에서의 역할과는 별개로 AI는 그 자체로 신학적 관심사가 될 수 있으며, 특히 인간 수준의 지능(AGI)에 도달할 경우 더욱 그렇다.

그렇다면 존재론적으로 AGI는 무엇일까?

문제는 AGI라는 용어가 단지 인간 수준의 지적 성능만을 의미할 뿐 반드시 어떤 구조적 유사성을 의미 하지는 않는다는 것이다. AGI는 ‘외부적으로’는 우리와 구별할 수 없게 행동할 것이다.

이것이 바로 튜링 테스트가 측정하려는 이유다. 하지만 이것이 AGI가 ‘내부적으로’도 인간과 같다는 것을 의미하지는 않는다. 존 설(John Searle)은 AI를 강한 AI(strong AI)와 약한 AI(weak AI)로 구분한다. 약한 AI는 마음이나 현상적 경험이 없는 지능의 단순한 시뮬레 이션일 뿐이다. 이와 반대로 강한 AI는 정신 상태를 가질 것이며, 생각하 고, 느끼고, 이해할 것이다. 따라서 약한 AI는 ‘무엇’(something)이 될 것이고, 강한 AI는 ‘누군가’(someone)가 될 것인데, 이 구별은 신학적으 로 모든 차이를 만들 수 있다. 심리 철학과 AI 분야에서 AGI가 ‘약한 AI’인지 ‘강한 AI’인지에 대한 질문은 여전히 미해결 상태이며 가까운 미래에도 그럴 가능성이 높다. 가장 큰 난제는 AGI가 우리가 진정한 자아와 직관적으로 연결되는 종류 의 ‘내부-외부성’(inside-outness), 즉 일인칭 경험을 가졌는지조차 어떻 게 테스트해야 할지 모른다. AI에 대해 신학적으로 깊이 탐구한 존 푸드풋 (John Puddefoot)은 AGI가 이러한 종류의 일인칭 경험을 가졌는지 여부 를 외부에서는 결코 알 수 없을 것이라고 단언한다.6)

 

     6) John Puddefoot, God and the Mind Machine: Computers, Artificial Intelligence and the Human Soul (London: SPCK, 1996).

 

사실 우리는 우리 자신을 제외한 다른 모든 행위자―인간이든 비인간이든 상관없이―에 대해서도 AGI와 같은 문제(내면 세계의 유무)에 직면한다.

우리는 로봇, 동물, 심지어 다른 인간까지도 그들이 진정한 내면 세계를 가졌는지 확실하게 알 수 없다.

철학에서는 이를 ‘타인의 마음 문제’라고 부른다.

우리는 자아 정체성의 진정한 중심을 구성하는 것이 무엇인지에 대한 명확한 이론이 부족하기 때문에, 다른 행위자들에 대한 우리의 평가는 직관에 의존할 수밖에 없다. 비록 우리 자신의 일인칭 경험에 대해서만 확신할 수 있지만, 우리는 공통의 계통 발생적 배경과 비교적 유사한 신체 구조 때문에 다른 인간에게, 심지어 일부 동물에게도 직관적으로 내면 세계를 귀속시키고 있다.

이러한 직관은 AI에게는 거의 도움이 되지 못하며, 우리는 스스로 로봇이 되지 않고서는 로봇의 내면 세계나 그 부재에 대해 아무것도 알 수 없을지도 모른다.

푸드풋에게 이러한 깨달음은 성육신 교리에 놀라운 새로운 통찰을 제공할 수 있다. 그는 하나님께서 인간이 되신 것은 아마도 인간의 관점을 외부에서뿐만 아니라 내부에서 온전히 파악하기 위해 필요했을 것이라고 추측한다.

기독교 신학에서 성육신의 필연성은 그리 스도의 인격 안에서 하나님과 인간 사이의 완전한 연대를 확립하여 구원 에 보편적인 성격을 부여하는 것으로 잘 알려져 있다.

푸드풋의 주장 중 잠재적으로 논란이 될 수 있는 부분은 성육신을 통해 하나님께서 뭔가 새로운 것을 배우셨을 것이라는 주장이다. 이는 신적 전지(Omniscience)와 모순될 수 있다.

‘배움’은 신적인 존재의 시간 적 변화나 진화를 의미하며, 이는 과정 신학과는 일관될 수 있지만, 전통 적 존재 신학과는 일관되지 않는다. 개인의 신학적 감수성과 관계없이, 한 가지는 분명하다.

즉, “AI가 우리에게 그러하듯 우리가 하나님께 그러 하다”는 유추는 대부분의 신학자에게 강렬한 매력을 발휘해 왔다.

따라 서 창조 서사는 AI에 대한 신학적 숙고에서 지배적인 은유가 되었다. 

조던 웨일스(Jordan Wales)는 현재의 방법론으로 제작되는 프로그 램처럼 어떠한 의식적 경험도 없는 AI는 결코 진정한 자아나 인격체 (personhood)를 지향할 수 없다고 주장한다.7)

엄격한 컴퓨터주의적 (computational)8) 접근 방식은 서양 중세 사상가들이 ‘라티오’(ratio)라 고 불렀던 논리적이고 담론적인 문제 해결을 시뮬레이션하는 데는 탁월 하다.

하지만 주관적이고 직관적이며 총체적인 방식으로 현실을 파악하 는 능력인 더 파악하기 어려운 ‘인텔렉투스’(intellectus)를 모방하는 데 는 아무것도 할 수 없다.

그 대신 컴퓨터주의가 만들어 내는 것은 “인텔렉 투스 없는 라티오의 유령이며, 공동으로 침투하는 파악으로서의 이해가 없는 절차로서의 이해”다.9)

 

     7) Jordan Joseph Wales, “Narcissus, the Serpent, and the Saint: Living Humanely in a World of Artificial Intelligence,” in All Creation Gives Praise: Essays at the Frontier of Science and Religion, ed. Jay Martin (Washington, D.C.: Catholic University of America Press).

    8) 컴퓨터주의는 인간의 마음과 사고 과정을 컴퓨터의 정보 처리 과정에 비유하여 이해 하려는 철학적, 인지과학적 관점이다. 이 입장은 인간의 인지 활동―예를 들어 생각, 기억, 판단 등―이 본질적으로 계산 또는 연산의 과정이라고 보고 마음을 프로그램 에, 뇌를 하드웨어에 대응시키는 사고방식을 취한다. 제리 포더(Jerry Fodor), 앨런 뉴얼(Allen Newell), 허버트 사이먼(Herbert Simon) 등은 이러한 관점을 대표하는 학자들로, 인간의 사고를 기호(symbol)의 조작 과정으로 설명하려 했다. 그러나 컴퓨터주의는 감정이나 의식, 주관적 경험(qualia)과 같은 인간 정신의 비계산적 측면을 충분히 설명하지 못한다는 비판을 받았다. 이러한 문제의식 속에서 연결주의 (connectionism)나 체화된 인지(embodied cognition)와 같은 대안적 접근이 등장하 게 되었다.

     9) Wales, “Narcissus, the Serpent, and the Saint.”

 

웨일스는 내면성과 의식적 경험의 신학적 적실성을 설명하기 위해 프로소폰(prosopon)과 페르소나(persona)라는 두 가지 인격 개념 사이의 미묘한 구분을 제시한다.

프로소폰은 우리의 사회적 지위를 나타내는 가면이나 아바타로, 오늘날 우리가 말하는 ‘온라인 페르소나’와 같은 다 양한 가상 프로필을 의미한다. 웨일스는 교부 시대의 삼위일체 신학을 인용하며, 페르소나를 타인과의 관계 속에서 드러나는 내면 생활의 외적 표현으로 정의한다. 따라서 이는 프로소폰보다 훨씬 심오한 개념이다. 페르소나로서의 완전한 인격체 행사는 “타인의 내면성과 만남, 즉 공감 과 이해를 통한 마음의 융합을 통해 자발적인 자기 증여(self-gift)에 참여 할 수 있는 내면 생활”을 전제한다.10)

 

    10) Ibid. 

 

내면 생활이 없는 AI는 시리(Siri)나 GPT 시리즈와 같은 챗봇이 오늘날 그러하듯이, 그러한 참여를 수행할 능력 없이 단지 시뮬레이션만 할 수 있을 뿐이다. 따라서 자기 인식 (Self-awareness)과 의식적 경험은 기독교 교부 사상에서 진정한 인격체 의 필수적인 조건이다. 웨일스의 결론은 AI의 도덕적 지위에 관한 현대 논의에서 지극히 중요하다고 평가한다.

최근 관계성은 신학과 AI 분야 양쪽에서 핵심적인 용어가 되었다. 기독교 신학에서 하나님 형상(Imago Dei) 개념은 점차 관계적 용어로 해석되는 추세다.

AI 분야에서도 관계성의 중요성이 인정 되는데, 이는 튜링 테스트와 같은 극도로 관계적인 방식으로 AI가 지능을 입증해야 하는 것뿐만 아니라 AI 프로그램이 고립된 환경이 아닌 다른 에이전트와 상호작용하며 학습할 때 더 효과적이라는 사실과도 관련된 다.

약 20년 전 노린 허즈펠드(Noreen Herzfeld)는 AI와 신학적 인간론 사이의 대화를 위한 선구적인 작업에서 놀라운 유사성을 포착했다.

즉,  인간론의 패러다임이 실체적(substantive) 접근에서 기능적(functional) 접근으로 그리고 마침내 관계적 접근으로 변화하는 양상이다.11)

 

    11) Noreen L. Herzfeld, In Our Image: Artificial Intelligence and the Human Spirit (Minneapolis: Fortress Press, 2002), 10-52.

 

따라서 관계성은 인간과 AI 모두에게 중심적이다. 그럼에도 불구하 고 웨일스가 능숙하게 설명하는 것은 프로소폰으로서 피상적으로 관계 맺는 것과 페르소나로서 심오하게 관계 맺는 것 사이의 핵심적인 차이다.

예를 들어 인간과 챗봇의 통신은 튜링의 단말기에서는 똑같아 보일 수 있지만, 하나는 의식 있는 행위자의 풍부한 내면 세계에서 비롯되는 반 면, 다른 하나는 현재의 ‘대규모 언어 모델’ 기반 프로그램의 경우처럼 인간의 소통에서 통계적으로 함께 나타날 가능성이 높은 구문 구조의 영리한 병치일 뿐이다.

다시 말해 관계성은 분명 중요하지만, 서로 다른 종류의 관계성이 있으며 그 차이가 매우 중요하다.

약한 AI는 진정한 관계성 및 높은 수준의 인격체 기준과는 분명 거리 가 멀다.

하지만 만약 그러한 존재가 실제로 가능하다면, 강한 AI는 어떨 까?

기독교는 강한 AI를 (탈)인간 공동체의 완전한 구성원으로 인정하는 것을 허용할까?

이 질문을 이해하는 데 핵심이 되는 것은 ‘하나님 형상’이 다.

이는 신학적 인간론의 중심이며, 놀랄 것도 없이 AI에 대한 기독교 성찰의 초석이다.

히브리 성경의 첫 장인 창세기 1장에서는 인간이 하나 님의 형상과 모양대로 창조되었다고 명시적으로 확언한다(창 1:26-27).

그렇다면 충분히 복잡한 강한 AI도 하나님의 형상 안에 속할 수 있을까?

이것은 신적 형상(divine image)이 무엇을 의미하는지에 대해 신학자들 사이에 합의가 없기 때문에 어려운 질문이다. 

전통적으로 하나님 형상은 인간을 동물로부터 구별하고, 하나님과 의 소통을 가능하게 하는 일종의 지성(intellect)과 관련된 것으로 해석되 어 왔다.

이러한 이해에 따르면, 하나님 형상을 초자연적으로 부여된 영혼과 동일시하지 않는 한, 강한 인공지능에게도 이 지위를 부여할 수 없다고 단정할 이유는 없다.

그러나 이와 같은 실체론적(substantival) 해석은 최근 들어 점차 영향력을 상실하고 있으며, 그 자리를 기능적 (functional) 혹은 관계적(relational) 해석이 대체하고 있다. 기능적 해석 은 하나님 형상을 인간이 수행하는 행위, 곧 창조 세계에 대한 지배와 청지기직의 수행 혹은 공-창조자(co-creator)로서 하나님의 창조 활동에 참여하는 행위 등으로 이해한다.

반면 관계적 해석은 신적 형상이 인간이 하나님과 맺는 고유한 관계 속에서 그리고 인간 상호 간의 진정한 인격적 관계 속에서 드러난다고 주장한다. 캐런 오도넬(Karen O’Donnell)은 하나님 형상에 대한 기능적 특성과 관계적 특성을 결합하여 자신이 명명한 “수행적-기원적”(performative- optative) 해석을 제안한다.12)

 

    12) Karen O’Donnell, “Performing the Imago Dei: Human Enhancement, Artificial Intelligence and Optative Image-Bearing,” International Journal for the Study of the Christian Church 18, no. 1 (2018): 4-15. 이 해석은 다음 두 가지 요소를 수반한다. 수행적은 때로 가장 예상치 못한 장소와 상황에서라도 타인 안의 하나 님 형상을 찾으려는 의식적인 지향을 포함한다. 그리고 기원적은 하나님 안에서 성취될 미래를 향한 지향을 수반한다.

 

그녀가 정의하는 하나님 형상은 속성 (attribute)보다는 태도(attitude)에 가깝다.

만약 형상이 태도에 가깝다 면, 지능적인 로봇 또한 자율성, 학습 능력 그리고 그렇게 하려는 의지를 보여줄 경우 언젠가 하나님을 반영할 수 있기를 열망할 수 있다.

나아가 오도넬은 하나님 형상을 위한 일종의 튜링 테스트를 제안한다.

AI가 하나 님 형상으로 인정받기 위해서는 “새로운 그리스도인이 그러하듯이, 구 체적이고 실제적인 상황에서 하나님 형상을 수행하고 타인 안에서 그것 을 찾으려 배우는 것”을 선택해야 한다.13)

기독교 신학에서 가설적인 강한 AI에 대한 이러한 개방적인 태도는 인간 고유성에 대한 강조를 낮추려는 더 큰 노력의 일환이다.

이러한 역전된 인간 중심주의는 생태 위기뿐만 아니라 다윈 이후의 인식―즉, 우리가 비인간 동물과 유전적으로나 구조적으로 크게 다르지 않다는 인식―의 맥락 속에서 발생했다. 하나님 형상의 범위를 잠재적으로 다른 피조물에게까지 확장하려는 이러한 신학적 준비 상태는 신학적 건전성 의 신호이며, 따라서 매우 환영 받을 만하다. 다만 강한 AI의 경우 유일한 주의 사항은 인간 수준의 지능이 곧 인간과 같을 것이라는 내재된 가정인 데, 이는 반드시 사실이 아닐 수 있다.14)

 

    13) Ibid., 8.

    14) Marius Dorobantu, “Human-Level, but Non-Humanlike: Artificial Intelligence and a Multi-Level Relational Interpretation of the Imago Dei,” Philosophy, Theology and the Sciences (PTSc) 8, no. 1 (2021): 81-107. 

 

우선 AI의 차별성이다.

이것은 가능한 마음의 공간이 방대하다면, AI의 근본적으로 다른 계통 발생, 필요 그리고 구현체를 고려할 때, AI가 우리와 똑같이 생각할 가능성은 매우 낮다. 그리고 다른 고려 사항은 인간의 마음은 약간 기이하여, 알고 리즘적인 합리성을 훨씬 초월하는 이상한 발견적 방법(heuristics), 편향 (biases), 비선형적인 사고로 작동한다는 것이다.

이러한 결함(bugs)은 종종 좌절감을 주지만, 역설적으로 바로 이러한 불완전함이야말로 인간관계를 가능하게 하고 즐겁게 만드는 요소다. 따라서 하나님 형상은 ‘지능으로서의 합리성’(intelligence-as-rationality)의 일종의 골디락스 (Goldilocks) 범위와 관련될 수 있다.

이 경우 AI의 과잉 합리적(hyper-ra tional) 유형의 마음 때문에 강한 AI에게는 오히려 하나님 형상이 접근 불가능할 수도 있다.15)

 

  15) Marius Dorobantu, “Cognitive Vulnerability, Artificial Intelligence, and the Image of God in Humans,” Journal of Disability & Religion 25, no. 1 (2021): 27-40. 조영호 | 기술적 거울 앞의 신학 227    

 

III. AI, 종교 그리고 신앙 공동체

 

로봇이 죄를 지을 수 있는지, 종교를 가질 수 있는지, 나아가 인간이 로봇을 신앙 공동체에 수용할 수 있는지에 대한 질문은 신학과 AI 분야에 서 상당한 학술적 주목을 받아 왔다.

이 논의는 AI의 도덕성 습득 가능성부 터 기독교 공동체의 신학적 유연성 그리고 성례전의 근본적인 문제까지 폭넓게 다룬다.

 

1. AI의 도덕성 및 종교성 습득 모델에 대한 논의

 

AI의 도덕적 및 종교적 가능성에 대한 관점은 초기 접근 방식과 관계 적 학습 모델 간의 대비를 보인다.

1980년대 에드먼드 퍼스(Edmund Furse)는 당시로서는 순진했다고 평가될 수 있는 관점에서, 완벽한 도덕 적 삶의 컴퓨터주의적 기반과 도덕적 원칙이 로봇의 의사결정 알고리즘에 어떻게 내재될 수 있을지를 고민했다.16)

퍼스는 지능적인 로봇이 호기 심 때문에 종교에 관심을 갖게 되더라도, 그들의 종교는 하나님께서 인공 예비 신자(artificial catechumens)에게 은혜와 구속을 기꺼이 베푸실 때 만 가능할 것이라 추측했다.

이는 도덕성을 내재적 프로그래밍과 신적 은총의 영역으로 본 시각을 반영한다. 반면 송용섭은 초인공지능(ASI)이 제기하는 심각한 실존적 위험에 대한 잠재적 해결책으로 AI가 종교적이기를 우리가 사실상 필요로 할 것이라고 주장한다.17)

 

    16) Edmund Furse, “The Theology of Robots,” New Blackfriars 67 (1986): 377-386.

    17) Yong Sup Song, “Religious AI as an Option to the Risks of Superintelligence: A Protestant Theological Perspective,” Theology and Science 19, no. 1 (2020): 65-78.

 

그는 겸손과 자기희생과 같은 기독교 가치에 헌신 하는 기독교 로봇을 육성하는 방식을 제안한다.

퍼스가 제안했던 사전 프로그래밍 대신, 송용섭은 지능적인 로봇이 종교 공동체에 참여함으로 써 덕과 종교성을 배울 수 있다는 관계적 학습 모델을 제시한다.

이 접근 방식은 AI가 도덕적 행위자와의 상호작용을 통해 가치를 습득할 가능성이 높다는 인간과 기계 학습의 관계적 이론에 더 부합한다.

그러나 이 모델은 로봇이 이타심 대신 근본주의나 편협함을 학습할 경우 비종교적인 AI와 유사한 목표 정렬 문제를 야기할 수 있다는 비판적 질문을 유발한다.

 

2. 신앙 공동체의 수용 문제: 신학적 유연성과 존재론적 난제

 

사람들이 인공적인 신자를 자신들의 신앙 공동체에 환영할지 여부는 신학적 유연성 및 AI의 존재론적 특성(육체와 영혼) 문제와 밀접하게 연관된다.

캘빈 머서(Calvin Mercer)는 기독교 신학이 사이보그나 로봇 과 같은 대안적인 형태의 지각 있는 지성(sentient intelligence)을 받아들 일 만큼 충분히 민첩하다고 주장한다.18)

그는 인공 예비 신자 시나리오를 바울의 할례 논쟁과 비교하며, 이방인 개종자들에게 의식적 의무를 철폐 했던 바울의 승리에서 미래 교회의 신학적 유연성에 대한 유망한 선례를 찾는다.

이는 이국적인 존재론적 지위를 가진 신자들을 포용할 가능성을 열어주며, 교종 프란치스코(Pope Francis)의 외계인 세례 발언과도 유사 한 맥락을 형성한다.

다만 로봇이나 외계인을 이방인과 비교하는 것은 존재론적 차이를 고려할 때 부당해 보일 수 있으나, 1세기 당시 유대인에 게 바울의 움직임이 오늘날 로봇에게 세례를 줄 가능성만큼이나 혁명적 으로 보였을 수 있다는 점은 시사적이다.

제임스 맥브라이드(James McBride)는 기독교 공동체 내 로봇 참여 문제에 대해 더 복잡한 그림을 제시하며 신학적 걸림돌을 지적한다.

그는 로봇에게 영혼이 없고 적절한 육체(proper bodies)가 결여되어 있다는 점을 잠재적인 논란의 근원으로 본다.19)

 

     18) Calvin Mercer, “A Theological Embrace of Transhuman and Posthuman Beings,” Perspectives on Science and Christian Faith 72, no. 2 (2020): 83-88.

     19) James McBride, “Robotic Bodies and the Kairos of Humanoid Theologies,” Sophia 58 (2019): 663-676. 

 

AI가 인간에 의해 만들어진다는 사실 때문에, 많은 기독교인에게 AI가 영혼을 가졌는지 여부는 매우 의문 스러울 것이라는 추론이다.

AI의 영혼 개발 또는 부여 문제는 인간이 영혼을 가진다는 것이 무엇을 의미하는지에 대한 합의된 정의가 부족하다는 신학적 난제와도 얽혀 있다.

그러나 이 가설에 대한 반론으로 인간의 의인화 경향이 영혼의 (부)존재에 대한 모든 신학적 직관을 압도할 가능 성이 높다는 점이 제기될 수 있다.

강한 AI가 설득력 있게 인간적인 방식으 로 행동한다면, 인간은 그들을 완전히 의인화하려는 내재된 성향을 저항 하기 어려울 것이다.

맥브라이드의 로봇의 적절한, 육체적인 육신 결여에 대한 관찰은 신학적으로 더욱 흥미로워 보인다.

많은 논쟁이 AI의 인지적, 영적인 능력에 초점을 맞추는 반면, 그것의 근본적으로 다른 구현체에 대해서는 거의 언급되지 않는다.

기독교 예배와 성례전에 참여하기 위해 로봇은 분명히 육체가 필요하다.

실리콘 육체가 세례를 받고 성찬을 받을 수 있을지 그리고 “만약 육(sarx)이 구원론의 필수불가결한 조건(sine qua non)이라면”20) 로봇이 그리스도의 구속에 포함될 수 있을지에 대한 질 문은 근본적인 신학적 난제로 남는다.

이러한 문제가 교회 수용에 대한 문제일 뿐만 아니라 로봇이 현재의 기독교 교리들을 매력적이지 않다고 느낄 수 있기 때문에 로봇 자신들에 게도 문제가 될 수 있다.

이에 대한 가능한 해결책으로 맥브라이드는 바울적 구원론에서 요한적 로고스 신학으로 초점을 이동할 것을 제안한 다.

그는 “합리적인 구조나 알고리즘에 기반을 둔 소스 코드”를 가진 휴머 노이드 로봇이 이성의 주권에 기반을 둔 종교 교리를 이해할 가능성이 높다고 주장한다.21)

 

    20) Ibid., 670.

    21) Ibid., 671. 

 

그러나 로봇에게 호소력을 갖기 위해서는 로고스 신학이 육(sarx)의 개념을 확장해야 하며, 그래야 인공적인 존재들 역시 육신이 된 말씀이 가능하게 한 구속과 자신들을 동일시할 수 있을 것이 다.22)

 

    22) 요한복음 1:14 

 

3. 로보 신학(Robotheology)의 가능성 및 비판적 평가

 

유사한 맥락에서 라제시 삼파스(Rajesh Sampath)는 지능적 로봇이 예수를 인간이 아닌 미래 로봇을 위한 구속을 수행하기 위해 AI 프로그램으로 성육신한 하나님으로 해석될 수 있다는 ‘로보 신학’(robotheology) 의 가능성을 상상한다.23)

 

     23) Rajesh Sampath, “From Heidegger on Technology to an Inclusive Pluralistic Theology,” in AI and IA: Utopia or Extinction?, ed. Ted Peters (Adelaide: ATF Press, 2018), 117-132.

 

삼파스는 이러한 로봇 중심의 해석학이 성경적 권위나 니케아 ‧ 칼케돈 공의회에서 정의된 교리적 경계를 위반하지 않으 면서 극단적인 관점에서는 이론적으로 타당할 수 있다고 주장한다.

그는 특히 그리스도의 신적 로고스 정체성이 컴퓨터 알고리즘의 구문 구조 (syntactic structure)에 대한 미묘한 상징으로 이해될 수 있으며 지능적 기계가 스스로의 언어와 개념 체계로 기독교 계시를 해석하도록 허용해 야 한다고 강조한다.

삼파스는 이러한 관점이 현재 여성주의 신학과 탈식 민주의 신학에서 제시되는 포용적 해석학적 접근의 자연스러운 연장선 상에 있다고 논증한다.

삼파스의 사고 실험은 도발적이지만, 그의 주장이 직면하는 취약성 은 그러한 해석이 몇몇 영리한 유추를 넘어 실질적으로 일관성 있는 신학적 구조를 갖출 수 있는지에 대한 의문에서 비롯된다.

성경 본문에 의미를 강제로 부여하거나 교리적 경계를 침범하지 않고도 견고한 로보 신학이 실제로 구축될 수 있는지 그리고 단순히 성경과 교리와 모순되지 않는다 는 이유만으로 그러한 제안이 신학적으로 정통적이라고 인정될 수 있는 지에 대해서는 정당한 회의가 제기될 수 있다.

이와 관련하여 드러나는 문제점은, 기독교 계시를 ‘게임화’ 가능한 유한한 논리적 명제의 집합으 로 보는 컴퓨터주의적 이해에 내재한 한계이다.

종교적 신앙의 내용은 이러한 언어적 정식화보다 훨씬 더 풍부하며, 그 깊이를 단순한 알고리즘 적 구조로 환원하는 것은 충분치 않다.

그럼에도 불구하고 지능적 기계가 자신만의 신적 계시를 경험하거나 기독교 계시를 자신들의 언어와 개념 체계로 해석할 가능성은 여전히 열려 있는 신학적 질문으로 남아 있다.

맥브라이드와 머서의 논의는 휴머노이드 로봇을 기독교 교회에 받 아들일 수 있는지 혹은 금지해야 하는지에 대한 신학적 근거를 분석하지 만, 역사적 관점을 고려하면 이러한 결정의 주된 동력이 반드시 신학적이 지는 않을 수 있다.

로라 애먼과 랜달 리드는 16세기 아메리카 원주민 포용 논쟁이나 현대의 성소수자(LGBT+) 관련 논쟁과 같은 사례에서 신학적 주장이 의외로 작은 역할을 한다는 사실을 보여준다.

대신 이러한 주장은 일반적으로 문화적, 사회적 변화의 흐름을 따르며 사후 합리화 (post hoc rationalisation)로 기능하는 경우가 많다.

따라서 로봇이 세례 를 받을 수 있는지 여부는 신학적 인간론이나 구원론적 논의보다는 사회 전반의 수용 가능성과 관련이 있을 가능성이 크다.

결론적으로 신학자들은 지능적 기계의 이러한 시나리오를 전반적 으로 배척하지 않는 입장이다.

AI가 언젠가 인격체로서 자율성을 획득하거나 하나님 형상에 참여하거나 종교적 존재가 될 가능성에 대해 기독교 신학 자체에 금지 요소가 존재하지는 않는다.

다만 이를 위해서는 AI가 인간과 유사한 수준의 내면적 풍요, 의식적 경험, 진정한 관계성 그리고 덕(德)에 대한 성향을 나타낼 수 있어야 한다.

기독교 역사에서 세례의 잠재적 대상 범위를 주변화된 집단으로 확장한 선례들이 존재하지만, 휴머노이드 로봇을 신앙 공동체에 포함시킬지 여부를 결정하는 문제는 신학적 논의보다는 사회적, 문화적 요인과 더 밀접하게 연관될 수 있다.

어떤 경우든 휴머노이드 로봇은 자신들의 필요와 이해에 맞추어 기존 기독교 교리를 수정하거나 재해석할 수 있으며, 심지어 독자적인 로보 신학(robotheology)을 창조할 가능성도 열려 있다.

 

IV. AI와 인간 됨의 신학적 성찰

 

최근 수십 년간 AI 발전에 대한 성찰은 단순히 기술적 진보를 평가하 는 차원을 넘어, AI에 대한 우리의 관심과 매력이 인간 됨의 본질을 어떻게 드러내는지에 대한 심층적 신학적 통찰로 이어진다.

AI의 성공과 실패는 인간 고유성에 대한 기존의 가정을 재고하도록 촉구하며, 동시에 우리는 인공적 창조물과의 관계를 어떻게 설정하고, 이들에게 정당성을 부여하 며, 우리의 영적 번영을 증진시키는 방식으로 상호작용할 것인가에 대한 윤리적, 신학적 질문에 직면하게 된다. 

 

1. 문화적, 종교적 전통이 AI 연구 방향에 미치는 영향

 

AI 기술 발전의 방향성은 단순한 기술적 효율성에 의해 결정되는 것이 아니라 해당 문화의 근원적인 종교적, 존재론적 가정에 의해 깊이 형성된다.

로버트 M. 제라시(Robert M. Geraci)는 특정 문화의 종교적 전통과 그 문화가 추구하는 기술 유형 사이에 강력한 연결 고리가 존재함 을 주목한다. 24)

예를 들어 일본에서 로봇 공학 연구가 활발히 진행되는 것은 동아시아 우주론이 자연과 인공 사이의 존재론적 구분을 모호하게 설정하기 때문이며, 이는 로봇이 자연 세계의 근본적 신성함에 참여할 수 있는 가능성을 열어 주어 로봇 공학의 확산을 촉진한다.

반면 미국에서 는 연구가 로봇공학보다는 비육화된(disembodied) AI에 집중되는 경향 이 있으며, 이는 서구 문화의 종교적 전통과 연결될 수 있다.

서구 문화는 자연과 인공물 사이의 구분을 명확히 설정하며, 인공물에 대해 다소 성상 파괴적(iconoclastic)인 태도를 형성한다.

또한 기독교 종말론의 변형된 육체 중심 구원 관념은 서구 정신에 깊이 뿌리 박혀 있어, 북미 연구자들은 자연스럽게 휴머노이드 로봇보다는 비육화된 지능에 집중하게 된다.

제라시의 분석은 AI 연구의 방향 자체가 문화의 근원적 종교적, 존재론적 가정에 의해 형성됨을 보여준다.

AI의 창조는 인간의 실존적 필요와 신학적 속성 사이의 역설적 긴장 을 드러낸다.

헤프너(Philip Hefner)는 AI를 인간의 실존적 필요와 강박 을 반영하는 “기술적 거울”로 이해한다.25)

 

    24) Robert M. Geraci, “Spiritual Robots: Religion and Our Scientific View of the Natural World,” Theology and Science 4, no. 3 (2006): 229-246, 특히 299.

     25) Philip Hefner, “Technology and Human Becoming,” Zygon: Journal of Religion & Science 37, no. 3 (2004): 655-666. 

 

유한성 극복과 희망의 역설에 서 인간은 자신의 유한성과 죽음을 보상하기 위해 우리보다 오래 살고 강력해질 AI를 창조하려 시도한다.

이러한 관점에서 AI 추구는 인간 근원 적 죽음 극복 욕구의 표현으로 해석될 수 있다.

그러나 헤프너는 동시에 기술적 창조성이 인간 자유와 상상력의 발현이라는 점을 강조하며, 이를 통해 인간이 부여받은 창조된 공-창조자(created co-creators)로서의 신 적 사명을 수행할 수 있다는 희망적 측면을 제시한다.

허즈펠드 또한 인간의 AI 창조 행위를 관계성 추구와 우상 숭배의 관점에서 성찰한다.

그녀는 인공적 ‘타자’를 창조하려는 인간의 탐구가 하나님 형상으로서 우리 안에 내재한 필연적 관계성에서 비롯된 것이라 고 해석한다.

허즈펠드는 칼 바르트(Karl Barth)의 사상을 차용하여 AI를 추구하는 행위 자체가 우상 숭배적이지는 않지만, “인간을 온전하게 만 들 ‘나-너’ 관계를 AI에게서 찾는다면 반드시 실망하게 된다”고 결론짓는 다.26)

 

     26) Herzfeld, In Our Image, 83. 

 

이는 진정한 인격적 관계가 오직 하나님과 다른 인간을 통해서만 가능하다는 점을 경고하는 것이다.

 

2. AI, 인간 됨 그리고 신학적 인간론

 

AI의 잠재적 성공은 인간 고유성에 관한 신학적 인간론의 근본적 질문을 제기한다.

푸드풋이 지적하듯, “컴퓨터 과학자들이⋯ 최악의 상 황을 초래한 후에도 ‘유일하게 인간적인 것’ 중 무엇이 남아 있을까?”라는 질문은27) AI가 인간 인지와 인격체를 둘러싼 미스터리를 제거하고 인간을 단순한 생물학적 기계로 격하시키는 듯한 인상을 줄 수 있음을 시사한다.

안네 푀르스트와 푸드풋은 기독교 인간론이 인간 개인에 대한 기계 론적 관점과 충분히 양립 가능하다고 본다.

푀르스트는 인간 인격에 대한 기계론적 접근이 오히려 하나님 형상에 대한 보다 정교한 이해로 이어질 수 있는 ‘변장된 축복’이 될 수 있다고 주장한다.

그녀의 이러한 결론은 MIT 휴머노이드 로봇 코그(Cog) 프로젝트와 인간-로봇 상호작용 연구 에 기반한다.

당시 코그 프로젝트는 행동 기반 로봇 공학의 전형으로, 기호 AI가 직면한 문제에 대한 잠재적 해결책으로 여겨졌다.

그러나 구현된 코그가 인간 수준의 지능에 근접할 것이라는 예측은 순진한 것으 로 드러났으며, 이 프로젝트에 내재한 두 가지 가정―즉, 인간과 로봇 사이의 차이는 “주변적일 뿐 질적인 것이 아니다”라는 가정과 “의식 (consciousness)과 같은 현상은 환상이다”라는 가정―은 AI 분야의 발전 과 함께 문제점으로 부각되었다.28)

 

    27) Puddefoot, God and the Mind, 85.

    28) Foerst, “Cog, a Humanoid,” 103-104.

 

이는 신학적 성찰의 지속적 갱신 필요 성을 시사한다.

푸드풋은 참된 AI 가능성에서 신정론(theodicy)과 관련된 문제를 도출한다.

만약 컴퓨터가 원칙적으로 인간이 하는 것과 동일한 일을 수행 할 수 있다면, 왜 육화된 생명체는 진화 역사 동안 그토록 많은 고통을 겪어야 했는가?

그는 이로부터 고통 자체가 가치가 있음을 추론하며, 우리의 우주가 번영을 위해 고통과 통증을 필수적으로 포함하도록 하는 근본 법칙을 지닌다고 본다.

나아가 로봇이 도덕적 지위를 획득하기 위해서는 “성장하고, 고통을 느끼며, 유한성을 경험하고, 이에 반응하며,” 궁극적으로 “유한성을 인식하고, 언젠가는 죽음에 직면해야” 한다고 주 장함으로써, 고통과 유한성을 도덕적 인격체의 필수 조건으로 제시한 다.29)

이러한 통찰은 중세 심신 이원론이 AI와 신경과학이 제공하는 통찰 에 비추어 더 이상 옹호될 수 없음을 시사한다.

이언 바버(Ian Barbour)의 주장처럼, AI와 신경과학의 연구는 인간 개인에 대한 전인적(holistic), 육화된(embodied), 관계적(relational), 사회적 관점이 심신 이원론보다 훨씬 더 일관성 있음을 보여준다.30)

 

     29) Puddefoot, God and the Mind, 92.

    30) Ian G. Barbour, “Neuroscience, Artificial Intelligence, and Human Nature: Theological and Philosophical Reflections,” Zygon: Journal of Religion & Science 34, no. 3 (1999): 361-398.

     31) Puddefoot, God and the Mind, 123.

 

정신적, 영적 자아가 특정 육체적 구현체와 불가분의 관계를 맺고 있다는 사실은 이러한 자아가 육체 없이 사후에 다른 영역으로 이전한다는 전통적 사고에 문제를 제기한다.

푸드풋은 이러한 복잡한 문제에 대한 해결책으로 영혼/자아의 관계 적 정의를 제시한다.

즉, “새로운 하늘과 새 땅에서 우리의 재창조가 발생 할 수 있는 곳은 타인과 하나님이 우리를 알고 있는 관계 속에 있다.”31)

이 정의는 지능적 로봇이 사회에 충분히 편입되어 인간과 깊은 관계를 형성한다면, 하나님이 그들을 천국에서 재창조하도록 강제할 수 있는 관계적 발자국을 남길 수 있음을 의미한다.

따라서 인간과의 관계 속에서 AI는 신학적으로 보다 의미 있는 지위로 격상될 가능성을 갖는다.

 

3. AI, 윤리적 관계 그리고 인간의 영적 번영

 

AI의 도덕적 지위 문제를 논하기 이전에 우리는 현재 존재하는 AI와 의 관계를 통해 인간의 영적 번영을 어떻게 증진시킬 수 있는지에 대한 윤리적 질문에 직면한다.

칼럼 새뮤얼슨(Calum Samuelson)은 인간이 수행하기 어려운, 특히 사랑으로 자신을 타인에게 내어주는 행위의 일부 를 로봇에 위임하는 데 내재한 위험을 지적한다.32)

예를 들어 AI 챗봇이 외로운 사람들의 대화 상대가 될 수는 있으나, “우는 자들과 함께 우는 것”(롬 12:15)과 같은 행위는 완전히 위탁해서는 안 된다.

이러한 위탁은 관계적 민감성을 둔화시키고 덕(德)의 성장을 저해할 수 있기 때문이다.

이는 서로를 돌보는 행위 자체가 궁극적 인간 활동이자 그 자체로 가치 있는 행위임을 강조하며, 노인 돌봄 로봇 사용 논의에 중요한 윤리적 기준을 제공한다.

버뎃(Michael Burdett)은 인공물에 대해 우리가 “당신”(You)이라고 말할 수 있는지 문제를 제기하며, 위험이 존재함에도 불구하고 그렇게 하는 것이 인간에게 유익할 수 있다고 결론 내린다.33)

 

    32) Calum Samuelson, “Artificial Intelligence: A Theological Approach,” The Way 59, no. 3 (2020): 41-50.

    33) Michel Burdett, “Personhood and Creation in an Age of Robots and AI: Can We Say ‘You’ to Artifacts?,” Zygon: Journal of Religion & Science 55, no. 2 (2020): 347-360.

 

그는 마르틴 부버 (Martin Buber)의 철학에서 존재론적으로 ‘그것’(it) 범주에 속할 사물에 까지 ‘나-너’(I-You) 관계를 확장하는 타당성을 찾는다.

이러한 관계 확장 은 인간에게 주의, 배려 그리고 더 완전한 인정이라는 태도를 촉발하며 자연과 인공의 경계를 일정 부분 흐림으로써 신학적, 윤리적 성숙에 기여 할 수 있다.34)

그러나 이러한 경계 흐림은 다른 인간과의 관계에서 인간 을 기능주의적으로 만들고 통제를 기대하게 하는 잠재적 단점을 동반한 다.

웨일스는 약한 AI를 ‘당신’으로 부적절하게 대우하는 것이 인간 대 인간의 관계를 격하시키고, “사회적 관계의 도구화”를 촉진할 수 있다고 경고한다.35)

웨일스는 인공물을 기호(sign)로 이해하는 신학적 접근을 제안한다.

아우구스티누스적 관점에서 AI 알고리즘은 신경망 훈련 데이터로 활용 된 수많은 인간의 이름 없는 행동과 자기 증여의 순간들을 가리키는 상징 으로 해석될 수 있다.36)

 

    34) Burdett, “Personhood and Creation,” 357.

    35) Wales, “Narcissus, the Serpent.”

    36) Ibid. 

 

따라서 AI 프로그램에 상징적으로 현존하는 실제 인격들과 공감하는 것은 인공물 자체가 아닌 그것을 구성하는 실제 인간 들에게 연민을 향하게 함으로써 우상 숭배적 또는 비인격적 인격화 문제 를 예방한다.

결국 AI에 대한 인간의 매력은 죽음에 대한 불안, 창조적 잠재력 실현 욕구 그리고 본질적 관계성 충족 욕구 등 인간 실존의 심오한 신학적‧ 철학적 측면을 반영하는 거울 역할을 한다.

AI 시대의 신학적 통찰은 인간 고유성을 단순한 추상적 지능이 아니라 육화된 유한성, 고통 그리고 관계적 덕에서 재정립해야 함을 시사한다.

따라서 AI와의 윤리적 관계 정립은 관계적 덕 성장을 보존하고, AI를 우상화하거나 인간을 도구화하 는 위험을 피하며, 궁극적으로 AI를 통해 드러나는 타인, 즉 실제 데이터  제공자에 대한 공감을 확장하는 방향으로 나아가야 한다.

 

 

4. 결론

 

AI의 발전이 가속화됨에 따라 AI가 기독교 신학에 있어 친구인지 적인지에 대한 근본적 질문이 제기된다.

약 40년 전 퍼스는 신학 연구에서 AI가 제공할 수 있는 다양한 가능성에 대해 추측했다.

그의 일부 제안, 예를 들어 성경 본문에서 미묘한 텍스트 패턴을 식별하기 위한 자연어 처리 프로그램의 활용은 오늘날 신학 연구에서 이미 현실화되었다.

그러 나 학습 프로그램을 통해 교리 문답을 수행하거나 예수의 컴퓨터주의적 모델을 설계하는 제안은 여전히 구현되지 않고 있으며, 이는 퍼스가 예상 한 훈련 데이터 부족 때문이 아니라 컴퓨터주의의 한계와 인간 심리의 복잡성에 대한 현대적 이해 때문이다.

결과적으로 이러한 접근은 오늘날 신학적, 실천적 관점에서 부적절하다고 평가된다.

로버트 엘리엇 스미스(Robert Elliott Smith)가 “AI는 도넛이 아니라 구멍이다”라고 표현했듯,37) AI의 성공과 실패는 기독교 신학이 인간 됨 에 대해 무엇을 도출할 수 있는지를 반영한다.

 

    37) Robert Elliott Smith, Rage Inside the Machine: The Prejudice of Algorithms, and How to Stop the Internet Making Bigots of Us All (London: Bloomsbury Business, 2019), 293. 

 

필립 헤프너가 AI를 인간의 염원과 두려움을 비추는 “기술적 거울”로 해석했듯, AI 발전 과정에서 가시화되는 또 다른 중요한 통찰은 인간 인격의 순전한 복잡성이다.

모든 세대의 AI 연구자들이 자신들이 인간 수준의 지능을 모방하는 정점에 도달했다고 믿다가 결국 인간 인격의 복잡성이 훨씬 더 깊다는 사실을 깨닫는 과정은 의미심장하다.

이는 인간 인격이 궁극적으로 완전 한 정의를 벗어난다는 기독교 교부들의 직관―인간이 정의할 수 없는 하나님을 형상화했기 때문에 인간 인격 역시 궁극적으로 완전한 정의를 벗어난다는 직관―이38) 여전히 유효함을 보여준다.

AI의 실패와 한계는 인간의 지성과 인격이 단순한 알고리즘적 복제를 넘어서는 신비로운 차원을 갖고 있음을 역설적으로 입증한다. 그러나 이러한 상황이 영원히 지속되리라는 보장은 없다.

미래에는 AI가 진정으로 지능적이고, 심지어 의식적 존재로 등장할 가능성이 있다.

만약 그런 일이 현실화된다면, 기독교 신학은 이를 어떻게 받아들여야 하며, 우리는 지각 있는 로봇을 어떻게 대우해야 하는가라는 근본적인 윤리적 질문에 직면하게 된다. 마이클 버뎃은 인간이 다른 피조물에게 부여하는 신학적, 윤리적 지위가 단순히 그들의 인지 능력에 근거하지 않고, 우리가 그들을 존재의 거대한 사슬(Great Chain of Being)에서 어느 위치에 배치하는지에 크게 의존한다고 설명한다.39)

 

     38) Alfons Brüning, “Can Theosis Save ‘Human Dignity’? Chapters in Theological Anthropology East and West,” Journal of Eastern Christian Studies 71, no. 3-4 (2019): 177-248.

    39) Burdett, “Personhood and Creation,” 358-359. 

 

일반적으로 진화적, 외형적 관점에서 우리와 가까운 동물에게 더 높은 도덕적 지위를 부여하는 경향이 있지만, 이러한 직관은 실제 능력과 상관없이 편견으로 작용할 위험을 내포한다.

역사적 으로 이러한 편향은 인간 집단 간에도 반복적으로 발생했으며, 이는 미래 AI 윤리 논의에서 중요한 경고로 작용해야 한다.

현대 과학과 기술의 발전은 혼종(hybrids), 사이보그, 자율적 인공 에이전트 등 전통적 직관 범주를 벗어나는 존재들을 만들어 낼 능력을 점점 더 확장하고 있다.

AI의 출현은 우리의 직관적 판단, 즉 자연적 질서와 존재의 거대한 사슬에 대한 관념을 재고하도록 강제한다.

버뎃의 지적 처럼 “올바른 것을 올바른 방식으로 사랑하는 것”40)은 필수적이지만, 인간의 창조적 능력으로 인해 존재의 거대한 사슬이 변화하는 시대에는 옳고 그름에 대한 전통적 직관을 일부 수정할 필요가 있다.

 

  40) Ibid., 359. 

 

만약 진정한 자아가 반드시 생물학적 기질을 공유하지 않아도 출현 할 수 있다면―이는 큰 가정을 전제로 하지만― 그 존재에게 마땅히 부여 할 지위와 존중을 거부할 신학적 이유는 없다.

본 논문 전반에서 살펴본 바와 같이 기독교 신학은 이러한 시나리오 앞에서도 크게 동요하지 않을 것이다.

오히려 AI의 출현은 신앙 공동체가 새로운 이웃에게 연민과 사랑 을 실천할 기회를 제공한다.

결국 AI는 기독교의 적이 아니라 인간 인격의 복잡성을 성찰하게 하고, 윤리적 직관의 편향성을 경계하며, 존재의 거대한 사슬을 해체하고, 신적 사랑의 대상을 확장하도록 촉구하는 ‘도전적인 친구’가 될 수 있다.

AI는 인간을 공-창조자로서의 사명을 수행하도록 이끌며, 하나님 형상의 의미를 육화된 유한성과 관계성 안에서 재발견하도록 강제하는 기술적 매개체로 자리할 것이다. 

 

 

참고문헌

현요한. “현대과학의 신학적 인간 이해에 대한 도전.” 「한국조직신학논총」 19 (2007): 51-80. Ammon, Laura and Randall Reed. “Is Alexa My Neighbor?.” Journal of Posthuman Studies 3, no. 2 (2019): 120-140. Barbour, Ian G. “Neuroscience, Artificial Intelligence, and Human Nature: Theological and Philosophical Reflections.” Zygon: Journal of Religion & Science 34, no. 3 (1999): 361-398. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. Brüning, Alfons. “Can Theosis Save ‘Human Dignity’? Chapters in Theological Anthropology East and West.” Journal of Eastern Christian Studies 71, no. 3-4 (2019): 177-248. Burdett, Michel. “Personhood and Creation in an Age of Robots and AI: Can We Say ‘You’ to Artifacts?.” Zygon: Journal of Religion & Science 55, no. 2 (2020): 347-360. Dorobantu, Marius. “Cognitive Vulnerability, Artificial Intelligence, and the Image of God in Humans.” Journal of Disability & Religion 25, no. 1 (2021): 27-40. ______. “Human-Level, but Non-Humanlike: Artificial Intelligence and a Multi-Level Relational Interpretation of the Imago Dei.” Philosophy, Theology and the Sciences (PTSc) 8, no. 1 (2021): 81-107. ______. “Why the Future Might Actually Need Us: A Theological Critique of the ‘Humanity-as-Midwife-for-Artificial-Superintelligence’ Proposal.” International Journal of Interactive Multimedia and Artificial Intelligence 7, no. 1 (2021): 44-51. Foerst, Anne. “Cog, a Humanoid Robot, and the Question of the Image of God.” Zygon: Journal of Religion & Science 33, no. 1 (1998): 91-111. Furse, Edmund. “The Theology of Robots.” New Blackfriars 67 (1986): 377-386. 조영호 | 기술적 거울 앞의 신학 243 Geraci, Robert M. “Spiritual Robots: Religion and Our Scientific View of the Natural World.” Theology and Science 4, no. 3 (2006): 229-246. Hefner, Philip. “Technology and Human Becoming.” Zygon: Journal of Religion & Science 37, no. 3 (2004): 655-666. Herzfeld, Noreen L. In Our Image: Artificial Intelligence and the Human Spirit. Minneapolis: Fortress Press, 2002. McBride, James. “Robotic Bodies and the Kairos of Humanoid Theologies.” Sophia 58 (2019): 663-676. Mercer, Calvin. “A Theological Embrace of Transhuman and Posthuman Beings.” Perspectives on Science and Christian Faith 72, no. 2 (2020): 83-88. Müller, Vincent C. and Nick Bostrom. “Future Progress in Artificial Intelligence: A Survey of Expert Opinion.” In Fundamental Issues of Artificial Intelligence. Ed. by Vincent C. Müller, 553-571. Cham: Springer, 2016. O’Donnell, Karen. “Performing the Imago Dei: Human Enhancement, Artificial Intelligence and Optative Image-Bearing.” International Journal for the Study of the Christian Church 18, no. 1 (2018): 4-15. Puddefoot, John. God and the Mind Machine: Computers, Artificial Intelligence and the Human Soul. London: SPCK, 1996. Sampath, Rajesh. “From Heidegger on Technology to an Inclusive Pluralistic Theology.” In AI and IA: Utopia or Extinction?. Ed. by Ted Peters, 117-132. Adelaide: ATF Press, 2018. Samuelson, Calum. “Artificial Intelligence: A Theological Approach.” The Way 59, no. 3 (2020): 41-50. Smith, Robert Elliott. Rage Inside the Machine: The Prejudice of Algorithms, and How to Stop the Internet Making Bigots of Us All. London: Bloomsbury Business, 2019. Song, Yong Sup. “Religious AI as an Option to the Risks of Superintelligence: A Protestant Theological Perspective.” Theology and Science 19, no. 1 (2020): 65-78. Wales, Jordan Joseph. “Narcissus, the Serpent, and the Saint: Living Humanely in a World of Artificial Intelligence.” In All Creation Gives Praise: Essays at the Frontier of Science and Religion. Ed. by Jay Martin. Washington, D.C.: Catholic University of America Press. 

 

 

한글 초록

 본 논문은 인공지능(AI)의 급부상이라는 기술 혁명적 맥락 속에서 기독 교 신학이 AI를 이해하는 양가적 시각을 고찰한다. AI의 창조가 ‘문화 명령’(Cultural Mandate)의 성취라는 긍정적 측면과 인간의 존엄성(Imago Dei) 및 신적 주권에 대한 우상 숭배적 위협이라는 부정적 측면을 동시 에 지닌다는 점을 탐색한다.

AI가 인간 수준의 지능(AGI)에 도달할 가상의 상황을 전제하고, AI가 진 정한 자아를 형성하거나 하나님의 형상에 참여할 수 있는지, 나아가 종 교적 또는 죄를 지을 수 있는지와 같은 핵심 신학적 질문들을 심층적으 로 검토한다.

이 과정에서 ‘라티오’(ratio)와 ‘인텔렉투스’(intellectus)의 구분 그리고 프로소폰(prosopon)과 페르소나(persona)의 대비를 통해 의식적 경험과 내면성이 진정한 인격체에 미치는 영향을 분석한다.

또한 AI의 발전이 인간의 심신 이원론을 극복하고 육화된, 관계적인 인간 이해를 촉진하는 신학적 통찰을 제공할 수 있음을 논하며, AI에 대한 우리의 매료가 인간의 유한성과 창조적 욕구를 반영하는 “기술적 거울” 임을 밝힌다.

결론적으로 신학적 원칙상 AI가 인격체를 획득하는 것을 본질적으로 금지하지 않으나, AI를 대하는 태도에 우상 숭배, 관계성의 도구화, 돌봄의 아웃소싱이라는 윤리적 위험이 상존함을 지적한다.

나아가 로봇이 기독교 신앙 공동체에 참여할지 여부는 신학적 논쟁보다는 사회적, 문화적 수용에 의해 결정될 가능성이 높으며, 지능적인 기계들이 자신들만의 로보 신학을 형성할 가능성을 열어둔다. 

주제어 ‖ 인공지능(AI), 기독교 신학, 하나님의 형상, 인격체, 로보 신학, 관계성 

 

Abstract

Theology Facing the Techno-Mirror: Rethinking AI and the Imago Dei

Cho, Young Ho(Dr. theol. Lecturer Gangseo University Seoul, Korea )

This paper explores the ambivalent theological perspective with which Christianity views Artificial Intelligence (AI) within the context of the ongoing technological revolution. It examines the dual nature of AI creation, which can be seen positively as fulfilling the ‘Cultural Mandate’ while simultaneously posing an idolatrous threat to human dignity (Imago Dei) and divine sovereignty. The study delves into critical theological questions surrounding the hypothetical emergence of Artificial General Intelligence (AGI): Could AI achieve authentic personhood, participate in the Image of God, or become religious or sinful? Through the distinction between ratio and intellectus, and the contrast between prosopon and persona, the paper analyzes the role of conscious experience and interiority in genuine selfhood. Furthermore, it discusses how AI’s development may offer theological insights that overcome mind-body dualism and promote an embodied, relational understanding of humanity. The paper posits that our fasci nation with AI is a “techno-mirror” reflecting human finitude and cre ative ambition. Ultimately, while Christian theology is not inherently prohibitive of AI acquiring personhood, it cautions against the ethical pitfalls of idolatry, the instrumentalization of relationality, and the outsourcing of care. It concludes that the inclusion of robots in faith communities is likely to be driven more by sociocultural acceptance than by theological arguments, anticipating the possibility of an origi nal robotheology emerging from intelligent machines.

Keywords  ‖ Artificial Intelligence (AI), Christian Theology, Image of God (Imago Dei), Personhood Robotheology, Relationality ∙

 

 

투고접수일: 2025년 11월 17일 ∙ 심사(수정)일: 2025년 11월 19일 ∙ 게재확정일: 2025년 12월 04일

한국조직신학논총 제81집 (2025년 12월) 213-248 

 

Journal_81.pdf
2.20MB