* 교황님의 담화와 유용한 번역글 한 편을 싣는다
프란치스코 교황 성하의 제58차 홍보 주일 담화(2024년 5월 12일 *번역문 인용 출처-한국천주교중앙협의회)
인공 지능과 마음의 지혜: 온전한 인간 커뮤니케이션을 향하여
사랑하는 형제자매 여러분!
인공 지능 체계의 발전은, 제가 올해 세계 평화의 날 담화에서도 성찰한 주제로서, 정보와 커뮤니케이션 세계에 그리고 이를 통하여 사회생활의 일정 부분의 토대에 근본적인 영향을 주고 있습니다. 이러한 변화는 해당 분야 전문가들만이 아니라 모든 이에게 영향을 줍니다. 우리 대부분의 이해와 인식 능력을 넘어서는 활동과 잠재력을 갖춘 이 놀라운 혁신의 빠른 전파는 열광과 동시에 혼란을 가져오는 것임이 드러났습니다. 이는 필연적으로 인간 존재의 본성과 특수성, 그리고 인공 지능 시대에 ‘호모 사피엔스’(homo sapiens) 종(種)의 미래에 관한 더욱 심오한 질문들로 이어집니다. 어떻게 우리는 온전한 인간으로 남을 수 있고 또 이 문화적 변화가 선에 봉사하도록 이끌 수 있겠습니까?
마음에서 출발하기
무엇보다 먼저, 재앙에 대한 예측과 우리를 무력하게 만드는 그 영향력에 관한 생각은 제쳐 둘 필요가 있습니다. 로마노 과르디니는 한 세기 전에 이미 기술과 인류에 관하여 성찰했습니다. 과르디니는 우리에게, “사라져 버릴 운명인 아름다운 세상을 보존”하고자 “새로운 것”을 거부하지 말라고 촉구했습니다. 아울러 그는 예언자적으로 경고했습니다. “우리는 끊임없이 되어 감의 과정 안에 있습니다. 저마다의 길에서 우리는 …… 열린 마음으로 그러나 또한 그 안에 있는 파괴적이고 비인간적인 모든 것을 민감하게 느끼면서 이 과정으로 들어가야 합니다.” 그리고 이렇게 끝을 맺습니다. “이는 기술적, 과학적, 정치적 문제들입니다. 그러나 인간성에서 시작하지 않으면 이 문제들을 해결할 수 없습니다. 더욱 깊이 있는 영성과 새로운 자유와 내면을 선사받은 새로운 인간 유형의 모습을 갖추어야 합니다.”(Romano Guardini, Lettere dal lago di Como, Brescia 2022 5, 95-97)
오늘날 기술은 풍요로워져도 인간성은 빈약해질 위험이 있는 이때에 우리의 성찰은 인간의 마음에서 출발하여야 합니다.(이 담화는 “사람들을 있는 그 자리에서 그대로 만나 소통하기”(2021년), “마음의 귀로 경청하기”(2022년), “마음으로 말하기”(2023년)를 주제로 한 이전의 홍보 주일 교황 담화들과 연속선상에 있다) 현실을 바라보는 영적 관점을 갖추어야만, 마음의 지혜를 회복해야만, 우리는 우리 시대의 새로움을 읽고 해석할 수 있으며 온전한 인간 커뮤니케이션으로 가는 길을 재발견할 수 있습니다. 성경에서는 마음을 자유의 자리이며 삶의 가장 중요한 결정이 이루어지는 자리로 봅니다. 마음은 온전함과 일치의 상징이지만, 우리의 다양한 감정과 열망과 꿈도 불러일으킵니다. 무엇보다도 마음은 우리가 하느님을 만나는 내적 자리입니다. 그러므로 마음의 지혜는, 우리가 전체와 부분, 우리의 결정과 그 결과, 우리의 고결함과 취약함, 우리의 과거와 미래, 우리의 개성과 더 큰 공동체 안의 소속감을 한데 통합할 수 있게 하는 덕(德)입니다.
이러한 마음의 지혜는 그를 찾는 이들이 쉽게 발견하고 그를 사랑하는 이들이 쉽게 알아볼 수 있도록 자신을 드러냅니다. 마음의 지혜는 자기를 갈망하는 이들에게 미리 다가가며, 자기에게 맞갖은 이들을 스스로 찾아 돌아다닙니다(지혜 6,12-16 참조). 마음의 지혜는 충고를 기꺼이 받아들이는 이들(잠언 13,10 참조), 유순하고 듣는 마음을 받은 이들(1열왕 3,9 참조)과 함께합니다. 성령의 선물인 마음의 지혜는, 우리가 하느님의 눈으로 사물을 보고 관계와 상황과 사건을 이해하며 그 참된 의미를 발견하게 합니다. 이러한 지혜가 없다면 삶은 따분해집니다. 지혜의 라틴말 어원 ‘사페레’(sapere)가 명사 ‘사포르’(sapor)와 상통하듯, 삶에 ‘맛’(savour)을 더하는 것은 바로 지혜이기 때문입니다.
기회와 위험
이러한 지혜는 기계에서 찾을 수 없습니다. 과학 문헌에서 쓰는 좀 더 적확한 용어인 ‘머신 러닝’(machine learning)을 ‘인공 지능’이라는 용어가 이제 대신하게 되었지만, ‘지능’이라는 말의 사용 자체는 오해를 부를 수 있습니다. 기계가 데이터의 저장과 연결에서 인간에 비하면 한없이 큰 능력을 지닌다는 점은 분명합니다. 그러나 인간만이 그러한 데이터의 의미를 파악할 수 있습니다. 이는 그저 기계를 좀 더 인간적으로 보이게 하는 문제가 아니라, 전능(全能)이라는 환상이 불러온 최면에서 인류를 깨우는 문제입니다. 이러한 환상은, 우리 인간이 모든 사회적 유대 관계에서 분리되고 피조물인 자기 처지를 잊은 채 완전히 자율적이고 자기중심적인 주체라는 믿음에 기반합니다.
인간 존재는 자기 자신으로는 부족하다는 사실을 언제나 인식하고, 최대한 모든 수단을 이용하여 그 취약성에서 벗어날 길을 찾아 왔습니다. 팔의 연장 수단으로 사용한 선사 시대의 유물부터, 소통하는 말의 연장 수단으로 사용한 미디어를 거쳐, 이제 우리는 인간 사고를 보조하는 고도의 복잡한 기계도 만들 수 있게 되었습니다. 그러나 하느님 없이 하느님처럼 되고자 했던 원초적 유혹(창세 3장 참조), 곧 하느님의 선물로 거저 받은 것을 다른 이들과 함께 누리기보다 혼자만의 힘으로 움켜쥐고자 하는 유혹은 이 모든 도구를 남용하게 할 수 있습니다.
우리 마음이 기우는 데에 따라 손 닿는 모든 것이 기회가 되기도 위협이 되기도 합니다. 소통과 친교를 위하여 창조된 우리의 몸 자체가 공격의 도구가 될 수 있습니다. 마찬가지로, 우리 인류의 모든 기술적 확장은 사랑 가득한 봉사의 수단이 될 수도 있지만 적대적인 지배의 수단이 될 수도 있는 것입니다. 인공 지능 체계는 무지를 극복하고 서로 다른 민족과 세대 사이의 정보 교류를 증진하는 데에 도움을 줄 수 있습니다. 예를 들어, 인공 지능은 대대로 이어온 방대한 지식 기록 유산에 접근할 수 있게 하고 이를 이해할 수 있게 합니다. 또는 공용어를 사용하지 않는 개인들이 서로 소통할 수 있게 합니다. 그러나 그와 동시에 인공 지능 체계는, 부분 또는 전부 거짓인 이야기를 마치 참인 것처럼 믿고 공유하게 만들면서 현실을 왜곡시키는 ‘인지적 오염’의 수단이 될 수 있습니다. 이에 대하여, 오래 전부터 있어 온 가짜 뉴스(프란치스코, 2018년 홍보 주일 담화 “‘진리가 너희를 자유롭게 할 것이다’(요한 8,32) 가짜 뉴스 그리고 평화를 위한 언론”, 2018.1.24., 『가톨릭 교회의 가르침』 58호(2018), 한국천주교중앙협의회, 89면 참조)의 형태를 띤 허위 정보 문제를 생각해 보는 것으로도 충분할 것입니다. 오늘날에는 ‘딥페이크’(deepfakes)를 활용한 허위 정보의 문제, 곧 완벽하게 진짜 같아 보이지만 거짓인 영상의 제작과 유포(저 또한 그 대상이 된 적이 있습니다.) 또는 어떤 이의 목소리를 이용하여 그 사람이 결코 발언한 적이 없는 것을 말하는 음성 메시지의 제작과 유포라는 문제가 있습니다. 이와 같은 프로그램의 기저에 있는 시뮬레이션 기술은 어떤 특수 분야에서는 유용할 수 있지만, 우리가 타인과 그리고 현실과 맺는 관계를 왜곡하는 곳에서는 타락하게 됩니다.
인공 지능의 첫 물결인 소셜 미디어의 물결이 일기 시작한 때부터 우리는 그 양면성을 경험해 왔습니다. 인공 지능의 가능성뿐만 아니라 그 위험성과 이에 따른 병폐도 경험해 온 것입니다. 생성형 인공 지능의 두 번째 단계가 어떤 질적 도약을 보여 준다는 데에는 논란의 여지가 없지만, 그러하기에 잘못된 사람의 손에 들어가면 혼란스러운 상황으로 이어질 수 있는 수단들을 이해하고 평가하며 규제하는 것이 중요합니다. 인간의 지능과 기술로 생겨난 다른 모든 산물과 마찬가지로 알고리즘은 중립적이지 않습니다. 이러한 까닭에, 윤리적 규제의 모델들을 제시함으로써 예방 조치를 할 필요가 있습니다. 이는 인공 지능 체계의 사용에 따른 해롭고 차별적이며 사회적으로 부조리한 영향을 방지하기 위한 것입니다. 또한 다원성 감소나 여론 양극화, 획일적 사고 형성을 목적으로 하는 인공 지능 체계의 오용에 맞서기 위한 것입니다. 저는 “다양한 유형의 인공 지능의 개발과 사용을 규제하는 구속력 있는 국제 조약을 채택하고자 …… 국제 공동체가 함께 힘써 주기를”(프란치스코, 제57차 세계 평화의 날(2024.1.1.) 담화, 2023.12.8., 8항) 다시 한번 호소합니다. 그러나 인간의 모든 상황에서 그러하듯이 규제 그 자체로는 충분하지 않습니다.
인류 안에서 성장하기
우리는 모두 인류 안에서 그리고 인류로서 함께 성장하도록 부름받고 있습니다. 우리에게 주어진 도전 과제는 다민족, 다원주의, 다종교, 다문화의 복합적인 사회로 나아가기 위한 질적 도약을 이루는 것입니다. 우리는 커뮤니케이션과 지식의 이 새로운 수단들의 이론적 발전과 실제 사용에 대하여 신중하게 성찰하도록 부름받고 있습니다. 이 새로운 수단들이 지니는 선을 위한 큰 가능성에는, 모든 것을 추상적인 셈법으로 변환시켜 개개인을 데이터로, 사고를 기계적인 과정으로, 경험을 별개의 사례들로, 선을 이윤으로 환산시켜 버릴 위험이 따릅니다. 무엇보다 각 개인의 고유성과 역사를 부정해 버릴 위험도 있습니다. 현실의 구체성은 넘쳐나는 통계 데이터 안에 흡수되어 버립니다.
디지털 혁명은 우리에게 더 큰 자유를 가져다줄 수 있습니다. 그러나 디지털 혁명이 오늘날 ‘반향실’(echo chambers)이라고 일컫는 틀에 우리를 가두어 놓을 때에는 그렇지 않습니다. 이러한 경우, 정보의 다원성이 증대되기 보다 우리 스스로 혼란의 수렁에 빠져 시장이나 권력의 이익을 위한 먹잇감이 될 위험이 있습니다. 인공 지능의 활용이 집단 사고로, 검증되지 않은 데이터 수집으로, 집단 편집을 통한 책임 회피로 이어지는 것은 용납할 수 없습니다. 기계 운영에 아무리 유용하더라도 ‘빅 데이터’(big data) 안에서 현실을 묘사하는 것은 대인 커뮤니케이션을 방해하고 우리 인류 자체를 위협하여 결국 사물의 진리를 근본적으로 잃어버리게 만듭니다. 정보는 살아 있는 관계들과 분리될 수 없습니다. 현실 세계에 자리하고 있는 몸을 포함하는 이러한 관계들은 데이터뿐만 아니라 인간 경험의 상관관계도 아우르며, 얼굴과 그 표정을 알아차리는 감수성과 연민과 나눔을 필요로 합니다.
여기에서 저는 전쟁에 대한 보도와, 허위 정보의 대량 유포를 통하여 벌어지는 ‘병행전’(parallel war)을 떠올려 봅니다. 또한 자신이 직접 목격한 것을 우리도 볼 수 있게 취재하다가 다치거나 목숨을 잃은 모든 기자를 생각합니다. 아이들을 비롯하여 사람들이 겪는 고통을 직접 접할 때에야 우리는 비로소 전쟁의 부조리함을 인식하게 됩니다.
인공 지능의 활용은 커뮤니케이션 분야에 긍정적인 기여를 할 수 있습니다. 인공 지능의 활용이 현장에서 언론이 하는 역할을 없애지 않고 이를 뒷받침한다면, 커뮤니케이션의 전문성을 중요하게 여기면서 모든 전달자가 각자의 책임을 더 잘 인식하게 한다면, 그리고 모든 사람이 본분에 맞게 분별력을 가지고 커뮤니케이션 활동에 참여하게 한다면 그럴 수 있습니다.
현재와 미래를 위한 질문들
이와 관련하여 자연스럽게 많은 질문이 제기됩니다. 정보와 커뮤니케이션 분야에 몸담고 있는 종사자들의 전문성과 존엄성 그리고 전 세계 사용자들의 존엄성을 보호하려면 어떻게 해야 합니까? 플랫폼의 상호 운용성을 보장하려면 어떻게 해야 합니까? 디지털 플랫폼을 개발하는 기업이 전통 커뮤니케이션 매체의 편집자들과 마찬가지로 콘텐츠와 광고에 대한 책임을 받아들일 수 있게 하려면 어떻게 해야 합니까? 색인의 생성과 해제를 위한, 그리고 인물이나 의견, 역사, 문화를 제시하거나 지워버릴 수 있는 검색 엔진을 위한 알고리즘 작동 기준을 어떻게 해야 더욱 투명하게 만들 수 있습니까? 정보 처리의 투명성을 어떻게 보장합니까? 글의 친저성(親著性)과, 익명성의 방패 뒤에 숨은 출처의 추적 가능성을 어떻게 확인합니까? 이미지나 동영상이 사건을 묘사하고 있는 것인지 아니면 가상으로 만들어진 것인지 어떻게 분명히 알 수 있습니까? 출처들이 단 하나로 축소되어, 알고리즘을 기반으로 개발되는 단일 접근 방식을 조장하지 않도록 하려면 어떻게 해야 합니까? 다원성을 보존하고 복합적인 현실을 드러내는 데에 적합한 환경을 조성하려면 어떻게 해야 합니까? 이처럼 매우 강력하지만 엄청난 비용이 들고 에너지 소모적인 기술을 지속 가능하게 만들려면 어떻게 하면 됩니까? 이 기술에 개발도상국도 접근할 수 있게 하려면 어떻게 해야 합니까?
이를 비롯한 여러 질문에 우리가 어떤 답을 제시하느냐에 따라 앞날이 결정될 것입니다. 인공 지능이 정보 접근성에 기반한 새로운 사회 계급들을 만들어 낸다면 새로운 형태의 착취와 불평등을 야기할 수 있습니다. 아니면 이와 정반대로, 매우 체계적이고 다원적인 정보 네트워크 안에서 개인들과 민족들의 많은 요구를 인지할 수 있게 되면서 우리가 현재 겪고 있는 시대 변화에 대한 인식을 심화시키고 올바른 정보를 증진한다면, 인공 지능은 더 큰 평등으로 우리를 이끌 수 있습니다. 한편으로 우리가 새로운 종살이 형태의 망령을 엿볼 수 있다면, 다른 한편으로 우리는 더 큰 자유의 수단을 그려 볼 수 있는 것입니다. 선택받은 소수가 다른 이들의 생각을 좌우할 가능성, 아니면 모든 사람이 생각을 발전시켜 나가는 데에 참여할 가능성, 이 둘 중 하나입니다.
이러한 질문들에 대한 답은 미리 정해진 것이 아니라 우리에게 달려 있습니다. 우리가 알고리즘의 먹잇감이 될 것인지, 아니면 지혜를 기르는 데에 반드시 필요한 자유로 우리 마음에 자양분을 줄 것인지는 우리에게 달린 것입니다. 시간을 현명하게 사용하고 우리의 취약한 부분들을 포용할 때 지혜가 무르익습니다. 지혜는 세대 간에, 곧 과거를 기억하는 사람들과 미래를 내다보는 사람들 사이에 이루는 연대 안에서 자랍니다. 함께할 때에야 비로소, 우리는 식별하고 깨어 살피는 역량, 그리고 사물을 그 본연의 충만함에 비추어 바라보는 역량을 키울 수 있습니다. 우리 인류가 방향을 잃지 않도록 지혜를 구합시다. 지혜는 모든 것에 앞서 존재하였고(집회 1,4 참조), 깨끗한 마음들 안으로 들어가 그들을 하느님의 벗과 예언자로 만듭니다(지혜 7,27 참조). 지혜는 우리가 인공 지능 체계를 온전한 인간 커뮤니케이션에 봉사하도록 이끄는 데에 도움이 될 것입니다. (로마 성 요한 라테라노 대성전에서, 2024년 1월 24일, 프란치스코)
***
컴퓨터를 넘어-AI 시대의 인간: (*번역글, 글쓴이-Dr. Steven Umbrello, 글쓴이는 현재 토리노 대학에서 신기술과 그에 따른 윤리 연구 기관 책임자로 일하면서 인공 지능에 적용된 버나드 로너건의 신학을 연구하고 있다. *번역 원문과 위의 이미지 출처-https://www.wordonfire.org/, 2024년 3월 11일)
오늘날 인공 지능artificial intelligence(AI)은 대중의 상상력을 사로잡는 동시에 다른 한편으로 우리를 불안하게 한다. 이러한 이중성은 인간의 능력을 뛰어넘는 놀라운 속도와 정확성으로 복잡한 작업을 수행해내는 AI의 전례 없는 능력과 윤리적인 딜레마나 편견 사이에서 비롯된다.
AI를 둘러싼 이러한 기술적인 발전은 사회 안에서 AI의 역할에 관한 논쟁을 불러일으키고, 기계 학습과 미묘하고도 깊은 인간의 의식 사이에 존재하는 극복할 수 없는 심오한 차이를 직면하도록 우리를 몰아붙인다. 이러한 내용은 급속한 기술 발전을 배경으로 펼쳐지며 디지털 환경 안에서 정체성, 도덕성, 인간 상호 작용의 미래에 관한 물음들을 제기한다.
최근 제미니Gemini라고 부르는 구글의 새로운 대규모 언어 모델Large Language Model(LLM)을 둘러싼 논란이 헤드 라인을 장식하면서 소셜 미디어의 분노를 촉발했다. 차세대 모델인 제미니 1.5를 구현한 구글의 제미니 AI 쳇봇이 백인에 대한 인종 편견 논란을 불러일으킨 것이다. 이 AI는 요청을 받고도 백인의 이미지를 생성하지 않는다는 비판을 받았고, 이에 따라 소셜 미디어 플랫폼에서 열띤 토론이 이어졌으며, 대중으로부터 비판을 받았다. 이에 따라 구글은 쳇봇의 이미지 생성 기능을 급기야 차단하기에 이르렀다. 이러한 상황은 AI 개발자들이 인종, 대표성, 기술 등에 관한 광범위한 사회적 논의를 반영하면서 고정 관념이나 편견에 사로잡히지 않고 균형을 잡아야만 한다는 것에 어려움이 있었음을 시사한다.
이는 구글의 새로운 장난감에만 국한된 문제가 아니다. AI 기술이라는 것이 인간도 아니고 의식도 없으며 의도성을 지니고 있지 않는다는, 보다 광범위한 근본적 문제를 생각하게 하는 논쟁거리가 된다. AI 시스템은 알고리즘과 통계 모델을 통해 대규모 정보를 처리하기 위해 인간이 만들어낸 시스템일 뿐이다. AI 시스템은 학습된 정보를 바탕으로 패턴을 인식하고 예측하며 대답을 만들어낸다.
그리고 이렇게 만들어진 내용들은 그것을 만들어낸 인간의 숨은 의도를 감추면서 AI 탓으로 책임 소재를 바꾸어 사회에 큰 영향을 끼친다.(Narratives shift accountability…masking the deeply human decisions that shape AI’s impact on society.)
기본적으로 AI 시스템은 알고리즘이 특정 작업을 수행하도록 데이터를 학습하는 AI 하위 집합의 기계 학습을 사용한다. 이러한 학습에는 AI가 작업 수행과 관련한 패턴이나 특징을 식별할 수 있을 때까지 AI에게 예시를 제공하는 과정이 포함된다. AI가 더 많은 정보를 접할수록 AI의 응답이나 예측은 더욱 정교해진다. 그렇지만 이러한 통계적 접근 방식에는 인간 고유의 인지 능력, 곧 의식이나 의도 및 앞뒤 맥락을 파악하는 것과 같은 인간 능력의 깊이가 빠져 있다. AI의 결정은 데이터로 도출한 확률에 기반하므로 인간의 의식적인 사고나 윤리적인 고려와 같은 내용이 끼어들 자리가 없다. 기술 발전과 미묘한 인간 지능 능력 사이에는 커다란 갭이 있을 수밖에 없는 것이다.
인간과 인공 지능 사이의 격차
인공 지능의 분명한 한계와 알고리즘일 수밖에 없는 특성에도 불구하고 과학 잡지나 대중 매체에는 생각하고 의식하는 AI의 가능성을 암시하는 담론들이 넘쳐난다. 추리 소설이나 미래 기술에 대한 낙관적 전망을 등에 업고 인간과 같은 인식이나 의사 결정 능력을 갖춘 AI 관련 비전이 대중의 상상력을 사로잡는 것이다. 그렇지만 이러한 이야기들은 종종 기술의 자율적 능력을 과대평가할 뿐만 아니라 기술 개발자나 주요 이해 당사자들의 윤리적 책임까지도 면제해주는 기술적 결정론의 한 사례가 되곤 한다. 이러한 담론들은 AI의 진화가 불가피하고 인간의 통제를 벗어난다는 생각을 조장하면서 이러한 시스템을 개발하고 배포하는 기술자나 기업의 책임을 등한시하도록 하고, 나아가 AI를 통하여 사회에 영향을 끼치고자 모색하는 인간들의 깊은 의도나 결정들을 숨긴다.
순전히 통계와 패턴에 기반한 AI의 작동과는 반대로 버나드 로너간Bernard Lonergan(1904~1984년)의 의도적 의식 이론(theory of intentional consciousness)은 인간의 고유성을 더 잘 이해할 수 있도록 하면서 해로운 부정적 담론에서 벗어날 수 있도록 하는 틀 걸이를 소개한다.
버나드 로너간은 캐나다 출신 예수회 사제이자 철학자요 신학자로서 인식론, 신학, 그리고 경제학 분야에서 깊은 영향을 끼친 분이다. 그의 지적 유산은 방대하지만, 인간의 인지에 대한 탐구와 의도적 의식 이론의 개발로 가장 잘 알려져 있다. 로너간의 연구는 인간의 사고思考 안에서 이루어지는 인간의 이해, 의사 결정, 지식의 추구, 역동적이고도 자아 성찰의 본질을 강조하는 인지 모델을 제안한다. 그는 자기 이론을 통해서 인간이 세상과 소통하는 독특하고도 복잡한 방식을 설명하고자 하였으며, 인공 지능과는 대조적으로 인간 의식이 지닌 깊이와 복잡성을 강조하고자 하였다.
로너간은 데이터와 알고리즘을 바탕으로 작동하는 인공 지능 시스템과 달리 인간 존재는 의미를 추구하며 질문하고, 학습하며, 지속적으로 진화하는 과정에 참여하고자 한다고 주장한다. 그에게 인간의 의식은 근본적으로 존재 그 자체와 동형(同形, isomorphic)이다. 인간은 “의미로 매개되고, 가치로 동기를 부여받는 세계(in the world mediated by meaning and motivated by value)” 안에 존재한다. 이처럼 세상을 알고자 하며 그 안에 존재하고자 하는 인간의 의도적인 접근 방식은 인간 의식의 헤아릴 수 없는 깊이를 보여 주며, 인간의 정신(마음)과 인공 지능 간에 극명한 차이를 보여 준다.
버나드 로너간은 아르키메데스의 예를 통해 인간의 의도적 의식에 관한 네 가지 단계를 설명한다. 첫째는 체험(Experience)으로서 아르키메데스가 물의 배수량을 측정하는 것과 같은 물리적인 현상을 관찰하는 수준을 말한다. 둘째는 이해(Understanding)로서 관찰에 의문을 제기하고 합리적인 설명을 찾는 과정에서 자연스럽게 직관이 발생하고 유명한 원칙이나 원리로 이끌어가는 단계이다. 셋째 단계는 판단(Judgment)이다. 아르키메데스가 자기 이해의 타당성을 평가하면서 그것이 진정 현상을 정확하게 설명하고 있는지를 가리는 것이다. 마지막은 결정(Decision)으로 판단을 적용하는 단계이다. 이는 아르키메데스가 새롭게 발견한 지식을 실용적인 방식으로 어디에 어떻게 적용할지 결정하며, 이로써 AI의 통계적인 컴퓨터 작업과 달리 인간의 인지가 역동적이면서도 사려 깊게 발휘되는 순간이다.
AI는 자기의식, 통찰력, 의미 추구를 할 수 없으므로 근본적으로 인간의 인지나 의식과 분리된다. AI는 전례 없는 규모로 데이터를 분석하고 처리할 수 있지만 인간 사고思考의 특징이랄 수 있는 자기 성찰 의식이 없이 작동한다. AI는 인간의 비판적 사고나 자기의식에 내재한 특질이라고 할 수 있는 자기 존재, 목적, 행동에 대한 윤리적 함의에 의문을 제기할 능력이 부족하다.
나아가 AI는 인간과 동일한 방식으로 의미를 추구할 수 없다. 인간은 당면한 문제에 관한 해답을 찾을 뿐만 아니라 삶, 존재, 그리고 우주에 관하여 더욱 깊은 문제를 고민하기도 한다. 이러한 의미 추구는 인간 안에 내재한 호기심과 세상 안에서 우리의 존재 위치를 이해하려는 욕구에서 생겨난다. 그렇지만 AI는 개발자가 프로그래밍하고 목표를 설정한 범위 내에서만 작동하면서 미리 정해진 작업 범위를 넘어 지식이나 의미에 관한 진정한 탐구를 스스로 하지는 못한다. 우리는 우리와 비슷하다고 자주 우리를 속이는 쳇지피티(ChatGPT)나 제미니(Gemini)와 같은 AI 시스템과 연결될 때, 이 점을 늘 염두에 두는 습관을 갖도록 꾸준히 노력해야만 한다.
인간의 고유성에 관한 통찰
인공 지능을 개발하는 엔지니어들이 도달하고자 하는 정도와 관계없이 시스템의 구조나 설계 자체가 인간의 인지와 그 시스템 자체를 비교할 수 없게 만든다. 가톨릭의 가르침은 인간이 하느님의 모습을 따라 창조되었으며, 존엄성과 하느님과 관계를 맺을 수 있는 고유한 능력을 지녔다고 가르친다. 이러한 개념은 인간 개개인이 지닌 본질적 가치를 강조하는 것으로서 단순한 물리적인 존재를 초월하는 영적 자질에 주목한다. 인간은 AI와 달리 단지 정교한 기계가 아니라 영적인 본성을 지닌 존재로서 하느님, 그리고 타인과 교감할 수 있는 능력을 지녔으며, 피에르 떼야르 데 샤르뎅Pierre Teilhard de Chardin의 표현을 빌릴 때, “우리는 영적 체험을 지닌 인간 존재가 아니라 인간적인 체험을 지닌 영적 존재이다.(We are not human beings having a spiritual experience; we are spiritual beings having a human experience.)”
인간의 영적 본성과 AI의 기계적 본성 사이의 대비는 정도의 문제가 아니라 유형의 문제(not one of degree, but of type)이다. AI가 프로그램된 알고리즘의 범위 내에서 작동하지만, 인간 존재는 영성과 윤리적 인식의 렌즈를 통하여 삶을 체험한다. 이러한 영적 차원을 통해 인간은 자기 성찰에 관여하고, 초월을 경험하며, 물질적인 세상을 넘어 목적과 의미를 추구한다. 이러한 논의의 핵심에는 인간이라는 정체성과 도덕적 추론의 근거로 기능하는 생명과 의식의 원리인 비물질적인 영혼이 있다. 의식과 도덕적 자율성이 없는 인공 지능과 달리 인간은 자유 의지를 지니고 자신의 가치와 윤리적인 원칙을 반영한 선택을 스스로 할 수 있다. 이러한 도덕적 추론 능력은 인간의 영적인 본성과 불가분의 관계에 있으며, 결정론적으로 프로그래밍 된 AI가 절대 할 수 없는 방식으로 옳고 그름을 식별할 수 있도록 해 준다.
인간의 존엄성과 노동 가치의 상호 작용이 기술 발전의 최전선에 있어야만 한다.
로너건의 연구에서 보여 주는 인간 고유성에 관한 신학적 성찰은 인간의 인지와 AI 사이에 존재하는 차이를 여실히 보여 준다. 로너건은 의도적 의식에 관하여 인간 경험의 영적이며 성찰이라는 차원에 뿌리를 둔 인간의 이해, 판단, 진리 추구에 대한 깊이를 강조한다. 이러한 인간의 능력은 주관적인 경험과 도덕적 직관을 지닐 수 없는 AI가 아무리 고도의 계산 능력을 지녔다고 해도 복제할 수 없다. 이러한 이유로 신학적 관점은 그 어떤 기술적 발전을 들이댄다고 하더라도 AI가 인간 생명의 영적, 윤리적, 실존적 차원을 복제할 수 없다는 주장에 힘을 싣는다. 하느님의 모습에 따라 지어진 인간은 AI의 능력을 뛰어넘는 복잡성과 깊이를 구현하며, 창조 질서에서 인간의 고유한 자기 위치를 지니고, 우주 안에서 도덕적이며 영적인 구조로 그 누구나 무엇도 대체할 수 없는 역할을 한다.
AI의 역할과 사회
AI는 사회 안에서 다양한 분야의 효율성과 혁신을 향상하면서 상당한 가치와 유용성을 지니고 있다. 일상적인 작업을 자동화하고, 통찰력이 있는 데이터 분석을 제공하며, 기술 발전을 주도하여 경제 성장과 삶의 질을 향상하고 있다. 그러나 AI의 개발과 배포에는 윤리적인 고려가 무엇보다도 중요하다. 개인의 사생활이나 안전을 해칠 수 있는 잠재적인 가능성까지도 고려하여 AI가 공동선에 기여하고 개인의 권리나 사회적 불평등을 악화하지 않도록 세심하게 주의를 기울여야만 한다.
AI를 의인화하는 것은 AI의 능력에 대한 오해를 불러일으킬 뿐만 아니라 인간 존엄성을 간과할 수도 있는 미묘하면서도 심각한 위험을 초래할 수 있다. AI를 도덕적 판단이나 의식과 같이 인간의 속성을 지닌 것처럼 취급하다 보면, 도구와 존재 사이의 경계가 모호해지면서 인간 생명의 본질적 가치를 존중하고 지켜야 하는 윤리적 의무를 소홀히 할 수밖에 없게 된다. 사회가 AI 통합의 복잡성을 헤쳐나가는 과정에서 AI가 이룰 수 있는 기술적 경이로움과 인간 존재를 정의하는 대체 불가능한 인간 존재의 자질을 명확히 구분하는 것이 중요하다.
또한 AI의 윤리적 개발과 배포를 위해서는 책임감 있게 설계되고 공동선을 지향할 수 있도록 협력적으로 접근하는 방식이 반드시 필요하다. 이는 단순히 공정성, 투명성, 책임성을 증진하는 것을 넘어 위험을 줄이면서 AI가 객관적인 가치와 규범에 부합하도록 보장하는 데에 도움이 된다.
기술이 발전해 가면서 기술이라는 것이 인간의 능력을 대체하는 것이 아니라 보강한다는 점을 기억하면서 AI에 대한 과도한 의존을 경계하는 것이 중요하다. 인간 노동의 상호 작용에서 오는 그 가치와 존엄성은 기술 발전의 최전선에서 유지되어야 하며, AI가 인간의 경험을 감소하는 것이 아니라 향상하는 역할을 하도록 보장해야만 한다. 이러한 윤리적 고려와 잠재적인 위험을 인식하고 해결할 때라야 사회는 인간의 존엄성을 보장하고 정의롭고 공평한 세상을 조성하는 데에 AI의 이점을 활용할 수 있다.
기술 발전과 점점 더 얽혀 들어갈 수밖에 없는 현 세상을 살아가면서 인간의 의식과 인공 지능 사이에 무한한 간극이 존재한다는 사실을 기억하는 것이 중요하다. 이러한 인식은 기술을 인간의 존엄성을 훼손하는 기술이 아니라 인간의 존엄성을 인정하고 향상하는 기술로 더욱 신중하게 받아들일 것을 요구한다. 믿음, 소망, 사랑에 우리 인식의 닻을 내림으로써 기술과 함께 나아가는 우리의 여정이 인간의 경험을 더욱 풍요롭게 할 것이며, 또한 무엇보다도 인간의 삶이 지닌 복잡성과 대체 불가능한 깊이를 소중하게 여기는 사회를 건설할 수 있을 것이다.