교황 프란치스코 G7 인공지능(AI) 세션 참석

교황 G7에서 지도자들과 AI 논의, by MANDEL NGAN / AFP

 

 

 

 

*다음은 2024년 6월 14일에 이탈리아 보르고 에그나지아(풀리아)에서 행하신 교황님의 AI 관련 연설문 전문의 번역이다. 번역 원문(영어)은 바티칸 공식 사이트(아래 링크)에서 볼 수 있다.

https://www.vatican.va/content/francesco/en/speeches/2024/june/documents/20240614-g7-intelligenza-artificiale.html

흥미로우면서도 두려운 도구

존경하는 신사 숙녀 여러분,

저는 G7 정부 간 포럼의 지도자 여러분께 인공지능이 인류의 미래에 미칠 영향에 대해 말씀드리고자 합니다.

성경은 하느님께서 인간에게 “하느님의 영으로, 곧 재능과 총명과 온갖 일솜씨로 채워 주셨다.”(탈출 35,31)라고 증언합니다. 따라서 과학과 기술은 인간의 창의적 잠재력의 놀라운 산물입니다.

사실, 인공지능은 바로 이 하느님께서 주신 창의적 잠재력을 사용하여 생겨난 것입니다.

우리가 알다시피, 인공지능은 의학에서 노동 세계에 이르기까지, 문화에서 커뮤니케이션 분야에 이르기까지, 교육에서 정치에 이르기까지 다양한 인간 활동에서 사용되는 매우 강력한 도구입니다. 이제 그 사용이 우리의 생활 방식, 사회적 관계 및 인간으로서의 정체성 개념에 점점 더 큰 영향을 미칠 것이라고 가정해도 무방할 것입니다.

그러나 인공지능에 관한 질문은 종종 모호하게 인식됩니다. 한편으로는 그것이 제공하는 가능성에 대해 흥분을 자아내면서도, 다른 한편으로는 그로 인해 발생할 결과에 대한 두려움을 불러일으킵니다. 이와 관련하여 우리는 모두, 비록 정도의 차이는 있을지언정, 두 가지 감정을 경험한다고 말할 수 있습니다. 즉 우리는 인공지능이 가져올 수 있는 발전을 생각할 때 열광적이면서, 동시에 그 사용에 내재한 위험을 인식할 때 두려움을 느낍니다.

결국 우리는 인공지능의 등장이 진정한 인지 산업 혁명을 뜻하며, 이는 복잡한 시대적 변화를 특징으로 하는 새로운 사회 시스템의 창출에 기여할 것임을 의심할 수 없습니다. 예를 들어, 인공지능은 지식에 대한 접근의 민주화를 가능하게 하고, 과학 연구의 기하급수적인 발전을 가져올 수 있으며, 어려운 작업을 기계에게 맡길 수 있는 가능성을 제공할 수 있습니다. 그러나 동시에 이는 선진국과 개발도상국, 지배 계층과 억압받는 계층 간의 불공정을 초래할 수 있으며, ‘만남의 문화(culture of encounter)’보다는 ‘버리는 문화(throwaway culture)’가 우선시 될 위험한 가능성을 제기할 수도 있습니다.

이러한 복잡한 변화의 의미는 분명 인공지능 자체의 급속한 기술 발전과 연결되어 있습니다.

바로 이 강력한 기술 발전은 인공지능을 흥미로우면서도 두려운 도구로 만들면서, 이에 따라 인공지능이 제시하는 도전에 걸맞은 성찰을 요구합니다.

이와 관련하여, 우리는 인공지능이 무엇보다도 도구라는 인식에서 출발할 수 있습니다. 그리고 그것이 가져올 혜택이나 해악은 그것의 사용에 달려 있다는 것을 굳이 말할 필요도 없습니다.

이것은 분명한 사실입니다. 인류가 처음으로 도구를 만들었을 때부터 지금까지 그러했습니다.

양적으로 보나 복잡성으로 보나 생명체 중에서 유례를 찾아볼 수 없을 정도로 도구를 제작하는 인간의 능력은 테크노-인간이라는 점을 말해줍니다. 인간은 생산한 도구를 통해 점진적으로 환경과 관계를 맺어왔습니다. 인간과 문명의 역사를 도구의 역사와 분리하는 것은 불가능합니다. 어떤 이들은 이것을 인간이 지닌 일종의 결핍, 즉 인간이 기술을 창조해야만 했던 인간의 결함이나 한계로 읽으려고 했습니다. 그러나 신중하고도 객관적인 시각으로 보면 실제로 그 반대입니다. 우리는 생물학적 존재와의 관계에서 ‘외향성(outwardness)’ 상태를 경험합니다. 우리는 우리 밖에 있는 것, 즉 근본적으로 저 너머로 열려 있는 존재입니다. 우리가 열린 존재라는 이 사실에서 하느님과 타인을 향한 개방이 생겨나는 것이고, 문화와 아름다움에 대한 우리 지성의 창의적인 잠재력도 여기서부터 생겨나는 것입니다. 궁극적으로 우리의 기술적 역량도 이러한 사실에서 시작합니다. 따라서 기술은 미래를 향한 우리 방향성의 표시입니다.

그러나 우리의 도구 사용이 항상 선을 지향하는 것만은 아닙니다. 인간이 내면에서 초월을 향한 부르심을 느끼고, 형제자매와 우리 공동의 집인 지구를 위하여 선의 도구로 지식을 사용한다고 해도, 이것이 항상 그렇게 되지만은 않습니다. 근본적으로 자유를 지닌 인간은 종종 자신의 존재 목적을 부패시켜 스스로 자신과 지구의 적으로 돌변하기도 했습니다. 기술적 도구에도 같은 운명이 닥칠 수 있습니다. 인간을 위해 봉사한다는 진정한 목적이 보장될 때만 도구는 인간의 독특한 위대함과 존엄성뿐 아니라, 지구와 지구에 살고 있는 모든 이를 “일구고 돌보게”(창세 2,15) 하라는 사람으로서 받은 명령을 드러냅니다. 따라서 기술에 관해 이야기한다는 것은 인간됨에 대해 이야기하는 것이며, 따라서 자유와 책임을 지닌 존재로서 우리의 특별한 지위에 관해 이야기하는 것이 됩니다. 이는 윤리에 관해 이야기하는 것을 의미합니다.

사실, 우리의 조상들이 부싯돌을 갈아서 칼을 만들었을 때, 그들은 그것을 가죽을 잘라 옷을 만드는 데에, 그리고 서로를 죽이는 데에도 사용했습니다. 태양처럼 원자 융합에서 생성된 에너지와 같이 더 발전된 기술에도 같은 말이 적용될 수 있습니다. 태양 에너지는 청정, 재생 가능한 에너지를 생산하는 데에도 사용할 수 있지만, 우리의 행성을 잿더미로 만드는 데에도 사용될 수 있습니다.

인공지능은 훨씬 더 복잡한 도구입니다. 저는 우리가 일종의 우리 손 밖에 있는(sui generis) 독특한 도구를 다루고 있다고 말할 수 있습니다. 단순한 도구(칼과 같은)의 사용은 그것을 사용하는 사람의 통제하에 있으며 그것의 선을 위한 사용은 오직 그 사람에게 달려 있는 반면에, 인공지능은 할당된 작업에 자율적으로 적응할 수 있고, 이렇게 설계된 경우 의도한 목표를 달성하기 위해 기계 스스로 독립적으로 다른 선택을 할 수도 있습니다.

기계가 어떤 식으로든 새로운 방식으로 알고리즘 선택을 생성할 수 있다는 것을 항상 기억해야 합니다. 기계는 잘 정의된 기준이나 통계적 추론을 기반으로 여러 가능성 중에서 기술적인 선택을 합니다. 그러나 인간은 선택할 뿐만 아니라 마음에서 결정을 내릴 수 있습니다. 결정은 선택의 더욱 전략적인 요소라고 부를 수 있는 것이며 실질적인 평가를 요구합니다. 어려운 통치 임무 중에 때로는 우리가 많은 사람에게 영향을 미치는 결정을 내려야만 합니다. 이와 관련하여 인간의 성찰은 항상 지혜, 즉 그리스 철학의 어원이나 적어도 부분적으로는 성경의 지혜에 대해 말해왔습니다. 독립적으로 선택할 줄 아는 것처럼 보이는 기계의 경이로움에 직면했을 때, 때로는 극적이고 긴급한 상황이라 할지라도, 의사 결정은 항상 인간에게 맡겨야 한다는 점을 매우 분명히 해야 합니다. 인류가 자신과 자신의 삶에 대한 결정을 내릴 수 있는 능력을 빼앗아 기계의 선택에 의존하도록 운명 짓는다면 우리는 인류를 희망 없는 미래로 내몰게 되는 것입니다. 우리는 인공지능 프로그램이 내리는 선택에 대해 인간이 적절히 통제할 수 있는 공간을 보장하고 보호해야 합니다. 인간의 존엄성 자체가 여기에 달려 있습니다.

바로 이와 관련하여, 저는 주장하고 싶습니다. 무력 충돌이라는 비극을 고려할 때, 이른바 ‘치명적인 자율 무기(lethal autonomous weapons)’와 같은 장치의 개발 및 사용을 재고하고 궁극적으로 그 사용을 금지하는 것이 시급합니다. 이는 인간의 통제를 더욱 강력하고 적절하게 도입하기 위한 효과적이고도 구체적인 노력에서 시작됩니다. 어떤 기계도 인간의 생명을 빼앗는 결정을 내려서는 안 됩니다.

또한, 적어도 고급 형태의 인공지능을 올바르게 사용하는 것은 그것을 사용하는 사람이나 설계 당시 원래 목적을 정의한 프로그래머의 통제하에 있지 않을 것이라는 점을 추가해야 합니다. 이는 머지않아 인공지능 프로그램이 성능을 개선하기 위해 서로 직접 소통할 수 있는 가능성이 매우 크기 때문에 더욱 그러합니다. 과거에 단순한 도구를 만들었던 인류가 그 도구에 의해 삶의 형태를 결정하고 말았듯이 – 칼은 인류가 추위에서 살아남게 했지만, 전쟁 기술도 발전시켰습니다 – 복잡한 도구를 만들어낸 인간이 이제 그 도구에 의해 자신의 삶에 더더욱 많은 영향을 받게 되었습니다.

인공지능의 기본 메커니즘

이제 인공지능의 복잡성에 관해 간략하게 언급하고자 합니다. 기본적으로 인공지능은 문제 해결을 위해 설계된 도구입니다. 인공지능은 데이터 범주에서 대수 연산의 논리적 연결을 통해 작동합니다. 그런 다음 이 데이터를 비교하여 상관관계를 발견하기 위해 비교하여 통계적 가치를 향상합니다. 이는 추가 데이터 검색과 계산 과정을 수정하는 자가 학습 과정을 통해 이루어집니다.

인공지능은 특정 문제를 해결하기 위해 이렇게 설계되었습니다. 그러나 이를 사용하는 사람은 종종 인공지능이 제공하는 특정 솔루션에서 일반적이거나 심지어 인류학적인 추론을 도출하려는 저항할 수 없는 유혹을 느끼게 됩니다.

한 가지 중요한 예로서 판사가 가택연금 여부를 결정하는 데 도움을 주기 위해 고안된 프로그램의 사용을 들어보겠습니다. 이 경우 인공지능은 수감자가 같은 범죄를 다시 저지를 가능성을 예측하라는 요청을 받습니다. 이는 미리 정해진 범주(범죄 유형, 교도소 내 행동, 심리 평가 등)를 기반으로 예측하게 되므로 인공지능은 수감자의 개인 생활과 관련된 데이터(인종, 교육 수준, 신용 등급 등)에 접근할 수 있습니다. 이러한 방법론의 사용은 때로 사람의 미래에 대한 최종 결정을 사실상 기계에 위임할 위험이 있으며, 인공지능이 사용하는 데이터 범주에 내재한 편견을 암묵적으로 내포할 수 있습니다.

특정 인종 그룹에 속한다는 이유로, 또는 단순히 몇 년 전에 사소한 범죄를 저질렀다는 사실(예: 주차 벌금을 내지 않았다는 사실)로 가택연금 허가 여부가 실제로 영향을 받을 수도 있다는 것입니다. 그러나 실제로 인간은 항상 발전할 수 있으며, 자신의 행동으로 우리를 놀라게 할 수 있는 능력이 있습니다. 이는 기계가 고려할 수 없는 부분입니다.

제가 방금 언급한 것과 유사한 애플리케이션의 사용은 인공지능 프로그램이 인간과 직접 상호작용할 수 있는 능력(챗봇)을 점점 더 갖추게 됨에 따라 점점 더 빈번해질 것임을 유의해야 합니다. 이러한 프로그램들은 인간의 신체적 및 심리적 요구에 맞추어 개인화된 방식으로 반응하도록 설계되기 때문에, 이러한 상호작용은 대부분 즐겁고 안심할 수 있는 경험이 될 것입니다.

인공지능이 또 다른 인간이 아니며 일반적인 원칙을 제시할 수 없다는 사실을 잊는 것은 빈번하고도 심각한 실수입니다. 이러한 오류는 안정적인 형태의 동반자를 찾고자 하는 인간의 깊은 욕구 또는 무의식적인 가정, 말하자면 계산 메커니즘을 통해 얻은 관찰에 의심할 수 없는 확실성이나 의심할 수 없는 보편성을 부여한다는 가정假定에서 비롯된 것입니다.

그러나 이러한 가정은 계산 자체의 내재적 한계를 살펴보면 알 수 있듯이 무리한 가정입니다. 인공지능은 논리적 순서로 수행되는 대수 연산을 사용합니다.(예: X의 값이 Y의 값보다 크면 X에 Y를 곱하고, 그렇지 않으면 X를 Y로 나눕니다) 소위 ‘알고리즘’이라고 불리는 이 계산 방식은 객관적이지도 중립적이지도 않습니다. 게다가 대수를 기반으로 하기 때문에 수치로 형식이 갖추어진 현실만을 살펴볼 수 있게 됩니다.

또한 매우 복잡한 문제를 해결하기 위해 고안된 알고리즘은 너무 정교하여 프로그래머조차도 스스로가 결과에 도달하는 방법을 정확히 이해하기 어렵다는 점도 잊어서는 안 됩니다. 이러한 정교화 경향은 2진법 회로(반도체나 마이크로칩)가 아닌 매우 복잡한 양자 물리학 법칙에 따라 작동하는 양자 컴퓨터의 도입으로 더욱 가속화 할 것으로 보입니다. 실제로 더욱 향상된 고성능 마이크로칩의 지속적인 도입은 이미 이러한 기술을 갖춘 소수 국가가 인공지능을 지배적으로 사용하는 이유 중 하나가 되었습니다.

인공지능 프로그램이 제공하는 답변의 질은 정교하든 그렇지 않든, 궁극적으로 그들이 사용하는 데이터와 그 구조에 따라 달라집니다.

끝으로 소위 생성형 인공지능이 지닌 매커니즘의 복잡성이 명확히 드러나는 한 가지 마지막 영역에 관하여 언급하고자 합니다. 오늘날 지식에 접근하기 위한 훌륭한 도구들이 존재하며, 이는 다양한 분야에서 심지어 자가 학습과 자가 교육까지 가능하게 합니다. 우리 중 많은 사람이 어떠한 주제나 테마에 대해 텍스트를 작성하거나 이미지를 생성할 수 있는 손쉬운 온라인 애플리케이션에 깊은 인상을 받았습니다. 학생들은 특별히 이런 것에 끌리지만, 논문을 준비할 때 이를 제대로 사용하지 못합니다.

학생들은 종종 인공지능 사용에 대해 그들의 교사들보다 훨씬 더 잘 준비되어 있고 더 익숙합니다. 그러나 그들은 엄밀히 말해 소위 생성형 인공지능이 실제로는 “생성형”이 아니라는 사실을 잊어버립니다. 실제 생성이 아니라 빅 데이터를 검색하여 정보를 찾아내고 요구된 스타일로 이를 재구성한 것일 뿐입니다. 새로운 분석이나 개념을 개발하는 것이 아니라, 발견된 것을 반복하며 매력적인 형태로 만들어낼 뿐입니다. 그러면서 반복된 개념이나 가설을 더 많이 찾을수록, 그것을 더 합법적이고 유효하다고 간주합니다. 따라서 “생성형”이기보다는, 기존의 내용을 재정렬하고 재배치하여 통합하는 데 도움을 준다는 의미에서 “강화”라고 할 수 있으며, 오류나 선입견을 확인하지 않고 자주 정당화하게 되는 것입니다.

이런 식으로 가짜 뉴스를 정당화하고 지배적인 문화의 우위를 강화할 위험이 있을 뿐만 아니라, 결국 교육 과정 자체를 약화하고 맙니다. 교육은 학생들에게 진정한 성찰의 가능성을 제공해야 하는데도, 점점 더 반복된 개념의 반복으로 축소될 위험이 있으며, 이는 단지 그들의 지속적인 반복으로 인해 반대할 여지가 없는 것으로 평가되고 말 것입니다.

공유된 윤리적 제안의 빛으로 인간의 존엄성을 다시 중심에 두기

이미 말씀드린 것에 더해 좀 더 일반적인 관찰을 추가해야 합니다. 우리가 현재 살고 있는 이 기술 혁신의 시대에 사회생활에 관한 주요 문제들에 관하여 합의를 찾기가 점점 더 어려워지는 특별하고도 전례 없는 사회적 상황이 벌어지고 있습니다. 어떤 독특한 문화적 연속성을 지니고 있는 공동체에서도 격렬한 논쟁과 논란이 자주 발생하여 선하고 정의로운 것을 추구하기 위한 공동의 성찰과 정치적 해결책을 도출하기가 어렵습니다. 따라서 인류 가족 안에서 발견되는 정당한 관점의 복잡성 외에도 위에서 언급한 사회적 상황을 특징짓는 것으로 보이는 요인, 다시 말해서 인간적인 감각의 상실이나 적어도 그런 것이 보이지 않게 되는 상황, 인간 존엄성이라는 개념의 중요성이 현저히 감소하는 것으로 보이기도 합니다. 사실 우리는 서구 사회의 기본 개념 중 하나인 인간에 대한 가치와 그 깊은 의미를 잃어가고 있는 듯이 보입니다.

따라서 인공지능 프로그램이 인간과 인간의 행동을 시험하고 있는 이 시점에 이러한 시스템의 구현과 발전에 가장 위험한 것은 바로 인간의 가치와 존엄성에 대한 이해를 바탕으로 하는 윤리입니다. 사실 우리는 그 어떤 혁신도 중립적이지 않다는 것을 기억해야만 합니다. 기술은 어떤 목적이 있어서 생겨나는 것이며 인간 사회에 미치는 영향에 있어서 항상 사회적 관계의 질서와 권력 배분의 한 형태를 띠면서 어떤 특정한 사람들이 특정한 행동을 수행하도록 하고, 다른 이들은 이러한 행동을 하지 못하도록 막게 마련입니다. 더하거나 덜하거나 간에 이러한 기술이 지닌 기술 자체의 권력이라는 차원은 항상 기술을 발명하고 발전시켜 나가는 이들의 세계관이 분명히 담겨있게 마련입니다.

이는 인공지능 프로그램에도 마찬가지로 적용됩니다. 인공지능이 더 나은 미래와 선을 구축하는 도구가 되게 하려면 항상 모든 인간의 선익을 목표로 해야만 합니다. 인공지능은 윤리적 “영감(inspiration)”을 지녀야만 합니다.

윤리적 결정은 어떤 행동의 결과뿐 아니라 그 행동이 추구하는 가치와 그 가치에서 파생하는 의무를 고려하는 결정입니다. 그래서 저는 2020년 로마에서 체결된 “AI 윤리에 관한 로마 선언(Rome Call for AI Ethics)”, 그리고 알고리즘과 인공지능 프로그램의 윤리적 절제를 지원하는, 제가 “알고-윤리(algor-ethics)”라고 부르는 내용을 환영합니다. 다원적이고 세계적인 맥락, 다양한 민감성과 다양한 계층이 존재하는 상황에서 가치 척도를 두고 단일한 가치 척도를 찾는 것이 어려울 수 있습니다. 그렇지만 윤리 분석에서 우리는 다른 유형의 도구를 활용할 수도 있습니다. 하나의 세계 가치를 정의하는 것이 어렵다고 하더라도 우리는 어떻게 살아야 하는지에 대한 딜레마나 갈등을 해결해나가기 위한 원칙들을 공유해볼 수는 있습니다.

이것이 “알고-윤리”라는 용어와 함께 로마 선언이 탄생한 이유였습니다. 문화, 종교, 국제기구나 기술 개발에서 주요 역할을 하는 기업들의 지지를 얻을 수 있는 일련의 원칙들을 세계적이고 다원적인 플랫폼으로 압축하고자 하는 것이었습니다.

정치가 필요한 이유

인공지능의 근본 설계에 내재된 구체적인 위험을 숨길 수는 없습니다. 인공지능은 우리의 세계관을 숫자로 표현해내면서 그러한 현실과 사전에 정해진 범주로만 제한하여 다른 형태를 지닌 진리의 공헌을 배제하고, 균일한 인류학적, 사회경제적, 문화적 모델을 강요할 위험이 있습니다. 인공지능에 구현된 기술적 패러다임은 제가 이미 “기술관료적 패러다임(technocratic paradigm)”이라고 지칭한, 훨씬 더 위험한 패러다임이 될 위험이 있습니다. 우리는 인공지능이라는 강력하고 필수적인 도구가 이러한 패러다임을 강화하는 것을 허용해서는 안 되며, 오히려 인공지능을 그러한 확장을 방어하는 보루로 만들어야 합니다.

이것이 바로 정치적 행동이 시급히 필요한 이유입니다. 회칙 “모든 형제들(Fratelli Tutti)”은 “오늘날 많은 사람들은 일부 정치인들의 실수, 부패, 무능 때문에 흔히 정치를 불쾌한 표현으로 여깁니다. 또한 정치를 불신하게 만들고 경제로 대체하려 하거나, 하나의 이념이나 다른 이념으로 왜곡하려는 시도들이 있습니다. 그러나 정치 없이 우리 세상이 돌아갈 수 있습니까? 올바른 정치 없이 보편적 형제애와 사회 평화를 향한 효과적인 발전 과정이 이루어질 수 있습니까?”(모든 형제, 176항)라는 점을 상기시켜줍니다.

이러한 질문들에 대한 우리의 대답은 ‘No!’입니다. 정치는 필요합니다! 저는 지금, 이 순간 다시 한번 강조하고 싶습니다. “즉각적인 결과에 초점을 맞추는 정치적 계획은 소비를 추구하는 사람들의 지지를 바탕으로 단기적 성장만을 추구할 수밖에 없습니다. 정부는 선거권자들의 이해에 부응하여 소비 수준에 영향을 미치거나 해외 투자를 위협하는 조치로 국민들을 쉽사리 자극하려 들지 않습니다. … 정치적 위대함은 어려운 시기에 중요한 기본 원칙에 따라 국정을 운영하며 장기적 공동선을 배려하는 것에서 드러납니다. 국가적인 계획에서 정권이 이러한 의무를 다하는 것은 무척 어려운 일입니다.”(찬미받으소서, 178항) 지금과 미래 인류 가족을 위한 공동 프로젝트를 형성하는 데는 더욱 그렇다고 강조하고 싶습니다.

존경하는 신사 숙녀 여러분!

인공지능이 인류에 미칠 영향에 대한 저의 성찰은 우리가 미래를 희망과 자신감을 가지고 바라볼 수 있도록 “건강한 정치”의 중요성을 고려하게 만듭니다. 저는 이전에 “세계 사회는 단편적인 해결책이나 임시방편으로는 해결할 수 없는 심각한 구조적 결함으로 고통받고 있다”라고 쓴 적이 있습니다. 근본적인 개혁과 대대적인 쇄신으로 많은 것을 바꿔야 할 필요가 있습니다. 몹시 다양한 분야와 기술이 참여하는 건강한 정치만이 이 과정을 감독할 수 있습니다. 공동선을 지향하는 정치, 사회, 문화, 대중 프로그램을 통합하는 경제가 “인간의 창의성과 진보에 대한 꿈을 억누르는 것이 아니라 오히려 그 힘을 새로운 길로 이끄는”(찬미받으소서, 191항) 다양한 가능성의 길을 열 수 있습니다.

이것이 바로 인공지능의 상황입니다. 모두가 그것을 잘 활용해야 하지만, 그런 좋은 활용이 가능하고 열매를 맺을 수 있도록 여건을 조성하는 것은 정치의 책임입니다.

감사합니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다