올바른 인공지능 사용

*이미지-vaticanstate.va

2024년 12월 16일 ‘바티칸 시국 교황청 위원회’ 명의로 발표된 「인공지능 관련 지침(Linee Guida in materia di intelligenza artificiale)」이라는 문헌이 있다. 이 문헌은 <총론, 일반 원칙, 결론>이라는 3부로 나뉘어 15개 항(13쪽)으로 구성된다. (*문헌은 다음 링크에서 내려받을 수 있다: https://www.vaticanstate.va/images/N.%20DCCII.pdf)

오늘날 우리는 인공지능(AI)이 의료로부터 국가 관리, 여가 생활이나 놀이로부터 고용에 이르기까지 인간 삶의 모든 내용을 변화시키는 시대를 산다. 항상 조금은 느린 듯하지만 할 것은 반드시 하는 바티칸이 올바른 인공지능 사용에 관하여 가톨릭 가르침에 기반한 강력한 윤리적 틀을 제시하고 나섰다. 문헌은 세속적이거나 종교적인 기구들 모두에게 인공지능이 우리의 가장 깊은 가치들을 훼손하지 않으면서 인류에게 봉사할 수 있도록 하려면 어떻게 해야 할까?”라는 물음 아래 우리 사회가 고려해야 할 과제를 제시한다.

이미 발효되어 시행에 들어간 이 문헌은 기술을 하느님과 함께 하는 공동 창조의 노력으로 보면서 인간의 존엄성을 보존하고, 공동선을 보호하며, 창조 세계를 보살피는 방향으로 발전시켜가야 한다는 점을 밝히고, AI가 인간의 능력을 향상하도록 할 수는 있지만, 결코 인간의 창의성이나 자율성, 그리고 도덕적 책임을 대체할 수는 없다는 점을 상기하도록 한다.

바티칸의 지침은 기술이 인간 창의성의 산물이며 하느님께서 주신 선물임을 인정하는 데서 출발한다. 혁신적인 인공지능은 의료 진단이나 재난 대응과 같은 면에서 인간의 고통을 무수히 덜어주었다. 그렇지만 이러한 인공지능의 잠재력에는 가능성만큼이나 위험성도 함께 담겨있다. 인공지능이 제대로 통제되지 않으면 차별을 조장하거나, 사회적 취약 계층을 조작할 수 있으며, 인간을 인간답게 하는 인간의 자율성을 훼손할 위험이 있는 것이다.

이러한 도전에 대한 교회의 응대는 인간의 존엄성을 옹호해 온 교회의 오랜 전통에 바탕을 둔다. 프란치스코 교황의 회칙인 「찬미받으소서(Laudato Si’)」나 「모든 형제들(Fratelli Tutti)」에서 영감을 얻은 교회는 AI 윤리를 단순한 기술적 문제가 아닌 영적이고도 도덕적인 책무로 규정한다. 바티칸의 지침이 제시하는 핵심은 AI 개발이 인간 중심적(anthropocentric)이며, 공동선(common good)을 지향하도록 보장해야 한다는 기본 원칙을 담았다.

바티칸 AI 윤리 지침의 주요 원칙

1. 인간 존엄성Human Dignity: AI는 고유하고도 대체 불가능한 인간 각자의 존엄성을 존중하며 인간에게 봉사해야만 한다. 이러한 원칙은 AI가 편견을 유도하여 차별을 조장하거나 조작하며 특정 집단을 배제하기 위한 방식으로 사용되는 것을 금한다.

2. 투명성과 책임감Transparency and Accountability: 바티칸은 AI 시스템이 투명하게 운용되고 윤리적 감독을 받도록 요구한다. 예를 들어, AI를 통해 생성된 내용은 반드시 그렇다고 분명하게 표시하여 그 사용자들이 인간이 만든 것인지, 기계가 만든 것인지를 식별할 수 있도록 해야 한다.

3. 창조 세계 돌보기Stewardship of Creation: 바티칸 지침은 「찬미받으소서(Laudato Si’)」에 기반하여 환경을 보살피도록 강조한다. AI 시스템은 환경에 해를 까치지 않는 것뿐만 아니라 단기적 이익보다 장기적 생태 건강에 우선권을 두어 창조 세계를 적극적으로 돌보는 방식으로 사용돼야 한다.

4. 공동선The Common Good: AI는 소수 특권 계층만이 아니라 모든 이에게, 특별히 소외된 이들에게 혜택이 되어야 한다. 이 지침은 기술이 기존의 사회적 불평등을 심화하지 않도록 AI에 접근할 수 있는 제반 수단이 누구에게나 평등하게 제공되기를 바란다.

유럽 연합의 AI 윤리 지침과 바티칸 지침의 차이

앞서 2018년 12월에 유럽 연합에서도 <신뢰할 수 있는 AI 윤리 지침(Ethics Guidelines for Trustworthy AI)>의 초안을 발표한 바 있다.(*이 문서 역시 다음 링크에서 볼 수 있다: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai) 바티칸 지침은 ‘AI를 인간 창의성의 선물이자, 그 자체로 하느님께서 주신 선물(a gift of human creativity, which itself is a gift from God)’이라고 정의하면서도 기술이 남용될 때 잠재적인 조작, 차별화 조장, 취약 계층에 피해를 줄 위험 등이 있음을 경고한다. 이러한 인간 중심의 관점은 인간 중심의 AI 설계를 강조하면서도 민주적인 권리와 개인의 자율을 강조하는 유럽 연합의 지침과 대조를 보인다.

바티칸 지침은 목표로 삼아야 할 AI 실행의 한계를 제시할 뿐만 아니라, 가톨릭의 가르침을 훼손하거나 보편적 정의 원칙을 위배하는 AI 활용방식이 되지 않도록 명확한 윤리적 경계를 설정한다. 바티칸 지침은 다음과 같은 AI 애플리케이션을 명시적으로 금지한다:

– 사회적 차별을 조장하거나 불평등을 심화할 수 있는 AI

– 조작을 통하여 육체적이거나 심리적으로 사람들에게 피해를 줄 수 있는 AI

– 장애인을 배제하거나 인간 존엄성을 침해할 수 있는 AI

유럽 연합의 지침 역시 차별적인 AI 사용을 금지하고는 있으나 바티칸의 접근 방식은 이러한 금지를 신학적인 원칙과 연결하여 객관적인 근거를 마련함으로써 AI 사용이 교회의 사명과 교회가 추구하는 가치에 부합해야 한다는 점을 강조한다.

윤리적 감독과 책임

이상에서 언급한 내용을 어떻게 실행에 옮길 수 있을까? 바티칸의 AI 지침은 규정 준수 모니터링, 위험성 평가, 투명성 유지 등을 책임지고 담당하는 AI 위원회를 설립하여 윤리적 감독을 할 수 있도록 AI를 관리해야 한다는 점을 핵심으로 삼는다. 이는 유럽 연합의 책임성을 반영하는 것이기도 하지만, 바티칸의 지침은 기술을 통해 인간의 존엄성과 공동선을 지키고자 하는 교회의 사명을 반영하여 법적·사회적 차원을 넘어 윤리적·영적 의무에 관한 감독까지도 강조한다.

예를 들어, 바티칸의 지침은 의료 애플리케이션의 경우 환자가 진료와 치료 과정에서 AI가 수행한 역할을 분명히 알도록 관련자는 정보를 제공해야만 한다고 규정한다. 정보의 투명성과 환자의 자율성이 보장되어야만 한다는 것이다. 이 내용이 유럽 연합의 인간 주체성 및 감독의 원칙과 유사하지만, 바티칸 지침은 인간을 침해할 수 없는 신성한 존재로 보는 신학적 이해를 바탕으로 더욱 깊은 내용을 담았다고 하겠다.

마찬가지로 바티칸 지침은 AI 시스템이 사법적 기능을 대체하는 것을 엄격히 금한다. 바티칸 지침에 따를 때 법의 해석과 판단은 오직 유일한 권한을 지닌 인간 판사만이 담당해야 한다. 사법적 정의는 이성과 양심에 기반한 인간의 본질적 소명이기 때문이다. 이러한 원칙은 법의 조항만이 아니라 그 법에 담긴 의도와 정신까지도 보호해야만 한다는 것을 염두에 둔 것이다. 이러한 내용은 의사 결정 과정에서 AI 기술이 윤리적 기준뿐만 아니라 정신적·도덕적 차원을 지키도록 하기 위함이며 AI 알고리즘이 인간의 도덕적 책임을 무분별하게 대체하지 않도록 방지하는 것이 된다.

이러한 일련의 의미 있는 첫걸음 외에도 바티칸 지침은 AI 윤리를 「찬미받으소서(Laudato Si’)」와 확실하게 연결하면서 기술 혁신이 지속 가능성과 환경 지킴이를 지원하도록 촉구한다. 이는 사회적·생태적 복지를 위한 유럽 연합 지침의 노력과 일맥상통하면서도 창조 세계를 하느님의 선물로 보면서 이를 보살피고 보호하라는 소명이 인간에게 맡겨졌다는 비전 아래 더욱 풍성해졌다고 하겠다. 이러한 신학적 시각은 AI를 모든 피조물의 상호 연결성을 존중하면서 생태 위기를 해결하고 보살필 수 있는 잠재력을 지닌 도구로 보도록 장려한다.

더 넓게 말해서 바티칸 지침은 AI 윤리에 관하여 단순한 기술 규제 기준을 넘어 전 세계적인 논의에 신앙, 이성, 실천적 감독을 통합하면서 독창적이고 의미 있는 이바지를 하고 있다고 하겠다. 바티칸 지침은 기술이 사회를 형성하는 자율적인 힘을 가진 것처럼 보는 ‘기술 결정론(technological determinism)’이나 혹은 기술이 기술일 뿐 도덕적 가치와는 별개인 중립적 도구인 것처럼 보는 ‘도구주의(instrumentalism)’와 같은 기술에 관한 담론의 압박에 휘둘리지 않도록 경계해야 한다고 강조한다. 교회는 가톨릭 신자들이 새로운 기술을 비판적이면서도 건설적인 시각으로 바라보면서 그 기술이 지닌 해악이나 선의 잠재력을 인식하도록 촉구한다. 바티칸 지침은 신자들의 이러한 노력과 참여로 기술과 도덕 간의 대화가 활성화되고, 나아가 인간 중심의 윤리적 AI의 미래를 형성하는 데에 교회가 필수적인 목소리를 내면서 힘 있는 역할을 할 수 있게 될 것임을 역설한다.

문제점

이러한 바티칸 지침의 장점이나 참신함을 무릅쓰고, 특별히 기술 혁신과 교회의 윤리적 비전을 조화시키려는 가톨릭 기관에게는 이 지침의 이행에 따르는 실용적이면서도 철학적인 과제와 도전이 따른다. 무엇보다 자원 부족(resource constraints)은 가장 큰 도전이다. 많은 가톨릭 기관, 특별히 개발 도상국이나 작은 교구에 속한 기관들은 바티칸의 지침을 준수하고자 하여도 첨단 AI 시스템을 도입할 수 있는 재정적·기술적 역량이 부족할 수 있다. 예를 들어 지침이 요구하는 대로 AI 생성 콘텐츠에 투명성을 확보하고 이를 분류하여 라벨을 붙이고자 하더라도 여기에는 소규모 조직이 감당하기 어려운 고도의 전문 기술 지식과 인프라를 확보해야 한다는 어려움이 따를 수밖에 없는 것이다.

또 다른 도전 과제는 바티칸의 윤리적 틀과 세계적 기술 동향 사이의 긴장을 조정하는 문제이다. 인간의 존엄성과 도덕적 책임을 우선시하는 바티칸의 인간 중심적·신학적인 관점과 많은 기술 기업들의 실용주의적·이윤 중심적인 접근 방식 사이에는 자주 대조적인 긴장이 따를 수밖에 없다. 이는 특히 AI 도구가 상업화되고 효율성이 강조되는 의료 산업과 같은 분야의 협력이나 통합 과정에서 충돌할 가능성이 있다. 마찬가지로 잠재의식 조작이나 차별화를 조장하는 관행을 명시적으로 금지하는 바티칸의 지침은 일반적으로 행동 추적(behavioral tracking)이나 알고리즘 프로파일링(algorithmic profiling)을 활용하는 데이터 기반 산업에서 큰 충돌을 불러올 수 있다.

전망

이러한 도전들에도 불구하고 바티칸이 세계 AI 윤리 분야에서 도덕적 지도력을 발휘할 중요한 기회들은 분명히 있다. 거대 IT 기술 기업인 마이크로소프트나 IBM 등과 협력하여 2020년에 ‘AI 윤리를 위한 로마 선언(The Rome Call for AI Ethics)’을 이끌어냈던 것은 다양한 분야의 이해 관계자들이 모여 새로운 기술인 AI의 윤리적 영향에 관하여 논의하도록 촉진했던 바티칸의 역량을 여실히 보여준 기회가 되었다. 이는 또한 유럽 연합의 <신뢰할 수 있는 AI 윤리 지침(Ethics Guidelines for Trustworthy AI)>과 같은 세속적 윤리 틀이 투명성(transparency), 책임성(accountability), 공정성(fairness) 등 교회의 윤리적 틀과 일치하는 영역에서 바티칸이 어떻게 하면 더욱더 넓은 영향력을 행사할 수 있는 잠재력을 지녔는지 다시 생각하게 한다.

AI가 사회 전반에 더욱 널리 퍼져나가고 있는 상황에서 가톨릭 신자들은 AI에 관한 대화나 논의에서 신앙의 목소리를 낼 독특한 기회를 얻는다. 바티칸 지침은 하나의 기초를 제공하지만, 그 지침이 지닌 진정한 힘은 원칙을 제시하는 것에서 그치지 않고 그 지침의 내용을 따라 우리 가톨릭 신자들이 살아내고 실천하는 것에서 발휘된다. 더 넓은 세상을 보면서 인간의 존엄성을 수호하고, 공동선을 옹호하며, 책임 있는 혁신을 통해 창조 세계를 보살피는 것이야말로 AI 시대에 우리 신앙 공동체가 살아야 할 사명이요 몫이다.

(*이 글은 「AI에 관한 바티칸 윤리 지침이 주는 교훈Lessons from the Vatican’s AI Guidelines」이라는 제목으로 wordonfire.org 온라인 잡지에 2025년 2월 6일자로 Steven Umbrello 박사가 게재한 기사를 바탕으로 하였음을 밝힙니다. https://www.wordonfire.org/articles/lessons-from-the-vaticans-ai-guidelines/에서 원문을 확인할 수 있습니다.)

※ 참고로, ‘교황청 AI 연구 그룹’이 쓴 책을 <인공지능과 만남윤리적 인간학적 탐구>라는 제목으로 2025년 1월에 수원가톨릭대학교 출판부가 발행한 우리말 관련 도서를 소개한다. 이 책은 AI에 관심을 두고 공부하려는 이, 특별히 가톨릭 신앙을 가진 연구자들을 위한 본격적인 우리말 문헌 중 하나라고 할 수 있다. 책의 목차: 「1장 AI 윤리에 대한 접근법 / 1부 인간학적 탐구 / 2장 AI와 인간 / 3장 의식, 관계성과 지능의 필요조건 / 4장 인간처럼 보이는 AI와 만남 / 5장 AI와 우리의 하느님과 만남 2AI에 대한 윤리적 과제 6장 AI와 가톨릭 사회교리 / 7장 현대 삶에서 AI의 가능성과 위험성 / 8장 AI 미래를 위한 권고」

3 thoughts on “올바른 인공지능 사용

  1. 새로운 미래 사회가 전
    두렵습니다.
    변화에 슬기롭게 대처하는
    자세로 마음 돌리고 실행하기가
    전 조금 더디고 늦어서.
    첨단 세계에는 가장 늦게 발 디딤을
    해 온 절
    고백합니다.
    교사는 옛것도 충분히 잘 살펴 사용하고
    미래도 의연하게 준비해야 함을
    깨닫는 것도 퇴직 무렵에야 절감합니다.

  2. 좋은 글, 감사합니다. 특히, 박자가 느려도 *할 일*을 하는 가톨릭 교회에 대한 언급 & 자성섞인 말씀… 감동입니다.

    끝머리에 소개하신 책에 대한 소견을 조금 남겨보고 싶네요.

    영어본에는 책에서 번역한 ‘자기 증여’를 Self-Giving으로 표현하고 있는데, 이를 좀 더 성찰하고 탐구해보면 참으로 이 번역본의 *백미*중 *백미*에 해당하는 부분이라 생각합니다.(*참고. 영어본에서 ‘Self-Giving’이라는 말은 각주까지 포함하여 9회 정도 사용되고 있음)

    AI를 모르는 이가 이를 썼다면 인공지능이 스스로 자기를 내어주는 행위자체가 불가능하다는것을 잘 알기에 이 단어를 선택했을터인데, 이는 실로 교회의 신학 & 철학을 하신 관점에서만 나올 수 있는 아주 심오한 단어선택이라 생각합니다. 그런데, 이것을 개떡처럼 쓰지도 않은 이 말을 어쩜 저리 *찰떡*처럼 표현하여 국문으로 바꾸셨는지… 이 리노 주교님 & 번역하신 수원교구 신부님들의 더 깊은 통찰력이 돋보입니다.

    인공지능을 그냥 알아 읽는 부분과, 알면서 읽을때 그 *어감*의 차이가 분명 존재할 터인데… 참으로 백미중 백미라 생각합니다. 만일, 이 책이 제게 맡겨져 번역하라 했다면…. ‘스스로 내어줌’ 정도로 번역했을 터인데, *자기 증여* vs ‘스스로 내어줌’ 이 주는 어감적, 철학 & 신학적 사고의 깊이는 분명히… 어마무시한 차이로 독자들에게 다가왔을겝니다.

    인공지능의 거대 지침서-격으로 출간된 저 책을 더 홍보하는 것도 교회가 할 일 중 하나가 아닐까… 사료되네요~

    다시금, 좋은 글 & 소개.. 교황청의 AI 관련 움직임이 활발 & 적극적으로 변한 모습에.. 안도의 한숨을 내쉬게 됩니다.

    벤쥐~~신부님 쫭쫭~쫭~~~이예요~!!

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다