AI를 대하는 인간의 자세와 태도

(*번역글, 글쓴이-Dr. Steven Umbrello, 글쓴이는 현재 토리노 대학에서 신기술과 그에 따른 윤리 연구 기관 책임자로 일하면서 인공 지능에 적용된 버나드 로너간의 신학을 연구하고 있다. *번역 원문과 이미지 출처-https://www.wordonfire.org/, 2024년 4월 25일)

이 글은 버나드 로너간Bernard Lonergan의 철학적 지평 안에서 일상생활 안에서 인공 지능이 갖는 실질적인 의미에 관한 고찰이다. 우리는 앞서 인간 의식과 AI 사이의 비교할 수 없는 간극을 탐구해보는 것으로부터 1) 인간 인지의 독특하고도 복제가 불가능한 측면을 강조하고자 했다. 그리고 공동선을 위하여 이러한 차이를 인정하고 존중하는 것이 중요하다는 점을 강조하면서(참조. 컴퓨터를 넘어-AI 시대의 인간 http://benjikim.com/?p=8999) 2) AI의 윤리적 설계에 대해 논의하였다. 이 소고에서는 3) AI 시스템과의 상호 작용을 생각하면서 로너간이 이야기하는 ‘주의 깊게(be attentive), 지성적으로(be intelligent), 합리적으로(be reasonable), 책임감 있게(be responsible), 사랑으로(be in love)’라는 5가지 초월론적인 원칙들을 거론하고자 한다.

이러한 원칙들은 인간 인지의 역동성과 세상에 대한 우리의 윤리적 참여를 이해하는 데에 핵심이 되고, 인간에 대한 존엄성과 공동선을 염두에 두고 AI 접근에 교훈적인 뼈대를 제공한다. 이러한 기본 원칙들을 바탕으로 AI의 사용과 개발에 임함으로써 더욱더 윤리적이고 책임성이 있으며 인간 중심적인 AI와의 사회적 통합을 향한 길을 모색할 수 있을 것이다.

버나드 로너간의 이러한 가르침은 세상과 소통하는 데에 있어서 성장과 이해, 그리고 윤리적 행동을 지원하는 방식이 되는 기본적인 초월론적 원칙들이다. 이러한 원칙들은 인간이 맞닥트리는 현실에 관하여 인지하고, 이해하고, 평가하고, 관여를 결정하는 역동적인 과정을 설명하고자 하는 로너간의 의도적 의식 이론에 포괄적인 바탕을 둔다. 로너간의 철학적 탐구 핵심은 로너간이 ‘알고자 하는 무한한 욕구(unrestricted desire to know)’, 즉 진리와 선을 향한 욕구라고 부르는 인간의 인지와 깊이 얽혀 있는 구조적이면서도 유동적인 과정으로서 인간의 인지를 이해하는 것이다.

다섯 가지의 초월론적인 원칙들을 살펴보도록 하자.

주의 깊게(Be Attentive)’는 우리의 체험들에 관하여 의식적인 인식을 요구하면서 우리가 접하는 정보와 감각에 온전히 몰입할 것을 촉구한다. 이러한 주의력집중의 형태는 세상을 인식하고 그 세상과 상호작용하는 능력의 토대를 형성하여 이후 모든 인지 활동의 토대가 된다.

지성적으로(Be Intelligent)’는 단순한 데이터의 수집을 넘어 우리의 체험에 내재된 의미, 관계, 가능성을 파악하기 위해 이해와 통찰력을 추구하도록 부추긴다. 이 원칙은 창의성, 문제 해결, 그리고 새로운 지식 창출을 위한 인간의 역량을 촉진한다.

합리적으로(Be Reasonable)’는 비판적 평가와 판단의 중요성을 강조한다. 이 원칙은 우리의 이해와 통찰력을 증거와 이유를 배경으로 평가하도록 유도하며, 어떤 명제들이 근거가 있고 없는지를 식별함으로써 우리가 진리로 나아가도록 안내한다.

책임감 있게(Be Responsible)’는 윤리적 의사결정과 행동에 있어 인지 과정의 정점을 반영한다. 이는 우리가 우리의 주의력, 지성, 합리성에 기반하여 선택하도록 하며, 도덕적이고 정의로우며, 공동선에 기여하는 행동의 필요성을 강조한다.

마지막 사랑으로(Be Loving)’는 앞의 원칙들을 요약하고 초월하면서 사랑을 인간의 인식과 행동의 궁극적인 동기와 목적으로 자리매김한다. 이는 자기를 내어주고 타인을 배려하면서 나 자신과 타인에게 진정한 선을 찾아주려는 지향을 의미한다.

AI의 맥락에서 이러한 원칙들은 인간의 인지와 AI의 기계적인 계산 과정 사이의 질적인 차이를 돋보이게 한다. 인간의 독창성이 만들어낸 AI는 데이터 분석(체험), 패턴 인식(이해), 프로그래밍 된 작업 수행(결정)과 같은 인간의 인지 과정을 흉내 낼 수 있는 측면이 있다. 그러나 AI는 자기 인식, 도덕적 추론, 인간의 인지에 담긴 선의 추구를 위한 본질적인 능력이 결핍되어 있다. AI 시스템은 위에서 언급한 인간의 지성적, 윤리적 참여의 기본이 되는 초월적 원칙들을 스스로 적용하거나 구현할 수 있는 능력이 없이 제작자가 설정한 매개 변수 내에서 작동한다.

AI 디자이너들에게는 앞서 언급한 원칙들을 AI 기술 활용을 위한 뼈대로 적용해볼 수 있는 도전과 기회가 될 것이다. 보다 구체적으로 이러한 원칙들은 윤리적 상호 작용을 위한 지침이자 매혹적이지만 유독성을 지니고 있는 기술 결정론이라는 담론에 맞서는 보루 역할을 한다. 구글이나 마이크로소프트와 같은 거대 기술 자본은 기술의 발전과 그 결과가 어쩔 수 없는 것이라면서 개발자들의 책임을 면제해주는 동시에 이러한 기술을 사용하는 이들에게 AI가 인간의 인지에 상응하거나 우월하다고 믿도록 오도하는 이데올로기를 펼치곤 한다. 이러한 담론은 AI의 본질적인 한계를 모호하게 할 뿐만 아니라 기술을 추구하는 이들이 지닌 인간의 주체성과 도덕적 책임에 대한 인식을 약화하고 만다. 로너건의 인간의 의도적 의식에 관한 이해를 받아들이는 것은 AI 시스템이 실제와는 다른 존재이며, 인간의 의식에 상응하거나 혹은 더 나은 존재라는 기만으로부터 우리를 보호할 수 있는 좋은 길이다.

AI의 디자이너와 사용자는 앞서 언급한 다섯 가지의 원칙들을 준수함으로써 AI에 관한 보다 비판적이고 사려 깊은 접근 방식을 기를 수 있다. 이러한 사고방식은 AI 기술의 윤리적 영향에 관하여 질문하고 평가하도록 촉진하며, 개발자들에게 자신의 창작물이 사회적·도덕적으로 끼치는 영향에 대해서 책임을 져야 한다는 책임 문화를 조성한다. 또한 사용자들이 분별력을 가지고 AI를 활용할 수 있도록 지원함으로써 AI가 인간이 만든 도구로서 인간의 결점과 편견에 영향을 주지만 이를 양심적으로 설계하고 사용할 때 인간의 가치를 구현하고 공동선에 이바지할 수 있는 도구라는 인식을 지닐 수 있게 한다.

이러한 가치를 AI의 설계, 배포 및 사용에 포함함으로써 인간은 기술이 인간의 경험을 감소하게 하는 것이 아니라 향상하는 데에 이바지하도록 할 수 있다.

이러한 원칙들을 수용하면 AI를 만병통치약으로 보거나 AI가 마치 도덕적 가치를 지니고 있는 것처럼 보려는 유혹에 대응할 수 있는 도움을 준다. 기술의 진정한 가치는 인간의 행복을 증진하고 정의로운 사회를 구현하기 위해 어떻게 설계하고 활용할 것인가에 달려 있다는 것이 분명하다. 이러한 관점은 인간의 존엄성을 해치면서까지 기술이 자유롭게 발전해야 한다고 옹호하는 담론에 직면할 때 매우 중요할 뿐만 아니라 기계가 인간의 역할을 빼앗거나 인간의 삶과 자유라는 본질적 가치를 감소시킬 수 있다는 식의 모든 언급에 반대한다. 기술의 개발과 사용에서 인간의 우위를 강조할 때 비로소 우리는 우리의 집단적 기술 노력을 이끄는 전망이 인류를 위해 봉사하는 것이고, 사랑과 정의, 그리고 공동선에 대한 헌신이라는 사실을 세상에 알려 이를 단언할 수 있는 것이다.

이는 보다 실용적으로 말하여 AI 설계자들에게 AI 시스템이 데이터를 처리하고 반응하는 과정의 방식에 주의를 기울이고(being attentive), AI의 한계와 의미를 슬기롭게 이해하며(being intelligent), AI의 설계와 활용에 관하여 윤리적 결정을 내릴 때 합리적이어야 하고(being reasonable), AI가 개인과 사회에 미치는 영향에 대하여 책임감을 지녀야 하며(being responsible), AI 개발과 상호작용에 접근할 때 모든 인간의 존엄성과 복지에 애정을 가져야 한다는 것(with a loving concern)을 의미한다. 이러한 가치들을 AI 설계, 배포 및 사용에 접목해야만 인간은 기술이 인간의 경험을 감소하도록 하는 것이 아니라 오히려 향상하도록 할 수 있다.

일상적인 사용자가 AI와의 상호작용에서 로너간의 초월적인 원칙들을 적용한다는 것은 기술에 관하여 능동적이고 비판적인 자세를 기르는 것을 의미한다. 주의를 기울인다는 것(being attentive)은 수동적인 소비를 넘어 AI가 자신의 삶과 사회에 어떻게 영향을 미치고 있는가에 관하여 적극적으로 이해하고자 하는 노력이 필요하다는 것이다. 이는 사용하고 있는 앱들의 데이터 개인 정보 보호 관행에 대해 배우거나 AI 기반 뉴스 공급에 존재할 수 있는 편견을 이해하는 것을 의미할 수 있다. 이러한 맥락에서 지성적으로 접근한다(being intelligent)는 것은 비판적 사고를 적용하여 AI가 제공하는 정보와 서비스를 평가하고, 그 신뢰성이나 이면의 동기를 파악한다는 것을 의미한다. 사용자는 정보들의 출처와 디지털 경험을 편집하는 알고리즘에 의문을 제기하고 자신의 인식과 행동을 형성하는 기본 시스템을 이해하도록 노력해야만 한다.

합리적이어야 한다(being reasonable)는 것은 기술 사용에 대해 정보에 입각한 선택을 하면서 AI가 개인과 사회의 복지에 영향을 미칠 수 있는 잠재력이 있다는 사실을 인식하는 것을 포함한다. 여기에는 잘못된 정보를 방지하기 위해 AI 기반 소셜 미디어에 대한 경계를 설정하거나 교육환경에서 사용되는 AI 도구가 포용적이면서도 편견 없는 학습을 촉진하도록 보장되어야 한다는 것이 포함될 수 있다. 책임감이 있으려면(being responsible) 사용자는 기술 사용의 광범위한 결과를 고려하고 AI 개발 및 배포에 있어 윤리적 관행을 옹호해야 한다. 여기에는 데이터 윤리를 우선시하는 기업을 지원한다든가 AI 기술 규제에 관한 대화에 참여하는 것 등이 포함될 수 있다.

마지막으로 AI와의 상호 작용에서 이를 사랑으로(being loving) 해야 한다는 것은 디지털 시대에 인간관계와 커뮤니티를 유지하는 것이 중요하다는 점을 강조하고자 하는 것이다. 이는 사용자가 기술이 인간을 고립시키거나 분열시키는 것이 아니라 관계를 증진하고 네트워크를 지원하는 방식으로 AI를 활용하도록 장려하는 것이다. 이러한 원칙들을 적용함으로써 일상적인 사용자는 인식과 의도, 윤리적 참여에 헌신하면서 AI 환경을 탐색하고 기술과의 상호작용이 자신의 삶과 더 넓은 커뮤니티에 긍정적으로 이바지하도록 할 수 있는 것이다.

AI와의 연관성 안에서 버나드 로너간의 철학을 탐구하는 과정에서 우리는 인간의 의식과 인공 지능 사이의 좁힐 수 없는 간극을 파헤치고, AI 설계의 윤리적 함의를 탐구하며, 로너간의 초월적 원칙들이 어떻게 AI와의 상호작용을 안내할 수 있는지 살펴보았다. 우리는 AI에 접근하면서 기술이 인간을 위험에 빠트린다는 담론을 확산하기보다는 인간의 존엄성과 공동선을 증진하는 데에 이바지할 수 있는 인간 중심적 접근 방식이 필요하다는 점을 강조하고자 했다. 중요한 점은 AI와 대화하면서 주의력, 지성, 합리성, 책임감, 그리고 사랑이라는 인간 고유의 능력을 항상 염두에 두면서 소통하겠다고 분명한 약속을 해야만 한다는 것이다.

3 thoughts on “AI를 대하는 인간의 자세와 태도

  1. 실제 AI world에서는 AI desinger라는 말은 거의 사용하지 않고, AI Developer 혹은 Core Tech Researcher라 말을 하지요. 원문도 읽어보니 Designer라 표기했던데, 아마 이태리 사람이라 그런듯합니다.

  2. 1968년 MIT MediaLab장이던 Dr. Minsky교수가 인간의 두뇌 회로 동작 3개의 Ops – AND, OR & XOR 중, 단일 구조로는 XOR 문제를 해결하지 못함을 수학적 증명으로 논문을 발표합니다. 이를 약 35년 지난 2004년쯤, Canada CIFAR라 불리는 (발음이 우습죠 ? 쒸…파~~ㄹ.. ㅋㅋㅋ) – Canadian Institute for Advanced Research – 의 Dr. Geoffrey Hinto이 다중구조, 즉 Multi-lateral convex 구조로 propaganda & backward-propaganda 방식을 통하면, XOR 문제가 해결됨을 밝혀냅니다.

    이 미친 사건이 AI가 고삐가 풀리게 되는 사건이지요. 이후 AI design이라 칭하는것은 인간 뇌구조 3개의 operation을 조합하는것으로만 결론낼 수 있습니다. 그러므로, 큰 그림으로 본다면 AI design은 이미 힌튼 박사가 신격에 도전하는 새로운 창조의 길을 연것으로 이미 Game-Set되었다 생각합니다.

    Stem-Cell은 인류 모두가 경련을 일으키는 반응을 보이는 반면, Digital-Brain(제가 AI를 부르는 별칭이지요…)을 자유자재로 제작/배포 심지어 복제하는것은 왜 가만히 놔두고만 있는것인지….

    Ethic-code 관점에서 본다면, 이미 core-technology에 심어 두었어야 할 ethic-code가 결여된 Framework (ie, 구글의 tensoflow, Microsoft의 CNTK…)등이 이미 결여된 그 자체로 세상에 뿌려진 이 상황인지라… Dr. Steven Umbrello의 뒷북치는듯한 글은 왠지…. 뒷 맛이 찝찝….함을 느끼게 합니다…. ㅠㅠ

  3. 기술의 문제는 개발자의 의도와 사용자의 의도가 반드시 일치하지는 않는 데 있다고 볼 수 있습니다. 그래서 기술은 절대 가치 중립적이지 않습니다. 더욱이 AI는 스스로 학습하는 방향을 지향하므로 잘못 사용하면 인간 사회의 부조리를 그대로 반영하게 될 가능성이 크다고 봅니다. 불평등과 양극화를 심화하는… 골치아픈 자식이 하나 더 생기는 거지요. 처음부터 사용 분야를 제한하거나 총기 사용처럼 사용자격을 부여해야 할지도 모르겠습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다