AI 시대에 살아남기 5

2026-02-02     박문수

AI는 천주교를 제대로 이해할까?

요즘 인공 지능(AI)에게 천주교 관련 정보를 물으면 만족스럽지 않은 답을 얻을 것이다. 심지어 정보가 적은 주제는 정확하지 않은 내용까지 넘칠 것이다. 왜 그럴까?

나는 AI와 작업할 때 제일 먼저 얘가 할 수 있는 일(능력)보다 한계를 물었다. 재미 삼아 주기적으로 이 문제를 해결했는지 묻곤 한다. 최근 2년 동안은 이러한 문제들이 해결되지 않았고 앞으로도 그럴 것 같다. 다음은 내가 AI한테 묻고 들은 답이다. 질문은 내가 답은 AI가 한 것이다.

질문 1: LLM(대규모 언어 모델)에서 종교 분야와 관련하여 한계로 제시된 것이 있으면 알려 줘.

답: LLM은 종교 분야와 관련하여 여러 한계를 가집니다. 가장 중요한 한계는 교리적 편향성과 맥락적 이해의 부족입니다.

교리적 편향성
LLM은 학습 자료의 양과 분포에 따라 특정 종교나 교파에 대한 정보를 더 많이 학습할 수 있습니다. 예를 들어, 한국어 자료에서는 개신교 관련 정보가 상대적으로 많기 때문에 ‘하나님’이나 ‘누가 복음’과 같은 용어를 ‘하느님’이나 ‘루카 복음’보다 더 자주 사용하게 됩니다. 이러한 편향은 모델이 특정 종교의 관점에서 답변을 생성하게 만들어, 다른 종교나 교파에 대한 질문에 답변할 때 부정확하거나 부적절한 정보를 제공할 수 있습니다.

맥락적 이해 부족
종교는 단순한 지식의 집합이 아니라 신앙, 영적 경험, 문화적 맥락을 포함하는 복잡한 영역입니다. LLM은 텍스트 패턴(언어의 규칙성)을 학습할 뿐, 이러한 비텍스트적이고 경험적인 맥락을 이해하지 못합니다. 따라서 모델은 종교적 질문에 대해 사실적이고 논리적인 답변을 제공할 수는 있지만, 종교적 감수성이나 신학적 깊이를 반영한 답변을 제공하는 데에는 한계가 있습니다. 예를 들어, 신학적 논쟁이나 영적 의미를 해석하는 데 있어서는 인간 전문가의 깊이 있는 이해를 대체할 수 없습니다.

질문 2: 종교 정보를 검색할 때 가톨릭과 개신교의 차이가 있는 것 같아. 아마도 두 교파에서 웹에 올린 정보의 양이 차이가 나서 그러는 것 같은데 이것이 영향을 줄까? 그리고 가톨릭 쪽의 질문에 답할 때 개신교 정보에서 학습한 내용도 검색하여 답을 주는지 궁금해.

답: 웹에 공개된 정보의 양과 그 내용의 차이는 AI 모델이 특정 주제에 대해 학습하고 답변하는 방식에 큰 영향을 미칩니다. 가톨릭과 개신교는 교리, 문화, 역사 등 여러 면에서 차이가 있기 때문에, 웹에 공개된 정보의 양과 질에서도 차이가 있을 수 있습니다.

정보의 양과 질
개신교는 가톨릭보다 상대적으로 개인의 성경 해석과 소규모 공동체를 중심으로 하는 경향이 강해, 다양한 개인 웹사이트, 블로그, 유튜브 채널 등을 통해 정보가 생산되고 유통될 가능성이 높습니다. 반면 가톨릭은 교황청과 주교회의를 중심으로 하는 위계적이고 중앙집권적인 구조를 가지고 있어, 공식적이고 정제된 정보가 주로 생산됩니다. 따라서 웹에 공개된 정보의 양과 내용의 다양성에서 차이가 발생할 수 있으며, 이는 AI가 학습하는 정보의 불균형으로 이어질 수 있습니다.

정보의 교차 학습
제미나이는 특정 종교에 대한 질문에 답할 때, 학습한 모든 정보를 종합적으로 활용하여 답변을 생성합니다. 이는 가톨릭 관련 질문에 답변할 때 개신교 정보에서 학습한 내용도 함께 참고할 수 있다는 의미입니다. 하지만 이것이 항상 정확한 정보를 제공한다는 것을 보장하지는 않습니다. 두 종교의 교리적 차이로 인해, 개신교의 관점에서 설명된 내용이 가톨릭의 교리와 충돌하거나 잘못된 정보로 이어질 가능성이 있습니다. 예를 들어, 성모 마리아에 대한 교리나 성사에 대한 이해는 두 교파가 크게 다르므로, 이를 혼용하여 답변하면 오류가 발생할 수 있습니다.

질문 3: 네가 제공하는 학술 정보가 양이나 질에서 아직 충분하지 않은 이유를 알려 줘.

답: AI에서 제공하는 학술 정보가 아직 양이나 질에서 충분하지 않다고 느끼시는 데에는 여러 가지 이유가 있을 수 있습니다.

정보의 접근성과 최신성
학술 자료는 폐쇄된 데이터베이스나 유료 학술지에 보관되는 경우가 많습니다. 제미나이와 같은 대규모 언어 모델은 웹에 공개된 정보를 주로 학습하기 때문에, 이러한 폐쇄된 정보에는 접근하는 데 한계가 있습니다. 또한, 최신 학술 논문은 발행 후 바로 공개되지 않고 일정 기간이 지난 뒤에야 접근할 수 있는 경우가 많아, 최신 정보가 반영되지 않을 수 있습니다.

정보의 맥락과 통합
학술 연구는 매우 특정적이고 전문적인 맥락을 가집니다. 예를 들어, 한 논문은 특정 방법론, 실험 조건, 데이터 세트(자료 집합)를 기반으로 결론을 도출합니다. 제미나이는 이러한 맥락을 완벽하게 이해하고 종합하는 데 어려움이 있을 수 있으며, 단순히 텍스트를 기반으로 정보를 연결하기 때문에 전체적인 맥락을 놓치거나 잘못된 결론을 도출할 수도 있습니다.

지식의 불완전성
학문은 끊임없이 진화하고 새로운 사실이 발견됩니다. 오늘날의 정설도 미래에는 새로운 연구로 수정되거나 뒤집힐 수 있습니다. 따라서 제미나이가 학습한 정보는 특정 시점까지의 지식을 반영한 것일 뿐, 현재 진행 중인 최신 연구 결과나 아직 밝혀지지 않은 미지의 영역에 대해서는 답변을 제공할 수 없습니다.

대규모 언어 모델(LLM) 인공 지능은 학습 자료를 기반으로 언어의 구조와 의미를 학습하고, 주어진 문맥에 따라 다음에 올 단어를 추론하는 방식으로 작동한다. (그림 생성 = 제미나이)

천주교 관련 AI 정보의 한계

AI가 이상에서 한 답변을 잘 읽어 보면 ‘LLM’(대규모 언어 모델)의 천주교 정보는 한계가 뚜렷하다는 것을 알 수 있다. 성능이 개선되곤 있지만 이를 극복하는 데는 한계가 분명하다. 다음 다섯 가지 이유 때문이다.

첫째, 인터넷 개발자들은 ‘모두가 접근할 수 있고’, ‘누구나 모든 정보를 공개(공유)하는’ 세상을 꿈꾸었다. 그러나 지구상 인구의 1/3은 경제적 이유로 여전히 인터넷에 접근할 수 없다. 정보는 경제적, 안보적 이유로 자유롭게 저렴한 비용으로 공유되거나 공개되지 않고 있다. AI도 다르지 않다.

둘째, 애초에 천주교 신자는 정보에 무심하고 공유할 의사가 없는 경우가 흔하다. 우리 대부분이 그렇듯이 자신도 관심이 없고 남도 관심이 없는 경우는 그/그녀/어떤 사건이나 사태에 대한 정보를 인터넷상에서 얻을 수 없다. 이런 경우 AI가 학습 자료를 구할 수 없고, 학습하지 않은 것을 알려 줄 도리는 없다. 대신 AI는 어떠한 형태로든 답을 생성하는 것이 임무이므로 정확하지 않은 정보를 천연덕스럽게 출력하는 환각 현상을 보이게 된다.

셋째, 천주교 신자는 개신교 신자들처럼 선교에 적극적이지 않다. 이는 자연스레 비신자가 읽고 볼 수 있는 정보를 제공하는 빈도가 낮아지는 원인으로 작용한다. 대내적으로는 신자 수, 교회 수, 교회 문화에 차이가 있다 보니 공유하는 정보도 적어진다. 천주교 학자들도 정보를 공유하는 데 관심이 적다. 이러한 두 교파의 문화와 태도 차이가 천주교 관련 정보량을 줄이는 데 영향을 주었다.

넷째, 천주교는 교리가 어렵고 성경 공부도 신자 개인에 맡기는 것을 제한하기 때문에 관련 정보를 올리는 신자들의 자기 검열이 심하다. 이 때문에 공개 정보량이 적고 AI가 학습할 수 있는 공개 자료 출처도 공식적인 것이 대부분이다.

마지막으로, 앞에서 AI도 답했듯이 AI에게 천주교 정보를 물어도 개신교 정보까지 참조하여 답을 생성하기에 대체로 출력물에서 개신교 냄새가 많이 난다. 이는 이 언어 모델이 똑똑하지 않아서가 아니라 애초에 작동 원리가 그래서 발생하는 문제다.

인터넷 웹 검색은 답의 출처를 알려 주었다. 번거롭지만 답을 찾을 수 있었다. 그런데 AI(LLM)는 자기가 검색 자료에 기초해 답을 생성한다. LLM이 답을 생성하는 원리는 ‘학습 자료(dataset)를 기반으로 언어의 구조와 의미를 학습하고, 주어진 문맥에 따라 다음에 올 단어를 추론하는’ 방식이다. 엄밀하게 말하면 정답이 이나라 확률적 근사치를 제공하는 것이다. 그러니 AI가 주는 답을 정답이라 믿으면 자칫 낭패를 볼 수 있다. 반드시 결과를 정답과 확인하시라!

AI는 미래를 알려 줄까?

AI가 우리가 하는 종교적 질문에 정답을 주는 것은 물론 우리 운명도 점쳐 줄 것이라 믿는 이들이 있다. 잘못된 믿음이다. 앞서 생성형 AI의 답변 생성 원리를 설명했는데, 이런 방식으로 생성하는 것임을 알면서도 AI가 미래를 점치고 예측한다고 믿는다면 바보다.

미래학에서 자주 사용하는 ‘추세외삽법(extrapolarity method)’이라는 예측 기법이 있다. 원리는 간단하다. 특정 과거 시점부터 지금까지 어떤 현상의 추이를 살펴서 규칙에 가까운 흐름이 발견되면 이를 기초로 미래를 확률적으로 예측하는 것이다. ‘이러한 흐름에 비춰 볼 때 장차 이런 일이 일어날 가능성이 어느 정도 비율로 있다’고 말하는 것이다. AI도 학습 정보를 토대로 ‘추세외삽’을 통해 확률적으로 미래를 예측한다. 아마 AI도 자신이 생성한 답이 맞는다고는 하지 않을 것이다. 그저 자신이 알든 모르든 어떤 질문에든 답하는 것이 임무이므로 답 생성 방식에 따라 기계적으로 답을 쓸 뿐이다. 따라서 세상없는 AI도 경험 자료 없이 미래를 예측할 수 없다.   

AI가 신앙 상담을 잘할 수 있을까?

AI 학습 원리를 잘 이해하고 있다면 이 질문에 유보적 답변을 하게 될 것이다. 한국 신자가 신앙 관련 고민을 인터넷상에 공개된 형태로 많이 올리고, 상담자(사제, 수도자, 평신도 전문가)가 이 질문에 대한 답을 역시 공개된 공간에 많이 올리면 ‘어느 정도 잘할 수 있을 것’이라 말할 수 있다. 그런데 이런 정보가 부족하고, 고민과 응답 내용이 보편적이지 않고 교파적, 개인적 특성을 반영하는 것이라면, 생성형 AI는 이런 내용까지 참조해 답을 주게 되므로 답이 만족스럽지 않을 것이다. 이 경우는 ‘잘할 수 없다’고 보아야 한다.

한국 정보를 주로 참조하는 것 같으니 다른 나라 정보까지 참조하여 답을 달라고 하면 AI가 더 많은 자료를 참조는 하겠지만 이렇게 내놓은 답도 같은 문제에 직면한다. 구체적 질문이 이전 것보다 더 보편적인 형태의 답이 되기 때문이다. 이 경우 상담 의뢰자는 답이 추상적이라 느끼게 될 것이다. 나에게 맞춘 답이 아니라 누구에게나 적용되는 평균적인 답이 되리라는 것이다. 이런 LLM의 한계 때문에 전문가들은 종교인이 앞으로도 살아남을 것이라 예측한다. 다음 호에는 이 연재의 마지막으로 ‘AI 시대의 종교의 미래’를 다루려 한다.

박문수

가톨릭 신학자이자 평화학 연구자
우리신학연구소 소장

<가톨릭뉴스 지금여기 https://www.catholicnews.co.kr>