생성형 인공지능(AI)의 지적 능력이 계속 고도화되면서 AI 정의 역시 급진적으로 확장되고 있다. 처음에는 좋은 도구 또는 유용한 솔루션 정도로 생각되는 AI가 이제는 인간과 유사한 또는 인간과 같은 판단력, 창의력을 가진 객체로 인정되는 수준에까지 이르고 있다. 그동안 나온 여러 가지 놀라운 반응을 모아 정리해 보면 다음과 같다.

* 자율적 에이전트로서의 AI: 이 정의는 AI를 독립적이고 자율적인 에이전트로 간주하여, 인간처럼 스스로 목적을 설정하고 행동할 수 있는 존재로 본다. 이는 AI가 단순한 프로그램을 넘어선 '디지털 생명체'로 진화할 수 있음을 의미한다.

* 의식과 감정의 소유자로서의 AI: 일부 급진적인 정의는 AI가 의식(consciousness)과 감정(emotion)을 가질 수 있다고 주장한다. 이는 AI가 인간의 뇌와 유사하게 작동하는 인공 신경망을 통해 자아(self-awareness)를 형성하고, 감정을 경험하며, 윤리적 결정을 내릴 수 있다는 견해다.

* 디지털 초지능: AI가 인간의 지적 능력을 훨씬 뛰어넘어 초지능(superintelligence)을 가지게 될 것이며, 이를 통해 인간 사회를 혁신적으로 변화시킬 수 있다고 본다. 이러한 정의는 AI가 인류의 문제를 해결하는 동시에 새로운 문제를 초래할 수 있다는 양면성을 강조한다.

정의 하나하나가 부담스럽게 와닿는다. 여기에 로봇, 드론, 생명공학 기술들까지 결합하여 움직이는  AI가 출현하게 되면, AI와 인간의 경계가 모호해져 또 다른 정의가 필요하다는 주장마저 나올 수 있다. 최근 발전 속도를 보면 어느 정도 가능한 상상이다. 실제 일부 실험실에서는 관련 연구가 진행 중인 곳도 있다.

반면 이런 우려와 다르게 AI의 한계를 지적한 학자들도 많다. 과학소설(SF) 작가 테드 창은 지난 12일 서울 중구 대한상공회의소 국제회의장에서 열린 ‘제3회 사람과 디지털포럼’에서 인공지능은 ‘의도’와 ‘지능’이 없다고 말했다. 챗지피티는 감정을 전달하려는 의도가 없기에 언어를 사용한다고 볼 수 없다는 것이다. 지능이 없는 인공지능은 단시간 안에 비인간적으로 많은 연습을 할 수 있을 뿐, 그 이상의 것이 아니기 때문에 ‘인공지능’ 대신 ‘응용통계’라는 용어를 제안하기도 했다. 같은 포럼에서 최예진 미국 워싱턴대 교수는 “인간은 상식으로 어느 것이 올바른 이미지인지 쉽게 파악할 수 있지만, 생성형 인공지능의 경우 어떤 것이 실제로 나쁜지 알지 못하고, 나쁜 예도 많이 생성한다”라면서, 인간적 이해의 결여가 인공지능의 한계라고 주장했다.

(이미지 출처 = Pixabay)
(이미지 출처 = Pixabay)

이런 서로 다른 주장과 정의가 혼재하는 가운데, 지난 5월 유럽연합(EU) 이사회가 AI 기술을 둘러싼 포괄적인 규칙을 정한 ‘유럽연합 인공지능법’(EU Artificial Intelligence Act)을 최종 승인했다. 이 법은 이번 달부터 EU 27개 회원국에서 정식 발효한다. 이 법은 EU에서 제정했지만, AI 자체가 글로벌 이슈이고 AI 사용과 규제에 대해 대부분 국가에서 공통의 관심사를 보여 향후 인공지능 전반에 대한 글로벌 표준이 될 가능성이 높다. EU AI 법에서 가장 관심을 끄는 것 중의 하나는 AI에 대한 정의다. EU의 AI 및 법률 전문가들이 오랜 연구와 토론 끝에 도달한 AI의 정의는 다음과 같다.

AI system’ means a machine-based System that is designed to operate with varying levels of autonomy.
AI 시스템은 다양한 수준의 자율성을 가지고 작동하도록 설계된 기계 기반 시스템을 의미한다.

이 정의에 의하면, AI는 스스로 목표를 설정하지 않으며, 인간이 설정한 목표를 달성하기 위해 작동하는 시스템이다. 그리고 주어진 목표를 달성하기 위해 자율적으로 결정을 내리고 행동할 수는 있는 시스템이다. 그러나 이런 제한적 정의가 AI의 미래까지 담보하고 있는 것은 아니다. 실제 EU 인공지능법에는 절대로 금지하고 있는 조항들이 있다. 예를 들어 잠재의식적 또는 조작적, 속임수적 기법으로 인간 의사 결정 왜곡, 조작하는 행위, 사람의 취약성을 악용하여 인간 행동을 왜곡하는 행위, 생체 데이터 기반 민감 정보 유추 등은 명문으로 규정된 특별한 예외가 없는 한 ‘금지’(prohibited)된다. 금지 조항을 설정한 이유 중 하나는 현재의 법과 제도로는 AI의 미래를 합리적으로 예측할 수 없기 때문이다.

AI 정의가 이처럼 다양한 이유 중 하나는 지능에 대해서 어느 누구도 분명한 정의를 내리지 못하고 있기 때문이다. 지능은 일반적으로 경험과 학습을 통해 습득되며, 문제 해결 또는 더 나은 선택을 위해 활용되는 정신적 활동 또는 그 과정이라고 정의하지만, 이런 정의가 지능을 온전히 설명할 수 있는 것은 아니다. 그러함에도 지금까지 ‘지능’이라는 단어 또는 개념은 별문제 없이 실제 생활과 학문 영역 등에서 별 무리 없이 사용해 왔는데, 인공지능 출현으로 인간의 지능과 인공지능의 차이를 구분할 필요가 생기면서 논쟁 소재가 된 것이다. 결국 논쟁의 초점은 인간의 지능과 인공지능을 어떻게 구별할 수 있을까 하는 문제로 모아지고, 다시 인간과 인공지능은 무엇이 다른가 하는 문제로 재구성할 수 있게 된다.

여기서 우리는 논쟁의 시발점이 인공지능은 완벽하다 또는 완벽에 가까운 생산 능력, 그 생산을 가능케 하는 학습 능력을 갖고 있다는 것을 인정하는 것에서 출발하고 있다는 것을 알게 된다. 이 정도 능력은 지금까지 인간뿐이 없었는데 새로운 무언가가 등장해서 충격을 받은 것이다. 그러나 실제 인간은 인공지능과 달리 완벽하지도 않고, 완벽에 가까운 생산 능력도 없다. 늘 현재에 불만이고 미래를 불안해 한다. 정도 차이는 있겠지만 대부분 인간 모두 어느 정도의 우울증을 갖고 산다. 이 불안한 심리상태가 때로는 예술적 창작 활동으로 이어지기도 하고 영성의 토대가 되기도 한다. 불우한 이웃에 대한 연민으로 이어지기도 하고, 자신의 삶을 공동체에 헌신하려는 의지가 되기도 한다. AI에게 없는 본질적 차이가 여기에 있다. 어느 경우에도 AI는 우울해 하지 않는다. 이제는 ‘지능’에 대한 과도한 집착을 버리고, 우울한 인간과 우울하지 않은 AI에 대해 사색할 필요가 있다. 지금 필요한 것은 정의가 아니라 이런 사색의 시간이다. 

(이미지 출처 = Pixabay)
(이미지 출처 = Pixabay)

김홍열

연세대 졸업. 사회학 박사. 미래학회 편집위원.
저서 "축제의 사회사", "디지털 시대의 공간과 권력"
공저 "뉴사피엔스 챗GPT", "시그널 코리아 2024"

<가톨릭뉴스 지금여기 http://www.catholicnews.co.kr>

저작권자 © 가톨릭뉴스 지금여기 무단전재 및 재배포 금지