AI와 언어의 한계[PADO]

제이컵 브라우닝 뉴욕대 컴퓨터공학과 박사후연구원, 얀 르쿤 뉴욕대 쿠란트수학연구소 교수 기사 입력 2023.02.11 10:56

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
[편집자주] 최근 챗(Chat)GPT라는 대화형 인공지능(AI) 서비스가 화제가 되면서 인공지능이 사람을 대체해 대량실업이 발생하리라는 암울한 전망도 다시 조명을 받고 있습니다. 기업들도 발빠르게 움직이고 있습니다. 마이크로소프트는 자사의 검색 엔진 빙(Bing)에 챗GPT를 적용했으며 구글도 서둘러 바드(Bard)라는 서비스를 공개했습니다. 하지만 현재의 기술에 비해 AI가 과대평가되고 있다는 지적도 적지 않습니다. 'AI의 대부'라 불리우는 메타(페이스북)의 최고AI과학자 얀 르쿤도 이런 관점을 견지하는데 AI 철학자 제이컵 브라우닝과 공저한 글에서 언어만 가지고 훈련한 AI에는 본질적인 한계가 있다고 말합니다. 인간의 지성은 몸을 비롯한 존재 전체를 반영한 것인데 언어는 그 일부분에 불과하기 때문이라는 겁니다. 노에마(Noema) 매거진의 2022년 8월 23일 기고문을 협약 하에 전문(全文) 번역으로 소개합니다. AI과학 용어와 철학적 내용이 담겨 있어 다소 어렵게 느껴질 수 있으나 차근히 숙독해보시면 AI는 물론이고 인간의 지성이란 무엇인가에 대해서도 통찰을 얻을 수 있는 글입니다. PADO는 독자 여러분의 AI시대 대비를 돕기 위해 AI에 대한 깊이 있는 글을 계속 소개할 예정입니다.
(툴루즈 AFP=뉴스1) 권진영 기자 = 마이크로소프트(MS) 로고와 챗GPT의 이미지 화면. MS는 챗GPT의 개발사 오픈AI와 파트너십을 맺고 대규모 투자 계획을 발표했다.  ⓒ AFP=뉴스1  Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.
(툴루즈 AFP=뉴스1) 권진영 기자 = 마이크로소프트(MS) 로고와 챗GPT의 이미지 화면. MS는 챗GPT의 개발사 오픈AI와 파트너십을 맺고 대규모 투자 계획을 발표했다. ⓒ AFP=뉴스1 Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.

(This article was produced by and originally published in Noema Magazine.)

2022년 6월, 구글의 한 엔지니어가 자사의 AI 챗봇을 인간이라 선언해 논란이 됐다. 대규모 언어 모델(LLM)을 기반으로 만든 람다(LaMDA)가 그 주인공인데 어떤 글귀를 입력하면 그 다음에 나올 가능성이 높은 단어를 예측하도록 설계돼 있다. 사람이 하는 대화는 예측하기 어렵지 않다. 그래서 LLM을 사용한 AI 시스템은 어떻게 하면 대화를 그럴싸하게 이어나갈 수 있는지 쉽게 추론할 수 있다. 람다의 예측은 매우 훌륭해 문제의 구글 엔지니어 블레이크 르모인(Blake Lemoine)은 이 AI가 진짜 영혼을 가진게 아닐까 생각하기 시작했다.

르모인의 이야기에 대한 반응은 다양했다. 어떤 이는 기계가 사람이 될 수 있다는 생각 자체를 비웃었다. 이번 LLM은 사람이 아니지만 나중에 등장할 LLM은 사람이 될 수 있을지도 모른다는 반응도 있었다. 한편으론 사람을 속이는 게 그다지 어려운 일이 아니라고 지적하는 이도 있었다. 하긴 구운 식빵에서 예수님 얼굴을 봤다는 사람들도 있지 않은가.

이토록 다양한 반응은 보다 심각한 문제가 있음을 보여준다. LLM이 날이 갈수록 더 보편화되고 강력해지는 반면, 우리가 이를 어떻게 이해해야 하는지에 대한 합의점은 점점 더 좁아지고 있는 듯하다는 게 문제다. "(사람과 같은) 분별력"을 갖춘 언어 추론 능력을 평가하는 기준은 여러 가지가 있는데 근래의 LLM은 대다수의 기준을 통과했다. 심지어 "우리가 사람만이 갖췄다고 여기는 완전한 의미에서의 사고력"을 가져야만 통과할 수 있다고 주장했던 기준조차도 통과했다. 그러나 기준을 통과한 AI 시스템도 아직껏 제대로 된 분별력을 갖춘 것 같진 않다. 여전히 말도 안되는 헛소리를 하거나 비논리적인 결론을 내리며 심지어 '내가 자살해야 하는가'라는 질문에 '그래야 할 것 같다'는 위험한 조언을 하기도 한다.

근본적인 문제는 AI가 아니다. 문제는 '언어' 자체가 가진 본질적인 한계다. 생각과 언어에 대한 고정관념을 내려놓고 바라보면 LLM을 사용한 AI의 이해력은 얄팍해서 인간이 가진 완전한 의미의 사고력에 결코 미칠 수 없다는 걸 분명히 알 수 있다. 다시 말해 현재의 LLM 기반 AI는 현재 지구상에서 손꼽히는 AI 시스템이지만 결코 인간에 가까워질 수는 없다.



지식과 언어


19~20세기 철학과 과학의 지배적인 관념은 지식은 곧 언어적이라는 것이었다. 고로 뭔가를 안다는 건 적절한 문장을 떠올리고 그것이 우리가 알고 있는 참된 주장으로 이루어진 거대한 망 속의 다른 문장과 어떻게 연결되는지를 파악하는 걸 뜻할 따름이다. 그에 따르면 이상적인 언어의 형태는 엄격한 추론의 법칙에 따라 연결된 임의의 기호들로 이루어진 순수하게 형식적, 논리수학적인 것일테지만 자연 언어도 모호함이나 부정확성을 없애려는 노력을 하면 충분히 쓸만하다. 비트겐슈타인 말마따나 "참된 명제들의 총체가 자연과학의 전부다." 이런 관점은 20세기에 지배적인 위상을 갖고 있었기 때문에 심리학이 발견한 인지지도나 심상(mental image)은 논란의 대상이 됐다. 인지지도와 심상도 겉보기와는 달리 근본적으로는 언어적이라는 주장이 많았다.

가방끈 긴 지식인 부류에도 이런 관점을 고수하는 사람들이 있다. 인간이 알 수 있는 모든 것은 백과사전에 담을 수 있다. 그러니 전부 다 읽으면 모든 것에 대한 포괄적인 지식을 얻을 수 있다는 게다. 이는 기호주의 인공지능(Symbolic AI)의 초기 연구에 많은 영향을 미쳤다. 기호주의 인공지능의 기본 틀은 기호 조작(symbol manipulation)인데 논리적 규칙에 따라 임의의 기호들을 각기 다른 방식으로 연결하는 걸 뜻한다. 기호주의 인공지능의 관점에서 볼 때, AI의 지식은 참된 문장들을 손수 논리적으로 연결한 방대한 데이터베이스로 이루어진 것이고 AI 시스템이 적절한 때에 적절한 문장을 내뱉으면 (다시 말해 적절한 방식으로 기호를 조작하면) 지능을 갖춘 것으로 여겼다. 이는 튜링 테스트의 근간이 되는 관념이기도 하다. 어떤 기계가 적절한 답을 한다는 건 기계가 자신이 말하는 게 무엇인지 안다는 걸 의미한다. 적절한 문장과 그것을 사용할 시점을 안다는 것 그 자체가 곧 지식이기 때문이다.

그러나 이러한 관점은 줄곧 신랄한 비판을 받았다. 어떤 기계가 뭔가 말할 수 있다는 게 자신이 말하는 게 무엇인지 이해한다는 걸 의미하진 않는다는 비판이다. 언어가 곧 지식은 아니기 때문이다. 오히려 언어는 매우 구체적이고 깊은 한계를 가진 지식 표현의 한 방식에 불과하다. 프로그래밍 언어, 기호논리 또는 일상언어를 불문하고 모든 언어는 특정한 유형의 표현 도식(representative schema)에 의존하며, 비연속적인 대상과 속성, 그리고 이러한 대상/속성들 사이의 관계를 고도로 추상화된 단계에서 표현하는 데는 탁월하다. 그러나 악보를 읽는 것과 녹음된 실제의 음악을 듣는 것에는 큰 차이가 있고, 이를 직접 연주할 수 있는 스킬을 갖는 것은 악보를 읽는 것과 더욱 큰 차이가 있다.

모든 표현 도식은 무언가에 대한 정보의 압축을 수반하지만 무엇이 그 압축에 포함되거나 누락되는지는 경우에 따라 다르다. 언어의 표현 도식은 불규칙한 형태, 대상의 움직임, 복잡한 장치의 기능 또는 회화의 미묘한 붓질과 같은 훨씬 더 구체적인 정보를 표현하는데에는 고전한다. 하물며 파도를 타는 법('서핑') 같은 매우 미묘하면서 맥락/상황에 크게 좌우되는 움직임은 어떻겠는가. 하지만 이런 정보를 접근 가능한 방식으로 표현할 수 있는 비언어적 표현 도식도 있다. 이미지나 녹음, 그래프, 지도 같은 도상적(iconic) 지식과 훈련된 신경망에서 발견되는 (우리가 종종 노하우나 근육 기억(몸으로 기억하는)이라 부르는) 분산된 지식이 이에 해당한다. 각각의 도식은 다른 정보를 표현하기 어렵거나 심지어 불가능할 때에도 어떤 정보를 쉽게 표현할 수 있다. 피카소의 그림과 트웜블리(미국의 추상표현주의 화가 --편집자주)의 그림이 어떻게 다른지를 말로 표현할 때와 이미지로 표현할 때의 차이를 생각해보라.



언어의 한계


언어적 표현 도식의 특징과 그 한계를 이해하려면 언어 자체에 정보가 거의 없다는 사실을 떠올려보면 된다. 어떤 정보를 전달하기에 언어는 그 정보 전송용량이 너무 적은 편이다. 개별적인 단어나 문장은 문맥이 생략된 경우 전달할 수 있는 의미가 별로 없다. 게다가 동음이의어와 대명사가 너무 많아 대부분의 문장은 그 뜻이 모호하다. '배에 올라타다'라는 짧은 문장에서 배는 사람의 배를 말하는 걸까, 아니면 탈것을 말하는 걸까? 촘스키와 그 추종자들이 오랫동안 지적해왔듯, 언어는 분명한 의사소통을 위한 명쾌한 수단이라 부르기엔 문제가 좀 있다.

그러나 인간에게 의사소통을 위해 완벽한 수단을 꼭 가져야 하는 것은 아니다. 우리 인간은 비언어적인 이해력을 공유하기 때문이다. 한 문장을 이해하려면 이런 문장이 어떤 맥락에서 등장하는지 깊이 이해해야 하는 경우가 종종 있다. 맥락에 대한 이해를 바탕으로 해당 문장이 무얼 뜻하는지 추론하는 것이다. 이는 특히 회화에서 두드러지는데 축구 경기처럼 바로 눈 앞에서 벌어지는 것에 대해 이야기하거나 웨이터에게 음식을 주문하는 것처럼, 특정 상황에서 주어지는 사회적 역할(주문자와 웨이터) 아래 분명한 목적(음식 주문)을 갖고 의사소통을 하는 경우가 많기 때문이다. 글을 읽을 때도 크게 다르진 않다. 이는 인공지능에게 언어 분별력이 있는지를 판별하기 위한 검사법의 유효성 뿐만 아니라 미국에서 유행하는 어린이용 독해 교육법의 효능에 의구심을 불러 일으킨다. 이 독해 교육법은 공식화된 독해 전략을 가르쳐 맥락을 몰라도 지문을 이해하게 만드는 데에 집중한다. 그러나 실제로는 아이가 해당 지문이 다루는 주제에 대해 얼마만큼의 배경지식을 갖고 있느냐가 지문의 이해도를 좌우하는 핵심 요인임을 시사하는 연구 결과가 여럿 있다. 한 문장 또는 문단을 얼마나 이해하느냐는 그것이 다루는 주제에 대해 사전에 얼마나 알고있느냐에 달려 있는 것이다.

LLM의 핵심은 단어와 문장이 본질적으로 맥락지향적이라는 데 있다. 우리 몸의 신경망은 일반적으로 지식을 '노하우' 형식으로 표현한다. 노하우란 맥락에 크게 좌우되는 패턴을 이해하고 규칙성(구체적이든 추상적이든)을 발견하는 스킬인데 외부의 입력정보를 주어진 업무에 잘 부합하도록 미묘하게 다루는 데 필수적이다. LLM의 경우에는 주어진 지문에서 다양한 층위의 패턴을 파악하는 시스템이 사용된다. 즉, 한 문장 속에서 개별 단어들이 어떻게 서로 연결되는지 뿐만아니라 그 문장을 포함한 다른 문장들이 상위의 문단 내에서 어떻게 서로 어울리는지도 파악해야 한다. 그 결과 LLM이 언어를 이해하는 방식은 필연적으로 맥락에 좌우된다. LLM이 어떤 단어를 이해하는 방식은 사전에 나오는 의미가 아닌 LLM이 수집한 방대한 문장 속에서 해당 단어가 어떤 역할을 수행하느냐에 달려 있다. 많은 단어들이 특정 분야에서만 거의 독점적으로 사용되기 때문에('엔진 카뷰레터', '메뉴', '디버깅', '전자' 같은 단어를 생각해보라) 이런 단어를 갖고 있는 문장은 외따로 떨어져있더라도 어느 정도의 맥락을 갖는다.

다시 말해 LLM은 문장 각각에 대한 개별지식을 습득하도록 훈련됐다. 주변의 단어와 문장을 짜맞춰 상황을 파악한다. 덕분에 무한대에 가까울 정도로 다양한 문장을 입력으로 받아들일 수 있고 그에 맞추어 대화를 이어나가거나 문단의 나머지 부분을 채울 수 있을 정도로 그럴싸한(결코 완벽하진 않지만) 응답을 할 수 있다. 사람이 서로 대화하는 내용의 글귀로 훈련된 시스템이라면 사람과 유사한 수준의 대화를 하는 데 필요한 전반적인 이해력을 갖출 수 있다.



얄팍한 이해력


이런 맥락에서 "이해력"이란 표현을 사용하거나 LLM을 "지적(知的)"이라고 하는 걸 망설이는 이도 있지만 오늘날 이런 표현에 누구는 부합하고 누구는 부합하지 않는지를 따지는 게 그리 중요하진 않다. 하지만 이런 시스템이 수행하는 게 일종의 모방에 불과하다는 비판은 타당하다. LLM의 언어 이해력은 대단하긴 하지만 얄팍하기 때문이다. 이런 얄팍한 이해력은 생각만큼 낯설지 않다. 대학에는 뜻도 제대로 모르면서 전문용어를 남발하는 학생들로 가득하다. 교수들이 하는 말이나 자신들이 읽고 있는 책을 흉내내는 것이다. 하지만 이는 학생들만의 문제가 아니다. 우린 우리가 얼마나 모르는지조차 모르는 경우가 많은데 특히 언어로 습득한 지식의 경우가 그렇다.

LLM은 모든 것에 대해 이런 식의 얄팍한 이해력을 습득했다. GPT-3 같은 시스템은 한 문장이나 문단에서 다음에 나오는 단어를 가린 다음 AI에게 다음에 나올 단어를 추측하게 한다. 잘못된 추측이 나오면 이를 수정하는 식으로 훈련한다. 그 결과 그 다음에 나올 가능성이 가장 높은 단어를 추측하는 데 능숙해져 효과적인 예측 시스템이 된다.

이는 어느 정도 진정한 이해력을 수반한다. 어떤 질문이나 수수께끼가 주어졌을 때, 보통 정답은 소수이고 오답은 무한대다. 때문에 LLM 기반 AI는 이런 유형의 질문에 대한 올바른 답을 지속적으로 예측하기 위해, 농담을 설명하거나 단어 문제나 논리 문제를 푸는 등 언어에 국한된 스킬을 익히게 된다. 이런 스킬 그리고 무엇이 무엇과 연결되는지에 대한 지식이 더해져 AI로 하여금 복잡한 문제를 설명하고, 어려운 개념을 단순화하고, 주어진 이야기를 재구성해서 다르게 표현해보도록 하는 등 언어를 이용하는 각종 능력을 발휘할 수 있도록 한다. 기호주의 인공지능은 지식을 대량의 문장을 논리적으로 연결한 데이터베이스로 간주한 반면, LLM에게 지식이란 주어진 문장에 대해 그럴싸한 다음 문장을 제시할 수 있는 맥락에 예민한 노하우다.

그러나 어떤 개념을 언어적으로 '설명'하는 능력은 그것을 실제로 '사용'하는 능력과 다르다. AI는 장제법(긴 나눗셈)을 실제로 할 줄은 몰라도 이를 어떻게 하는지 설명할 수 있고, 비속어나 상대에게 써서는 안 되는 단어가 무엇인지에 대해 설명하면서도 태연하게 그런 단어를 당신에게 사용해버릴 수 있다. 언어의 맥락에 대한 지식은 한 가지 형태(언어적 지식을 뽐내는 능력 같은)에는 포함되지만 다른 형태(공감 능력을 보여주거나 민감한 사안을 센스있게 다루는 등의 숙련된 노하우)에는 포함되지 않는다.

후자의 노하우는 언어를 실제로 '구사'하는 사람에겐 필수적이지만 그렇다고 해서 이런 노하우를 '언어적 스킬'로 간주하진 않는다. 여기서 언어적 요소는 부차적인 것이기 때문이다. 이는 심지어 강의나 책으로 배운 개념에 대해서도 마찬가지다. 과학 수업에 강의가 들어가긴 하지만 학생의 성적은 실험실 작업 결과 위주로 매겨진다. 인문학의 경우를 제외하면, 무언가에 대해 말할 수 있는 능력은 그 중요도나 쓸모가 실제로 그 무언가를 제대로 돌아가게 만드는 데 필요한 세부적인 스킬에 비해 떨어지는 경우가 많다.

겉보기보다 더 깊이 들어가보면 이런 AI 시스템이 실제로 갖고 있는 한계가 무엇인지 파악하기란 어렵지 않다. AI의 주의력과 기억력은 대략 문단 하나 정도를 커버하는 수준이다. AI와 대화를 하고 있으면 이 점을 못 알아채기 쉬운데, 대화를 할 경우에는 상대방의 마지막 한두 마디 말이나 우리가 그 다음에 할 대답에 집중하는 경향이 있기 때문이다.

그러나 이런 주의력, 기억력으로는 적극적 경청, 앞서 한 말을 떠올리고 다시 살펴보기, 핵심 논점에 집중하면서 부차적인 사안은 무시하기를 비롯한, 보다 복잡한 대화를 위한 노하우를 구사하기 어렵다. 때문에 AI에게 가능한 이해력의 수준은 더 떨어진다. 말을 바꾸거나 언어를 바꾸고 거짓으로 계속해서 일관성을 흐트러뜨리는 방식으로 쉽게 AI를 농락할 수 있다. 이렇게 계속 밀어붙이면 AI는 자신의 지식을 리셋하게 되는데 그러면서 당신이 계속 말을 바꿨더라도 그 말들이 모두 일관성이 있다고 여기거나 당신처럼 언어를 바꾸고 당신이 한 모든 말을 곧이곧대로 믿게 된다. AI가 가진 이해력은 일관성 있는 세계관을 형성하기에 턱없이 부족하다.



언어 너머


모든 지식이 언어적이라는 관점을 버리면 우리의 지식 중 얼마나 많은 부분이 비언어적인지를 깨닫게 된다. 우린 책을 통해 많은 정보를 습득하고 사용하지만 책 이외에도 정보와 지식을 주는 건 많다. 이케아의 설명서에는 그림 외에 다른 설명이 없다. AI 연구자가 논문을 읽을 때 본문을 먼저 읽는 경우는 별로 없다. 논문에 실린 도표를 먼저 보고 네트워크 아키텍처를 파악한 다음에서야 본문을 훑어보는 편이다. 뉴욕시 방문객은 어떤 언어적 설명 없이도 지도의 빨간색, 녹색 선을 따라 도시를 여행할 수 있다.

그저 아이콘, 도표, 지도에만 해당하는 이야기가 아니다. 인간은 세계에서 다른 물체나 사람이 어떻게 움직이는지를 관찰하면서 많은 지식을 습득한다. 문고리는 우리 손의 높이에 달려 있고 망치에는 부드러운 손잡이가 달려 있는 등, 인간이 만든 물체와 인간이 사는 환경은 그 자체로 많은 직관적 정보를 담고 있다. 언어를 사용하지 않고 머릿속에서 시뮬레이션을 돌리는 능력은 인간과 동물 모두에게 흔하며 인공물을 제작하거나 모방하는 데 사용된다. 마찬가지로 사회적 관습이나 의례는 음식과 약을 만드는 법부터 긴장 상황에서 평화를 유지하는 방법과 같은 다양한 스킬을 후대에 전달한다. 문화적 지식의 상당 부분은 시각적으로 이뤄져있거나 숙련된 기술자가 제자에게 몸에서 몸으로 전달하는 정교한 움직임으로 이루어져 있다. 이런 미묘한 정보 패턴은 언어로 표현하고 전달하기가 어려움에도 불구하고 습득이 가능하다. 이는 우리 신체의 신경망이 능숙하게 습득하고 갈고닦을 수 있는 바로 그런 형태의 맥락지향적 정보이기도 하다.

언어는 작은 포맷에 많은 정보를 담아 전달할 수 있어 중요하다. 특히 인쇄 기술과 인터넷이 등장한 이래로 정보를 폭넓게 재생산하고 배포할 수 있게 됐다. 그러나 언어가 정보를 압축해 담기 때문에 잃어버리는 것도 있다. 때문에 밀도 높은 글을 해독하는 데는 정말 많은 노력이 필요하다. 인문학 강좌는 수업 시간 외에도 많은 읽기를 요구하지만 그럼에도 강좌 시간의 대부분을 어려운 대목을 꼼꼼히 살펴보는 데 쓴다. 정보가 어떤 식으로 제공됐든 간에 이를 깊이 이해하는 데는 많은 시간과 노력이 필요하다.

언어에 대해 훈련된 AI 시스템이 그렇게 많은 걸 알면서도 실상 제대로 아는 건 별로 없는 까닭이 여기에 있다. AI는 아주 좁은 통로를 통해 인간 지식의 일부분만 습득한다. 하지만 그 일부분은 천체물리학이든 사랑이든 무엇이든 될 수 있다. 그렇기에 AI는 어느 정도 거울과 비슷하다 할 수 있다. 거울은 거의 모든 것을 반사시킬 수 있으며 거울에 비친 이미지는 실제 같은 심도를 갖는 듯 보인다. 하지만 거울의 두께는 1센티미터에 지나지 않는다. 거울에 비친 이미지의 심도를 직접 살펴보려 하다가는 거울에 머리를 부딪히기 일쑤다.



AI의 한계


그렇다고 해서 AI가 멍청하다는 건 아니다. 하지만 이는 AI가 얼마나 똑똑해질 수 있느냐에 본질적인 한계가 있음을 시사한다. 언어로만 훈련된 AI는 결코 인간의 지능에 근접할 수 없을 것이다. 우주의 엔트로피가 극에 달해 열죽음(heat death)을 맞을 때까지 훈련을 시킨다하더라도 마찬가지다. 이는 지각을 가진, 사람 같은 존재가 되는 데 필요한 지식이 아닐 따름이다. 물론 표면적으로만 본다면 인간의 지능에 근접한 것'처럼' 보이기는 할 테다. 대개의 경우 표면만으로도 충분하긴 하다. 타인에게 정말로 튜링 테스트를 해보면서 그가 가진 이해력의 깊이가 어느 정도인지 치열하게 따지거나 복잡한 곱셈을 하도록 강요하는 일은 거의 없지 않은가. 우리가 나누는 대부분의 대화는 그저 얄팍한 수다에 불과하다.

그러나 LLM이 가진 얄팍한 이해력을 인간이 세상의 장관을 보고 겪으며, 그 안에서 다른 사람 및 문화와 상호 교류하면서 습득하는 깊은 이해력과 혼동해선 안된다. 언어는 세계에 대한 우리의 이해력을 확장하는 데 도움이 되는 한 요소이긴 하지만 언어가 곧 지능은 아니기 때문이다. 까마귀, 문어, 영장류 같이 언어를 쓰지 않는 동물종이 어느 정도의 지능을 갖고 있음을 보여주는 실험 결과는 많다.

오히려 깊은 비언어적 이해력이야말로 언어를 유용하게 만드는 기반이다. 우리는 세상에 대한 깊은 이해력을 지니고 있기에 타인이 하는 말을 빠르게 이해할 수 있다. 이처럼 보다 넓은 차원에서의 맥락지향적 지식 습득과 노하우야말로 더 기초적이고 더 오래된 형태의 지식이며 이것이 인간에게 지각 능력을 부여해 생존과 번성을 가능케했다. 이는 AI가 단순한 언어적 스킬 이상의 분별력을 가질 수 있는지 연구할 때 초점을 맞추는, 보다 본질적인 과제이기도 하다. LLM 기반 AI 시스템에겐 안정적인 신체도 없고 지각할 수 있는 영속적인 세계도 없다. 그래서 AI의 지식은 단어로 시작해 더 많은 단어로 끝날 뿐이며 그 분별력은 언제나 피상적이다. 진정한 인공지능 시스템의 목표는 언어가 표현하는 세계에 초점을 맞추는 것이지 언어 자체가 아니다. 하지만 LLM은 그 차이를 알지 못한다. 오직 언어만 가지고 세계를 깊이 이해할 수 있는 방법은 없다. 이는 순전히 잘못된 접근법이다. LLM을 다뤄볼수록 언어만 갖고는 진정으로 알 수 있는 게 거의 없다는 사실만 더 명백해질 뿐이다.

(To read the original essay and other similar essays in English, visit noemamag.com.)



제이컵 브라우닝은 뉴욕대학교 컴퓨터공학과의 박사후연구원으로 AI의 철학에 대해 연구하고 있다. 칸트에서 맥도웰에 이르기까지 지각의 개념이 어떻게 발달해왔는지를 고찰한 논문으로 뉴스쿨에서 박사 학위를 받았다.

얀 르쿤은 프랑스 출신의 컴퓨터 과학자로 AI에 관한 세계적인 권위자다. 뉴욕대학교 쿠란트수학연구소 교수이자 메타(페이스북)의 최고AI과학자다. 2018년 컴퓨터 분야의 노벨상이라 일컬어지는 튜링상을 수상했다.


- 원문: Jacob Browning & Yann Lecun, AI and the Limits of Language (Noema)
- 번역: 박민지, 편집: 김수빈, 김동규


국제시사·문예 버티컬 PADO는 통찰과 깊이가 담긴 롱리드(long read) 스토리와 문예 작품으로 우리 사회의 창조적 기풍을 자극하고, 독자 여러분이 급변하는 세상의 파도에 올라타도록 돕는 작은 선물이 되고자 합니다.


  • 기자 사진 제이컵 브라우닝 뉴욕대 컴퓨터공학과 박사후연구원
  • 기자 사진 얀 르쿤 뉴욕대 쿠란트수학연구소 교수

이 기사 어땠나요?

이 시각 많이 보는 기사