중국 AI, 저비용으로 미국을 따라잡다 [PADO]

김동규 PADO 편집장 기사 입력 2025.02.01 18:00

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
[편집자주] 미국 주식시장을 필두로 전 세계 금융시장이 중국발 'AI 쇼크'로 요동쳤습니다. 중국 AI 개발사 '딥시크'(DeepSeek)가 출시한 AI는 성능은 챗GPT 등 미국의 AI에 버금가는데, 개발 비용은 10분의1 이하라고 합니다. 컴퓨팅 소스도 절약해 쓰고 반도체 칩도 고가의 최첨단 칩을 사용하지 않는다고 합니다. 1월 25일에 발간된 이코노미스트의 이 '브리핑' 기사는 중국 AI 개발환경이 어떤 점에서는 서방보다 더 개방적이라고 합니다. 또한 다른 점에서는 더 폐쇄적이기도 하다고 합니다. 챗GPT 같은 기업들은 AI 기술 정보를 어떻게든 감추려 하는데, 중국 기업들은 개방해서 서로 공유하고 경쟁하는 분위기가 있는 것이 장점입니다. 흥미로운 것은 중국산 AI가 정치적인 부분 등에 검열이 있는데, 이것이 상업적으로 장점이 될 수도 있다고 합니다. 예컨대, 삼성이나 애플이 갤럭시 스파트폰, 아이폰을 중국에 판매할 경우 챗GPT 같은 미국 AI를 장착했다가 중국의 검열에 걸릴 가능성이 있기 때문에 애초부터 중국산 AI를 장착하는 것이 유리하다는 것입니다. 또한 훈련 비용이 높아서 챗GPT 같은 미국산 AI는 주로 영어 소소를 훈련 재료로 삼지만, 훈련 비용이 낮은 중국산 AI는 영어 외에도 사용자가 적은 수많은 언어들로도 훈련이 가능해 글로벌사우스 사람들도 쉽게 접근할 수 있을 것이라고 합니다. 늘 경쟁시장을 중시해온 이코노미스트는 중국 AI의 도전을 환영하고 있습니다. AI 시장이 미국 기업들에 의해 독점되는 것을 막고 서로 경쟁하면서 발전하게 될 것이라고 기대하는 것입니다. 중국의 '응용과학' '공학' 부문 연구개발 역량의 약진은 놀랍습니다. 응용과학, 공학은 미중 패권경쟁의 최전선입니다. 우수한 인재가 의과대학으로 몰리는 한국을 되돌아 보게 됩니다. 기사 전문은 PADO 웹사이트(pado.kr)에서 읽을 수 있습니다.
/로이터=뉴스1
/로이터=뉴스1

세계 최초의 '추론 모델'(reasoning model)이라는 인공지능(AI)의 진보된 형태가 지난해 9월, 미국 기업 오픈AI에 의해 공개됐다.

'o1'("오원"으로 읽음)이라 불리는 이 모델은 '사고 과정'(chain of thought)을 활용해 과학과 수학의 복잡한 문제를 해결하며, 문제를 구성 요소별로 나누고 여러 접근법을 시험한 뒤 최종 결론을 도출한다.

이 기술의 공개 이후, 이를 모방하려는 경쟁이 촉발됐다. 지난 12월, 구글은 'Gemini(제미나이) Flash Thinking'이라는 자체 추론 모델을 발표했다. 이에 맞서 오픈AI는 며칠 뒤 'o1'의 업그레이드 버전인 'o3'을 내놓았다.

그러나 막대한 자원을 투입했음에도 불구하고 구글이 오픈AI를 가장 먼저 따라한 기업은 아니었다.

'o1'이 공개된 지 불과 석 달도 지나지 않아, 중국의 전자상거래 대기업 알리바바가 자사의 챗봇 'Qwen'의 새 버전 'QwQ'를 출시하며 같은 '추론' 기능을 적용했다.

알리바바는 공식 블로그에서 "생각한다는 것은 무엇인가, 질문하고 이해한다는 것은 무엇인가"라는 철학적인 질문과 함께, 해당 모델을 무료로 사용할 수 있는 링크를 제공했다.

이에 앞서 중국 기업 딥시크(DeepSeek)는 'R1'이라는 추론 모델의 '프리뷰' 버전을 공개한 바 있다. 미국 정부가 중국의 인공지능 산업을 견제하려는 노력을 기울였음에도 불구하고, 중국 기업 두 곳이 미국 기업과의 기술 격차를 불과 몇 주 단위로 좁히는 데 성공한 것이다.

추론 모델뿐만 아니라, 대형언어모델(LLM) 분야에서도 중국 기업들은 선두 그룹에 있다.

지난해 12월, 딥시크는 새로운 대형언어모델 'V3'를 발표했다. 이 모델의 크기는 약 700기가바이트로, 일반용 하드웨어에서는 구동할 수 없을 정도로 방대하며, 6850억 개의 파라미터(parameters)를 보유하고 있다.

개별 규칙인 파라미터는 합쳐져 거대한 인간 뇌신경 같은 뉴럴(neural) 네트워크를 구성하는데, 그동안 무료로 다운로드할 수 있었던 어떤 모델보다도 규모가 컸다. 페이스북의 모회사 메타(Meta)가 지난해 7월 출시한 대표적인 대형언어모델 'Llama 3.1'의 파라미터 수는 4050억 개에 불과했다.

딥시크의 대형언어모델은 단순히 서구권 경쟁 모델보다 크기만 한 것이 아니다. 성능 면에서도 구글과 오픈AI의 독점 모델을 제외하면 어깨를 겨눌 경쟁 모델이 없는 것으로 평가된다.

AI 코딩 플랫폼 에이더(Aider)의 창립자인 폴 고티에(Paul Gauthier)는 이 모델을 자신의 코딩 벤치마크 테스트에 적용한 결과, 'o1'을 제외한 모든 경쟁 모델을 능가하는 성능을 보였다고 밝혔다.

'크라우드소싱 기반의'(crowdsourced) AI 챗봇의 성능을 평가하는 'lmsys' 랭킹에서도 이 모델은 전체 7위에 올랐다. 이는 오픈소스 모델 가운데 가장 높은 급이며, 구글과 오픈AI를 제외한 모든 기업이 출시한 모델 중에서도 최고 성적이다.

(계속)



PADO 웹사이트(https://www.pado.kr)에서 해당 기사의 전문을 읽을 수 있습니다. 국제시사·문예 매거진 PADO는 통찰과 깊이가 담긴 롱리드(long read) 스토리와 문예 작품으로 우리 사회의 창조적 기풍을 자극하고, 급변하는 세상의 조망을 돕는 작은 선물이 되고자 합니다.



  • 기자 사진 김동규 PADO 편집장

이 기사 어땠나요?

이 시각 많이 보는 기사