[투데이 窓]AI 시대 중심이자 미래 게임체인저 'HBM 기술'

김형준 한국과학기술연구원(KIST) 차세대반도체연구소장 기사 입력 2024.07.14 08:00

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기

[UFO 칼럼]


우리는 4차 산업혁명 시대를 살아가고 있다. 그 중심에 인공지능(AI)이 있고, 다양한 산업에 새로운 변화를 불러오고 있다. 반도체 산업도 예외가 아니다. AI 발전에 따라 새 기술들이 개발되고 있다. 그중 특히 주목받는 기술은 AI 반도체용 고대역폭메모리(HBM, High Bandwidth Memory)이다. 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 대폭 끌어올려 고속·대용량 데이터 전송을 실현한 혁신적인 기술이다.

전통적인 반도체 개발은 주로 소형화를 통해 성능을 개선하고 집적도를 높이는 방향으로 전개됐다. 그러나 이 방법만으로 AI 작업의 요구를 충족시키기엔 충분치 않았다. AI 작업 대다수가 대량의 정보를 학습하는 형태이기 때문에 복잡한 연산보다는 단순한 연산을 반복하는 작업에 가깝다. 이를 위해서는 빠른 성능의 단일 칩보다는 조금 느리지만 동시에 많은 연산을 처리할 수 있는 반도체 칩이 유리했고, 이는 그래픽처리장치인 GPU(Graphic Processing Unit) 관련 산업이 성장하는 방향이 됐다.

GPU의 연산 속도를 쫓아갈 만큼 빠르게 데이터 전달이 되지 않으면 '데이터 병목현상'이 발생한다. GPU의 성장에 따라 빠르게 데이터를 저장하고 뽑아서 쓸 수 있는 반도체가 필요하게 됐는데, 이런 수요에 대응해 HBM이라는 메모리가 등장했다. 이를 통해 기존 D램 대비 최대 수십 배에 달하는 대역폭을 제공하며, 전력 소모는 획기적으로 줄일 수 있다. 이런 특성 덕에 HBM은 고성능 그래픽카드, 서버, 데이터센터 등에서 채택되고 AI 머신러닝(기계학습) 같은 응용 분야에서 우수한 성능을 보이고 있다.

예를 들어, 자율주행자동차는 HBM 기반 AI를 활용해 주변 환경을 실시간으로 인식하고 안전하게 운행할 수 있다. 의료 분야에선 HBM을 적용한 AI가 대량의 의료 데이터를 분석해 질병을 조기 진단하고 맞춤형 치료법을 제안하는데 사용한다. 스마트 가전제품도 HBM을 통해 보다 효율적이고 똑똑한 기능을 제공하며, 사용자의 생활 편의를 크게 개선하고 있다.

HBM의 발전은 AI 알고리즘의 발전과 밀접하게 연관돼 있다. 2010년대 초까지 AI 연구는 정체기에 빠져있었다. 기존 AI는 인간이 미리 정보를 규정하고 학습할 것을 정해주는 방식이었기 때문에 한계가 분명했다. 그러나 2012년에 등장한 인공신경망 모델인 '알렉스넷(AlexNet)'은 기계가 스스로 학습해 정보를 처리하는 GPU 기반 딥러닝 시대를 열었다. 최초의 연구에서는 GPU의 메모리 한계에 따라 학습량 및 정확도가 정해질 것으로 예측했다. 이러한 이유로 고성능 AI 작업을 수행하기 위해서는 GPU의 발전과 함께 GPU 성능에 맞는 고용량이면서 데이터 전송 속도가 빠른 메모리가 필요하게 되었고 이것이 HBM이 급부상한 계기가 됐다.

HBM 첫 세대인 HBM1은 128GB/s의 대역폭을 제공해 GDDR(그래픽용 D램) 대비 성능 차이가 크지 않았고 생산비용이 비싸 시장 형성이 제대로 이뤄지지 않았다. 이런 이유로 초기엔 메모리 반도체 시장에서 수요가 적은 제품군에 속했다. 그러나 HBM 내 메모리반도체와 GPU사이를 데이터가 빠르게 움직일 수 있는 이동통로(TSV) 기술이 성숙해지고, 다양한 3차원 집적기술이 적용되면서 GDDR과 HBM의 기술 격차가 벌어지기 시작했다.

GDDR은 단층 구조의 제약으로 인해 성능 개선이 더뎠지만, HBM은 3차원 적층수를 적극적으로 늘리며 성능을 빠르게 개선해 나갔다. 256GB/s의 대역폭을 제공하는 2세대 HBM2를 거쳐 현재 HBM3 및 후속 제품들은 GDDR과 매우 큰 성능 차이를 보이며 고성능 제품군에는 HBM이 주로 탑재되고 있다.

현재 엔비디아, AMD 등 주요 반도체 기업들이 자사 GPU에 HBM을 채택하면서 수요는 더 급증했다. 특히 엔비디아의 AI 훈련 및 추론용 GPU인 A100 및 H100 시리즈는 HBM을 채택해 높은 성능을 구현했으며, 이에 따라 데이터센터와 클라우드 서비스 제공 업체들의 HBM 수요가 증가, 공급이 수요를 따라가지 못하고 있다. 아울러 자율주행자동차, 5G(5세대 통신) 네트워크, 가상현실(VR) 같은 신기술들이 본격적으로 상용화되면서 HBM의 적용 범위는 더 넓어질 것으로 전망된다. 이런 요구사항을 충족시키기 위해 1TB/s 이상의 대역폭 제공을 목표로 하는 HBM4와 같은 차세대 기술들이 연구되고 있으며, 더 높은 대역폭, 더 낮은 전력 소비, 더 많은 용량을 목표로 개발되고 있다.

우리나라는 삼성전자와 SK하이닉스와 같은 메모리 반도체 시장을 선도하는 기업을 보유하고 있다. 이에 따라 현재 HBM 시장의 90% 이상을 대한민국 기업이 차지하고 있으며, 가까운 미래에도 큰 변화는 없을 것으로 예측된다. 그러나 HBM 제품 특성상 메모리 기술 이외에도 다양한 요소 기술이 필요하기에, 기술 개발 및 글로벌 협력 체계가 필수적이라고 생각된다. 첫 번째로 베이스 다이 또는 로직다이라고 불리는 HBM 1층 받침대의 적용 기술의 필요성이다. HBM의 핵심은 TSV 공정을 통해 3차원으로 적층된 D램이지만, HBM의 최하단에 위치한 로직다이를 통해 상부 3차원 D램을 제어해야 한다. 이러한 로직다이는 파운드리 업체를 통해 공급받아야 하는 상황이다.

두 번째로 다양한 패키징 기술이 필요하다. 현재 HBM은 단독으로 사용되지 않고 대부분 GPU 칩 옆에 부착해 사용한다. 이를 패키징하기 위해서는 고난도·고비용의 패키징 기술이 필요하며, 이는 현재 대만의 파운드리 업체에 전적으로 의존하고 있다. 이렇듯 HBM 최종 제품을 완성하는데 있어 우리가 내재화하지 못한 기술들이 많이 존재한다.

업계 1, 2위인 SK하이닉스와 삼성전자는 각자의 상황이 다르기에 내재화와 글로벌 협력이라는 갈림길에서 서로 다른 전략을 택할 것으로 보인다. 정부는 이처럼 고부가가치 제품의 경쟁력을 높이기 위해 다양한 연구개발 정책 및 외교를 통해 기업들이 혁신을 지속할 수 있는 환경을 조성하고, 글로벌 경쟁에서 우위를 점할 수 있도록 지원해야 한다. 국내 이공계 연구개발 역시 현재까지 진행된 큰 흐름에서 벗어나 지금까지 시도하지 않은 다양한 3차원 집적 기술 및 패키징 기술 연구를 진행하는 것이 필요하다.

[머니투데이 스타트업 미디어 플랫폼 '유니콘팩토리']

'김형준' 기업 주요 기사

관련기사

  • 기자 사진 김형준 한국과학기술연구원(KIST) 차세대반도체연구소장

이 기사 어땠나요?

이 시각 많이 보는 기사