본문 바로가기
산업분석

인공지능과 HBM(고대역폭메모리) 장점과 활용방법, 관련 국내 기업

by 00년 새내기 2023. 12. 15.

인공지능 시대 진입


올해를 뜨겁게 달궜던 초거대 인공지능인 챗GPT의 상업적인 성공을 계기로 대용량 데이터 생성과 빠른 연산에 대한 수요는 더욱 폭증할 것으로 전망되며 관련 산업의 주가 흐름 역시 양호하다. 주요 기업들을 중심으로 대용량 연산이 가능한 인프라를 구축하여 대량의 데이터를 처리하는 초거대 인공지능이 개발되고 있다.

 


이러한 초거대 인공지능의 데이터 학습에는 기존 모델과는 비교할 수 없을 정도로 방대한 연산량과 빠른 데이터 처리 속도가 필요하다. 인공지능의 원활한 작동을 위한 필수 조건으로 방대한 데이터 처리가 가능한 초고성능 컴퓨팅이 요구되면서 대용량 데이터 처리에 최적화된 메모리 반도체의 필요성이 대두되었다.

 

인공지능 성능의 핵심, HBM


① 기존 일반적 메모리


일반적 기능의 기존 메모리로는 고성능과 고효율을 필요로 하는 인공지능 시스템 등을 구축하는 데 한계가 있다. 전통적인 컴퓨터 설계 기법인 폰 노이만 구조에서는 CPU와 메모리(D램)를 연결하는 통로를 통해 데이터가 이동하며 연산을 수행한다.


이러한 시스템 하에서는 CPU가 아무리 빨라도 인공지능과 같이 처리해야 할 데이터량이 증가하면 데이터 이동이 지연되면서 시스템 전체의 성능이 저하되는 병목 현상이 발생한다. 이러한 문제점은 현대 컴퓨터 구조가 바뀌지 않는 이상 오늘날 글로벌 반도체 기업들이 해결해야 할 과제이다.

③ 병목현상 해소를 위한 HBM 출시


데이터 이동 병목 현상을 해소하기 위한 방법으로 데이터 전송 능력을 높이 HBM(High Bandwidth Memory, 고대역폭메모리)이 국내 기업을 중심으로 출시되었다. 메모리의 대역폭은 쉽게 말하면 데이터 전송 능력을 의미하는데, 대역폭이 높을수록 한 번에 실어 나를 수 있는 데이터량이 증가하고 데이터 처리 속도가 빨라지는 특성을 보인다.


그동안 사용되었던 고성능 D램의 경우 데이터 입출력 통로인 핀의 개수가 32개에 불과했지만 이를 해소하기 위해 도입된 HBM 중 가장 최신 세대인 HBM3는 1,024개의 핀을 탑재해 기존 D램 대비 12.8배 높은 대역폭을 가지면서 보다 빠른 데이터 처리가 가능해졌다. 이러한 차이로 인공지능 시장이 확대되면서 HBM은 빠른 연산에 필수적인 메모리로 관련 업계의 주목을 받을 수 있게 되었다.

③ 가격이 비싸다는 단점


HBM은 고성능을 보유한 칩과 기판 사이에 특수한 회로를 넣어야 하며, 적층 방식으로 이루어진 칩 구조로 인해 제조 비용이 많이 들고 가격이 비싸다는 단점이 존재한다. 같은 용량에서 HBM은 일반 D램에 비해 2~5배 높은 가격 차이를 보이고 있다.

 

300x250


이로 인해 높은 잠재력에도 일반적인 컴퓨터 시스템보다는 데이터 센터나 슈퍼컴퓨터 등 초고성능 컴퓨팅 용도로 활용 영역이 제한되는 상황이다. 그러나 메모리 기업들은 관련 기술을 꾸준히 업그레이드하여 HBM 성능과 생산 능력을 향상시키는 등 고성능, 고부가 메모리 시장에서 입지를 구축할 잠재력을 보유하고 있다.

 

HBM 시장과 관련 국내기업


HBM 시장은 아직 형성 초기이나 국내 기업이 90%를 점유하고 있으며, 제품 개발과 고객사 확보를 놓고 업체 간 경쟁이 본격화되고 있다. HBM은 작년부터 인공지능용 서버에 장착되는 등 시장 형성 초기이지만, 삼성전자와 SK하이닉스는 신제품 출시를 통해 고객 확보에 주력하고 있다.

SK하이닉스는 지난 2013년부터 세계 최초 HBM을 개발해 현재 유일하게 4세대 제품을 양산하면서 엔비디아에 독점 공급 중이다. 삼성전자도 4세대 HBM 양산 준비를 마쳤으며 내년 더 높은 용량과 성능의 차세대 제품도 공개할 예정이다. 메모리 업계 3위인 미국 마이크론은 내년 하반기 이후 4세대 HBM 양산이 예상되는 등 국내 기업에 비해 기술력이 뒤쳐지는 양상이다.

 

GPU 기업들과의 협업 여부가 핵심


HBM은 GPU 칩 위에 단일 시스템 칩 형태로 장착하고 패키징을 하기 때문에 연구개발 단계부터 GPU 기업들과의 긴밀한 협업 체계 구축이 필수적이다.

이에 국내 메모리 기업들은 GPU 기업들을 대상으로 HBM 협업 제안과 공급 경쟁이 치열하다. 시장 형성 초기인 현재 인공지능 반도체 시장의 90% 이상을 점유하는 엔비디아와 SK하이닉스 연합이 우위를 달리고 있으나, AMD 인공지능 칩의 가격 경쟁력과 HBM의 더 많은 탑재 용량은 삼성전자에 긍정적인 면으로 작용한다.

 

HBM 시장 전망


고성능 컴퓨팅 수요 확대로 HBM 사용이 증가하면서 시장 규모 역시 꾸준히 확대될 전망이다. 인공지능과 초고성능 컴퓨팅 시장 성장에 따라 HBM 시장 규모도 연평균 25.4% 성장하여 2023년 20억 달러에서 2028년 63억 달러 수준으로 확대될 전망이다.


HBM 시장은 아직까지 규모면에서 전체 D램 시장에서 차지하는 비중은 작으나, 대용량 데이터의 빠른 연산을 필요로 하는 수요가 급증할 것으로 기대되기에 성장 가능성은 매우 높다고 볼 수 있겠다.

엔비디아의 최근 GPU에 HBM 탑재량을 늘리는 등 올해 전 세계 HBM 수요는 전년보다 61% 증가한 2.9억 GB(기가바이트)로 예상되며 내년에도 30% 성장할 전망이다. 구글, 애플, MS 등의 빅테크 기업들이 인공지능 서비스 확대를 예고해 저전력 고사양 메모리인 HBM의 수요는 지속적으로 증가할 수밖에 없는 구조이다.

삼성전자 vs 하이닉스


인공지능 산업이 본격적으로 개화되면서 국내 기업들은 시장이 성장하는 HBM을 새로운 성장 동력으로 삼고 관련 투자에 나서면서 경쟁이 가속화되고 있다.

① SK 하이닉스


하이닉스는 시장점유율 확대를 위해 연초 투자 축소 계획을 뒤집고 HBM 등 고성능 메모리 제품 개발을 중심으로 설비투자를 확대하기로 정했다. HBM 패키징을 위한 신규 후공정 장비를 도입하는 등 올해까지 HBM 생산 능력을 2배로 확대하는 것을 목표로 약 1조 원을 투자할 계획이라고 밝힌 바 있다.

② 삼성전자


삼성전자는 신제품 개발에 속도를 내면서 내년 말까지 HBM 생산 능력 2배 이상 확대를 위해 설비투자를 증설할 예정이다. HBM 시장에 주목하고 1조 원 이상을 투입해 천안 공장에 후공정 설비를 도입하는 등 본격적인 생산량 증대에 나설 계획이다.

728x90

댓글