[MT리포트-AI 이제 2라운드] ③'맞춤형 반도체' ASIC, 전력효율·가격 가성비 장점
[편집자주] 구글 제미나이3이 공개된 후 오픈AI·엔비디아가 잇따라 민감한 반응을 보이며 AI 모델과 칩의 독주 체제에 균열 신호를 냈다. AI 시장은 어떻게 달라질까.
AI 칩의 성능 지표는 크게 △연산 속도 △전력 효율 △유연성 세 가지로 나뉜다. 특히 전력 효율은 AI 학습과 추론 규모가 방대해지면서 AI 기술 경쟁의 핵심 변수로 등장했다. AI 서비스를 위해선 수만 개 이상의 칩을 24시간 가동할 대규모 데이터센터가 필요하고, 이를 운영하는 대형 클라우드 기업은 비용 절감을 위해 '전력 효율'을 최우선 순위로 둔다.
엔비디아가 시장을 장악한 GPU는 수많은 픽셀의 색을 표현하는 그래픽 연산을 위해 개발된 칩으로 여러 형태의 병렬 연산을 빠르게 처리할 수 있다. GPU는 다양한 모델 학습을 병렬로 수행할 수 있어 유연성 측면에서도 압도적이어서, 그간 AI 열풍의 기반이 됐다. 하지만 설계 구조가 복잡하고 불필요한 작업도 반복해 전력 소모가 커진다는 단점이 있다. 데이터센터 전력의 상당 부분은 GPU 가속 서버와 냉각 비용에 쓰인다고 한다.
업계 전문가들은 LLM(대규모 언어 모델·Large Language Model) 추론이나 음성 인식처럼 정형화된 연산에는 ASIC가 GPU보다 2~3배 높은 에너지 효율을 낼 수 있다고 본다. AI 및 기술 파트너인 아르테크디지털은 "고성능 모델 기준 GPU의 전력 소모량은 최대 700~1000W(와트)에 달하지만, 머신러닝(기계학습)용으로 설계된 구글 TPU는 칩당 175~250W의 전력만 소모해 에너지 효율성이 더 뛰어나다"고 분석했다.
찹의 비용 측면에서도 ASIC가 GPU보다 효율적이라는 평가를 받는다. AI 칩으로 주로 사용되는 엔비디아 GPU는 개당 수천만 원을 웃도는 높은 비용을 지불해야 한다. ASIC는 맞춤형 반도체인 만큼 수천억 원에 달하는 초기 개발비가 필요하지만, 칩 수십만 개가 필요한 AI 서비스에 사용되면 생산 단가가 GPU와 비교해 획기적으로 낮아진다. 모건스탠리에 따르면 엔비디아의 최신 칩 블랙웰 GPU 2만4000개 설치에 약 8억5200만달러(1조2564억원)가 필요하지만, 같은 규모의 구글 TPU 비용은 약 9900만달러에 불과한 것으로 추산됐다.
다만 이런 차이에도 GPU 시대가 끝나는 것은 아니다.
이런 변화는 사실상 독점에 가까운 엔비디아의 AI 칩 지위도 흔들 전망이다. 구글은 최근 TPU 기반 제미나이3 공개로 ASIC 기술력을 입증했고, 마이크로소프트(MS)와 아마존 등도 각각 마이아, 트레이니엄3 등 자체 ASIC를 내놓으며 엔비디아에 도전장을 내밀고 있다. 시장조사업체 트렌드포스는 2026년 클라우드 서비스 공급업체의 자체 설계 ASIC가 44.6% 성장해 GPU의 성장률(16.1%)을 크게 앞서며 AI 가속기 시장이 큰 전환점을 맞을 것으로 예상했다.
AI 칩 시장 재편은 메모리반도체 선두 기업인 삼성전자, SK하이닉스에 호재로 작용할 것으로 보인다. ASIC는 고효율을 위해 5나노미터(㎚, 1㎚=10억분의 1m), 3nm와 같은 첨단 미세 공정에서 대부분 생산되고, 메모리반도체 HBM(고대역폭메모리)이 필요하다. 구글 TPU 한 개에 탑재되는 HBM은 6~8개로, 대부분 삼성전자와 SK하이닉스가 공급하는 것으로 전해진다.
'AI' 기업 주요 기사
- 기사 이미지 "대한민국 AI 3대 강국 충분하다…이것만 해결되면"(종합)
- 기사 이미지 국산 AI반도체로 AI 로봇·카메라·청소기 만든다
- 기사 이미지 "AI 시대 K-스타트업, 글로벌 도약 위해 규제 혁신과 협력 절실"
- 기자 사진 정혜인 기자
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>