네이버, 올 하반기 삼성전자와 AI 반도체 솔루션 공개
KT-리벨리온 5월, SKT-사피온 올 하반기 NPU 출시
20일 업계에 따르면 국내 최초로 LLM(거대언어모델) '하이퍼클로바'를 구축한 네이버(NAVER (213,500원 ▼3,000 -1.39%))는 올 하반기 삼성전자와 초거대 AI 서비스에 최적화된 반도체 솔루션을 선보인다. 엔비디아의 GPU(그래픽처리장치) 대비 10분의 1 크기지만 4배 이상의 전력효율 갖춘 솔루션을 개발해 메모리 병목현상과 과도한 전력소모 문제를 해결한다는 목표다.
더불어 네이버는 초거대 AI 서비스 운영비용 절감을 위한 경량화 기술도 연구 중이다. 오는 7월 공개할 기업용 초거대 AI '하이퍼클로바X'에 경량화·최적화 기술을 적용한다는 방침이다. 네이버 관계자는 "AI로 음성을 문자로 변환해주는 '클로바노트'의 경우 최적화를 통해 동시에 처리할 수 있는 데이터 양이 5배 향상됐다"로 설명했다.
다른 기업들이 이제 막 초거대 AI 상용화에 나선 것과 달리, 네이버는 이미 500여개 기업에 하이퍼클로바를 제공 중이다. 여기에 AI에 특화된 반도체와 클라우드까지 더해지면 기업들의 비용 부담도 줄어들 것으로 예상된다.
이동통신사도 AI 풀스택 경쟁력 강화에 한창이다. SK텔레콤 (96,500원 ▼1,800 -1.83%)은 SK하이닉스·SK스퀘어와 총 800억원을 공동 투자해 사피온을 설립하고 연내 신형 AI 반도체 'X330'을 출시한다. KT (62,800원 ▼1,100 -1.72%)클라우드는 AI 반도체 스타트업 '리벨리온'과 손잡고 내달 GPU보다 저전력·고성능의 NPU를 선보인다. 더 빠르게 학습·연산할 수 있는 PIM(지능형메모리반도체)까지 개발한다는 방침이다.
카카오엔터프라이즈는 퓨리오사AI와 손잡았다. '카카오i클라우드'에 퓨리오사AI의 워보이 NPU를 장착해 국내 스타트업 이팝소프트의 '말해보카 사전' AI 서비스를 제공한다. 카카오엔터프라이즈 관계자는 "클라우드부터 하드웨어, AI 서비스까지 모든 기술요소가 국산"이라며 "연내 카카오i클라우드의 워보이 NPU를 12장에서 16장으로 확대할 것"이라고 말했다.
챗GPT 20개 답할 때…전기세만 520원, 물은 500ml 소모ICT업계가 AI 특화 반도체 개발에 나선 이유는 GPU 자체가 고가인 데다, 막대한 전력소모로 운영비용이 엄청나서다. 업계에 따르면 데이터 센터에서는 8개의 A100 GPU로 구성된 DGX A100을 주로 쓰는데 엔지니어 기술지원과 관리운영 비용까지 포함하면 4억원 가량이 드는 것으로 전해진다. 챗GPT 운영에는 GPU 1만여개가 필요한 것으로 알려졌다.
또 챗GPT는 검색 1회당 약 2센트(26원)의 비용이 든다. 1억 명이 한 달에 10번만 이용해도 한 달에 260억원이 드는 셈인데, 대부분이 데이터센터 전기료다. 이에 윤동식 KT클라우드 대표는 "세계적으로 AI에 소모되는 전기량이 한계에 다다랐다"라며 "진짜 AI 시대가 오려면 비용, 전력 효율적인 AI 인프라가 절실하게 필요하다"고 강조했다.
데이터센터에서 쓰는 물의 양도 엄청나다. 비즈니스 인사이더에 따르면 미 캘리포니아 리버사이드대와 텍사스대(알링턴)가 초거대 AI의 물발자국을 연구한 결과 마이크로소프트는 GPT-3 학습에 약 70만리터의 담수를 사용한 것으로 나타났다. 이는 BMW 자동차 370대를 생산하는데 필요한 양이다. 또 챗GPT가 20~50개 질문에 답할 때마다 500ml의 물이 필요했다.
기존에는 국내 클라우드 인프라 및 반도체 역량이 갖춰지지 않아 초거대 AI 서비스 개발시 해외 사업자에 막대한 인프라 비용을 지불해야 했던 점도 ICT업계가 풀스택에 골몰하는 이유다. 업계 관계자는 "초거대 AI는 데이터를 학습하고 결과물을 만드는 과정에서 막대한 비용과 전력이 소모되기 때문에 AI 경량화 최적화는 중요한 과제가 될 것"이라고 말했다.
- 기자 사진 윤지혜 기자
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>