"구글 '터보퀀트(Turbo Quant)' 기술이 단기적으로 메모리양을 줄이기 때문에 메모리 반도체 수요가 줄어든다고 생각할 수 있지만, 오히려 AI 시장이 폭발적으로 성장하면서 메모리반도체 수요가 유지될 것입니다. " 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)' 논문에 참여한 한인수 카이스트(KAIST) 전기·전자공학부 교수는 27일 "해당 기술의 큰 흐름은 논문에 공개돼 있어 사전학습된 AI면 추가 학습없이 적용이 가능하다"면서 "논문이 공개될 4월쯤엔 구글에 이미 해당 기술이 상용화될 것"이라며 이같이 말했다. 글로벌 메모리 시장에 충격을 준 터보퀀트 기술은 AI 추론에 필요한 데이터를 6분의 1 수준으로 줄여 메모리 반도체 사용을 줄이는 기술이다. AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소했다. 한 교수는 터보퀀트 기술로 AI가 더 저렴해지고 빠르게 확산되는 동시에, 반도체 수요 역시 질적으로 고도화될 것으로 전망했다. 그는 "AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다"며 "이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다"고 설명했다.
김소연 기자,이정현 기자 2026.03.28 08:05:22구글이 AI(인공지능) 메모리 사용량을 압축하는 '터보퀀트(TurboQuant)'를 공개하면서 슈퍼사이클(초호황기)에 진입한 메모리 수요 둔화 우려가 나온다. 이로 인해 글로벌 메모리 3사(삼성전자·SK하이닉스·마이크론) 주가도 일시적으로 하락했다. 다만 업계에서는 해당 기술이 AI 활용을 확대해 오히려 반도체 시장 성장을 자극할 수 있다는 관측에 무게가 실리고 있다. 27일 관련업계에 따르면 구글의 터보퀀트 기술은 대규모 언어 모델(LLM)의 핵심 구조인 'KV 캐시'를 압축해 메모리 사용량을 최대 6분의 1수준으로 줄이면서도 성능은 유지하는 알고리즘이다. 구글이 지난해 4월 공개한 논문에서 소개된 기술이다. 대규모 언어 모델에서는 사용자와의 이전 대화 내용과 검색 결과 등을 KV 캐시로 저장해 다음 토큰 생성에 활용한다. 문제는 대화량이 늘어날수록 저장 데이터가 증가하면서 메모리 사용량도 급격히 확대된다는 점이다. 이 때문에 KV 캐시는 AI 시스템의 성능과 비용을 제약하는 대표적인 병목 요인으로 지목돼왔다.
최지은 기자 2026.03.28 08:03:00