트릴리온랩스, 사전학습 방식 설계한 LLM '트리-21B' 오픈소스 공개

남미래 기자 기사 입력 2025.07.23 11:00

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.]
트릴리온랩스는 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 대규모 언어모델(LLM) '트리(Tri)-21B'를 오픈소스로 공개했다고 23일 밝혔다.

트리(Tri)-21B는 전작인 '트릴리온(Trillion)-7B' 대비 파라미터 수를 3배 이상 확장한 약 210억 개 규모로 성능을 대폭 끌어올렸다. 1대의 그래픽처리장치(GPU)에서도 원활하게 작동할 수 있는 경량성과 효율성을 동시에 갖췄다.

LLM 엔진부터 완전한 사전학습(From-scratch) 방식으로 개발된 이번 모델은 고정밀 추론이 필요한 작업에서 강력한 성능을 발휘하도록 설계됐다. 수학과 코딩 등 단계적 사고가 요구되는 문제에 대해 구조화된 답변을 생성하는 생각사슬구조를 채택했으며, 특히 트릴리온랩스만의 기술력인 언어 간 상호학습 시스템(XLDA)을 적용했다.

XLDA는 영어 기반 지식을 한국어 및 일본어와 같은 저자원 언어로 효과적으로 전이하는 데이터 학습 방법론으로, 학습비용을 기존 대비 1/12 수준으로 낮췄다. 데이터가 부족한 산업 분야에서도 LLM 활용도를 획기적으로 끌어올릴 수 있는 기반을 마련했다는 평가다. 또한 XLDA를 통해 한국어뿐 아니라 데이터가 적은 일본어와 같은 동북아 언어권에서도 더욱 자연스럽고 정확한 문장 생성이 가능하다.

트릴리온랩스에 따르면 이번 모델은 종합지식(MMLU), 한국어 언어 이해(KMMLU), 수학(MATH), 코딩(MBPP Plus) 등 고난도 추론 중심 벤치마크에서 알리바바의 큐원 3(Qwen 3), 메타 라마 3(LLaMA 3), 구글의 젬마 3(Gemma 3) 등 글로벌 대표 중형 모델과 견줄만한 성능을 보였다. 특히 △추론능력 검증(MMLU) 77.93(CoT적용시 85)점 △수학(MATH) 77.89점 △코딩 영역(MBPP Plus) 75.4점의 정확도를 기록했다.

주요 한국어 벤치마크에서도 두각을 드러냈다. 한국문화의 이해도를 측정하는 해례(Hae-Rae)에서 86.62점, 한국어 지식과 추론능력(KMMLU)에서 62점(CoT적용시 70)을 기록했다. 금융, 의료, 법률 등 높은 신뢰도가 요구되는 분야에서도 안정적인 결과를 도출해 산업 전반에 걸친 적용 가능성을 높였다는 평가다.

신재민 트릴리온랩스 대표는 "트리(Tri)-21B는 플라이휠 구조를 통해 70B급 대형 모델의 성능을 21B에 효과적으로 전이해 모델 사이즈와 비용, 성능 간 균형에서 현존하는 가장 이상적인 구조를 구현했다"며 "이번 모델처럼 바닥부터 사전학습으로 개발한 고성능 LLM을 통해 비용 효율성과 성능 개선을 빠르게 달성해 한국 AI 기술력의 완성도를 높이고, 향후 공개될 트리(Tri)-70B와 함께 풀사이즈 LLM 포트폴리오를 완성해 나가겠다"고 말했다.

[머니투데이 스타트업 미디어 플랫폼 유니콘팩토리]

'트릴리온랩스' 기업 주요 기사

관련기사

이 기사 어땠나요?

이 시각 많이 보는 기사