트릴리온랩스은(는) 서울특별시 강남구에 위치한 정보통신업 분야 기업이며, 2024년 설립된 1년차 기업입니다. 2025년 8월 기준 근로자 수는 17명입니다.
[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] AI(인공지능) 스타트업 트릴리온랩스는 과학기술정보통신부가 추진하는 국가 전략사업 'AI 특화 파운데이션 모델 프로젝트'의 개발기관으로 최종 선정됐다고 5일 밝혔다. 이번 프로젝트는 세계 최초의 의과학 특화 파운데이션 모델(FM)을 구축하는 것을 목표로 한다. 루닛이 주관하고 트릴리온랩스를 비롯한 국내 주요 AI·바이오 기업들이 함께 컨소시엄을 구성했다. 컨소시엄은 이번 과제를 통해 분자·단백질·오믹스·의약품·임상 데이터 등 전 주기 의료 데이터를 하나의 AI 모델 안에 연결할 계획이다. 단순한 의료특화 AI를 넘어 의과학 전 영역을 통합하는 새로운 패러다임의 파운데이션 모델을 구축하는 것이 목표다. 트릴리온랩스는 이번 컨소시엄에서 의과학 파운데이션 모델의 핵심 엔진과 학습 구조를 설계·개발을 맡았다. 70억~700억 파라미터급 대규모 언어모델 개발 경험과 독자
2025.11.05 15:00:00[스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] AI(인공지능) 스타트업 트릴리온랩스가 LLM(대규모 언어모델)의 추론 성능을 소규모 프록시 모델로도 예측할 수 있는 새로운 방법론 '알브릿지(rBridge)'를 발표했다고 21일 밝혔다. 트릴리온랩스에 따르면 LLM을 학습하려면 막대한 연산 비용이 드는데 특히 추론 능력은 AI 모델이 일정 규모에 도달하기 전까지는 거의 드러나지 않다가 임계점을 넘는 순간 복잡한 수학 문제나 다단계 논리 문제까지 풀어내는 등 급격히 고도화되는 특성을 보인다. 이러한 특성 때문에 작은 모델만으로는 대형 모델의 추론 성능을 예측하기가 어려워 불가피하게 막대한 비용을 들여 대규모 학습을 반복해야 했다는 설명이다. 트릴리온랩스가 개발한 알브릿지는 작은 모델(프록시 모델, 10억개 이하 매개변수)만을 가지고도 대형 모델(최대 320억개 매개변수)이 실제로 얼마나 뛰어난 추론 능력을 보여줄지 효과적으로 예
2025.10.21 15:00:00[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] 초지능 AI(인공지능) 스타트업 트릴리온랩스는 아마존웹서비스(AWS)가 주관하는 '2025 AWS 생성형 AI 액셀러레이터' 프로그램에 전 세계 40개 기업 중 한 곳으로 선정됐다고 14일 밝혔다. 트릴리온랩스는 전 세계 2000여개 기업이 지원한 이번 프로그램에서 50대 1의 경쟁률을 뚫었다. AWS 생성형 AI 액셀러레이터는 전 세계 유망한 초기 단계의 생성형 AI 스타트업을 발굴하고, 기술적·사업적 성장을 지원하기 위한 글로벌 프로그램으로 올해 세 번째로 운영된다. 지난해 80개 기업이 선정된 것과 달리 올해는 40개사만을 선정해 경쟁이 치열해졌다. 트릴리온랩스는 이번 선정을 통해 최대 100만달러(약 14억3000만원) 상당의 AWS 크레딧을 지원받는다. 14일부터 미국 시애틀에서 시작되는 8주간의 액셀러레이팅 프로그램도 참여한다. 참가 기업들은 AWS의
2025.10.14 13:00:00AI(인공지능) 스타트업 트릴리온랩스가 완전히 독자적으로 모델을 설계하는 '프롬 스크래치(from-scratch)' 방식으로 700억 파라미터 규모의 LLM(거대언어모델) '트리-70B'를 개발했다고 11일 밝혔다. 프롬 스크래치는 기존의 공개 모델을 가져와 파인튜닝하고 재학습하는 게 아니라 처음부터 구조를 독자적으로 개발하고 학습시키는 모델이다. 트릴리온랩스는 이번 트리-70B가 한국에서 프롬 스크래치 방식으로 개발된 LLM 중에서 가장 큰 규모라고 강조했다. 트릴리온랩스는 이번 모델 개발과 함께 0.5B, 1.8B, 7B, 70B 등 자사의 LLM 전 라인업을 아파치 2.0 라이선스로 공개했다. 단순히 무료 사용을 넘어 수정·재배포 및 상업적 활용까지 허용하는 오픈소스 방식으로, 이를 통해 국내 AI 기업 및 학계 경쟁력을 높이는 데 기여한다는 계획이다. 특히 트릴리온랩스는 LLM 최종 모델뿐 아니라 학습 도중 생성된 중간 체크포인트(Intermediate Checkpoint)까
2025.09.11 08:17:16[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] 트릴리온랩스는 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 대규모 언어모델(LLM) '트리(Tri)-21B'를 오픈소스로 공개했다고 23일 밝혔다. 트리(Tri)-21B는 전작인 '트릴리온(Trillion)-7B' 대비 파라미터 수를 3배 이상 확장한 약 210억 개 규모로 성능을 대폭 끌어올렸다. 1대의 그래픽처리장치(GPU)에서도 원활하게 작동할 수 있는 경량성과 효율성을 동시에 갖췄다. LLM 엔진부터 완전한 사전학습(From-scratch) 방식으로 개발된 이번 모델은 고정밀 추론이 필요한 작업에서 강력한 성능을 발휘하도록 설계됐다. 수학과 코딩 등 단계적 사고가 요구되는 문제에 대해 구조화된 답변을 생성하는 생각사슬구조를 채택했으며, 특히 트릴리온랩스만의 기술력인 언어 간 상호학습 시스템(XLDA)을 적용했다. XLDA는 영어
2025.07.23 11:00:00