본문영역 바로가기

유니콘팩토리

로그인

최근 검색어

최근 검색 내역이 없습니다.

추천태그

유니콘팩토리 스타트업 라이프스타일 IT·정보통신 요식·식품

최신기사

  • 기사 이미지 투자·회수 "네 꿈을 응원해" 진로탐색 돕는 '중고생의 링크드인' 투자유치
  • 기사 이미지 일반 직원 10명 중 6명, 우영우 닮은 천재들...메타 꺾고 1조원 계약 따냈다
  • 기사 이미지 일반 스틱·알바트로스…하나벤처스 300억 민간모펀드 운용사 10곳은
  • 기사 이미지 일반 "'지속가능 단백질' 공동연구" 머쉬앤-핀란드 헬싱키대 맞손
  • 기사 이미지 일반 프리딕션, TIPS선정…전기차 배터리 최적화 AI 기술 고도화

트릴리온랩스

추천태그

유니콘팩토리 스타트업 라이프스타일 IT·정보통신 요식·식품
총 5건 최신순
  • 기사 이미지 트릴리온랩스, 과기부 'AI 특화 파운데이션 모델 프로젝트' 개발기관 선정

    [이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] AI(인공지능) 스타트업 트릴리온랩스는 과학기술정보통신부가 추진하는 국가 전략사업 'AI 특화 파운데이션 모델 프로젝트'의 개발기관으로 최종 선정됐다고 5일 밝혔다. 이번 프로젝트는 세계 최초의 의과학 특화 파운데이션 모델(FM)을 구축하는 것을 목표로 한다. 루닛이 주관하고 트릴리온랩스를 비롯한 국내 주요 AI·바이오 기업들이 함께 컨소시엄을 구성했다. 컨소시엄은 이번 과제를 통해 분자·단백질·오믹스·의약품·임상 데이터 등 전 주기 의료 데이터를 하나의 AI 모델 안에 연결할 계획이다. 단순한 의료특화 AI를 넘어 의과학 전 영역을 통합하는 새로운 패러다임의 파운데이션 모델을 구축하는 것이 목표다. 트릴리온랩스는 이번 컨소시엄에서 의과학 파운데이션 모델의 핵심 엔진과 학습 구조를 설계·개발을 맡았다. 70억~700억 파라미터급 대규모 언어모델 개발 경험과 독자

    남미래기자 2025.11.05 15:00:00
    트릴리온랩스 신재민 IT·정보통신 유니콘팩토리
  • 기사 이미지 "LLM 학습 비용 100배 절감"…트릴리온랩스, '알브릿지' 발표

    [스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] AI(인공지능) 스타트업 트릴리온랩스가 LLM(대규모 언어모델)의 추론 성능을 소규모 프록시 모델로도 예측할 수 있는 새로운 방법론 '알브릿지(rBridge)'를 발표했다고 21일 밝혔다. 트릴리온랩스에 따르면 LLM을 학습하려면 막대한 연산 비용이 드는데 특히 추론 능력은 AI 모델이 일정 규모에 도달하기 전까지는 거의 드러나지 않다가 임계점을 넘는 순간 복잡한 수학 문제나 다단계 논리 문제까지 풀어내는 등 급격히 고도화되는 특성을 보인다. 이러한 특성 때문에 작은 모델만으로는 대형 모델의 추론 성능을 예측하기가 어려워 불가피하게 막대한 비용을 들여 대규모 학습을 반복해야 했다는 설명이다. 트릴리온랩스가 개발한 알브릿지는 작은 모델(프록시 모델, 10억개 이하 매개변수)만을 가지고도 대형 모델(최대 320억개 매개변수)이 실제로 얼마나 뛰어난 추론 능력을 보여줄지 효과적으로 예

    최태범기자 2025.10.21 15:00:00
    트릴리온랩스 신재민 IT·정보통신 스타트업 유니콘팩토리
  • 기사 이미지 트릴리온랩스, '경쟁률 50대1' AWS 프로그램 선정…기술력 인정

    [이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] 초지능 AI(인공지능) 스타트업 트릴리온랩스는 아마존웹서비스(AWS)가 주관하는 '2025 AWS 생성형 AI 액셀러레이터' 프로그램에 전 세계 40개 기업 중 한 곳으로 선정됐다고 14일 밝혔다. 트릴리온랩스는 전 세계 2000여개 기업이 지원한 이번 프로그램에서 50대 1의 경쟁률을 뚫었다. AWS 생성형 AI 액셀러레이터는 전 세계 유망한 초기 단계의 생성형 AI 스타트업을 발굴하고, 기술적·사업적 성장을 지원하기 위한 글로벌 프로그램으로 올해 세 번째로 운영된다. 지난해 80개 기업이 선정된 것과 달리 올해는 40개사만을 선정해 경쟁이 치열해졌다. 트릴리온랩스는 이번 선정을 통해 최대 100만달러(약 14억3000만원) 상당의 AWS 크레딧을 지원받는다. 14일부터 미국 시애틀에서 시작되는 8주간의 액셀러레이팅 프로그램도 참여한다. 참가 기업들은 AWS의

    남미래기자 2025.10.14 13:00:00
    트릴리온랩스 신재민 IT·정보통신 유니콘팩토리
  • 기사 이미지 트릴리온랩스, 70B LLM 개발…"누구나 무료로 쓰도록 소스 공개"

    AI(인공지능) 스타트업 트릴리온랩스가 완전히 독자적으로 모델을 설계하는 '프롬 스크래치(from-scratch)' 방식으로 700억 파라미터 규모의 LLM(거대언어모델) '트리-70B'를 개발했다고 11일 밝혔다. 프롬 스크래치는 기존의 공개 모델을 가져와 파인튜닝하고 재학습하는 게 아니라 처음부터 구조를 독자적으로 개발하고 학습시키는 모델이다. 트릴리온랩스는 이번 트리-70B가 한국에서 프롬 스크래치 방식으로 개발된 LLM 중에서 가장 큰 규모라고 강조했다. 트릴리온랩스는 이번 모델 개발과 함께 0.5B, 1.8B, 7B, 70B 등 자사의 LLM 전 라인업을 아파치 2.0 라이선스로 공개했다. 단순히 무료 사용을 넘어 수정·재배포 및 상업적 활용까지 허용하는 오픈소스 방식으로, 이를 통해 국내 AI 기업 및 학계 경쟁력을 높이는 데 기여한다는 계획이다. 특히 트릴리온랩스는 LLM 최종 모델뿐 아니라 학습 도중 생성된 중간 체크포인트(Intermediate Checkpoint)까

    고석용기자 2025.09.11 08:17:16
    트릴리온랩스 신재민 IT·정보통신 유니콘팩토리
  • 기사 이미지 트릴리온랩스, 사전학습 방식 설계한 LLM '트리-21B' 오픈소스 공개

    [이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] 트릴리온랩스는 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 대규모 언어모델(LLM) '트리(Tri)-21B'를 오픈소스로 공개했다고 23일 밝혔다. 트리(Tri)-21B는 전작인 '트릴리온(Trillion)-7B' 대비 파라미터 수를 3배 이상 확장한 약 210억 개 규모로 성능을 대폭 끌어올렸다. 1대의 그래픽처리장치(GPU)에서도 원활하게 작동할 수 있는 경량성과 효율성을 동시에 갖췄다. LLM 엔진부터 완전한 사전학습(From-scratch) 방식으로 개발된 이번 모델은 고정밀 추론이 필요한 작업에서 강력한 성능을 발휘하도록 설계됐다. 수학과 코딩 등 단계적 사고가 요구되는 문제에 대해 구조화된 답변을 생성하는 생각사슬구조를 채택했으며, 특히 트릴리온랩스만의 기술력인 언어 간 상호학습 시스템(XLDA)을 적용했다. XLDA는 영어

    남미래기자 2025.07.23 11:00:00
    트릴리온랩스 신재민 IT·정보통신 유니콘팩토리

데이터랩

  • 스타트업 통계
  • 스타트업 조회
  • 투자기관 분석

전체

  • 일반
  • 정책
  • 행사
  • 인터뷰

스타트UP스토리

머니

  • 투자·회수
  • 이주의 핫딜
  • 머니人사이드

트렌드

  • 줌인 트렌드
  • 테크업팩토리

비디오

  • 유팩TV
  • 유팩IR

커리어

  • 채용
  • 스타트잡

혁신요람

  • 액셀러레이터
  • 유니밸리

오피니언

기자 프로필

전체

스타트UP
스토리

머니

트렌드

비디오

커리어

혁신요람

오피니언

기자 프로필

데이터랩

뒤로가기 Top버튼

유니콘팩토리

  • 회사소개
  • 이용약관
  • 개인정보처리방침
머니투데이 서울시 종로구 청계천로 11 (서린동, 청계빌딩) 대표이사/발행인/편집인 : 강호병 등록번호 : 서울아01084 사업자등록번호 : 762-86-02890 등록일 : 2009.12.24 제호 : 머니투데이 발행일 : 2000.1.1 연락처 : 02-724-7700 청소년보호책임자 : 신택균
COPYRIGHT©UNICORNFACTORY ALL RIGHTS RESERVED.