[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] GraspClutter6D 데이터셋 예시 이미지와 기존 데이터셋과의 비교. 평균 14.1개 객체와 62.6% 가림률로 기존 데이터셋 대비 2배 가량 고난도 데이터를 제공한다./자료-GIST
광주과학기술원(GIST)은 AI융합학과 이규빈 교수 연구팀이 실제 환경의 복잡성을 정밀 반영한 세계 최대 규모의 로봇 파지(집기) 데이터셋 'GraspClutter6D'를 구축해 공개했다고 9일 밝혔다.
이번 성과는 정돈된 장면에서만 제한적으로 작동하던 기존 로봇 AI의 한계를 넘어, 물체가 뒤엉킨 현실 환경에서도 안정적으로 동작하는 로봇 파운데이션 모델의 핵심 기반을 제공한다. 최근 전 세계적으로 주목받는 피지컬 AI(Physical AI) 연구에도 기여할 전망이다. 연구는 한국기계연구원(KIMM)과 공동 수행됐다.
로봇의 집기 동작은 가장 기본적이면서도 난도가 높은 과제다. 창고 피킹이나 가정 정리처럼 물체가 겹치고 가려지는 상황에서는 정확한 인식과 안정적 집기가 특히 어렵다. 딥러닝 발전으로 성능이 개선됐지만, 그간 학습용 데이터셋은 대체로 정돈된 단순 환경을 전제로 해 실제 적용에 한계가 있었다.
예컨대 전 세계적으로 널리 쓰이는 GraspNet-1Billion은 장면당 평균 물체 수가 9개 미만이고 가려짐(occlusion) 비율도 약 35%에 그쳐 현실 복잡도를 충분히 담지 못한다는 지적이 있었다.
이 교수팀은 이러한 간극을 메우기 위해 실제 생활·산업 환경을 정밀 재현한 초대형 데이터셋 GraspClutter6D를 구축했다. 상자·선반·탁자 등 75가지 환경을 구성하고, 로봇팔에 RGB-D(컬러+깊이) 카메라 4대를 장착해 1,000개 장면에서 5만2,000장의 이미지를 수집했다.
데이터셋에는 △실제 물체 200종의 고품질 3D 모델 △73만6000개의 6차원(6D) 물체 자세 △93억 개에 달하는 6D 파지 자세가 포함됐다. 규모는 물론, 겹침·가려짐·다양한 배경을 체계적으로 반영한 점이 특징이다.
연구팀은 데이터셋과 함께 최신 객체 분할, 6D 자세 추정, 집기 검출 모델을 대상으로 벤치마크도 공개했다. 물체가 많이 겹치는 복잡 환경에서 기존 AI의 성능 저하가 두드러진 반면, GraspClutter6D로 학습한 모델은 실제 로봇 실험에서 뚜렷한 향상을 보였다.
단순 환경(물체 5개)에서는 집기 성공률이 77.5%→93.4%로 15.9%포인트 상승했고, 복잡 환경(물체 15개)에서도 54.9%→67.9%로 13.0%포인트 개선됐다. 연구팀은 "GraspClutter6D는 단순히 규모만 큰 데이터가 아니라 현실을 충실히 반영한 데이터임을 성능으로 입증했다"고 설명했다.
이규빈 교수는 "이번 성과는 산업 현장과 가정에서 마주치는 복잡한 상황을 대규모로 충실히 재현했을 뿐 아니라, 로봇이 현실 세계에서 학습하고 행동하도록 하는 피지컬 AI 연구에도 중요한 기반을 제공한다"며 "향후 물류·제조·생활 서비스 등 다양한 분야에서 로봇 활용을 한 단계 도약시킬 것"이라고 말했다.
GraspClutter6D와 관련 도구는 공식 웹사이트를 통해 전 세계 연구자에게 무료로 제공된다. 누구나 로봇 집기 연구, 6D 물체 자세 추정, 범용 로봇 파운데이션 모델 학습 등에 폭넓게 활용할 수 있다.
GraspClutter6D 데이터셋 개요. 선반, 책상, 박스 등 다양한 환경에서 다중 카메라 캡처 시스템을 이용해 수집되었으며, 73만 개 물체에 대한 6D 자세와 93억 개의 파지 자세가 포함되어 있다. /자료=GIST