메타, 4000개 언어 알아듣는 AI 오픈소스 공개…"오픈AI보다 성능↑"

윤지혜 기자 기사 입력 2023.05.24 10:10

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
/사진=메타
/사진=메타
메타가 4000개 이상의 음성 언어를 식별하고, 약 1100개 언어를 음성-텍스트로 상호변환하는 대규모 다국어 음성인식(Massively Multilingual Speech·MMS) AI 모델을 오픈소스로 공개했다고 24일 밝혔다.

세계에서 사용되는 언어는 7000개가 넘는데, 기존 음성인식 모델은 최대 100여개 언어만 지원해왔다. 이에 메타는 음성↔텍스트 변환 가능한 언어수를 1107개로 10배 확대했다. 음성으로 식별 가능한 언어도 4000개 이상으로 40배 가량 늘렸다.

기존 음성 변환 모델 대비 성능도 우수하다. 메타에 따르면 음성 변환 언어의 수를 61개에서 1107개로 18배 늘렸을 때 문자 오류율은 단 0.4% 증가했다. 오픈AI의 음성인식 모델 '위스퍼'와 유사 비교한 결과 MMS 데이터로 교육된 모델은 단어 오류율을 절반으로 줄이면서도 11배 더 많은 언어를 처리할 수 있는 것으로 나타났다.

메타는 언어 다양성 보존에 기여하고, AI 생태계 전반의 발전과 책임 있는 개발을 위해 MMS 모델과 코드를 오픈소스로 공개한다. 수천 개 언어를 지원하는 단일 음성 모델 구축을 위해 적용 언어 범위를 늘리고, 기존 음성 기술로는 다루기 어려운 방언 처리 문제도 연구한다. 발전된 음성인식 기술은 VR·AR(가상·증강현실)이나 메시지 서비스에 적용할 수 있다.

메타는 "MMS 프로젝트는 더 많은 사람들이 쉽게 정보에 접근하고 자신이 원하는 언어로 각종 기기를 사용할 수 있도록 돕는 것이 목표"라며 "AI는 메타의 다양한 제품·서비스의 기반이자 메타버스의 근간이 되는 핵심기술로 연구와 투자를 지속하고 있다"고 말했다.
  • 기자 사진 윤지혜 기자

이 기사 어땠나요?

이 시각 많이 보는 기사