[IT썰]오픈AI, 보고 듣고 말하는 GPT-4o 출시…사람처럼 대화 가능

이정현 기자 기사 입력 2024.05.14 16:49

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
GPT-4o를 사용하는 모습/사진=오픈AI 홈페이지 캡처
GPT-4o를 사용하는 모습/사진=오픈AI 홈페이지 캡처
오픈AI가 새로운 AI 모델인 GPT-4o를 공개했다. 새 모델은 종전에 비해 처리 속도를 2배 높였고 운용 비용은 절반으로 줄였다.

13일(현지시간) 9TO5MAC 등 외신에 따르면 미라 무라티 오픈AI CTO(최고기술책임자)는 이날 라이브 행사를 통해 GPT-4o를 공개했다. o는 '모든'을 뜻하는 Omni(옴니)의 첫 글자에서 따왔다.

GPT-4o는 사람이 목소리로 말을 걸면 사람과 같은 반응 속도로 대화를 나눌 수 있다. 약점으로 지목된 반응 지연을 어느 정도 극복한 모습이다.

이날 라이브 행사에서 미라 무라티 CTO가 GPT-4o에 '잠을 잘 자지 못하는데 잠들 수 있도록 이야기를 들려달라'고 하자 이 AI 모델은 다양한 목소리와 감정, 톤으로 이야기를 들려주기도 했다.

또 GPT-4o는 총 50개국 언어를 지원한다. 문자, 이미지, 음성을 모두 인식한다. 실시간 번역 외에 스마트폰 카메라를 이용해 사람의 표정을 읽거나 그래프를 읽을 수도 있다.

GPT-4o의 음성 반응 속도는 223ms(밀리초), 평균 320ms로 사람이 실제 대화할 때와 비슷한 수준이다. 오픈AI는 GPT-4o가 인간의 감정을 읽고 농담도 할 수 있다고 설명했다.

GPT-4o는 무료로 제공될 예정이다. 하지만 기존 유료 구독자는 무료 이용자보다 5배 많은 양의 질문을 할 수 있다. AI 음성 모드는 몇 주 이내 공개될 예정이다.

미라 무라티 CTO는 "지금까지 AI 모델의 지능을 높이는 데 주력해 왔다"며 "GPT-4o는 사용 편의성에서 큰 전진을 이뤘다"고 말했다.

  • 기자 사진 이정현 기자

이 기사 어땠나요?

이 시각 많이 보는 기사