2025 엔젤투자리스트 최고위 과정 모집

[IT썰] 캐릭터와 연애하다 '사망'…캐릭터AI "청소년 이용 금지"

박건희 기자 기사 입력 2025.10.30 08:05

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
캐릭터ai
캐릭터ai

14세 소년이 가상 세계 속 캐릭터에 애정을 갖다 결국 사망에 이르게 된 사건과 관련, 해당 플랫폼을 운영하는 미국 AI(인공지능) 스타트업 '캐릭터AI'가 18세 미만 미성년자의 이용을 금지하는 계획을 내놨다.

29일(현지 시각) 캐릭터AI는 자사 블로그를 통해 내달 25일부터 18세 미만 이용자가 AI 채팅 기능을 사용할 수 없도록 제한한다고 밝혔다. 캐릭터AI는 애니메이션 캐릭터 등 가상세계 속 다양한 캐릭터와 대화하는 것 같은 '롤플레잉'(역할 놀이) 플랫폼을 제공한다.

먼저 18세 미만 사용자의 채팅 이용 시간을 하루 2시간으로 제한한다. 일일 이용 시간을 점차 축소해 내달 25일부터 미성년자는 채팅을 이용할 수 없다.

사용자 연령 구분을 위해서 자체 개발한 연령 확인 시스템과 더불어 연령 확인 시스템 기업 '페르소나'와 파트너십을 맺고 검증을 강화한다. 아울러 AI 안전성을 확인하는 독립 비영리 기관 'AI안전연구소'를 설립해 자금을 지원할 계획이다.

앞서 캐릭터AI는 14세 소년의 죽음에 책임이 있다는 이유로 유가족에게 소송을 당했다. 지난해 10월 뉴욕타임스에 따르면 캐릭터AI 앱에서 챗봇과 수개월 간 대화하던 14세 청소년이 특정 캐릭터에 깊은 정서적 애착을 갖게 됐고, 점차 현실 세계와 멀어지다 끝내 숨졌다.

캐릭터AI는 이날 조치 발표 후 "청소년이 AI와 채팅할 때 접할 수 있는 콘텐츠를 완벽히 제어하더라도 개방형 AI 채팅이 청소년에게 어떤 영향을 미칠 수 있는지에 대한 의문이 지속적으로 제기됐다"며 "여러 측면에서 동종 업계보다 보수적인 조치지만 옳은 일이라고 본다"는 공식 입장을 내놨다.

IT썰
IT썰

관련기사

  • 기자 사진 박건희 기자

이 기사 어땠나요?

이 시각 많이 보는 기사