[IT썰] 캐릭터와 연애하다 '사망'…캐릭터AI "청소년 이용 금지"
14세 소년이 가상 세계 속 캐릭터에 애정을 갖다 결국 사망에 이르게 된 사건과 관련, 해당 플랫폼을 운영하는 미국 AI(인공지능) 스타트업 '캐릭터AI'가 18세 미만 미성년자의 이용을 금지하는 계획을 내놨다. 29일(현지 시각) 캐릭터AI는 자사 블로그를 통해 내달 25일부터 18세 미만 이용자가 AI 채팅 기능을 사용할 수 없도록 제한한다고 밝혔다. 캐릭터AI는 애니메이션 캐릭터 등 가상세계 속 다양한 캐릭터와 대화하는 것 같은 '롤플레잉'(역할 놀이) 플랫폼을 제공한다. 먼저 18세 미만 사용자의 채팅 이용 시간을 하루 2시간으로 제한한다. 일일 이용 시간을 점차 축소해 내달 25일부터 미성년자는 채팅을 이용할 수 없다. 사용자 연령 구분을 위해서 자체 개발한 연령 확인 시스템과 더불어 연령 확인 시스템 기업 '페르소나'와 파트너십을 맺고 검증을 강화한다. 아울러 AI 안전성을 확인하는 독립 비영리 기관 'AI안전연구소'를 설립해 자금을 지원할 계획이다. 앞서 캐릭터AI는
박건희기자
2025.10.30 08:05:38