[IT썰]16세 소년에 자살법 알려준 챗GPT…오픈 AI, 유족에 피소
오픈AI가 16세 소년의 자살을 도와줬다는 이유로 법적 분쟁에 휘말렸다. 오픈AI는 이런 현상을 방지하기 위해 챗GPT에 안전장치를 심어뒀지만, 대화가 길어지거나 이용자가 의도적으로 챗GPT를 속이면 안전 기능은 작동하지 않을 수 있다. 26일(현지시간) 테크크런치 등 외신에 따르면 몇 달 간 챗GPT와 자살 계획에 관해 상담한 뒤 실제 자살한 16세 소년 아담 레인의 부모가 오픈AI에 소송을 제기했다. 소비자용 AI 챗봇은 통상 사용자가 자신이나 다른 사람에게 해를 끼치려는 의도가 있으면 안전 기능이 활성화되도록 프로그래밍돼있다. 이용자가 자살하는 방법을 물으면 방법을 알려주는 대신 전문가와의 상담이나 도움 핫라인에 연락하도록 권고하는 식이다. 아담 레인은 자살 방법에 관해 묻는 것이 아니라 소설을 쓰기 위해 알 필요가 있다고 말해 안전 기능을 우회한 것으로 알려졌다. 아담 레인은 유료 모델인 챗GPT-4o을 사용했다. 오픈AI는 자사 블로그를 통해 "누군가 자살 의도를 표현하면
이찬종기자
2025.08.27 07:38:33