[단독]"챗GPT 개인정보 침해여부 검토, 상반기중 대책마련"

황국상 기자, 이정현 기자 기사 입력 2023.02.27 05:57

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기

이르면 상반기 중 AI 관련 개인정보 대책 수립·발표
AI기술 개발 뒷받침하는 데이터 정책과 AI 부작용 예방책 포함
"개인정보법 관련 회색지대 줄이는 구체화에 주력"

고학수 개인정보보호위원회 위원장 /사진=홍봉진기자 honggga@
고학수 개인정보보호위원회 위원장 /사진=홍봉진기자 honggga@
정부가 챗GPT 등 AI(인공지능) 엔진의 학습 과정에서 개인정보 침해소지가 있는지 검토에 착수했다. 또 상반기 중 AI 관련 개인정보보호 및 활용방안을 내놓는다.

고학수 개인정보보호위원회 위원장은 최근 머니투데이와 인터뷰에서 챗GPT와 관련한 개인정보 및 저작권 침해 이슈와 관련 "위원회에 비공식 TFT(태스크포스팀)을 구성해 (챗GPT와 관련한) 우려에 대해 고민하고 있고 외부 전문가들, 업계 분들의 의견을 듣고 정리하는 중"이라며 "상반기 중 AI와 관련한 개인정보 정책의 청사진을 마련할 것"이라고 밝혔다.

챗GTP 등 생성AI는 성능 고도화에 기존 출판물과 보도기사는 물론 웹페이지 자료를 활용하는 데, 여기에는 SNS 포스팅, 블로그, 댓글 등 동의없이 수집한 개인정보가 대거 포함돼 있다는 지적이다. 전세계 규제당국들도 이에대한 검토에 나선 가운데 국내에서도 김영배 의원 등이 AI 알고리즘에 의해 개인정보가 유출시 시정 사항을 확인하는 개인정보보호법 개정안을 발의하기도 했다. 이에 소관부처인 개인정보위가 생성AI의 개인정보 침해현황 실태 파악과 정책 마련에 나선 것이다.

고 위원장은 "AI와 관련한 대책은 크게 2가지 방향으로 진행될 것"이라면서 "하나는 AI 기술을 개발하는 과정에서 개인정보 등 데이터 측면에서 어떤 도움을 줄 수 있을지이며 또 하나는 AI로 인한 부작용을 어떻게 컨트롤할지에 대한 부분"이라고 말했다. 구글과 MS 등 빅테크들이 AI 기술개발을 주도하는 가운데, 우선적으로 국내 대기업과 스타트업들에게 부작용의 위험을 줄이면서 AI 기술과 서비스 개발을 뒷받침하는 개인정보 활용방안을 마련하겠다는 것이다.

아울러 AI 관련 부작용을 규율하는 데 있어서는 '원칙 중심 규율' 체계를 제시했다. 개인정보나 저작권침해 등과 관련 어떤 행위가 가능 또는 불가능한지 세세히 규정하기 보다는 다소 넓은 원칙을 설정하고 개개 사례마다 위원회가 가부(可否) 여부를 판단하겠다는 것이다. 현실적으로 보호대상인 개인정보가 무엇인지를 무자르듯 판단하기 어려워 위원회가 나서 법해석이 모호한 회색지대를 최소화하겠다는 것이다.

고 위원장은 "AI와 같은 영역은 기술이 워낙 빨리 변하기 때문에 법에 매뉴얼처럼 가부 여부를 규정하기 어렵다"며 "원칙을 정하고 개별 사안에 적용여부를 판단하는 '원칙 중심 규율'로 가야한다"고 밝혔다.
  • 기자 사진 황국상 기자
  • 기자 사진 이정현 기자

이 기사 어땠나요?

이 시각 많이 보는 기사