챗GPT 쓰다가 기밀 줄줄 샐라…'AI 보안' 걱정 틀어막는 이 회사
[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.] "우리 회사의 올해 영업 전략을 만들려면 어떤 자료가 필요하지?" (이용자) "주요 데이터는 다음과 같습니다. 과거 실적, 강점과 약점, 재무 데이터..." (생성형AI) 오픈AI의 챗GPT, 구글의 제미나이와 같은 생성형 AI(인공지능)와 주고 받을 법한 대화다. 이처럼 챗GPT 등 거대언어모델(LLM)에 프롬프트(명령문)를 넣을 때 개인정보나 기업의 민감한 데이터를 무심코 입력하기 쉽다. 지난해 5월 삼성전자는 회사 내부 기기에서 생성형 AI 사용을 금지했다. 한 엔지니어가 소스코드를 챗GPT에 업로드해 유출된 사례가 있어서다. 보안분야 글로벌단체인 OWASP(오픈웹 애플리케이션 보안 프로젝트)는 프롬프트 입력 단계에서 기밀정보 유출 우려가 있고 답변의 편향성, 유해성 등 우려가 있다고 지적했다. 이런 가운데 기업에 생성형 AI 보안솔루션을 제공하는 스타트업이
김성휘기자
2024.05.01 20:00:00