'설명 가능 AI' 세계적 석학 "국가적 AI 지원 바람직, 소버린 AI 환영"

박건희 기자 기사 입력 2025.07.09 08:25

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기

[인터뷰] 이수인 美 워싱턴대 컴퓨터과학·공학부 교수
'설명가능한 AI' 분야 세계적 석학

이수인 미국 워싱턴대 교수가 8일 서울 강남구 역삼동에서 기자들과 만나 인터뷰하고 있다. /사진=박건희 기자
이수인 미국 워싱턴대 교수가 8일 서울 강남구 역삼동에서 기자들과 만나 인터뷰하고 있다. /사진=박건희 기자

'설명 가능한 AI(인공지능)'(이하 XAI)는 사용자가 던진 질문에 대한 답을 넘어 답을 도출한 이유와 과정까지 설명하는 AI다. 'XAI의 개척자'로 불리는 이수인 미국 워싱턴대 컴퓨터과학·공학부 교수는 "기존 AI를 넘어 설명 가능한 AI에 요구하는 목소리가 전 세계 연구·산업계를 통틀어 크게 늘고 있다"고 했다.

전 세계 한국 출신 과학기술인이 모이는 '2025 세계 한인 과학기술인대회' 참석차 한국을 방문한 이 교수는 8일 서울 강남구 역삼동 한국과학기술회관에서 기자들과 만나 이처럼 밝혔다.

이 교수는 "XAI 사용 권한(사용권)에 대한 문의가 점점 늘고 있다. 미국에서는 이미 XAI를 다양한 분야에서 활용 중이며, 실제 XAI를 기반으로 창업한 사례도 있다"고 현황을 공유했다.

XAI(Explainable AI)는 설명 가능한 AI를 말한다. AI가 질문에 대한 답뿐만 아니라 답을 도출하는 과정과 논리적 근거까지 설명한다. 사용자는 AI의 고질적 문제로 꼽히는 '할루시네이션(환각)'에 대한 우려를 덜고, AI가 내놓은 답을 신뢰할 수 있게 된다.

XAI는 사람의 생명과 직결돼 있어 정확성이 무엇보다 중요한 의료 분야에서 특히 주목받는다. 이 교수는 "피부 이미지를 바탕으로 피부암을 진단하는 기존 AI 모델 5개를 분석해 보니 틀린 답을 도출할 때가 많았다. 피부암이 아니라 단순한 점인데도 피부암이라는 진단을 내리거나, 실제 피부암임에도 이를 짚어내지 못하는 경우"라고 했다.

이 교수가 개발한 XAI 방법론 'SHAP'은 AI가 어떤 데이터를 근거로 이같은 결론을 냈는지 알려준다. 방대한 학습 데이터 중 어떤 데이터가 가장 중요하게 활용됐는지, 어떤 데이터가 누락됐는지 분석한다. 이 과정을 통해 AI가 가장 정확한 답을 내리려면 어떤 데이터를 보완해야 하는지 알 수 있다. 이 교수는 전 세계 XAI 방법론의 '원조 격'인 SHAP를 개발한 공로로 지난해 여성 공학자 최초로 삼성 호암상도 받았다.

이 교수는 "SHAP의 특징은 정통적인 수학 이론을 다수 결합해 이론적 토대가 탄탄하다는 것"이라며 "이는 AI 분야에서도 이론 연구가 중요하며, 이론을 제대로 확립해야 확장성이 높다는 사실을 보여주는 사례"라고 했다.

더불어 국가 차원의 AI R&D(연구·개발)의 중요성을 강조했다. 그는 "AI 모델 개발에는 국가 차원에서 과학기술에 투자하는 펀딩(지원금)이 가장 중요하다. 기업 차원의 R&D는 분명한 한계가 있다"며 "AI의 잠재력을 무궁무진하게 펼치기 위해선 국가 차원의 지원이 가장 이상적"이라고 했다. 그러면서 "(우리 정부가) '소버린 AI'를 천명하고 과감한 투자를 결정한 것은 매우 훌륭한 방향"이라고 했다.

다만 우려도 표했다. 이 교수는 "AI 개발의 모든 영역을 우리나라 안에서 자체적으로 개발해야 한다는 생각보다는 세계적으로 유명한 기술이나 모델을 들여와 우리가 발전시키는 것도 방법"이라며 "우수한 기술이 있음에도 '국내산'만 고집하기보다는 좀 더 열린 태도로 기술 선택의 영역을 넓힐 필요가 있다"고 했다.

'이수인' 기업 주요 기사

관련기사

  • 기자 사진 박건희 기자

이 기사 어땠나요?

이 시각 많이 보는 기사