SNU Data Science on Media: Roberto V. Zicari featured in Maeil Business Newspaper.
[매일경제] 세계는 ‘신뢰할 수 있는 AI’검증 중
서울대 데이터사이언스대학원 지카리 독일 괴테대 교수 강연
“인간과 인공지능(AI)간 신뢰는 우리 사회에 유익한 AI를 개발하고 활용하는데 필수입니다.”
로베르토 지카리(Roberto Zicari) 독일 괴테 프랑크푸르트대(Goethe-Universitat Frankfurt) 교수(사진)는 지난 3일 서울대 데이터사이언스대학원에서 진행한 온라인 세미나에서 “AI가 주는 혜택과 위험을 파악하기 위해 `신뢰할 수 있는 AI` 인지를 검증할 수 있어야 한다”며 이같이 말했다. 컴퓨터 과학자인 지카리 교수는 세계적인 빅데이터 전문가로 괴테 프랑크푸르트대에서 30년간 교단에 서면서 `프랑크푸르트 빅데이터 랩(Lab)`을 설립했다.
유럽은 지난 2019년 미국 등 주요 선진국 중 가장 먼저 `신뢰할 수 있는 AI(Trustworthy AI)`에 대한 윤리 가이드라인을 만들고 법 제정을 추진하고 있다. 한국에서 AI챗봇 이루다 사태 등이 터진 가운데 AI 윤리에 대한 관심이 커지면서 서울대는 지카리 교수를 서울대 특임교수로 초빙해 `AI의 윤리적 함의` 과목을 개설했다. 허성욱 서울대 법학전문대학원 교수도 참여한다.
AI는 블랙박스에 비유된다. AI가 외부 데이터를 활용한 학습뿐 아니라 스스로 데이터를 생산하고 학습하면서 AI가 내린 결정과 결과에 대한 설명이 쉽지 않기 때문이다. AI에 대한 검증도 마찬가지다.
지카리 교수는 “유럽연합(EU) 집행위원회가 `신뢰할 수 있는 AI를 위한 프레임워크(framwork·틀)`을 만들면서 △인간의 자율성 존중△무해성 △공정성△설명 가능성(Explicability) 등 네가지 원칙과 일곱 개의 핵심 요구사항을 정했다”며 “AI에 대한 검증도 이런 틀에서 이뤄질 수 있다”고 말했다.
지카리 교수는 상품·서비스에 적용한 AI에 대한 신뢰 여부를 검증하기 위해 일종의 플랫폼인 `Z검증 이니셔티브(Z-Inspection Initiative)`를 만들었다. 여기에는 미국과 유럽 등 50여개 주요 대학·연구기관의 전문가들이 참여하고 있다. 그는 “전문가들의 집단지성을 활용해 AI 상품·서비스에 대한 윤리·기술·법적 영향을 다각도로 평가하는 프로세스를 만들어 AI를 보완해 나가자는 것”이라고 Z 검증 이니셔티브의 취지를 설명했다. 추상적인 EU의 AI가이드라인은 Z검증을 거치면서 좀 더 구체적으로 적용된다.
실제로 지카리 교수는 그간 몇몇 AI에 대한 검증을 실시했다. 예컨대 머신러닝 방식으로 환자의 심박동수 데이터를 분석해 심혈관질환 위험도를 예측하는 AI의 경우 Z검증 결과 AI 학습용 임상 데이터가 서로 가까운 세 곳의 병원에서 수집됐다는 점이 확인됐다. 데이터 편향성 때문에 AI가 신뢰하기 어려운 결과를 초래할 가능성이 있다고 판단했다. 그는 “AI가 정확하지만 공정하지 못하는 등 현실에선 AI 윤리 원칙이 상충하는 상황이 벌어질 수 있다”며 “합리적이고 객관적인 근거를 바탕으로 윤리적 딜레마를 극복해야 한다”고 조언했다.
차상균 서울대 데이터사이언스대학원 원장은 “유럽의 AI윤리는 미국 빅테크 기업이 참고할 정도로 앞서 있고 AI를 검증하는 방법론이 등장하고 있다”며 “신뢰할 수 있는 AI를 구축하려면 윤리적 측면을 고려해 AI시스템을 설계해야 하고, 이를 위해 개발자 관점에서 무엇이 필요한지 등에 대한 연구개발이 중요하다”고 강조했다.
[임영신 기자, ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
[기사링크] https://www.mk.co.kr/news/it/view/2021/03/218244/
Maeil Business Newspaper. LINK