[토요경제=임재인 기자] 개인정보보호위원회가 제2의 ‘이루다 사태’를 막기위해 개인정보보호에 특화된 AI 가이드라인을 공개했다.
산업계의 의견을 수렴하고 전문가와 전체회의 논의 등을 거쳐 만들어낸 ‘AI 개인정보보호 자율점검표(개발자?운영자용)’은 앞으로 인공지능 개발 시 큰 도움이 될 것이라 믿어 의심치 않는다.
하지만 한편으로는 말 그대로 ‘자율’, 자발적인 점검표이기 때문에 실효성이 크지 않을 거라는 조바심이 나기도 한다. 법적 효력이 없다면 자율점검표를 어기고 인공지능을 개발한다 해도 미리 ‘제2의 이루다 사태’를 예방할 방법이 없어지기 때문이다.
‘이루다 사태’는 두 번 다시 없어야 할 개인정보 보호의 허점을 노린 범죄였다. 20대 여성들의 메신저 내용을 수집해 인공지능의 데이터에 활용한 것, 여성들의 메신저 대화 내용이 가감 없이 챗봇 이용자들에게 쏟아낸 것, 모두 심각한 개인정보 피해다.
이것은 ‘자율’에 맡기는, 즉 양심에 호소하는 정도로 놔두면 안 되는 문제이기도 하다.
물론 ‘이루다 사태’에 문제점을 인식하고 다방면으로 전문가와 산업계의 의견을 청취해 가이드라인을 제시한 것은 괄목할 만한 일이다.
하지만 여기서 한발짝 더 나아갔더라면, 하는 아쉬움이 남는 것은 비단 기자뿐만이 아닐 것이라는 생각이 든다.
일각에서는 기술 개발과 발전을 위해서는 데이터 활용은 불사해야 한다고도 말한다. 그 생각에 반하는 것은 아니다. 하지만 최소한의 윤리적 가치와 개개인의 도덕적 양심을 두고 생각해 봤을 때 악용이 된다면 단번에 끊어 내야 하는 것도 맞다.
이 가이드라인은 비단 인공지능 산업에 머무르지 않는다.
기술개발, 산업발전 다 좋다. 하지만 사람들의 의식이 따라가지 않는다면 그것은 죽은 기술, 위험한 발전이라는 것을 염두에 둬야 한다. 대한민국은 엄청나게 빠른 속도로 성장과 발전의 길을 달려왔다. 그만큼 사람들의 의식도 성숙해지길 바랄 뿐이다.
[저작권자ⓒ 토요경제. 무단전재-재배포 금지]




































