'이루다' 개인정보 논란에..시민사회 "법 위반" 지적

최민영 입력 2021. 1. 13. 19:46 수정 2021. 1. 13. 19:56
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능 챗봇 '이루다'의 개인정보 침해 의혹이 커지고 있는 가운데, 정보 인권 보호 활동을 해온 시민사회단체들이 제작업체인 '스캐터랩'의 개인정보 수집, 이용 과정의 문제점을 지적하고 나섰다.

이와 관련해서도 시민사회단체들은 "2019년 국립국어원에서 진행한 메신저 대화 자료 수집 및 말뭉치 구축 사업의 경우 메신저 대화를 수집하며 대화 참여자 전원에게서 동의를 받았다. 이는 정보주체의 권리를 보호함과 동시에 적법하게 데이터를 수집하는 일이 충분히 가능하다는 사실을 보여준다"며 "자신의 사적인 대화 내용이 수집되고 분석되며 이후 챗봇의 학습에 이용되었다는 사실을 인지도 못한 피해자가 무수히 존재할 것인 데이터 원본과 가명 정보는 모두 폐기되어야 한다"고 주장했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능 챗봇 ‘이루다’의 개인정보 침해 의혹이 커지고 있는 가운데, 정보 인권 보호 활동을 해온 시민사회단체들이 제작업체인 ‘스캐터랩’의 개인정보 수집, 이용 과정의 문제점을 지적하고 나섰다.

민주사회를위한변호사모임(민변)과 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대는 13일 공동 논평을 내어 “이루다 논란은 인공지능 제품이 일으킬 수 있는 문제의 한 단면으로 기업 자율에만 맡겨둘 수 없다”며 “생활 곳곳에 들어와 있는 인공지능 제품에 대한 구체적이고 명료한 법적 규범 마련을 촉구한다”고 했다.

이들은 이루다 개발의 재료가 된 서비스 ‘텍스트앳’과 ‘연애의 과학’의 대화 정보 수집 과정에서 스캐터랩이 개인정보 동의를 제대로 받지 않았다고 지적했다. 앞서 스캐터랩은 지난 11일 입장문에서 “동의가 이루어진 개인정보취급방침의 범위 내에서 활용한 것”이라고 밝힌 바 있다. ‘연애의과학’의 경우, 로그인 페이지에서 “로그인함으로써 개인정보 처리방침에 동의합니다”라고 알리는 것 만으로 개인정보 동의 절차가 끝났다는 주장이다.

하지만 이들 시민사회단체들운 “각각의 사항을 알리고 명시적으로 동의를 받도록 한 개인정보보호법을 위반한 것”이라고 반박했다. 이어 “(마케팅, 광고에의 활용을 중심으로 안내한 스캐터랩의 방침을 보면) 본인이 제공한 대화 내용이 챗봇의 학습 데이터로 이용될 것이라고 예상한 사람이 있을지 의문”이라며 “정보주체에게 충분히 설명을 통해 인지되지 않은 동의는 제대로 된 것이라고 보기 어렵다”고 했다.

2인 이상의 대화 데이터를 수집해 분석했으니 대화 상대방에게도 동의를 받아야 한다는 지적에 대해서 스캐터랩은 지난 11~12일 서비스 중단과 사과의 뜻을 밝히는 두 번의 입장문에서 아예 언급조차 없었다. 이와 관련해서도 시민사회단체들은 “2019년 국립국어원에서 진행한 메신저 대화 자료 수집 및 말뭉치 구축 사업의 경우 메신저 대화를 수집하며 대화 참여자 전원에게서 동의를 받았다. 이는 정보주체의 권리를 보호함과 동시에 적법하게 데이터를 수집하는 일이 충분히 가능하다는 사실을 보여준다”며 “자신의 사적인 대화 내용이 수집되고 분석되며 이후 챗봇의 학습에 이용되었다는 사실을 인지도 못한 피해자가 무수히 존재할 것인 데이터 원본과 가명 정보는 모두 폐기되어야 한다”고 주장했다.

이들 단체는 ‘이루다’의 대화 내용에 포함됐을 가능성이 높은 정치적 견해나 건강상태, 성생활 정보 등 민감정보와 여권번호, 운전면허번호 등 고유식별정보에 대해서도 “명시적 동의나 법령상 허용조항 없이 누구도 수집하거나 이용할 수 없는데, 연애의 과학은 이에 대한 별도의 동의를 받지 않았다”고도 짚었다.

이들은 “지난해 12월 정부가 '인공지능(AI)윤리기준'을 발표했지만 그것을 실현한 구체적인 방안은 없는듯 하다”며 “인공지능 제품과 학습 데이터의 편향성 문제는 윤리가 아니라 법률 규범의 문제다. 유럽연합과 캐나다 등 세계 각국에서는 인공지능 제품과 학습 데이터에 대하여 현행법을 정교하게 적용하기 위해 노력하고 있다”고 지적했다.

최민영 기자 mymy@hani.co.kr

Copyright © 한겨레. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?