IT

한겨레

'이루다' 논란 뒤 방통위 AI 정책기반 마련.."뒷북·중복 규제" 지적

최민영 입력 2021. 01. 14. 18:16 수정 2021. 01. 14. 18:26

기사 도구 모음

방송통신위원회가 인공지능 윤리규범을 구체화하는 제도 개선에 나선다.

방통위는 14일 "인공지능 채팅 로봇의 혐오, 차별적 표현과 인공지능 채팅로봇에 대한 이용자의 성희롱성 발언 논란과 관련해 사업자와 이용자, 정부 등 지능정보사회 구성원 모두가 인공지능 윤리의 중요성을 인지하고 실천 방안을 모색해야 하는 상황"이라며 인공지능 윤리규범 관련 제도 개선에 나선다고 밝혔다.

기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다. 전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
음성 기사 옵션 조절 레이어
번역beta

Translated by kakao i

번역할 언어 선택
글자 크기 조절 레이어

방송통신위원회가 인공지능 윤리규범을 구체화하는 제도 개선에 나선다. 최근 인공지능 챗봇 ‘이루다 논란’에 대한 정부 차원의 대응이나, 때늦은 대처란 비판도 나온다.

방통위는 14일 “인공지능 채팅 로봇의 혐오, 차별적 표현과 인공지능 채팅로봇에 대한 이용자의 성희롱성 발언 논란과 관련해 사업자와 이용자, 정부 등 지능정보사회 구성원 모두가 인공지능 윤리의 중요성을 인지하고 실천 방안을 모색해야 하는 상황”이라며 인공지능 윤리규범 관련 제도 개선에 나선다고 밝혔다.

구체적으로 지난 2019년 11월 발표한 '이용자 중심의 지능정보사회를 위한 원칙'의 구체적 실행지침을 마련한다. 원칙 발표 후 1년만에 지침을 만드는 셈이다. 또 내년에는 인공지능 윤리교육 지원 대상을 이용자에서 사업자로 확대한다. 스타트업 등을 대상으로 서비스를 만들 때 인공지능의 역기능 등 위험관리 컨설팅을 지원하는 사업도 이뤄진다. 중장기적으로는 이용자가 피해 야기한 인공지능 서비스의 책임소재 및 권리구제 절차 등이 포괄되도록 기존 법체계도 정비한다.

이날 방통위 발표와 관련해 오병일 진보네트워크센터 대표는 “인공지능 기술이 상용화 수준으로 발전해 실제 생활에서 사용되며 문제를 일으키는 상황을 감안하면, 정부는 윤리규범이 아닌 강행규범을 진작 만들었어야 한다”며 “인공지능의 윤리나 원칙은 민간의 영역에서도 충분히 정할 수 있다. 정부가 할 일은 공공성이 높거나 인권 보호를 위해 필요한 영역에서 지켜야 할 법 규범을 만드는 것”이라고 짚었다.

오 대표는 “방통위가 준비하는 내용은 과기부가 지난해 12월 발표한 국가 인공지능 윤리기준과 인공지능 법·제도·규제 정비 로드맵과 유사, 중복규제라고도 볼 수 있다. 관련 부처가 비슷한 영역에서 중복되는 방침을 만들면 기업이나 개인 등 법을 지켜야 하는 쪽에선 혼란이 가중될 수밖에 없다”고도 덧붙였다.

최민영 기자 mymy@hani.co.kr

ⓒ 한겨레신문사, 무단전재 및 재배포 금지

포토&TV

    이 시각 추천뉴스