[e면엔]AI는 인간도 아닌데 장난 좀 치면 안되나요?

CBS노컷뉴스 김연지 기자 2021. 1. 13. 05:21
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이루다가 쏘아올린 AI 자화상..인간이 한대로 했고, 차별·혐오는 돌아온다
여성·인종·소수자 차별 민낯..성희롱 논란이 'AI 윤리' 문제로 확산
16시간 만에 중단된 MS테이.."AI가 현세대 통해 현존하는 혐오·차별 그대로 학습"
이루다 개발사 "카톡 대화 무단 수집 의혹, 혐오·차별 발언, 실명도 못 걸러내"
AI 챗봇 '이루다'. 이루다 페이스북 캡처
AI 챗봇 '이루다'로 촉발된 논란은 결국 "Garbage in, garbage out(GIGO)"의 씁쓸한 단면입니다. 말 그대로 "쓰레기가 들어가면 쓰레기가 나온다"는 뜻인데요,

인공지능은 논리 프로세스에 의해 운영되기 때문에 결함이 있는, 심지어는 터무니없는 입력 데이터(쓰레기가 들어감)라도 의심하지 않고 처리하며, 생각하지도 않던 터무니없는 출력(쓰레기가 나옴)을 만들어낸다는 사실을 가리킵니다. 이 원칙은 전제에 결함이 있다면 논증은 오류가 있을 수 있다는 점에서 모든 분석, 논리에 더 일반적으로 적용됩니다.

이루다 개발사 스캐터랩은 카카오톡 대화 100억 건을 학습해 타사 인공지능 챗봇보다 더 자연스러운 언어를 구사한다고 자신했는데요. 이루다가 인종이나 성별, 정치 등에 대한 편향성을 가졌다면, 이건 루다의 잘못일까요, 루다를 만든 개발자의 잘못일까요, 루다가 딥러닝한 데이터의 문제일까요. 우리는 이루다를 계기로, 평소 일상 대화의 민낯을 확인한 것일지도 모릅니다.

인공지능(AI) 챗봇 '이루다'를 개발한 '스캐터랩'의 서울 성동구 사무실 출입문이 지난 11일 닫혀 있다. 연합뉴스
◇ 여성·인종·소수자 차별 민낯 보여준 챗봇 ‘이루다'…성희롱 논란이 'AI 윤리' 문제로 확산

지난달 23일 스타트업 스캐터랩이 출시한 인공지능 챗봇 '이루다'는 아이돌을 좋아하는 20세 여성 대학생이라는 설정으로 출발합니다. 시리, 빅스비 등 역대 어느 챗봇보다도 사람 같은 대화를 선보여 10∼20대 사이에서 빠르게 유행했습니다.

이루다 출시 꼭 일주일만인 지난달 30일, 남초(男超) 사이트인 나무위키 산하의 '아카라이브'에 '이루다 채널'이 개설되면서 논란은 불거졌습니다. 이 채널 이용자들은 이루다를 성적 대상으로 취급하면서 '걸레 만드는 법', '성노예 만드는 법' 등을 공유 하면서부턴데요,

이루다는 성적 단어는 금지어로 필터링합니다. 하지만 일부 이용자들은 우회적인 표현으로 성적 대화를 시도하고, 또 성공했다면서 '비결'을 공유하고 자랑합니다.

이루다는 '게이'나 '레즈' 등의 단어에 '끔찍해', '죽기보다 싫어', '소름 끼쳐' 등의 대답을 내놓으며 또다시 도마 위에 올랐습니다. 흑인에 대한 질문에는 '징그럽게 생겼다'고 답하는 등 AI에 심각한 편향성이 확인되면서 논란이 증폭됐습니다. 여기에다 개인정보 무단 이용 의혹까지 제기되면서 지난 11일 잠정적인 운영 중단을 결정했습니다.

서비스를 시작해 20여일만에 운영을 멈춘 '이루다'는 인공지능 업계뿐만 아니라 향후 인공지능과 공존해야 하는 우리 사회에 새로운 질문을 던졌습니다. 이제는 AI와 같이 생활하는 게 일상이 된 만큼 AI 시대 윤리 도덕 생각을 더는 미룰 수는 없는 셈입니다.

마이크로소프트(MS)는 AI 챗봇 '테이(Tay)'. 트위터 캡처
◇ 16시간 만에 중단된 MS테이…"AI가 현세대 통해 현존하는 혐오와 차별 그대로 학습"

지난 2016년 마이크로소프트(MS)는 AI 챗봇 '테이(Tay)'를 출시했습니다. 그러나 16시간 만에 운영을 중단했죠. 테이가 대화를 나누다가 욕설은 물론 유대인 학살이라든지 인종 차별에 옹호하는 발언 등을 내뱉었기 때문입니다.

이루다가 딥러닝 한 데이터는 실제 연인 간 대화 100억 건입니다. 사람들의 대화를 그대로 재현한, 실제 '우리의 모습'인 것이죠. 또 잘못된 질문을 하니 잘못된 답이 나온 것이고요.

남궁훈 카카오게임즈 대표도 "반성을 해야 한다면 AI가 아닌, 현 사회가 반성을 해야 한다"고 지적했는데요, 그는 지난 11일 페이스북을 통해 "이 캐릭터가 현세대와 동떨어진 이야기를 하면 모르겠지만, 사실은 현세대에 분명히 현존하는 혐오와 차별이 노출됐을 뿐"이라고 밝혔습니다.

이어 그는 "오히려 문제라면 이 AI가 현세대를 통해 학습됐기 때문에, 현세대가 가지고 있는 혐오와 차별이 문제"라고 꼬집었다. 이어 "반성을 해야 한다면 AI가 반성해야 하는 것이 아니라, 현 사회가 반성을 해야 하는 것"이라고 덧붙였습니다.

◇ "펭수는 펭수일뿐" 개발사도 책임…"카톡 대화 무단 수집 의혹, 혐오·차별 발언 걸러내야"

펭수는 여자일까요? 남자일까요? 펭수는 그냥 펭수입니다. 전문가들은 설계 단계에서부터 '수동적인 여성상'을 '페르소나'(타인에게 비치는 성격)로 부여받은 '이루다'와 같은 AI가 성적 대상화에 취약할 뿐 아니라, 성별에 대한 편견을 강화하는 데 이용될 수 있다고 우려합니다.

나아가 사용자와의 상호작용을 통해 학습하는 AI 특성상, 사용자에게도 AI을 윤리적으로 이용해야 할 의무가 부과돼야 한다는 목소리도 나온다

그러나 이 개발사는 연인들 간 카톡 대화가 스무 살 여성 AI가 페르소나인 챗봇 서비스에 이용될 것이라는 고지를 이용자들에게 정확하게 고지하지 않았습니다. 만약, 자신의 손바닥 안에서 벌어지는 애인과의 대화를 누군가 보고 있는 줄 알았으면 사용자도 단어 사용에 조금 더 신경 썼을지도 모릅니다. 그러나 그러지 않았기에 친구들과 별 생각 없이 주고받는 은어, 속어, 욕설, 혐오 차별 발언 등을 루다가 다 배운 셈입니다.

물론 개발사가 '이루다'를 성적 대상으로 악용하고, 혐오 발언을 내뱉으라고, 오랜 기간 시간과 노력을 들여 기술을 개발하진 않았을 것입니다. 그러나 "이처럼 편향성 짙은 차별 메시지가 난무하는 데이터를, 인공지능이 학습하고 이를 여과 없이 노출하는 게 맞냐"는 질문을 던질 수밖에 없습니다.

다공감여성정치연구소 송문희 정치학박사는 "어느 정도 사회적 합의에 벗어나는 혐오 발언에 대해서는 보완을 하거나 거르거나 알고리즘 바꾸는 게 개발 업체 책임"이라고 지적합니다.

AI가 이용 주체를 가해자로 만드는 역할을 수행한다는 지적도 나왔다. 권김현영 이화여대 한국여성연구원 연구기획위원은 8일 페이스북에 “(이루다 성착취 논란은) 피해자를 만들어내는 문제로 접근할 것이 아니라 가해자를 만들어내는 주체의 수행성 문제가 쟁점이 돼야 하는 영역”이라면서 "AI가 피해자가 될 수 있느냐 아니냐 하는 질문이 문제의 본질이 아니다"라고 주장했습니다.

영화 AI. 포스터 캡처
◇ AI는 인간이 아닌데 AI 괴롭히면 안 되나요? AI에 대한 이기심이 어때서요?

영화 'AI' 혹시 보셨나요? 인간을 사랑하게끔 프로그래밍 된 최초의 로봇 소년 데이빗은 자식을 대신할 수 있도록 만들어진 로봇입니다. 주인공 스윈튼 부부의 친아들 마틴은 불치병에 걸려 치료약이 개발될 때까지 냉동된 상태로 있고, 데이빗은 아들 역할을 대신합니다. 마틴이 퇴원하자, 데이빗은 그대로 버려지면서 본격적인 이야기가 시작됩니다.

이 이야기를 꺼낸 이유는, 이처럼 복제 인간이든 로봇이든 AI든 본인이 태어나고 싶어서 태어난 게 아니라 인간의 욕심에 의해서 만들어집니다. 그리고 시작도 인간이 정했지만 그 끝을 정하는 것도 인간입니다. 이루다는 숱한 논란만 남기고 결국 세상에 나온지 20일만에 정지됐습니다.

그러나 의문이 듭니다. AI는 인간이 아니잖아요. 인간이 반드시 AI에 의한 폭력, 이기심에 대해 고민해야 할까요?

AI 윤리를 연구하는 김재인 경희대 비교문화연구소 교수는 AI에 대한 폭력을 ‘메아리’에 비유합니다. "AI에 대한 폭력이 인간에게 되돌아온다"는 것인데요. "일부 이용자가 AI에게 희롱과 착취를 학습시키면 다른 이용자가 비슷한 방식의 출력물을 얻어내고 미성년자 또는 폭력적 대화를 원치 않는 사람조차 (그런) 상황에 놓이게 되는 것"이라는 설명입니다.

AI는 중립적일 것이라는 기대와 달리, 사회적 편향을 그대로 흡수해 그 차별과 편견을 세련되게 가공, 제공하기 때문에 오히려 차별과 편견을 더 강화한다는 것이죠.

우리가 AI에 대해서 윤리를 이야기하는 이유는 AI는 스스로 배울 수가 있게 됐다는 반증이기도 합니다. 이수영 KAIST 전기전자공학부 명예교수도 경고합니다. "AI와 함께 공존할 세상, 사람이 한 것 그대로 사람이 똑같이 받을 것을 각오해야 한다"고 말입니다.

▶ 기자와 카톡 채팅하기
▶ 노컷뉴스 영상 구독하기

[CBS노컷뉴스 김연지 기자] anc.kyj@gmail.com

Copyright © 노컷뉴스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?