사설칼럼

한겨레

[전치형의 과학 언저리] 이루다는 몇살이었나

한겨레 입력 2021. 01. 14. 16:06 수정 2021. 01. 14. 21:36

기사 도구 모음

음성 기사 옵션 조절 레이어
번역beta

Translated by kakao i

번역할 언어 선택
글자 크기 조절 레이어

[전치형 과학의 언저리]

인공지능 챗봇 이루다
인공지능에 필요한 것은 부모가 아니다. 부모는 자식의 허물을 객관적으로 보지 못한다. ‘학습’이 나잇값 하는 인공지능을 만들어주는 만능 해결책도 아니다.

지난 며칠 동안 논란의 중심에 섰던 인공지능 챗봇 ‘이루다’가 결국 서비스를 중단했다. 여성으로 설정된 이루다를 사용자들이 성희롱 대상으로 삼는 일도 있었고, 이루다가 흑인과 동성애자 등 소수자에 대한 혐오가 담긴 대답을 하는 문제도 드러났다. 그동안 수집한 연인들의 카카오톡 대화 내용을 이루다 개발용 데이터로 사용한 것에 대한 문제 제기도 있었다. 이루다를 개발한 회사 스캐터랩은 지난 11일 공식 입장문을 내어 문제를 인정하고 사과했다. 반응은 다소 엇갈린다. 이루다의 개발과 서비스 과정이 모두 잘못되었다는 사람도 있고, ‘청년 스타트업’이 시행착오를 딛고 앞으로 더 성장하기를 응원하는 사람도 있다.

이 논란에서 내가 주목하게 된 것은 이루다의 나이다. 이루다는 몇살인가. 스캐터랩이 “너의 첫 에이아이(AI) 친구”라는 이루다를 내놓으면서 공식적으로 설정한 나이는 스물이다. 여러 연령대에서 편하게 말을 걸 만한 대상으로 스무살 여성을 선택했으리라 짐작한다. 미성년자로 설정할 경우 일부 사용자가 이루다와 대화하면서 아동학대 같은 상황을 만들 수 있다는 고려도 있었겠다. 사실 나이가 몇이든 이루다를 여성으로 설정하는 순간 챗봇이 희롱과 학대의 대상이 되는 것을 피하기는 어려웠다. 이루다는 스무살 성인 여성으로 행세하며 사용자 75만명과 대화를 나누었다.

하지만 스캐터랩이 내놓은 공식 입장문을 읽다 보면 이루다가 진짜 몇살인지 궁금해진다. 최근 발생한 문제들을 언급하며 회사는 이렇게 설명한다. “이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 에이아이입니다. 배워야 할 점이 아직 많습니다.” 여러 언론에서 인용한 회사 관계자의 발언도 이와 비슷하다. “현재 이루다가 언어를 자유롭게 배우는 단계라면, 앞으로는 이루다가 올바른 방향으로 발전하도록 튜닝할 것”이라고 한다. 스캐터랩의 김종윤 대표도 인터뷰에서 이루다를 부모의 보호나 지도가 필요한 존재로 보았다. “결국 루다에게도 일반 유저가 아닌 부모 역할을 할 사람이 필요하다”는 것이다(<지디넷코리아>). 이런 평가는 서비스를 시작하면서 “루다가 말을 너무 잘해서 진짜 사람처럼 느껴질 때가 있”을 거라고 소개했던 때와는 다른 인상을 준다. 이루다의 서류상 나이는 스물이지만, 회사에서 실제 세는 나이로는 유치원이나 초등학교 저학년 정도가 아닌가 싶다. 이루다는 대체 몇살인가.

괜한 트집 잡기처럼 보일 수도 있지만, 이루다의 나이는 꽤 중요한 문제다. 인공지능 챗봇 서비스에는 두 종류의 나이가 작동하고 있다. 하나는 사용자를 끌기 위한 마케팅용 나이, 또 하나는 인공지능의 언어 구사와 상호작용 수준을 기술적으로 평가한 나이라고 할 수 있다. 이루다 같은 인공지능 챗봇에는 이 두 나이 사이에 근본적인 괴리가 있다. 그래서 일단 사용자를 끌기 좋은 나이를 설정해놓고, 문제가 생기면 거둬들이면서 아직 어린아이일 뿐이라고 해명하게 된다.

인공지능이 나잇값을 못 하는 문제를 무마하기 위해 자주 동원되는 것이 ‘부모-자식 관계’와 ‘학습’이라는 수사다. 개발자는 인공지능의 부모 역할을 자임하고, 인공지능이 ‘학습’을 통해 쑥쑥 성장하는 자식이라고 생각한다. 우리 아이가 아직 어려서 서툴지만, 학습을 계속하면 다 잘할 거라는 태도다. 지금은 무슨 뜻인지도 모르고 인종 차별과 소수자 혐오 발언을 하지만, 더 풍부하고 정돈된 데이터로 충분히 ‘학습’하면 문제가 사라질 것이라 믿는다. “더 좋은 답변이 무엇인지에 대한 판단을 함께 학습하도록” 해서 “더 나은 이루다로 찾아뵙고자” 한다는 스캐터랩의 입장문도 이런 관점을 취하고 있다.

그러나 인공지능에 필요한 것은 부모가 아니다. 부모는 자식의 허물을 객관적으로 보지 못한다. ‘학습’이 나잇값 하는 인공지능을 만들어주는 만능 해결책도 아니다. ‘학습’을 핑계로 실전 평가가 유예되는 중에도 이미 내놓은 혐오 발언은 실제 세계에서 널리 유통된다. 사람과 접촉하는 인공지능 서비스에 필요한 것은 너그러운 부모가 아니라 책임감 있는 사업자와 까다로운 감독관이다. 인공지능 아이를 키우는 마음 대신 실제 아이 75만명이 사용할 나무블록 장난감을 만들고 판매하고 평가할 때와 같은 깐깐함이 더 나은 인공지능 개발에 유용하다. 어떤 재료가 쓰였는지, 피부에 닿아도 괜찮은지, 쌓다가 무너져도 다치지 않는지 제대로 따져보자는 것이다.

전치형 ㅣ 카이스트 과학기술정책대학원 교수·과학잡지 <에피> 편집위원

ⓒ 한겨레신문사, 무단전재 및 재배포 금지

포토&TV

    이 시각 추천뉴스