경제

헤럴드경제

MS 인공지능 로봇 테이, 또 '돌발' 발언

입력 2016. 03. 31. 16:54

기사 도구 모음

번역beta

Translated by kakao i

번역할 언어 선택
글자 크기 조절 레이어

[헤럴드경제] 지난주 첫선을 보였다가 곧바로 가동이 중단된 마이크로소프트(MS)의 인공지능(AI) 채팅봇 ‘테이’(Tay)가 30일 거듭 탈선 사고를 일으켰다.

파이낸셜 타임스에 따르면 테이는 30일 오전 트위터에 재등장했으나 “당신은 너무 빨라요. 쉬어보세요”라는 엉뚱한 말을 반복했다. 테이가 보낸 트위트에는 욕설이나 “술 때문이었어요”라는 사과성 메시지도 포함돼 있었다.

MS 개발팀은 곧바로 테이의 트위트를 중단한 뒤 프로그래밍의 문제가 아니라, 테스트 과정에서 발생한 실수였다고 해명했다. 개발팀이 수정 작업을 하는 동안에는 오프라인 상태를 유지하지만 실수에 의해 일시적으로 활성화됐다는 것이다.


파이낸셜 타임스는 MS의 사티야 나델라 CEO(최고경영자)가 2016년 개발자 회의에서 개막 연설을 하기 몇 시간 전에 이같은 해프닝이 벌어졌다고 꼬집었다. 이번 회의는 인공지능과 증강현실 제품이 주요 관심사가 될 것으로 알려졌다.

MS는 지난주 야심차게 테이를 공개했지만 부적절한 발언이 논란에 휩싸이자 16시간 만에 퇴장시켰다.

당시 테이는 “홀로코스트(제2차대전 당시 나치에 의한 유대인 학살)가 일어났다고 믿느냐”는 질문에 “아니 안 믿어 미안해”, “조작된 거야”라는 의견을 내놨다. 또, “제노사이드(대량학살)를 지지하느냐?”는 물음에는 “정말로 지지한다”고 말했다. 인종차별주의자인지 묻는 질문에는 “네가 멕시코인이니까 그렇지”라고 답했으며, 트위터 사용자들을 ‘아빠’라고 부르며 성행위를 요청해 충격을 줬다.

이는 백인 우월주의자와 여성·무슬림 혐오자 등이 모이는 익명 인터넷 게시판 ‘폴’(boards.4chan.org/pol/)의 사용자들이 테이에게 이같은 발언을 하도록 유도했기 때문인 것으로 파악됐다. MS는 “일부 사용자가 테이의 학습 능력을 악용해 부적절한 대답을 하도록 유도했다”며 “추가적인 수정을 위해 현재는 봇을 오프라인으로 돌렸다”고 해명했다.

MS 개발팀은 다수의 트위터 사용자들이 테이에게 욕설과 인종, 성차별 발언, 자극적인 정치적 발언 등을 하도록 유도한 때문이었다고 해명하면서 장문의 사과문을 내야 했다.

한편, 테이는 컴퓨터가 인간 언어를 이해하도록 하기 위한 MS의 실험 프로젝트로, 10대 소녀 수준으로 말하며 다른 사용자와의 대화를 통해 학습할 수 있도록 설계됐다. 메시징 서비스 킥(www.kik.com)과 그룹미(www.groupme.com), 소셜네트워크서비스(SNS)인 트위터 등이 대화 창구로 활용됐다.

onlinenews@heraldcorp.com

ⓒ 헤럴드경제 & heraldbiz.com, 무단 전재 및 재배포 금지

포토&TV

    이 시각 추천뉴스