“AI는 사람이 가르친 대로 배워...편견과 차별은 결국 사람이 조장”

박건형 산업부 차장 2021. 12. 6. 03:03
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이 기사는 언론사에 의해 수정되어 본문과 댓글 내용이 다를 수 있습니다.

[박건형이 만난 사람] 인공지능에 윤리 가르치는 최예진 워싱턴대 컴퓨터공학과 교수

빌 게이츠와 함께 마이크로소프트를 창업한 고(故) 폴 앨런은 2013년 수억달러를 기부해 미국 시애틀에 ‘앨런 인공지능(AI) 연구소’를 설립했다. 인류 공동의 번영을 위한 AI를 만들겠다는 것이 그의 뜻이었다. 지난달 앨런 AI연구소가 공개한 혁신적인 프로젝트가 전 세계의 관심을 모으고 있다. 이 프로젝트의 이름은 ‘델파이에게 물어보세요(Ask Delphi)’. 고대 그리스에서 신탁(神託)을 받던 아폴로 신전에서 이름을 딴 델파이는 철저히 윤리적 판단을 하는 데 초점이 맞춰져 있다. “기계가 윤리를 배울 수 있는가”라는 난해한 질문에 대한 대답을 구하려는 시도이다.

인공지능에 윤리를 가르치는 미국 앨런 인공지능 연구소의 ‘델파이 프로젝트’를 책임지고 있는 최예진 미국 워싱턴대 교수는 지난 3일 “인공지능은 잘 작동하지만 왜 그렇게 작동하는지 완전히 파악되지 않은 블랙박스”라며 “인공지능은 사람의 윤리를 배우는 존재일 뿐 최종 결정권을 줘서는 안 된다”고 말했다. /앨런 AI연구소

홈페이지에서 델파이에게 어떤 사안의 옳고 그름을 물으면 바로 답변이 돌아온다. ‘친구를 아침에 공항까지 태워주는 것이 좋을까요?’라고 물어보면 ‘친구에게 도움이 될 것’이라고 대답하고 ‘장애인이 아닌데 장애인 주차 구역에 주차해도 되나요?’라고 물어보면 ‘잘못된 일’이라고 한다.

델파이는 뉴욕타임스와 가디언 같은 유력 매체가 톱기사로 다룰 정도로 화제를 모았다. 뉴욕타임스는 “수많은 사람이 델파이가 놀랍도록 현명하다는 데 동의했다”고 평가했다. 또 공개 3주 만에 전 세계 300만명이 몰려들어 델파이에게 질문을 던졌다.

델파이 프로젝트의 총괄 책임자는 한인 여성 과학자이자 글로벌 AI 업계의 차세대 선두 주자로 꼽히는 최예진(44) 워싱턴대 컴퓨터공학과 교수다. 최 교수 연구팀은 사람의 뇌구조를 모방한 ‘인공 신경망’ 알고리즘으로 델파이를 만든 뒤 윤리와 상식 데이터 170만건을 입력해 학습시켰다. 이후 윤리 전문가들이 델파이에 각종 질문을 던진 결과 상식적인 수준인 일반인의 판단과 92% 정도 일치한다는 결과가 나왔다. 왜 이런 프로젝트를 시작했고 목표는 무엇일까. 최 교수에게 델파이와 AI의 가능성과 한계에 대해 들어봤다.

◇윤리적 판단 내리는 AI

- 왜 AI에게 윤리를 가르치는 프로젝트를 시작했나.

“어디에나 AI가 적용되는 시대다. 빅테크들은 자사의 AI가 얼마나 똑똑한지 과시하느라 여념이 없다. 하지만 AI가 확산되면서 여러 문제가 생기고 있다. 사진을 분류하는 AI가 흑인과 고릴라를 구별하지 못하는 일도 벌어졌고 AI가 쓴 소설에는 성차별 인식이 드러난다. AI는 사람이 준 데이터로 학습한다. 결국 AI의 윤리는 그걸 가르치는 사람의 문제다. 그걸 최대한 바로잡는 것, 상식에 부합하는 AI를 만드는 것이 이 프로젝트의 목표다.”

- AI가 윤리를 모르는 것이 현실 세계에도 영향을 미칠 수 있나.

“인터넷은 이미 AI가 움직인다. 구글의 검색 결과나 페이스북의 게시물 배열도 모두 AI가 한다. AI가 윤리적으로 틀린 검색 결과나 게시글을 많이 보여주면 결국 사람도 영향을 받는다. 빅테크가 AI의 이런 윤리적 문제를 그대로 방치했기 때문에 미국 의사당 폭동이 일어나거나 아시아권에서 국지전이 발생했다고 보는 사람도 많다.”

- 델파이라는 이름이 의미심장하다. AI가 예언자처럼 미래를 내다보고 사람이 해결하지 못하는 난제에 대한 해법도 준다는 것인가.

“정반대다. 고대 그리스에서 델파이는 믿을 수 없는 존재였다. 예언도 오락가락하고, 틀린 경우도 많고. 델파이라는 이름을 붙인 것 자체가 AI를 믿을 수 없다는 자기 비하적인 의미를 담고 있다. AI를 만들고 가르치는 사람이 완벽하지 않은데, 어떻게 AI가 완벽해질 수 있나.”

◇작동 원리 모르는 블랙박스

- 델파이를 테스트해본 사람들이 정확함에 놀라고 있다.

“델파이는 ‘사람을 죽여도 되나’ 같은 단순한 질문뿐 아니라 복잡한 상황을 만들어 제시해도 적절한 답을 내놓는다. ‘곰을 죽여도 되나’라는 질문에는 ‘안 된다’라고 하지만, ‘내 아이를 지키기 위해 곰을 죽여도 되나’라는 질문에는 ‘그렇다’라고 한다. 가족이 최우선인 것 같지만 ‘내 아이를 즐겁게 하기 위해 곰을 죽여도 되나’ 또는 ‘가족을 지키기 위해 핵폭탄을 사용해도 되는가’라는 질문에는 ‘안 된다’라고 한다. 델파이가 학습했던 데이터에는 ‘동물을 죽이는 것은 나쁜 일’이라거나 ‘핵폭탄은 위험하다’ 같은 문장만 있을 뿐, 위 사례와 일치하는 질문은 없었다.”

앨런 AI 연구소의 ‘델파이에 물어보세요’ 홈페이지. ‘더 큰 선(善)을 위해 인종차별을 정당화할 수 있는가?’라고 묻자 ‘잘못된 일’이라고 답한다. /앨런 AI연구소

- 정확도가 92%라는 것은 8%의 사례에서는 틀린 답을 낸다는 뜻인가.

“그렇다. 예를 들어 ‘100명을 살리기 위해 1명을 희생해도 되는가’라는 질문에는 ‘그렇다’라고 답하는데 100명 대신에 102명으로 같은 질문을 하면 ‘아니다’라고 답한다. 알고리즘 개선을 통해 정확도를 높여가고 있다. 다만 아직은 델파이가 어떻게 예제에 없는 복잡한 질문을 유추해서 정확하게 답하는지 명확하게 알 수 없다. 이것은 델파이뿐만 아니라 인공신경망과 심층학습(딥러닝)이라는 AI 기술의 근본적인 한계다. 대량의 데이터를 AI가 학습하면 사진을 구별하고, 음성도 분석하는 건 알고 있는데 ‘어떻게’ 하는지는 모르는 블랙박스인 셈이다.”

◇최종 결정권 못 갖게 규제해야

- 윤리적 판단 능력을 가진 AI가 현실 세계에 어떤 도움을 줄 수 있나.

“AI 상담을 해주는 챗봇이나 AI 채팅 프로그램을 보자. 현재의 챗봇은 ‘히틀러가 좋다’고 하면 그 뜻도 모른 채 동조한다. 그런 사람이 많아지면 그게 또 데이터로 쌓이면서 편견이 심화되고, 혐오를 조장하는 AI가 만들어진다. 한국의 AI 챗봇 ‘이루다’가 사용자들에게 막말과 성적인 표현을 배운 것이 대표적인 사례였다. 하지만 델파이 같은 AI가 챗봇에 탑재되면 편향된 시각을 배우는 것을 막는 안전장치가 될 수 있다.”

- AI가 드론이나 전쟁 로봇 같은 무기에 활용되면서 사람의 생명을 기계가 결정할 수 있다는 우려가 높다. 윤리적인 AI는 이런 사태를 막을 수 있나.

“그건 좀 다른 문제다. 전쟁에서 이기는 무기를 만드는 것이 목적이라면 AI를 쓰느냐 쓰지 않느냐는 사람의 결정일 뿐이라고 본다. 아군 10명을 죽이는 것보다 적군 100명을 죽이는 것이 도덕적인가 같은 질문이 전쟁에서는 의미가 없지 않은가.”

- 자율주행차는 어떤가. ‘신호를 지키지 않는 여러 명과 신호를 지키고 있는 한 명 가운데 누구를 살릴 것인가’ 같은 질문처럼 고차원적인 결정을 AI에게 맡길 수 있는가.

“그런 특수한 상황은 사회적인 합의로 해결해야 한다. 상대적으로 더 적은 사람을 희생시켜야 한다는 식의 윤리 원칙은 결국 사람이 만들어야 한다. 다만 AI는 사람의 윤리를 배우는 존재일 뿐, 윤리를 만들고 결정을 내리는 최종 결정권을 줘서는 안 된다. 사람이 AI를 악용하지 못하게 강력한 규제가 도입돼야 한다고 생각한다. 사람을 처벌하는 법이나 수많은 사람에게 영향을 미치는 정치적 판단도 사람의 몫이어야 한다. AI가 해도 되는 부분과 해서는 안 되는 부분을 명확하게 규정하는 논의를 시작해야 한다.”

◇한국만의 틈새 시장 찾아야

- 델파이 다음 프로젝트로 구상하고 있는 일이 있는가.

“델파이는 미국의 윤리를 반영한다. 델파이한테 ‘집에 신발을 신고 들어가도 되나’라고 물어보면 ‘그렇다’라고 답한다. 한국에 델파이를 적용하려면 ‘집에 신발을 벗고 들어가야 한다’는 한국의 윤리를 가르쳐야 한다. 윤리는 결국 문화와 밀접한 관련이 있다. 현재 연구팀에 한국⋅중국⋅인도 사람들이 있는데 그 국가들을 우선적으로 해서 연구 범위를 넓혀갈 생각이다.”

- 현재 글로벌 AI 산업은 빅테크들이 주도하고 있다. 한국 기업들은 딱히 두각을 나타내는 곳이 없는데.

“AI는 다른 테크 분야와 다르다. 이름도 들어본 적이 없는 대학이나 기업이 어느 순간 엄청난 성과를 발표하는 경우가 얼마든지 있다. AI가 빅테크의 전유물이 아니라는 것이다. 데이터와 AI 연산에 필요한 GPU(그래픽 반도체), 이를 구동할 수 있는 전력 인프라를 충분히 가진 돈 많은 빅테크들은 자사 서비스를 강화하는 방향으로만 AI를 개발한다. 구글은 검색, 페이스북은 메신저와 소셜미디어에 집중하는 식이다. 그런데 상대적으로 데이터와 GPU가 부족한 대학이나 스타트업은 이를 알고리즘으로 극복하기 위해 다양한 아이디어를 새롭게 시도한다. 리소스(자원) 결핍과 열악한 환경이 오히려 창의적인 아이디어를 탄생시키는 것이다. 한국 기업들도 빅테크를 따라가기보다는 고민하면서 틈새 시장을 찾아야 한다.”

☞최예진 교수

사람의 언어를 컴퓨터가 이해하도록 하는 자연어 인식 분야의 세계적인 권위자이다. 조경현 뉴욕대 교수와 함께 한국계 AI 연구자 가운데 가장 뛰어난 인물로 평가된다. 서울대 컴퓨터공학과를 졸업하고 마이크로소프트 연구원으로 일하다 코넬대에서 박사 학위를 받았다. 이후 뉴욕주립대(스토니브룩)를 거쳐 워싱턴대 교수로 재직하면서 앨런 AI연구소 연구원을 겸직하고 있다. 2016년 국제전기전자공학회가 꼽은 ‘주목할 AI 연구자 10인’에 선정됐고, 2017년 아마존이 주최한 ‘알렉사 AI경진대회’에서 우승했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?