[우리 곁에 다가온 AI] 인공지능도 '착시' 일으킨다
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
사람도 착시를 하듯 완벽한 것처럼 보이는 인공지능도 데이터를 조금만 조작하면 착시를 할 수 있다는 사실은 인터넷에서 '적대적 사례(adversarial example)'라는 검색어를 넣으면 쉽게 찾을 수 있다.
여기에 거의 차이를 느끼지 못할 정도로 약간의 데이터 변형을 하면 사람들은 대부분 판다라고 인식하지만 인공지능은 99% 이상의 신뢰도로 긴팔원숭이라고 잘못 판단했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
데이터 약간만 변형해도..판다 보고 "긴팔원숭이"
미국의 유명한 수학자이자 데이터 과학자인 캐시 오닐의 명저 ‘대량살상 수학무기’에는 공정함 및 개인의 이익과 권리 보호를 목적으로 빅데이터와 수학적 알고리즘을 결합하는 것이 오히려 인종차별·빈부격차·지역차별 등 불평등을 확대하고 민주주의를 위협할 수 있음을 보여주는 많은 사례가 있다. 편향된 알고리즘에 기반한 인공지능의 판정으로 범죄자로 분류되고 서류심사에서 탈락해 대출이 거부되는 상황이 발생할 수도 있다.
테슬라 자율주행서 사망 사고 등
데이터 잘못 읽어내 비극 잇달아
신뢰도보다 판단 근거에 주목
설명 가능한 AI연구 더 활발해질듯
압도적인 성능과 편리함에도 앞서 살펴본 것처럼 인공지능에 한계나 약점이 있는 것도 분명한 사실이다. 인공지능이 왜 그런 결정을 했고 과정은 타당했는지를 보여주지 못한다면 나날이 강력해지면서 빠르게 확산되는 인공지능 시스템에 대한 수용과 신뢰에 걸림돌이 생겨 깊은 우려의 대상이 될 수 있다. 그래서 AI 내부의 블랙박스를 들여다보려는 시도가 일부 진행돼왔는데 지난 2017년 미 국방성 방위고등연구계획국(DARPA)이 설명 가능한 인공지능(Explainable AI·일명 XAI) 프로젝트를 공식적으로 발족시키면서 설명 가능한 AI에 대한 연구가 촉진되고 있다.
법률·국방·금융·자율주행처럼 인공지능이 내린 결정이나 예측에 사용자의 높은 신뢰가 요구되는 분야에서 ‘설명 가능한 인공지능’은 필수적이라고 할 수 있다. 이를 위해 인과관계에 대해 설명이 가능한 새로운 인공지능 모델, 데이터의 패턴이나 시간 변화에 따른 양상을 보여주는 시각화 기술이나 음성을 통한 설명 등 인터페이스 기술, 사람의 심리적인 의사결정 메커니즘에 대한 분석기술들이 활발하게 연구될 것이다. 우리나라도 국가전략 프로젝트로 울산과학기술원을 중심으로 지난해 가을 ‘설명가능인공지능연구센터’가 설립돼 활발한 연구를 하고 있다.
향후 고양이 영상을 보여주면 단순하게 “몇%의 신뢰도로 고양이”라고 말하는 것이 아니라 “털이나 수염의 형태, 귀의 모양을 고려했을 때 고양이”라고 설명하는 인공지능이 대세를 이룰 것으로 기대한다.
Copyright © 서울경제. 무단전재 및 재배포 금지.
- "없어 못 판다"..'그랜저 하이브리드' 불티난 진짜 이유
- 유튜브보다 넷플릭스 더 본다는데..이대로 괜찮은걸까
- 피부 깨끗하단 '이재명' 신체검증한 의료진 꺼낸 '첫마디'
- '똘똘한 한채' 양도세 폭탄 피하려면..바뀐 부동산세법
- '망명·감금·사망설' 판빙빙, 135일만에 찍힌 사진 속에는
- "시원한 맥주 참 좋아하는데.." 80년 뒤엔 못 마신다고?
- 외국으로 도망간 '소라넷 운영자' 향한 검찰의 '직격탄'
- "신체검증 받으러 간다" 이재명 따라가는 기자 3명 왜?
- 곧 입주 '송파헬리오시티' 미친 전셋값, 9.13대책 때문?
- 여교사 치마 속 촬영해 유포한 고교생 6명 사건의 전말