사법부 신뢰 추락으로 떠오른 '존경하는 AI 판사님'

류인하 기자 2019. 4. 21. 08:50
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[경향신문] #1. 지난 4월 15일 서울중앙지법 소법정. 방청석에서 대기하고 있던 70대 노인이 피고인석에 앉았다. 지친 기색이 역력했다. 그는 차로 사람을 치었고, 차에 치인 남성은 결국 숨졌다. 피고인 측 변호인이 재판장을 향해 말했다. “여기 유족분들도 계시지만 현재 피고인 역시 충격이 커서 합의를 하지 못하고 있습니다. 피고인의 상태도 많이 좋지 않습니다. 선고기일을 넉넉히 주시면….” 그러자 줄곧 방청석에서 울음을 참지 못하던 유가족 중 한 명이 재판장에게 “저, 한 말씀 드려도 될까요”라고 말했다. “저 사람(피고인)은 진심 어린 사과를 하고 있다고 말하지만 달라진 것이 하나도 없습니다. 재판장님 제발 큰 벌을 내려주십시오. 자신이 무엇을 잘못했는지도 깨닫지 못하는 사람입니다.” 피고인은 재판장을 향해 고개를 숙였다. “제가 잘못했습니다.”

#2. 20대 젊은 남성은 2차선에서 3차선으로 차선변경을 시도하다 옆 차선을 달리고 있던 차를 치고 그대로 도주한 혐의로 기소됐다. 법정에서 피해차량의 블랙박스 영상이 재생됐다. 피고인과 변호인은 차선변경을 시도하던 중 경계석을 치었다고 생각했지 차를 치었다는 인식을 하지 못했다고 거듭 주장했다. 블랙박스 속 영상에는 2차선을 달리던 가해차량이 사거리에서 무리하게 우회전을 시도한 것으로 볼 법한 정황이 포착됐다. 재판장이 물었다. “피고인, 제가 볼 때는 우회전을 하려고 한 것 같은데… 아닌가요?” 피고인은 아니라고 했다. 전화통화를 하며 운전을 하다보니 정신이 없었을 뿐 우회전을 시도한 것은 아니라고 했다. 재판장은 블랙박스 영상을 여러 차례 돌려 봤다.

형사재판에서 재판장은 결론을 내리기까지 끊임없이 의심하고 질문한다. 검찰이 제출한 유죄증거가 사실관계의 전부일 리 없고, 변호인과 피고인의 진술이 모두 거짓 없는 진실일 수도 없다. 각자가 숨기고 드러내는 일련의 과정 속에서 재판장은 가장 진실에 가까운 결론을 내린다. 여기에는 인간의 직관(直觀)이 개입된다.

사례 1에서 재판장은 70대 노인의 ‘반성 정도’를 ‘없다’로 판단할 수도 있고, ‘진심으로 뉘우치고 있다’고 볼 수도 있다. 사례 2에서 재판장은 피고인이 실제로는 우회전을 하려다 차를 치고 도주했다고 볼 수도 있고, 정말 정신이 없어 경계석을 잠깐 치었다는 착각을 한 채 운전한 것에 불과하다는 판단을 내릴 수도 있다. 검찰이 얼마나 공소유지를 위해 애썼는지, 변호인이 얼마나 방어하기 위해 애썼는지에 따라 결론이 달라질 수도 있다. 여기에는 유·무죄의 판단이 결국은 인간의 몫이라는 사회적 합의가 전제돼 있다.

/ @pixabay

사법부 역사상 첫 대법원장 기소라는 기록을 남긴 사법농단은 재판에 대한 국민의 신뢰를 떨어뜨리기에 충분했다. 임종헌 전 법원행정처 차장은 지난 3월 11일 열린 첫 공판기일에서 “부득이 (행정처의) 의견을 개진하거나 재판에 필요한 정보를 제공하는 경우도 있었지만 일선 법관의 양심을 꺾거나 강제로 관철한 것은 아니다”라고 했지만 그 발언을 진심으로 받아들이는 여론은 적었다.

재판에 대한 신뢰 떨어뜨린 사법농단 한 변호사는 “요즘 사건을 수임하면 의뢰인들이 제일 먼저 묻는 게 ‘혹시 제 사건이 재판거래 대상이 되면 어떡하죠’다. 그러면 ‘이 사건은 그럴 만한 사건이 아니니 걱정마시라’고 달랜다”고 했다. 이 변호사의 얘기가 마냥 우스갯소리로 받아들이기 어려울 정도로 사법부의 신뢰는 추락했다. 여기에 체스 챔피언을 상대로 승리한 ‘딥블루’와 이세돌 9단을 이긴 ‘알파고’, 포커게임이라는 도박에서조차 모두의 예상을 깨고 승리를 따낸 ‘리브라투스’의 등장은 ‘판사도 인공지능(AI)이 대체할 수 있지 않을까’라는 가설을 만들어내기에 충분했다.

과연 AI는 판사를 대체할 수 있을까. 이 물음에 쉽게 답할 수 있는 법조인은 없을 듯하다. 하나의 판결이 내려지기까지 원고와 피고, 검찰과 변호인이 쏟아내는 각종 주장과 자료를 기계화된 알고리즘에 집어넣어 객관적인 판단을 얻는다는 것은 사실 불가능하다. 게다가 판결은 법관의 양심과 함께 고도의 가치판단이 요구되는 작업이다.

법조분야에서 인공지능의 대체 가능성을 연구하는 전문가들은 그러나 소송 결과를 예측하거나, 법률검색 작업을 하는 수준의 알고리즘 활용작업은 언제든 가능하다고 본다.

실제 미국의 검색엔진인 웨스트로(Westlaw)나 렉시스넥시스(LexisNexis)의 법률검색 시스템은 대표적인 ‘리걸 테크’의 사례로 알려져 있다. 미국의 렉스 마키나(Lex Machina)는 기존 판례 데이터를 학습한 뒤 유사 선례에 비춰 해당사건의 승소율을 예측하고, 담당 법원이나 판사의 성향 등을 통계적으로 파악함으로써 변호사가 사건 평가를 좀 더 정확하게 수행할 수 있도록 돕는 서비스를 제공해 수익을 얻고 있다.

미국의 법률분야 스타트업 기업인 로긱스(LawGeex)는 지난해 2월 수천 건의 비밀유지계약서(NDA) 유형이 학습돼 있는 AI와 변호사 20명이 NDA 검토작업을 벌이는 실험을 실시했다. 비밀유지계약서 5건을 검토한 뒤 문제점이 있는 조항이 있는지 찾아내는 방식이었다. 이 실험에서 AI는 26초 만에 5개 문서의 검토를 마쳤다. 반면 변호사들은 평균 92분이 소요됐다. 검토 결과물의 정확도 역시 AI는 94%의 정확도를 보인 반면, 변호사는 85%의 정확도를 기록했다. NDA는 다른 계약서에 비해 구조가 단순하고, 대부분의 문건이 유사한 항목으로 작성되기 때문에 복잡한 알고리즘 없이도 분석이 가능하다. 결국 정형화된 문건의 경우 AI가 인간보다 더 훌륭하게 성과를 낸다고 볼 수 있는 셈이다. 그러나 미국 등지에서 활용되는 각종 서비스는 인간의 업무를 효율적으로 보조할 수 있는 수단으로서의 AI 기술일 뿐 인간 그 자체를 대체한다고 보기는 어렵다.

“현재로서는 비현실적인 구상” 양종모 영남대 법학전문대학원 교수는 지난해 2월 <홍익법학>지에 기고한 논문 ‘인공지능에 의한 판사의 대체 가능성 고찰’에서 “재판도 진행하고, 각종 심문·신문도 행하는 소위 로봇 판사는 단순한 알고리즘을 넘어 인간과 흡사한 로봇의 개발이라는 또 다른 과제를 남기는 한편, (법정에 출석한 양 당사자들과의) 커뮤니케이션을 위한 정교한 실시간 입·출력 시스템, 그 전제인 자연어 처리 시스템 구축 등 또 다른 미완성 과제가 해결돼야 한다”고 지적했다. 그러면서 “현재 단계로서는 도저히 달성할 수 없는 비현실적인 구상”이라고 판단했다.

무엇보다 판결 기계가 구현되더라도 ‘기계가 내리는 판결’을 사람들이 받아들이는 데 어려움이 있을 것으로 내다봤다. 양 교수는 “‘로보어드바이저’와 같이 투자수익만 내면 되는 경우는 투자 결정과정 자체가 크게 문제될 것이 없고, 그저 수익률로 알고리즘의 성능을 가늠하면 족하지만 판결 기계의 경우는 결정과정이 투명하게 설명돼야 한다”고 설명했다. 신뢰성 검증을 위해서는 알고리즘이 투명하게 공개돼야 하는데 이는 곧 개발자의 영업비밀이자 자산적 성격을 갖고 있어 검증 자체가 불가능할 수 있다고 봤다. 양 교수는 “자신이 교도소에 가서 몇 년을 복역해야 할지가 확률·통계적 모델인 판결 기계에 의해 결정되는 방식을 우리 사회가 저항 없이 받아들이기는 어려울 것”이라고 지적했다.

/ 일러스트 김상민 기자

일선 판사들의 생각도 비슷했다. AI가 판결을 내리는 데 보조적 수단으로 활용될 수는 있어도 결국 판결은 인간이 내려야 한다는 전제를 깨기는 어렵다고 봤다.

서울중앙지법의 한 부장판사는 “AI가 판결을 내린다면 그 근거자료는 결국 기존 판례일 텐데 판결은 사회 상황에 따라 언제든 바뀔 수 있고, 기존 판례가 뒤집힐 수도 있다”고 말했다. 그러면서 “대법원 확정판결이 내려졌다고 해서 그 판례가 또다시 뒤집히지 말라는 법이 없다. 그러나 AI가 판결을 내리는 세상이 오면 소수의견이 다수의견으로 뒤집히는 세상은 기대하기 어려울 것”이라고 지적했다. 재판은 단순히 법조항을 기계적으로 적용하는 것이 아니라 당시 사회에서 통용되는 철학에 따라 달라질 수 있다는 설명도 뒤따랐다.

다른 현직 판사는 “동일한 사건을 놓고 민사와 형사사건에서 판단하는 심증의 정도는 다르다. 형사사건에서는 무죄판결을 받았어도 민사사건에서는 상대방에 대한 손해배상책임을 져야 하는 경우가 그 예”라고 말했다. 그는 이어 “상대방이 피해를 입었지만 죄로 처벌할 수 없어 무죄판결이 내려져도 도의적으로 손해배상을 하는 게 맞을 경우 그것을 과연 기계가 조절할 수 있을지 의문”이라고 지적했다. 특히 교화에 더 방점을 둔 ‘소년사건’이나 감정적 다툼이 더 많이 발생하는 이혼소송, 양육권 분쟁 등의 각종 ‘가사사건’을 기계가 판단하기 어려운 영역으로 꼽았다.

‘과학기술’의 영역 아닌 ‘사회’의 영역 수도권 지역의 한 일선 판사는 “비록 가볍게 던지는 말이나 조롱에 불과할지라도 기계가 판사를 대체할 수 있고, 기계가 내린 판결에 기꺼이 수긍하겠다는 말은 그만큼 판사에 대한 국민의 신뢰가 얼마나 낮아졌는지 알 수 있는 부분이 아니겠느냐”고도 했다.

2015년 12월 당시 서울중앙지법 소속이었던 유형웅 청주지법 충주지원 판사는 ‘AI 법관의 도래’라는 법원 칼럼에서 다음과 같은 글을 남겼다.

“개인적으로 변호사의 사무가 컴퓨터로 대체되는 것은 극히 곤란할 거라고 별 근거 없이 낙관해 왔다. 주된 이유는 법학의 원시(原始)성 때문이다. 법률가가 다루는 개념의 상당수는 계량화가 곤란하다. ‘상당한 이유’, ‘합리적인 의심’, ‘법익의 균형’을 수치화해 컴퓨터에 집어넣을 방법은 잘 떠오르지 않는다. 좀 더 풀어서 이야기하자면 판결문 검색이 일상화된 시대에 판사의 논증과 통계학자 논증의 기본적인 흐름은 비슷하다. 판사라면 ‘합리적 의심의 여지가 있다’고 할 것을 통계학자는 ‘피고인이 무죄라는 가설 하에 이러한 결과가 발생했을 확률은 5%(혹은 1%)를 넘는다’는 식으로 표현할 뿐이다. 문제는 어떻게 확률이 5%인지, 1%인지 알 수 있느냐는 것이다.” 그리고 “컴퓨터의 세계에선 숫자가 없으면 사람도 없다.”

어쩌면 대한민국 사회에서 AI가 판사를 대체할 수 있을지에 대한 답은 ‘과학기술’의 영역이라기보다는 ‘사회’ 영역에서 찾아야 할지도 모른다. 유형웅 판사는 자신의 칼럼에서 이렇게 덧붙였다. “재판의 핵심은 결국 무오류성이 아니라 정당성이다. 로봇이 재판을 한다는 것은 곧 로봇의 통치를 받아들이게 된다는 의미일 수 있다. 그런 세상이 도래할 가능성은 두 가지다. 인간들이 로봇이 해주는 일에 너무 익숙해져 스스로 일하는 것은 고사하고 생각하기마저 그만뒀거나, 아니면 법원에 대한 신뢰가 극도로 실추돼 사람들이 차라리 로봇의 재판을 받길 원하게 되었거나.”

그러나 이 글이 작성된 지 3년여가 지난 2019년 4월 대한민국 사법부는 ‘사법농단’을 겪으며 신뢰도에 타격을 입었다. AI 판사의 도래는 아주 먼 이야기다. 하지만 ‘판사도 AI가 대체할 수 있지 않을까’라는 가설을 상정하는 것 자체가 지금 처한 사법부의 현실을 반영하는 질문은 아닐까.

『양형기준, 기계가 판단하기에는 한계

인공지능(AI)이 형사판결을 내리게 될 경우 우리나라에서는 ‘양형기준표’가 형량을 정하는 기준이 될 수밖에 없다. 아무리 동일범죄에 대한 많은 판례를 데이터로 축적하더라도 각 피고인별로 참작해야 할 사유는 제각각이기 때문이다. 그런데 우리나라의 양형기준은 기계가 판단하기에 한계가 있다. 양형기준 자체가 각 범죄를 수치화해 ‘자판기 식’으로 형량이 딱딱 떨어지는 형태가 아니기 때문이다. 오히려 각 양형인자들은 하나하나가 ‘가치판단’을 요하는 것들로 이뤄져 있다. 기계가 인간과 같은 가치판단을 내리는 수준까지 과학기술이 발전하지 않는 한 판결을 기계에 맡기는 것은 어려울지도 모른다는 전망이 우세하다. 왜 이 같은 형태의 양형기준이 만들어졌을까.

2007년 4월 대법원 양형위원회가 처음 출범했을 때 1기 양형위가 해야 할 과제는 크게 두 가지였다. ‘어떤 죄명을 양형기준 대상범죄로 세워야 할 것인가’와 ‘어떤 형태의 양형기준을 만들 것인가’였다. 첫 번째 과제는 어렵지 않았다. 국민적 관심사가 높은 범죄를 설문을 통해 뽑으면 될 일이었다. 문제는 후자였다. 어떤 형태의 ‘양형기준표’를 만들지를 놓고 검찰과 법원의 입장차는 컸다.

검찰은 ‘망라적·격자식 양형기준 모델’을 표준형으로 제안했다. 간단히 말해 X축과 Y축이 만나는 지점의 형량을 선고형으로 정하는 방식의 양형기준표였다. 양형인자를 계량화해 양형인자의 존재 여부에 따라 범죄의 등급 또는 수준(Y축)을 세분화하고, 범죄전력(X축)과의 교차점에서 정해진 격자(Cell)를 조밀하게 배치해 두 축이 만나는 지점이 곧 피고인의 형량이 되도록 하자는 것이었다. 판사의 재량을 최소화하는 방식으로, 누구나 예측가능한 양형기준표를 만들자는 취지였다. 검찰 측 양형기준표대로라면 검찰의 구형이 곧 판사의 선고형량이 될 수 있었다. 판사가 각 사건마다 형량을 정하는 데 담기는 가치관이나 각 피고인별 차이는 개입될 여지가 없었다. 만약 AI가 판결을 내릴 수준까지 기술이 도달한다면 검찰 안은 ‘AI 판결’도 가능한 형태인 셈이다.

그러나 최종적으로 채택된 것은 법원 안이었다. 법원 안은 검찰 안보다 판사의 재량권을 많이 인정했다. 범죄의 동기나 범죄 결과에 따라 선고 가능 형의 범위를 세분화하고, 각 감경요소·가중요소에 따라 형량에 차등을 뒀지만, 어떤 양형인자를 적용해 형을 감경하고 가중할 것인지를 판단하는 것은 전적으로 판사의 몫으로 남겼다. 여기에는 형사사건에서 피고인의 유죄 인정 증거를 독점하고 있는 검찰과 이에 맞서 방어하는 변호인의 정보 격차와 함께 검찰이 피고인에게 유리한 증거를 내놓지 않을 것이라는 ‘불신’도 영향을 미쳤다. 비판의 대상이 돼온 판사의 ‘고무줄 형량’은 양형기준표를 통해 일정 부분 통제할 경우 판사의 성향에 따른 지나친 차이는 벌어지지 않을 것이라는 일종의 ‘믿음’도 작용했다.

당시 법원 안을 제안했던 손철우 서울고법 부장판사는 “판결은 판사의 법 인격을 걸고 내리는 것”이라며 “판결 안에는 각 피고인이 저지른 범죄의 동기, 범행 결과, 재판에 이르기까지의 과정 등의 차이가 반영될 필요가 있다”고 설명했다. 손 부장판사는 “예를 들어 형량을 결정하는 요인 중 하나인 범죄 피해자와의 ‘합의’도 어떤 방식으로 합의가 이뤄졌는지, 합의의 정도가 어느 수준인지, 진정한 합의로 볼 수 있는지 등 많은 가치판단이 들어갈 수밖에 없는 영역”이라며 “이를 계량화·수치화해 일괄적으로 판단하는 것은 차이를 반영하지 못한 판결이 될 수 있다”고 말했다.』

류인하 기자 acha@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?