450가지 미션 클리어 구글 가토, 세상 돌아가는 일도 처리할까

곽노필 2022. 5. 23. 10:06
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

구글 딥마인드가 개발 AI '가토'..604가지 일 처리 훈련받아
"게임 끝났다" 자평에 "660가지 게임 저장한 콘솔 비슷" 반론
딥마인드가 발표한 새 인공지능 가토가 일반인공지능에 대한 논의를 불러일으키고 있다. 위키미디어 코먼스

과학영화 속의 인공지능은 말 그대로 만능일꾼이다. 하지만 현실의 인공지능은 여전히 주어진 한 가지 또는 기껏해야 몇 가지 일에만 능숙하다. 바둑을 잘 하는 인공지능이 새로운 요리 레시피를 만들지는 못하고, 컴퓨터 게임을 잘 한다고 해서 약물 후보 물질을 잘 찾아내는 것도 아니다.

구글 알파벳의 인공지능 개발 자회사 딥마인드(DeepMind)가 600가지 이상의 작업을 할 수 있는 인공신경망 가토(Gato)를 개발해 최근 사전출판논문집 ‘아카이브’에 발표했다. 

딥마인드는 인공지능 개발자들의 궁극적인 목표라 할 ‘일반인공지능’(AGI)에 한발 더 다가가는 성과로 자평했다. 일반인공지능이란 사람과 동등한 수준의 인지 능력으로 사람이 할 수 있는 모든 정신적 작업을 할 줄 아는 인공신경망 시스템을 말한다.

영국 수학자 앨런 튜링은 사람과 구분할 수 없는 문자 대화가 가능한지를 알아보는 ‘튜링 테스트’를 그 기준으로 제시했다. 애플 공동창업자 스티븐 워즈니악은 무작위로 어떤 집에 들어가서 커피 한 잔을 만들 수 있는 방법을 알아낼 수 있다면 일반인공지능으로 인정하겠다고 말했다. 대학에 들어가 학위까지 받을 수 있는지를 기준으로 삼자는 제안도 있었다.

미국의 유명 발명가 겸 미래학자 레이 커즈와일은 사람 수준의 일반인공지능(AGI)이 출현하는 시점을 2029년으로, 모든 인류 지능을 합친 것보다 뛰어난 능력을 발휘하는 특이점(싱귤래리티)에 도달하는 시점을 2045년으로 예측한 바 있다.

딥마인드는 2010년대에 이세돌 9단을 꺾은 바둑 인공지능 알파고를 비롯해 사전 학습을 통해 특정 부분에서 사람을 앞서는 인공지능을 잇따라 선보인 데 이어 2020년엔 사전지식 없이도 스스로 규칙을 터득해 최고의 경지에 이르는 뮤제로를 개발한 바 있다.

가토는 단일 신경망을 사용해 604가지의 다양한 일을 할 수 있도록 훈련받았다. 딥마인드 제공

지피3 언어 모델에서 개발 영감 얻어

딥마인드가 이번에 발표한 가토는 채팅에서 아타리 비디오게임, 사진 설명문 작성, 로봇팔로 블록 쌓기 등 604가지의 일을 할 수 있도록 훈련받았다. 이 가운데 450가지는 사람보다 나은 실력을 보였다고 딥마인드는 밝혔다. 물론 사람보다 못한 능력을 보여주는 것도 많았다. 예컨대 사람과 채팅할 때 프랑스의 수도를 묻는 질문에 ‘마르세유’라고 말하는 등 잘못된 답변을 했다. 사진 설명문을 달 때 사람의 성별을 잘 못 표기하기도 했고, 로봇팔을 이용한 블록쌓기에선 성공률이 60%에 그쳤다.

딥마인드는 일론 머스크가 설립한 오픈에이아이(AI)의 지피티3(GPT3) 같은 대형 언어 모델에서 가토 개발에 대한 영감을 얻었다고 밝혔다. 언어 모델은 주어진 여러 문구를 가지고 가장 자연스러운 문장을 만들어낸다. 가토는 하나의 신경망으로 문자와 사진, 그림, 동영상 등 다양한 형태의 입력 신호에 맞춰 게임을 하고, 사진에 설명문을 달고, 채팅을 하고, 블록을 쌓는 등 다양한 방식으로 작동한다.

가토는 훈련 지침에 있는 ‘파란색 블록 위에 빨간색 블록 쌓기’ 말고도 새로운 ‘녹색 블록 위에 파란색 블록 쌓기’도 잘 해냈다. 딥마인드 제공

개발자 “이제 남은 건 규모 키우는 것”

딥마인드의 수석연구원 난도 드 프레이타스(Nando de Freitas)는 자신의 트위터에 “게임은 끝났다”며 “이제 남은 것은 규모에 관한 것”이라고 말했다. 그는 앞으로 할 일은 이 모델을 더 크게, 더 안전하게, 더 효율적이고 빠르게 작동하도록 만드는 것이라고 덧붙였다. 

딥마인드 공동 설립자인 데미스 허사비스도 트윗에서 “우리가 만든 최고의 범용 에이전트”라며 “연구팀이 환상적인 작업을 했다”고 응원했다. 매튜 구즈디얼 앨버타대 교수(컴퓨터과학)는 기술미디어 ‘테크크런치’에 “일반인공지능이 필요하다고 생각한다면 가토야말로 대박(빅딜)”이라고 말했다. 그는 “일반인공지능에 성큼 다가갔다는 평가는 과장된 것이라고 생각한다”면서도 “나는 일반인공지능보다는 소규모 모델(시스템)이 더 유용하다는 입장이지만 데이터 훈련을 받지 않은 일에 대해서도 성과를 낸다는 점에서는 일반 모델이 분명히 장점이 있다”고 덧붙였다.

그러나 인공지능 연구집단 나이프앤페인트브러시(Knives&Paintbrushes)의 마이크 쿡은 “언어모델과 가토 모두 주어진 작업의 맥락 내에서 시스템이 기억해낼 수 있는 정보량에는 한계가 있다는 것이 아킬레스건”이라며 “가토가 진정한 일반인공지능으로 가는 길에 있다고 생각해선 안된다”고 말했다. 그는 “가토는 다른 인공지능 유형과 마찬가지로 특정 작업을 위한 특정 교육 데이터를 받아 특정 종류의 학습을 한다”며 “한 번에 여러 작업을 학습할 수는 있지만 모든 것으로 통하는 디딤돌이 될 수는 없다”고 덧붙였다.

기술미디어 ‘더넥스트웹’은 “가토는 600가지 다른 방법으로 게임을 할 수 있는 능력을 갖고 있는 게 아니라 600가지 다른 게임을 저장한 게임 콘솔에 가깝다”고 지적했다.

매개변수 11억8천만개(주황색), 3억6400만개(초록색), 7900만개(빨간색)의 모델을 비교한 결과 크기를 늘릴수록 성능이 좋아지는 것을 확인했다. 딥마인드 제공

성공의 원동력이 된 데이터 처리 능력

딥마인드가 스스로 밝혔듯 가토는 어떤 것은 잘하고 어떤 것은 잘 못한다. 분명한 약점이 있는 인공지능을 왜 공개했을까?

기술 미디어 ‘지디넷’은 일단 개념 증명을 해보인 뒤 컴퓨팅 성능이 더 좋아지면 지금의 단점이 보완될 수 있다는 기대가 담겨 있기 때문이라고 분석했다. 현재 매개변수에선 가토가 11억8천만개로 지피티3의 1700억개보다 훨씬 작지만 하드웨어가 커지면 성능이 크게 향상될 것이라는 얘기다. 실제로 딥마인드 연구팀은 매개변수에 따라 세가지 크기의 모델(7900만개, 3억6400만개, 11억8천만개) 작업 성과 점수를 비교한 결과, 규모가 커지면서 성능이 크게 향상됨을 알 수 있었다고 밝혔다.

실제로 인공지능 성공의 원동력 가운데 하나는 규모다. 점점 더 큰 데이터 세트와 점점 더 강력한 컴퓨터 성능이 사용되고 있다. 미국 스탠퍼드대 사람중심인공지능연구소(HAI)에 따르면 인공지능 기술이 2012년을 기점으로 가속도가 붙어 3.4개월마다 두배씩 성능이 향상되고 있다. 이는 컴퓨터 칩의 집적도가 2년마다 두배씩 늘어난다는 ‘무어의 법칙’보다 7배나 빠른 속도다. 연구소는 그 덕분에 2020년대 들어 인공지능은 신흥 기술 단계를 지나 성숙 기술로 도약했다고 평가했다.

컴퓨터 연산 능력의 향상과 함께 인공지능의 성능이 가파르게 좋아졌다. OPEN AI 제공

일반인공지능 개념에 대한 문제제기도

그러나 인공지능의 이런 성과를 곧바로 일반인공지능과 연결시키는 것은 무리라는 지적도 있다.

메타(페이스북) 수석과학자 얀 르쿤은 인간도 전문화돼 있다는 점을 들어 일반인공지능 개념 자체를 부정했다. 그는 최근 블로그에서 “‘인간 수준의 인공지능’이란 목표는 인공지능이 인간처럼 필요에 따른 일을 배울 수 있다는 점에서는 유효하지만 우리는 아직 거기에 이르지 못했다”고 말했다. 그는 “기계가 세상이 어떻게 돌아가는지 배울 수 있는 학습 패러다임이 우리에겐 아직 없다”며 “해법이 가까이 있는 것도 아니고 해결해야 할 많은 장애물이 있는데 어떻게 해야 할지도 모르는 상태”라고 덧붙였다.

올리버 레먼 헤리엇와트대 교수(컴퓨터과학)는 ‘뉴사이언티스트’에 “가토와 같은 멋진 모델은 체리피커(알짜만 골라 먹는 행위)와 같은 것”이라며 “정확하고 바르게 입력하면 출력이 좋아진다”고 말했다.

그러나 레먼 교수는 “새로운 모델들이 놀라울 정도로 좋은 성과를 내고 있으며 다양한 작업을 수행하도록 인공지능을 훈련시키는 것은 결국 적용 범위가 더 넓은 모델이 등장할 수 있는 기반을 다지는 것”이라고 말했다. 그는 지금 우리가 목격하는 딥러닝 기술이 인공지능의 끝은 아니며 ‘창의성과 대화형 학습 사이의 간극’을 메울 수 있는 뭔가 다른 혁신이 있을 것이라는 기대감을 표명했다.

곽노필 선임기자 nopil@hani.co.kr

Copyright © 한겨레. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.

이 기사에 대해 어떻게 생각하시나요?