IT

지디넷코리아

유네스코, 193개 회원국 만장일치로 AI윤리 권고 채택

방은주 기자 입력 2021. 11. 24. 10:55 수정 2021. 11. 24. 11:32

기사 도구 모음

음성 기사 옵션 조절 레이어
번역beta

Translated by kakao i

번역할 언어 선택
글자 크기 조절 레이어
141개 항목으로 구성..오픈사이언스 권고도 함께 채택

(지디넷코리아=방은주 기자)193개 유네스코 회원국이 만장일치로 141개 항목으로 이뤄진  '인공지능(AI) 윤리 권고'를 채택했다. AI 윤리에 대한 최초의 세계적 표준 지침이라고 유네스코는 설명했다. 'AI 윤리 권고'와 함께 '오픈사이언스 권고'도 함께 채택됐다. 이번 유네스코 'AI윤리 권고'는 2019년 12월 유네스코가 초안 마련을 위해 회원국에 특별 전문가 집단(AHEG, Ad Hoc Expert Group) 추천을 요청한 지 근 3년만이다. 

유네스코한국위원회(사무총장 한경구)는 23일(프랑스 현지시각) 프랑스 파리 유네스코 본부에서 열린 제41차 유네스코총회에서 '유네스코 오픈사이언스 권고'와 '유네스코 인공지능(AI) 윤리 권고'를 채택했다고 24일 밝혔다.

‘권고’는 국제법인 ‘협약’보다 약하지만 ‘선언’보다 구속력이 있는 지침이다. 코로나로 과학 분야 국제 협력이 강조되고, 또 인공지능 이용이 급격히 늘고 있는 이 때 193개 유네스코 회원국이 합의해 국제 지침을 채택한 것은 의미있는 일로 받아들여진다. 유네스코는 유엔 체계 안에서 유일하게 윤리적, 지적 성찰을 도모하는 기구다. 이번에 이 두 권고를 제정하기 위해 지난 2년여간 회원국 및 다양한 이해관계자의 의견을 수렴했고, 이번에 열린 41차 총회에서 만장일치로 채택했다.

유네스코 제41차 총회 모습. (사진=UNESCO/Christelle ALIX)

특히 '유네스코 오픈사이언스 권고'는 ‘다양성’과 ‘포용성’을 핵심 가치로 추구하는 한편 서로 다른 언어, 문화, 환경적 이해를 바탕으로 한 다양한 지식, 생산체계, 활동과의 융합을 추구했다. 오픈사이언스에 대한 공동의 이해 증진 등 7대 실천영역을 제시했다.

또, 권고의 실천 주체를 정부에 한정하지 않았다. 연구를 직접 수행하는 연구자, 이를 활용 및 전파하는 출판사, 교육가, 개방적 연구활동을 지원하는 기술자, 소프트웨어 개발자, 공학자, 일반 대중 등 다양한 주체들을 핵심 실천 주체로 장려했다.

과학기술의 빠른 발전은 인류가 직면한 다양한 문제를 극복하는 데 큰 도움을 주지만 동시에 윤리, 인권, 안보 등의 측면에서 예상치 못한 편견과 불평등이 생길 수 있다. 유네스코가 'AI윤리 권고’를 채택한 이유다. 유네스코는 "AI 개발과 관련한 윤리적 과제에 대응하고 사생활과 자율성 가치와 안전과 안보의 가치가 신중하게 균형을 맞출 수 있도록 AI 윤리에 대한 최초의 세계적 표준으로 기능한다"고 설명했다.

팬데믹과 기후변화 등 더 이상 혼자만의 연구로 해결하기 어려운 글로벌 난제가 잇달아 등장하고 있어 이번 ‘유네스코 오픈사이언스 권고’ 채택이 더 의미를 갖는다.

AI 기술과 오픈사이언스를 통한 가능성이 곳곳에서 확인되고 있지만, 글로벌 차원의 혜택을 충분히 누리기 위해서는 이에 맞는 윤리적 접근과 공통의 지침이 필요하다. 한경구 유네스코한국위원회 사무총장은 "과학분야 유네스코 권고 중 ‘과학 및 과학 연구자에 대한 권고’ 이후 2개의 권고가 더 채택돼 기쁘다. 이는 세계적 과제 해결을 위한 과학의 중요성을 보여주는 좋은 예”라면서 "이 권고들이 전지구적으로 공통의 이해를 도모하고 실천을 추동하는 역할을 할 것으로 기대한다”고 밝혔다. 이어 "정기적으로 이행 보고서를 제출해야 되는 등 어느 정도의 구속력을 갖춘 유네스코 권고를 통해 회원국이 공통의 실천 규범을 발전시켜 나간다는 점에서 의의가 있다"고 덧붙였다.

아래 내용은 유네스코 한국위원회가 본지에 보내온 '유네스코 AI윤리 권고' 국문 번역본이다. 이 국문번역본은 올해 권고문 최종안을 마련하며 진행한 정부간위원회에서 채택한 초안을 과기정통부에서 자료로, 채택 일자 등이 누락됐지만 내용에는 큰 변경이 없다고 유네스코한국위원회는 밝혔다.

AI 윤리에 관한 권고 초안

서문

제x차 국제연합교육과학문화기구(UNESCO) 총회, xx에서 xx, 파리.

인공지능(AI)의 사용이 사회, 환경, 자연, 인간의 삶과 정신에 끼치는 역동적이고 깊은, 긍정적 영향과 부정적 영향을 동시에 인지한다. 인공지능의 사용은 인간의 사고, 상호작용, 의사결정에 영향을 줌으로써 교육, 인문사회자연과학, 문화, 정보통신에 영향을 끼친다.

UNESCO 헌장에 명시된 바에 따라, UNESCO는 세계적으로 정의, 법치, 인권, 자유의 보장을 확립하기 위해 교육, 과학, 문화, 정보통신을 통한 국가 간 협력을 증진함으로써 평화와 안전을 추구하고자 한다.

국제법에 입각한 본 권고안이 인간의 존엄성과 권리는 물론 젠더평등, 사회경제적 정의와 발전, 신체적•정신적 안녕, 다양성, 상호연결성, 포용성, 환경 및 생태계 보호를 중점으로 제정된 국제적 기준을 제시함으로써 AI 기술을 책임감 있는 방향으로 인도할 수 있다고 확신한다.

그러므로 UN 헌장의 목적과 원칙에 입각하여,

AI 기술이 인류의 발전에 크게 기여할 수 있고 모든 국가들이 이를 통해 혜택을 얻을 수 있지만, 동시에 AI가 편향된 정보를 학습함으로써 사회적 문제를 악화시키고 차별, 불평등, 정보 격차, 배제, 문화•사회•생물학적 다양성 위협, 사회경제적 격차 심화와 같은 결과를 낳을 수 있으며; AI가 학습한 알고리즘 및 데이터의 투명성과 이해용이성(understandability)의 필요가 존재하며; 인간의 존엄성, 인권 및 기본 자유, 젠더평등, 민주주의, 사회•경제•정치•문화적 절차, 과학기술 관행, 환경, 생태계를 비롯한 기타 영역에 잠재적 영향을 미칠 수 있다는 근본적인 윤리적 우려를 제기하고, AI 기술이 각국 내부와 국가 간 존재하는 기존의 격차와 불평등을 심화할 수 있으며; 정의, 신뢰, 공정의 원칙에 따라 그 누구도 뒤쳐지지 않도록 각국의 각기 다른 상황을 고려해 기술 발전에 참여하지 않고자 하는 국가들의 의지를 존중함과 동시에 AI 기술에 대한 접근과 혜택, 부정적 결과에 대한 보호를 누릴 수 있도록 해야 한다는 것을 인정하고,

모든 국가 들에서 정보통신기술 및 AI 기술 사용이 가속화됨에 따라, 미디어 정보 리터러시의 필요가 증가하고 있으며; 디지털 경제가 사회•경제•환경적 과제를 제기하고 저중소득국(LMIC), 최빈개도국(LDC), 내륙개도국(LLDC), 군서도서개도국(SIDS)에게 이익을 공유할 기회를 제공하고 있으며; 지속가능한 디지털경제 개발을 위해 지역문화, 가치, 지식의 보호 및 증진이 필요함을 인지하고,

AI 기술이 환경 및 생태계를 위해 이로운 방식으로 사용될 잠재력이 있으며, 이를 위해 환경 및 생태계에 미칠 수 있는 잠재적 피해와 영향을 직면하는 것은 물론 적극적인 해결에 나서야 한다는 점을 인정하고,

위험요소 및 윤리적 과제의 해결을 통해 혁신과 발전이 저해되는 것이 아니라 새로운 기회가 생기고 인권 및 기본 자유, 가치 및 원칙, 윤리•도덕적 성찰에 기반한 AI 기술을 개발하는 윤리적 연구가 촉진되어야 함을 강조하고,

2019년 11월 제40차 UNESCO 총회에서 총회장에게 권고안의 형태로 “AI 윤리와 관련된 국제 표준 기구를 마련할 것”을 촉구하는 결의안 40 C/37을 채택했으며 이것이 2021년 제41차 총회에 제출될 것임을 기억하고,

AI 기술 개발은 그에 부합한 데이터 증가, 정보통신 리터러시, 독립적이고 다원적이며 신뢰할 수 있는 정보 소스, 잘못된 정보와 혐오 발언 그리고 개인정보 오용으로 인한 피해 위험의 완화를 필요로 한다는 것을 인정하고,

AI 기술을 위한 규범적 프레임워크과 사회적 의미는 국내외 법적 프레임워크, 인권 및 기본 자유, 윤리, 데이터 접근의 필요성, 정보 및 지식, 연구개발의 자유와 인간•환경•생태계의 안녕을 기반으로 하며; 공통의 이해와 공유된 목표에 근거하여 윤리적 가치 및 원칙을 AI 기술 관련 기회와 연결한다는 점을 주시하고, 윤리적 가치 및 원칙이 빠른 속도로 변화하는 기술 발전을 위한 지침을 제공함으로써, 권리 기반 정책 및 규범을 개발하고 시행하는 데 도움이 될 수 있다는 것을 인정하고,

국제인권법과 국제법에 따라 채택된 AI 기술에 관한 글로벌 윤리 기준이 전 세계 AI 규범 발전에 핵심적 역할을 수행할 수 있음을 확신하고,

세계인권선언(Universal Declaration of Human Rights, 1948), UN난민조약(Convention Relating to the Status of Refugees, 1951), UN차별협약(Discrimination (Employment and Occupation) Convention, 1958), UN인종차별철폐협약(International Convention on the Elimination of All Forms of Racial Discrimination, 1965), 시민적 및 정치적 권리에 관한 국제규약(International Covenant on Civil and Political Rights, 1966), 경제적•사회적•문화적 권리에 관한 국제규약(International Covenant on Economic, Social and Cultural Rights, 1966), UN여성차별철폐협약(Convention on the Elimination of All Forms of Discrimination against Women, 1979), UN아동권리협약(Convention on the Rights of the Child, 1989), UN장애인권리협약(Convention on the Rights of Persons with Disabilities, 2006), UN교육상의 차별 금지 협약(Convention against Discrimination in Education, 1960), UN문화다양성협약(Convention on the Protection and Promotion of the Diversity of Cultural expressions, 2005)을 비롯한 국제 인권 프레임워크와 기타 관련 기구, 권고문 및 선언문에 유념하고,

UN개발권선언(United Nations Declaration on the Right to Development, 1986), 미래세대에 대한 현세대의 책임에 관한 선언(Declaration on the Responsibilities of the Present Generations Towards Future Generations, 1997), 생명윤리와 인권 보편선언(Universal Declaration on Bioethics and Human Rights, 2005), 선주민의 권리에 관한 UN 선언문(United Nations Declaration on the Rights of Indigenous Peoples, 2007), 세계정보사회정상회의에 관한 UN 총회 결의안(United Nations General Assembly resolution on the review of the World Summit on the Information Society (A/RES/70/125), 2015), 세계의 전환: 지속가능발전을 위한 2030 의제에 관한 UN 총회 결의안(United Nations General Assembly Resolution on Transforming our world: the 2030 Agenda for Sustainable Development (A/RES/70/1), 2015), 디지털 형태를 포함한 다큐멘터리 유산 보존 및 접근에 관한 권고(Recommendation Concerning the Preservation of, and Access to, documentary Heritage Including in Digital Form, 2015), 기후변화 윤리 원칙 선언(Declaration on Ethical Principles in relation to Climate Change, 2017), 과학 및 과학연구자에 관한 권고(Recommendation on Science and Scientific Researchers, 2017), 2018년 UNESCO 국제커뮤니케이션개발프로그램(International Programme for the Development of Communication)이 발표한 인터넷 보편성 지표(Internet Universality Indicators), 2015년 UNESCO 총회에서 채택된 ROAM 원칙, UN 총회 인권이사회가 발표한 “디지털 시대의 프라이버시권(The right to privacy in the digital age)” 결의안(A/HRC/RES/42/15, 2019)과 “신기술과 인권(New and emerging digital technologies and human rights)” 결의안(A/HRC/41/11, 2019)에 주목하고,

자체적 역량을 갖췄음에도 불구하고 AI 윤리 논의에서 종종 배제되는 LMIC, LDC, LLDC, SIDS로 인해 로컬 지식, 문화다원주의, 가치 체계, AI 기술의 긍정적•부정적 영향에 대처할 글로벌 공정성의 필요 등이 충분히 고려되지 않는 것에 주의해야 함을 강조하고,

기존의 국가 정책, UN 관련 기관의 프레임워크 및 이니셔티브를 참고하며; AI 기술 윤리 및 규제와 관련된 지역 조직, 민간 영역, 전문 기관, 비정부기구, 과학 공동체를 포함한 정부 간 기구를 의식하고,

AI 기술이 긍정적 결과를 낳을 수 있지만 이러한 성과가 혁신과 관련된 긴장감을 고조시키며; AI관련 주제에 대한 국민의 참여를 제한하는 디지털•시민 리터러시 부족과 같은 지식 및 기술에 대한 비대칭적 접근을 야기하며; 데이터 문제를 비롯한 정보의 접근 장벽, 정보 격차, 개인과 기관의 역량 격차, 기술혁신 접근 장벽, 적절한 물리적•디지털 인프라와 규제 프레임워크의 부족과 같은 문제를 낳을 수 있음을 인정하고,

다자주의를 통한 글로벌 협력과 연대 강화가 AI 기술의 공정한 접근을 용이하게 하기 위해; 다양성과 문화•윤리 시스템의 상호연결성에 야기하는 과제를 해결하기 위해; 잠재적 오용을 완화하기 위해; AI의 잠재력을 최대한 실현하기 위해; 그리고 국가 AI 전략이 윤리적 원칙에 기반을 두도록 하기 위해 필수적임을 강조하며,

AI 기술의 급속한 발전이 윤리적 이행 및 거버넌스와 문화적 다양성에 대한 존중과 보호를 저해할 수 있다는 사실과, 각 지역의 윤리적 기준 및 가치를 와해할 가능성을 충분히 감안하여,

1. 본 AI 윤리 권고안을 채택하고,

2. 각국의 헌법적 관행과 구조에 따라 적절한 법적 조치를 비롯한 기타 조치를 취함으로써 회원국이 각국의 사법시스템 내에서 국제인권법과 국제법에 따라 자발적으로 본 권고안의 조항과 원칙을 적용할 것을 제안하며,

3. 회원국이 기업을 비롯한 모든 이해관계자들에게 본 권고안을 이행함에 있어 각자 맡은 역할의 수행을 촉구하고, AI 기술 관련 당국과 기관, 연구 및 학술 단체, 공공•민간•시민 영역에 본 권고안에 대한 주의를 환기시킴으로써 과학 연구는 물론 윤리적 평가를 통해 AI 기술의 개발 및 사용을 실현할 것을 권장한다.

I.적용 범위

1. 본 권고안은 UNESCO의 권한 내에서 AI 영역과 관련된 윤리 문제를 다룬다. 또한 AI 기술이 인간, 사회, 환경 및 생태계에 미치는 알려지거나 아직 알려지지 않은 영향에 대처하는 포용적이고 다문화적이며 진화하는 가치•원칙•행동 프레임워크에 기반해, AI 윤리를 체계적인 규범적 성찰의 차원에서 접근하며, AI 기술을 받아들이거나 거부할 수 있는 근거를 제공한다. 나아가 인간의 존엄성, 사회의 안녕, 피해 예방을 나침반 삼아, 과학 및 기술윤리에 근거한 윤리를 AI 기술의 규범적 평가와 지침의 역동적 기반으로 간주한다.

2. AI의 정의는 기술 발전에 따라 변경될 필요가 있으므로 본 권고안의 목적은 AI에 대한 하나의 정의를 제공하는 것이 아니라 오히려 AI 시스템의 특징 중 윤리 문제와 관련이 깊은 영역을 다루는 것이라 할 수 있다. 본 권고안은 AI 시스템을 추론, 학습, 인식, 예측, 계획 혹은 통제와 같은 지능적 행동이 가능하고, 데이터 및 정보 처리 능력이 있는 시스템으로 간주한다. 이러한 접근의 중심에는 다음 세 가지 요소가 있다:

(a)AI 시스템은 학습 및 인지작업 수행 능력을 발생시키는 모델과 알고리즘을 통합하여 물질 및 가상 환경에서 예측, 의사결정과 같은 결과를 도출하는 정보 처리 기술이다. AI 시스템은 지식 모델링 및 표현, 데이터 활용, 상관관계 계산을 통해 가변적인 자율성을 갖고 작동하도록 설계됐다:

(i)딥러닝 및 강화학습을 포함한 머신러닝.

(ii)계획, 스케줄링, 지식 표현, 추론, 검색 및 최적화를 포함한 기계 추론.

AI 시스템은 사물인터넷, 로봇 시스템, 소셜 로보틱스와 같이 통제, 인식, 센서를 통해 수집된 데이터의 처리, AI 시스템이 가동되는 환경에서의 엑추에이터 운용 등을 포함한 인간 컴퓨터 인터페이스와 같은 사이버물리시스템에 활용될 수 있다.

(b)AI 시스템과 관련된 윤리 문제는 연구, 설계, 개발부터 출고 및 사용을 포함하는 AI 시스템 수명주기 전반에 해당되며, 유지 거버넌스, 운용, 교역, 자금조달, 모니터링 및 평가, 유효성 검사, 사용 종료, 분해, 폐기에 이르는 모든 과정을 포함한다. 한편 AI 행위자는 AI 시스템 수명주기 중 적어도 한 단계에 관련된 행위자로 정의될 수 있으며, 연구자, 프로그래머, 엔지니어, 데이터 과학자, 최종 사용자, 기업, 대학, 민간 및 공공 단체 등을 비롯한 자연인과 법인 전체를 포함한다.

(c)AI 시스템은 의사결정, 고용 및 근로, 사회적 상호작용, 보건, 교육, 미디어, 정보 접근, 정보 격차, 개인정보 및 소비자 보호, 환경, 민주주의, 법치, 안전 및 치안, 이중 사용, 표현의 자유, 프라이버시, 차별당하지 않을 권리를 포함한 인권 및 기본 자유와 관련된 새로운 윤리 문제를 제기한다. 뿐만 아니라 기존의 편견을 재현하고 강화해 이미 존재하는 차별, 선입견, 고정관념을 악화시킬 수 있는 AI 알고리즘의 잠재력으로 인해 새로운 윤리적 과제가 발생하고 있다. 이들 중 일부는 생명체, 그 중에서도 특히 인간만이 수행할 수 있었던 작업을 수행하는 AI 시스템의 능력과 관련이 있다. 이러한 특징으로 인해 AI 시스템에는 인간 활동과 사회는 물론, 환경 및 생태계와의 관계에 있어 심오하고 새로운 역할이 부여되는 것은 물론 아동과 청년들이 성장하고, 세계와 자신을 이해하고, 미디어 및 정보를 비판적으로 수용하고, 의사결정을 학습할 수 있는 새로운 환경이 제공된다. 장기적으로 AI 시스템은 경험과 주체성에 관한 인간의 고유한 감각에 도전하고, 인간의 자아에 대한 이해, 사회•문화•환경적 상호작용, 자주성, 주체성, 가치 및 존엄에 추가적인 우려를 제기할 수 있다.

3. 본 권고안은 특별히 2019년 UNESCO 세계과학기술윤리위원회(COMEST)의 AI 윤리 예비연구에 나타난 교육, 과학, 문화, 정보통신과 같은 UNESCO의 중심 영역과 관련된 AI 시스템의 광범위한 윤리 문제에 주목한다:

(a) 교육: 근로 시장, 고용 가능성, 시민 참여에 디지털 사회가 미치는 영향을 고려해 새로운 교육 관행, 윤리적 성찰, 비판적 사고, 책임감 있는 설계 및 기술이 필요하다.

(b)과학: AI 기술은 새로운 연구 및 접근 역량을 낳고 과학적 이해 및 설명에 영향을 미치며 새로운 의사결정 기반을 생성할 수 있으므로, 자연과학과 의학은 물론 사회과학, 인문학을 포용하는 넓은 의미에서 과학을 다룬다.

(c)문화적 정체성 및 다양성: AI 기술은 문화•창작 산업을 풍요롭게 할 수 있지만 동시에 문화 컨텐츠의 공급, 데이터, 시장, 이익을 소수의 행위자들에게 집중시키는 결과를 낳음으로써 언어, 미디어, 문화적 표현의 다양성과 다원성을 해치고 참여와 평등을 저해할 수 있다.

(d)정보통신: 정보의 처리, 조직, 제공에 있어 AI 기술의 중요성이 점점 커지고 있다.  자동화된 저널리즘과 뉴스 알고리즘 제공, 그리고 소셜 미디어와 검색 엔진의 컨텐츠 모델링 및 큐레이션은 정보 접근, 잘못된 정보, 혐오 발언, 새로운 종류의 사회적 스토리텔링의 부상, 차별, 표현의 자유, 프라이버시, 정보통신 리터러시 등과 관련된 문제를 야기할 수 있다.

4. 본 권고안은 AI 행위자이자 AI 시스템 수명주기 전반과 관련된 법적 규제 프레임워크를 개발하고 비즈니스 책임 촉진의 의무가 있는 회원국을 대상으로 한 것이다. 또한 AI 시스템 수명주기 전반에 대한 윤리영향평가의 근거를 제공함으로써 공공 및 민간 AI 행위자들에게 윤리적 지침을 제공한다.

II.목표

5.본 권고안은 AI 시스템을 인류, 개인, 사회, 환경, 생태계에 도움이 되는 방향으로 사용하고 피해를 예방하기 위한 기반을 제공하는 것을 목표로 한다. 또한 나아가 AI 시스템의 평화로운 사용의 촉진을 추구한다.

6. 본 권고안은 기존의 AI 관련 윤리 프레임워크와 더불어 가치 및 원칙을 명시하는 데 집중할 뿐 아니라, 젠더평등과 환경 및 생태계 보호와 같은 문제를 다루는 구체적인 정책을 제안함으로써 실질적 실현에 포커스를 두는 세계적인 규범적 도구를 제시하고자 한다.

7. 본 권고안은 국제, 지역, 국가 차원의 다양한 영역에서 이해관계자들의 협력을 요구하는 AI 관련 윤리 문제의 복잡성을 고려해, 이해관계자들이 글로벌 차원의 대화를 통해 책임을 공유하는 것을 가능하게 하고자 한다.

8. 권고안의 목표는 다음과 같다:

(a)국제법에 입각해 회원국에게 AI 관련 법률, 정책, 기타 도구의 제정에 관한 지침을 제공하기 위한 가치•원칙•행동 프레임워크를 제공하는 것.

(b) AI 시스템 수명주기 전반에 윤리적 가치 및 원칙을 정착시키기 위해 개인, 집단, 공동체, 기관 및 민간기업들에게 행동 지침을 제공하는 것.

(c) 인권 및 기본 자유, 인간의 존엄성, 젠더평등을 비롯한 평등의 가치를 보호, 증진, 존중하는 것. 현 세대와 미래 세대의 이익을 보호하는 것. 환경, 생물 다양성, 생태계를 보존하는 것. AI 시스템 수명주기 전반에서 문화적 다양성을 존중하는 것.

(d) AI 시스템 관련 문제에 있어 이해관계자 간 다원적이고 다자적인 대화와 합의를 추구하는 것.

(e)LMIC, LDC, LLDC, SIDS의 필요성과 기여에 특별한 관심을 가지고 AI 분야, 이익 분배, 정보에 있어 공정한 접근을 장려하는 것.

III.가치 및 원칙

9.AI 시스템 수명주기에 관계된 모든 행위자들은 다음 명시된 가치(values) 및 원칙(principle)을 우선적으로 준수해야 하며, 기존의 법률, 규제 및 비즈니스 지침을 보완함으로써 이를 촉진해야 한다. 이러한 노력은 국제법과 UN 헌장, 회원국의 인권 의무를 준수해야 하며, UN 지속가능한 목표(United Nations Sustainable Development Goals, (SDGs))와 같은 국제적으로 합의된 사회적, 정치적, 환경적, 교육적, 과학적, 경제적 지속가능성 목표에 부합해야 한다.

10. 가치는 정책 및 법적 규범 형성에 있어 동기를 부여하는 이상으로서 강력한 역할을 수행한다. 다음 명시된 가치들은 바람직한 행동을 고무하고 원칙의 근본이 된다. 한편 원칙은 명시된 가치가 정책 및 조치에서 보다 쉽게 운용될 수 있도록 구체적인 방향을 제시한다.

11.  다음 명시된 가치들은 그 자체로 바람직하지만, 실용적 맥락에서 가치와 원칙 간 부조화가 발생할 수 있다. 따라서 잠재적 긴장을 완화하기 위해 비례성과 인권 및 기본 자유의 원칙에 입각한 상황 별 평가가 필요할 것이다. 인권 및 기본 자유를 제한하는 모든 경우 합법적인 근거가 존재해야 하며, 국제법에 따라 각 회원국의 규범에 입각하여 합리적이고 필수적이며 적절하게 시행되어야 한다. 이러한 경우 법적 절차를 위해 광범위한 이해관계자들의 참여, 사회적 대화, 윤리적 성찰, 실사, 영향평가가 요구될 것이다.

12. AI시스템 수명주기의 신뢰성 및 무결성은 AI 기술이 인류, 개인, 사회, 환경, 생태계에 도움이 되며 본 권고안에서 제시된 가치 및 원칙의 실현을 보장하는 데 필수적이다. 즉 AI 시스템이 개인적인 차원에서는 물론 공동체 차원에서 공유된 이익을 가져다 줄 것이라고 신뢰하는 한편, 위험 완화를 위한 적절한 조치가 시행되어야 한다. AI 시스템 수명주기 전반에 걸친 신뢰성의 확보를 위해, AI 시스템은 이해관계자들에 의해 적절하고 철저한 방식으로 모니터링되어야 한다. 이 신뢰성은 곧 원칙 운용의 결과이므로, 본 권고안에 제시된 정책의 방향은 AI 시스템 수명주기 전반의 신뢰성을 증진하는 것을 목표로 한다.

III. 1 가치

인권, 기본 자유 및 인간 존엄성의 존중, 보호와 증진

13. 모든 인간에게 존재하는 불가침적인 존엄성은, 보편적이고 불가분적이며 상호 연결된 이양할 수 없는 인간의 권리 및 기본 자유의 토대를 이룬다. 그러므로 국제인권법을 포함한 국제법에 따라 확립된 인간의 존엄성 및 권리의 존중, 보호, 증진이 AI 시스템 수명주기 전반에서 실현되어야 한다. 인간의 존엄성이란 인종, 피부색, 혈통, 젠더, 연령, 언어, 종교, 정치적 사상, 국적, 민족, 사회적 기원, 출생 시 사회경제적 상황, 장애 등과 관계없이, 모든 인간은 본질적으로 동등한 가치를 지녔음을 인정하는 것이다.

14. 그 어떤 개인 혹은 공동체도 AI 시스템 수명주기 단계에서 물리적, 경제적, 사회적, 정치적, 문화적, 정신적인 피해를 입거나 종속되어서는 안 된다. AI 시스템 수명주기 전반에서 인간의 삶의 질이 향상되어야 하며, 본 권고안에 정의된 인권, 기본 자유, 인간 존엄성의 침해가 발생하지 않는 한 “삶의 질에 대한 정의는 각 공동체의 재량으로 간주한다.

15. 인간은 AI 시스템의 수명주기 전반에서 AI와 상호작용을 하고 어린이, 노약자, 장애인을 포함한 취약계층 혹은 취약한 상황에 노출된 사람이 받는 케어와 같은 도움을 받을 수 있다. 이러한 상호작용 내에서 인간은 결코 대상화되어서는 안 되며, 존엄성이 훼손되거나 인권 및 기본 자유가 침해 혹은 남용되어서는 안 된다.

16. AI 시스템의 수명주기 전반에서 인권 및 기본 자유가 존중, 보호, 증진되어야 한다. 정부, 민간 분야, 시민 사회, 국제기구, 기술 공동체, 학계는 AI 시스템 수명주기와 관련된 과정에서 인권 기구 및 프레임워크의 개입을 존중해야 한다. 신기술은 인권을 침해해서는 안 되며 이를 지지, 보호, 행사하는 데 필요한 새로운 수단을 제공해야 한다.

환경 및 생태계의 번영

17. AI 시스템의 수명주기 전반에서 환경 및 생태계의 번영이 존중, 보호, 증진되어야 한다. 인류를 비롯한 모든 생명체가 AI 발전의 혜택을 누리기 위해 실존적으로 환경 및 생태계의 안정이 필요하다.

18. AI 시스템의 수명주기와 관련된 모든 행위자들은 환경 및 생태계의 보호와 복원을 위한 예방조치, 지속가능한 개발 등을 위해 제정된 국제법과 각국의 규범, 기준, 관행을 준수해야 한다. 기후변화를 비롯한 환경 위협 요소를 최소화하고, 환경 및 생태계 악화를 야기할 수 있는 천연자원의 지속 불가능한 개발•사용•변형을 방지하기 위해, 탄소발자국과 같은 AI 시스템의 환경영향을 줄여야 한다.

다양성 및 포용성 보장

19. AI 시스템의 수명주기 전반에서 국제인권법을 비롯한 국제법에 따라 다양성 및 포용성의 존중, 보호, 증진이 보장되어야 한다. 이것은 인종, 피부색, 혈통, 젠더, 연령, 언어, 종교, 정치적 사상, 국적, 민족, 사회적 기원, 출생 시 사회경제적 상황, 장애 등과 관계없이 모든 인간의 적극적인 참여를 장려함으로써 이뤄질 수 있다.

20. AI 시스템의 수명주기 전반에서 AI 시스템의 선택적 사용과 이러한 시스템의 공동설계를 비롯한 개인의 라이프스타일 선택, 신념, 의견, 표현 혹은 경험의 범위가 제한되어서는 안 된다.

21. 또한 필수 기술 인프라, 교육, 기술, 법적 프레임워크가 부족한 LMIC, LDC, LLDC, SIDS와 같은 공동체를 착취하는 것이 아니라, 글로벌 협력을 비롯한 노력을 통해 부족한 부분을 함께 극복해야 한다.

평화롭고 정의로우며 상호연결 된 사회 구축

22. AI 행위자들은 인권 및 기본 자유의 가치에 입각해, 모두의 이익을 위하여 상호 연결된 미래에 기반한 평화롭고 정의로운 사회의 구축에 적극적으로 참여하고 이를 실현해야 한다. AI 시스템은 수명주기 전반에 걸쳐 모든 생명체와 자연을 상호연결해 평화롭고 정의로운 사회를 구축할 수 있는 잠재력을 지니고 있다.

23. 인간이 상호 연결되어 있다는 인식은, 모든 인간이 위대한 전체에 속해 있으며 각 구성원이 번성할 때 공동체가 번성할 수 있다는 사실에 기반을 두고 있다. 평화롭고 정의로우며 상호 연결된 사회는 유기적이고 즉각적이며, 계산적이지 않은 연대의식을 필요로 하고 타인과 자연을 돌보는 평화로운 관계를 지속적으로 탐구한다.

24. 이러한 가치의 실현을 위해 AI 시스템 수명주기 전반에서 평화, 포용성, 공정성이 추구되어야 한다. AI 시스템 수명주기 전반에서 인간과 공동체가 배제, 대상화되거나 자유롭고 자주적인 의사결정권이 침해해서는 안 된다. 또한 개인과 공동체의 안전을 위협, 분열하거나 갈등을 부추겨서는 안 되며, 인간과 다른 생명체 그리고 자연의 공존을 위협하지 말아야 한다.

III.2원칙

비례의 원칙 및 무해성

25. AI 기술이 인간과 환경 그리고 생태계의 필연적 번영을 보장하는 것이 아니다 라는 점을 인지해야 한다. 나아가 AI 시스템 수명주기와 관련된 과정에서 합법적 목표나 목적을 달성하기 위해 필요 이상의 수단을 사용해서는 안 되며, 각기 상황에 비례한 결정을 내려야 한다는 것을 기억해야 한다. 인간과 인권 및 기본 자유, 공동체, 사회 전반, 환경 및 생태계에 피해가 발생할 경우, 피해의 사전예방을 보장하기 위해 위험평가 및 조치 선택을 위한 절차를 시행해야 한다.

26. AI 시스템의 사용과 사용되는 AI 체계에 대한 선택은 다음을 근거로 해야 한다: (a) 선택된 AI 체계는 합법적인 목적 달성에 적합하고 비례적이여야 한다; (b) 선택된 AI 체계는 본 문서에 명시된 기본 가치를 침해해서는 안 되며, AI 사용으로 인한 인권 침해 혹은 남용이 발생해서는 안 된다; (c) 선택된 AI 체계는 각 상황에 적합해야 하며 엄격한 과학적 근거에 기반해야 한다. 생사의 결정을 비롯해 되돌릴 수 없거나 되돌리기 힘든 결과를 야기할 수 있는 결정을 내려야 하는 경우, 최종적으로 인간의 판단이 적용되어야 한다. 특히 소셜 스코어 (social scoring) 평가나 공중감시(mass surveillance)에 AI 시스템이 사용되어서는 안 된다.

안전 및 보안

27. 인간, 환경 및 생태계의 안정과 보안을 보장하기 위해 AI 시스템의 수명주기 전반에서 원치 않는 피해(안전 위험)와 공격에 대한 취약성(안전 위험)과 관련된 요소를 방지하고 이를 해결, 예방, 제거해야 한다. 양질의 데이터를 활용하는 AI 모델의 트레이닝과 검증을 가능하게 하는 지속가능하고 프라이버시를 보호하는 데이터 접근 프레임워크의 개발을 통해, 안전 및 보안이 보장된 AI가 실현될 것이다.

공정성 및 반차별성

28. AI 행위자들은 사회적 정의를 증진하고 국제법에 따라 공정성과 반차별성을 수호해야 한다. 이것은 다양한 연령대, 문화 시스템, 언어 집단, 장애인, 여아 및 여성, 취약계층, 소외계층 혹은 취약한 상황에 노출된 이들의 필요를 반영하여, 모두에게 AI 기술의 혜택이 접근 및 사용 가능하도록 하는 포용적인 접근을 의미한다. 회원국은 지역 공동체를 포함한 모두가 다국어와 문화적 다양성이 반영된 AI 컨텐츠 및 서비스에 포용적으로 접근할 수 있도록 해야 한다.  또한 정보 격차를 해소하고 모두가 AI 개발에 포용적으로 접근 및 참여할 수 있도록 해야 한다. 국가적 차원에서 회원국은 농촌 및 도시 간 공정성을 추구하고 인종, 피부색, 혈통, 젠더, 연령, 언어, 종교, 정치적 사상, 국적, 민족, 사회적 기원, 출생 시 사회경제적 상황, 장애 등과 관계없이 모두가 AI 시스템 수명주기에 참여할 수 있도록 해야 한다. 국제적 차원에서 기술선진국들은 AI 기술의 혜택이 공유되고, 기술개도국의 AI 시스템 접근 및 참여로 인해 정보, 통신, 문화, 교육, 연구, 사회경제적•정치적 안전성 면에서 보다 공정한 사회가 구축될 수 있도록 기술개도국과 연대할 책임이 있다.

29. AI 행위자들은 AI 시스템 수명주기 전반에서 차별적이고 편향된 관행 및 결과가 강화되지 않도록 이를 최소화하고 방지하기 위해 합리적인 노력을 기울임으로써 AI 시스템의 공정성을 보장해야 한다. 차별적이고 편향된 알고리즘 결정에 대한 효과적인 구제 방안이 존재해야 한다.

30. 또한 적용가능한 국가, 지역 및 국제 법적 프레임워크에 따라 기술, 데이터 등의 접근과 접근의 질 문제가 해결되고, 모든 인간이 공정한 대우를 받을 수 있도록 연결성, 지식 및 기술, 영향을 받는 공동체들이 적극적으로 참여함으로써 AI 시스템 수명주기 전반의 국내 및 국가 간 정보•지식 격차가 해소되어야 한다.

지속가능성

31. 지속가능한 사회의 발전은 인간, 사회, 문화, 경제, 환경 차원의 연속체와 관련된 복잡한 목표들의 달성에 달려있다. AI 기술의 출현은 다양한 역량을 가진 국가들이 이를 어떻게 활용하는지에 따라 지속가능성 목표의 실현에 도움이 되거나 걸림돌이 될 수 있다. 그러므로 AI 기술이 인간, 사회, 문화, 경제, 환경에 미치는 영향에 대한 지속적인 평가에 앞서, 다방면으로 끊임없이 발전하는 AI 기술이 UN 지속가능한 개발 목표(United Nations Sustainable Development Goals, (SDGs))에 명시된 지속가능성에 대해 시사하는 바를 충분히 이해해야 한다.

프라이버시 및 데이터 보호의 권리

32. AI 시스템의 수명주기 전반에서 인간의 존엄성, 자주성, 주체성을 보호하는 데 필수적 요소인 프라이버시가 존중, 보호, 증진되어야 한다. AI 시스템을 위한 데이터가 국제법과 본 권고안에 명시된 가치 및 원칙을 준수함과 동시에 관련 국가, 지역, 국제 법적 프레임워크에 따라 수집, 사용, 공유, 저장, 삭제되는 것이 중요하다.

33. 국내 혹은 국제적 차원에서 다자적으로 접근하여 법적 시스템의 보호를 받고, AI 시스템 수명주기 전반에서 보장되는 적절한 데이터 보호 프레임워크 및 거버넌스 메커니즘을 확립해야 한다. 데이터 보호 프레임워크와 실사 메커니즘은 개인정보 수집, 사용, 공개와 데이터 주체의 권리 행사에 있어 국제 데이터 보호의 원칙 및 기준을 따르고, 개인정보 처리 과정에서 합법적인 목적을 가지고 개인정보 활용 동의를 비롯한 유효한 법적 근거를 제공해야 한다.

34. 알고리즘 시스템은 적절한 프라이버시 영향평가를 요구하며, 알고리즘 사용시 발생하는 사회적, 윤리적 고려사항에 대한 설계적 접근을 포함한다. AI 시스템 수명주기 전반에 걸쳐 개인정보 보호가 보장되는 AI 시스템의 설계 및 실행에 대한 의무는 AI 행위자들에게 있다.

인간의 감독 및 결정

35. 회원국은 AI 시스템 수명주기의 모든 단계에서 AI 시스템 관련 구제 조치나 자연인 혹은 법인 등에게 윤리적•법적 책임을 물을 수 있어야 한다. 따라서 인간 감독(human oversight)은 개인의 감독은 물론 포용적인 공공 감독(public oversight)를 포함한다.

36. 인간이 효율과 관련된 이유로 AI 시스템에 의지하는 경우가 있기는 하겠지만, 의사결정 및 행동 부분에 있어 인간이 AI 시스템에 의존할 위험이 존재하므로 특정 상황에서 통제권을 양도하는 결정이 여전히 인간의 몫인 경우가 있다. AI 시스템은 최종적으로 인간의 몫인 책임 및 의무를 대신할 수 없다. 원칙적으로 생사와 관련된 결정은 AI 시스템에 양도될 수 없다.

투명성 및 설명가능성

37. 많은 경우 AI 시스템의 투명성 및 설명 가능성은 인권, 기본 자유 및 윤리 원칙의 존중, 보호, 증진을 보장하기 위해 필수적인 전제조건이다. 투명성은 관련 국가 및 국제 법적 책임 제도가 효과적으로 작동하는 데 필요하다. 투명성 부족은 AI 시스템이 도출한 결과를 바탕으로 내린 결정을 효과적으로 평가하는 데 지장을 주고, 공정한 재판과 효과적인 구제에 대한 권리를 침해함으로써 이러한 시스템이 법적으로 사용될 수 있는 분야를 제한할 수 있다.

38. AI 시스템의 민주적 거버넌스를 위해 수명주기 전반에서 역외 영향을 포함한 투명성 및 설명가능성을 증진하려는 노력이 계속되어야 하지만, 프라이버시, 안전, 보안 등과 같은 원칙과 투명성, 설명가능성 간 균형이 필요한 경우가 발생할 수 있으므로 투명성 및 설명가능성의 수준은 각각의 상황과 이것이 미칠 수 있는 영향과 적절히 비례해야 한다. 인간의 안전 및 권리에 영향을 주는 경우 AI 알고리즘을 기반으로 한 결정을 통보 받거나 의사결정이 내려질 때, 사람들은 이에 대해 충분한 정보를 가지고 있어야 하며, 관련 AI 행위자 혹은 공공기관에 추가 정보를 요청할 수 있어야 한다. 또한 개인이 자신의 권리 및 자유에 영향을 주는 의사결정의 근거에 접근하고, 민간기업 혹은 공공기관의 담당자에게 결정 검토와 수정을 요청할 수 있어야 한다. 제품 혹은 서비스가 직간접적으로 AI 시스템을 사용하는 경우, AI 행위자는 이를 적절한 방법으로 적시에 사용자에게 통지해야 한다.

39. 사회기술적 관점에서, 투명성은 보다 평화롭고 정의로우며 민주적이고 포용적인 사회를 보장한다. 또한 부정부패와 차별을 줄일 수 있는 공적조사를 가능하게 하며, 인권에 대한 부정적인 영향을 감지 및 예방하는 데 도움이 된다. 나아가 투명성은 각 정보 수신인에게 적절한 정보를 제공하여 이해와 신뢰를 증진하는 것을 목표로 한다. 특히 AI 시스템에서 투명성은 사람들로 하여금 AI 시스템의 각 단계가 맥락과 민감도에 따라 어떻게 작동하는지 이해하게 할 수 있다. 또한 특정 예측 혹은 결정에 영향을 주는 요인과 적절한 조치(안전 혹은 공정성에 관한 조치 등)의 시행 여부에 대한 통찰을 제공할 수 있다. 인권에 악영향을 줄 수 있는 심각한 위협의 경우, 투명성의 원칙에 따라 코드 혹은 데이터세트의 공유가 요구될 수 있다.

40. 설명가능성(Explainability)이란 AI 시스템이 도출한 결과를 이해 가능하게 하고 통찰력을 제공하는 것을 의미한다. 또한 입력 및 출력되는 정보, 각 알고리즘 빌딩 블록의 기능, 그리고 이것이 시스템 출력에 미치는 영향에 대한 이해용이성을 의미한다. 따라서 출력 및 출력에 이르는 하위 프로세스는 상황에 따라 설명 및 추적 가능해야 하므로, 설명가능성은 투명성과 긴밀하게 연결되어 있다고 할 수 있다. AI 행위자는 개발된 알고리즘의 이해용이성을 보장하는 데 전념해야 한다. 일시적이지 않거나, 쉽게 되돌릴 수 없거나, 위험성이 낮은 방법으로 사용자에게 영향을 주는 AI 시스템의 경우, 출력된 결과의 투명성이 보장되도록 모든 과정에서 취해진 의사결정에 대한 의미 있는 설명이 제공되어야 한다.

41. 투명성 및 설명가능성은 책임 및 의무에 따른 조치는 물론 AI 시스템의 신뢰도와 밀접한 연관이 있다.

책임 및 의무

42. AI 행위자 및 회원국은 인권 및 기본 자유를 준수, 보호, 증진하고 동시에 회원국의 인권 의무를 비롯한 국제법과, AI 행위자의 영역 및 통제 내에서의 문제를 포함한 AI 시스템 수명주기 전반의 윤리 지침에 따라 각각 윤리적•법적 책임을 다함으로써 환경 및 생태계의 보호를 장려해야 한다. AI 시스템과 관련된 모든 의사결정 및 행위의 윤리적•법적 책임은 AI 시스템 수명주기 단계에 따라 최종적으로 AI 행위자에게 귀속되어야 한다.

43. AI 시스템과 수명주기 전반의 영향에 대한 의무 이행을 보장하기 위해 적절한 감독, 영향평가, 내부고발자 보호를 비롯한 실사 메커니즘이 개발되어야 한다. 기술적•제도적 설계는 AI 시스템의(AI 시스템 작업의) 감사가능성 및 추적가능성을 보장해야 한다. 이것은 특히 인권, 규범, 기준과의 충돌이 일어나거나 환경 및 생태계의 안녕을 위협하는 경우에 해당된다.

의식 및 리터러시

44. 개방적이고 접근 가능한 교육, 시민 참여, 디지털기술 및 AI 윤리 교육, 미디어 정보 리터러시와; 정부, 정부 간 기구, 시민사회, 학계, 언론, 공동체 지도자와 민간 영역이 함께 주도하는 교육을 통해 AI 기술과 데이터 가치에 대한 의식 및 이해를 증진해야 한다. 또한 사회 구성원들이 AI 시스템 사용에 대한 충분한 정보를 가지고 의사결정을 내리며 부당한 영향으로부터 보호받을 수 있도록, 효과적인 대중의 참여를 보장하고 언어, 사회, 문화적 다양성을 고려해야 한다.

45. AI 시스템의 영향에 대한 학습은 인권 및 기본 자유에 관한 학습을 포함해야 하며, AI 시스템에 대한 접근 및 이해는 인권, 인권 행사, 환경 및 생태계에 미치는 영향을 기반으로 해야 한다.

다자적이고 조정 가능한 거버넌스 및 협력

46. 데이터 사용에 있어 국제법과 국가 자주성이 준수되어야 한다. 이는 회원국이 국제법에 입각해 국내에서 생성되거나 자국의 영토를 거쳐가는 데이터를 규제하고 데이터의 효과적인 규제를 위해 국제법과 기타 인권 규범 및 기준에 따라 프라이버시권 보장을 위한 데이터 보호와 같은 조치를 취할 수 있음을 의미한다.

47. AI 거버넌스에 대한 포용적 접근을 통해 모두가 혜택을 공유하고 지속가능한 발전을 이루기 위해 AI 시스템 수명주기 전반에서 다양한 이해관계자의 참여가 필요하다. 이해관계자는 정부, 정부 간 기구, 기술계, 시민사회, 연구자 및 학계, 언론, 교육계, 정책입안자, 민간기업, 인권기관 및 평등기구, 차별감시기구, 청소년 및 아동단체 등을 포함한다. 협력을 촉진하기 위해 개방적인 기준과 상호운용성을 확립해야 한다. 기술의 변동, 새로운 집단 및 이해관계자의 출현을 고려하고 소외된 집단, 공동체 및 개인의 의미 있는 참여를 가능하게 하는 조치가 채택되어야 한다. 또한 해당되는 경우, 원주민 공동체가 자신의 데이터를 자체적으로 관리할 수 있도록 해야 한다.

IV. 정책조치 분야

48. 다음 정책 분야에 서술된 정책조치는 본 권고안에 명시된 가치 및 원칙을 운용한다. 또한 회원국이 정책 프레임워크 혹은 메커니즘 확립하고, UN 기업과 인권 이행 지침(UN Guiding Principles on Business and Human Rights)에 따라 모든 이해관계자들이 인권, 법치, 민주주의, 윤리영향평가, 실사 도구 등을 개발할 수 있도록 함으로써 민간기업, 학술 및 연구기관, 시민사회와 같은 이해관계자들이 시행된 조치를 준수하게 하는 것을 목표로 한다. 이러한 정책 혹은 메커니즘을 개발하는 과정은 모든 이해관계자들에게 포용적이어야 하며, 각 회원국의 상황과 우선순위를 고려해야 한다. UNESCO는 회원국의 파트너로서 정책 메커니즘의 개발은 물론 모니터링과 평가를 지원할 수 있다.

49. UNESCO는 회원국이 본 권고안을 시행함에 있어 과학적, 기술적, 경제적, 교육적, 법적, 규제적, 인프라적, 사회적, 문화적 면에서 준비된 정도가 상이하고 각기 다른 단계에 있음을 인정한다. 하지만 “준비된 정도”란 가변적인 상태이다. 따라서 본 권고안의 효과적인 시행을 위해 UNESCO는 다음의 지원을 제공할 것이다: (1) 관심 있는 회원국이 연속적인 준비 과정의 궤적에서 어떤 상태에 있는지 식별하는 것을 지원하기 위한 준비성평가 방법론의 개발; (2) 모범사례, 평가 지침, 기타 메커니즘 및 분석 작업을 공유함으로써 관심 있는 회원국이 AI 기술에 대한 UNESCO 윤리영향평가(Ethical Impact Assessment, EIA) 방법론을 개발하는 것을 지원.

정책 분야 1: 윤리영향평가

50. 회원국은 AI 시스템의 혜택, 우려 및 위험을 식별•평가하고 적절한 위험 예방, 완화, 모니터링 조치를 개발하기 위해 윤리영향평가와 같은 영향평가 프레임워크를 도입해야 한다. 이러한 영향평가는 소외계층, 취약계층 혹은 취약한 상황에 노출된 개인의 권리, 근로권, 환경 및 생태계, 윤리•사회적 의미와 같이 인권 및 기본 자유에 영향을 미치는 요소를 식별하고, 본 권고안에 제시된 가치 및 원칙을 따라 시민 참여를 촉진해야 한다.

51. 회원국과 민간기업은 인권, 법치 및 포용적 사회에 대한 AI 시스템의 영향을 식별, 예방, 완화하고 그에 따른 의무를 이행하기 위해 실사 및 감독 메커니즘을 개발해야 한다. 또한 회원국은 AI 시스템이 빈곤에 미치는 사회경제적 영향을 평가하고, 국내 그리고 국가 간 빈부 격차와 정보 격차에 따른 갭이 현재와 미래에 대규모로 도입될 AI 기술로 인해 심화되지 않도록 해야 한다. 이를 위해 민간기업이 보유한 정보 중 공익과 관련된 정보의 접근에 관한 투명성 프로토콜이 구현되어야 한다. 회원국, 민간기업, 시민사회는 AI 기반 결정이 인간의 의사결정 주권에 미치는 사회적•심리적 영향을 조사해야 한다. 인권에 대한 잠재적 위협으로 식별된 AI 시스템의 경우 시장에 출시되기 전 AI 행위자들에 의해 윤리영향평가의 일환으로 광범위한 테스트를 거쳐야 하며, 필요하다면 실제 상황과 동일한 조건에서 이러한 테스트를 진행해야 한다.

52. 회원국와 비즈니스 기업은 AI 시스템 수명주기의 모든 단계를 모니터링하기 위해 의사결정에 사용된 알고리즘, 데이터, 관계된 AI 행위자의 모니터링과 같은 적절한 조치를 시행해야 한다. 특히 최종 사용자와의 상호작용이 필요한 공공 서비스의 경우, 윤리영향평가의 일환으로 이러한 조치가 이뤄져야 한다. 또한 각 회원국의 인권 의무가 AI 시스템 윤리영향평가에 반영되어야 한다.

53. 정부는 결과 예측, 위험 완화, 피해 방지, 시민 참여 증진, 사회 과제 해결을 위해 공공당국과 같은 분야에서 사용하는 AI 시스템 윤리영향평가 절차를 제시하는 규제 프레임워크를 채택해야 한다. 이러한 프레임워크는 알고리즘, 데이터, 설계 프로세스의 평가 지표가 되는 감사가능성, 추적가능성, 설명가능성과 같은 적절한 감독 메커니즘을 확립해야 하며, AI 시스템에 대한 외부 검토를 포함해야 한다. 윤리영향평가는 투명하게 진행되어야 하며 가능한 경우 대중에게 공개되어야 한다. 또한 이러한 평가는 다원적, 다자적, 다문화적, 포용적이여야 한다. 공공당국은 적절한 메커니즘 및 도구를 도입함으로써 권한 당국이 시행하거나 배치한 AI 시스템을 모니터링할 의무가 있다.

정책  분야 2: 윤리적 거버넌스 및 책무

54. 회원국은 포용적이고 투명하며 다원적, 다각적(이것은 역외 피해 완화 및 방지를 포함한다), 다자적인 AI거버넌스 메커니즘을 보장해야 한다. AI거버넌스는 특히 결과 예측, 효과적인 보호, 영향 모니터링, 조치 집행 및 피해 방지와 같은 요소를 포함해야 한다.

55. 회원국은 인권, 기본 자유, 법치가 디지털 세계에서는 물론 물리적 세계에서도 존중되도록 하기 위해 강력한 집행 메커니즘과 시정 조치를 시행함으로써 AI 시스템을 통해 발생한 피해가 조사되고 방지되도록 해야 한다. 이러한 메커니즘과 조치는 민간 및 공공기업이 제공한 시정 메커니즘을 포함해야 한다. 이를 위해 AI 시스템의 감사가능성과 추적가능성이 증진되어야 한다. 또한 회원국은 이러한 의무를 이행하기 위해 필요한 제도적 역량을 강화하고, AI 시스템의 잠재적 악용을 조사, 예방, 완화하기 위해 연구자 및 기타 이해관계자들과 협력해야 한다.

56. 회원국은 국가 혹은 지역 차원에서 AI전략을 개발하고, 인권, 환경, 생태계, 본 권고안에 명시된 윤리 문제의 민감성, 적용 분야 및 잠재적 영향을 고려해 AI 시스템 인증 메커니즘이나 인증 상호인식과 같은 소프트 거버넌스를 채택할 수 있다. 이러한 메커니즘은 윤리적 측면에 대한 다양한 수준의 감사 시스템, 데이터, 지침 준수, 절차적 요건 충족 여부 등을 포함할 수 있다. 동시에 이러한 메커니즘으로 인해 과도한 행정 부담이 발생해 혁신이 방해되거나 중소기업•스타트업, 시민사회, 연구 및 과학기관에 불이익이 발생해서는 안 된다. 또한 시스템의 강건성 및 무결성, AI 시스템 수명주기 전반에서 윤리 지침 준수 등을 보장하기 위한 정기 모니터링 요소를 포함해야 하며, 필요한 경우 재인증이 요구되어야 한다.

57. 회원국과 공공당국은 기존의 혹은 제안된 AI 시스템에 대해 투명한 자체평가를 시행해야 하며, 이는 AI 도입의 적절성 여부에 대한 평가를 포함해야 한다. AI 도입이 적절하다고 판단되는 경우, 적합한 방법과 회원국의 인권 의무를 침해 혹은 남용하는 결과가 발생할 가능성에 대한 심화 평가가 요구되며 그러할 경우 AI 사용을 금해야 한다.

58. 회원국은 공공기관, 민간기업, 시민단체가 AI 거버넌스 과정에 다양한 이해관계자를 포함시키도록 하고; 윤리영향평가, 감사, 모니터링을 감독하여 AI 시스템의 윤리적 지침이 준수되도록 하기 위해 독립적인 AI 윤리 책임 기관을 개설하거나 기타 메커니즘의 도입을 증진해야 한다. 회원국, 민간기업, 사회단체는 UNESCO의 지원을 받아 독립적인 AI 윤리 책임 기관을 개설하여 국가적, 지역적, 국제적 차원에서 이러한 과정과 관련된 도움을 받을 수 있다.

59. 회원국은 AI 시스템 수명주기에 대한 접근 격차를 비롯한 문제를 해결함으로써 국가적 차원에서 윤리적•포용적 AI 시스템으로 이뤄진 디지털 생태계의 개발 및 접근을 증진하고, 국제 협력에 기여해야 한다. 이러한 생태계는 디지털기술 및 인프라, 적절한 AI 지식 공유 메커니즘 등을 포함한다.

60. 회원국은 AI 거버넌스와 관련된 국제적 논의에 있어 LMIC, LDC, LLDC, SIDS를 비롯한 모든 회원국의 적극적인 참여를 보장하기 위해 국제기구, 다국적기업, 학술기관, 시민사회와 함께 자금조달, 지역별 동등한 참여 보장 등의 메커니즘을 확립해야 한다. 또한 회원국은 AI포럼의 포용성을 보장하기 위해, 포럼에 참가하고자 하는 LMIC, LDC, LLDC, SIDS 출신 AI 행위자의 출입국을 지원해야 한다.

61. 기존 AI 시스템 규범에 대한 개정 혹은 제정은 회원국의 인권 의무를 준수하고 AI 시스템 수명주기 전반에서 인권 및 기본 자유를 증진해야 한다. AI 기술의 발전에 맞추어 이러한 노력은 거버넌스 이니셔티브, AI 시스템 모범 협력 사례, 국내 및 국제적 기술•제도적 지침의 형태를 갖춰야 한다. 민간을 포함한 다양한 분야의 관계자들은 AI 시스템의 실무에 있어 본 권고안과 함께 기존의 도구들과 새롭게 제정되는 도구들을 통해 인권 및 기본 자유를 존중, 보호, 증진해야 한다.

62. 법의 집행, 복지, 고용, 미디어, 정보 제공, 보건, 독립적인 사법 시스템 등과 같이 인권에 민감한 상황에서 AI 시스템을 사용하는 회원국은 독립적인 데이터 보호 책임 기관, 분야별 감독, 감독의 책임이 있는 공공기관 등의 권한 당국을 통해 이러한 시스템이 사회 및 경제에 미치는 영향을 모니터링하는 메커니즘을 제공해야 한다.

63. 회원국은 심의 과정에서의 AI 시스템 사용(인간 감독의 원칙을 준수하며) 등과 같은 경우에 법치의 원칙과 국제법 및 기준에 따라 AI 시스템 관련 의사결정을 내리는 사법부의 역량을 강화해야 한다. 사법부가 AI 시스템을 사용하는 경우, 인권, 법치, 사법부의 독립성, 인간 감독의 원칙 등을 보장하고 신뢰할 수 있는 공익적, 인간중심적 방법으로 AI 시스템을 사용하기 위해 충분한 안전장치가 필요하다.

64. 회원국은 정부 및 다자적 기관이 다각적 참여와 함께 AI 시스템의 안전 및 보안을 주도하는 일에 다각적으로 참여해 핵심 역할을 수행하게 해야 한다. 특히 회원국, 국제기구 및 기타 관련 기관은 안전 및 투명성 수준을 측정하는 국제적 기준을 개발하여 시스템을 객관적으로 평가하고 규범 준수 여부를 점검할 수 있도록 해야 한다. 또한 회원국과 비즈니스 기업은 전략적 AI 기술의 잠재적 안전 및 보안 위협에 대한 연구를 지속적으로 지원하고, 재정적 지원을 통해 기술언어 및 자연언어 등 다양한 분야 및 연구 단계에서 투명성, 설명가능성, 포용성, 리터러시 등과 관련된 연구가 장려되도록 해야 한다.

65. 회원국은 AI 행위자의 행동이 국제인권법, AI 시스템 수명주기 전반에 적용되는 기준 및 원칙 등과 일치하는 것을 보장함과 동시에, 인권의 보편성과 우선성에 따라 지역 풍습과 종교적 전통을 포함하는 현 문화•사회적 다양성을 고려하는 정책을 시행해야 한다.

66. 회원국은 AI 행위자가 AI 시스템 및 데이터 결과와 관련된 모든 고정관념(설계 단계에서 유입되거나 부주의로 발생한)을 공개하고 삭제하도록 하는 메커니즘을 도입해야 한다. 또한 AI 시스템을 위한 트레이닝 데이터세트가 문화적•경제적•사회적 불평등, 편견, 잘못된 정보의 확산을 장려하거나 표현의 자유와 정보에 대한 접근을 저해하지 못하도록 해야 한다. 특히 데이터가 부족한 지역에 주의를 기울여야 한다.

67. 회원국은 AI 개발팀과 트레이닝 데이터세트에 회원국 인구를 반영하고 다양성 및 포용성을 강화하는 정책을 시행해야 한다. 또한 농촌 및 도시의 소외계층 등에 AI 기술과 그에 따른 혜택에 대한 동등한 접근을 보장해야 한다.

68. 회원국은 AI 시스템 수명주기 전반에서 도출되는 컨텐츠 및 결과에 대한 책임과 의무를 다하기 위해 규제 프레임워크를 적절하게 개발, 검토, 조정해야 한다. 회원국은 AI 시스템의 결과 및 기능에 대한 책임 귀속을 위해 필요한 경우 법적 책임 프레임워크를 도입하거나 기존 프레임워크를 명확하게 적용해야 한다. 회원국은 또한 규제 프레임워크 개발 시 궁극적인 책임 및 의무는 자연인 혹은 법인에게 있으며, AI 시스템에게 법적 인격을 부여해서는 안된다는 점을 특별히 고려해야 한다. 이를 보장하기 위해, 이러한 규제 프레임워크는 인간 감독의 원칙을 따라야 한다. 또한 AI 행위자와 AI 시스템 수명주기 전반의 다양한 단계와 관련된 기술 프로세스를 중점으로 한 포괄적 접근이 확립되어야 한다.

69. 회원국은 관련 규범이 부재하여 새롭게 이를 제정하거나 기존의 법적 프레임워크를 개정함에 있어 모든 AI 행위자(연구자, 시민단체 및 사법기관 대표, 보험자, 투자자, 생산자, 엔지니어, 변호사, 사용자 등)의 참여를 증진해야 한다. 이러한 규범은 모범사례, 법률 및 규정으로 발전할 수 있다. 회원국은 법률, 규제 및 정책 제정과 더불어 신기술의 빠른 발전에 발맞춘 정기적인 평가의 개발을 가속화하고, 이것이 공식적으로 채택되기 전 법률 및 규제를 안전한 환경에서 시험하는 것을 보장하기 위해, 정책 프로토타입 및 규제 샌드박스와 같은 메커니즘을 사용할 수 있다. 회원국은 또한 국내 및 국제 법적 프레임워크에 입각해 지방정부의 정책, 규제 및 법률의 개발을 지원해야 한다.

70. 회원국은 AI 시스템의 투명성 및 설명가능성은 물론 AI 시스템 수명주기 전반의 신뢰성을 보장하기 위해 분명한 요건을 설정해야 한다. 이러한 요건은 각 AI 시스템의 적용 분야, 사용 목적, 타깃 대상, 타당성 등을 반영한 영향평가 메커니즘의 설계 및 시행을 포함해야 한다.

정책 분야 3: 데이터 정책

71. 회원국은 데이터 수집 및 선택 과정의 적절성, 적절한 데이터 보안 및 보호 조치를 보장해야 한다. 뿐만 아니라 실수로부터 배우고 AI 행위자 간 원활한 모범사례 공유를 가능하게 하는 피드백 메커니즘 등과, AI 시스템 트레이닝 데이터의 지속적인 품질 평가를 보장하는 데이터 거버넌스 전략 개발에 힘써야 한다.

72. 회원국은 국제법에 따라 프라이버시권을 보호하기 위해, 감시 문제 등을 해결하기 위한 적절한 안전장치를 마련해야 한다. 무엇보다 국제법에 따라 적절한 보호를 제공하는 법적 프레임워크를 채택하거나 강화해야 한다. 회원국은 비즈니스 기업을 포함한 모든 AI 행위자에게 현행 국제 기준을 준수하고; 의도된 데이터 처리로 인해 발생하는 문제에 대해, 보다 광범위한 사회경제적 영향을 고려한 윤리영향평가의 일환으로 프라이버시 영향평가를 시행하며; 프라이버시에 관한 요소를 시스템 설계에 포함시킬 것을 강권해야 한다. AI 시스템 수명주기 전반에서 프라이버시가 존중, 보호, 증진되어야 한다.

73. 회원국은 개인이 자신의 개인정보에 대한 권리를 행사하고 이러한 권리가 적절한 프레임워크를 통해 보호받을 수 있도록 해야 한다. 이 프레임워크는 투명성, 민감한 데이터의 처리에 대한 적절한 안전장치, 적절한 수준의 데이터 보호, 효과적이고 의미 있는 책임 체계 및 메커니즘, 데이터 주체의 전적인 권리 행사, AI 시스템에 저장된 개인정보에 대한 접근 및 삭제 권한 등을 보장한다. 국제법에 따른 몇몇 경우를 제외하고, 마이크로 타깃 광고와 같이 상업적 목적을 위해 사용되거나 역외 공유되는 데이터에 대해 데이터 보호법에 따른 적절한 수준의 보호를 제공해야 한다. 또한 개인이 자신의 개인정보를 관리하고, 국제적인 정보의 자유로운 흐름을 통해 데이터 접근을 포함한 혜택을 누릴 수 있도록 데이터 거버넌스 메커니즘의 일환으로 효과적이고 독립적인 감독 등을 시행해야 한다.

74. 회원국은 공개될 경우 개인에게 심각한 피해, 손상 혹은 고초를 야기할 수 있는 개인정보 및 민감한 정보의 보안을 보장하기 위해, 데이터 정책 혹은 이와 유사한 프레임워크를 확립하거나 기존의 프레임워크를 개정해야 한다. 범죄, 기소절차 및 판결, 범죄기록과 관련된 보안 조치; 바이오인식, 유전, 의료 데이터; 인종, 피부색, 혈통, 젠더, 연령, 언어, 종교, 정치적 사상, 국적, 민족, 사회적 기원, 출생 시 사회경제적 상황, 장애 등과 관련된 개인 정보가 이에 해당된다.

75. 회원국은 개방형 데이터를 증진해야 한다. 이러한 맥락에서, AI 관련 요구사항을 반영하여 안전하고 공정하며 합법적이고 윤리적인 데이터 공유를 지원하기 위해, 회원국은 정부의 지원을 받거나 공개된 데이터, 소스코드, 데이터 트러스트 저장소와 같은 메커니즘을 개발함으로써 정보 접근 및 공개정부(open government)를 비롯한 분야의 정책•규제 프레임워크를 검토해야 한다.

76. 회원국은 AI 시스템의 트레이닝, 개발, 사용을 위한 양질의 강건한 데이터세트의 사용을 장려하고 데이터 수집 및 사용 감독을 총괄해야 한다. 이것은 가능한 경우 개방되고 신뢰 가능한 데이터세트를 비롯한 최적기준 데이터세트의 생성에 투자하는 것을 포함한다. 이러한 데이터세트는 다양하고 합법적인 기반 위에 생성되며, 법적으로 요구되는 경우 데이터 주체의 데이터 사용 동의를 포함한다. 데이터세트의 수집 방법과 특성이 쉽게 식별 가능하도록, 젠더 및 기타 척도를 기준으로 데이터를 해체하는 것을 비롯해 데이터세트에 주석을 다는 것과 관련된 기준이 확립되어야 한다.

77. UNSG 디지털 협력을 위한 고급 패널(UNSG High-level Panel on Digital Cooperation)에 제안된 바와 같이 회원국은 UN 및 UNESCO의 지원을 받아 적합한 경우 데이터에 대해 디지털 공유재식(Digital Commons) 접근을 채택하고; 도구, 데이터세트, 데이터를 보유한 시스템의 인터페이스 간 상호운용성을 강화하고;  민간기업이 연구, 혁신, 공익을 위해 모든 이해관계자와 함께 수집한 데이터를 공유하도록 장려해야 한다. 또한 안전하고 신뢰 가능한 데이터 공간에서 양질의 데이터가 공유되는 협업 플랫폼을 구축하기 위한 민간 및 공공 분야의 노력을 증진해야 한다.

정책 분야 4: 발전 및 국제 협력

78. 회원국과 다국적기업은 국제포럼, 정부 간 포럼, 다자적 포럼 등에 AI 윤리 문제에 대한 논의를 포함함으로써 AI 윤리를 우선시해야 한다.

79. 회원국은 교육, 과학, 문화, 정보통신, 보건, 농업/식량 공급, 환경, 천연자원 및 인프라 관리, 경제 계획 및 성장 등의 개발 분야에서의 AI의 사용이 본 권고안에 명시된 가치 및 원칙에 부합하도록 해야 한다.

80. 회원국은 국제기구를 통해 AI 개발을 위한 국제협력 플랫폼을 제공해야 한다. 이것은 LMIC, LDC, LLDC, SIDS가 직면한 발전 과제를 해결하기 위한 전문지식 공유, 재정적 지원, 데이터, 도메인 지식, 인프라, 다자적 협력 증진을 포함한다.

81. 회원국은 LMIC, LDC, LLDC, SIDS의 참여 확대와 리더십을 높이는 연구혁신 센터 및 네트워크의 구축 등을 통해 AI 연구혁신에 대한 국제협력을 증진해야 한다.

82. 회원국은 국제기구 및 연구기관은 물론 다국적 기업의 참여를 장려함으로써, 공공 및 민간 기관의 윤리적 AI 시스템 사용의 기반이 될 수 있는 AI 윤리 연구를 증진해야 한다. 이것은 특정 문화권 및 상황에서 특정 윤리 프레임워크의 적용 가능성과, 이러한 프레임워크의 맥락에서 기술적으로 실현 가능한 솔루션 개발 연구를 포함한다.

83. 회원국은 지리-기술적 경계에 가교를 놓기 위해 AI 분야에서의 국제협력 및 협동을 장려해야 한다. 국제법에 따라 회원국과 국민 간, 공공분야와 민간분야 간, 기술적으로 더 발달한 국가와 덜 발달한 국가 간 기술적 교류/협의가 이뤄져야 한다.

정책 분야 5: 환경 및 생태계

84. 회원국과 비즈니스 기업은 AI 시스템 수명주기 전반에서 탄소 발자국, 에너지 소비, AI 기술 지원 및 생산 과정에서 원료 추출로 인한 환경영향을 비롯한 직간접적 환경영향을 평가하고 AI 시스템 및 데이터 인프라의 환경영향을 줄여야 한다. 회원국은 또한 모든 AI 행위자들이 환경 관련 법률, 정책 및 관행을 준수하도록 해야 한다.

85. 회원국은 권리 및 윤리적 AI를 동력으로 한 재난 위험 복원력 관련 솔루션의 개발과 채택; 환경 및 생태계에 대한 모니터링, 보호, 재생; 그리고 지구의 보존을 보장하기 위해 필요한 경우, 적절한 인센티브를 도입해야 한다. 또한 AI 시스템 수명주기 전반에서 지역 공동체와 원주민 공동체의 참여를 포함하고, 순환경제적 접근과 지속가능한 소비 및 생산 패턴을 뒷받침해야 한다. 필요한 경우, 다음의 상황에서 AI 시스템을 사용할 수 있다:

(a)천연자원의 보호, 모니터링, 관리를 지원.

(b)기후 관련 문제의 예측, 예방, 통제, 완화를 지원.

(c)보다 효과적이고 지속가능한 식량 생태계를 지원.

(d)지속가능한 에너지의 접근과 광범위한 적용의 가속화를 지원.

(e)지속가능한 인프라, 지속가능한 비즈니스 모델, 지속가능한 발전을 위한 지속가능한 자금조달의 주류화를 활성화하고 장려.

(f)오염물질 식별 혹은 오염도 예측을 통해 이해관계자들이 타깃 개입의 필요를 식별, 계획, 시행하고; 해당 오염 및 노출원을 예방하고 줄이는 것을 지원.

86. AI의 잠재적인 데이터 집약적 혹은 자원 집약적 성격과 환경영향을 고려해 AI 방법을 채택할 때, 회원국은 AI 행위자들이 비례의 원칙에 따라 데이터•에너지•자원 효율적인 방법을 채택하도록 해야 한다. AI 시스템이 의도된 영향을 미치거나, AI 시스템에 따른 안전장치를 통해 채택의 정당성을 뒷받침하기 위해 이에 따른 요건이 확립되어야 한다. 이러한 증거 제시와 입증이 불가능하다면, 예방의 원칙에 따라 환경에 무분별한 악영향이 존재할 경우 AI의 사용을 중단해야 한다.

정책 분야 6: 젠더

87. 회원국은 디지털기술과 AI의 잠재력이 젠더평등을 극대화하도록 해야 한다. 또한 여아와 여성의 인권 및 기본 자유를 보장하고 이들의 안정과 무결성이 AI 시스템 수명주기 전반에서 침해되지 않도록 해야 한다. 더불어 젠더 문제에 대한 분야별 횡단적 관점을 윤리영향평가에 포함시켜야 한다.

88. 회원국은 국가 디지털정책이 젠더실행계획을 포함하게 하고; 근로 교육과 같은 제도를 통해 여아 및 여성을 지원하며; 이들이 AI를 동력으로 하는 디지털경제에서 소외되지 않도록 하는 정책을 개발하기 위해, 젠더대응제도를 재정적으로 지원해야 한다. 과학•기술•엔지니어링•수학(STEM), 정보통신기술(ICT)과 같은 영역에서 여아 및 여성의 참여 기회를 높이고 이들의 기술, 대비, 취직, 동등한 직업활동, 전문적 성장 역량을 강화하기 위해 타깃 프로그램과 특정 젠더에 국한된 언어(gender-specific language) 에 대한 특별 투자가 고려되고 시행되어야 한다.

89. 회원국은 젠더평등의 달성을 앞당길 수 있는 AI 시스템의 잠재력이 실현되도록 해야 한다. 이러한 기술이 아날로그 세상의 몇몇 분야에 존재하는 기존의 극심한 젠더 격차를 더 악화시키지 않고, 해소할 수 있도록 해야 한다. 이것은 젠더 임금 격차; 특정 직업 및 활동에서의 대표성 격차; 최고 경영진, 이사회, AI 분야의 연구팀 등에서의 대표성 부족; 교육 격차; 디지털/AI의 접근, 활용, 사용, 구입 능력의 격차; 무보수 근로와 돌봄 책임의 불평등한 분포 등을 포함한다.

90. 회원국은 젠더 고정관념과 차별적 편견이 AI 시스템에 반영되지 않도록 해야 하며, 이것을 식별하고 선제적으로 바로잡아야 한다. 젠더평등을 이루기 위해 기술 격차의 부정적 효과가 축적되는 것을 방지하고; 괴롭힘, 불링(bullying), 여아 및 여성 밀거래와 같은 폭력을 방지하고; 온라인 영역을 포함한 분야에서 대표성이 부족한 집단을 지원하기 위한 노력이 필요하다.

91. 회원국은 경제적•규제적 인센티브 등을 제공하고 AI 연구에서의 젠더 별 균등한 참여와 디지털/AI 기업 경영진, 이사회, 연구팀 등에서의 젠더 대표성 확보를 증진하는 정책을 개발함으로써 AI 시스템 수명주기 전반에서 여성의 창업, 참여, 고용을 장려해야 한다. 회원국은 젠더 대표성이 명확하고 포용적인 프로그램 및 기업에 공공 지원금(혁신, 연구 및 기술 분야)이 지급되도록 하고, 민간 지원금 또한 차별 시정조치를 통해 유사한 방법으로 분배되도록 해야 한다. AI 시스템 수명주기 전반에서 다양성을 증진하는 모범사례를 통해, 괴롭힘 없는 환경을 조성하기 위한 정책이 개발되고 강화되어야 한다.

92. 회원국은 여아 및 여성들이 해당 분야에 진출할 수 있도록 인센티브를 제공하고, AI 연구 공동체 내에서의 젠더 고정관념과 괴롭힘을 근절하기 위한 메커니즘을 시행하며, 학술기관 및 민간기관들이 젠더 다양성을 증진하기 위한 모범사례를 공유하게 함으로써 학계 AI 연구와 산업에서의 젠더 다양성을 증진해야 한다.

93. UNESCO는 AI 시스템 수명주기 전반에서 여아, 여성, 대표성이 부족한 집단의 참여를 촉진하는 모범사례의 아카이빙을 지원할 수 있다.

정책 분야 7: 문화

94. 회원국은 기록물과 위기언어(원주민 토착어와 지식을 포함)를 비롯한 유무형 문화유산의 보존, 강화, 증진, 관리, 접근에 적절한 경우 AI 시스템을 적용할 수 있다. 예를 들어, 기관과 대중을 대상으로 균등한 참여를 보장하며 이러한 분야에 AI 시스템을 적절하게 적용하는 것과 관련된 교육 프로그램을 도입하거나 업데이트할 수 있다.

95. 회원국은 인간 언어 및 표현의 뉘앙스에 대한 자동번역 및 음성지원을 비롯한 자연언어처리 시스템과 같은 AI 시스템의 문화영향을 평가하고 문제를 해결할 수 있다. 이러한 시스템은 문화 격차를 줄이고 인간의 이해도를 높이지만 동시에 다양한 사용을 축소함으로써 위기언어, 지역 방언, 인간 언어 및 표현과 관련된 음조•문화적 변이의 소멸과 같은 문제를 낳을 수도 있다. 따라서 이러한 평가는 시스템의 혜택을 극대화하는 전략 설계 및 시행에 도움이 될 수 있다.

96. AI 기술이 다양한 문화상품 및 서비스의 창작, 제작, 보급, 방송, 소비되는 데 사용되고 있으므로, 회원국은 문화유산과 다양성 그리고 예술적 자유의 중요성에 유의하며 예술 및 창작 분야에서 AI 기술 사용의 지속가능성을 평가하고, 이에 적합한 AI 기술의 설계 및 시행에 기여하기 위해 예술가 및 창작가를 대상으로 한 AI 교육 및 디지털 트레이닝을 장려해야 한다.

97. 회원국은 문화 시장의 집중 리스크를 피하기 위해 문화 영역에 종사하는 지역 문화기관과 중소기업의 AI 도구에 대한 인식 개선과 평가를 증진해야 한다.

98. 회원국은 기술기업과 기타 이해관계자의 다양한 문화적 표현 공급 및 접근을 확대하고, 특히 알고리즘의 추천이 지역 컨텐츠를 가시화하며 발견성을 높일 수 있도록 해야 한다.

99. 회원국은 AI 기술로 생산된 작품에 지적재산권을 적용할지, 적용한다면 어떻게 지적재산권을 보호할 것인지 등 AI와 지적재산(IP)의 교차점에서 발생하는 문제에 대한 연구를 장려해야 한다. 회원국은 또한 AI 기술이 AI 시스템의 연구, 개발, 트레이닝, 시행에 사용되는 작품의 지적재산권자의 권리 혹은 이익에 어떤 영향을 미치는지 평가해야 한다.

100. 회원국은 국가가 운영하는 박물관, 미술관, 도서관 및 자료실이 그들의 컬렉션을 강조하고 소장자료, 데이터베이스, 지식베이스를 강화하며 사용자에게 접근을 가능하게 하는 데 AI 시스템을 사용하도록 장려해야 한다.

정책 분야 8: 교육 및 연구

101. 회원국은 모든 국가의 다양한 국민들에게 적절한 AI 리터러시 교육을 제공하여 이들의 자율성을 높이고, 광범위한 AI 시스템 도입으로 인한 정보 격차 및 정보 접근 격차를 해소하기 위해 국제기구, 교육기관, 민간 및 비정부 기관과 협력해야 한다.

102. 회원국은 AI 교육을 수료하기에 앞서 기본 리터러시, 산술 능력, 코딩 및 디지털 기술, 미디어 및 정보 리터러시 뿐 아니라 비판적•창의적 사고, 팀워크, 커뮤니케이션, 사회정서적•AI 윤리 기술 등과 같은 “필수 기술”의 습득을 장려해야 한다. 특히 이러한 기술에 대한 교육 격차가 극심한 지역/구역에 집중해야 한다.

103. 회원국은 AI 기술로 인해 발생하는 데이터와 기회 및 과제; AI 시스템이 어린이 권리를 비롯한 인권에 미치는 영향과 그 의미 등의 주제와 관련해, AI 개발에 대한 일반 인식 프로그램을 증진해야 한다. 기술 집단은 물론 비기술 집단 또한 이러한 프로그램에 접근할 수 있어야 한다.

104. 회원국은 기회를 극대화하고 교육 분야와 관련된 과제 및 위험을 완화하기 위해 학습, 교사 트레이닝, e-러닝 등에 있어 책임감 있고 윤리적인 AI 기술 사용에 대한 연구 이니셔티브를 장려해야 한다. 이러한 이니셔티브는 AI 기술 사용에 대한 교육의 질과 이것이 학생 및 교사들에게 미치는 영향에 관한 적절한 평가를 포함해야 한다. 회원국은 전통적인 형태의 교육이 지닌 관계적•사회적 측면 및 가치가 교사-학생 및 학생 간 관계에 중요하기에 AI 기술의 적용을 논의할 때 이 부분이 충분히 고려되어야 한다는 사실에 유의하며, AI 기술이 학생 및 교사들의 자율성을 높이고 그들의 경험을 확장할 수 있도록 해야 한다. 교육 과정에서 사용된 AI 시스템은 모니터링, 역량평가, 학습자의 행동 예측 등에 있어 엄격한 요건을 충족해야 한다.  AI는 인지능력을 저해하거나 민감한 정보를 추출하지 않고, 개인정보 보호 기준에 부합하는 방식으로 학습 과정을 지원해야 한다. 학습자와 AI의 상호작용 과정에서 수집된 데이터는 상업적 목적으로 사용되어서는 안 되며, 오용•남용되거나 범죄에 이용되어서는 안 된다.

105. 회원국은 여아 및 여성, 다양한 민족 및 문화권의 사람들, 장애인, 소외계층, 취약계층, 취약한 상황에 노출된 사람들, 소수자, 디지털 포용과 모든 종류의 AI 교육의 혜택을 충분히 누리지 못하는 모든 이의 참여와 리더십을 장려하고 그 과정을 모니터링하여, 다른 회원국과 모범사례를 공유해야 한다.

106. 회원국은 국가 교육 프로그램 및 전통에 따라 모든 수준의 사람들에게 적합한 AI 윤리 커리큘럼을 개발하고, AI 기술 교육과 AI 교육의 인문•윤리•사회적 측면 간 상호협력을 도모해야 한다. AI 윤리 교육의 온라인 과정과 디지털 자원은 원주민어를 포함한 해당 지역의 언어로 개발되어야 하며, 환경의 다양성을 반영해 장애인의 접근을 보장하는 형태로 제공될 수 있어야 한다.

107. 회원국은 국제법과 본 권고안에 명시된 가치 및 원칙을 따르는 연구가 AI 기술의 개발과 개선에 크게 기여할 수 있음을 인지해야 한다. 또한 연구 투자 혹은 공공 및 민간 분야에 투자 인센티브를 제공하는 등의 방법을 통해, AI 윤리 연구를 비롯한 AI 연구를 장려하고 지원해야 한다. 회원국은 또한 윤리적 AI 개발 모범사례를 공표하고, 연구자 및 기업들과 협업해야 한다.

108. 회원국은 AI 연구자들이 연구윤리 훈련을 수료하도록 하고, 그들이 사용된 데이터베이스의 분석, 주석이 달리는 방법, 적용 가능한 결과의 질과 범주 등과 같은 AI 설계, 상품, 발표 단계에 윤리적 사항을 고려하도록 해야 한다.

109. 회원국은 LMIC, LDC, LLDC, SIDS의 과학 공동체가 연구를 위해 필요한 민간기업의 데이터에 접근할 수 있도록 해야 한다. 이것은 프라이버시 및 데이터 보호 기준에 부합하는 방식으로 시행되어야 한다.

110. AI 연구에 대한 비판적 평가와 잠재적 오용 및 부작용에 대한 모니터링을 보장하기 위해, 회원국은 향후 AI와 관련된 기술의 개발이 독립적이고 철저한 과학 연구에 기초하도록 해야 한다. 또한 문화연구학, 교육학, 윤리학, 국제관계학, 법학, 어학, 철학, 정치학, 사회학, 심리학과 같은 과학•기술•엔지니어링•수학(STEM) 이외의 영역이 AI 학제 간 연구에 포함되도록 해야 한다.

111. 회원국은 AI 기술이 전통 모델 중심적인 분야를 비롯한 기타 분야에서 과학적 지식과 관행의 발전에 좋은 기회를 제공한다는 점을 인정하는 한편, 과학 공동체가 AI 사용의 혜택, 한계 및 위험을 인식하도록 해야 한다. 이것은 데이터 중심 접근, 모델, 처치로부터 도출된 결과가 강건하고 건전하다는 것을 보장하는 것을 포함한다. 나아가 회원국은 과학 공동체가 정책 수립 과정에 참여하고 AI 기술의 강점 및 약점에 대한 인식을 공표하는 역할을 수행할 수 있도록 한다.

정책 분야 9: 정보통신

112. 회원국은 정보 및 지식에 대한 접근성을 개선하기 위해 AI 시스템을 사용해야 한다. 이것은 표현의 자유, 학술적 및 과학적 자유, 정보에 대한 접근성, 공식 데이터 및 정보의 사전 공개 확대 등을 강화하기 위한 연구자, 학계, 언론인, 대중, 개발자 등에 대한 지원을 포함할 수 있다.

113. 회원국은 AI 행위자가 표현의 자유는 물론 자동화된 컨텐츠 생성, 조정 및 큐레이션과 관련된 정보 접근을 존중하고 증진하도록 해야 한다. 규제를 비롯한 적절한 프레임워크가 도입되어 투명한 온라인 정보통신 운영을 가능하게 하고, 사용자들이 다양한 관점의 정보에 접근할 수 있도록 해야 한다. 또한 컨텐츠 삭제 및 기타 처리 사유에 대한 신속한 통지를 사용자에게 제공하는 프로세스와, 보상을 요청하는 사용자들을 위한 항소(appeal) 메커니즘이 존재해야 한다.

114. 회원국은 AI 시스템의 사용 방법과 그 의미를 이해하는 데 필요한 비판적 사고와 능력을 강화하기 위해 디지털, 미디어 및 정보 리터러시 기술에 투자하여 잘못된 정보와 혐오 발언을 완화하고 이에 대응해야 한다. 또한 이러한 노력의 일환으로, 권고 시스템이 제시하는 긍정적 효과와 잠재적 유해성에 대한 보다 나은 이해 및 평가를 포함해야 한다.

115. 회원국은 언론이 AI 시스템의 유익성과 유해성을 효과적으로 보도할 권한과 자원을 확보할 수 있도록 하고, 업무에 있어 언론이 AI 시스템을 윤리적으로 사용하도록 해야 한다.

정책 분야 10: 경제 및 근로

116. 회원국은 특별히 근로집약적 경제 구조를 가진 국가를 비롯한 모든 국가에서 AI 시스템이 근로시장에 미치는 영향과 이것이 교육 요건에 의미하는 바를 평가하고 다뤄야 한다. 이것은 빠르게 변하는 근로시장에서 기존의 근로자와 새로운 세대에게 공정한 구직 기회를 제공하고, AI 시스템의 윤리적 측면에 대한 이들의 인식을 개선하기 위해 보다 광범위한 “코어 기술”과 학제 간 기술을 모든 교육 과정에 포함시킬 수 있다. “학습법 배우기”, 커뮤니케이션, 비판적 사고, 팀워크, 공감, 자신의 지식을 다른 분야에 전달하는 능력 등에 대한 교육과 전문적, 기술적 기술은 물론 저숙련 과제에 필요한 교육 역시 함께 이뤄져야 한다. 어떤 기술이 필요하게 될 것인지 투명하게 공개하고 이에 따라 커리큘럼을 업데이트 하는 것이 핵심적이다.

117. 회원국은 기술 요건에 대한 격차를 줄임으로써 중소기업을 포함한 산업의 미래와 필요에 맞춰 트레이닝 프로그램과 전략을 조율하기 위해 정부, 학술기관, 직업훈련기관, 트레이닝 프로그램, 근로자단체, 시민사회 간 협약 채결을 증진해야 한다. 또한 프로젝트 기반 AI 교육 및 학습법을 증진함으로써 공공기관, 민간기업, 대학, 연구센터 간 파트너십을 가능하게 해야 한다.

118. 회원국은 위기를 맞이한 근로자들이 공정한 전환 과정을 거칠 수 있도록 민간기업, 시민단체, 근로자, 노조를 비롯한 기타 이해관계자와 협력해야 한다. 이것은 업스킬링(upskilling) 및 리스킬링(reskilling) 프로그램을 시행하고, 전환이 진행되는 동안 근로자의 고용을 유지하거나, 고용 상태를 유지할 수 없는 근로자들을 위한 “안전망” 프로그램을 탐구하는 등의 효과적인 메커니즘을 찾는 것을 포함한다. 회원국은 업스킬링 및 리스킬링, 사회적 보호 강화, 사전 예방적 산업 정책 및 개입, 세금 혜택, 새로운 세금 형태 등 식별된 과제들을 연구해 해결책을 개발하고 시행해야 한다. 또한 이러한 프로그램들이 공공예산으로부터 충분한 재정적 지원을 받도록 해야 한다. 나아가 AI 기반 자동화로 인해 발생한 실업 문제에 대응하기 위해 세금제도와 같은 관련 규제는 면밀히 검토되고 필요한 경우 개정되어야 한다.

119. 회원국은 미래 트랜드와 과제를 예측하기 위해 연구자들이 지역 노동 환경에 대한 AI 시스템의 영향을 분석할 수 있도록 해야 한다. 연구자들은 학제 간 접근을 통해 AI 시스템의 경제적, 사회적, 지리적 영향은 물론 리스킬링과 모범사례 채택에 대한 자문을 제공하기 위해 인간-로봇 및 인간-인간 상호작용에 대한 영향을 연구해야 한다.

120. 회원국은 AI 시스템 수명주기 전반과 관련된 데이터, 연구, 기술, 시장 등의 독점을 비롯한 지배적 시장 구조의 남용을 예방하기 위해 국가, 지역, 국제적 차원에서 적용 가능한 조치 및 메커니즘을 고려하여 시장의 경쟁력과 소비자 보호를 보장하는 적절한 조치를 취해야 한다. 회원국은 AI 기술로 인해 발생하는 불평등을 예방하고, 관련 시장을 평가하며 경쟁력 있는 시장의 성장을 촉진해야 한다. 인프라, 인적 자원, 규제 등이 부족해 지배적 시장 구조의 남용 가능성에 더욱 노출된 취약한 LMIC, LDC, LLDC, SIDS에 특별히 주의를 기울여야 한다. AI 윤리 기준을 확립하거나 채택한 국가에서 AI 시스템을 개발 중인 AI 행위자들은 그 상품을 수출하거나, 이러한 기준이 존재하지 않는 곳에서 그들의 AI 시스템을 개발 및 적용할 때, 국제법과 국내 법률, 기준 및 관행에 따라 윤리 기준을 준수해야 한다.

정책 분야 11: 의료 및 사회적 안녕

121. 회원국은 글로벌 보건 위기와 불확실성에 대처하기 위해 국제적 연대를 형성하고 유지하며, 국제법 및 인권 의무에 따라 AI 시스템을 보건 분야에 적용함과 동시에, 질병 발생을 완화하는 것을 비롯해 인간의 건강과 생명권을 보호하는 데 효과적인 AI 시스템을 채택해야 한다. 회원국은 보건 분야의 AI 시스템 관련 행위자들이 환자와 환자의 가족 간의 관계와, 환자와 의료 종사자들과의 관계가 갖는 중요성을 고려하도록 해야 한다.

122. 회원국은 어린이와 청소년의 정신 건강을 비롯한 의료 분야 전반과 관련된 AI 시스템의 개발이 안전하고 효과적이며 효율적이고 과학적•의학적으로 검증되었음을 확인하고, 증거 기반 혁신 및 의료 발전에 기여하게 해야 한다. 또한 디지털 의료 개입 관련 분야에서 사용되는 AI 시스템의 모든 단계에서 환자와 그의 대리인을 적극적으로 참여시키는 것이 강하게 권장된다.

123. 회원국은 다음을 통해 AI가 적용된 보건 분야와 관련된 예측, 탐지, 치료 솔루션을 규제하는 데 특별히 주의를 기울여야 한다:

(a) 편견을 최소화하고 완화하기 위한 감독을 보장;

(b) 전문가, 환자, 간병인, 서비스 사용자가 알고리즘 개발의 모든 과정에서 “해당 분야 전문가”로서 포함되는 것을 보장;

(c) 의료 목적으로 지속적인 모니터링을 받는 경우 그에 따른 프라이버시 문제에 충분한 주의를 기울이고, 모든 국가 및 국제 데이터 보호 요건이 충족되는 것을 보장;

(d) 분석되고 있는 개인정보의 주체들이 보건 서비스에 대한 접근의 제한 없이, 데이터 분석 및 사용해 대해 인지하고 사전 동의가 이뤄질 수 있도록 하는 효과적인 메커니즘을 보장;

(e) AI 시스템이 보조적 역할을 수행할 수 있다는 것을 인정하면서, 인간 케어와 진단 및 치료에 관한 최종 결정이 인간에 의해 내려지는 것을 보장;

(f) 필요한 경우 임상 사용 전 윤리연구위원회의 AI 시스템 검토를 보장.

124. 회원국은 우울증, 불안감, 사회적 고립감, 중독, 밀거래 및 과격화, 잘못된 정보 등 AI 시스템이 정신 건강에 잠재적으로 미칠 수 있는 피해의 영향 및 규제에 관한 연구를 진행해야 한다.

125. 회원국은 인간의 신체적•정신적 건강에 유의하며, 로봇의 향후 발전을 지향하는 연구에 기초하여 인간-로봇 상호작용과 이것이 인간-인간 관계에 미치는 영향에 관한 지침을 개발해야 한다. 특히 보건, 노인 및 장애인 케어, 교육에 사용되거나 어린이를 대상으로 한 장난감 로봇, 챗봇(chatbot), 어린이와 성인을 위한 반려로봇의 사용에 주의를 기울여야 한다. 나아가 인간과 로봇이 공존하는 근로 환경을 포함해 로봇 사용의 안전과 인체공학적 활동도를 높이기 위해 AI 시스템에 대한 지원이 적용되어야 한다. AI를 사용해 인간의 인지적 편견을 조작하고 악용할 가능성에 특별히 주의를 기울여야 한다.

126. 회원국은 인간-로봇 상호작용이 모든 AI 시스템에 적용되는 인권 및 기본 자유, 다양성 추구, 취약계층 및 취약한 상황에 노출된 이들에 대한 보호를 포함한 가치 및 원칙을 따르도록 해야 한다.  인간의 존엄성과 자주성을 보존하기 위해 뉴로테크 및 뇌-컴퓨터 인터페이스 등에서 AI를 동력으로 하는 시스템과 관련된 윤리적 질문에 대한 논의가 이뤄져야 한다.

127. 회원국은 사용자가 생명체와 상호작용을 하고 있는지, 혹은 인간이나 동물의 특징을 모방하는 AI 시스템과 상호작용을 하고 있는지 손쉽게 식별하여 효과적으로 상호작용을 중단하거나 인간의 개입을 요청할 수 있도록 해야 한다.

128. 회원국은 시스템을 지칭하는 언어를 포함해, AI 기술과 인간의 감정을 모방하는 기술의 의인화에 대한 경각심을 깨우는 정책을 시행하고 표현, 윤리적 의미, 의인화의 한계 등을 평가해야 한다. 특히 로봇-인간 상호작용의 과정에서 어린이가 관련된 경우 특별한 주의를 기울여야 한다.

129. 회원국은 이러한 시스템이 어린이와 청소년에게 미칠 수 있는 심리적•인지적 영향에 집중하여, 인간과 AI 시스템의 상호작용이 장기화되는 것에 따른 효과에 대한 합동 연구를 장려하고 증진해야 한다. 이를 위해 다양한 규범, 원칙, 프로토콜, 학문적 접근, 행동 및 습관 수정에 대한 평가는 물론 하위 문화 및 사회에 미치는 영향에 대한 신중한 평가가 이뤄져야 한다. 나아가, 회원국은 AI 기술이 보건 시스템에 미치는 영향과 이에 따른 결과에 대한 연구를 증진해야 한다.

130. 회원국과 모든 이해관계자들은 AI 시스템이 어린이 및 청소년의 삶과 미래에 미치는 영향에 대한 대화, 논의, 의사결정 과정에 이들을 참여시키기 위한 메커니즘을 시행해야 한다.

V. 모니터링 및 평가

131. 회원국은 각국의 특수한 상황, 통치 구조, 헌법 조항에 맞게 양적•질적 접근법을 결합하여 AI 윤리 관련 정책, 프로그램, 메커니즘을 투명하게 모니터링 및 평가해야 한다. UNESCO는 회원국에게 다음의 지원을 제공할 수 있다:

(a) 철저한 과학 연구를 기반으로 하고 국제인권법을 따르는 AI 기술 윤리영향평가(EIA)를 위한 UNESCO 방법론; AI 시스템 수명주기 전반에서의 시행 지침; 회원국의 공무원, 정책입안자 및 기타 관련 AI 행위자를 대상으로 한 윤리영향평가 교육 역량 강화를 위한 자료를 개발.

(b) 회원국이 연속적인 준비 과정의 궤적에서 어떤 상태에 있는지 식별하는 것을 지원하기 위한 UNESCO 준비성 평가 방법론 개발.

(c) AI 윤리 정책과 특정 목표에 대한 인센티브의 효과와 효율에 대한 사전 및 사후 평가를 위한 UNESCO 방법론 개발.

(d) AI 윤리 관련 정책의 연구와, 증거 기반 분석 및 보고 강화.

(e) 모범사례를 공유하고 상호학습을 지원함으로써 본 권고안의 시행을 촉진하기 위해, 기존의 이니셔티브 등을 통해 진행사항, 혁신, 연구 보고서, 과학 출판물, AI 윤리 관련 정책의 데이터 및 통계를 수집 및 배포.

132. 모니터링 및 평가 과정에서 취약계층 및 취약한 상황에 노출된 모든 이해관계자들의 광범위한 참여가 보장되어야 한다. 학습 과정을 개선하고 발견, 의사결정, 투명성, 결과에 대한 책임 간 연결을 강화하는 맥락에서 사회•문화•젠더 다양성이 보장되어야 한다.

133. AI 윤리 관련 모범 정책 및 사례를 증진하기 위해 합의된 기준, 우선순위 및 비특권계층, 소외계층, 취약계층 및 취약한 상황에 노출된 이들을 포함한 타깃에 대한 효율 및 효과는 물론 AI 시스템이 개인적 차원과 사회적 수준에서 미치는 영향을 평가하는 적절한 도구 및 지표가 개발되어야 한다. AI 시스템 및 관련 AI 윤리 정책 및 관행이 미치는 영향에 대한 모니터링 및 평가가 해당되는 위험에 비례하는 체계적인 방법으로 지속적으로 이뤄져야 한다. 이것은 국제적으로 합의된 프레임워크를 기반으로 해야 하며 민간•공공기관, 공급자 및 프로그램에 대한 자체적 평가, 추적 연구 등의 평가와 지표 개발을 포함해야 한다. 데이터 수집 및 처리는 국제법, 데이터 보호 및 프라이버시에 관한 국가 법률, 본 권고안에 명시된 가치 및 원칙에 따라 실행되어야 한다.

134. 회원국은 모니터링 및 평가를 위해 윤리위원회, AI 윤리 감독관, 인권을 준수하고 윤리적으로 개발되는 AI 시스템 저장소 등과 같은 메커니즘을 고려할 수 있다. 또한 UNESCO 권한 이내 영역의 윤리 원칙을 준수함으로써 기존의 이니셔티브에 기여하거나 경험 공유 메커니즘, AI규제 샌드박스, AI 행위자가 본 권고안에 언급된 정책 권고를 시행했는지에 대한 평가 지침 등을 채택할 수 있다.

VI. 본 권고안의 활용 및 채택

135. 회원국과 본 권고안에 언급된 모든 이해관계자들은 본 권고안에 명시된 AI와 관련된 윤리적 가치, 원칙 및 기준을 존중, 증진, 보호하고 권고 정책의 시행에 필요한 실현 가능한 모든 조치를 취해야 한다.

136. 회원국은 본 권고안의 범주 및 목적을 공유하는 관련 국가, 국제, 비정부기구은 물론 다국적기업, 과학기구과 협력함으로써 각국의 자체적 조치를 본 권고안에 따라 확장하고 보완하기 위해 노력해야 한다. UNESCO 윤리영향평가 방법론의 개발과 AI 윤리를 위한 국가위원회의 설립은 이러한 노력을 실현하는 데 중요한 도구가 될 수 있다.

VII. 본 권고안의 증진

137. UNESCO는 본 권고안을 장려하는 UN 주요 기관이 되고자 하는 소명을 가지고 있으며, 각 기관의 권한을 존중하고 업무 중복을 방지하며 기타 관련 UN기관과 적절하게 협력할 것이다.

138. UNESCO는 세계과학기술윤리위원회(World Commission on the Ethics of Scientific Knowledge and Technology, COMEST), 국제생명윤리심의위원회(International Bioethics Committee, IBC), 정부간생명윤리위원회(Intergovernmental Bioethics Committee, IGBC)와 같은 하위기구와 더불어, 기타 국제, 지역, 지방정부 및 비정부기구와 협력할 것이다.

139. UNESCO 내에서 이 모든 것을 증진하고 보호하는 권한은 정부와 정부 간 기구에 있다. 그러나 시민사회가 공공 분야의 이익을 대변하는 데 중요한 역할을 수행하므로, UNESCO는 시민 집단의 정당성을 보장하고 장려할 필요가 있다.

VIII. 최종 조항

140. 본 권고안은 포괄적으로 이해되어야 하며, 명시된 가치 및 원칙은 상호 보완적이고 상호 연결된 것으로서 해석되어야 한다.

141. 본 권고안에 명시된 그 어떤 조항도 국제법에 명시된 회원국의 의무 혹은 권리를 대체, 수정 혹은 저해하는 것으로 해석되거나 회원국, 정치•경제•사회 행위자, 단체 혹은 개인이 인권 및 기본 자유, 인간의 존엄성, 환경 및 생태계(생물 및 무생물을 포함)를 위협하는 활동을 승인하는 것으로 해석되어서는 안 된다.

방은주 기자(ejbang@zdnet.co.kr)

©메가뉴스 & ZDNET, A RED VENTURES COMPANY, 무단전재-재배포 금지

포토&TV

    이 시각 추천뉴스