
주요동향
주요동향
韓, 2025년까지 AI 신뢰성 확보 위한 전략 단계적 추진 원문보기 1
- 국가 한국
- 생성기관 과기정통부
- 주제분류 핵심R&D분야
- 원문발표일 2021-05-13
- 등록일 2021-05-21
- 권호 192
□ 인공지능(AI) 챗봇 '이루다'·딥페이크 악용 등 'AI윤리' 문제 재점화
◌ 인공지능이 모든 산업과 사회에 빠르게 도입·확산하며 혁신을 창출하고 있으나 개인정보 유출, 인권 침해, 인종 차별 등 논란도 공존
- 금년 초 국내에서 AI 챗봇 ‘이루다’가 개인정보 유출과 성소수자 혐오, 성희롱 등 논란으로 출시 3주 만에 서비스를 중단했으며 2018년 6월 MIT가 반사회적·반인류적 데이터로 훈련된 ‘사이코패스 AI’를 개발
- 또한 딥페이크 기술을 통해 미국 대통령 얼굴을 합성한 허위 연설을 하는 등 유명인 얼굴을 합성한 가짜뉴스, 불법영상 제작 범죄에 빈번하게 사용되며 사회적 이슈로 대두
※ 딥페이크(Deep fake)는 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 기반으로 한 이미지 합성 기술
◌ 이에 정부는 안전한 AI 사회 구현을 목표로 윤리적 원칙, 신뢰·책임 등을 고려한 지침 마련· 논의 지속하는 등 AI 기술발전과 함께 윤리·책임 등을 포함한 가이드라인 정립
□ 인공지능 기술·제도·윤리 측면 고려한 가이드라인 마련
◌ 우리 정부는 성차별과 개인정보 유출 논란을 일으킨 AI 챗봇 ‘이루다’ 사태 등 AI의 부정적 영향에 대응하기 위해 ‘신뢰할 수 있는 인공지능 실현 전략’ 발표(5.13)
- 민간 AI 서비스 구현을 정부가 체계적으로 지원하고 이용자가 믿고 안전하게 사용할 수 있도록 제도를 보완하며 사회 전반에 건전한 인공지능 윤리를 확산하는 것이 중점 방향
- 2025년까지 책임있는 인공지능 활용 세계 5위, 신뢰있는 사회 세계 10위, 안전한 사이버국가 세계 3위를 달성하는 것이 목표
- 신뢰할 수 있는 인공지능 실현전략에 담긴 기술·제도·윤리 측면의 3대 전략과 10대 실행 과제를 2025년까지 단계적으로 추진할 계획
□ 한편, 세계 주유국도 AI 윤리적 가이드라인 연구 현장
◌ 우리나라뿐만 아니라 유럽·미국·프랑스·영국·일본·중국 등 글로벌 주요국도 AI 시대를 맞아 AI 서비스의 신뢰성을 확보하기 위해 법적·윤리적 가이드라인 제정 논의·공개 활발
- 유럽은 사람에게 부정적 영향을 미칠 수 있는 고위험 인공지능을 중심으로 한 제도 정립을 선도 중
- 미국은 2019년 국가 AI 연구개발 전략으로 ‘기술적으로 안전한 AI 개발’을 채택했고 IBM· MS·구글 등 주요 기업은 AI 개발원칙을 마련해 자율적으로 규제하는 등 기술개발과 민간 자율규제를 중심으로 인공지능에 대한 신뢰성 확보 추진
- 프랑스는 기업, 시민 등 3,000명이 참여한 공개 토론을 통해 ‘인간을 위한 AI’ 구현에 필요한 권고사항을 도출했으며 영국은 5대 윤리 규범, 설명 가능한 AI 가이드라인 등을 마련한 상태