본문으로 바로가기

국내외 과학기술정책에 대한 주요 정보

주요동향

주요동향

韓, 2025년까지 AI 신뢰성 확보 위한 전략 단계적 추진 원문보기 1

  • 국가 한국
  • 생성기관 과기정통부
  • 주제분류 핵심R&D분야
  • 원문발표일 2021-05-13
  • 등록일 2021-05-21
  • 권호 192

□ 인공지능(AI) 챗봇 '이루다'·딥페이크 악용 등 'AI윤리' 문제 재점화


◌ 공지능이 모든 산업과 사회에 빠르게 도입·확산하며 혁신을 창출하고 있으나 개인정보 유출인권 침해인종 차별 등 논란도 공존


금년 초 국내에서 AI 챗봇 이루다 개인정보 유출과 성소수자 혐오성희롱 등 논란으로 출시 3주 만에 서비스를 중단했으며 2018년 6월 MIT가 반사회적·인류적 데이터로 훈련된 사이코패스 AI’를 개발


또한 딥페이크 기술을 통해 미국 대통령 얼굴을 합성한 허위 연설을 하는 등 유명인 얼굴을 합성한 가짜뉴스불법영상 제작 범죄에 빈번하게 사용되며 사회적 이슈로 대두


※ 딥페이크(Deep fake)는 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 기반으로 한 이미지 합성 기술



◌ 이에 정부는 안전한 AI 사회 구현을 목표로 윤리적 원칙신뢰·책임 등을 고려한 지침 마련· 논의 지속하는 등 AI 기술발전과 함께 윤리·책임 등을 포함한 가이드라인 정립


□ 인공지능 기술·제도·윤리 측면 고려한 가이드라인 마련


리 정부는 성차별과 개인정보 유출 논란을 일으킨 AI 챗봇 이루다사태 등 AI부정적 영향에 대응하기 위해 신뢰할 수 있는 인공지능 실현 전략발표(5.13)



1-1.PNG


- AI 서비스 구현을 정부가 체계적으로 지원하고 이용자가 믿고 안전하게 사용할 수 있 제도를 보완하며 사회 전반에 건전한 인공지능 윤리를 확산하는 것이 중점 방향


- 2025년까지 책임있는 인공지능 활용 세계 5, 신뢰있는 사회 세계 10, 안전한 사이버국가 세계 3위를 달성하는 것이 목표


- 신뢰할 수 있는 인공지능 실현전략에 담긴 기술·제도·윤리 측면의 3대 전략과 10대 실행 과제를 2025년까지 단계적으로 추진할 계획




1-2.PNG

1-3.PNG



□ 한편, 세계 주유국도 AI 윤리적 가이드라인 연구 현장



리나라뿐만 아니라 유럽·미국·프랑스·영국·일본·중국 등 글로벌 주요국도 AI 시대를 맞아 AI 서비스의 신뢰성을 확보하기 위해 법적·윤리적 가이드라인 제정 논의·공개 활발


- 럽은 사람에게 부정적 영향을 미칠 수 있는 고위험 인공지능을 중심으로 한 제도 정립을 선도 중


- 미국은 2019년 국가 AI 연구개발 전략으로 기술적으로 안전한 AI 개발을 채택했고 IBM· MS·구글 등 주요 기업은 AI 개발원칙을 마련해 자율적으로 규제하는 등 기술개발과 민간 자율규제를 중심으로 인공지능에 대한 신뢰성 확보 추진


- 프랑스는 기업, 시민 등 3,000명이 참여한 공개 토론을 통해 인간을 위한 AI’ 구현에 필요한 권고사항을 도출했으며 영국은 5대 윤리 규범, 설명 가능한 AI 가이드라인 등을 마련한 상태



1-4.PNG

1-5.PNG



배너존