본문으로 바로가기

국내외 과학기술정책에 대한 주요 정보

주요동향

주요동향

글로벌 주요국, 균형잡힌 AI 활용 위한 제도적 기틀 강화 원문보기 1

  • 국가 주요국
  • 생성기관 디지털투데이
  • 주제분류 핵심R&D분야
  • 원문발표일 2023-04-23
  • 등록일 2023-05-12
  • 권호 238

□ 미국, 인공지능(AI) 기술에 대한 신뢰 구축 및 기술 도입 가속화 지원


ㅇ 미국 국토안보부(DHS, Department of Homeland Security)AI의 국가 보호 활용법 조사를 위한 태스크포스(Task Force) 설립 계획을 발표(4.22)


3-01.PNG

- 오픈AI의 챗GPT 이후 AI 활용 방안에 대한 관심이 급증한 것이 태스크포스 출범 배경

- 태스크포스는 중요한 기반 시설 보호 및 화물 검사, 불법 행위 적발, 아동 학대 피해자 및 가해자 식별 시스템 등 다양한 활동에 AI를 활용하는 방안을 연구할 방침

- 또한, AI를 책임 있게 활용하고 악의적 사용에 대항하며, 엄밀하게 심사해 서비스 제공 시 명확한 설명을 보장하고 편견이나 차별을 방어할 계획

- 정부는 연구를 통해 불법 화물이 국내로 반입되는 것을 막고, 전력망 및 급수 시스템 등 잠재적인 표적이 될 수 있는 인프라 보안을 강화할 수 있을 것으로 기대


ㅇ 앞서, 미국 상무부 국립표준기술연구소(NIST)AI 기술의 위험을 관리하는 데 필수적인 ‘AI 위험 관리 프레임워크(AI Risk Management Framework-AI RMF 1.0)’도 발표(1.26)하며, 신뢰할 수 있는 AI 구축 행보 활발

- AI 위험 관리 프레임워크는 AI 기술이 계속 발전함에 따라 AI 환경에 적응하고 다양한 수준과 역량을 가진 조직에서 AI 기술의 잠재적 피해로부터 보호받을 수 있도록, 미국 의회와 민간 및 공공기관과 함께 긴밀한 협력을 통해 마련

- 두 영역으로 구성된 프레임워크는 조직이 AI 위험을 해결할 수 있도록 유연하고 체계적이며 측정 가능한 프로세스를 제공

- 첫 번째 파트에서는, AI와 관련된 위험을 구성하는 방법에 대해 논의하고 신뢰할 수 있는 AI 시스템의 특성을 설명

- 두 번째 파트에서는, 이 실제로 AI 시스템의 위험을 해결하는 데 도움이 되는 4가지 특정 기능(거버넌스, 매핑, 측정, 관리)을 제시


3-02.PNG

- NISTAI 위험 관리 프레임워크를 통해 인공지능 기술의 이점을 빠르게 극대화하는 동시에, 개인그룹지역사회조직 및 사회에 부정적인 영향은 줄일 수 있을 것으로 기대


□ 영국, AI 태스크포스 재단 설립 계획 발표하며 AI 강국 박차


ㅇ 영국 정부는 1억 파운드(1,672억 원)를 투자해 의료 및 교육 부문에서 사용할 수 있는, 안전하고 신뢰할 수 있는 AI 모델을 개발하는 태스크포스 재단 (Foundation Model Taskforce) 설립 계획을 발표(4.24)


3-03.PNG

- 코로나19 백신태스크포스의 성공을 모델로 한 AI 태스크포스재단은 경제전반에 걸친 AI의 안전하고 신뢰할 수 있는 사용을 연구하며, 영국이 세계적인 경쟁력을 갖출 수 있도록 하는 것이 목표

- 태스크포스재단은 세계적으로 경쟁력 있는 AI 모델을 개발할 예정이며 윤리 및 기술적 문제를 예방하며, 안정성과 신뢰성 있는 AI 기술을 갖추기 위해 다양한 전문가와 협력할 계획

- 특히, AI 안전에 대한 글로벌 표준을 제시하는 역할을 할 수 있는 기회에 초점을 맞출 예정

- 태스크포스가 개발하는 AI 파운데이션 모델은 비정형 대규모 데이터 세트에 대해 학습된 AI시스템으로, 기초 모델은 챗GPT 및 바드(Bard)와 같은 생성AI 애플리케이션에 사용되는 오픈AIGPT-4 및 구글의 PaLM과 같은 대규모 언어 모델이 뒷받침될 것으로 예상

- 신뢰할 수 있는 AI로 의료기술을 개발하고 공공서비스를 지원하며, 기후변화에 대처할 방침

- 영국 정부는 태스크포스 재단을 통해 경제 전반에 AI 기술을 도입하고, 글로벌 경쟁력을 확보할 있을 것으로 기대


□ G7, 민주주의인권법의 지배기술혁신 등 AI 이용 5가지 원칙 합의


ㅇ G7(미국일본독일영국프랑스이탈리아캐나다) 디지털기술 담당 장관은 GPT’를 비롯한 새로운 AI 기술을 적절히 이용하기 위한 5가지 원칙에 합의(4.30)

- 이들은 고성능 AI 개발과 활용을 진행하는 동시에 편견과 거짓정보의 확산, 사생활저작권 침해와 같은 폐해를 억제하는 방안 마련이 시급하다고 판단하여, 5가지 원칙을 만들어 보급해 나갈 방침

- 5가지 원칙은 법의 지배, 적정한 절차, 혁신 기회의 활용, 민주주의, 인권 존중 등이며 AI를 규제하는 것이 아닌 책임감 있게 AI를 개발, 신뢰할 수 있는 AI를 보급하는 것이 목표

- 5대 원칙에 따라 저마다의 규제 차이를 감안하면서 AI의 기술과 위험성을 평가하는 공통 기준을 마련할 계획

- G7의 공통 규제에는 AI가 편견이 없는 데이터를 학습하는지, AI를 활용한 직원 채용 과정에서 인종 등에 따른 차별이 있는지 등의 항목을 포함할 계획

- 또한, AI에 의한 감시데이터가공사이버 공격을 예방하기 위한 규제도 마련할 방침이며, AI 개발의 투명성을 높이기 위해 데이터 학습 이력을 보존하는 등의 규정도 요구할 계획


□ 한편, 생성형AI 개발 경쟁에 따른 부작용을 차단하기 위한 규제 움직임도 본격화


ㅇ 유럽연합은 AI가 초래할 수 있는 사회적 위험을 예방하고 신뢰할 수 있는 AI 시스템 개발을 위해 저작권 이슈 등을 포함한 생성형 AI에 대한 규정을 새롭게 마련(4.27)

- 앞서 ’21.4EU집행위원회가 발표한 ‘AI법안초안에 생성형 AI에 대한 세부지침을 추가한 것

AI 법안은 AI가 초래할 수 있는 사회적 위험을 예방하고 신뢰할 수 있는 AI 기술개발을 목표로, AI의 생체 감시, 잘못된 정보 유포, 차별적 언어 사용 등 수준을 고려하여 용인할 수 없는 위험(unacceptable risk), 고위험(high risk), 제한된 위험(limited risk), 최소한의 위험(minimal risk) 등의 등급으로 분류

- 당초, AI 법안은 올 3EU 의회 위원회에서 채택 예정이었으나 챗GPT 등장으로 생성형 AI에 대한 규제 필요성이 높아지면서 세부 기준을 두고 의견이 분분했던 상황

- 이에 새롭게 추가한 규정에서는 생성형 AI 서비스 사업자가 프로그램이 작동할 때, 사용한 자료의 저작권 내역을 공개하는 것이 필수라고 명시

대화형 AI챗봇인 챗GPT나 이미지 제작용인 미드저니와 같은 생성형 AI의 경우 프로그램이 작동할 때 저작권물을 활용했다면 그 내용을 밝혀야 한다는 것

- 아울러, AI가 아동 음란물, 홀로코스트(학살) 관련 콘텐츠 등 EU 법률을 위반하는 것을 만들 수 없도록 적절한 규제 장치도 포함

- 동 법안은 향후 EU집행위원회와 유럽의회, 회원국 간 삼자 협의에서 논의하여 구체화할 예정이며, 법안이 최종 통과될 경우 AI와 관련한 광범위한 규제를 담은 첫 법률이 될 전망

- 법안을 제정하면 콘텐츠 제작자들이 자신의 작품이 생성형 AI에 데이터로 쓰였을 때, 저작권 수익을 요구할 수 있는 근거로 활용할 것으로 예상


ㅇ 한편, EU의 개인정보 보호 정책을 총괄하고 있는 유럽데이터보호위원회(EDPB) AI 관련 공동 정책을 논의하기 위한 챗GPT 전담 태스크포스도 출범(4.13)

- 태스크포스는 AI 기술을 사용할 때 개인정보 보호 문제를 다룰 법률을 제정하는데 초점



배너존