본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

인공지능 무기 관리를 위한 인공지능 기술 검증 방안 원문보기 1

  • 국가 미국
  • 생성기관 안보유망기술센터
  • 주제분류 핵심R&D분야
  • 원문발표일 2021-02-17
  • 등록일 2021-03-21
  • 권호 186
○ 안보유망기술센터(CSET)는 인공지능 무기 관리를 위해 인공지능 기술을 검증하는 방안을 제시하는 보고서*를 발표함
* AI Verification: Mechanisms to Ensure AI Arms Control Compliance
○ 인공지능은 인간에 비해 빠르고, 두려움이 없고 효율적이라는 측면에서 국방 기관과 군대는 국방 기술과 효율성을 향상시키는데 인공지능 기술을 활용하고 있음
- 인공지능 기술이 자율 살상 무기에 활용되거나 충분히 검증되지 않고 사용되는 경우 큰 피해를 일으킬 수 있음
○ 세계 각국은 인공지능 기술을 통제하기 위해 안전 설계 표준을 설정하거나, 비윤리적인 활용을 금지하거나, 의사결정 범위를 제한할 수 있으나, 이 모든 것은 규정의 준수를 검증하는 것을 필요로 함
- 인공지능 검증(AI verification)은 각국의 인공지능과 인공지능 체제가 국제 조약을 준수하는지 확인하는 과정으로, 인공지능 검증 메커니즘(AI verification mechanism)은 규제적 준수를 확인하는 도구로 각각 정의됨
○ 본 보고서는 대부분의 인공지능 무기 통제 정책 목표를 지원하는 검증 메커니즘을 다음과 같이 제안함
(1) 시스템 점검 메커니즘: 제3자 검증 기관을 통해 인공지능이 존재하고, 규제된 기능을 통제할 수 있는지를 시험함
- 검증 범위 점검: 제한된 범위의 소프트웨어 점검을 통해 특정 기능을 통제하고 있는지를 확인함
- 하드웨어 점검: 인공지능 반도체와 하위 시스템을 통해 인공지능의 존재와 기술 통제 여부를 확인함
(2) 지속적인 검증 메커니즘: 초기 점검 이후 인공지능과 인공지능 체제의 협정 준수 여부를 확인함
- 안티-탬퍼(anti-tamper) 기술 점검: 검증 후 시스템의 변경을 막을 암호학적 해시나 코드 난독화 등의 기술을 활용함
- 반에크(Van Eck) 방사선 점검: 반에크 방사선 방식을 통해 코드가 수행될 때 방출되는 방사선을 모니터링함

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원