본문으로 바로가기

국내외 과학기술정책에 대한 주요 정보

주요동향

주요동향

미국, 적대적 머신러닝 및 사이버 보안 관련 보고서 발표 원문보기 1

  • 국가 미국
  • 생성기관 안보유망기술센터(CSET)
  • 주제분류 핵심R&D분야
  • 원문발표일 2023-04-04
  • 등록일 2023-05-12
  • 권호 238

□ 조지타운대학 안보유망기술센터(CSET)인공지능 시스템의 적대적 머신러닝* 및 사이버 보안 취약성 및 향후 개선을 위한 권장사항을 제시한 보고서 발표**(’23.4.)

* 인공지능 시스템 공격자가 일부 데이터를 조작하여 인공지능 모델이 잘못된 결론 내리도록 만드는 기술

** Adversarial Machine Learning and Cybersecurity:Risks, Challenges, and Legal Implications


ㅇ 인공지능, 특히 머신러닝이 상업 및 정책적인 부분에 빠르게 도입됨에 따라 기술의 오류 발생, 개인정보 유출, 성능 저하 등 취약성 문제도 동시 수반

- 인공지능의 취약성은 전통적인 사이버 보안 취약성 해결방안으로는 대응이 어려울 수 있으며, 기업과 정부 간 책임 주체의 모호성 발생 가능


ㅇ 보고서는 ’227, 안보유망기술센터와 스탠포드 사이버정책센터가 AI 취약성 등에 대하여 논의한 워크숍 결과를 바탕으로 4가지 권장 사항을 제시

(1) AI 취약성에 대한 기존 사이버 보안의 확장

- AI는 기존 소프트웨어 취약성(운영체제, 워크스테이션 어플리케이션, 서버, 모바일 앱 등의 취약성)과 구별되는 취약성을 가지고 있음


1-01.PNG

- 이러한 특징으로 인하여, 기존의 사이버 보안 리스크 관리 프레임을 적용하기 위해서는 일부 내용의 확장조정이 필요


1-02.PNG

(2) 정보 공유 및 조직의 보안 마인드 개선

- AI 시스템은 구조적 특징*으로 인해 시스템에 대한 공격 위협이 얼마나 큰지 정확하게 평가하는데 어려움이 있으므로, AI 취약성이 관찰될 경우 다른 조직, 최종 사용자, 정부 등에 정보를 공유하고 투명성을 제고하는 등의 개선 필요

* AI 취약성에 대한 대부분의 정보는 이론적학술적 연구환경, 사이버 보안 회사 또는 조직 내부의 보안테스트를 통해 얻어짐, AI 자산(데이터셋, 모델 등)과 해당 취약성을 추적하는 체계적이고 표준화된 수단이 없어 취약한 시스템이 퍼져 있는 범위를 파악하기 어려움, AI 공격을 탐지하고 적발할 조직의 역량 및 인센티브가 부족할 수 있음


1-03.PNG

(3) AI 취약성의 법적 지위 명확화

- 미국에는 AI와 관련한 종합적인 법률은 없으나 형법, 소비자보호법, 개인정보호법 등에서 관련 사항을 규정하고 있고, 최근에는 AI의 편견 및 차별에 관한 정책적 우려가 커지면서 연방 기관이 관련 가이드라인을 발표

- AI 관련 커뮤니티 및 개인은 기존의 법적 프레임워크와 가이드라인을 인식하고 해당 법률과 규정, 특히 편견 및 차별과 관련한 사항을 준수하도록 보장


1-04.PNG

(4) AI 보안 향상을 위한 효과적인 연구 지원

- 보안 관련 사항은 머신러닝 등 AI 배포자(기업)에게는 보조적인 고려사항인 경우가 많아, AI 시스템 보안 강화에 충분한 능력을 활용하지 않음

- 산업 내에서 보안에 대한 충분한 투자 인센티브가 보장되지 않는 경우, 정책적 영향력을 통한 해결방안 모색이 필요


1-05.PNG



배너존