본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

NIST, 공격으로부터 AI를 보호하기 위한 최종 가이드라인 발표 원문보기 1

  • 국가 미국
  • 생성기관 넥스트고브(Nextgov)
  • 주제분류 핵심R&D분야
  • 원문발표일 2025-03-25
  • 등록일 2025-04-04
  • 권호 284
○ 넥스트고브는 인공지능 기반 사이버 공격에 대응하기 위한 국립표준기술연구소(NIST)의 가이드라인에 관한 기사 발표
- 인공지능 기반 사이버공격에 대응하기 위한 NIST의 최종 가이드라인*이 공개되었으며, 여기에는 최신의 위험완화 방법개발과 공격 및 완화의 용어에 대한 최근의 정의가 포함됨
* Adversarial Machine Learning : A Taxonomy and Terminology of Attacks and Mitigations
- 예측형 및 생성형 AI 시스템에 의한 적대적인 머신러닝의 공격을 구분하면서, 환경을 위협하는 새롭게 등장하는 적대적인 머신러닝에 표준화를 적용함
- 2024년 1월 초기버전과 최종버전에서 크게 변경된 내용 중 일부는 생성형 AI 모델의 학습단계, 현장에서 진행 중인 미해결 과제 등을 포함하고 있음
○ 가이드라인은 각 유형의 AI 시스템에 대해 구별되는 3가지 위협유형을 제시함
- 예측형 AI 시스템(predictive AI systems) : NIST 가이드라인은 회피공격, 데이터 오염 공격, 개인정보 공격을 검토함
- 생성형 AI 모델 : 3개의 제시된 공격은 공급망, 직접적인 프롬프트*와 간접적인 프롬프트 주입임
* AI 프롬프트는 ChatGPT나 DALL-E와 같은 AI 시스템에 콘텐츠를 생성하기 위해 제공하는 지시나 요청을 말함

배너존