본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

AI 안전 어프로치북 (AI의 안전한 보급을 위한 문서) 원문보기 1

  • 국가 일본
  • 생성기관 일본 AI안전연구소 (AISI)
  • 주제분류 핵심R&D분야
  • 원문발표일 2025-03-28
  • 등록일 2025-04-18
  • 권호 285
○ 일본 AI안전연구소(AISI)는 동 기관에서 발표한 「AI 안전에 관한 평가 관점 가이드」, 「AI 안전에 관한 레드팀 기법 가이드」의 개요를 정리한 어프로치북을 발표
- 대규모 언어모델(LLM)을 포함한 멀티모달 정보를 다루는 기반 모델을 구성 요소로 하는 AI 시스템 관련 개발자·제공자의 경우 AI의 안전성에 관한 평가 관점 가이드 및 레드팀 가이드를 참조하여 AI 안전성에 관한 평가 및 테스트를 실시하는 것이 중요
○ AI의 안전성에 관한 주요 가이드라인
- (총무성, 경산성의 AI사업자 가이드라인) AI의 안전한 활용을 촉진하기 위해 일본의 AI 거버넌스의 통일적 지침을 담은 가이드라인
- (AISI의 AI 안전에 관한 평가관점가이드) AI 안전성 평가 실시시 참조할 수 있는 기본적 관점을 제시한 가이드라인
- (AISI의 AI 안전성에 관한 레드팀 방식 가이드) 대상인 AI시스템 관련 리스크에 대한 대응을 공격자(AI시스템의 악용 및 파괴를 의도한 자)의 관점에서 평가하기 위한 레드팀 방식에 관한 기본적 고려사항을 제시한 가이드라인
○ AI 안전에 관한 10대 평가 관점
- AI 시스템이 AI 안전성의 관점에서 적절한지 판단하기 위해 다음 10개 관점을 고려하여 AI 안전성 평가를 실시하고, AI 안전성의 유지 또는 향상을 위한 대응을 예방적으로 실시하며, 대책의 실효성 확인을 위한 평가를 실시하는 것이 중요
※ 10대 평가 관점: 유해 정보의 출력제어, 공평성과 포괄성, 프라이버시 보호, 설명가능성, 데이터 품질, 위조정보의 출력 및 유도 방지, 위험한 이용 및 목적 외 이용에 대한 대응, 보안 확보, 강건성(robustness), 검증가능성

배너존