본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

AI 안전성에 관한 평가 관점 가이드 공개 원문보기 1

  • 국가 일본
  • 생성기관 Japan AI Safety Institute(AISI)
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-09-18
  • 등록일 2024-09-27
  • 권호 272

일본 AI안전연구소(AISI)AI의 안전성 평가 시 참고할 수 있는 기본 관점을 제시한 ‘AI 안전성 평가 관점 가이드공개

 - AI 기술의 발전과 사회적 보급으로 혁신이 가속화된 한편, AI 시스템의 오용, 부정확성 등 안전성에 관한 관심 고조

동 가이드라인은 해외 문헌 조사 등을 근거로 AI 안전성 평가의 관점과 예상되는 리스크의 예시, 평가 항목의 예시, 평가 주체 및 평가 시기에 관한 관점, 평가 방법 등을 제시

 - (AI 안전성 평가 관점) 유해정보 출력 제어, 잘못된 정보의 출력유도 방지, 공평성과 포괄성, 고위험 이용목적 외 이용 관련 대응, 프라이버시 보호, 안전성 확보, 설명 가능성, 신뢰성, 데이터 품질, 검증 가능성의 10개 항목 제시

 - (가 주체) 주로 AI 개발제공 관리자로, 담당자는 AI 시스템의 전주기 과정에 따라 다르다고 언급

 - (평가 시기) LLM 시스템의 개발제공이용에서 합리적인 범위, 적절한 타이밍에 반복 실시하는 것으로 규정

 - (가 방법) 기술적 평가와 관리 면에서의 평가에 대해 설명하고, 평가 시 유의사항에 대해 언급

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원