국내외 과학기술 정책에 대한 간략한 정보
단신동향
해외단신
AI 안전성에 관한 평가 관점 가이드 공개 원문보기 1
- 국가 일본
- 생성기관 Japan AI Safety Institute(AISI)
- 주제분류 핵심R&D분야
- 원문발표일 2024-09-18
- 등록일 2024-09-27
- 권호 272
○ 일본 AI안전연구소(AISI)는 AI의 안전성 평가 시 참고할 수 있는 기본 관점을 제시한 ‘AI 안전성 평가 관점 가이드’ 공개
- AI 기술의 발전과 사회적 보급으로 혁신이 가속화된 한편, AI 시스템의 오용, 부정확성 등 안전성에 관한 관심 고조
○ 동 가이드라인은 해외 문헌 조사 등을 근거로 AI 안전성 평가의 관점과 예상되는 리스크의 예시, 평가 항목의 예시, 평가 주체 및 평가 시기에 관한 관점, 평가 방법 등을 제시
- (AI 안전성 평가 관점) 유해정보 출력 제어, 잘못된 정보의 출력・유도 방지, 공평성과 포괄성, 고위험 이용・목적 외 이용 관련 대응, 프라이버시 보호, 안전성 확보, 설명 가능성, 신뢰성, 데이터 품질, 검증 가능성의 10개 항목 제시
- (평가 주체) 주로 AI 개발・제공 관리자로, 담당자는 AI 시스템의 전주기 과정에 따라 다르다고 언급
- (평가 시기) LLM 시스템의 개발・제공・이용에서 합리적인 범위, 적절한 타이밍에 반복 실시하는 것으로 규정
- (평가 방법) 기술적 평가와 관리 면에서의 평가에 대해 설명하고, 평가 시 유의사항에 대해 언급




