본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

인공지능의 결정을 평가하도록 4대 설명 원칙 제시 원문보기 1

  • 국가 미국
  • 생성기관 국립표준기술연구소
  • 주제분류
  • 원문발표일 2020-08-18
  • 등록일 2020-09-04
  • 권호 174
○ 국립표준기술연구소(NIST)는 인공지능의 의사 결정을 평가할 수 있도록 설명하는 4대 원칙을 제시하는 보고서*를 발표함
* Four Principles of Explainable Artificial Intelligence
○ 인공지능 기술이 발전하고 더욱 중요한 결정이 인공지능에 의해 이루어질 것으로 전망되면서, 이러한 의사결정 과정을 설명하고 그 신뢰도를 평가하는 것의 중요성이 높아지고 있음
○ 국립표준기술연구소(NIST)의 연구자들은 인공지능 기술의 의사 결정을 설명하고 평가하기 위한 4대 기본 원칙을 다음과 같이 제시함
- 설명: 인공지능 시스템은 모든 결과물에 대해 증거나 근거를 함께 제공하여야 함
- 유의미성: 시스템은 개인 사용자에 의미가 있거나 이해될 수 있는 설명을 제공하여야 함
- 설명의 정확도: 설명은 결과를 생성하기 위해 시스템이 거친 과정을 정확히 반영하여야 함
- 지식의 제한: 시스템은 기존에 설계된 특정한 상황이나 시스템이 결과물에 대한 충부한 자신감을 가지고 있을 경우에만 운영되어야 함
○ 인공지능의 의사 결정 과정을 설명하는 것은 소비자에 따라 서로 다른 요소를 필요로 할 수 있으며, 크게 5종류의 유형으로 분류할 수 있음
- 사용자 혜택: 사용자에게 결과물을 설명하도록 설계된 설명
- 사회적 수용: 사회의 신뢰와 수용을 높이기 위해 설계됨
- 규제 및 순응: 규제나 안전 표준 등에 순응하기 위해 생성된 설명
- 시스템 개발: 인공지능 알고리듬이나 시스템을 개선하고 유지하기 위해 만들어진 설명
- 소유자 혜택: 시스템의 운영자에 혜택을 주기 위해 만들어진 설명

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원