
주요동향
주요동향
미국, 인공지능 리스크관리프레임워크(AI RMF 1.0) 발표 원문보기 1
- 국가 미국
- 생성기관 국립표준기술연구소
- 주제분류 핵심R&D분야
- 원문발표일 2023-01-26
- 등록일 2023-02-17
- 권호 232
□ 국립표준기술연구소(NIST)는 인공지능(AI) 신뢰성 향상을 위한 인공지능 리스크관리프레임워크(AI RMF(Risk Management Framework) 1.0) 발표*(’23.1.)
* AI 시스템을 설계, 개발, 배포 또는 사용하는 조직이 AI 시스템으로 인한 리스크를 관리하고 신뢰할 수 있고 책임감 있는 AI 시스템을 개발, 사용을 촉진시키는데 도움이 되는 지침 문서로 2020 국가 AI 이니셔티브법(National AI Initiative Act of 2020)에 따라서 개발
ㅇ AI RMF 1.0은 리스크 관리를 통해 시민의 자유와 권리에 대한 위협과 같은 AI 시스템의 잠재적인 부정적 영향을 최소화하고 긍정적인 영향 극대화가 목표
- 사회와 사람들의 삶을 변화시킬 수 있는 막대한 잠재력을 가지고 있는 AI 시스템이 해결해야 하는 리스크(피해)를 사람, 조직, 생태계의 차원에서 정리
- AI 리스크 관리가 계획 및 설계, 데이터 수집・처리, 모델 구축 및 사용, 확인 및 검증, 배포 및 사용, 운영 및 모니터링, 사용 및 영향의 AI 라이프 사이클 전 과정에 참여하는 모든 행위자에 의해 이루어질 수 있음을 강조
ㅇ AI RMF는 ‘신뢰할 수 있는 AI 시스템’의 특성을 다음과 같이 정리
- 유효성 및 신뢰성:AI 시스템이 의도한 요구 사항을 실패없이 수행하는지에 대한 지속적인 테스트와 모니터링을 통해 정확성, 강건성을 확인하여 유효성과 신뢰성 확보
- 안전성:AI 시스템은 사람의 생명, 건강, 재산, 또는 환경을 위험에 빠뜨리는 상황을 초래해서는 안되며, 안전 위협의 종류, 심각도에 따라 리스크 관리 접근 필요
- 보안 및 복원성:의도된 공격을 피하고, 방어하고, 복구하는 보안능력과 예상하지 못한 이벤트가 발생한 이후 정상 기능으로 돌아갈 수 있는 복원성 필요
- 책임과 투명성:투명성은 AI 시스템과 결과물 정보를 해당 시스템 사용자가 적절한 수준으로 접근하여 이용하는 것으로 이때 책임성은 투명성을 전제로 확보 가능
- 설명 및 해석 가능성:AI 시스템이 작동하는 매커니즘 설명과 설계 목적에 따른 결과물에 대한 의미 해석이 가능하도록 도움이 되는 정보 제시 가능
- 개인정보 보호:익명성, 기밀성, 제어와 같은 개인정보 보호 가치가 AI 시스템 설계, 개발, 배포 시 기준 제시 필요
- 공정성:시스템적 편향, 통계적 편향, 인지적 편향 등 3가지 범주의 편향을 관리하고 통제 필요
ㅇ AI 리스크를 관리하여 신뢰할 수 있고 책임감 있는 시스템을 구축하기 위한 조직의 거버넌스, 맵핑(위험식별), 측정, 관리의 네 가지 핵심 기능 제시
- 거버넌스:조직은 적절한 구조, 정책 및 프로세스를 구현하는 등 AI 시스템 수명 주기 전반에 걸쳐 리스크 관리 문화를 조성해야 하며 조직의 고위 관리자는 리스크 관리를 조직의 우선순위로 해야 함
- 매핑:AI 시스템 수명주기는 다양한 주체들이 참여하는 여러 상호작용의 활동으로 모든 구성요소에 대한 위험 및 이점을 매핑하여 개인, 집단, 커뮤니티, 조직 및 사회에 미치는 영향을 종합적으로 검토해야 함
- 측정:정량적 및 정성적 또는 혼합된 방법, 기술 등을 사용하여 리스크 및 관련 영향을 분석, 평가, 벤치마킹 및 모델링 해야 함
- 관리:식별된 리스크에 대한 대응, 복구, 커뮤니케이션 계획을 수행하고, 이후에도 반복적인 리스크 모니터링을 통해 예상치 못한 새로운 리스크 발생 대비
ㅇ 핵심 기능은 AI 시스템의 수명주기 동안 ‘지속적이고 시기적절하게’ 수행되어야 하며 각각의 비즈니스 모델에 맞는 조정 필요
- NIST는 AI RMF가 AI 리스크 관리 능력을 개선했는지 평가하기 위한 기준, 방법론, 목표를 개발해야 하며, 다양한 사용자가 주기적으로 평가 필요
ㅇ AI RMF를 통해 AI 기술의 이점을 극대화하고, 부정적 영향의 가능성을 줄임으로써 기술에 대한 신뢰도를 높일 수 있을 것으로 기대
- AI RMF의 준수는 자발적이지만 규제 당국의 AI에 대한 규제가 강화됨에 따라 AI 리스크를 관리하고자 하는 기업에 실질적인 도움을 제공할 수 있을 것으로 예상