본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

“AI와 인권 리스크 – 인권 관리 체계에서 AI 관련 위험에 대한 대응 필요성 –” 원문보기 1

  • 국가 일본
  • 생성기관 KPMG
  • 주제분류 핵심R&D분야
  • 원문발표일 2026-03-13
  • 등록일 2026-03-24
  • 권호 307
○ KPMG는 생성형 AI 확산에 따라 확대되고 있는 알고리즘 편향, 개인정보 침해 등 인권 리스크 및 기업, 정부에 의한 AI 거버넌스와 인권 영향평가체계 구축의 필요성 등 내용을 담은 보고서를 발표
- 글로벌 차원에서 OECD('19)가 AI 관련 최초의 정부 간 공통 원칙을 제시하면서 AI 거버넌스 논의가 시작되었고, 이후 UNESCO('21)가 AI 윤리와 관련된 국제 규범을 발표
- G7은 '23년 히로시마 AI 프로세스를 통해 생성형 AI 등 고도 AI 시스템에 대응하기 위한 국제 협력 프레임워크를 제시
- EU는 '24년 EU AI Act를 채택하여 AI를 위험 수준에 따라 규제하는 세계 최초의 포괄적 AI 법 체계를 도입
- 일본에서는 '19년 내각부가 인간 중심의 AI 사회 원칙을 발표하여 안전하고 신뢰할 수 있는 AI 활용을 위한 기본 원칙을 제시하였고, 경제산업성이 AI 활용 가이드라인('19)과 AI 거버넌스 가이드라인('22)을 통해 기업의 AI 활용 및 관리 기준을 구체화
- ’25년 일본 정부는 AI 신법(「인공지능 관련 기술의 연구개발 및 활용 촉진법」)을 발표하고, AI 연구개발과 산업 활용을 제도적으로 지원하기 위한 법제화를 추진
○ AI 활용에 따른 인권 리스크 경감 방안
- (1단계: 인권에 대한 기업의 의지 표명) 기업은 AI 활용과 관련된 인권 리스크 대응 방침을 명확히 하고, AI 윤리 정책 등을 통해 기존 인권 관리 체계에 AI 리스크 관리 요소를 포함
- (2단계: 인권 영향 평가) △기업이 개발·활용하는 AI 시스템을 파악하고, 사용 목적과 상황에 따라 발생할 수 있는 인권 리스크 평가 △평가 결과를 바탕으로 내부 가이드라인 마련, 직원 교육, 이해관계자와의 정보 공유 등 대응 조치를 실행
- (3단계: 고충처리시스템 구축) AI로 인해 발생할 수 있는 인권 침해에 대응하기 위해 신고 제도와 구제 절차 등 고충 처리시스템 마련

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원