국내외 과학기술 정책에 대한 간략한 정보
단신동향
해외단신
인공지능 봇과 음성 지원이 성 편견 강화에 미치는 영향 및 대처 방안 원문보기 1
- 국가 미국
- 생성기관 브루킹스연구소
- 주제분류 핵심R&D분야
- 원문발표일 2020-11-23
- 등록일 2020-12-18
- 권호 181
○ 브루킹스연구소(Brookings Insitute)는 인공지능 봇과 음성 지원이 성 편견 강화에 미치는 영향 및 대처 방안을 살펴본 보고서*를 발표함
* How AI bots and voice assistants reinforce gender bias
○ 최근 빠르게 보급이 늘고 있는 인공지능 봇과 음성 지원은 대부분 여성의 목소리를 기본으로 제공하고 있음
- 미국 시장의 92.4%를 차지하고 있는 시리, 알렉사, 코타나, 구글 어시스턴트는 여성의 이름(알렉사)을 쓰거나 여성의 목소리를 기본으로 제공하고 있음
○ 인공지능 봇과 음성지원 기기에서 제공되는 여성의 목소리는 기술 산업계의 남성 편중 현상을 반영하고 있으며, 성 편견의 강화로 이어질 수 있음
- 2015년 현재 STEM 부문의 학부 졸업자 중 여성의 비중은 19.9%에 불과하고 구글의 기술직 중 여성의 비중도 2020년 23.6%로 업계 내 여성의 수가 부족한 상태임
- 2019년 UNESCO의 보고서는 이와 같은 여성 음성 지원 기기가 사람들, 특히 어린이에 여성의 역할이 수요에 대응하고 순종적이라는 잘못된 성 편견을 고착화 시킬 수 있음을 경고한 바 있음
○ 본 보고서는 인공지능 봇에 내재된 성 편견 문제를 해결하기 위해 다음과 같은 제언을 제시함
- 인공지능의 인간화와 어떻게 성을 표현할 것인지에 대한 산업 전반의 표준을 개발할 것
- 제품과 기업 내 근로자의 성적 다양성에 대한 데이터를 기업이 수집하고 발표하도록 독려할 것
- 여성 등 소외계층 학생들이 STEM 교육을 받는 것에 대한 진입 장벽을 줄여줄 것
- 여성이 STEM 경력은 물론 공공 정책, 법제, 학계, 기업 등에서 성공할 수 있는 정책을 제공할 것
* How AI bots and voice assistants reinforce gender bias
○ 최근 빠르게 보급이 늘고 있는 인공지능 봇과 음성 지원은 대부분 여성의 목소리를 기본으로 제공하고 있음
- 미국 시장의 92.4%를 차지하고 있는 시리, 알렉사, 코타나, 구글 어시스턴트는 여성의 이름(알렉사)을 쓰거나 여성의 목소리를 기본으로 제공하고 있음
○ 인공지능 봇과 음성지원 기기에서 제공되는 여성의 목소리는 기술 산업계의 남성 편중 현상을 반영하고 있으며, 성 편견의 강화로 이어질 수 있음
- 2015년 현재 STEM 부문의 학부 졸업자 중 여성의 비중은 19.9%에 불과하고 구글의 기술직 중 여성의 비중도 2020년 23.6%로 업계 내 여성의 수가 부족한 상태임
- 2019년 UNESCO의 보고서는 이와 같은 여성 음성 지원 기기가 사람들, 특히 어린이에 여성의 역할이 수요에 대응하고 순종적이라는 잘못된 성 편견을 고착화 시킬 수 있음을 경고한 바 있음
○ 본 보고서는 인공지능 봇에 내재된 성 편견 문제를 해결하기 위해 다음과 같은 제언을 제시함
- 인공지능의 인간화와 어떻게 성을 표현할 것인지에 대한 산업 전반의 표준을 개발할 것
- 제품과 기업 내 근로자의 성적 다양성에 대한 데이터를 기업이 수집하고 발표하도록 독려할 것
- 여성 등 소외계층 학생들이 STEM 교육을 받는 것에 대한 진입 장벽을 줄여줄 것
- 여성이 STEM 경력은 물론 공공 정책, 법제, 학계, 기업 등에서 성공할 수 있는 정책을 제공할 것




