국내외 과학기술 정책에 대한 간략한 정보

단신동향
해외단신
인공지능 (AI)의 미래를 위해서는 ‘신뢰’가 중요 원문보기 1
- 국가 영국
- 생성기관 PWC
- 주제분류 핵심R&D분야
- 원문발표일 2018-07-31
- 등록일 2018-09-10
- 권호
○ 기업에서 인공지능(AI)을 사용하여 사업을 수행할 때 ‘신뢰’ 확보가 중요하며, 신뢰는 다음의 3단계를 통해 확립 가능
- (1) 설명 가능성(Explainability): 최근 다수의 산업분야 내 많은 기업에서 기계학습(machine learning)과 고급 인공지능 알고리즘(예: 인공신경망)을 폭넓게 사용하고 있음. 이에, 특정 알고리즘에서 나온 결과가 이해하기 힘든 경우가 있으며, 이해가 힘들 경우 결과에 대한 수용도 또한 낮아짐. 따라서 ‘설명 가능성’을 확보하는 것은 ‘신뢰’ 확보를 위한 첫 단계
- (2) 투명성(Transparency): 인공신경망의 경우 인간 두뇌를 표방한 복잡한 알고리즘으로, 이를 사용한 결과는 매우 정확할 수 있으나 그에 따른 ‘의사결정과정’은 투명하지 않을 수 있음
- (3) 증명가능성(Provability): AI에 따른 결정을 설명할 수 있고 신뢰할 수 있도록 하기 위해 기업들은 정확한 의사결정을 하는 AI 시스템을 개발해야 함. 따라서 AI의 기반이 되는 기계학습 모델은 투명해야 하며, 설명가능해야 하며, 반복적으로 같은 결과를 얻을 수 있어야 함(이를 AI모델의 ‘해석가능성 (Interpretability)’이라 칭함)