본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

급격한 발전 속에서 심각한 AI위험 관리 원문보기

  • 국가 미국
  • 생성기관 사이언스(Science)
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-05-20
  • 등록일 2024-06-07
  • 권호 265
○ 인공지능은 급속도로 발전하고 있으며, 기업은 생성형 AI시스템 개발로 관심을 옮기고 있음
- 연구자들은 AI로 인한 심각한 위험을 경고하지만 그들을 어떻게 관리할 것인가에 대한 합의는 부족하며, AI안전 연구는 뒤처지고 있음
- 현재 거버넌스 이니셔티브는 오용과 무모함을 방지하기 위한 메커니즘과 제도가 부족하며, 자율시스템을 거의 다루지 못하고 있음
○ 현재의 딥러닝 시스템은 여전히 중요 기능이 부족하며, 이를 개발하는데 얼마의 시간이 걸릴지 알 수 없음
- 그러나 기업은 생성형 AI시스템을 만들기 위한 경쟁에 참여하고 있으며, 기업이 자금을 갖고 있기 때문에 더 많은 발전가능성이 있음
○ 첨단 AI역량과 함께 대규모의 위험도 있으며, AI시스템은 사회적 부정의를 증폭시키고 사회적 안정성을 약화시키며, 대규모의 범죄행위를 가능하게 하고 대량 조작을 촉진하고 감시를 촉진할 수 있음
- 충분한 주의가 없다면 자율 AI시스템에 대한 통제력을 상실할 수 있으며, 인간의 개입이 효과가 없을 수 있음
- 우리는 이러한 위험을 잘 해결할 수 있지 않으며, AI가 이익이 되도록 하기 위해서는 방향을 바꿔야 하고 AI역량을 추진하는 것만으로는 충분하지 않음
○ 기술 R&D의 방향 전환
- 일반적인 자율 AI시스템의 윤리적 사용과 안전을 보장하기 위해서는 다양한 기술과제가 존재
- 믿을 수 있고 안전한 AI를 가능하게 하기 위해서는 첫 번째로 R&D영역에서 돌파구가 필요하며, 다음과 같은 내용이 포함될 수 있음 : 감독과 정직성, AI시스템의 견고성, 해석가능성과 투명성, 포용적 AI개발, 새로운 도전과제 해결
- 두번 째 R&D과제는 효과적이고 위험을 조정하는 거버넌스를 가능하게 하거나 안전이나 거버넌스가 실패했을 때 위험을 줄이는 것임 : 위험역량 평가, AI 정렬(ai alignment)* 평가, 위험평가, 탄력성
* 사람이 의도한 목표와 AI가 달성하는 목표를 일치시키는 것
○ 거버넌스 조치
- 무모함과 오용 방지를 위한 표준을 실행하기 위해 국가적 제도와 국제적 거버넌스가 시급함

배너존