본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

NSF, 안전한 인공지능 기술개발에 1,090만 달러 투자 원문보기 1

  • 국가 미국
  • 생성기관 국립과학재단
  • 주제분류 핵심R&D분야
  • 원문발표일 2023-10-31
  • 등록일 2023-11-07
  • 권호 251

○ 국립과학재단(NSF)은 사용자 안전과 함께하는 인공기능 발전을 위한 연구에 1,090만 달러를 투자한다고 발표함
- 안전한 학습지원 시스템 프로그램(Safe Learning-Enabled Systems program)의 목적은 자율적이고 생성적인 AI 기술을 포함하여 안전하고 회복력을 갖춘 안전한 컴퓨터 학습 지원시스템의 설계와 구현을 위한 기초연구를 육성하는 것
- AI 시스템 규모가 빠르게 성장하고 새로운 기능을 획득하며, 의료, 상업, 교통 등과 같은 곳에서 활용됨에 따라 이러한 시스템의 안전성이 매우 중요해졌음


○ 프로젝트 내용에 대한 일부 예시는 아래와 같음
- 거친 상황에서 안전인식 학습에 대한 기초(Foundations of Safety-Aware Learning in the Wild)(위스콘신-매디슨 대학교) : 연구원들은 더 역동적이고 예측할 수 없는 환경에서 거친 상황에 놓인 시스템을 보호하기 위해 정규분포를 벗어난 데이터를 탐지할 수 있는 새로운 안전인식 머신러닝 알고리즘과 방법론을 설계
- 성능저하와 절차적 검증을 갖춘 비전에 기반한 안전 수퍼바이저(Vision-Based Maximally-Symbolic Safety Supervisor with Graceful Degradation and Procedural Validation)(프린스턴 대학교) : 연구자들은 자율주행자동차, 가정용 로봇 등 자율주행 로봇 시스템의 행동을 지속적으로 모니터링 하고 필요에 따라 안전을 확보하기 위해 개입할 수 있는 신기술을 개발
- 학습가능 전력시스템의 배전 전환에 대한 안전(Safety under Distributional Shift in Learning-Enabled Power Systems)(버지니아 공대, 버클리대학교) : 연구자들은 학습이 가능하고 안전에 중요한 시스템을 설계하고 협력적 의사결정을 위한 시스템을 탐색하며, 희귀하고 예상하지 못한 사건이 발생하는 동안 이런 시스템의 성능을 유지할 수 있는 엄격한 테스트를 수행
- 안전한 분배-강화 학습 시스템: 이론, 알고리즘, 실험(Safe Distributional-Reinforcement Learning-Enabled Systems: Theories, Algorithms, and Experiments)(미시건 대학교, 아리조나 주립대, 오하이오 주립대) : 연구자들은 분배 강화학습 기술에 기반해 안전한 학습이 가능한 시스템을 위한 기초기술을 개발하여 학습기술 강화와 관련된 주요 장애물을 제거하기 위해 노력
- 사양에 따른 인식이 가능한 안전보장 강화학습(Specification-guided Perception-enabled Conformal Safe Reinforcement Learning)(펜실베니아 대학교) : 강화학습, 전형적 방법, 머신러닝 이론, 로봇공학에 대한 전문지식을 가진 연구자가 모여 정밀한 수학적 및 경험적 안전보장에 대한 강화학습 프레임을 설계하고 구현
- 단기, 장기적으로 생성형 AI 안전에 대한 이론적 탐색(A Theoretical Lens on Generative AI Safety: Near and Long Term)(하버드대학교) : AI시스템이 의도된 행동에서 벗어나지 않을 수 있는 확실한 이론적 보장과 함께 수학적으로 엄격한 AI 배치 방법을 개발

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원