본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

AI 안전 신속 지원금(Fast Grants) 안내 원문보기 1

  • 국가 영국
  • 생성기관 AI안전연구소
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-05-22
  • 등록일 2024-06-07
  • 권호 265
○ AI 안전 연구소(AISI)는 AI 안전에 대한 체계적인 접근 방식을 취하는 영향력 있는 연구를 지원하는 프로그램을 시작했으며, 이를 위해 영국연구혁신기구(UKRI), 앨런 튜링 연구소 및 전 세계의 다른 AI 안전 기관과 협력할 예정
○ 시스템 AI 안전(Systemic AI Safety)의 정의
- 시스템 AI 안전이란 AI가 배포되는 사회 시스템과 중요 인프라를 보호하여 AI 관련 위험에 대한 회복력을 높이고 AI의 혜택을 누릴 수 있도록 하는 것을 의미
- 사람과 사회에 대한 AI의 위험을 해결하려면 AI 모델의 기능을 넘어 인프라에 미치는 영향에 대한 이해가 필요
○ 주요 지원 분야
- 디지털 미디어에 대한 신뢰를 높이고, AI가 생성한 잘못된 정보로부터 보호하는 방법에 대한 시스템 정보 기반 접근 방식
- 에너지 또는 의료 서비스를 제공하는 중요 인프라를 AI 기반 사이버 공격으로부터 보호하는 집중 개입
- 디지털 플랫폼에서 자율적으로 운영되는 AI 시스템의 잠재적 2차 유해 영향을 측정하거나, 모델링 또는 완화하는 프로젝트

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원