국내외 과학기술 정책에 대한 간략한 정보

단신동향
해외단신
기술적 AI정부기관은 AI혁신과 신뢰성 향상에 핵심적인 역할을 수행 원문보기 1
- 국가 미국
- 생성기관 브루킹스연구소
- 주제분류 핵심R&D분야
- 원문발표일 2025-03-14
- 등록일 2025-03-21
- 권호 283
○ 브루킹스연구소는 미국 내 AI 안전 연구소(AI Safety Institute)의 지속적인 운영 필요성과 AI 정책 방향을 평가한 보고서를 발표
- AI 안전 연구소는 현재 미 상무부 산하 국립표준기술연구소(NIST)에서 임시적으로 운영되고 있으며, AI 모델의 안전성과 신뢰성을 평가하는 핵심 기관임
- 보고서는 트럼프 행정부가 해당 기관을 영구적으로 법제화하고, 충분한 예산과 비당파적 기술 전문가들로 구성해야 한다고 주장
○ AI 모델이 초래할 수 있는 실질적 위험(real AI risks)에 대응하기 위해 미국 정부는 AI 모델의 사전 평가 및 안전성 검토를 강화해야 함
- AI의 실제 위험 요소: 생물·화학 무기 개발 지원 가능성, 사이버 보안 위협, 허위 정보 생성, 데이터 편향 및 차별 등
- 영국은 최근 AI 안전 연구소를 AI 보안 연구소(AI Security Institute)로 개편하며, AI의 실질적 보안 위협을 관리하는 데 집중
- 보고서는 미국 또한 AI 평가 및 안전성 검증 기관을 유지할 필요가 있다고 권고
○ 미국 AI 안전 연구소의 주요 활동 및 성과
- AI 기업들이 AI 모델을 상업적으로 출시하기 전에, 정부 기관이 사전 평가(pre-deployment evaluation)를 수행할 필요가 있음
- 2024년 11월, NIST는 Anthropic의 Claude 3.5 Sonnet 모델을 사전 평가하여, 보안 취약점과 우회 가능성을 보고한 바 있음
- 2025년 1월, OpenAI의 o1 모델 평가에서는 특정 영역에서 경쟁 모델보다 우수하지만, 일부 보안 기능이 취약하다는 결론이 도출됨
- AI 안전 연구소는 현재 미 상무부 산하 국립표준기술연구소(NIST)에서 임시적으로 운영되고 있으며, AI 모델의 안전성과 신뢰성을 평가하는 핵심 기관임
- 보고서는 트럼프 행정부가 해당 기관을 영구적으로 법제화하고, 충분한 예산과 비당파적 기술 전문가들로 구성해야 한다고 주장
○ AI 모델이 초래할 수 있는 실질적 위험(real AI risks)에 대응하기 위해 미국 정부는 AI 모델의 사전 평가 및 안전성 검토를 강화해야 함
- AI의 실제 위험 요소: 생물·화학 무기 개발 지원 가능성, 사이버 보안 위협, 허위 정보 생성, 데이터 편향 및 차별 등
- 영국은 최근 AI 안전 연구소를 AI 보안 연구소(AI Security Institute)로 개편하며, AI의 실질적 보안 위협을 관리하는 데 집중
- 보고서는 미국 또한 AI 평가 및 안전성 검증 기관을 유지할 필요가 있다고 권고
○ 미국 AI 안전 연구소의 주요 활동 및 성과
- AI 기업들이 AI 모델을 상업적으로 출시하기 전에, 정부 기관이 사전 평가(pre-deployment evaluation)를 수행할 필요가 있음
- 2024년 11월, NIST는 Anthropic의 Claude 3.5 Sonnet 모델을 사전 평가하여, 보안 취약점과 우회 가능성을 보고한 바 있음
- 2025년 1월, OpenAI의 o1 모델 평가에서는 특정 영역에서 경쟁 모델보다 우수하지만, 일부 보안 기능이 취약하다는 결론이 도출됨