국내외 과학기술 정책에 대한 간략한 정보
단신동향
해외단신
프론티어 AI 안전을 위한 프로세스 원문보기 1
- 국가 영국
- 생성기관 과학혁신기술부
- 주제분류 핵심R&D분야
- 원문발표일 2023-10-27
- 등록일 2023-10-31
- 권호 251
○ 영국 정부는 프론티어 AI 조직들이 자발적인 안전 약속을 어떻게 이행하고 있는지 이해하고 대중의 신뢰를 높이기 위해 프론티어 AI 안전 정책 과정에 대한 정보를 공개하도록 장려함
- 또한 프론티어 AI 조직에서의 안전 관행 공개는 중소기업을 포함해 더 많은 AI 관련 산업들이 논의에 참여하거나 참고하게 하여 더 큰 AI 생태계 활성화에 기여할 것임
○ 해당 보고서는 크게 9개 단계로 프론티어 AI 조직의 AI 안전정책 프로세스를 정리함
1. 책임있는 역량 스케일링: 프론티어 AI 시스템의 역량을 확장하기에 앞서 위험분석을 실시함
2. 모델 평가 및 레드팀: AI 모델의 위험성을 평가하고 훈련, 보안화, 활용과정에서 더 나은 의사결정을 지원함
3. 모델 보고 및 정보 공유: 프론티어 AI의 개발 및 활용에 대한 정부의 이해도 제고
4. 모델 가중치 보안(Securing Model Weights) 등 보안제어: AI 모델이 도난당하거나 기밀 또는 민감데이터가 유출되는 것을 막기 위한 기제 필요
5. 취약성 구조 보고: '버그 바운티 프로그램(bug bounty programs)'과 같이 외부인에게 안전 및 보안 이슈의 진단을 맡김
6. AI 생성 자료에 대한 식별자: 컨텐츠가 AI에 의해 생성 또는 수정되었는지에 대한 정보를 제공함
7. AI로 인한 위험에 대한 연구 우선순위: 새로운 위험의 식별 및 해결에 중점을 둠
8. 모델 오용의 예방 및 모니터링: AI가 배포된 이후 발생하는 악용사례를 막기위한 예방적 조치와 식별 및 모니터링하는 프로세스 마련
9. 입력 데이터 통제 및 감사: AI의 위험한 기능을 증가시킬 수 있는 학습데이터 사용을 지양하고 문제되는 부분을 식별 및 삭제함
- 또한 프론티어 AI 조직에서의 안전 관행 공개는 중소기업을 포함해 더 많은 AI 관련 산업들이 논의에 참여하거나 참고하게 하여 더 큰 AI 생태계 활성화에 기여할 것임
○ 해당 보고서는 크게 9개 단계로 프론티어 AI 조직의 AI 안전정책 프로세스를 정리함
1. 책임있는 역량 스케일링: 프론티어 AI 시스템의 역량을 확장하기에 앞서 위험분석을 실시함
2. 모델 평가 및 레드팀: AI 모델의 위험성을 평가하고 훈련, 보안화, 활용과정에서 더 나은 의사결정을 지원함
3. 모델 보고 및 정보 공유: 프론티어 AI의 개발 및 활용에 대한 정부의 이해도 제고
4. 모델 가중치 보안(Securing Model Weights) 등 보안제어: AI 모델이 도난당하거나 기밀 또는 민감데이터가 유출되는 것을 막기 위한 기제 필요
5. 취약성 구조 보고: '버그 바운티 프로그램(bug bounty programs)'과 같이 외부인에게 안전 및 보안 이슈의 진단을 맡김
6. AI 생성 자료에 대한 식별자: 컨텐츠가 AI에 의해 생성 또는 수정되었는지에 대한 정보를 제공함
7. AI로 인한 위험에 대한 연구 우선순위: 새로운 위험의 식별 및 해결에 중점을 둠
8. 모델 오용의 예방 및 모니터링: AI가 배포된 이후 발생하는 악용사례를 막기위한 예방적 조치와 식별 및 모니터링하는 프로세스 마련
9. 입력 데이터 통제 및 감사: AI의 위험한 기능을 증가시킬 수 있는 학습데이터 사용을 지양하고 문제되는 부분을 식별 및 삭제함




