본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

인공지능 : 생성형 AI 훈련, 개발, 배치 고려 원문보기 1

  • 국가 미국
  • 생성기관 정부책임처(GAO)
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-10-22
  • 등록일 2024-11-08
  • 권호 275
○ 미국 정부책임처(GAO)는 생성형 인공지능(AI) 기술의 상업적 개발 과정에서 사용되는 관행과 한계를 분석한 보고서를 발표
- 동 보고서는 생성형 AI를 살펴본 두 번째 보고서이며, 향후 보고서에서 GAO는 생성형 AI 활용의 사회적/환경적 영향과 생성형 AI 기술에 대한 연방연구, 개발 및 수용에 대해서 평가할 것임
- 평가를 수행하기 위해, GAO는 문헌연구와 생성형 AI기술개발에 있어 주요기업의 대표자들을 인터뷰함
○ 상업용 개발자들은 생성형 AI기술의 책임있는 개발과 배치를 촉진하기 위해 여러 개의 일반적 관행을 활용함
- 예를 들어, 모델의 정확성을 평가하기 위해 벤치마크 테스트를 사용하고 배치 전에 모델을 평가하기 위해 다학제팀을 활용하며, 모델의 보안을 테스트하기 위해 레드팀을 활용했고 잠재적인 위험을 식별함
- 추가적으로, 상업용 개발자들은 생성형 AI 기술이 안전하고 진실하다는 것을 보장하기 위해 생성형 AI 기술을 개발하고 배치할 때 몇몇의 제한에 직면함
- 개발자들은 주로 그들의 모델이 완전히 신뢰할 수 없음을 인식하고 있으며, 다양한 백서와 문서에서 개발자들의 노력에도 불구하고 모델이 부정확한 결과를 생산하거나 편견을 나타내거나 공격에 취할 수 있음을 보고함
○ 생성형 AI는 일반적으로 훈련을 위해 대규모 데이터 셋을 필요로 하며, 훈련정보는 모델이 언어를 배우고 질문에 어떻게 대응해야하는지를 학습하는데 활용됨
- 데이터 양은 특정한 모델의 유형에 따라 다양하지만 훈련 데이터셋에 대한 구체적인 정보는 대중이 완전하게 사용할 수 없음
- 기반모델(Foundation models)은 훈련 데이터가 공공자료에서 스크랩될 때 공격을 받기 쉬움
- 상업용 개발자들은 다양한 훈련, 개발단계에서 개인정보 보호평가를 수행함으로써 민감정보를 보호하기 위한 조치를 취하고 있음

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원