본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

해외단신

EU의 강경한 AI법이 연구자와 ChatGPT에 갖는 의미 원문보기 1

  • 국가 미국
  • 생성기관 네이처(Nature)
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-02-16
  • 등록일 2024-02-21
  • 권호 258
○ EU의 AI법은 가장 위험한 AI모델에 가장 엄격한 규정을 적용하며, AI시스템이 안전하고 기본권과 EU 가치를 보장하도록 설계되어 있음
- EU 국가들은 2월 2일에 법안을 승인했고 이제 동 법은 유럽의회의 최종 서명이 필요한 상황으로 이는 4월에 이루어질 것으로 전망됨
- 일부 연구자는이 법이 잠재적으로 오픈 사이언스를 장려할 것이라고 환영하는 반면, 다른 연구자들은 혁신을 저해할 수 있다고 우려함
○ EU의 접근법은 무엇인가?
- EU는 더 위험한 어플리케이션에 더 엄격한 규칙을 적용하는 방식으로 AI의 잠재적 위험에 기반에 AI모델을 규제하기로 결정함
- 법은 생체 데이터를 사용해 성적지향과 같은 민감한 정보를 추론하는 것과 같은 '수용할 수 없는 위험'을 수반하는 AI 시스템을 금지하며, 채용이나 법 집행에서 AI를 사용하는 것과 같이 고위험 애플리케이션은 특정한 의무를 이행해야 함
- 동 법은 EU에서 운영하는 모든 모델에 적용되고 이 규칙을 위반하는 어떤 회사라도 연간 전세계 수익의 7%를 벌금으로 낼 수도 있음
○ 연구자들에게는 얼마나 영향을 미칠까?
- 이론적으로는 영향이 거의 없으며, 작년 유럽의회는 순수하게 연구개발, 혹은 프로토타이핑을 위해 개발되는 AI모델은 제외한다는 조항을 법안 초안에 추가했음
- 그러나 실질적으로는 연구자들이 투명성에 대해 생각하고 그들이 모델에 대한 보고 방식, 잠재적 편견 등에 대해 생각하게 함으로써 영향을 미칠 수 있음
○ GPT와 같은 강력한 모델에는 어떤 의미가 있을까?
- 정책입안자들은 논쟁 끝에 이미지나 코드, 비디오를 생성하는 생성형 모델과 같은 강력한 범용모델을 2단계로 분류하여 규제하기로 결정함
- 일부 과학자들은 AI 모델이 어떻게 사용되는지에 초점을 둘 것을 선호하며, AI모델을 규제하는 것에 반대함
○ 법은 오픈소스 AI를 강화할 것인가?
- EU 정책입안가들과 오픈소스 옹호자들은 그렇게 되기를 희망하는데, 법은 AI 정보를 이용가능하고 복제 가능하며 투명하게 만드는 것을 장려하고 있음

배너존

  • 케이투베이스
  • ITFIND
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원