위원회는 월요일(9월 30일) 범용 인공 지능(GPAI)에 대한 첫 번째 실천 강령 총회에서 범용 모델 제공자와 기타 이해관계자 간의 의견 차이를 공개했습니다.
ChatGPT와 같은 GPAI 시스템 제공업체의 경우 EU AI 법은 실천 강령에 크게 의존합니다. 이 강령은 2026년 표준이 확정될 때까지 법의 위험 관리 및 투명성 요구 사항이 실제로 수반되는 내용을 자세히 설명합니다.
월요일에는 위원회는 강령 초안을 작성할 실무 그룹의 의장 및 부의장 목록을 국제적이고 학문적으로 편향된 목록으로 공유했습니다. “위원회 대변인이 보낸 이메일에 따르면 초안 작성 과정의 첫 번째 가상 총회에 거의 1,000명의 참가자가 모였습니다.
실무 그룹은 다중 이해관계자 협의, GPAI 모델 제공자와 의장 및 부의장과의 워크숍, 실천 강령 총회 등 세 가지 소스로부터 의견을 받습니다.
두 소식통에 따르면 첫 번째 GPAI 제공업체 워크숍은 10월 중순으로 예정되어 있으며 코드의 첫 번째 초안은 11월 3일쯤 준비될 예정입니다.
“(이해관계자 협의에 관한) 종합 보고서는 가을에 발표될 것입니다.” 실천 강령의 최종 버전은 “2025년 4월에 열릴 것으로 예상되는 폐막 총회에서 발표 및 발표될 것입니다.” 대변인이 말했다.
위원회에 따르면 위원회는 9월 18일에 끝난 전체회의에서 이해관계자 협의의 예비 결과가 포함된 슬라이드를 발표했으며 업계, 시민사회, 학계로부터 “거의 430개”의 제출물을 받았습니다.
제공자 및 비제공자 입력
Euractiv가 본 슬라이드는 통계를 보여주고 많은 이해관계자들이 강령에 포함시키고 싶어하는 조치를 제시했습니다.
GPAI 제공업체는 입력의 5%만 제공했지만 지원하는 측정값은 별표로 강조 표시되었습니다.
AI법은 제공업체가 GPAI 시스템을 교육하는 데 사용하는 데이터를 요약하고 위원회의 AI 사무국에서 설계한 템플릿에 따라 보고하도록 요구합니다.
비공급자 이해관계자의 약 70-80%는 라이선스 콘텐츠, 인터넷에서 스크랩한 데이터 및 공개 데이터 저장소를 이 템플릿에 포함하기를 원합니다.
한편, GPAI 제공업체는 교육에 사용되는 라이선스, 스크랩, 독점, 사용자 생성 및 합성 데이터 공개를 지원했지만, 사용하는 공개 데이터세트 공유는 덜 지원했습니다.
위험 평가 측면에서 GPAI 제공업체는 특정 위험 임계값과 관련된 제3자 감사 또는 안전 시연과 같은 엄격한 조치에 덜 열중했습니다.
대신 GPAI 제공업체를 포함한 대부분의 이해관계자는 문서에 라이선스, 모델이 포함될 수 있는 AI 시스템, 수행할 작업을 명시해야 한다는 데 동의합니다.
학계와 “개인 역량의 전문가”
본회의에 제시된 통계에 따르면 위원회는 업계 32%, 권리자 25%, 시민사회 16%, 학계 13% 등 다양한 그룹으로부터 서면 의견을 받았습니다.
이전에 시민사회단체는 빅테크가 이 과정에 너무 많은 영향력을 행사할 것이라고 우려했습니다.
한편, 1차 본회의에 참석한 ‘약 1000명’의 이해관계자 중 가장 큰 두 그룹은 ‘개인 역량 전문가'(34%)와 학계(30%)였다.
참가자가 너무 많아서 초안 작성에 참여한 한 사람은 Euractiv에 “위원회와 위원장은 초안 작성과 통합할 수 있는 의견을 면밀히 통제해야 할 것입니다. 그렇지 않으면 프로세스가 작동하지 않을 것입니다.”라고 말했습니다.