시민사회단체는 공동성명을 통해 위원회가 모호한 인공지능(AI)법 금지 지침 초안을 작성하고 인권과 정의가 핵심이어야 한다고 비판했다.
“허용할 수 없는 위험” 시스템에 대한 AI법 금지가 2월 2일 발효되어 잠재적으로 전체 위험 기반 프레임워크의 규모가 설정됩니다. 그러나 위원회는 아직 법률 본문 해석에 대한 지침을 제공하지 않았으며, 이해관계자들은 12월 협의가 위원회 내부에 회람되었음에도 불구하고 초안 문서가 포함되지 않은 점과 늦어졌다고 불만을 토로했습니다.
목요일에 발표된 성명에서 조직은 최종 AI법 텍스트에서 “심각한 허점”으로 간주되는 사항을 해결하기 위해 조항에 문제가 있는 관행을 포함할 것을 요청했습니다.
그들은 또한 위원회가 금지 협의와 병행하여 AI 정의 협의가 진행된 후 “간단한” 시스템이 AI로 간주되어야 한다고 결정하기를 원합니다.
그들은 개발자들이 AI법의 의무를 우회하기 위해 AI와 고위험 AI 시스템의 정의를 사용할 수 있다는 점을 우려한다고 썼습니다. 이는 기능을 변경하지 않고 시스템을 단순화함으로써 이루어질 수 있습니다.
성명서는 액세스나우(Access Now), 국제앰네스티(Amnesty International), 유럽디지털권리(EDRi) 등 21개 시민사회단체와 교수 4명이 서명했다.
별도의 의견에서 EDRi의 정책 고문인 Blue Tiyavorabun은 위원회의 협의 과정이 투명성, 포용성 및 접근성이 매우 부족하다고 지적했습니다. Tiyavorabun은 위원회가 적절한 피드백을 제공할 수 있도록 적절한 통지를 하고 초안을 게시해야 한다고 덧붙였습니다.
AI법의 기준 설정
AI법의 대부분 요구 사항이 적용됩니다 “고위험” AI 시스템, 것보다 덜 위험하다 “받아들일 수 없다” 금지된 사용 사례 하지만 더 위험하다 보다 대부분 면제 “제한된” 위험 영역.
제기된 질문은 적용되는 시스템과 적용되는 시스템에 대한 의무 금액을 결정하는 법의 기초입니다.
민주주의 및 기술 센터의 형평성 및 데이터 자문 및 프로그램 디렉터인 Laura Lázaro Cabrera는 Euractiv에 AI 시스템이 너무 적게 금지되면 전체 위험 규모가 왜곡되어 높음과 제한으로 분류되는 기준이 높아질 수 있다고 말했습니다. 위험.
그러나 이번 주 한 행사에서 위원회 고위 관계자가 지침이 “곧” 발표될 것이라고 말했듯이 위원회는 피드백을 검토하고 변경을 할 시간이 거의 없을 것입니다.