EU AI 법은 인류를 멸종으로부터 구하기에 충분하지 않습니다.
AI 규제는 국가와 지역이 인공 지능의 지정 학적 지배를 위해 경쟁함에 따라 전 세계적으로 유행에서 벗어나고 있습니다. EU도 예외는 아닙니다. 산업의 압력에 따라 유럽위원회는 일시 정지 AI ACT 이행을 고려하고 있으며, 운동가들은 앞으로 출판 될 것으로 예상되는 새로운 실무 규범으로 일반 목적 AI (GPAI) 조항의 희석을 두려워합니다.
UC Berkeley의 컴퓨터 과학 교수 인 Russell은 1 년 동안 강렬한 로비를 한 후 1 년간의 강렬한 로비를 마친 후 EU가 업계의 최종 푸시에서 ‘압력을 저항’하도록 촉구하는 마지막 도랑 오픈 서한에 합류했습니다.
Russell은 Euractiv에“(업계에) 문서가 말하는 것은 중요하지 않습니다. 회사는 전혀 규제를 원하지 않기를 원합니다.
러셀과 동료 서명자에게 – 노벨상 수상자 인 Geoffrey Hinton과 Daron Acemoglu를 포함하여 – 그것은 재난을위한 레시피입니다. 그들은 의무적 인 제 3 자 감사를 코드로 구워 지도록 요구하고 있으며, 회사는 Chatgpt와 같은 GPAI가 수표없이 안전하다고 주장 할 수 없도록합니다.
그러나 러셀에 따르면 AI 법은 가장 강력한 형태의 AI 행위는 미래의 위험으로부터 보호하기에는 너무 관대하다. “시스템이 엄청나게 위험하더라도 … 시장에 접근 할 수 없다는 규칙에는 아무것도 없다”고 경고했다.
“우리의 문명과 행성을 통제 할 수있는 시스템이 있으면 최대 전세계 수익의 1 자리 비율을 최대한 계산하는 것은 말도 안됩니다.”
소멸
러셀의 견해는 논란의 여지가 있습니다.
AI의 주요 교과서의 저자는 이제이 기술이 실존 적 위협을 제기한다고 믿는 개척자 그룹에 속합니다. 다른 사람들은이“AI Doomerism”을 투기 공상 과학 소설로 기각합니다.
“나는 그것이 기괴하다고 생각한다. 언론은이 (실존 AI) 위험을 프린지로 계속 특성화하고있다. 그러나 Yann Lecun을 제외하고 세계의 상위 5 개 CEO 또는 상위 5 명의 AI 연구원을 보면 모든 사람은 다음과 같이 말한다.
Ursula von der Leyen 유럽위원회 회장조차도 2023 년 연설에서 AI “멸종 위험”을 인용했다. 5 월, 그녀는 AI가 내년 초에 “인간의 추론에 접근”할 수 있다고 경고했다.
그러나 러셀은 이러한 위험을 해결하기 위해 의미있는 조치를 취하지 않았다고 러셀은 말했다. 그는 실제 규제가 “체르노빌 크기의 재난”에 대한 반응으로 만 올 것이라고 우려한다.
그는 실제 규제는 원자력 발전소에 필요한 것과 유사한 안전 증거를 포함하지만 안전 임계 값이 높다고 주장했다.
러셀은“그러나 당신은 수학적 보증에 가까운 것을 얻지 못할 것”이라고 말했다. “회사는 시스템이 어떻게 작동하는지 가장 희미한 생각을하지 않았습니다.”
현재로서는 그가 기대할 수있는 것은 EU의 다가오는 실습 강령에서 필수 외부 테스트입니다.
“충분하지는 않지만 … 상당히 도움이 될 것”이라고 그는 덧붙였다.
(NL, DE)