개인 정보 보호 그룹 Noyb는 오늘 OpenAI에 대한 불만을 제기했습니다. 모델이 노르웨이 사용자에 대한 “명예 훼손”아동 살인 사건을 발명 할 수 있도록 모델을 “허용”했습니다.
NOYB는 Norwegian Data Protection Authority에 불만을 제기하여 OpenAI가 EU의 일반 데이터 보호 규정 (GDPR)을 존중하지 않았다고 비난하면서 사용자가 Chatgpt의 대형 언어 모델에서 이들에 대한 잘못된 개인 정보를 수정하지 못하게함으로써 불만을 제기했습니다.
이것은 Noyb의 두 번째 불만입니다. 첫 번째 경우, 개인 정보 보호 그룹은 OpenAi가 공개 수치에 대한 잘못된 개인 데이터를 수정하거나 지우도록 요청했습니다. 이 회사는 그렇게 할 수 없다고 주장하고 대신 특정 프롬프트의 데이터를 차단하라고 제안했다. Chatgpt는 또한 사용자에게 면책 조항을 표시하여 일부 답변이 잘못 될 수 있음을 지정합니다.
이번에는 노르웨이 사용자 인 Arve Hjalmar Holmen은 Chatgpt가 자신의 자녀를 살해하고 몇 년 동안 징역형을 선고받는 것에 대한 이야기를 만들었다 고 불평했다. 그러나 노르웨이 사용자의 이야기의 일부는 자녀의 수와 성별, 고향의 이름을 포함한 실제 개인 데이터를 기반으로했습니다.
생성 AI 챗봇은 프롬프트에 대한 답장에서 가장 큰 다음 단어를 계산하여 허위 정보를 공유하거나 가짜 이야기를 만들 위험에 처해 응답을 제공합니다. 이것을 ‘환각’이라고합니다.
참된 정보와 거짓 정보의 혼합은 이야기를 특히 믿을 수있게 할 수 있습니다. 환각은 할 수있다 “Noyb의 보도 자료는 사람들의 삶에 치명적인 결과를 초래합니다.
Chatgpt의 답변은 개인 데이터를 수반한다는 점을 고려할 때 사용자는 정보를 수정하도록 요청할 수 있다고 Noyb는 주장합니다. Noyb Joakim Söderberg의 데이터 보호 변호사는“GDPR은 분명합니다. 개인 데이터는 정확해야합니다. 그렇지 않은 경우 사용자는 진실을 반영하도록 변경할 권리가 있습니다.
Chatgpt는 사건 이후 업데이트되었으며 이제 인터넷을 검색 할 수있는 기능이있어 사실을 발명 할 가능성이 제한됩니다. 그러나 Noyb에 따르면 허위 정보는 여전히 AI 시스템에 존재하며, 사용자 데이터는 시스템으로 돌려서 스스로 훈련을 제공합니다.
“누군가 가이 출력을 읽고 그것이 사실이라고 믿을 수 있다는 사실은 나를 가장 두려워하는 것입니다.Hjalmar Holmen이 말했다.
