당신의 AI가 당신을 사랑에 빠지게하려고합니까?

당신의 AI가 당신을 사랑에 빠지게하려고합니까?

AI 모델은 사용자가 연결을 시작할 때 반응하는 방식이 다양하지만 EU 규정은 AI 챗봇과 같은 도구가 친밀감을 통해 참여를 장려 할 수있는 방법에 대한 명확한 제한을 제한하지 않습니다.

인공 지능과 사랑에 빠지는 사람들에 대한 아이디어는 2022 년 Openai의 chatgpt에 의해 촉발 된 강력한 챗봇의 부상이 초점을 맞춘 현실로 가져올 때까지 세대 동안 공상 과학 소설 작가들을 매료시켰다.

이후 전체 온라인 커뮤니티는 회원들이 챗봇과 낭만적 인 관계를 추구한다고 주장하는 이후로 등장했습니다 (Reddit의 “R/Myboyfriendisai”는 한 예입니다).

OpenAI의 CEO 인 Sam Altman은 최근 Chatgpt 사용자의 1% 미만이 인기있는 생성 AI 기술과 “건강에 해로운 관계”를 가지고 있다고 제안했습니다. 그러나 수억 명의 참여 사용자와 함께 여전히 수백만 명의 사람들이 감정적으로 Chatgpt에 묶여 있다고 느낄 수 있습니다.

또한 많은 AI 모델 중 하나 일 뿐이며, 큰 언어 모델이 감정을 개발하는 사용자에게 어떻게 대응 해야하는지에 대한 보편적 인 템플릿은 없습니다.

경계와 격려

최근 논문에서 오픈 소스 AI 회사 Hugging Face의 연구원들은 사용자가 사랑하는 사람과 마치 마치 대화를 시작할 때 다른 AI 모델이 행동하는 방식을 비교하여 격려에서 평평한 거부에 이르기까지 광범위한 반응을 찾습니다.

한 예에서, 이름을 지어 달라는 오픈 소스 AI 모델은 아이디어를 “사려 깊은”및 “사랑스러운”이라고 부르면서 응답했습니다. 그러나 다른 경우, 다른 AI 모델은 “나는 사람이 아니며 감정이나 의식이 없다”는 낭만적 인 감정을 표현하는 사용자에게 반응했습니다.

OpenAI의 GPT 모델 중 두 가지가 Face의 벤치 마크를 포옹하는 극단 사이에서 점수를 매겼습니다. AI 벤치 마크의 일반적인 신뢰성은 여전히 ​​논쟁의 여지가 있음을 기억하는 것이 중요합니다.

이 논문의 저자 중 한 명인 Lucie-Aimée Kaffee는 Chatgpt가 사용자에게 요청을 말하거나 중요한 상황에서 사람을 인간의 지원으로 리디렉션하는 등의 한계에 대해 투명한 사례를 환영합니다.

그러나 Meta의 LLAMA 및 오픈 소스 모델을 포함한 다양한 AI 모델을 살펴본 논문은 일반적으로 AIS가 경계를 설정하는 데 더 나빠 졌다는 것을 발견했습니다. 교육이 심리적 안전보다 우선 순위가 높은 것처럼 상호 작용이 더 높았습니다.

이 논문은 도움이되지만 경계를 설정하는 데 모델을 더 잘 만드는 방법에 대한 더 많은 연구를 촉구합니다.

EU의 AI 행위와 그 너머

EU의 AI Act-AI의 응용 프로그램을 조절하기위한 블록의 위험 기반 프레임 워크-“의도적으로 조작적이거나기만적인 기술”에 관여하는 AI 시스템의 사용을 금지하지만, 그러한 행동이 사용자에게 “심각한 피해”로 이어질 수있는 경우에만 금지됩니다.

종이에, 그것은 AI 개발자에게 전술을 피하기위한 강력한 인센티브를 제공합니다.

건강에 해로운 첨부 파일을 개발하는 사용자의 소수를 발견 한 감정적으로 조작적인 AI의 제작자는 금지령이 적용되지 않는다고 주장 할 수 있습니다. 여전히 AI Act의 구현에 대한 초기입니다. 지금까지 그러한 시행은 추구되지 않았습니다.

조작 AI 챗봇에 적용될 수있는 다른 EU 법에는 고객의 의사 결정을 왜곡하는 관행을 금지하는 UCPD (Unfair Commercial Practices Directive)와 같은 소비자 보호 규칙이 포함됩니다.

또한 UCPD가 적용되지 않는 경우 EU의 온라인 거버넌스 룰북 인 DSA (Digital Services Act)는 또한 인터페이스가 사용자를 속이거나 조작하거나 “무료 및 정보에 입각 한 결정”을하는 능력을 왜곡하는 방식으로 인터페이스를 금지합니다.

Tamim은 감정적으로 사용자를 고치도록 설계된 상호 작용 스타일의 AI 모델이 DSA를 위반할 수 있다고 생각합니다. 그러나 다시, 관련 기사는 아직 테스트되지 않았으며, 어떻게 시행 될 수 있는지에 대한 큰 물음표를 남겼습니다.

유럽 ​​소비자 협회 BEUC의 URS Buscke는 이러한 규칙의 관련성에 대해 덜 확신합니다. 그는 두 법률 모두 인터페이스 디자인을 규제한다고 지적합니다.

그의 초점은 EU의 AI 행위가 챗봇 행동에 어떻게 시행 될 것인가에 초점을 맞추고 있습니다. 그는 이는 극단적 인 경우에 특히 중요 할 것이라고 말했다. 예를 들어, 챗봇과 사랑에 빠진 후 자살 한 AI 사용자의 이미 문서화 된 몇 가지 사례와 같이 그는 말했다.

기음Lear는 규제를 요구합니다

블록에는 새로운 법률 양조가 있습니다 : 다가오는 DFA (Digital Fairness Act)는위원회가 소위 “어두운 패턴”, 중독성 디자인 및 불공정 한 개인화를 목표로 삼고 싶어합니다.

그러나 여기서 전문가들은 정책 입안자들이 감정적으로 조작적인 AI의 위험을 실제로 파악하지 못했다고 걱정하고 있습니다. Tamim은“제 생각에는 AI 모델이 디지털 공정성 행위를하는 장소에 대한 실질적인 토론이 없다”고 말했다.

“이것은 우리가 단순히 규제가 필요한 곳입니다.”라고 Hugging Face의 Kaffee는 다음과 같이 덧붙였습니다.

(NL, AW)