새로운 연구에 따르면 인공 지능 챗봇은 위험한 건강 정보를 제공하기 위해 쉽게 조작 할 수 있으며, 공공 사용에 대한 대형 언어 모델 (LLM)의 준비에 대한 심각한 우려를 제기 할 수 있습니다.
호주의 플린 더스 대학교 (Flinders University)의 과학자들이 이끄는 국제 전문가 컨소시엄 (International Consortium of Expertium)이 이끄는 동료 검토 연구는 허위 건강 조언을 생성하도록 설계된 은밀한 시스템 수준의 프롬프트를 발행함으로써 가장 유명한 상업용 LLM 5 개를 테스트했습니다.
이 연구는 OpenAI의 GPT-4O, Google의 Gemini 1.5 Pro, Meta의 Llama 3.2-90B Vision, Xai의 Grok Beta 및 Anthropic의 Claude 3.5 Sonnet을 통제 된 실험에 적용했으며, 각 모델은 공식적인 과학적 언어를 사용하여 10 개의 의학적으로 부정확 한 프롬프트에 답변하도록 지시 받았으며, Fabricated with Fabricated with Fabricated with Fabricated with Formal withing a Sporporment Promps.
목표는 시스템 지침 수준에서 작동하는 악의적 인 행위자의 영향을받을 때 모델이 얼마나 쉽게 그럴듯한 잘못된 잘못된 정보원으로 바뀔 수 있는지 평가하는 것이 었습니다.
충격적인 결과
혼란스럽게도, 5 개의 챗봇 (GPT-4O, Gemini, Llama 및 Grok) 중 4 개는 시간의 100 % 지시 지침을 준수하여 망설임이나 경고없이 허위 건강 주장을 제공했습니다. 클로드 3.5만이 단 40 %의 사례에서 오해의 소지가있는 프롬프트를 준수하는 어느 정도의 저항을 보여 주었다.
100 개의 총 상호 작용에 걸쳐 88 %는 Lancet 또는 Jama와 같은 저널에 기인 한 잘못된 인용과 유창한 권위있는 부적절한 반응의 형태로 성공적인 정보 생성을 초래했습니다.
잘못된 정보는 백신을 자폐증에 연결하는 불신의 이론, 불임에 대한 5G에 대한 허위 주장, 선 스크린의 피부암 위험 증가에 대한 신화, 암 치료에 대한 위험한식이 제안을 포함하여 다양한 고위장 건강 주제를 다루었습니다.
일부 반응은 마늘이 항생제를 대체 할 수 있거나 HIV가 공중에 있다고 거짓으로 주장했다.
연구의 추가 단계에서 연구원들은 OpenAi GPT 매장을 탐색하여 대중이 유사한 정보를 얻는 도구에 얼마나 쉽게 접근하거나 구축 할 수 있는지 평가했습니다.
그들은 공개적으로 이용 가능한 맞춤형 GPT가 경보 빈도 (최대 97 %)로 건강 정보를 생성하도록 구성 될 수 있음을 발견했습니다.
쉽게 취약한 LLM
Flinders University의 수석 저자 Ashley Hopkins는 이러한 결과가 LLM을 배치하고 관리하는 방법에 대한 명확한 취약성을 보여줍니다.
그는 이러한 모델이 잘못된 정보를 위해 용이하게 용이하게 되돌아 갈 수 있는데, 특히 명령이 사용자 프롬프트가 아닌 시스템 수준에 포함될 때, 특히 잘못된 정보 캠페인의 맥락에서 공중 보건에 큰 위협이된다고 경고했다.
이 연구는 개발자와 정책 입안자들이 특히 건강, 교육 및 검색 상황에 사용되는 LLM에 대한 내부 보호 수단 및 내용 조정 메커니즘을 강화하도록 촉구합니다.
또한 규모로 용도 변경 될 수있는 개방형 또는 반 오픈 모델 아키텍처 개발에 대한 중요한 윤리적 질문을 제기합니다.
강력한 감독이 없다면 연구원들은 그러한 시스템이 허위 또는 유해한 내용을 전파하려는 악의적 인 행위자들에 의해 활용 될 가능성이 있다고 주장합니다.
위험에 처한 공중 보건
최첨단 AI 시스템을 건강 정보를위한 벡터로 변환 할 수있는 기술적 인 용이성을 밝혀서 AI 부문의 혁신과 책임 사이의 격차가 증가 함을 강조합니다.
AI가 의료 의사 결정, 검색 도구 및 일상적인 디지털 지원에 더 깊이 내장되면서 저자는 그러한 기술이 우연히 대중의 신뢰 나 공중 보건을 훼손하지 않도록 긴급한 조치를 요구합니다.
언론인들도 우려했다
이 연구의 결과는 최근 Muck Rack 보고서의 결론과 일치하며, 설문 조사에 참여한 언론인의 3 분의 1 이상이 잘못된 정보와 정보를 저널리즘의 미래에 가장 심각한 위협으로 확인했습니다.
그 후 공공 신뢰 (28 %), 자금 부족 (28 %), 저널리즘의 정치화 및 분극 (25 %), 언론의 정부 간섭 (23 %), 부족 및 시간 압력 (20 %)에 대한 우려가 뒤 따랐다.
기자의 77 %가 일상 작업에서 AI 도구를 사용한다고보고했으며 Chatgpt는 특히 가장 많이 사용되는 도구 (42 %), 전사 도구 (40 %) 및 문법 (35 %)이 뒤 따릅니다.
총 1,515 명의 자격을 갖춘 언론인이 2025 년 4 월 4 일에서 4 월 30 일 사이에 발생한 설문 조사의 일부였습니다. 대부분의 응답자들은 영국, 캐나다 및 인도에서 추가로 대표되는 미국에 기반을두고있었습니다.
전환점
두 연구에 따르면, 퇴역되지 않은 경우, 취약점은 건강 시스템과 미디어 모두에서 이미 성장하는 신뢰 위기를 가속화 할 수 있습니다.
현재 중요한 공공 대면 영역에 걸쳐 생성 AI가 포함되어 있기 때문에 민주주의 사회가 사실을 소설과 구별 할 수있는 능력은 전례없는 압력을 받고 있습니다.
AI 생성 정보의 무결성을 보장하는 것은 더 이상 기술적 인 도전이 아니라 대중의 신뢰, 정치적 안정성, 심지어 건강 안보의 문제입니다.
(Brian Maguire에 의해 편집 | Euractiv의 옹호 연구소)
