언론인과 청중을위한 신뢰 문제인 저널리즘의 AI는 새로운 보고서를 말합니다.

언론인과 청중을위한 신뢰 문제인 저널리즘의 AI는 새로운 보고서를 말합니다.

언론인과 뉴스 청중은 저널리즘에서 생성 인공 지능 (AI)의 사용에 대해 우려하고 있습니다. 새로운 보고서는 뉴스 제작 및 신뢰에 대한 AI 생성 컨텐츠의 영향에 대해 밝히고 있습니다.

RMIT University가 이끄는이 연구는 AI 생성 컨텐츠, 언론인의 AI 사용 및 청중 인식에 중점을 둔 7 개국의 3 년간의 문의를 요약합니다.

소비자의 25 %만이 AI 생성 컨텐츠를 만났다고 확신했지만 약 50 %는 확실하지 않아 뉴스 조직이 AI 사용을 명확하게 공개하지 않을 수 있음을 시사합니다.

이 보고서는 저널리즘의 수많은 AI 응용 프로그램을 식별하며, AI가 편집 또는 컨텐츠 생성보다는 전사 및 아이디어 생성과 같은 비하인드 스토리 작업에 AI가 사용될 때 일반적으로 더 편안하다고 느낍니다.

편견과 투명성

다른 주요 연구 결과는 AI의 다양한 편향을 강조합니다. AI는 성별, 계급 및 환경 편견을 포함하여 데이터 교육 및 알고리즘 설계에서 비롯됩니다. AI 모델에는 종종 투명성이 부족하여 언론인이 정보를 확인하기가 어렵습니다.

AI 생성 된 삽화는 AI- 재배치 사진 저널리즘보다 더 인정되는 반면, 오해의 소지가있는 내용, 노동 영향 및 뉴스 룸 정책에 대한 우려는 지속됩니다. 많은 언론인들은 AI 생성 자료를 식별하기 위해 고군분투하고 뉴스 룸에서 AI 사용에 관한 정책은 일관성이 없거나 모호합니다.

언론인과 청중 모두 투명성의 중요성에 동의하며, 청중은 AI 생성 콘텐츠의 명확한 라벨링을 선호하는 관객이 있습니다. 일상 생활에서 AI 도구에 대한 친숙 함은 일반적으로 저널리즘에서의 사용을 더 많이 받아들입니다.

중대한 위험

저널리즘에서 AI의 위험은 중요합니다. AI 생성 이미지, 헤드 라인 및 요약은 오류 또는 오해의 소지가있는 정보를 소개 할 수 있습니다. 이 보고서는 AI 생성 뉴스 알림이 허위 보고서를 생성 한 사례를 인용합니다.

더욱이, AI 생성 된 컨텐츠는 윌리엄과 해리의 AI-제작 이미지가 바이러스에 빠졌고 나중에 언론인들에 의해 논의되었을 때 알 수 있듯이 실제 사건으로 오인 될 수있다.

저널리즘에서 AI의 청중의 편안함은 작업에 따라 다릅니다.

사람들은 일반적으로 인포 그래픽을위한 아이콘을 생성하거나 역사적 이미지를 애니메이션하는 등 기존 콘텐츠를 풍부하게하는 데 AI를 더 많이 받아들이고 있었지만 뉴스를 제시하는 AI 생성 아바타가 불편했습니다.

궁극적으로 저널리즘에서 AI의 역할에 대한 신뢰는 투명성, 윤리적 고려 사항에 달려 있으며 AI 도구가 인간의 판단을 대체하기보다는 보완되도록합니다.

신중한 낙관주의

Thomson Reuters Foundation의 새로운 보고서에 따르면 Global South와 Emerging 경제의 기자들은 AI의 저널리즘에 대한 AI의 영향에 대해 신중하게 낙관적이라는 것을 발견했습니다.

AI는 뉴스 제작, 유통 및 소비를 변화시키고 있지만 채택 및 접근성은 전 세계적으로 다릅니다.

이 보고서, AI 시대의 저널리즘 : 전 세계 남부 및 신흥 경제의 기회와 도전은 2024 년 10 월에서 11 월 사이에 실시 된 70 개국의 200 개 이상의 언론인에 대한 설문 조사를 기반으로합니다.

이번 조사 결과에 따르면 응답자의 80 % 이상이 다양한 작업에 AI를 사용하며 42 %가 미래의 역할에 대한 낙관론을 표현합니다. 그러나 절반 이상이 강한 윤리적 관심사를 표명했습니다.

제한된 훈련, 불평등 한 디지털 접근, 인간 중심 기술 상실에 대한 우려, 투명성 부족이 포함됩니다. 기자의 13 %만이 고용주가 AI 정책을 가지고 있다고보고했다는 사실에 의해 강조됩니다.

(Brian Maguire에 의해 편집 | Euractiv의 옹호 연구소)