저널리즘에서 인공 지능(AI) 사용에 대한 명확한 정책과 지침을 개발하는 것은 미디어 조직이 윤리적이고 투명한 관행을 계속 유지하도록 보장하는 데 필수적입니다.
최근 AI의 발전과 통합 확대로 인해 글로벌 산업이 변화하고 있으며 저널리즘도 예외는 아닙니다. AI 도구는 속도, 콘텐츠 다양성, 효율성이 핵심인 저널리즘의 새로운 시대를 열고 있습니다.
뉴스 제작 자동화부터 구조화된 데이터를 기반으로 한 뉴스 기사 생성에 이르기까지 AI는 언론인의 시간과 리소스를 절약하는 데 도움이 되었습니다. 또한 제한된 자원으로 더 많은 콘텐츠를 생산하는 것도 가능해졌습니다.
그러나 로이터 저널리즘 연구 연구소 보고서에 따르면 미디어에 대한 사회의 신뢰도가 약 40%에 달하는 상황에서 이는 윤리적, 편집적 우려를 불러일으키기도 했습니다.
AI가 미래에 미칠 영향은 불확실하지만, 저널리즘이 만들어지고 소비되는 방식에 지대한 영향을 미칠 가능성이 있습니다. 연구에 따르면 이는 이미 저널리즘의 중요한 부분임에도 불구하고 고르지 않게 분포되어 있습니다.
연구를 주도한 Charlie Beckett은 “AI, 기계 학습, 데이터 처리의 현실과 잠재력은 언론인에게 새로운 발견, 창조 및 연결의 힘을 제공하는 것입니다.”라고 말합니다.
“알고리즘이 시스템을 강화할 것입니다. 그러나 언론인의 인간적 손길, 통찰력, 판단력은 매우 중요할 것입니다. 뉴스 산업이 이 기회를 잡을 수 있을까요? AI 기술이 가져오는 경제적, 윤리적, 편집적 위협은 무엇입니까?” Beckett은 연구 서문에서 이렇게 묻습니다.
규제 시도
2023년 11월 10일, 국경 없는 기자회(RSF)와 16개 파트너 조직은 파리 평화 포럼의 맥락에서 AI와 저널리즘에 관한 파리 헌장을 발표했습니다. 헌장 작업은 2023년 7월에 시작되었습니다.
헌장은 뉴스와 정보 분야에서 AI가 만들어낸 “소란”에 대한 대응으로 정보의 무결성을 보호하고 저널리즘의 사회적 역할을 보존하기 위한 10가지 핵심 원칙을 정의합니다.
핵심 원칙은 윤리가 미디어 내 기술적 선택을 지배해야 한다는 것입니다. 인간의 주체는 편집 결정의 중심에 남아 있어야 합니다. 미디어는 사회가 진짜 콘텐츠와 합성 콘텐츠를 자신있게 구별할 수 있도록 도와야 합니다. 미디어는 글로벌 AI 거버넌스에 참여하고 기술 기업과 협상할 때 저널리즘의 생존 가능성을 방어해야 합니다.
이 문제에 관해 RSF가 시작한 위원회의 의장이자 노벨 평화상 수상자 마리아 레사(Maria Ressa)는 “기술 혁신이 본질적으로 진보로 이어지지는 않습니다. 그러므로 인류에게 진정으로 이익이 되려면 윤리에 따라 운영되어야 합니다.”
전문언론인협회(SPJ) 공식 윤리 강령에는 네 가지 규칙이 있습니다. 진실을 추구하고 이를 보도하십시오. 피해를 최소화합니다. 독립적으로 행동하다; 책임감 있고 투명해야 합니다. 이 모든 것은 저널리즘에서의 AI 사용에도 적용 가능합니다.
AI가 적당히 적용되고 인간의 사실 확인을 거치는 한 저널리즘에 AI를 사용할 수 있다는 것이 전반적인 합의입니다. 또한 AI를 사용하는 언론인은 업무에서 AI의 역할을 투명하게 공개하도록 권장됩니다.
더 많은 연구가 필요함
뉴스, 기술 및 혁신 센터(CNTI)의 기사에서는 AI가 저널리즘에 제기하는 과제를 해결하기 위해 법안이 AI 범주에 대한 명확한 정의와 각 범주에 대한 구체적인 공개를 제공해야 한다고 주장합니다.
ChatGPT 및 DALL-E와 같은 최신 생성 AI(GAI) 도구는 뉴스 제작을 간소화하는 새로운 방법을 제공하는 동시에 뉴스 사이트에 대한 검색 트래픽을 줄이고 저작권 침해 문제를 제기할 위험이 있습니다.
비평가들은 콘텐츠 제작에서 GAI의 역할이 투명성이 부족한 경우가 많다고 주장하며, 일부 출판사는 AI 교육을 위해 콘텐츠를 무단으로 사용하는 것에 대해 법적 보호를 모색해 왔습니다.
이 기사는 또한 저널리즘에서 AI의 역할과 청중이 AI 생성 콘텐츠를 인식하는 방식에 대한 연구 격차를 언급하며 종종 덜 편향된 것으로 간주합니다. 현재 연구의 대부분은 이론적이며, 특히 비서구적 맥락에서 데이터 중심 연구의 필요성을 지적합니다.
CNTI 기사는 AI 개발에 뒤처지는 법안과 함께 국가의 다양한 접근 방식을 강조합니다. EU와 같은 일부 국가에서는 데이터 개인정보 보호를 우선시하는 반면, 중국과 같은 국가에서는 국가 통제에 중점을 둡니다.
AI 규제에 대한 합의가 부족하면 글로벌 합의가 복잡해집니다. 효과적인 정책은 AI 자체의 복잡성을 설명하고 모호한 정의를 피하며 다양한 이해관계자, 특히 AI의 영향을 가장 많이 받는 이해관계자를 참여시켜야 한다고 CNTI는 결론지었습니다.
(편집자: Brian Maguire | Euractiv의 옹호 연구소)