인공 지능 (AI)이 사회를 재구성함에 따라, 도덕적 나침반, 편견 및 사회적 영향에 대해 윤리적 질문이 점점 높아지고 있습니다. AI 혁신은 단지 제품에 관한 것이 아니라 바로 그 개념이며 AI가 인권, 지속 가능성 및 민주적 원칙과 어떻게 일치하는지.
유럽 정책 연구 센터 (CEPS)의 글로벌 거버넌스, 규제, 혁신 및 디지털 경제 (GRID) 부서의 부교수 인 Paula Gürtler와의 대화에서 AI의 상속 된 편견, 시장 집중 및 윤리적 딜레마와의 대화에서 투명성, 책임 및 규제가 AI를 책임감있게 보장하기 위해 AI의 필요성을 강조합니다.
XZ : AI 시스템은 도덕적 나침반을 가지고 있어야하며, 그렇다면 누가 그들이 어떤 윤리적 틀을 따르는 지 누가 결정해야합니까?
PG : AI 시스템에서 도덕적 나침반의 문제는 까다로운 문제입니다. ‘도덕적 나침반’을들을 때, 나는 특정 규범과 도덕적 원칙에 따라 행동하는 대리인에 대해 생각합니다.
그러나 나는 또한이 에이전트가 특정 맥락에서 행동의 적절성에 대해 잘 고려 된 판단을 할 수 있다고 가정합니다. AI 시스템은 현재 그러한 복잡한 판단을 할 수 없습니다.
그러나 이것이 AI 시스템이 도덕적으로 불가지론이라는 것을 의미하지는 않습니다. 대신, 의사 결정에 대한 그들의“나침반”은 훈련 데이터 세트에 표시된 역사적 결정에서 비롯됩니다. 이 역사적 데이터는 과거의 특정 규범과 도덕적 태도를 반영하는 한 도덕적 나침반 역할을합니다.
물론,이 역사적 나침반은 몇 가지 문제를 일으킨다. 우선, 역사적 데이터가 오늘날 우리의 가치와 항상 일치하는 것은 아닙니다. 다행히도, 우리는 소수 민족 포함과 남녀 평등을 위해 상당한 진전을 이루었습니다.
예를 들어, AI 개발자는 종종 과거 편견을 수정하기 위해 다른 가드 레일과 프로토콜을 구현합니다. 이것이 설명 가능한 AI (XAI)의 분야의 초점입니다. 이상적으로, 그러한 가드 레일은 심의 과정을 통해 총체적으로 확립되어야한다.
도덕적 나침반이 분명히 부족한 또 다른 사례는 챗봇에서 사용자에게 정신 건강 조언을 제공하는 챗봇에서 볼 수 있습니다. 이 경우 개발자는 올바른 가드 레일을 구현하지 못했습니다. AI Act와 같은 규정은 피해를 방지하는 거버넌스 프레임 워크를 확립하는 데 도움이 될 수 있습니다.
XZ : AI가 사회적 불평등을 증폭시키는 동시에 혁신적이고 효과적인 상태를 유지하는 것을 방지 할 수 있습니까?
PG : AI는 편견과 시장 집중 및 공급망 불평등을 통한 적어도 두 가지 방식으로 사회적 불평등을 증폭시킵니다. 편견과 관련하여, 나는 이러한 우려를 해결하는 Xai와 Ai Fairness의 분야를 언급했습니다.
그러나 철학자 Shannon Vallor는 2024 년 책에서 지적합니다. AI 미러:“불공정 한 기계 학습 편견에 항상 제공되는 근본적으로 올바른 설명은 훈련 된 모델이 우리가 이미 가지고있는 불공정 한 편견을 반영한다는 것입니다.” 이것은 우리가 사회적 불평등을 다루지 않으면 AI가 항상 우리에게이를 반영 할 것임을 의미합니다. AI의 현재 지배적 관행은 이러한 불평등을 악화시킨다.
시장 집중 및 공급망 문제는 글로벌 불평등을 강조합니다. 우리는 AI가 구체화 된 신과 같은 힘이 아니라는 것을 기억해야합니다. 희토류, 마이크로 칩, 데이터 센터, 에너지, 물 소비 및 인간 노동의 물질적 현실이 있습니다. AI의 재료 인프라는 미국의 코발트 채굴과 가뭄에 대한 폭력적인 충돌로이를 막습니다.
전 세계적으로, 우리는 Kenya v. US Tech Giants의 클릭 작업자와 같은 AI 생산의 불평등을보고 있습니다. 대기업, 정부 및 군대에 의한 배치; 예를 들어, 국경에 대한 취약한 이민자, 중국과 러시아의 정치적 반체제, 우크라이나, 팔레스타인 인은 온라인 시민들에 대한 정복.
이러한 불평등은 XAI 또는 공정성 지표를 통해서만 해결할 수 없습니다. 대신, 우리는 언제 어디서 AI를 개발하고 배포하는 것이 적절한시기를 고의해야합니다.
제 생각에는 AI 또는 다른 부문의 혁신과 경쟁력은 인권과 지속 가능성의 한계 내에서 추구되어야합니다. AI가 불평등을 증폭시키지 않도록하려면 시스템을 생산하는 시스템을 면밀히 조사하고보다 지속 가능하고 정당하며 공평하게 만들어야합니다.
XZ : AI가 점점 더 인간의 삶에 영향을 미치는 결정을 내릴 때, 우리는 어떻게 권장 사항에서 투명성과 책임을 보장합니까?
PG : 투명성은 책임을 향한 필수 경로입니다. 그러나 투명성은 충분하지 않습니다. 예를 들어 OpenAi는 ChatGpt4.0의 기본 전체 코드를 제공 할 수 있지만 이해할 수는 없습니다.
이것이 AI 연구에서 설명 가능성과 해석 성이 강조되는 이유입니다. AI 시스템 기능에 대한 데이터를 제공하여 일반 사용자가 AI 모델이 수행하는 방식과 방식을 해석 할 수 있도록 특정 종류의 투명성이 필요합니다.
해석 가능하고 설명 가능한 투명성은 AI 시스템이 부정확하거나 차별적 인 결정을 내릴 때 평균 사용자가 인식 할 수 있기 때문에 책임에 중요합니다.
AI 책임에 대해 논의 할 때, 우리는 궁극적으로 AI 시스템 설계를 담당하는 사람과 그에 따른 피해를 담당하는 사람들과 인간과 기업의 책임을 맡기 위해 노력하고 있음을 기억해야합니다. 이는 결함이있는 제품에 대한 기존 책임 프레임 워크가 AI 연령에 맞게 조정되도록하는 것을 의미합니다.
XZ : AI 중심 자동화의 경제적 이점을 인간의 일자리와 생계를 보호하기위한 윤리적 책임과 어떻게 균형을 맞출 수 있습니까?
PG : 연구원들 중에는 자동화가 많은 두려움에 대한 고용에 근본적인 영향을 미칠지 여부에 대한 의심의 여지가 있습니다.
이와 관련하여주의 깊은 이야기는 1930 년에 ‘우리 손자를위한 경제 가능성’을 썼던 경제학자 존 엠 케인즈 (John M. Keynes)입니다. 그는 빠른 기술적 진보가 대량 실업으로 이어질 것이라고 깊이 우려했다.
거의 1 세기 후, 우리는 케인즈가 상상할 수 없었던 새로운 직업 프로필이 등장했기 때문에 더 많은 경제적 기회를 가지고있을 것입니다.
일부는 AI에서도 비슷한 현상이 발생할 수 있다고 주장합니다.
우리가 두려워하는 대량 직업 손실은 결코 실현되지 않을 수 있습니다. 그러나 대부분의 부문에서 효율성 이득이 예상되며 특정 작업은 자동화됩니다.
우리가 일자리를 보호 할 윤리적 책임이 있는지 여부는 흥미로운 질문입니다. 나는 사람들이 건강하고 성취 된 삶을 살 수 있도록 도덕적 의무가 있다고 주장하며, 이는 반드시 고용 보존과 동일하지는 않습니다.
AI 관련 직무 손실의 위험에 부응하여, 일부는 생계를 보호하고 개인에게 의미있는 삶을 추구 할 수있는 자유를 제공하기 위해 보편적 인 기본 소득을 시행 할 것을 제안합니다. 이것은 자동화와 윤리적 책임의 균형을 맞추는 한 가지 방법 일 수 있습니다.
XZ : AI 중심 저널리즘 시대에 AI 시스템이 오해의 소지가 있거나 유해한 콘텐츠를 생성 할 때 누가 책임을 져야합니까?
PG : 대부분의 저널리즘 윤리 정책 및 미디어 행동 강령은 AI 생성 또는 AI- 강화 콘텐츠를 출판하는 인간 편집자에게 모든 편집 책임을 지정합니다. 이것은 기존 책임 체제와 일치합니다.
나는 저널리즘이 민주주의의 중요한 기둥이기 때문에 이러한 책임 할당이 남아 있어야한다고 생각합니다. 민주주의는 국민의 거버넌스이기 때문에 사람들을 위해 기본 기둥 중 하나가 기계에 의해 추월되는 것을 허용해서는 안됩니다.
그러나 개별 언론인과 편집자는 AI 생성 된 콘텐츠에 대해서만 책임을 질 수 없습니다. 포괄적 인 책임 시스템이 필요합니다. 이러한 시스템의 필수 측면은 저널리즘에 사용 된 AI 모델이 해석 가능하고 설명 가능한 방식으로 신뢰할 수 있고 투명하게 보장하는 것입니다.
AI 개발자는 시스템의 기술적 견고성과 합법성에 대한 책임이 있어야합니다. 잘 작동하는 법적 틀은 중요하며 규제 기관은 집행을 감독해야합니다.
XZ : 뉴스 조직은 AI가 데이터 수집 및 분석을 향상시킬 때 개인 정보 보호에 대한 윤리적 우려로 대중의 정보에 대해 어떻게 균형을 이룰 수 있습니까?
PG : 언론인들이시기 적절하고 효율적이라는 압력이 계속 증가하고 있습니다. AI 생성 된 컨텐츠와 잘못된 정보가 부족하여 소셜 미디어 사용자와 악의적 인 행위자 모두에 의해 퍼져 나가면 언론인이 선임 해야하는 엄청난 양의 정보가 압도적입니다. 합성 데이터 탐지에 사용되는 AI 도구는 언론인 이이 워크로드 관리를 지원합니다.
그러나 이것은 윤리적 우려를 제기합니다.
예를 들어, 잘 문서화 된 문제는 Kate Crawford가 그녀의 책에서 검토 한 이미지 인식 데이터베이스에 존재합니다. AI의 아틀라스. 이 분석은 이러한 시스템의 많은 부분에 깊이 문제가있는 (인종 차별 주의자, 성 차별 및 낙인) 분류를 포함한다는 것을 시사합니다. 윤리적 규범에 의한 언론인들은 취약한 그룹을 보호 할 의무가 있습니다.
뉴스 생성에 큰 언어 모델 (LLM)을 사용하면 더 윤리적 인 도전이 발생합니다. 예를 들어, 최첨단 모델을 개발 한 민간 기업, 특히 OpenAI는 저작권이있는 자료를 사용하여 시스템을 훈련 시켰습니다.
연구원들은 또한 Chatgpt의 교육 데이터에는 뉴욕 타임즈와 같은 신문의 이메일 커뮤니케이션 및 저작권이있는 콘텐츠와 같은 개인 정보가 포함되어 있음을 발견했습니다.
이러한 우려는 전문 윤리적 표준에 맞는 AI 도구를 신중하게 선택하는 언론인의 중요성을 강조합니다. 투명성 및 책임 메커니즘은 필수적이며, 신뢰할 수있는 AI 도구를 개발하는 데 유럽의 AI 코드 프로젝트와 같은 이니셔티브를 만듭니다.
(Brian Maguire에 의해 편집 | Euractiv의 옹호 연구소)
