LA Times, AI로 편향성 분석… 신뢰성 논란 휘말리다!
"AI가 LA Times 기사의 편향성을 ‘분석’한다"는 제목의 The Verge 기사는 로스앤젤레스 타임스가 인공지능(AI)을 사용하여 기사에 대한 편향성을 분석하고 라벨을 붙이는 새로운 이니셔티브를 소개합니다.
주요 내용:
- AI 도입 : 백만장자 Patrick Soon-Shiong이 소유한 LA Times는 기사에 "Voices" 태그를 붙이는 AI 시스템을 도입했습니다. 이 태그는 입장을 취하거나 개인적인 관점에서 작성된 기사를 의미합니다.
- AI 생성 인사이트 : 이 AI 시스템은 해당 기사 하단에 "Insights"를 생성해 주제에 대한 요점과 다양한 견해를 제공합니다. 이는 독자에게 여러 관점을 제시하고, 시민 담론과 객관성을 증진해 저널리즘의 사명을 강화하려는 의도입니다.
- 비판과 우려 : LA Times Guild는 이 이니셔티브를 비판하며, 편집적 감독 없이 AI가 생성한 분석이 미디어에 대한 신뢰를 해칠 수 있다고 주장했습니다. AI가 생성한 인사이트가 기사의 주장을 잘못 전달하거나 어색하게 제시되는 경우가 있었습니다. 예를 들어, 역사 다큐멘터리에서의 AI에 대한 기사와 캘리포니아 내 Klu Klux Klan의 역사적 영향에 관한 기사의 문제 있는 분석이 있었습니다.
- 기술적 문제 : AI 도구는 편향성을 가지고 있으며, 특히 pro-AI 성향을 보이거나 AI에 대해 비판적인 기사를 잘못 해석하는 경우가 있었습니다. 이 도구는 기사를 설명하고 다른 견해를 제시하는 데 같은 소스를 사용하는 경우가 많아 일관성이 없고 때때로 오해를 불러일으킬 수 있는 인사이트를 제공합니다.
- 다른 미디어와의 비교 : Bloomberg, The Wall Street Journal, The New York Times와 같은 다른 주요 미디어는 다양한 목적으로 AI를 사용하지만, 일반적으로 편집적 평가 생성을 위해서는 AI를 사용하지 않으며, 저널리즘 콘텐츠의 무결성을 유지하기 위해 인간의 감독이 중요하다는 점을 강조합니다.
- 정치적 스펙트럼 라벨링 : AI 도구는 주제 선택, 정책 입장, 언어 및 도덕적 판단과 같은 요소에 따라 기사를 정치적 스펙트럼(좌파, 중도좌파, 중도, 중도우파, 우파)으로 라벨링 합니다. 그러나 이러한 라벨링은 투명성이 부족하고 일관성이 없다는 비판을 받았습니다.
전반적으로 이번 이니셔티브는 객관성을 높이고 다양한 관점을 제공하고자 하지만, AI가 생성한 내용의 정확성과 신뢰성에 대한 상당한 도전과 비판에 직면해 있습니다.