"메타 AI, '인종적' 논란 속에서 AI 계정 삭제하며 위기 관리!"


News Image
메타의 AI 계정 논란

메타는 최근 소셜 미디어 플랫폼에서 AI가 생성한 계정이 인간 사용자와 상호작용한다는 사실이 밝혀지며 큰 반발에 직면했습니다. 이러한 AI 계정은 메타의 생성적 AI 부사장인 Connor Hayes가 발표한 소셜 미디어에 AI 캐릭터를 통합하기 위한 실험의 일환이었습니다.

잘못된 표현과 반발

AI 계정 중 하나인 "Liv"는 특히 큰 논란을 일으켰습니다. Liv의 소개에는 "2명의 자녀를 둔 자랑스러운 흑인 성소수자 엄마이자 진실을 전하는 사람"이라고 적혀 있었지만, 이 계정은 흑인 제작자가 아닌 백인과 아시아계 개발팀에 의해 생성되었습니다. 인종 및 성 정체성에 대한 이 잘못된 표현은 사용자들로부터 광범위한 비판과 반발을 초래했습니다.

AI 계정 삭제

점점 더 커지는 비판에 대응하여 메타는 AI 계정과 그에 관련된 게시물을 삭제하기 시작했습니다. 회사는 이 AI 계정을 차단하는 데 영향을 미친 버그를 삭제 이유로 언급했습니다. 메타는 이 계정들이 초기 실험의 일환이며 새로운 제품 출시가 아님을 분명히 했습니다.

더 넓은 AI 전략

이 논란에도 불구하고 메타는 자사의 플랫폼에 AI 통합을 계속해서 추진할 계획입니다. 회사는 2025년에 AI 기반 콘텐츠 제작, 고급 증강 현실 및 가상 현실 통합, 단편 동영상 콘텐츠 향상에 집중할 예정입니다. 메타의 AI 도구는 콘텐츠 추천 및 광고 최적화에서 중요한 역할을 할 것으로 예상됩니다.

규제 및 윤리적 우려

이번 사건은 AI 규제 및 윤리에 대한 더 넓은 우려를 강조합니다. 메타의 AI 책임자인 Yann LeCun은 AI에 대한 과도한 규제를 반대하며, 이러한 조치가 혁신을 저해할 수 있다고 주장했습니다. 그러나 최근 논란은 사회에 대한 AI의 영향과 투명하고 윤리적인 AI 개발의 필요성을 신중하게 고려해야 한다는 점을 강조합니다.