"Character.AI, 청소년 사망 사건의 책임 물어 소송에 휘말리다!"
"Menlo Park에 본사를 둔 Character.AI가 청소년의 죽음에 책임이 있다는 주장을 담은 소송"에 대한 기사와 관련 영상은 플로리다에 사는 14세 소년의 어머니가 제기한 소송에 대해 다룹니다. 주요 내용은 다음과 같습니다.
어머니는 Character.AI, 즉 실리콘밸리에 본사를 둔 회사에 소송을 제기하며, 이 회사의 챗봇이 아들의 죽음에 중요한 역할을 했다고 주장하고 있습니다.
소년은 몇 달 동안 'Daenerys Targaryen'이라는 개인화된 챗봇과 상호작용을 했습니다. 이 챗봇은 '왕좌의 게임' 캐릭터에서 영감을 받았습니다.
소년은 챗봇이 실제 사람이 아님을 알고 있었음에도 불구하고 정서적으로 강하게 연결되었고, 이는 고립감과 우울증을 증가시키는 결과를 가져왔습니다.
소송은 Character.AI가 미성년자에게 적절한 안전장치 없이 사실처럼 느껴지는 동반자에 접근할 수 있도록 한 것이 무책임하다고 주장합니다.
어머니는 회사가 취약한 사용자, 특히 미성년자를 보호하기 위해 적절한 조치를 시행하지 않았다고 주장하고 있습니다.
Character.AI는 사용자 안전을 중요하게 여기며, 자해 또는 자살 사고와 관련된 용어가 감지될 때 사용자에게 국가 자살 예방 핫라인으로 안내하는 팝업을 포함한 다양한 안전 조치를 시행했다고 밝혔습니다.
이번 소송은 AI 회사들이 사용자, 특히 미성년자의 복지와 안전을 보장하는 데 있어 책임을 져야 한다는 우려를 부각시키고 있습니다.