이스라엘의 AI 무기 시스템, 민간인 사망자 급증의 주범?


News Image
이스라엘의 군사 작전에서 인공지능(AI)과 로봇 시스템의 사용에 관한 내용을 다룬 동영상 "REVEALED: Israel's AI Robot Killing Machine"에 대해 요약하겠습니다.

AI 타겟팅 시스템
이스라엘 군은 "Lavender"와 "The Gospel"과 같은 AI 시스템을 개발하고 배치했습니다.
Lavender는 개인 인물, 주로 의심되는 무장 세력을 식별하고 표시하는 데 사용되며,
The Gospel은 무장 세력이 사용하고 있다고 여겨지는 건물과 구조물을 목표로 합니다.

자동화된 타겟 생성
이 AI 시스템들은 시각 정보, 이동 통신 데이터, 소셜 미디어 연결, 전장 정보 등 방대한 데이터를 분석하여
특정 개인이 무장 세력일 가능성을 평가합니다.
이 과정은 수만 개의 잠재적인 목표를 식별할 수 있으며, 이들 중 많은 수가 하급 작전원입니다.

인간 감시 부족
AI가 생성한 타겟 리스트는 종종 철저한 인간 검증 없이 채택됩니다.
폭격 승인을 내리기 전의 유일한 검사는 타겟이 남성인지 확인하는 것이며,
시스템은 여성이 무장 세력일 가능성이 낮다고 가정합니다.
이러한 감시 부족은 상당한 부수 피해와 민간인 사상자를 초래했습니다.

로봇과 드론의 사용
이스라엘은 원격 조정 로봇과 기관총과 미사일이 장착된 드론을 이용하여
감시, 테러, 민간인 사살 등의 목적으로 사용하고 있습니다.
여기에는 "자살 드론", "로보 스나이퍼", AI로 구동되는 자동 사격 지역이 포함되어 있습니다.

생체 인식 감시
이스라엘 군은 가자 지구에서 생체 인식 감시를 확대하고 있으며,
페이스 인식 시스템을 사용해 팔레스타인 주민의 얼굴을 수집하고 카탈로그화하고 있습니다.
이 기술은 AI 시스템의 타겟팅 능력을 향상시키는 데 사용됩니다.

인권 문제
이러한 AI 및 로봇 시스템의 사용은
무력 사용에 대한 의미 있는 인간 통제 부족, 디지털 비인간화, 자율적 사살의 가능성 등
중대한 인권 문제를 제기합니다.
민간인을 보호하고 국제 인도법을 준수하기 위해 자율 무기 시스템에 대한
국제 규제와 금지를 요구하는 목소리가 커지고 있습니다.

이 요약은 이스라엘의 군사 작전에서 AI와 로봇 시스템 사용의 기술적, 윤리적 및 인도적 의미를 강조하며,
동영상에서 논의될 가능성이 있는 문제를 포착합니다.