"Microsoft, '신뢰할 수 있는 AI'로 AI 안전 문제를 해결하고 개인 정보 보호 강화!"


News Image
Microsoft는 "신뢰할 수 있는 AI"라는 이름 아래 새로운 인공지능 안전 기능들을 선보였습니다.

이 기능들은 AI 보안, 프라이버시, 신뢰성에 대한 우려를 해결하는 것을 목표로 하고 있습니다.

주요 기능은 다음과 같습니다.

- 수정 기능 : Azure AI Content Safety에 새롭게 추가된 기능으로, AI가 거짓 또는 잘못된 정보를 생성하는 상황을 실시간으로 감지하고 수정합니다. 이 기능은 AI 시스템에 피드백을 제공하여 응답을 개선합니다.

- 내장 콘텐츠 안전성 : AI 안전 체크가 오프라인 상태에서도 기기에서 직접 실행될 수 있게 하여, Microsoft의 Copilot for PC와 같은 애플리케이션에 특히 유용합니다.

- 기밀 추론 : Azure OpenAI Service에 도입된 이 기능은 민감한 고객 데이터가 추론 과정에서 안전하고 비공개로 유지되도록 보장합니다. 이는 의료 및 금융 서비스와 같은 고도로 규제된 산업에 매우 중요합니다.

- 강화된 GPU 보안 : 잠재적인 취약점으로부터 보호하기 위해 GPU 환경의 보안 조치를 개선하였습니다.

- 평가 도구 : AI 출력에 대한 사전 리스크 평가 및 평가를 지원하는 Azure AI Studio의 새로운 기능들입니다.

목표는 다음과 같습니다.

- AI를 더 안전하고, 보안이 강화되며, 개인적인 데이터가 보호될 수 있도록 하여 Microsoft의 책임 있는 AI 개발 약속에 부합하도록 하는 것입니다.

- 고급 AI 시스템과 관련된 잠재적 위험에 대한 업계의 인식이 높아지고 있는 문제를 해결하려고 합니다.

영향은 다음과 같습니다.

- Microsoft의 이니셔티브는 회사를 책임 있는 AI 개발의 선두주자로 자리매김하게 하여, 클라우드 컴퓨팅 및 AI 서비스 시장에서 경쟁 우위를 제공할 수 있습니다.

- 뉴욕시 교육부와 남호주 교육부와 같은 고위 프로필 고객들과의 협업을 통해, 이 새로운 기능들을 사용하여 안전한 AI 기반 교육 도구를 만들고 있습니다.

- 이 접근 방식은 AI 안전 및 책임 있는 개발을 위한 새로운 산업 기준을 설정할 수 있지만, 전문가들은 변화하는 AI 안전 문제를 해결하기 위해 지속적인 경각심과 혁신이 필요하다고 경고합니다.

도전 과제는 다음과 같습니다.

- 이러한 안전 기능을 도입하면서도 스트리밍 애플리케이션의 지연 시간과 같은 성능에 영향을 주지 않도록 하는 것이 여전히 복잡한 과제로 남아 있습니다.

- 이 이니셔티브는 단순하고 즉시 사용할 수 있는 AI 솔루션에서 보다 복잡하고 보안 중심의 구현으로 나아가는 책임 있는 AI 배포의 증가하는 복잡성을 강조합니다.