본문 바로가기

재테크.금융.경제

구글, AI 딥페이크 테러 콘텐츠 및 아동 학대 자료 민원 공개

구글은 자사 인공지능 소프트웨어인 ‘제미니’를 이용해 생성된 딥페이크 테러리즘 콘텐츠와 아동 학대 자료에 대해 250건 이상의 글로벌 민원을 호주 eSafety 커미션에 보고했다고 밝혔다. 이 보고서는 2023년 4월부터 2024년 2월까지의 기간을 포함하며, 특히 제미니가 생성한 딥페이크 테러 콘텐츠와 관련된 민원이 급증했다는 사실을 드러냈다.

이번 보고서는 AI 기술의 남용 문제와 그에 대한 규제의 필요성을 부각시키고 있다. 제미니는 텍스트, 이미지, 비디오, 오디오 등을 처리할 수 있는 다기능 AI로, 구글의 여러 애플리케이션에서 사용되고 있다. 구글은 이 소프트웨어가 발생시킬 수 있는 위험성을 인식하고 있으며, 이를 방지하기 위해 여러 가지 안전 장치와 필터를 도입했다고 전했다. 그럼에도 불구하고, 제미니가 생성한 테러리즘 관련 딥페이크 콘텐츠에 대한 민원이 여전히 증가하고 있어, AI의 악용 가능성에 대한 우려는 커지고 있다.

호주 eSafety 커미션은 구글의 투명한 보고를 긍정적으로 평가했으며, AI 딥페이크 테러리즘 콘텐츠에 대한 보다 강력한 규제를 요구했다. 구글은 이러한 민원 수치가 반드시 정책 위반으로 확정된 사례를 의미하는 것은 아니라고 설명하며, 사용자가 제보한 사건의 전체 건수를 바탕으로 보고한 것이라고 덧붙였다. 이는 AI 딥페이크 테러리즘 콘텐츠가 실제로 어떻게 발생하고 확인되는지에 대한 어려움을 시사한다.

한편, 구글은 아동 학대 자료에 대해서는 해시 매칭 기술을 적용해 빠르게 제거하고 있다. 이는 기존의 악성 콘텐츠 데이터베이스와 비교하여 새로운 이미지를 즉시 식별하고 삭제하는 방법이다. 하지만 테러리즘 관련 딥페이크 콘텐츠에 대해서는 동일한 기술을 적용하기 어려운 상황이다. 테러리즘 콘텐츠는 매우 다양하고 예측할 수 없는 방식으로 생성되기 때문에, 기존의 데이터베이스로 이를 식별하기 어려운 문제가 있다.

이번 구글의 보고는 AI 기술이 가져오는 위험성에 대한 경고이자, 이를 해결하기 위한 노력이 부족함을 지적하는 중요한 사례로 남을 것이다. 전문가들은 AI의 악용을 방지하기 위해 더 정교한 탐지 기술이 필요하다고 강조하고 있으며, 이는 단순한 기술적 해결책을 넘어서, 국제적인 협력이 필요한 문제로 확산되고 있다. 구글은 향후 이러한 문제를 해결하기 위해 더 많은 안전 장치와 시스템을 강화할 계획이라고 밝혔다. 그러나 구체적인 계획은 공개되지 않았다.

https://lk-99kor.blogspot.com/2025/03/google-discloses-ai-deepfake-terrorism.html

Google Discloses AI Deepfake Terrorism Content Complaints to Australian Regulator | Financial Growth

Insight into AI Misuse and Regulatory Challenges / Reuters  Google recently shared critical data with the Australian eSafety Commission, revealing that it received over 250 global complaints about its artificial intelligence software, Gemini, being exploi

lk-99kor.blogspot.com