셔터스톡
지난달 한국을 여행 중이던 딸이 "살려달라"면서 보낸 영상을 받은 외국인이 영사관에 도움을 요청한 사건이 있었다. 당시 발신자는 "당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라"고 이 외국인을 협박했고, 한국 경찰은 딥페이크로 범죄임을 확인했다.
경찰청 국가수사본부는 7일 이러한 사건을 공개하면서 "국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라"고 당부했다.
딥페이크는 인공지능 기술을 활용해 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임 등도 재현 가능하다.
가짜 음성을 생성하는 딥보이스도 유의해야 한다. 범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있다.
기존 피싱범죄가 목소리를 따라 하는 것에 그쳤다면, 이제는 실제에 가까운 자녀의 목소리와 얼굴을 보여주면서 즉각적 송금을 요구하는 범행이 이뤄질 수도 있다.
경찰청은 "딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 SNS 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될 수 있다"며 SNS 전체 공개 설정을 지양해야 한다고 경고했다.
김경림 키즈맘 기자 [email protected]
입력 2024-11-07 14:51:18
수정 2024-11-07 14:51:42
#자녀 목소리 , #경찰청 국가수사본부 , #납치 범죄 , #딥페이크