인공지능 기술로 자녀의 얼굴을 합성해 금품을 노리는 사기 사건이 발생해 주의가 필요하다.
7일 경찰청 국가수사본부는 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, '자녀를 납치를 했다'며 금전을 요구한 외국인 대상 전화금융사기가 발생하고 있다고 밝혔다.
딥페이크는 인공지능 기술을 활용해 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임 등도 재현 가능하다는 것이 경찰의 설명이다. 아울러 가짜 음성을 생성하는 딥보이스도 자녀 목소리를 복제해 납치 범죄에 악용할 수 있어 주의가 요구된다.
기존 피싱범죄가 목소리를 흉내 내는 데 그쳤다면, 이제는 실제에 가까운 자녀의 목소리와 얼굴을 보여주면서 즉각적 송금을 요구하는 범행이 이뤄질 수도 있다. 이러한 사기 범행이 발생할 경우 부모는 상황을 판단할 여유가 없이 심리적 압박에 내몰려 적합한 대응을 하기 어려울 것으로 보인다.
딥페이크와 딥보이스는 실제 인물을 학습해야 해 SNS 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄 표적이 될 수 있어 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것은 주의해야 한다.
경찰청 관계자는 "올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다"며 "납치 전화가 금융사기일 가능성을 항상 염두에 두고 무조건 신고해야 한다"고 강조했다.
안찬수 경찰청 마약조직범죄수사과장은 "인공지능 발전이 일상생활을 더 편리하게 만들었지만, 동시에 범죄에 악용될 환경을 제공했다"고 말했다.
[ 경기신문 = 박진석 기자 ]