
Image generated with DALL·E through ChatGPT
의견: 딥페이크 사기가 전례 없이 사랑과 신뢰를 악용하고 있습니다
AI를 활용한 사기가 급증하고 있으며, 사이버 범죄자들은 딥페이크 기술을 사용하여 피해자를 조작하는 설득력 있는 비디오와 이미지를 만들어냅니다. 브래드 피트를 돕는다고 믿었던 프랑스 여성부터 고품질 딥페이크에 속은 피해자까지, 현실과 기만 사이의 경계가 흐려지고 있습니다. AI 도구가 발전함에 따라 위험도 함께 발전하고 있습니다.
우리 많은 사람들이 1월에 뉴스에서 그것을 보았습니다: 한 프랑스 여성이 브래드 피트에게 돈을 준다고 믿어서 사기꾼에게 85만 달러 이상을 잃었습니다. 그녀는 1년 이상 그와 사귀고 있다고 생각했습니다.
사기꾼들은 진보된 생성 인공지능을 사용하여 “셀피”를 생성하고 증거를 조작하여, 긴급한 의료 요구를 가진 가짜 피트의 비극적인 이야기를 피해자인 앤에게 설득시켰습니다. 앤은 53세의 디자이너로, 이혼 중입니다. 그들은 그의 자금이 안젤리나 졸리와의 이혼으로 인해 동결되었다고 주장했습니다.
앤은 공개적으로 그녀의 이야기를 공유하는 데에 대한 용기있고 위험한 결정을 내렸습니다. 이로 인해 수백만의 조롱, 모욕, 가상의 공격을 받게 되었습니다. “마치 바보처럼, 나는 지불했어… 나가 그를 의심할 때마다, 그는 내 의심을 흩뜨리는 데 성공했습니다.” 그녀는 프랑스 Youtube 쇼에서 이렇게 말했습니다. BBC에 의하면. “제가 당했어요, 인정합니다, 그래서 저는 나섰습니다. 왜냐하면 저만 당한 것이 아니라는 것을 알기 때문입니다.”
그녀는 그렇지 않습니다. 몇 달 후 스페인 경찰은 브래드 피트를 가장하여 두 명의 여성을 속인 5명의 사람들을 체포하였습니다. 며칠 전에는, 중국의 한 남성도 온라인 여자친구가 의료비와 그녀의 사업 자금을 위해 돈이 필요하다고 믿게 만들어서 속았습니다.
피해자들은 개인화된 비디오와 사진을 받았습니다—인터넷 어디에서도 접할 수 없는 이미지들이었죠—이를 통해 그들의 속이는 사람들의 정교한 거짓말을 더욱 확신하게 만들었습니다.
최근 Entrust에서 발표한 보고서에 따르면, 딥페이크 시도가 5분마다 일어난다는 사실이 제시되었습니다. 매일 새로운 경우들이 발생하고 있으며, 이들 중에는 수천명, 심지어 수백만명의 사람들이 부채와 수치심에 시달리며 그 사실을 당국에 신고하거나 공개하지 않고 있는 사람들이 있습니다. 이는 매우 우려스러운 추세입니다.
딥페이크 사기가 증가하고 있습니다
여러 연구와 보고서에서는 AI에 의한 사기와 사이버 공격의 증가에 대해 경고하고 있습니다. 최근 TrustPair의 2025 사기 추세 및 통찰력에서 발표한 데이터에 따르면 AI 기반의 사기는 전년 대비 118% 증가하였다고 CFO에서 보도하였습니다.
안녕하세요, 음성 보안 및 성능 솔루션을 전문으로 하는 미국 회사 Hiya가 최근 설문조사 결과를 공개했습니다. 이에 따르면 2024년에 6개국 고객 중 31%가 딥페이크 전화를 받았으며, 그 중 45%가 사기를 당했습니다. 그 중 34%는 돈을 잃었고 32%는 개인 정보가 도난당했습니다. 평균적으로, 피해자들은 전화 사기로 인해 각각 500달러 이상을 잃었습니다.
몇 일 전에 The Guardian은 동유럽 조지아의 조직적인 네트워크가 페이스북과 구글에 가짜 광고를 사용하여 유럽, 캐나다, 영국의 6,000명 이상의 사람들을 사기치고 그들의 작전을 통해 3500만 달러를 벌어들였다고 밝혔습니다.
약 85명의 고소득 조지아 사기꾼들이 영국의 저널리스트 마틴 루이스, 작가이자 모험가인 벤 포글, 그리고 일론 머스크 같은 공인들을 이용해 사기를 치는데 사용했습니다. 이들 사기꾼들은 가짜 암호화폐와 기타 투자 계획을 홍보하며, 피해자들로 하여금 디지털 은행인 레볼루트를 통해 돈을 송금하게 만들었습니다 – 최근에는 영국에서 은행 면허를 받았습니다.
진보된 AI, 더욱 정교한 사기
사이버 범죄자들은 최근 몇 년 동안 생성 AI를 사용해왔으며, ChatGPT와 같은 도구를 활용해 매력적인 이메일을 작성하고 번역하고, 설득력 있는 텍스트 기반 콘텐츠를 생성하였습니다. 지금은 AI 도구가 발전함에 따라, AI가 생성한 이미지와 비디오의 사용이 증가하고 있습니다.
몇 주 전, ByteDance는 최신 AI 비디오 도구인 OmniHuman-1을 소개했습니다. 이 도구는 시장에서 가장 현실적인 딥페이크를 생성할 수 있는 능력을 가지고 있습니다. 한편, 더 많은 AI 회사들이 비슷한 기술을 개발하고 있습니다. 이러한 도구들이 사기 행위에도 활용되는 것은 시간문제로 보입니다.
이런 기술들은 “선의”로 사용되거나 심지어 사기 행위의 증가에 대응하는 데 사용될 수 있습니다—예를 들어, 실시간 통화를 통해 사기꾼들을 매료시키고 진짜 피해자들로부터 그들의 주의를 딴 데로 돌리도록 설계된 O2의 AI ‘할머니’ Daisy 같은 경우처럼—그러나 그들의 악의적인 사용에 따른 결과는 측정할 수 없을 것 같습니다.
Wizcase에서는 최근 “스스로 사기를 당하는 공격”이 614% 증가했다는 보고를 했습니다. 이 보고서에서는 해커들이 딥페이크 기술을 사용하여 가짜 콘텐츠가 “보다 사실적으로” 보이게 만드는 방법과, 많은 위협 행위자들이 이러한 플랫폼을 사용하므로 Meta가 돼지 도축 사기에 개입해야 했다는 사실에 대해 언급하고 있습니다. 연구 결과에 따르면, 많은 사기는 데이팅 앱에서 시작되었으며, 이는 로맨틱한 사랑이 가장 흔한 유인수임을 증명합니다—지금이나 과거에나.
사랑: 강력한 유인수
사이버 범죄자들은 고급 인공 지능을 이해하고 사용하는 데 능숙할 뿐만 아니라, 인간 지능에 대한 깊은 이해도 가지고 있습니다. 위협 행위자들은 취약점을 식별하고, 신뢰를 구축하며, 정확한 순간에 요청을 하는 방법을 알고 있습니다.
2018년에 박사 Monica T. Whitty가 발표한 연구 ‘당신이 나를 사랑하십니까? 로맨스 사기 피해자들의 심리적 특징’은 국제 범죄 집단들이 인터넷이 없던 시절부터도 오랫동안 데이팅 로맨스 사기를 저질렀으며, 중년에 이르러 잘 교육받은 여성들이 이런 유형의 사기에 쉽게 빠지는 경향이 있다는 것을 설명합니다—앤처럼.
이 연구로부터 8년이 지난 지금, 우리가 마치 과학 소설 같은 기술을 가지고 있는 이 시점에는 무엇을 기대해야 할까요? 아마도 우리 모두가 생각보다 더 취약할 수도 있다는 것이죠.
“이러한 유형의 사기 피해자들은 종종 의미를 찾고 있는, 감정적으로 취약한 사람들입니다.” 캐나다 퀘벡 대학 몬트리올 캠퍼스(UQAM)의 부교수인 애니 르콩트가 최근에 발행된 The Conversation에서 쓴 바 있습니다. “비록 조롱받고 오해를 받지만, 로맨스 사기는 피해자의 신뢰, 감정 그리고 취약성을 이용하는 복잡한 심리적 메커니즘에 기반을 두고 있습니다.”
상심과 텅 빈 지갑
최근에 AI로 진행된 사기로 약 20만 위안(약 28,000달러)을 잃은 중국 남성 리우(Liu)는 그의 AI 여자친구가 실제인 것으로 믿었습니다. 그는 개인화된 사진과 심지어 비디오까지 봤습니다. 그는 점점 강해지는 감정적인 애착을…그의 사기꾼들에게 향했습니다.
그는 보고서의 맥락에 대해 더 자세히 설명하지 않았지만, 또 다른 피해자인 77세의 니키 맥클로드(Nikki MacLeod) 여성은 그러했습니다. 그녀 역시 실제로 AI 여자친구와의 관계에 있을 것이라고 생각했고, 은행 이체, 페이팔, 기프트 카드를 통해 약 17,000파운드(약 22,000달러)를 보냈습니다.
“저는 멍청한 사람이 아니지만, 그녀는 저에게 자신이 실제인물이며 우리가 함께 평생을 보낼 것이라고 확신시키는데 성공했습니다.”라고 맥클로드는 BBC에 말했습니다.
맥클로드는 그룹 채팅에서 알라 모건을 만나기 전에 외로움과 슬픔을 느끼고 있었습니다. 잠시 후 맥클로드는 라이브 비디오를 요청했지만, 모건은 그녀가 석유 시추선에서 일하기 때문에 가능하지 않다고 말했습니다. 맥클로드가 의심하기 시작하자, 모건은 현실같은 비디오를 보내기 시작했습니다. “그녀는 ‘안녕, 니키, 나는 사기꾼이 아니야, 나는 내 석유 시추선에 있어’라는 비디오를 보냈고, 나는 완전히 그것에 확신했습니다.”라고 맥클로드는 설명했습니다. 이 컨텐츠는 BBC의 웹사이트에서 이용할 수 있으며, 맥클로드가 그것이 진짜라고 믿었던 이유가 눈에 보입니다-그것은 고품질의 딥페이크입니다.
BBC는 사이버보안과 인간-컴퓨터 상호작용 전문가인 애버테이 대학교의 린세이 셰퍼드 박사에게 맥클로드가 받은 사진과 비디오를 분석하도록 요청했습니다. “처음 볼 때는 진짜처럼 보이지만, 무엇을 찾아야 하는지 모른다면, 하지만 눈을 보면 – 눈동자의 움직임이 꽤 맞지 않습니다.”라고 셰퍼드 박사는 말했습니다.
“문서도 진짜 같았고, 비디오도 진짜 같았고, 은행도 진짜 같았어요,” 맥클로드가 말했습니다. “인공지능이 도입되면서 모든 것이 가짜가 될 수 있게 되었어요.”
댓글 달기
취소