summarize 핵심 요약

  • 사기 유형: 사칭 사기
  • 주요 수법: SNS·유튜브 등 공개된 영상에서 가족의 음성 데이터를 수집한 뒤, AI 음성 복제 기술로 목소리를 위조하여 발신번호까지 조작해 전화를 걸고 교통사고·수술비 등 긴박한 상황을 연출해 즉각 송금을 유도하는 신종 사칭 ...
  • 예방 핵심: 가족이 전화로 긴급 송금을 요청하면 반드시 영상통화나 다른 방법으로 본인 확인을 하세요
사칭 사기

아들 목소리로 전화가 왔습니다... AI가 만든 가짜였습니다

딥페이크 AI 기술로 아들의 목소리를 복제해 긴급 송금을 요청한 사기범에게 속은 정○○ 씨(58세)의 사연. AI 음성 사칭이라는 신종 수법의 위험성을 알립니다.

2026년 04월 15일 visibility 70 조회 NEW

아들에게서 걸려온 다급한 전화

정○○ 씨(가명, 58세)는 평범한 주부입니다. 대학원에 다니는 아들이 있고, 아들은 평소 바빠서 연락이 뜸한 편이었습니다. 그래서 아들에게 전화가 오면 무슨 일인가 싶어 항상 반갑게 받곤 했습니다.

2026년 3월 어느 오후, 정 씨의 스마트폰에 아들 이름으로 저장된 번호에서 전화가 왔습니다.

전화기 너머로 들려온 목소리는 분명 아들의 목소리였습니다. 말투도, 억양도, 호칭도 평소와 똑같았습니다.

"엄마, 나 지금 큰일 났어. 친구가 교통사고를 냈는데 내가 동승하고 있었어. 병원비를 내가 먼저 내야 하는데 지금 당장 300만 원이 필요해. 빨리 보내줘."

의심할 틈도 없이 진행된 송금

정 씨는 심장이 철렁 내려앉았습니다. 목소리가 너무나 아들과 똑같았기 때문에 의심할 이유가 없었습니다. 게다가 "지금 당장"이라는 말에 머릿속이 복잡해졌습니다.

"계좌번호 불러줘"

상대방이 계좌번호를 불러주었고, 정 씨는 300만 원을 즉시 이체했습니다. 그런데 송금 직후 아들이 또 전화를 했습니다.

"엄마? 나 방금 수업 끝났는데 무슨 일 있어?"

정 씨는 그 자리에서 다리가 풀렸습니다. 방금 전화를 한 것은 아들이 아니었던 것입니다.

뒤늦게 밝혀진 수법

경찰 수사 결과, 사기범들은 아들이 평소 유튜브나 SNS에 올린 영상에서 음성 데이터를 수집한 뒤, AI 음성 복제 기술로 아들의 목소리를 정교하게 재현했습니다. 또한 발신 번호 조작 기술을 이용해 실제 아들의 전화번호로 표시되게 했습니다.

"목소리가 100% 아들이었어요. 억양도, 말투도, 엄마라고 부르는 것도... 기계가 만든 목소리인지 전혀 몰랐습니다."

정 씨가 잃은 300만 원은 이미 여러 계좌를 거쳐 해외로 빠져나간 상태였습니다.

이런 수법을 조심하세요

정 씨를 속인 AI 딥페이크 사칭 사기의 핵심 수법입니다.

  1. AI 음성 복제: SNS, 유튜브 영상에서 음성 데이터를 수집해 가족 목소리 위조
  2. 발신번호 조작: 실제 가족의 전화번호로 표시되도록 기술적 조작
  3. 긴박감 조성: 교통사고, 수술비, 납치 등 극도의 긴박한 상황 연출
  4. 즉각 송금 요구: 확인할 시간을 주지 않고 즉시 이체 압박
  5. SNS 정보 활용: 공개된 개인정보(이름, 학교, 직장)로 신뢰도 높이기

피해 예방 체크리스트

  • [ ] 가족이 긴급 송금을 요청하면 반드시 다른 방법으로 본인 확인을 하세요
  • [ ] 가족끼리만 아는 암호(확인 질문)를 미리 정해두세요
  • [ ] 발신번호는 조작될 수 있습니다. 번호만으로 상대방을 믿지 마세요
  • [ ] SNS와 유튜브의 공개 범위를 최소화하고 음성이 포함된 영상을 주의하세요
  • [ ] AI 캐리커처, AI 음성 체험 앱 등에 가족 정보를 입력하지 마세요
  • [ ] 전화로 급하게 돈을 요구하면 일단 끊고 직접 해당 가족에게 재확인하세요
  • [ ] 카카오톡 '페이크 시그널' 기능을 활성화하세요

피해를 당했다면

AI 사칭 사기 피해를 당했다면 즉시 다음 조치를 취하세요.

  1. 경찰 신고: 112 또는 사이버범죄 신고시스템(ECRM)
  2. 금융감독원 신고: 1332 (지급정지 요청)
  3. 계좌 지급정지: 송금 은행에 즉시 지급정지 요청
  4. 증거 보존: 통화 내역, 송금 내역, 상대방 계좌 정보 저장
  5. 가족 알림: 동일 수법으로 다른 가족 피해 예방을 위해 공유

이 사연은 실제 피해 사례를 바탕으로 각색되었습니다. 피해자의 개인정보 보호를 위해 가명을 사용했습니다.

warning 사기 수법

SNS·유튜브 등 공개된 영상에서 가족의 음성 데이터를 수집한 뒤, AI 음성 복제 기술로 목소리를 위조하여 발신번호까지 조작해 전화를 걸고 교통사고·수술비 등 긴박한 상황을 연출해 즉각 송금을 유도하는 신종 사칭 사기. 중장년층 부모를 주요 타겟으로 함.

verified_user 예방 수칙

  • 가족이 전화로 긴급 송금을 요청하면 반드시 영상통화나 다른 방법으로 본인 확인을 하세요
  • 발신번호는 기술적으로 조작될 수 있어 번호만으로 상대방을 신뢰하면 안 됩니다
  • 가족끼리만 아는 사전 암호(확인 질문)를 미리 정해두세요
  • SNS와 유튜브의 음성이 포함된 영상의 공개 범위를 최소화하세요
  • AI 음성 체험, AI 캐리커처 앱에 가족 사진이나 정보를 입력하지 마세요
  • 전화로 급하게 돈을 요구하면 일단 끊고 해당 가족에게 직접 재확인하세요
  • 아무리 목소리가 똑같아도 전화 한 통으로 즉시 송금하지 마세요
출처