summarize 핵심 요약

  • 사기 유형: 보이스피싱
  • 주요 수법: AI 음성 복제 기술을 이용한 가족 사칭 보이스피싱. SNS에 공개된 가족의 음성을 AI로 복제한 뒤, 교통사고 등 긴급 상황을 꾸며 판단력을 마비시키고 거액을 이체하도록 유도하는 수법.
  • 예방 핵심: 가족이라도 전화로 급하게 돈을 요청하면 반드시 의심하세요
보이스피싱

AI가 엄마 목소리를 흉내 냈습니다... 통장이 텅 비었습니다

딸의 목소리를 AI로 복제한 보이스피싱에 속아 2시간 만에 4천만원을 잃은 65세 박○○ 씨의 사연. 가족 목소리도 이제는 믿을 수 없는 시대가 왔습니다.

2026년 04월 11일 visibility 942 조회 NEW

딸에게서 걸려온 다급한 전화

올해 65세인 박○○ 씨는 경기도 수원에서 남편과 단둘이 살고 있는 평범한 주부입니다. 결혼한 딸이 서울에 살고 있어 매주 일요일마다 통화를 하는 것이 일상이었습니다.

지난 4월 어느 화요일 오후 2시, 갑자기 딸의 번호로 전화가 걸려왔습니다.

"엄마, 나야. 나 지금 너무 급해. 친구가 교통사고가 났는데 병원비가 지금 당장 필요해. 4천만원만 빌려줄 수 있어? 오늘 안에 갚을게."

목소리가 딸의 것이 맞았습니다. 조금 다급하고 떨리는 것 같았지만, 분명히 딸의 목소리였습니다. 박 씨는 가슴이 철렁했습니다.

의심할 틈도 주지 않았습니다

전화를 끊기도 전에 다른 번호로 연락이 왔습니다. 자신을 경찰이라고 소개한 남성이 "따님의 친구분이 중태입니다. 지금 바로 병원비를 송금해 주셔야 합니다"라고 말했습니다.

박 씨가 "딸한테 직접 다시 전화해볼게요"라고 하자, 곧바로 딸의 번호로 다시 전화가 왔습니다.

"엄마 제발, 지금 경찰서에 있어서 내 폰 못 써. 이 번호로만 연락해. 빨리 부탁해."

그 목소리는 울먹이고 있었고, 박 씨는 더 이상 의심할 수가 없었습니다. 30년 넘게 들어온 딸의 목소리였으니까요.

2시간 동안 박 씨는 네 차례에 걸쳐 총 4천만원을 낯선 계좌로 송금했습니다.

진짜 딸의 전화

저녁 6시, 딸에게서 "엄마, 오늘 별일 없었어?"라는 카카오톡 메시지가 왔습니다.

박 씨는 순간 머릿속이 하얗게 됐습니다.

"너 오늘 오후에 엄마한테 전화 안 했어?"
"무슨 소리야, 엄마. 나 오늘 회사에 있었는데."

그제야 박 씨는 사기를 당했다는 것을 깨달았습니다. 평생 모은 노후 자금의 일부였습니다.

경찰 신고 후 확인된 사실은 충격적이었습니다. 사기범들은 딸이 SNS에 올린 영상과 음성 클립을 AI로 분석하여 목소리를 거의 완벽하게 복제했던 것입니다.

이런 수법을 조심하세요

AI 음성 복제 보이스피싱의 핵심 수법은 다음과 같습니다.

  1. SNS 음성 수집: 유튜브, 인스타그램 릴스, 틱톡 등에 공개된 영상에서 가족의 목소리를 수집합니다.
  2. AI 음성 복제: 3~10초의 음성 샘플만으로 그 사람의 목소리를 흉내 내는 AI 기술을 활용합니다.
  3. 정황 조작: 사고, 구금 등 즉각적인 돈이 필요한 상황을 만들어 판단력을 마비시킵니다.
  4. 재확인 차단: 피해자가 당사자에게 직접 연락하려 할 때, 복제 음성으로 다시 전화해 차단합니다.
  5. 시간 압박: "지금 바로", "오늘 안에" 등의 표현으로 생각할 틈을 주지 않습니다.

피해 예방 체크리스트

  • 가족이라도 전화로 급하게 돈을 요청하면 반드시 의심하세요
  • 가족과 미리 "가족 암호"를 정해두세요 (예: "우리 강아지 이름이 뭐야?")
  • 돈을 보내기 전에 반드시 다른 경로(문자, 카카오톡)로 당사자에게 직접 확인하세요
  • SNS에 가족의 목소리가 담긴 영상을 무분별하게 공개하지 마세요
  • 조금이라도 이상하면 일단 전화를 끊고 시간을 두세요
  • 금융기관 앱의 지연이체 서비스를 활성화해두세요
  • 경찰청 112 또는 금융감독원 1332에 즉시 신고하세요

피해를 당했다면

사기 피해를 당했다면 즉시 다음 조치를 취하세요.

  1. 경찰 신고: 112 또는 가까운 경찰서
  2. 금융감독원 신고: 1332
  3. 계좌 지급정지: 은행 고객센터에 즉시 연락
  4. 증거 보존: 통화 내역, 문자, 송금 내역 캡처

이 사연은 실제 피해 사례를 바탕으로 각색되었습니다. 피해자의 개인정보 보호를 위해 가명을 사용했습니다.

warning 사기 수법

AI 음성 복제 기술을 이용한 가족 사칭 보이스피싱. SNS에 공개된 가족의 음성을 AI로 복제한 뒤, 교통사고 등 긴급 상황을 꾸며 판단력을 마비시키고 거액을 이체하도록 유도하는 수법.

verified_user 예방 수칙

  • 가족이라도 전화로 급하게 돈을 요청하면 반드시 의심하세요
  • AI 기술로 가족의 목소리를 거의 완벽하게 복제할 수 있습니다
  • 돈 요청 전에 반드시 다른 경로로 당사자에게 직접 확인하세요
  • 가족과 미리 '가족 암호'를 정해두면 사기를 예방할 수 있습니다
  • SNS에 가족의 목소리가 담긴 영상을 무분별하게 공개하지 마세요
  • 조금이라도 이상하면 일단 전화를 끊고 시간을 두세요
  • 금융기관 앱의 지연이체 서비스를 활성화해두세요
출처