퇴근길에 모르는 번호로 전화가 옵니다.
받아보니, 울먹이는 목소리로 “엄마… 나야. 지금 사고가 나서 급하게 돈이 필요해…”라고 합니다.
목소리도, 말투도 정말 자녀와 똑같습니다. 전화기는 계속해서 “지금 바로 보내야 한다”는 압박을 주죠.
나중에 알고 보니, 그 목소리는 전부 AI가 만든 가짜 음성이었습니다.
최근 경찰청과 정부는 자녀·가족의 얼굴과 목소리를 합성한 AI 보이스피싱(AI 피싱)이 실제 발생하고 있다며 각별한 주의를 당부하고 있습니다.인공지능이 일상에 깊숙이 들어온 만큼, 이제 “목소리만으로는” 진짜와 가짜를 구분하기가 매우 어려운 시대가 되었습니다.
이 글에서는 최신 디지털 사기 유형인 ‘AI 음성 합성 보이스피싱’을 중심으로, 실제로 어떻게 벌어지는지, 그리고 일상에서 바로 적용할 수 있는 실전 방지법을 정리해 보겠습니다.
1. AI 음성 보이스피싱, 뭐가 달라졌나?
기존 보이스피싱은 주로 기관 사칭·대출 사기·수사기관 사칭 등이 중심이었습니다. 금융당국 자료를 보면, 악성앱 설치·대포폰·비대면 계좌 개설 등을 통해 금전을 편취하는 방식이 계속 진화해 왔습니다.
여기에 최근 몇 년 사이 AI 음성 합성(딥보이스) 기술이 더해지면서 새로운 유형이 등장했습니다. 경찰과 전기통신금융사기 통합대응단은, 자녀를 납치했다거나 급히 돈이 필요하다고 속이는 자녀 사칭형 보이스피싱에 딥보이스 기술이 악용될 수 있다고 경고합니다.
아래 표로 간단히 비교해 보겠습니다.
| 구분 | 기존 보이스피싱 | AI 음성 합성 보이스피싱 |
|---|---|---|
| 사칭 대상 | 기관, 금융회사, 수사기관 등 | 가족, 지인, 상사, 대표 등 ‘아는 사람’ |
| 핵심 기술 | 발신 번호 변작, 악성앱, 스미싱 등 | 음성 합성(딥보이스), 딥페이크 영상 |
| 설득 포인트 | 법적 문제·채무·수사 협조 압박 | “가족의 안전·긴급 상황” 감정 자극 |
| 피해자 반응 | “사기일 수도 있다”는 의심 여지 | 목소리가 똑같아 의심 자체가 어렵다 |
이 때문에 해외에서도 AI 음성 사기를 새로운 위협으로 경고하고 있으며, 실제로 가족 목소리를 사칭해 수만 달러를 편취한 사례가 보도되기도 했습니다.
2. 실제로는 이렇게 진행됩니다 – 시나리오로 보는 AI 음성 사기
정부와 경찰, 해외 보안기관에서 소개하는 사례들을 종합하면, AI 음성 사기는 대략 아래와 같은 단계로 진행됩니다.
① 정보 수집 단계 – SNS·동영상이 ‘재료’가 된다
- 범죄자는 SNS, 유튜브, 틱톡, 인터뷰 영상 등에서 특정인의 음성을 몇 초~수십 초만 확보해도 됩니다.
- 자녀의 브이로그, 학원 발표 영상, 회사 홍보 영상 속 인터뷰 등 우리가 무심코 올린 영상이 재료가 될 수 있습니다.
- 경찰청은 개인 SNS에 얼굴·음성이 드러나는 영상, 가족 정보 등은 가급적 비공개로 두라고 권고하고 있습니다.
② 음성 합성 단계 – AI가 목소리를 복제한다
- 공격자는 확보한 음성을 AI 음성 합성 프로그램(딥보이스)에 넣어 특정인의 말투·톤·호흡을 학습시킵니다.
- 최근에는 웹 기반 툴만으로도 몇 분 안에 특정인과 거의 비슷한 음성을 만들 수 있습니다.
- 이렇게 만들어진 ‘가짜 목소리’는 실시간 통화에도 활용될 수 있어, 단순 녹음파일보다 훨씬 교묘합니다.
③ 긴급 상황 연출 – “지금 당장 보내야 해요”
전형적인 시나리오는 다음과 같습니다.
- 부모에게 자녀를 사칭한 전화가 온다.
- 배경에는 울음소리·소란스러운 소리를 깔고, “사고가 났다”, “납치됐다”, “상대방과 합의해야 한다”고 말한다.
- 이어서 다른 공범이 등장해 “지금 합의금을 보내지 않으면 큰일 난다”며 계좌번호 또는 가상자산 지갑주소를 전달한다.
- 피해자가 당황해 확인도 못 한 채 급하게 송금하면, 그 즉시 돈이 분산 송금·해외 송금 등으로 빠져나간다.
이 과정에서 공격자는 통화 품질을 일부러 나쁘게 만들거나, 울음·노이즈를 섞어 약간의 어색함을 감추기도 합니다.
3. “나는 당하지 않는다”는 생각이 가장 위험하다
금융당국과 보안 업계가 공통적으로 강조하는 것은, “지능화된 사기는 공부하지 않으면 누구나 당할 수 있다”는 점입니다.
특히 AI 음성 사기는 다음과 같은 사람에게 취약합니다.
- 평소 자녀·가족과 연락이 뜸해 목소리만으로도 안심해 버리는 부모 세대
- 회사에서 상사의 지시를 전화로만 자주 받는 직장인
- 갑작스러운 위급 상황에 취약한 고령층·1인 가구
따라서 “나는 IT에 밝아서 안 속는다”가 아니라,
“목소리는 더 이상 신뢰할 수 있는 인증 수단이 아니다”라는 전제를 가져갈 필요가 있습니다.
4. 일상에서 바로 쓰는 AI 보이스피싱 예방 체크리스트
이제부터는 실제로 바로 적용할 수 있는 실전 방지 팁들을 정리해 보겠습니다.
4-1. 가족끼리 ‘비상 인증 방식’을 하나 정해 두기
- 비상 암호(코드워드) 정하기
- 예: “진짜 상황이면 ‘파란 우산’이라고 말해줘.”
- 가족끼리 미리 정해 두고, 절대 SNS·메신저에 쓰지 않습니다.
- 영상통화 우선 원칙
- 갑작스러운 돈 요구 전화는 무조건 영상통화를 요청합니다.
- 영상통화를 거부하거나, 화면이 너무 어색하다면 의심 신호입니다.
- 한 번 끊고 다시 거는 습관
- 전화가 오면 바로 송금 논의에 들어가지 말고,
- 직접 저장된 번호로 다시 걸거나, 다른 가족에게 먼저 확인합니다.
4-2. SNS·동영상 업로드 습관 점검
경찰청과 여러 보안 기관은, AI 사기에 대비해 다음과 같은 점을 권고하고 있습니다.
- 계정 공개 범위를 전체 공개 → 친구·팔로워 제한으로 조정
- 얼굴·음성이 뚜렷하게 나오는 영상은 가급적 비공개 또는 최소 공개
- 자녀의 학교, 학원, 근무지 등 구체적인 위치 정보 노출 자제
- ‘오늘 어디에 얼마 동안 있다’와 같이 실시간 동선 공유 최소화
4-3. 금융·휴대폰 설정으로 “한 번 더 안전장치”
금융위원회·금융감독원은 보이스피싱 예방을 위해 여신거래 안심차단 서비스, 이체 지연 서비스, 기기 보안 기능 활용 등을 안내하고 있습니다.
아래 표는 개인이 바로 설정할 수 있는 항목들입니다.
| 구분 | 구체적인 설정 예시 |
|---|---|
| 이체 한도 | 1일 이체 한도를 실제 필요 수준보다 낮게 설정 |
| 지연 이체 | 인터넷·모바일 이체 시 지연 이체 옵션 사용 (일정 시간 후 이체) |
| 안심차단 서비스 | 거래 은행의 ‘여신거래 안심차단’, 의심 계좌 차단 서비스 신청 |
| 통신사 보안 | 스팸 전화·스미싱 차단 서비스, 발신번호 변작 차단 서비스 활성화 |
| 스마트폰 설정 | 알 수 없는 발신자 자동 차단/음소거, 보안 앱 설치, OS 최신 업데이트 유지 |
이런 설정만 해도, 순간적으로 속아 송금하는 상황을 한 번 더 걸러낼 수 있는 완충지대가 생깁니다.
5. 기업·직장인이 특히 주의해야 할 점
AI 음성 사기는 가족뿐 아니라 회사 대표·임원을 사칭해 회계 담당자에게 송금을 요구하는 형태로도 나타납니다. 해외 보안 기관들은 이를 “AI 보이스 클로닝 CEO 사기” 유형으로 경고하고 있습니다.
직장에서 실천할 수 있는 최소한의 수칙은 다음과 같습니다.
- 전화·메신저 지시만으로는 고액 송금 금지
- 일정 금액 이상은 반드시 이메일 + 메신저 + 전화 등 2중 이상의 채널 확인을 거치도록 내부 규정을 만듭니다.
- 대표·임원 지시 확인 프로세스
- 평소 사용하지 않던 메신저·번호로 온 지시는 무조건 의심하고,
- 대표 개인 휴대폰이나 비서실을 통해 별도 재확인합니다.
- 직원 대상 정기 교육
- 신규 입사자 오리엔테이션, 연 1회 보안 교육 시 AI 음성 사기 사례를 포함합니다.
6. “이미 송금했는데요…” 의심될 때 바로 해야 할 일
만약 전화를 끊고 나서 “혹시 사기일 수도 있겠다”는 생각이 드는 순간, 바로 다음 순서대로 움직이는 것이 중요합니다.
- 즉시 은행·카드사 고객센터에 전화
- 해당 거래를 설명하고 지급정지·거래 정지 요청을 합니다.
- 통신사·금융사가 함께 운영하는 보이스피싱 피해 환급 제도는, 빠르게 신청할수록 가능성이 커집니다.
- 112 신고 및 전기통신금융사기 통합대응단 안내 활용
- 이미 금전 피해가 발생했다면 112에 즉시 신고합니다.
- 경찰청 전기통신금융사기 통합대응단 홈페이지에서는 피싱 번호 검색, 대응 방법, 제보 기능을 제공합니다.
- 통화 녹취·메시지·입출금 내역 보관
- 가능한 한 많은 증거(전화번호, 계좌번호, 송금 시각)를 정리해 두면,
- 추후 수사 및 피해 구제 신청에 도움이 됩니다.
7. 마무리 – “목소리는 믿되, 송금은 한 번 더 의심하기”
AI 음성 합성 보이스피싱은 솔직히 말해, 한 번 듣기만 해서는 전문가도 속을 수 있는 수준까지 왔습니다. 그래서 이제는
“목소리가 똑같으니까 진짜겠지”
라는 판단 기준만으로는 전혀 안전하지 않은 시대가 되었습니다.
대신 이렇게 기억해 두시면 좋겠습니다.
- 돈 얘기가 나오면, 무조건 한 번 끊고 다시 확인하기
- 가족끼리 비상 암호·영상통화 우선 원칙 정해 두기
- SNS 공개범위·금융 이체 한도·보안 설정 한 번만 점검하기
이 글을 읽으신 오늘이, 가족·동료와 함께 AI 사기 예방 규칙을 만드는 출발점이 되었으면 합니다.
혹시 주변에 부모님, 디지털에 익숙하지 않은 지인이 계시다면, 이 내용을 한 번 같이 이야기 나누어 보셔도 좋겠습니다.
안전하게 디지털 세상을 누릴 수 있도록, 앞으로도 최신 사기 유형과 방지법을 계속 정리해 드리겠습니다.