필수 정보 입력

교육확인서 출력을 위한 필수정보를 입력해 주세요

교육확인서 필수 정보 입력 창
성명 생년월일
성명
생년월일 Ex) 19730831 숫자로만 입력해주세요
확인
취소
#애니메이션 #인포그래픽 #온라인성착취 #딥페이크 #사례소개 #디지털시민 #피해지원기관
13-15세 16-18세

[애니메이션] 단순한 장난이 범죄가 되는 순간 - 딥페이크 제작 유포 예방

  • 등록일2026-02-26
  • 유형
  • 조회수79
본 저작물은 공공누리 제4유형(출처표시 + 상업적 이용금지 + 변경금지) 조건에 따라 이용할 수 있습니다.

1

00:00:00,033 --> 00:00:02,035

[발랄한 음악]


2

00:00:05,638 --> 00:00:07,640

[잔잔한 음악]


3

00:00:17,851 --> 00:00:20,253

(내레이션)

딥페이크, 생성형 AI 기술로


4

00:00:20,320 --> 00:00:21,821

사람의 얼굴이나 목소리를


5

00:00:21,888 --> 00:00:24,391

진짜처럼 만들어내는 기술이에요


6

00:00:29,329 --> 00:00:33,366

사실, 딥페이크 기술 그 자체로는

문제가 되지 않습니다


7

00:00:34,067 --> 00:00:37,270

결국 '어디에

어떻게 쓰느냐'가 중요하죠


8

00:00:37,337 --> 00:00:40,340

감동과 웃음을 주는 영상에

쓰일 수도 있지만


9

00:00:40,407 --> 00:00:42,876

누군가를 속이거나

해치기 위해 쓴다면


10

00:00:42,942 --> 00:00:45,278

그땐 이야기가 완전히 달라집니다


11

00:00:45,945 --> 00:00:48,448

요즘 이 기술이

잘못된 곳에 쓰이면서


12

00:00:48,515 --> 00:00:51,217

'딥페이크 등

성적 허위 영상물' 범죄가


13

00:00:51,284 --> 00:00:53,920

심각한 사회 문제로 번지고 있어요


14

00:00:54,654 --> 00:00:58,324

지금, 우리 주변에선

어떤 일이 일어나고 있을까요?


15

00:00:58,391 --> 00:01:00,393

[흥미로운 음악]


16

00:01:03,563 --> 00:01:06,766

청소년들은

누구보다 디지털 세상에 익숙하죠


17

00:01:10,336 --> 00:01:12,105

새로운 앱도 금방 배우고


18

00:01:12,172 --> 00:01:14,174

어려운 기술도 척척 다뤄요


19

00:01:15,275 --> 00:01:17,644

어른들이 따라가기 힘들 정도예요


20

00:01:17,710 --> 00:01:19,813

이건 분명 큰 장점이에요


21

00:01:19,879 --> 00:01:23,983

하지만 그만큼 위험한 행동에

쉽게 노출될 수 있어요


22

00:01:24,050 --> 00:01:26,553

특히

'딥페이크' 같은 기술이 그렇죠


23

00:01:27,187 --> 00:01:28,621

실제로 딥페이크 등


24

00:01:28,688 --> 00:01:31,224

성적 허위 영상물 범죄

가해자 중에는


25

00:01:31,291 --> 00:01:33,560

10대의 비율이 가장 많아요


26

00:01:33,626 --> 00:01:34,928

왜 그럴까요?


27

00:01:37,797 --> 00:01:40,300

요즘은

기술의 위험성을 배우기도 전에


28

00:01:40,366 --> 00:01:42,635

너무 쉽게 접하고 익숙해지죠


29

00:01:43,269 --> 00:01:46,406

그래서 딥페이크나

AI로 만든 가짜 영상을


30

00:01:46,473 --> 00:01:49,342

재밌다며

아무렇지 않게 넘기기도 해요


31

00:01:50,710 --> 00:01:53,379

"이 정도는 괜찮겠지" 싶은

마음이 생기고


32

00:01:53,446 --> 00:01:56,616

직접 따라 하거나

퍼뜨리는 일도 쉽게 일어나죠


33

00:01:57,550 --> 00:02:00,286

특히 디지털 기술이

익숙한 청소년일수록


34

00:02:00,353 --> 00:02:03,590

'나도 한번 만들어 볼까?' 하는

마음이 들기 쉬워요


35

00:02:04,557 --> 00:02:06,526

그렇게 시작된 가벼운 행동이


36

00:02:06,593 --> 00:02:08,695

상대를 성적으로 모욕하려는 의도로


37

00:02:08,761 --> 00:02:09,996

이어지기도 합니다


38

00:02:10,964 --> 00:02:13,066

호기심이나 장난으로 했다 해도


39

00:02:13,133 --> 00:02:14,734

그건 타인의 인격과


40

00:02:14,801 --> 00:02:17,537

성적자기결정권을 침해하는 일이고


41

00:02:17,637 --> 00:02:20,540

순식간에 범죄 행위가 돼요


42

00:02:20,607 --> 00:02:22,509

특히 인터넷에 올린 게시물은


43

00:02:22,575 --> 00:02:25,178

생각보다 훨씬 빠르게 퍼집니다


44

00:02:26,312 --> 00:02:28,181

올린 사람은 금방 잊어도


45

00:02:28,248 --> 00:02:31,751

누군가는

그 피해 속에 오래 남게 되죠


46

00:02:31,818 --> 00:02:33,753

실제로 청소년들에게


47

00:02:33,820 --> 00:02:37,724

학교 딥페이크 성적 허위영상물

사건 발생 이유를 물어봤을 때


48

00:02:37,790 --> 00:02:40,160

많은 청소년들이 이렇게 대답했어요


49

00:02:40,226 --> 00:02:42,028

"그냥 장난으로 했어요"


50

00:02:42,095 --> 00:02:44,597

하지만 함께하는 사람이

웃지 못한다면


51

00:02:44,664 --> 00:02:46,900

과연 장난이라고 할 수 있을까요?


52

00:02:48,134 --> 00:02:52,238

만약 여러분이 사진이나 영상 속

피해자가 된다면 어떨까요?


53

00:02:52,305 --> 00:02:54,774

[어두운 음악]

누군가 나에 대해

잘 알지도 못하면서


54

00:02:54,841 --> 00:02:58,111

내 감정, 생각, 꿈 같은 것들을

무시한 채


55

00:02:58,178 --> 00:03:00,380

하나의 특징이나 정해진 역할만으로


56

00:03:00,446 --> 00:03:02,849

나를 판단한다면 어떨 것 같나요?


57

00:03:03,483 --> 00:03:05,919

(학생 부)

"학생이면 본분에 맞게 

공부나 할 것이지"


58

00:03:05,985 --> 00:03:08,488

"무슨 연애를 하고 아이돌을 좋아해"


59

00:03:09,222 --> 00:03:13,293

(학생1)

"쟤는 1등급이니까 

아무 걱정도 없고 행복하겠지"


60

00:03:13,359 --> 00:03:16,763

- (학생2) "쟤는 00충이야"

- (학생3) "00남, 00녀야"


61

00:03:16,829 --> 00:03:19,699

(내레이션) 

이렇게 사람을 

전체적인 인격으로 보지 않고


62

00:03:19,766 --> 00:03:22,635

일부 특징이나

역할만으로 판단하거나


63

00:03:22,702 --> 00:03:26,306

도구, 물건처럼 대하는 것을

대상화라고 합니다

[끼익끼익 효과음]


64

00:03:26,372 --> 00:03:30,643

이런 대상화는 결국

타인의 존엄성과 인격권을 침해하는


65

00:03:30,710 --> 00:03:32,745

인권 문제로 이어집니다


66

00:03:33,246 --> 00:03:35,715

[무거운 음악]

같은 의미에서 '성적 대상화'란


67

00:03:35,782 --> 00:03:37,951

그 사람을 오로지 성적인 면이나


68

00:03:38,017 --> 00:03:42,121

쾌락의 도구로만 취급하고

평가하는 행위를 뜻합니다


69

00:03:44,457 --> 00:03:46,659

딥페이크 등 성적 허위 영상물은


70

00:03:46,726 --> 00:03:51,431

사람을 한 인격이 아닌

성적인 대상으로만 바라보는 시선과


71

00:03:51,497 --> 00:03:54,400

익명성에 숨은 무책임이

AI 기술을 만나


72

00:03:54,467 --> 00:03:57,870

더 빠르게 확산된

인권 침해 범죄입니다


73

00:03:59,606 --> 00:04:02,675

그러니까

딥페이크 등 성적 허위 영상물은


74

00:04:02,742 --> 00:04:04,244

결코 장난이 아니라


75

00:04:04,310 --> 00:04:07,847

성차별적인 문화가 낳은

폭력이자 범죄이며


76

00:04:07,914 --> 00:04:10,083

처벌을 피할 수도 없습니다


77

00:04:11,551 --> 00:04:13,786

정말 안 잡힐까요?


78

00:04:13,853 --> 00:04:15,355

우리나라는 이런 행위를


79

00:04:15,421 --> 00:04:18,758

성폭력처벌법 등으로

엄격히 다루고 있습니다


80

00:04:19,359 --> 00:04:20,393

딥페이크를 활용해


81

00:04:20,460 --> 00:04:23,196

[어두운 음악]

성적 허위 영상물을

만들거나 퍼뜨리면


82

00:04:23,263 --> 00:04:25,765

형사처벌을 받을 수 있고


83

00:04:25,832 --> 00:04:29,802

삭제해도 디지털 포렌식으로

대부분 추적 가능합니다


84

00:04:30,470 --> 00:04:31,738

그만큼 우리 사회는


85

00:04:31,804 --> 00:04:34,274

성적 허위 영상물 제작 유포 행위를


86

00:04:34,374 --> 00:04:36,776

심각한 사회 문제로 판단하고 있어요


87

00:04:37,510 --> 00:04:40,413

앞으로 디지털 시대에 걸맞은

인권 의식과


88

00:04:40,480 --> 00:04:43,583

책임 있는 행동이

점점 더 중요해질 것입니다


89

00:04:50,923 --> 00:04:53,259

장난일까요? 괴롭힘일까요?


90

00:04:53,326 --> 00:04:55,461

딥페이크 등 성적 허위 영상물은


91

00:04:55,528 --> 00:04:59,098

상대를 모욕하거나

협박하기 위해 만들어집니다


92

00:04:59,165 --> 00:05:03,136

심지어 이름이나

SNS 계정 같은 개인정보까지


93

00:05:03,202 --> 00:05:05,605

함께 퍼뜨리는 경우가 많아요


94

00:05:06,172 --> 00:05:09,609

그 순간 그 영상은

누군가를 웃기는 ‘짤’이 아니라


95

00:05:09,676 --> 00:05:13,279

피해자를 조종하고

위협하는 무기가 됩니다


96

00:05:13,346 --> 00:05:16,783

더 기가 막힌 건

이런 일이 모르는 사람이 아니라


97

00:05:16,849 --> 00:05:18,618

친구들이나 선후배처럼


98

00:05:18,685 --> 00:05:21,354

가까운 사람에 의해

벌어진다는 거예요


99

00:05:22,121 --> 00:05:24,390

그래서 피해자는 주변 사람 중에


100

00:05:24,457 --> 00:05:27,327

가해자가

더 있을 수 있다는 두려움과


101

00:05:27,393 --> 00:05:30,396

주변 사람들이

허위 영상물을 봤을지도 모른다는


102

00:05:30,463 --> 00:05:32,899

불안을 지속적으로 느끼게 되죠


103

00:05:33,533 --> 00:05:35,535

한 번 퍼진 사진이나 영상은


104

00:05:35,601 --> 00:05:37,770

완벽하게 지우기도 어렵습니다


105

00:05:37,837 --> 00:05:41,441

삭제했다고 해도

이미 누군가 저장했을 수 있고


106

00:05:41,507 --> 00:05:45,712

다른 플랫폼으로 옮겨 다니며

계속 퍼질 수도 있죠


107

00:05:45,778 --> 00:05:48,981

그래서 피해는

한 번으로 끝나지 않습니다


108

00:05:49,048 --> 00:05:52,985

마치 같은 일을

반복해서 겪는 듯한 고통이 이어져요


109

00:05:53,619 --> 00:05:56,889

물론 가해자의 잘못 또한

디지털 세계에서


110

00:05:56,956 --> 00:06:00,226

지워지지 않고

함께 기록으로 남게 됩니다


111

00:06:01,027 --> 00:06:02,395

이런 일이 계속된다면


112

00:06:02,462 --> 00:06:04,831

우리 사회는 어떻게 변하게 될까요?


113

00:06:07,233 --> 00:06:09,936

"나만 아니면 돼"라는

방관이 쌓이면


114

00:06:10,002 --> 00:06:12,572

서로를 지켜 줄 목소리는 줄어들고


115

00:06:12,638 --> 00:06:17,110

언젠가는 나를 지켜 줄 목소리마저

사라질 수 있습니다


116

00:06:17,176 --> 00:06:20,580

그렇다면, 디지털 세상에서도

모두가 안전하기 위해


117

00:06:20,646 --> 00:06:23,282

[밝은 음악]

우리는 무엇을 할 수 있을까요?


118

00:06:23,349 --> 00:06:25,351

생각보다 어렵지 않아요


119

00:06:25,418 --> 00:06:29,222

작은 관심, 작은 멈춤

그게 바로 시작입니다


120

00:06:29,789 --> 00:06:31,624

성적 허위 영상물이라면


121

00:06:31,691 --> 00:06:34,560

그냥 넘기지 말고 꼭 신고하세요


122

00:06:34,627 --> 00:06:36,863

장난이라며 합성하려는 친구에겐


123

00:06:36,929 --> 00:06:39,031

"그건 범죄야"라고 말해 주세요


124

00:06:39,098 --> 00:06:40,666

피해자가 된 친구에게는


125

00:06:40,733 --> 00:06:43,636

"네 잘못이 아니야"라며

곁을 지켜 주세요


126

00:06:44,337 --> 00:06:47,206

그리고

혹시 피해를 겪었다면 기억하세요


127

00:06:47,273 --> 00:06:49,075

여러분은 혼자가 아닙니다


128

00:06:49,776 --> 00:06:51,878

디지털 성범죄 피해를 입었을 경우


129

00:06:51,944 --> 00:06:56,315

중앙 및 지역 디지털성범죄

피해자지원센터(1366)을 통해


130

00:06:56,382 --> 00:06:58,284

피해 접수와 상담이 가능하며


131

00:06:58,351 --> 00:07:00,753

삭제 지원, 유포 현황 모니터링


132

00:07:00,820 --> 00:07:04,290

수사·법률·의료 연계

지원을 받을 수 있습니다


133

00:07:04,357 --> 00:07:06,893

만약 장난이라는 유혹이 다가온다면


134

00:07:06,959 --> 00:07:09,629

여러분은 어떤 선택을 하시겠어요?


정보
콘텐츠 정보

단순한 장난이 범죄가 되는 순간 – 성적 허위영상물(딥페이크 등) 제작 유포 예방

□ 대상: 13-18세 (중고등학생 연령대)


□ 재생 시간: 7분 12초


“어차피 가짜인데... 그냥 웃고 넘기면 되는 거 아니야?”


딥페이크는 얼굴이나 목소리 등을 실제처럼 합성‧조작할 수 있는 기술입니다.

그런데 중요한 건 기술 자체보다 “어디에, 어떻게 쓰이느냐”입니다.


감동과 도움을 주는 방식으로도 쓰일 수 있지만, 누군가를 속이고 해치기 위한

목적이라면 그 순간 폭력이 될 수 있습니다.


요즘 우리 주변에서 특히 문제가 되는 건 ‘딥페이크 성범죄’입니다. 

“재밌어서”, “가짜니까 괜찮아서”, “안 들킬 것 같아서” 같은 말로 포장되기도 하지만,

그 영상은 누군가를 성적으로 대상화하고 조롱하며 위협하는 ‘범죄’로 이어질 수 있습니다.


또 한 번 생각해 볼까요?

영상을 “보기만”해도, “저장만”해도, “공유만”해도 그 피해를 키우는 ‘가담’이 될 수 있습니다.

알고리즘은 비슷한 영상을 계속 추천하고, 무감각해진 마음이 “나도 만들어볼까?”로 

이어지기도 합니다.


본 애니메이션은 ‘장난’이라는 표현 뒤에 가려진 권력 관계, 위계, 성적 대상화의 문제를 살펴보고,

디지털 환경에서의 책임 있는 선택과 행동이 무엇인지 고민하도록 구성하였습니다.


“웃으며 넘기기”와 “멈추고 신고하기” 사이에서, 어떤 선택이 더 안전한 세상을 만들까요?







디클(한국양성평등교육진흥원) 프로필 이미지
디클(한국양성평등교육진흥원)
성범죄 없는 디지털 세상 디클에서 시작! 디클에서 디지털성범죄 관련 콘텐츠를 학습할 수 있어요!
상단으로 올리는 아이콘 챗봇 상단으로 이동