1
00:00:00,033 --> 00:00:02,035
[발랄한 음악]
2
00:00:05,638 --> 00:00:07,640
[잔잔한 음악]
3
00:00:17,851 --> 00:00:20,253
(내레이션)
딥페이크, 생성형 AI 기술로
4
00:00:20,320 --> 00:00:21,821
사람의 얼굴이나 목소리를
5
00:00:21,888 --> 00:00:24,391
진짜처럼 만들어내는 기술이에요
6
00:00:29,329 --> 00:00:33,366
사실, 딥페이크 기술 그 자체로는
문제가 되지 않습니다
7
00:00:34,067 --> 00:00:37,270
결국 '어디에
어떻게 쓰느냐'가 중요하죠
8
00:00:37,337 --> 00:00:40,340
감동과 웃음을 주는 영상에
쓰일 수도 있지만
9
00:00:40,407 --> 00:00:42,876
누군가를 속이거나
해치기 위해 쓴다면
10
00:00:42,942 --> 00:00:45,278
그땐 이야기가 완전히 달라집니다
11
00:00:45,945 --> 00:00:48,448
요즘 이 기술이
잘못된 곳에 쓰이면서
12
00:00:48,515 --> 00:00:51,217
'딥페이크 등
성적 허위 영상물' 범죄가
13
00:00:51,284 --> 00:00:53,920
심각한 사회 문제로 번지고 있어요
14
00:00:54,654 --> 00:00:58,324
지금, 우리 주변에선
어떤 일이 일어나고 있을까요?
15
00:00:58,391 --> 00:01:00,393
[흥미로운 음악]
16
00:01:03,563 --> 00:01:06,766
청소년들은
누구보다 디지털 세상에 익숙하죠
17
00:01:10,336 --> 00:01:12,105
새로운 앱도 금방 배우고
18
00:01:12,172 --> 00:01:14,174
어려운 기술도 척척 다뤄요
19
00:01:15,275 --> 00:01:17,644
어른들이 따라가기 힘들 정도예요
20
00:01:17,710 --> 00:01:19,813
이건 분명 큰 장점이에요
21
00:01:19,879 --> 00:01:23,983
하지만 그만큼 위험한 행동에
쉽게 노출될 수 있어요
22
00:01:24,050 --> 00:01:26,553
특히
'딥페이크' 같은 기술이 그렇죠
23
00:01:27,187 --> 00:01:28,621
실제로 딥페이크 등
24
00:01:28,688 --> 00:01:31,224
성적 허위 영상물 범죄
가해자 중에는
25
00:01:31,291 --> 00:01:33,560
10대의 비율이 가장 많아요
26
00:01:33,626 --> 00:01:34,928
왜 그럴까요?
27
00:01:37,797 --> 00:01:40,300
요즘은
기술의 위험성을 배우기도 전에
28
00:01:40,366 --> 00:01:42,635
너무 쉽게 접하고 익숙해지죠
29
00:01:43,269 --> 00:01:46,406
그래서 딥페이크나
AI로 만든 가짜 영상을
30
00:01:46,473 --> 00:01:49,342
재밌다며
아무렇지 않게 넘기기도 해요
31
00:01:50,710 --> 00:01:53,379
"이 정도는 괜찮겠지" 싶은
마음이 생기고
32
00:01:53,446 --> 00:01:56,616
직접 따라 하거나
퍼뜨리는 일도 쉽게 일어나죠
33
00:01:57,550 --> 00:02:00,286
특히 디지털 기술이
익숙한 청소년일수록
34
00:02:00,353 --> 00:02:03,590
'나도 한번 만들어 볼까?' 하는
마음이 들기 쉬워요
35
00:02:04,557 --> 00:02:06,526
그렇게 시작된 가벼운 행동이
36
00:02:06,593 --> 00:02:08,695
상대를 성적으로 모욕하려는 의도로
37
00:02:08,761 --> 00:02:09,996
이어지기도 합니다
38
00:02:10,964 --> 00:02:13,066
호기심이나 장난으로 했다 해도
39
00:02:13,133 --> 00:02:14,734
그건 타인의 인격과
40
00:02:14,801 --> 00:02:17,537
성적자기결정권을 침해하는 일이고
41
00:02:17,637 --> 00:02:20,540
순식간에 범죄 행위가 돼요
42
00:02:20,607 --> 00:02:22,509
특히 인터넷에 올린 게시물은
43
00:02:22,575 --> 00:02:25,178
생각보다 훨씬 빠르게 퍼집니다
44
00:02:26,312 --> 00:02:28,181
올린 사람은 금방 잊어도
45
00:02:28,248 --> 00:02:31,751
누군가는
그 피해 속에 오래 남게 되죠
46
00:02:31,818 --> 00:02:33,753
실제로 청소년들에게
47
00:02:33,820 --> 00:02:37,724
학교 딥페이크 성적 허위영상물
사건 발생 이유를 물어봤을 때
48
00:02:37,790 --> 00:02:40,160
많은 청소년들이 이렇게 대답했어요
49
00:02:40,226 --> 00:02:42,028
"그냥 장난으로 했어요"
50
00:02:42,095 --> 00:02:44,597
하지만 함께하는 사람이
웃지 못한다면
51
00:02:44,664 --> 00:02:46,900
과연 장난이라고 할 수 있을까요?
52
00:02:48,134 --> 00:02:52,238
만약 여러분이 사진이나 영상 속
피해자가 된다면 어떨까요?
53
00:02:52,305 --> 00:02:54,774
[어두운 음악]
누군가 나에 대해
잘 알지도 못하면서
54
00:02:54,841 --> 00:02:58,111
내 감정, 생각, 꿈 같은 것들을
무시한 채
55
00:02:58,178 --> 00:03:00,380
하나의 특징이나 정해진 역할만으로
56
00:03:00,446 --> 00:03:02,849
나를 판단한다면 어떨 것 같나요?
57
00:03:03,483 --> 00:03:05,919
(학생 부)
"학생이면 본분에 맞게
공부나 할 것이지"
58
00:03:05,985 --> 00:03:08,488
"무슨 연애를 하고 아이돌을 좋아해"
59
00:03:09,222 --> 00:03:13,293
(학생1)
"쟤는 1등급이니까
아무 걱정도 없고 행복하겠지"
60
00:03:13,359 --> 00:03:16,763
- (학생2) "쟤는 00충이야"
- (학생3) "00남, 00녀야"
61
00:03:16,829 --> 00:03:19,699
(내레이션)
이렇게 사람을
전체적인 인격으로 보지 않고
62
00:03:19,766 --> 00:03:22,635
일부 특징이나
역할만으로 판단하거나
63
00:03:22,702 --> 00:03:26,306
도구, 물건처럼 대하는 것을
대상화라고 합니다
[끼익끼익 효과음]
64
00:03:26,372 --> 00:03:30,643
이런 대상화는 결국
타인의 존엄성과 인격권을 침해하는
65
00:03:30,710 --> 00:03:32,745
인권 문제로 이어집니다
66
00:03:33,246 --> 00:03:35,715
[무거운 음악]
같은 의미에서 '성적 대상화'란
67
00:03:35,782 --> 00:03:37,951
그 사람을 오로지 성적인 면이나
68
00:03:38,017 --> 00:03:42,121
쾌락의 도구로만 취급하고
평가하는 행위를 뜻합니다
69
00:03:44,457 --> 00:03:46,659
딥페이크 등 성적 허위 영상물은
70
00:03:46,726 --> 00:03:51,431
사람을 한 인격이 아닌
성적인 대상으로만 바라보는 시선과
71
00:03:51,497 --> 00:03:54,400
익명성에 숨은 무책임이
AI 기술을 만나
72
00:03:54,467 --> 00:03:57,870
더 빠르게 확산된
인권 침해 범죄입니다
73
00:03:59,606 --> 00:04:02,675
그러니까
딥페이크 등 성적 허위 영상물은
74
00:04:02,742 --> 00:04:04,244
결코 장난이 아니라
75
00:04:04,310 --> 00:04:07,847
성차별적인 문화가 낳은
폭력이자 범죄이며
76
00:04:07,914 --> 00:04:10,083
처벌을 피할 수도 없습니다
77
00:04:11,551 --> 00:04:13,786
정말 안 잡힐까요?
78
00:04:13,853 --> 00:04:15,355
우리나라는 이런 행위를
79
00:04:15,421 --> 00:04:18,758
성폭력처벌법 등으로
엄격히 다루고 있습니다
80
00:04:19,359 --> 00:04:20,393
딥페이크를 활용해
81
00:04:20,460 --> 00:04:23,196
[어두운 음악]
성적 허위 영상물을
만들거나 퍼뜨리면
82
00:04:23,263 --> 00:04:25,765
형사처벌을 받을 수 있고
83
00:04:25,832 --> 00:04:29,802
삭제해도 디지털 포렌식으로
대부분 추적 가능합니다
84
00:04:30,470 --> 00:04:31,738
그만큼 우리 사회는
85
00:04:31,804 --> 00:04:34,274
성적 허위 영상물 제작 유포 행위를
86
00:04:34,374 --> 00:04:36,776
심각한 사회 문제로 판단하고 있어요
87
00:04:37,510 --> 00:04:40,413
앞으로 디지털 시대에 걸맞은
인권 의식과
88
00:04:40,480 --> 00:04:43,583
책임 있는 행동이
점점 더 중요해질 것입니다
89
00:04:50,923 --> 00:04:53,259
장난일까요? 괴롭힘일까요?
90
00:04:53,326 --> 00:04:55,461
딥페이크 등 성적 허위 영상물은
91
00:04:55,528 --> 00:04:59,098
상대를 모욕하거나
협박하기 위해 만들어집니다
92
00:04:59,165 --> 00:05:03,136
심지어 이름이나
SNS 계정 같은 개인정보까지
93
00:05:03,202 --> 00:05:05,605
함께 퍼뜨리는 경우가 많아요
94
00:05:06,172 --> 00:05:09,609
그 순간 그 영상은
누군가를 웃기는 ‘짤’이 아니라
95
00:05:09,676 --> 00:05:13,279
피해자를 조종하고
위협하는 무기가 됩니다
96
00:05:13,346 --> 00:05:16,783
더 기가 막힌 건
이런 일이 모르는 사람이 아니라
97
00:05:16,849 --> 00:05:18,618
친구들이나 선후배처럼
98
00:05:18,685 --> 00:05:21,354
가까운 사람에 의해
벌어진다는 거예요
99
00:05:22,121 --> 00:05:24,390
그래서 피해자는 주변 사람 중에
100
00:05:24,457 --> 00:05:27,327
가해자가
더 있을 수 있다는 두려움과
101
00:05:27,393 --> 00:05:30,396
주변 사람들이
허위 영상물을 봤을지도 모른다는
102
00:05:30,463 --> 00:05:32,899
불안을 지속적으로 느끼게 되죠
103
00:05:33,533 --> 00:05:35,535
한 번 퍼진 사진이나 영상은
104
00:05:35,601 --> 00:05:37,770
완벽하게 지우기도 어렵습니다
105
00:05:37,837 --> 00:05:41,441
삭제했다고 해도
이미 누군가 저장했을 수 있고
106
00:05:41,507 --> 00:05:45,712
다른 플랫폼으로 옮겨 다니며
계속 퍼질 수도 있죠
107
00:05:45,778 --> 00:05:48,981
그래서 피해는
한 번으로 끝나지 않습니다
108
00:05:49,048 --> 00:05:52,985
마치 같은 일을
반복해서 겪는 듯한 고통이 이어져요
109
00:05:53,619 --> 00:05:56,889
물론 가해자의 잘못 또한
디지털 세계에서
110
00:05:56,956 --> 00:06:00,226
지워지지 않고
함께 기록으로 남게 됩니다
111
00:06:01,027 --> 00:06:02,395
이런 일이 계속된다면
112
00:06:02,462 --> 00:06:04,831
우리 사회는 어떻게 변하게 될까요?
113
00:06:07,233 --> 00:06:09,936
"나만 아니면 돼"라는
방관이 쌓이면
114
00:06:10,002 --> 00:06:12,572
서로를 지켜 줄 목소리는 줄어들고
115
00:06:12,638 --> 00:06:17,110
언젠가는 나를 지켜 줄 목소리마저
사라질 수 있습니다
116
00:06:17,176 --> 00:06:20,580
그렇다면, 디지털 세상에서도
모두가 안전하기 위해
117
00:06:20,646 --> 00:06:23,282
[밝은 음악]
우리는 무엇을 할 수 있을까요?
118
00:06:23,349 --> 00:06:25,351
생각보다 어렵지 않아요
119
00:06:25,418 --> 00:06:29,222
작은 관심, 작은 멈춤
그게 바로 시작입니다
120
00:06:29,789 --> 00:06:31,624
성적 허위 영상물이라면
121
00:06:31,691 --> 00:06:34,560
그냥 넘기지 말고 꼭 신고하세요
122
00:06:34,627 --> 00:06:36,863
장난이라며 합성하려는 친구에겐
123
00:06:36,929 --> 00:06:39,031
"그건 범죄야"라고 말해 주세요
124
00:06:39,098 --> 00:06:40,666
피해자가 된 친구에게는
125
00:06:40,733 --> 00:06:43,636
"네 잘못이 아니야"라며
곁을 지켜 주세요
126
00:06:44,337 --> 00:06:47,206
그리고
혹시 피해를 겪었다면 기억하세요
127
00:06:47,273 --> 00:06:49,075
여러분은 혼자가 아닙니다
128
00:06:49,776 --> 00:06:51,878
디지털 성범죄 피해를 입었을 경우
129
00:06:51,944 --> 00:06:56,315
중앙 및 지역 디지털성범죄
피해자지원센터(1366)을 통해
130
00:06:56,382 --> 00:06:58,284
피해 접수와 상담이 가능하며
131
00:06:58,351 --> 00:07:00,753
삭제 지원, 유포 현황 모니터링
132
00:07:00,820 --> 00:07:04,290
수사·법률·의료 연계
지원을 받을 수 있습니다
133
00:07:04,357 --> 00:07:06,893
만약 장난이라는 유혹이 다가온다면
134
00:07:06,959 --> 00:07:09,629
여러분은 어떤 선택을 하시겠어요?