WEBVTT

0
00:00:00.670 --> 00:00:02.670
최근에 뒤 베이크가 논란이 되면서

1
00:00:02.680 --> 00:00:05.269
피해의 예방에도 관심이 모아지고 있습니다.

2
00:00:05.510 --> 00:00:08.350
자 자기 얼굴이 나온 프로필 사진을 삭제하는 등

3
00:00:08.579 --> 00:00:10.750
개인의 노력도 있지만 역시

4
00:00:10.899 --> 00:00:12.229
이걸로 역부족입니다.

5
00:00:12.520 --> 00:00:15.819
보다 근본적으로 기술 개발이 필요한데요.

6
00:00:15.880 --> 00:00:18.649
이런 노력을 기울이는 기업들을 만나봤습니다.

7
00:00:18.719 --> 00:00:19.799
최욱 기자입니다.

8
00:00:22.969 --> 00:00:25.680
버락 오바마 전 미국 대통령과 미국의 한

9
00:00:25.690 --> 00:00:28.260
유명 영화 배우 겸 코미디언 의 영상입니다.

10
00:00:28.860 --> 00:00:32.029
한 IT 보안 인증 플랫폼 기업이 자체 개발한

11
00:00:32.040 --> 00:00:36.310
기술로 눈이나 입 등 움직임과 색감의 변화를 분석해 보니

12
00:00:36.680 --> 00:00:38.950
오바마 전 대통령 영상이 디페이크.

13
00:00:38.959 --> 00:00:41.599
의 확률은 구십 퍼센트를 훌쩍 넘습니다.

14
00:00:42.290 --> 00:00:43.990
반면 나머지 영상이 진짜일

15
00:00:44.000 --> 00:00:46.049
확률은 구십 퍼센트를 넘습니다.

16
00:00:46.669 --> 00:00:49.400
실제로 오바마 전 대통령 영상은 가짜,

17
00:00:49.409 --> 00:00:50.970
다른 영상은 진짜입니다.

18
00:00:51.700 --> 00:00:54.240
이 기술을 이용하면 개인이나 공공기관

19
00:00:54.250 --> 00:00:56.659
등이 디페이크 피해를 입증할 수 있고

20
00:00:56.860 --> 00:00:59.009
더 심각한 피해를 보는 것도 어느

21
00:00:59.020 --> 00:01:00.770
정도 예방할 수 있어 보입니다.

22
00:01:01.590 --> 00:01:03.450
이 모양을 좀 자세히 봐봐 또는 어,

23
00:01:03.459 --> 00:01:05.660
특정 색깔을 좀 더 자세히 보는 게 좋겠어.

24
00:01:05.769 --> 00:01:07.940
요렇게 이제 계속 명령을 내려주는 겁니다.

25
00:01:07.949 --> 00:01:09.260
여러 개의 아이 모델을

26
00:01:09.459 --> 00:01:12.180
같이 사용해서 거기에는 종합 점수를 통해서

27
00:01:12.309 --> 00:01:14.180
결과를 알려주는 형태로 되어 있습니다.

28
00:01:14.809 --> 00:01:18.540
앞으로 생성 형 AI 기술이 발전하면 기존 머신 러닝 으로

29
00:01:18.550 --> 00:01:21.500
만든 것보다 훨씬 현실적이고 정교한

30
00:01:21.510 --> 00:01:24.059
디페이크 도 가능할 것으로 전망 되는데

31
00:01:24.319 --> 00:01:25.900
이때 발생할 수 있는 피해를

32
00:01:25.910 --> 00:01:28.089
예방하기 위한 연구도 진행 중입니다.

33
00:01:28.730 --> 00:01:32.870
이미지의 노이즈를 생성을 시켜서

34
00:01:33.300 --> 00:01:33.410
어

35
00:01:33.650 --> 00:01:37.059
디 페이크 를 생성하는 엔진 들이

36
00:01:37.540 --> 00:01:37.660
아,

37
00:01:38.069 --> 00:01:41.199
이걸 학습을 해도 어 제대로 그

38
00:01:41.209 --> 00:01:43.480
페이크 된 이미지가 나오지 않도록 하는

39
00:01:43.819 --> 00:01:46.730
그런 기술들을 연구를 하고 있고요.

40
00:01:46.739 --> 00:01:50.300
실제로 이게 그 사람이냐 를 먼저 판별하는

41
00:01:50.569 --> 00:01:53.379
그런 쪽의 연구도 같이 진행을 하고 있습니다.

42
00:01:53.949 --> 00:01:56.660
다만 개인 정보를 보호해야 한다는 측면과

43
00:01:56.879 --> 00:01:58.839
더불어 비용 부담이 크다는 점은

44
00:01:59.110 --> 00:01:59.919
디페이크 방지,

45
00:01:59.930 --> 00:02:01.489
기술 개발을 위한 데이터 수

46
00:02:01.500 --> 00:02:03.410
집에서 넘어야 할 난제 입니다.

47
00:02:04.110 --> 00:02:05.029
연합 뉴스 TV

48
00:02:05.410 --> 00:02:05.650
최자

49
00:02:05.790 --> 00:02:06.120
니다