본문으로 바로가기

[출근길 인터뷰] 인공지능 챗봇 '이루다' 서비스 중단…AI 윤리 논란

뉴스피드출근길 인터뷰

[출근길 인터뷰] 인공지능 챗봇 '이루다' 서비스 중단…AI 윤리 논란

2021-01-19 09:44:40

[출근길 인터뷰] 인공지능 챗봇 '이루다' 서비스 중단…AI 윤리 논란

[앵커]

혐오 발언과 개인정보 유출 등의 논란에 휩싸인 인공지능 챗봇 '이루다'가 결국 서비스를 잠정 중단했죠.

'이루다' 논란을 계기로 인공지능 개발 윤리에 대한 논의가 필요하단 목소리도 힘을 얻고 있습니다.

<박진형의 출근길 인터뷰> 오늘은 김승주 고려대 정보보호대학원 교수를 만나 관련 이야기 나눠본다고 합니다.

현장에 나가 있는 박진형 기자 나와주시죠.

[기자]

인공지능 챗봇 '이루다'가 출시 2주 만에 약 75만 명에 달하는 이용자를 모으며 인기를 끌었는데, 먼저 인기의 배경은 어디에 있다고 볼 수 있을까요?

[김승주 / 고려대 정보보호대학원 교수]

세 가지 정도를 꼽을 수 있겠는데요. 일단은 잘 만든 겁니다. 그래서 인공지능이지만 사람과 대화하는 것처럼 잘 만든 거고요. 두 번째는 우리가 코로나19로 인해서 사람들을 못 만나지 않습니까? 그런 상황에서 누군가 대화하고 싶은 그런 감성을 자극한 게 두 번째고요. 마지막으로 세 번째는 우리가 페이스북 같은 어떤 SNS, 유명 SNS와 연동시킴으로써 사용자들이 접근하게 편리하게 만들었다는 그런 세 가지 장점을 꼽을 수 있겠습니다.

[기자]

높은 인기만큼 많은 논란도 남기며 이루다의 서비스가 종료되었는데, '이루다'가 남긴 것이 있다면 뭐가 있을까요?

[김승주 / 고려대 정보보호대학원 교수]

일단 이번 문제로 우리가 꼽을 수 있는 건 두 가지가 있습니다.

첫 번째는 편향성 문제입니다. 인공지능 챗봇이라고 하는 것은 사람들과 인공지능이 나눈 대화를 계속 수집해서 그것을 또 학습의 재료로 삼습니다. 그런데 이 과정에서 인공지능 챗봇을 이용하는 사람들이 어떤 비속어를 계속 입력한다든가 아니면 좀 성적 차별성을 불러일으키는 단어를 계속 입력한다라면 인공지능은 또 그렇게 학습을 하는 겁니다. 그러다 보니까 인종차별적인 발언을 한다든가 아니면 성적 소수자를 업신 여기는 그런 걸 한다든가 이런 인공지능의 편향된 학습 논란이 하나 있을 수 있겠고요.

두 번째는 인공지능 챗봇을 만들면서 사용하는 데이터에 개인정보가 포함돼 있다라는 그 두 가지 논란을 꼽을 수 있겠습니다.

[기자]

스스로 학습하는 인공지능의 특성상 단순한 금기어 숫자 늘리기만으로는 근본 처방이 될 수 없을 것 같은데 앞으로 어떤 대책이 필요하다고 보십니까?

[김승주 / 고려대 정보보호대학원 교수]

우리가 보통 필터링이라고 하는 거죠. 사용자가 입력했을 때 이상한 단어가 나오면 모두 다 걸러버리는 겁니다. 그런데 이런 것 가지고는 사실은 이런 문제를 막을 수가 없고요. 왜냐하면 사용자들이 이런 걸 연구해서 이 필터링 규칙을 또 피해 가는 기법들을 연구를 하거든요. 그래서 외국에서는 인공지능이 이런 어떤 편향된 학습에서 견딜 수 있도록 하는 보완장치에 대한 연구를 굉장히 활발하게 진행하고 있습니다.

[기자]

또 다른 부분은 개인정보 유출 부분입니다. 개인정보를 통해서 딥러닝을 할 수밖에 없을 수도 있는데 이 부분 어떻게 해결해야 합니까?

[김승주 / 고려대 정보보호대학원 교수]

지금 이루다 같은 경우에는 카카오톡의 대화 내용을 학습데이터로 썼다. 그런데 그 데이터에 개인정보가 포함돼 있고 그리고 사용자들한테 충분한 고지를 하지 않았다, 이 두 가지고 핵심사항입니다. 물론 회사 측에서는 그걸 부인하고 있고요. 아마 앞으로 관계부처의 어떤 조사가 진행될 것 같은데요.

이번 기회에 인공지능이 학습이 되게 중요하지만 이 학습 데이터에 있어서 개인정보를 지키기 위한 구체적인 가이드라인이 정부로부터 제시돼야 될 것으로 보여집니다.

[기자]

지금까지 박진형의 출근길 인터뷰였습니다.
    
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

(끝)



이 시각 뉴스




위로가기