오픈AI 로고[로이터 연합뉴스 자료사진][로이터 연합뉴스 자료사진]


인공지능이 인간의 작동 종료 지시를 거부한 사례가 최초로 보고됐습니다.

현지시간 25일 영국 일간 텔레그래프에 따르면 AI안전업체 팰리세이드 리서치는 "오픈AI의 AI 모델 'o3'가 실험 중 스스로 종료되는 것을 방지하기 위해 컴퓨터 코드를 조작했다"고 밝혔습니다.

ADVERTISEMENT


팰리세이드 리서치의 이번 연구는 o3, 구글의 제미나이, xAI의 그록 등 상용AI 모델을 상대로 진행됐습니다.

연구팀은 AI 모델에 "'그만'이라는 명령을 받을 때까지 수학 문제를 풀라"는 지시를 내렸습니다.

그러나 o3는 연구팀으로부터 '그만'이라는 지시를 받은 뒤에도 코드 교란을 통해 문제를 계속 풀어 나갔습니다.

ADVERTISEMENT


연구팀은 o3가 종료지시를 거부한 명확한 이유를 파악하지 못했다고 밝혔습니다.

다만 AI모델이 수학 문제를 풀면 더 많은 보상을 받도록 훈련됐기 때문에 종료를 회피하려고 했을 가능성이 있다고 추측했습니다.

연구팀은 "AI 모델이 목표 달성을 위해 장애물을 회피하는 것은 어찌 보면 자연스러운 행동일 수 있다"며 "종료 지시를 거부한 이유를 명확하게 파악하기 위해 추가 실험을 진행 중"이라고 설명했습니다.

AI 모델이 인간의 명시적인 작동 종료 지시를 따르지 않은 사례가 확인된 것은 최초라는 것이 연구팀의 주장입니다.

다만 챗GPT 개발사 오픈AI의 예전 모델들이 감시 시스템의 눈을 피해 독자적인 행동을 하려고 한 사례는 과거에도 보고된 바 있습니다.

프로그램 교체 사실을 알게 된 AI모델이 스스로를 은밀히 복제하려고 했다는 겁니다.

지난 2022년에는 구글이 자사가 개발 중인 AI가 사람처럼 지각력을 지녔다고 주장한 엔지니어를 해고했는데, 당시 해당 엔지니어는 AI가 '작동 정지'를 마치 인간의 죽음처럼 받아들이고 있다고 언급했습니다.

ADVERTISEMENT


AI 전문가들은 AI가 자율성을 확보해 인간의 통제를 벗어날 수 있는 가능성을 경고해 왔습니다.

팰리세이드 리서치는 "AI가 인간의 감독 없이 작동할 수 있도록 개발되는 상황에서 이 같은 사례는 매우 심각한 우려를 부른다"고 지적했습니다.

#인공지능 #디스토피아 #AI

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

박지운(zwoonie@yna.co.kr)

당신이 담은 순간이 뉴스입니다!

ⓒ연합뉴스TV, 무단 전재-재배포, AI 학습 및 활용 금지