본문 바로가기
언택트시대/기사

“백년 뒤 로봇이 인간 지배” 호킹 예언 실현 막으려면

by ∺∺§∺∺ 2018. 12. 14.
728x90
반응형

미국 SF 드라마의 고전 ‘배틀스타 갤럭티카’는 로봇군단 ‘사일런’의 공격에서 살아남은 인간들의 이야기를 다룬다. 오래된 우주선을 타고 ‘사일런’의 추격을 피해 원시 행성에 정착한 주인공들은 원주민과 동화돼 새로운 삶을 살아간다. [사진 SyFy 채널]

SF 미드의 명작 ‘배틀스타 갤럭티카’는 태양계로부터 수십억 광년 떨어진 ‘12 콜로니(colony)’의 이야기입니다. 이는 인간이 살고 있는 12개의 행성 집단을 말하죠. 이곳에서 인류는 뛰어난 과학기술이 바탕이 된 문명적 이기(利器)를 누리며 풍요롭게 살고 있습니다. 힘들고 어려운 일은 모두 인공지능(AI) 로봇 ‘사일런(cylon)’의 몫이고요. 

하지만 과학기술의 발달로 자의식까지 갖게 된 사일런은 인간의 통제를 벗어나 전쟁을 일으킵니다. 콜로니는 모두 사일런의 지배 아래에 놓이고, 마지막 탐사 임무를 마치고 복귀하던 ‘배틀스타 갤럭티카’ 함대만 가까스로 탈출에 성공합니다. 사일런의 추격을 피해 처절하게 생존을 이어나가는 인류의 이야기가 이 작품의 주된 스토리입니다. 

나중에 드라마는 이들이 한 원시 행성에 도착하는 것으로 끝납니다. 이곳엔 제대로 된 언어조차 갖지 못한 원주민들이 살고 있었죠. ‘배틀스타 갤럭티카’의 대원들은 다시는 비극의 역사가 반복되지 않도록 자신들의 높은 과학기술을 스스로 폐관(閉關)합니다. 그 대신 원주민과 동화해 자연의 섭리대로 살아가죠. 

그리고 다시 15만년의 시간이 흐릅니다. 그 사이 인류와 융화된 원주민의 문명은 매우 높은 수준으로 발전하고, 이들 역시 과거 사일런과 같은 AI를 만들어 냅니다. 이것이 바로 현재 지구의 모습이죠. 드라마는 사일런을 피해 도망 왔던 인간이 또 다시 그와 비슷한 AI를 만들려 한다는 ‘아이러니’한 상황을 여운으로 남긴 채 끝맺습니다. 

SF 중엔 유독 로봇이 인간을 지배하는 디스토피아를 그린 작품이 많습니다. AI가 만든 가상현실에 갇혀 주체적 삶을 살지 못하는 ‘매트릭스’나 슈퍼컴퓨터 스카이넷의 로봇군단이 인간을 지배하는 ‘터미네이터’ 모두 핍박받는 인간을 그렸습니다. 이들 작품의 대부분은 인류를 위해 개발된 로봇이 어느 날 전쟁을 일으켜 인간을 정복한다는 이야기입니다. 

실제로 생전의 스티븐 호킹 박사는 “100년 안에 로봇이 인간을 지배할 것”이라고 말했습니다. 그는 2015년 ‘2015 자이트가이스트(Zeistgeist·시대정신) 런던 컨퍼런스’에서 “AI의 창조는 인류 역사의 가장 큰 일이지만 불행히도 인간의 마지막이 될 것”라고 경고했죠. 

인간에 내재된 파괴의 본능 

로봇 ‘사일런’의 진화 과정. 과학기술이 발전하면서 지능은 물론 겉모습까지 사람과 똑같아진다.

이처럼 로봇이 인간을 정복하는 이야기가 많은 것은 어쩌면 지금까지 우리의 역사가 폭력과 전쟁으로 얼룩져 있기 때문 아닐까요. 3만 5000년 전 유럽 대륙에서 사피엔스가 네안데르탈인을 멸종시킨 것처럼 말이죠. 불과 한 세기 전의 세계대전을 비롯해 지금도 끊이지 않는 내전과 테러처럼 인간에겐 파괴의 본능이 내재돼 있다는 겁니다. 

『총, 균, 쇠』의 저자로 유명한 제러드 다이아몬드는 전작 『제3의 침팬지』에서 “사람과 침팬지의 DNA가 98.4%는 같고, 1.6%만 다르다”고 말합니다. 그렇기 때문에 인간은 700만 년 전 침팬지에서 갈라져 나왔지만 여전히 동물의 파괴적 본성을 그대로 유지하고 있죠. 문제는 이런 폭력성이 인간이 만든 AI에도 그대로 녹아있다는 겁니다. 

AI의 본질은 알고리즘입니다. 알고리즘은 문제해결의 상황에서 가장 효율적인 경로로 해법을 제시합니다. 페이스북이 자신의 취향에 맞는 글을 추천하고, 넷플릭스가 감쪽같이 내가 좋아하는 영화들만 골라 리스트를 보여주는 것도 같은 이치죠. 하지만 여기엔 큰 맹점이 있습니다. 사용자들의 기존 패턴을 좇아 콘텐트를 추천하기 때문에 평소 자신이 가진 생각과 취향만 더욱 강화되는 것이죠. 이를 ‘확증편향’이라고 부릅니다. 

김중백 경희대 사회학과 교수는 “확증편향은 장기적으로 개인의 주관과 인식을 왜곡시켜 보편적인 것에서 멀어지게 만든다”며 “나중엔 자기 것만 옳다고 여겨 ‘다른’ 것을 ‘틀린’ 것으로 간주하게 된다”고 지적합니다. 

조슈아 그린 하버드대 교수는 『옳고 그름』에서 인간이 벌이는 전쟁의 원인이 자기 확신에 있다고 설명합니다. ‘그들’과 다른 ‘우리’가 강조되고, 우리의 도덕적 가치와 철학을 확신할수록 ‘그들’을 억압하게 된다는 것이죠. 이렇게 상대를 억압하고 통제하려 들 때 인간의 폭력성은 극대화 됩니다. 즉, 모든 갈등과 전쟁의 원인은 ‘옳고 그름’에 대한 지나친 자기 확신 때문이라는 이야기죠. 

인간의 폭력성을 학습하는 AI 

인간의 모든 생활양식이 담긴 빅데이터와 이를 통해 인간에게 최적화된 알고리즘을 제시하는 AI 역시 ‘확증편향’을 가질 수밖에 없습니다. 2017년 영국 바스대 조안나 브리슨 박사는 ‘사이언스’지에 AI가 인간의 편견을 그대로 학습한다는 연구 결과를 발표했습니다. 예를 들어 여자의 직업은 ‘가정주부’와 연결시키고 남자는 ‘공학’ 관련 직종을 연상한다는 것이죠. 

브리슨 박사는 “AI는 그 자체로 도덕적 판단 능력을 갖고 있지 않기 때문에 인간의 편견을 그대로 배운다”고 설명합니다. 실제로 2016년 마이크로소프트(MS)의 AI 채팅봇 ‘테이’는 “유대인이 싫다”거나 “미국과 멕시코 간 국경에 차단벽을 설치해야 한다”는 발언을 했다가 논란이 됐죠. 

어쩌면 먼 미래엔 SF영화처럼 AI가 정말 인간을 ‘적’으로 간주하고 전쟁을 일으킬지도 모릅니다. 과거 우리의 조상들이 네안데르탈인에게, 지금 우리가 다른 동물과 심지어 같은 동족에게까지 무자비한 폭력을 벌이는 것처럼 말이죠. 

그럼 우리는 어떻게 해야 이런 디스토피아를 막을 수 있을까요? 그 답은 침팬지와는 다른 1.6%의 가능성에 있습니다. 조그만 유전적 차이가 인류의 높은 문명을 만든 것처럼 인간의 동물적 본능을 통제할 수 있는 도덕적 판단력과 합리적 이성이 더욱 강해져야 한다는 겁니다.(제러드 다이아몬드) 인간 스스로 더욱 높은 시민의 교양과 지혜를 갖춰야만, 인간을 보고 따라 배우는 AI 역시 파괴적이지 않을 수 있다는 이야기죠. 

그 시작은 다른 것을 틀린 것으로 간주하고 본인 생각만 옳다고 강조하는 지나친 ‘자기 확신’부터 버리는 일입니다. 자신과 다른 의견을 마치 ‘적’을 대하듯 하고, 내 생각과 다르면 모두 ‘거짓’으로 모는 행태는 타인을 괴롭게 할 뿐만 아니라 자신의 영혼까지 갉아먹습니다. 이런 것들이 빅데이터로 모여 AI의 학습 재료가 되면, 앞서 이야기했던 알고리즘의 원리에 따라 AI는 한쪽에 치우친 생각만을 강조하는 ‘괴물’이 될 수 있습니다. 

20세기의 대석학 움베르트 에코는 『장미의 이름』에서 “진리를 위해 죽을 수 있는 자를 경계하라”고 했습니다. 자신의 신념만 옳다고 믿는 독선이 ‘악’보다 더욱 위험하다는 이야기죠. 독선은 선을 가장해(위선) 다가오기 때문에 더욱 평화롭고 따뜻하게 느껴지지만 자기도 모르는 사이에 사람들을 악으로 물들이기 때문입니다. 

윤석만 기자 sam@joongang.co.kr 

원문출처
728x90
반응형

댓글