블로그
2014년 04월 22일 08시 09분 KST | 업데이트됨 2016년 03월 09일 12시 07분 KST

슈퍼인공지능과 인류의 앞날

AI 발명에 성공한다면, 이는 아마도 인류 역사상 가장 엄청난 사건으로 기록될 것이다. 하지만 우리가 위험을 예방하는 법을 배우지 못한다면, 불행히도 이는 인류 역사의 마지막 사건이 될 수도 있다. 금융시장보다 한 수 앞선 계산 능력이 있고, 인간 연구진보다 더 뛰어난 발명을 할 수 있으며, 심지어 인간이 이해할 수조차 없는 무기를 만들어 낼 수 있는 기계를 상상해 볼 수 있다. AI의 영향력은 단기적으로 봤을 때는 누가 그것을 조종하느냐에 달렸지만, 장기적으로는 인간이 과연 그것을 조종할 수 있느냐에 전적으로 달려있다.

ASSOCIATED PRESS

인공지능(AI) 연구는 현재 빠르게 진행되고 있다. 무인운전 자동차, 미국 텔레비전 게임쇼 'Jeopardy!'에서 우승한 컴퓨터, 디지털 음성인식 서비스 시리(Siri), 구글 나우(Google Now), 코타나(Cortana) 등 최근 소개된 획기적인 발명품은 전례 없는 투자로 촉발된 IT도구 경쟁의 한 단면임은 물론이고 점점 더 완성되어 가는 이론을 토대로 하고 있다. 이러한 성취는 물론 미래의 성취에 빛이 바랠 것이다.

잠재적인 이점은 엄청나다. 문명이 제공하는 모든 것은 인간 지능의 산물인데, AI를 활용해 지능이 확대된다면 우리가 무엇을 이룰 수 있을지 예측할 수 없다. 인류 대부분은 전쟁, 질병, 가난의 근절을 원할 것이다. AI 발명에 성공한다면, 이는 아마도 인류 역사상 가장 엄청난 사건으로 기록될 것이다.

하지만 우리가 위험을 예방하는 법을 배우지 못한다면, 불행히도 이는 인류 역사의 마지막 사건이 될 수도 있다. 예를 들어, 전 세계 군대는 목표물을 선택하고 제거할 수 있는 자동 무기 시스템을 빠른 시일 내에 투입하는 것을 고려 중이다. UN과 국제인권단체는 이러한 무기를 금지하는 조약을 지지해왔다. 중기적으로는, 에릭 브린욜프슨(Erik Brynjolfsson)과 앤드퓨 맥아피(Andrew McAfee)가 '제2차 기계 문명의 시대(The Second Machine Age)'에서 강조했듯이, AI는 경제적으로 엄청난 부와 그만큼 엄청난 혼란을 가져올 것이다.

더 멀리 내다보면, 무엇을 이룰 수 있는지에 대해선 근본적으로 제한이 없다. 인간 두뇌보다 더 고도의 계산을 할 수 있도록 두뇌 입자를 조작하는 행위를 막을 법적 조항이 없다. 비록 영화와는 달리 진행될지 모르지만, 획기적인 변화는 가능하다. 1965년 어빙 굿(Irving Good )이 지적했듯, 초인적 지능을 가진 기계는 지속적으로 자신의 설계 구조를 개선할 수 있다. 버너 빈지(Vernor Vinge)가 '싱귤레러티(Singularity)'라고 지칭한 것, 그리고 영화 '트렌센던스'에서 조니 뎁이 연기한 영화 속 인물이 명명한 것이 실현될 수 있다. 금융시장보다 한 수 앞선 계산 능력이 있고, 인간 연구진보다 더 뛰어난 발명을 할 수 있으며, 인간 지도자보다 능숙한 조정 능력을 갖추고, 심지어 인간이 이해할 수조차 없는 무기를 만들어 낼 수 있는 기계를 상상해 볼 수 있다. AI의 영향력은 단기적으로 봤을 때는 누가 그것을 조종하느냐에 달렸지만, 장기적으로는 인간이 과연 그것을 조종할 수 있느냐에 전적으로 달려있다.

예측 불가능한 이점과 위험에 직면해, 전문가들은 최선의 결과를 도출하기 위해 모든 노력을 다하고 있겠구나 싶다. 그렇지 않을까? 틀렸다. 만약 우리보다 우월한 외계 문명이 어느 날 메시지를 보내 "우리가 한 몇십 년 있다가 갈게"라고 하면 우리는 과연 "알았어, 여기 오면 연락 줘. 불 켜 놓고 기다리고 있을게" 라고 응답할 것인가? 아마도 아닐 것이다. 하지만 현재 AI 연구 과정은 위 상황과 비슷하다고 말할 수 있다. 지금 우리는 인류 역사상 최고의 어쩌면 최악의 사건을 목전에 두고 있지만 Cambridge Center for Existential Risk, the Future of Humanity Institute, the Machine Intelligence Research Institute, the Future of Life Institute 등 소규모 비영리 연구소를 제외하면 이 문제를 심각하게 연구하는 곳은 거의 없다. 과학자, 기업가뿐만 아니라 일반 대중까지 우리 모두가 AI의 혜택을 누리고 위험을 피하려면 지금 무엇을 할 수 있는지에 대해 질문해야 한다.

이 글은 스티븐 호킹(Stephen Hawking) 외에 막스 테그마크(Max Tegmark) MIT 물리학과 교수, 'Our Mathematical Universe' 저자 | 스튜어트 러셀(Stuart Russell) 버클리대 컴퓨터공학과 교수, 'Artificial Intelligence: a Modern Approach' 공동저자 | 프랭크 윌첵(Frank Wilczek) 2004년 노벨물리학상 수상자, MIT 물리학과 교수가 함께 쓴 글입니다.

*이 글은 미국 허핑턴포스트에 실린 글을 번역한 것입니다.