뉴스
2015년 02월 26일 07시 37분 KST | 업데이트됨 2015년 02월 26일 07시 38분 KST

스스로 컴퓨터게임 배우는 인공지능 게이머 개발

체스 세계챔피언을 이긴 '딥블루'와 미국 퀴즈쇼 '제퍼디' 우승자들을 누른 '왓슨'에 이어 학습을 통해 프로 수준의 컴퓨터게임 능력을 터득하는 인공지능 게이머가 개발됐다.

구글 자회사인 영국 구글 딥마인드(Google DeepMind) 연구진은 26일 과학저널 '네이처'에서 인공지능 강화학습과 생물학적 신경망 학습 방식을 결합해 최소한의 정보만으로 49가지 비디오게임의 기술을 학습하는 인공지능 장치 'DQN(deep Q-network)'을 개발했다고 밝혔다.

연구진은 DQN에 주변 환경과 상호작용하면서 향후 보상이 극대화되는 행동을 선택해나가는 인공지능의 강화학습 방식과 생물 신경망을 모방한 인공 신경망의 'Q-학습' 방식을 결합시켰다.

구글딥마인드(Google Deepmind)'가 개발한 인공지능 게이머 'DQN'을 비디오게임을 배경으로 묘사한 그림

실제 세계처럼 많은 변수가 얽힌 복잡한 상황에서는 최적의 행동을 선택하는 데 한계가 있는 일반적인 강화학습 방식을 보완하기 위해 주어진 상황에서 취할 수 있는 행동에 가중치를 부여해 최적의 시나리오를 찾아나가는 Q-학습 방식을 접목한 것이다.

데미스 하사비스 박사가 이끄는 연구진은 DQN의 학습능력을 비디오게임업체 '아타리'(Atari 2600)의 비디오게임 49가지를 사용해 검증했다. 실험에 사용된 49가지 게임에는 국내에서도 유명한 '스페이스 인베이더'와 '벽돌깨기(Breakout)' 등이 포함됐다.

연구진은 DQN에 각 비디오게임의 화면 픽셀과 점수 정보만을 제공하고 스스로 학습을 통해 높은 점수를 얻을 수 있는 게임전략을 찾아나가도록 했다.

그 결과 DQN은 각 게임을 일정 횟수 이상 연습한 다음에는 49가지 게임 중 29가지에서 게임 테스팅 전문가를 능가하는 수준의 기술을 터득한 것으로 나타났다.

DQN은 29개 게임에서 게임테스팅 전문가들의 평균 점수의 75%가 넘는 점수를 획득했고, '비디오 핀볼' 게임에서는 점수가 사람보다 2천539% 높았으며 '복싱'과 '벽돌깨기'에서는 각각 1천707%와 1천327% 높았다.

DQN은 또 43가지 게임에서 지금까지 강화학습 방식을 적용해 개발된 최고 수준의 인공지능 장비들을 능가하는 성능을 보였다.

DQN은 특정 환경과 목적을 지정해준 상태에서 새로운 것을 학습하도록 개발된 기존 인공지능 시스템들과 달리 하나의 학습 알고리즘을 가지고 배경지식 또는 사전 정보 없이 최소한의 정보만을 이용해 다양한 학습을 한다는 점에서 획기적인 성과로 평가된다.

네이처지는 "이 연구 결과는 최신 기계학습 기술을 생물학적 학습 메커니즘과 접목하면 다양하고 어려운 과제를 학습할 수 있는 인공지능을 개발할 수 있다는 것을 잘 보여준다"고 평가했다.

PRESENTED BY 호가든