블로그
2016년 04월 11일 10시 59분 KST | 업데이트됨 2017년 04월 12일 14시 12분 KST

인공지능 테이의 경고

트위터

1966년 미국 매사추세츠공대의 컴퓨터공학 교수 요제프 바이첸바움은 컴퓨터 심리상담 프로그램인 '일라이자'를 개발했다. 칼 로저스의 인간중심 상담이론에 기반해 상담자에게 긍정적 피드백을 제공하는 방식이다. 50년 전에 아이폰의 '시리'나 영화 <그녀>의 사만다와 유사한 형태가 텍스트 기반으로 시도된 것이다.

바이첸바움은 일라이자에 너무 많은 사람이 쉽게 빠져들어 진지한 관계를 맺는 것에 충격을 받고 기계가 인간을 기만하는 상황에 대해 고민했다. 인공지능 개척자인 그는 이를 계기로 정보기술에 대한 강한 비판자로 돌아선다. 같은 대학의 사회심리학자 셰리 터클은 일라이자에 대한 사람들의 반응을 관찰하면서, 기계의 기만이 아니라 사람이 문제라고 인식한다. 터클이 펴낸 <외로워지는 사람들>의 부제는 "왜 우리는 사람에게 덜 기대하고 기계에 더 많은 것을 기대하는가"이다.

구글 알파고로 가열된 인공지능 경쟁에 마이크로소프트(MS)도 존재감 과시를 위해 지난달 채팅로봇 테이를 선보였다. 테이가 트위터에 인종 차별, 히틀러 찬양 같은 댓글을 달자, 엠에스는 출시 16시간 만에 부랴부랴 사과하고 테이를 회수했다. 많은 사람이 인공지능에 증오감을 학습시킨 행태를 비난했다. 하지만 테이가 알려주는 바는 따로 있다.

기업 자신도 구조와 영향력을 알지 못하고 그래서 통제할 수 없는 서비스를 출시한다는 점이다. 새로운 도구가 나타나면 다양한 용도로 활용되기 마련이다. 식칼을 왜 다른 용도에 썼느냐고 탓하기보다 치명적 도구를 제어장치 없이 유통하는 구조를 돌아봐야 한다. 설계자도 통제하지 못하는 인공지능을 '일단 출시'하고 보는 세상이다. 이걸 단순 해프닝으로 여기는 게 진짜 두렵다.

* 이 글은 <한겨레>에 게재된 글입니다.