블로그

허핑턴포스트 블로거의 분석과 의견이 담긴 생생한 글을 만날 수 있습니다.

이원재 Headshot

'알고리즘'에 누명을 씌우다

게시됨: 업데이트됨:
LAS VEGAS SHOOTING
Steve Marcus / Reuters
인쇄

the

10월1일 밤, 미국 라스베이거스 메인 도로 바로 옆 야외 콘서트장에서 총성이 울려퍼졌다. 처음 폭죽 소리인 줄 알고 태연해하던 청중 4만여 명은 이어지는 자동소총 소리와 쓰러지는 사람들을 보며 패닉 상태가 되어 흩어졌다. 흥겹던 휴일 콘서트장은 금세 생지옥이 됐다. 사망자는 59명, 부상자는 500명이 훌쩍 넘었다. 언론은 이를 두고 역사상 최악의 불특정 다수 민간인 대상 총격사건이라고 보도했다.

그 직후, 사건 현장만큼 뜨거워진 곳이 있다. 인터넷 공간이었다. 경찰이 사건 내용을 파악하고 발표하기 전, 뉴스를 보고 충격받은 네티즌이 구글을 찾아 검색을 시작했다. 누가 총을 쏘았는지가 가장 큰 관심사였다.

총기 난사의 범인은 누구인가

어떤 시점부터 '기어리 댄리'라는 이름이 떠올랐다. 몇몇 우파 정치 사이트에서 총격사건 범인으로 그를 지목하면서였다. 그것을 본 사람들은 다시 그 이름으로 검색하기 시작했다. 몇 시간 동안, '기어리 댄리'라는 이름을 구글에서 검색하면 맨 위에 '4chan'이라는 익명의 필자가 쓴 글이 올라왔다. 이 글은 '기어리 댄리가 총격사건의 범인이며 그는 민주당원'이라는 내용을 담고 있었다.

구글 검색 최상위에 뜨면서 이 이야기는 일파만파로 퍼져갔다. 우파 사이트 필자들은 기어리 댄리가 반트럼프 운동단체와 연관 있다는 글을 쏟아냈다. 버락 오바마 지지 운동 이력도 들춰냈다. 이를 믿은 사람들이 '좌파 운동가가 총기 난사 범행을 저질렀다'는 이야기를 퍼날랐다. 얼마 지나지 않아 기어리 댄리 본인과 가족 사진 등 개인정보가 모두 파헤쳐졌다.

그러나 기어리 댄리는 총격사건과는 무관했다. 경찰 수사 결과, 총격사건의 범인은 스티븐 패덕으로 밝혀졌다. 몇 시간 동안, 기어리 댄리에게는 인터넷 공간이 총격사건 현장만큼이나 공포스러운 생지옥이었을 것이다.

눈길을 끈 것은 이런 상황에 대한 구글의 반응이었다. 구글은 '검색 알고리즘은 글의 새로움과 권위를 함께 평가해 검색 상위 글을 정하는데, 새로움이 지나치게 강조되면서 정치적 편견을 담은 글이 검색 상위에 올랐다'며 '이런 일이 생기지 않도록 알고리즘을 향상시키겠다'는 입장을 밝혔다. 문제는 인정했지만 책임은 '알고리즘'에 떠넘기는 반응이었다.

구글만 알고리즘에 책임을 떠넘기는 것은 아니다. 아마존은 최근 '자주 함께 구매한 물건' 목록에 폭탄 제조 재료가 뜨는 문제를 지적받았을 때, 목록을 작성하는 자동 알고리즘을 보강해보겠다는 답을 내놓았다. 페이스북 역시 광고 타깃으로 '유대인 혐오자'를 설정할 수 있도록 했다는 문제를 지적받자 알고리즘을 수정하겠다는 반응을 보였다. 다들 문제를 지적받자 알고리즘을 손가락질한 것이다.

우리는 알고리즘을 알기 쉽게 '로봇'이라 한다. 로봇이라고 해서 과학영화에서처럼 꼭 사람 모양을 띨 필요는 없다. 특정 알고리즘을 갖춰 기사를 쓰거나 판례를 분석하는 소프트웨어를 로봇이라 이르기도 한다.

사람 대화 엿듣는 스피커

로봇은 빠르게 발전하고 있다. 게다가 인간화하고 있다. 사람만이 할 수 있다고 믿었던 일이 점점 더 로봇에게 넘어가고 있다. 가장 눈에 띄는 것은 얼굴인식 기술과 음성인식 기술의 발달이다. 과거 인간의 고유한 능력으로 여겨지던 '사람의 얼굴을 알아보는 일'과 '사람과 음성으로 대화하는 일'을 로봇도 할 수 있게 됐다.

최근 애플은 신제품 아이폰X를 내놓으며 애플의 전매특허이던 '밀어서 잠금해제' 대신 '얼굴인식으로 잠금해제'를 하도록 만들었다고 발표했다. 3차원 스캔을 활용한 얼굴인식 시스템 '페이스ID'를 탑재한 것이다. 적외선을 쏘아 3만여 개의 점을 표시한 뒤 아이폰 전면 카메라로 읽어 분석한다.

9월1일부터 알리바바 계열 금융사인 앤트파이낸셜은 '스마일 투 페이'를 시작했다. 얼굴만 보여주면 계산이 되는 시스템이다. 닭튀김 체인점인 KPRO에서 시범 실시한다. 몇몇 은행은 이 기술을 현금자동입출금기(ATM)에 도입했다. 이를 통해 얼굴만 보여주면 현금인출기에서 돈을 찾을 수 있다.

음성인식 기술은 '인공지능 스피커'라는 새로운 제품이 속속 나오면서 소비자의 거실로 진입하고 있다. 인공지능 스피커는 사람이 문자 입력 대신 음성으로 명령을 내리면 그에 따라 인터넷에 있는 음악을 들려주거나 정보를 검색해 알려주는 것은 물론, 다른 전자기기와 사물인터넷으로 연결해 리모컨과 같은 기능을 하기도 한다.

2014년 아마존이 첫 인공지능 스피커 '에코'를 출시하며 앞서갔다. 최근에는 구글이 '구글 홈'을 내놓았고, 애플과 마이크로소프트도 자체 인공지능 스피커를 준비 중이다. 한국에서도 SK텔레콤, KT, LG전자가 인공지능 스피커를 내놓은 데 이어, 네이버와 카카오까지 이 흐름에 가세했다. 삼성전자도 인공지능 스피커 개발 계획을 내놓았다.

문제는 그다음이다. 얼굴인식 기술과 음성인식 기술은 나오자마자 프라이버시 문제에 봉착했다. 얼굴인식 기술의 경우, 다른 사람 얼굴을 카메라로 찍기만 하면 그 정보를 다른 곳에서 사용할 수 있는 문제가 생긴다. 손가락을 직접 대야 인식이 가능한 지문인식 기술과는 차원이 다르다.

음성인식 기술도 비슷한 우려를 낳는다. 거실에 놓인 스피커는 사람들의 모든 대화를 듣는다. 이는 법정 증거로 사용될 수 있다. 지난해 12월 미국 아칸소주 경찰은 살인사건 수사를 위해 아마존에 에코의 데이터를 제공하라고 요청했다. 아마존은 처음엔 데이터 제공을 거부하다, 용의자가 동의하자 결국 데이터를 제공했다.

기술 발전의 그림자

이런 데이터가 잘 사용된다면 괜찮지만, 아닌 경우가 문제다. 권위주의 정부나 거대 기업의 권력 유지 또는 이윤 극대화를 목적으로 얼굴인식 기술이 악용될 수 있다. 우리 일상을 감시·지배하는 '빅브러더'가 등장하는 것이다. 애플X의 얼굴인식 기능 발표 뒤 미국 앨 프랭큰 연방 상원의원(상원의회 개인정보위원회 의장)이 애플에 해당 기술의 작동 과정에 대한 구체적 설명을 요청한 이유도 여기 있다.

사실 더 큰 문제는, 로봇이 차별과 편견을 확산할 수도 있다는 점이다. 사람을 정밀하게 구별할 수 있기 때문이다.

차별은 물론 인간 마음속에 있다. 하지만 얼굴인식 기술이 자동화되면 차별이 아무런 죄책감이나 거리낌 없이 무한 복제될 수 있다. 입사 면접이나 대출 심사에서 여성이라서, 유색인종이라서, 출신 학교 때문에, 출신 지역 때문에 차별받을 수 있다. 식당에서도 백화점에서도 차별이 가능하다.

얼굴에서 드러나는 인종, 말투에서 드러나는 지역과 국적은 사람과 직접 대면을 통해 암묵적으로 짐작되는 정보다. 그러나 로봇은 이를 정확히 인식해 분석할 수 있다. 예를 들어 특정 얼굴형과 범죄의 관련성을 알고리즘이 잡아낸다면 특정 인종이나 지역 출신이 차별받게 된다.

실제 미국 스탠퍼드대학 실험에선 얼굴인식 로봇이 81% 확률로 게이를 찾아냈다. 사람에게 같은 작업을 시켰더니 확률은 61%로 떨어졌다. 로봇이 인간 마음속에 있는 차별을 더 정교하고 강력하게 실행하는 능력을 갖추게 된 것이다.

중요한 점은, 이는 사람이 심어둔 알고리즘이 아니라는 사실이다. 로봇이 스스로 데이터를 통해 학습하며 차별을 배워가는 것이다. 최근 프린스턴대학의 컴퓨터과학자 에일린 칼리스칸이 '사이언스'에 발표한 논문에 따르면, 로봇은 인간의 편견이 포함된 데이터를 통해 학습하며 편견과 차별을 강화한다. 이 문제를 어떻게 해결해야 할까?

기어리 댄리 사건에 대한 구글의 논리대로라면, 차별이 일어나는 것은 알고리즘 탓이다. 알고리즘을 변화시키기 위해 개발자가 사후에 노력하면 된다. 사전에 차별을 방지하기는 어렵다. 알고리즘이 스스로 배우고 행한 차별이기 때문이다.

결국 알고리즘의 피해자는 누구에게도 책임을 물을 수 없다. 4차 산업혁명은 책임 없는 가해자가 지배하는 세상을 만들고 만다. 이는 분명한 인류 문명의 후퇴다. 결국 구글이 내놓은 설명은 궤변에 불과하다.

로봇의 차별과 폭력을 사전에 제어하는 시스템이 필요하다. 나는 '기업의 사회적 책임'(CSR)의 틀을 여기에 적용하는 게 합리적이라고 본다. 두 가지 이유에서 그렇다.

책임질 곳이 사라지다

우선 기업 자체가 인공지능 로봇과 비슷한 존재다. 기업은 법인이다. 즉, 사람이 아니면서 사람 같은 독립적 인격을 법적으로 인정받는 조직이다. '이윤'이라는 명확한 목적을 지니고 '효율성 극대화'라는 일종의 알고리즘을 가지고 움직이는 유기체다. 규정으로 이뤄진 시스템 안에서 부서별로 데이터를 수집·분석하고 의사결정을 내리는 곳이다.

기업이 이윤 극대화를 향해 달려가다 다른 사회적 가치를 파괴하지 않도록, 법체계와 국제사회는 '사회적 책임'이라는 제어장치를 부여했다. 기업이 경제적 가치뿐 아니라 환경·노동·인권 같은 사회적 가치를 제도를 통해 체계적으로 추구하도록 제어하면서, 그 알고리즘이 사회 전체의 공익과 충돌하지 않도록 조절하는 장치다. 이를 측정하고 평가하는 시스템도 만들어놓았다.

인공지능 로봇은 어쩌면 기업과 비슷하다. 정해진 목적은 분명히 알 수 있지만 학습과 의사결정 과정을 세밀히 알기는 어렵다. 따라서 목적 자체를 존중하되, 과정을 규율하도록 체계적으로 제어하는 틀을 부여할 필요가 있다.

더 중요하게는, 기업의 사회적 책임 틀을 통해 기어리 댄리 사건 같은 현안을 해결할 수 있다. 알고리즘이 자체 학습을 한다지만, 알고리즘은 특정 프로그래밍의 결과물이다. 사람이 지정한 방식으로 학습한다는 이야기다.

그 방식으로 학습한 결과가 차별이나 가짜뉴스 유포라면, 그 피해의 책임은 알고리즘이 아니라 학습 방식을 지정한 사람에게 있다. 기어리 댄리에게 그 사람은 법인인 구글이고, 유대인에게는 페이스북이고, 폭탄테러 피해자에게는 아마존일 수 있다. 로봇이 차별 등 사회적 가치를 파괴하는 행위를 하지 않도록 처음부터 규율하는 것은, 이 기업들의 사회적 책임이다.

수십 년의 역사를 지닌 기업의 사회적 책임 논의에서 한국은 뒤처져 있었던 게 사실이다. 아니, 국제 규범에 대한 어떤 논의에서도 한국은 주도권을 가진 적이 없다. 그런데 지금 4차 산업혁명 관련 논의에서는 적어도 양적으로 다른 선진국에 뒤지지 않는다. 국제사회에서도 이런 규범에 대한 논의는 아직 초기 단계다.

한국이 나서서 인공지능 로봇을 규율하는 사회적 책임 틀을 연구해 국제사회에 제안해보면 어떨까. 이를 함께 논의하는 국제 거버넌스를 만들어가면 어떨까. 국제 규범을 주도하는 나라가 결국 선진국이다.

새 규범이 필요한 세계

아직 세계 어디서나 인공지능 알고리즘에 대한 반응은 공포와 환호를 롤러코스터처럼 오가는 수준이다. 로봇에게 사회적 책임을 심어, 사람보다 더 책임 있는 로봇을 만드는 데 기여하는 나라가 되어보면 어떨까.

* 이 글은 <한겨레21>에 게재된 글입니다.