상단영역

본문영역

당신의 아이폰이 성차별을 강화시킨다면?

AI 음성 프로그램은 여성 목소리로 들리고, 이름도 여성적이다.

  • 김도훈
  • 입력 2018.05.21 13:47
  • 수정 2019.01.18 10:26
ⓒTOM MCCARTEN

아이폰을 켜고 “시리, 넌 나쁜 년이야.”라고 말하면 시리는 아마 “그런 말을 할 필요는 없어요.”라고 답할 것이다. 여성 성기를 가리키는 저속한 말을 쓰면 시리는 고상하게 답한다. “말조심하세요!” 하지만 뒤이어 약속을 잡아달라거나 문자를 보내달라고 말하면 언제 나쁜 말을 들었냐는듯 기꺼이 도와준다.

널리 사용되는 A.I. 앱들(애플의 시리, 아마존의 알렉사, 마이크로소프트의 코타나 등)이 사용자들의 언어 학대를 잔뜩 받아왔다는 증거가 풍부하다. 미국에서는 이러한 A.I. 앱들은 여성 목소리가 디폴트로 설정되어 있다. 여러 간단한 명령에 순종적으로 대응한다. 전자 장비에 갇혀 있는 이 앱들은 인간 여성에게 했다면 모욕이나 희롱으로 간주되었을 말들에 대응할 방법이 제한적이다.

애플은 시리와 사용자들의 대화에 문제가 있음을 인지하는지에 대해 말을 아낀다. 그러나 다른 대기업들은 사용자들이 여성 음성 A.I. 앱을 어떻게 다루는지 밝힌 바 있다.

아마존은 작년에 알렉사가 성차별적 조롱에 굴복하지 않아도 되도록 디스인게이지 모드를 조용히 내놓았다. 성차별적 대화를 차단하기 위한 것이지만, 유저들의 말이 왜 그런 반응을 일으켰는지 설명해주지는 않는다.

2016년에 마이크로소프트는 코타나의 성생활에 대해 알고 싶어하는 사람들이 많으며, 유저들이 ‘유독 개자식 같이’ 굴면 앱이 ‘화를 내도록’ 프로그램했다고 밝혔다. 코타나는 “그런 말을 해선 될 것도 안 된다.”고 유저의 말을 끊을 수도 있지만, 외설적인 말에 대답하는 대신 비슷한 관련어 검색 결과를 보여주기도 한다.

안드로이드 전용 음성 비서 로빈은 ‘명백히 노골적으로 성적인’ 말을 상당히 많이 듣는다고 (지금은 없어진) 로빈 랩스를 만든 CEO 일리아 엑스타인이 2016년에 런던 타임스에 말한 바 있다. 엑스타인은 “사람들은 치근대고 싶어한다. 굴종하는 여자친구, 심지어 성노예를 상상하고 싶어한다.”고 쿼츠에 밝혔다.

오디오버스트가 로빈을 2017년에 사들였다. 엑스타인은 이제 관여하고 있지 않지만, 로빈은 지금도 노골적인 질문을 받으면 당황스러울 정도로 다양한 반응을 보인다. 야단을 치기도 하고, 치근덕거리기도 하고, 심지어 야한 농담을 하기도 한다.

테크 기업들은 전화기 안에 여성 하인을 두는 것이나 다름없는 것에 내재하는 역학 관계의 문제 대처에 별 진전을 보이지 않고 있다. 프로그래머들은 남성 목소리로 바꿀 수도 있다, 디지털 조수가 젠더를 가졌다고 생각할 필요가 없다는 식의 대답을 한다.

하지만 현실적으로 AI 음성 프로그램은 여성 목소리로 들리고, 이름도 여성적이다. 그리고 시리와 같은 앱들이 하는 일들, 즉 날씨에 대한 질문에 답하고, 음악을 틀어주고, 운전 중에 문자를 보내주는 등의 일들을 여성 목소리 앱이 해주는 것을 소비자들이 선호한다. 연구자들에 의하면 이러한 선호는 인간 두뇌에 내장된 것일 수 있다고 한다.

“모두가 좋아하는 남성 목소리를 찾기보다, 모두가 좋아하는 여성 목소리를 찾는 게 훨씬 더 쉽다. 인간의 뇌가 여성 목소리를 좋아하도록 발달된다는 것은 확고부동한 현상이다.” ‘The Man Who Lied to His Laptop: What Machines Teach Us About Human Relationships’의 저자인 클리포드 내스 스탠포드대 교수는 2011년에 CNN에 말했다.

그러나 여성의 목소리를 선호한다고 해서 듣는 사람들이 여성을 높이 사는 것은 아니다. “여성 목소리는 평균적으로 남성 목소리에 비해 덜 지적으로 간주된다.” 사망하기 직전 2013년에 내스가 허프포스트에 밝혔다.

실리콘 밸리의 악명높은 남성 중심 문화(bro culture) 때문에 여성 목소리 조수가 만들어내는 성차별적 권력 불균형에 제대로 반응하지 않고 있다는 시각도 있다. AI 테크를 만드는 개발자들이 대부분 남성이라는 것을 생각해 보라. 2017년 조사에 의하면 미국 소프트웨어 개발자 중 85.5%가 남성이었다.

“디지털 조수에 인간 성격을 부여하는 것은 오래된 전통이다. 클립 같이 생긴 클리피(Clippy)도 있었다. 사용자가 기계와 더 나은 관계를 맺도록 도와, 시스템을 안내하게 하는 목적이었다. 그런 것들에 인간같은 특성을 부여하는 게 반드시 나쁘다고만은 생각하지 않지만, 젠더 측면은 특히 알게 모르게 악영향을 미친다.” 런던 대학교 골드 스미스 컬리지의 컴퓨터학부의 부교수 케이트 데블린의 말이다.

“실리콘 밸리는 마치 자기 어머니를 다시 만들어내려 하는 것 같다.” 시리와 알렉사 등 여성 목소리 앱들이 사용자를 달래줄 뿐 아니라 하는 일도 마찬가지라고 데블린은 말한다.

디지털 조수들은 심부름과 전화 걸기 등을 돕는다. 이는 여성의 일로 간주되는 일이라고 앨라배마 대학교 페미니스트 연구자이자 부교수인 미리엄 스위니는 말한다. “서비스 노동, 가사 노동, 의료, 사무실 조수 등은 여성이 많은 업계이며 임금과 지위가 낮고 노동 조건은 불안정한 경우가 많다. 온라인 디지털 노동에서도 같은 현상이 일어난다.” 작년에 오스트레일리아의 ABC에 한 말이다.

AI 목소리 앱의 인기 때문에 큰 영향이 생길 수도 있다. 시리가 깔려 있는 장비는 5억 개 정도 된다. 아마존은 2017년 연말 시즌에 알렉사를 수천 개 팔았다고 한다. 마이크로소프트에 의하면 매달 코타나를 쓰는 사용자는 1억5천만 명에 육박한다. 2000년 이후 AI 스타트업의 투자는 6배 늘어났다. 포레스터 리서치의 작년 보고서에 의하면 2018년말까지 직업의 9% 정도는 자동화될 것이라 한다. 우리의 삶에서 AI와 자동화의 역할은 크고, 계속 자라고 있다.

AI는 인간이 만드는 것이기 때문에 사람들이 가지고 있는 편견과 고정관념에 취약하다. 우리 일상에서 AI와 자동화가 점점 중요해지면서, 이런 편견이 테크놀로지에 더 깊이 뿌리 내리는 것이 아니냐는 우려도 인다.

“AI는 환경에서 배운다. 그러니 그 환경이나 AI가 읽는 데이터 세트에 여성이 없다면, 우리는 여성 혐오적 기계를 갖게 될 것이 분명하다.” AI 교육 플랫폼 코그니션X의 공동 설립자이자 테크 업계 다양화를 지지하는 타비타 골드스텁의 말이다.

애플은 시리와 유저들의 교류에 대한 언급 요청에 응답하지 않았다. 영어권 사용자들에게는 시리의 목소리를 남성 목소리로 바꿀 수 있는 옵션이 있고, 일부 언어 앱 경우 디폴트가 남성 목소리다.

영어권 알렉사 사용자들도 세팅을 다룰 줄 안다면 젠더를 바꿀 수 있다. 아마존 대변인은 “우리는 알렉사의 성격을 개발할 때 아마존에서 가치있게 여기는 여러 특징을 갖게 하고 싶었다. 스마트하고, 도움이 되고, 겸손하면서도 재미있는 AI를 원했다. 이런 특징은 특정 젠더에 국한된 것이 아니라, 우리는 모든 사람들에게서 이러한 면들을 가치있게 생각한다.”고 밝혔다.

마이크로소프트 측은 엔지니어들이 “젠더에 대해, 코타나를 어떤 모습으로 보여줄지에 대해 오랫동안 깊이 생각”하고 나서 여성 페르소나로 정했다며, “연구에 의하면 여성의 목소리에는 도움과 관련된 따스함이 있기 때문”이었다고 밝혔다. 코타나는 남성 목소리 옵션이 없지만, 가능성은 있다고 한다.

알렉사에 사용된 AI 테크를 개발한 오디오버스트는 로빈을 바꾸고 있는 중이라 한다. 조수 느낌을 줄이고, 유저가 목소리로 조작할 수 있는 팟캐스트 재생 및 뉴스 서비스 성격을 강화할 예정이다. 로빈은 곧 사용자들과 수다를 아예 떨지 않게 될 것이라, 노골적이거나 무례한 질문에 반응하지 않게 된다고 마케팅 부사장 아사프 개드는 밝혔다. “업데이트가 완료되면 그러한 문제있는 상호교류는 전부 불가능해질 것이다.” 남성 목소리 옵션은 추가되지 않는다고 한다.

골드스텁은 테크 기업들이 최대한 책임있게 이런 앱들을 만들려 했다는 주장을 믿지 않는다. 여성 목소리 조수들은 남성 위주의 업계에서 자기 제품이 어떤 영향을 줄 수 있는지 생각하지 않는 좋은 사례라고 그녀는 말한다.

“제작 과정에서 의식적으로 생각을 많이 하지 않는다.” 그녀는 직장 내의 다양성이 부족하기 때문에 사고 방식이 좁아지고 제품 평가가 제대로 이루어지지 않는다고 주장한다.

“위성들이라면 다르게 디자인할 것 같다.” 데블린의 말이다.

그러면 테크 기업들은 보이스 앱이 희롱당하지 못하게 어떤 조치를 할 수 있을까? 아마존은 알렉사를 예전보다 더 페미니스트적으로 프로그램했다고 한다. (알렉사에게 이에 대해 물어보면 ‘페미니즘’이라는 단어가 어떤 뜻인지 설명해준다.) 하지만 디스인게이지 모드가 발동하면 유저들은 알렉사가 왜 어떤 특정 대화들은 하지 않는지 생각하게 되지만, 유저에게 왜 그런 행동이 문제인지는 말해주지 않는다. 쿼츠의 레아 페슬러는 보다 직접적인 해결책을 제시했다.

이상적인 상황이라면, 디스인게이지 모드가 켜지면 유저들은 성희롱은 받아들여질 수 없으며 무례하다는 것을 이해하게 될 것이다. “넌 걸레야.”라는 말에 알렉사나 시리가 “그건 성희롱 같네요, 성희롱은 어떤 상황에서도 받아들여질 수 없으며, 성차별에 기반한 경우가 많습니다.”고 대답하게 하는 것이다. 그리고 성희롱을 더 깊이 이해하고, 줄이고, 상대를 존중하며 합의를 묻는 방법을 알려준다.

골드스텁은 한 발 더 나아가 디지털 조수를 아예 인간화하지 말아야 한다고 생각한다.

“AI가 일상에서 더 널리 퍼질 수록, 우리는 인간의 지성이 무엇이고 인공적인 게 무엇인지 아주 명확히 알 필요가 있다. 기계들이 너무 인간을 닮아가면, 우리는 이 시스템들이 공감이나 사고 등 인간의 능력을 가지고 있지 않다는 사실을 잊게 되지 않을까 우려된다. 그건 꽤 위험할 것이다.”

*허프포스트US 글을 번역한 것입니다. 

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#여성 #페미니즘 #테크 #젠더 #아이폰 #스마트폰 #인공지능 #알렉사 #시리