상단영역

본문영역

자유냐 책임이냐, 소셜네트워크의 딜레마

  • 박수진
  • 입력 2017.05.29 07:19
  • 수정 2017.05.29 07:20
Girl with laptop covering face, around hands holding thumbs down
Girl with laptop covering face, around hands holding thumbs down ⓒKatarzynaBialasiewicz via Getty Images

당신이 페이스북 관리자라면 다음 콘텐츠 가운데 무엇을 페이스북에서 내리겠는가?

ㄱ. “죽겠다”며 자해하는 한 20대 여성의 페이스북 라이브(생중계) 비디오.

ㄴ. 테러리스트가 인질을 사살하는 사진.

ㄷ. 7살 아이를 발로 걷어차는 사진.

ㄹ. 손으로 그린 남녀의 성관계 그림.

정답은 모두 내려선 안 된다는 것이다. 영국 일간지 가디언은 이런 내용의 페이스북 콘텐츠 관리자를 위한 내부규정을 입수해 지난 21일 공개했다.

언뜻 보면 쉽게 납득이 가지 않는 규정들이다. 자해 비디오나 아동폭력 사진을 버젓이 게재하도록 두는 것은 직관적으로 비윤리적이다.

동물 학대 사진(개를 꼬챙이에 꿰어 불로 굽는 사진은 허용된다)이나 폭력적인 말(“나가 뒈져라”(fuck off and die))도 규정상으로 허용하지만 논쟁적인 내용들이다. 최근 소셜네트워크서비스(SNS)를 통해 빠르게 전파되는 가짜뉴스가 세계적인 문젯거리로 떠오르고, 무작위로 고른 노인이나 자신의 어린 딸을 살해하는 모습을 담은 생중계 영상이 페이스북에 오르는 일이 벌어진 가운데 터진 이번 폭로가 큰 이슈로 떠올랐다. 영국, 독일, 프랑스 등 유럽 국가에선 페이스북이 혐오 발언 등에 대해 충분히 책임있는 역할을 하지 않는다며 이를 법으로 강제하는 절차가 진행 중이다.

하지만 페이스북이 이런 콘텐츠를 허용하는 데는 나름의 논리가 있다. 예를 들어 자살 비디오를 삭제하지 않는 이유에 대해 페이스북은 “이를 차단하는 것은 주변 사람으로부터 실질적인 도움을 얻을 기회를 빼앗기 때문”이라고 설명했다. 심리학자나 구호단체 등에 자문을 거친 결과, 이런 비디오를 생중계하는 것은 자신을 도와달라는 요청일 수 있는데 함부로 차단하는 것은 현명하지 못한 조처라는 것이다.

하지만 차단을 최소화하는 가장 포괄적인 이유는 ‘표현의 자유’다. 마크 저커버그 페이스북 창업자가 세운 페이스북의 목표는 “보다 열리고 연결된 세상”을 만들겠다는 것이다. 이를 바탕으로 찬반이 갈리는 논쟁적인 콘텐츠의 경우 페이스북은 대체로 게시물을 지키는 쪽으로 정책을 잡아온 셈이다.

페이스북의 글로벌 정책 책임자 모니카 비커트는 이번 폭로 뒤 가디언에 올린 칼럼에서 “이런 콘텐츠들은 객관적인 판단을 내리기 힘든 회색지대에 있다”고 주장했다. 표현의 자유 옹호 단체들은 페이스북이 이런저런 내용을 차단하도록 점차 허용하다가는 “세계 최대의 검열기관이 될 것”이라고 오히려 우려한다.

페이스북이 이런 딜레마에 놓인 것은 2004년 창립 이후 쉼 없이 확장해온 사회관계망서비스의 예견된 운명이었다. 현재 페이스북의 이용자는 전세계 20억명에 육박한다. 우리나라만 해도 1800만명에 이른다. 다양한 문화와 국가에 속하는 이들이 모두 동의할 기준을 세우기란 매우 어려운 일이다.

이번에 공개된 내부문건에 의하면 페이스북이 보복 포르노(헤어진 연인이 복수를 위해 동의 없이 공개하는 과거의 내밀한 영상)나 협박용 나체 사진으로 의심돼 검토하는 게시물만 한달에 5만4000건에 이른다. 다른 논쟁적 게시물까지 합하면 한달에 수십만~수백만건에 이를 것으로 보인다.

이런 문제 콘텐츠는 사람이 검토한다. 하지만 끝없이 구역질 나는 영상과 이미지를 검토해야 하는 일은 정신적으로 극심한 스트레스를 동반한다. 지난 1월 마이크로소프트에서 비슷한 일을 하는 콘텐츠 관리자들이 이런 작업으로 인해 “외상 후 스트레스 장애(PTSD)를 얻었다”며 회사를 고소한 일이 발생하기도 했다. 페이스북은 유럽에서 좀더 강한 규제를 강조하는 여론이 들끓자 지난 3일 현재 3000명에 불과한 콘텐츠 관리자의 수를 7500명으로 늘리겠다고 밝힌 바 있다.

하지만 이용자 증가와 더불어 계속 늘어날 문제 콘텐츠를 인간이 일일이 검토하는 것은 가혹할 뿐 아니라 큰 비용이 들기 때문에 미래에는 인공지능이 업무를 분담할 가능성이 높다.

페이스북은 지난 3월 이용자의 자살이나 자해 영상을 구분하는 인공지능을 선보이겠다고 밝힌 바 있다. 향후 페이스북은 단지 콘텐츠를 구분할 뿐 아니라 사용자가 한 말이나 글을 바탕으로 맥락까지 이해하는 인공지능 개발에 박차를 가하고 있다. 그러나 구글과 함께 현재 지구상 가장 많은 이들이 애용하는 미디어인 페이스북이 알고리즘에 의해 광범위하게 규제되는 미래는 인간의 자율성에 대한 또다른 위협도 될 전망이다.

원문보기:

http://www.hani.co.kr/arti/science/science_general/796591.html?_fr=mt3#csidxcc88f6c6c0eca3894f73877d97ab5c3

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#사회 #테크 #자살 #소셜미디어 #페이스북 #인공지능 #뉴스