상단영역

본문영역

자살 징후 잡아내는 인공지능 상담사

결과는 뜻밖이었다. 자살이나 자해처럼 구조가 긴박한 상황과 연관된 단어나 구문이 수천 개로 늘어난 것이다. 이 가운데는 긴박한 상황과 전혀 어울리지 않는 단어도 있었다. 예컨대 우리가 흔히 '부루펜'이라 부르는 해열·진통제는 자살 예측 단어 순위에서 14위로 나타났다. 심지어 무심결에 사용하는 '울음 이모티콘'은 11위에 올랐다. 울음 이모티콘 하나에도 상담 요청자의 절박한 심리가 담겨 있단 얘기다.

  • 이희욱
  • 입력 2017.05.04 11:50
  • 수정 2017.05.04 11:51

인간은 물에 빠지면 지푸라기라도 잡고 싶어 한다. 물에 빠진 이들의 손에 닿은 지푸라기는 때때로 '거대한 구명튜브' 역할을 하게 된다.

세상을 살다보면 스스로 물에 빠지려는 이들도 있다. 영혼이 흔들리고 삶이 지리멸렬하게 느껴질 때가 위기의 순간이다. 위기의 순간에 누군가 손을 잡아주기 기대하는 게 사람 심리다. '응급 상담 서비스'가 도움이 되는 이유다.

그러나 이때 건 전화가 '통화 중'이거나 '통화 대기 중'이라면? 이 답답한 상황이 상담센터 컴퓨터 알고리즘에 의해 생긴 결과라면? 상담을 기다리던 이가 결국 극단적 선택을 했다면 누가 그 책임을 느껴야 할까?

미국의 문자메시지 기반 24시간 위기 상담 서비스 '크라이시스 텍스트 라인'(CTL)도 늘 비슷한 고민을 안고 있었다. 2013년 출범 뒤 이 서비스가 실제 구조로 이어진 사례는 무려 5300건에 이른다. 평소 큰 문제가 없었지만 상담이 폭증할 때면 고민이 깊어졌다. 9·11 테러나 보스턴 마라톤 폭탄테러 같은 대형 참사가 터질 때도 상담 문의가 폭증했다. 이 경우 자원봉사로 운영 중인 전문 상담사만으로 모든 요청에 대응하는 게 불가능했다. 대개는 순서대로 전화를 받지만, 별도의 '고위험 단어 목록'이 포착되면 이를 먼저 응대했다. 목록엔 '죽다' '자살하다' '자르다' '살인' 같은 단어 50개가 포함돼 있었다.

CTL은 여기서 한발 더 나아갔다. '데이터과학'의 힘을 빌려보기로 한 것이다. 지금까지 상담 요청자와 전문 상담사가 주고받은 문자메시지는 3300만 건에 이르렀다. 여기엔 대화 내용뿐 아니라 시간, 발신자 위치, 나이와 성별, 생년월일 같은 데이터가 포함됐다. 대화를 마친 상담사에게도 상담 내용과 결과에 대한 정보를 받아 분석했다. 이용자가 보내준 후기도 분석 대상에 포함했다.

결과는 뜻밖이었다. 자살이나 자해처럼 구조가 긴박한 상황과 연관된 단어나 구문이 수천 개로 늘어난 것이다. 이 가운데는 긴박한 상황과 전혀 어울리지 않는 단어도 있었다. 예컨대 우리가 흔히 '부루펜'이라 부르는 해열·진통제는 자살 예측 단어 순위에서 14위로 나타났다. 심지어 무심결에 사용하는 '울음 이모티콘'은 11위에 올랐다. 울음 이모티콘 하나에도 상담 요청자의 절박한 심리가 담겨 있단 얘기다.

여전히 숙제는 남는다. 자살이나 자해처럼 위급한 순간에 대한 판단을 알고리즘에 맡기는 게 올바른 일일까? 경력 많은 상담사들은 여전히 데이터보다는 직관과 경험을 더 믿는 편이다. CTL은 이런 지적에 따라 알고리즘과 경험을 동시에 활용해 서비스 개선 도구로 활용할 계획이다. 이용자의 의견과 반응을 분석해 데이터를 쌓아 구조 확률을 높이는 것이 '인공지능 상담사'의 임무다.

CTL 상담의 3%는 단순 심리 상담이나 장난 전화다. 이런 전화에 상담사 전체 자원의 34%를 소모해왔다. 고위험군을 먼저 가려내 극단적 상황을 줄이는 게 CTL의 기본 목적이다. 알고리즘은 스스로 학습하며 진화한다. CTL은 자원 낭비를 줄이고 위험한 상황에 놓인 사람에게 먼저 상담사가 연결되는 확률을 높이는 데 알고리즘을 활용할 예정이다.

페이스북도 올해 3월 인공지능을 활용한 자살 방지 시스템을 선보였다. 페이스북은 세계에서 가장 큰 '희로애락 데이터베이스'다. 1분 동안 이용자 18억 명이 30만 개 글을 올리고, 51만 개 댓글을 달며, 16만4천 개 사진을 올린다. 페이스북은 인공지능으로 이용자 게시물과 댓글 패턴을 분석해 자살 징후가 보이는 이용자를 가려낸다. 이렇게 가려진 이들은 페이스북 메신저로 자살 방지 단체 전문가의 상담을 받거나, 극단적 선택을 피하는 데 도움을 주는 다양한 메시지를 받게 된다. 페이스북은 2011년 자살 암시 글을 발견한 이용자가 버튼을 눌러 관리자에게 신고할 수 있는 기능을 추가했다.

* 이 글은 한겨레21에 게재된 글입니다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#자살 #인공지능 #테크 #이희욱 #상담 #페이스북 #뉴스