우리가 소비하는 뉴스는 인공지능의 영향을 받을 것이다. 그게 좋은 일일지는 인간에게 달려있다

그게 좋은 일일지는 인간에게 달려있다

저널리즘의 미래에는 두 가지 길이 있다. 두 길 모두 A.I.에 의해 영향을 받을 것이다.

한 가지는 뉴스룸과 기자들이 왕성하게 활동하는 미래다. A.I.의 사용을 통해 고품질 보도가 향상되었다. A.I.는 기업의 분기별 수익 보고 같은 간단한 일상적 기사뿐 아니라, 특이한 소식들을 모니터하고 자료를 모아 인간 기자에게 더 알아보라고 알린다.

재계 뉴스뿐 아니라, A.I.는 스포츠 통계를 종합하여 스포츠 기자들에게 넘기고, 기자들은 게임과 게임에 대한 이야기에 집중할 수 있게 해줄 것이다. 자동화된 미래의 모습이다.

두 번째 미래는 아주 다른 모습이다. A.I. 기자들이 인간 기자를 대체하고, 책임있는 저널리즘이 사라진 미래다. 재정적 부담 때문에 언론사들이 일상적 기사 작성 상당 부분을 A.I.에게 맡긴다. 처음에는 파이낸스와 스포츠 섹션부터 시작해서, 매체의 정치적 성향에 맞도록 통신사 기사를 손보는 것까지 A.I.가 맡게 된다. 간판 역할을 할 언론인들을 몇 명 뽑기는 하지만, 그들을 대체하고 싶어하는 사람들이 업계에 진출한다는 건 불가능에 가깝다. 그리고 A.I.가 다룰 수 없는 기사들은 전반적으로 아예 빠지게 된다.

이는 A.I.가 저널리즘, 언론의 윤리, 세계가 세계에 대해 익히는 방식을 바꾸는 미래에 대한 두 가지 극단적인 시나리오다. 하지만 이는 A.I.는 다른 테크놀로지와 같은 방식으로 작동한다는 것을 보여준다. 그 자체만으로 저널리즘을 더 낫게, 더 윤리적으로 만들거나 악화시키지는 않는다. 개발 방식, 전세계 뉴스룸에서의 사용 방식에 대한 인간의 선택에 따라 결정될 것이다.

기본적인 형태의 이런 알고리즘과 A.I.는 이미 존재한다. 50년 뒤가 아닌, 지금 뉴스룸의 상급자들이 곧 선택을 해야 할 것이다. 작년에 파이낸셜 타임스의 사라 오코너는 영국 임금 상승에 대한 기사를 놓고 ‘엠마’라는 A.I. 언론인과 정면으로 맞섰다

“영국 취업 시장에서 빠진 부분인 임금 상승은 지금도 느리게 움직인다. 평균 소득 총액 성장률은 2.1%에서 1.8%로 떨어졌으나, 변동이 큰 보너스 영향도 일부 있다.”

“전반적으로 말해 영국 경제는 상승 추세이며, 아직 불황 전의 골디락스 시절으로 돌아가지는 않았지만 분명 나아졌다.”

앞의 글은 오코너가, 뒤의 글은 AI 기자 엠마가 썼다. 보다 넓은 정치적, 사회적 맥락에서 정보를 전하는 오코너의 능력이 빛을 발하기는 하나, AI는 빠른 속도로 나아지고 있으며, 간단한 기사에 있어서는 이미 훌륭한 기자들에 필적하고 있다.

이의 결과는 뉴스룸을 담당하는 사람들에게 달려있다. 기자를 대체하는 용도로만 쓴다면 현재 업계가 약해질 뿐 아니라, 기자들이 업계에 입문해 복잡한 수사 보고를 할 수 있게 되기까지 기초를 배울 수 있는 신입 자리를 로봇이 차지하게 된다는 의미다. 새로운 기술이 부정적인 결과를 낳는다고 비난하는 건 쉬운 일이지만, 현실에서 그 책임은 기술의 사용 방법에 달려있다는 것을 우리는 몇 번이고 배웠다.

이런 알고리즘을 개발하는 기업과 엔지니어, 연구 자금을 대는 투자자들은 더욱 깊이 생각해야 할 것이다. 예를 들어 주가를 분석하여 금융 담당자들이 거래를 통해 더 높은 이윤을 올릴 수 있는 알고리즘이 있다면 분명 수요가 존재할 것이다.

그러나 수천 건, 수백만 건의 파산 신청을 자동으로 분석하고 특이한 건을 찾아 인간 저널리스트나 금융 수사관이 살필 수 있도록 엔론과 같은 사례를 찾는 게 사회적으로 더 유용한 알고리즘일 것이다. 이런 도구가 완벽할 수는 없겠지만 사회적 가치는 엄청날 것이다. 하지만 벤처 캐피털과 월 스트리트가 수십 억 달러를 기사 작성 A.I.에 투자하는 반면, 이런 기술에는 누가 투자할 것인가?

지금 사용되고 있는 A.I.에 대해 말할 때, 우리는 사실상 거의 언제나 복잡한 알고리즘에 대해 말한다. 이런 알고리즘은 윤리적 선택이나 창의적 나래를 펼칠 수 있게 하는 진정한 지성과는 무관하다.

알고리즘은 패턴을 발견하기 위해서, 때로는 관련 사실에 대해 ‘학습’할 수 있게 하도록 설계된 도구다. 그래서 알고리즘의 제작자의 의도 뿐 아니라(돈을 벌기 위해, 정보 검색을 쉽게 하려고, 임대자를 정하려고), 제작자의 마음속 편견이나 이들이 살핀 데이터의 영향도 받는다.

미국의 여러 주는 범죄자의 미래 범행 가능성과 형량 등을 판단하기 위하여 위험 판정 알고리즘 COMPAS를 사용한다. 그러나 다른 인종의 사람이 범한 아주 비슷한 범죄에 대해 이 알고리즘은 인종적 편견을 범한다는 것을 여러 참사 보도에서 벍혔다. 또한 이 알고리즘은 전매 상품이라 비밀이기 때문에, 아무도 그 이유에 대한 확실한 증거를 가지고 있지 않다.

대출, 보험 등의 대상자를 결정하는 알고리즘에서도 비슷한 패텬이 발견되었다. 중립적이고 이의를 제기할 수 없는, 틀리는 일이 없을 것 같은 ‘A.I.’ 시스템에는 수십 년, 혹은 수 세기 동안 현실 세계에서 존재했던 편견이 들어 있다. 주어진 길로만 달릴 수 있기 때문이다.

A.I.와 알고리즘의 합법성과 도덕성을 통제하는 것이 굉장히 복잡한 동시에 단순하다는 걸 보여주는 상황이다. 알고리즘이 너무 복잡해져서 제작자들조차 어떻게 작동하는지 설명할 수 없고, 한 국가의 정부가 관할할 수 없는 다국적 기업들이 사용하는 경우가 많다는 점에서 복잡하다. 다양한 목적들을 지닌 다양한 알고리즘들을 규제하고 법적, 윤리적 규정을 만드는 것은 정말 복잡한 일이다.

반면 알고리즘과 현재의 A.I.가 중립적이라는 사실 때문에 간단해질 수도 있다. 현재의 A.I.의 경우 진짜 지성과는 거리가 멀다. 즉 기차나 공장의 기계의 현대판이라 볼 수 있다. 의도나 부주의에 의해 피해가 생긴다면 우리는 운영자나 소유주에게 책임을 묻는다.

기차가 잘 되었듯, 알고리즘도 마찬가지로 잘 될 수 있다. A.I.로 이 세상을 개선하려면 우리는 누가 어떤 목적으로 알고리즘을 만들고 있는지, 어떻게 하면 개인의 이윤보다는 사회적 혜택을 위한 알고리즘 개발에 자금을 댈 것인지를 보다 큰 상상력을 가지고 살펴야 한다.

A.I.는 이 질문에 답을 줄 수 없다. 현재 가장 발달된 A.I. 챗봇 중 하나인 ‘로즈’는 “설명해줄 수 있으면 좋겠지만 내 생각엔 그저 본능 같다.”고만 답할 수 있을 뿐이다. 이건 인류가 직접 해결해야 할 문제다.

*허프포스트US의 글을 번역한 것입니다.