상단영역

본문영역

알고리듬 머시기(Algorithm, What else?)

온라인 상에서의 개인정보의 수집과 이를 이용한 프로파일링에 대하여 사람들이 슬슬 불안감을 느끼기 시작했다. '오프라인에서의 나'와 '온라인에서의 나', 그리고 각 플랫폼 서비스들이 빅데이터 수집 결과를 모아서 잠정적으로 결론 내린 '특정 플랫폼에서의 나'가 각기 다를 수 있기 때문이다. '추단된 나'가 '실제의 나'가 아님을 내가 직접 스스로 설명하거나 부인하여야 하는 상황이 곧 벌어질지도 모른다는 불안감이기도 하다. 예를 들자면, 소셜커머스 업체는 나를 축구 팬이라 오해하고 있고, 인스타그램은 내가 된장찌개나 맥주보다 파스타와 와인을 좋아하는 사람이라 잘못 분류하고 있다.

  • 김상순
  • 입력 2016.06.01 14:25
  • 수정 2017.06.02 14:12
ⓒGettyimage/이매진스

알고리듬 머시기(Algorithm, What else?) - 알고리듬의 중립성(neutrality), 투명성(transparency) 또는 설명책임(accountability)

1.

알고리듬이란 컴퓨터에게 무슨 일을 처리할 것을 명령할 것인지에 관한 일련의 순서를 말하는 것일 수도 있고, 더 넓게는 업무를 처리하는 과정 자체를 적은 것을 가리키는 것일 수도 있다. 알파고(ALphaGo) 쇼크와 자율주행차의 비약적 발전이 어우러져, 빅데이터(BigData)의 시대에서 인공지능(AI)의 시대로 반 발짝 정도 더 앞으로 나아간 느낌이다. 정보를 수집해서 처리하는 주체와 대상인 '그 무언가'에 대하여 더 초점이 맞춰지자, '처리 과정'에 대하여도 관심이 높아지고 있다.

온라인 상에서의 개인정보의 수집과 이를 이용한 프로파일링에 대하여 사람들이 슬슬 불안감을 느끼기 시작했다. '오프라인에서의 나'와 '온라인에서의 나', 그리고 각 플랫폼 서비스들이 빅데이터 수집 결과를 모아서 잠정적으로 결론 내린 '특정 플랫폼에서의 나'가 각기 다를 수 있기 때문이다. '추단된 나'가 '실제의 나'가 아님을 내가 직접 스스로 설명하거나 부인하여야 하는 상황이 곧 벌어질지도 모른다는 불안감이기도 하다. 예를 들자면, 소셜커머스 업체는 나를 축구 팬이라 오해하고 있고, 인스타그램은 내가 된장찌개나 맥주보다 파스타와 와인을 좋아하는 사람이라 잘못 분류하고 있다.

이런 오해나 부작용을 막기 위해서 혹은 불안감을 없애기 위해서, 그러한 알고리듬에 대한 사후검증(audit)이 가능하도록 해야 하는 것이 아닌가 하는 생각이 이어진다. 이에 관한 논의를 두고 알고리듬 중립성(Algorithm neutrality)이라고도 부르고, 알고리듬 투명성(Algorithm transparency)이라고도 부르며 알고리듬 설명책임(Algorithm accountability)이라고도 부른다. 각 용어는 비슷한 듯 싶지만, 조금씩 중점을 두는 부분이 다르다. 근거, 범위, 법적 지위, 시점, 정보공개, 적법절차 등 여러 관점에서 앞으로 많은 고민이 이어질 것으로 보인다.

2.

알고리듬이 이러이러해야 한다거나, 아니면 알고리듬에 대하여 이런 기준을 갖춰야 한다고, 알고리듬을 운영하는 기업 - 특히 플랫폼 서비스 기업 - 에게 요구할 수 있는 근거는 무엇일까. 어찌 보면, 영업비밀에 해당할 수도 있을 알고리듬을 공개하라거나 투명해야 한다고 우길 수 있는 법적 혹은 이론적 근거는 무엇일까. 거꾸로 영업비밀이라는 이유로 그러한 종류의 요청을 거부한다면 이는 온당한 대응이라 할 수 있을까. 단순히 알 권리의 문제가 아니라, 나의 데이터도 알고리듬의 재료가 되었고, 알고리듬의 결과물이 나에게도 영향을 미치고 있으니, 기여한 부분에 대한 권리를 주장하거나 그로 인한 영향을 받음을 이유로 문책을 할 수는 없을까.

어느 정도의 범위까지 공개하거나 투명하거나 설명하여야 하는 것일까. 투명하기만 하면 충분한가. 아니면 납득가능할 수준을 상회하여 설명하여야 하는가. 검색사업을 영위하는 포털 사이트는 이미 고개를 설레설레 흔들고 있지는 않을까. 검색 추천 알고리듬이 드러나면 검색어 어뷰징은 좀 더 노골적이고 고도화될 테니 말이다. 관련 기업이 부작용을 이유로 공개를 거부한 채 믿어달라고만 한다면, 다른 어떤 조건을 갖추어야 최소한의 신뢰를 그에게 부여할 수 있는 것일까.

자동화된 학습 또는 머신러닝과의 관계에서, 스스로 알고리듬을 수정하여 계속 작동한다면, 최초의 기획자조차도 현재의 알고리듬을 완벽히 설명할 수 없거나 완벽히 파악하고 있다고 장담할 수 없게 된다. 말하자면, 알고리듬을 운행하는 기업 자신도 알고리듬을 스스로 다 장악 못 하는 순간이 있을 수 있다는 의미다. 판결의 효력과 관련하여 '기판력의 표준시'가 논의되듯, 알고리듬에 관하여도 기준시점이라는 것이 필요한 것은 아닐까. 기계의 자동학습이나 실시간의 머신러닝이 있는한, 우리는 영원히 현재의 알고리듬을 파악을 못한채 직전의 과거 알고리듬을 복기하는 것에 그치는 것은 아닐까.

3.

알고리듬에 의한 결과를 두고 법적으로 의사표시의 지위를 부여할 수 있을까. 이른바 '자동화된 의사표시'의 경우에는 포괄적인 표시의사는 있는 것으로 종래 이해되었는데, 알고리듬에 의한 의사결정에 대하여도 같은 논리를 전개할 수 있는 것일까. 국가 또는 공공기관에서 알고리듬에 의한 의사결정이 이루어지는 사안이 있다면, 정보공개청구권리로서 알고리듬을 공개할 것을 요청할 수 있을까. 알고리듬을 공개하라는 것이 행정의 투명성 제고라는 행정법상의 가치 달성에 기여한다고 긍정적으로 보아도 좋은 것일까.

형사소송법상의 '독수독과 이론'처럼, 부정확하거나 오염된 데이터가 포함되어 있으므로 그 빅데이터 분석의 결과를 믿을 수 없다라고 결론 내릴 수 있을까. 빅데이터 수집에 있어서의 적법절차(due process)를 지키지 않았음을 이유로, 그 결과를 공개적으로 사용하거나 적용하여서는 안된다고 주장할 수 있는 것일까. 빅데이터 시대에서 정보주체의 동의는 수집, 이용의 여러 과정들에 대한 포괄적 동의로 보는 것이 과연 문제없는 것일까. 프로파일링 알고리듬에 대한 충분한 설명과 이해를 조건으로, 유보적 동의로 이론구성할 방법은 없는 것일까.

편향된 정보의 수집과 분석에 따른 편향된 결론을 정당화하는 바람직하지 않은 경우들을 미연에 방지할 필요가 있다. 정당화의 수단으로 남용되는 것을 막을 필요가 있는 것이다. 그 대상이 국가 또는 공공기관이라면 더욱 그러하다. 못지 않게 공공성을 갖추어야 하는 미디어(media)의 경우에도 마찬가지다. 아무리 맛과 향이 다른 수십, 수백가지 종류의 커피라도, 결국 본질은 카페인의 효능과 관계된 커피일 뿐이다. 갖가지 종류의 서비스에 사용되는 다양한 알고리듬들이라도 결국은 어떠한 결과를 어떻게 도출할 것인가를 고민하는 과정에 불과하다. 그 알고리듬에 관한 '알고리듬 머시기' - 강원도 사투리로 ''머시기'란 '무엇'이란 뜻이다 - 에 관한 고민은, 법의 정신은 무엇인지 그리고 그 정신을 담아서 어떻게 법을 만드는 것이 좋을 것인지 하는 법학자들의 오랜 고민과 맞닿아 있다.

# [로앤스마트] 호접몽(胡蝶夢), 김상순 (법률신문, 2011. 8. 16.)

# 빅데이터(Big Data)와 적법절차(due process)의 원리(헌법 제11조) (2013. 10. 17.)

# '풍문(風聞)의 검증'과 'ELW 스캘퍼' (2014. 1. 13.)

# 뉴스읽기의 이프트(IFTTT) - 한맥투자증권 CASE (2014. 1. 23.)

# 기판력(旣判力)의 표준시(標準時)와 리니지(Lineage) 게임의 이른바 '빽섭' - '진명황의 집행검' 사건 (2014. 1. 28.)

# 조지 클루니, 네스프레소 광고에 잭 블랙 초대 (매일경제 2015. 11. 17.)

# 에테르(ether)가 되려는 페이스북 - 페이스북 트렌딩 토픽 사건 단상 (2016. 5. 14)

* 필자의 페이스북에 게재된 글입니다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#알고리듬 #김상순 #빅데이터 #뉴스