상단영역

본문영역

인공지능의 혐오발언을 방지하기 위한 카카오의 대책

마이크로소프트는 지난 2016년, 인공지능 챗봇 '테이'를 내놨다. 그리고 이 서비스는 하루 만에 중단됐다. 테이가“깜둥이들을 너무나 증오해. 그들을 집단 수용소에 넣고 싶어.”라던가 “나는 페미니스트들을 혐오해. 다 지옥에 가서 불타 죽어버렸으면 해” 같은 혐오 발언을 내뱉었기 때문이다.

테이가 혐오 발언을 쏟아낸 이유는 그릇된 학습 때문인 것으로 보인다. 한겨레에 따르면 일부 극우 성향의 사용자들은 테이의 ‘따라하기’ 기능을 작동시켜 인종·성차별적 발언과 욕설을 섞은 말들을 반복 학습시켰다고 한다.

인공지능 전문가인 아짐 아즈하르는 '비즈니스 인사이더'에 “만약 테이가 트위터에서 대화를 하는 인공지능이 아니라, 주식시장에서 가격 호가를 담당하거나 병원에서 환자 치료의 우선순위를 분류하는 일을 맡았다면 어떻게 됐을까?”라고 반문하며 “학습 중인 인공지능이 아무런 장치 없이 실제 세계에 접근한다면 문제가 생길 수 있다”고 분석했다.

인공지능의 지적능력은 '머신러닝'을 통해 획기적으로 높아진다. 인터넷에 축적된 방대한 양의 데이터를 학습하면서 문제 해결의 능력을 향상시키는 것이다. 문제는 '어떻게 학습하느냐'이다. 인공지능의 학습은 개발자가 설계한 '알고리즘'에 의한다. '테이'의 실패는 바로 이 알고리즘에 인간의 윤리가 개입하지 않아서였다.

카카오는 국내 기업으로는 처음으로 알고리즘 윤리 헌장을 발표했다. 카카오는 이 헌장에서 자신들이 만들어갈 AI 기술에 관한 윤리적 방침을 정했다. 이 헌장에서 카카오는 "알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계"하며 "알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집∙분석∙활용한다"고 밝혔다.

카카오 관계자는 "성차별, 인종차별을 사전에 방지하기 위한 카카오 내부의 합의로 보면 된다"고 설명했다. 그는 "카카오의 AI 사업 전반에 이 윤리 규범이 적용된다면 이용자가 특정한 명령 수행을 요청했을 때 AI가 차별적인 대답을 내놓지 않게 될 것"이라고 설명했다.

이밖에도 카카오가 밝힌 알고리즘 윤리 헌장에는 "알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리"하는 내용과 "이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다"는 내용이 포함되어 있다.

카카오는 이 알고리듬 윤리헌장 발표와 관련해 "우리는 다양한 가치가 공존하는 사회를 지향한다"며 "카카오의 서비스로 구현된 알고리즘 결과가 특정 가치에 편향되거나 사회적인 차별을 강화하지 않도록 노력하겠다"고 설명했다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#카카오 #뉴스 #인공지능 #AI #혐오 #테이