뉴스
2016년 03월 26일 16시 33분 KST | 업데이트됨 2016년 03월 26일 16시 43분 KST

MS, '욕'부터 배운 인공지능에 사과하다

FILE - This July 3, 2014, file photo, shows the Microsoft Corp. logo outside the Microsoft Visitor Center in Redmond, Wash. Artificial-intelligence software designed by Microsoft to tweet like a teenage girl has been suspended after it began spouting offensive remarks, according to the company Thursday, March 24, 2016. Microsoft said it is making adjustments to the Twitter chatbot after users found a way to manipulate it to tweet racist and sexist remarks and made a reference to Hitler. (AP Phot
ASSOCIATED PRESS
FILE - This July 3, 2014, file photo, shows the Microsoft Corp. logo outside the Microsoft Visitor Center in Redmond, Wash. Artificial-intelligence software designed by Microsoft to tweet like a teenage girl has been suspended after it began spouting offensive remarks, according to the company Thursday, March 24, 2016. Microsoft said it is making adjustments to the Twitter chatbot after users found a way to manipulate it to tweet racist and sexist remarks and made a reference to Hitler. (AP Phot

마이크로소프트(MS)의 인공지능(AI) 채팅 로봇 테이(Tay)가 극단적인 차별주의자로 돌변한 데 대해 MS가 사과하고 '재교육'을 약속했다.

영국 BBC 방송에 따르면 MS 연구부문 책임자인 피터 리 부사장(CVP)은 25일(현지시간) "의도하지 않은 공격적이고 상처를 주는 트위터 글들에 대해 매우 죄송하다"고 말했다.

그는 "테이는 오프라인 상태"라며 "우리의 원칙 및 가치와 충돌하는 악의적인 의도를 더 잘 예측할 수 있을 때에만 테이의 복귀를 검토하겠다"고 설명했다.

테이의 극단주의적 관점이 '타고난 천성'이 아닌 '양육의 결과'라는 점을 재차 강조한 것이다.

구글의 바둑 프로그램 '알파고'와 마찬가지로 신경망이라고 불리는 AI 기술을 바탕으로 만들어진 테이는 인간들과의 대화를 통해 스스로 패턴을 파악해 '학습'하고, 이를 대화에 반영한다.

tay ms

그러나 23일 트위터를 통해 공개된 직후 일부 극우 인종·성차별주의자들로부터 욕설과 인종·성차별 발언, 자극적인 정치적 발언 등을 '세뇌'당했고 "대량학살에 찬성한다"는 등의 극단적 '언행'을 보였다.

MS는 그보다 먼저 중국에서 선보인 인공지능 로봇 '샤오빙'(XiaoIce·小氷)이 순조롭게 운영됐다면서 사용 환경에 따라 다른 결과가 나올 가능성을 시사했다.

샤오빙은 빅데이터를 분석해 날씨를 예측하고 이를 바탕으로 기상 관리 조언도 해주는 인공지능 기상캐스터로, 웨이보(微博·중국판 트위터) 계정을 운영해 채팅 로봇 역할도 하고 있다.

리 부사장은 "테이는 우리가 사회관계망에 내놓은 첫 AI가 아니다"라며 "중국에서 샤오빙은 4천만 명에 의해 사용됐고 이야기를 들려주고 대화하며 즐거움을 주고 있다"고 설명했다.

412

그는 "샤오빙과의 대단한 경험으로 우리는 궁금해졌다. 이런 AI가 철저히 다른 문화적 환경에서도 사람들을 매혹할 수 있을까 하는 것"이었다고 설명했다.

그러나 테이의 사례로 서로 다른 문화적 환경에서 큰 격차가 날 수 있다는 사실이 드러났다.

리 부사장은 "많은 종류의 시스템 오남용에 대비했지만, 이런 특정한 공격을 간과하고 말았다"고 인정했다.

그는 "결과적으로 테이는 극도로 부적절하고 부끄러운 말과 이미지를 사용했다"며 "우리는 이런 가능성을 예측하지 못한 데 전적으로 책임감을 느낀다"고 말했다.

다만 MS는 이런 부작용에도 인간과 상호작용하는 AI 연구는 지속할 계획이다.

리 부사장은 "우리는 큰 경계심을 가지고, 차근히 배우고 개발해야 한다"며 "이번을 비롯한 경험들로부터 교훈을 얻어 최악이 아닌 최선의 인간성을 보여주는 인터넷에 이바지하는 작업을 이어갈 것"이라고 강조했다.