상단영역

본문영역

인공지능 로봇이 현실이 되면 우리는 이런 고민을 하게 될 것이다

인공지능은 SF소설이나 영화에 종종 등장한다. 인간의 친구일 때도 있고, 인간에게 맞서 싸우기도 한다. 또는 그 두 그룹이 모두 나오기도 한다. 현실은 어떤가? 아직 인공지능이 인간과 대등한 관계를 맺지 못하고 있다. 물론 퀴즈 프로그램, 체스 경기, 바둑 경기 등 부분적으로는 인간을 뛰어넘기도 했다. 그렇지만 인간과 자유로운 대화조차 못하는 수준에 머무르고 있다. 하지만 언젠가는 인간의 수준에 도달할 것이고, 뛰어넘게 될지도 모른다. 그때쯤 인공지능의 윤리적 문제는 화두가 될 확률이 높다. 한 번도 겪어보지 못한 상황이다. 인공지능에는 어떤 윤리적 화두가 제기될 수 있을까?

1. 윤리적 로봇을 만드는 일은 인간 윤리 자체를 발전시킨다.

“로봇이 가사도우미가 되는 세상이 곧 닥친다고 해보자. 오전 11시가 다가오는 시간, 아빠는 거실에 있는 로봇한테 리모컨을 가져오게 해서 아침 뉴스를 시청 중이다. 그런데 엄마도 다른 채널을 보고 싶어서 로봇더러 리모컨을 가져오라고 한다. 로봇은 리모컨을 엄마에게 가져다 주기로 한다. 아빠는 당황한다. 그런데 로봇이 아빠에게 당신은 어제 좋아하는 아침 뉴스쇼를 봤으니 이번에는 엄마가 원하는 TV 프로를 보는 것이 합당하다고 설명한다. 이런 상황은 일상에서 흔히 일어날 만한 윤리적 결정에 관한 문제가 어떤 곤란함을 일으킬지 보여준다. 기계가 이런 일을 매끄럽게 다루기는 어려울 것이다. …. 예상치 못한 새로운 상황에 로봇 스스로 윤리적 원칙을 적용하게 하는 것이 해결책이 된다. 리모컨을 누구에게 먼저 줄지 결정하기보다는 누구에게 새 책을 먼저 읽으라고 권할지를 고려해보는 것이다. 이런 접근 방법을 쓰면 자신의 행동을 판단해야 하는 순간에 로봇이 윤리적 원칙에 따라 움직이도록 하는 장점도 있다. 로봇의 행동은 기본적으로 인간이 느끼기에 편안해야 한다는 점을 생각하면 이는 매우 중요한 부분이다. 덧붙여 말하면 윤리적 로봇을 만드는 일은 철학자들이 실생활을 들여다보게 함으로써 윤리 자체를 발전시키는 효과도 있다. 터프츠대학 철학자 대니얼 데넷(Daniel C. Dennett)은 이를 “인공지능이 철학을 정직하게 만든다”라고 표현했다.” (책 ‘인공지능: 컴퓨터가 인간을 넘어설 수 있을까?’, 사이언티픽 아메리칸 편집부 저)

로봇의 행동에는 어쩔 수 없이 윤리적 원칙이 적용되어야 한다. 인간을 도와주는 행동이라고 모두 윤리적일 수는 없기 때문이다. 예를 들어서 절도범의 로봇이 절도 행위를 도와주는 것은 반윤리적이다. 따라서 앞으로 제작될 인공지능 기반의 로봇에는 반드시 윤리적 내용이 프로그래밍되어야 한다. 인간 생활 속 각종 윤리 문제들을 하나씩 따져볼 수밖에 없다. 자연스럽게 로봇의 개발 과정에서 인간 윤리 자체를 발전시키게 된다. 로봇과 인공지능 덕분에 올바름을 다시 한번 생각해 보는 셈이다.

2. 로봇 3원칙은 항상 옳은 것일까?

“공상과학소설 애호가들이라면 아이작 아시모프가 그의 작품에서 로봇 3원칙을 제시한 것을 떠올리며 답이 이미 나와 있다고 생각할지도 모른다.

1. 로봇은 인간을 해치거나, 아무 행동을 하지 않음으로써 인간에게 해를 끼쳐서는 안 된다.

2. 로봇은 인간이 내리는 명령이 1원칙에 어긋나지 않는 한 명령에 복종해야 한다.

3. 로봇은 1원칙과 2원칙에 어긋나지 않는 한 자신을 보호해야 한다.

그러나 아시모프가 1942년에 발표한 단편소설에서 처음 제기한 이 법칙에는 일관성이 없다는 것이 밝혀졌다. 아시모프 자신도 1976년 소설 ‘바이센테니얼 맨(The Bicentennial Man)’에서 이 원칙이 적합치 않음을 보여주었다. 인간 악당들을 로봇한테 스스로를 해치라고 명령했다. 로봇은 2원칙 때문에 악당들의 명령에 복종할 수밖에 없었고, 이 악당들을 해쳐야만 자신을 보호할 수 있었는데 이는 1원칙에 위배되는 행위였다.” (책 ‘인공지능: 컴퓨터가 인간을 넘어설 수 있을까?’, 사이언티픽 아메리칸 편집부 저)

로봇 3원칙은 꽤나 유명한 법칙이다. 그런데 서로 모순적인 내용을 담고 있다. 기계에게 윤리를 주입하는 것은 불가능할까? 일부는 그렇다고 이야기한다. 윤리는 수식화될 수 없기 때문이라고 근거를 댄다. 주관적인 개념이지만 도덕적 계산으로는 윤리를 계산하는 것은 가능하다고 보는 견해도 있다. 또한 기계가 감정이 없기 때문에 윤리적 결정이 불가능하다는 의견들도 있다. 이에 맞서 인간은 오히려 감정이 넘쳐 충동적 행동을 함으로써 윤리적이지 않은 행동을 하기 쉽다는 의견들도 있다. 참으로 어려운 주제다. 이 책의 저자는 "감정을 갖지 않으면서도 공정하고, 판단할 때 인간의 감정을 고려하는, 적절하게 훈련된 기계를 충분히 만들 수 있다."고 정리한다. (책 ‘인공지능: 컴퓨터가 인간을 넘어설 수 있을까?’, 사이언티픽 아메리칸 편집부 저)

3. 환자 로봇은 어떠한 윤리적 문제에 맞닥뜨리게 될까?

“…. 로봇이 환자에게 투약 시간이 되었음을 알려주고 환자가 약을 복용하지 않으면 담당자에게 알려주도록 해두었다. 로봇은 다음과 같은 세 가지 원칙 사이에서 균형을 찾아야 한다. * 치료에 진전이 있도록 환자는 약을 먹어야 한다. * 환자가 제때 약을 먹지 않아서 문제가 일어나는 일이 없어야 한다. * 환자(스스로 판단할 능력이 있는 성인)의 자율성을 존중해야 한다. …. 기존 사례를 입력받은 뒤, 지능형 자가학습 기능 시스템은 다음과 같은 규칙을 만들어냈다. 건강 보조 로봇은 환자 상태를 호전시킨다는 원칙을 심각하게 위반하거나, 환자가 약을 먹지 않음으로써 피해를 입을 가능성이 있다면 무작정 환자의 결정을 받아들여서는 안 된다. 이는 환자의 자율성을 무시하는 내용이다. 이 원칙을 프랑스의 알데바란로보틱스사(Aldebaran Robotics)가 만든, 휴머노이드 로봇 나오(Nao)에 입력했다. 약을 복용해야 하는 환자를 찾은 후 약을 가지고 환자에게 걸어가 이 사실을 알려주고, 언어를 이용해서 환자와 대화하고, 이메일을 이용해서 관리자(보통은 내과의사가 담당)에게 전달할 내용을 보내주는 것이 나오의 일이다.” (책 ‘인공지능: 컴퓨터가 인간을 넘어설 수 있을까?’, 사이언티픽 아메리칸 편집부 저)

간단한 듯하지만 환자들에게 약을 건네는 행동도 만만치는 않다. 환자가 약을 거부할 때, 혹은 약을 더 달라고 할 때, 약을 먹고 난 후 이상 반응을 보일 때 등 로봇이 스스로 판단해야 할 순간이 생각보다 많다. 그리고 윤리적 문제와 연결되는 경우가 대부분이다. 궁극적으로는 인간의 윤리적 행동에 대한 고민과 맞닿는다. 로봇의 윤리에 대한 고민은 인간의 윤리에 대한 고민과 같은 내용일 수밖에 없다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#허프북스 #로봇 윤리 #로봇 #인공지능 #로봇 3원칙 #아시모프 #뉴스