상단영역

본문영역

인공지능이 더 발달하면 법은 이렇게 바뀔지도 모른다

인공지능은 인간 생활에 어마어마한 영향을 미칠 것이다. 현재 대중이 가장 관심을 갖는 것은 경제다. 그 중에서도 직업과 관련된 것들이 많다. 당장 우리, 혹은 자녀 세대의 삶에 강한 영향을 미칠 것으로 보기 때문이다. 그런데 막상 인공지능이 우리 삶 깊숙이 들어오게 되면, 상상도 못할 일들이 벌어질 영역이 있다. 바로 법이다. 스스로 판단하여 행동하는 인공지능을 전제로 하여 제정된 법은 아직까지 없다. 인공지능의 발달로 자연스럽게 법적인 개념과 원칙이 바뀔 수밖에 없다. 인공지능과 법에 대해 알아 보았다.

1. 사람이 인공지능 로봇이 저지른 일에 책임을 져야 할까?

“로봇 개인 비서에게 식당에 식사 예약을 하고, 처방전을 새로 받아오고, 여행 항공권과 숙소를 예약하는 등의 간단한 용무를 시키면 약간의 위험도 따르고 돈도 들겠지만, 그에 따른 편리성을 생각하면 도입을 충분히 고려해 볼 만하다. 하지만 로봇의 행동에 전적으로 책임을 져야 하는 탐탁지 않은 상황도 발생할지 모른다. …. 이런 생각을 하다보면 자율적으로 행동하며 대리인 역할을 하는 로봇에게 잘못의 책임을 돌리는 법률이 필요하다는 쪽으로 갑자기 생각이 기울지 모른다. 이와 같은 잠재적 가능성을 고려할 때 우리가 이미 일부 비자연인 주체에게 행동의 책임을 묻는 경우가 있음을 참고하면 도움이 될 것이다. 그 주체는 바로 법인이다.” (책 ‘제리 카플란 인공지능의 미래’, 제리 카플란 저)

로봇이 잘못을 저질렀을 때 그것을 소유한 개인이 전적으로 책임을 져야 할까? 이 경우 뜻하지 않게 소유자인 인간이 책임져야 하는 범위가 커질 수 있다. 그것을 막기 위해 저자는 법인이 로봇을 소유하도록 하면 된다고 말한다. 혹시라도 자율주행택시가 복면을 한 사람을 태운 후 은행 앞에 가서 잠시 시동을 켠 채로 기다리라고 요구한 경우에 택시 소유주가 강도의 공범이 되는 것은 막아야 하기 때문이다.

2. 인공지능에게 소유권을 인정해야 할까?

“인공지능 시스템이 스스로의 자산에 독립적인 행위를 하도록 허용할 경우 잠재적인 위험도 따른다. 법인은 행동을 취할 때 전적으로 인간에 의존하는 데 비해서, 이런 시스템들은 원칙적으로 혼자 힘으로도 행동에 나설 수 있기 때문이다. 이들은 사업 전략을 수립하고, 투자하고, 신제품이나 새로운 절차를 개발하고, 발명품 특허를 신청하고, 그리고 무엇보다도 재산을 소유할 수 있는데 놀랍게도 다른 인공지능 시스템을 소유하는 것조차 가능하다. …. 그런 독립적인 인공지능 시스템들은 궁극적으로 자기 스스로를 위해 경쟁하기 때문에, 인간이 관리하는 다른 시스템보다 월등히 앞서 나갈 가능성도 있다. 특히 이런 시나리오는 인간이 로봇을 위해서 일하는 무시무시한 세상에 이를 가능성도 제기한다. …. 그렇다고 기계에 자산 보유 권한을 비롯해서 그 어떤 권리도 일절 주어서는 안 된다는 말은 아니지만, 그런 권리는 어느 정도 수준으로 제한되거나, 적격성 검사를 거치거나 운영 허가를 획득하는 등의 일정 책임이 동반되어야 한다.” (책 ‘제리 카플란 인공지능의 미래’, 제리 카플란 저)

어려운 문제다. 인공지능이 무엇을 소유한다는 개념이 지금으로서는 머릿속에 명확히 그려지진 않는다. 하지만 인간보다 똑똑하고 결정도 매끄럽게 내리는 존재이니 자산도 더욱 잘 관리할 수 있지 않을까? 저자는 “충분한 능력을 갖춘 인공지능 시스템은 법인과 마찬가지로 법의 적용을 받는 ‘인(人)’으로 한정할 수도 있을 것이다.” (책 ‘제리 카플란 인공지능의 미래’, 제리 카플란 저) 라고 자신의 의견을 밝힌다. 가까운 미래에 지금의 법들이 상당 부분 바뀔 수밖에 없음이 확실해진다.

3. 인공지능이 범죄를 저지를 수 있을까?

“행위자는 자신이 하는 행동이 도덕적으로 잘못됐다는 사실을 알았을 터이다. 법은 죄를 범한 사람에게는 도덕적 행위력(moral agency)이라고 불리는 능력이 있다고 본다. 도덕적 행위력은 행위자가 자신의 행동의 결과를 이해할 수 있으며, 자신의 행동을 선택할 권리가 있다는 두 가지 전제를 둔다. 그런데 놀랍게도 꼭 인간이 아니더라도 도덕적 행위력을 갖춘 대상이 될 수 있다. …. 그렇다면 컴퓨터 프로그램도 도덕적 행위자가 될 수 있을까? 도덕적 행위자의 정의를 충족하기 때문에 ‘그렇다’고 보아야 한다. 자기가 하는 행동을 인식하고, 그 행동이 불법임을(그래서 비윤리적이라는 사실을) 알고, 스스로의 행동을 선택할 수 있는 프로그램을 만들지 못할 이유가 없다. 도덕적 행위자가 되기 위해서 반드시 옳고 그름을 ‘느낄’ 수 있어야 하는 건 아니다. 그저 옳고 그름의 차이만 알 수 있으면 된다.” (책 ‘제리 카플란 인공지능의 미래’, 제리 카플란 저)

이런 내용을 연구하는 분야를 컴퓨터 윤리라고 부른다. 많은 연구자들이 이 부분을 고민하고 프로그램에 반영하려고 노력 중이다. 도덕적인 인간처럼 도덕을 중시하고 지키는 인공지능이 필요한 시점이 왔다. 생활 깊숙이 인공지능이 들어오면서, 인간과 마주칠 일들이 많아졌기 때문이다. 저자는 앞으로 기술적으로 중요한 도전은 적절한 사회성을 갖추고 옳고 그름에 관한 인간의 감각을 존중하는 컴퓨터 프로그램을 만드는 것”(책 ‘제리 카플란 인공지능의 미래’, 제리 카플란 저)이라고 말한다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#허프북스 #인공지능 #로봇 #인공지능 책임소재 #인공지능 소유권 #인공지능 범죄 #컴퓨터 윤리 #뉴스