상단영역

본문영역

AI는 대체 어디까지 똑똑해질 수 있을까?

3D render os a humanoid robot trying to solve a 3D wooden puzzle. Rendered with depth of field.
3D render os a humanoid robot trying to solve a 3D wooden puzzle. Rendered with depth of field. ⓒmennovandijk via Getty Images

큰 변화가 다가오고 있다. 어느 정도 기간에 걸쳐 일어날지는 모르지만, 사회 전반에 영향을 줄 것이며, 이 변화에 참여하는 사람들은 최선의 결과를 위해 노력할 막중한 책임과 기회를 동시에 가진 셈이다. 이 변화를 일으키는 것은 바로 인공 지능(AI)이다.

23개항으로 이뤄진 아실로마 AI 원칙은 AI가 최대한 많은 사람들에게 혜택이 돌아갈 수 있게 하는 틀을 제공한다. 하지만 AI 토비 월시는 아실로마 AI 원칙에 대해 “물론 그건 시작에 불과하다 … 진행 중인 일이다.”라고 말한다. 이 원칙은 의논의 시작을 나타내며, 우리는 각 조항에 대해 광범위한 토론을 시작해야 한다. 예전 원칙들에 대해 매주 있었던 토론은 여기서 읽을 수 있다.

능력치에 대해

AI 연구자들에게 있어 가장 큰 의문 중 하나는 AI가 얼마나 똑똑하고 유능해질 수 있는가? 이다.

최근 몇 년 동안 AI는 크게 발전했다. 딥마인드의 알파고는 복잡한 게임인 바둑에서 인간을 앞섰다. 딥마인드는 아타리 게임을 재빨리 익혀 인간보다 훨씬 더 잘 할 수 있는 AI도 만들었다. 번역, 자동 운전 차량, 새로운 의학용 분자 제작 AI에서도 혁신이 일어났다.

AI는 얼마나 더 발전할까? 한정된 분야의 작업에만 능할까, AI 하나가 대부분의 작업에서 인간을 능가할 정도로 넓은 학습 기술을 갖게 될까? 우리가 상상할 수 있는 것보다 더 지적인 AI에 어떻게 대비해야 할까?

일부 전문가들은 수십 년 안에 인간 수준, 심지어 인간을 넘어서는 수준의 AI가 나올 수 있다고 생각하는 반면, 그건 불가능할 거라 보는 사람들도 있다. AI가 앞으로 이룰 수 있는 성취에 대한 확고한 증거가 생기기 전까지는 상한선은 없다고 생각하는 게 안전하다. 즉 현재로선 모든 게 가능하고 우리는 그에 따라 계획을 세워야 한다는 것이다.

이것이 능력치에 대한 원칙의 기본이다. 의견 합의가 없으므로, 미래 AI의 능력의 상한선에 대한 강한 상정은 피해야 한다는 것이다.

전문가의 의견

전문가들은 능력치에 대한 주의의 원칙에 동의하기도 하고 반대하기도 한다. 내가 인터뷰한 모든 사람들은 전반적으로 우리가 AI의 상한선을 상정해서는 안 된다고 동의했지만, 그들의 논리는 달랐고 우려를 제기한 이들도 있었다.

스탠포드 부교수 스테파노 어몬과 루이스빌 대학교 부교수 로만 얌폴스키는 안전한 게 낫다는 입장이다.

어몬은 미래를 예측하는 것이 얼마나 어려운지 역사 속의 사례를 들었다. “미래 예측은 늘 어렵다 … 사람들이 백 년 전에 미래가 어땠을지 상상했던 것을 보라 … 그들에겐 현재의 모습을 상상하기가 아주 어려웠을 것이다. 우리도 미래를 예측할 때 그와 비슷한 아주 조심스러운 시각을 가져야 한다고 본다. 지극히 어렵다면 안전한 길을 택하는 게 낫다.”

얌폴스키는 현재의 테크 안전 정책을 두고 “복잡성이나 암호 해독과 같은 여러 컴퓨터 과학 분야에서 기본적으로 최악의 시나리오를 상정한다. AI 안전에서도 우리는 AI가 최대한의 능력을 가질 거라고 상정하고 그에 따라 준비해야 한다. 우리가 강하다면 앞으로도 잘 지낼 수 있을 것이다.”

워싱턴 대학교의 댄 웰드 교수는 이 원칙에 대해 “나는 동의한다! 과학자로서, 나는 그 무엇에 대해서도 강력한 혹은 근거 없는 상정을 하는 것에 반대한다. 그러므로 나는 물론 동의한다.”라고 말했다.

그러나 웰드는 원칙의 기본적 아이디어에는 동의했지만, 어느 정도 거리를 두었다. “난 그 원칙이 불편하다 … AI가 곧 초인처럼 되고, 금세 전반적인 지성을 갖출 위험이 있으니 우리가 걱정해야 한다고 암암리에 말하는 것처럼 느껴지기 때문이다. 그런 주장을 내가 우려하는 이유는 더 크고 중요한, 더 빨리 닥칠, 더 큰 위험성을 내포하고 있는 문제들에서 관심을 돌리게 만들기 때문이다. 내가 더욱 걱정하는 것은 일자리 상실이고, 건강 보험, 교육, 기본 소득 보장이 스카이넷보다 더 우려된다. AI 시스템이 갑자기 잠에서 깨어나 자기가 세상을 운영해야겠다고 생각하는 것보다는, 어느 테러리스트가 AI 시스템을 장악해 미국인들을 다 죽이도록 프로그램하는 게 훨씬 더 우려된다.”

IBM 리서치의 구루두스 바나바는 다른 관점에서 AI의 능력에 상한선을 정하면 인간에게 혜택이 될 기회를 제거할 수 있을 것이라 우려한다. “우리가 현재 이해하고 있는 지성이라는 것이 가능한 모든 출처로부터 정보를 얻어 처리하고 미래 예측 및 미래에 대한 적응에 사용하는 능력이라는 걸 의미한다. 기계가 할 수 있는 영역에 있는 일이다 … 나는 우리가 기계의 지성의 상한선을 상정하지 말아야 한다고 생각한다. AI가 얼마나 발전할 수 있는가에 대해 인위적 한계를 정하고 싶지 않기 때문이다.”

IBM의 연구자 프란체스카 로시는 또 다른 관점을 가지고 있다. AI는 인류의 능력의 최대치를 발휘하기 위해 필요하다는 입장이다. 인류의 능력에 상한선을 정하는 것 역시 우리가 원하는 바는 아니다.

“나는 개인적으로 인간의 지성을 대체하는 게 아니라 인간의 지성을 보완하는 AI 시스템을 만드는 걸 지지한다. 그리고 인간의 지성을 보완한다는 점에서 AI가 모두의 개인적, 직업적 삶을 훨씬 더 낫게 만들어 줄 큰 가능성이 있다고 생각한다. 그런 점에서 나는 미래의 AI의 능력의 상한선이 있다고 생각하지 않는다. 나는 점점 더 AI 시스템이 인간과 함께 손을 잡고 인류의 지성을 키워 줄 거라고 생각하게 된다. 우리의 지성은 기계의 지성을 보완하게 될 것이며, 이로 인해 우리는 더 나은 결정을 내리고 더 나은 삶을 살게 될 것이다. 지금 우리가 해결 방법을 모르는 문제도 풀게 될 것이다. 난 거기에 상한선은 없다고 생각한다.” 로시의 말이다.

당신의 생각은 어떤가?

AI의 지성에 상한선이 있을까? 우리가 AI로 얻을 수 있는 일에 상한선이 있을까? AI의 발달에 시간이 얼마나 걸릴까? 이러한 불확실성이 있는데 어떻게 미래 계획을 세울까? 사회 전체가 어떻게 이런 질문에 응답할 것인가? 우리는 AI의 능력에 대해 또 어떤 질문을 해야 할까?

허핑턴포스트US의 How Smart Can AI Get?를 번역, 편집한 것입니다.

저작권자 © 허프포스트코리아 무단전재 및 재배포 금지
이 기사를 공유합니다

연관 검색어 클릭하면 연관된 모든 기사를 볼 수 있습니다

#과학 #인공지능 #AI #지능 #진화 #컴퓨터 #뉴스