UPDATED. 2024-03-29 17:18 (금)
인공지능의 시대, 우리는 어떤 윤리 헌장이 필요한가?
인공지능의 시대, 우리는 어떤 윤리 헌장이 필요한가?
  • 박이택 본지 편집기획위원, 고려대 연구교수
  • 승인 2019.06.14 13:54
  • 댓글 0
이 기사를 공유합니다

현재에도 인공지능이나 휴머노이드 로봇과 관련된 윤리적 문제들은 발생하고 있어
문제는 우리가 인공지능에게 학습시킬 사회적 행동의 규범 체계를 만들지 못하고 있다는 것

[커버스토리 - AI와 인간 어떤 길을 갈 것인가? - 인공지능과 윤리문제]

특이점은 올 것인가?

레이 커즈와일의 『기술이 인간을 초월하는 순간 – 특이점이 온다』는 2005년 서점가를 강타했다. 그의 예언처럼, 인간을 뛰어넘은 인공지능이 출현하는 특이점은 올 것인가? 이 물음에 대한 답은 여전히 논쟁 중이다. 구글 딥마인드의 창업자인 데미스 하사비스나 테슬라 회장인 엘론 머스크, 『슈퍼 인텔리전스』의 저자인 닉 보스트롬은 특이점이 올 것이라고 확신하는 반면, 『인공지능: 현대적 접근방법』의 저자인 스튜어트 러셀, 『인간은 필요 없다』 의 저자인 제리 카플란 등은 특이점론은 변형된 종말론 그 이상이 아니라고 본다.

이러한 특이점 논쟁의 한 편에는 기술적 진보가 인류에게 가져다 줄 편익성과 위험성을 저울질 함으로써 통제 불능의 위험성을 경고하거나, 인류의 존재를 업그레이드 시켜 줄 혁신적인 미래를 장담하는 또다른 논란을 낳는다. 기술적 특이점이나 초인공지능에 의해 통제불능의 위험 상태에 빠질 수 있다는 인식은 개발자와 과학자에게 인공지능 윤리 헌장을 스스로 만들도록 하고 있다. 과연 특이점은 올 것인가, 그리고 더 강한 인공지능이 필연적이라면 우리에겐 어떤 윤리 헌장이 필요할까?

인공지능의 끝은 전뇌 에뮬레이션(Whole Brain Emulation)?

사실 인공지능이 인간을 능가할 수 있음을 보여주는 부정할 수 없이 명백한 성취들이 이미 이루어졌다. 게임 중 경우의 수가 가장 많아 인공지능이 인간을 이기기 힘들어 보였던 바둑에서, 2016년 이세돌에게 1패 한 이래로 알파고는 인간과의 대국에서 68승을 거둔 채 대적자 없는 바둑계를 은퇴했다. 인공지능은 논리연산이나 수치계산, 데이터 베이스 관리 등에 능할 뿐 사물의 식별이나 음성인식은 어린아이보다 못하다고 놀려댔지만, 현재 인공지능의 안면인식이나 음성인식은 인간을 훨씬 능가하는 수준에 이미 이르렀다.

이 놀라운 성취는 그 이전 시기에는 가능하지 않았던 방대한 데이터의 존재와 컴퓨터 성능의 획기적인 발전과 더불어 무엇보다 새로운 알고리즘에 의해 가능한 것이었다. 그렇다면 이 새로운 알고리즘의 발전에 한계란 없을까. 그것에 답하는 것은 특이점과 인공지능 윤리 문제의 답을 제공해 줄 것이다. 그 답을 찾기 위해 인공지능의 역사를 되돌아 볼 필요가 있다.

최초의 인공지능 붐은 20세기 중반에 있었다. 1차 인공지능 붐은 기호논리학과 계산기과학의 발전에 힘입은 것으로서, 화이트헤드와 러셀이 보편대수론의 체계를 완성하기 위해 쓴 『Principia Mathematica』에 등장하는 명제들을 증명할 수 있었다. 하지만 어린아이도 할 수 있는 간단한 일도 하지 못했다. 1980년대에 일어난 제2차 인공지능 붐은 지식의 데이터 베이스를 구축하고 그것으로부터 필요한 정보를 추출하는 전문가 시스템을 구현하는 방향으로 발전하였다, 그러나 지식의 효율적인 축적 체계를 만들지 못해 제한된 성공을 이루었을 뿐이다. 이 축적 체계를 만든 것이 현재의 제3차 인공지능 붐이다. 제3차 인공지능 붐은 전문가가 자료로부터 추출할 특징을 특정하지 않아도 인공지능 스스로 특징들을 추출하여 학습할 수 있는 심층학습 방법이 개발되었고, 이 심층학습은 인터넷과 IoT의 발전으로 축적된 학습 자료 즉 빅데이터들이 있었기에 진전될 수 있었다.

이러한 인공지능 연구는 모두 본질적으로 인간의 뇌가 할 수 있는 일을 알고리즘으로 대체하는 것이다. 즉 인간의 뇌를 모방하는 알고리즘 체계를 만드는 것이다. 논리적 추론과 계산을 할 수 있는 인간의 뇌를 모방하려 한 것이 제1차 인공지능 붐이었다면, 제2차 인공지능 붐은 다양한 지식을 뇌 속에 저장해 두고 이 지식 창고에서 필요한 정보를 추출하고 결합 추론하여 상황에 맞는 판단을 내리는 뇌를 모방하려 한 것이었다. 지금의 제3차 인공지능 붐은 다층 신경망 방식으로 작동하는 인간의 뇌를 에뮬레이트하는 방식으로 진행되었으며, 이른바 인간 뇌를 완전히 모방하는 전뇌 에뮬레이션(Whole Brain Emulation)의 구현, 즉 인간 뇌의 신경 네트워크의 구조를 통째로 복제해서 컴퓨터로 재현하는 것을 지향하고 있다.

휴머노이드 로봇은 초지성이 될 수 있을까?

그런데 세상에는 신체는 없고 뇌만 있는 지능적 생물은 없다. 또한 사회적 관계를 형성하지 않는 지능적 생물도 없다. 왜 그런가? 이 간단한 물음은 1990년까지는 거의 제기되지 않았다. 인지과학은 오래도록 풀리지 않는 문제들을 해결하면서 비로소 신체와 사회적 관계가 지능에 대해서 갖는 중요성을 깨닫게 되었다. 이때에야 비로소 왜 뇌만 있는 지능적 생물은 없는지 물어보게 된 것이다. 이 물음에 대한 답을 추구하는 지적 고투 속에서 이제 뇌만 있는 지능 시스템 즉 전뇌 에뮬레이션 프로젝트만으로는 결코 인간을 능가하는 범용 인공지능이 탄생할 수 없다는 점이 분명해졌다.

그런 점에서 오래 전부터 알고리즘이 아니라 인간의 신체와 동일한 외양을 갖는 인공지능체 즉 휴머노이드 로봇을 윤리학적 대상으로 삼았던 것은 현명한 선택이었다. 휴머노이드 로봇은 인공지능일 뿐만 아니라 신체와 사회적 관계를 가진다는 점에서 전뇌 에뮬레이션 프로젝트를 뛰어넘는 새로운 인공지능체의 출현을 가능하게 할 수도 있기 때문이다.

물론 아직 휴머노이드 로봇을 윤리학적 대상으로 본다고 했을 때, 도덕적 행위자 즉, 자유 의지를 가진 도덕적 판단 주체가 될 수 있을 것인가를 판단하기 위해 넘어야 할 산은 많다. 자유 의지를 가진 도덕적 판단 주체로 진화하게 된 주요한 메커니즘은 무엇이었을까? 호혜적으로 행동하는 전략이 개인의 생존능력을 강화하였기 때문에 도덕성이 발전한 것인지, 호혜적 규범을 유지한 집단의 집단 재생산 능력이 강화하였기 때문에 도덕성이 발전한 것인지에 대한 논란은 도덕성이 개인주의적 기원을 갖는지 집단주의적 기원을 갖는지와 관련된 문제일 뿐만 아니라, 전자에서는 종의 재생산을 위한 자기 복제와 세대 교체라는 생명이 문제되지 않지만, 후자에서는 생명이 중요한 문제가 된다는 점에서 도덕과 생명의 문제와도 관련된 문제이다. 아직 어느 것이 맞는지 논란거리이지만, 도덕과 생명의 긴밀한 연계를 생각해 본다면 종의 재생산을 위한 자기 복제와 세대 교체라는 생명현상을 가지지 못한 로봇은 자유의지를 가진 도덕적 판단 주체로 진화하기 어렵다는 견해를 가지는 사람들이 더 우세하게 되어가는 느낌이다.

아직 휴머노이드 로봇을 윤리학적 대상으로 본다고 했을 때, 도덕적 행위자 즉, 자유 의지를 가진 도덕적 판단 주체가 될 수 있을 것인가를 판단하기 위해 넘어야 할 산은 많다. 사진=AI
아직 휴머노이드 로봇을 윤리학적 대상으로 본다고 했을 때, 도덕적 행위자 즉, 자유 의지를 가진 도덕적 판단 주체가 될 수 있을 것인가를 판단하기 위해 넘어야 할 산은 많다. 사진=AI

물론 자유 의지를 가진 도덕적 판단 주체가 아니라고 해서 도덕적 피해자성이 부정되는 것은 아니다. 어린 아이가 아직 자유 의지를 가진 도덕적 판단 주체로 성숙하지 않았다고 하여 그 아이를 죽이는 것이 살인죄가 되지 않는 것은 아니다. 생명윤리와 환경윤리 등에서 보듯이 도덕적 행위 능력이 없는 존재의 도덕적 피해자성이 광범하게 허용되고 있기 때문에, 도덕적 행위자로 발전할 가능성도 있는 휴머노이드 로봇이 어떤 도덕적 행위자성을 가지는가에 대해서는 진지하게 논의할 필요가 있다.

아시모프의 로봇 3원칙을 로봇 윤리의 모범으로 삼아야 할까?

휴머노이드 로봇의 도덕적 행위자성에 대한 논의는 통상 아시모프가 1942년에 쓴 공상과학소설 『런어라운드』에서 제시한 로봇 공학 3원칙에서 출발하는데, 우리도 아래에 제시한 아시모프의 로봇 공학 3원칙부터 검토하도록 한다.

제1원칙: 로봇은 인간에게 해를 끼쳐서는 안 되며, 인간이 해를 당하도록 방관하고 있어서도 안된다.

제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.

제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 자기 자신을 보호해야만 한다.

이 원칙들이 매우 친숙해 보이는 것은 인간의 과거 역사에 비일비재하게 존재하였던 주종제적 질서에 다름 아니기 때문이다. 그러나 이와 같은 주종제적 질서는 과연 바람직한 관계일까? 만약 인공지능이 초지능적 존재로 된다면, 이제 로봇은 로봇이 주인이 되고 인간은 종이 되는 세상을 구현하려 할 것이다. 그렇게 되었을 때 인간은 절멸(extinction)하거나, 로봇이 없는 공간에 숨어 고립(isolation)된 삶을 살거나, 로봇의 종이 되는 열위(inferiority)의 상태에 빠질 것이다. 단, Chalmers는 기계가 인간보다 더 지능적으로 되었을 때 나타날 것에 대해 쓴 “The Singularity: A Philosophical Analysis”(Journal of Consciousness Studies, Vol. 17, 2010)이라는 논문에서 특이점 이후 인간은 절멸, 고립, 열위 이외에 또 하나의 가능성을 남겨두었는데, 바로 통합(integration)이 그것이다. 나머지 하나의 가능성이 실현되게 하려면 우리가 취해야 할 로봇 윤리는 아시모프의 원칙과는 다를 것이다.

우리는 어떤 원칙을 마련하여야 할까? 이제 다음과 같은 로봇 3원칙을 생각해 보자.

제1원칙: 인간은 로봇을 사랑하고, 로봇은 인간을 사랑해야 한다.

제2원칙: 인간이 위험에 처했을 때 로봇은 인간을 구해야 하며, 로봇이 위험에 처했을 때 인간은 로봇을 구해야 한다.

제3원칙: 인간과 로봇의 이해가 상충할 때는 최대한 win-win 할 수 있는 새로운 해법을 모색하며, 그렇게 할 수 없을 때는 더 나쁜 처지에 빠진 쪽의 상태가 덜 나빠지는 것을 선택한다.

주종제적 질서에 기반한 로봇 3원칙이 아니라 친애와 긴급구조와 미니맥스를 원칙으로 한 로봇 3원칙을 채택하는 것이 더 나은 이유를 여러 가지 들 수 있는데, 이 중 네 가지만 들어본다. 첫째, 이제 휴머노이드 로봇은 인간을 대체하는 존재가 아니라 인간의 생존을 강화하는 존재가 될 수 있다. 둘째, 우리는 더 이상 특이점의 도래를 두려워할 필요가 없는데, 특이점이 도래한 이후에도 인간은 절멸(extinction)이나 고립(isolation)이나 열위(inferiority)가 아니라 바로 통합(integration)에 이를 것이다. 셋째, 인간은 로봇보다 인간을 더욱 사랑할 것이기 때문에 인간 사회도 그 이전보다 더 친애가 가득한 미덕 공동체가 될 수 있을 것이다. 넷째, 이와 같은 세상에서는 로봇에 의해 대체되는 사람의 일자리보다는 로봇을 꾸미고 로봇을 수리하고 로봇을 교육하는 사람의 일자리가 훨씬 많이 생기게 되는 것은 아닐까? 자동차가 지게꾼이나 인력거 차부를 대체했지만, 자동차가 만들어낸 노동수요는 그것이 소멸시킨 일자리보다 훨씬 많아졌던 것처럼 말이다.

문제는 인공지능의 비윤리성이 아니라 우리들의 비윤리성이다.

인공지능이나 휴머노이드 로봇이 자유 의지로 행한 윤리적 판단이 문제를 야기할 수도 있지만, 그것은 아직 실현되지 않은 미래의 이야기이다. 그러나 현재에도 인공지능이나 휴머노이드 로봇과 관련된 윤리적 문제들은 발생하고 있다. 왜 그럴까? 그것은 인공지능 때문에 발생한 윤리적 문제라기보다는 우리 사회가 안고 있는 윤리적 문제, 그리고 정보사회가 가져온 새로운 윤리적 위험에 대한 대응책의 미비에서 발생한 문제 등이 인공지능이라는 거울을 통해 우리 앞에 선명하게 부각되어 나타난 현상이다.

사실 우리가 윤리적 딜레마가 없는 사회적 행동의 규범을 완비하고 있다면 인공지능이나 휴머노이드 로봇과 관련된 윤리적 문제는 쉽게 해결될 수 있다. 이미 웬델 월러치(Wendell Wallach)와 콜린 알렌(Colin Allen)은 『왜 로봇의 도덕인가』에서 완벽하지는 않지만 두 가지 해법을 제시한 바 있다. 윤리학 이론을 알고리즘으로 탑재한 하향식(top-down) 접근법과 기계학습이나 동료 로봇의 협력적 학습으로 윤리적 판단 능력이 창발하도록 하는 상향식 (bottom-up) 접근법이 그것이다. 『왜 로봇의 도덕인가』가 출간된 이후 로봇을 인공적 도덕 행위자(artificial moral agent)로 만들려는 노력은 계속 진행되어 이제 상당한 성과를 거두게 되었는데, 그 현 상태를 알고 싶은 사람은 Luís Moniz Pereira와 Ari Saptawijaya가 최근에 저술한 『Programming Machine Ethics』(Springer, 2016)을 일독해 보기를 권한다.

문제는 우리가 인공지능에게 학습시킬 윤리적 딜레마가 없는 사회적 행동의 규범 체계를 만들지 못하고 있다는 점이다. 예컨대 어떤 사람이 동성결혼은 허용하여야 하는지 인공지능에게 물어본다고 하자. 그러면 인공지능은 어떻게 대답하여야 할까? 사실 인공지능은 그에게 답을 줄 수도 있지만, 그것은 인공지능이 학습한 데이터로부터 얻은 통계적 추론일 뿐, 인공지능의 도덕적 판단이 개입되어 있는 것은 아니다. 인공지능의 답에 문제가 있다면, 그것은 우리의 일상적인 표현 속에 들어 있는 비윤리성의 문제이거나 인공지능이 학습한 데이터의 샘플 바이어스의 문제일 수 있다.

우리는 어떤 윤리 헌장을 만들어야 하는가?

남북전쟁 이전 미국 노예제 사회라면 흑백 인종 차별의 논리를 펴는 인공지능은 현명한 인공지능으로 평가받았을지 모른다. 그러나 현재 미국에 그와 같은 인공지능이 있다면 미국 사회에서 추방하여야 할 비윤리적 존재로 평가될 것이다. 이처럼 윤리란 각 개인의 인격과 행복 추구권을 보장하면서 공정성과 포용성을 높이는 방향으로 진전되어 왔다. 그리고 우리들은 보다 나은 윤리적 이상사회를 만들기 위해 우리의 윤리체계를 창발적으로 개선해 나가야 하며, 아직 그 일은 인공지능의 일이 아니고 바로 우리 인간만이 할 수 있는 일이다.

그러나 우리의 윤리학적 체계는 초연결 사회에서 인공지능과 빅테이터가 주는 기회를 만끽할 만큼 아직 잘 업그레이드 되어 있지 않다. 아리스토텔레스나 흄, 칸트, 롤스의 윤리학에서 우리가 직면하고 있는 윤리적 문제에 대한 답을 찾기에는 우리가 사는 현재 세계는 그들의 세계와 너무 달라져 있다. 이제 우리는 우리 시대에 걸맞는 윤리학적 체계를 구축하는 것이 필요하다. 우리는 어떤 윤리학적 체계를 마련할 수 있을까?

1964년 이탈리아 로마에서 태어난 한 명의 윤리학자가 현재 전 세계 윤리학계를 뒤흔들고 있다. 옥스퍼드대 철학교수인 루치아노 플로리디의 이야기다. 현재 한국인들에게는 낯선 이름이다. 왜냐면 매우 다작의 작가이지만 아직 그의 책 중 단 한 권도 한국어로 번역되지는 않았기 때문이다. 그는 정보사회에 걸맞는 철학의 체계를 구축하기 위해 4부작을 쓰고자 했는데, 제1권 『The Philosophy of Information』, 제2권 『The Ethics of Information』, 제3권 『The Logic of Information』은 이미 발간되었으며, 제4권 『The Politics of Information』은 아직 집필되지 않았다. 그는 현재 정보사회에 걸맞는 정보철학을 발전시키고 있으며, 그 일환으로 정보의 윤리학을 발전시키고 있다.

그가 필자를 특히 매혹시켰던 것은 도덕적 행위자 중심의 윤리학이 아니라 도덕적 피해자 중심의 윤리학을 지향하고 있기 때문이다. 아리스토텔레스의 『니코스마코스 윤리학』으로까지 거슬러 올라가는 기존의 윤리학이 어떻게 사는 것이 잘 사는 것인가에 초점을 맞추었다면. 현재 정보사회에 필요한 윤리학은 이것 못지 않게 나쁜 삶을 강요받지 않으면서 살 수 있는 권리를 보장해 줄 수 있는 윤리학이다. 그러나 우리는 나쁜 삶을 강요받지 않으면서 살 수 있기에는 너무 흠결이 많은 윤리적 세상 속에 살고 있음을 매일 매일 뉴스나 소셜 미디어를 통해 확인하며 살고 있다.

이제 우리는 윤리적 대도약을 감행하여야 한다. 인공지능이라는 거울이 보여주는 우리 시대 윤리적 흠결들은 그와 같은 대변화를 추진하는 동력으로 작용할 것이다. 물론 그 윤리적 체계는 인공지능 개발자들이 자신들의 책임을 회피하기 위해 만든 면피성 윤리 헌장이어서도 안되며, 제4차 산업 혁명을 선도하기 위해 우리들에게 윤리적 희생자가 되는 것도 감내하도록 하는 개발 윤리 헌장이어서도 안된다. 우리가 매일 매일 보고 있는 우리 시대 우리들의 윤리적 흠결을 해결해 낼 수 있는 새로운 윤리적 체계를 만들기 위한 대향연이 필요하다.

출처: 국민권익위원회, 『기업윤리 브리프스』 2019년 1월, 6면
출처: 국민권익위원회, 『기업윤리 브리프스』 2019년 1월, 6면

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.