인공지능의 선택
얼마전 우연하게 Ted ed를 보게 되었는데 아주 재밌는 강의 하나를 시청 했다. ‘자율 주행 자동차의 딜레마’라는 영상이었는데, 몇가지 가정된 상황에서 자율 주행 자동차가 어떻게 반응 할지에 대한 내용이었다. 여기 나온 문제들은 꽤나 흥미로웠다.
당신이 지금 차를 몰고 고속도로를 달리고 있다고 가정해보자. 그리고 바로 앞에 트럭 한대가 달리고 있었다. 하필 그 트럭의 뒷 문이 갑자기 열리면서 안에 있던 물건이 쏟아지게 되었다. 지금 급정거를 하더라도 앞에서 떨어지는 물건과의 충돌은 불가피하다. 왼쪽을 보니 SUV 한대가 달리고 있었고, 오른쪽에는 오토바이 한대가 달리고 있었다. 이 상황에서 당신은 어떤 선택을 하겠는가? 그냥 나의 목숨을 희생하더라도 그냥 멈출 수도 있고, (물론 운좋게 살아 남을 수도 있다.) 차체의 안정성이 높은 SUV를 향해 차를 회전 시킬 수 도 있다. 반대로, 안정성은 떨어지나 충돌 확률은 적은 오토바이를 향해 회전 시킬 수도 있을 것이다. 이 상황에서 당신이 한 결정은 반사적인 행동이었을 것이다. SUV와 오토바이 운전자 혹은 탑승자에게 상해를 일으킬 것으로 한 의도적 행동은 분명 아니다. 교통 법규 상의 사법적 책임은 어느 정도 물어야 할지도 모르겠지만, 당신의 선택에 있어서 도덕적인 책임은 없을 것이다.
최근 자율 주행 자동차 기술이 발달하고 있다. 구글이나 테슬라처럼 이미 앞선 기술을 보유한 기업들은 상용화 준비 단계에 있다. 자율 주행 자동차에는 각각의 인공지능이 탑재 되어 있을 것이다. 이 인공지능이 차량의 움직임을 결정한다. 위 상황에 놓인 인공지능은 어떻게 반응 할 것인가?
자율 주행 자동차는 차량의 주인의 목숨을 살리기 위해 만들어 진다. 세상에 내 목숨을 버리자고 자율 주행 자동차를 구입하는 사람들은 한명도 없다. 그렇기에 자율 주행 알고리즘 설계에 있어 기본적인 원칙은 탑승자의 안전이다. 그렇다면 앞선 상황에 놓이게 된다면 자율 주행 자동차는 차량 주인의 목숨을 살리기 위해 급정거를 하는 선택지는 자연스레 피하게 된다. 급정거를 하게되면, 좀 더 정확히 말해 이 상황을 피하려고 하지 않으면 차량 주인에게 피해가 간다. 인공지능은 탑승자 피해 최소화를 위해 어떻게든 차량을 몸부림 칠 것이다. 차량 주인이 차에 탑승하지 않는 상황이라도 크게 달라지지 않는다. 차량은 차량 주인의 소유물이자 재산이다. 차주는 자신의 재산을 해하려는 인공지능을 구매하지 않을 것이다.
이렇게 되면 차량을 회전하는 선택지 밖에 남지 않는다. 그렇다면 SUV와 오토바이 운전자 둘 중 한명에게 상해를 가하게 된다. 두 차량 아니 정확히는 두 운전자 중 한 명을 선택해야 하고, 이렇게 피해를 입은 사람은 자신의 잘못도 없이 타인에 의해 상해를 입게 된다. 그렇다면 자율 주행차 정책 결정자나 프로그래머는 이런 상황에서 어떤 알고리즘을 만들어야 하는가? 그리고 특정 타인을 선택하게 하는 알고리즘은 자율 주행 자동차에 설계를 하는 것은 정당한가? 그리고 목적성이 없던 사람과 달리 알고리즘의 선택에는 의도적 선택이 존재하는가?
이 문제에 대한 여러가지 해답이 존재한다. 인간의 상황과 인공지능의 상황을 비교 해보면서 그 해답들이 정당한지 한번 생각해보자. 아직까지 이 질문에 대한 명확한 해답은 나오지 않고 있다. 각 상황 모두 완벽히 정당하지도 혹은 잘못되지도 않았다. 이 글에서도 하나의 답을 찾으려는게 아니라 위의 문제를 여러 각도에서 살펴볼 수 있다는 것을 말하고자 한다. 해답은 각자의 판단에 맡긴다.
첫번째 해답을 설명하기 위해 다시 인간의 선택으로 돌아가보자. 사람은 이런 상황에서 반사적인 행동에 의해 결정할 것이다. 그리고 그 반사적인 행동은 자신의 경험과 가치판단에 의해 형성된 것일 확률이 높다. 오랜기간 운전을 하면서 쌓인 경험들이 반사적 행동에 영향을 미쳤을 것이다. 앞에 차에서 물체가 떨어져 내려오는 걸 보는 순간 빠르게 오토바이 쪽으로 선회에 빈 공간을 최대한 파고 들어 충돌을 피하려 할 수 도 있다. 누군가는 내려오는 물체를 보고 최대한 피하기 위해서 순간마다 빈 공간으로 차를 움직일 수도 있다. 사람은 순수한 반사적 행동에 가깝게 차를 움직인다.
사람의 반사적 행동은 지극히 자율성이 부여된 활동이다. 다만 이 자율성은 우리가 의식적으로 선택하는 자율이 아니다. 반사적 활동은 무의식 영역에 가깝다. 즉, 여기서 말하는 자율성이란 도덕적 책임에 있어서의 자율성이다. 우리가 이 상황에서 어떤 선택을 하더라도 도덕적 책임은 없다. 어떤 선택을 하더라도 우리가 가진 상식 범위 내에서 해당 행위에 인한 책임은 없어 보인다. 운전자가 가한 상해에 있어 목적성이 없다. 그래서 무의식의 선택 내에서 자율성이 부여되는 것이다.
그렇다면 사람과 같이 인공지능에 목적이 없는 자율을 부여 할 수 있을까? 정말 순수한 자율성이 자율 주행 자동차에 부여된다면 문제가 없어 보이기도 한다. 인공지능에게도 순수한 자율성을 부여 할 수 있는지 조금 전문적인 지식에 대해 말해보겠다. (그렇게 어려운 개념이 아니니 겁먹을 필요는 없다.) 거의 모든 프로그래밍언어에 랜덤 함수가 존재한다. 하지만, 애석하게도 컴퓨터는 랜덤을 스스로 만들어내지 못한다. 전하의 이동은 무작위로 진행될 수 없기 때문이라고 생각하면 쉽다. 그래서 프로그래밍 언어는 무작위를 미리 존재하는 난수표에 따라 하나의 수를 뽑아내거나, 그나마 랜덤에 가까울 수 있도록 현재 시간 (주로 밀리 세컨드 단위)에 뒷자리를 이용하기도 한다. 만약, 3가지 상황에 대해 선택해야 한다면 현재 시간이 13msec이고 mod3 함수(3으로 나눈 다음 나머지를 구함)를 사용하면 0,1,2 중 하나의 수가 나온다. 위 문제에서는 1이라는 수가 나온다. 이런 방식으로 무작위를 부여하기도 한다. 최대한 간단히 설명했는데, 나의 설명이 제발 이해가 되었길 바란다.
이렇게 구해진 자율성이 순수한가? 수학관점에서 본다면 순수할 수도 있다. 하지만, 도덕적 관점으로 보면 순수하지 않을 지도 모른다. 공대생들은 실시간 정보에 따라 결정되었기에 이 숫자에는 어떤 의도성도 없다고 말할 것이다. 또는 난수표의 무작위성을 언급하며 난수 정보가 얼마나 무작위 한지 설명할 것이다. 하지만, 난수표와 실시간 정보로 인해 내 가족이 죽었다면 죽은 사람들의 가족은 쉽게 납득할 수 있을까? 이런 설명이 공대생이 아닌 모든 사람들에게도 충분히 인지가 될 수 있을까? 앞선 방법을 누군가는 완벽한 자율성이라고 말할 것이고, 누군가는 아니라고 말할 것이다. 즉, 어느 부분까지 우리가 자율성이라고 인정할 것인가의 문제도 남아있게 된다. 아직까지 전세계 인들이 합의한 자율성도 사실 존재하지 않는다.
두 번째 해답은 피해 최소화 원칙이다. 앞선 상황에 놓이게 되었을 때, 인공지능이 상황을 빠르게 판단해 어떤 방향으로든 피해를 최소화 하는 원칙을 적용하는 것이다. 어쩌면 우리의 반사 신경 역시 이와 비슷하게 행동하고 있을 지 모른다. 시각이 앞 트럭에서 떨어지는 물체를 인식하자마자 무의식의 영역에 도달해 지금까지 형성되어온 가치에 의해 상황을 빠르게 판단하여 피해를 최소화 할 수 있을 것 같은 방향으로 차량을 선회 시킬 것이다. 물론 우리의 선택이 항상 피해 최소화를 보장하지는 않을 것이다. 왜냐하면 우리의 선택 안에 엄청 많은 외부 요소들이 작용한 결과로 나타나기 때문이다.
피해 최소화 원칙을 설명하기 전에 한가지 걱정되는 점이 한가지 있어서 설명하겠다. 기술적인 문제는 무조건 가능하다고 보자. 아무리 고성능의 CPU를 장착하더라도 그 빠른 시간안에 알고리즘을 돌려 결과를 도출 해 낼 수 있겠어? 라고는 질문 처럼 지금 상황에 바보같은 질문은 없을 것이다. 기술적인 문제에 대해 궁금하면 사이언스 지나 근처 대학교에 있는 인공지능 대학원 연구실에 한번 찾아가 보는 것을 추천한다. 우리가 지금 논의하고 있는 문제는 인공지능의 선택이 얼마나 정당한가에 대한 질문이다. 기술적인 문제는 그 다음이다. 지금은 방법론에 대해 말하는 시간이다 .
다시 본론으로 돌아와 인공지능의 피해 최소화 원칙은 정당한가? 아래의 상황을 가정해보자. 이번에는 SUV가 아니라 오토바이 두대가 나란히 양 옆을 달리고 있다. 그런데, 한명의 오토바이 운전자는 헬멧을 쓰고 달리고 있고, 또 다른 운전자는 헬멧을 쓰지 않고 있다. 인공지능이 이 상황을 빠르게 판단한다. 피해 최소화 원칙에 의해 선택을 하게 된다면 헬멧을 쓰고 있는 운전자의 오토바이와 충돌을 선택하게 된다. 헬멧을 쓰지 않은 운전자보다 헬멧을 쓴 운전자가 더 피해를 적게 입을 것이다. 하지만 상해를 입은 운전자는 헬멧을 썼다는 ‘착한’ 이유로 피해를 입게 된다. 그리고, 헬멧을 쓰지 않은 운전자는 헬멧을 쓰지 않았다는 ‘나쁜’ 이유로 사고를 피하게 된다. 법을 잘 준수한 착한 운전자가 나쁜 운전자를 대신해 피해를 입어야 되는 이 상황이 쉽게 납득이 가지 않을 것이다. 도로의 안전을 위해 노력한 운전자가 피해를 입게 되고 그렇지 않은 운전자가 피해를 덜 입게 되는 아이러니한 상황이 된다.
이 상황이 납득이 안가서 ‘나쁜’운전자인 헬멧을 쓰지 않는 운전자를 인공지능이 선택한다고 말해보자. 분명 헬멧을 쓰지 않은 사람은 문제가 있다. 우리나라 교통법상 오토바이 운전자들은 헬멧을 착용해야한다. 하지만, 헬멧을 쓰지 않았다는 이유로 사고에 대한 책임을 져야될 의무를 부여받지는 않는다. 자신에 의해 발생되지 않은 사고를 떠맡아야 하는 이유는 전혀 없다. 오히려 이 상황은 앞서 말한 목적성 원칙에 위반된다. 이런 프로그램을 설계하는 순간 인공지능에 다른 사람에게 피해를 입히려는 목적성이 부여받게 되는 것이다.
마지막으로 살펴볼 문제는 앞서 말한 무의식의 영역을 인공지능 안에 탑재하는 것이다. 이는 인공지능의 강화학습으로 가능할것이다. 인공지능이 운전하면서 겪게되는 상황을 통해 각각의 인공지능만에 의식을 만들어 어떤 선택을 하던 각 인공지능 자체에 문제에 맡기는 것이다. 각각의 인공지능 역시 자신만의 운전 경험이 쌓이게 될 것이다. 그렇게 형성된 자신만의 원칙 혹은 도덕적 의식으로 문제가 해결이 가능할 지도 모른다.
물론 이 방법에도 헛점은 많이 존재한다. 그렇다면 강화 학습이 형성되기 전에 인공지능이 할 수 있는 돌발 행동은 어떻게 막을 것인가? 인공지능에 존재하는 수많은 알고리즘 중에서 어떤 것을 적용 할 것인가? 그렇게 형성된 알고리즘은 과연 도덕적으로 반응할 것인가? 최악의 상황을 가정해보자. 인공지능이 자체적인 강화학습을 통해 위와 같은 상황에 다시 한번 놓이게 되었다. 이 인공지능에는 하필이면 모두에게 공평하게 피해가 돌아가야 한다는 강화학습이 되었다고 해보자. 공평성을 위해 모두에게 같은 피해를 주는 범위에서 피해를 최소화 한다고 강화학습이 된 것이다. 이렇다면 인공지능은 SUV와 오토바이 모두를 충돌하는 말도 안되는 상황을 일으킬지도 모른다. 사람이라면 사고 상황 이외에도 윤리적 책임과 이후 상황에 따른 비난을 고려한다. 반대로, 인공지능에게 명예는 그렇게 중요한 요소가 아닐지도 모른다. 적어도 현재에 존재하는 상식 범위 내에서는 그렇다. 그렇기에 인공지능이 가진 원칙대로만 행동 하게 될 것이다.
인공지능의 딜레마 문제를 자율 주행 자동차 관점으로 한번 살펴보았다. 인공지능은 분명 지금보다 자동차 사고로 인한 피해를 획기적으로 줄일 것이다. 또한 운전시간이라는 소모적 시간을 좀 더 생산적인 시간으로 바꿀 것이다. 딜레마 문제는 앞으로 벌어진 밝은 미래에 비해 지극히 사소한 문제일지도 모른다. 인공지능의 선택이 두려워 자율 주행 자동차를 도입하지 않는 것 처럼 바보같은 행위도 없을 것이다. 다만, 앞으로 인공지능을 도입하면서 해결해야 할 문제 역시 많을 것이라는 점도 분명하다.
사람에게는 도덕적인 명예가 존재한다. 인간은 남들에게 존경 받길 원한다. 그래서 누군가는 내 피해를 감수하더라도 많은 사람들이 옳다고 생각하는 일도 하게 된다. 사회를 살아가는 인간이라면 누구나 도덕적인 책임을 지게 된다. 하지만, 인공지능은 애석하게도 도덕적인 책임을 지지는 않는다. 앞선 문제들은 도덕적인 책임을 가진 주체에서 그렇지 않은 주체가 문제에 대한 결정권을 지게 되면서 발생된다. 왜냐하면 교통 사고엔 도덕적인 이해관계가 많이 포함되어있다.
사회적 진보에는 치열한 고민이 항상 동반되고, 이 과정에서 인류는 항상 새로운 가치를 창출했다. 더 빠르고 많은 생산물을 만들기 위해 산업 혁명이 일어났고, 더 많은 사람과 빠르게 의사소통을 하기 위해 정보통신 혁명이 일어났다. 산업혁명 과정에서 러다이트 운동을 기억하는가? 지금 사람들이 보면 너무 우스워 보이지만, 19세기 사람들에게는 심각한 문제였다. 지금 문제들도 시간이 지나고 나면 우스운 문제가 될지도 모른다. 다만, 인공지능 도입에 발생될 여러 문제에 대해 한번 고민해볼 필요성은 분명 있다. 우리가 생각하는 정의와 도덕, 그리고 그 범위에 대한 문제이다.