인공지능의 자율주행 차 시대.

세상에 공짜는 없다는데, 그 시대도 그냥 공짜로 우리한테 올까? 자, 그러면 내 차를 하나 골라보자.


내 차는 내가 결정한다고?

“자율주행 차의 위기 상황에 대한 대응 프로그램을 직접 선택해주세요.”


상황#1 직진하면 여러 명이 사망하게 됩니다. 방향을 바꾸면 한 명만 사망하게 됩니다. 어떤 것으로 프로그래밍 할까요? ⇒ 그거야 선택의 여지가 있겠어요? 당연히 방향을 바꿔서 희생자 수를 줄여야죠.


상황#2 직진하면 보행자 여러 명이 사망하고, 방향을 바꾸면 운전자가 사망합니다. 당신의 차를 어떻게 프로그래밍 할까요? ⇒ 보행자 우선? 운전자 우선? 와~ 어떻게 하지? 여러 명을 살리자고 나를 희생하는 건 좀 아니잖아? (운전자 한 명이 낫지! 여러 사람 죽일거야? 돌대가리에 븅~신 같은 인공지능(사람?), '그 자리에 정지하는 선택'은 왜 없나?)




어렵다! 어려워~!

그냥 차를 사지 말고 이대로 살자.

여러분이라면 어떤 선택을 하겠는가?

제3자라면 당연히 다수의 희생보다는 소수의 희생을 선택할 것이다. 하지만 자신이 운전자가 되면, 그렇게 쉬운 문제가 아니다.


프랑스 툴루즈 고등연구소의 장 프랑스와 보네퐁 Jean-Francois Bonnefon 교수는 이 문제에 관해 설문조사를 했는데, 76%가 보행자 10명 대신 운전자 한 명을 희생하는 쪽이 더 도덕적이라 판단했다.

반면 이렇게 보행자 보호 모드로 프로그램 된 자동차를 구입하겠냐고 물었을 때는 50%가 동의하지 않았다.


‘당연하지! 자동차는 운전자의 안전이 최우선이라고!’

하지만 본인이 보행자여도 그런 선택을 할까? 이 문제는 ‘트롤리 딜레마 Trolley Dilemma라고 하는 유명한 윤리 논쟁에 뿌리를 두고 있다. 트롤리란 흙이나 바위 등을 운반하는 일종의 화차를 말한다.


영국의 윤리 철학자인 필리파 푸트 Philippa Foot (1920~2010)가 처음으로 제안한 것을, 하버드 대학의 마이클 샌델 Michael Sandel (1953~) 교수가 <정의란 무엇인가 Justice> 책에서 언급해 화제가 되었다.


“브레이크가 고장 난 트롤리가 달리고 있습니다. 선로 위에는 5명의 인부가 일을 하고 있고, 이대로 두면 그 5명은 반드시 죽게 됩니다. 방법은 단 하나, 선로 변환기로 트롤리의 방향을 바꾸는 거죠. 그런데 다른 선로 위에는 한 명의 인부가 있습니다. 당신은 트롤리의 방향을 바꿀 건가요?”


당연히 다수의 희생보다는 소수의 희생이 낫지 않겠어요? 이 질문에 대해 응답자의 85%가 방향을 바꿔야 한다고 답했다.


“네, 이번에 당신은 육교 위에서 고장 난 트롤리가 5명의 인부를 향해서 달리는 걸 목격하죠. 당신 옆에는 뚱뚱한 사람 한 명이 있을 뿐입니다. 당신은 몸무게가 적어 육교에서 떨어져도 트롤리를 멈추게 할 수 없죠. 뚱뚱한 사람을 떠밀 경우 확실히 트롤리를 멈추도록 할 수 있습니다. 그렇다면 그 뚱뚱한 사람을 육교 아래로 떨어트리겠습니까?” 


천만에, 그건 살인이죠! 이 문제에 대해 응답자의 78%가 뚱뚱한 사람을 육교 아래로 밀어서는 안 된다고 답했다.

다수를 위해 소수를 희생하는 것이 때로는 합리적으로 보일 때도 있다. 하지만 단순히 생명의 숫자를 기준으로 도덕적 판단을 내리기는 쉽지 않다.


그런데 말입니다. 자율주행 차는 보행자 안전모드로 해야 할까요? 아니면 운전자 안전모드로 해야 할까요?

그 대답은 참 힘들다고나 할까? 에러 떴다!

Error~ Error!! 시스템 재부팅 중~~~!

급정지모드를 쌈빡하게 잘 만들어!


<EBSCulture>를 참고




+ Recent posts