도적적 트롤리 딜레마를 만난 자동운전 자동차
윤리학 사고 실험에는 인간의 도덕적 딜레마에 관한 '트롤리 문제'가 있습니다. 궤도를 달리는 지상 기차가 제어불능으로 멈출 수가 없다면 어떻게 할 것인가라는 문제입니다. 가령 차량에 아이 5명이 있고 지금 절벽으로 가고 있습니다. 선로는 두 갈래 길이 있어서 외부 관리자는 진로를 바꿀 수 있습니다. 하지만 방향을 바꾸면 그곳을 지나는 남자 1명이 죽게 됩니다.
즉 진로를 바꾸지 않고 여러 사람이 사망하는 것이 나은가 아니면 진로를 바꾸어 한명이 사망하는 것이 나은가라는 질문입니다. 정리하면 여러 명을 돕기 위해서 한명을 죽여도 좋은가라는 근원적 질문이죠. 이 문제에는 사회적 공리주의와 심리학적 문제가 숨어 있습니다.
최대한 많은 사람들에게 최대의 행복을 가져오는 것이 전체 사회에 중요하다는 생각이 공리주의입니다. 그래서 한명을 죽게 하는 대신에 여러 명을 살리게 됩니다. 하지만 도덕적 관점에서 보면 과연 이러한 결정이 옳은가 하는 의문이 생깁니다. 그래서 도덕적 딜레마라고 합니다. 또한 여러 명을 살리기 위해 1명이 죽는 것이 당연하다고 말하는 사람이 있습니다. 바로 사이코패스 성향이 강할수록 이런 답변을 쉽게 한다고 합니다. 도덕적 고민을 하지 않고 단순한 숫자로만 생각하는 것이죠.
자동차 운전에 관해서도 트롤리 문제와 같은 것이 일어날 수 있습니다. 자신이 운전하는 차량에 문제가 있을 때에 자신의 안전을 위해서 여러 사람을 치는 방향으로 가도 되느냐는 질문입니다. 인간이 운전할 때는 운전자의 도덕심과 판단력 등의 여러 요소가 복잡하게 얽혀 있습니다. 이러한 상황이 자동운전 자동차에도 발생할 수 있습니다. 그런데 이 차량은 컴퓨터 알고리즘으로 작동합니다. 그렇기에 사람이 처음에 프로그래밍 하면서 어떤 로직을 넣을 것인가하는 질문이 생깁니다.
자동운전 자동차는 사람 생명 보호에 관한 알고리즘을 어떻게 설정?
이런 문제에 대하여 Jean-Francois Bonnefon의 연구팀은 사람들의 생각을 조사했습니다. Amazon의 서비스 'Amazon Mechanical Turk'에서 일하는 700명의 직원을 대상으로 여러가지 조건의 도덕적 딜레마를 포함한 문제에 대하여 답변을 받았습니다.
조사 결과에 따르면 피해자를 최소화하도록 프로그램되어야 한다는 생각이 지지 받았습니다. 즉 공리주의적인 응답을 얻었습니다. 그러나 Bonnefon 박사에 따르면 '피해자를 최소화하도록 프로그램되어야 한다는 생각이 많았지만, 자기 자신은 자동운전차를 타지 않겠다는 의견이 있었습니다'라고 밝혔습니다. 즉 공리주의적으로 프로그래밍된 자동차를 다른 사람이 운전하는 것은 좋지만 자신은 운전하지 않겠다는 것입니다. 자신이 죽게 되니까요.
이건 사이코패스가 아닙니다. 누구나 다른 사람의 목숨 보다 자신의 생명을 중요하게 여깁니다. 그래서 위기 상황의 비행기 조정사들이 탈출할 기회를 포기하고 기체를 민간주택이 아닌 지역으로 이동시킨 사례를 들으면 우리는 감동하게 됩니다. 위에서 말한 사이코패스는 외부 관리자 위치에서 판단한 경우를 말합니다.
이번 조사에서는 자동운전차는 여러 사람을 살리도록 설계되어야 하지만 자신은 운전하지 않겠다라는 모순적 결과를 얻었습니다. 저자인 Bonnefon 박사는 이런 간단한 경우 외에 여러가지 다양한 사례가 가능하다고 합니다. 여러 명 대신에 1명(그리고 운전자)이 희생하느냐, 1명을 살리기 위해 운전자가 희생하는가, 여러 명을 살리기 위해 운전자가 죽어도 되는가라는 질문입니다. 이러한 질문에 대해서 아직 명확하게 답을 할 수는 없겠지만, 아마도 운전자를 일부러 희생시키는 알고리즘을 넣을 수는 없을겁니다. 여러 명이 죽더라도 말이죠.
댓글 없음:
댓글 쓰기