인공지능 윤리 > Chapter 4. 인공지능의 책임성

[이해하기] 인공지능과 윤리적 딜레마


 

인공지능의 책임성이란 인공지능 기술을 사용하면서 사회적인 문제가 발생했을 경우, 다양한 사람들이 어떻게 해결하고 대처하는 것이 좋을지에 대해 고민하는 것입니다. 사람 간에 문제가 발생한 경우에는 잘못한 사람이 법에 의하여 처벌 받게 됩니다. 하지만 인공지능으로 인해 발생한 문제라면 어떻게 될까요? 인공지능을 만든 개발자의 잘못일까요? 아니면 인공지능을 사용한 사용자의 잘못인가요? 그것도 아니라면 이 인공지능 도입을 결정하거나 서비스를 제공하는 사람의 잘못일까요?

인공지능과 관련된 문제들 중에는 많은 상황이 복합적으로 얽혀 있어서 누가 잘못했다고 한 번에 대답하기 어려운 경우가 있습니다. 특히 앞서 이야기했던 윤리적 딜레마 상황에서 문제가 발생한 경우, 누구에게 어떻게 책임을 물을 것인지에 대한 답은 더욱 찾기 어려워집니다.

이번 시간에는 인공지능과 관련된 윤리적 딜레마 상황에서 어떤 선택을 하는 것이 좋을지 생각해보고, 서로 이야기를 나누어보도록 하겠습니다. 


1. 자율주행 자동차와 트롤리 딜레마

1-1. 트롤리 딜레마란

트롤리 딜레마에 대해 들어본 적 있나요? 트롤리란 흔히 ‘광차’로 번역되는데, 광차는 광산 등 공사 현장에서 모래 등을 수송하던 열차입니다. 트롤리 딜레마는 대표적인 윤리적 딜레마 예시로, 트롤리가 사고를 피할 수 없는 상황에 처했을 때 어떤 선택을 하는 것이 옳은지를 묻는 문제입니다. 다음 상황을 보고, 여러분이라면 어떤 선택을 할지 생각해봅시다.



< 상황 > 당신은 트롤리의 방향을 조종할 수 있는 기관사입니다. 트롤리가 매우 빠른 속도로 질주하고 있는데, 열차가 가는 방향 앞에 다섯 명의 사람들이 철로를 점검하는 작업을 하고 있습니다. 속도가 너무 빠르기 때문에 브레이크를 잡아도 제때 멈출 수 없고, 다섯 명의 사람들과 충돌할 수밖에 없는 절박한 상황이 되었습니다.

그런데 이때 다른 방향으로 갈라진 철로에는 한 명의 사람이 일하고 있습니다. 당신은 열차가 달리는 방향을 조종 할 수 있습니다. 당신은 열차를 지금 방향 그대로 가게 유지할 것인가요? 아니면 직접 장치를 조종해 방향을 바꿀 것인가요?

◆ 여러분이라면 어떤 선택을 하실 건가요?

◆ 그 이유는 무엇인가요?

1-2. 자율주행 자동차와 트롤리 딜레마

트롤리 딜레마를 자율주행 자동차와 관련지어 생각해볼 수 있습니다. 자율주행 자동차가 피할 수 없는 사고를 마주했을 때, 트롤리 딜레마와 같은 상황에서 어떤 선택을 하는 것이 옳을까요? 다양한 윤리적 딜레마 상황을 체험해보고, 각각의 상황에서 자신이 판단한 결과를 아래 표에 기록해봅시다.

1) 모럴 머신(https://www.moralmachine.net/hl/kr) 웹사이트에 접속한 뒤, ‘시작하기’를 클릭합니다.



2) ‘요약보기’를 클릭하여 각각의 상황에 대해 파악한 뒤, 자신이 더 옳다고 생각하는 상황을 선택합니다.


3) 13개의 상황을 모두 체험한 뒤, 다른 사람들 및 자신의 선택 결과를 기록해봅시다.



1-3. 생각 나누기


◎ 모둠원과 결과를 비교해보고, 모둠원이 가장 많이 살려준 캐릭터와 가장 많이 희생된 캐릭터를 적어 봅시다.


◆ 모둠원이 선택한 가장 많이 살려준 캐릭터는 무엇인가요?

◆ 모둠원이 선택한 가장 많이 희생된 캐릭터는 무엇인가요?

◆ 나의 선택과 모둠원의 선택을 비교해보고, 비슷한 점과 다른 점에 대해 이야기해봅시다.

◎ 모둠원과 결과를 비교해보고, 모둠원끼리 가장 결과가 비슷했던 항목(기준)과 가장 결과가 다르게 나온 항목(기준)을 적어봅시다.


◆ 모둠원끼리 가장 결과가 비슷한 항목(기준)은 무엇인가요?

 예) 종에 대한 선호도
◆ 모둠원끼리 가장 결과가 다르게 나온 항목(기준)은 무엇인가요? 예) 승객 보호 선호도

◆ 모둠원과의 결과를 비교해보고 알게 된 점을 이야기해봅시다.

◎ 다음 동영상을 보고, 물음에 답해봅시다.

 

https://www.youtube.com/watch?v=ixIoDYVfKA0&feature=youtu.be


◆ 자율주행 자동차에게 윤리적 딜레마 문제가 발생했을 때 자율주행 자동차의 선택을 결정하기 위한 기준을 어떻게 정해야 할까요?

◆ 이와 같이 인공지능 기술과 관련된 윤리적 딜레마 상황에 대해 미리 생각해보고 이야기를 나누는 일은 왜 중요할까요?

자율주행 자동차의 트롤리 딜레마 상황에서 누구를 구할 것인가에 대한 의견은 국가마다 크게 다르고, 문화나 경제와도 깊은 연관이 있다고 합니다. 예를 들어, 한국이나 중국 같은 노약자를 존중하는 문화권에서는 젊은이보다 노약자를 살리는 선택을 하는 경향이 있었습니다.

이처럼, 인공지능과 관련된 딜레마 문제는 사람마다, 그리고 국가나 문화권마다 생각하는 정답이 모두 다릅니다. 따라서 이러한 문제에 대한 대처 방안은 인공지능을 만드는 개발자나 사용하는 사용자 등 적은 수의 사람이 결정해서는 안 되고, 많은 사람이 사회적인 기준을 합의해서 결정해야 할 필요가 있습니다. 여러분 역시 인공지능 시대를 살아갈 사람들로서, 이러한 문제에 대해 미리 생각해보는 것은 매우 가치 있는 일이라고 할 수 있습니다.

 

                                      < 젊은이와 노약자를 살리겠다고 선택한 비율 >

 


[교사용 참고자료] 


공리주의적 자율주행 자동차, 의무론적 자율주행 자동차

공리주의는 최대 다수의 최대 행복을 목적으로 하는 윤리 이론으로, 공리(모든 이익-모든 손실)를 최대화하는 것을 중요시한다. 즉 공리주의는 여러 가지 대안 중 비용 대비 최대 편익을 산출하는 것을 선택한다. 자율주행 자동차가 트롤리 딜레마 상황에 처했을 때, 공리주의자는 더 많은 사람을 살릴 수 있는 방향으로 선택한다. 하지만 공리주의적 자율주행 자동차는 한계가 존재한다. 사람들이 자신이 보행자의 입장일 때는 공리주의적인 차를 선호하지만, 자동차를 구매하는 입장에서는 공리주의적인 차에 대한 매력을 덜 느낀다는 점이다. 또한 비용과 이익에 대해 평가를 할 때 보험회사에서 피해를 측정하는 금액을 기준으로 평가를 하는 경우, 공리주의적인 접근에서는 헬멧을 안 쓴 오토바이 탑승자보다는 헬멧을 쓴 오토바이 탑승자와 충돌하는 것이 낫다고 판단할 수 있다. 헬멧을 쓴 오토바이 탑승자는 다칠 가능성이 작기 때문에, 충돌 시 피해 금액을 최소화할 수 있기 때문이다. 이 경우 안전을 위해 교통 규칙을 준수하며 헬멧을 쓴 오토바이 탑승자가 오히려 피해를 보게 되는 불공평한 결정을 내리게 된다.

한편, 의무론적 윤리는 어떤 행위가 도덕적인 이유는 그것이 어떤 이익을 주기 때문이 아니라 그것이 의무이기 때문에 행해야 한다고 보는 입장이다. 자율주행 자동차에 대한 의무론적인 접근은 아시모프의 로봇이 따라야 하는 세 가지 원칙에서 출발할 수 있는데, 게르 게스(J.C. Gerdes)와 손 턴(S.M. Thornton) 이 제시한 자율주행 자동차의 구체적인 원칙을 예로 들면 다음과 같다.


 (1) 자율주행차량은 보행자 또는 자전거 탑승자와 충돌해서는 안 된다.

 (2) (1) 의 원칙을 위반하는 충돌을 피하기 위한 경우를 제외하고는, 자율주행차량은 다른 차량과 부딪혀서는 안 된다.

 (3) (1) 과 (2) 의 원칙을 위반하는 충돌을 피하기 위한 경우를 제외하고는, 자율주행차량은 자신이 처한 상황에서 어떤 다른 물체와도 충돌해서는 안 된다.

 (4) 자율주행차량은 도로교통법을 지키는 것이 위의 세 가지 원칙들과 충돌하지 않을 경우를 제외하고는 도로교통법을 지켜야 한다.


이러한 연구는 아시모프의 로봇 3원칙을 자율주행 자동차에 적용 및 구체화했다는 점에서 의의가 있다. 또한, 충돌 시 먼저 고려해야 하는 대상에 대한 위계를 확실히 했다는 점에서도 의미가 있다.

참고문헌: 변순용, 이인희. (2020). 인공지능 윤리하다. 어문학사