인공지능 윤리 이해 (2) 윤리적 딜레마, 트롤리 딜레마와 AI 윤리 가이드라인

오늘 포스팅에서는 인공지능 윤리에 대한 이해 두 번째 글로 인공지능의 윤리적 딜레마가 무엇인지 알아보고 대표적인 사례인 트롤리 딜레마에 대해서 정리해볼 예정입니다. 그리고 마지막으로 이를 인공지능 윤리에 대한 AI 윤리 가이드라인을 살펴볼 예정입니다.

참고로 이번 포스팅은 AI 윤리 이해를 위해 AI 윤리가 필요한 이유에 대한 사례를 먼저 살펴보고 AI 윤리 가이드를 만드는게 왜 어려운지와 AI윤리 가이드라인에 대한 내용으로 아래와 같은 2가지 포스팅을 정리할 예정입니다.

인공지능 윤리 이해 (1) MS Tay와 이루다 사건, 그리고 AI Ethics의 대두

인공지능 윤리 이해 (2) 윤리적 딜레마, 트롤리 딜레마와 AI 윤리 가이드라인 (이번 포스팅)

이루다와 마이크로소프트(MS)의 테이(Tay) 사건에서 볼 수 있듯이 이제는 인공지능에서 설계 단계부터 윤리적 고려가 적극 요청되고 있으며 인공지능 윤리는 상품성과 연계되어 오히려 기존과 다르게 협조적인 분위기입니다.

가령 예전에는 과학기술에 대한 윤리적 고려는 오히려 연구개발의 장애물처럼 여겨졌으나 인공지능 윤리 분야에 대해서는 학제간 연구, 융합 연구가 가장 활발한 편에 속하고 있습니다.

트롤리 딜레마

사람들은 도덕적으로 의심스러운 언어를 구사하는 AI 채팅봇과 채팅을 하려고 하지 않을 것이고 그 밖에도 윤리적 선택이 필요한 상황에서 제대로 대처하지 못하는 기기(예 : 자율주행자동차)는 사용하려고 하지 않을 것이기 때문입니다.

이렇게 점점 인공지능에게 도덕적 판단이 필요해지면 발생되는 것이 바로 윤리적 딜레마인데요, 다음 세션에서는 이러한 인공지능의 윤리적 딜레마(대표적인 사례인 트롤리 딜레마)에 대해서 가볍게 정리해보겠습니다.


인공지능의 윤리적 딜레마 개요

AI, 인공지능에 대한 윤리적인 문제가 자꾸 거론되는 이유는 실은 AI가 사람이 아니라 기계이기 때문입니다. 컴퓨터 데이터를 기반해서 실행되는 AI의 판단에는 인간의 기본적인 “도덕적인 감정”이 투영되지 않습니다.

인공지능이 아무리 인간의 행동을 데이터화해서 학습하고 실행한다고 해도 아직은 그저 흉내내는 수준일 뿐 입니다.

인공지능은 도덕적인 판단이 필요해지면 결국 자신의 연산 상에서 가장 유리한 결과를 도출하여 이 때문에 사람들의 기준에서 윤리적 문제를 일으킬 가능성이 높아집니다.

이것이 바로 인공지능이 가진 윤리적 딜레마 입니다.

가장 대표적인 케이스가 자율주행 차량의 경우이고 몇 가지 사례를 들자면 아래와 같습니다.

트롤리 딜레마

1) 자율주행 자동차가 갑자기 도로에 뛰어든 사람과 충돌을 앞두고 있음. 어린이와 노인 중 한 명의 인명 손실이 불가피할 때 누구를 살려야 할까?

2) 탑승자가 있는 자율주행 자동차 앞에 다수의 사람이 뛰어들었다. 차량이 방향을 틀게 되면 다수의 사람 생명을 살릴 수 있지만 탑승자는 절벽에서 떨어져 죽는다면 어떤 선택을 해야하나?

인공지능 딜레마의 대표적인 사례, 자율주행 자동차

사실 이렇게 다수를 구하기 위해서 소수의 희생을 감수해야 하는지 판단해야하는 등의 문제 상황을 뜻하는 것이 바로 “트롤리 딜레마, Trolly dilemma” 입니다.


트롤리 딜레마(Trolley dilemma)

트롤리 딜레마(Trolley dilemma)란 트롤리 문제(Trolley Problem) 또는 광차문제(鑛車問題)라고도 부르는데요, 윤리학에서 가정하는 사고 실험 중에 하나입니다.

제동장치가 작동하지 않아 정리할 수 없는 탄광 수레인 광차(Trolley)가 소수 또는 다수의 사람을 희생시킬 수 밖에 없다고 가정했을 때 어느 쪽을 선택해야하는가에 대한 부분 입니다.

트롤리 딜레마

결론적으로 트롤리 딜레마와 같은 상황에서는 다수를 위해 소수를 희생해야하는지, 반대로 소수를 위해 다수를 희생해야하는지에 대한 부분으로 인공지능에서도 이러한 도덕적 판단이 불거질 가능성이 매우 높습니다.

더욱더 어려운 점은 이러한 트롤리 딜레마와 같은 상황에서 도덕적 판단이 인종이나 국가, 성별이나 계층에 따라 다르고 이 때문에 글로벌 기준 마련이 쉽지 않다는 것 입니다. 가령 아래 내용은 MIT 미디어랩에서 조사한 내용인데요, 온라인 조사 플랫폼을 통해 233개 국가의 230만명을 대상으로 트롤리 딜레마를 조사·분석한 결과입니다.

트롤리 딜레마

하지만 구체적인 결과를 보면 지역별로 인종별로 직업별로 사람들의 가치 판단 기준이 다르게 나타났습니다.

이러한 윤리적 딜레마를 해결하기 위한 쉬운 해결방법은 단순히 흉내내는 것이 아니라 사람처럼 판단하는 AI로 만들어야 한다는 것 입니다.

결국에는 인공지능의 윤리적 문제는 사회적 합의만 없을 뿐, 결국 인공지능을 개발하는 업체들이 어떠한 알고리즘을 짜느냐에 달렸고 만약 인공지능이 사람과 비슷한 도덕관을 포함한 판단까지 내린다면 사람의 판단과 다르지 않을까 하는 생각 때문입니다.


인공지능 윤리, AI Ethics 가이드라인

위와 같은 이유로 인공지능 윤리에 대한 법안과 윤리 규칙 제정 또한 적극적으로 진행되는 편 입니다.

지능형 로봇에 대해 다룬 앞선 포스팅에서 잠깐 다룬 바 있지만, 에미스 하사비스와 일론 머스크 등이 17년에 발표한 아실로마 인공지능 원칙(Asilomar AI Principles)가 대표적인 사례 입니다. 해당 회의를 주최한 곳은 비영리단체인 “삶의 미래 연구소(Future of Life Institute, 이하 FLI)”이고 회의가 열린 장소(아실로마)의 이름을 따서 이름을 지었다고 합니다.

소셜 로봇

아실로마 인공지능 원칙은 회의 였던 “아실로마”의 이름을 따서 만든 원칙으로 이 원칙은 연구 이슈(5개항), 윤리와 가치(13개항), 장기 이슈(5개항) 3개 범주로 구성되어 있습니다.

1) 안전 : 인공지능 시스템은 작동 수명 기간을 통틀어 안전하고 안정적이어야 하며, 어떤 경우에 적용,구현이 가능한지 검증할 수 있어야 한다.

2) 장애 투명성 : 인공지능 시스템이 피해를 유발할 경우, 그 이유를 확인할 수 있어야 한다.

3) 사법 투명성 : 사법적 결정에서 자동시스템이 개입할 경우, 권한이 있는 감사 당국에 만족할 만한 설명을 제공해야 한다.

4) 책임성 : 첨단 인공지능 시스템 설계자 및 구축자는 인공지능의 이용, 오용 및 행동의 도덕적 영향력에서 이해 관계자이며, 그에 따르는 책임과 기회를 갖고 있다.

5) 가치 정렬 : 고도의 자동 인공지능 시스템은 작동하는 동안 그 목표와 행동이 인간의 가치와 잘 어우러지도록 설계돼야 한다.

6) 인간의 가치 : 인공지능 시스템은 인간의 존엄, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고 운용돼야 한다.

7) 프라이버시 : 인공지능 시스템에 데이터를 분석·활용할 수 있는 권한을 부여할 경우, 사람에겐 그 데이터에 접근, 관리, 통제 할 수 있는 권리를 줘야 한다.

8) 자유와 프라이버시 : 개인 데이터에 대한 인공지능 적용이 사람들의 실제 또는 스스로 인지하는 자유를 부당하게 축소해서는 안된다.

9) 공동의 이익 : 인공지능 기술은 가능한 한 많은 사람들에게 이로움을 줘야 한다.

10) 공동의 번영 : 인공지능이 만들어내는 경제적 번영은 널리 공유돼, 모든 인류에게 혜택이 돌아가도록 해야 한다.

11) 인간통제 : 인간은 인공지능 시스템에 의사결정을 위임할지 여부와 그 방법을 선택해, 인간이 선택한 목표를 달성하도록 해야 한다.

12) 비전복 : 고도화된 인공지능 시스템을 통제함으로써 갖게 되는 힘은 사회의 건강도를 좌우하는 사회적, 시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 한다.

13) 인공지능 군비 경쟁 : 치명적인 자동 무기에 대한 군비 경쟁은 피해야 한다.

아실로마 AI 원칙(Asilomar AI Principles)

해당 회의를 주최한 곳은 비영리단체인 “삶의 미래 연구소(Future of Life Institute, 이하 FLI)”이고 해당 원칙들이 인공지능의 힘이 미래에 어떻게 모든 사람의 삶을 개선하는 데 사용될 수 있는지에 대한 고민의 소재가 될 수 있도록 진행하였다고 합니다.

북미나 유럽 등 세계 각국에서도 이러한 윤리 가이드가 지속적으로 마련되고 있는 중 입니다. 국내의 경우에도 18년 이후로 공공성, 책무성, 통제성, 투명성이라는 윤리 가이드 4원칙이 마련된 바 있습니다.

인공지능 윤리에 대해서는 AI 응용 상용화와 함께 지속적으로 이슈화될 것이고, 트롤리 딜레마와 같은 윤리적 딜레마 극복을 위해서는 좀 더 적극적인 AI 가이드 라인 정립이 필요합니다. 이를 위해서는 더욱더 인종이나 국가, 성별이나 계층 등의 구분 없는 글로벌 기준 확립이 절실해지리라 생각됩니다.


참고로 이번 포스팅은 AI 윤리 이해를 위해 AI 윤리가 필요한 이유에 대한 사례를 먼저 살펴보고 AI 윤리 가이드를 만드는게 왜 어려운지와 AI윤리 가이드라인에 대한 내용으로 아래와 같은 2가지 포스팅을 정리하였습니다.

인공지능 윤리 이해 (1) MS Tay와 이루다 사건, 그리고 AI Ethics의 대두

인공지능 윤리 이해 (2) 윤리적 딜레마, 트롤리 딜레마와 AI 윤리 가이드라인 (이번 포스팅)

Leave a Comment