인공지능 로봇 이해 (3) 소셜 로봇과 로봇 윤리

이번 포스팅에서는 인공지능 로봇의 이해 시리즈의 마지막 편으로 소셜 로봇과 로봇 윤리에 대해 정리해보았습니다. 소셜 로봇 정의, 특징과 로봇 윤리와 대표적인 로봇윤리 법칙에 대해서도 찾아보았습니다.

참고로 본 포스팅은 “인공지능 로봇 이해”라는 시리즈로 아래와 같이 3가지 포스팅으로 구성하였습니다. 먼저 기본적인 로보틱스 개념과 인공지능 로봇 요소 기술에 대해 정리하였고 이번 포스팅에서 마지막으로 소셜로봇과 로봇윤리에 대해 정리하려고 합니다.

(1) 로봇과 로보틱스 정의, 인공지능 로보틱스 차이

(2) 인공지능 로봇 요소 기술

(3) 소셜로봇과 로봇윤리 (현재 포스팅)

앞서 정리한 인공지능 로봇 요소 기술들의 발전 흐름을 보면 최근 동향은 인간과 자연스러운 상호작용을 하는 로봇의 등장이 머지 않아 보입니다.

이러한 로봇을 “소셜 로봇”이라고 하는데요, 이번 포스팅에서는 이러한 소셜 로봇의 정의와 특징, 그리고 소셜 로봇이 등장하면서 대두하게 될 로봇 윤리 문제에 대해서도 정리해보았습니다.


소셜 로봇 정의 및 특징

소셜 로봇(Social Robot) 이란 로봇이 인지 능력과 사회적 교감 능력을 기반으로 사람과 상호작용을 하여 사회적 기능을 수행하는 로봇 입니다.

이러한 소셜 로봇은 사용자 및 주변 환경을 인식한 다음 주어진 상황에 따라 적절한 행동을 판단 및 학습하여 표현하는 특징이 있습니다.

참고로 소셜 로봇의 대모라고 불리는 MIT의 신시아 브리질(Cynthia Breazeal) 교수는 소셜로봇을 사회적 상호작용(Interaction socially with humans)을 하는 로봇이라고 정의하기도 했습니다. 여기서 사회성을 갖춘 로봇이란 사람처럼 사회적으로 지능이 있는 로봇을 의미한다고 합니다.

소셜 로봇
소셜 로봇의 대모인 MIT 신시아 브라질과 지보 로봇

소셜 로봇(Social Robot)이라는 용어 자체는 1997년 오드 빌라(Aude Billard)와 커스틴 도텐한(Kerstin Dautenhahn)이 석사 논문에서 처음으로 해당 단어를 사용하였으며, 이전에는 감성 로봇(Emotional Robot)이라는 단어가 넓리 사용되었습니다.

그러나 앞서 설명한 바와 같이 소셜로봇은 표준 분류에 의한 명칭이 아니며, 국제로봇협회 등에서 일반적으로 로봇을 용도에 따라 크게 산업용 로봇(Industrial Robot)과 서비스 로봇(Service Robot)으로 나눕니다. 다시 서비스로봇은 전문용/기업용과 개인용으로 구분됩니다. 소셜로봇은 대부분 개인용 서비스 로봇이지만 전문서비스 로봇이 될 수도 있다고 합니다.

AI 로봇

소셜 로봇 특징

소셜로봇의 특징은 3가지로 나뉩니다.

인식 능력 (Perception)

– 각종 센서를 이용하여 사용자와 주변 환경을 인식

(사용자 식별, 사용자 의도 및 감정 인식, 상호작용이 이루어지는 상황 인식)

– 관련 기술 : 음성/환경/위치 인식 기술

표현 능력 (Act)

– 사람 간 이루어지는 소통 방식과 비슷하게 사회적 행위 및 표현 진행

(언어적 소통(상황에 맞는 대화), 비언어적소통(몸짓, 표정 등))

– 관련 기술 : 운동 지능, 로봇 부품 및 액츄에이터 기술, 구독 매커니즘, 음성 합성

판단 및 학습 (Think)

– 사회적 상호작용, 관찰을 통한 학습

– 주어진 상황과 역할을 기반으로 해석하여 적절한 행위를 판단

– 관련 기술 : 빅데이터 기술, 엣지 컴퓨팅/클라우드 컴퓨팅

소셜 로봇
출처 : 2019년 기술영향평가 보고서 (소셜 로봇)

인공지능 로봇과 윤리 문제

최근 보스턴다이나믹스의 사족 로봇 스팟(Spot)의 균형감각 테스트를 위해 스팟을 발로차는 영상이 공개되자 동물과 비슷한 움직임을 보이는 로봇을 학대하는 것에 대한 윤리적인 논란이 일어난 적이 있었습니다.

소셜 로봇
보스턴다이나믹스 사족로봇 Spot 균형감각 테스트

이러한 움직임 등을 배경으로 인공지능 로봇에게 법인격을 부여하자는 주장이 나타나고 있습니다.

그 이유는 인공지능 기술이 갖춘 자율성 때문인데요, 자율성이란 사람의 개입 없이도 과업을 수행할 수 있다는 것을 의미합니다.

즉, 인공지능 로봇의 자율성으로 민법이나 형법, 행정법이나 지재법 등의 여러 영역에서 책임소재에 대한 의문이 제기되었으며, 이를 해결하기 위한 방법으로 인공지능 로봇에 법인격을 인정하는 방안이 제시되고 있는 것 입니다.

이미 유럽의회에서는 17년에 인공지능 로봇에게 “전자 인간(Electronic personhood)” 라는 법적 지위를 부여하는 결의안이 통과되었으며, 독일에서도 인공지능 로봇에 의해 문제 발생 시 로봇 형벌 도입을 진행 중 입니다. 국내에서도 17년 로봇의 권리와 의무에 대한 내용이 정리된 로봇 기본법 제정안이 진행된 바 있습니다.

소셜 로봇
출처 : 2019년 기술영향평가 보고서 (소셜 로봇)

특히 그 중에서 가장 유명한 것이 17년 1월 미국 캘리포니아의 휴양지인 아실로마에서 “Beneficial AI conference (이로운 인공지능 회의)”에서 만든 “아실로마 AI 원칙” 입니다.

아실로마 인공지능(AI) 원칙

아실로마 인공지능 원칙은 회의 장소 이름을 따 “아실로마 AI 원칙(Asilomar AI Principles)”이라고도 불리는데, 이 원칙은 연구 이슈(5개항), 윤리와 가치(13개항), 장기 이슈(5개항) 3개 범주로 구성되어 있습니다.

해당 회의를 주최한 곳은 비영리단체인 “삶의 미래 연구소(Future of Life Institute, 이하 FLI)”이고 해당 원칙들이 인공지능의 힘이 미래에 어떻게 모든 사람의 삶을 개선하는 데 사용될 수 있는지에 대한 고민의 소재가 될 수 있도록 진행하였다고 합니다.

소셜 로봇
아실로마 AI 원칙에는 우주물리학자 스티븐 호킹, 테슬라 최고경영자 일론 머스크, 데미스 허사비스 딥마인드 CEO 도 서명함

해당 원칙 상의 지켜야할 윤리와 가치 13가지는 아래와 같습니다.

안전 : 인공지능 시스템은 작동 수명 기간을 통틀어 안전하고 안정적이어야 하며, 어떤 경우에 적용,구현이 가능한지 검증할 수 있어야 한다.

장애 투명성 : 인공지능 시스템이 피해를 유발할 경우, 그 이유를 확인할 수 있어야 한다.

사법 투명성 : 사법적 결정에서 자동시스템이 개입할 경우, 권한이 있는 감사 당국에 만족할 만한 설명을 제공해야 한다.

책임성 : 첨단 인공지능 시스템 설계자 및 구축자는 인공지능의 이용, 오용 및 행동의 도덕적 영향력에서 이해 관계자이며, 그에 따르는 책임과 기회를 갖고 있다.

가치 정렬 : 고도의 자동 인공지능 시스템은 작동하는 동안 그 목표와 행동이 인간의 가치와 잘 어우러지도록 설계돼야 한다.

인간의 가치 : 인공지능 시스템은 인간의 존엄, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고 운용돼야 한다.

프라이버시 : 인공지능 시스템에 데이터를 분석·활용할 수 있는 권한을 부여할 경우, 사람에겐 그 데이터에 접근, 관리, 통제 할 수 있는 권리를 줘야 한다.

자유와 프라이버시 : 개인 데이터에 대한 인공지능 적용이 사람들의 실제 또는 스스로 인지하는 자유를 부당하게 축소해서는 안된다.

공동의 이익 : 인공지능 기술은 가능한 한 많은 사람들에게 이로움을 줘야 한다.

공동의 번영 : 인공지능이 만들어내는 경제적 번영은 널리 공유돼, 모든 인류에게 혜택이 돌아가도록 해야 한다.

인간통제 : 인간은 인공지능 시스템에 의사결정을 위임할지 여부와 그 방법을 선택해, 인간이 선택한 목표를 달성하도록 해야 한다.

비전복 : 고도화된 인공지능 시스템을 통제함으로써 갖게 되는 힘은 사회의 건강도를 좌우하는 사회적, 시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 한다.

인공지능 군비 경쟁 : 치명적인 자동 무기에 대한 군비 경쟁은 피해야 한다.

아실로마 AI 원칙(Asilomar AI Principles)

참고로 해당 13가지는 전체 23개의 항목 중에 절반이 넘는 만큼 인공지능 연구에 있어서 윤리 문제가 중요한 범주로 판단되고 있습니다.

주요 내용은 인공지능이란 인간의 가치에 적합해야 하고 인간의 통제를 받아야 한다는 부분으로 아시모프의 로봇3원칙을 이어받고 있습니다.


인공지능 로봇 사고에 의한 책임 소재

인공지능 로봇에 관련된 법적 문제는 인공지능 로봇에 의해 피해가 생겼을 때 누구에게 책임을 물어야 하는가에 대한 부분입니다.

예를 들어, 소셜 로봇의 경우 인간과 가까운 곳에서 상호작용을 하기 때문에 안전사고가 발생될 수 있으며 주변 사람이 신체 또는 재산상의 피해를 입을 수 있습니다.

인공지능 로봇에 의해 나타난 피해 책임을 묻기 위해서는 우선 알고리즘의 투명성을 통해 일어난 피해의 책임 여부 확인을 할 수 있어야 합니다.

또한 이렇게 투명성을 통해 밝혀낸 사실에 대해서는 책임성의 원칙이 수행되어야 하고 법적 의미의 책무성까지 인정되어야 합니다.

그러므로 인공지능 로봇 기술 발전과 함께 지속적으로 다양한 법률 정비가 필요해보입니다. 


참고로 본 포스팅은 “인공지능 로봇 이해”라는 시리즈로 아래와 같이 3가지 포스팅으로 구성되어 있습니다. 앞선 포스팅에서 먼저 기본적인 로보틱스 개념과 인공지능 로봇 요소 기술에 대해 정리하였고 이번 포스팅에서 마지막으로 소셜로봇과 로봇윤리에 대해 정리하였습니다.

(1) 로봇과 로보틱스 정의, 인공지능 로보틱스 차이

(2) 인공지능 로봇 요소 기술

(3) 소셜로봇과 로봇윤리 (현재 포스팅)

Leave a Comment