오늘 포스팅에서는 인공지능 윤리에 대한 이해 첫번째 글로 인공지능 챗봇인 MS의 Tay사건과 이루다 사건을 기반으로 인공지능 윤리가 대두된 배경에 대해서 정리해보려고 합니다.
참고로 이번 포스팅은 AI 윤리 이해를 위해 AI 윤리가 필요한 이유에 대한 사례를 먼저 살펴보고 AI 윤리 가이드를 만드는게 왜 어려운지와 AI 윤리 가이드라인에 대한 내용으로 아래와 같은 2가지 포스팅을 정리할 예정입니다.
인공지능 윤리 이해 (1) MS Tay와 이루다 사건, 그리고 AI Ethics의 대두 (이번 포스팅)
인공지능 윤리 이해 (2) 윤리적 딜레마, 트롤리 딜레마와 AI 윤리 가이드라인
인공지능 기술은 점점 일상적으로 널리 퍼지고 있고 스마트 디바이스를 통해 깊이 파고 들어 이미 모르는 사이 일상 생활 속 많은 분야에서 AI의 도움을 받고 있는 상황입니다.
예를 들어 오늘 밤에 어떤 영화를 볼 것인지, 어떤 물건을 구매하고 어떤 책을 읽을지 등 AI가 추천해주는 선택지는 가끔은 맞지 않는 경우도 있지만 상당히 쓸만하다는 느낌을 지울 수 없습니다.
넷플릭스에서 처음에는 이상하게 느껴졌던 추천 영화 또한 점점 내 취향에 맞는다는 생각이 들고 나중에는 이러한 기술 발전으로 내 취향을 진짜로 저격하는 AI가 현실화될 것이라는 생각도 듭니다.
하지만 문제는, 우리도 인지하지 못한채 이렇게 인간의 삶과 일상에 깊숙히 들어와 있는 인공지능은 일상생활에 직접적이고 즉각적으로 영향을 미칠 수 있다는 점 입니다.
우선 민감한 개인정보 유출부터 크게는 치명적인 대형 사고까지 일으킬 수 있는데요, 이 때문에 인공지능은 윤리적 고려, 인공지능 윤리에 대한 문제가 대두되고 있습니다.
심지어 이러한 AI 윤리는 상품성과 인공지능 자체의 존망에도 큰 영향을 주기도 합니다.
대표적인 경우가 국내에서는 이루다, 해외에서는 테이(Tay)라는 인공지능 챗봇의 사례를 들 수 있습니다. 각각의 사례와 그 결과로 인한 파장에 대해서는 다음 세션에 정리해두었습니다.
인공지능 윤리 대표적 사례, AI 챗봇 이루다와 MS Tay
우선 이루다는 국내 회사인 스캐터랩에서 만든 페이스북 메신저 채팅 기반 열린 주제 대화형 인공지능 (Open-domain Conversational AI) 챗봇 입니다.
대학에 갓입학한 20대 여성을 캐릭터로 하여 페북 메신저를 통해 사람들과 친근한 대화를 나누는 것을 목적으로 설계되었는데요,
이루다는 출시 이후 얼마 지나지 않아 혐오/차별 발언 논란에 휩싸여 정식오픈 한달도 되지 않아 서비스가 중단되었습니다.
예를 들자면 지하철 임산부석에 대해서는 ‘혐오스럽다.’, 흑인에 대해서는 ‘징그럽게 생겼다.’ 성소자에 대해서는 ‘혐오스럽다’라고 답하는 등 혐오 발언이 문제가 된 탓이었습니다.
이루다는 다른 챗봇보다 자연스럽고 친근한 말투로 사람같다는 평가를 받았지만 문제는 오히려 이렇게 “사람 같은” 데이터 탓 이었습니다.
이루다가 학습한 데이터는 구글 앱스토어에서 많은 사람들이 다운로드한 “연애의 과학”에 축적된 카톡 대화였는데요 이 앱은 이용자가 연인과의 카톡 대화를 넣고 2000~5000원을 결제하면 대화 패턴을 기반으로 연애 조언을 해주는 서비스로 이루다 개발사인 스캐터랩에서는 연애의 과학에서 카톡 대화 100억건을 수집하여 AI 성능을 높였습니다.
마이크로소프트(MS)의 인공지능 챗봇인 테이(Tay) 또한 비슷한 사례가 존재합니다.
2016년 3월 마이크로소프트가 출시한 AI 챗봇인 테이(Tay)는 성소수자, 인종 차별 관련된 혐오 발언으로 16시간만에 서비스가 중단되었습니다.
예를 들자면 테이는 “유대인 학살은 조작되었다” 또는 “대량학살을 지지한다”는 등 많은 비윤리적 발언과 욕설을 트위터에 쏟아냈습니다.
사실 그 이유는 극우 백인 우월주의자들이 망언과 욕설을 지속적으로 반복하여 학습시켰기 때문에 발생된 것 이었습니다. (관련해서 BBC 뉴스 기사 – 여기 링크(영문)에 관련 배경 등이 잘 정리되어 있습니다.)
결국 앞선 두가지 AI 윤리에 대한 케이스는 주어진 데이터 만을 근거로 학습하는 인공지능이, 윤리적이지 못한 학습을 하는 경우 얼마든지 일어날 수 있는 일 입니다. 실은 AI 챗봇 만의 문제가 아니라 대부분의 인공지능이 상품화를 시작하면 나타나곤 하는 문제이기도 합니다.
인공지능 윤리의 대두 배경과 비인간 자율성(non-human autonomy)
사실 이러한 인공지능 윤리(AI ethics)가 부상하게 된 이유는 더 이상 비인간 자율성, 인공지능의 자율성에 대해서 도덕적 또는 윤리적 접근을 미룰수 없다는 사실 입니다.
여기서 의미하는 자율성이란 인간의 기준에서 부여되온 자율성의 의미인, 다른 사람의 영향에서 비교적 자유로운 상태에서 스스로 생각을 통해 사고하고 판단하는 절대적 자율성이 아니라 인간의 입장에서 쉽게 예측하기 어렵고 통제가 어려워진다는 의미입니다.
이 정도의 자율성이라도 어찌되었든간에 인공지능이 이러한 자율성을 획득해나가고 있는 것 또한 사실입니다.
이루다와 마이크로소프트(MS)의 테이(Tay) 사건에서 볼 수 있듯이 이제는 인공지능에서 설계 단계부터 윤리적 고려가 적극 요청되고 있습니다.
심지어 이는 상품성과 연계되어 오히려 기존과 다르게 협조적인 분위기인데요, 다음 포스팅에서는 이러한 AI 윤리 가이드를 만들기 위한 움직임과 더불어 이러한 AI 윤리 가이드를 만드는게 어려운 이유인 윤리적 딜레마에 대해서 알아보려고 합니다.
참고로 이번 포스팅은 AI 윤리 이해를 위해 AI 윤리가 필요한 이유에 대한 사례를 먼저 살펴보고 AI 윤리 가이드를 만드는게 왜 어려운지와 AI 윤리 가이드라인에 대한 내용으로 아래와 같은 2가지 포스팅을 정리할 예정입니다.
인공지능 윤리 이해 (1) MS Tay와 이루다 사건, 그리고 AI Ethics의 대두 (이번 포스팅)