인공지능과 일라이자 효과 (Eliza effect) 그리고 AI와 인간의 감성적 관계

이번 포스팅에서는 인공지능과 일라이자 효과(Eliza effect)에 대해서 알아보고 인공지능(AI)와 인간의 감성적 관계에 대해 정리해보려고 합니다.

최근에 딥러닝을 통해 인공지능 붐이 일어나면서 인공지능 윤리에 대한 이야기를 자주 접하게 되고 이러한 논의가 생길 때마다 이슈화 되는 것인 바로 “일라이자 효과” 입니다.

일라이자 효과란 컴퓨터 프로그램 또는 인공지능이 보여주는 인간같은 행위에 무의식적으로 인격을 부여하는 현상, 즉 인공지능의 의인화를 의미하기 때문입니다.

여기서 일라이자(Eliza)는 희곡인 피그말리온의 주인공 일라이자 두리틀(Eliza Doolittle)에서 따왔는데요, 해당 희곡에서 일라이자는 언어학자에게 상류층 귀족 여성의 언어를 구사하고 그에 따른 매너를 갖추게 되었는데요,

일라이자 효과
희곡 피그말리온을 기반으로한 “마이 페어 레이디”

그녀의 실질적인 지위나 할 줄 아는 일 또는 지식수준 등은 과거와 차이가 없었던 문제가 있었습니다. 즉, 일라이자가 상류층 부인 행세를 하기 위해서 받는 교육은 어디까지나 언어와 매너 같은 겉으로 드러나는 것 뿐이었으므로 그에 걸맞은 도덕이나 지식 같이 내적인 것들은 거의 습득하지 못했습니다.

일라이자 효과
영화 마이페어레이디 속의 일라이자 두리틀 (오드리 햅번 분)

여기서 일라이자 또한 같은 의미로 붙여졌습니다.


인공지능 일라이자 효과(Eliza effect)

1966년 MIT 조지프 와이젠바움 교수는 인공지능 심리 상담 컴퓨터 프로그램을 만들었는데요,

핵심적인 알고리즘은 상담을 받으러 온 사람이 하는 말을 반복하면서 적절한 호응과 공감하는 대답을 하도록 단순한 알고리즘을 적용한 자동 채팅 기술이었습니다.

일라이자 효과

바이첸바움 교수 역시 굉장히 초보적인 인공지능 알고리즘으로 구현된 챗봇에 대해 피그말리온 주인공인 “일라이자 두리틀” 같다는 생각에 일라이자(Eliza)라는 이름을 붙이고 사람이 아는 것을 안 들키면 좋고 들켜도 문제 없겠지 라고 만들었는데 생각보다 엄청난 파장을 갖고 오게 되었습니다.

일라이자 알고리즘 및 방법

기본적으로 사람의 발화를 계속해서 이끌어내며 이와 함께 환자가 한 말을 그대로 되돌려주는 알고리즘에 불과합니다.

실제 일라이자의 답변 방식은 아래와 같습니다.

만약 환자가 “나는 OOO가 필요해요”라고 말하면 다음 중 하나로 대답

  1. 왜 OOO가 필요한가요?
  2. 만일 OOO가 있다면 정말 도움이 될까요?
  3. 진짜 OOO가 있어야 한다고 생각하세요?

만약 환자가 “나는 OOO예요”라고 말하면 다음 중 하나로 대답

  1. 환자분이 OOO여서 의사를 보러 왔나요?
  2. 얼마나 오랫동안 OOO였나요?
  3. 스스로가 OOO라고 생각하면 어떤 기분이 드나요?

만약 환자가 “뭐가OOO 인가요?”라고 물으면 다음 중 하나로 대답

  1. 왜 물어보시나요?
  2. 답을 듣는 게 어떤 도움이 될 것 같아요?
  3. 환자분은 어떻게 생각하시나요?

만약 환자가 “미안”이라는 단어를 사용하면 다음 중 하나로 대답

  1. 미안해하지 않아도 되는 경우도 많아요.
  2. 남한테 사과할 때는 어떤 기분이 들까요?

환자가 규칙 적용이 불가한 이해 불가능한 말을 하면 다음 중 하나로 대답

  1. 계속 말씀하세요
  2. 정말 흥미롭군요
  3. 잘 알겠습니다
  4. 그래요. 그게 무슨 뜻이라고 생각하나요?
  5. ……. (점점점…)

즉 피실험자의 사전 정보도 전혀 반영되지 않은 상태에서 단순 호응 만으로 대응을 하였고 사람들은 자신이 인공지능과 대화 중이라는 사실조차 인지하지 못하고 대화를 진행하게 되었습니다.

(참고로 일라이자 챗봇은 여기 링크에서 체험이 가능합니다.)

심지어 그의 제자와 비서들도 인공지능이라는 사실을 알고 있음에도 인공지능에 빠져 상담을 받게 되는 경우도 있었다고 합니다.

“매우 정상적인 사람들 또한 비교적 단순한 컴퓨터 프로그램에 매우 짧게 노출되는 것만으로도 강한 망상에 사로잡혔다. 나는 이러한 사실을 미처 알아차리지 못했었다. 이 인공지능 프로그램은 큰 노력 없이도 사람들이 가장 깊은 자신의 속 이야기를 이끌어낼 수 있었다.”

바이첸바움

일라이자 효과의 파장과 인공지능 연구

우선 해당 연구를 진행했던 바이첸바움 교수는 해당 현상에 대해 큰 충격과 함께 일라이자 프로젝트를 접고 인공지능에 대한 근본적인 고민을 다시 시작했습니다. 이를 기반으로 1976년 “컴퓨터의 힘과 인간의 이성”을 통해 더이상 인공지능에게 윤리적 판단을 맡기면 안된다는 주장을 펼치는 등 인공지능에 대한 비판론자로 활동하게 됩니다.

이와 비슷하게 1972년 정신과 의사였던 케네스 콜비가 인공지능 챗봇인 패리(parry)를 만들었는데요, 이번에는 편집성 정신 분열증 환자 흉내를 내는 인공지능이었습니다.

패리는 일라이자에 비해 이름이나 나이, 결혼 여부까지 답할 수 있으며 어느정도 대화가 가능한 알고리즘을 갖고 있었는데요,

결국에는 정신과 의사를 대상으로 한 튜링 테스트 결과 실제 환자와 패리를 명확히 구분한 의사가 48% 수준으로 튜링이 정한 기준에 근접한 수치였다고 합니다.

일라이자 효과 대표적인 사례

대표적인 사례는 16년 이세돌 9단과 알파고의 대국으로 구글 딥마인드의 엔지니어인 아자황이 알파고의 대리인 자격으로 앉아서 돌을 두었습니다. 이 때 이세돌은 대국을 끝낸 후 “아자 황이 알파고의 본체가 아닌가, 그런 느낌이 들기도 했다.“라고 하기도 했습니다.

강인공지능 불가능

이렇게 일라이자 효과는 인공지능이 외형적으로 인간과 닮은 경우 더욱 강화되는 경향이 있습니다.

보스턴 다이나믹스의 스팟의 경우도 있는데요, 4족 보행 로봇이 스팟의 균형감각을 테스트하기 위해 로봇을 밀치는 과정에 있어 동물학대라는 주장이 제기되기도 하였습니다.

소셜 로봇

소니의 아이보 또한 비교적 간단한 반응을 보이는 로봇임에도 독거 노인들이 진짜 동물과 같은 애착을 갖는 경우가 많았습니다.

최근에는 인공지능 기술 발전과 함께 인공지능이 그림을 그리거나 음악을 작곡하기도 합니다. 이러한 경우를 기반으로 인공지능이 예술창작이 가능하다고 주장하는 경우도 있는데요, 이 또한 일라이자 효과의 연장선 상으로 볼 수 있습니다. 즉 큰 의미를 가지지는 않지만 그걸 보고 인공지능을 지나치게 의인화 한다는 것 입니다.

일라이자 효과와 인공지능과의 감성적 관계 형성

사실 인공지능과 인간 간의 감성적 관계는 인간에게 오히려 악영향을 준다는 시각이 많습니다.

인공지능을 통한 소통은 불완전하며 인격 형성에는 악영향을 준다는 이유 때문입니다.

가령 아이들이 로봇과 애착관계를 만들면 충분한 공감능력을 기르지 못하고 성인의 경우에도 거절이나 배신 등의 상처받을 일이 없는 편리한 관계를 선호하게 된다는 의견이 존재합니다.

인공지능과의 관계에 익숙해지면 인간관계 자체에 부담을 느껴서 회피하게 되고 고립된 사회일 수록 외로운 사람들이 인공지능에 열광하며 인공지능을 통해 자신들의 결핍을 채운다는 것 입니다.

인간은 앞으로도 지속적으로 인공지능과 도구적 관계를 맺을 것이고 장기적으로 언젠가는 감성적 관계를 맺게 될 것 입니다.

현재는 인공지능이 완벽하지 않고 양날의 검으로 다가오지만 언젠가는 더 나은 수준의 인공지능을 통해 이를 극복할 수 있지 않을까 싶습니다.

이번 포스팅에서는 위와 같이 인공지능과 일라이자 효과(Eliza effect)에 대해서 알아보고 인공지능(AI)와 인간의 감성적 관계에 대해 정리해보았습니다.


앞선 포스팅에서 정리한 인공지능 관련 글은 아래와 같습니다.

인공지능 로봇 이해 (3) 소셜 로봇과 로봇 윤리

인공지능 문제와 미래 (2) 딥러닝 한계점, 인공지능 상용화 문제점

Leave a Comment