AI 쉬운 이해 (1) 인공지능 역사 및 유래 / 반복되는 싸이클

이번 포스팅에서는 AI(Artificial Intelligence) 인공지능 역사와 기원, 그리고 인공지능 유래와 함께 인공지능 겨울 등의 반복되는 싸이클에 대해서 정리해보았습니다.

참고로 본 포스팅은 “인공지능의 쉬운 이해”라는 시리즈로 아래와 같이 3가지 포스팅으로 구성되어 있습니다. 대강 과거, 현재, 미래와 같은 방식으로 정리하려고 합니다.

(1) 인공지능 역사 및 유래 / 반복되는 싸이클 << 현재 포스팅

(2) 인공지능 기계학습 차이 및 기계학습 딥러닝 차이와 구분 방법

(3) 인공지능의 미래와 한계점, 취약점, 단계적 진화 방향성

인공지능(AI)이라는 용어는 굉장히 오래 전에 정의가 되어 계속 연구 붐이 일다가 실망과 함께 겨울이 찾아오다가가 몇 번 반복된 다음 기술 수준의 방전과 함께 딥러닝이라는 개념이 주목 받으면서 요즘에 다시 인기를 얻게 된 것 같습니다.

오늘 포스팅은 이러한 인공지능의 용어 정의를 해보고, 인공지능의 역사에 대해서 정리해보았습니다. 이와 더불어 인공지능의 주요 이벤트를 정리해보고 인공지능의 반복되는 싸이클(Hype Cycle)에 대해 정리하였습니다.

참고로 하이프 사이클(Hype Cycle)이란 미국의 정보 기술 연구 및 자문 회사인 가트너에서 개발한 기술의 성숙도를 표현하기 위한 시각적 도구 입니다.

인공지능 역사


과대광고 주기라고도 하는데 기술촉발-기대의 정점-환멸단계-계몽단계-생산성안정으로 신기술의 성장주기를 표현한 그래프로 알려져 있습니다.


인공지능 기원, AI 용어의 유래

인공지능 역사의 시작인, 인공지능(AI, Artificial Intelligence)라는 용어 탄생 자체는 1955년 인지과학자, 컴퓨터과학자인 존 매카시(John McCarthy)와 마빈 민스키(Marvin Lee Minsky)가 처음 사용하였습니다.

인공지능 역사

실은 그 이전부터 인공지능에 관련된 이론들은 40년대부터 등장하기 시작했는데요,

신경망=뉴럴 네트워크(Neural Network)나 처치-튜링 명제(Church-Turing Thesis) 등이 그것입니다.

50년 이후 인공지능에 대한 연구가 적극적으로 진행되었지만 실제 큰 성과가 없었습니다.

우선 인공지능이라는 연구 분야가 생긴건 56년 미국 다트머스학회에서 시작된 작은 모임에서 민스키 교수와 다트머스대 수학과 교수였던 존 맥카시, 벨 연구소의 수학자 클로드 섀넌 3명 등으로 시작되었고 이 모음은 현재 인공지능학회(AAAI)가 되었습니다.

인공지능 역사

또한 58년 MIT교수가 된 민스키 교수는 맥카시와 현재의 “컴퓨터과학 및 인공지능 연구실(CSAIL)” 발전된 인공지능 연구실을 설립하면서 인공지능 프로젝트를 시작하였습니다.


인공지능 역사 및 인공지능 겨울

하지만 앞선 인공지능 역사의 시작, 탄생 이후 69년 민스키는 퍼셉트론(Perceptrons)이란 개념에서 인공신경망의 한계를 수학적으로 증명했습니다.

퍼셉트론은 입력된 패턴을 하나씩 비교하면서 원하는 출력값이 나올 때까지 가중치를 조절해가면서 학습하는 개념인데요, 퍼셉트론이 학습할 수 있는 범위에 한계가 있음을 입증한 것 입니다.

민스키는 다층 인공신경망(MLP – Multi-Layer Perceptron)이 솔루션이 될 거라는 이야기는 했지만 이런 MLP의 복잡한 기술을 당시 기술로는 풀 수 없었습니다.

이를 통해 소위 알려진 인공지능의 1차 겨울이 오게 됩니다.

80년대부터 인공지능에 전문가 시스템(Expert System)이라는 개념이 등장하면서 다시 주목을 끌기 시작했습니다.

전문가시스템은 자신의 지식과 경험을 컴퓨터 데이터베이스에 축적한 다음 질문을 하면 데이터베이스에서 답하는 구조 입니다.

이와 함께 제프리 힌튼(Geoffrey Hinton)이나 폴 웨어보스(Paul Werbos)가 MLP 문제를 해결하면서 인공신경망에 대한 연구가 다시 진행되었습니다.

하지만 다시 전문가 시스템 시장도 무너지면서 다시 80년대 후반에는 인공지능의 2차 겨울이 오게 됩니다.

인공지능의 2차 겨울이 이어지는 와중에 제프리 힌튼은 이론적인 연구를 계속하였고

2000년대 중반 제프리 힌튼, 요슈아 벤지오 등이 딥러닝(Deep Learning)이란 개념을 제안하여 기존에 많은 문제와 규칙을 프로그래밍해서 인공지능에 넣으면 추론이 가능하다는 생각과 달리,

인간의 뇌가 작동되는 방식처럼 스스로 배우게 하는 방식을 제안하였습니다. 이를 통해 기존 퍼셉트론의 한계를 극복하여 다시 연구가 활발해졌습니다.

이와 더불어 2010년 들어 컴퓨팅 성능이 발달하면서 데이터도 증가하고 알고리즘 또한 개선되면서 머신러닝이나 딥러닝이 구현되면서 좀 더 적극적으로 인공지능이 주목받고 있습니다.

이러한 인공지능 역사를 잘 정리된 자료가 있어 아래와 같이 첨부 합니다. (출처 : aws, saltlux, 대신증권)

인공지능 역사

인공지능 연구의 반복되는 사이클 (hype cycle)

인공지능 역사, 인공지능 연구 흐름을 보면 주기적으로 hype(과대 포장)가 포함된 반복되는 사이클이 나타납니다.

3차례의 인공지능의 붐과 2번의 겨울이 존재하였으며, 1차 붐은 기본적인 지능형 소프트웨어의 등장과 함께, 2차붐은 전문가 시스템 개발 및 신경망의 등장과 함께 그리고 3차 붐은 현재 빅데이터와 딥러닝의 발달과 함께하고 있습니다.

인공지능 역사

인공지능 산업이 과거 2번의 겨울이 있었던 까닭은 이론적인 기술 진보에도 불구하고 하드웨어(컴퓨팅 성능), 소프트웨어(알고리즘), 데이터 등이 인공지능 확산에 충분한 배경이 되지 못했기 때문입니다.

인공지능의 핵심 기술인 딥러닝(Deep learning)은 80~90년대부터 이론적으로 정립되었으나 2010년 전후부터 다시 3차 인공지능 붐은 하드웨어나 소프트웨어, 데이터의 혁신으로 일어나고 있으며 과거보다 좀 더 깊고 빠르게 발전하고 있습니다.

하드웨어는 GPU나 NPU 등의 AI 하드웨어가 개발되고 컴퓨팅 파워/클라우드 인프라 발전과 함께 효율적인 컴퓨팅 환경을 구성하였습니다.

소프트웨어는 머신러닝(ML, Machine Learning), 딥러닝(Deep learning), 역전파(Back Propagation) 등의 알고리즘을 통해 알고리즘 성능이 향상되었고,

데이터 측면에서는 인공지능에 필수적인 데이터의 양과 질이 향상되었습니다.

앞으로 인공지능의 발전 또한 하드웨어와 소프트웨어, 데이터의 발전과 함께 진행될 것으로 예상됩니다.

다음 포스팅에서는 이러한 요즘 자주 나타나지만 혼용되어 사용되고 있는 인공지능, 기계학습, 딥러닝에 대해서 명확한 차이와 정의, 구분 방법에 대해서 정리해보려고 합니다.


참고로 인공지능의 쉬운 이해라는 시리즈를 아래 3가지 포스팅으로 구성하여 포스팅하였습니다.

참고로 본 포스팅은 “인공지능의 쉬운 이해”라는 시리즈로 아래와 같이 3가지 포스팅으로 구성되어 있습니다.

(1) 인공지능 역사 및 유래 / 반복되는 싸이클 << 현재 포스팅

(2) 인공지능 기계학습 차이 및 기계학습 딥러닝 차이와 구분 방법

(3) 인공지능의 미래와 한계점, 취약점, 단계적 진화 방향성

Leave a Comment