본문 바로가기

[내가 읽은 책]인공지능, 머신러닝, 딥러닝 입문_67

The history of artificial intelligence (AI) highlights its interdisciplinary nature, combining fields such as computer science, mathematics, and psychology. AI originated from philosophical inquiries into cognition and reasoning over 2,000 years ago, evolving with advances in logic, statistics, and computation. The Turing Test, proposed in 1950, became a seminal method to assess AI's ability to mimic human intelligence. Early AI milestones include neural networks, exemplified by the Perceptron, and the formal introduction of AI and machine learning at the 1956 Dartmouth Conference. Modern AI focuses on creating systems that behave like humans, driven by advancements in natural language processing, computer vision, and deep learning techniques. 

인공지능의 역사

 

인공지능이란?

인공지능은 여러 학문이 연계된 전형적인 융합 학문이다. 컴퓨터과학, 수학, 통계 학을 중심으로 철학, 심리학, 의학, 언어학 등 실존하는 모든 학문이 광범위하게 연계돼 있다.

인류 역사상 가장 오래된 학문 중 하나인 철학은 2,000년 이상 사람은 어떻게 인지 하고, 배우고, 기억하고, 추론하는지에 대해 고민해 왔다. 철학에서는 기원전 400 년경 이미 인공지능의 개념을 상상했다. 그것은 다름아닌 마인드라는 것이다. 철학에서는 마인드를 사람 안에 어떤 언어로 인코딩 된 지식을 조작하는 일종의 기계 같은 개념이라고 생각했다.

수학은 단연코 인공지능의 기반이 되는 학문이다. 수학에서 대수, 논리학, 확률론 의 3개 핵심 분야는 철학에서 제안한 추상적인 아이디어를 증명하고, 알고리즘이 라는 형태로 구체적인 구현 방법을 제시한다.

인지 심리학은 인간과 동물들이 어떻게 정보를 인지하고, 저장하고, 분석 처리하 느냐에 대한 동작 메커니즘을 밝히는 데 중요한 역할을 한다.

그리고 컴퓨터과학은 이러한 산출물들이 실제로 동작할 수 있도록 컴퓨터 하드웨어와 프로그래밍 기법을 개발해서 인공지능의 마지막 모습을 완성하는 데 핵심적 인 역할을 한다.

인공지능은 전문가들의 관점에 따라 여러 가지로 정의된다. 스튜어트 러셀과 피터 노빅은 「인공지능: 현대적 접근법Artificial Intelligence: A Modern Approach」에서 인공지능을 다음과 같이 4가지 영역으로 정의하고 있다.

1. 인간처럼 생각하는 시스템/ 2. 인간처럼 행동하는 시스템/ 3. 이성적으로 생각하는 시스템/ 4. 이성적으로 행동하는 시스템

이 분류에서 기준이 되는 것은 '인간처럼' '이성적으로', 그리고 '생각하는' '행동 하는'이다.

'인간처럼'은 말 그대로 사람이 연구대상이며, 만약 사람을 완벽히 따라하는 시스템을 만든다면 100% 성공이다. '이성적으로'의 접근법은 다소 도전적이다. 그 이 유는 사람도 이성적이지 않다라는 의미가 내포돼 있기 때문이다. 따라서 '이성적으로'의 접근 방법은 인간의 관점 이상의 외연적 방법으로 사물을 분석하는 것으로 다분히 철학적이다.

'생각하는'의 접근법은 인지, 추론 등과 같은 '생각'의 과정이 원천적으로 어떻게 작동하는가를 연구하기 때문에 논리학과 심리학 분야 연구가 중심이 된다. 최근에 는 이러한 '생각하는' 인공지능 연구와 실험적인 심리학, 그리고 신경과학 분야가 합쳐져 인지 과학이라는 새로운 학문 분야가 생기기도 했다. '생각하는' 방법의 인공지능 연구 중 대표적인 예가 카네기멜론 대학의 알렌 뉴웰 교수와 허버트 사이먼 교수의 논리이론기나 범용해석기다. 논리이론기는 알프레드 노스 화이트헤드와 버트랜드 러셀 의 저서 「수학 원리 에나 오는 정리들을 자동적으로 증명하는 프로그램이다. 범용해석기는 논리이론 기를 일반화한 프로그램으로 임의의 문제를 해결하는 엔진이다. 범용해석기는 간 단한 문제는 해결할 수 있으나 현실적인 복잡한 문제에서는 그 경우의 수가 기하 급수적으로 증가하면서 적용하기 어렵다는 것이 밝혀졌다. 뉴웰과 사이먼은 이를 극복하기 위해 수단-목표 분석 MEA: Means-End Analysis 기반의 경험적 방법 heuristic을 통 해 경우의 수를 줄이는 방법을 제시했다. 이 모델은 이후 카네기멜론 대학을 중심으로 컴퓨터 인지심리학 기반의 인공지능이라는 독특한 학문 분야로 발전한다.

[행동하는의 방법은 가장 직관적이다. 구현하고자 하는 시스템의 연구 대상이 관 찰 가능한 행동이기 때문이다. 인공지능의 정의를 '행동하는 방법으로 접근한 대 표적인 예가 바로 튜링 테스트 furning test. 튜링 테스트는 기존의 이론적이거나 추 상적인 인공지능의 기준을 정하는 대신 사람이 하는 행동을 컴퓨터가 얼마나 유사 하게 모방하느냐로 정의한 것이다. 사람들이 이해하고, 추론하고, 표현하는 '행동'을 컴퓨터가 똑같이 모방하는 것이 '행동하는 인공지능 구현 접근법이다. 최근 에는 보고computer vision, 듣고voice recognition, 움직이고movement, 운전하는driving 행동으로 적용 영역을 넓혀가고 있다.

현재까지 가장 활발하게 연구되고 있는 인공지능 분야는 '인간처럼 행동하는 시스템"이다. 예를 들면, (자연어 처리) (자동적인 추론, 지식 표현, 음성인식, 머신러닝, (컴퓨터 비전, 로보틱스가 대표적이다. 앞으로 이 책에서 논의할 인공지능은 바로. '인간처럼 행동하는 시스템을 말한다.

인공지능을 '인간처럼 행동하는 시스템'이라고 정의한다면 인공지능은 인간처럼 몸과 마음이 필요하다. 그러한 의미에서 인공지능의 몸뜨는 닉은 컴퓨터 또는 하드웨 어이고 마음은 알고리즘 또는 소프트웨어다. 몸과 마음이 일체로 작용하듯이 인공 지능의 발전사도 컴퓨터와 알고리즘의 연구가 서로 단단히 맞물려 있다. 특히 알 고리즘이 동작하는 컴퓨터의 발전은 인공지능 기술의 발전을 더욱 가속화했다.

 

 

인공지능 검사: 튜링 테스트

1950년 튜링은 Computing Machinery and Intelligence』라는 논문을 통해 컴 퓨터가 지능을 갖고 있다는 사실을 어떻게 판단할 것인가에 대한 구체적이고 실제 적용이 가능한 방법으로 튜링 테스트를 제안한다. 그런데 이 논문에서 발표된 최 초의 튜링 테스트는 사실 오늘날의 것과 조금 달랐다.

오늘날 사용되고 있는 튜링 테스트는 독립된 공간에 컴퓨터, 사람, 심사원이 들어 가 설치된 컴퓨터 화면을 통해 문자를 주고받은 후, 컴퓨터와 사람 둘 다에게 문자를 주고받은 심사원이 어떤 상대가 컴퓨터인지 구별하는 것이다. 만약 심사원이 구별하지 못하면 컴퓨터는 튜링 테스트를 통과하게 된다.

그러나 원래의 튜링 테스트는 이보다 조금 더 복잡했다. 먼저 튜링 테스트를 제안 하게 된 동기를 그의 논문을 통해 알아보자.

여기서 튜링은 '기계가 생각할 수 있는가?"라는 화두를 던진다. 최초의 인공지능 정 의를 묻는 질문이다. 여기서 그는 인공지능을 정의할 때 '기계' '생각'을 분리해서 생각하지 말고, 모방게임imitation game이라는 명확하고 실용적인 방법을 제안한다.

처음에 튜링이 제안했던 모방 게임인 튜링 테스트는 3명의 참가자가 참여해서 두 단계로 진행된다. 먼저, 남자 참가자가 A 역할을 하고, 여자 참가자는 B 역할을 한 다. 그리고 심사원은 C 역할을 한다. 첫 번째 단계에서는 심사원 C A, B와 문 자 메시지로 대화를 나누고 누가 남자이고 여자인지를 알아내는 과정이다. 이때 A C에게 자신의 정체를 숨기려고 노력하고 B는 정확히 얘기한다. A가 자신의 정 체를 숨기려고 하기 때문에 심사원은 A가 여자로 생각하는 실수를 할 가능성이 있 다. 두 번째 단계에서는 A의 남자 대신 컴퓨터로 바꿨을 때 심사원이 똑같은 반응을 보이는지를 테스트하는 것이다. 두 단계로 나눠서 테스트를 진행한 이유는 확 실하게 설명돼 있지 않으나, 아마도 두 가지 이유가 있을 듯하다. 첫째는 심사원이 처음부터 컴퓨터와 대화를 한다고 하면 쉽게 컴퓨터와 사람의 차이점을 알아낼 가능성이 높고, 두 번째는 컴퓨터가 사람처럼 자신의 정체를 속이는 행위까지 모방 해야 진정한 인공지능으로 판단한 것처럼 보인다. , 여자인 척하는 남자만큼이나 컴퓨터가 사람인 척 흉내를 내면 컴퓨터는 튜링 테스트를 통과한 것이다.

물론 당시에는 이러한 실험을 할 컴퓨터가 존재하지 않았기 때문에 튜링 테스트 는 아이디어 차원에서 제안된 것이었다. 그는 이 논문에서 50년 이내에 그러한 인 공지능 시스템이 등장할 거라고 예측한다. 다음은 튜링이 이 논문에서 남긴 코멘트다.

"I believe that in about fifty years' time it will be possible, to programme computers, with a storage capacity of about 10°, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent, chance of making the right identification after five minutes of questioning."

, 튜링은 여기서 10bit의 스토리지를 가진 인공지능 컴퓨터와 5분간 대화를 하 고 나서 정확하게 대화상대의 정체를 구별하는 심사원은 70%가 안 될 것이라고 예 측했다. 지금으로부터 70여 년 전의 예측이다. 튜링이 말한 10bit의 스토리지는 메모리 기능을 말하는 것으로 용량이 125MB가 된다. 현재 일반적인 스마트폰 메 모리의 용량이 3GB이니 24분의 1 수준이다. 스마트폰에 설치된 개인 비서 앱은 음성 또는 문자로 물어보는 사용자 질문을 거의 사람처럼 대답해 준다.

참고로 약 15년 전에는 튜링 테스트가 인공지능의 기술 수준을 가늠하는 표준으로 여겨지면서 많은 사람들이 저마다 튜링 테스트를 통과했다고 과시하듯 보도하는 경향이 있었다. 이때 인지과학자인 다니엘 덴넷Daniel Dennett은 자신의 저서 「Essays on Designing Minds」에서 사람이 느끼기에 사람의 지능 정도를 인지하는 것은 매우 주관적이며 심지어 하찮은 프로그램에도 열광하는 경향이 있다고 지적하면 서 튜링 테스트의 맹목적인 추종을 경계하기도 했다.

최초의 인공신경망: 퍼셉트론

한편 미국에서는 1943년 신경외과 의사인 워렌 맥컬록Warren McCulloch과 논리학자 인 월터 피츠 Walter Pitts의 역사적인 연구에서 인공신경망이 시작된다. 그들은 마치 전기 스위치처럼 '', '오프'는 기본적인 기능이 있는 인공 신경을 그물망 형태로 연결하면 그것이 사람의 뇌에서 동작하는 아주 간단한 기능을 흉내 낼 수 있다는 것을 이론적으로 증명했다. 이 연구는 신경망 기반의 인공지능 연구에 서막을 올리는 사건이었고, 향후 1958 년 코넬 대학교의 심리학자인 프랭크 로센블래트Frank Rosenblatt의 연구에 결정적인 영향을 준다. 여기서 탄생된 이론이 바로 퍼셉트론Perceptron이다. 프랭크 로센블래트는 맥컬록과 피츠의 원시적인 인공신경망 이론을 바탕으로 '학 습'이라는 개념을 추가한다. 로센블래트가 정의한 학습의 개념은 1949년 도널드 올딩 헵Donald Olding Hebb이 발표한 저서 "The Organization of Behavior」에서 아이 디어를 얻었다. 헵은 이 책에서 생물학적 신경망 내에 반복적인 시그널이 발생할 때 신경세포들은 그 시그널을 기억하는 일종의 학습효과가 있음을 지적했다. 그는 이 관찰을 기반으로 생물학적 신경망의 학습 메커니즘을 인공신경망에서는 가중 치weight factor라는 것으로 그 효과를 대체할 수 있음을 설명했다.

1958년 로센블래트는 협의 가중치 개념을 적용해 사람의 시각 과정을 시뮬레이 션하는 물리적인 기구를 만들면서 퍼셉트론 이론을 발표한다. 로센블래트가 발 표한 퍼셉트론은 인공신경망ANN: Artificial Neural Network을 실제로 구현한 최초의 모델이다.

 

인공지능 용어의 등장

인공지능이라는 말은 1956년 여름 존 매카시John McCarthy가 다트머스 대학에서 열 린 컨퍼런스에서 처음 사용했다. 존 매카시는 프린스턴 대학에서 박사학위를 받 고 다트머스 대학에서 교수로 재직하고 있던 중 마빈 민스키Marvin Minsky, 정보이 론Information Theory의 창시자 클로드 쉐넌Claude Shannon, IBM 7019을 설계한 나다니 엘 로체스터Nathaniel Rochester 등과 공동으로 이 컨퍼런스를 주최했는데, 다수의 프 린스턴 대학 동문들과 IBM의 아서 사무엘Arthur Samuel, MIT의 레이 솔로모노프Ray Solomonoff, 올리버 셀프리지liver Selfridge, 그리고 카네기멜론 대학의 허버트 사이먼 Herbert Simon과 알렌 뉴웰Allen Newell 등이 참여했다. 사실 이 컨퍼런스에서는 별다른 연구결과는 발표되지 않았고 인공지능이라는 용어의 탄생으로 그 의미가 있다고 할 수 있다. 이후 존 매카시는 다트머스 대학에서 MIT로 자리를 옮긴 후 계속 인공지능 연구를 진행한다. 그는 MIT에서 인공지능 분야에서 사용되는 LISP 를 개발했다. LISP는 고급 프로그래밍 언어로 매카시가 1958년에 개발해 1960년에 발표한 것이다. 이는 포트란보다 약 2년 후에 만들어진 것으로 알려졌는데, 지금까지도 사용되고 있는 고급 프로그래밍 언어다. 다트머스 컨퍼런스에 참여했던 마빈 민스키 박사도 1958 MIT에 합류한다. 민스 키는 1959년 매카시와 공동으로 MIT 내에 AI 랩을 만들면서 인공지능의 중심이 프린스턴 대학에서 MIT로 이동하게 된다. 민스키는 지속적으로 어떻게 하면 컴퓨 터가 사람처럼 지각하고 사고하는지에 대해 연구했으며, 그 공로로 1969년 컴퓨터 과학 분야의 노벨상이라고 하는 튜링 어워드 Turing Awards를 수상한다(2년 후인 1971 년에는 존 매카시가 수상한다). 또한 그는 1985년에 MIT에서 미디어 랩을 설립하 기도 했다. 인공지능의 선구자인 마빈 민스키는 2016 1, 88세의 일기로 수많 은 업적과 함께 역사 속으로 사라진다. 다트머스 컨퍼런스에 참석한 인공지능 전문가 가운데 아서 사무엘이 있었다. 그 가 바로 머신러닝machine learning이라는 용어를 처음으로 사용한 사람이다. MIT에 서 전기공학으로 석사학위를 받은 사무엘은 벨 연구소를 거쳐 어바나 샴페인에 있 는 일리노이 주립대 전기공학과 교수를 역임했다. 이후 IBM으로 자리를 옮겼는 데, 1959 IBM이 개발한 최초의 과학계산용 상용 컴퓨터인 IBM 701에서 실행 되는 인공지능 프로그램을 개발한다. 그의 프로그램은 보드게임 중 하나인 체커 checker 게임을 사람을 상대로 하는 것이었는데, 이 연구결과를 발표하는 그의 논문 『Studies in Machine Learning Using the Game of Checkers」에서 처음으로 '머신러닝'이라는 용어를 사용했다. IBM에서 은퇴한 후 그는 스탠포드 대학에서 인공지능 분야 연구교수를 역임하면서 후배 양성에 힘을 쏟았다.

 

인공지능에서 파생된 머신러닝

인공지능이라는 용어가 탄생한 1956년의 다트머스 컨퍼런스 이후 IBM 인공지능 연구원인 아서 사무엘은 1959년 체커 게임 논문을 발표하면서 처음으로 머신러닝 이라는 용어를 사용한다. 머신러닝은 이후 지금까지 인공지능의 핵심적인 주제로 지속돼 왔다.

제이미 카보넬aime Carbonell과 그의 동료들이 1983년에 발표한 논문에서 머신러 닝은 지금까지 세 가지 접근법으로 연구가 진행돼 왔다고 설명한다. 첫 번째가 신경 모형 패러다임 Neural Model Paradigm이다. 신경 모형은 맥컬록과 피츠에 서 시작된 인공신경망 이론이 로센블래트의 페셉트론으로 이어졌고 이것은 연결 주의론이라는 머신러닝의 한 분야를 형성했다. 신경 모형 패러다임은 초창기 열악 한 컴퓨터 기술로 인해 이론 위주의 연구가 진행되다가 이후 자체적인 특수 목적 장치들을 고안하면서 인공신경망을 구현한다. 1차 인공지능의 겨울이 시작되면서 신경 모형 패러다임은 몇몇 학자에 의해 그 명맥이 근근이 이어져갔다. 예를 들면, 하버드 대학교 박사과정이었던 폴 워보스Paul Werbos 1974년 자신의 박사논문" 에서 최초로 다층 신경망의 학습 알고리즘으로 역전파 이론을 적용할 수 있음을 보인다. 그러나 당시 연결주의론에 대한 학계의 냉랭한 분위기 때문에 그는 1982 년까지 자신의 연구 결과를 대중에 발표하지 않았다. 폴 워보스의 논문은 1985년 데이비드 파커David B. Parker와 프랑스의 얀 르쿤Yann LeCun에 의해 재발견되면서 연결 주의론은 새로운 국면을 맞이한다. 신경 모형 패러다임은 2000년대 들어서면서 심층신뢰망Deep Belief Network, 컨볼루션 신경망Convolution Neural Network 등 획기적인 새로운 알고리즘의 소개와 범용 그래픽 프로세서 GPGPU: General Purpose Graphical Processing Unit를 이용한 컴퓨터 성능의 개선으로 깊은 신경망 구조를 가진 딥러닝 Deep Learning으로 발전한다.

두 번째는 심볼 개념의 학습 패러다임symbolic Concept-Acquisition Paradigm이다. 이 패러 다임은 서두에서 얘기했던 스튜어트 러셀과 피터 노빅의 인공지능 분류에서 '인간 처럼 생각하는' 영역과 유사하다. 1960년에 시작된 이 패러다임은 헌트Hunt와 그의 동료가 발표한 논문 『Programming a Model of Human Concept Formation」에 서 그 기원을 찾을 수 있다. 이 패러다임은 숫자나 통계 이론 대신 논리학이나 그 래프 구조를 사용하는 것으로 1970년대 중반부터 1980년대 후반까지 인공지능 의 핵심적인 접근법이었다. 여기서 심볼릭symbolic이라는 것은 인간이 읽을 수 있는 human-readable 것으로 해석하면 될 듯하다. 카네기멜론 대학의 허버트 사이먼 교수 와 알렌 뉴웰 교수가 이 패러다임의 대표적인 학자다. 이 패러다임은 나중에 전문 가 시스템에 많은 영향을 미친다.

세 번째는 현대지식의 집약적 패러다임Modern Knowledge-Intensive Paradigm이다. 현대지 식의 집약적 패러다임은 1970년대 중반부터 시작됐다. 이 패러다임이 등장한 배경 은 인지과학에서 사용하는 'tabula rasa'라는 말처럼 아무런 지식도 없는 백지 상태 에서 학습을 시작하는 신경 모형을 지양하고 이미 학습된 지식은 재활용해야 한다는 이론이 대두되면서 시작됐다. 또한 그동안 머신러닝의 중심이 됐던 심볼 개념 의 학습 패러다임에서 그 영역을 확장하고자 하는 움직임이 현대지식의 집약적 패 러다임이 탄생하게 된 또 다른 동기였다. 이 패러다임의 대표적인 경우가 1983년 로스 퀸란Ross Quinlan이 제안한 의사결정 트리Decision Tree 알고리즘이다. 의사결정 트 리 알고리즘은 블랙박스hack box 형태의 다른 머신러닝 알고리즘과는 달리 이른바 화이트 박스white box 알고리즘이어서 사용자가 그 진행 프로세스를 직관적으로 확 인할 수 있다. 블랙 박스는 진행과정이 숨겨진 형태를 말한다. 의사결정 트리는 노 이즈noise 데이터의 처리에 큰 강점을 보이면서 실무적으로 많이 사용되고 있다.

1990년대에 들어서면서 머신러닝은 새로운 전환기를 맞는다. 그동안 머신러닝은 인공지능의 연구분야 중 하나로 주로 컴퓨터의 학습 방법론에 치중했는데, 이때 부터 실생활에서 필요한 문제를 해결할 수 있는 실용적인 머신러닝 연구 분위기가 새롭게 형성된 것이다. , 90년대의 머신러닝 패러다임은 컴퓨터를 이용한 통계 학에 가까웠다. 통계학 관점에서 데이터를 분석하는 데이터 마이닝과 이론적으로 많은 부분을 공유했으며 더욱 향상된 컴퓨터의 보급 및 인터넷의 확산으로 디지털 데이터의 손쉬운 확보도 이러한 움직임에 많은 영향을 끼쳤다.

러시아의 통계학자인 블라드미르 배프니크Vladimir Vapnik 1963년에 발표한 서포트 벡터 머신Support Vector Machine 이론을 일반화한 소프트 마진soft margin 서포트 벡터 머 신을 그의 동료와 함께 공동연구로 1995년에 발표한다. 서포트 벡터 머신은 1990 년대와 2000년대 초반까지 머신러닝의 핵심적인 알고리즘으로 사용됐다.

 

책 제목 : 알고리즘으로 배우는 인공지능, 머신러닝, 딥러닝 입문

지은이 : 김의중