“챗GPT 사용법과 활용법 실전 특강”. 인공지능(AI)의 시대가 도래했음을 실감케 하는 문구다. 미국의 AI연구소 오픈AI가 지난해 12월 1일 공개한 AI챗봇 ‘챗(Chat)GPT’는 이제 유행을 넘어서 따라가야 할 시대의 흐름으로 자리 잡았다. 일반인에게 챗GPT 활용법을 알려주는 기초 강좌가 인기리에 열린다. 서울사이버대, 성균관대 등 대학은 학생들이 챗GPT를 활용해 과제를 수행하는 강의를 개설했다. 챗GPT와 같은 생성형 AI에 적합한 지시를 내리는 직업도 생겼다. ‘프롬프트(prompt) 엔지니어’는 국내외 스타트업들이 억대 연봉을 주며 채용하려 하는 귀한 몸이 됐다.
챗GPT가 보편적인 현상이라는 관측은 대한상공회의소가 지난 3월 20일 발표한 설문조사 결과에도 뚜렷이 드러난다. 전국 20~60대 성인 1,016명을 대상으로 설문조사를 진행한 결과, 응답자의 35.8%가 한 번 이상 챗GPT를 사용한 것으로 나타났다. 이는 기술에 빠르게 적응하는 젊은 층만의 트렌드가 아니다. 해당 조사에 따르면 1974년 이전에 출생한 응답자의 29.2%, 1975~1984년생의 42.2%, 1985~2010년생의 40.2%가 한 번 이상 챗GPT를 사용했다.
사람의 지능을 닮은 기계
우리 삶 속에 AI가 본격적으로 스며든 건 최근 일이다. 하지만 AI(Artificial Intelligence)란 용어가 처음 탄생한 배경을 살펴보려면 70여 년 전으로 거슬러 올라가야 한다. 1956년 미국의 공학자 존 매카시, 마빈 민스키 등은 미국 다트머스대에서 개최된 콘퍼런스에서 ‘AI’라는 용어를 처음 언급한다. 이때 매카시는 ‘지능’을 “어떤 목표를 이루기 위한 계산적 능력”으로 정의한다.
매카시는 “엄밀히 말해 AI를 인간 지능의 모사품이라고 할 수는 없다”라고 짚었다. 비행기와 새의 관계를 떠올리면 이해하기 쉽다. 인간은 하늘을 날기 위해 새의 비행을 참고했다. 그러나 현재 우리가 만든 비행기의 날개는 새의 날개와 많은 부분에서 다르다. 똑같을 필요가 없기 때문이다. ‘난다’라는 목적을 이루는 데 필요한 요소만 차용해 만든 기계가 비행기다. AI도 마찬가지다. 인간의 지능과 같은 기능을 하는 기계를 만들기 위해서 인간 지능의 모든 요소를 구현할 필요는 없다는 이야기다.
그렇다면 지능의 핵심요소는 뭘까. AI 개념이 탄생한 1950년대 연구자들은 지능을 몇 단계의 계산과정으로 나타낼 수 있다고 생각했다. 이 관점을 기호주의(symbolism) AI라고 한다. 사과 다섯 개 중에서 두 개를 먹었다. 이때 남은 사과는 세 개. 우리는 이를 ‘5-2=3’이라는 수학 기호를 사용해 나타낸다. 마찬가지다. 기호주의의 목표는 인간의 지능이 인식하고 연산해야 하는 세상의 구성요소를 기호화하는 것이다.
초반엔 어느 정도 성과가 있었다. 대표적인 예가 ‘전문가 시스템’이었다. 각 분야의 전문가가 상황을 판단하는 논리체계를 컴퓨터에 그대로 옮겨 놓은 AI다. 1960년대 후반 에드워드 파이겐바움 미국 스탠퍼드대 교수팀의 ‘스탠퍼드 경험적 프로그래밍 프로젝트’는 감염병을 진단하거나 유기 분자의 구조를 보고 이름을 밝히는 전문가 시스템을 개발하는 것이 목표였다. 그러나 전문가가 수행하는 몇 가지 작업을 유사하게 해낼 수는 있어도, 전문가의 지능을 그대로 만들 수는 없었다. 전문가가 업무를 수행하며 고려하는 수많은 변수와 논리를 모두 컴퓨터에 옮기는 것은 불가능에 가까운 일이었기 때문이다. 1980년대 들어 기호주의 AI 연구는 주류에서 밀려난다.
인간 지능이 처리하는 세상의 구성요소를 모두 기계에 옮기기 어렵다면, 반대로 인간 지능 자체를 기계에 옮기는 게 대안이 될 수 있다. 이를 연결주의(connectionism) AI라 부른다. 연결주의 AI의 목표는 인간의 지능을 구성하는 두뇌 속 신경의 연결을 기계에 구현하는 것이다. 이렇게 탄생한 모델이 ‘인공신경망’이다. 알파고, 챗GPT, 클로바 등 흔히 알고 있는 AI가 이 방식을 택한다.
인간의 두뇌는 뉴런(신경세포) 수백억 개가 얽혀 이뤄져 있다. 뉴런에서 뉴런으로 전기신호를 전달하거나 신경전달물질을 이용해 세포 사이에 화학적 신호를 전달하며 정보를 처리한다. 한편 인공신경망의 기본 단위는 ‘노드’다. 뇌의 뉴런처럼 노드에서 노드로 정보가 전달된다. 노드와 노드 사이의 연결부위를 ‘매개변수(Parameter)’라 한다. 뉴런과 뉴런 사이의 연결부위 ‘시냅스’와 역할이 같다. 두뇌의 정보처리는 뉴런 여러 개를 거쳐가며 이뤄진다. 이런 정보처리 단계 각각을 AI에서는 ‘레이어’라 한다.
인간을 닮기 위해 고안한 기계가 이제 인간을 넘보고 있다. 이 배경에는 초거대AI가 있다. AI 모델의 크기는 폭과 깊이로 측정한다. 매개변수의 개수가 많을수록 폭이 넓고, 레이어의 개수가 많을수록 깊이가 깊다. 챗GPT는 오픈AI의 초거대AI GPT-3 모델을 개선(fine-tuned)한 GPT-3.5를 기반으로 작동한다. GPT-3의 경우 매개변수가 1,750억 개, 레이어가 100개에 달한다.
초거대AI라는 거대한 파도, 휩쓸리지 말고 올라타야
지난 3월 14일 같은 시리즈의 네 번째 모델 ‘GPT-4’가 출시돼 화제가 됐다. GPT-4는 출시 이전부터 튜링테스트를 통과했다는 소문이 돌아 관계자들의 기대를 모았다. 튜링테스트는 인간과 기계를 구분하는 시험으로, 여기에 통과했다는 건 AI가 인간과 구분하기 어려운 수준에 도달했다는 뜻이다.
위기감을 느껴야 할까. 전문가들은 입을 모아 “AI는 인간의 지능을 넘어설 수 없을 것”이라고 말한다. AI는 어디까지나 도구일 뿐이다. 인간의 지능은 그 자체로 다양한 작업을 수행할 수 있지만, AI는 특정한 작업을 수행하기 위해 만들어진 것이다. 자연어처리 AI는 자연어를 처리하는 데 특화돼 있다. 그림을 그리는 AI는 인간이 그린 그림을 학습해 유사품을 만들 뿐 그림의 본질을 이해하지는 못한다. 그건 인간의 영역이다. SF 작가 테드 창이 “챗GPT는 인간 지식의 흐릿한 복사본(ChatGPT is a blurry JPEG of the web)”이라고 한 이유도 여기에 있다.
그림 그리는 AI부터 시 쓰는 AI, 코딩하는 AI까지. 챗GPT 외에도 다양한 AI 모델이 쏟아지는 요즘이다. AI는 앞으로 더 깊이 생각하고, 더 다양한 능력을 보여줄 것이다. 우리가 기억해야 할 것은 AI가 어디까지나 도구란 점이다. 챗GPT가 아무리 혁신적인 성능을 보여도 그 또한 도구다. 유용하게 사용할 법을 궁리하되, 끌려갈 필요는 없다.