2016년 세상을 놀라게 했던 알파고에 이어 최근 챗GPT가 다시금 AI 기술의 파급력과 가능성으로 충격을 주고 있다. 알파고가 2차원 이미지를 처리하는 심층신경망 기술이었다면 이번 챗GPT는 입력되는 자연어를 처리(NLP)하는 트랜스포머 기반의 기술로 진화했다.
트랜스포머 신경망은 언어와 같이 시간에 따라 순차적으로 입력되는 데이터(단어)들을 일정 시간 동안의 묶음으로 처리한다. 특히 하나의 묶음단위 내의 데이터들이 서로 얼마나 연관이 있는지를 조사해 출력 시점에서의 단어와 연관이 크게 있는 입력 단어 부분을 좀 더 집중(attention)해 처리하는 기법이다.
구글에서는 트랜스포머를 이용해 버트(BERT; Bidirec-tional Encoder Representations from Transformers) 알고리즘을 개발했고 오픈AI는 GPT(Generative Pre-Trained Transformer)라는 알고리즘을 개발했는데 버트는 문맥의 의미를 이해하는 데 적합하고 GPT는 대화에 적합하다고 알려져 있다. 이렇게 사람처럼 대화하는 AI의 출현은 산업적·사회적으로 큰 변화를 가져올 것으로 예상된다.
기술 국산화보다는 글로벌시장 겨냥한
제품 개발과 시장 선점에 집중해야
AI 기술은 그동안 심층신경망 알고리즘, 빅데이터 그리고 고성능 반도체 처리 시스템 이 세 가지 요소에 의해 발전해 왔다. 각 요소에 대해 살펴보면 먼저, 알파고, GPT 또는 버트와 같이 AI 패러다임을 바꾸는 심층신경망 알고리즘 기술의 경우 수년간의 기술 축적, 막대한 자본 및 인력의 투여가 필요하다. 예를 들어 챗GPT를 개발한 오픈AI는 2015년에 설립됐으며 GPT-3 모델의 경우 1,750억 개 파라미터로 구성돼 있고 소요되는 메모리가 350GB 이상이어서 개발에 든 장비 비용만 약 8천억 원이다. 이 같은 모델을 구동하는 데는 한 달 150억 원 정도의 전기료가 든다고 한다.
이처럼 AI의 큰 물줄기를 바꾸는 새로운 혁신 알고리즘들은 구글이나 MS 등 오랜 기간 이 분야에 전념해 온 세계적인 전문 기업들이 장기적으로 막대한 투자를 계획해야 개발이 가능하다. 현재 실정과 역량을 고려하면서 한정된 재원과 인력 등을 기술개발의 어느 부분에 배정해야 가장 좋은 효율을 얻을 수 있을 것인지 고민해 볼 때다.
다음으로 구글, 아마존, 바이두와 알리바바 같은 기업들은 오랜 기간 데이터를 축적해 경쟁력 있는 빅데이터를 구축했으며 이를 활용해 새로운 신경망 알고리즘을 선도적으로 개발해 왔다. 우리나라에서도 네이버, 카카오 등에서 빅데이터를 구축하고 있지만 글로벌 기업들과 비교했을 때 매출액이나 연구개발(R&D) 투자 규모, 인력 등에서 큰 차이를 보인다.
추후에 발생할 수도 있을 기술적 종속을 방어하기 위한 수단이나 기술 도입비를 줄이기 위한 협상 카드로서 국내 기업들도 개발에 뛰어드는 것으로 생각된다. 그러나 지금의 전략은 글로벌시장을 대상으로 공격적인 시장 생태계를 구축한다기보다는 국내 시장을 수동적으로 방어하는 모습으로 비춰진다.
이 글에서 집중적으로 살펴볼 고성능 반도체 처리 시스템으로 눈을 돌려보자. AI 분야에서 강화학습의 창시자로 유명한 리처드 서튼 미국 앨버타대 교수는 알파고, 챗GPT와 같은 거대 모델들의 출현으로 상징되는 AI의 발전에 대해 “결국 아주 간단하지만 효과적인 방법을 성능 좋은 반도체를 이용해 고속으로 무수히 반복 처리해 이룬 것일 뿐”이라며 고성능 반도체 처리 시스템의 중요성을 언급했다. 이러한 반도체 처리 시스템은 동적메모리(DRAM) 또는 플래시 메모리 등의 ‘메모리’와 그래픽처리장치(GPU) 또는 신경망처리장치(NPU) 등 ‘처리기’라는 두 가지 반도체로 구성된다. 메모리는 알파고, 챗GPT뿐만 아니라 전 세계의 모든 AI 처리 시스템에 꼭 필요한 요소다. 삼성이나 SK하이닉스에서 생산한 메모리가 시장의 60% 이상을 점유하고 있는데, 이는 국내 메모리 기술이 AI 발전에 크게 기여하고 있음을 알 수 있는 대목이다.
다음으로 처리기의 경우 게임 등의 화면처리를 고속으로 실현하기 위해 개발됐던 GPU를 현재 사용하고 있지만 최근 많은 기업에서 AI알고리즘을 고속화하기 위해 NPU를 개발해 채택·활용하고 있다. NPU 개발은 2015년 카이스트가 세계 최초로 연구해 발표한 바 있으나 기업의 제품개발은 아직 진행 중이라 미국이나 중국 기업에 비해 5~6년 뒤처져 있는 상황이다. 이 경우에도 막대한 투자 규모를 생각해 본다면 기술 국산화 또는 외산 기술 종속 탈피 등을 목적으로 하기보다는 글로벌시장 선점을 타깃으로 해야 그 효과가 있을 것으로 보인다.
미국, 대만, 중국 등에서 주목하는 PIM,
DRAM 공정 갖춘 국내 기업 기술우위 가능해
거대 AI 모델을 사용하기 위해서는 메모리와 처리기 사이를 데이터들이 초고속으로 이동해야 한다. 그러나 현재의 반도체 처리 시스템의 메모리와 처리기는 물리적으로 분리돼 있어 이 과정에서 매우 높은 전력 소모가 발생한다. 앞서 말했던 NPU 역시 메모리와 처리기가 물리적으로 분리돼 있기 때문에 이러한 문제점을 피할 수 없다.
현재 데이터센터는 1제곱미터당 1메가와트시의 전력을 소모하고 있으며 이는 일반 가정의 10배가 넘는 수치다. 이러한 문제를 해결하고자 나온 것이 NPU와 메모리를 하나의 반도체로 집적하는 프로세싱-인 메모리(PIM; Processing-In Memory)로 세계 각국에서 앞다퉈 개발하고 있다.
AI 분야에서 가장 높은 효율을 보이는 투자 영역이자 국내 기술과 산업이 세계적인 기술과 산업으로 연결될 수 있는 분야는 메모리 반도체, 그중에서도 PIM 분야일 것임이 자명해진다. 우리나라는 세계적인 메모리 제품화 기술 및 판매망을 보유하고 있어 PIM을 통해 AI의 큰 흐름에 능동적으로 임할 수 있게 될 것으로 기대된다.
PIM 기술과 이를 이용한 제품·시장은 아직 초기 단계다. 하지만 미국, 대만 및 중국의 대학과 연구소에서는 PIM의 잠재력에 주목하고 있다. 특히 대만 TSMC의 경우 매우 적극적으로 연구에 달려들고 있는데, 추후 미국에서 응용시장과 제품이 확립되면 생산을 TSMC에서 맡는 전략을 염두에 둔 것으로 보인다. 이들은 정적메모리(SRAM) 또는 자기저항메모리(MRAM), 저항메모리(RRAM)와 같은 비휘발성 메모리를 이용해 PIM 기본회로 및 구조를 연구하고 있지만, DRAM을 기반으로 하는 PIM에 대해서는 공정상 또는 구조상의 문제를 들어 활발한 연구를 하지 못하고 있다. 이에 비해 우리나라는 DRAM 공정을 갖추고 있어 삼성과 SK하이닉스가 각각 고대역폭 메모리(HBM)-PIM 및 가속기메모리(AIM)라는 DRAM 기반 PIM을 개발해 고속의 연산을 저전력으로 실행할 수 있도록 했다. 또한 최근 카이스트는 세계 최초로 트리플-모드 셀(triple-mode cell)을 개발해 DRAM 셀자체가 연산기로도 동작하도록 하는 인-메모리 컴퓨팅(In-Memory Computing) PIM ‘DynaPlasia’(다이나플라지아)를 발표한 바 있다.
우리나라가 선제적으로 DRAM PIM의 제품화와 상용화를 시도해 세계시장을 이끌어가는 방향으로 산업 전략을 설정하는 것도 하나의 방법이다. 나아가 메타버스와 디지털트윈과 같은 새로운 응용 분야에 6G 통신을 적용해 DRAM PIM을 활용한 데이터센터 또는 엣지 디바이스에서 서비스하는 큰 구도의 상용화 프로젝트를 정부 주도로 시행할 필요가 있다. 이를 통해 새로운 시장을 개척할 수 있을 것으로 기대한다.