본문 내용으로 건더뛰기

KDI 경제정보센터

ENG
  • Economic

    Information

    and Education

    Center

세계는 지금
사회에 많은 기회와 도전 제기하는 AI, 중요한 것은 신뢰할 수 있는 시스템 OECD AI 거버넌스 작업반(WPAIGO) 논의 동향
엄지현 주OECD대표부 1등서기관 2023년 07월호
OECD, 컴퓨팅 공급 및 수요에 대한
데이터 수집 강화 포함해
국내 AI 컴퓨팅 용량 계획을 국가 AI 전략에
통합할 것을 제안

신뢰할 수 있는 AI 위한 각국 AI 정책,
선언적 원칙 수준에서 벗어나 
책임 있는 개발·사용 위한 규범 마련의
영역으로 이동 중


OECD는 2019년 ‘인공지능 원칙(OECD AI Principles)’을 채택한 이후로 인공지능(AI)이 사회경제에 가져다주는 다양한 기회 및 도전과제들과, 이에 대응해 신뢰할 수 있는 AI를 구현하는 방안에 대한 논의를 활발히 진행하고 있다. 지난해부터 디지털경제정책위원회(CDEP) 산하에 ‘AI 거버넌스 작업반(WPAIGO)’을 신설해 국가 AI 정책, AI 컴퓨팅 측정, AI 시스템 책임성, AI와 환경 이슈 등을 논의하고 있다. 이 글에서는 작업반 정례회의에서 이뤄지고 있는 최근 논의를 중심으로 소개하고자 한다.

신뢰할 수 있는 AI 시스템에 데이터 선택과 큐레이션 필수

AI의 등장은 1950년대 초 “기계가 생각할 수 있을까?”라는 영국 수학자 앨런 튜링의 질문, 즉 기계적 사고와 문제해결 능력을 갖춘 컴퓨터에 대한 아이디어에서 시작된 것으로 알려져 있다. AI라는 용어는 1956년 존 매카시 교수가 주최한 다트머스 회의에서 처음 사용됐다. AI는 사람이 정한 목표에 따라 예측, 권장, 결정을 수행하는 기계 기반 시스템으로 정의되며, 알고리즘, 데이터, 컴퓨팅이라는 세 가지 조력자(enablers)가 AI 생산기능을 지원한다.

AI 기술의 현재와 미래를 이해하기 위해선 먼저 딥 러닝 알고리즘의 발전을 살펴봐야 한다. 딥 러닝은 여러 층의 신경망을 쌓아 학습하는 방식으로, 합성곱신경망(CNN; Convolution Neural Networks), 순환신경망(RNN; Recurrent Neural Networks), 생성적 대립 신경망(GAN; Generative Adversarial Networks) 등의 모델이 있다. 특히 트랜스포머(transformer) 모델은 인간의 언어 처리와 관련해 큰 발전을 이끌었으며, 현재는 다양한 작업에 적용할 수 있는 범용 AI 모델의 연구가 진행 중이다. 

AI의 발전은 빅데이터의 가용성과 밀접한 관련이 있다. 인터넷 기술의 발전으로 다양한 형태의 데이터를 대규모로 수집·분석할 수 있게 됐으며, 데이터의 양이 증가하면서 AI 모델의 성능도 향상되고 있다. 이에 데이터 선택과 큐레이션은 신뢰할 수 있는 AI 시스템 개발에 필수적인 요소로 인식되고 있다. 또한 AI 컴퓨팅의 발전도 AI 기술의 중요한 요소다. 그래픽처리장치(GPU), 텐서처리장치(TPU), 신경망처리장치(NPU) 등의 특수 프로세서의 등장으로 AI 성능과 응용 분야가 확대되고 있으며, 고성능 저전력 컴퓨팅 인프라 구축의 전략적 중요성이 강조되고 있다.

최근 생성형 AI의 등장은 주목할 만하다. 생성형 AI 시스템은 생성적 대립 신경망(GAN) 모델을 이용해 실제와 구별하기 어려운 합성 콘텐츠를 생성할 수 있다. 최근의 자연어처리(NLP) 및 생성형 AI 시스템은 텍스트, 이미지, 영상, 음성 등 다양한 형태의 작업을 수행할 수 있으며, 이는 게임, 엔터테인먼트, 헬스케어, 금융, 제조업 등 거의 모든 산업 분야에서 효율성 및 생산성 제고, 업무 자동화 등 파괴적 혁신을 가져올 것으로 예상된다.

이러한 AI의 기술 혁신은 기존의 작업별(task-specific) 모델에서 범용 AI 모델 또는 기반 모델이라고 불리는, 산업 및 작업 전반에 걸쳐 일반적으로 적용할 수 있는 보다 유연한 모델로 발전하고 있다. GPT-3(오픈AI), 버트(구글), 달리(오픈AI) 등이 대표적 사례다. 범용 AI 모델은 모델을 정의하는 수치의 가중치인 파라미터를 수십억 개 포함하는 등 모델의 규모가 매우 크고, 전산 훈련 과정이 복잡해 결과물을 설명하기 어렵다. 이러한 모델을 훈련하기 위해서는 엄청난 양의 AI 컴퓨팅, 데이터 및 전문 AI 인재가 필요하므로 개발 비용이 매우 높다. 




지난해 AI 기업에 대한 VC 투자 가치 1,220억 달러,
10년 만에 300% 이상 증가


정부와 민간 부문이 생산성 향상과 경제성장을위해 AI 활용 노력을 배가함에 따라 국가 AI 전략에서 R&D 투자가 두드러지게 나타나고 있다. OECD에 따르면 특히 중국, EU, 미국이 AI 연구에서 선두를 달리고 있으며 인도가 그 뒤를 쫓고 있다.

AI 기업에 대한 글로벌 벤처캐피털(VC) 투자의 연간 가치는 2012년 300억 달러에서 2022년 1,220억 달러 이상으로 10년간 300% 이상의 극적인 증가를 보인 것으로 OECD는 집계했다. AI에 대한 VC 투자는 지난 10년간 다양한 부문에서 이뤄졌는데, 2012~2013년에는 미디어 및 마케팅, IT 인프라에, 그 이후론 자율주행 차량에, 팬데믹 기간에는 헬스케어, 신약 및 바이오기술에 투자가 많이 이뤄진 것으로 분석됐다. 

최첨단 AI 시스템은 고성능 컴퓨팅에 대한 접근이 중요하며, 이에 따라 AI 혁신은 AI 모델을 대규모로 훈련 및 사용할 수 있는 인프라와 소프트웨어의 가용성에 달려 있다. OECD는 국가 컴퓨팅 용량에 대한 하나의 지표로서 상위 500대의 슈퍼컴퓨터 목록을 파악한 결과, 2022년 기준 슈퍼컴퓨터 수는 중국(32%), 미국(25%), 독일(7%), 일본(6%), 프랑스(5%), 영국(3%) 순이며 EU 17개국이 21%를 차지하는 것으로 나타났다. 최대 달성 가능한 성능의 합계를 기준으로 상위 500대 슈퍼컴퓨터 목록을 분석한 결과에선 미국(44%)이 가장 높은 점유율을 보였고, 일본(13%)과 중국(11%)이 뒤를 잇고 있었다.

OECD는 컴퓨팅 공급 및 수요에 대한 데이터 수집 강화를 포함해 국내 AI 컴퓨팅 용량 계획을 국가 AI 전략에 통합할 것을 제안하고 있다. 올해 발간한 「AI에 필요한 국가 컴퓨팅 역량 구축을 위한 청사진」을 통해 용량(가용성 및 사용), 효율성(사람, 정책, 혁신, 액세스) 및 복원력(보안, 주권, 지속가능성)의 세 가지 차원에 따라 국가 AI 컴퓨팅 계획을 개발하는 방법을 제안했다. 아울러 OECD는 대형 언어모델(LLM) 훈련·구축에는 막대한 전기에너지 및 컴퓨팅 비용이 필요하다는 점에서 AI 컴퓨팅과 응용프로그램이 환경에 미치는 영향 측정 등 AI가 환경에 미치는 영향 분석도 병행해 추진하고 있다.

한편 각국은 신뢰할 수 있는 AI를 위한 미래 보장 정책을 마련하기 위해 노력하고 있다. 이러한 추세는 2019년 OECD에서 ‘AI 원칙’을 채택한 이후로 더욱 두드러지게 나타나고 있으며, 현재 OECD AI 정책저장소에는 총 69개국에서 수립된 800개가 넘는 AI 관련 정책 이니셔티브가 게재돼 있다. AI 정책은 단순히 선언적인 원칙 수준에서 벗어나 실질적인 규제와 논의의 영역으로 이동 중이며, 특히 AI 시스템의 책임 있는 개발과 사용을 위한 규범을 마련하려는 논의가 활발하다.

OECD는 AI 규제에 대한 각국의 접근 방식을 크게 2가지로 구분하고 있다. 수평적인 접근 방식은 교차 부문 간의 접근으로, EU와 캐나다가 대표적이다. 수직적인 접근 방식은 부문별로 접근하는 방식으로, 미국과 영국이 이에 해당한다고 볼 수 있다. 예를 들어 EU는 「AI법(AI Act)」, 캐나다는 「AI 및 데이터법(AIDA)」을 통해 AI 규제를 추진하고 있다. 반면에 미국은 AI 권리장전 청사진과 AI 위험관리 프레임워크를 제시하고, 영국은 혁신친화적 접근 방식을 강조한 「AI 규제 정책 보고서」를 발표한 바 있다.

AI 정책은 기술표준의 개발과 채택을 통해 구체화될 수 있다. 특히 AI의 신뢰성과 안전성을 보장하기 위해서는 기술표준 개발이 필수적이다. 미국 국립표준기술연구소(NIST)의 AI 위험관리 프레임워크, 유럽전기기술 표준화위원회(CENELEC)의 AI법 관련 기술표준 개발, 국제표준화기구(ISO)의 기계학습을 위한 AI 시스템 프레임워크 등 AI 시스템의 신뢰성과 안전성을 평가하기 위한 기술표준 개발이 진행되고 있다.

AI 인력의 개발과 유치도 AI 정책의 중요한 목표 중 하나다. 많은 국가는 AI 인재를 육성하고 유치하기 위한 정책을 수립하고 있는데, 교육체계 개선, AI 분야 연구자 및 기업 간의 협력, AI 인재 유치를 위한 이민 정책 등 다양한 방법을 통해 AI 인력의 수요를 충족하려고 노력하고 있다.

마지막으로, AI 정책은 국제적인 협력과 다자주의적 접근을 강조하고 있다. AI는 국경을 넘어 다양한 영향력을 행사하고 있기 때문에 국가 간의 협력은 매우 중요하다. OECD를 비롯한 국제기구와 다자협력 이니셔티브를 통해 AI에 대한 논의와 협력이 진행되고 있으며, 양자 및 지역 파트너십도 다양하게 형성돼 국제적인 표준과 규제 협력을 촉진하고 있다.

최근 AI 발달로 인간 지능 수준의 AGI 등장 앞당겨져
AI 위험 완화를 위한 정책 고려와 국제협력 중요


AI의 장기적인 영향에 대한 예측과 논의는 여전히 초기 단계에 있다. OECD는 빠르게 진화하는 AI 시스템이 가져올 수 있는 위험과 영향력을 사전에 파악하고 예방하기 위한 전략적인 예측 활동이 필요하다고 강조한다. 이런 전략적 예측은 인공 일반 지능(AGI; Artificial General Intelligence)의 등장 가능성과 관련해 복잡성과 불확실성이 증가할 수 있다는 점에서 상당히 중요하다. AGI는 인간이 할 수 있는 모든 지적인 업무를 해내는 기계의 지능을 말한다. 예상되는 위험을 사전에 방비해 관리하고 미래의 피해를 막기 위해서는 AI의 장기적인 영향을 더 잘 이해하는 것이 필요하다.

AGI의 개발과 출현 가능성에 대해서는 현재 OECD 내에서 여러 의견이 존재하지만, 진화한 AI의 등장 가능성을 계획하고 위험을 완화해야 한다는 합의된 의견이 있다. AGI의 출현으로 발생할 수 있는 심각한 위험으로는 신뢰할 수 없는 AI 시스템이 중요 인프라에 배치되는 것, 고숙련 근로자의 실직, 유능한 AI 모델을 통한 대량 조작 등이 제기될 수 있다.

전문가들은 AGI의 출현 시기에 대해 다양한 의견을 제시하고 있지만, 최근의 AI 발전으로 출현 시기가 앞당겨질 수 있다는 예측도 있다. AI 예측에 관한 논의에서는 종종 AI와 인간이 서로 조화를 이룰 수 있는지, AI 시스템을 인간이 계속해서 제어할 수 있는지 등의 문제를 던지고 있다. AGI가 개발되면 경제와 사회에 큰 혜택을 가져올 수 있지만, 동시에 AI 시스템이 인간의 통제력을 초월할 수 있는 상황이 발생할 수도 있기 때문이다.

AI의 미래는 불확실하고 복잡하며 사회와 경제에 많은 기회와 도전 과제를 제기한다. 따라서 중요한 것은 신뢰할 수 있는 AI의 구현이며, 이를 위해 정책적 고려가 중요하다. 미래의 AI 위험을 완화하기 위해 AI 시스템을 해석하고 신뢰를 보장하기 위한 더 나은 방법을 개발하며, 개발자들이 새로운 상황에서도 안정적으로 작동하는 시스템을 구축할 수 있도록 뒷받침하는 것도 중요하다. 아울러 AI의 장기적인 영향을 더 잘 이해하기 위해서는 OECD와 같은 다중 이해관계자 포럼에서 대화와 협력을 촉진해야 한다. 국가 및 국제적 수준에서 기술 및 정책 커뮤니티 간의 긴밀한 협력을 통한 상호 학습, AI 정책 및 사례 개발 등의 노력이 그 어느 때보다 필요해질 것이다. 
보기 과월호 보기
나라경제 인기 콘텐츠 많이 본 자료
확대이미지