본문 내용으로 건더뛰기

KDI 경제교육·정보센터

ENG
  • 경제배움
  • Economic

    Information

    and Education

    Center

세계는 지금
‘신뢰할 수 있는 AI’를 목표로…EU의 AI 계획
김유식 주벨기에·유럽연합대사관 과학기술정보통신관 2020년 06월호


2016년 1월 29일 과학저널 『네이처』에는 「심층 신경망(deep neural networks)과 트리검색(tree search)을 통한 바둑게임 정복하기」라는 논문이 게재됐고, 몇 달 후 이세돌 9단과 알파고 간 바둑대국이 개최됐다. 알파고 개발팀마저 기대하지 않았던 알파고의 압도적 승리는 기계가 계산뿐 아니라 판단과 추론에서도 인간을 능가할 수 있다는 가능성을 확인시켜준 사건이었다. 인공지능(AI), 로봇공학을 기반으로 한 자율기술은 전례 없이 개선돼 인간과 기계의 관계를 근본적으로 변화시키고, 새롭고 복잡한 자율시스템이 산업, 문화, 국방과 생활 전반으로 확산되고 있다.
이에 따라 각국은 AI 개발을 위한 경주를 시작했으며, 인류는 AI라는 판도라의 상자를 열고 있다. AI가 인류와 사회를 어떻게 변화시킬지 정확히 예측하기는 쉽지 않다. 다만 AI가 인간의 능력을 보완해 인류와 사회에 유익한 기여를 하도록 법·제도 장치를 마련하고 각국이 협력해나가야 한다. EU는 조금 늦은 감은 있으나 지난 2월 ‘신뢰할 수 있는 AI’를 목표로 유럽의 가치와 윤리에 기초한 유럽산 AI 계획을 발표했다. 이 계획을 중심으로 유럽의 AI에 대한 관점, 과제와 전망을 고찰하고자 한다.

예술 창작에서 무기 개발까지…활동 영역 넓히는 AI
AI는 가능성을 탐색, 확인하는 단계를 넘어 농업과 어업, 제조업, 의료, 금융, 사법 분야에서 활용이 빠르게 진행되고 있다. 교통혁명을 예고하는 완전 무인차·무인기의 상용화는 먼 미래의 일이 아니고, 환자의 상태를 진단하는 AI 의료서비스는 인간 의사만 참여하는 것에 비해 프리미엄 서비스로 자리 잡고 있다.
AI는 인간 고유의 영역으로만 믿었던 문화예술 분야로까지 활동을 넓혀가고 있다. 2018년 10월 뉴욕 미술품 경매에서는 AI 화가 오비어스(Obvious)가 그린 초상화가 43만2,500달러(한화 약 5억원)에 낙찰되는 일이 있었다. 구글의 AI 화가 딥드림(Deep Dream)이 그린 수십 점의 작품도 적지 않은 금액으로 거래됐다. AI 화가에게 인간이 겪는 창작의 고통이나 예술적 영감을 기대할 수는 없을 것이다. 그러나 그들은 수많은 예술작품을 학습해 인간 예술가의 화풍과 기법을 추출해내고, 새로운 예술을 창작하는 능력을 보여주고 있다.
더욱이 국방 분야에서 AI의 활용은 화학무기, 핵무기만큼이나 전쟁방식을 근본적이고 파괴적으로 변화시킬 것으로 예견되고 있다. 미국이 개발한 무인잠수함 추적선(Sea Hunter)은 인간의 개입 없이 수개월간 수천 킬로미터를 항해하며 작전을 수행하고, 떼로 몰려가 적을 공격하는 군집드론(drone swarm), 킬러로봇(MAARS; Modular Advanced Armed Robotic System)은 군사훈련에 투입되고 있다. 전쟁무기 개발 참여와 관련해 실리콘밸리 AI 개발자들의 항의와 반대도 종종 이슈가 된다. 2018년 구글은 드론 공격기의 영상판독 능력을 개선하는 프로젝트에 참여하기로 결정했으나 구글 직원 4천여명의 반대로 결국 앞으로 자동살상무기 개발에 참여하지 않겠다고 선언했다. 실리콘밸리의 많은 기술기업이 과거 냉전체제하에서 우주 및 무기개발 프로젝트를 통해 성장해왔음을 상기할 때, 앞으로 이들 기업이 AI 무기개발 프로젝트를 외면할 수 있을지는 미지수다.
유럽은 디지털 혁신에서 미국과 아시아 국가에 비해 크게 뒤처져왔다. 이를 만회하기 위해 EU 집행위원회는 미국·중국 기업을 타깃으로 강력한 개인정보보호 규정의 적용, 디지털 과세, 반독점 경쟁법 적용 등의 규제를 시행하고 디지털 역량을 육성하는 유럽식 디지털 전략을 추진해왔다. 지난 집행위는 디지털 단일시장 전략이라는 브랜드를 통해 EU 역내에서 자유로운 온라인 거래가 가능한 디지털 단일시장 형성, 차세대 이동통신(5G) 구축, 산업의 디지털화를 추진했다.
지난해 12월 새로 출범한 EU 집행위는 ‘신뢰할 수 있는 AI(trustworthy AI)’와 ‘공통 데이터 공간(common data space)’ 정책을 발표하고, 유럽 정부와 민간이 보유한 양질의 데이터의 공유와 활용, AI 개발과 활용을 중점적으로 추진할 계획이다. 특히 우르줄라 폰 데어 라이엔(Ursula von der Leyen) 집행위원장은 인간의 존엄, 민주주의 등 유럽의 가치와 기준이 적용된 AI 윤리규칙에 관한 법률을 제정하겠다고 약속했다. 이는 유럽이 AI 분야 기준과 표준을 선도해 유럽의 AI 개발자·기업이 미국, 중국의 AI 기업과의 경쟁에서 우위를 점할 수 있도록 하기 위한 전략으로 볼 수 있다.
그러나 EU의 AI 미래가 밝은 것은 아니다. 27개 회원국의 기술 수준과 산업 여건이 서로 달라 AI 정책 추진의 일관성과 대규모 투자가 아직도 미흡한 실정이다. 단적인 예로 EU를 주도하고 있는 프랑스와 독일은 2018년 3월과 11월에 각각 AI에 대한 전략을 채택하고 추진 중이나, 상당수의 다른 회원국은 아직 자체적인 AI 전략과 투자계획을 수립하지 못하고 있다. 미국, 중국 등이 글로벌 AI 리더십을 위해 국가 AI 전략과 로드맵을 마련하고 대규모 투자를 시작한 것에 비하면 한참 늦은 것이다. 미국은 2016년 5월 종합적인 ‘국가 AI 연구개발 전략계획’을 발표한 최초의 국가였으며, 중국은 2017년 7월 ‘차세대 AI 발전계획’을 수립했다. 2030년까지 중국은 세계 최고의 AI 혁신국가로 도약하기 위해 1조6천억유로 이상을 AI에 투자할 계획이다.

AI 윤리기준 권고안, 인간 존엄과 기본권 존중하는 유럽의 가치 반영
EU 집행위는 2018년 6월 유럽의 AI 전략 수립과 이행을 지원할 학계·산업계 전문가 52명으로 AI 고위 전문가그룹을 구성했다. 이 그룹은 2019년 4월 ‘신뢰할 수 있는 AI 윤리기준’ 권고안을 마련해 제안했다. 권고안은 AI가 EU 법률과 규정, 윤리와 가치를 존중하고 기술적으로 견고해 안전하게 사용될 수 있도록 AI 개발과 활용에 대한 기준을 제시했다. 이는 인간의 존엄과 기본권, 민주주의를 존중하는 유럽의 가치와 전통에 근거를 두고 있다고 볼 수 있다.
권고안은 AI 시스템이 신뢰할 수 있는 것으로 간주되기 위해 충족해야 하는 7가지 기준을 제시했는데, 인간의 선택과 감독(human agency and oversight), 기술적 견고성과 안전성(robustness and safety), 사생활 보호 및 데이터 관리(privacy and data governance), 투명성(transparency), 다양성, 차별금지 및 공정성(diversity, non–discrimination and fairness), 사회적·환경적 안녕(societal and environmental well–being), 책무성(accountability)이다.
먼저 AI는 인간을 대신해 의사결정을 할 수 없고 인간의 의사결정을 지원하는 역할을 수행하도록 설계돼야 하며, 인간이 AI를 통제·제어할 수 있도록 해야 한다. 이는 인간의 존엄과 가치가 AI로 인해 훼손되거나 침해받을 수 없다는 원칙을 제시한 것이다.
또한 의도하지 않은 피해가 발생하지 않도록 AI가 기술적으로 견고하고 안전해야 하며, 오류나 문제 발생 시 대비책을 사전에 마련해야 한다. 예를 들면 자율주행차가 알고리즘 오류로 인해 사고를 낼 경우 사고발생 원인 규명이 쉬워야 하고 유사한 문제가 재발하지 않도록 수정이 용이해야 한다.
AI의 학습 데이터와 알고리즘은 이해 관계자에게 설명이 가능하도록 투명성이 확보돼야 한다. 2016년 미국에서 차량절도와 총격 혐의로 재판에 넘겨진 피고인에 대해 재범위험성이 높다고 평가한 AI 분석을 토대로 판사가 중형을 선고한 사건이 있었다. 피고인은 AI가 재범위험성 평가 시 사용한 데이터와 방법을 공개할 것을 요구했으나, 요구는 받아들여지지 않아 논란이 됐다. 사법재판과 같이 민감한 분야에서 AI가 불투명하게 사용될 경우 인권침해의 문제가 발생할 수도 있는 것이다.
특히 인종, 성별, 지역 등에 대해 AI의 어떠한 차별, 편견, 소외도 금지돼야 하고 공정성이 확보돼야 한다. 2015년 구글의 포토앱이 저장된 흑인 사진을 고릴라로 분류해 인종차별 논란이 불거진 적이 있었다. 구글은 포토앱이 주로 백인의 얼굴 데이터를 학습하면서 발생한 오류라며 사과했다. 마이크로소프트(MS)가 개발한 채팅봇 태이(Tay)가 트위터 사용자들과 대화를 시작한 지 16시간 만에 강제로 폐쇄된 사건도 있다. 태이가 사용자들과 대화를 나누면서 독일 나치의 유대인 학살을 옹호하고 욕설과 인종차별적이고 극단적인 말을 서슴지 않았기 때문이었다. 나중에 MS는 태이가 잘못된 데이터를 학습해 생긴 문제라며 공식 사과했다.
권고안은 AI가 어떤 형태로든 인류와 사회, 자연에 엄청난 영향을 끼칠 수 있으며, AI가 모든 인류에 혜택을 주고 환경과 사회에 기여하도록 할 것을 권고하고 있다. 2017년 1월 과학, 철학, 윤리학, 경제학 분야의 세계 리더들이 발표한 ‘아실로마 AI 원칙(Asilomar AI Principles, AI 개발에 관한 23개 원칙)’ 중 하나인 AI 무기경쟁 억제 원칙과 같은 맥락이다.

윤리적·법적 조항의 경계와 집행 가능성 명확히 할 필요
EU는 윤리적 AI의 리더가 돼 세계적 규범과 표준을 만들고자 하고 있다. 이 접근법은 정책 및 규제 측면을 넘어 독특한 유럽 중심 세계관에 내재된 규범적·문화적 요소에 근거를 두고 있다. 그러나 이러한 것이 얼마나 효과적이고 실행 가능한지는 지켜봐야 한다. 권고안으로 제시된 AI 윤리기준은 윤리적·법적 조항의 경계와 집행 가능성을 보다 명확히 하고 구체화하는 데 더 많은 시간이 필요할 것으로 보인다. 다만 EU의 윤리적이고 인간 중심적인 AI 접근방식이 과잉규제로 인해 새로운 혁신을 방해할 위험이 있는지, 아니면 기술 개발에 대한 예방적 관리로 작동할지 여부는 향후 AI 규제를 구체화하는 과정에서 관건이 될 것이다.
끝으로 AI는 특정 국가나 지역의 이슈라기보다는 글로벌한 성격을 갖고 있다. 이미 우리나라를 포함해 중국, 일본, 유네스코(UNESCO), 경제협력개발기구(OECD) 등이 윤리기준을 마련했고 구글, IBM, 카카오 등의 기업도 자체 AI 윤리기준을 마련해 발표한 바 있다. 각국이 협력해 국제적으로 공통 적용이 가능한 기준을 마련해 글로벌 AI 시대에 대응해나가야 한다. 
보기 과월호 보기
나라경제 인기 콘텐츠 많이 본 자료
확대이미지