본문 내용으로 건더뛰기

KDI 경제교육·정보센터

ENG
  • 경제배움
  • Economic

    Information

    and Education

    Center

특집
AI, 인간 고유의 성품 보존하고 함양할 수 있도록 개발돼야
이상직 법무법인 태평양 변호사, AI-지식재산특별전문위원회 위원장 2020년 12월호



정부는 2030년까지 디지털 경쟁력 세계 3위, 경제효과 최대 455조 원 창출, 삶의 질 세계 10위를 목표로 인공지능(AI) 국가전략을 수립해 추진하고 있다. AI는 인간의 정신적 활동을 모방하는 기계, 소프트웨어 등 유무형의 장치 또는 체계를 말한다. 머신러닝, 딥러닝 등을 통해 지각, 추론, 학습 등 인간 지능과 유사한 활동을 한다. AI 알고리즘은 주어진 문제를 논리적으로 해결하기 위해 필요한 절차, 방법, 명령어, 규칙들의 집적체로 AI의 두뇌라고 할 수 있다.

AI의 의사결정 책임 소재 밝히기 어려워
먼저 AI가 가져올 혜택을 보자. AI를 활용해 전에 없던 새로운 비즈니스 모델, 소프트웨어, 운영시스템, 장비, 거래플랫폼을 만들 수 있다. 또한 발명과 특허 출원, 저작 등 창작이 쉬워져 온 국민이 발명가, 작곡가, 소설가가 될 수 있다. 수학적 계산이 필요한 복잡한 금융상품도 쉽게 개발할 수 있다. 의료·건강 데이터를 AI를 통해 분석해 새로운 치료법이나 신약을 짧은 기간에 만들어낼 수 있다. AI 기기를 교육수단으로 활용한다면 교육의 질도 대폭 향상할 수 있다. AI를 복지정책에 활용하면 복지 사각지대를 쉽게 확인해 적절한 구제조치를 취할 수 있다. 자녀의 학교 출석 여부, 부모의 직장 출퇴근 여부, 병원 출입 여부, 시기 등을 정밀 분석해 사각지대 취약계층을 보호할 수 있는 것이다. AI를 활용한 지리정보 수집·분석 등을 통해 국토의 균형발전도 꾀할 수 있다. 부동산 투기 성향, 통계 등을 AI 시스템에서 분석해 투기억제에 직접적인 효과가 있는 부동산정책을 개발·수립할 수도 있을 것이다.
그러나 우려스러운 점도 있다. AI의 오작동으로 자율주행차량 등이 사고를 내 인간의 생명, 신체에 위해를 줄 수 있다. AI를 이용해 다른 기업이나 개인의 영업 비밀을 빼낼지도 모른다. AI를 활용해 금융시장을 조작할 수 있고, 고객을 기망해 상품을 판매할 수 있다. 강력한 AI를 가진 기업을 중심으로 담합하거나 시장에서의 지배력을 남용하고, 협력·거래 업체를 괴롭힐 수 있다. AI가 병원 치료내역 등 환자의 민감정보를 이용하는 경우에는 사생활을 침해할 수도 있다. AI가 내 일자리를 뺐을 수도 있다. AI를 적용한 결과에 따라 인종, 사회적 지위, 성향, 경제적 부의 규모, 성별 등을 이유로 차별이 발생하는 경우도 배제할 수 없다. 현재까지는 컴퓨터 프로그램이 내린 의사결정의 원인과 과정, 결과에 관해 확인과 설명을 할 수 있고 책임 소재도 밝힐 수 있는 것이 일반적이다. 그러나 AI를 적용한 경우에는 머신러닝, 딥러닝의 결과로 그 시스템을 작동한 사람조차도 어떤 과정을 거쳐 왜 그러한 결정이 이뤄졌는지 알기 어려워 책임 소재를 밝히기 어렵다.
따라서 우리에게는 AI가 우리 경제를 일으키고 국민에 편익을 제공하도록 지원하면서도 그 부작용을 억제해야 할 과제가 있다. 자율규제 환경이 조성되도록 지원함과 동시에 AI에 대한 사회적 수용성을 높여야 한다. 이에 AI 개발과 활용의 모든 단계에 걸쳐 참조할 수 있는 윤리기준을 수립해야 한다는 목소리가 주목받고 있다. 이를 통해 기획개발활용으로 이어지는 AI산업 발전의 선순환 구조를 만들고, AI 기술의 최종 수혜자인 국민이 AI서비스를 적극적으로 활용할 수 있도록 함으로써 사람 중심의 정보화 사회를 구현하고, 우리나라가 AI 강국으로 도약할 수 있는 초석을 마련할 필요가 있다.
참고로 해외 동향을 보면, 미국 국가과학기술회의(NSTC) 산하 기술위원회는 2016년 AI 보고서(Preparing for the future of artificial intelligence)에서 AI를 주요 성장동력으로 보고 공정성, 안전, 투명성, 이해 가능성, 인간 가치에 관한 정부의 역할을 강조했다. 영국 정부는 2018년 AI 보고서(AI in the UK: ready, willing and able?)에서 데이터 접근과 제어, 이해할 수 있는 AI, 디지털 이해력 증진, 공중보건 관리, AI 위험완화를 중요시하고 있다. EU는 2019년 AI 윤리 가이드라인(Ethics guidelines for trustworthy AI)에서 인간 권리·자율성 보장, 기술적 견실성, 사생활, 데이터 관리, 투명성, 다양성, 차별금지, 복지, 책임성을 강조했다. 일본 총무성은 2019년 인간 중심의 AI 사회 원칙을 발표하면서 인간 중심, 교육, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신에 방점을 뒀다.
결국 주요 선진국은 AI에 관한 진입규제를 최소화해 산업역량 강화의 기회로 삼고 있고, AI를 위한 생태계 등 인프라 조성을 중요한 요소로 보고 있으며, 법적 규제 이전에 윤리적 가이드를 준수할 것을 요구하고 있다. 물론 AI가 가져올 해악에 대한 규제는 해당 기업의 규모, 서비스 내용과 형태, 고객에 미치는 영향, 다른 산업과의 연관성을 고려해 맞춤형 규제를 해야 한다는 입장이다. 아울러 AI 독과점, AI를 통한 담합 등 시장을 저해하는 행위 및 지배력 남용에 대해서는 일벌백계해야 한다고 보고 있다.

기업 자율성 존중하고, 기술·사회 변화에 유연하게 대처할 수 있는 윤리기준 필요
그렇다면 우리나라에 도입해야 할 AI 윤리기준은 어떠해야 할까. 사람 중심의 AI 구현을 위해 AI의 개발부터 활용에 이르는 전 과정에서 개발자, 공급자, 이용자 등 모든 사회 구성원이 참조할 수 있는 기본적 윤리기준을 제시해야 한다. 구속력과 강제력 있는 법이 아닌 윤리의 형태로 기준을 제시함으로써 AI를 활용하는 기업의 자율성을 존중하고 기술발전을 장려하며, 기술과 사회 변화에 유연하게 대처할 수 있게 해야 한다. 산업경제 분야의 자율규제 환경 조성을 통해 AI 연구개발 및 산업 성장을 저해하지 않아야 하고, 개발자 및 공급자에게 부당한 부담을 지우게 해서는 안 된다. 범용성을 가진 일반 원칙으로서의 윤리기준을 제시해 다양한 분야에서 AI 윤리기준의 참조모델이 되고, 사안별 또는 분야별 AI 윤리기준 제정의 근거를 제공해 영역별 세부규범이 유연하게 발전해나갈 수 있는 기반을 조성해야 한다. 또한 사회경제 및 기술 변화와 함께 새롭게 제기되는 AI 윤리 이슈를 반영해 윤리기준의 지속적인 수정 및 보완을 가능케 하는 AI 윤리 플랫폼으로 기능할 수 있도록 해야 한다.
결론적으로 윤리기준이 지향하는 최고 가치는 인간성 존중인데, AI가 인간에게 유용해야 할 뿐 아니라 인간 고유의 성품을 훼손하지 않고 오히려 보존하고 함양할 수 있도록 개발되고 관리돼야 한다. 인간 가치의 존중을 위해 인간의 행복 추구, 인권 보장, 개인정보 보호, 다양성 존중, 해악 금지, 공공성, 개방성, 연대성, 포용성, 안전한 데이터 관리, 책임성의 확보, 통제성, 안전성, 투명성이 요구된다고 할 것이다.
국민이 주도하는 지능정보화 시대에 국민이 고개를 끄덕일 수 있는 멋진 AI 윤리기준이 제정되고 가꿔져나가기를 기원한다.

보기 과월호 보기
나라경제 인기 콘텐츠 많이 본 자료
확대이미지