인공지능(AI)은 공상과학 소설이나 영화에 나오는 수준까지는 아니더라도, 인간의 삶을 편리하게 만드는 수단으로서 갖가지 생활용품과 산업 속에 스며들어 활용돼 왔다. 이전까지의 AI 제품이나 서비스는 사람이 예측 가능한 범위 내에 있었기 때문에 별다른 사회적·법적 문제가 생겨나진 않았다. 최근 기술의 고도화로 AI가 사람의 능력을 뛰어넘는 수준으로 발전할 가능성이 커지면서 높은 수준의 AI가 현실화되는 시기가 가까워진 것은 분명해 보인다.
AI가 발전한다는 것은 그만큼 자율성이 높아진다는 것이고, 결국 사람이 예측 가능한 범위 혹은 통제 가능한 범위를 넘어서는 것으로 이해할 수 있다. 이러한 변화는 사회적으로나 법적으로 여러 문제를 야기할 수 있다. AI는 기본적으로 사람의 편익을 증진하고, 신체적 장애가 있거나 판단능력이 부족한 사람을 그렇지 않은 사람과 같은 조건으로 만들어 주는 등 긍정적 목적으로 개발·활용되는 것이 일반적이다. 하지만 사람의 통제나 예측 범위를 넘어서는 순간 사람에게 해악이나 부작용을 야기할 가능성도 배제할 수 없다.
문제는 AI의 자율성에 기해 긍정적이든 부정적이든 사람에게 미친 효과가 어떠한 데이터와 판단과정을 통해 최종적으로 결정되고 작용했는지가 불투명할 가능성이 크다는 점이다. 소위 ‘블랙박스 사회’가 다가오는 것이다. 하지만 AI로 인한 부작용의 위험 때문에 AI의 발전을 가로막거나 AI의 편익을 거부하는 것은 바람직하지 않다.
세계 주요 선진국들은 미래사회의 경쟁력이 AI에 의해 좌우될 것으로 보고 국가 차원에서 AI에 대한 투자와 연구개발, 그리고 AI의 부작용을 최소화하기 위한 노력을 병행하고 있다. 다만 AI 부작용에 대응하는 수준과 방법은 나라마다 다소 상이한 측면이 있다. 미국은 법적 규제보다는 민간의 자율규제나 비강제적 윤리원칙 등을 활용하는 데 주안점을 둔 반면, EU는 윤리 가이드라인뿐만 아니라 ‘AI법(Artificial Intelligence Act)’과 같은 입법적 해결방안도 적극적으로 논의하고 있다.
또한 AI의 문제점은 많은 경우 AI 알고리즘의 고도화나 AI 작동에 핵심요소로 활용되는 데이터와 관련되기 때문에 AI 알고리즘 그 자체뿐만 아니라 데이터에 대한 법적 규제 논의도 활발하게 진행되고 있다. EU는 「일반 개인정보 보호법(GDPR)」을 제정해 프라이버시 중심 설계(privacy by design)나 자동화 의사결정에 대한 기준을 포함한 개인정보 보호 규정을 상세하게 마련했고, 미국도 일부 주에서 개인정보 보호를 위한 입법적 진전이 있었다.
AI의 투명성을 증진하려는 목적으로 설명 가능한 AI(explainable AI)와 같은 개념을 정립하고 기술적으로 구현하려는 노력도 이뤄지고 있다. 우리나라의 경우에도 지난해 발의된 「개인정보 보호법」 개정안에 자동화 의사결정에 대한 대응권으로서의 거부권이나 설명요구권 등이 포함됐다. 한편 AI 발전에 꼭 필요한 것이 데이터기 때문에 AI 개발 및 고도화에 필수적인 데이터의 활용을 보장하려는 노력도 함께 이뤄지고 있다. 대표적인 입법 노력으로 컴퓨터를 이용한 자동화된 정보 분석 과정을 위한 저작물 이용에 대해 저작재산권을 제한하는 규정을 명시하려는 「저작권법」 개정안이나 AI 개발을 위한 개인정보 활용을 명시하는 AI 관련 법률안이 있다.
AI의 편익 극대화와 부작용 최소화를 위한 기술적·법적·정책적 대응의 목표는 결국 AI 활용을 통해 삶의 질을 높이려는 데 있다. AI는 발전 과정의 초기 단계에 있을 뿐이기에 강도 높은 규제나 강제적인 기준을 적용하는 것은 발전을 크게 저해할 수 있다. 따라서 비강제적 규제를 통해 자율적인 노력을 최대한 보장하고 기술적으로 부작용을 최소화할 수 있는 환경을 조성하는 것이 우선돼야 한다.
AI가 사람의 신체에 심각한 위해를 주는 경우에는 부득이하게 강제적인 규제가 도입될 수밖에 없겠지만 기술의 발전이나 환경 변화 등을 고려해 규제를 최적화하는 것이 필요하다. AI에 대한 발전적 규율을 위한 사회적 합의 절차를 마련해 누구나 AI를 통한 혜택을 누릴 수 있는, 사람 중심의 AI 사회를 구현해 나가야 한다.