바야흐로 AI가 일상이 되는 시대가 도래했다. AI 기술은 점차 고도화되고 연일 새로운 관련 기사들이 업로드되고 있다. 최근 AI 분야에서의 화두는 단연 생성 AI다. 생성 AI는 사용자의 요청에 따라 검색, 작문, 요약, 그림, 프로그램 코드 작성 등 다양한 정보처리의 결과물을 만들어내는 AI다. 2022년과 2023년은 가히 생성 AI의 춘추전국시대라 할 만큼 다양한 생성 AI들이 쏟아져 나왔다. 구글, 오픈AI, 마이크로소프트, 메타, 스태빌리티 AI, 미드저니 등 글로벌 빅테크 기업들과 AI 스타트업들이 저마다 경쟁력을 갖춘 AI 모델을 내놨다.
일부 모델들이 공개된 직후 뜨거운 관심 속에서 모델의 우수한 성능에 놀라워하는 사용자들의 후기가 급증했다. AI의 성능이 고도화되는 만큼 AI로 인해 그려지는 장밋빛 미래에 대한 기대감이 커지고 있는 상황이지만, 한편으로는 AI가 불러일으킬 여러 부작용에 대한 현명한 대처가 필요한 시점이기도 하다.
필요한 것 ‘알아서’ 해주는 AI,
의료서비스 품질 고도화 등에도 사용
생성 AI를 포함한 모든 AI는 인간의 편의를 극대화하기 위해 만들어진 도구다. AI의 확대와 활용이 우리 사회에 가져올 긍정적 변화를 네 가지 부문에서 짚어보자면 우선 일상의 편리함이 있다. AI 기술 기반 가전제품, 스마트폰, 승용차 등은 자동화를 통해 사용자가 원하는 것 또는 필요한 것을 ‘알아서’ 해주는 편리함을 가져다준다. 이를테면 스마트 홈 네트워크에 연결된 냉장고는 내부의 카메라 등 센서를 통해 달걀, 우유 등의 재고량과 신선도(유통기한 또는 입고된 날짜 등)를 감지하고, 사용자가 미리 설정해 놓은 제품을 온라인에서 자동으로 주문한다. 주문 전에 사용자에게 최종 확인을 받거나 그마저도 사전에 설정해 놓으면 알아서 주문과 결제를 진행한다. 사용자가 일일이 신경을 쓰지 않아도 신선한 식자재로 채워진 상태를 유지할 수 있는 것이다.
예술·문화 영역에서는 높은 효율성과 서비스의 품질을 기대할 수 있게 된다. 기존보다 월등한 고품질의 이미지나 영상 속의 인물, 자연환경, 생명체 등과 같은 콘텐츠를 제작할 수 있어 제작자의 작업 생산성과 효율성이 높아지는 것이다. 2023년 미국의 ICT 시장조사 기업 가트너의 한 보고서에 따르면 2025년에는 광고 마케팅 메시지의 30%가 생성 AI를 활용해 만들어질 것이며, 2030년에는 작품의 90% 이상을 AI가 만든 블록버스터 영화가 나올 전망이다.
또 의료 부문에서는 보다 정밀한 진단과 정확한 처방이 가능해지고, 신약 제조 기간을 획기적으로 단축할 수 있게 된다. 환자의 임상 데이터를 AI로 분석하는 수준을 넘어서 환자의 신체조건과 동일한 가상의 합성 환자(synthetic patients)를 만들어 약물 주입을 통한 병리적 임상 관찰 및 진단을 더 쉽고 빠르고 저렴하게 수행할 수 있다. 미국 워싱턴대는 2021년 코로나19에 대한 임상실험에 이러한 방법을 활용한 바 있다. 이는 곧 의료서비스 품질의 고도화로 이어지게 될 것이다.
사무 영역도 예외가 아니다. 마이크로소프트는 문서 제작 패키지인 오피스 365에 오픈AI의 GPT 엔진 기반 코파일럿 기능을 탑재했다. 이 기능은 특정 주제의 문서 초안을 만들어주고 내용에 걸맞은 디자인의 발표 자료를 만들어낸다.
가짜뉴스, 피싱, 개인정보 무단 도용 등
다양한 사이버 범죄 도구로 악용될 수도
이처럼 AI는 도구로써 다양한 분야에 활용돼 삶과 사회 전반에 편리함을 제공하게 될 것이다. 반면 AI의 활용과 확산으로 인해 발생할 수 있는 부정적인 측면 혹은 대응해야 할 과제들도 역시 존재한다. 가장 대표적인 사례는 AI 악용이다. 여기에는 AI로 만든 가짜정보 유포, 개인정보 탈취 및 인권 침해, AI를 활용한 부정행위, 군사적인 목적 이외의 살상 기계 고도화 등이 해당한다.
AI 기술이 고도화됨에 따라 ‘진짜 같은 가짜’를 만드는 사례들이 늘고 있다. 이미 수년 전부터 정치인의 얼굴을 합성한 가짜 영상, 유명 연예인을 합성한 음란물, 친구나 가족으로 위장한 피싱 사례 등 AI는 범죄에 다양하게 악용되고 있다. 또한 SNS를 통해 업로드된 사진과 영상 등 개인정보를 무단으로 도용하고 피해자를 철저하게 속이는 행위도 점차 늘고 있다.
그뿐만 아니라 AI는 부정행위도 더욱 손쉽게 만들어 준다. 각종 시험이나 대회에서 AI의 도움을 받은 작품이 입상하거나, 에세이 과제를 AI로 만들어 제출하기도 한다. 또한 정보를 탈취·편취하거나 시스템을 마비시키기 위한 목적의 악성코드를 초보자도 쉽게 만들 수 있는 등 AI를 악용한 사이버 범죄에 노출될 위험도 크다.
한편 방어적인 목적 이외의 테러용 자율 살상 무기들도 국가와 국민을 위협하는 존재다. 주요국 및 테러 단체들은 많은 협회·단체들과 여론의 반대에도 불구하고 AI 기반의 자율무기 개발과 도입 경쟁에 뛰어들고 있는 실정이다.
이 외에 일자리에서의 AI 도입에 따른 대응책 마련도 큰 이슈다. 챗GPT를 출시한 오픈AI의 지난해 연구 결과에 따르면 노동자의 80%가 업무 일부라도 생성 AI에 영향을 받으며, 19%는 업무의 절반 이상의 영역에서 AI의 영향을 받을 것으로 예측했다. 저작권 문제도 미해결 과제다. AI를 학습시키기 위해서는 우선 방대한 양의 데이터가 필요하나, 이러한 학습을 위한 데이터들이 저작권 문제가 해결되지 않은 채 활용된 사례가 많다. AI가 만들어낸 창작물의 저작권 인정 여부에 대해서도 민간·공공·학계에서 갑론을박이 활발히 진행 중이다.
이처럼 AI를 활용하는 것에는 양면성이 존재한다. AI를 본연의 목적인 인간 편의를 위한 도구로 잘 활용하기 위해서는 치밀한 전략과 모두의 노력이 필요하다. 최근 글로벌 무대에서는 AI의 기술 촉진을 넘어서 부작용을 최소화하기 위한 다양한 움직임을 보여주고 있다. 지난해 5월 ‘제48차 G7 정상회의’에서 AI를 안전하게 활용하기 위한 글로벌 공감대 형성이 본격적으로 시작됐고, 지난 11월 28개국이 참여한 ‘제1차 AI 안전성 정상회의(AI Safety Summit)’에서 AI 안전성의 필요성과 국제공조의 중요성이 재확인됐다. 미국을 비롯한 AI 선도국들은 저마다 AI의 신뢰성·안전성을 주제로 하는 성명문을 발표하면서 전담기관을 신설하는 등 대응에 적극적인 태도를 보였다. 이에 글로벌 빅테크들도 AI가 생성한 결과물에 워터마크를 삽입하는 등의 기술적인 해결방안을 연구 중이다.
우리나라는 지난 2019년부터 ‘AI 국가전략’을 비롯해 2023년 ‘AI 윤리·신뢰성 확보 추진계획’에 이르기까지 AI 신뢰성을 확보하고 강화하기 위한 다양한 전략을 적극 추진하고 있으며, AI 안전성을 전담하는 연구기관의 설립 등을 병행·추진하는 노력을 기울이고 있다. 앞으로 AI의 활용과 확산은 점차 가속할 것이다. AI의 올바른 활용방안과 법적 효력을 갖는 제도를 조속히 만드는 것이 더욱 긴요해지는 때다.