“유튜브 알고리즘이 저를 여기로 인도했네요.”
유튜브에서 자신의 관심사를 꿰뚫는 콘텐츠를 추천받고 놀란 이용자들의 흔한 댓글이다. 사실 이는 우연이 아니다. 이용자 데이터를 기반으로 작동하는 정교한 ‘알고리즘(algorithm)’의 결과다.
알고리즘은 특정 문제를 해결하기 위한 논리적 절차나 규칙의 집합을 뜻한다. 소셜미디어에서 알고리즘은 클릭한 콘텐츠, 시청 시간, 검색 기록 등 이용자의 방대한 데이터를 분석해 이용자 참여를 극대화하는 콘텐츠를 선별·제시하는 역할을 한다. 즉 ‘개인 맞춤화’라는 이름 아래 이용자를 플랫폼에 더 오래 머물도록 설계된 추천 시스템이다.
디지털 플랫폼의 핵심 성장 동력인 알고리즘은 맞춤형 정보 제공이라는 편리함을 선사하며 정보의 홍수 속에서 이용자가 유용한 콘텐츠를 발견하는 것을 돕는 순기능이 있다. 하지만 그 이면에는 중독과 확증편향 증폭, 사회 양극화 심화 등 심각한 개인적·사회적 문제들을 품고 있다. 이는 대표적으로 소리가 밖으로 나가지 않고 안에서 계속 메아리치는 반향실에서처럼 같은 입장과 생각을 계속해서 수용하게 되는 ‘반향실 효과(echo chamber effect)’와 이용자의 취향에 맞춘 개인화된 검색 결과물로 편향된 정보의 버블에 갇히게 되는 ‘필터 버블(filter bubble)’ 때문이다. 알고리즘은 이용자가 선호하는 정보와 유사한 콘텐츠만 지속 노출시켜 자신의 신념과 일치하는 정보만 반복적으로 접하게 만들어 확증편향을 강화한다. 이는 다양한 관점으로부터의 고립과 사회 전체의 공통 정보 기반 약화로 이어진다. 서로 다른 정보 세계에 갇혀 집단 간 이해와 공감은 어려워지고, 결국 사회적 불신과 갈등이 증폭돼 양극화 심화의 위험 요인이 된다.
또 최근 우리의 시간을 잠식하는 숏폼 동영상에 대한 우려 역시 알고리즘 비판과 맞닿아 있다. 알고리즘은 더 자극적이고 감정적인 콘텐츠를 우선 노출하는 경향이 있어 디지털 중독을 유발하고, 확인되지 않은 정보나 허위조작정보가 빠르게 확산되는 토양을 제공하기도 한다. 모두 근래 한국 사회에서 자주 목격되는 ‘알고리즘의 그림자’다.
따라서 이러한 알고리즘의 양면성에 대한 깊은 이해와 균형 잡힌 대응 방안 모색이 절실하다. 먼저, 개인 차원에서는 ‘디지털 미디어 리터러시’ 함양이 핵심이다. 정보를 비판적으로 수용하는 자세가 필요하다. 플랫폼 추천 설정을 주기적으로 검토하고 검색 및 시청 기록을 삭제하는 것도 유용하다. 추천에만 의존하지 않고 의식적으로 다양한 정보원을 탐색, 교차 확인하는 ‘디지털 주체성’ 확립이 요구된다.
플랫폼 기업 또한 영향력에 걸맞은 책임 있는 자세를 가져야 한다. 단기적인 이익 추구를 넘어 알고리즘 설계 및 운영에 공익성과 이용자 후생을 고려해야 한다. 무엇보다 알고리즘 작동 방식과 주요 변수에 관한 투명성을 높이고, 이용자에 자신의 정보 환경을 이해하고 통제할 수 있는 선택권을 부여해야 한다.
실효성 있는 법·제도 마련도 시급하다. 알고리즘의 ‘블랙박스’ 문제, 즉 사용자가 내부 작동방식을 파악할 수 없는 문제를 해소하고 사회적 책임을 강화할 구체적 방안이 나와야 한다. EU의 「디지털서비스법(DSA)」처럼 거대 플랫폼에 대한 알고리즘 작동 원리 공개 의무화 및 사회적 영향 평가제도 도입 등을 적극 검토해야 한다.
알고리즘은 강력한 기술이며 그 영향력은 계속 커질 것이다. 편리함에 안주하기보다 이면의 위험성을 명확히 인식해야 한다. 개인의 성찰적 노력과 플랫폼의 사회적 책임, 투명성과 공정성을 확보하기 위한 제도적 기반 마련이 조화롭게 이뤄질 때, 우리는 비로소 알고리즘이 건강하게 역할 하는 미래를 열어갈 수 있을 것이다.