본문 내용으로 건더뛰기

KDI 경제교육·정보센터

ENG
  • 경제배움
  • Economic

    Information

    and Education

    Center

칼럼
강양구의 과학토크북극 찍고 우주까지 가는 ‘좋아요’
강양구 지식큐레이터 2025년 10월호


이 글을 읽기 전에 휴대전화의 소셜미디어 앱을 하나 열어보자. 인스타그램도 좋고 페이스북도 좋다. 친구가 올린 글이나 사진에 ‘좋아요’를 누르면 순식간에 하트가 반짝 빛난다. ‘좋아요’를 누르고 하트가 빛날 때까지 걸리는 시간은 0.5초도 안 된다. 하지만 그새 정말 많은 일이 일어난다.

우리가 휴대전화 액정의 ‘좋아요’ 버튼을 누르자마자 그 행위는 사용자 정보, 게시물 정보와 함께 암호화돼 디지털 신호로 바뀐다. 휴대전화는 우선 이 디지털 신호를 가까운 이동통신 기지국에 전파로 쏜다. 여기서부터는 주로 무선이 아니라 유선 이동이다. 이동통신 기지국에서 디지털 신호는 땅속에 설치된 광케이블을 통해 빛의 속도로 이동하기 시작한다.

네이버나 카카오 같은 국내 업체라면 디지털 신호는 한반도 남쪽을 벗어나지 않는다. 하지만 메타(인스타그램, 페이스북) 같은 외국 업체의 소셜미디어 서비스라면 사정이 다르다. 이들의 메인 데이터센터는 보통 미국에 있다. 한국에서 발생한 ‘좋아요’ 신호는 부산을 거쳐 태평양 아래에 설치된 해저 광케이블을 타고 미국으로 간다.

이 디지털 신호가 부산과 미국 서해안 오리건주를 연결하는 광케이블을 통해서 이동한다면 약 1만3,618킬로미터의 해저 여행을 하는 셈이다. 빛이 1초에 약 30만 킬로미터를 갈 수 있다는 사정을 염두에 두면 태평양을 건너는 데 걸리는 시간은 광케이블의 저항을 포함해도 0.06초. 말 그대로 순식간이다.

이렇게 미국의 데이터센터로 건너간 디지털 신호에 반응해서 하트를 반짝이라는 새로운 신호가 생성된다. 이 신호는 다시 미국의 지하와 태평양의 광케이블을 역순으로 거쳐서 휴대전화에 도착한다. 이 모든 과정에 걸리는 시간은 눈 깜빡할 정도의 시간(0.3초)에 불과하다. 하지만 그새 디지털 신호가 태평양을 왕복했다는 사실을 기억하자.

데이터센터의 최대 골칫거리

우리의 디지털 생활을 지탱하는 데 광케이블만큼이나 중요한 것이 앞에서도 등장한 데이터센터다. 2022년 경기도 판교의 한 데이터센터에서 발생한 화재 탓에 전 국민이 이용하는 메신저서비스가 먹통이 되면서 모두가 그 중요성을 실감했다. 최근에는 데이터센터에서 사용하는 엄청난 양의 전력을 어떻게 공급할지를 놓고서도 여기저기서 말이 많다.

이 대목에서 궁금해진다. 도대체 데이터센터는 그 엄청난 전력을 어디다 쓸까? 놀랍게도 데이터센터에서 사용하는 전력의 40%, 즉 절반에 가까운 전력이 냉각에 쓰인다. 수많은 그래픽 카드를 모아놓은 서버에서 발생하는 열을 식히는 일이야말로 데이터센터의 최우선 과제다. 고사양의 게임을 돌리고자 개인용 컴퓨터에 그래픽 카드를 설치해 본 사람이라면 바로 감이 올 테다.

지금 한국을 포함해 미국, 유럽 등 전 세계 곳곳에서는 데이터센터를 식히는 별별 수단을 강구하고 있다. 현재 전 세계 데이터센터 냉각의 95% 이상은 ‘공기 냉각’이다. 데이터센터의 서버에 차가운 공기를 통과시켜 센터 내에 있는 열을 머금고 바깥으로 배출하게 하는 방법이다. 엄청나게 큰 규모의 에어컨이라고나 할까.

심지어 이렇게 나오는 데이터센터의 열을 지역의 난방에 활용하기도 한다. 데이터센터의 서버를 통과하면서 열을 머금은 뜨거운 공기가 열교환기를 지나게 하는 식이다. 차가운 물이 흐르는 수많은 파이프가 설치된 지점을 뜨거운 공기가 지나면 공기는 식고 그 열은 찬물을 데워서 온수로 만든다. 이 온수를 데이터센터 인근 주민이 난방에 활용할 수 있다.

하지만 공기 냉각만으로는 역부족이다. AI 수요가 늘어나면서 약 2미터로 쌓아놓은 서버랙(server rack) 기준으로 발생하는 열이 최대 다섯 배 이상 많아져 서버랙당 20킬로와트에서 100킬로와트의 전력이 필요해졌다. 공기 냉각으로는 이렇게 과열된 서버를 효율적으로 식히기 어렵기에 다른 방법을 찾을 수밖에 없다.

대안은 두 가지다. 우선 공기 냉각보다 데이터센터 서버의 열을 식히는 데 효율적인 방법을 찾는 일이다. 현재 유력한 방법은 서버의 칩 사이사이로 냉각수가 흐르는 관을 통과시키는 직접 액체 냉각(direct liquid cooling)이다. 여기서 한 걸음 더 나아가 아예 서버를 특수 액체 안에 담가서 열을 식히는 액침 냉각(immersion cooling)도 있다.

디지털 신호를 주고받는 반도체 칩이 촘촘히 박힌 서버를 액체에 담근다는 발상이 얼른 와닿지 않을 수 있다. 하지만 물과 달리 전기가 통하지 않아 반도체 칩의 성능에는 영향을 주지 않으면서 공기보다 열을 잘 흡수하는 특수 액체가 있다면 어떨까? 만약 서버를 이 특수 액체에 담근 다음 액체를 계속 순환시킨다면 아주 효과적인 냉각이 가능할 것이다.

실제로 이 액침 냉각은 미래 데이터센터의 열을 식히는 가장 효과적인 방법으로 꼽힌다. 국내뿐만 아니라 전 세계 곳곳에서 냉각에 가장 효과적이면서도 반도체 칩의 성능에 영향을 주지 않는 액침 냉각 방법을 연구개발 중이다. 아직도 믿기지 않는다면, 검색 사이트에 ‘액침 냉각’을 검색해서 사진이나 영상을 확인해 보자.

북극까지 간 ‘좋아요’의 미래는?

또 다른 대안은 데이터센터의 외부 환경 자체를 차갑게 바꾸는 일이다. 만약 데이터센터 자체를 외부 온도가 낮은 곳에 둔다면 효과적으로 서버의 열을 바깥으로 배출할 수 있을뿐더러 외부의 냉기를 곧바로 냉각에 활용할 수도 있겠다. 이미 상용화한 사례가 바로 데이터센터를 북극권에 설치한 일이다.

인스타그램과 페이스북을 운영하는 메타는 2013년 북극권에서 약 110킬로미터 떨어진 스웨덴 오지에 데이터센터를 짓고 나서 계속 확장 중이다. 이곳은 바깥의 차가운 공기를 빨아들여 서버를 냉각하는 방식으로 기존 데이터센터보다 에너지 효율을 40%나 높였다. 전력도 이 지역의 풍부한 수력 발전을 활용한다니 말 그대로 ‘온실 기체 없는’ 데이터센터인 셈이다.

내가 누르는 소셜미디어의 ‘좋아요’가 북극을 다녀온다고? 놀랄 일은 더 있다. 마이크로소프트는 영국 스코틀랜드 근처 북해의 수심 35미터 아래 원통형 컨테이너에 서버 864대를 담아서 약 2년간 시범 운영(2018~2020년)했다. 별도의 냉방 장치 없이 차가운 해수만으로 서버를 식히는 일이 가능함을 증명한 사례다. 심해 데이터센터!

구글은 자사 AI서비스인 제미나이의 데이터센터를 아예 우주 공간에 설치하는 계획을 진행 중이다. 전기는 24시간 태양전지로 만들고, 서버의 열은 영하 27도 정도의 우주 바깥으로 버리는 우주 데이터센터! ‘좋아요’가 북극을 넘어서 심해로, 우주로 다녀오는 세상이 코앞에 왔다. 
 
보기 과월호 보기
나라경제 인기 콘텐츠 많이 본 자료
확대이미지