Google Cloud CEO인 Thomas Kurian에 따르면, AI 컴퓨팅에 필요한 막대한 전력 수요는 초기에 병목 현상으로 인해 Alphabet의 Google Cloud가 전력을 확보하고 사용하는 방법을 계획하게 되었다고 합니다.
그는 월요일 샌프란시스코에서 열린 Fortune Brainstorm AI 행사에서 AI 인프라 환경의 핵심 조력자인 회사가 대규모 언어 모델이 등장하기 오래 전부터 AI 작업을 진행해 왔으며 장기적인 관점을 취했다고 언급했습니다.
Kurian은 Fortune의 Andrew Nusca에게 “우리는 앞으로 일어날 가장 문제가 되는 일이 전력이라는 것을 알고 있었습니다. 전력과 데이터 센터가 칩과 함께 병목 현상을 일으킬 것이기 때문입니다.”라고 말했습니다. “이것이 바로 우리가 기계를 매우 효율적으로 설계한 이유입니다.”
국제에너지기구(International Energy Agency)는 일부 AI 중심 데이터 센터가 10만 가구에 해당하는 전력을 소비하며, 건설 중인 일부 대규모 시설은 그 양의 20배에 달하는 전력을 소비할 수도 있다고 추정했습니다.
동시에, 부동산 컨설팅 회사인 Knight Frank에 따르면, 전 세계 데이터 센터 용량은 향후 2년 동안 46% 증가할 것이며 이는 거의 21,000메가와트 증가에 해당합니다.
Brainstorm 이벤트에서 Kurian은 모든 수요를 충족할 수 있는 충분한 성능을 보장하기 위한 Google Cloud의 세 가지 접근 방식을 제시했습니다.
첫째, 회사는 AI 컴퓨팅을 구동하는 에너지 유형을 최대한 다양화하려고 합니다. 많은 사람들이 어떤 형태의 에너지든 사용할 수 있다고 말하지만 실제로는 그렇지 않다고 그는 말했습니다.
“훈련을 위해 클러스터를 실행하고 클러스터를 열고 훈련 작업을 실행하기 시작하면 해당 컴퓨팅의 급증으로 인해 전력 생산의 일부 형태에서는 처리할 수 없을 정도로 많은 전력이 소모됩니다.”라고 Kurian은 설명했습니다.
그는 구글 클라우드 전략의 두 번째 부분은 데이터 센터 내에서 에너지를 재사용하는 방법을 포함하여 최대한 효율적으로 운영하는 것이라고 덧붙였습니다.
실제로 이 회사는 제어 시스템에 AI를 사용하여 이미 데이터 센터에 가져온 에너지를 활용하는 데 필요한 열역학적 교환을 모니터링합니다.
셋째, 구글 클라우드는 “새로운 방식으로 에너지를 창출하기 위한 몇 가지 근본적인 신기술”을 연구하고 있다고 Kurian은 자세히 설명하지 않았습니다.
월요일 초, 유틸리티 NextEra Energy와 Google Cloud는 파트너십을 확대하고 미국에 새로운 발전소를 포함하는 새로운 데이터 센터 캠퍼스를 개발할 것이라고 밝혔습니다.
기술 리더들은 칩 혁신과 향상된 언어 모델과 함께 전원 공급 장치가 AI 개발에 매우 중요하다고 경고했습니다.
데이터 센터 구축 능력도 또 다른 잠재적인 병목 현상입니다. 엔비디아 CEO 젠슨 황(Jensen Huang)은 최근 미국에 비해 이 분야에서 중국이 유리한 점을 지적했습니다.
그는 지난 11월 말 전략국제문제연구소(CSIS)에서 “여기 미국에 데이터센터를 짓고 싶다면 착공부터 인공지능 슈퍼컴퓨터 출시까지 아마도 3년 정도 걸릴 것”이라고 말했다. “주말에도 병원 지을 수 있어”
