A Goldman Sachs Research projeta que a demanda de energia de data centers nos EUA aumentará cerca de 165% até 2030 em comparação com 2023 — o maior aumento de curto prazo na história da rede elétrica americana. Jornalistas descrevem isso como um boom imobiliário. Esse enquadramento está incompleto. O problema de engenharia decisivo em um data center moderno não é a metragem quadrada. É o calor.
Uma sala de treinamento de IA bem provida consome de 30 a 100 quilowatts por rack, dependendo da geração. Uma única fileira de racks de alta densidade pode produzir mais calor residual do que um prédio inteiro de escritórios. E cada watt de consumo elétrico vira, quase em joule exato, um watt de calor que precisa ser removido do prédio — 24 horas por dia, 365 dias por ano, sem interrupção.
Essa restrição remodela a própria estrutura. Não decorativamente — fundamentalmente.
Por que o resfriamento a ar está esgotando a margem
O resfriamento tradicional de data centers depende de manipuladores de ar (CRAH) que empurram ar frio por um piso elevado, atravessam as entradas dos servidores e retornam por um plenum. Isso funciona bem até cerca de 20 a 30 kW por rack, além do qual o lado do ar vira gargalo. O ar tem baixa capacidade térmica — precisa-se de muito, movendo rápido, para carregar quantidades modestas de calor.
Cargas de IA pesadas em GPU já cruzaram essa linha. Sistemas NVIDIA H100, H200 e B200 em configurações densas rotineiramente passam de 50 kW por rack e estão caminhando para 100+. Nessa densidade, nenhum volume prático de ar em movimento consegue acompanhar.
Resfriamento líquido muda o prédio
O líquido tem cerca de 1.000 vezes a capacidade térmica volumétrica do ar. É por isso que a indústria está convergindo para duas abordagens baseadas em líquido:
- Resfriamento direct-to-chip: placas frias montadas em GPUs e CPUs, com coletores alimentando unidades de distribuição de resfriamento (CDUs) em nível de instalação que trocam calor com um circuito de água gelada do prédio.
- Resfriamento por imersão: servidores inteiros submersos em fluido dielétrico, com o fluido passando por trocadores de calor para rejeitar calor para o lado do prédio.
Ambas as abordagens realocam milhares de litros de fluido de resfriamento para dentro da sala de servidores. Isso tem quatro consequências imediatas de construção:
1. Carregamento estrutural
Racks com resfriamento líquido são mais pesados que racks com ar, e tanques de imersão podem chegar a quase uma tonelada por metro linear de piso. O dimensionamento estrutural da laje, frequentemente relegado a um engenheiro do proprietário em fase tardia em instalações com ar, vira um driver primário do projeto. Lajes protendidas, lajes de topping mais grossas ou plataformas em aço estrutural viram decisões ativas já no conceito.
2. Contenção de vazamento
O fluido dielétrico é caro e a perda de líquido de arrefecimento é catastrófica para os servidores que ele resfria. Meios-fios de contenção, bandejas com cabo de detecção de vazamento e projetos de drain-to-sump são infraestrutura quase normativa que agora pertence aos desenhos arquitetônicos, não apenas aos mecânicos.
3. Tubulação e roteamento
Passar um circuito de água gelada por uma sala de servidores ativa não é trivial. Circuitos soldados em aço inox, protocolos de teste de montagem aparafusada e penetrações coordenadas através de partições de compartimentação precisam ser projetados antes da concretagem da laje. O retrofit de salas já com ar para líquido é possível, mas caro — precisamente porque o prédio não foi dimensionado para isso.
4. Isolamento térmico e envoltória
Cada BTU que não entra do exterior é um BTU que você não precisa pagar para remover. Conjuntos de parede de alta performance, membranas estanque ao vapor, vidraças com ponte térmica em entradas de serviço e coberturas de cor clara passam diretamente para o escopo de construção básico, não para o estético.
Economizadores de lado-água e a rede
Proprietários que projetam esses prédios bem pagam metade do que pagam os que não projetam pelo resfriamento. A diferença é dominada pelas horas de economizador de lado-água: tempo em que o ar externo está frio o suficiente para rejeitar calor diretamente para uma torre de resfriamento sem acionar o compressor. Climas do norte ganham essa variável facilmente. Flórida e a Costa do Golfo, notavelmente, não.
Isso importa porque a locação de data centers nos EUA está sendo remodelada em torno da disponibilidade de eletricidade e água. A Electric Reliability Council of Texas (ERCOT) e a PJM emitiram avisos públicos sobre filas de interconexão de data centers que excedem a capacidade atual de geração. Direitos de água no Sudoeste desértico estão virando restrição a novas construções. Os hyperscalers já sabem disso; os incorporadores regionais estão aprendendo.
O que isso significa para a manufatura americana
Há uma dimensão nacional-política em tudo isso. O CHIPS Act e incentivos subsequentes estão trazendo a fabricação de semicondutores de volta aos Estados Unidos; o buildout de IA está criando uma demanda praticamente sem teto por instalações que abriguem esse silício; e os projetos executados exigem toda a pilha da construção industrial americana — desde lajes e estruturas metálicas até mecânica de alta pureza, desde combate a incêndio até UPS e geração stand-by.
Isso está bem próximo ao trabalho de siderúrgica e torres de resfriamento que fiz no Brasil. Resfriar um alto-forno e resfriar uma sala de dados não é a mesma tarefa, mas é a mesma disciplina: mover quantidades enormes de calor com precisão, previsibilidade e zero tempo de parada.
Se a próxima década da construção americana tiver um tipo de projeto definidor, não será a torre de escritório ou a casa unifamiliar. Será a instalação térmica — data center, fab de chips, usina — e os engenheiros que entendem calor como input estrutural de primeira classe serão os que a constroem.
Referências
- Goldman Sachs Research, AI, Data Centers and the Coming US Power Demand Surge, abril de 2024.
- International Energy Agency, relatório Electricity 2024 — cenários de demanda elétrica de data center e IA.
- Uptime Institute, Global Data Center Survey 2024.
- American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE), Thermal Guidelines for Data Processing Environments, 5ª ed.