Miguel Ángel Valero
El crecimiento de la demanda de computación de alto rendimiento para el procesamiento de datos ha sido exponencial en los últimos dos años. Desde el nacimiento de la inteligencia artificial (IA), la necesidad de procesar datos se ha multiplicado.
Los modelos de IA requieren potencia de computación tanto para ser entrenados, como para ser usados. Esta potencia de computación se proporciona a través de centros de datos, que son instalaciones diseñadas para optimizar las tareas de almacenamiento y proceso de datos en grandes volúmenes. Allí se almacenan y procesan los datos de forma segura, con sistemas especiales de electricidad y refrigeración para que nada se apague ni se estropee, funcionando las 24 horas del día para que todo esté siempre disponible.
En consecuencia, la elevada demanda de procesamiento de datos requiere que la oferta de centros de datos se incremente a un ritmo similar, ya que de lo contrario se crea un cuello de botella que impide procesar toda la demanda.
Esta relación entre crecimiento de la demanda de procesamiento de datos y los centros de datos ha llevado a que la inversión en estos segundos sea un aspecto clave para el desarrollo de la IA, y ha provocado que las grandes empresas tecnológicas, que quieren tener un papel relevante en este nuevo desarrollo, inviertan cantidades extraordinarias de recursos.
Las proyecciones basadas en el análisis de los proyectos ya anunciados y los que se estima que tendrán que llegar para sostener toda la demanda proyectan que la inversión acumulada en centros de datos hasta 2030 puede alcanzar los 5 trillones$, según un análisis de Ibercaja Gestión.
Los proyectos actualmente previstos sitúan la capacidad instalada en 2030 cerca de los 200GW, representando la IA cerca de 130GW y prácticamente la totalidad de la inversión en centros de datos en los próximos años. Esto supone un incremento del 42% anual acumulado entre 2025 y2030. Y es probable que continúe, por lo que también crecerán las inversiones.
Se espera que EEUU sea el mayor inversor en centros de datos y que gran parte de la nueva capacidad de procesamiento se instale en ese país. La inversión actual prevista está determinada a producirse cerca de un 60% en EEUU., mientras que China sería la segunda economía con algo más del 20% y Europa se quedaría atrás con el 10%.
La energía puede limitar el crecimiento futuro de los centros de datos
La disponibilidad energética es quizás el principal factor de riesgo de generación de cuellos de botella operativos. De acuerdo con Bank of America, los factores relacionados con la energía representan más del 40% de los criterios de decisión a la hora de decidir dónde construir un centro de datos. Teniendo en cuenta que todos los hyperscalers tienen objetivos ASG agresivos (0 emisiones netas), las energías renovables y el gas natural son lo que debería alimentar el auge de los centros de datos.
Más allá de la generación, el acceso a la energía es el principal riesgo para el crecimiento de los centros de datos. Según una encuesta de Schneider Electric, el 92% considera que, en EEUU, las limitaciones de la red eléctrica son un reto. Para cubrir potenciales déficits de energía, se barajan soluciones como:
Por su parte, las actividades que consumen mucha electricidad son muy intensivas en el uso de cobre, ya que es el mejor elemento para transmitir la electricidad. Actualmente, el precio del cobre se sitúa en niveles de máximos históricos. Sin embargo, este super-ciclo del cobre no se debe exclusivamente al boom de los centros de datos, ya que su consumo comenzó a incrementarse sustancialmente con la transición hacia la electrificación (renovables, residencial, automóviles, etc.).
En este sentido, la demanda global del cobre ya estaba destinada a superar a la oferta, pero a raíz de la necesidad inminente de construir centros de datos, el efecto se ha intensificado. Por tanto, el potencial desequilibrio entre la oferta y demanda genera incertidumbre acerca del futuro precio y disponibilidad del cobre. De producirse, este factor podría limitar el crecimiento esperado de los centros de datos.
Por otro lado, la alta potencia de cálculo provoca que los chips apilados requieran más energía y generen más calor durante su funcionamiento. Para disipar ese calor, el principal método es mediante el uso de agua, a través de sistemas de refrigeración de aire o líquido. La clave principal es que el agua es significativamente más eficiente transfiriendo el calor que el aire, ya que posee aproximadamente cuatro veces el calor específico del aire y es unas 800 veces más densa, lo que significa que puede absorber alrededor de 3.200 veces más calor que un volumen comparable de aire.
Paradójicamente, los sistemas de refrigeración por aire tienden a usar más agua que los sistemas de refrigeración líquidos. Llos sistemas de refrigeración basados en líquidos terminan consumiendo menos electricidad y, en aplicaciones computacionalmente más demandantes (e.g. entrenamiento de IA), menos agua en total, aunque suelen tener un coste y una complejidad de instalación mayores.
En este contexto, el sector de los centros de datos coincide en general en que la refrigeración de los chips con sistemas de refrigeración líquida es el futuro, al menos para los centros de datos enfocados en IA. Independientemente del método que se utilice para disipar el calor, el agua es necesaria y, en consecuencia, un factor fundamental a la hora de elegir la localización de un centro de datos.
Normativas estrictas en materia de consumo energético, emisiones, uso del agua, soberanía del dato o licencias urbanísticas suelen alargar los plazos de autorización y encarecer la construcción de nuevas instalaciones, reduciendo el atractivo para la inversión. Consecuentemente, la regulación es otro factor que puede limitar el crecimiento de los centros de datos, porque introduce incertidumbre, costes adicionales y restricciones operativas que afectan directamente a su viabilidad económica y velocidad de despliegue.
La inversión se duplicará para sostener la infraestructura en la nube
Los hyperscalers lideran la expansión de centros de datos con inversiones masivas. Se estima que, para 2030, la inversión actual se duplicará para sostener su infraestructura en la nube. La intensidad con la que los hyperscalers se han lanzado a invertir apenas tiene precedentes, y se produce además en un conjunto de empresas que año tras año consiguen aumentar sus ventas y flujos de caja operativos a tasas de doble dígito.
Los hyperscalers lideran la inversión en centros de datos para Inteligencia Artificial por cuatro razones estratégicas:
La urgencia de esta carrera inversora responde a tres factores clave:
Esta transición está transformando el modelo de negocio de estas empresas. Históricamente centradas en el desarrollo de software y propiedad intelectual —modelos de bajo capital y altos márgenes—, ahora están incrementando drásticamente su CAPEX y activos fijos. Aunque gran parte de estas inversiones aún figura como "obras en curso", su entrada en funcionamiento elevará los costes de amortización. Existe, por tanto, un riesgo financiero: si la monetización de la IA no avanza al mismo ritmo que la inversión, la rentabilidad se verá reducida. Tradicionalmente, los negocios intensivos en capital no ofrecen los retornos extraordinarios del software puro.
El dominio futuro de la IA dependerá de la capacidad de cómputo. Salvo que veamos una irrupción por parte de China, las empresas que posean los centros de datos serán las que controlen el mercado, aunque esto implique competir ferozmente entre ellas y transformar sus estructuras financieras tradicionales.
¿Cómo se va a financiar estas inversiones?
Se estima que las fuentes de financiación para la IA enfrentan techos naturales. Para 2026, el flujo de caja operativo agregado de los hyperscalers rondará los 750.000 millones$. Tras deducir otras inversiones, quedarían unos 300.000 millones anuales para IA, situando el ratio CAPEX/CFO por encima del 50%. No obstante, esto generaría una brecha de financiación de hasta 3,5 billones$.
Para cubrir este déficit, surgirán diversas alternativas:
El capital no parece ser el cuello de botella. El desafío reside en el tiempo: es vital que la monetización masiva de la IA se produzca de forma progresiva para sostener este nivel de inversión sin comprometer la salud financiera de los gigantes tecnológicos.
¿Existe una burbuja?
"Creemos que existen diferencias entre este escenario y el de los fiberscalers y, la mayoría van en la línea de desmentir que estemos en una burbuja". subraya el análisis de Ibercaja Gestión, que aporta tres claves:
Aunque existe cierta sobrevaloración en activos específicos, la expansión de múltiplos no alcanza niveles irracionales. El contexto macroeconómico exige cautela, ya que el margen para bajar tipos es menor que en décadas pasadas, pero no se percibe una euforia desmedida; los inversores mantienen una vigilancia constante sobre las valoraciones.
Los fundamentos actuales distan de crisis pasadas. La clave para la sostenibilidad de esta tendencia será la monetización real de la IA. Habrá que seguir de cerc .métricas críticas como la tasa de ocupación de los centros de datos, el volumen de tokens procesados y los ingresos de firmas como OpenAI. Aunque eventos de volatilidad son previsibles en el corto plazo, el sentimiento de mercado sigue respaldando esta revolución tecnológica, siempre que la adopción avance según lo previsto.