24 Jan
24Jan

Miguel Ángel Valero

El crecimiento de la demanda de computación de alto rendimiento para el procesamiento de datos ha sido exponencial en los últimos dos años. Desde el nacimiento de la inteligencia artificial (IA), la necesidad de procesar datos se ha multiplicado.

Los modelos de IA requieren potencia de computación tanto para ser entrenados, como para ser usados. Esta potencia de computación se proporciona a través de centros de datos, que son instalaciones diseñadas para optimizar las tareas de almacenamiento y proceso de datos en grandes volúmenes. Allí se almacenan y procesan los datos de forma segura, con sistemas especiales de electricidad y refrigeración para que nada se apague ni se estropee, funcionando las 24 horas del día para que todo esté siempre disponible.

En consecuencia, la elevada demanda de procesamiento de datos requiere que la oferta de centros de datos se incremente a un ritmo similar, ya que de lo contrario se crea un cuello de botella que impide procesar toda la demanda.

Esta relación entre crecimiento de la demanda de procesamiento de datos y los centros de datos ha llevado a que la inversión en estos segundos sea un aspecto clave para el desarrollo de la IA, y ha provocado que las grandes empresas tecnológicas, que quieren tener un papel relevante en este nuevo desarrollo, inviertan cantidades extraordinarias de recursos.

Las proyecciones basadas en el análisis de los proyectos ya anunciados y los que se estima que tendrán que llegar para sostener toda la demanda proyectan que la inversión acumulada en centros de datos hasta 2030 puede alcanzar los 5 trillones$, según un análisis de Ibercaja Gestión.

Los proyectos actualmente previstos sitúan la capacidad instalada en 2030 cerca de los 200GW, representando la IA cerca de 130GW y prácticamente la totalidad de la inversión en centros de datos en los próximos años. Esto supone un incremento del 42% anual acumulado entre 2025 y2030. Y es probable que continúe, por lo que también crecerán las inversiones.

Se espera que EEUU sea el mayor inversor en centros de datos y que gran parte de la nueva capacidad de procesamiento se instale en ese país. La inversión actual prevista está determinada a producirse cerca de un 60% en EEUU., mientras que China sería la segunda economía con algo más del 20% y Europa se quedaría atrás con el 10%.

La energía puede limitar el crecimiento futuro de los centros de datos

La disponibilidad energética es quizás el principal factor de riesgo de generación de cuellos de botella operativos. De acuerdo con Bank of America, los factores relacionados con la energía representan más del 40% de los criterios de decisión a la hora de decidir dónde construir un centro de datos. Teniendo en cuenta que todos los hyperscalers tienen objetivos ASG agresivos (0 emisiones netas), las energías renovables y el gas natural son lo que debería alimentar el auge de los centros de datos.

Más allá de la generación, el acceso a la energía es el principal riesgo para el crecimiento de los centros de datos. Según una encuesta de Schneider Electric, el 92% considera que, en EEUU, las limitaciones de la red eléctrica son un reto. Para cubrir potenciales déficits de energía, se barajan soluciones como:

  • 1) convertir las instalaciones de minería de criptomonedas en centros de datos
  • 2)la ubicación de centros de datos en grandes centrales nucleares estadounidenses
  •  y 3) construir nuevas centrales eléctricas de gas natural.

Por su parte, las actividades que consumen mucha electricidad son muy intensivas en el uso de cobre, ya que es el mejor elemento para transmitir la electricidad. Actualmente, el precio del cobre se sitúa en niveles de máximos históricos. Sin embargo, este super-ciclo del cobre no se debe exclusivamente al boom de los centros de datos, ya que su consumo comenzó a incrementarse sustancialmente con la transición hacia la electrificación (renovables, residencial, automóviles, etc.).

En este sentido, la demanda global del cobre ya estaba destinada a superar a la oferta, pero a raíz de la necesidad inminente de construir centros de datos, el efecto se ha intensificado. Por tanto, el potencial desequilibrio entre la oferta y demanda genera incertidumbre acerca del futuro precio y disponibilidad del cobre. De producirse, este factor podría limitar el crecimiento esperado de los centros de datos.

Por otro lado, la alta potencia de cálculo provoca que los chips apilados requieran más energía y generen más calor durante su funcionamiento. Para disipar ese calor, el principal método es mediante el uso de agua, a través de sistemas de refrigeración de aire o líquido. La clave principal es que el agua es significativamente más eficiente transfiriendo el calor que el aire, ya que posee aproximadamente cuatro veces el calor específico del aire y es unas 800 veces más densa, lo que significa que puede absorber alrededor de 3.200 veces más calor que un volumen comparable de aire.

Paradójicamente, los sistemas de refrigeración por aire tienden a usar más agua que los sistemas de refrigeración líquidos. Llos sistemas de refrigeración basados en líquidos terminan consumiendo menos electricidad y, en aplicaciones computacionalmente más demandantes (e.g. entrenamiento de IA), menos agua en total, aunque suelen tener un coste y una complejidad de instalación mayores.

En este contexto, el sector de los centros de datos coincide en general en que la refrigeración de los chips con sistemas de refrigeración líquida es el futuro, al menos para los centros de datos enfocados en IA. Independientemente del método que se utilice para disipar el calor, el agua es necesaria y, en consecuencia, un factor fundamental a la hora de elegir la localización de un centro de datos.

Normativas estrictas en materia de consumo energético, emisiones, uso del agua, soberanía del dato o licencias urbanísticas suelen alargar los plazos de autorización y encarecer la construcción de nuevas instalaciones, reduciendo el atractivo para la inversión. Consecuentemente, la regulación es otro factor que puede limitar el crecimiento de los centros de datos, porque introduce incertidumbre, costes adicionales y restricciones operativas que afectan directamente a su viabilidad económica y velocidad de despliegue.

La inversión se duplicará para sostener la infraestructura en la nube

Los hyperscalers lideran la expansión de centros de datos con inversiones masivas. Se estima que, para 2030, la inversión actual se duplicará para sostener su infraestructura en la nube. La intensidad con la que los hyperscalers se han lanzado a invertir apenas tiene precedentes, y se produce además en un conjunto de empresas que año tras año consiguen aumentar sus ventas y flujos de caja operativos a tasas de doble dígito.

Los hyperscalers lideran la inversión en centros de datos para Inteligencia Artificial por cuatro razones estratégicas: 

  • su experiencia previa en la nube, 
  • sus masivos canales de distribución para productos como Copilot o Gemini, 
  • su enfoque tecnológico de vanguardia y 
  • su inmensa capacidad financiera, respaldada por flujos de caja robustos y máxima calidad crediticia.

La urgencia de esta carrera inversora responde a tres factores clave:

  • Amenaza competitiva: Para gigantes como Google, la IA pone en riesgo su dominio histórico en búsquedas, obligándolos a reaccionar agresivamente. 
  • Adopción masiva: La demanda de los usuarios crece a un ritmo sin precedentes. OpenAI pasó de 100 millones de usuarios semanales en 2023 a más de 800 millones en octubre de 2025. 
  • Escasez de recursos: Asegurar el suministro de GPUs (dominadas por Nvidia) es vital, ya que los nuevos modelos requieren una potencia de cómputo exponencialmente mayor.

Esta transición está transformando el modelo de negocio de estas empresas. Históricamente centradas en el desarrollo de software y propiedad intelectual —modelos de bajo capital y altos márgenes—, ahora están incrementando drásticamente su CAPEX y activos fijos. Aunque gran parte de estas inversiones aún figura como "obras en curso", su entrada en funcionamiento elevará los costes de amortización. Existe, por tanto, un riesgo financiero: si la monetización de la IA no avanza al mismo ritmo que la inversión, la rentabilidad se verá reducida. Tradicionalmente, los negocios intensivos en capital no ofrecen los retornos extraordinarios del software puro.

El dominio futuro de la IA dependerá de la capacidad de cómputo. Salvo que veamos una irrupción por parte de China, las empresas que posean los centros de datos serán las que controlen el mercado, aunque esto implique competir ferozmente entre ellas y transformar sus estructuras financieras tradicionales. 

¿Cómo se va a financiar estas inversiones? 

Se estima que las fuentes de financiación para la IA enfrentan techos naturales. Para 2026, el flujo de caja operativo agregado de los hyperscalers rondará los 750.000 millones$. Tras deducir otras inversiones, quedarían unos 300.000 millones anuales para IA, situando el ratio CAPEX/CFO por encima del 50%. No obstante, esto generaría una brecha de financiación de hasta 3,5 billones$.

Para cubrir este déficit, surgirán diversas alternativas:

  • Deuda Corporativa Grado de Inversión (IG): Dada su excelente calidad crediticia, empresas como Alphabet, Meta u Oracle ya han emitido bonos significativos, aunque esto ha elevado sus diferenciales de crédito (spreads) entre 20 y 35 puntos básicos. MicrosoftAmazon aún se mantienen al margen, esperando una mayor monetización antes de acudir masivamente a este mercado. 
  • Financiación Estructurada y Privada: A corto plazo, ganarán peso opciones más sofisticadas como el crédito privado, el leasing y la deuda ligada a activos (ABF). Aunque son más costosas, se adaptan mejor a los ciclos de caja de los centros de datos. 
  • Inversión estratégica de proveedores: Nvidia está emergiendo como un actor clave, no solo como proveedor, sino como financiador. Un ejemplo es su acuerdo de septiembre de 2025 con OpenAI para invertir hasta 100.000 millones$, destinados en parte a la adquisición de sus propias GPU. 

El capital no parece ser el cuello de botella. El desafío reside en el tiempo: es vital que la monetización masiva de la IA se produzca de forma progresiva para sostener este nivel de inversión sin comprometer la salud financiera de los gigantes tecnológicos.

¿Existe una burbuja?

"Creemos que existen diferencias entre este escenario y el de los fiberscalers y, la mayoría van en la línea de desmentir que estemos en una burbuja". subraya el análisis de Ibercaja Gestión, que aporta tres claves:

  • La adopción de las tecnologías: Un contrapunto que reduce los niveles de alarma  es que la adopción de la inteligencia artificial está siendo muy rápida. Gran parte de la inversión de aquella época se canalizó hacia redes de fibra que pretendían revolucionar las telecomunicaciones. A diferencia de lo que ocurre hoy con los centros de datos, al menos en EEUU, donde la tasa de ocupación ociosa es minúscula (5%), el uso de las redes de fibra construidas fue mucho más lento. En 2002, la tasa de ocupación no alcanzaba ni el 15%. Cerca del 85% de la capacidad construida tardó años en empezar a usarse.
  • Diferencias en las compañías que impulsan la revolución: Los actuales hyperscalers presentan una solidez financiera superior. Su capacidad para generar flujo de caja operativo es enorme, lo que les permite autofinanciarse sin recurrir a unos niveles de deuda excesivos. Mientras las antiguas empresas de fibra operaban con márgenes ajustados, los gigantes tecnológicos actuales disfrutan de un margen neto superior en más de 10 puntos. Además, se caracterizan por tener deuda neta nula o incluso excedentes de caja. Esta fortaleza estructural les permite evitar las emisiones de acciones o el apalancamiento que hundieron a los fiberscalers.
  • Las valoraciones: Las valoraciones actuales sugieren que, a diferencia del sector de telecomunicaciones a principios de siglo, no estamos ante una burbuja. Mientras que en el año 2000 las empresas pasaron de cotizar a un múltiplo PER de 25x a 200x, la revalorización actual de las tecnológicas ha ido acompañada de un crecimiento real en sus beneficios por acción (BPA). 

Aunque existe cierta sobrevaloración en activos específicos, la expansión de múltiplos no alcanza niveles irracionales. El contexto macroeconómico exige cautela, ya que el margen para bajar tipos es menor que en décadas pasadas, pero no se percibe una euforia desmedida; los inversores mantienen una vigilancia constante sobre las valoraciones.

Los fundamentos actuales distan de crisis pasadas. La clave para la sostenibilidad de esta tendencia será la monetización real de la IA. Habrá que seguir de cerc .métricas críticas como la tasa de ocupación de los centros de datos, el volumen de tokens procesados y los ingresos de firmas como OpenAI. Aunque eventos de volatilidad son previsibles en el corto plazo, el sentimiento de mercado sigue respaldando esta revolución tecnológica, siempre que la adopción avance según lo previsto.

Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.