Cover Image for ¿Existe una solución mágica para que los centros de datos enfrenten las demandas energéticas de la IA?

¿Existe una solución mágica para que los centros de datos enfrenten las demandas energéticas de la IA?

La inteligencia artificial está desempeñando un papel importante en el consumo energético de los centros de datos.

La influencia de la inteligencia artificial (IA) en los centros de datos y su consumo energético es innegable y, si no se controla, la situación podría agravarse. Un informe reciente de IDC indica que, ante el aumento significativo de la adopción de la IA, la energía necesaria para soportar estas cargas de trabajo está destinada a incrementarse drásticamente. Se espera que el consumo eléctrico en los centros de datos más que se duplique entre 2023 y 2028, con una proyección de crecimiento de las cargas de trabajo impulsadas por IA de un asombroso 44.7% anual hasta 2027, alcanzando una necesidad energética de 146.2 TWh. Esta realidad plantea un serio desafío, ya que los centros de datos representan actualmente el 46% del gasto energético empresarial y podrían volverse insostenibles si la tendencia no se invierte.

Con el constante aumento de las cargas de trabajo de IA, es crucial que los centros de datos se adapten rápidamente y gestionen el riesgo de una nueva crisis energética, especialmente ante el aumento de los precios de la electricidad impulsado por la inestabilidad geopolítica en Medio Oriente. La necesidad de herramientas de IA se ha extendido across múltiples sectores, desde la atención médica hasta los servicios financieros. Sin embargo, es alarmante que una búsqueda apalancada por IA consuma 100 veces más energía que su equivalente tradicional, y que la construcción de modelos fundamentales de IA requiera suficiente energía para abastecer a 20,000 hogares durante seis meses.

Ante este panorama, un informe de Atlantic Ventures, titulado "Mejorando la Sostenibilidad en los Centros de Datos 2024", propone una solución. Sugiere que las arquitecturas de centros de datos de nueva generación, como la infraestructura hiperconvergente (HCI), pueden ayudar a reducir el consumo de energía, las emisiones de carbono y generar ahorros de costos en la región de EMEA. La modernización de los centros de datos con HCI podría llevar a un ahorro de hasta 19 millones de toneladas de CO2 en la región en solo seis años, lo que equivale a las emisiones de aproximadamente 4.1 millones de automóviles, además de reducir en €25 mil millones los gastos para 2030 a través de una mejora en la eficiencia energética y operativa.

Al integrar la IA en sus operaciones y afrontar la magnitud del consumo energético, las organizaciones podrían recurrir a la HCI para mitigar el riesgo de costos en aumento y cumplir con los objetivos de sostenibilidad. La clave no está exclusivamente en la HCI, sino en cómo las organizaciones gestionan y optimizan el procesamiento de las cargas de trabajo de IA. Es vital concentrarse en la optimización del inferencing, pues aunque el entrenamiento de modelos fundamentales suele ser un evento aislado, el inferencing ocurre continuamente y consume la mayor parte de la energía.

Además, para abordar las crecientes demandas energéticas, se sugiere que más proveedores de centros de datos utilicen fuentes renovables y replanteen su infraestructura. Las combinaciones de recursos en la nube, la computación en el borde y sistemas locales ofrecen una oportunidad para equilibrar las demandas energéticas de la IA mediante una distribución más eficiente de las cargas de trabajo. Por ejemplo, procesar los datos más cerca de su origen mediante la computación en el borde reduce la energía necesaria para transferir grandes volúmenes de datos hacia y desde servidores centralizados.

La infraestructura moderna es clave para gestionar las demandas energéticas de la IA, y una plataforma contenida que pueda manejar tanto CPUs como GPUs se vuelve necesaria para ejecutar cargas de trabajo de manera eficiente. También se destaca la importancia del almacenamiento, ya que la IA suele manejar datos no estructurados. Al invertir en sistemas de almacenamiento de alto rendimiento y pilas de computación optimizadas, las empresas pueden disminuir considerablemente la energía necesaria para ejecutar aplicaciones de IA.

Finalmente, es crucial contar con herramientas que permitan medir y gestionar el consumo energético. Las plataformas que ofrecen visibilidad en tiempo real sobre el uso de energía posibilitan que los centros de datos optimicen cada etapa del procesamiento, desde el entrenamiento hasta el inferencing. Una mejora del 10% en la eficiencia energética puede acarrear ahorros significativos.

En la actualidad, el verdadero costo de la IA no se limita a su rendimiento e innovación; incluye también la energía necesaria para sostenerla. A medida que las organizaciones incrementan sus iniciativas de IA, la cuestión no es si pueden permitirse la inversión en estas tecnologías, sino si pueden afrontar el consumo energético que requieren. Con una infraestructura híbrida y un enfoque en el inferencing eficiente, las empresas pueden gestionar mejor el aumento en el consumo energético. Ignorar esta realidad podría dejar a los centros de datos expuestos a una crisis energética provocada por la IA.