Cover Image for Gartner: La guerra de precios de los LLM en China impulsará la adopción de la inteligencia artificial en la nube.

Gartner: La guerra de precios de los LLM en China impulsará la adopción de la inteligencia artificial en la nube.

Guerra de precios de modelos de lenguaje en China.

En los últimos meses, los proveedores de inteligencia artificial generativa (GenAI) en China han realizado una notable reducción en los costos de inferencia de sus APIs de modelos de lenguaje grande (LLM), disminuyéndolos en más de un 90%. Esta estrategia tiene como objetivo promover la adopción de GenAI en el ámbito empresarial. Si bien el impacto en el negocio a corto plazo puede ser limitado, las repercusiones a largo plazo son significativas, especialmente en la migración de cargas de trabajo de inteligencia artificial empresarial de entornos locales a la nube.

El descenso constante de los precios de las APIs, junto con las ventajas que brinda el despliegue en la nube, como la agilidad y la velocidad de innovación, está fomentando este cambio. Elementos como el software de inteligencia artificial, la preparación de datos, la gobernanza y el talento humano también influyen considerablemente en el costo total de propiedad (TCO) de las soluciones de GenAI.

A corto plazo, la reducción de precios de las APIs de LLM tendrá un impacto menor en las empresas que ya han adoptado soluciones de GenAI en local. Sin embargo, aquellas que utilicen despliegues en la nube comenzarán a reevaluar sus estrategias de implementación de inteligencia artificial al notar los beneficios del entorno en la nube, incluyendo costos iniciales más bajos y flexibilidad.

Se proyecta que para 2027, el precio promedio de las APIs de LLM podría caer a menos del 1% de su precio actual. Por lo tanto, las empresas deben priorizar sus inversiones en inteligencia artificial generativa considerando el valor, los riesgos y las capacidades de los modelos, además de evaluar todas las partes del costo de estas soluciones. La calidad, el rendimiento y la latencia de las APIs de LLM también son factores cruciales que deben ser considerados en el proceso de selección del modelo adecuado.

La continua disminución de precios obliga a las empresas a revisar sus estrategias de implementación, evaluando la relación entre los despliegues en la nube y los locales. Aunque las soluciones en la nube permiten alojar cargas de trabajo empresariales con capacidades avanzadas, como analítica y aprendizaje automático, los entornos locales pueden enfrentar dificultades para mantener el ritmo de la innovación. Algunas empresas pueden verse limitadas por normativas que requieren mantener datos de manera local, a pesar de que los proveedores de nube ofrecen recursos informáticos diversificados y opciones de virtualización.

Según proyecciones, se espera que para el 2027 el 80% de las cargas de trabajo de inferencia de IA en China sean basadas en la nube, un incremento considerable desde el 20% actual. Esta transformación será impulsada por la caída constante de los precios de las APIs y las ventajas que ofrece el uso de la nube. Para adaptarse a esta nueva realidad, las empresas deben equilibrar los costos con los beneficios más amplios del despliegue en la nube y reevaluar sus estrategias de implementación de LLM.

De esta manera, es fundamental identificar los casos de uso más adecuados para el despliegue en la nube y evaluar la flexibilidad y eficiencia en costos que estas soluciones pueden proporcionar. La guerra de precios entre los proveedores de LLM en China actúa como un catalizador para la aceleración de la adopción de AI en la nube, y las empresas deberán estar preparadas para adaptarse y prosperar en este cambiante entorno.

  • inteligencia artificial
  • nube
  • costos de inferencia