Jensen Huang, CEO de Nvidia, ha soltado la bomba: la compañía prevé ingresar un billón de dólares en chips de IA para 2027. Pero la clave no está en crear modelos, sino en lo que ocurre después. Te explicamos el fenómeno que va a redefinir la economía mundial.

La previsión de ingresos de Nvidia para 2027 supone un salto de escala sin precedentes en la historia de la computación, consolidando a la firma como el motor central de la nueva revolución industrial.

El "momento de inflexión" de Nvidia: Un futuro de un billón de dólares

Lo de anoche no fue una conferencia más. En un discurso que ya se califica de histórico, Jensen Huang anunció que Nvidia está en disposición de alcanzar un volumen de negocio de un billón de dólares (el trillion americano) gracias a la demanda de chips para 2027.

Pero, ¿de dónde va a salir tanto dinero si parece que todo el mundo ya tiene sus granjas de datos montadas? La respuesta tiene nombre propio: Inferencia. Según Huang, hemos superado la fase de aprendizaje y hemos entrado de lleno en la fase de ejecución. La IA ha dejado de ser una promesa para convertirse en una empleada a tiempo completo.

¿Qué es la inferencia de IA? El fin del entrenamiento

Para entender por qué Nvidia va a ganar tanto dinero, hay que comprender el cambio de paradigma tecnológico. Hasta ahora, el gasto masivo se centraba en el entrenamiento. Pero el mercado está girando hacia la inferencia.

El director de análisis de Bankinter, Ramón Forcada, revisa los mensajes de la empresa estadounidense en la conferencia GTC de desarrolladores:

Ramón Forcada: "El mensaje de Nvidia es muy potente"

El director de análisis de Bankinter revisa los mensajes de la empresa estadounidense en la conferencia GTC de desarrolladores

El símil de la cocina: de aprender a ejecutar

Imagina que la Inteligencia Artificial es un chef:

1) Entrenamiento: Es la etapa de formación. El chef estudia miles de libros, memoriza recetas y practica cómo cortar la cebolla. Es un proceso lentísimo y que consume muchísima energía (y chips).

2) Inferencia: Es el momento en que el chef abre el restaurante. El cliente pide un plato y el chef lo cocina y lo sirve en segundos. Ya no está aprendiendo; está ejecutando y decidiendo en tiempo real.

Hasta hoy, las empresas compraban chips para "enseñar a cocinar" a sus modelos. Ahora, la oportunidad de oro está en los millones de dispositivos y servidores que necesitan "atender mesas" 24/7.

Chips "tuneados": La nueva mina de oro

La inferencia no requiere necesariamente la fuerza bruta de las grandes máquinas de entrenamiento, sino eficiencia y velocidad. Por eso, Nvidia está apostando por chips optimizados (o "tuneados") específicamente para esta tarea.

Este cambio de enfoque es el que permitirá que la IA esté presente en cada coche autónomo, cada diagnóstico médico y cada proceso industrial. Ya no solo se trata de crear una IA inteligente, sino de poner a trabajar a esa IA en el mundo real.