Nvidia se centrará en avances de IA que superen a la competencia en una megaconferencia
SAN FRANCISCO, 13 de marzo (Reuters) - Cuando Jensen Huang suba al escenario de un estadio de hockey lleno para dar inicio a la conferencia anual de desarrolladores de Nvidia el lunes, probablemente revele productos y alianzas orientadas a mantener al fabricante de chips de IA en la cima de una creciente lista de competidores.
Abarcando el corazón de Silicon Valley durante casi una semana, Nvidia GTC, como se conoce a la conferencia, se ha transformado en el evento preferido del CEO Huang para mostrar los avances de Nvidia en inteligencia artificial: desde chips, centros de datos, su software de programación de chips CUDA, asistentes digitales conocidos como agentes de IA y la IA física, como robots.
Este año, el evento de cuatro días es aún más crucial ya que los inversores buscarán certezas de que la estrategia de Nvidia de reinvertir sus ganancias en el ecosistema de IA está dando frutos.
"Espero que Nvidia presente una actualización integral de la hoja de ruta, desde Rubin hasta Feynman, haciendo énfasis en inferencia, IA agencial, redes y la infraestructura de fábricas de IA", comentó el analista de eMarketer, Jacob Bourne, usando los nombres de las generaciones actual y futura de chips de Nvidia.
Los chips de Nvidia están en el centro de cientos de miles de millones de dólares en inversiones por parte de gobiernos y empresas en centros de datos alrededor del mundo, pero la compañía enfrenta competencia de otros fabricantes e incluso de algunos de sus clientes que están desarrollando sus propios chips.
Analistas dijeron a Reuters que esperan que el mercado de chips de IA siga creciendo en general, pero que la porción de Nvidia se reduzca levemente a medida que el mercado de chips de IA cambia rápidamente hacia un escenario donde los agentes de IA se mueven entre aplicaciones informáticas realizando tareas en nombre de los humanos. Eso representa un cambio respecto el entrenamiento, donde laboratorios de IA conectan muchos chips Nvidia en una sola computadora para procesar enormes cantidades de datos y perfeccionar sus modelos.
Se espera que estos agentes se vuelvan tan numerosos que los humanos que les asignan tareas necesitarán incluso una nueva capa de "gerentes intermedios" de IA —lo que los tecnólogos llaman una capa de "orquestación"— para intermediar entre los usuarios y sus flotas de agentes.
De algún modo, dicen los analistas, eso es bueno para Nvidia ya que indica que la IA se está volviendo más útil.
Pero esas tareas, conocidas en la industria como "inferencias", también pueden ejecutarse en otro tipo de chips, incluidos aquellos que grandes clientes de Nvidia como OpenAI y Meta —que recientemente anunció que planea lanzar nuevos chips de IA cada seis meses— pueden desarrollar por su cuenta.
"Definitivamente Nvidia va a ver más competencia en comparación con hace un año", dijo KinNgai Chan, director general de Summit Insights Group. "Hoy, Nvidia aún mantiene casi más del 90% de la cuota de mercado en entrenamiento e inferencia".
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar

TCOM (TCOMGlobal) fluctúa un 63,2% en 24 horas: la baja liquidez provoca fuertes sacudidas
En tendencia
MásSe proyecta que los gastos en TI superen los $6 billones por primera vez en 2026, impulsados por los avances en Inteligencia Artificial (IA). Descubrí estrategias de inversión acá.
BYTE (meme coin en la red ETH) tuvo una amplitud del 66.7% en 24 horas: volatilidad por baja liquidez e interacción promocional en la comunidad X
