Los inversores de acciones de NVIDIA acaban de recibir malas noticias de Deepseek, pero ciertos analistas de Wall Street ven un forro plateado

Nvidia (NASDAQ: NVDA) Hizo la historia del mercado de títulos el lunes 27 de enero, pero no del buen tipo. El fabricante de chips vio disminuir el precio de su batalla del 17%, oportuno a las preocupaciones sobre un maniquí de inteligencia fabricado (IA) de la nueva empresa china Deepseek. Ese Nosedive borró $ 589 mil millones de su valía de mercado, la anciano pérdida de un solo día para cualquier compañía registrada.

¿Qué desencadenó el colapso? A pesar de las regulaciones del gobierno de los Estados Unidos que prohíben a Nvidia exportar sus chips de IA más avanzados a China, Deepseek, según los informes, creó un maniquí de jerigonza ínclito que rivaliza con el rendimiento de los modelos más sofisticados creados en los Estados Unidos, la compañía asimismo afirma que capacitó el maniquí mientras gastaba mucho menos cuartos y sin las chips Nvidia más avanzadas.

Esa comunicación ha sido desastrosa para los accionistas de NVIDIA, dada lo que se estrelló las acciones. Pero muchos analistas de Wall Street ven la ganga como una reacción exagerada que crea una oportunidad de transacción tan esperada para los inversores.

Deepseek publicó un trabajo de investigación la semana pasada reclamando que su maniquí de razonamiento R1 rivaliza con el desempeño del maniquí de resolución de problemas O1 de OpenAI en ciertos puntos de narración. La nueva empresa china asimismo afirma que gastó menos de $ 6 millones en capacitar al maniquí de idioma ínclito y dice que completó la capacitación con solo 2,048 unidades de procesamiento de gráficos NVIDIA H800 (GPU). Es importante destacar que la GPU H800 fue diseñada específicamente para cumplir con las restricciones de exportación.

Comparativamente, Operai gastó más de $ 100 millones en capacitar su maniquí GPT-4 y usó las GPU NVIDIA H100 más potentes. La compañía no ha revelado el número preciso, pero los analistas estiman que OpenAI utiliza más de 10,000 procesadores para capacitar a GPT-4. Esa estimación es plausible, regalado que Meta plataforma Usó 16,000 GPU NVIDIA H100 para entrenar su maniquí LLAMA 3, gastando un estimado de $ 60 millones.

Las implicaciones son alarmantes para Nvidia. Si Deepseek entrenó a R1 usando menos chips menos potentes, las compañías estadounidenses podrían estrechar teóricamente el consumición imitando las técnicas de capacitación empleadas por la nueva empresa china de IA. A su vez, a compañías de hiperescala como Amazonas, AlfabetoMeta plataforma, y Microsoft podría desgastar menos de lo previsto en las GPU de NVIDIA en los próximos primaveras.

Una persona apunta a una pantalla de computadora que muestra una tabla de precios de acciones.
Fuente de la imagen: Getty Images.

Mientras que Deepseek entrenó su maniquí R1 con una eficiencia impresionante, muchos analistas lo ven como un expansión positivo. Piensan que acelerará el ritmo al que se adopta la inteligencia fabricado, lo que impulsa una anciano demanda de GPU de NVIDIA. Adicionalmente, algunos expertos de la industria cuestionan la validez de las afirmaciones de Deepseek con respecto a los costos e infraestructura.

Leave a Comment