aseguran que DeepSeek nos ha engañado, entrenarla costó 250 veces más
Teknalix febrero 3, 2025 No hay comentarios

La irrupción de DeepSeek ha sido un shock para los norteamericanos, que intentan recomponerse como pueden del revolcón que les ha dado la inteligencia artificial china. Sobre todo a Nvidia y OpenAI. No se creen los datos que ha ofrecido High-Flyer, y según un informe de SemiAnalysis, no son ciertos. Crear DeepSeek-R1 podría haber costado hasta 250 veces más de lo revelado.
Cuando DeepSeek-R1 se presentó hace unas semanas, se dijo que apenas había costado 6 millones de dólares, y había sido entrenada con solo 2.000 chips de IA. Esto es un coste cientos de veces menor de lo que cuesta entrenar un Modelo de Lengua Grande (LLM).
Las primeras declaraciones de Sam Altman, CEO de OpenAI, fueron: “Obviamente, han usado muchas más GPU de las que dicen”. Parecía una reacción defensiva al shock, pero a lo mejor Altman tenía razón…
¿Mintió DeepkSeek con los datos de entrenamiento de su IA?
Según la investigación que ha llevado a cabo la firma especializada SemiAnalysis, High-Flyer, el fondo de inversión chino detrás de DeepSeek, compró 10.000 chips de IA A100 de Nvidia en 2021, antes del veto a China.
Sin embargo, en los últimos 4 años habría comprado más GPU de Nvidia, tanto el modelo “capado” que Nvidia sí puede vender en China, como los chips completos, a través del mercado negro. Los rumores apuntan a que estos chips vetados los compraron a través de una empresa de Singapur.
Siempre según SemiAnalysis, en los meses de entrenamiento de DeepSeek-R1, High-Flyer tenía a su disposición entre 50.000 y 60.000 chips de IA, no los 2.000 que ha revelado. 10.000 GPU A100, 30.000 H20, 10.000 H800, y 10.000 H100.
Del mismo modo, el coste de entrenamiento no es 6 millones de dólares, como ha asegurado la compañía china, sino 250 veces más, unos 1.600 millones de dólares. Eso es bastante más de lo que cuesta estrenar un LLM de OpenAI, que ronda los 400 millones.
Aunque parece que en esos 1.600 millones está incluido todo: coste de los chips, y el entrenamiento de todas las IA de DeepSeek.
Hasta qué punto todos estos datos son ciertos, es difícil saberlo. Primero porque conocer los entresijos de una empresa china, es muy complicado. Y segundo, porque hay interés en Estados Unidos por desprestigiar como sea a la inteligencia artificial china.
Quizá, que DeepSeek-R1 tenga un coste real similar a GPT4 y compañía, es lo de menos. La realidad es que su rendimiento no engaña, es de código abierto, y supone una competencia real para OpenAI, Meta, Microsoft y Google. Pero una cosa es llegar, y otra mantenerse. Los próximos meses van a ser muy interesantes…
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Viral, Industria
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *