DeepSeek-R1 se ha situado en el primer puesto en las listas de descargas gratuitas de la tienda de aplicaciones móviles App Store tanto en China como en Estados Unidos, superando al popular ChatGPT.
Además, los futuros sobre los principales indicadores de Wall Street adelantan una apertura en negativo este lunes, con pérdidas superiores al 3 % para el índice Nasdaq, ante la irrupción de DeepSeek, cuyos avances desafían el liderazgo estadounidense.
Apuesta por el código abierto
El modelo que se está descargando estos días es el R1, lanzado el 20 de enero. Según los expertos, es comparable con el o1 de OpenAI, la firma creadora del ChatGPT, en la resolución de problemas matemáticos, la programación y la inferencia del lenguaje natural.
Detrás está DeepSeek, a su vez está respaldada por la empresa de inversión Huanfang Quant, revela este lunes el periódico chino The Paper.
Su modelo es de código abierto, con lo que cualquier persona puede examinarlo, modificarlo y desarrollarlo en función de sus necesidades, algo que ha generado un notable impacto en la comunidad de desarrolladores, que destaca su eficiencia y bajo costo.
Lea más: inteligencia artificial
Respuesta a Estados Unidos
Algunas voces apuntan a que China busca que sus empresas ganen influencia global con este tipo de modelos para dar forma a los estándares y las prácticas internacionales de las IA, así como ganar mercado en los países en desarrollo.
Además, el lanzamiento se produce al tiempo que el presidente estadounidense, Donald Trump, anunciaba el proyecto ‘Stargate’, que invertirá 500.000 millones de dólares en los próximos cuatro años para construir nuevos centros de datos para apoyar proyectos de IA.
DeepSeek llega también después de que Washington impusiese restricciones a la exportación a China de chips de alto rendimiento -como los desarrollados por Nvidia y AMD-, a lo que Pekín respondió con llamadas a la innovación.
“El enfoque de DeepSeek desafía el dominio de EE.UU en IA, demostrando que sus restricciones han sido ineficaces ” , señala el académico Li Baiyang al rotativo GLobal Times.
Hacer más con menos
Según la empresa china, su modelo fue entrenado durante 55 días con un presupuesto de 5,57 millones de dólares (5,33 millones de euros) , utilizando procesadores gráficos H800 de Nvidia, una versión de capacidad reducida diseñada para el mercado chino.
Este costo representa menos de una décima parte del gasto en el entrenamiento del modelo 4o de OpenAI, según The Paper.
Por su parte, DeepSeek señala que su R1 utiliza técnicas avanzadas de aprendizaje automático, lo que le permite “ mejorar notablemente ” su capacidad para realizar tareas complejas con menos datos previos.
“Redefinir las reglas”
Asimismo, la compañía ha hecho públicos detalles técnicos de los procesos de entrenamiento del modelo, lo que permite a otros usuarios utilizarlos como base para desarrollar otras herramientas.