¿Es DeepSeek un copia-pega producto de espionaje industrial o vulgar plagio chino?

El mundo sigue preguntándose cómo DeepSeek pudo entrenar un modelo de IA como R1 con solo 2.048 chips de Nvidia, pero cada vez aparecen más claves. La más escandalosa, las acusaciones de «espionaje» por parte de OpenAI, que afirma tener pruebas de que la empresa china utilizó sus modelos para hacer avanzar más rápido el entrenamiento.

En una declaraciones remitidas a Financial Times y Bloomberg, la empresa estadounidense afirmaba tener pruebas de que el grupo chino habría utilizado los modelos de OpenAI para entrenar los suyos, una técnica que se conoce en el sector como distillation (destilación en español) y que apunta a ganar mucho peso en el mundo de la inteligencia artificial.

Esta técnica consiste en extraer respuestas e información de un modelo de lenguaje para entrenar otro más pequeño. Es una práctica muy usada, hasta el punto que la propia OpenAI tiene tutoriales en su web para enseñar a sus clientes a hacerlo.

Seguir leyendo o escucha este audio de la misma fuente

Reproductor de audio

¿En qué se diferencia de OpenAI?
DeepSeek tiene dos sistemas principales que han generado revuelo en la comunidad de IA: V3, el gran modelo de lenguaje que desenlaza sus productos, y R1, su modelo de razonamiento.

Ambos modelos son de código abierto, lo que significa que su código subyacente es gratuito y está disponible públicamente para que otros desarrolladores lo personalicen y redistribuyan.

Los modelos de DeepSeek son mucho más pequeños que muchos otros modelos de lenguajes grandes. V3 tiene un total de 671 mil millones de parámetros, o variables que el modelo aprende durante el entrenamiento. Y aunque OpenAI no revela los parámetros, los expertos estiman que su último modelo tiene al menos un billón.

En términos de rendimiento, DeepSeek dice que su modelo R1 logra un rendimiento comparable al o1 de OpenAI en tareas de razonamiento, citando puntos de referencia como AIME 2024, Codeforces, GPQA Diamond, MATH-500, MMLU y SWE-bench Verified.

Que argumente lo que guste DeepSeek pero su IA es un huevo a una castaña comparado con la de chapgpt y gemini, que las grandes tienen que aprender del know how del ingeniero chino que la inventó desde luego ha aportado una fórmula de ahorrar costes en todo. Claro que un zapato de plástico es más barato que uno de cuero. Están causando hilaridad y se están volviendo virales las estupideces que responde deepseek a preguntas de los usuarios.

Pusimos «cotización ibex tiempo real» y nos contestó que lo buscásemos en internet eso si nos dio las páginas en donde podíamos hacerlo. Le preguntamos lo mismo a gemini y nos dio la cotización y un breve historial del Ibex su composición y otra información aneja.

PUBLICIDAD (google adsense)

1 comentario

  1. No te puedes fiar de lo que diga una IA, ninguna. Estupideces y tonterías para hacer memes dan todas ellas. Sin ir mas lejos le acabo de hacer esa misma prefunta de «cotizacion en tiempo real del IBEX» a ChapGPT y me contesta esto:

    «El IBEX 35 cerró la sesión del viernes 31 de enero de 2025 en 11.982,60 puntos».

Los comentarios están cerrados.