DeepSeek V4 sacude la carrera de la IA con código abierto y precios a la baja

La nueva generación de modelos de lenguaje de DeepSeek, la startup china de Hangzhou, se ha convertido en uno de los movimientos más comentados en el panorama de la inteligencia artificial. Su serie DeepSeek V4 irrumpe en un momento de saturación de ofertas y promesas, pero con un mensaje muy claro: ofrecer capacidades de primer nivel en razonamiento y agentes, con una ventana de contexto gigantesca y, sobre todo, con un coste de uso mucho más bajo que el de sus rivales estadounidenses.
Este lanzamiento no llega aislado. Se produce pocos días después de nuevas versiones de ChatGPT y otros modelos cerrados, y en pleno esfuerzo de China por reducir su dependencia tecnológica de Occidente. DeepSeek V4 combina una estrategia de código abierto, precios agresivos y una alianza estrecha con Huawei en el terreno del hardware, lo que puede cambiar el equilibrio de fuerzas para empresas europeas que buscan alternativas más económicas y controlables.
Qué es DeepSeek V4 y cómo está construido
La familia DeepSeek V4 está formada por modelos de lenguaje de tipo Mixture-of-Experts (MoE) diseñados para ser muy eficientes en contextos largos. La compañía habla de un modelo principal con en torno a 1 billón largo de parámetros totales, donde solo una fracción se activa en cada token, y de una versión aún más ambiciosa, V4-Pro, que alcanza los 1,6 billones de parámetros, con unos 49.000 millones activos por consulta.
La clave del enfoque MoE de DeepSeek es que, aunque el número total de parámetros sea enorme, en cada paso de inferencia solo se activan decenas de miles de millones. Esto permite reducir drásticamente el coste de cómputo y memoria frente a modelos densos de tamaño similar. En algunos materiales técnicos se habla de unos 37.000 millones de parámetros activos por token en una de las variantes, lo que encaja con la idea de eficiencia extrema sin renunciar al rendimiento.
Dos variantes: V4-Pro y V4-Flash para necesidades distintas
DeepSeek ha segmentado su oferta en dos grandes modelos: V4-Pro y V4-Flash. V4-Pro es el buque insignia, con los ya mencionados 1,6 billones de parámetros y un foco en razonamiento profundo, conocimiento global y capacidades agénticas, especialmente en programación y tareas complejas de análisis.
Por su parte, V4-Flash se presenta como la versión ligera y rápida. Cuenta con unos 284.000 millones de parámetros totales y alrededor de 13.000 millones activos, manteniendo también una ventana de contexto de hasta un millón de tokens. Está pensada para despliegues masivos, donde el coste por token, la latencia y la escalabilidad pesan más que exprimir hasta la última décima en benchmarks.
Esta dualidad Pro/Flash tiene más de estrategia comercial que de simple diferenciación técnica. V4-Pro apunta a grandes corporaciones, laboratorios y casos de uso donde se exige el máximo posible; V4-Flash, en cambio, quiere ser el «caballo de batalla» para pymes, startups y servicios de alto volumen que necesitan IA competente y barata.
Contexto de un millón de tokens: qué cambia en el uso real
Uno de los rasgos más llamativos de DeepSeek V4 es su ventana de contexto ultra-larga de hasta un millón de tokens, muy por encima de los 128.000 tokens habituales en muchos modelos comerciales actuales. En la práctica, esto equivale a poder trabajar con centenares de miles de palabras en una sola consulta: manuales técnicos completos, grandes repositorios de código, expedientes legales o históricos de atención al cliente sin necesidad de fragmentarlos.
Más allá de la cifra, este contexto tan amplio puede reducir costes y errores derivados de trocear documentos: se necesitan menos llamadas a la API, hay menos riesgo de perder información entre cortes y se simplifica mucho el diseño de productos que dependen de grandes volúmenes de texto. DeepSeek plantea el modelo no tanto como un simple chatbot, sino como un asistente de proyecto o un agente capaz de planificar y encadenar tareas sobre grandes corpus de datos.
En Europa y España, este tipo de contexto resulta especialmente interesante para sectores como legal, financiero, consultoría, administración pública o sanidad, donde es habitual manejar documentación muy extensa. El reto será comprobar si el modelo mantiene esa capacidad con latencias razonables y un coste por millón de tokens realmente competitivo en entornos de producción.
Capacidades de razonamiento y agentes: la apuesta por competir con los cerrados
DeepSeek afirma que V4-Pro supera a la mayoría de modelos abiertos actuales en pruebas de conocimiento global y razonamiento, y que solo queda ligeramente por detrás de algunos de los mejores modelos cerrados, como las últimas iteraciones de Gemini. En razonamiento avanzado, la compañía asegura estar al nivel de las soluciones premium de OpenAI y Anthropic.
En el terreno de los agentes y las tareas encadenadas, DeepSeek V4 se ha diseñado para funcionar como algo más que un generador de texto. La empresa ya utiliza V4-Pro internamente para programación asistida, automatización de flujos y análisis complejos, con la idea de que el modelo pueda planificar, ejecutar y verificar subtareas de forma relativamente autónoma.
Para empresas españolas que trabajan con automatización de procesos, desarrollo de software o back-office intensivo en datos, la combinación de razonamiento fuerte, contexto largo y coste bajo puede resultar atractiva. No obstante, el grado de madurez real de los agentes de V4 y su robustez en castellano todavía son aspectos por evaluar en pruebas independientes.
Open source frente a modelos cerrados: impacto para Europa
La serie V4 se presenta como modelo abierto con acceso anticipado. DeepSeek ha liberado V4-Pro y V4-Flash en plataformas como Hugging Face en modo vista previa, y permite probarlos tanto en su propio chat como vía API. En algunas variantes se menciona una licencia de tipo MIT que abriría la puerta a descargas y despliegues locales sin las restricciones habituales de muchos modelos comerciales.
Este enfoque confronta directamente con la estrategia de modelos cerrados de Silicon Valley, y con los debates sobre cómo se puede cerrar el código abierto, donde el acceso suele estar ligado a contratos de API, nubes específicas y precios más altos. Si DeepSeek V4 confirma que la brecha entre abierto y cerrado se ha estrechado hasta casi desaparecer en rendimiento, muchas empresas europeas podrían replantearse su dependencia de proveedores estadounidenses.
En el contexto regulatorio de la UE, marcado por el AI Act y por exigencias estrictas en materia de soberanía de datos, disponer de modelos potentes que puedan ejecutarse on-premise o en nubes europeas sin perder control sobre la información se vuelve un factor clave. El open source chino, no obstante, también plantea interrogantes políticos y de confianza que las administraciones y grandes corporaciones deberán valorar con cuidado.
Alianza con Huawei y hardware alternativo a NVIDIA
Uno de los elementos más delicados de DeepSeek V4 es el cambio en la base de hardware. Tras las polémicas por el uso de GPUs NVIDIA H800 e incluso acusaciones sobre el empleo de chips Blackwell vetados, la compañía ha estrechado lazos con Huawei para reducir su exposición a las sanciones estadounidenses.
Poco después de anunciar V4, Huawei comunicó oficialmente que proporcionará sus chips Ascend y sistemas de supernodos para ejecutar las tareas de inferencia de DeepSeek. Entre ellos destacan las aceleradoras Atlas 350 impulsadas por los procesadores Ascend 950PR, que han sido optimizadas específicamente para este tipo de modelos MoE y que ya se venden como alternativa local a la infraestructura basada en NVIDIA.
La documentación técnica de V4 menciona el desarrollo de kernels adaptados tanto para hardware de Huawei como para GPUs de NVIDIA. Esta compatibilidad dual permitiría a la compañía sobrevivir a posibles bloqueos occidentales, a la vez que explota la pujanza del ecosistema chino de chips. Para Europa, este movimiento abre la puerta a una oferta de IA potente no totalmente atada a la cadena de suministro norteamericana, aunque el uso de hardware procedente de China también será escrutado desde la óptica de la ciberseguridad y la dependencia estratégica.
Estrategia de precios: el golpe en los costes por millón de tokens
DeepSeek lleva tiempo posicionándose como la opción de “razonamiento barato”: ya lo hizo con su modelo R1 y ahora refuerza la apuesta con V4. En estimaciones avanzadas por la propia compañía y por proveedores de API que ya prueban el modelo, el coste de inferencia podría rondar los 0,30 dólares por millón de tokens, muy por debajo de lo que cobran muchos servicios premium occidentales.
Además, DeepSeek sostiene que, para la variante Flash, mantendrá unas tarifas similares a las del modelo V2 lanzado en 2024, e incluso ha adelantado que los precios podrían bajar todavía más en la segunda mitad de 2026, a medida que los supernodos Ascend 950PR de Huawei se desplieguen a gran escala. Este anuncio ha tenido efectos inmediatos en la bolsa china, impulsando a las empresas de semiconductores locales.
En términos prácticos, para una empresa española que procese documentos legales extensos, historiales financieros o grandes volúmenes de interacciones de clientes, esa estructura de precios permite operar con márgenes muy superiores a los obtenidos con APIs más caras. No obstante, habrá que ver si estas tarifas se mantienen cuando V4 salga del modo de vista anticipada y si parte del ahorro no se compensa con mayor complejidad de implementación en comparación con los servicios más maduros.
Disponibilidad, estado de desarrollo y acceso desde Europa
DeepSeek V4 se encuentra, según la propia empresa, en modo “preview” o acceso anticipado. La variante V4-Pro y su versión más ligera ya se pueden probar a través del chat oficial de DeepSeek y mediante API, mientras que algunos proveedores externos, como plataformas de terceros que ofrecen nodos de prueba, han empezado a dar acceso limitado a desarrolladores.
La hoja de ruta de la compañía ha sufrido ciertos retrasos respecto a las fechas inicialmente filtradas, que apuntaban a lanzamientos completos a lo largo del primer semestre de 2026. Aun así, en la práctica ya hay modelos V4 colgados en repositorios públicos, listos para ser testeados y desplegados en entornos de laboratorio.
Para organizaciones europeas y españolas, el acceso por ahora se centra en APIs públicas, descargas desde repositorios de código abierto y pruebas en nubes internacionales. El despliegue en infraestructuras propias dependerá de la capacidad para contar con GPUs compatibles o, en su caso, con hardware chino homologable, algo que puede chocar con requisitos internos de seguridad y cumplimiento normativo.
Implicaciones para startups y empresas en España y Europa
Para el tejido emprendedor de España y de otros países de la UE, DeepSeek V4 representa una posible democratización del acceso a modelos de escala «enterprise». Con costes por millón de tokens mucho más bajos y la opción de ejecución local, proyectos que hasta ahora necesitaban rondas de financiación considerables para asumir gasto en APIs y GPUs pueden plantearse prototipos de alto nivel con recursos más ajustados.
En sectores como fintech, legaltech, salud digital o analítica de datos, la capacidad de procesar contextos enormes y de mantener los datos dentro de infraestructuras controladas por la propia empresa puede marcar la diferencia a la hora de cumplir con la normativa europea de protección de datos. Sin embargo, el predominio del inglés y el chino en la documentación oficial, así como la prioridad de esos idiomas en el entrenamiento, hace prever que el castellano requiera trabajo adicional de afinado para alcanzar un rendimiento realmente competitivo.
Otra cuestión es la madurez del ecosistema de herramientas en torno a DeepSeek V4. A diferencia de modelos como Llama o GPT, que cuentan con frameworks de código abierto, V4 parte con menos soporte listo para usar. Las empresas con equipos técnicos pequeños tendrán que valorar si pueden asumir esa curva de integración o si prefieren esperar a que el entorno se consolide.
Dimensión geopolítica y regulatoria: la IA como nuevo campo de fricción
La irrupción de V4 se produce en un contexto en el que la IA es un vector de poder económico y estratégico. Un modelo chino abierto y competitivo presiona el relato occidental de liderazgo tecnológico y añade tensión a la discusión sobre dependencias tecnológicas y estándares globales.
Mientras China responde al desafío con una oferta de capacidad industrial, chips propios y despliegue rápido, Europa tiende a reforzar el componente regulatorio y las exigencias de transparencia, seguridad y ética. La posibilidad de que modelos abiertos de origen chino se conviertan en referentes globales puede animar a los gobiernos europeos a levantar cortafuegos regulatorios, por ejemplo, en contratación pública o sectores críticos.
Esto podría derivar en un mercado de IA fragmentado por bloques, donde empresas españolas y europeas tengan que elegir entre modelos estadounidenses muy condicionados por sus propias reglas de uso, soluciones europeas aún en desarrollo y propuestas chinas potentes pero con un componente geopolítico complejo. DeepSeek V4, con su combinación de código abierto, costes bajos y apoyo de Huawei, se sitúa justo en el centro de ese debate.
En conjunto, DeepSeek V4 se perfila como una de las apuestas más serias para llevar modelos de lenguaje de alto nivel al terreno del código abierto y de los precios agresivos. Su enorme ventana de contexto, la alianza con hardware alternativo a NVIDIA y la orientación a agentes y razonamiento lo convierten en una opción a vigilar muy de cerca desde España y el resto de Europa; el verdadero impacto dependerá de cómo se comporte en producción, del soporte real en español y de hasta qué punto las empresas están dispuestas a incorporar una pieza clave de su infraestructura de IA procedente del ecosistema tecnológico chino.
