Linux Adictos Pablinux  

DeepSeek-V3.1 mira a chips chinos con FP8 y modo Think

Modelo DeepSeek-V3.1

Hubo un tiempo en que DeepSeek demostró que se podía hacer mucho con menos. Ahora vuelve con DeepSeek-V3.1 y una señal clara: el modelo se ha afinado pensando en la siguiente hornada de chips chinos. No implica un vuelco inmediato del mercado, pero sí marca una dirección que podría incomodar a NVIDIA y a otros actores del sector.

La compañía ha introducido una inferencia híbrida con dos rutas: Think (razonamiento profundo) y Non-Think (respuesta rápida), que se pueden alternar desde su web y app. Según su mensaje, la versión Think mejora tiempos respecto a la anterior, evidenciando que no solo han cambiado los pesos, sino también los modos de ejecución que ya están en servicio.

Dos vías de inferencia para una sola arquitectura

La propuesta de DeepSeek-V3.1 consolida un enfoque de doble ruta que recuerda a lo que se está probando en modelos de última generación: alternar entre un modo de pensamiento profundo para tareas de mayor complejidad y otro más ágil para respuestas inmediatas. En la interfaz ya aparece un botón de “pensamiento profundo” para conmutar el comportamiento según la necesidad.

Esta conmutación permite adaptar el coste y la latencia a cada consulta, un equilibrio práctico entre calidad de razonamiento y velocidad. Para el usuario, se traduce en conversaciones más largas y en una gestión más eficiente de tareas heterogéneas en un mismo flujo.

UE8M0 FP8 orientado a chips nacionales

En un comentario fijado en su canal oficial de WeChat, DeepSeek afirma: UE8M0 FP8 es para la próxima generación de chips nacionales”. La lectura es nítida: el formato de datos FP8 adoptado por V3.1 está ajustado al ecosistema local. En su ficha técnica de Hugging Face se indica que el modelo se ha entrenado usando el formato de escala UE8M0 FP8, señal de que la precisión no es solo un empaquetado de pesos, sino parte del diseño de entrenamiento y ejecución.

El FP8, al operar con 8 bits, reduce a la mitad el tamaño frente a FP16/BF16 y, cuando hay soporte nativo, habilita más rendimiento por ciclo y menor consumo de memoria. Todo queda supeditado a que los chips que lleguen al mercado chino aprovechen de forma nativa ese esquema de escala. Si esa sintonía se confirma, podría cambiar parte de la conversación sobre quién alimenta la IA en China.

Tecnología DeepSeek-V3.1

Rendimiento, contexto y disponibilidad de DeepSeek-V3.1

DeepSeek ha señalado una ventana de contexto más amplia que, según informaciones compartidas, llega hasta los 128.000 tokens, algo pensado para documentos extensos y conversaciones de muchos turnos. El modelo está disponible a través de API, y la compañía mantiene recursos técnicos en Hugging Face donde detalla el uso de UE8M0 FP8.

En evaluaciones externas como MathArena (plataforma vinculada a la ETH Zürich), V3.1 en su modo Think aparece entre los modelos punteros, con GPT-5 liderando sus tablas más recientes. Más allá de la foto fija, lo relevante es que la actualización sitúa al modelo en la parte alta del tablero competitivo y con capacidad de mejora iterativa.

En pruebas de terceros circulan cifras positivas en codificación y tareas lógicas, si bien la posición exacta respecto a rivales de gama alta varía según el benchmark. La empresa, en paralelo, mantiene su enfoque en combinar rapidez y razonamiento con la arquitectura y los modos de inferencia.

Tensión competitiva y controles de exportación

La jugada de V3.1 llega en un contexto delicado: Estados Unidos mantiene controles a la exportación de chips avanzados a China, y el mercado local acelera su apuesta por alternativas propias. Para NVIDIA, que según su último ejercicio atribuyó en torno al 13% de ingresos a China, la posible transición a soluciones domésticas con soporte FP8 podría erosionar demanda con el tiempo.

El estado del chip H20 en China ha sido cambiante entre permisos, presiones regulatorias y planes de relevo. En ese escenario, toda vía que permita a desarrolladores chinos depender menos de estas ventanas regulatorias adquiere valor estratégico. De ahí el interés de un FP8 pensado para “lo próximo” en semiconductores locales.

También hay que poner los pies en la tierra: según informó Financial Times, DeepSeek se encontró con dificultades técnicas al intentar entrenar su modelo R2 en Huawei Ascend y tuvo que volver a GPU de NVIDIA para el entrenamiento, manteniendo la inferencia en hardware chino donde era viable. La lectura más sensata es considerar V3.1 como una iteración en esa dirección, no un salto definitivo.

Precios de DeepSeek-V3.1 y hoja de ruta

DeepSeek adelantó que a partir del 6 de septiembre ajustará las tarifas de su API, el canal que permite integrar el modelo en productos de terceros. No se han difundido pormenores cerrados, pero el mensaje encaja con una estrategia de sostenibilidad y escalado del servicio tras el despliegue de V3.1.

La compañía enlaza esta versión con su calendario de actualizaciones, tras la mejora de R1 en mayo y la primera evolución de la serie V3 en marzo. En lo técnico, fuentes del ecosistema describen una arquitectura tipo Mixture-of-Experts con decenas de miles de millones de parámetros activos por token, orientada a optimizar recursos sin sacrificar calidad.

V3.1 deja un mensaje claro: un modelo de inferencia híbrida, entrenado y afinado en UE8M0 FP8, que ensaya la compatibilidad con la próxima ola de chips chinos y que llega con mejoras de contexto y disponibilidad vía API. Si el hardware acompaña y el FP8 nativo cumple, la discusión sobre dónde corre la IA en China puede cambiar de acento, con efectos colaterales en la competencia global y en la cadena de suministro.

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.