DeepSeek V3.1 y Qwen3: dos rutas chinas hacia la próxima generación de IA

Dos familias de modelos compiten por definir el estándar de la IA aplicada: DeepSeek V3.1, que combina un “modo de pensamiento” razonado con ejecución rápida, y Qwen3 de Alibaba, que multiplica la eficiencia con Mixture-of-Experts y variantes enfocadas a código, razonamiento y traducción. Detrás de las métricas hay una pregunta de fondo: ¿cómo escalamos capacidades sin disparar los costos ni perder control sobre la toma de decisiones?

Inteligencia Artificial y Desarrollo.HoyRedacción MBA.Redacción MBA.
deepseek 3
Fuente: Deepseek

La carrera por los modelos de propósito general dejó de ser un catálogo de “benchmarks” para convertirse en una discusión operativa sobre arquitecturas, costos, latencia y gobernanza. China irrumpió con dos propuestas robustas que, más que “una opción más”, plantean dos filosofías de diseño con implicancias directas para empresas, gobiernos, pymes y desarrolladores. DeepSeek V3.1 apuesta a un modelo híbrido capaz de alternar entre razonamiento explícito (cuando una tarea requiere pasos intermedios) y generación directa (cuando basta la respuesta breve), mientras Qwen3consolida el enfoque Mixture-of-Experts (MoE) con una familia de tamaños y “sabores” que buscan máxima relación costo-prestaciones en producción. La competencia ya no se libra sólo en papers: se mide en tickets de soporte, consumo de GPU y fiabilidad al llamar herramientas externas, como si el “cerebro” de la IA empezara a aprender a trabajar en equipo con los sistemas legados. 


DeepSeek V3.1: un único modelo, dos modos de ejecución


La actualización V3.1 se presenta como una hibridación de inferencia: el mismo modelo puede operar en modo de pensamiento (explicita cadenas de razonamiento para problemas complejos) o en modo directo (prioriza velocidad y costo), conmutando mediante plantillas de chat. Esto importa por una razón práctica: el razonamiento paso a paso suele ser más caro; poder activarlo selectivamente evita pagar “precio premium” cuando no hace falta. Además, V3.1 introduce mejoras en el uso de herramientas y tareas de agente, un área crítica cuando el modelo tiene que orquestar acciones (buscar, ejecutar código, llamar APIs) y no sólo escribir texto. 

Más allá de la narrativa, hay señales concretas de industrialización. La disponibilidad gestionada en plataformas de nube señala contexto largo muy por encima del promedio y límites de salida generosa, atributos valiosos para contratos, catálogos extensos, logs o integraciones que requieren “recordar” mucho dentro de una misma sesión. Que un proveedor mayor liste context length de seis cifras coloca el foco donde realmente se juega productividad: menos cortes, menos “pérdidas de memoria” y menos ingeniería artesanal para trocear documentos. 

En la capa de hardware y eficiencia, las descripciones públicas de la serie V3 hablan de una gran MoE con una fracción relativamente pequeña de parámetros “activos” por consulta, más técnicas de cuantización y escalado que aceleran la inferencia sin degradar calidad de manera visible para la mayoría de usos. El efecto práctico es claro: respuestas más baratas por token y latencias más estables en cargas reales, especialmente cuando se combina con “modo directo”. Finalmente, hay un elemento empresarial poco glamoroso pero decisivo: políticas de precios y cambios anunciados a corto plazo, que obligan a revisar presupuestos y elasticidad del consumo si el uso crece. 


Qwen3 (Alibaba): la familia como estrategia de producto


Qwen3 no es un solo modelo: es un portafolio. La propuesta de Alibaba combina modelos base y variantes orientadas a razonamiento, programación y traducción, con el sello MoE para mantener controlados los costos de inferencia. La compañía describe la serie como “híbrida” en el sentido de integrar razonamiento y tareas generales, y la empuja como código abierto con soporte amplio de frameworks de inferencia y despliegue en la nube. Esto no es marketing: cuanto más fácil es cambiar de runtime o proveedor, más baja la fricción para pilotos y migraciones.

El roadmap reciente se vuelve particularmente interesante con Qwen3-Next, donde el equipo enfatiza dos tendencias que ya marcan agenda: escalado del contexto y escalado total de parámetros, pero con una obsesión por la eficiencia que se traduce en variantes de decenas a cientos de miles de millones de parámetros “totales”, de los cuales sólo una porción se activa por consulta. Algunas configuraciones reclaman mejoras de potencia-costo de un orden de magnitud frente a iteraciones previas, señal de que la batalla por “más por menos” se acelera. 

Qwen3, además, llega con sabores especializados —por ejemplo, los orientados a coding— que apuntan a un dolor real de las empresas: pasar de “asistentes de texto” a agentes de desarrollo que entienden repositorios, respetan convenciones internas y generan cambios aplicables. El hecho de que Alibaba empuje la distribución en su Model Studio y otros proveedores reduce el “lock-in” y facilita comparativas A/B en la vida real, no sólo en tableros de métricas.

Qwen 3


Dos filosofías de diseño: orquestación del pensamiento vs. eficiencia orquestada


Si tuviéramos que traducir estas aproximaciones a una metáfora, DeepSeek V3.1 se comporta como un consultor que decide cuándo pensar en voz alta y cuándo ejecutar sin hacerte perder tiempo; Qwen3, en cambio, parece una firma con muchos especialistas que, según el caso, convoca a los adecuados para resolver más rápido y barato. En un mundo de presupuestos finitos y tiempos de respuesta acotados, ambas aproximaciones convergen en el mismo objetivo: optimizar el costo de acierto.

La cuestión no es sólo filosófica. La trazabilidad del razonamiento importa para sectores regulados, auditorías internas o contextos educativos; la eficiencia MoE, por su parte, importa cuando hay que escalar a miles de usuarios concurrentes sin que el costo de GPU se dispare. De ahí que veamos, por un lado, conmutadores de “modo pensamiento” en la API, y por el otro, familias completas para ajustar tamaño y costo a cada caso de uso. 


Rendimiento, contexto y coste: lo que de verdad mueve la aguja



Una de las ventajas competitivas que empieza a decidir adopciones es la longitud de contexto. Poder leer, razonar y escribir con cientos de miles de tokens en una sola pasada habilita flujos antes imposibles: desde contratos y normativas extensas hasta documentación técnica y bases de conocimiento sin trocear. Cuando un proveedor mayor publica 163.840 tokens de contexto —más salida extensa— el mensaje es transparente: la memoria operativa ya no será el cuello de botella, y eso desplaza el esfuerzo a curación de datos y diseño de prompts más sobrios. 

El otro eje es el coste por tarea. Con MoE bien entrenado y cuantización moderna, no hace falta “encender toda la fábrica” en cada consulta: bastan subconjuntos de expertos que se activan selectivamente. De ahí los reclamos de mayor potencia por fracción del costo en algunas variantes recientes de Qwen3-Next, y las descripciones de V3.1 como un MoE enorme con pocos expertos activos en cada paso, apoyado en micro-escalado numérico para exprimir hardware. En términos llanos: menos GPU-segundos por respuesta útil. 

Nano Banana GeminiGoogle Nano Banana, lo que todos quieren probar


Implicaciones para empresas, pymes y desarrolladores


Para los equipos de producto, el modo híbrido de DeepSeek reduce la tentación de “encender el pensamiento” siempre. Se puede automatizar: si la tarea es repetitiva y no ambigua (extraer campos, traducir formatos, generar resúmenes cortos), modo directo; si hay estrategia, ambigüedad o necesidad de explicabilidad, modo de pensamiento. Para pymesy equipos no sobredimensionados, esto significa controlar factura sin resignar calidad cuando hace falta elevar el estándar.

Qwen3, por su parte, se siente natural en organizaciones que prefieren alinear tamaño de modelo a la tarea: un 30B-80B para backoffice y agentes internos, y un “Max/Next” para demandas con mayor complejidad o carga. El énfasis de Alibaba en variantes de coding y traducción lo vuelve especialmente útil para DevOps, migraciones y localizaciónmultilingüe, donde ahorrar minutos por ticket equivale a ahorrar días al mes en el total. 


Gobernanza, apertura y ecosistema


La “apertura” ya no es un adjetivo sino una decisión de arquitectura. Qwen3 pone repositorio público, guías multi-runtime y despliegue en distintos proveedores, lo que habilita pruebas comparativas y portabilidad si cambian las condiciones comerciales. DeepSeek, mientras tanto, amplía parrilla de disponibilidades e integra su modelo en entornos de nube de terceros, una señal de madurez comercial: cuando un modelo entra a catálogos de cloud con SLAs y cuotas, se vuelve comprable por áreas no técnicas. Para quienes están cansados de “ensayos eternos”, esto simplifica el “sí” de compras. 

También es relevante el componente macro: ambos programas se desarrollan en un contexto geopolítico donde la soberanía tecnológica y el control de costos de inferencia pesan tanto como el último dígito del benchmark. No es casual ver ajustes de pricing y expansión de catálogos en cuestión de semanas: el juego es capturar desarrolladoreshoy para retener workloads mañana. 


Qué mirar en los próximos meses:


-Latencia bajo carga real, no de laboratorio. La promesa MoE y los “modos” de razonamiento deben sostenerse cuando cien agentes llaman herramientas en paralelo.
-Fiabilidad de tool-use: cuántas veces el modelo elige la herramienta correcta y maneja errores (timeouts, formatos, reintentos).
-Calidad en contexto largo: más tokens no siempre implican mejor integración de información; conviene verificar consistencia en resúmenes y citas internas.
-Costo efectivo por ticket: para customer service, code review o extracción documental, la métrica que importa es ARPU por flujo automatizado, no el precio del millón de tokens suelto.
-Ecosistema y cadencia: Qwen3 ya muestra iteraciones “Next” con saltos de eficiencia; DeepSeek viene de una secuencia rápida de releases con foco en agente. Esa velocidad de actualización debe acompañar sin romper integraciones. 


Más allá del “quién gana”: el juego de suma positiva


Comparar DeepSeek V3.1 con Qwen3 como si fueran consolas rivales pierde de vista lo esencial: ambas líneas empujan a la industria a pensar en sistemas y no en modelos aislados. El foco se desplaza de “quién saca más puntos en un benchmark” a cómo entrenamos, configuramos y gobernamos ecosistemas capaces de razonar, actuar y aprender con restricciones reales. En esa transición, el modo híbrido de DeepSeek facilita dosificar el pensamiento, y la familia MoEde Qwen3 permite dosificar la capacidad. Una herramienta para probar hipótesis con trazabilidad; otra para escalar con eficiencia. La noticia no es que haya un ganador, sino que hay opciones con personalidad.

En última instancia, lo que está en disputa no es sólo la calidad de una respuesta, sino quién controla el costo del aciertoy con qué grado de explicabilidad se toman decisiones automatizadas que afectan a personas. Si el próximo salto de productividad proviene de agentes fiables capaces de usar herramientas como profesionales, el reto no está en batir un récord efímero, sino en sostener calidad, costos y control cuando esos agentes salgan de la demo y entren a la operación. ¿Estamos listos para medirlos no por lo que “escriben”, sino por lo que hacen y lo que cuestan cuando se vuelven parte invisible de nuestros procesos?

Te puede interesar
figure ai

Figure 02: el humanoide que desafía la frontera entre máquina y compañero

Redacción MBA.
Inteligencia Artificial y Desarrollo.04 de septiembre de 2025

El avance de Figure 02, el robot humanoide de Figure AI, y su integración con el modelo Helix, marca un punto de inflexión en la robótica: ya no se trata de máquinas programadas para tareas específicas, sino de sistemas que aprenden a actuar como nosotros, generalizando lo que ven en diferentes entornos. Este salto promete transformar tanto la industria como la vida cotidiana, pero también abre interrogantes sociales, económicos y culturales de enorme magnitud.

Nano Banana Gemini

Google Nano Banana, lo que todos quieren probar

Redacción MBA.
Inteligencia Artificial y Desarrollo.01 de septiembre de 2025

Google presentó Nano Banana, su nuevo modelo de edición y generación de imágenes por IA integrado en Gemini. No solo cambia la forma en que creamos contenido visual: también está al alcance de cualquiera con un clic. Analizamos su impacto en la industria, sus riesgos y, sobre todo, cómo empezar a usarlo hoy mismo.

ia agua

La IA tiene sed: el costo oculto de agua y energía

Redacción MBA.
Inteligencia Artificial y Desarrollo.22 de agosto de 2025

La inteligencia artificial generativa se consolida como motor de la economía digital, pero detrás de cada respuesta se esconde un costo invisible: millones de litros de agua, gigavatios de energía y toneladas de residuos electrónicos. La revolución que promete transformar el futuro podría estar poniendo en jaque los recursos más críticos de nuestro presente.

Kaggle arena

Kaggle Game Arena: Cuando los modelos de IA entran en el ring

Redacción MBA.
Inteligencia Artificial y Desarrollo.21 de agosto de 2025

Kaggle Game Arena propone un nuevo estándar para medir la inteligencia artificial: en lugar de exámenes estáticos, modelos compitiendo en juegos estratégicos. El debut con el ajedrez reunió a gigantes como Google, OpenAI y xAI, y abrió la puerta a un futuro donde la IA se evalúa como un atleta en la arena: bajo presión, en movimiento y con la mirada pública como juez.

Sam Altman Chatgpt 5 open ai

CHATGPT-5: El nuevo socio experto.

Redacción MBA.
Inteligencia Artificial y Desarrollo.09 de agosto de 2025

OpenAI no solo ha lanzado una nueva versión de su modelo insignia, ha puesto sobre la mesa una herramienta que, como un colega silencioso y brillante, anticipa lo que necesitamos antes de que lo pidamos. Un salto técnico que promete eficiencia sin precedentes, pero que también abre un debate sobre transparencia, confianza y control.

Lo más visto
deepfakes desinformacion

El fin de la verdad: Deepfakes y cómo saber si un contenido es falso

Redacción MBA.
Sociedad y TecnologíaAyer

Vivimos un punto de inflexión: lo que antes funcionaba como confirmación —una foto, un video, un audio, un mensaje— hoy es terreno movedizo. La frontera entre realidad y síntesis no desapareció: se volvió portátil, barata y viral. En Argentina y Sudamérica ya vemos sus efectos en elecciones, estafas cotidianas y reputaciones arruinadas en cuestión de horas. ¿Cómo se reconstruye la confianza cuando cualquiera puede dudarlo todo y cualquiera puede fabricar casi cualquier cosa?

deepseek 3

DeepSeek V3.1 y Qwen3: dos rutas chinas hacia la próxima generación de IA

Redacción MBA.
Inteligencia Artificial y Desarrollo.Hoy

Dos familias de modelos compiten por definir el estándar de la IA aplicada: DeepSeek V3.1, que combina un “modo de pensamiento” razonado con ejecución rápida, y Qwen3 de Alibaba, que multiplica la eficiencia con Mixture-of-Experts y variantes enfocadas a código, razonamiento y traducción. Detrás de las métricas hay una pregunta de fondo: ¿cómo escalamos capacidades sin disparar los costos ni perder control sobre la toma de decisiones?

Ayudanos a seguir generando contenido de calidad. Suscribite gratis y recibí todas las noticias de tecnología y mercados.