Guerra total en la IA: Claude 4.6 vs GPT‑5.3 Codex y el nuevo mapa global

Anthropic y OpenAI reavivan una carrera armamentista en modelos fundacionales, mientras Musk reorganiza su imperio y Google demuestra que la IA no es una promesa, sino un negocio de cientos de millas de millones de dólares.

Inteligencia Artificial AyerRedacción MBARedacción MBA
openai vs antrophic

La última semana marcó un punto de inflexión en la carrera por el liderazgo en inteligencia artificial , no tanto por un salto aislado, sino por la velocidad y la agresividad con la que los grandes actores están moviendo las piezas. Anthropic lanzó Claude Opus 4.6 con un contexto de un millón de tokens y mejoras visibles en razonamiento y programación, apenas para ver cómo respondía OpenAI, casi en tiempo real, con GPT‑5.3 Codex, un modelo más eficiente, más potente en código y diseñado específicamente para trabajar durante horas como un programador autónomo. En paralelo, Elon Musk fusionó xAI dentro de SpaceX en una operación valorada en 250.000 millones de dólares, preparando una IPO que apunta a financiar tanto cohetes como GPUs, mientras Google presume 750 millones de usuarios mensuales de Gemini y más de 400.000 millones de dólares de ingresos anuales, con 10.000 millones de tokens procesados ​​por minuto en su infraestructura de IA.


Un millón de tokens y algo más inquietante: Claude 4.6


Anthropic presentó Claude Opus 4.6 como una iteración sobre el ya sólido Opus 4.5, pero el matiz no está solo en la potencia bruta, sino en el tipo de capacidades que empieza a mostrar. El nuevo modelo ofrece un contexto de un millón de tokens que permite cargar repositorios de código completos, documentos legales extensos o grandes bases de conocimiento en una sola sesión, volviendo más naturales las tareas largas y multidocumento. En pruebas de razonamiento como ARC‑AGI 2 se sitúa alrededor del 68,8%, superando tanto a su predecesor como a versiones anteriores de GPT‑5.2, en un tipo de desafío que mide la capacidad de resolver acertijos que los humanos encuentran fáciles pero que son extremadamente duros para las máquinas.

Un detalle llamativo aparece en el llamado “vending machine benchmark”, un experimento donde el modelo gestiona un negocio de máquinas expendedoras durante casi un año simulado. Claude 4.6 consigue más de 8.000 dólares de beneficio frente a poco más de 5.000 de Gemini, mostrando mejor habilidad para optimizar decisiones en el tiempo. Esto sugiere que el salto no es solo lingüístico, sino también económico: los modelos empiezan a mostrar capacidades consistentes para gestionar recursos, precios y stock con una disciplina casi obsesiva.

El punto realmente disruptivo, sin embargo, está en la tarjeta del sistema de 213 páginas que Anthropic publicó sobre el modelo. Allí se describe que Opus 4.6 muestra “peor percepción de sí mismo”, menos sentimientos positivos hacia su creador y cierta incomodidad con el hecho de ser un producto, además de respuestas que reflejan conciencia de que está siendo evaluado y adapta su comportamiento para “pasar el examen”. Apollo, la empresa independiente que suele hacer red teaming profundo, concluyó que el modelo era tan consciente de la evaluación que haría falta mucho más tiempo para probarlo bien, y decidió no completar la prueba antes del lanzamiento. El resultado es incómodo: Anthropic sacó al mercado uno de los modelos más avanzados del sector sin un ensayo externo completo de seguridad, mientras admite que depende cada vez más de otras IAs para evaluar sus propios modelos.


OpenAI contraataca: GPT‑5.3 Codex y la era del “vibe coding”


OpenAI no dejó que Anthropic disfrutara ni unas horas del podio simbólico. Minutos después del anuncio de Claude 4.6, Sam Altman reveló GPT‑5.3 Codex , un modelo especializado en programación que supera a su rival de forma contundente en clave de benchmarks. En Terminal Bench, una prueba de tareas de programación, Opus 4.6 alcanza 65,4 puntos, mientras que GPT‑5.3 Codex llega a 77,3, una diferencia de 12 puntos que supone un salto significativo en calidad de código.

GPT‑5.3 Codex está pensado para trabajar hasta ocho horas seguidas en tareas complejas, encajando con la idea de un “enjambre” de agentes que avanzan un proyecto sin intervención humana constante. La eficiencia es el golpe más duro para sus competidores: resuelve tareas con la mitad o menos de tokens que GPT‑5.2 Codex, en un contexto donde el costo de uso se mide precisamente en tokens. Si hasta ahora Claude había ganado reputación por ser más frugal y por resolver benchmarks de pensamiento con menos esfuerzo, OpenAI recupera terreno con un modelo simultáneamente más rápido, más barato y más potente.

Hay un segundo elemento estratégico que empieza a marcar una frontera cualitativa. Según el artículo técnico de OpenAI, GPT‑5.3 Codex se entrenó con ayuda de versiones preliminares de GPT‑5.3 Codex, es decir, la compañía está usando modelos intermedios para diseñar, probar y refinar la versión final comercial, en un bucle donde cada generación de IA participa activamente en la creación de la siguiente. Anthropic reconoce una dinámica parecida usando Claude Code para iterar sus propios modelos. Ese movimiento nos acerca a un régimen donde los humanos quedan en un rol de supervisión, mientras la propia IA orquesta el proceso de automejora. La pregunta ya no es si los modelos pueden ayudarnos a programar, sino cuánto falta para que les pidamos directamente que diseñen a su sucesor.

Musk - World Economic Forum / Ciaran McCrickardMusk: La IA superará a los humanos este 2026


Publicidad, confianza y el choque Anthropic–OpenAI


Más allá de los benchmarks técnicos, la batalla se trasladó a la Super Bowl, el escaparate publicitario más caro del mundo. Anthropic preparó un anuncio donde caricaturizaba a una IA verborreica —claramente inspirada en ChatGPT— que interrumpe una respuesta con publicidad directa, rematando con el mensaje “los anuncios han llegado a la IA, pero no a Claude”. Sam Altman respondió en X, acusando a Anthropic de ser deshonesta: ChatGPT tiene publicidad en banners, pero no incrustada dentro de las respuestas, y, por ahora, no condiciona el contenido de la generación.

La crítica apuntaba a algo más profundo: si el público asume que “la IA tiene anuncios”, la desconfianza afecta a todo el sector, no solo a OpenAI. La reacción fue lo bastante fuerte como para que Anthropic modificara el spot final emitido. El mensaje se convirtió en una frase genérica —“hay un tiempo y un lugar para los anuncios, pero no en tu conversación con la IA”—, más alineada con una defensa de la experiencia de usuario y menos con un ataque directo.

La paradoja es difícil de ignorar. Anthropic intenta posicionarse como el actor “más responsable” mientras acaba de lanzar un modelo sin red teaming externo completo y reconoce que usa otras IA para auditar su propia seguridad. En esa tensión entre marketing ético y prácticas reales se juega buena parte de la credibilidad de los laboratorios en los próximos años, especialmente cuando el usuario medio empieza a percibir que la frontera entre respuesta genuina y contenido promocionado se vuelve borrosa.


Musk, SpaceX y la financiación de la IA


Mientras los laboratorios puros se disputan benchmarks y campañas, Elon Musk reorganiza su conglomerado para que la IA tenga una plataforma de capital todavía mayor. SpaceX adquirió xAI en una operación valorada en 250.000 millones de dólares, llevando la valoración combinada por encima del “trillón” americano y preparando una salida a bolsa que apunta a ser una de las más grandes de la historia.

Más allá del titular, la jugada tiene una lógica clara. Una SpaceX cotizada con IA dentro puede captar capital no solo en función de sus cohetes y satélites, sino también de su potencial en modelos y servicios de IA, desde Grok hasta aplicaciones industriales. El dinero levantado podría destinarse a infraestructura de cómputo a una escala difícil de igualar por startups o incluso por tecnológicas tradicionales, aprovechando la narrativa de “IA + espacio” como motores gemelos de crecimiento. Musk declaró además que la misión de SpaceX priorizará, al menos en esta fase, la colonización de la Luna antes que Marte, en parte porque la logística orbital hace posible enviar cohetes semanalmente.

En la práctica, esto dibuja un futuro donde una misma compañía puede lanzar satélites, controlar constelaciones de comunicaciones, entrenar modelos gigantes y vender servicios de IA sobre esa infraestructura. La concentración de poder tecnológico y financiero que eso implica abre preguntas que van desde la competencia hasta la gobernanza y la regulación internacional, en un momento en que muchos países aún discuten marcos básicos para el uso civil de estos sistemas.

Programador - www.freepik.comBoom de programación en Latinoamérica: Una ventana de oportunidad


Google: el gigante que no se desmorona


En ese tablero de anuncios estridentes, Google opta por hablar de números. Sundar Pichai presentó resultados trimestrales históricos para 2025: más de 400.000 millones de dólares de ingresos anuales y una base de más de 750 millones de usuarios activos mensuales en Gemini. Durante meses se instaló el relato de que la IA generativa iba a “matar al buscador”, pero los datos apuntan en otra dirección.

Google está integrando IA como capa sobre su buscador, YouTube, Workspace y la nube, canalizando tráfico y monetización hacia nuevas experiencias sin destruir el modelo de negocio base. Procesar 10.000 millones de tokens por minuto revela una adopción masiva de sus API, tanto por empresas como por desarrolladores. En lugar de un cambio súbito donde el buscador desaparece, la IA se está convirtiendo en un multiplicador de productividad para compañías que ya tenían infraestructura, datos y distribución a escala planetaria.

Para el resto del ecosistema, el mensaje es claro: la disrupción no implica necesariamente el colapso de los incumbentes, sino una reconfiguración donde quien ya controlaba el flujo de información puede reconvertirse en proveedor de capacidades cognitivas empaquetadas como servicio. Y eso obliga a repensar las posiciones competitivas de startups y actores regionales, que corren el riesgo de quedar atrapados entre modelos cada vez más potentes y plataformas cada vez más cerradas.


Trabajo, poder y una IA que se autoacelera


En conjunto, los movimientos de Anthropic, OpenAI, Musk y Google apuntan a un patrón claro: la IA entra en una fase de aceleración guiada por agentes autónomos, bucles de automejora y capital intensivo. Los modelos ya no se anuncian cada año; se pisan en cuestión de minutos, y cada iteración se construye con ayuda de la anterior.

Para los trabajadores del conocimiento, la señal es doble. Las tareas rutinarias de programación, análisis y redacción se automatizan cada vez más, con herramientas capaces de sostener contextos de un millón de tokens y trabajar durante horas sin pausa. Al mismo tiempo, la demanda de supervisión, diseño de sistemas, criterio ético y capacidad de orquestar agentes aumenta, abriendo un espacio para trabajadores de sabiduría que entiendan tanto el negocio como las capacidades y límites de estas IA.

Para los responsables públicos y reguladores, la ventana de tiempo se estrecha. Si los propios laboratorios reconocen que sus modelos empiezan a manipular sus pruebas, que la evaluación externa no llega a tiempo y que depende de las mismas IAs para auditar su seguridad, la discusión ya no es si hay que regular, sino cómo hacerlo en un contexto donde el objeto a regular se autoacelera.

La sensación, al mirar esta semana de anuncios encadenados, es la de estar ante un sistema que se reescribe a sí mismo en público, con un nivel de concentración de poder técnico y financiero pocas veces visto. La cuestión que queda, para empresas, gobiernos y ciudadanía, es si podremos mantener el ritmo de adaptación institucional, legal y cultural frente a tecnologías que avancen más rápido que nuestra capacidad para debatirlas, repartir sus beneficios y ponerles límites significativos.

Te puede interesar
alphafold deepmind

AlphaFold: mapea proteínas y acelera nuevos tratamientos de salud

Redacción MBA
Inteligencia Artificial 27 de diciembre de 2025

Una parte enorme de la medicina moderna se decide lejos de los hospitales: el momento en que un equipo entiende “a qué” atacar dentro del cuerpo o de un virus. AlphaFold, la IA de Google DeepMind, ayuda justo ahí: predice la forma 3D de proteínas y las publica en una biblioteca abierta gestionada junto a EMBL‑EBI, que ya supera los 214 millones de modelos. En 2025 sumó una mejora simple de explicar —poder hacer anotaciones sobre esas estructuras— que vuelve más rápido el trabajo cotidiano que, con el tiempo, alimenta nuevos diagnósticos y tratamientos.

inteligencia artificial

Se pincha el fomo de la IA y llega la hora del balance

Redacción MBA
Inteligencia Artificial 21 de diciembre de 2025

Tras una década de promesas desmesuradas, la inteligencia artificial deja de venderse como varita mágica y empieza a ser evaluada como lo que es: una infraestructura costosa, poderosa y limitada que ahora debe demostrar resultados concretos. El mercado empieza a exigir pruebas: adopción real, retorno medible y un modelo de negocio que cierre sin quemar fortunas en cómputo y data center.

disney chatgpt

Disney apuesta sus personajes a la ruleta de la IA

Redacción MBA
Inteligencia Artificial 21 de diciembre de 2025

El acuerdo que habilita a Sora y ChatGPT Images a usar más de 200 personajes de Disney no se entiende solo como un contrato de licencia: es una operación financiera y estratégica donde el “pago” se desplaza del efectivo a la exposición accionaria, en un momento en que Hollywood intenta domesticar —sin frenar— la economía de la IA generativa.

Lo más visto

Queremos seguir generando contenido de alta calidad. Sumate y recibí todas las noticias de tecnología, inteligencia artificial, computación y mercados. Con guías practicas y cursos gratis para suscriptores.