
Anthropic y Google Cloud: la nueva carrera por el poder de la IA
Redacción MBA
La noticia de que Anthropic, uno de los actores más influyentes en el avance de la IA generativa, ha firmado un acuerdo para utilizar hasta un millón de TPUs de Google Cloud marca una inflexión clara en la carrera global por la supremacía tecnológica. Este movimiento no sólo es relevante por sus dimensiones —tens of billions de dólares en inversión y la promesa de sumar más de un gigavatio de potencia en 2026— sino por la manera en que evidencia el cruce entre infraestructura, diversidad tecnológica y poder de mercado.​
Un salto cuántico en potencia: cifras récord y motivaciones detrás del acuerdo
En el corazón del anuncio está una cifra difícil de asimilar: Anthropic podrá acceder a un millón de TPUs de Google, lo que representa el mayor salto de capacidad computacional de su historia. Este despliegue, previsto para estar plenamente operativo en 2026, no sólo servirá para entrenar y desplegar las futuras generaciones de modelos Claude —la suite estrella de Anthropic—, sino que también impulsará nuevas investigaciones en alineación y despliegue responsable de IA a gran escala.​
La decisión de Anthropic está lejos de ser meramente técnica. Según Krishna Rao, CFO de la compañía, la expansión responde a la necesidad de acompañar el desborde de la demanda: en el último año, su base de clientes grandes creció siete veces, superando los 300.000 usuarios empresariales. Para una IA que aspira a estar en el escritorio del trabajador, el servidor del programador y la estrategia del directorio, la fiabilidad, escalabilidad y costo-eficiencia de las TPUs han sido diferenciales, según las voces de ambos socios estratégicos.​
Ironwood, Project Rainier y la guerra silenciosa de los chips
Detrás del acuerdo, hay otra narrativa menos visible: la feroz competencia entre fabricantes de chips de IA. Google presume de su séptima generación de TPUs, Ironwood, optimizada para las nuevas exigencias de inferencia y capaz de operar grandes modelos con eficiencia energética notable, y una arquitectura preparada para gestionar pod de miles de chips interconectados. Cada Ironwood, con 192GB de HBM y un throughput que supera ampliamente a sus antecesores, encarna el esfuerzo de Google por no ceder terreno frente a Nvidia (líder histórico) ni a Amazon, cuyo proyecto Rainier —un mega cluster Trainium dedicado en buena medida a Anthropic— sigue ampliándose en paralelo.​
Anthropic se apoya así en tres eslabones: TPUs de Google, GPUS de Nvidia y Trainium de Amazon, manteniendo acuerdos sólidos con todos sus proveedores y evitando el riesgo de exposición a una sola plataforma. Esta estrategia, casi camaleónica, permite a Claude y sus derivados avanzar sin cuellos de botella tecnológicos ni dependencias críticas.
Las implicaciones industriales, energéticas y de mercado
En un contexto de creciente preocupación por la huella energética de la inteligencia artificial, la magnitud de este acuerdo no pasa desapercibida. El gigavatio adicional de capacidad implica operaciones masivas de centros de datos—y una presión creciente para lograr eficiencia y sostenibilidad en cada joule consumido. Google, por su parte, insiste en que la arquitectura y el software que rodea a sus TPUs permiten recortar pérdidas energéticas y maximizar el uso de recursos, mientras que Amazon apuesta por chips propios cada vez más eficientes, como Trainium 3.​
Bajo la superficie, la diversificación de alianzas es también una señal de alerta para Nvidia, cuya hegemonía en el hardware de IA se ve asaltada tanto por alternativas propietarias como por los modelos de cooperación público-privada que están impulsando gigantes como Amazon y Google. El tablero global de la IA se redibuja así a cada inversión, con startups escalando a “unicornios de infraestructura” y consorcios empresariales capaces de mover agujas en Wall Street, las bolsas asiáticas y el futuro de los mercados laborales.​
¿Y el usuario? La trastienda de la revolución silenciosa
Desde el lado del mercado, lo relevante no son sólo las cifras, sino lo que significan en el plano cotidiano. Como ocurrió con la electrificación, la infraestructura subyacente resulta invisible hasta que deja de funcionar —o hasta que una nueva ola de innovación vuelve obsoletos los estándares pasados. Para pymes, startups y grandes empresas, disponer de modelos como Claude con acceso casi ilimitado a computación avanzada implica una democratización de capacidades antes reservadas a laboratorios de élite o tecnológicas globales.
Sin embargo, este avance trae consigo una paradoja nada menor: la concentración del poder computacional, lejos de democratizar del todo, puede intensificar las barreras de entrada y la desigualdad entre quienes acceden a estos recursos y quienes quedan al margen. El despliegue masivo de infraestructuras de IA será uno de los ejes del debate sobre fiscalidad digital, regulación transnacional y el impacto social de la inteligencia artificial en los próximos años.​
El futuro en disputa
Lejos de ser mera anécdota tecnológica, la expansión de Anthropic en Google Cloud refleja un cruce decisivo entre innovación, poder y dependencia tecnológica. ¿Quién controlará la próxima década: los fabricantes de chips, los desarrolladores de modelos o los usuarios organizados? El nuevo mapa que se dibuja es tanto una promesa de avance como una invitación a preguntarnos por los límites, riesgos y oportunidades de la inteligencia artificial en un mundo en transición veloz, pero aún incierto.


Nemotron: NVIDIA redefine la IA abierta y agentica



Argentina lanza su primer ETF del Merval: el plan de la CNV




