
Meta TRIBE v2: la IA que quiere simular el cerebro
Redacción MBA
Meta volvió a correr el límite de lo que entiende por inteligencia artificial, pero esta vez no con un chatbot ni con un generador multimedia. La compañía lanzó TRIBE v2, sigla de Trimodal Brain Encoder, un sistema diseñado para predecir cómo reacciona el cerebro humano frente a imágenes, sonidos, lenguaje y escenas audiovisuales complejas. Según su presentación oficial, el modelo fue entrenado con más de 500 horas de registros de resonancia funcional y datos de más de 700 personas, una base que le permite construir algo parecido a un gemelo digital de la actividad neuronal.
Un modelo para hacer neurociencia en silicio
La promesa de TRIBE v2 no es “leer pensamientos” en tiempo real, una formulación más cercana al sensacionalismo que a la ciencia, sino estimar qué zonas del cerebro se activarían ante determinados estímulos. Meta sostiene que el sistema puede generalizar esas predicciones a sujetos, idiomas y tareas no vistos previamente, un rasgo de zero-shot learning que lo aleja de los modelos clásicos, normalmente restringidos a un solo experimento o a un conjunto muy reducido de participantes. El objetivo estratégico es claro: mover parte de la neurociencia desde el laboratorio físico hacia la simulación computacional, con la expectativa de reducir tiempos, costos y dependencia de campañas extensas de fMRI.
La escala es la noticia
En investigación cerebral, la escala importa tanto como la arquitectura. TRIBE v2 se apoya, de acuerdo con Meta, en la base que le permitió ganar la competencia Algonauts 2025, una referencia dentro del campo del brain encoding, y la expande hacia un sistema reutilizable y multimodal. Distintas coberturas técnicas señalaron además que el salto no es solo cuantitativo sino también espacial: el modelo apunta a predecir actividad con una granularidad mucho mayor que enfoques anteriores, lo que abre la puerta a estudiar organización funcional fina en lugar de promedios regionales gruesos. Si esa mejora se sostiene fuera del anuncio corporativo, Meta habrá convertido una victoria académica en una plataforma de investigación con vocación de estándar.
Qué tan grande es el avance
La empresa afirma que TRIBE v2 supera entre dos y tres veces a métodos previos al modelar respuestas cerebrales ante películas y audiolibros, especialmente en escenarios de generalización sobre individuos no vistos durante el entrenamiento. Esa clase de mejora no es menor: en neurociencia computacional, donde los datos son caros, ruidosos y difíciles de replicar, un aumento de esa magnitud puede cambiar el tipo de preguntas que vale la pena investigar. Más importante aún, el modelo fue liberado junto con paper, código, pesos y demo interactiva, una señal de que Meta busca influencia científica además de impacto mediático.
Las polémicas que ya activó|
El lanzamiento también abrió una discusión incómoda sobre privacidad mental, límites del uso secundario de datos neuronales y el riesgo de que tecnologías pensadas para investigación terminen alimentando futuros sistemas de vigilancia o perfilado biométrico. Esa inquietud se amplifica por el contexto de confianza erosionada de Meta en materia de datos personales: en marzo, la empresa enfrentó una demanda por sus gafas con IA tras reportes de revisión humana de grabaciones sensibles, un antecedente que vuelve más áspero cualquier debate sobre modelos que intentan representar procesos cerebrales. Aunque TRIBE v2 fue presentado bajo la bandera de la ciencia abierta, parte de la crítica pública sostiene que una compañía con el historial de Meta difícilmente podrá separar del todo investigación, negocio e infraestructura de captura de datos.
La oportunidad y la incomodidad
Hay una lectura optimista y otra inquietante. La optimista dice que modelos como TRIBE v2 pueden acelerar hallazgos sobre percepción, integración multisensorial y, a futuro, diagnóstico o tratamiento de trastornos neurológicos al permitir miles de ensayos virtuales donde antes hacían falta meses de escáneres y reclutamiento humano. La inquietante recuerda que toda tecnología que intenta modelar procesos mentales humanos termina abriendo preguntas sobre validación, sesgos biológicos, límites de uso y gobernanza. El punto más relevante no es si la máquina “entiende” el cerebro, sino quién define qué se hace con una simulación cada vez más precisa de cómo percibimos el mundo.


Microsoft y Starlink: una alianza para que la IA no deje atrás al campo

Meta asegura chips de IA de AMD por u$s60.000 millones y aspira al 10% de la firma

Virgin Galactic: la carrera por democratizar (un poco) el turismo espacial

Starlink refuerza su red en Argentina con un nuevo nodo en Chivilcoy

Alerta Global: Cloudflare cae y tumba a ChatGPT y Discord

AlterEgo: La Computadora que Escucha tus Pensamientos

Economía de baja altitud en China: cómo los drones y taxis aéreos impulsan el futuro urbano



Argentina lanza su primer ETF del Merval: el plan de la CNV





