Colabora Guillermo David Subreski Román
El TRImodal Brain Encoder v2, desarrollado por el equipo Fundamental AI Research (FAIR) de Meta, se basa en una arquitectura que obtuvo el primer lugar en la competencia de codificación cerebral Algonauts 2025, superando a más de 260 equipos. El modelo fue entrenado con registros de fMRI de más de 700 voluntarios que vieron películas, escucharon podcasts y leyeron texto en múltiples idiomas mientras estaban dentro de un escáner.
TRIBE v2 representa un escalamiento dramático respecto a su predecesor: el TRIBE original se basaba en datos de solo cuatro sujetos y aproximadamente 80 horas de registros, prediciendo actividad en alrededor de 1.000 parcelas cerebrales. La nueva versión utiliza más de 1.000 horas de datos de fMRI de 720 participantes y predice respuestas en aproximadamente 70.000 vóxeles cerebrales, lo que representa un aumento de aproximadamente 70 veces en la resolución espacial.
El flujo de trabajo de tres etapas del modelo extrae características a través de codificadores preentrenados separados para video, audio y texto, luego las fusiona mediante un módulo de integración basado en transformadores antes de mapear el resultado en la superficie cortical.
Neurociencia In Silico
Una de las capacidades centrales del modelo es lo que los investigadores llaman “predicción de disparo cero” (zero-shot prediction): la habilidad de pronosticar respuestas cerebrales para nuevos individuos, idiomas no vistos y tareas completamente nuevas sin necesidad de reentrenamiento. Meta reportó mejoras de precisión de dos a tres veces superiores a los métodos anteriores, particularmente para sujetos que el modelo nunca había encontrado durante el entrenamiento.
Esto abre la puerta a lo que Meta describe como “experimentación in silico”. Cuando se le proporciona una oración, TRIBE v2 puede predecir la actividad de resonancia magnética funcional (fMRI) en las regiones establecidas de procesamiento del lenguaje, reproduciendo patrones típicamente observados en estudios con humanos. Este enfoque podría permitir a los investigadores probar hipótesis computacionalmente antes de comprometerse con costosos ensayos en humanos: una sesión de fMRI puede costar miles de dólares y requiere aprobación de la junta de revisión institucional.
Publicación abierta para investigadores
Meta ha publicado los pesos del modelo, el código base, el artículo de investigación y una demostración interactiva bajo una licencia CC-BY-NC-4.0. En su anuncio oficial, la compañía presentó la publicación como un paso hacia la aplicación de conocimientos sobre el cerebro para construir mejor IA y acelerar los avances en el diagnóstico y tratamiento de enfermedades neurológicas.
Los modelos de codificación cerebral aún explican solo una fracción modesta de la varianza en los datos de fMRI, como han señalado varios investigadores.
Que TRIBE v2 resulte útil más allá de las pruebas académicas dependerá de lo que encuentren los científicos independientes cuando lo ejecuten con sus propios datos, pero con el conjunto de datos de codificación cerebral más grande disponible públicamente y un código base abierto, la comunidad de neurociencia ahora cuenta con nueva infraestructura para poner a prueba esa cuestión.








