Guillermo David Subreski Román
Una intensa controversia sacude al mundo de la inteligencia artificial tras el enfrentamiento público entre Demis Hassabis, CEO de Google DeepMind, y Yann LeCun, responsable científico de IA en Meta, sobre la propia existencia del concepto de inteligencia general. La disputa, avivada en redes sociales y podcasts, reabrió un viejo debate sobre si es posible -o incluso válido- hablar de una inteligencia “general” que reproduzca la versatilidad cognitiva humana. LeCun, uno de los padres del aprendizaje profundo y ganador del Premio Turing, desestimó la noción calificándola de “tontería completa”, argumentando que tanto los humanos como las máquinas son sistemas eminentemente especializados. “No existe la inteligencia general”, declaró, sosteniendo que la mente humana no es universal sino un conjunto de capacidades entrenadas y enfocadas en tareas específicas.
Su comentario se produjo en el podcast The Information Bottleneck y generó respuesta inmediata del ecosistema tecnológico, incluyendo una breve pero contundente intervención de Elon Musk, quien escribió: “Demis tiene razón”.
Choque de visiones
En contraposición, Hassabis defendió la utilidad del concepto distinguiendo entre “inteligencia general” y “universal”. Según explicó, la primera describe sistemas capaces de aprender y adaptarse a una amplia gama de tareas, mientras que la segunda -un ideal teórico imposible en la práctica- implicaría un conocimiento sin límites. “El cerebro humano es un sistema de aprendizaje extremadamente general”, señaló Hassabis, comparando tanto a las redes neuronales actuales como a la mente humana con “máquinas de Turing aproximadas” capaces de aprender cualquier tarea computable dada suficiente información y tiempo. Para reforzar su tesis, recordó que incluso si las personas no juegan al nivel de los motores de ajedrez, es extraordinario que fueran capaces de inventar el juego, la ciencia moderna y la tecnología aeronáutica.
Detrás del cruce semántico late un diferendo estratégico: mientras Hassabis, Sam Altman (OpenAI) y Ben Mann (Anthropic) sostienen que la AGI podría alcanzarse antes de 2030, LeCun alerta contra el “delirio” de quienes prevén avances inmediatos. Pero más allá de los plazos, el choque expone una grieta filosófica sobre qué significa realmente “inteligencia” y hasta qué punto las máquinas podrán reproducir -o trascender- las capacidades humanas.
En un contexto donde los mayores laboratorios del mundo compiten con inversión multimillonaria y riesgo existencial, el debate deja claro que no solo está en juego quién liderará la próxima revolución tecnológica, sino también cómo entender la naturaleza misma del pensamiento.








