A mediados de la década de 1960, el matemático y criptógrafo de Bletchley Park I. J. Good propuso un experimento mental que desde entonces se ha convertido en una especie de evangelio secular en Silicon Valley. Si construyéramos una “máquina ultrainteligente”, argumentó, esta podría diseñar máquinas aún mejores, desencadenando una explosión de inteligencia que dejaría muy atrás la cognición humana. Por lo tanto, la primera máquina de este tipo sería “la última invención que el ser humano necesitaría hacer”.
Hoy, esa profecía, que alguna vez perteneció al terreno de la ciencia ficción, se ha convertido en el objetivo central de las instituciones más poderosas del mundo. Demis Hassabis, de Google DeepMind, por ejemplo, habla de “resolver la inteligencia” para “resolver todo lo demás”. Es una narrativa seductora. Pero incluso si asumimos, por el bien del argumento, que los sistemas futuros pueden aprender, experimentar y generar soluciones genuinamente novedosas muy por encima de los modelos actuales, la tesis de la última invención sigue basándose en múltiples supuestos cuestionables.
El primero es que la innovación se asemeja a una carrera sin fricciones desde la idea hasta el impacto. No es así. Más bien, el proceso de descubrimiento es como una cadena, cuya resistencia depende de su eslabón más débil.

Estos eslabones débiles definen gran parte del progreso humano. En 1986, el transbordador espacial Challenger se desintegró 73 segundos después del despegue, no por una falla en sus motores de clase mundial o en su software, sino porque un pequeño sello de goma falló al ser expuesto a temperaturas atmosféricas frías (como lo expuso brillantemente el físico ganador del Nobel Richard Feynman durante las audiencias sobre el desastre). El “O-ring” se ha convertido desde entonces en una metáfora de los cuellos de botella críticos que pueden hundir incluso a los sistemas más sofisticados.
El descubrimiento funciona de la misma manera. La inteligencia artificial general (AGI), generalmente entendida como un modelo capaz de realizar cualquier tarea cognitiva, puede acelerar drásticamente la investigación médica en etapas tempranas, pero si no puede gestionar ensayos clínicos, producir a escala o asegurar aprobación regulatoria, el “avance” nunca se convierte en una invención que mejore vidas. Cuando las primeras etapas del descubrimiento se automatizan, el rol humano no desaparece; simplemente se desplaza hacia los cuellos de botella restantes, donde el juicio, el conocimiento tácito y el saber práctico son lo que realmente importa.
Esta complicación nos lleva a otra aún mayor: la AGI no solo tendría que superar a los humanos; tendría que superar a humanos que usan AGI. Para que la narrativa de la última invención se sostenga, las personas tendrían que volverse innecesarias incluso como socios o supervisores de las IA.
Pero la inteligencia no es una cantidad: “más” no reemplaza simplemente a “menos”. Incluso una AGI muy capaz podría ser diferente en naturaleza a un humano: excepcional en velocidad y detección de patrones, pero frágil frente a casos raros. Diferentes fortalezas implican diferentes puntos ciegos, y cuando estos no se superponen, la combinación del juicio humano y el de la máquina seguirá superando a cualquiera de los dos por separado.
El juego de Go ofrece un recordatorio útil. Después de que AlphaGo de Google DeepMind venciera a Lee Sedol por 4-1 en 2016, su superioridad sobre los jugadores humanos parecía incuestionable. Pero en 2023, investigadores demostraron que, al llevar a los mejores motores a posiciones inusuales fuera de su entrenamiento, un aficionado humano con habilidades computacionales modestas podía derrotar de forma confiable a los mejores programas. La aparente supremacía puede ocultar debilidades sistemáticas, y es precisamente ahí donde el aporte humano añade más valor.
Un tercer problema tiene que ver con el conocimiento en sí. La tesis de la última invención asume que toda la información relevante puede codificarse, pero esto rara vez es cierto. Pocas invenciones cambiaron tanto el mundo como el Ford Model T, que transformó el automóvil en un producto de consumo masivo. Pero el logro de Henry Ford no fue solo un nuevo diseño. Más importante fue su enfoque para organizar la producción.
Por eso, delegaciones de Italia, Alemania, la Unión Soviética y otros lugares viajaron para estudiar las fábricas de Ford de primera mano. El conocimiento crucial no podía extraerse de ningún plano. Estaba incorporado en rutinas, secuencias, herramientas y en la resolución cotidiana de problemas por parte de quienes trabajaban en la planta. De manera similar, el sistema de producción ajustada de Toyota ha sido difícil de replicar porque está integrado en rutinas humanas y cultura, no en un esquema técnico.
Más inteligencia no supera automáticamente el “problema del conocimiento”: el hecho de que lo que hace funcionar a sistemas complejos es información dispersa, local y, a menudo, no expresada. Si el conocimiento fuera perfectamente transferible, las industrias no se concentrarían tanto en lugares como Silicon Valley o la City de Londres.
Los entusiastas de la IA podrían responder: “Bien, pongamos sensores, cámaras y micrófonos en todas partes, y codificaremos el conocimiento faltante”. Pero esta estrategia supone que las personas monitoreadas compartirán abiertamente lo que saben, y además ignora la política y la ley. Registrar “todo, en todas partes” chocaría con el Reglamento General de Protección de Datos de la Unión Europea, que se ha convertido en un modelo global de regulación de la privacidad.
Además, la Ley de IA de la UE no otorga carta blanca a los despliegues intensivos en vigilancia necesarios para capturar el conocimiento humano a gran escala. Y aun si lo hiciera, no se puede asumir que todo el saber humano, y mucho menos el juicio, pueda digitalizarse con facilidad.
En última instancia, la AGI puede automatizar la inteligencia. Pero el proceso de invención depende de algo más. A menudo, la parte difícil no es idear una solución, sino llevarla a la práctica. Se necesita conocimiento local, rutinas confiables, cadenas de suministro y capacidad institucional para que algo funcione de manera consistente en el mundo real. Más inteligencia no produce automáticamente estos complementos.
La AGI cambiará el descubrimiento al abaratar la experiencia y acelerar la experimentación. Pero “la última invención de la humanidad” es una afirmación mucho más fuerte. Para que fuera cierta, necesitaríamos un mundo donde el conocimiento práctico sea completamente transferible por canales digitales y donde la responsabilidad pueda automatizarse junto con la cognición. Ese no es el mundo en el que vivimos.
A medida que la inteligencia se abarata, los activos que concentran mayor valor cambiarán. La ventaja será para quienes puedan entregar resultados. Los humanos no se están volviendo redundantes; se están convirtiendo en los cuellos de botella más decisivos del mundo.
---
Carl Benedikt Frey, profesor asociado de IA y Trabajo en el Instituto de Internet de Oxford y director del Programa del Futuro del Trabajo en la Oxford Martin School, es autor, más recientemente, de How Progress Ends: Technology, Innovation, and the Fate of Nations (Princeton University Press, 2025).