El escenario fue propicio: la Indian AI Impact Summit, realizada del 16 al 21 de febrero pasados en Nueva Delhi, la capital de India, fue la primera cumbre global de IA organizada en un país del Sur Global.
Participaron delegaciones de más de 100 países y 20 organizaciones internacionales, más de 20 jefes de Estado, 60 ministros y altos ejecutivos de importantes empresas de IA como Google, OpenAI, Anthropic, Microsoft y Nvidia.
Se realizaron compromisos financieros por más de $200.000 millones para desarrollo de infraestructura, modelos de base, equipos y aplicaciones de inteligencia artificial (IA) en los próximos años. Y las transmisiones alcanzaron más de 900.000 visualizaciones.
Pero nada de eso fue lo que llamó la atención. Lo que nadie dejó de mencionar fueron las declaraciones de Sam Altman, CEO de OpenAI.
“Quizás estemos a solo un par de años de las primeras versiones de la verdadera superinteligencia”, afirmó Altman.
La superinteligencia artificial (ASI, por sus siglas en inglés) es una inteligencia artificial que supera ampliamente a la humana en razonamiento, creatividad, toma de decisiones, aprendizaje, planificación estratégica, innovación científica, inteligencia social y más.
Entre las organizaciones que realizan investigaciones de la ASI se encuentran, además de OpenAI, DeepMind de Google, Anthropic, Machine Intelligence Research Institute y el Center for Human-Compatible AI.

¿Qué es y qué hace?
La ASI simplemente supera lo observado en el campo de la IA y a las personas. “Es una inteligencia que excede el desempeño cognitivo humano en prácticamente todos los dominios de interés”, según el filósofo Nick Bostrom, uno de sus principales teóricos.
No es simplemente una IA que responde preguntas o genera texto, como los actuales chatbots de Gemini, Copilot, Perplexity o ChatGPT. Estas plataformas corresponden a la IA Avanzada (junto con sistemas de recomendación, agentes IA y soluciones de visión artificial), donde el razonamiento, la autonomía y el autoaprendizaje son “limitados”.
A diferencia de la IA generativa que conocemos hoy, la ASI sería capaz por sí misma de descubrir nuevas leyes científicas, diseñar tecnologías desconocidas, mejorar su propio diseño, resolver problemas complejos globales y tomar decisiones estratégicas superiores a cualquier humano o grupo humano.
Podría descubrir curas para enfermedades como el cáncer o Alzheimer, crear nuevos materiales revolucionarios, resolver problemas físicos aún sin respuesta, diseñar sistemas energéticos ultraeficientes, crear nuevas formas de computación, optimizar redes globales, predecir crisis y diseñar políticas públicas efectivas. Y, sobre todo, sería capaz de mejorar su propio código, creando versiones cada vez más inteligentes, con la llamada automejora recursiva.
Para llegar a la ASI falta pasar por la llamada Inteligencia Artificial General (AGI), que sería equivalente a la inteligencia humana, capaz de aprender cualquier cosa, razonar como persona y adaptarse a cualquier dominio.
Pero cada una tendría un espectro de riesgos más amplio desde el punto de vista existencial, según Toby Ord, un investigador senior de la Universidad de Oxford.
Sobre cuándo estarán no hay consenso. Muchos expertos esperan la AGI para la década entre 2030 y 2040.
Luego vendría la superinteligencia o ASI. Hay quienes piensan que tardaría décadas e incluso siglos. Pero Altman dijo que está a la vuelta de la esquina. No es nada, si pensamos además que ya llevamos cuatro años desde el lanzamiento de ChatGPT.

¿Dónde estamos?
Para imaginar qué es la superinteligencia, piense en la interacción que usted tiene con los actuales bots de IA basados en los grandes modelos de lenguaje (LLM).
ChatGPT, Gemini o Copilot no tienen conciencia, no tienen intenciones, no tienen deseos y no “piensan” como humanos. La ASI, sí.
La IA actual es como una calculadora extremadamente sofisticada. La ASI sería una inteligencia superior a toda la humanidad, con una capacidad superior a todos los humanos combinados para resolver problemas de ciencia, ingeniería, matemáticas, medicina, diseño o programación.
Claramente, en la actualidad estamos en una fase de transición con sistemas de IA cada vez más capaces. ChatGPT, Gemini, Claude, Perplexity y Copilot son herramientas avanzadas. Además, su desarrollo fue gradual: ChatGPT pasó de GPT 1 como un buen bot a GPT 4 como un bot extremadamente capaz entre 2018 y 2022.
En la actualidad estamos en GPT 5, un modelo más avanzado para los problemas más complejos, que decide rápidamente qué herramientas usar en función del tipo de conversación, la complejidad y la intención explícita del usuario.
Estas plataformas o modelos de IA superan a las personas en tareas específicas, para resolver problemas en medicina, escribir software y optimizar algoritmos, generar mundos virtuales y simulaciones, descubrir mejoras técnicas y procesar enormes cantidades de datos para análisis legal, investigación o auditoría.
Pero todavía cometen alucinaciones o errores graves (los mejores modelos obtienen 48% de precisión), inventan hechos y se equivocan en procesos de razonamiento.
Asimismo, carecen de conciencia, comprensión de la realidad e intención, pues son simplemente sistemas estadísticos que buscan las respuestas más probables.
Además, requieren entrenamiento previo y tienen limitaciones en una serie adicional de tareas y para asumir procesos completos.
Aun así, estas plataformas nos colocan en camino hacia la AGI y hacia la superinteligencia.
Avances y riesgos
La superinteligencia podría ser el mayor avance en la historia humana o el mayor riesgo, si pensamos en sus enormes capacidades y en todo lo que hacen las empresas y los gobiernos con la IA actual. Dependerá de cómo se diseñe y se controle.
La expectativa es que la ASI surja repentinamente como un big bang o explosión de la IA, un concepto de Bostrom adoptado por OpenAI y DeepMind.
Esa posibilidad va de la mano de varias condiciones que ya se están dando: mayor poder computacional (cada vez más barato y potente), mejores algoritmos y mayores volúmenes de datos masivos (Internet, simulaciones y datos sintéticos).
Para que tengamos una idea, se estima que la ASI alcanzaría un coeficiente intelectual de 10.000 en 2031, con capacidad de lograr miles de descubrimientos por día al correr millones de copias en paralelo, trabajar las 24 horas los 7 días de la semana y pensar a “velocidad electrónica” para resolver problemas en campos como el cambio climático, las enfermedades o el progreso humano debido a que es extremadamente competente.
“Para finales de 2028, la mayor parte de la capacidad intelectual mundial podría residir más dentro de los centros de datos que fuera de ellos”, dijo Sam Altman en la India. “Una superinteligencia podría desempeñar un mejor trabajo como CEO de una gran empresa. Sin duda, mejor que yo”.
