Gigantes tecnológicos invierten miles de millones de dólares en esta competencia de la inteligencia artificial (IA), con la mira puesta en el siguiente gran hito: la superinteligencia, una forma de IA que superaría con creces la inteligencia humana.
Figuras clave de la industria, como Sam Altman, director general de OpenAI, proyectaron que este umbral de superinteligencia podría alcanzarse en un plazo tan corto como cinco años. Esta perspectiva de un avance tan rápido y potencialmente transformador encendió un debate global sobre los riesgos existenciales que podría conllevar.
La preocupación central radica en la posibilidad de crear una inteligencia superior sin los mecanismos de control adecuados, lo que podría tener consecuencias imprevistas y catastróficas. Ante la ausencia de un marco regulatorio internacional consensuado, crece la presión para establecer límites antes de que sea demasiado tarde.
Este miércoles, una coalición diversa y de alto perfil, que incluye a pioneros de la IA, líderes empresariales, figuras políticas y celebridades, formalizó un llamado global para detener temporalmente el desarrollo de esta tecnología hasta que existan garantías de seguridad.
Más de 700 científicos, personalidades políticas y famosos, entre ellos el príncipe Enrique, pidieron que se ponga fin al desarrollo de una inteligencia artificial que pueda superar las capacidades humanas.
“Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que no exista un consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”, indica la página de la iniciativa lanzada por Future of Life Institute, una organización sin ánimo de lucro con sede en Estados Unidos que advierte sobre los efectos nocivos de la IA.
Entre los firmantes se encuentran varios creadores de la IA moderna, como Geoffrey Hinton, Nobel de Física en 2024, Stuart Russell, profesor de informática en la Universidad de California en Berkeley, y Yoshua Bengio, profesor de la Universidad de Montreal.
La lista también incluye personalidades destacadas del mundo de la tecnología como Richard Branson, fundador del grupo Virgin, y Steve Wozniak, cofundador de Apple; figuras políticas como Steve Bannon, exasesor del presidente estadounidense Donald Trump, y Susan Rice, consejera de seguridad nacional bajo el mandato de Barack Obama.
También firman responsables religiosos como Paolo Benanti, asesor del papa y principal experto del Vaticano en IA, y famosos como el cantante estadounidense will.i.am o el príncipe Enrique y su esposa Meghan Markle.

La mayoría de las grandes empresas de la IA buscan desarrollar la inteligencia artificial general (IAG), una etapa en la que esta tecnología igualaría todas las capacidades intelectuales de los humanos, pero también la superinteligencia, que iría más allá.
Para Sam Altman, director general de OpenAI, empresa creadora de ChatGPT, el umbral de la superinteligencia podría alcanzarse en un plazo de cinco años, según dijo en setiembre.
“Da igual que sea dentro de dos o quince años, construir algo así es inaceptable”, declaró a AFP Max Tegmark, presidente de Future of Life Institute, para quien las empresas no deberían trabajar en este tipo de proyectos “sin ningún marco regulatorio”.
“Se puede estar a favor de la creación de herramientas de inteligencia artificial más potentes, por ejemplo, para curar el cáncer, y al mismo tiempo estar en contra de la superinteligencia”, añadió.