La alarma social con respecto al rápido avance de la inteligencia artificial (IA) ha dejado de ser un debate meramente técnico para convertirse en una preocupación global. Y como muestra de ello, más de 800 personalidades de los ámbitos científico, político, religioso y cultural —entre ellas los pioneros de la IA Geoffrey Hinton y Yoshua Bengio, el cofundador de Apple Steve Wozniak, el exestratega de Donald Trump Steve Bannon, o el príncipe Harry y Meghan Markle— han firmado una carta abierta que pide detener el desarrollo de la ‘superinteligencia’, una forma por ahora hipotética de IA capaz de superar al ser humano en todas las tareas cognitivas.
El documento reúne a voces provenientes de casi todos los rincones del espectro ideológico: desde conservadores como Steve Bannon (ex jefe de gabinete de Donald Trump) y Glenn Beck hasta progresistas como Susan Rice (ex embajadora de EE. UU. ante la ONU en tiempos de Obama), o figuras religiosas como el monje y asesor del Papa en temas de IA, Paolo Benanti. También se sumaron cinco premios Nobel, el empresario Richard Branson o el actor Stephen Fry.
La iniciativa, impulsada por el Future of Life Institute (FLI), no pide una pausa simbólica: reclama una prohibición total del desarrollo de sistemas superinteligentes, que no se levante hasta que exista un «amplio consenso científico» sobre su seguridad y un respaldo público constatable.
La brecha entre la sociedad y las grandes tecnológicas
La carta coincide con la publicación de un informe del Future of Life Institute, que muestra un descontento masivo entre los estadounidenses con la velocidad del desarrollo de la IA, y concluye que existe un «desconexión clara entre la misión declarada de las principales empresas de IA y los deseos del público».
El físico Anthony Aguirre, director ejecutivo del FLI, ha sostenido en declaraciones a la NBC que el problema no es sólo técnico, sino también democrático:
«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».
Así, mientras corporaciones como OpenAI, Google, Meta y xAI compiten por alcanzar la llamada AGI (o ‘IA general’), la ciudadanía pide cautela, transparencia y control. Según el sondeo, realizado entre el 29 de septiembre y el 5 de octubre de 2025,
- El 64 % de los adultos cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
- El 69 % de los estadounidenses cree que el gobierno no está haciendo lo suficiente para regular la IA.
- Más de la mitad desconfía de las empresas tecnológicas para desarrollar la tecnología de forma responsable.
- Un 73 % exige una regulación estricta.
- Sólo un 5 % apoya el statu quo de un avance rápido y sin supervisión.
Las empresas aceleran, los expertos piden frenar
Mientras tanto, la carrera tecnológica no da señales de detenerse. Meta anunció la creación de un grupo dedicado a construir una ‘superinteligencia’ bajo el nombre Meta Superintelligence Labs, y OpenAI continúa desarrollando modelos cada vez más potentes. Su director ejecutivo, Sam Altman, declaró recientemente que espera alcanzar la superinteligencia antes de 2030 y que,
«vale la pena correr los riesgos por los beneficios potenciales».
Incluso figuras que antaño alertaron de los peligros, como Elon Musk, ahora lideran empresas volcadas en esa carrera. Musk reconoció este año que hay «sólo un 20 % de posibilidades de aniquilación» si la IA supera a la humana, mientras su empresa xAI sigue avanzando en esa dirección.
Mientras, el citado Geoffrey Hinton (ganador del Premio Turing en 2019, junto a Bengio y a LeCun) advierte que «en solo unos pocos años, los sistemas de IA de vanguardia podrían superar a la mayoría de las personas en la mayoría de las tareas cognitivas», lo que exige diseñar sistemas «incapaces de dañar a los humanos, ya sea por desalineación o uso malicioso».
Otro veterano científico que respalda el texto es Stuart Russell, profesor de la Universidad de California. Según él, la propuesta
«no pide una prohibición permanente, sino medidas de seguridad adecuadas para una tecnología que, según sus propios creadores, podría causar la extinción humana».
Un punto de inflexión histórico
Para muchos analistas, esta carta podría convertirse en el momento decisivo del debate global sobre la gobernanza de la inteligencia artificial. No sólo ha unido a sectores tradicionalmente enfrentados, sino que refleja una preocupación colectiva por el rumbo que está tomando una tecnología que promete tanto como amenaza.
En palabras de Yoshua Bengio, «debemos asegurarnos de que el público tenga una voz mucho más fuerte en las decisiones que definirán nuestro futuro colectivo».
Mientras tanto, ahí queda la pregunta que plantea Anthony Aguirre, divulgador científico y cofundador del FLI:
«¿Queremos realmente sistemas que sustituyan a los humanos? ¿O preferimos decidir, mientras aún podemos, los límites de la inteligencia que estamos creando?»
Imagen | Marcos Merino mediante IA
–
La noticia
Steve Wozniak y los dos grandes pioneros de la IA recogen 800 firmas para pedir un ‘tiempo muerto’ en el desarrollo de superinteligencias
fue publicada originalmente en
Genbeta
por
Marcos Merino
.