Suspender el desarrollo de Inteligencia Artificial por riesgo a la humanidad, el pedido de Steve Wozniak, Richard Branson, el príncipe Harry y otras personalidades | Más Colombia
viernes, 2 de enero de 2026
Inicio  »  Tecnología  »  Suspender el desarrollo de Inteligencia Artificial por riesgo a la humanidad, el pedido de Steve Wozniak, Richard Branson, el príncipe Harry y otras personalidades

Suspender el desarrollo de Inteligencia Artificial por riesgo a la humanidad, el pedido de Steve Wozniak, Richard Branson, el príncipe Harry y otras personalidades

Mientras la inteligencia artificial avanza sin freno, crecen las dudas sobre quién la controla y qué tan lejos debería llegar.

inteligencia artificial, Steve Wozniak, Richard Branson, el príncipe Harry, Más Colombia

Más de 800 personalidades de algunas áreas como científica, política y cultural firmaron una carta abierta en la que piden una pausa inmediata en el desarrollo de la inteligencia artificial avanzada.

La petición, impulsada por el Future of Life Institute (FLI), plantea una moratoria sobre la creación de sistemas de superinteligencia artificial, hasta que exista un consenso científico y social que garantice su seguridad y control.


inteligencia artificial, La manipulación de la inteligencia artificial en el mundo, Más Colombia

Le puede interesar: Influencers en China deberán certificarse para opinar en redes sociales

Preocupación compartida por el poder de la inteligencia artificial

Entre los firmantes se encuentran los pioneros de la IA Geoffrey Hinton y Yoshua Bengio, el cofundador de Apple, Steve Wozniak, el empresario Richard Branson, y figuras políticas y religiosas como Steve Bannon, Susan Rice y Paolo Benanti, asesor del Papa en temas tecnológicos. También respaldaron el llamado los duques de Sussex, Harry y Meghan Markle, y varios premios Nobel.

El documento, difundido por el FLI, refleja una alianza poco habitual entre sectores ideológicos enfrentados, unidos por una preocupación común: los posibles efectos de una inteligencia artificial que supere las capacidades humanas

Según la organización, la solicitud no busca una pausa simbólica, sino una prohibición temporal total del desarrollo de sistemas superinteligentes hasta que haya un marco de seguridad verificable.

inteligencia artificial, Reemplazo del pensamiento crítico por inteligencia artificial, Más Colombia

Preocupaciones y razones del llamado

El físico Anthony Aguirre, director ejecutivo del FLI, advirtió que el desarrollo actual de la inteligencia artificial se ha concentrado en manos de grandes corporaciones tecnológicas sin suficiente supervisión pública. Señaló que “el camino ha sido elegido por las empresas y el sistema económico, pero nadie ha consultado al resto de la humanidad si eso es lo que queremos”.


El informe del FLI y varias encuestas muestran un amplio respaldo social a la regulación de la IA. Los resultados mostraron que:

  • El 64% de los adultos estadounidenses cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
  • El 69% considera que el gobierno no hace lo suficiente para regularla.
  • Más de la mitad desconfía de las empresas tecnológicas para manejarla de forma responsable.
  • Un 73% apoya una regulación estricta.

Empresas que avanzan pese a las advertencias

Mientras tanto, compañías como OpenAI, Google, Meta y xAI mantienen la carrera por alcanzar la llamada IA general (AGI). Meta anunció la creación de su grupo Meta Superintelligence Labs, mientras el director ejecutivo de OpenAI, Sam Altman, afirmó que espera alcanzar la superinteligencia antes de 2030, ya que considera que “vale la pena correr los riesgos por los beneficios potenciales”.

También le puede interesar: La historia de la primera IA en salir al mercado: ELIZA y su legado

Por su parte, Elon Musk, quien ha advertido en el pasado sobre los peligros de la inteligencia artificial, continúa desarrollando proyectos en esa dirección con su empresa xAI, por lo que estimó un “20% de posibilidades de aniquilación” si la IA supera a la humana.

inteligencia artificial, desconfianza de las empresas tecnológicas para manejar IA, Más Colombia

Los firmantes y su posición

El investigador Yoshua Bengio afirmó que los sistemas de inteligencia artificial podrían superar las capacidades cognitivas humanas en pocos años, por lo que urge establecer sistemas “incapaces de dañar a las personas, ya sea por desalineación o uso malicioso”.

Stuart Russell, profesor de la Universidad de California y coautor de un texto clave sobre IA, sostuvo que la petición no exige una prohibición definitiva, sino medidas de seguridad adecuadas frente a una tecnología con potencial de riesgo existencial.

Continúa el debate sobre el futuro de la inteligencia artificial

La carta del FLI marca un cambio importante en el debate global sobre la gobernanza de la inteligencia artificial. Para los firmantes, la prioridad debe ser garantizar la seguridad y la participación ciudadana antes de permitir el avance de sistemas que podrían superar el control humano.
La pregunta que plantea el físico Anthony Aguirre resume el escenario del debate sobre la IA: “¿Queremos realmente sistemas que sustituyan a los humanos, o preferimos decidir, mientras aún podemos, los límites de la inteligencia que estamos creando?”.


Lea más: Las 7 mejores ciudades para vivir, trabajar y estudiar en Canadá en 2026