Pausa global al avance IA

Gigantes tecnológicos advierten: la inteligencia artificial podría escapar a nuestro control

Una coalición de más de 800 investigadores, celebridades y empresarios exige una moratoria al desarrollo de inteligencia artificial superinteligente, alertando sobre riesgos éticos, sociales y existenciales.

En un momento crítico para el desarrollo tecnológico, una amplia alianza de figuras del mundo digital, académico y mediático ha levantado la voz para pedir un alto al avance de la inteligencia artificial superinteligente.

Esta iniciativa, liderada por el Future of Life Institute (FLI), reúne a más de 800 firmantes, entre ellos el cofundador de Apple Inc. Steve Wozniak, quienes advierten que los sistemas de IA podrían sobrepasar las capacidades humanas y poner en riesgo no solo empleos, sino valores fundamentales de la humanidad.


¿Qué se solicita y por qué?
• Moratoria inmediata: Los firmantes piden una suspensión del desarrollo de sistemas de inteligencia artificial que puedan superar ampliamente la inteligencia humana, hasta que exista consenso científico sobre su control y seguridad.
• Riesgos éticos y existenciales: Argumentan que la creación de superinteligencia sin regulación podría derivar en desempleo masivo, manipulación mental, pérdida de libertad individual y hasta amenaza para la supervivencia humana.
• Control y transparencia: Se exige que empresas y gobiernos cooperen para establecer protocolos robustos de evaluación, monitoreo y responsabilidad en la creación de agentes inteligentes.


¿Quiénes están detrás del llamado?
La lista incluye desde investigadores de IA reconocidos mundialmente, hasta líderes empresariales, celebridades y representantes religiosos. Steve Wozniak, quien ya había apoyado una misiva similar en 2023, se suma nuevamente al llamado, lo que da mayor peso a la preocupación tecnológica.

 
¿Cuál es el contexto técnico?
La inteligencia artificial superinteligente —un sistema que puede superar a los humanos en prácticamente todas las tareas cognitivas— sigue siendo una posibilidad futura, pero cada vez más debatida. En 2023, la FLI ya había convocado una pausa de seis meses para sistemas más poderosos que GPT 4, señalando preocupaciones tempranas sobre riesgos de alineación, autonomía y control. Las firmas actuales apuntan a que esas preocupaciones no han sido resueltas y que existe una carrera global que podría salirse de control.


Implicaciones para gobierno y empresas
• Regulación emergente: Varios estados ya estudian leyes que regulen lo que se denomina "IA de frontera", es decir, modelos con poder computacional extremadamente elevado que podrían generar consecuencias imprevistas.


• Competencia tecnológica internacional: Empresas como OpenAI, Google LLC o Meta Platforms están inmersas en una carrera por dominar la IA. Esa situación amplifica el riesgo de avanzar sin las salvaguardas necesarias.


• Aceptación pública: Las encuestas que acompañan la carta revelan que solo un pequeño porcentaje del público (por ejemplo, 5 % en EE.UU.) apoya el desarrollo sin regulación, lo que refuerza la presión social para una acción política. 


¿Qué sigue ahora?
La carta deja claro que no se trata únicamente de detener por detener, sino de construir una infraestructura de seguridad, ética y supervisión que permita el desarrollo responsable de la IA. La expectativa es que gobiernos, organismos internacionales y la industria establezcan marcos de gobernanza antes de que avance la superinteligencia. Los firmantes sostienen que, de no hacerlo, la tecnología podría dictar su propio curso, y la humanidad quedar relegada.


Este llamado masivo representa un hito: no solo es una petición de pausa, sino una reflexión global profunda sobre hasta dónde queremos que llegue la IA y con qué reglas.

El reloj de la inteligencia artificial avanza, y esta carta reclama que no adelantemos sin freno ni reflexión.