Regulación pionera en EE. UU.

California aprueba ley histórica para regular la seguridad en inteligencia artificial

California se convierte en el primer estado estadounidense en aprobar una ley que exige transparencia, reportes de incidentes y estándares éticos en el desarrollo de inteligencia artificial.

10 Octubre de 2025
California aprueba la primera ley estatal de seguridad en IA.
California aprueba la primera ley estatal de seguridad en IA. Sora / Imagen referencial

El estado de California ha dado un paso histórico en la regulación de la inteligencia artificial (IA) con la aprobación de la Ley de Transparencia en la Inteligencia Artificial Fronteriza (TFAIA). Firmada por el gobernador Gavin Newsom, la norma establece requisitos de seguridad, transparencia y responsabilidad para las empresas que desarrollan sistemas avanzados de IA.

La iniciativa busca proteger a los ciudadanos de posibles riesgos físicos y sociales derivados de esta tecnología, al tiempo que impulsa la innovación ética y sostenible.


Una ley pionera
Con esta medida, California se convierte en el primer estado de Estados Unidos en legislar específicamente sobre seguridad en IA. La norma obliga a las compañías a divulgar sus planes de seguridad, reportar incidentes graves y cumplir con estándares internacionales.
Además, crea un consorcio estatal de desarrollo ético de IA, conocido como CalCompute, que establecerá un centro de cómputo público para fomentar proyectos sostenibles y seguros.


El gobernador Newsom declaró:


"California demuestra que se puede proteger a las comunidades sin frenar la innovación. Esta ley equilibra responsabilidad y progreso".


Claves de la legislación
El texto, impulsado por el senador demócrata Scott Wiener, introduce varias medidas concretas:
1. Transparencia y auditoría: las empresas deberán publicar un marco que detalle cómo integran los estándares internacionales en sus sistemas de IA.
2. Reportes obligatorios: se deberán comunicar los incidentes de seguridad que provoquen daños físicos o pérdidas significativas.
3. Protección a denunciantes: quienes alerten sobre riesgos graves estarán amparados por la ley.
4. Multas progresivas: las sanciones van desde 1 millón de dólares en la primera infracción hasta 10 millones en casos reincidentes.
5. Supervisión estatal: el Departamento de Tecnología de California podrá actualizar anualmente las normas para adaptarlas al ritmo de la innovación.


Comparaciones y reacciones
La TFAIA se aprobó un año después de que Newsom vetara un proyecto más estricto que incluía un "botón de apagado" en los sistemas de IA. Este nuevo marco, más flexible, ha recibido apoyo de empresas como Anthropic, que ven en él un modelo equilibrado para replicar a nivel federal.
Por su parte, el presidente Donald Trump ha expresado oposición a cualquier regulación estatal sobre IA, promoviendo en cambio una política de libre desarrollo tecnológico. Su administración incluso intentó incluir una cláusula para prohibir leyes estatales sobre IA durante diez años, finalmente descartada por el Senado.


Contexto global
La ley californiana llega en un momento en que el mundo discute cómo equilibrar innovación y seguridad. Mientras la Unión Europea avanza en su AI Act, Estados Unidos carece de una legislación federal clara.


Según Fei-Fei Li (Stanford), Jennifer Tour Chayes (UC Berkeley) y Mariano-Florentino Cuéllar (exjuez de la Corte Suprema de California), "la política de IA debe mantener una revisión científica rigurosa y asegurar que EE. UU. siga liderando la tecnología responsable".


La nueva ley no solo busca prevenir daños, sino también construir confianza pública en el desarrollo de la inteligencia artificial. Con su enfoque equilibrado entre innovación y ética, California sienta un precedente global. A medida que el resto del país observa, este modelo podría convertirse en el punto de partida para una regulación federal más amplia y coherente.
 

últimas noticias