Gobierno
4 min read2 vistas

Decodificando la Ley RAISE de Nueva York: Una Nueva Era para la Seguridad y Regulación de la IA

Nueva York ha aprobado la Ley de Seguridad y Educación de IA Responsable (RAISE), un proyecto de ley histórico dirigido a los grandes desarrolladores de IA. Descubra lo que esta nueva legislación significa para la seguridad de la IA, la rendición de cuentas y el futuro de los modelos frontera.

Decodificando la Ley RAISE de Nueva York: Una Nueva Era para la Seguridad y Regulación de la IA
Parece que cada semana escuchamos sobre un nuevo modelo de IA más potente que puede escribir, codificar o crear imágenes mejor que nunca. Este rápido progreso es emocionante, pero también plantea preguntas importantes sobre la seguridad y la rendición de cuentas. ¿Quién es responsable cuando estas potentes herramientas fallan? Nueva York está dando un paso adelante para responder a esa pregunta con una legislación innovadora.La legislatura de Nueva York acaba de aprobar la Ley de Seguridad y Educación de IA Responsable, o 'Ley RAISE' para abreviar. Este proyecto de ley, que ahora espera la firma de la gobernadora Kathy Hochul, sienta un nuevo precedente sobre cómo se gestionan y despliegan los modelos de IA más potentes.### ¿A Quién se Dirige la Ley RAISE?La ley no se aplica a todas las startups que experimentan con IA. Se dirige específicamente a los principales actores, a los que denomina “grandes desarrolladores”. Una empresa entra en esta categoría si ha entrenado al menos un “modelo frontera” y ha gastado más de 100 millones de dólares en potencia computacional para hacerlo.Un “modelo frontera” se define como una IA de primer nivel, ya sea una entrenada utilizando una inmensa cantidad de potencia computacional (más de 10^26 operaciones) o un modelo ligeramente más pequeño que fue entrenado utilizando una técnica llamada “destilación de conocimiento” a partir de uno más grande, con un costo computacional que excede los 5 millones de dólares.### La Regla Central: Prevención de 'Daños Críticos'El pilar central de la Ley RAISE es una prohibición clara: los grandes desarrolladores no pueden desplegar un modelo frontera si este crea un riesgo irrazonable de “daño crítico”. La definición de daño crítico es específica y grave: La muerte o lesiones graves de 100 o más personas. Al menos mil millones de dólares en daños a la propiedad o derechos financieros. La creación o uso de un arma química, biológica, radiológica o nuclear (CBRN). Un modelo de IA actuando por sí mismo (sin intervención humana significativa) para cometer un delito grave.### Nuevas Obligaciones para las Grandes TecnológicasPara garantizar el cumplimiento, la Ley RAISE impone varias obligaciones clave a los grandes desarrolladores antes de que puedan lanzar sus modelos al público:1. Implementar Protocolos de Seguridad: Los desarrolladores deben crear y mantener un protocolo de seguridad detallado por escrito. Esto no es solo un documento para archivar; debe conservarse durante cinco años después de que el modelo ya no esté desplegado.2. Divulgación Pública y Gubernamental: Una versión redactada de este plan de seguridad debe publicarse y enviarse al Fiscal General de Nueva York (AG) y a la División de Seguridad Nacional y Servicios de Emergencia (DHS). El AG también puede solicitar la versión completa y sin redactar.3. Pruebas Transparentes: Deben conservarse registros de todas las pruebas de seguridad y sus resultados, con suficiente detalle para que un tercero pueda replicar las pruebas. Esto promueve la transparencia y la rendición de cuentas.4. Salvaguardias Obligatorias: Los desarrolladores deben implementar salvaguardias concretas para evitar que el modelo cause daños críticos.### Supervisión Continua e Informe de IncidentesEl trabajo no se detiene una vez que un modelo es desplegado. La Ley RAISE exige a los grandes desarrolladores que realicen una revisión anual de sus protocolos de seguridad para mantenerse al día con las capacidades en evolución del modelo y las mejores prácticas de la industria.Además, si ocurre un “incidente de seguridad”, los desarrolladores tienen solo 72 horas para informarlo al AG y al DHS. Un incidente de seguridad incluye no solo el daño crítico real, sino también eventos que señalan un riesgo aumentado del mismo, como: El modelo actuando de forma autónoma sin la solicitud de un usuario. Robo o acceso no autorizado a la programación central del modelo (sus 'pesos'). Un fallo crítico de los controles de seguridad.Una vez promulgada, la Ley RAISE entrará en vigor después de 90 días, marcando un paso significativo para garantizar que, a medida que la IA se vuelve más potente, también sea más segura y responsable.### Puntos Clave: Regulación Dirigida: La Ley RAISE se centra en los mayores desarrolladores de IA con los modelos más potentes. *Enfoque en Riesgos Graves: La ley está diseñada para prevenir resultados catastróficos, definidos como 'daño crítico'. *La Transparencia es Clave: Los desarrolladores deben documentar y divulgar sus protocolos de seguridad y procedimientos de prueba. *Informes Rápidos: Un plazo de 72 horas para informar incidentes de seguridad garantiza una rápida supervisión gubernamental. *Un Nuevo Precedente: La ley de Nueva York podría servir como modelo para otros estados e incluso para la legislación federal sobre seguridad de la IA.
Artículo usado como inspiración