Tecnologia
4 min read14 vistas

Qué significa la nueva ley de IA de Texas para los empleadores: Una guía sobre la Ley de Gobernanza Responsable de Inteligencia Artificial (TRAIGA)

Explora las disposiciones clave y las implicaciones prácticas de la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA) para los empleadores, incluyendo consejos de cumplimiento y los cambios respecto al proyecto original.

Qué significa la nueva ley de IA de Texas para los empleadores: Una guía sobre la Ley de Gobernanza Responsable de Inteligencia Artificial (TRAIGA)

El 22 de junio de 2025, Texas dio un paso significativo en la regulación de la inteligencia artificial con la firma de la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA). Con vigencia a partir del 1 de enero de 2026, esta ley marca un nuevo capítulo en la forma en que se regula la IA en el Estado de la Estrella Solitaria. Pero, ¿qué significa realmente para los empleadores y en qué se diferencia de la propuesta original, más amplia?

La evolución de TRAIGA: de la ambición al enfoque

TRAIGA comenzó como uno de los proyectos de ley de IA más ambiciosos del país, con el objetivo de establecer un estándar de oro para una regulación integral. Sin embargo, tras meses de debate y revisión, la versión final es más enfocada, reduciendo muchos de los requisitos originales para las empresas privadas. En cambio, se centra en las agencias gubernamentales y en un puñado de usos de IA de alto riesgo.

¿A quién afecta TRAIGA?

TRAIGA se aplica a cualquier persona que desarrolle o implemente sistemas de IA en Texas, ofrezca productos o servicios a residentes de Texas o realice negocios en el estado. La ley define un "sistema de inteligencia artificial" de manera amplia, cubriendo cualquier sistema basado en máquinas que utilice datos de entrada para generar salidas —como contenido, decisiones o recomendaciones— que puedan influir en personas o entornos.

¿Qué ha cambiado para los empleadores privados?

1. Ya no hay requisitos amplios de divulgación

Los empleadores privados ya no están obligados a divulgar su uso de IA a los solicitantes de empleo o empleados. La divulgación ahora se requiere principalmente para las agencias estatales (cuando interactúan con consumidores) y los proveedores de atención médica (cuando usan IA en el cuidado de pacientes).

2. Enfoque en la discriminación intencional

TRAIGA prohíbe únicamente el uso intencional de IA para discriminar ilegalmente contra clases protegidas. Esto significa que el sesgo no intencional o el impacto dispar no son suficientes para desencadenar una violación. Los empleadores tampoco están obligados a realizar evaluaciones de impacto por sesgo algorítmico.

3. Enfocándose en usos dañinos de la IA

La ley prohíbe específicamente el desarrollo o despliegue de sistemas de IA destinados a:

  • Incitar o fomentar el autodaño o actividades criminales
  • Producir imágenes de abuso sexual infantil o pornografía deepfake, o simular contenido sexual mientras se hace pasar por un niño
  • Permitir que entidades gubernamentales usen sistemas de "puntuación social" que puedan infringir derechos individuales

4. No hay políticas obligatorias de gestión de riesgos

A diferencia del proyecto original, TRAIGA no exige que los empleadores implementen políticas formales de gestión de riesgos de IA. Sin embargo, seguir las mejores prácticas —como las establecidas por el Instituto Nacional de Estándares y Tecnología (NIST)— puede ayudar a los empleadores a defenderse de posibles violaciones.

5. Sandbox regulatorio para la innovación

TRAIGA mantiene el programa de "sandbox regulatorio", que permite a las empresas probar sistemas de IA en un entorno controlado con ciertos requisitos regulatorios eximidos. Esto fomenta la innovación mientras se mantiene la supervisión.

6. Aplicación y sanciones

El Fiscal General de Texas tiene la autoridad exclusiva para hacer cumplir TRAIGA. No existe un derecho privado de acción, pero los consumidores pueden presentar quejas en línea. Las sanciones por violaciones van desde $10,000 a $12,000 para problemas corregibles, hasta $200,000 para violaciones no corregibles, y multas diarias por incumplimiento continuo.

Consejos prácticos para empleadores

Aunque los requisitos de TRAIGA para empleadores privados son limitados, es recomendable:

  • Desarrollar políticas internas de IA y capacitación para asegurar un uso y supervisión responsables
  • Auditar los sistemas de IA para confirmar que no discriminan intencionalmente
  • Solicitar garantías a los proveedores de IA de que sus herramientas cumplen con la ley
  • Documentar los procesos de toma de decisiones de IA para respaldar sus prácticas en caso de ser cuestionadas

Conclusiones clave

  • TRAIGA centra su enfoque en agencias gubernamentales y usos específicos dañinos de la IA
  • Los empleadores privados enfrentan menos obligaciones, pero deben prepararse para el cumplimiento
  • Se prohíbe la discriminación intencional mediante IA; el sesgo no intencional no está cubierto
  • No hay política obligatoria de gestión de riesgos, pero se recomiendan las mejores prácticas
  • La aplicación está a cargo del Fiscal General de Texas, con sanciones significativas por violaciones

A medida que la IA continúa evolucionando, también lo harán las leyes que regulan su uso. Mantenerse informado y ser proactivo es la mejor manera para que los empleadores de Texas naveguen este nuevo panorama regulatorio.

Artículo usado como inspiración