El 22 de junio de 2025, Texas dio un paso significativo en la regulación de la inteligencia artificial con la firma de la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA). Con vigencia a partir del 1 de enero de 2026, esta ley marca un nuevo capítulo en la forma en que se regula la IA en el Estado de la Estrella Solitaria. Pero, ¿qué significa realmente para los empleadores y en qué se diferencia de la propuesta original, más amplia?
La evolución de TRAIGA: de la ambición al enfoque
TRAIGA comenzó como uno de los proyectos de ley de IA más ambiciosos del país, con el objetivo de establecer un estándar de oro para una regulación integral. Sin embargo, tras meses de debate y revisión, la versión final es más enfocada, reduciendo muchos de los requisitos originales para las empresas privadas. En cambio, se centra en las agencias gubernamentales y en un puñado de usos de IA de alto riesgo.
¿A quién afecta TRAIGA?
TRAIGA se aplica a cualquier persona que desarrolle o implemente sistemas de IA en Texas, ofrezca productos o servicios a residentes de Texas o realice negocios en el estado. La ley define un "sistema de inteligencia artificial" de manera amplia, cubriendo cualquier sistema basado en máquinas que utilice datos de entrada para generar salidas —como contenido, decisiones o recomendaciones— que puedan influir en personas o entornos.
¿Qué ha cambiado para los empleadores privados?
1. Ya no hay requisitos amplios de divulgación
Los empleadores privados ya no están obligados a divulgar su uso de IA a los solicitantes de empleo o empleados. La divulgación ahora se requiere principalmente para las agencias estatales (cuando interactúan con consumidores) y los proveedores de atención médica (cuando usan IA en el cuidado de pacientes).
2. Enfoque en la discriminación intencional
TRAIGA prohíbe únicamente el uso intencional de IA para discriminar ilegalmente contra clases protegidas. Esto significa que el sesgo no intencional o el impacto dispar no son suficientes para desencadenar una violación. Los empleadores tampoco están obligados a realizar evaluaciones de impacto por sesgo algorítmico.
3. Enfocándose en usos dañinos de la IA
La ley prohíbe específicamente el desarrollo o despliegue de sistemas de IA destinados a:
- Incitar o fomentar el autodaño o actividades criminales
- Producir imágenes de abuso sexual infantil o pornografía deepfake, o simular contenido sexual mientras se hace pasar por un niño
- Permitir que entidades gubernamentales usen sistemas de "puntuación social" que puedan infringir derechos individuales
4. No hay políticas obligatorias de gestión de riesgos
A diferencia del proyecto original, TRAIGA no exige que los empleadores implementen políticas formales de gestión de riesgos de IA. Sin embargo, seguir las mejores prácticas —como las establecidas por el Instituto Nacional de Estándares y Tecnología (NIST)— puede ayudar a los empleadores a defenderse de posibles violaciones.
5. Sandbox regulatorio para la innovación
TRAIGA mantiene el programa de "sandbox regulatorio", que permite a las empresas probar sistemas de IA en un entorno controlado con ciertos requisitos regulatorios eximidos. Esto fomenta la innovación mientras se mantiene la supervisión.
6. Aplicación y sanciones
El Fiscal General de Texas tiene la autoridad exclusiva para hacer cumplir TRAIGA. No existe un derecho privado de acción, pero los consumidores pueden presentar quejas en línea. Las sanciones por violaciones van desde $10,000 a $12,000 para problemas corregibles, hasta $200,000 para violaciones no corregibles, y multas diarias por incumplimiento continuo.
Consejos prácticos para empleadores
Aunque los requisitos de TRAIGA para empleadores privados son limitados, es recomendable:
- Desarrollar políticas internas de IA y capacitación para asegurar un uso y supervisión responsables
- Auditar los sistemas de IA para confirmar que no discriminan intencionalmente
- Solicitar garantías a los proveedores de IA de que sus herramientas cumplen con la ley
- Documentar los procesos de toma de decisiones de IA para respaldar sus prácticas en caso de ser cuestionadas
Conclusiones clave
- TRAIGA centra su enfoque en agencias gubernamentales y usos específicos dañinos de la IA
- Los empleadores privados enfrentan menos obligaciones, pero deben prepararse para el cumplimiento
- Se prohíbe la discriminación intencional mediante IA; el sesgo no intencional no está cubierto
- No hay política obligatoria de gestión de riesgos, pero se recomiendan las mejores prácticas
- La aplicación está a cargo del Fiscal General de Texas, con sanciones significativas por violaciones
A medida que la IA continúa evolucionando, también lo harán las leyes que regulan su uso. Mantenerse informado y ser proactivo es la mejor manera para que los empleadores de Texas naveguen este nuevo panorama regulatorio.