Las herramientas de IA ahora están integradas en la contratación moderna, a menudo sin que la dirección lo reconozca plenamente.
Los sistemas de seguimiento de candidatos clasifican currículums. Las evaluaciones en línea generan "puntuaciones de adecuación". Los chatbots preseleccionan candidatos. Las plataformas de entrevistas por video analizan patrones de habla, movimientos faciales o elección de palabras. Las plataformas de antecedentes añaden puntuaciones de "riesgo" algorítmicas.
La ventaja es la velocidad y la estandarización. El riesgo es la responsabilidad.
Si un proceso impulsado por IA resulta en discriminación ilegal, excluye a personas con discapacidades o maneja mal los datos de los solicitantes, el empleador, y no el proveedor de software, puede seguir siendo responsable.
Esta guía proporciona un marco de cumplimiento para los empleadores, con especial atención a las jurisdicciones de alta regulación y una sólida base nacional.
Solo educativo. No es asesoría legal.
Las herramientas de IA utilizadas en la contratación pueden calificar como "procedimientos de selección" bajo la ley federal de discriminación.
Los empleadores pueden enfrentar responsabilidad por impacto dispar incluso si la herramienta parece neutral.
Los caminos de acomodación de la ADA deben integrarse en la selección impulsada por IA.
Nueva York, Illinois, California y Colorado han adoptado regulaciones específicas sobre el empleo de IA.
Las puntuaciones algorítmicas de antecedentes de terceros pueden activar obligaciones de la FCRA.
La documentación, auditorías y supervisión humana significativa son esenciales.
En términos simples, la IA en la contratación incluye cualquier software que influya sustancialmente en quién avanza o es rechazado.
Ejemplos comunes:
Sistemas de selección y clasificación de currículums
Evaluaciones automatizadas de habilidades
Chatbots que recopilan información de candidatos
Entrevistas por video puntuadas por IA
Herramientas de selección de antecedentes que producen puntuaciones de riesgo
Si una herramienta afecta los resultados laborales, trátala como un procedimiento de selección.
La Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. (EEOC) ha emitido orientación explicando que las herramientas algorítmicas pueden calificar como procedimientos de selección bajo el Título VII y deben evaluarse por impacto adverso.
Bajo el Título VII, los empleadores no pueden discriminar por raza, color, religión, sexo u origen nacional.
Incluso las herramientas que parecen neutrales pueden crearresponsabilidad por impacto disparsi excluyen desproporcionadamente a grupos protegidos y no están relacionadas con el trabajo ni son consistentes con la necesidad empresarial.
La decisión de la Corte Suprema de EE. UU. en Griggs v. Duke Power Co. estableció que las prácticas "justas en forma" pero discriminatorias en operación pueden violar la ley federal si no están vinculadas al rendimiento laboral.
La EEOC ha enfatizado que los empleadores, y no los proveedores, son responsables de evaluar si las herramientas de IA crean impacto adverso.
Las Directrices Uniformes sobre Procedimientos de Selección de Empleados mencionan la "regla de cuatro quintos" como un indicador de posible impacto adverso. Es una señal de selección, no un refugio seguro.
Un área de riesgo en rápido crecimiento implica la discriminación por discapacidad.
La EEOC y el Departamento de Justicia de EE. UU. han advertido que las herramientas algorítmicas pueden excluir ilegalmente a personas con discapacidades.
Desencadenantes de riesgo comunes:
Evaluaciones cronometradas sin opciones de tiempo extendido
Puntuación de entrevistas por video basada en el habla o contacto visual
Herramientas que evalúan la velocidad de interacción
Análisis de comportamiento o movimiento
Si se utiliza IA en la selección, los empleadores deben construir un camino de acomodación claro y documentado.
Incluso si no contratas en estas jurisdicciones hoy, diseñar tu programa para cumplir con sus estándares proporciona una sólida base de cumplimiento.
La ley de Herramientas de Decisión de Empleo Automatizadas (AEDT) de la Ciudad de Nueva York requiere:
Una auditoría de sesgo realizada dentro del año anterior a su uso
Publicación pública de resúmenes de auditoría
Notificaciones requeridas a los candidatos
La aplicación comenzó el 5 de julio de 2023, bajo la supervisión del Departamento de Protección al Consumidor y al Trabajador de la Ciudad de Nueva York.
Illinois requiere que los empleadores que utilicen IA para analizar entrevistas por video:
Notifiquen a los solicitantes
Explicar cómo funciona la IA a un nivel general
Obtener consentimiento
Eliminar videos dentro de los 30 días a petición
La ley fue promulgada por la Asamblea General de Illinois e incluye informes demográficos adicionales en ciertas situaciones.
El Departamento de Derechos Civiles de California aprobó regulaciones que abordan sistemas de decisión automatizados bajo la Ley de Empleo Justo y Vivienda (FEHA), efectivas el 1 de octubre de 2025.
El marco de "IA de alto riesgo" de Colorado bajo la SB 24-205 se retrasó hasta el 30 de junio de 2026. La ley aborda la discriminación algorítmica en decisiones importantes, incluyendo el empleo.
Si utiliza informes de consumidores de terceros, incluyendo puntajes de antecedentes algorítmicos, puede tener obligaciones bajo la Ley de Informe Justo de Crédito (FCRA).
La Comisión Federal de Comercio explica que los empleadores deben:
Proporcionar una copia del informe antes de la acción adversa
Proporcionar un Resumen de Derechos
Emitir un aviso de acción adversa después de la decisión
La Oficina de Protección Financiera del Consumidor ha enfatizado que el cumplimiento de la FCRA se aplica incluso cuando están involucrados puntajes algorítmicos.
La "Ley Digital de Derechos" de Florida entró en vigor el 1 de julio de 2024 y se aplica a ciertas grandes entidades con fines de lucro.
Si bien los datos de empleo pueden estar parcialmente exentos, los empleadores que operan en Florida deben tratar la gobernanza de datos como una prioridad de cumplimiento estratégico.
Adopte este marco antes de implementar herramientas de contratación de IA.
Documentar:
Solicitud → Filtrado → Evaluación → Entrevista → Oferta
Enumere cada herramienta, su salida y quién puede anularla.
Su defensa más sólida es la documentación de la relación con el trabajo:
Funciones esenciales
Calificaciones mínimas
Habilidades vinculadas al rendimiento
Esto se alinea con los principios articulados en Griggs.
El rechazo automático crea una alta exposición a litigios. Si se utiliza, asegúrese de que:
El criterio es defendible
Puede explicarlo
Existen caminos de acomodación
Mida las tasas de abandono en cada etapa de contratación. Investigue las disparidades de inmediato. Documente los pasos de remediación.
No trate la acomodación como una idea tardía.
Implementar:
Opciones de solicitud de acomodación visibles
Formatos alternativos
Flujos de trabajo de respuesta de RRHH documentados
Incluso donde no se requiere:
Informar a los solicitantes cuando se utiliza IA
Explicar a un nivel general qué evalúa
Proporcionar acceso a revisión humana
La transparencia reduce el riesgo de litigios y genera confianza.
La supervisión significativa requiere:
Reclutadores capacitados en las limitaciones de la herramienta
Caminos de escalación
Autoridad de anulación documentada
Pregunte a los proveedores:
¿Qué validación respalda la relación con el trabajo?
¿Con qué frecuencia se realizan pruebas de sesgo?
¿Qué datos se retienen y por cuánto tiempo?
¿Apoyará auditorías y producirá registros?
En NYC, asegúrese de que los proveedores puedan cumplir con los requisitos de auditoría de sesgo de la Ley Local 144.
Sus herramientas de contratación de IA deben incluir:
Minimización de datos
Límites de retención escritos
Flujos de trabajo de eliminación
Controles de acceso
La regla de eliminación de video de Illinois proporciona un modelo de cumplimiento útil.
Cree un "Archivo de Cumplimiento de Contratación de IA" interno que incluya:
Descripciones y versiones de herramientas
Documentación de validación
Resultados del monitoreo de impacto adverso
Registros de acomodación
Documentación del proveedor
Notas de respuesta a incidentes
Un marco de gobernanza ampliamente utilizado es el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (Gobernar, Mapear, Medir, Gestionar).
Sí, pero los empleadores deben evaluar el impacto adverso y garantizar la relación con el trabajo bajo los principios del Título VII.
Si su herramienta podría filtrar a individuos calificados con discapacidades, debe tener un camino razonable de acomodación.
Tratar las salidas de IA como decisiones automáticas sin validación, monitoreo y supervisión humana.
No. Los empleadores siguen siendo responsables de sus procedimientos de selección.
Pueden. Si forman parte de un informe de consumidores de terceros utilizado para el empleo, pueden aplicarse obligaciones de la FCRA.
La IA en la contratación no es inherentemente ilegal, pero la IA no gestionada es de alto riesgo.
El enfoque más seguro es la gobernanza proactiva:
Validar la relación con el trabajo
Monitorear el impacto adverso
Incorporar acomodaciones de la ADA
Asegurar la transparencia
Mantener la documentación
Realizar supervisión de proveedores
La IA responsable no es solo una decisión tecnológica. Es una estrategia de cumplimiento.
Si su empresa está utilizando o considerando la IA para la selección de currículos, evaluaciones, entrevistas en video o herramientas de decisión automatizadas, construir un proceso de cumplimiento documentado antes de la implementación es el enfoque más seguro.
Para orientación legal sobre el cumplimiento de contratación con IA, acuerdos con proveedores, exposición a la ley laboral y mitigación de riesgos, contacte a:
(305) 548-5020 (Opción 1)
WhatsApp: (305) 349-3637
Solo educativo. No es asesoría legal.