Para consultas, comuníquese con nuestra Recepción en fd@molawoffice.com o con Administración en admin@molawoffice.com. También puede llamarnos al +1 305-548-5020, opción 1.

 

 

Para asistencia con multas de tránsito, visite molinatrafficticket.com.

IA Responsable en la Contratación: Un Manual de Cumplimiento Primero para Empleadores

27 February 2026

Las herramientas de IA ahora están integradas en la contratación moderna, a menudo sin que la dirección lo reconozca plenamente.

 

Los sistemas de seguimiento de candidatos clasifican currículums. Las evaluaciones en línea generan "puntuaciones de adecuación". Los chatbots preseleccionan candidatos. Las plataformas de entrevistas por video analizan patrones de habla, movimientos faciales o elección de palabras. Las plataformas de antecedentes añaden puntuaciones de "riesgo" algorítmicas.

La ventaja es la velocidad y la estandarización. El riesgo es la responsabilidad.

 

Si un proceso impulsado por IA resulta en discriminación ilegal, excluye a personas con discapacidades o maneja mal los datos de los solicitantes, el empleador, y no el proveedor de software, puede seguir siendo responsable.

Esta guía proporciona un marco de cumplimiento para los empleadores, con especial atención a las jurisdicciones de alta regulación y una sólida base nacional.

 

Solo educativo. No es asesoría legal.

 

Puntos Clave

 

  • Las herramientas de IA utilizadas en la contratación pueden calificar como "procedimientos de selección" bajo la ley federal de discriminación.

  • Los empleadores pueden enfrentar responsabilidad por impacto dispar incluso si la herramienta parece neutral.

  • Los caminos de acomodación de la ADA deben integrarse en la selección impulsada por IA.

  • Nueva York, Illinois, California y Colorado han adoptado regulaciones específicas sobre el empleo de IA.

  • Las puntuaciones algorítmicas de antecedentes de terceros pueden activar obligaciones de la FCRA.

  • La documentación, auditorías y supervisión humana significativa son esenciales.

 

¿Qué cuenta como "IA en la Contratación"?

 

En términos simples, la IA en la contratación incluye cualquier software que influya sustancialmente en quién avanza o es rechazado.

Ejemplos comunes:

  • Sistemas de selección y clasificación de currículums

  • Evaluaciones automatizadas de habilidades

  • Chatbots que recopilan información de candidatos

  • Entrevistas por video puntuadas por IA

  • Herramientas de selección de antecedentes que producen puntuaciones de riesgo

Si una herramienta afecta los resultados laborales, trátala como un procedimiento de selección.

La Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. (EEOC) ha emitido orientación explicando que las herramientas algorítmicas pueden calificar como procedimientos de selección bajo el Título VII y deben evaluarse por impacto adverso.

 

El Principio Legal Fundamental: "La IA Decidió" No es una Defensa

 

Riesgo del Título VII: Trato Dispar e Impacto Dispar

 

Bajo el Título VII, los empleadores no pueden discriminar por raza, color, religión, sexo u origen nacional.

Incluso las herramientas que parecen neutrales pueden crearresponsabilidad por impacto disparsi excluyen desproporcionadamente a grupos protegidos y no están relacionadas con el trabajo ni son consistentes con la necesidad empresarial.

La decisión de la Corte Suprema de EE. UU. en Griggs v. Duke Power Co. estableció que las prácticas "justas en forma" pero discriminatorias en operación pueden violar la ley federal si no están vinculadas al rendimiento laboral.

La EEOC ha enfatizado que los empleadores, y no los proveedores, son responsables de evaluar si las herramientas de IA crean impacto adverso.

 

La Regla de Cuatro Quintos

Las Directrices Uniformes sobre Procedimientos de Selección de Empleados mencionan la "regla de cuatro quintos" como un indicador de posible impacto adverso. Es una señal de selección, no un refugio seguro.

 

Riesgo de la ADA: Cuando la Tecnología Silenciosamente Excluye a Candidatos Calificados

 

Un área de riesgo en rápido crecimiento implica la discriminación por discapacidad.

La EEOC y el Departamento de Justicia de EE. UU. han advertido que las herramientas algorítmicas pueden excluir ilegalmente a personas con discapacidades.

Desencadenantes de riesgo comunes:

  • Evaluaciones cronometradas sin opciones de tiempo extendido

  • Puntuación de entrevistas por video basada en el habla o contacto visual

  • Herramientas que evalúan la velocidad de interacción

  • Análisis de comportamiento o movimiento

Si se utiliza IA en la selección, los empleadores deben construir un camino de acomodación claro y documentado.

 

Leyes Estatales y Locales de Contratación de IA que Debes Conocer

 

Incluso si no contratas en estas jurisdicciones hoy, diseñar tu programa para cumplir con sus estándares proporciona una sólida base de cumplimiento.

 

Nueva York – Ley Local 144

 

La ley de Herramientas de Decisión de Empleo Automatizadas (AEDT) de la Ciudad de Nueva York requiere:

  • Una auditoría de sesgo realizada dentro del año anterior a su uso

  • Publicación pública de resúmenes de auditoría

  • Notificaciones requeridas a los candidatos

La aplicación comenzó el 5 de julio de 2023, bajo la supervisión del Departamento de Protección al Consumidor y al Trabajador de la Ciudad de Nueva York.

 

Illinois – Ley de Entrevista por Video de Inteligencia Artificial (AIVIA)

Illinois requiere que los empleadores que utilicen IA para analizar entrevistas por video:

  • Notifiquen a los solicitantes

  • Explicar cómo funciona la IA a un nivel general

  • Obtener consentimiento

  • Eliminar videos dentro de los 30 días a petición

La ley fue promulgada por la Asamblea General de Illinois e incluye informes demográficos adicionales en ciertas situaciones.

 

California – Regulaciones de IA de FEHA

El Departamento de Derechos Civiles de California aprobó regulaciones que abordan sistemas de decisión automatizados bajo la Ley de Empleo Justo y Vivienda (FEHA), efectivas el 1 de octubre de 2025.

 

Colorado – Ley de IA de Colorado

El marco de "IA de alto riesgo" de Colorado bajo la SB 24-205 se retrasó hasta el 30 de junio de 2026. La ley aborda la discriminación algorítmica en decisiones importantes, incluyendo el empleo.

 

Riesgo de Privacidad y Verificación de Antecedentes: Implicaciones de la FCRA

 

Si utiliza informes de consumidores de terceros, incluyendo puntajes de antecedentes algorítmicos, puede tener obligaciones bajo la Ley de Informe Justo de Crédito (FCRA).

La Comisión Federal de Comercio explica que los empleadores deben:

  • Proporcionar una copia del informe antes de la acción adversa

  • Proporcionar un Resumen de Derechos

  • Emitir un aviso de acción adversa después de la decisión

La Oficina de Protección Financiera del Consumidor ha enfatizado que el cumplimiento de la FCRA se aplica incluso cuando están involucrados puntajes algorítmicos.

 

Consideraciones de Florida: Aumento de las Expectativas de Privacidad

 

La "Ley Digital de Derechos" de Florida entró en vigor el 1 de julio de 2024 y se aplica a ciertas grandes entidades con fines de lucro.

Si bien los datos de empleo pueden estar parcialmente exentos, los empleadores que operan en Florida deben tratar la gobernanza de datos como una prioridad de cumplimiento estratégico.

 

El Manual de Contratación de IA Responsable

 

Adopte este marco antes de implementar herramientas de contratación de IA.

 

1. Mapee su Embudo de Contratación

Documentar:

Solicitud → Filtrado → Evaluación → Entrevista → Oferta

Enumere cada herramienta, su salida y quién puede anularla.

 

2. Defina Primero los Criterios Relacionados con el Trabajo

Su defensa más sólida es la documentación de la relación con el trabajo:

  • Funciones esenciales

  • Calificaciones mínimas

  • Habilidades vinculadas al rendimiento

Esto se alinea con los principios articulados en Griggs.

 

3. Evite el Rechazo Automático Siempre que Sea Posible

El rechazo automático crea una alta exposición a litigios. Si se utiliza, asegúrese de que:

  • El criterio es defendible

  • Puede explicarlo

  • Existen caminos de acomodación

 

4. Realice Monitoreo Continuo de Impacto Adverso

Mida las tasas de abandono en cada etapa de contratación. Investigue las disparidades de inmediato. Documente los pasos de remediación.

 

5. Incorpore Acomodaciones de la ADA en el Proceso

No trate la acomodación como una idea tardía.

Implementar:

  • Opciones de solicitud de acomodación visibles

  • Formatos alternativos

  • Flujos de trabajo de respuesta de RRHH documentados

 

6. Aumente la Transparencia

Incluso donde no se requiere:

  • Informar a los solicitantes cuando se utiliza IA

  • Explicar a un nivel general qué evalúa

  • Proporcionar acceso a revisión humana

La transparencia reduce el riesgo de litigios y genera confianza.

 

7. Mantenga una Supervisión Humana Significativa

La supervisión significativa requiere:

  • Reclutadores capacitados en las limitaciones de la herramienta

  • Caminos de escalación

  • Autoridad de anulación documentada

 

8. Realice Diligencia Debida de Proveedores

Pregunte a los proveedores:

  • ¿Qué validación respalda la relación con el trabajo?

  • ¿Con qué frecuencia se realizan pruebas de sesgo?

  • ¿Qué datos se retienen y por cuánto tiempo?

  • ¿Apoyará auditorías y producirá registros?

En NYC, asegúrese de que los proveedores puedan cumplir con los requisitos de auditoría de sesgo de la Ley Local 144.

 

9. Implemente Controles de Gobernanza de Datos

Sus herramientas de contratación de IA deben incluir:

  • Minimización de datos

  • Límites de retención escritos

  • Flujos de trabajo de eliminación

  • Controles de acceso

La regla de eliminación de video de Illinois proporciona un modelo de cumplimiento útil.

 

10. Documente Todo

Cree un "Archivo de Cumplimiento de Contratación de IA" interno que incluya:

  • Descripciones y versiones de herramientas

  • Documentación de validación

  • Resultados del monitoreo de impacto adverso

  • Registros de acomodación

  • Documentación del proveedor

  • Notas de respuesta a incidentes

Un marco de gobernanza ampliamente utilizado es el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (Gobernar, Mapear, Medir, Gestionar).

 

Preguntas Frecuentes

 

¿Es legal usar IA para filtrar currículums?

Sí, pero los empleadores deben evaluar el impacto adverso y garantizar la relación con el trabajo bajo los principios del Título VII.

 

¿Necesitamos acomodaciones de la ADA para evaluaciones de IA?

Si su herramienta podría filtrar a individuos calificados con discapacidades, debe tener un camino razonable de acomodación.

 

¿Cuál es el mayor error que cometen las empresas?

Tratar las salidas de IA como decisiones automáticas sin validación, monitoreo y supervisión humana.

 

¿Estamos protegidos si un proveedor proporciona la herramienta?

No. Los empleadores siguen siendo responsables de sus procedimientos de selección.

 

¿Los "puntajes de riesgo" de antecedentes algorítmicos activan deberes de la FCRA?

Pueden. Si forman parte de un informe de consumidores de terceros utilizado para el empleo, pueden aplicarse obligaciones de la FCRA.

 

Conclusión

 

La IA en la contratación no es inherentemente ilegal, pero la IA no gestionada es de alto riesgo.

El enfoque más seguro es la gobernanza proactiva:

  • Validar la relación con el trabajo

  • Monitorear el impacto adverso

  • Incorporar acomodaciones de la ADA

  • Asegurar la transparencia

  • Mantener la documentación

  • Realizar supervisión de proveedores

La IA responsable no es solo una decisión tecnológica. Es una estrategia de cumplimiento.

 

Contactar a la oficina legal de Yoel Molina, P.A.

 

Si su empresa está utilizando o considerando la IA para la selección de currículos, evaluaciones, entrevistas en video o herramientas de decisión automatizadas, construir un proceso de cumplimiento documentado antes de la implementación es el enfoque más seguro.

 

Para orientación legal sobre el cumplimiento de contratación con IA, acuerdos con proveedores, exposición a la ley laboral y mitigación de riesgos, contacte a:

 

admin@molawoffice.com

(305) 548-5020 (Opción 1)

WhatsApp: (305) 349-3637

 

Solo educativo. No es asesoría legal.