Por Yoel Molina, Esq., Propietario y Operador de la Oficina Legal de Yoel Molina, P.A.
La inteligencia artificial está transformando rápidamente el panorama de la contratación. Desde herramientas de selección de currículums hasta sistemas de puntuación de entrevistas en video y plataformas de decisión automatizadas, la IA promete una contratación más rápida y eficiente. Pero junto a estos beneficios vienenriesgos legales reales, especialmente para los empleadores que dependen en gran medida de la tecnología de recursos humanos sin comprender las obligaciones de cumplimiento asociadas.
En los Estados Unidos—y a nivel internacional—los reguladores están prestando más atención a cómo la IA impacta la equidad, la discriminación, la privacidad de datos y la transparencia en los procesos de empleo. Los empleadores deben asegurarse de que su tecnología de contratación cumpla con las leyes federales, estatales y locales o arriesgarse a la responsabilidad civil, investigaciones gubernamentales y daños a la reputación.
Este artículo desglosa los mayores riesgos legales, las leyes que los rigen y los pasos que los empleadores deben seguir para utilizar responsablemente herramientas de contratación impulsadas por IA.
Las herramientas de contratación basadas en IA suelen entrenarse con datos históricos para predecir qué candidatos tienen más probabilidades de tener éxito. Pero estos datos a menudo reflejan prácticas pasadas—y sesgos pasados. Como resultado, incluso el algoritmo más avanzado puede crear resultados discriminatorios de forma no intencionada.
Algunos de los mayores riesgos incluyen:
Los algoritmos de IA pueden perjudicar a los candidatos en función de:
Raza
Género
Edad
Discapacidad
Origen nacional
Otras categorías protegidas bajo la ley federal o estatal
Incluso la discriminación no intencionada puede violar leyes como el Título VII.
Las herramientas que puntúan a los candidatos en función de patrones de habla, expresiones faciales, tono o análisis de video corren el riesgo de violar leyes sobre discapacidad y otras leyes de discriminación—especialmente cuando la puntuación está vinculada a rasgos neurológicos, del habla o físicos.
Muchos proveedores evitan divulgar sus datos de entrenamiento o lógica de decisión. Los empleadores pueden encontrar imposible explicar cómo se excluyó a un candidato—sin embargo, están legalmente obligados a proporcionar esta información durante las investigaciones.
Las herramientas de IA pueden analizar:
Grabaciones de voz
Entrevistas en video
Historial de navegación
Actividad en redes sociales
Datos de geolocalización
Sin las divulgaciones o el consentimiento adecuados, los empleadores corren el riesgo de violar regulaciones de privacidad, incluidas las leyes de privacidad biométrica.
La EEOC ha emitido múltiples advertencias:Los empleadores son responsables de los resultados discriminatorios—aunque el sesgo provenga de un proveedor de IA de terceros.
Las prioridades clave de aplicación incluyen:
Criterios de selección discriminatorios
Sistemas de IA que crean impacto dispar
Falta de adaptación para solicitantes con discapacidad
Herramientas que evalúan ilegalmente información médica o genética
En 2023, la EEOC presentó su primera demanda por discriminación en la contratación con IA—y se esperan más.
El Título VII prohíbe la discriminación laboral. Si una herramienta de IA excluye desproporcionadamente a ciertos grupos, el empleador puede ser considerado responsable.
Las herramientas de IA no pueden:
Penalizar rasgos relacionados con la discapacidad
Requerir información médica
Rechazar a candidatos que soliciten adaptaciones
Los empleadores deben asegurarse de que los solicitantes con discapacidades reciban adaptaciones razonables—incluso al interactuar con herramientas automatizadas.
La innovadora ley de la ciudad de Nueva York requiere:
Auditorías de sesgo de IA de terceros anuales
Publicación pública de los resultados de las auditorías
Notificación a los candidatos sobre el uso de IA
Divulgación de las calificaciones laborales que se están evaluando
Este es el modelo para las leyes pendientes en California, Colorado e Illinois.
Si las herramientas de IA recopilan datos biométricos—como reconocimiento facial o huellas de voz—los empleadores deben seguir estrictos procedimientos de consentimiento y manejo de datos.
Una cadena de retail utilizó una herramienta de escaneo de currículums con IA que favorecía a los solicitantes que practicaban ciertos deportes en la universidad. El sistema creó involuntariamente una preferencia de contratación por candidatos jóvenes, excluyendo a muchos solicitantes mayores.
Esto resultó en:
Una investigación de la EEOC
Miles en costos de conciliación
Auditorías requeridas y cambios en los procesos de contratación
A pesar de que la empresa no diseñó la herramienta, aún así fue considerada responsable.
Si su organización utiliza herramientas de IA en la contratación, aquí están las acciones que debe tomar ahora.
Revisar:
Qué herramientas de contratación se están utilizando
Qué datos analizan
Si la IA toma o influye en las decisiones
Si los grupos protegidos pueden verse afectados desproporcionadamente
Documentar esta evaluación es crucial para auditorías e investigaciones.
Muchos proveedores declinan responsabilidad y ofrecen cero transparencia. Su contrato debe incluir:
✔ Cumplimiento de sesgo algorítmico y discriminación✔ Responsabilidad del proveedor por auditorías✔ Normas de privacidad y seguridad de datos✔ Divulgación de fuentes de datos de entrenamiento✔ Indemnización por resultados discriminatorios✔ Garantías de revisión humana✔ Acceso a registros, explicaciones de puntuación y salidas del sistema
Sin estas cláusulas, su negocio puede estar asumiendo un riesgo oculto masivo.
Para las empresas que contratan en NYC o se preparan para regulaciones futuras, las auditorías anuales de terceros deben incluir:
Pruebas de disparidad de género
Pruebas de raza y etnicidad
Revisión del impacto de la discapacidad
Análisis de distribución de puntuaciones
Comparaciones de tasa de aprobación
Las auditorías de sesgo demuestran cumplimiento de buena fe y reducen la responsabilidad.
La IA no puede operar como el tomador de decisiones final. Los empleadores deben:
Revisar cada decisión automatizada
Permitir anulación manual
Documentar la participación humana
Ofrecer mecanismos de apelación para candidatos rechazados
Esto es requerido bajo varias regulaciones locales e internacionales de IA.
Debe divulgar claramente:
Que se está utilizando IA
Cómo afecta la evaluación
Qué datos recoge
Si se analizan datos biométricos
No hacerlo puede violar leyes de privacidad y antidiscriminación.
Estados como California, Illinois y Massachusetts tienen legislación pendiente similar a la Ley Local 144 de la Ciudad de Nueva York. Internacionalmente, la Ley de IA de la UE impone reglas estrictas sobre la IA utilizada en decisiones de empleo.
La tendencia es clara: los empleadores deben tratar las herramientas de contratación de IA con el mismo nivel de escrutinio legal que los tomadores de decisiones humanos.
La IA ofrece poderosas ventajas en la contratación, pero conlleva un riesgo legal significativo, especialmente cuando los algoritmos discriminan involuntariamente o recogen datos sensibles.
La conclusión clave:Los empleadores son legalmente responsables de los resultados de las herramientas de IA que utilizan, incluso cuando esas herramientas provienen de proveedores de terceros.
Abordar proactivamente el cumplimiento ahora puede salvar a su negocio de costosas litigaciones, investigaciones y daños a la reputación más adelante.
Si su empresa utiliza IA en la contratación, o planea hacerlo, debe tener un profesional legal que revise sus sistemas, contratos y procedimientos de cumplimiento.
Para orientación legal estratégica sobre IA, derecho laboral y gestión de riesgos empresariales, contacte:
📩 admin@molawoffice.com📞 (305) 548-5020 (Opción 1)💬 WhatsApp: (305) 349-3637
Manténgase informado. Manténgase en cumplimiento. Manténgase adelante—con AI Law Lens.