Navigate the process of obtaining an ITIN in the U.S. as a foreign entrepreneur or small business owner. Our comprehensive guide offers step-by-step insights into ITIN applications, essential for international business endeavors. Gain expert legal advice for entrepreneurs and small business owners looking to establish their ventures in the United States. Start your ITIN application journey today with confidence.

Para consultas, comuníquese con nuestra Recepción en fd@molawoffice.com o con Administración en admin@molawoffice.com. También puede llamarnos al +1 305-548-5020, opción 1.

 

 

Para asistencia con multas de tránsito, visite molinatrafficticket.com.

Los Riesgos Legales de Usar IA en la Contratación: Lo Que Cada Empleador Debe Saber

01 December 2025

Por Yoel Molina, Esq., Propietario y Operador de la Oficina Legal de Yoel Molina, P.A.

 

 

Los Riesgos Legales del Uso de IA en la Contratación: Lo que Todo Empleador Debe Saber

 

La inteligencia artificial está transformando rápidamente el panorama de la contratación. Desde herramientas de selección de currículums hasta sistemas de puntuación de entrevistas en video y plataformas de decisión automatizadas, la IA promete una contratación más rápida y eficiente. Pero junto a estos beneficios vienenriesgos legales reales, especialmente para los empleadores que dependen en gran medida de la tecnología de recursos humanos sin comprender las obligaciones de cumplimiento asociadas.

En los Estados Unidos—y a nivel internacional—los reguladores están prestando más atención a cómo la IA impacta la equidad, la discriminación, la privacidad de datos y la transparencia en los procesos de empleo. Los empleadores deben asegurarse de que su tecnología de contratación cumpla con las leyes federales, estatales y locales o arriesgarse a la responsabilidad civil, investigaciones gubernamentales y daños a la reputación.

Este artículo desglosa los mayores riesgos legales, las leyes que los rigen y los pasos que los empleadores deben seguir para utilizar responsablemente herramientas de contratación impulsadas por IA.

 

Por qué la IA en la Contratación Crea Exposición Legal

 

Las herramientas de contratación basadas en IA suelen entrenarse con datos históricos para predecir qué candidatos tienen más probabilidades de tener éxito. Pero estos datos a menudo reflejan prácticas pasadas—y sesgos pasados. Como resultado, incluso el algoritmo más avanzado puede crear resultados discriminatorios de forma no intencionada.

Algunos de los mayores riesgos incluyen:

 

1. Resultados de Selección Discriminatorios

Los algoritmos de IA pueden perjudicar a los candidatos en función de:

  • Raza

  • Género

  • Edad

  • Discapacidad

  • Origen nacional

  • Otras categorías protegidas bajo la ley federal o estatal

Incluso la discriminación no intencionada puede violar leyes como el Título VII.

 

2. Toma de Decisiones Automatizadas Discriminatorias

Las herramientas que puntúan a los candidatos en función de patrones de habla, expresiones faciales, tono o análisis de video corren el riesgo de violar leyes sobre discapacidad y otras leyes de discriminación—especialmente cuando la puntuación está vinculada a rasgos neurológicos, del habla o físicos.

 

3. Falta de Transparencia

Muchos proveedores evitan divulgar sus datos de entrenamiento o lógica de decisión. Los empleadores pueden encontrar imposible explicar cómo se excluyó a un candidato—sin embargo, están legalmente obligados a proporcionar esta información durante las investigaciones.

 

4. Violaciones de Privacidad y Seguridad de Datos

Las herramientas de IA pueden analizar:

  • Grabaciones de voz

  • Entrevistas en video

  • Historial de navegación

  • Actividad en redes sociales

  • Datos de geolocalización

Sin las divulgaciones o el consentimiento adecuados, los empleadores corren el riesgo de violar regulaciones de privacidad, incluidas las leyes de privacidad biométrica.

 

Las Principales Leyes que Regulan la Contratación con IA en EE. UU.

 

1. Orientación Federal de la EEOC sobre IA

La EEOC ha emitido múltiples advertencias:Los empleadores son responsables de los resultados discriminatorios—aunque el sesgo provenga de un proveedor de IA de terceros.

Las prioridades clave de aplicación incluyen:

  • Criterios de selección discriminatorios

  • Sistemas de IA que crean impacto dispar

  • Falta de adaptación para solicitantes con discapacidad

  • Herramientas que evalúan ilegalmente información médica o genética

En 2023, la EEOC presentó su primera demanda por discriminación en la contratación con IA—y se esperan más.

 

2. Título VII de la Ley de Derechos Civiles

El Título VII prohíbe la discriminación laboral. Si una herramienta de IA excluye desproporcionadamente a ciertos grupos, el empleador puede ser considerado responsable.

 

3. La Ley de Estadounidenses con Discapacidades (ADA)

Las herramientas de IA no pueden:

  • Penalizar rasgos relacionados con la discapacidad

  • Requerir información médica

  • Rechazar a candidatos que soliciten adaptaciones

Los empleadores deben asegurarse de que los solicitantes con discapacidades reciban adaptaciones razonables—incluso al interactuar con herramientas automatizadas.

 

4. Leyes Locales: Ley Local 144 de NYC (Regla de Auditoría de Sesgo)

La innovadora ley de la ciudad de Nueva York requiere:

  • Auditorías de sesgo de IA de terceros anuales

  • Publicación pública de los resultados de las auditorías

  • Notificación a los candidatos sobre el uso de IA

  • Divulgación de las calificaciones laborales que se están evaluando

Este es el modelo para las leyes pendientes en California, Colorado e Illinois.

 

5. Leyes de Privacidad Biométrica (BIPA, CCPA, CPRA)

Si las herramientas de IA recopilan datos biométricos—como reconocimiento facial o huellas de voz—los empleadores deben seguir estrictos procedimientos de consentimiento y manejo de datos.

 

Ejemplo del Mundo Real: Un Empleador Sorpresivamente Atrapado

 

Una cadena de retail utilizó una herramienta de escaneo de currículums con IA que favorecía a los solicitantes que practicaban ciertos deportes en la universidad. El sistema creó involuntariamente una preferencia de contratación por candidatos jóvenes, excluyendo a muchos solicitantes mayores.

Esto resultó en:

  • Una investigación de la EEOC

  • Miles en costos de conciliación

  • Auditorías requeridas y cambios en los procesos de contratación

A pesar de que la empresa no diseñó la herramienta, aún así fue considerada responsable.

 

Cómo los Empleadores Pueden Protegerse: Pasos Prácticos de Cumplimiento

 

Si su organización utiliza herramientas de IA en la contratación, aquí están las acciones que debe tomar ahora.

 

1. Realizar una Evaluación de Riesgos de IA

Revisar:

  • Qué herramientas de contratación se están utilizando

  • Qué datos analizan

  • Si la IA toma o influye en las decisiones

  • Si los grupos protegidos pueden verse afectados desproporcionadamente

Documentar esta evaluación es crucial para auditorías e investigaciones.

 

2. Exigir Responsabilidad a los Proveedores (¡Los Contratos Importan!)

Muchos proveedores declinan responsabilidad y ofrecen cero transparencia. Su contrato debe incluir:

✔ Cumplimiento de sesgo algorítmico y discriminación✔ Responsabilidad del proveedor por auditorías✔ Normas de privacidad y seguridad de datos✔ Divulgación de fuentes de datos de entrenamiento✔ Indemnización por resultados discriminatorios✔ Garantías de revisión humana✔ Acceso a registros, explicaciones de puntuación y salidas del sistema

Sin estas cláusulas, su negocio puede estar asumiendo un riesgo oculto masivo.

 

3. Realizar Auditorías de Sesgo Regularmente

Para las empresas que contratan en NYC o se preparan para regulaciones futuras, las auditorías anuales de terceros deben incluir:

  • Pruebas de disparidad de género

  • Pruebas de raza y etnicidad

  • Revisión del impacto de la discapacidad

  • Análisis de distribución de puntuaciones

  • Comparaciones de tasa de aprobación

Las auditorías de sesgo demuestran cumplimiento de buena fe y reducen la responsabilidad.

 

4. Mantener Supervisión Humana

La IA no puede operar como el tomador de decisiones final. Los empleadores deben:

  • Revisar cada decisión automatizada

  • Permitir anulación manual

  • Documentar la participación humana

  • Ofrecer mecanismos de apelación para candidatos rechazados

Esto es requerido bajo varias regulaciones locales e internacionales de IA.

 

5. Proporcionar Aviso a los Candidatos y Obtener Consentimiento

Debe divulgar claramente:

  • Que se está utilizando IA

  • Cómo afecta la evaluación

  • Qué datos recoge

  • Si se analizan datos biométricos

No hacerlo puede violar leyes de privacidad y antidiscriminación.

 

El Futuro de la IA en la Contratación: Regulaciones en Crecimiento

 

Estados como California, Illinois y Massachusetts tienen legislación pendiente similar a la Ley Local 144 de la Ciudad de Nueva York. Internacionalmente, la Ley de IA de la UE impone reglas estrictas sobre la IA utilizada en decisiones de empleo.

La tendencia es clara: los empleadores deben tratar las herramientas de contratación de IA con el mismo nivel de escrutinio legal que los tomadores de decisiones humanos.

 

Conclusión

 

La IA ofrece poderosas ventajas en la contratación, pero conlleva un riesgo legal significativo, especialmente cuando los algoritmos discriminan involuntariamente o recogen datos sensibles.

La conclusión clave:Los empleadores son legalmente responsables de los resultados de las herramientas de IA que utilizan, incluso cuando esas herramientas provienen de proveedores de terceros.

Abordar proactivamente el cumplimiento ahora puede salvar a su negocio de costosas litigaciones, investigaciones y daños a la reputación más adelante.

 

Llamado a la Acción

 

Si su empresa utiliza IA en la contratación, o planea hacerlo, debe tener un profesional legal que revise sus sistemas, contratos y procedimientos de cumplimiento.

Para orientación legal estratégica sobre IA, derecho laboral y gestión de riesgos empresariales, contacte:

 

📩 admin@molawoffice.com📞 (305) 548-5020 (Opción 1)💬 WhatsApp: (305) 349-3637

 

 

Manténgase informado. Manténgase en cumplimiento. Manténgase adelante—con AI Law Lens.