Por Abogado Yoel Molina
Gobernanza global de la IA en 2025: comparación entre EE. UU., la UE, China y América Latina & el Caribe (y qué deben hacer las empresas)
Si implementas o compras IA en varios países, te enfrentas a cuatro enfoques muy distintos. A continuación tienes una comparación clara y orientada al negocio de Estados Unidos, la Unión Europea, China y América Latina & el Caribe (ALC), seguida de un plan de acción para cumplir sin frenar la adopción.
Radiografía en un minuto
-
Estados Unidos (EE. UU.): No hay una ley federal única. Predominan estándares federales (NIST), aplicación de agencias (FTC) y un mosaico estatal (p. ej., ley de IA de alto riesgo en Colorado —vigente en 2026—; ley de divulgación de chatbots en California desde 2025). Flexible, pero fragmentado.
-
Unión Europea (UE): AI Act integral con obligaciones escalonadas (prohibiciones y alfabetización desde 2025; obligaciones para GPAI desde 2 de agosto de 2025; la mayoría de requisitos para sistemas de alto riesgo en 2026; algunos productos embebidos hasta 2027). Fuerte carga documental y de gestión de riesgos.
-
China: Régimen por capas centrado en gobernanza de contenidos, registros y seguridad: Medidas para IA generativa (2023) y reglas de síntesis profunda (2023) exigen etiquetado/marcado de agua, vías de quejas y, según el caso, registro de algoritmos. Énfasis en lo que el sistema muestra/produce.
-
ALC: La base son las leyes de privacidad; avanzan proyectos y políticas de IA (p. ej., Brasil con PL 2.338/2023; Colombia con CONPES 4144). Cumplimiento guiado por autoridades de datos; panorama desigual que converge hacia controles basados en riesgo.
Comparación lado a lado (lo operativo)
Alcance y filosofía
-
EE. UU.: Enfoque sectorial con capas estatales; la “razonabilidad” se ancla en el NIST AI RMF y en la prevención de prácticas engañosas (FTC). Práctico, pero varía por jurisdicción.
-
UE: Ley horizontal con niveles de riesgo (inaceptable, alto, limitado, mínimo) y una vía específica para modelos de propósito general (GPAI). La documentación manda.
-
China: La IA pública se trata como servicio de información: registros de algoritmo, etiquetado de medios sintéticos, moderación y sistemas de reclamaciones.
-
ALC: “Privacidad primero” + proyectos de ley/políticas basados en riesgo; la contratación pública y las autoridades de datos marcan el paso.
Documentación y registros
-
EE. UU.: Marcos voluntarios/guías (NIST + perfil de IA generativa) para demostrar diligencia; algunas leyes estatales exigen evaluaciones de impacto (Colorado, 2026).
-
UE: Expediente técnico, sistema de gestión de riesgos, registros, supervisión humana; para GPAI: transparencia sobre datos de entrenamiento/copyright y medidas de seguridad.
-
China: Registro/archivo de algoritmos para ciertos recomendadores; evaluaciones de seguridad; trazabilidad y etiquetado de síntesis profunda a nivel plataforma.
-
ALC: Hacia registros de riesgos y evaluaciones; hoy, las exigencias documentales se impulsan por compras públicas y autoridades de protección de datos.
Contenido y medios sintéticos
-
EE. UU.: Reglas estatales (divulgación de chatbots en CA) + exigencias de veracidad publicitaria (FTC); leyes sobre imagen/voz se expanden.
-
UE: Transparencia según riesgo/uso; el DSA añade obligaciones a grandes plataformas.
-
China: Etiquetado/marcado obligatorio y rutas de retirada/queja para síntesis profunda.
-
ALC: El etiquetado emerge como buena práctica (plataformas y licitaciones), con aplicación vía privacidad/consumidor ante engaños.
RR. HH., contratación y equidad
-
EE. UU.: Estándar emergente de revisión humana, avisos al candidato y pruebas de impacto adverso (dinámica estatal/agency).
-
UE: Herramientas de RR. HH. de alto riesgo con evaluación de conformidad, supervisión y monitoreo.
-
China: RR. HH. sujeto a privacidad y reglas de seguridad/algoritmos; foco en controles operativos.
-
ALC: Los proyectos tienden a clasificar RR. HH. como “alto riesgo”; las autoridades de datos enfatizan base legal y equidad.
Fechas clave
-
EE. UU.: Colorado (alto riesgo) 30/06/2026; California (chatbots) vigente 2025.
-
UE: GPAI desde 02/08/2025; alto riesgo en 2026; productos embebidos hasta 2027.
-
China: Medidas de IA generativa (08/2023) y síntesis profunda (01/2023) siguen en vigor.
-
ALC: Brasil pendiente en Diputados; Colombia ejecuta CONPES 4144 mediante política y compras públicas.
Guía práctica si operas en dos o más de estas regiones
-
Adopta un “núcleo común” global. Construye a la altura del AI Act (expediente técnico, gestión de riesgos, registros, supervisión humana) y del NIST AI RMF (pruebas, monitoreo, respuesta a incidentes). Este combo funciona en las cuatro regiones.
-
Localiza para las mayores diferencias.
-
China: Implementa doble etiquetado (visible + metadatos) en medios sintéticos; canal de reportes y retirada ágil; prepárate para archivos/filings cuando aplique.
-
EE. UU.: Añade capas estatales—evaluaciones de impacto al estilo Colorado (RR. HH./crédito/elegibilidad) y avisos de chatbot (California).
-
ALC: Trata el entrenamiento con datos de clientes como opt-in/opt-out controlado; actualiza avisos y evalúa transferencias internacionales; alinea con listas de requisitos de compras públicas (procedencia, pruebas de equidad).
-
UE: Vigila normas armonizadas CEN/CENELEC para alegar presunción de conformidad.
-
Define “puertas de aprobación humana”. Exige visto bueno humano para salidas externas materiales: decisiones de RR. HH., ofertas de precio/elegibilidad, comunicaciones a clientes y compromisos contractuales.
-
Contrata la seguridad por escrito. Incluye no entrenamiento con datos del cliente por defecto, lista de subencargados, certificaciones (SOC 2/ISO 27001), exportación de logs, plazos de notificación de incidentes, indemnidades por PI/imagen, y derechos de reversión/retirada.
-
QA de contenido y procedencia. Etiqueta medios sintéticos donde puedan inducir a error; conserva trazabilidad. Esto ya es obligatorio/práctica en China y cada vez más esperado en otras jurisdicciones.
-
Auditorías y monitoreo post-comercialización. KPIs, gestión de quejas, plazos de acción correctiva y registro de modelo/versión. Es mandato en la UE y excelente evidencia de diligencia en EE. UU./ALC.
Checklist de cumplimiento para este trimestre
-
Designa un Líder de Cumplimiento de IA y un Líder de Privacidad/Seguridad; publica umbrales de aprobación.
-
Inventaria usos de IA; marca RR. HH./crédito/seguridad como alto riesgo; exige revisión humana y bitácoras.
-
Prepara un expediente técnico de IA (gestión de riesgos, gobernanza de datos, evaluaciones, SOPs de supervisión humana).
-
Despliega avisos de chatbot donde el usuario pueda pensar que habla con una persona; ofrece escalamiento a humano.
-
Para medios sintéticos, añade etiquetas/marcas de agua y conserva metadatos de procedencia.
-
Actualiza contratos con cláusulas de IA (no-training de tus datos, seguridad, subencargados, indemnidades por PI/imagen).
-
Agenda pruebas de sesgo/calidad trimestrales y una revisión semestral de políticas alineada a los hitos de la UE y a cambios estatales en EE. UU.
Contáctanos
Para apoyo legal en despliegues de IA entre estas jurisdicciones—contratos y términos con proveedores, privacidad/cumplimiento, guardarraíles laborales, riesgo de PI/contenido y diseño de políticas—contacta al Abogado Yoel Molina en
admin@molawoffice.com
, llama al (305) 548-5020 (Opción 1) o envía un WhatsApp al (305) 349-3637.
www.yoelmolina.com
Por favor, haz clic aquí para programar una cita para discutir este artículo en más detalle.
Ten en cuenta que esto no constituye asesoramiento legal y se considera publicidad.