Desafíos de las políticas de migración y asilo frente a la era de la  Inteligencia Artificial

Autor Congresistas
30 Vistas

Nancy Pérez García

La integración de la inteligencia artificial en el tejido social y su acelerado despliegue ha evidenciado una brecha crítica: el desfasaje entre la capacidad técnica y los marcos normativos necesarios para garantizar que la tecnología respete los derechos humanos.

La cuestión es que el debate no se debe limitar a la eficiencia de los algoritmos, sino también debe centrarse en su integridad.  Para las agendas de migración y el asilo, la falta de mitigación de sesgos en sistemas de inteligencia artificial (IA) genera riesgos críticos que transforman las fronteras físicas en barreras digitales infranqueables.  Algunos de los principales riesgos identificados son:

1. Violar el derecho a solicitar y recibir asilo 

  • Los algoritmos de justicia predictiva y análisis de credibilidad pueden rechazar solicitudes basándose en patrones históricos sesgados. Si los datos de entrenamiento reflejan prejuicios sobre ciertas nacionalidades o religiones, el sistema puede calificar erróneamente a refugiados legítimos como “riesgos de seguridad”, vulnerando el derecho al debido proceso.

2. Racismo Algorítmico y Perfilado Étnico

  • Reconocimiento facial defectuoso: Los sistemas de identificación biométrica pudieran provocar detenciones erróneas o acoso digital en cruces fronterizos.
  • Vigilancia discriminatoria: La IA utilizada para predecir rutas migratorias y llevar a una sobrevigilancia de grupos específicos, forzando a los migrantes a tomar rutas más peligrosas y letales. Los algoritmos se entrenan con datos históricos. Si esos datos contienen sesgos (por ejemplo, mayores tasas de rechazo histórico para ciertas nacionalidades o etnias), la IA no solo aprende esos sesgos, sino que institucionaliza la discriminación, creando “fronteras virtuales” que filtran a las personas por su origen o perfil socioeconómico antes de que tengan contacto con un humano.

3. Opacidad y Cajas Negras en Fronteras

  • El uso de software privado en la gestión migratoria crea entornos de opacidad institucional. Al no ser transparentes los criterios de decisión, los migrantes carecen de mecanismos efectivos para impugnar una decisión automatizada injusta, quedando en un limbo legal. 

4. Desprotección de Grupos Vulnerables

  • Mujeres. Los sesgos de género en la IA pueden ignorar vulnerabilidades específicas, como casos de trata o violencia de género, al no estar, por ejemplo, adecuadamente parametrizados en los sistemas de selección y reasentamiento.
  • Desinformación dirigida: Los algoritmos de redes sociales, al no mitigar sesgos xenófobos, pueden amplificar discursos de odio que aumentan el riesgo de violencia física contra refugiados en los países de acogida. 

5. Privacidad y Vigilancia Transnacional

  • La biometría y el data mining (minería de datos en redes sociales) han convertido el cuerpo y la identidad digital en el nuevo pasaporte.  La recolección masiva de datos biométricos plantea riesgos de vigilancia masiva. 

Existen ya algunos antecedentes normativos a nivel global para regular sobre estos desafíos. La Unión Europea, como parte de su estrategia digital, publicó en 2023 la primera Ley Integral sobre inteligencia artificial (IA) del mundo. Algunos de sus apartados entraran en vigor hasta mediados de este 2026. Es decir, está corriendo recién su proceso de implementación. 

La Ley de Inteligencia Artificial, establece obligaciones para proveedores y usuarios en función del nivel de clasificación del riesgo de IA. Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y en esta categoría se ubican los temas de gestión de la migración, el asilo y el control de fronteras.

La Ley cataloga explícitamente como alto riesgo a las herramientas de IA empleadas por las autoridades migratorias y de control fronterizo. Esto incluye:

  • Examen de solicitudes de asilo y visados: Algoritmos que evalúan la credibilidad de las pruebas presentadas por los solicitantes.
  • Gestión de fronteras: Sistemas utilizados para vigilar, detectar o identificar personas en los cruces fronterizos.
  • Predicción de movimientos migratorios: Herramientas que analizan datos para anticipar flujos de personas.

Dentro de su contenido destacan: 

  • Categorización biométrica: Prohibición de clasificar a personas por raza, religión u orientación sexual mediante datos biométricos.
  • Sistemas de puntuación social (Social Scoring): El Estado no puede usar IA para calificar la “confiabilidad” de un migrante basándose en su comportamiento social.
  • Identificación biométrica remota en tiempo real: Restringida casi totalmente en espacios públicos, salvo excepciones muy limitadas de seguridad nacional.
  • Transparencia y Explicabilidad: Las autoridades deben poder explicar cómo y por qué el algoritmo tomó una decisión.
  • Supervisión Humana Obligatoria: Ninguna decisión que afecte el estatus migratorio de una persona puede ser tomada exclusivamente por una máquina; siempre debe haber un humano responsable del resultado final.
  • Garantía de Calidad de Datos: Los conjuntos de datos utilizados para entrenar la IA deben ser representativos para evitar sesgos discriminatorios contra etnias o nacionalidades específicas.
  • La obligación para los organismos públicos de realizar una Evaluación de Impacto en los Derechos Fundamentales (FRIA) antes de desplegar cualquier IA de alto riesgo. Esto obliga a las policías fronterizas a documentar cómo el sistema afectará la privacidad, la dignidad y el derecho al asilo.
  • Derechos Fundamentales: Evitar discriminaciones y abusos en el uso de la IA.

El gran desafío actual para países como México, es asegurar que el diseño de los algoritmos sea pro-persona. Que se abran las discusiones sobre cómo la gobernanza de datos migratorios en el país y América Latina deben incorporar estándares de derechos humanos y transparencia algorítmica para evitar que la eficiencia tecnológica se convierta en una herramienta de exclusión sistémica y deshumanización de los procesos.

X. @nancyperez_g

Facebook. Nancy Pérez García

In. Nancy Pérez García 

Artículos Relacionados