Europa define un marco jurídico de IA específico para migrantes
A principios de marzo, el Parlamento Europeo ratificó la
primera ley de Inteligencia Artificial (IA) del mundo. Sin embargo, ser la
primera no es sinónimo de ser excelente. Con todo, es un paso en algunos
aspectos, pero evidencia lo que ya veníamos advirtiendo con los algoritmos, es decir,
que éstos reflejan los sesgos de quienes los programan. La Unión Europea adolece de una falta de respeto por los derechos humanos
de migrantes y solicitantes de protección internacional y eso es,
precisamente, lo que ha reflejado en su
Ley de IA.
Antes de continuar y por ser rigurosos, Joe Biden ya emitió a finales del año pasado una orden ejecutiva con la que pretendía regular el uso seguro de la IA –una especie de carta a los Reyes Magos-, anticipándose a Bruselas. En todo caso, la cuestión que nos ocupa es el fiasco que ha supuesto la Ley de IA en materia de derechos humanos. No podemos decir que nos haya sorprendido porque si el Pacto de Migración y Asilo de la UE atenta contra derechos básicos humanos y universales, como de hecho han denunciado el grueso de las ONG y colectivos internacionales, ¿cómo no iba a reflejar Bruselas estas taras en su ley de IA? Lo ha hecho, como lamentan organizaciones como Amnistía Internacional, cuya asesora Mher Hakobyan no duda en afirmar que “aunque los responsables políticos de la UE están aclamando la Ley de IA como un modelo mundial para la regulación de la IA, la legislación no tiene en cuenta los principios básicos de derechos humanos”.
Como sucedió con el Pacto Migratorio, el resultado de la ley de IA es decepcionante, habiendo priorizado el interés de la industria y el pragmatismo de las fuerzas y cuerpos de la seguridad del Estado por encima de la protección de las personas y sus derechos humanos. La aplicación de la IA, en combinación con otras tecnologías como el reconocimiento facial, representan una amenaza para las personas migrantes.
Esta ley ha abierto un peligroso precedente al establecer una doble velocidad en la regulación de la IA, puesto que para los colectivos de personas migrantes y solicitantes de protección internacional aplica otro rasero. Las autoridades policiales, migratorias y de seguridad nacional pueden saltarse determinadas reglas y salvaguardas en la aplicación de la IA con estos colectivos.
Tal y como desde este espacio habíamos anticipado, se ha perdido el norte a la hora de sacar partido a la IA en el control fronterizo de Europa, estableciendo un marco jurídico independiente en este ámbito, pues no sólo ha generado lagunas injustificadas, sino que fomenta el uso de sistemas de vigilancia potencialmente discriminatoria sobre los colectivos más vulnerables. Así las cosas, las prohibiciones establecidas en el uso de los sistemas de la IA quedan anuladas en el contexto de la migración, como sucede con los sistemas de evaluación de riesgos y los análisis predictivos.
El agravio comparativo es de tal dimensión que la Ley de IA incluso abre la puerta al reconocimiento de las emociones y expresiones faciales de las personas migrantes, utilizado como una suerte de detector de mentiras en frontera. Lo que en otros ámbitos se consideran sistemas de alto riesgo y quedan excluidos, como es el caso de la identificación biométrica y sistemas de predicción para interceptar y restringir la entrada de personas, en materia de migración sí se aplica.
No sólo eso, sino que las bases de datos masivas de la UE que utilizan la IA aplica a la migración, como es el caso de Eurodac, el Sistema de Información de Schengen y el SEIAV no tendrán que cumplir la regulación hasta 2030. En cuanto a las lagunas intencionadamente generadas, el hecho de que cualquier Estado miembro pueda autoeximirse del cumplimiento de las normas en interés de la seguridad nacional se convierte automáticamente en una amenaza de primer orden a para colectivos migrantes y racializados. La Red Europea de Derechos Digitales (EDRi), en la que se encuentra Amnistía Internacional, lleva tiempo exigiendo una regulación de la IA en la UE que proteja y promueva los derechos humanos, incluidos los de las personas en movimiento, algo que ha caído en saco roto. Con este propósito continúan impulsando campañas como #ProtectNoSurveil (Protege, no Vigiles)
Académicas como Natasha Saunders, doctora en Relaciones Internacionales en la Universidad de St. Andrews (Reino Unido), ya habían advertido de que se necesita un marco ético para proteger a los migrantes de las violaciones de la privacidad y la libertad pero, en lugar de eso, se ha creado un marco jurídico que les desprotege. Han prevalecido otras consideraciones, según habían anticipado otros expertos como Hanna Maria Malik y Nea Lepinkäinen de la Universidad de Turku (Finlandia), que en sus artículos alertaban de cómo las preocupaciones económicas que impulsan las políticas de IA terminan por socavar los valores que deberían impulsar las políticas de migración.
La cuestión es compleja y quizás ni siquiera tiene más solución que la no aplicación de la IA. Los holandeses Karolina La Fors y Fran Meissner de la Universidad de Twente (Países Bajos), en un artículo de 2022 ya se planteaban si el uso de la IA en el control fronterizo alguna vez podrá ser ético. De lo que no cabe duda, sostenían, es que si cabe alguna posibilidad será cuando los gobiernos desarrollen su enfoque en colaboración con los migrantes que se ven afectados por estas herramientas de IA, algo que no ha sucedido en la Ley de IA de la UE.
(Artículo en Público)
Sin comentarios