Las redes sociales se plantan ante Clearview AI
YouTube, Twitter y ahora Facebook y, por extensión, Instagram. Como hicieran otras antes, la red social fundada por Mark Zuckerberg ha exigido a Clearview AI que deje de alimentar su base de datos de reconocimiento facial a partir del contenido volcado en la res social, por considerar que viola sus políticas.
Desde que hace un mes The New York Times destapara las prácticas de Clearview AI, el malestar por cómo está aprovechando en beneficio propio el material que las personas suben a sus perfiles de redes sociales ha saltado también al ámbito profesional: LinkedIn también ha enviado una carta a la dirección de la compañía para que cese este comportamiento.
Clearview AI dispone de una base de datos de cerca de 3.000 millones de imágenes extraídas de internet, a las que aplica algoritmos de Inteligencia Artificial (IA) para la identificación facial de las personas. La fiabilidad del sistema está aún en duda, puesto que mientras la compañía afirma que es capaz de asociar a una persona con sus registros en el 75% de los casos, el Instituto Nacional de Estándares y Tecnología de Estados Unidos advierte de la gran cantidad de errores que se producen en las caras de personas negras y asiáticas, incluso, de las mujeres.
Estas carencias en sistemas de reconocimiento social llevan mucho tiempo encima de la mesa. La experta del MIT Joy Buolamwini ya lo denunció en 2017, uniéndose para ello a Liga de la Justica Algorítmica.
A pesar de ello, esta tecnología de Clearview AI ya ha sido utilizada en EEUU por las fuerzas del orden - más de 600 agencias, como el FBI o el Departamento de Seguridad Nacional-, a las que antes de que saltara el escándalo les era vendida la aplicación con cierta opacidad. Sin embargo, el número de departamentos de Policía que quieren marcar distancia con la compañía han aumentado, desde la publicación del NY Times.
El máximo responsable de Clearview AI, Hoan Ton-That, justifica sus métodos en el uso de fuentes abiertas, esto es, contenido público que las personas suben libremente a internet; incluso, en la Primera Enmienda, que defiende el derecho de libertad de culto, la libertad de expresión y de prensa y el derecho a la asamblea pacífica de las personas. Estos planteamientos, sin embargo, son de dudosa defensa, toda vez que la compañía no cuenta con el permiso expreso de las personas para utilizar datos tan personales como sus caras (datos biométricos).
Una circunstancia, además, que en la Unión Europea (UE) se vuelve aún más estricta con la entrada en vigor en 2018 del Reglamento General de Protección de Datos (RGPD), concretamente en su artículo 9, donde se establece que “quedan prohibidos el tratamiento de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, la afiliación sindical, y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física”. Seis años antes de la aprobación del RGPD, la UE ya pegó un tirón de orejas a Facebook, obligándole a retirar su tecnología de reconocimiento facial.
Desde que hace un mes The New York Times destapara las prácticas de Clearview AI, el malestar por cómo está aprovechando en beneficio propio el material que las personas suben a sus perfiles de redes sociales ha saltado también al ámbito profesional: LinkedIn también ha enviado una carta a la dirección de la compañía para que cese este comportamiento.
Clearview AI dispone de una base de datos de cerca de 3.000 millones de imágenes extraídas de internet, a las que aplica algoritmos de Inteligencia Artificial (IA) para la identificación facial de las personas. La fiabilidad del sistema está aún en duda, puesto que mientras la compañía afirma que es capaz de asociar a una persona con sus registros en el 75% de los casos, el Instituto Nacional de Estándares y Tecnología de Estados Unidos advierte de la gran cantidad de errores que se producen en las caras de personas negras y asiáticas, incluso, de las mujeres.
Estas carencias en sistemas de reconocimiento social llevan mucho tiempo encima de la mesa. La experta del MIT Joy Buolamwini ya lo denunció en 2017, uniéndose para ello a Liga de la Justica Algorítmica.
A pesar de ello, esta tecnología de Clearview AI ya ha sido utilizada en EEUU por las fuerzas del orden - más de 600 agencias, como el FBI o el Departamento de Seguridad Nacional-, a las que antes de que saltara el escándalo les era vendida la aplicación con cierta opacidad. Sin embargo, el número de departamentos de Policía que quieren marcar distancia con la compañía han aumentado, desde la publicación del NY Times.
El máximo responsable de Clearview AI, Hoan Ton-That, justifica sus métodos en el uso de fuentes abiertas, esto es, contenido público que las personas suben libremente a internet; incluso, en la Primera Enmienda, que defiende el derecho de libertad de culto, la libertad de expresión y de prensa y el derecho a la asamblea pacífica de las personas. Estos planteamientos, sin embargo, son de dudosa defensa, toda vez que la compañía no cuenta con el permiso expreso de las personas para utilizar datos tan personales como sus caras (datos biométricos).
Una circunstancia, además, que en la Unión Europea (UE) se vuelve aún más estricta con la entrada en vigor en 2018 del Reglamento General de Protección de Datos (RGPD), concretamente en su artículo 9, donde se establece que “quedan prohibidos el tratamiento de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, la afiliación sindical, y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física”. Seis años antes de la aprobación del RGPD, la UE ya pegó un tirón de orejas a Facebook, obligándole a retirar su tecnología de reconocimiento facial.
Sin comentarios