La falta de transparencia cuestiona la IA
Esta semana se ha celebrado en Londres la Cumbre de Seguridad de la Inteligencia Artificial (IA) y más de un centenar de representantes de la sociedad civil (expertos en tecnología, organizaciones de derechos humanos, sindicatos, académicos…) ya la han calificado de “oportunidad perdida”. Así se lo han hecho saber al primer ministro británico Rishi Sunak en una carta que le han remitido y que, entre otras críticas, lamentan que la Cumbre caiga en los “riesgos futuros apocalípticos” de la IA, mientras pasa por alto los daños cotidianos que ya se están produciendo. El hecho de que no exista en este encuentro ninguna representación de colectivos afectados por la IA ya no dice mucho a su favor.
Mientras sucede esto en Londres, surgen otras iniciativas más tangibles, sin tanto bombo y que evidencian el largo camino que resta por recorrer. Expertos del Center for Research on Foundation Models (CRFM) de la Universidad de Standford, el MIT y la Universidad de Princeton han aunado esfuerzos para diseñar un sistema de evaluación de la transparencia en los modelos de lenguaje de IA. El resultado ha sido el Foundation Model Transparency Index (FMTI) cuyos primeros resultados no son demasiado optimistas: El FMTI evalúa sobre 100 y las notas más elevadas oscilaron entre 47 y 54. La más baja apenas superó el 10.
El margen de mejora en cuanto a transparencia en el desarrollo y utilización de estos modelos es muy amplio. Probablemente el más popular a pie de calle es ChatGPT, de la compañía OpenAI que, paradójicamente, en su mismo nombre alardea de abierto, pero nada más lejos de la realidad. La compañía, en la que Microsoft ha inyectado 10.000 millones de dólares, ha blindado todo cuanto se refiere a los detalles de su arquitectura, hardware, la construcción del conjunto de datos, la computación de entrenamiento o, incluso, del tamaño del modelo. El pretexto es, sencillamente, que perdería ventaja competitiva sobre sus rivales. Esa es la tónica general del mercado.
Esta primera edición del FMTI ha evaluado a los diez principales modelos: OpenAI (GPT-4), Anthropic (Claude 2), Google (PaLM 2), Meta (Llama 2), Inflection (Inflection-1), Amazon (Titan Text), Cohere (Command), AI21 Labs (Jurassic-2), Hugging Face (BLOOMZ / BigScience) y Stability AI (Stable Diffusion 2).
Sin profundizar a un nivel muy técnico qué valoran estos indicadores, sí merece la pena destacar cómo alrededor de un tercio de ellos intentan arrojar luz sobre los datos de entrenamiento de estos modelos, la mano de obra implicada en ella o los recursos de computación que se han empleados. Otro tercio de este centenar de indicadores busca ahondar en las mismas capacidades de los modelos, qué confiabilidad tienen y cuáles son sus riesgos –y mitigación de éstos-. Otro bloque de indicadores hace referencia a aspectos como la distribución del modelo, qué nivel de protección tienen los usuarios y, en caso de que las personas se vean afectadas, cuáles son las posibilidades de reparación.
La puntuación media es 37 sobre 100, siendo Meta y su modelo Llama 2 quien obtiene la más alta (54) y Amazon con Titan Text quien se precipita a la última posición (12). Por encima de la media, además de Meta, se encontrarían Hugging Face, OpenAI, y Stability AI, con Google, Anthropic, Cohere rondando esos 37 puntos y AI21 Labs, Inflection y Amazon muy por debajo.
La opacidad no sólo afecta a los aspectos más técnicos, sino a temas de los usos prácticos de estos modelos de IA. Así, el FMTI revela que ninguna empresa proporciona información sobre cuántos usuarios dependen de su modelo. Tampoco detallan en cuántos países está siendo utilizado o qué sectores de actividad. Tampoco se es transparente a la hora de ofrecer información sobre las condiciones laborales de sus trabajadores y trabajadoras lo que, después de la exclusiva publicada por la revista Time sobre OpenAI, es muy preocupante.
La prestigiosa revista reveló que la desarrolladora de ChatGPT subcontrató los servicios de la empresa Sama, una compañía con sede en San Francisco que habitualmente contrata a personas en Kenia, Uganda o India para etiquetar datos de empresas de Silicon Valley como Google, Meta o Microsoft. A pesar de promocionarse como una empresa de IA ética, Sama pagó a los trabajadores de Kenia que ayudaron a depurar ChatGPT un salario neto de entre 1,32 y 2 dólares por hora, en función de su antigüedad y productividad.
Los resultados de esta primera edición del FMTI no son nada esperanzadores. En un momento como el actual, en el que las personas no terminan de asimilar el impacto real que puede tener la IA, la necesidad de transparencia se hace imperativa. El hecho de que una tecnología que desarrollan unos pocos afecte a miles de millones de personas es motivo más que suficiente para exigir una rendición de cuentas, una ruptura de esa opacidad que valide la aplicación de la IA.
Algo que, desde luego, no se consigue excluyendo de una Cumbre mundial a quienes representan a personas que ya han sido despedidas por un algoritmo, no han obtenido un préstamo como consecuencia de un sesgo por su código postal o ha visto pisoteadas sus libertades civiles víctimas de vigilancia biométrica.
Sin comentarios