ChatGPT y su poder para calumniar
La misma semana que Google parece haber superado las preocupaciones que expresó la Unión Europea (UE) en materia de privacidad y ha lanzado en Europa su chatbot de Inteligencia Artificial (IA) Bard, en EEUU la Comisión Federal de Comercio (FTC, por sus siglas en inglés) ha anunciado la apertura de una exhaustiva investigación a OpenAI, desarrolladora del bot de IA ChatGPT por considerar que podría haber vulnerado los derechos de los consumidores, poniendo en riesgo la reputación y los datos personales.
El pasado mes de junio, Google optó por retrasar el lanzamiento de Bard en la UE después de que la Comisión Irlandesa de Protección de Datos pusiera en duda si cumpliría con el Reglamento General de Protección de Datos (RGPD). Al parecer, Google ya habría despejado esas dudas iniciales, ofreciendo más transparencia al respecto y habiendo introducido cambios en los controles para los usuarios, incorporando un ‘centro de privacidad’.
Mientras, al otro lado del Atlántico, la FTC se ha vuelto más exigente con el competidor de Bard, esto es, ChatGPT. Más allá de la información sobre la brecha de seguridad que sufrió en marzo y que permitió acceder a información relacionada con los datos de pago de algunos usuarios, el regulador estadounidense reclama a OpenAI información detallada acerca de todas las quejas recibidas por parte de los usuarios que han sido víctimas de declaraciones “falsas, engañosas, despectivas o dañinas”, afectando a su reputación.
El responsable de OpenAI, Sam Altman, rechaza las acusaciones y ya ha mostrado su predisposición a colaborar con las pesquisas de la FTC. En frente, tiene a la implacable Lina Khan, que desde que fuera puesta al mando del regulador por la Administración Biden se ha mostrado especialmente combativa con las empresas tecnológicas. Este escrutinio le ha granjeado muchos enemigos y, de hecho, los republicanos ya la han acusado en la Cámara de Representantes de extralimitarse en sus competencias en la FTC y el pasado martes un juez federal tumbó su intento de bloquear la compra del desarrollador de videojuegos Activision por parte de Microsoft por considerar que podría vulnerar la libre competencia.
Khan no pone el foco tanto en las injurias o calumnias que pudieran producirse –para ello hay otro tipo de tribunales- sino en el uso de la tecnología para cometerlas. Ya hace tiempo que entre las preocupaciones de la FTC se encuentra también el modo en que la IA se ha convertido en una etiqueta de venta, atribuyéndose a desarrollos que poco o nada tienen que ver con ella. La IA vende y, por este motivo, se están dando casos de compañías se aprovechan de ello para dar una falsa sensación de innovación. Esta falsa IA es, pues, un fraude.
Por otro lado, la FTC reclama a las compañías que no se precipiten en el lanzamiento de productos y servicios de IA y tomen previamente todas las cautelas y análisis necesarios para mitigar los riesgos y potenciales daños. Desde su punto de vista, muchas compañías lanzan sus desarrollos confiando en que los controles se realizarán posteriormente, en lugar de hacerlo desde el mismo diseño. Identificar vídeos, imágenes o audios generados por IA es complicado, pero hay avances al respecto. El reconocimiento de texto creado con IA generativa es, en cambio, mucho más difícil. El peso de saber si uno está o no siendo estafado contenido irreal no debería recaer en el consumidor, argumenta la FTC.
Sin comentarios