Los riesgos de la neurotecnología para los derechos humanos
La neurociencia cognitiva estudia el comportamiento de nuestro cerebro a la hora de recibir y procesar la información que recibe a través de los sentidos. Esta ciencia aplicada al mundo del marketing abre un campo de posibilidades. En esencia se trata de analizar las respuestas físicas y sensoriales de las personas ante determinados estímulos para, en base a ello, elaborar las estrategias de producto. Hasta ahí todo bien pero, ¿qué sucede cuando se recogen nuestras reacciones sin tener conocimiento ni haber prestado nuestra autorización? La guerra en defensa de la privacidad ya ha comenzado.
De un tiempo para acá ha comenzado a gestarse una corriente que reclama lo que han bautizado como neuroderechos, en referencia a la defensa de la privacidad de nuestras respuestas cerebrales. La incorporación de la Inteligencia Artificial (IA) y la necesidad de alimentar sus algoritmos con cantidades masivas de información no ha hecho más que amplificar esta inquietud, dando lugar a organizaciones como la Neurorights Foundation, que ha pedido a la ONU "desempeñar un papel de liderazgo a nivel mundial para adoptar estas emocionantes innovaciones al tiempo que protege los derechos humanos y garantiza el desarrollo ético de la neurotecnología".
La neurotecnología plantea nuevos debates que han de ser afrontados. Sobre el papel, las bondades de estas innovaciones aplicadas al campo de la Sanidad son indiscutibles, pues permiten avances en la prevención, diagnóstico y tratamiento de trastornos neurológicos como el Parkinson, la demencia, los ictus, depresión, etc. Lo hacen, además, sin necesidad de recurrir a técnicas invasivas, pues una simple diadema basta para recoger la respuesta neuronal. Sin embargo, además del mencionado neuromarketing –que opera dentro de cierto vacío legal-, han comenzado a comercializarse dispositivos y aplicaciones de neuromodulación que, con el argumento de venta de mejorar el rendimiento cerebral plantea cuestiones éticas, legales y sociales.
Algunos países han comenzado a legislar en este campo, incorporando los datos neurológicos en las leyes de protección de datos personales. Chile abrió camino en este sentido, promulgando una legislación dirigida específicamente a proteger la integridad mental y, recientemente, un exsenador de ese país recurrió a la Corte Suprema acusando a una empresa estadounidense de vulnerar dos artículos de la Ley 19.628 sobre protección de la vida privada, al entender que había capturado sus datos cerebrales sin su consentimiento.
Por su parte, la UNESCO también ha abordado en diversas ocasiones los riesgos de la neurotecnología para los derechos humanos. En uno de sus últimos documentos, el organismo dependiente de la ONU apunta que sólo en 2021 las compañías especializadas en neurotecnología invirtieron 33.200 millones de dólares, lo que da una idea de la dimensión del actual escenario.
A lo largo de diversos artículos académicos, la UNESCO plantea cuestiones relacionadas con los riesgos que representan esos dispositivos de consumo, no sólo en cuanto a privacidad, sino de otra naturaleza. Así, uno de los expertos alerta sobre la generación de demasiadas expectativas sobre su potencial para mejorar la salud y el bienestar, cuando en realidad lo que más interesa a las compañía es recopilar datos cerebrales con fines comerciales o, incluso y en determinados países, para prácticas de neurovigilancia. Al mismo tiempo, otra de las preocupaciones que surge si este tipo de tecnología aumenta su implantación en los hogares es la combinación de toda esta información neuronal con el resto de datos personales recopilados a través de nuestros teléfonos móviles, redes sociales, etc. ¿Será posible generar una especie de neurotipo que se utilice para perfilar nuevos usuarios que, incluso, ni siquiera estén haciendo uso de la neurotecnología?
Por otro lado, preocupa, y mucho, la posibilidad de que la neurotecnología de consumo termine por monitorizar la actividad cerebral para impulsar tendencias sociales hacia el autoseguimiento, prescindiendo cada vez más de las opiniones médicas; por no hablar de los usos de uno de los segmentos que más inversión está acaparando, el militar.
Asimismo, la OCDE, a través de su Comité de Política Científica y Tecnológica, ha elaborado una Recomendación sobre innovación responsable en neurotecnología en la que entre otras cuestiones reconoce la libertad cognitiva, entendida como el derecho a la autodeterminación mental y alerta sobre la neurotecnología que busque afectar la libertad y la autodeterminación, particularmente en cuestiones que deriven en sesgo de discriminación o exclusión. En este sentido, la OCDE sugiere fomentar una mayor conciencia de los sistemas de supervisión existentes y, cuando corresponda, evaluar y trabajar para adaptar las leyes y regulaciones existentes para la práctica médica y la investigación para su aplicación a actividades que involucran neurotecnología.
En cuanto a la salvaguarda de los datos cerebrales personales, la OCDE llama a que los actores involucrados proporcionen información clara al público y a los participantes de la investigación sobre la recopilación, el almacenamiento, el procesamiento y el uso potencial de datos cerebrales personales recopilados, incluidos los recogidos con fines exclusivamente médicos.
Hace falta, pues, una legislación que cierre la brecha regulatoria existente. España es uno de los países que está dando pasos en este sentido, mirando hacia esa neuroprotección, pero con eso no basta. Como acostumbra a suceder con la tecnología, ésta avanza a un ritmo mucho más vertiginoso que los legisladores y, en esta cuestión específica, todavía existen muchas incógnitas. ¿Podrán estos dispositivos decodificar pensamientos y sentimientos a partir de datos cerebrales? Actualmente, las neurotecnologías carecen de esa capacidad, pero a medida que se combina con otros avances como la IA no se descarta la posibilidad de inferir contenido mental a partir de datos cerebrales, por ejemplo, agregando datos cerebrales a marcos de análisis de datos multimodales que también contienen muchos otros tipos de datos personales. El futuro es incierto y habrá que estar preparados.
Sin comentarios