Los derechos humanos en la era de la Inteligencia Artificial

| 7 marzo, 2020

Las nuevas tecnologías están siendo usadas para erosionar libertades y exacerbar la discriminación. La ONU propone ampliar los márgenes de las libertades civiles para adaptarlas a la era digital y protegerlas

ROSA MENESES. EL MUNDO.- El futuro es un presente en el que la Inteligencia Artificial forma ya parte de nuestro día a día. Nos facilita la vida, desde las comunicaciones y el transporte hasta la salud, las finanzas o la seguridad. Pero, al contrario de la creencia instalada en la sociedad, detrás de la tecnología no hay una zona neutral y es necesario reflexionar sobre el impacto que tiene en la vida de las personas. Los expertos están empezando a analizar las consecuencias de la era digital desde una perspectiva socioeconómica y de derechos humanos, preguntándose cómo impactan los sistemas tecnológicos en los más vulnerables y qué valores colectivos se están transformando. En el punto de mira están la censura digital, la recogida de datos biométricos, los sistemas de vigilancia, las cámaras de reconocimiento facial o las armas autónomas, capaces de tomar decisiones sobre la vida o la muerte. Mientras, la ONU advierte de que es necesario ampliar las fronteras de las libertades civiles a lo virtual para adaptarse a internet de forma que se protejan datos personales, se ataje la discriminación y no se exacerbe la brecha norte-sur.

En la última década, los avances tecnológicos se han incorporado a todos los aspectos de nuestra vida. Y lo han hecho a un ritmo frenético, casi sin que los gobiernos y las sociedades tengan tiempo para entenderlos, regularlos e identificar su influencia positiva y negativa en el desarrollo socioeconómico y los derechos humanos. Los sistemas de Inteligencia Artificial tienen acceso a una gran cantidad de datos con los que pueden tomar decisiones, hacer predicciones y establecer clasificaciones en una amplia variedad de sectores, desde decidir nuestra capacidad de crédito o asistir en tareas de vigilancia, seguridad y defensa, pasando por la moderación de contenidos online. Pero la tecnología no es infalible y puede incluso llegar a ser discriminatoria e injusta en ciertas circunstancias. En un mundo en el que los derechos humanos se encuentran amenazados en medio de los conflictos, el auge de los populismos o dictaduras feroces, el lado oscuro de la era digital también impacta en las libertades.

«Vivimos un retroceso en cuanto a defensa de los derechos humanos, estamos perdiendo mecanismos que ha costado siglos conquistar. Basta con ver la escalada de conflictos, las terribles emergencias que generan y el desamparo en que se encuentran hoy las personas refugiadas. En este contexto, la Inteligencia Artificial puede contribuir, y ya lo está haciendo, a aumentar la vulneración de derechos fundamentales», señala a EL MUNDO.es Leila Nachawati Rego, de la Asociación para el Progreso de las Comunicaciones (APC), organización que cada año elabora un informe anual, el Global Information Society Watch (GISWatch), donde monitoriza los compromisos nacionales e internacionales con respecto a la tecnología y cuyo objetivo es lograr una sociedad de la información más justa e inclusiva.

El mundo está inmerso en la carrera por el desarrollo de la tecnología digital, el 5G y la Inteligencia Artificial, donde compiten EEUU y China, países donde principalmente se concentran las empresas que diseñan estos sistemas. Y en esa batalla por la supremacía virtual y geoestratégica, los derechos humanos corren el riesgo de ser olvidados. «Avances tales como los programas de reconocimiento facial, la identificación digital y la biotecnología no deben ser utilizados para erosionar los derechos humanos, aumentar las desigualdades o exacerbar la discriminación existente», advirtió a finales de febrero el secretario general de la ONU, António Guterres. Naciones Unidas ya se ha puesto manos a la obra y tiene en marcha varios mecanismos que estudian las implicaciones de la Inteligencia Artificial en el desarrollo social y los derechos de los ciudadanos; entre ellos el Consejo de Derechos Humanos o la Unesco dedican paneles de expertos a reflexionar sobre este fenómeno.

EFECTO TRANSFORMADOR

La Declaración de Toronto, rubricada en mayo de 2018 por Human Rights Watch, Amnistía Internacional y otras organizaciones pro derechos humanos, reconocía la relevancia de las nuevas tecnologías y su efecto transformador en la vida, aumentando la eficiencia, investigando enfermedades y acelerando el desarrollo de medicamentos. Pero advertía de que los sistemas de aprendizaje automático y de Inteligencia Artificial reproducen los sesgos existentes en la realidad no virtual y cómo su uso indebido puede amplificar la discriminación a minorías, ahondar la brecha entre países del norte y del sur y perpetuar la marginación de comunidades vulnerables. El documento insta a los Estados a prevenir la discriminación en el diseño o implementación de los sistemas de aprendizaje automático y atribuye responsabilidades a empresas y entes privados. Su adopción supuso un importante paso para introducir las normas de derechos humanos en el corazón del desarrollo tecnológico.

Pero hay aún mucho camino por recorrer en ese laberinto de algoritmos oscuros. La semana pasada, durante la 43º sesión del Consejo de Derechos Humanos reunida en Ginebra, el organismo llamó a la acción para ampliar los márgenes de los derechos humanos con el fin de adaptarlos a la era digital y protegerlos de su impacto. En especial, se refirió a los datos personales y sanitarios, pero también denunció que muchos países están utilizando la tecnología para erosionar derechos democráticos. «Las nuevas tecnologías son usadas frecuentemente para violar los derechos y la privacidad a través de la vigilancia, para la represión o para difundir el odio a través de Internet», señaló entonces Guterres.

Uno de los ejemplos más recientes del uso de la Inteligencia Artificial para reprimir el derecho a la protesta han sido las manifestaciones que estallaron en 2019 en Hong Kong contra el proyecto de ley de extradición a China. A medida que las protestas escalaron, la policía utilizó cámaras de reconocimiento facial para identificar a los activistas. Los manifestantes hongkoneses intentaron contrarrestar esa tecnología cubriéndose la cara con mascarillas o paraguas, incluso llegaron a destruir algunas cámaras, mientras el Gobierno del enclave recurrió a poderes de emergencia para prohibir llevar el rostro cubierto. Reino Unido, Dinamarca y Alemania aplican sistemas de reconocimiento facial. Esta tecnología ha sido introducida también en países africanos y latinoamericanos como Kenia, Uganda, Argentina, Brasil, Chile o México.

En algunas regiones de China, el Gobierno ha puesto en marcha sistemas que recopilan y procesan imágenes y datos personales. Una investigación internacional reveló a finales del año pasado cómo Pekín utiliza tecnología punta para controlar y reprimir a la minoría uigur. «Es importante, a la hora de evaluar los efectos de la Inteligencia Artificial, ir más allá de la perspectiva de quienes se benefician de estas tecnologías y analizar sus efectos en las poblaciones más desfavorecidas, donde los derechos son más fácilmente vulnerados», apunta Nachawati.

REGULACIÓN Y TRANSPARENCIA

El del reconocimiento facial y la vigilancia en espacios públicos es un campo especialmente controvertido para los derechos humanos, ya que las posibilidades de abuso por parte de las fuerzas del orden -en dictaduras pero también en democracias- pueden ser particularmente represivas hacia disidentes, manifestantes, activistas, abogados o periodistas. Además, los expertos advierten de que se ha demostrado que el reconocimiento facial es muy impreciso y muestra un alto margen de fallos cuando se trata de mujeres y de personas de raza negra. Una investigación en el Reino Unido reveló un 90% de error usando esta técnica. Pese a la inquietud, «la gran mayoría de estos sistemas está sin regular y carece de mecanismos significativos de transparencia y rendición de cuentas», señala Luis Fernando García Muñoz, de la Red en Defensa de los Derechos Digitales, en un artículo publicado en noviembre en la revista América Latina en Movimiento.

Organismos internacionales y regionales, gobiernos, instituciones y ONG están cada vez más concienciados en articular fórmulas para gobernar los sistemas algorítmicos y establecer marcos de referencia que complementen las actuales regulaciones sobre protección de datos y privacidad, discriminación, libertad de expresión o derechos laborales. La semana pasada, el Vaticano y dos gigantes tecnológicos acordaron colaborar en el diseño de inteligencia artificial que ponga en el centro al ser humano. Sólo así, señalaron, se contribuirá al desarrollo y al bien común. A la espera de que la Unión Europea desarrolle una legislación comunitaria -a lo que Ursula von der Leyen se ha comprometido al iniciar su mandato-, la Comisión estableció en 2018 un panel de expertos sobre Inteligencia Artificial que publicó, el pasado julio, una guía con siete estándares para un desarrollo ético de esta tecnología: supervisión humana; seguridad; privacidad y control de datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental y rendición de cuentas.

«La Inteligencia Artificial es un sistema sociotécnico con limitaciones significativas y puede ser defectuoso, contrariamente a la creencia popular de que es neutral. Una explicación posible es que los datos utilizados para entrenar estos sistemas emergen de un mundo que es discriminatorio e injusto y eso es lo que el algoritmo aprende», explica Vidushi Marda, abogada e investigadora experta en tecnologías digitales de Article 19, en último GISWatch.

LOS ROBOTS ASESINOS

En el plano militar, las aplicaciones de la Inteligencia Artificial están haciendo posible el desarrollo de sistemas armamentísticos autónomos (AWS, en sus siglas en inglés) que, una vez activados, seleccionan, atacan y matan objetivos humanos sin que intervenga ninguna persona. Estos sistemas no sólo están cambiando la naturaleza de los conflictos armados sino que pueden alterar la forma de llevar a cabo operaciones de imposición de la ley al tiempo que ponen sobre la mesa un gran riesgo para los derechos humanos. Los AWS deshumanizan el uso de la fuerza, una tendencia que ya empezó hace décadas con el desarrollo de drones militares.

Al contrario de los aviones no pilotados, que necesitan una persona que actúe como operador remoto, los AWS pueden matar o aplicar la fuerza sin control humano. Incorporan un software y algoritmos que, por sí mismos, pueden ser capaces de tomar decisiones sobre la vida y la muerte. «Además de serias dudas sobre cómo las tecnologías autónomas pueden ser capaces técnicamente de atenerse a las leyes internacionales, los AWS presentan muchos interrogantes éticos y sociales sobre la delegación de responsabilidad en la toma de decisiones humanas hacia un sistema autónomo designado para herir y matar», reflexiona Rasha Abdul Rahim, vicedirectora de Amnistía Internacional, para GISWatch. «Como no es posible que una máquina comparezca ante la Justicia, ¿quién será responsable cuando se produzcan violaciones?», se pregunta.

HISTÓRICO

Enlaces internacionales