Andrade señala la dificultad de Facebook para etiquetar los discursos de odio

| 4 junio, 2019

EFE. LA VANGUARDIA.-  El gerente de políticas públicas de Facebook, Norberto Andrade, ha destacado la dificultad de los algoritmos de inteligencia artificial para etiquetar los discursos de odio de Internet, que «dependen de cada cultura y cada sociedad».

Andrade ha resaltado que para garantizar que la red sea «igualitaria y no discriminatoria» se realiza una supervisión del proceso de acumulación de datos por parte de este tipo de tecnologías para garantizar «la máxima objetividad».

El directivo de Facebook ha realizado estas declaraciones durante el debate sobre los retos de inteligencia artificial y la protección de datos celebrado en el seno del Congreso Nacional de Privacidad que se celebra en la Universidad Politécnica de València, organizado por la Asociación Profesional Española de Privacidad (APEP).

Andrade ha repasado las etapas para desarrollar estas tecnologías: primero se elabora una selección de datos, después se produce el etiquetado y clasificación de los mismos y, finalmente, tiene lugar la evaluación y el algoritmo.

«Uno de los problemas de la inteligencia artificial es que es muy humana: se alimenta de datos y es un reflejo de lo que somos», ha señalado Andrade, que ha repasado en su intervención los mecanismos de los que se sirve la red social para asegurar la privacidad de forma ética.

En la ponencia también ha participado Asier Crespo, director del área legal de Microsoft Ibérica, quien ha indicado que en la «cuarta revolución industrial» se necesita aquello que también fue necesario en el pasado y anteriores fases de expansión industrial: «un marco jurídico», en este caso «para la tecnología y la inteligencia artificial».

Crespo ha abogado por la «inclusión de las personas» en este nuevo marco y ha añadido que los principios que debe fomentar la empresa para hacerlo posible son la «transparencia» y la «responsabilidad».

El directivo de Microsoft Ibérica ha demandado, además, unos «mecanismos institucionales» para examinar cómo se van a proyectar las iniciativas de inteligencia artificial en las personas y asegurar la «equidad».

Por su parte, el profesor de la Universidad de Alicante Luis Moreno ha cuestionado si en Europa se está entendiendo bien la economía digital, ya que, a su juicio, se ha convertido en el «referente en el marco legal de la inteligencia artificial y la protección de datos», pero no en el desarrollo de empresas tecnológicas.

«Estamos exigiendo a la economía digital cosas que no exigíamos antes», ha puntualizado, a la vez que ha abogado por una apertura de los datos, conservando el anonimato y la privacidad, que permita a las economías «dar el salto».

HISTÓRICO

Enlaces internacionales