“La IA generativa permite que la desinformación se cree en minutos”
Susie Alegre cuenta que la primera vez que leyó sobre el escándalo de Cambridge Analytica, la empresa que recopiló los datos privados de millones de usuarios de Facebook para diseñar propaganda política en elecciones en todo el planeta, se “le encendió la luz”: Corría el año 2017 y con el mundo todavía en shock por la victoria de Donald Trump y el sí al Brexit, esta abogada británica especializada en derechos humanos comenzó entonces a investigar cómo el modelo de negocio de las grandes tecnológicas impacta en lo que ella considera nuestro derecho “más fundamental”: la libertad para pensar libremente.
Pablo Jiménez Arandia
Fruto de ese trabajo surgió un libro, publicado el año pasado en España por la editorial Akal (Libertad de pensamiento. La larga lucha por liberar nuestra mente), que indaga en la protección de ese derecho a lo largo de la historia. Y en cómo en la era digital nuestros datos privados online habrían de funcionar como una suerte de fortín, una barrera de defensa frente a las manipulaciones de los poderosos. En esta entrevista, fruto de la participación de Alegre en las II Jornadas sobre Justicia Digital Global de Oxfam Intermón, la abogada reflexiona sobre la amenaza de la inteligencia artificial (IA) generativa para la democracia y la deshumanización de las personas bajo la excusa de la automatización
¿A qué te refieres cuando hablas de libertad de pensamiento? ¿Y por qué crees que está amenazada en el mundo digital?
La libertad de pensamiento forma parte de todos los grandes convenios de derechos humanos. Pero hasta hace poco casi no se había explorado en lo jurídico. Se ha quedado como una idea casi filosófica. Como otras libertades (la de opinión, conciencia, religión…) tiene dos partes. La externa, lo que decimos o cómo manifestamos nuestras ideas. Y nuestros pensamientos internos. En esta segunda, que se ha explorado menos desde el derecho, me centro yo más.
La defensa de esta libertad se divide en tres aspectos. Nadie te puede forzar a revelar tus opiniones. Has de poder pensar libre de manipulaciones. Y nadie te puede penalizar por tus pensamientos. Te pueden perseguir por lo que dices o por lo que haces, pero no por lo que piensas o por lo que creen que piensas.
Esto último, estas inferencias, son muy importantes en el mundo digital. Mucha de la tecnología actual funciona en base a nuestros datos privados en el mundo online. Estos datos hoy están en venta. ¿Y por qué son tan valiosos? Porque permiten inferir aquello que pensamos.
Nuestros datos privados en el mundo online son la puerta de entrada a nuestros pensamientos. Si se abre, pueden penalizarnos y manipularnos. Por eso es tan importante la privacidad.
¿De qué manera el escándalo de Cambridge Analytica fue para ti un punto de inflexión en este tema?
Con Cambridge Analytica me di cuenta de por qué nuestros datos personales valen tanto. Porque sirven para cambiar nuestras mentes; y por tanto lo que compramos, lo que votamos, la política… Es un control personal que produce cambios en la sociedad.
La propaganda existe desde hace mucho. Pero lo que ha cambiado es que ésta puede ser personalizada —antes era para las masas—. Y eso se puede hacer si se tiene acceso a nuestros datos personales. Desde Cambridge Analytica decían a sus clientes que podían entender quién era cada elector, cuáles eran sus puntos vulnerables, a quién iban a votar. Y luego utilizar esa información para cambiar su forma de actuar. Probablemente no para cambiar opciones políticas, por ejemplo de un voto favorable al Brexit a uno en contra, pero sí provocando que grupos particulares de gente no se levanten del sofá para ir a votar. Con eso es posible cambiar las elecciones de un país.
Este tipo de publicidad política solo se puede hacer porque existe un modelo de negocio basado en la venta de datos privados. Una vez que sabes cómo cambiar la mente de la gente, lo puedes usar para cualquier cosa.
¿Ha habido cambios significativos desde entonces? ¿Se han establecido garantías para que algo así no vuelva a ocurrir?
En Reino Unido, mientras los políticos se llevaban las manos a la cabeza con Cambridge Analytica, aprobaban una regulación de protección de datos que les eximía de muchas de las obligaciones de esta ley. A día de hoy, en mi país los partidos políticos pueden utilizar nuestros datos privados online para perfilar a grupos de votantes y dirigir a ellos sus campañas.
En España, donde se había aprobado una legislación similar a la británica, el Tribunal Constitucional dijo que una ley así no era constitucional, por un tema de privacidad y de libertad ideológica. Así que en España los partidos están más restringidos respecto al uso de datos privados. En Estados Unidos, en cambio, es el salvaje oeste.
Este año hay elecciones cruciales tanto en Europa como en EE UU. ¿Qué panorama vislumbras desde el punto de vista de la desinformación?
Todo el mundo habla de los deep fakes y de qué va a pasar en las elecciones este año, pero no se ha hecho casi nada. Hace poco salió un informe de AlgorithmWatch sobre cómo un tercio de las respuestas del chatbot de Microsoft, Bing Chat, eran falsas. Hoy estamos en un mundo diferente al que había antes de Cambridge Analytica, pero no en un mundo mejor o más controlado. El problema está en que las libertades de opinión y pensamiento están firmemente ligadas a la libertad de información, siempre que contemos con información de la que nos podemos fiar. Y ahora estamos en una situación en la que es difícil fiarse de la información online.
La IA generativa permite que la desinformación se cree en minutos. Y de forma muy creíble. En otoño pasado en Reino Unido tuvimos dos casos de audios de políticos de la oposición que eran falsos. Primero del líder laborista, Keir Starmer; y luego del alcalde de Londres [Sadiq Khan].
Vamos a ver qué pasa este año. No sé cómo se controla esto. Pero al menos pediría a los medios tradicionales que actúen como filtro ante este contenido online falso.
En tu próximo libro, que se publicará en inglés en mayo, Human Rights, robot wrongs, analizas por qué la IA amenaza varios de nuestros derechos fundamentales.
He intentado analizar casos en los que la IA se está diseñando o usando para reemplazar a los humanos y las implicaciones que eso tiene para nuestros derechos. Humanizando a las máquinas se deshumaniza a los humanos.
Está el caso por ejemplo del robot Sophia, creado por un ex diseñador de Disney, que habla con diplomáticos y tiene ciudadanía saudí. El intento de mostrar que los robots pueden ser igual que los humanos, sobre todo a las mujeres, nos reemplaza, nos quita el trabajo pero también quita dignidad. Abre un mundo en el que el humano no es más que un robot biológico.
También analizo el trato de los trabajadores que están dentro del desarrollo de la IA, sea para sacar minerales necesarios para su construcción o entrenando los algoritmos que están detrás.
La deshumanización pone en peligro muchos de nuestros derechos. Y eso es algo que ya está pasando. Alexa es un ejemplo. Nos hemos habituado a hablar a la máquina como si fuera una persona, con cortesía. Y sin darnos cuenta las personalizamos y les damos la razón. Existe ese sesgo de automatización, confiando más en la máquina que en el ser humano. Si miro por la ventana y veo que hay un día soleado, pero la app del tiempo nos dice que está lloviendo, ya no creemos a nuestros propios ojos.
Nos desenvolvemos en medio de una sociedad del entretenimiento y del consumo inducidos por el sistema capitalista, la cual convierte a muchos en individuos narcisistas y materialistas, con escaso (o nulo) apego a valores que entrañen un sentido de comunidad o de solidaridad: Con el impacto exponencial de las llamadas inteligencias artificiales estaríamos adentrándonos en un mundo dominado, contradictoriamente, por la ignorancia y por los prejuicios, algo similar al periodo medieval europeo cuando las monarquías y la iglesia católica le imponían a sus súbditos criterios indiscutibles y se les prohibía pensar con cabeza propia. Las inteligencias artificiales -manipuladas por los grandes capitalistas- contribuirán a afianzar dicha «cultura». (Homar Garcés)
Fuente: https://www.elsaltodiario.com/inteligencia-artificial/susie-alegre-mundo-diferente-cambridge-analytica-deep-fake-inteligencia-artificial-elecciones