El único paso adelante que sí se dio en la COP30: la batalla contra los algoritmos

 

Sin una hoja de ruta para eliminar los combustibles fósiles, el mayor logro de la COP30 ha sido la creación de una alianza de países para combatir la desinformación, una silenciosa pero gigantesca ola que está socavando el progreso global de las políticas climáticas: Charlotte Scaddan, asesora principal en integridad de la información de la Comunicación Global de la ONU, repite que “dos de los retos más urgentes de la humanidad se han entrelazado de forma peligrosamente estrecha”, en referencia al cambio climático y la desinformación. La industria de los bulos (fake news), alertó Scaddan en la recién acabada COP30 de Belém, está utilizando la crisis planetaria como un “arma para polarizar sociedades enteras y socavar los procesos democráticos”.

Andrés Actis

La constante viralización de noticias falsas tiene tres grandes ganadores, explica esta consejera de Naciones Unidas: el sector fósil, algunos actores políticos –Donald Trump, el más visible– y los influencers digitales, que “monetizan la indignación y las mentiras». “No nos podemos quedar de brazos cruzados ante este diagnóstico. Supone un riesgo real de interferencia en las negociaciones climáticas”, advierte esta experta.
En Brasil, en una cumbre que ha dejado una sensación de derrota por una declaración final sin ninguna mención al abandono de los combustibles fósiles, se ha dado un paso enorme para combatir la desinformación climática. Un grupo de 13 países, entre ellos España, ha creado una alianza para “promover información precisa y basada en pruebas sobre cuestiones climáticas”.
Estas naciones –Brasil, Chile, Dinamarca, Francia, Marruecos, Suecia, Reino Unido, Uruguay, Bélgica, Canadá, Finlandia y Alemania, además de España– van a exigir a todos los actores involucrados (administraciones, sector privado y financiadores) tomar “medidas concretas” para contrarrestar el impacto de la desinformación y ataques deliberados contra periodistas, defensores, científicos y académicos.
La apuesta más ambiciosa de esta declaración es presionar a las grandes empresas tecnológicas para que revisen el diseño de sus algoritmos, que premian y multiplican los bulos que circulan por las redes sociales.
Algoritmos de recomendación y redes de desinformación
La preocupación política tiene un respaldo científico. Son muchas las investigaciones que coinciden en que las redes sociales están jerarquizando y premiando los contenidos “emocionales, polémicos y llamativos” –componentes claves de los bulos– sobre los mensajes rigurosos y veraces.
Pau Muñoz Pairet es doctor en Estudios Estratégicos y en Inteligencia Artificial. Semanas atrás, publicó junto a un grupo de investigadores, un estudio que confirma que los algoritmos de recomendación –diseñados para maximizar la interacción del usuario mediante la personalización del contenido– están “creando cámaras de eco y facilitando la propagación de desinformación”.
“Esto puede reconfigurar la opinión pública y tener un impacto sustancial en cuestiones sociales cruciales como la política, la economía y las causas sociales. Por lo tanto, la forma en que se recomienda el contenido en las redes sociales desempeña un papel clave en la configuración del ecosistema de información digital”, explica el trabajo.
Gracias a su muy alta precisión en la recomendación de contenido, estos algoritmos “permiten la rápida difusión de narrativas que se alinean con los intereses de los usuarios que promueven la desinformación”. Es como un pez que se muerde la cola. Los usuarios acceden de forma muy rápida a estos discursos, se generan muchísimas interacciones y se acelera el proceso de formación de estas redes tóxicas.
Para Sergio Arce García, profesor de la Universidad Internacional de La Rioja, quien investiga el cruce entre los bulos, el odio y las redes sociales, la creación de esta alianza es una bocanada de aire ante una pasividad política para enfrentar a una industria –las grandes empresas tecnológicas– que está “haciendo la vista gorda” ante un fenómeno  “enormes implicancias sociales y políticas”. Lamenta que el intento de regulación de estos gobiernos ocurra “con un monstruo que ya es gigantesco”.  
Este experto ha revelado cómo estas redes de odio y desinformación atacaron a la AEMET en X tras la dana de Valencia. Explica que las redes sociales, como cualquier negocio, buscan vender. Para eso, necesitan conseguir “la máxima atención posible por parte de los usuarios”. ¿Cómo lo consiguen? Primero, analizando quién eres, lo que permite una segmentación de perfiles. Luego, favoreciendo la circulación de los contenidos “más emocionales”, entre ellos aquellos que generan rabia, bronca e indignación.
Al tener “tal grado de conocimiento de casi toda la población mundial”, estas empresas tecnológicas, agrega Arce, tienen un poder enorme para moldear la opinión pública. Este investigador es escéptico respecto a que los grandes actores de este mercado –”las big tech”– acepten revisar sus esquemas de algoritmo. Más en este contexto geopolítico, que apunta a la otra dirección. Desde que Trump asumió su segundo mandato como presidente de Estados Unidos, se acentuó el abandono de la supervisión editorial de curación algorítmica, con el cierre de los departamentos encargados de esta tarea.
La psicología de la desinformación
Fernando Blanco es profesor de psicología e investigador del Centro de Investigación Mente, Cerebro y Comportamiento (CIMCYC) de la Universidad de Granada (UGR). Este instituto se ha aliado con Newtral, el medio español especialista en fact-checking, para desarrollar un proyecto sobre “la psicología de la desinformación”: cómo los sesgos cognitivos y los algoritmos alimentan la manipulación digital.
El punto de partida es que las vulnerabilidades y prejuicios de las personas son explotados para impulsar y reforzar narrativas de desinformación dentro de los ecosistemas digitales de todo el mundo. Blanco explica que hay determinados contenidos “que tocan resortes mentales” que provocan que “compremos mercancía averiada con mucha facilidad”. Por lo general, el ser humano no cuestiona las informaciones que encajan con sus creencias previas. “Si una noticia me da la razón, es muy difícil que yo la analice fríamente”, afirma.
Esto facilita la viralización. “Tú no estás pensando, no estás analizando fríamente, simplemente compartes. Son estados donde se fomenta mucho que una información, un mensaje llegue a muchísima gente y que todos nos quedemos mucho tiempo enganchados”, señala. Y agrega: “Esto es lo que más le interesa a los dueños de estas plataformas, que pasemos el mayor tiempo posible dentro. Están de algún modo viciándonos para que estemos todo el tiempo enfadados y cabreados”.
El problema, agrega, es que casi nadie es consciente de esta “manipulación”. “Cuando en las investigaciones científicas se le pide a la gente que piense y analice determinadas noticias, la mayoría detecta aquellas que son falsas. El problema es que cuando estamos dentro de las redes no lo hacemos. Estamos atrapados en una vorágine de ‘responde rápido, enfádate, retuitea’”, describe.
Como si esto fuera poco, los seres humanos somos muy buenos racionalizando, explica este experto. Una vez que se compartió una noticia falsa y que una enorme mayoría de usuarios se posicionaron públicamente a favor de una causa, “es muy difícil dar marcha atrás”. “Vamos a racionalizar y autoconvencernos de que en el fondo esa era la decisión razonable. Los algoritmos se aprovechan de la psicología humana. En el fondo lo que están haciendo es modelar nuestra manera de pensar también. Las consecuencias sociales son de una enorme gravedad”, concluye.

Fuente: https://climatica.coop/paso-adelante-cop30-batalla-contra-algoritmos/ - Imagen de portada: Foto: Diego Herculano (ONU Cambio Climático).

Entradas populares de este blog

No hay peor sordo que el que no quiere oír : El rol de las plantaciones de pinos en los incendios forestales de Epuyen y Mallín Ahogado

Antártida: qué países reclaman su soberanía y por qué

La oligarquía del plástico: apenas 7 países y 18 empresas dominan su producción