Desnudos frente al algoritmo
Es imprescindible empezar a pensar en controlar políticamente los algoritmos. Mejor hacerlo ahora en que todavía son relativamente estúpidos que cuando ya nos den cien vueltas: He vivido estos días una experiencia onírica que me ha traído a la memoria una anécdota que leí en un libro de antropología. Una vez, un misionero reprochó a un indígena su desnudez y éste le respondió, señalándole la cara: “Pero vosotros también estáis desnudos aquí”. “¡Pero eso es la cara!” , respondió el misionero. Y entonces el indígena replicó: “Es que para nosotros todo es cara”.
Por Carlos Fernández Liria
Estos días, yo lo he tenido más difícil que ese indígena. Un algoritmo de Youtube ha decidido interrumpir una serie de antropología que estaba colgando en mi espacio La Filosofía en Canal, que tengo abierto desde hace cosa de tres años. Resumo apretadamente la extraña distopía en la que me he visto envuelto en estas últimas semanas. De pronto, Youtube se negó a aceptar mis videos, tal y como ocurre cuando intentas subir algún contenido con derechos de autor susceptibles de reclamación.
Me costó mucho encontrar el motivo, porque cuando preguntas a Youtube te contesta un algoritmo de muy parcas explicaciones. Hay la posibilidad de insistir hasta que logras contactar con una persona humana. Tras mucho tirar de la lengua a los humanos supuestamente responsables, se me comunicó más o menos la siguiente situación: el algoritmo de Youtube había considerado que en mi canal se exhibía pornografía infantil (“imágenes de menores sexualizados o donde se les explote sexualmente”). Eso había provocado que se me adjudicara un número que volvía sospechosa cada cosa que intentara subir, de tal manera que, cada vez más, todos mis contenidos eran rechazados. Y cuanto más insistía, más sospechoso me volvía. Incluso algunos de mis videos pasaron a ser calificados de “incitación al odio”. A ello se sumó que, por lo visto, ya hace años, el algoritmo me había calificado de negacionista de las vacunas, lo que me convertía en reincidente.
He tenido que rebobinar. En efecto, he recordado que hace tiempo Youtube retiró un video de mi canal en el que retóricamente venía a decir que lo más peligroso del negacionismo durante la pandemia era el empeño que se ponía en negar el capitalismo y sus terribles efectos en la industria farmacéutica. Pero el algoritmo había entendido que lo que negaba era las vacunas. Investigando un poco más, he llegado a entender que el motivo por el que se me ha clasificado de “incitador al odio” es que había pretendido titular ‘El ser humano en la basura’ el capítulo 5 de mi serie de antropología, algo que venía bastante a cuento si se considera que todo el capítulo era un comentario de un texto de Claude Lévi-Strauss en el que dice que “los antropólogos buscamos nuestro tesoro en los cubos de la basura de los historiadores”. Y así llegué a entender también lo de la pornografía infantil. El algoritmo había localizado semejante cosa en las fotos de los nambikaras (hombres, mujeres y niños) que Lévi-Strauss incluyó en su libro ‘Tristes Trópicos’, un clásico inmortal de la antropología, traducido a todas las lenguas del mundo y del que se habrán vendido miles de millones de ejemplares sin que el algoritmo de Youtube se haya percatado. Tampoco ha caído en la cuenta, el dichoso algoritmo, de que los nambikaras de las fotos, en realidad, no están desnudos, porque llevan un cordón en la cintura; y, de hecho, se sienten muy avergonzados de mostrarse sin él, porque se sienten desnudos.
[Foto de indígenas desnudos retocada con photoshop. Carlos Fernández Liria]
Un gran malentendido, sin duda. Pero a partir de aquí es cuando todo se vuelve onírico. Los humanos que hay detrás del algoritmo aseguran que no hay medios para intervenir en el criterio de la máquina (si es que es una máquina). La única posibilidad sería “enseñarle”, hacer que cambie su opinión sobre mí. Y no pueden informar sobre cómo se podría hacer eso. Todo el mundo sabe que es un error, pero no se puede hacer nada, no se le puede decir al algoritmo que se ha equivocado. La única posibilidad es enseñarle a cambiar su criterio, un verdadero acertijo o quizás un sortilegio que recuerda a los cuentos de hadas. Finalmente, tras mucho meditar, hemos recurrido a una especie de tratamiento conductista: subir centenares y centenares de contenidos para “reeducar” al algoritmo, a ver si se acostumbra al hecho de que soy una persona normal. Algunos youtubers más experimentados me han asegurado que así acaba por entender en cosa de dos o tres meses. Respecto al capítulo 5 de la serie de antropología, hemos recurrido provisionalmente a una estratagema de las antiguas: hemos vestido con fotoshop a los indígenas con unos grandes calzones blancos (antes probamos a pixelar los pezones y los culos, pero el algoritmo no se dio por satisfecho).
Hablar con los humanos de Google ha sido como estrellarse contra un muro, porque esto de los algoritmos es un poco como un “gran secreto”, una especie de “piedra filosofal” que nadie sabe bien cómo funciona y que los influencers creadores de contenido están todo el tiempo intentando averiguar (“oye, que parece que me va mejor si la gente comenta mucho, o si comparte el link o si le dan like…”) y es todo como ir dando palos de ciego. De hecho, cada vez que hay algún cambio en cómo los algoritmos consideran que eres relevante, suele haber un poco de revuelo entre la gente que se dedica a esto, intentando averiguar cómo pueden salir beneficiados; y de esto siempre hay mucha literatura y mucha leyenda (que si el algoritmo de TikTok beneficia los rostros de mujeres y el de Instagram los de hombres siempre que sean guapos, que si TikTok te beneficia si sales sonriendo o bailando… De hecho, durante un tiempo, salía la gente lanzando mensajes políticos en TikTok mientras bailaba, para que el algoritmo les diera visibilidad).
A mí, todo esto me da mucho miedo. Yo recuerdo muy bien lo que era enfrentarse a un profesor que te tenía manía en el colegio. Algunos eran sádicos diagnosticables, otros malos y tristes, bestias franquistas que no tenían dos dedos de frente. Pero nunca tuve que enfrentarme a alguien tan rematadamente estúpido como este algoritmo generado por la imbatible Inteligencia Artificial, la que ganó a Kaspárov jugando al ajedrez. No sé qué opinará el ChatGPT sobre esto.
De lo que no me cabe duda es que es imprescindible empezar a pensar en controlar políticamente los algoritmos. Mejor hacerlo ahora en que todavía son relativamente estúpidos que cuando ya nos den cien vueltas. Que yo sepa, aunque sé muy poco, sólo recuerdo a Iñigo Errejón, desde Más País, alertando sobre el asunto, proponiendo crear una Agencia Estatal de Algoritmos. La cosa es gravísima, en el fondo. Lo que me ha ocurrido a mí es una tontería, sin duda. Pero personalmente, me ha hecho entender la que se avecina. El algoritmo ha tomado una decisión errónea. Eso lo saben perfectamente y así lo reconocen quienes crearon la máquina. Pero, sin embargo, ellos no pueden intervenir, es imposible.
Por mi parte, he tenido que investigar cómo funciona y cómo aprende esa máquina (cosa que, además, es un secreto), para intentar convencerla de que ha cometido un error. Nos encontramos frente a un ostracismo inapelable, en el que, incluso sabiendo todos que ha habido un error, no hay más remedio que intentar convencer a ese ente extraño y secreto de que es así. En este caso, hay que enseñarle la diferencia entre la pornografía infantil y la etnografía. Pero esto es lo de menos. Ya estamos administrados por algoritmos en demasiados ámbitos. Un ejemplo significativo es lo que puede leerse en esta noticia: Trabajo exigirá a las empresas de reparto compartir los algoritmos que utilizan para decidir a qué trabajador envían en cada trayecto.
Desde luego, no creo que haya que demandar un algoritmo perfecto, capaz de machacarnos cuando se vuelva loco. Lo importante es demandar la posibilidad de someterlo a un control humano. Es algo que se viene repitiendo desde los tiempos de Asimov (“Artículo primero: los robots obedecerán a los humanos”) y ‘2001. Una odisea en el espacio’. Antes era el futuro. Ahora es un presente distópico que ya está en marcha. Hemos creado algoritmos para que nos ayuden, no para que se nos responda “no podemos hacer nada, porque lo dice el algoritmo”. Exactamente la misma barbaridad, por cierto, a la que nos tiene acostumbrados el capitalismo: no se puede hacer nada, porque lo dicen los mercados. Ningún Parlamento se atreverá a llevar la contraria a los mercados. Y se suponía que los mercados, por criminales que fueran, eran tan inteligentes como una mano invisible. Los algoritmos serán igualmente criminales y, por ahora, ni siquiera parecen muy inteligentes. Por lo menos respecto a cuestiones de interés humano. Porque no están administrando nada que tenga interés humano. Están administrando, como bien demuestra Johann Hari en su espléndido libro ‘El valor de la atención‘, los inconmensurables negocios que se pueden hacer con nuestra atención en la pantalla. Y eso, sin duda, lo hacen muy bien. Pero mientras tanto, no saben distinguir entre un indígena vestido con un cordón y un amuleto y la pornografía infantil. Son muy inteligentes, pero no están interesados en las mismas cosas que nos interesan a nosotros. Exactamente lo mismo que ha pasado con el capitalismo ya desde el siglo XIX.
PD: Evidentemente, yo no he tenido ni idea de cómo reaccionar frente a todo esto. Le agradezco a Miguel Ángel Ojeda García que, además de crear y organizar ‘La Filosofía en Canal’, se haya ocupado también de la batalla contra el algoritmo.
Fuentes: El diario - https://www.eldiario.es/opinion/tribuna-abierta/desnudos-frente-algoritmo_129_11217913.html