El capitalismo de vigilancia y la elite moldeadora de humanos
"Lejos del sueño de Gutemberg del conocimiento compartido, estamos cerrando el círculo, volviendo a una era pre-Gutemberg en la que el conocimiento y el poder se concentran en manos de unos pocos”: Los gigantes de Internet no solo buscan vender nuestros datos, afirma la académica estadounidense Shoshana Zuboff, también quieren predecir e influir en nuestro comportamiento. Aquí repasa algunos de los puntos principales de su contundente ensayo..
P: Vivimos en la era del "capitalismo de la vigilancia", dices, y está convirtiendo la experiencia humana en "materia prima". ¿Qué quiere decir con esto?
Shoshana Zuboff: Como explica Karl Polanyi en La gran transformación, el capitalismo se basa en una dinámica de expansión indefinida, que toma las cosas que antes estaban fuera del mercado y las convierte en mercancías. Así, en lugar de convertir el algodón y el acero en ropa y coches, el capitalismo de vigilancia toma la experiencia humana como materia prima y la convierte en productos de predicción del comportamiento, para venderlos en un nuevo mercado que comercia con futuros humanos. Se supone que somos los usuarios de Google y Facebook, pero a su vez, estas plataformas utilizan los datos que recogen de nuestro comportamiento. Algunos de estos datos pueden utilizarse para mejorar sus servicios, pero la mayoría se utilizan por su valor predictivo. Estos flujos de datos sobre el comportamiento se combinan después en cadenas de montaje basadas en IA, y el producto final alimenta el mercado de las predicciones sobre el comportamiento.
P: ¿Por ejemplo?
Shoshana Zuboff: Empezó con los "porcentajes de clics": es decir, el porcentaje de internautas que hacen clic en un anuncio emergente. Desarrollados por Google en 2001, se convirtieron rápidamente en la piedra angular de la publicidad en línea, al permitir a las empresas determinar si sus anuncios atraen a nuevos clientes y en qué momento. Pero los algoritmos predictivos han ido más allá del campo de la publicidad: ahora se han apoderado de todos los aspectos de nuestra vida cotidiana: se hacen predicciones a partir del comportamiento de las personas en los supermercados, sus hábitos alimenticios, su salud, su forma de conducir, etc. En una nota de 2018, Facebook afirmaba que su "centro de IA", que procesa billones de puntos de datos cada día, puede producir "6 millones de predicciones del comportamiento humano" por segundo. La aspiración de predecir el futuro es fundamental para la humanidad. Pero ahora hemos creado máquinas que se alimentan de datos robados para predecir el comportamiento cotidiano de las personas.
P: Puede que Google haya sido pionera en este cambio, pero no de forma planificada, como si esta lógica de sistemas hubiera surgido por accidente...
Shoshana Zuboff: Es importante subrayar que la vigilancia no estaba inscrita en el ADN de la revolución digital. Y son concebibles otras formas de organización digital. En sus inicios, los fundadores de Google, Larry Page y Serguey Brin, no ocultaban su desprecio por la publicidad, que corría el riesgo de desfigurar su motor de búsqueda. Por aquel entonces sólo tenían siete personas encargadas de la publicidad, todas ellas ocupando puestos subordinados. A principios de la década de 2000, quedó claro que Google no era realmente inmune al colapso de la burbuja puntocom. La misión de la empresa había sido "organizar la información global y hacerla accesible y útil para todos", pero no tenía clientes ni un producto en sí, por lo que los inversores amenazaron con retirar sus fondos si la empresa no encontraba un modelo de negocio más sostenible. Bajo presión, se declaró un "estado de excepción" y se pidió a los investigadores en IA que encontraran una forma de valorar los datos... Un día de abril de 2002, se produjo un extraño fenómeno: la frase "nombre de soltera de Carol Brady" alcanzó un pico de popularidad no una, sino cinco veces... Pronto se dieron cuenta de que la oleada de interés había sido provocada por una pregunta concreta del programa "¿Quién quiere ser millonario?", que se emitía consecutivamente en los cinco husos horarios de Estados Unidos. Anteriormente, el algoritmo PageRank había utilizado los datos de búsqueda para mejorar la velocidad, precisión y relevancia del motor de búsqueda, mientras que cualquier dato sobrante se trataba como "basura digital". Pero, de repente, quedó claro que estos "residuos" contenían un formidable poder de predicción. La experiencia humana en forma de datos podía convertirse en predicciones de comportamiento.
P: ¿No es esto una forma más sofisticada de publicidad?
Shoshana Zuboff: Los anuncios dirigidos son hoy el resultado de la ciencia de datos más sofisticada del mundo, de la inteligencia de las máquinas y del capital de vigilancia sin precedentes que posee y opera la mayor parte de la capa digital global, que se expande diariamente como un hongo nuclear. Los mecanismos y métodos de vigilancia que subyacen a la segmentación comenzaron con la publicidad, pero no es la única forma en que se utilizan. Cualquier actor que quiera influir en nuestro comportamiento puede aprovechar los datos y los métodos: esto quedó claro con el escándalo Facebook-Cambridge Analytica, que reveló que el mecanismo podía utilizarse con fines políticos, para influir en la opinión pública. De hecho, Facebook ya lo había afirmado en 2012-2013, con sus experimentos de "contagio emocional": publicando palabras alegres o tristes en los feeds de noticias de sujetos experimentales, conseguían difundir tanto las emociones como sus correspondientes actitudes. Este fue un punto de inflexión del conocimiento al poder, ya que los capitalistas de la vigilancia experimentaron con la forma de sintonizar, arrear y modificar el comportamiento para lograr una gran precisión en las predicciones.
P: También menciona el ejemplo de la aplicación Pokemon Go...
Shoshana Zuboff: Pokemon Go se incubó durante años en Google y se lanzó al mercado como Niantic Labs, con Google como principal inversor. Parecía un juego de realidad aumentada, en el que podías "cazar" criaturas virtuales en lugares públicos y privados, utilizando tu smartphone. Luego, poco a poco, nos dimos cuenta de que contenía un componente comercial, en forma de "lugares patrocinados": empresas como McDonald's podrían pagar a Niantic Labs para atraer a sus jugadores y convertirlos en futuros consumidores. Este laboratorio experimental es típico del capitalismo de la vigilancia: la gente cree que está jugando con sus amigos cuando en realidad sus acciones están siendo manipuladas por intereses económicos ocultos.
P: La vigilancia es tanto un mecanismo reflexivo -un espejo que refleja nuestro comportamiento en forma de recomendaciones- como productivo, en el sentido de que transforma nuestras huellas digitales en predicciones que luego se venden a terceros... Su término "dar" pretende englobar ambos aspectos de este fenómeno. ¿Qué significa?
Shoshana Zuboff: En realidad viene del francés antiguo. El verbo "rendre" tiene un amplio espectro en francés: significa "dar", pero también "devolver", "producir" (como en el árbol da frutos), "cumplir una obligación" o "jurar lealtad a" (como en emitir un veredicto o rendir al César lo que pertenece al César)... Al captar la experiencia humana, el capitalismo de vigilancia cubre todo este espectro. Comienza como un proceso material: utilizando los sensores que se encuentran en nuestras calles, coches, casas y teléfonos, la IA agrega nuestras experiencias diarias y las presenta como "datos de comportamiento". Pero también es un proceso social: las actividades sociales actuales exigen que reintegremos nuestra experiencia en una plataforma digital, como si "rindiéramos" al César lo que es del César... Tanto si accedemos a los deberes de nuestro hijo en la plataforma educativa del colegio (que en Estados Unidos la proporciona Google), consultar los resultados sanguíneos en una plataforma médica o utilizar las redes sociales para organizar una cena con amigos o compartir fotos de las vacaciones, hay que poner a disposición esta experiencia para que pueda ser "dataficcionada". Tenemos que "renderizar" nuestras vidas para que puedan ser arrastradas por las cadenas de suministro del capitalismo de la vigilancia de excedentes de comportamiento. Así es como acabamos atrapados.
P: ¿Por qué nos sentimos obligados a hacerlo?
Shoshana Zuboff: En primer lugar, porque no nos damos cuenta de lo que implica. Estas tecnologías están penetrando en nuestras vidas de forma invisible e indetectable, y las cláusulas de exención de responsabilidad que supuestamente garantizan un consentimiento ilustrado no hacen más que ahogarnos en un lenguaje minucioso que nadie tiene tiempo de leer. En segundo lugar, nos han convencido de que la destrucción de la privacidad es una condición necesaria para la transformación de la experiencia en datos útiles. Si alguna vez tienes la osadía de decir que no, deja de funcionar. En los termostatos Nest, un producto de termostato inteligente propiedad de Google, si te niegas a compartir los datos extraídos de tu casa, la empresa deja de actualizar el software del producto. El riesgo es que se te congelen las tuberías y salten alarmas a diestro y siniestro... El buen funcionamiento del servicio está condicionado a nuestro sometimiento voluntario a una vigilancia unilateral, secreta e ilimitada. Para no sentirnos impotentes, preferimos decir que es normal. Nos han desarmado psíquicamente.
P: El capitalismo de vigilancia obedece a una nueva división del aprendizaje que nos convierte en analfabetos en parte. Usted llama a esto "el problema de los dos textos"...
Shoshana Zuboff: Efectivamente, hay dos textos. El primero es público, somos a la vez sus autores y su público: se compone de nuestras entradas de blog, vídeos, fotos, conversaciones, música, historia, likes, tweets y todo el ruido de nuestras vidas registradas. Pero este primer texto alimenta un segundo: el texto fantasma, que se compone de datos predictivos extraídos de nuestra experiencia. De nuestras contribuciones al primero, por banales y temporales que sean, se extrae un excedente que se utiliza para alimentar al segundo. Y este segundo texto permanece oculto, bajo embargo, porque revela más sobre nosotros de lo que nunca sabremos.
P: El Reglamento General de Protección de Datos (RGPD) de la UE pretende salvaguardar la "propiedad" o "portabilidad" de nuestros datos, pero usted dice que no lo consigue. ¿Por qué?
Shoshana Zuboff: Porque los datos no están individualizados, por lo que no pueden protegerse a nivel individual. Actuamos como si los datos fueran simplemente lo que los individuos dicen, publican, guardan, etc. Y por eso buscamos la manera de recuperar lo que publicamos u obtener una compensación por ello. Pero los datos no son personales: son un producto "derivado". Si pongo una foto de mi cara, por ejemplo, para mí es sólo una foto. Pero ellos pueden compararla con docenas de fotos mías, o con otras fotos que existan en Internet o que algún día puedan captar en la calle mediante reconocimiento facial... Para ellos, la imagen de mi cara significa miles de músculos faciales que permiten analizar mis emociones y predecir mi comportamiento. Este "excedente de comportamiento" no sólo se deriva de lo que les damos, sino también de lo que no tenemos intención de darles, como el software de geolocalización y las aplicaciones telefónicas que les permiten utilizar nuestra voz, fotos, textos, correos electrónicos, contactos e incluso los contactos de nuestros contactos... Todo esto les permite recopilar información que no teníamos intención de divulgar, y sacar conclusiones sobre nuestro comportamiento que no teníamos intención de revelar. Así que, aunque se nos garantizara la propiedad total sobre nuestros datos personales -lo cual es imposible, porque nadie tiene tiempo ni energía suficientes para ello-, seguiría cubriendo sólo una ínfima parte de lo que se capta.
P: Pero en la medida en que estos datos son "derivados", ¿no podría Google dar la vuelta y decir que no está vendiendo información individual, sino datos colectivos que ellos mismos han producido? Y a su vez, el consumidor podría decir que estos datos le proporcionan una información preciosa que le permite prever accidentes, enfermedades, encontrar formas de reducir el consumo de energía... En otras palabras, ¿no podríamos beneficiarnos todos del tratamiento colectivo de datos?
Shoshana Zuboff: Ese era el sueño inicial de la revolución digital: gracias a todos esos datos, la sociedad podría adquirir masas de información que le permitirían conocerse mejor a sí misma y lograr una mejor gobernanza. Ésa es también la retórica utilizada por los dirigentes de Google. Cuántas veces he oído a su CEO, Eric Schmidt, intentar tranquilizarnos diciendo que no, que no venden información personal... Y cada vez que lo escuchaba pensaba: "¿Por qué nadie le detiene por hacer declaraciones falsas?". Puede que nuestra información sólo sea la materia prima de la que se derivan estos otros productos, pero para fabricar este producto siguen necesitando recopilar una cantidad considerable de información de nosotros. La recopilación comenzó con economías de escala y de alcance. Pero la intensidad competitiva abrió un tercer frente: las economías de acción. La gran idea es intervenir en nuestro comportamiento para afinarnos y rebañarnos de forma que produzcamos mejores predicciones y nos alineemos con las necesidades del mercado. La destrucción de la privacidad da paso a un asalto a la agencia humana. Y lejos de utilizarse para curar el cáncer, prevenir catástrofes medioambientales o acabar con el hambre en el mundo, esta información se utiliza para ayudar a clientes privados a cumplir sus objetivos comerciales, no los nuestros (Nota de Climaterra: Y también, mediante la asociación con las agencias de inteligencia y de seguridad de los gobiernos, esta información se utiliza para los objetivos del poder estatal de turno, censurando, persiguiendo, propagandizando). Lo único que podría limitar la expansión indefinida del capitalismo de la vigilancia es la legislación. Pero en Estados Unidos, al menos, no se han elaborado tales leyes. Se nos dice que la cantidad de datos que existen es tal que nuestros gobiernos son incapaces de procesarlos y que, por lo tanto, y que, por tanto, no tenemos más remedio que confiar en Google y Facebook... Pero eso sería un gran error, porque a estas empresas no les interesa el valor común de estos datos, para toda la humanidad, sino su valor particular, con fines comerciales. Han alcanzado tal monopolio económico, técnico y científico que ahora atraen al grueso de los investigadores en IA, que cada vez tienen menos posibilidades de ser contratados para resolver problemas comunes. Lejos del sueño de Gutemberg del conocimiento compartido, estamos cerrando el círculo, volviendo a una era pre-Gutemberg en la que el conocimiento y el poder se concentran en manos de unos pocos.
"La gran idea es intervenir en nuestro comportamiento para afinarnos y rebañarnos de forma que produzcamos mejores predicciones y nos alineemos con las necesidades del mercado".
P: Reforzadas por su nuevo poder, usted afirma que las plataformas digitales pretenden establecer "áreas de experimentación" en las que son libres de encontrar nuevas formas de modificar el comportamiento de las personas a distancia. ¿Cuál será la próxima "zona de experimentación"?
Shoshana Zuboff: Las ciudades. Ofrecen un espacio ideal para probar formas de sustituir los gobiernos democráticos por la gobernanza algorítmica. Sidewalk Labs, filial de Google Alphabet, lleva años instalando quioscos Wi-Fi gratuitos en las grandes ciudades, y ahora presiona para conseguir un gran acuerdo con la ciudad de Toronto para gestionar su paseo marítimo. Toda esta aventura nace de la intención de Google de considerar la experiencia humana como "materia prima disponible": si es materia prima, podemos aprovecharla, si podemos aprovecharla, podemos hacer un producto con ella, y si hacemos un producto, entonces nos pertenece. Del mismo modo, el acuerdo inicial entre Sidewalk Labs y la ciudad de Toronto estipula que, a partir de ahora, todo lo que ocurra dentro de este espacio son "datos urbanos". Da igual que ocurra en tu apartamento, en tu coche o en un café calle abajo, y da igual que implique a humanos, máquinas o animales, todo lo que ocurra dentro de este espacio son "datos urbanos". Cualquiera puede utilizarlos, pero sólo Google, o quizá Amazon, serán capaces de procesarlos de forma eficiente y predictiva. El objetivo más amplio es sustituir la gobernanza democrática municipal por una gobernanza computacional alineada con resultados comerciales óptimos.
P: Usted cree que la gestión algorítmica puede burlar la ley. ¿Cómo?
Shoshana Zuboff: Los ciudadanos se reúnen en la ciudad y utilizan la política para decidir cómo quieren vivir juntos. En la ciudad de Google, no hay necesidad de procesos humanos de comunidad, conflicto y colaboración. En su lugar, los algoritmos definen y controlan un parámetro medible. En lugar de discusiones sobre qué tipo de vecindario queremos, tienes dispositivos que miden los niveles de ruido. Todo lo que no supere el parámetro de ruido está bien. Así es como la computación automática puede sustituir a la deliberación democrática. La idea es la armonización en lugar de la autodeterminación democrática. Pero la pregunta es: ¿qué esconde esta armonía? Porque cuando los algoritmos son producidos por el capital privado, favorecen a quienes poseen el capital privado en cuestión.
No hay control democrático sobre la vigilancia. Es un asalto a la soberanía individual
P: ¿Cuál sería la alternativa? Porque para optimizar los datos sigue siendo necesario ponerlos en común...
Shoshana Zuboff: Hoy en día, los datos se utilizan para favorecer los intereses de los grandes actores comerciales del mercado. No hay control democrático sobre la vigilancia. Es un asalto a la soberanía individual y contribuye a una concentración sin precedentes del poder de moldear el comportamiento humano. Esto es lo que yo llamo "poder instrumental": un poder que comanda la arquitectura global de la instrumentación digital para transformar la vida en un material maleable.
P: ¿No existe una enorme diferencia entre el tipo de vigilancia que se está implantando en las naciones democráticas y lo que está ocurriendo, por ejemplo, en China, con el sistema de "crédito social"?
Shoshana Zuboff: En China, estamos viendo lo que ocurre cuando un Estado autoritario utiliza este poder instrumental: todo el sistema de objetivos comerciales se desplaza hacia objetivos políticos y sociales. No es inevitable, pero es una posibilidad que viene con los mecanismos y métodos inventados por el capitalismo de vigilancia. Lo estamos viendo en China, pero también lo hemos visto con Cambridge Analytica en Estados Unidos.
P: Pero fundamentalmente, ¿es esta vigilancia económica o política?
Shoshana Zuboff: Es un modelo social que ya no busca basarse en la democracia y la igualdad para resolver los problemas, sino que se apoya en un conocimiento asimétrico y en un poder instrumental capaz de imponer la armonía en la sociedad. La tendencia actual en Occidente es utilizar este poder instrumental al servicio de los intereses privados del mercado, en lugar de los políticos. Pero ya se ven ejemplos de fugas. El capitalismo de vigilancia tiende a ampliar los ámbitos de experimentación en los que el comportamiento humano puede moldearse a su antojo. Esto ya ha migrado de la economía a la experimentación social... La cuestión es: ¿hasta dónde se expandirá este poder instrumental para establecer su control?
Fuente: ClimaTerra - https://www.climaterra.org/post/zuboff-el-capitalismo-de-vigilancia-y-la-elite-moldeadora-de-humanos