Desinformación, discursos de odio y botnets. ¿Puede haber una regulación ética de las redes?

Recientemente las Naciones Unidas han acusado a Facebook de haberse convertido en una auténtica bestia en lo que refiere a la propagación del odio y el caso de Cambridge Analytica ha subrayado su papel como "árbitro" de la democracia. ¿Es posible cambiar las reglas que la empresa de Zuckerberg o Google han establecido?

Sandra Álvaro

El lunes 19 de marzo, Facebook vetaba el acceso a su plataforma a Cambridge Analytica y contrataba una firma forense privada para investigar cómo esta consultora ha infringido la política de privacidad y ha obtenido datos de sus usuarios sin consentimiento. Al mismo tiempo el fundador de Facebook ha sido llamado a declarar por el Comité de Cultura Digital, Medios y Deportes del Parlamento británico respecto a este hecho y se enfrenta a posibles acciones legales por parte de Estados Unidos y Europa, que recientemente ha actualizado su ley de protección de datos (GDP) para incrementar la privacidad y seguridad de los usuarios de servicios digitales.
Una investigación de The Observer, Channel 4 News y el New York Times han revelado que Kogan Aleksandr habría hecho uso de una aplicación, autorizada por Facebook con finalidades de investigación, para acceder a los perfiles de 50 millones de usuarios y recabar datos, sin su consentimiento, que después habrían sido transferidos a la polémica Cambridge Analytica. Conocida por hacer uso de metodologías agresivas de targeting para fabricar informaciones a medida, que habrían influido en la elección de Donald Trump como presidente y en el procedo del Brexit.
Por su lado, comunidades de investigadores temen que esto haga aún más difícil el acceso a los datos de Facebook, que son vitales para el estudio de fenómenos que afectan al tejido social, como son las operaciones de targeting de la publicidad, el funcionamiento de los algoritmos de filtrado que definen el muro y las tendencias dentro de la plataforma, y cómo Rusia u otros agentes difunden noticias falsas y propaganda para la manipulación política.
El uso de manipulación política y la difusión de noticias falsas en las redes sociales son sujeto de polémica desde hace días, pero ¿qué datos recolectan plataformas como Facebook y qué uso hace de estos datos? ¿Cuáles son las implicaciones sociales y políticas de estas operaciones de categorización y filtrado?
La web tal como la conocemos se inicia en 1990, con la propuesta de Tim Berners Lee de un proyecto de hipertexto para la WorldWideWeb, una interfaz de usuario que permitiría a todo el mundo acceder a información y comunicarse a través de Internet.
Concebida como una plataforma abierta para el acceso igualitario a las oportunidades y la colaboración, más allá de los limites geográficos y culturales. Este medio no tardaría en ser teorizado como una nueva esfera pública y convertirse en uno de los instrumentos más relevantes para la sociedad civil. Un lugar de encuentro para el colectivo de ciudadanos auto-organizados, e independientes del Estado, en el que estos podían expresar opiniones, intercambiar información y alcanzar objetivos comunes.
Facebook y Google son responsables de un 70% del tráfico que se genera en la web, incluyendo el tráfico a páginas de noticias de medios tradicionales
No obstante, este foro público asociado a movimientos reivindicativos como el 15M, recientemente se ha convertido en un medio para la rápida propagación de noticias falsas y discursos de odio, así como para la manipulación política de los ciudadanos. Laboratorios, ONG y think-tanks como el EU DisinfoLab, El @DFRLab (Digital Forensic Research Lab del Atlantic Council) o Who Targets Me han desarrollado métodos de análisis de redes y aplicaciones para el seguimiento de la difusión de noticias falsas y detección de bots en la web y denunciado sus efectos en campañas políticas.
Cómo se ha producido esta degradación de la web y qué medidas y criterios deben desarrollarse e implementarse para la regulación de la comunicación en linea, se ha convertido en una de las cuestiones más acuciantes y relevantes para la salvaguarda de la democracia.
Tim Berners Lee señala la difusión de desinformación y la manipulación política, junto a la pérdida por parte de los usuarios del control de sus datos, como los factores determinantes en la degradación de la web y recalca la necesidad de implementar medidas para controlar los datos que recaban las redes sociales, así como para hacer los procesos algorítmicos que rigen estos medios transparentes.
El control algorítmico de los datos tiene sus inicios en la web 2.0 o web social, un conjunto de recursos tecnológicos que transformaron la web en una plataforma de servicios, que evoluciona mediante el seguimiento de las interacciones de sus usuarios. El gran tráfico de datos generado por estos servicios se ha incrementado con la revolución de los teléfonos móviles y la conectividad portátil. Un fenómeno que al mismo tiempo ha contribuido a la centralización de la web en unas cuantas corporaciones.
Los teléfonos móviles son mayormente utilizados para conectar con Facebook y Google a través de sus múltiples aplicaciones. Esta compañías actualmente son responsables de un 70% del tráfico que se genera en la web, incluyendo el tráfico a páginas de noticias de medios tradicionales, que cada vez dependen más de estas plataformas para atraer a los lectores.
Tradicionalmente estas compañías web se han basado en ofrecer una serie de servicios gratuitos a sus usuarios, extrayendo su rentabilidad de la publicidad que ofrecen a los mismos. Google y Facebook son el primer y segundo proveedores de anuncios, respectivamente, a nivel mundial.
Sin embargo estas compañías se han reestructurado a partir del año 2014, dejando de ser competidoras, para establecer sus propios sectores de crecimiento, en el que la web ya no es su campo de acción prioritario. Facebook adquirió Whatsapp en febrero de 2014, esta aplicación juntamente a Instagram y Messenger, ya de su propiedad, ha convertido a Facebook en la Compañía Social de Internet.
Por su lado Google adquirió Deep Mind en enero de 2014, estableciéndose como la compañía que organiza el conocimiento en Internet. Su estrategia AI First, establece un cambio en los objetivos de esta empresa, de la indexación y facilitación de la búsqueda a la capacidad de sugerir servicios, basados en la implementación de Inteligencia Artificial para la predicción de las necesidades y preferencias de los usuarios, servicios que serían ofrecidos sin necesidad de pasar por una selección de resultados existentes en la web.
De este modo la prioridad de ambas compañías ya no será la implementación de servicios y la web, sino la adquisición de datos de sus usuarios y su minado, en el caso de Facebook para mejorar la experiencia de los usuarios e incrementar el compromiso de estos con la plataforma y en el de Google para el desarrollo de sus tecnologías de Inteligencia Artificial destinadas a la creación de servicios de localización, vehículos autónomos y asistentes inteligentes.
Las operaciones de extracción de información de estas compañías no solo vulneran la privacidad de sus usuarios, sino que les confieren una gran capacidad de control con implicaciones sociales y políticas importantes.
Concretamente, la estrategia comercial de Facebook se basa en atraer anunciantes, incrementar su número de usuarios y el tiempo que estos pasan en la plataforma. Estos objetivos se implementan mediante el uso de tecnologías basadas en la Inteligencia Artificial que permiten realizar un perfilado preciso de los usuarios, el verdadero capital económico de la compañía.
De este modo Facebook recaba datos no solo de nuestras interacciones en la web —los dispositivos con los que accedemos a la plataforma, nuestra localización, las páginas que nos han gustado, nuestras actualizaciones de estado, y lo que les ha gustado a nuestro amigos— sino también sobre cómo actuamos con otras páginas web que hacen uso de cualquiera de las tecnologías que ofrece esta empresa —botones de me gusta y compartir o servicios de login—.
Estos datos son utilizados para rellenar una serie de categorías —edad, situación, familiar, tendencias políticas, aficiones, nivel cultural, ocupación profesional …— que ayudan a los anunciantes a saber cuáles son nuestros hábitos y preferencias, si podemos estar interesados en sus productos y si somos objetivos deseables. Una visita a la sección de anuncios y preferencias de nuestro perfil puede ayudar a hacernos una idea de la información que la plataforma recolecta sobre nosotros, teniendo en cuenta que ésta es solo la información que Facebook hace pública.
Al contrario de la percepción común, los servicios de estas plataformas no son gratuitos, sino que los pagamos con nuestra libertad
Esta estrategia reporta a la compañía unos 4,01 dólares de beneficios trimestrales por usuario. Pero las consecuencias de esta operación de mercantilización de nuestra privacidad van más allá. Primero, al definir y dar contenido a estas categorías, Facebook no solo esta creando nuestra identidad algorítmica al margen de nuestra conciencia, quitándonos el control sobre nuestros datos y sobre cómo queremos identificarnos y presentarnos en público, sino que además está definiendo categorías con relevancia social como género, clase e ideología, al margen del discurso público y la tradición humanista y solo basándose en criterios de mercado.
Segundo, ya hemos dicho que el objetivo de la compañía es mediar todo el discurso social asegurándose de que recurrimos a la plataforma para nuestras interacciones y pasamos en ella el mayor tiempo posible. A este fin, esta estrategia de perfilado se implementa para ejercer control sobre los contenidos a los que tenemos acceso generando un entorno atractivo.
Este ambiente controlado y homogéneo, en el que solo estamos en contacto con aquellos que comparten nuestras preferencias, limita nuestras posibilidades de acción y tiene efectos sobre nuestra conducta. Al contrario de la percepción común, los servicios de estas plataformas no son gratuitos, sino que los pagamos con nuestra libertad.
Recientemente las Naciones Unidas han acusado a Facebook de haberse convertido en una auténtica bestia en lo que refiere a la propagación del odio y la incitación a la violencia contra la etnia musulmana Rohingya en Myanmar. Esta rápida propagación de noticias falsas y discursos de odio es el efecto de una clasificación homofílica que pone en contacto a las personas conforme, no a sus aspiraciones e intereses comunes, sino de su identidad algorítmica.
Esto encierra a las personas en nichos donde afirmaciones reprobables no encuentran ninguna crítica ni oposición y se expanden al margen del conocimiento de aquellos que podrían aportar alegaciones y contra-ejemplos legítimos. Estos ambientes ya no son solo un espacio propicio para la propagación de bulos y falsedades, sino que actúan reforzando prejuicios, que ante la ausencia de oposición pueden desembocar en incidentes socialmente y éticamente reprobables.
Numerosos laboratorios universitarios y comisiones legisladoras trabajan en métodos de análisis que permitan comprender el origen, dinámica y alcance de estos fenómenos, pero estos se encuentran bloqueados ante la falta de acceso a los datos recabados por la compañía, quien se ampara en la defensa de la privacidad de sus usuarios para no compartirlos.
Ante este hecho las instancias reguladoras y la opinión pública se hallan limitados a tener que confiar en las medidas y análisis realizados por la compañía, todo y que esta admite que sus algoritmos de inteligencia artificial no se desenvuelven bien identificando el discurso de odio, debido a las ambigüedades del lenguaje y la complejidad del contexto social y cultural. Una mayor transparencia es necesaria para facilitar la participación de más agentes y un enfoque interdisciplinar a la identificación y regulación de estos problemas.
Las redes sociales son agentes activos en la formación del discurso y en la construcción comunicativa de nuestra realidad, el incremento de su hegemonía en detrimento de la diversidad que caracterizaba la web hace necesario abrir espacios de participación social y deliberación democrática en torno a las mismas, en los que puedan generarse principios y valores que contribuyan a su regulación.

Fuente: https://www.elsaltodiario.com/facebook/puede-haber-regulacion-etica-redes  - Imagen: El uso de bots en las redes sociales ha sido investigado tras las acusaciones a Rusia de estar detrás de la elección de Trump. Arte El Salto - ‪La Razón‬ - ‪Diario TI‬ -

Sandra Álvaro es doctora europea en filosofía por la Universidad Autónoma de Barcelona y artista de los nuevos medios.

Entradas populares de este blog

Científicos declaran oficialmente el fluoruro (flúor) como una neurotoxina

Francia: ‘Mi orina contiene glifosato, ¿y la tuya?’ Denuncia contra el polémico herbicida

Japón decidió deshacerse de todos los hornos de microondas en el país antes de finales de este año