Un investigador denuncia que Silicon Valley paga estudios sobre "la ética de la Inteligencia Artificial" para impedir su regulación
Un ex miembro del MIT denuncia que los abundantes estudios sobre cómo promover la ética de la IA son una "tapadera" destinada a "blanquear" esta tecnología. Estos estudios, pagados a través de fondos aportados por las multinacionales tecnológicas, son parte de "esfuerzo de Silicon Valley que busca evitar restricciones legales contra tecnologías controvertidas", acusa: "Son usados como instrumento para lavar su reputación", revela una jurista a eldiario.es. "Ya era hora de que se supiera".
Carlos del Castillo
"El esfuerzo del lobby corporativo para dar forma a la investigación académica ha sido extremadamente exitoso. Ahora hay una enorme cantidad de estudios sobre 'ética de la Inteligencia Artificial'. Para ser justos, una parte de esa investigación es útil, especialmente en humanidades y ciencias sociales. Pero la mayoría del tan bien financiado trabajo sobre 'IA ética' está alineado con la agenda del lobby tecnológico: autorregular o ajustar moderadamente, en lugar de restringir legalmente, el despliegue de tecnologías controvertidas".
Es el resumen de la denuncia de Rodrigo Ochigame, ex investigador del prestigioso MIT (Instituto de Tecnología de Massachusets, por sus siglas en inglés) publicada en The Intercept. El relato de Ochigame describe cómo las grandes multinacionales tecnológicas americanas han dejado durante años caer una lluvia de millones de dólares sobre múltiples instituciones académicas para que sus investigaciones sobre Inteligencia Artificial favorezcan sus intereses empresariales.
Esta inversión en estudios favorables se concentraron en el campo de la "ética de la Inteligencia Artificial". Ochigame lo describe como una "tapadera" destinada a "blanquear" los posibles impactos negativos de esta nueva tecnología. El objetivo era crear un clima negativo a la intervención de los poderes públicos en la regulación de la IA, que en los últimos años se ha desplegado en campos con fuertes implicaciones en los derechos fundamentales de las personas como la detención policial, la protección de fronteras (tanto en España como en la UE ), la selección de personal o el acceso a ayudas sociales.
"Hay tres posibilidades a la hora de regular cualquier tecnología", recuerda el investigador. La primera es que "no haya ningún tipo de regulación, dejando los 'principios éticos' y 'prácticas responsables' como meramente voluntarios". La segunda, que exista "regulación moderada" que "no entre en conflicto con la obtención de beneficios". Por último está la "restricción legal" que "contenga o prohíba el despliegue de una tecnología". "Como era de esperar, la industria de la tecnología tiende a apoyar los dos primeras y a oponerse la última. El discurso sobre la 'IA ética' patrocinado por las corporaciones les permite defender precisamente esta posición", detalla Ochigame.
La denuncia del exinvestigador del MIT llega justo después de uno de los principales departamentos de investigación en el campo de la Inteligencia Artificial, el AI Now de la Universidad de Nueva York, pidiera en su informe-resumen de 2019 que se prohíban algunos usos de la Inteligencia Artificial. En concreto, cargaba contra la aplicación del reconocimiento emocional en decisiones que afectan a la vida de las personas pese a la "poca o nula evidencia de que tengan algún tipo de validez científica" y criticaba a la industria por intentar colarla como solución a problemas de toda índole.
Carlos del Castillo
"El esfuerzo del lobby corporativo para dar forma a la investigación académica ha sido extremadamente exitoso. Ahora hay una enorme cantidad de estudios sobre 'ética de la Inteligencia Artificial'. Para ser justos, una parte de esa investigación es útil, especialmente en humanidades y ciencias sociales. Pero la mayoría del tan bien financiado trabajo sobre 'IA ética' está alineado con la agenda del lobby tecnológico: autorregular o ajustar moderadamente, en lugar de restringir legalmente, el despliegue de tecnologías controvertidas".
Es el resumen de la denuncia de Rodrigo Ochigame, ex investigador del prestigioso MIT (Instituto de Tecnología de Massachusets, por sus siglas en inglés) publicada en The Intercept. El relato de Ochigame describe cómo las grandes multinacionales tecnológicas americanas han dejado durante años caer una lluvia de millones de dólares sobre múltiples instituciones académicas para que sus investigaciones sobre Inteligencia Artificial favorezcan sus intereses empresariales.
Esta inversión en estudios favorables se concentraron en el campo de la "ética de la Inteligencia Artificial". Ochigame lo describe como una "tapadera" destinada a "blanquear" los posibles impactos negativos de esta nueva tecnología. El objetivo era crear un clima negativo a la intervención de los poderes públicos en la regulación de la IA, que en los últimos años se ha desplegado en campos con fuertes implicaciones en los derechos fundamentales de las personas como la detención policial, la protección de fronteras (tanto en España como en la UE ), la selección de personal o el acceso a ayudas sociales.
"Hay tres posibilidades a la hora de regular cualquier tecnología", recuerda el investigador. La primera es que "no haya ningún tipo de regulación, dejando los 'principios éticos' y 'prácticas responsables' como meramente voluntarios". La segunda, que exista "regulación moderada" que "no entre en conflicto con la obtención de beneficios". Por último está la "restricción legal" que "contenga o prohíba el despliegue de una tecnología". "Como era de esperar, la industria de la tecnología tiende a apoyar los dos primeras y a oponerse la última. El discurso sobre la 'IA ética' patrocinado por las corporaciones les permite defender precisamente esta posición", detalla Ochigame.
La denuncia del exinvestigador del MIT llega justo después de uno de los principales departamentos de investigación en el campo de la Inteligencia Artificial, el AI Now de la Universidad de Nueva York, pidiera en su informe-resumen de 2019 que se prohíban algunos usos de la Inteligencia Artificial. En concreto, cargaba contra la aplicación del reconocimiento emocional en decisiones que afectan a la vida de las personas pese a la "poca o nula evidencia de que tengan algún tipo de validez científica" y criticaba a la industria por intentar colarla como solución a problemas de toda índole.
Grado de fiabilidad de la
Inteligencia Artificial en función del campo al que se aplique,
elaborado por el investigador Arvind Narayanan, de la Universidad de
Princeton (EEUU)
"Era un secreto a voces", revela un investigador contactado por eldiario.es para contrastar la validez de las denuncias de Ochigame. "Ya era hora de que se supiera", reafirma otro.
"En el último año y medio, dos años, ha habido una enorme proliferación de documentos enumerando los principios que las organizaciones deben implementar para desarrollar una IA confiable", abunda Manuela Battaglini, abogada especialista en nuevas tecnologías. "Juntos, estos documentos suman casi 90 principios distintos. El problema es que muchos de estos documentos surgen de organizaciones co-fundadas por los gigantes tecnológicos, y son usados como instrumento para lavar su reputación", continúa.
"La comunidad de Ética de los Datos (al menos la de Dinamarca, que es de las que más tiempo lleva activa y a la cual pertenezco) nunca vio con buenos ojos que los gigantes tecnológicos fueran parte de la conversación acerca de cómo implementar la Ética de los Datos en las empresas, y qué recomendaciones dar a los Gobiernos para que éstos las convirtieran en leyes", sigue la letrada, que recalca que "la Ética de los Datos es totalmente opuesta a la cultura de estas empresas, y la cultura de una empresa es su producto. Los productos de Google, FB, Amazon, Microsoft... precisamente se basan en el no respeto de la privacidad de sus usuarios ni a sus derechos fundamentales, y convertir su información en negocio, provocando discriminaciones, sesgos y desigualdades".
"IA ética" o cómo crear una disciplina académica de la nada
El Media Lab, el departamento del MIT especializado en tecnología en el que Ochigame trabajó durante 14 meses, fue una pieza clave en esa estrategia de "lavado de imagen" de la Inteligencia Artificial. Uno de las piezas más importantes era Joichi Ito. Fue el director del Media Lab desde 2011 hasta septiembre de 2019, cuando se vio obligado a dimitir por sus vínculos con Jeffrey Epstein, el multimillonario estadounidense que se suicidó en su celda cuando se encontraba a la espera de juicio por tráfico de menores.
"En el Media Lab aprendí que el discurso de la 'IA ética', defendido esencialmente por Ito, está alineado estratégicamente con un esfuerzo de Silicon Valley que busca evitar restricciones legales contra tecnologías controvertidas", denuncia Ochigame, que dimitió de su puesto en la institución el 15 de agosto, justo después de las primeras explicaciones públicas de Ito sobre su relación con Epstein. A la postre, estas explicaciones solo le sirvieron para permanecer un mes más en el cargo.
Ito era una persona "sin experiencia formal" con la ética de la tecnología hasta 2018, mientras que la IA ética "era un campo de estudio que apenas existía antes de 2017", detalla Ochigame. Sin embargo en esos años se produjo un gran crack en la investigación y discurso público sobre la tecnología: la revelación del escándalo de Facebook y Cambridge Analytica. A este le siguieron noticias como la relación de Google con el Pentágono para aplicar su tecnología al uso militar o la venta de IA de reconocimiento facial de Amazon a departamentos de Policía.
"El MIT le dio credibilidad a la idea de que la grandes tecnológicas podían controlar su propio uso de la inteligencia artificial en un momento en que la industria enfrentaba cada vez más críticas y exige una regulación legal", expone el investigador. A esa cadena de noticias que afectaban a su imagen, las multinacionales tecnológicas contraatacaron con inversiones millonarias en proyectos de investigación relacionados con la ética de la IA.
La cascada empezó en enero de 2018, cuando Microsoft publicó sus 'principios éticos' para la Inteligencia Artificial. Poco a poco, todas las grandes tecnológicas fueron promoviendo este discurso con decálogos y declaraciones de compromiso: Facebook en mayo, Google en junio, IBM en septiembre. "Estas iniciativas corporativas citaban frecuentemente investigaciones académicas que Ito había financiado, al menos parcialmente, a través del fondo MIT-Harvard", denuncia Ochigame en sus revelaciones en The Intercept.
Fuente: https://www.eldiario.es/tecnologia/Inteligencia-Artificial-Silicon-Valley-controvertidas_0_977102612.html - Imagen de portada: Software de reconocimiento facial Youtube