Pensar sobre Inteligencia Artificial: ¿La IA es un problema tecnológico, es un problema económico y social, es un problema político, o es una mezcla de todos?

Los sistemas de Inteligencia Artificial pueden desarrollar un deseo según su propio criterio, que esté en conflicto con los de los humanos, y que nos podría incluso destruir. En breve, la aparición de una Inteligencia Artificial poderosa puede ser tanto lo mejor como lo peor que haya pasado nunca a la humanidad” (Stephen Hawking)


Introducción
La finalidad de este trabajo es invitar a la reflexión sobre el fenómeno de la Inteligencia Artificial (IA) poniendo de manifiesto algunas de sus alargadas sombras que han hecho, a científicos del prestigio de Stephen Hawking, proferir inquietantes dudas sobre esta tecnología. Se trata pues de reflexionar sobre un producto humano que hay que gestionar y lo más importante, hay que responsabilizarse de él partiendo de la base de que esta tecnología, como todas las demás, tiene que estar al servicio de la mayoría de la humanidad y no al de intereses espurios de una minoría.
Una vez más la humanidad se enfrenta a la construcción de su futuro, conjugando el binomio tecnología-ética que permanentemente le acompaña a lo largo de su historia, especialmente desde la Revolución Industrial. Se trata, de manera consciente y plenamente humana, de rechazar un uso de la tecnología sin reflexionar mínimamente sobre sus consecuencias. Los humanos, parafraseando a Aristóteles, ni son dioses ni son bestias en el qué hacer científico, o por lo menos no deberían serlo.
La IA presenta diversos ángulos de análisis que afectan a la vida humana: La economía, la producción de bienes, los derechos humanos e incluso un planteamiento ontológico que puede modificar el actual, visto desde el concepto del “transhumanismo”.

De qué hablamos cuando nos referimos a la IA
Se dice que estamos inmersos en una nueva y poderosa revolución tecnológica superior en sus consecuencias sociales, económicas y políticas a la que supuso la Revolución Industrial, teniendo en cuenta que esta significó un importante cambio en la producción de bienes, mediante unas tecnologías y procedimientos que aumentaban la fuerza físico productiva del humano. Sin embargo a lo que se enfrenta la humanidad en la actualidad con las tecnologías de la información y la comunicación y muy especialmente con la IA y el “big data”, elemento básico fuertemente imbricado con la IA para su plena operatividad, es a un cambio más radical que afecta a algo mucho más sensible en el humano, su cerebro, lugar donde se generan atributos típicamente humanos y solo humanos, o por lo menos eso es lo que se creía hasta ahora.
Desde hace ya tiempo existen multitud de artefactos tecnológicos que poseen, en mayor o menor medida, una capacidad de automatización en sus prestaciones que incorporan algo parecido a una inteligencia, pues actúan y toman decisiones en función de algoritmos que manejan un determinado tipo de respuestas, ante un catálogo de situaciones perfectamente identificadas. En la actualidad con la IA y la disposición masiva de datos, la referencia es a otra cosa mucho más radical, novedosa y revolucionaria, basada en lo que se conoce como “aprendizaje profundo” (también “deep learning”) donde la máquina es capaz de incorporar nuevas e inéditas respuestas a diferentes problemas a los que se pueda enfrentar. Existen ejemplos1 que corroboran esto donde, no solo la máquina vence al humano en juegos de cierta complejidad como el Ajedrez o el Go, juego chino más complejo que el ajedrez, sino que ha vencido al humano, al parecer, en juegos como el Póker donde la victoria se alcanza no solo ni principalmente del conocimiento de sus reglas sino, en muchos casos y por las características del juego, por un análisis de las respuestas de los jugadores basadas, más que en llevar buena mano en convencer al contrario de ello, aunque eso no ocurra. Lo que indica que desde la IA se está explorando no solo campos que se mueven en la más estricta racionalidad sino otros en el ámbito de la intuición y las emociones como forma de percepción y solución de problemas.
El aprendizaje profundo expresado de forma muy sucinta es un método por el que se diseñan y ponen en práctica algoritmos, capaces de “aprender” del asunto de que se trate, mediante algo similar a lo que en el humano se conoce como “experiencia”, tomando como referencia el funcionamiento del cerebro humano, hasta donde actualmente se conoce este. Se le denomina "profundo" porque funciona mediante una estructura jerárquica de capas que extrae diferentes niveles de detalle de los datos en cuestión. Por ejemplo, durante el reconocimiento de imágenes se extraen bordes que, combinados, permiten detectar contornos, que a su vez permiten reconocer diferentes partes del objeto ya en forma tridimensional, lo cual posibilita determinar su identidad.
No obstante, el verdadero reto que se están marcando los expertos en esta tecnología sin un horizonte temporal claro, es la creación de una máquina que sea capaz de incorporar eso que se llama “sentido común” que es saber tomar decisiones de forma similar a como lo haría un humano en actos aparentemente sencillos para este pero especialmente complicados para cualquier máquina.

Impactos en la vida humana
Los impactos que la IA puede provocar en la vida humana son muy variados y numerosos dependiendo del campo que se analice, por lo tanto y para no tener que exponer un exhaustivo catálogo de los mismos, se trata de buscar aspectos comunes y generales.
Una de las funciones de los avances tecnológicos cuando se aplican a la producción de bienes y servicios, y la IA no es una excepción, es la de ir prescindiendo del concurso humano. Esto activa una de las principales preocupaciones de las personas frente a estas tecnologías, el temor a perder su trabajo, algo que en sí mismo no debería ser negativo pero que en una sociedad organizada económicamente como la actual es un gran problema.
No obstante, la pregunta que cabría hacerse al respecto sería ¿La IA es un problema tecnológico, es un problema económico y social, es un problema político, o es una mezcla de todos? De la respuesta a esta pregunta se derivarían diversos enfoques para afrontarlo.
Otro ámbito, característico de actuación de la IA, es el que se refiere a la toma de decisiones, algo que representa uno de los atributos más específicos e importantes del comportamiento humano, donde no solo interviene la racionalidad pura y dura, fácil de ser computerizada mediante un algoritmo, sino además la intuición y las emociones, las cuales, por lo menos actualmente, son más problemáticas reflejar en un algoritmo, aunque se estén dando pasos en ese sentido, tal como refiere el profesor Carlo Rovelli2
“… no sólo los filósofos sino también los neurocientíficos están discutiendo ideas precisas sobre la forma matemática de las estructuras que pueden corresponder a la sensación subjetiva de la conciencia” 

Por otro lado en esa toma de decisiones mediante IA, existe el riesgo de que el proceso devenga en soluciones no deseadas y difíciles de detectar y contrarrestar hasta que el daño se ha producido, lo cual implica sistemas muy inestables y de alto riesgo. En la crisis económica de 2008, que tanto dolor y sufrimiento trajo a millones de personas en el mundo, decisiones tomadas por un cierto tipo de algoritmos contribuyó a crear una fuerte inestabilidad en el sistema financiero internacional que devino en pánico financiero y en todo lo que ocurrió después, tal como señala Cathy O´Neil3 en su explicación sobre el papel de los algoritmos en el desastre financiero de 2008.

“…paradójicamente, los supuestamente potentes algoritmos que crearon el mercado, los que analizaban el riesgo en tramos de deudas y los distribuían en títulos, resultaron inútiles cuando llegó el momento de poner orden en el desastre y calcular lo que realmente valían todos esos papeles. Las matemáticas podían multiplicar la basura, pero eran incapaces de descifrarla. Eso era algo que solo podían hacer los seres humanos”.

Lo que cuestiona la supuesta infalibilidad de la IA para evitar daños graves y la actuación del humano en todo el proceso, tanto para generar el daño como para resolverlo después, de lo que se deduce que la responsabilidad es fundamentalmente humana. El problema aquí, no es tanto que una máquina pueda actuar de forma “irresponsable y autónoma” totalmente, sino la opacidad y el alto grado de irresponsabilidad social con la que sus algoritmos han sido desarrollados.
Una opacidad amparada en la confidencialidad, que no es otra cosa que pura y dura guerra comercial, donde la tendencia no es diseñar sistemas más eficientes social y económicamente para la mayoría, sino servir a intereses de importantes capitales financieros, sostenida esa opacidad en leyes “ad hoc” convirtiendo a estos algoritmos en auténticas “cajas negras”, impidiendo así un control con auditorías públicas sobre ellos.
En un sentido parecido y que afecta también a la toma de decisiones, otro riesgo no desdeñable es el que se refiere a la pérdida de habilidades del humano en determinadas profesiones que cada vez están más en manos de robots, “complacencia automatizada” la denomina N. Caar. Al parecer y según explica N. Caar4 el 4 de enero de 2013, la Administración Federal de Aviación de Estados Unidos emitía un comunicado instando a las compañías aéreas norteamericanas a que incentivaran las operaciones de vuelo “manuales”. Las investigaciones sobre accidentes e incidentes en vuelo, indicaban que los pilotos se habían vuelto demasiado dependientes de la navegación automática.
En la medida en que la IA se convierta en una poderosa herramienta en la guerra comercial global, la tendencia será a actuar en sistemas no abiertos generando un elemento claro de discriminación entre países, profundizando aún más, las desigualdades que actualmente existen en materia científica y tecnológica basadas en un marco legal internacional asimétrico (TTIP o CETA) que prima los intereses de las grandes firmas tecnológicas en detrimento de los derechos de las personas y los pueblos.
La IA en la medida en que posibilita la interrelación entre una gran amplitud de bases de datos, es una herramienta que podría influir de manera sesgada, sobre determinadas decisiones políticas, condicionando la opinión pública de forma poco equilibrada sobre las diferentes opciones que se manejen. Asimismo, se convierte en una herramienta demoscópica poco transparente, que podría incluso suplir mecanismos democráticos de participación como son las elecciones, o las deliberaciones sobre asuntos vitales.
Otro uso de la IA es el referido al campo militar que además es donde más se avanza y menos transparencia existe sobre sus investigaciones y desarrollos, totalmente desbocados bajo el principio de que “todo lo que pueda hacerse tecnológicamente, hágase y a ser posible antes que los demás”, sin reparar en medios y daños a la humanidad. Sus productos tecno-armamentísticos están basados en dos premisas desoladoras como son, crear el máximo daño y destrucción con el mínimo esfuerzo posible y evitar, además, cualquier tipo de empatía con las víctimas. El caso de los drones como máquinas de matar, es el paradigma de esa forma de actuación.
Por otra parte es poco real, como se pretende, el asignar a la IA un funcionamiento libre de prejuicios, neutral y totalmente racional, teniendo en cuenta que en la creación de algoritmos, de forma más o menos consciente, el que los diseña está volcando en ellos sus propios prejuicios e ideología, Cathy O´Neil5 pone el ejemplo de cómo, empresas de colocación de EE.UU. en una masiva y seguramente ilegal recogida de datos que llevan a cabo para crear perfiles profesionales de los demandantes de trabajo, uno de los factores que más penalizan en esa búsqueda es la de su calificación crediticia, creando, primero, una clara ineficacia que no indica la idoneidad profesional del sujeto para el puesto al que opta y en segundo lugar, creando un bucle perverso, pues cuantas menos posibilidades tenga de trabajar su liquidez será menor y probablemente su morosidad tenderá a aumentar, disminuyendo cada vez más sus posibilidades de encontrar trabajo. En definitiva, tiende a reproducir o a enquistar las diferencias sociales y económicas del sistema, potenciando además, un discutible perfil personal de idoneidad a un determinado estándar social. El paradigma distópico por excelencia.
Para terminar…
No parece razonable rechazar los avances científicos, sería una locura, inviable y absurda por otro lado. La historia de la especie humana tiene explicación también en el marco del saber científico que además, ha posibilitado importantes avances y mejoras en la forma de vida humana. No obstante, el enfoque crítico sobre la actividad científica exige un análisis no solo epistemológico, sino axiológico por su enorme poder de cambio en la sociedad, en definitiva, es necesario interesarse no solo por las teorías científicas sino por el hecho científico como un acto poderoso de cambio.
No plantearse ese enfoque crítico y holístico alimenta una creencia muy extendida que sostiene, que en sí mismo el hecho científico es neutral desde el punto de vista axiológico, pensamiento que aísla de la práctica política y social la actividad científica en un claro ejercicio acientífico, estableciendo una radical separación entre ciencia (teoría/buena) y tecnología (práctica/mala) algo que en la actualidad resulta complicado sostener y que deviene en una peligrosa verdad a medias, aun aceptando que cuanto más próximo se encuentre el proyecto en sus inicios, o sea en la fase de investigación básica, se aproxima más a esa búsqueda de la verdad gozando de una mayor autonomía y neutralidad.
El hecho científico es complejo y controvertido en sí mismo, desde el momento inicial donde se decide financiar el proyecto “A” y no el “B”, hasta el uso que socialmente se hace del producto final, pasando por el proceso de creación de conocimiento que se genera, tanto en la comunidad científica como en el resto de la sociedad. Un ejemplo, no especialmente positivo de esto, lo da constantemente la industria farmacéutica reteniendo vías de investigación y potenciando otras con el principal fin de alimentar su cuenta de resultados. Un reciente informe de Goldman Sachs6 resulta demoledor al respecto.
Existe toda una cadena de valor en el hecho científico, impregnada de intereses en conflicto, el quid de la cuestión no es negar esos conflictos de intereses, como algunos hacen cuando hablan del hecho científico de una manera neutral y beatífica, sino que esos intereses y conflictos se resuelvan a favor de la humanidad en su conjunto y no al de una minoría. Para que esto ocurra es necesario un empoderamiento de la sociedad, como forma de contrarrestar la “democracia pasiva” en la que se están convirtiendo nuestras sociedades, donde el “ciudadano” ha sido sustituido por el “cliente” y donde, aspectos que influyen poderosamente en nuestras vidas quedan fuera del ámbito democrático. El científico es uno de los más importantes que se ubica extramuros de la democracia. Un comentario muy pertinente al respecto de la importancia de implicarse en esta lucha democrática, referida expresamente a la IA, es el que hace Cathy O´Neil7 cuando sostiene que:

“… si nos retiramos y tratamos los modelos matemáticos como si fueran una fuerza neutra e inevitable, como la meteorología o las mareas, estaremos renunciando a nuestra responsabilidad”

Afrontar responsablemente el desarrollo y el reto que supone la IA para nuestras formas de vida, ha de hacerse en un contexto que rechace el planteamiento de que la ciencia y la tecnología son el sujeto histórico del progreso de la humanidad, relegando al ser humano a la categoría de eslabón de un sistema productivo de máxima eficiencia. Un discurso, este, pertrechado de un bagaje matemático y de ingeniería de sistemas potente pero incapaz de ofrecer una visión ética y cualitativa de progreso y desarrollo del ser humano que atienda y cuide aspectos relacionados con su bienestar y felicidad y no tanto con su capacidad de producir y consumir objetos. La complejidad que rige en las relaciones humanas es difícil de resumir en un algoritmo, tal como señala Cathy O´Neil8

“…todo modelo es por su naturaleza una simplificación de la realidad, de ahí su imperfección. Ningún modelo, por lo menos hasta ahora, puede incluir toda la complejidad del mundo ni los matices de la comunicación humana”

Otro aspecto importante que contribuiría a un avance más humano en las relaciones de la ciencia con la sociedad, viene referido al de la formación de los futuros científicos, incorporando a su currículo una formación ética y de responsabilidad social, que les haga ser conscientes de que su principal responsabilidad, a pesar de su creciente proletarización, no es con la firma concreta para la que trabajan sino con la sociedad en general, evaluando en su trabajo los posibles impactos sociales o ecológicos en los que pueda incurrir el proyecto que en cada momento tengan entre manos, poniendo en valor las “rentabilidades sociales y económicas de la mayoría” frente a intereses espurios de minorías por muy poderosas que estas sean.
Asimismo, potenciar cada vez con más rigor el trabajo multidisciplinar en los proyectos científicos en general y en los de IA en particular, dada la gran fragmentación en que ha devenido el conocimiento, principalmente entre las ciencias de la naturaleza y las sociales. Tal como expone Max Tegmark9 físico del MIT, director del Future Life Institute y experto en IA, cuando dice, casi a modo de exigencia, que:

“…la inteligencia artificial no puede estar solo en manos de gente como yo”

De cualquier forma si algo caracteriza una reflexión sobre la IA es la de la incertidumbre, no tanto por los productos concretos que surgirán, sino sobre todo por el poder de cambio que ejercerá en la vida del humano y que justifica ese talante de responsabilidad crítica que debe guiar su desarrollo para que sea algo al servicio de la humanidad

NOTAS:
1 Javier Sampedro. CLAVES N. 257 Pág.:14
2 SIETE BREVES LECCIONES DE FÍSICA Pág. 84. ANAGRAMA Colección Argumentos.
3 ARMAS DE DESTRUCCIÓN MATEMÁTICA Pág. 57 Editorial Capitán Swing
5 ARMAS DE DESTRUCCIÓN MATEMÁTICA Pág. 16 Editorial Capitán Swing
7 ARMAS DE DESTRUCCIÓN MATEMÁTICA Pág. 269 Editorial Capitán Swing
8 Ibíd. Pág. 30

Entradas populares de este blog

Científicos declaran oficialmente el fluoruro (flúor) como una neurotoxina

Francia: ‘Mi orina contiene glifosato, ¿y la tuya?’ Denuncia contra el polémico herbicida

Japón decidió deshacerse de todos los hornos de microondas en el país antes de finales de este año