Líderes del ámbito tecnológico firman una carta para pedir la prohibición de los robots asesinos
Un centenar de nombres destacados del mundo de la tecnología, se han sumado a las decenas de organizaciones sociales, movimientos religiosos, comunidades científicas y activistas que desde hace varios años piden la prohibición de las armas autónomas letales, popularmente conocidas como robots asesinos: máquinas capaces de abatir objetivos humanos en el campo de batalla de forma totalmente independiente (sin supervisión humana), a pesar de su incapacidad para distinguir entre objetivos civiles y militares.
En total 116 líderes del ámbito tecnológico de 26 países firmaron la carta (puede leer una traducción al castellano al final de este artículo), redactada por el científico y experto en inteligencia artificial Toby Walsh, y dirigida a las Naciones Unidas, la organización en la que año tras año los gobiernos aplazan la prohibición de esta tecnología militar. Entre los signatarios hay tres directivos españoles: Toni Ferrate (RO-BOTICS), José Manuel del Río (Aisoy Robotics) y Victor Martín (Macco Robotics). “Sabes cómo aprenden [los robots asesinos], pero no qué van a hacer con el conocimiento adquirido”, explicó Toby Walsh a La Marea en diciembre, cuando tuvo lugar la última cita gubernamental para abordar el futuro de los robots asesinos.
Este lunes los Estados que integran la ONU tenían previsto reunirse en el marco de la Convención sobre ciertas armas convencionales, la misma que en el pasado impidió, por ejemplo, el desarrollo de las armas láser, y que ahora se encarga de dictaminar el futuro de las armas autónomas letales (LAWS por sus siglas en inglés). Los Estados que participan en esta convocatoria decidieron crear un nuevo grupo de expertos para determinar los pros y contras de esta tecnología, pero finalmente volvieron a posponer el encuentro de esta semana hasta noviembre. Desde que Naciones Unidas aborda el futuro de los robots asesinos, los gobiernos que participan en la revisión de esta convención han aplazado una y otra vez su decisión. La última vez fue en diciembre de 2016 (La Marea fue el único medio escrito que cubrió la cita).
Los expertos en inteligencia artificial, líderes políticos y religiosos, e incluso premios Nobel de la Paz como Jody Williams advierten sobre los dilemas éticos y legales de permitir que una máquina mate a seres humanos (no es posible determinar el responsable legal de los errores que cometa el aparato), así como el peligro de desplegar armas independientes que, por razones tecnológicas, están incapacitadas para distinguir objetivos civiles y militares. Entre sus razones para prohibir el desarrollo de estas armas también está la necesidad de impedir que prolifere una nueva carrera armamentística.
Carta abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales:
Nosotros, compañías que construyen la tecnología en inteligencia artificial y robótica que podría ser reutilizada para desarrollar armas autónomas, nos sentimos particularmente responsables de alzar la voz en este sentido. Recibimos con los brazos abiertos la decisión de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC) para establecer un Grupo de Expertos Gubernamentales (GEG) sobre Sistemas Armados Autónomos Letales. Muchos de nuestros investigadores e ingenieros están impacientes por ofrecer asesoramiento técnico a sus deliberaciones.
Aplaudimos el nombramiento del Embajador Amandeep Singh Gill de India al frente del GGE. Rogamos a las Altas Partes Contratantes del GEG a trabajar intensamente en la búsqueda de medios para prevenir una carrera armamentística de este tipo de armas, para proteger a los civiles de su uso indebido, y para evitar los efectos desestabilizadores de esta tecnología. Lamentamos que el primer encuentro del GEG, el cual debería haber empezado hoy (21 de agosto de 2017), haya sido cancelado debido al reducido número de estados dispuestos a pagar su contribución financiera a Naciones Unidas. Por tanto, exhortamos a las Altas Partes Contratantes a duplicar sus esfuerzos durante el primer encuentro del GEG previsto para noviembre.
Las armas autónomas letales amenazan con convertirse en la tercera revolución armamentística. Una vez desarrolladas, darán lugar a conflictos armados a una escala nunca antes vista, y a una velocidad superior a la que los humanos nunca podrán alcanzar. Estas pueden ser armas de terror, armas que los déspotas y terroristas usen contra poblaciones inocentes, y armas susceptibles de ser hackeadas para actuar de forma indeseable. No tenemos mucho tiempo para actuar. Una vez que la Caja de Pandora se haya abierto, será difícil cerrarla. Por tanto, rogamos a las Altas Partes Contratantes que encontren la forma de protegernos de estos peligros.
Fuente: http://www.lamarea.com/2017/08/22/piden-prohibir-robots-asesinos/ - Imagenes: Diario1 - El Universal
Nosotros, compañías que construyen la tecnología en inteligencia artificial y robótica que podría ser reutilizada para desarrollar armas autónomas, nos sentimos particularmente responsables de alzar la voz en este sentido. Recibimos con los brazos abiertos la decisión de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC) para establecer un Grupo de Expertos Gubernamentales (GEG) sobre Sistemas Armados Autónomos Letales. Muchos de nuestros investigadores e ingenieros están impacientes por ofrecer asesoramiento técnico a sus deliberaciones.
Aplaudimos el nombramiento del Embajador Amandeep Singh Gill de India al frente del GGE. Rogamos a las Altas Partes Contratantes del GEG a trabajar intensamente en la búsqueda de medios para prevenir una carrera armamentística de este tipo de armas, para proteger a los civiles de su uso indebido, y para evitar los efectos desestabilizadores de esta tecnología. Lamentamos que el primer encuentro del GEG, el cual debería haber empezado hoy (21 de agosto de 2017), haya sido cancelado debido al reducido número de estados dispuestos a pagar su contribución financiera a Naciones Unidas. Por tanto, exhortamos a las Altas Partes Contratantes a duplicar sus esfuerzos durante el primer encuentro del GEG previsto para noviembre.
Las armas autónomas letales amenazan con convertirse en la tercera revolución armamentística. Una vez desarrolladas, darán lugar a conflictos armados a una escala nunca antes vista, y a una velocidad superior a la que los humanos nunca podrán alcanzar. Estas pueden ser armas de terror, armas que los déspotas y terroristas usen contra poblaciones inocentes, y armas susceptibles de ser hackeadas para actuar de forma indeseable. No tenemos mucho tiempo para actuar. Una vez que la Caja de Pandora se haya abierto, será difícil cerrarla. Por tanto, rogamos a las Altas Partes Contratantes que encontren la forma de protegernos de estos peligros.
Fuente: http://www.lamarea.com/2017/08/22/piden-prohibir-robots-asesinos/ - Imagenes: Diario1 - El Universal