Hace unos minutos se ha levantado el embargo informativo sobre la siguiente carta abierta, que se leerá el día 28 de julio de 2015 en el mayor congreso internacional sobre inteligencia artificial (IJCAI, International Joint Conferences on Artificial Intelligence) en la que se pide la creación de un tratado internacional de no proliferación de dichas armas para evitar el comienzo de la tercera revolución en guerra de la Historia, siendo las dos anteriores la pólvora y la bomba atómica.
No es que Skynet vaya a tomar conciencia de sí mismo de un momento a otro, pero si los gobiernos y los investigadores no anteponemos la ética a la tecnología, sí que es cierto que el futuro nos deparará cosas muy feas. Podéis consultar el listado de firmantes (cientos por ahora), entre los que se encuentran «pesos pesados» de las distintas comunidades de investigadores en robótica, IA y visión por ordenador, así como las figuras más mediáticas como Stephen Hawking, Elon Musk (Space X, Tesla) o Steve Wozniak (Apple).
Paso a traduciros el contenido íntegro de la carta. El énfasis del texto es mío. Por cierto, ruego a los que se hagan eco de la noticia que empleen el término «arma autónoma«, que desde luego tiene más sentido que el manido «arma inteligente«.
Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Entre estas armas se incluyen, por ejemplo, multicópteros que puedan buscar y eliminar personas que cumplan ciertos criterios pre-establecidos, pero no se incluyen los misiles de crucero ni los drones operados remotamente, para los que hay humanos detrás tomando las decisiones. La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego: se ha dicho que las armas autónoma serán la tercera revolución en la guerra, tras la pólvora y las armas nucleares.
Se han dado muchos argumentos a favor y en contra de las armas autónomas, por ejemplo que reemplazar a los soldados por máquinas es bueno para reducir las bajas para el bando propietario, pero malo porque rebajaría el umbral de lo que cuesta ir a una batalla. La pregunta clave para la Humanidad hoy es si comenzamos una guerra armamentística de IA o si prevenimos que tan siquiera comience. Si alguna potencia militar sigue adelante con el desarrollo de armas de AI, una carrera mundial de armas es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvia: las armas autónomas se convertirán en los Kalashnikovs del mañana. A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener, por lo que se convertirá en ubicuas y baratas al ser producidas en masa para todos los poderes militares. Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores que deseen controlar mejor a su población, señores de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento del pueblo y asesinatos selectivos para grupos étnicos en particular. Por ello creemos que una carrera de armas de IA militar no sería beneficioso para la humanidad. Hay muchas formas en que la IA puede hacer los campos de batalla más seguros para los seres humanos, especialmente los civiles, sin crear nuevas herramientas para matar a la gente.
Al igual que la mayoría de los químicos y biólogos no tienen ningún interés en la construcción de armas químicas o biológicas, la mayoría de los investigadores de la IA no tienen ningún interés en la construcción de armas de AI, y no desean que otros empañen su campo al hacerlo, creando una potencial reacción pública en contra de la IA que cercene sus futuros beneficios para la sociedad. De hecho, los químicos y biólogos en general han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, al igual que la mayoría de los físicos apoyan los tratados que prohíben las armas nucleares basadas en el espacio y de las armas láser cegadoras.
En resumen, creemos que la IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras, y que la meta del campo debería ser hacerlo realidad. El inicio de una carrera armamentista de IA militar es una mala idea, y debe ser impedido por la prohibición de las armas autónomas ofensivas fuera del control humano.