top of page

Nos encontraremos en algún momento de un futuro próximo. Estas considerando la posibilidad de desarrollar una nueva generación de robots para el campo de batalla. Este modelo tendría dos modos: semiautomático, en el que la máquina necesitaría de aprobación humana para atacar y matar al enemigo, y completamente autónomo, en cuyo caso el propio robot decidiría quien es un objetivo militar adecuado y cuando sería correcto atacar. La pregunta que les haces a los desarrolladores es que cómo decide el robot quien es un objetivo adecuado y quien no. No querrías, por ejemplo, que se volviera hacia vuestros propios hombres armados, o que atacara a refugiados civiles en su huida o instalaciones médicas del enemigo.


En una situación de batalla, donde las únicas personas presentes serían personal militar, dicho robot tendría pocos dilemas éticos que resolver. ¿Pero cuántas guerras se libran ahora como una sucesión de batallas campales en zonas alejadas de cualquier civil? Yo diría que prácticamente ninguna desde que terminó la Segunda Guerra Mundial. E incluso en aquel conflicto, eran muy infrecuentes los enfrentamientos en los que participaran estrictamente militares contra militares. Las guerras ahora se luchan dentro y en torno a ciudades con un gran número de civiles, hostiles y simpatizantes, en la línea de fuego. Tu pregunta al fabricante de armas es: ¿cómo vais a enseñar a los robots a diferenciar el bien del mal?


ACTIVIDAD


LOS DRONES, AL MENOS, TIENEN UN OPERADOR HUMANO, PERO LOS MILITARES ESTÁN DESARROLLANDO ACTUALMENTE ROBOTS MILITARES AUTÓNOMOS. ¿CABE SIQUIERA ESPERAR QUE LOS SOLDADOS ROBOTS SE COMPORTEN DE FORMA ÉTICA EN EL CAMPO DE BATALLA?


bottom of page