Algunos de los territorios fronterizos de Korea del sur están controlados por robots armados. De momento un controlador será el que decida si el robot puede matar o no, dependiendo del tipo de amenaza que identifique, pero Naciones Unidas ha comenzado a discutir sobre la posibilidad de dejar que sea el mismo robot el que tome la decisión de matar. A su vez, ya existen robots que realizan las operaciones más complicadas de cirugía guiados desde otra habitación por el cirujano, pero se calcula que en breve será el robot, de modo autónomo, el que realice la operación. La sociedad parece que quiere abolir en sentimiento de responsabilidad y de culpa poniendo de intermediarios a los robots. Para labores mecánicas, la perfección operativa del robot es inigualable pero ¿deberíamos ampliar su funcionalidad para labores sociales que impliquen decisiones vitales? Es decir, ¿es conveniente la ficción de un Robocop hecha realidad?
Qué duda cabe que es más sencillo a nivel emocional, dejar que el robot tome la decisión basada en parámetros programables. De este modo la responsabilidad es compartida: empezando por el informático que programa, el diseñador del robot, el político que aprueba la ley y, en último término, el votante que apoyó al político. Pero cuando una persona se enfrenta a otra, ya sea en el campo de batalla o en una camilla de un quirófano, el peso de la responsabilidad cambia. El factor de la libertad y de la autonomía toma sentido. La pregunta es ¿qué clase de mundo queremos?
Publicar un comentario