Global
Global
¿Comienza la era de los robots asesinos?
No es ciencia ficción, es un riesgo real
30 Ene | 2019
Por: Magda Coss
Muy Cierto
¿Comienza la era de los robots asesinos?
No es ciencia ficción, es un riesgo real
Ene 30, 2019
por: Magda Coss
Muy Cierto
Compartir:

“¡Escucha, y entiende! ¡Ese Terminator está ahí afuera! No se puede negociar con él. No se puede razonar con él. No siente lástima, ni remordimiento, ni miedo. Y absolutamente no se detendrá, nunca, hasta que mueras.” La frase corresponde a la película de ciencia ficción Terminator, filmada en 1984, que trata de un robot autónomo humanoide que -en un futuro controlado por la inteligencia artificial de las máquinas- tiene la misión de viajar al pasado y matar a una persona.

La posibilidad de que existan robots asesinos ya no es ciencia ficción ni futuro lejano. Hace seis años comenzaron las discusiones en Naciones Unidas sobre la posibilidad de utilizar robots en enfrentamientos bélicos, y en noviembre de 2018 los Estados se reunieron en la Convención anual sobre Armas Convencionales en la ONU en Ginebra para hablar sobre las posibilidades de regular estas armas.

¿De qué estamos hablando al decir robots asesinos?

“Robots asesinos” es el nombre coloquial para denominar a las armas autónomas, es decir, cualquier tipo de arma que por sí misma pueda tomar la decisión de seleccionar un blanco y dispararle, explica Camilo Serna en entrevista para Cuestione, vocero para América Latina de la Campaña Mundial Stop Killer Robots. La campaña está compuesta por 89 organizaciones de la sociedad civil en 50 países, e incluye a científicos, expertos en robótica, ganadores del Premio Nobel de la Paz, entre otros.

En la actualidad, ya es posible mandar un dron con el fin de ejecutar a un terrorista de una manera “quirúrgica”, es decir, con menos enfrentamientos y daños colaterales, sin la necesidad de enviar un convoy de militares, con menor costo económico y menos bajas del bando de quien emprende el ataque.

El dron, a través de tecnología de reconocimiento facial, puede detectar a la persona que se está buscando, pero en este momento aún es necesario un ser humano a distancia que verifique la información que da la máquina y que tome la decisión de disparar.

Las armas autónomas eliminarían la intervención humana, que permite la evaluación ética, la compasión y la estimación de otro tipo de riesgos y de cambios en el entorno –por ejemplo, que se atraviese en la trayectoria un autobús escolar-,  así como la diferenciación entre personas combatientes y de víctimas civiles presentes en el lugar equivocado. Es decir, que las personas pueden dar marcha atrás a un ataque en un momento determinado. Las máquinas no lo harían.

Con los robots asesinos, los líderes de los países pueden iniciar una guerra más fácilmente desde su escritorio, si se piensa que esta no tendría costos humanos. Aunque parece un escenario ideal que en el campo de batalla se enfrenten robots en lugar de humanos y que quien pierda la guerra no pierda vidas, las guerras reales no funcionan así y este futuro encierra grandes peligros.

Sin embargo, el de las armas autónomas no sólo es un tema de dimensiones bélicas. Los robots asesinos pueden ser usados en guerras convencionales, para matar personas específicas que se consideren terroristas, ir tras capos del narcotráfico o incluso cárteles de drogas, pero también en situaciones cotidianas de seguridad como patrullajes, controles fronterizos, de migración o de manifestaciones, así como para reprimir protestas, a través de drones con gases o con balas goma, que pueden terminar igualmente siendo letales.

Las armas autónomas dan a los gobiernos mayor facilidad para desplegar la fuerza en entornos que no son de conflicto y afectar a todas las personas al parejo.

¿Cuáles son los peligros?

Las armas autónomas pueden causar muchas muertes. No sólo si ocurren errores en los parámetros programados, también si confunden los objetivos a los que se les dispara o si no respetan los derechos humanos que deben de mantenerse aún en contextos de guerra.

Uno: son impredecibles

“El desarrollo de la inteligencia artificial está apuntando a entornos perfectos”, explica Camilo Serna.  “Por ejemplo, los carros autónomos funcionan correctamente si todos los otros coches son autónomos, porque se comunican entre ellos y pueden tomar decisiones de acuerdo a lo que están haciendo los otros autos, pero cuando se han probado en entornos reales e imperfectos hay muchas fallas. Los accidentes que se han presentado con los autos autónomos son problemas del entorno y no del carro.”

Los seres humanos cambian sus decisiones racionales por las circunstancias del momento y las emociones juegan un papel importante en esa toma de decisiones. Esto es lo que no puede controlar una máquina.

Desde errores en el reconocimiento facial hasta respuestas desproporcionadas ante comportamientos humanos, “las máquinas, en un entorno imperfecto, pueden reaccionar de formas no previstas”, asegura el experto. “Nos enfrentamos a muchos dilemas de incertidumbre, por más perfecta que se pueda desarrollar una máquina para que pueda identificar y disparar, no sabemos cómo va a reaccionar”.

Por ejemplo, si un sistema de inteligencia artificial buscara amenazas contra el planeta, podría concluir que los seres humanos son el mayor enemigo del ecosistema, y por tanto para preservar el medio ambiente, habría que eliminarnos.

Ese es uno de los peligros.

Dos: el tema de la responsabilidad

Si el robot mata a la persona equivocada por una falla en los parámetros o el sistema, se vuelve complejo para las víctimas hallar un responsable. ¿El fabricante de la máquina? ¿El que la programó? ¿El país que emitió la orden? ¿La persona que la encendió? Ante la imposibilidad de juzgar a la máquina, se abrirían nuevos vacíos legales.

Tres: el problema ético

En la guerra hay reglas y hay crímenes. Existen convenciones sobre el derecho internacional humanitario. Tortura, genocidio, asesinato de civiles, son temas que están prohibidos, y muchas veces dependen de la propia humanidad de las personas; de las decisiones que se toman de acuerdo a las circunstancias, por factores del entorno, más que con base en un proceso de información y datos. La posibilidad de cambiar de opinión si el objetivo deja de ser un peligro queda anulada cuando son máquinas las que disparan.

El futuro

Los expertos en inteligencia artificial plantean un escenario que podría ser apocalíptico, en el que las máquinas tomarán el control.

Aunque en el estado actual de desarrollo de la inteligencia artificial aún se puede apagar si una máquina se sale de control, ya hay algunos sistemas inteligentes que funcionan sin la intervención humana; por ejemplo, aquellos enfocados a la medicina en los que son indispensables para que el paciente siga respirando o un corazón siga latiendo.

Sin embargo, no está lejos ese momento en que la inteligencia artificial pueda tomar la decisión por sí misma de si debe apagarse o no. Algunos de los expertos que han debatido el tema en Naciones Unidas calculan 10 años, otros, un máximo de 30 años, pero no más allá de ese lapso de tiempo para que esto ocurra.

Por muy ciencia ficción que parezca, si la inteligencia artificial de esas máquinas decide que las personas son la amenaza podría poner a la humanidad en peligro.

¿Cuál es la situación política actual?

La industria militar está desarrollando sistemas de armamento con una autonomía significativa tanto en los criterios de selección de objetivos como en el ataque. Los principales países que tienen intereses en los armamentos autónomos son EU, Israel, China, Corea del Sur, Rusia y el Reino Unido, y son también los estados que más han invertido en el desarrollo de drones.

Hay otros pocos países que no se oponen abiertamente, evitan tomar una posición, y alargan el proceso para que el desarrollo siga. Pero para cuando las discusiones se aborden, las armas autónomas ya serán una realidad inevitable.

Sin embargo, hay un bloque grande de países (28 estados) -entre los que destaca la mayor parte de Latinoamérica- que están tratando de prohibir totalmente las armas autónomas. No es solo una visión a futuro lo que los lleva manifiestarse en contra de estos avances, sino porque estos países, de menor desarrollo tecnológico, también consideran que podrían ser objetivos de ataques en medio de una carrera armamentista robótica.

En noviembre de 2018, Rusia, Israel, Corea del Sur y los Estados Unidos indicaron que no apoyarían las negociaciones para un nuevo tratado. Mientras que Austria, Brasil y Chile han propuesto formalmente la negociación urgente de “un instrumento legalmente vinculante” que garantice el control humano sobre estas armas.

Un tratado que prohíba estas armas, si bien no impedirá que haya desarrollo, lo retrasará de tal manera que no será tan accesible su uso y lo hará más costoso.

De acuerdo con una encuesta realizada por la empresa de investigación de mercado Ipsos, en diciembre del 2018, para la Campaña Mundial Stop Killer Robots, el 61% de la población del mundo se opone al desarrollo de las armas autónomas, incluso en los países cuyos gobiernos están en la búsqueda de una legislación internacional más laxa o de la autorregulación. Tal es el caso en China (60%), Rusia (59%), Reino Unido (54%), y los Estados Unidos (52%).

Las armas autónomas son un tema que compete a todas las personas de todos los países y los activistas aseguran que es importante manifestarnos antes de que las máquinas asesinas sean una realidad inevitable. Mary Wareham, Coordinadora de la Campaña para Detener los Robots Asesinos, señaló la urgencia de que los gobiernos actúen en correspondencia a las preocupaciones de su gente. “Nuestra seguridad compartida y la humanidad depende de retener un control humano sobre el uso de la fuerza”, advirtió.






Compartir: