Tecnología

125 Estados centran negociaciones diplomáticas sobre el uso de los “robots asesinos”

Algunos normas que se buscan imponer a los Sistemas de Armas Letales Autónomas (SALA) son su prohibición total, la utilización respetuosa del derecho humanitario o el uso ilimitado

¿Qué normas imponer a los Sistemas de Armas Letales Autónomas (SALA), también llamadas “robots asesinos” por sus adversarios? Prohibición total, utilización respetuosa del derecho humanitario o uso ilimitado, tales son las alternativas que 125 Estados van a debatir, en un foro que mezcla alta tecnología y ética.

La cuestión es difícil de abordar porque, pese a que el cine ha alimentado la imaginación popular con los Terminator, los especialistas no están de acuerdo sobre la definición de lo que es un arma autónoma.

Los debates se celebran toda esta semana en Ginebra, en el marco de la conferencia de examen del Convenio de Naciones Unidas sobre Ciertas Armas Convencionales (CCAC), bajo la presidencia de Francia.

El tema de los SALA tiene eco en la opinión pública, preocupada por el desarrollo de la inteligencia artificial, y sus consecuencias.

La conferencia "debe avanzar rápidamente en sus trabajos sobre las armas autónomas, que pueden designar objetivos y matar a gente sin intervención humana", afirmó el secretario general de la ONU, Antonio Guterres, en un mensaje a los delegados.

Guterres pidió "un ambicioso plan de futuro para fijar las restricciones para el uso de ciertos tipos de armas autónomas".

La campaña “Stop Killer Robots”, que agrupa a unas 180 oenegés, entre ellas Human Rights Watch y Amnistía Internacional, acaba de apoyar a decenas de países que desean la prohibición total de estas armas.

En Ginebra, los Estados tienen la oportunidad de “fijar una línea roja contra máquinas asesinas de hombres, la forma postrera de la deshumanización digital” subraya “Stop Killer Robot”.

El Comité Internacional de la Cruz Roja —guardián del derecho humanitario internacional promulgado en las Convenciones de Ginebra— pide a los Estados que se pongan de acuerdo sobre los límites a imponer a los sistemas de armas autónomas “para garantizar la protección de civiles, el respeto del derecho internacional humanitario y la aceptabilidad ética de estos sistemas”.

Aunque ya existen armas parcialmente autónomas, los sistemas realmente autónomos en los campos de batalla, capaces de combatir sin intervención humana, siguen siendo teóricos, según la mayoría de los expertos.

El problema —pero también la fuerza— de los debates en el seno de esta CCAC es que la convención funciona mediante consenso, explicaba recientemente el embajador de Francia, encargado de temas de desarme en Ginebra, Yann Hwang.

Si se halla un acuerdo en este marco, ello "englobaría a todas las principales potencias militares" y "cuando se debate y se negocia estamos seguros de que todo el mundo acepta las obligaciones", subraya.

Pero por el momento parece muy difícil obtener un consenso.

Hay dos grupos de países, "los que consideran que hay que prohibir de forma preventiva" estas armas, "incluso su desarrollo por razones éticas, y luego países como Francia que piensan que sí hay riesgos pero que éstos pueden ser controlados", explica el embajador galo.

"Para (...) muchos países europeos la perspectiva ética es legítima pero no suficiente como para elaborar una regulación que controle el armamento", agrega.

Una de las dificultades estriba en el hecho de que las tecnologías presentes tienen un doble uso militar y civil.

Tradicionalmente los rusos no quieren atarse las manos y los estadounidenses quieren un texto no vinculante.

El viernes se sabrá si los Estados quieren proseguir estos debates o no.

En beneficio de la transparencia y para evitar distorsiones del debate público por medios informáticos o aprovechando el anonimato, la sección de comentarios está reservada para nuestros suscriptores. El nombre completo y número de cédula del suscriptor aparecerá automáticamente con el comentario.