Estados Unidos, Rusia, China, Israel y otras potencias militares podrán seguir desarrollando tecnología bélica capaz de entrar en batalla sin supervisión humana y sin que la legislación internacional se lo impida. Tras una semana de negociaciones, los 123 países ratificantes de la Convención sobre Ciertas Armas Convencionales no alcanzaron un acuerdo para poner freno a las armas autónomas letales, también conocidas como robots asesinos.
No obstante, el documento final de esta cita -la primera de alto nivel que trata el futuro de los robots asesinos- incluye la creación de un Grupo de Expertos Gubernamentales con “fines abiertos” para tratar sobre esta tecnología y que se reunirá en abril de 2017, lo que supone un primer paso hacia la creación de un protocolo o una moratoria sobre este tipo de tecnología, al igual que sucedió con otras tecnologías militares controvertidas, como las bombas de racimo o las armas láser. Varias potencias que al inicio de la conferencia se mostraron reacias a su creación, como Estados Unidos y Reino Unido, cedieron en sus posturas a lo largo de la semana, mientras que Rusia se opuso hasta el final, aunque su abstención a última hora permitió que saliera adelante.
“Es un éxito pequeño, pero estamos felices de que esta decisión ya sea formal”. Mary Wareham, portavoz de la Campaña contra los robots asesinos y especialista en armamento de Human Rights Watch, mostró un optimismo moderado acerca de la decisión y aseguró que “aunque no lo reconozcan abiertamente, las negociaciones ya han empezado”. Los países con mayor capacidad e interés para desarrollar robots asesinos son Estados Unidos, Rusia, China, Reino Unido, Corea del Sur, Israel e India, mientras que la postura más compartida es la de seguir estudiando detalles técnicos, legales y éticos de cara a impedir que una máquina pueda matar a una persona de forma autónoma y sin tutela humana.
Por otro lado, 19 países aludieron al principio de prevención y lanzaron un llamamiento conjunto pidiendo la prohibición de los robots asesinos, entre los cuales hay 13 naciones latinoamericanas. Durante las negociaciones y debates en el pleno, España mantuvo un perfil bajo y se limitó a apoyar la puesta en marcha del Grupo de Expertos Gubernamentales. El jefe de la delegación española, el embajador Julio Herráiz, explicó a La Marea que España no tiene interés en desarrollar armas letales autónomas.
El Grupo de Expertos Gubernamentales estará presidido por el embajador de India, a propuesta de los Países No Alineados. Varias delegaciones latinoamericanas explicaron a este medio que la India tiene peso geopolítico y legitimidad para hacer que las conclusiones de dicho grupo no queden en papel mojado. Diplomáticos afganos e iraquíes mostraron reservas debido a la posición ambigua de la India e interpretaron la decisión como un intento de ganar tiempo, factor clave para evitar la proliferación de este armamento.
Las armas autónomas letales son sistemas militares terrestres, marinos o aéreos equipados con inteligencia artificial -pueden aprender- y capaces de detectar, seleccionar y atacar objetivos sin ningún tipo de intervención humana. Aunque muchos países aún niegan su existencia, algunos de los robots asesinos que ya pueden verse en acción son el IAI Harop israelí, el MQ-1 Predator estadounidense o el Samsung Techwin SGR-A1 de Corea del Sur.
Por primera vez la comunidad internacional debatió en Naciones Unidas la compatibilidad de esta tecnología con el derecho humanitario internacional, en el marco de la Quinta Conferencia de Examen de la Convención sobre Ciertas Armas Convencionales. Su incapacidad para prever daños excesivos contra civiles, la imposibilidad de tener noción de la proporcionalidad y la dificultad para establecer una cadena de responsabilidad si se viola la ley son algunos de los aspectos más polémicos.
Por José Bautista
Fuente; lamarea.com
La ONDA digital Nº 800 (Síganos en Twitter y facebook)
(Síganos en Twitter y Facebook)
INGRESE AQUÍ POR MÁS CONTENIDOS EN PORTADA
Las notas aquí firmadas reflejan exclusivamente la opinión de los autores.
Otros artículos del mismo autor: