Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Suben las presiones globales para prohibir armas letales autónomas

https://agendaestadodederecho.com/wp-content/uploads/2023/07/13-Las-armas-autonomas-desafian-los-principios-del-Derecho-Internacional-Humanitario.jpg

La inteligencia artificial ha dejado de ser una simple herramienta de eficiencia tecnológica para convertirse en un factor decisivo en los escenarios bélicos. El desarrollo de sistemas de armamento que funcionan de manera autónoma, capaces de tomar decisiones sin intervención humana directa, ha encendido las alarmas en organismos multilaterales, organizaciones no gubernamentales y círculos académicos. El mundo enfrenta una carrera contrarreloj para legislar antes de que los algoritmos asuman por completo la capacidad de decidir sobre la vida y la muerte.

Los sistemas de armas letales autónomas, conocidos como LAWS por sus siglas en inglés, están diseñados para identificar, seleccionar y eliminar objetivos humanos sin requerir la autorización o intervención directa de operadores humanos. Aunque aún en fases experimentales, su implementación en escenarios reales de conflicto ya ha comenzado a provocar debates intensos sobre los riesgos éticos, legales y humanitarios de su uso.

Uno de los argumentos centrales en contra de estas tecnologías es su capacidad para tomar decisiones de manera independiente, sin supervisión humana directa. Estas máquinas operan basándose en algoritmos que han sido entrenados con datos, los cuales, según diversos estudios, pueden replicar y aumentar los prejuicios humanos. Esto representa un riesgo inadmisible en contextos donde se necesita discernimiento moral, comprensión del contexto y empatía: características que las máquinas no tienen.

El debate no es nuevo. Desde hace más de una década, diplomáticos, científicos y activistas han solicitado establecer un marco legal vinculante que regule o prohíba completamente el uso de estos sistemas. Sin embargo, la falta de consenso sobre una definición técnica precisa de qué constituye un arma autónoma ha obstaculizado los avances. Mientras tanto, el desarrollo tecnológico avanza con rapidez, superando con creces el ritmo de las negociaciones diplomáticas.

Muchas entidades de la sociedad civil han aumentado su presión en los meses recientes, alertando que la falta de regulación efectiva está permitiendo el surgimiento de una nueva forma de conflicto deshumanizado. Aparte de los dilemas éticos que supone que una máquina decida sobre la vida de una persona, se presentan serios riesgos legales: en este momento, no existe un marco definido para establecer la responsabilidad si una máquina comete una violación del derecho internacional humanitario. ¿Quién debería ser responsable por estos errores? ¿El creador del algoritmo, el fabricante del equipo, o el líder militar que aprobó su uso?

Una preocupación adicional se enfoca en los fallos de identificación. Se ha registrado que los sistemas de visión computacional y aprendizaje automatizado a menudo presentan altos índices de error al intentar identificar los rostros de individuos con ciertas características físicas, tales como pieles oscuras o discapacidades visibles. Esto podría resultar en decisiones equivocadas de ataque, con consecuencias mortales para civiles inocentes.

La comunidad global ha empezado a reaccionar ante estas preocupaciones. Más de 120 naciones han mostrado su conformidad con la creación de un marco jurídico internacional que controle el empleo de armas autónomas. Asimismo, distintos ámbitos de la sociedad, como académicos, líderes religiosos y personalidades premiadas con galardones de paz, han expresado abiertamente su apoyo a una prohibición mundial.

Como parte del proceso para avanzar hacia un acuerdo, se ha propuesto el año 2026 como fecha límite para lograr un tratado internacional que establezca las normas fundamentales sobre estas tecnologías. Ya existe un borrador de trabajo en manos de los negociadores, que servirá como base para las futuras discusiones multilaterales.

Aunque la función de estas armas en conflictos contemporáneos aún es limitada, los expertos advierten que su proliferación podría desatar una carrera armamentista en la que los estándares éticos quedarían en segundo plano frente a la lógica de la ventaja tecnológica. En este escenario, la regulación no solo es urgente: es imprescindible.

Frente a estos desafíos, la comunidad internacional enfrenta una decisión crítica. No se trata solo de legislar sobre nuevas tecnologías, sino de definir los límites morales de la guerra moderna. La pregunta central es clara: ¿queremos un futuro en el que las máquinas tengan el poder de decidir sobre la vida humana? La respuesta, para muchos, no admite ambigüedades.

By Otilia Adame Luevano