Proyecto Atlas

0

Un controvertido programa con el que EEUU quiere dotar de inteligencia artificial a sus tanques, la inteligencia artificial aplicada a la robótica en los conflictos armados. Debate abierto sobre los sistemas de armas letales autónomas y la insuficiencia de los estándares del Derecho Internacional humanitario.

El Departamento de Defensa (DoD) busca empresas privadas para desarrollar armas inteligentes capaces de elegir sus propios objetivos en el campo de batalla.

El sistema ATLAS (Advanced Targeting and Lethality Automated System) funciona mediante tipos de algoritmos en operaciones de aprendizaje automático y procesos de diseño de sistemas. Detecta amenazas en datos de imágenes infrarrojas (IR) y RGB (modelo de tres colores para representar los colores en los monitores) que localiza vehículos enemigos a distancias extremas.

En su sitio web el Ejército norteamericano manifiesta que:

“El Ejército desea aprovechar los avances recientes en visión por computadora e inteligencia artificial/aprendizaje automático para desarrollar tecnología autónoma de adquisición de objetivos, que se integrará con la tecnología de control de fuego, destinada a proporcionar terreno. vehículos de combate con la capacidad de adquirir, identificar y atacar objetivos al menos tres veces más rápido que el proceso manual actual.”

El Departamento de Defensa de EEUU (DoD) publicó en enero 2023 una versión actualizada de su política sobre armas autónomas, la Directiva 3000.09, una norma según la cual cualquier acción letal siempre la decide un humano, quien además debe tener la capacidad de anular las decisiones propuestas por la máquina. Asigna las responsabilidades para el desarrollo y uso de funciones autónomas y semiautónomas en sistemas de armas, incluyendo Plataformas armadas que son operadas remotamente o operadas por personal a bordo.

Expertos juristas, científicos y filósofos han estudiado el posible cumplimiento o incumplimiento de las normas del ius ad bellum por parte de los sistemas de armas autónomos. En 2021 Adriana Margarita Porcelli publica un artículo de revisión del tema con abundante bibliografía

Un controvertido proyecto para los analistas, el debate sobre las implicaciones legales y éticas de este tipo de armas. La revolución del aprendizaje profundo comenzó en 2012, utilizan redes neuronales profundas, que a menudo tienen problemas de transparencia y explicación. Noel Sharkey, profesor de inteligencia artificial y robótica en la Universidad de Sheffield, Reino Unido, y portavoz  del grupo Campaign to Stop Killer Robots, declaró a Army Technology: “La directiva 3000.09 del Departamento de Defensa de EEUU. exige ‘niveles apropiados de juicio humano’, pero la palabra ‘veto’ hace saltar las alarmas. No lo llamaría control humano significativo si el arma robótica elige el objetivo y el único papel del humano es poder «vetar» esa decisión”.

Armas autónomas letales, denominadas por la premio Nobel de la Paz, Jody Williams como “robots asesinos” en los conflictos armados, a su paso por Buenos Aires declaró:

“Desde la Campaña nos preocupa pensar que las armas autónomas decidirían quién vive y quién muere, sin intervención humana, algo que cruza los límites morales. El mundo ya es lo suficientemente peligroso. No necesitamos una tercera revolución en los métodos de hacer una guerra. Y menos cuando serían guerras impredecibles, ya que los seres humanos quedarían fuera de decidir quién vive y quién muere”

No es el único, Michael C. Horowitz, politólogo de la Universidad de Pensilvania, en declaraciones a Defense One, expresó: “La controversia sobre ATLAS demuestra que persisten las objeciones tecnológicas y éticas respecto a automatizar los sistemas de armamento”

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.