¿Existen garantías? EE.UU. dice que los humanos siempre tendrán el control de las armas con IA

Imagínese un campo de batalla en el desierto marcado por años de guerra. Un ejército en retirada huye a medida que avanza su enemigo. Docenas de diminutos drones, indistinguibles de los cuadricópteros utilizados por aficionados y cineastas, se acercan desde el cielo, escanean el terreno con cámaras y computadoras a bordo para decidir por sí mismos cómo es un objetivo. De repente, comienzan a bombardear camiones y soldados individuales, explotando al contacto, causando aún más pánico y confusión.

Esta no es una imaginación de ciencia ficción de cómo serían las guerras futuras. Es una escena real que se desarrolló la primavera pasada cuando los soldados leales al hombre fuerte libio Khalifa Hifter se retiraron de las fuerzas armadas reconocidas por las Naciones Unidas respaldadas por el gobierno libio. Según un grupo de expertos legales y de armas de la ONU encargados de documentar el conflicto, los drones que pueden operar sin control humano “cazaron” a los soldados de Hifter en fuga.

Los drones han sido una parte importante de la guerra durante años, pero generalmente los humanos los han controlado de forma remota. Mediante la combinación de software de piloto automático y reconocimiento de imágenes fácilmente disponible, los drones autónomos ahora se pueden producir en masa a bajo costo.

Hoy, los esfuerzos largamente solicitados por los defensores de los derechos humanos para prohibir completamente las armas letales autónomas cuentan con el apoyo de 30 países. Pero las grandes potencias militares del mundo insisten en que esto no es necesario. El ejército estadounidense dice que las preocupaciones son exageradas y que los humanos pueden controlar efectivamente las armas autónomas, mientras que el gobierno ruso dice que las armas reales con inteligencia artificial no pueden prohibirse porque aún no existen.

[content-egg module=GoogleImages template=image next=1]

Pero los hechos sobre el terreno muestran que los avances tecnológicos junto con conflictos complejos como las guerras civiles en Siria y Libia han creado una realidad en la que las armas que toman sus propias decisiones ya están matando gente.

“El debate todavía está muy orientado al futuro”, dice Ingvild Bode, investigadora independiente de armas en la Universidad del Sur de Dinamarca. “Deberíamos observar más de cerca lo que ya está sucediendo”.

Libia no fue el único lugar donde el año pasado se usaron drones que pueden matar de forma autónoma. Turquía ha utilizado el mismo quadcopter para patrullar su frontera con Siria. Cuando Azerbaiyán invadió el territorio ocupado por Armenia en septiembre, envió “municiones de merodeo” turcas e israelíes: drones que pueden patrullar de forma autónoma un área y bombardear automáticamente las señales de radar del enemigo. 

Estas armas parecen versiones más pequeñas de los drones controlados a distancia que han sido utilizados ampliamente por el ejército estadounidense en Irak, Afganistán y otros conflictos. Pero en lugar de disparar misiles de forma remota, la munición merodeadora tiene un explosivo incorporado y se destruye cuando impacta en su objetivo.

Dado que tienen controles remotos y autónomos, es imposible saber desde el exterior si la gente hizo la última llamada para bombardear objetivos individuales. En cualquier caso, los drones devastaron al ejército armenio y la guerra terminó dos meses después cuando Azerbaiyán conquistó vastas áreas.

Este tipo de armas se está moviendo constantemente hacia la corriente principal. Hoy en día hay decenas de proyectos de varios gobiernos para desarrollar munición merodeadora. Incluso cuando países como Estados Unidos, China y Rusia participan en discusiones sobre un tratado sobre la restricción de armas autónomas, están impulsando su desarrollo.

[content-egg module=GoogleImages template=image next=1]

“Los ejércitos avanzados están llegando al límite con estas tecnologías”, dijo Peter Asaro, profesor de la New School en Nueva York y cofundador del Comité Internacional para el Control de Armas Robóticas, que aboga por reglas más estrictas para las armas autónomas mortales. “Se reproducirán rápidamente”.

Durante la última década, el acceso más barato a computadoras que pueden procesar grandes conjuntos de datos en un corto período de tiempo ha permitido a los investigadores hacer grandes avances en el desarrollo de programas de computadora que extraen información de grandes cantidades de información. 

Los avances en IA han dado como resultado máquinas que pueden escribir poesía, traducir idiomas con precisión y potencialmente ayudar a los científicos a desarrollar nuevos fármacos.

Pero los debates sobre los peligros de poder depender más de las computadoras para tomar decisiones son intensos. Los algoritmos de IA son tan buenos como los conjuntos de datos en los que están entrenados, y los estudios han demostrado que los programas de reconocimiento facial de IA reconocen mejor las caras blancas que las negras y marrones. El legislador europeo propuso recientemente nuevas reglas estrictas para el uso de la IA.

Empresas como Google, Amazon, Apple y Tesla han invertido miles de millones de dólares en el desarrollo de la tecnología, y los críticos dicen que los programas de inteligencia artificial a veces se implementan sin una comprensión completa de cómo funciona y sus consecuencias en su uso generalizado.

Algunos países, como Austria, se han sumado a los pedidos de una prohibición mundial de las armas autónomas, pero los líderes de la política y la tecnología de Estados Unidos se oponen.

En marzo, un panel de luminarias tecnológicas que incluía al ex director ejecutivo de Google, Eric Schmidt, entonces director de servicios web, ahora director ejecutivo de Amazon, Andy Jassy, ​​y el científico jefe de Microsoft, Eric Horvitz, publicó un estudio de impacto de KI. en seguridad nacional. El informe final de 756 páginas encargado por el Congreso argumentó que Washington debería oponerse a la prohibición autónoma de armas porque sería difícil de hacer cumplir y podría evitar que Estados Unidos use las armas que ya tiene en su arsenal.

“Puede ser imposible definir la categoría de sistemas restrictivos de una manera que proporcione suficiente claridad sin limitar indebidamente las capacidades militares de Estados Unidos”, dijo el informe.

En algunos lugares, las tecnologías de inteligencia artificial como el reconocimiento facial ya se han implementado en armas que pueden funcionar sin control humano. Ya en 2010, la división de armas del gigante tecnológico surcoreano Samsung construyó pistolas centinelas autónomas que reconocen y disparan a las personas mediante el reconocimiento de imágenes. 

Israel tiene armas de guardia similares estacionadas en su frontera con Gaza. Ambos gobiernos dicen que las armas están controladas por humanos a pesar de que los sistemas pueden funcionar por sí mismos.

Pero incluso antes de que se desarrollaran el reconocimiento facial y las computadoras ultrarrápidas, los ejércitos recurrieron a la automatización para su beneficio. Durante la Guerra Fría, ambos bandos desarrollaron sistemas de defensa antimisiles que podían detectar un ataque enemigo y disparar automáticamente.

[content-egg module=GoogleImages template=image next=1]

El uso de estas armas ya era mortal

En marzo de 2003, pocos días después de que Estados Unidos y sus aliados comenzaran a invadir Irak, el piloto de la fuerza aérea británica Derek Watson rugió por el desierto en su avión de combate tornado. Watson, un comandante de tropas, regresó a Kuwait en medio de la noche después de bombardear objetivos en Bagdad. Le siguió otro jet con Kevin Main y Dave Williams.

A seis mil metros de profundidad, una computadora Patriot del Ejército de los Estados Unidos recogió uno de los dos aviones y determinó que era un misil enemigo que volaba directamente sobre él. El sistema emitió advertencias sobre la ocupación humana y les informó que estaban en peligro. Dispararon.

Watson vio un rayo e inmediatamente giró su avión hacia la derecha para desviar los misiles buscadores de calor. Pero el misil no estaba dirigido a él. Disparó y se estrelló contra el avión de Main y Williams, matándolos antes de que tuvieran tiempo de ser expulsados, luego se completó una investigación del Departamento de Defensa.

“Nunca olvidaré eso”, dijo Watson, quien dejó la Royal Air Force a mediados de la década de 2000 y ahora es entrenador de liderazgo, en una entrevista reciente. “Como comandante de escuadrón, eran mis muchachos”.

Se advirtió a las tripulaciones de misiles Patriot que operaran en modo autónomo, pero se requirió otro incidente de fuego amigo casi dos semanas después cuando el sistema se derribó, matando al piloto del F-18 de la Marina de los EE. UU., Nathan. Dennis White que se establecerán reglas estrictas que detendrán efectivamente las baterías de misiles durante el resto de la guerra.

Las armas como el Patriot generalmente involucran una computadora que compara las firmas de radar con una base de datos de aviones y misiles y luego decide si el objeto es un amigo o un enemigo. Los operadores humanos generalmente toman la decisión final sobre si disparar, pero los expertos dicen que el estrés de combate y la tendencia a depender de las máquinas a menudo difuminan la línea entre el control humano y el de la computadora.

“A menudo confiamos en los sistemas informáticos; Cuando una computadora dice, te aconsejo que lo hagas, a menudo confiamos en ese consejo”, dijo Daan Kayser, un experto en armas independiente de la organización de paz holandesa PAX”.

¿Cuánto está todavía involucrada la persona en esta toma de decisiones?”

Esta pregunta es fundamental para el ejército de EE. UU., que está impulsando la investigación de armas autónomas, pero afirma que nunca subcontratará la decisión de matar una máquina.

En 2012, el Departamento de Defensa emitió directrices para armas autónomas en las que les pedía que “permitieran a los comandantes y operadores utilizar un juicio humano razonable”.

Si bien parece poco probable un tratado global vinculante para restringir las armas autónomas, el hecho de que los gobiernos y las empresas de defensa estén haciendo hincapié en que las personas tendrán el control muestra que la conciencia de los riesgos está aumentando, dijo Mary Wareham, directora. Human Rights Watch, que durante años dirigió la campaña para detener a los robots asesinos, realizó un esfuerzo internacional para limitar las armas autónomas.

Y al igual que las minas terrestres, las armas químicas y las bombas atómicas, no todos los países necesitan firmar un tratado para que el mundo vea que esas armas van demasiado lejos, dijo Wareham. Aunque Estados Unidos se negó a firmar una prohibición de 2010 sobre las municiones en racimo, la controversia sobre las armas llevó a las empresas estadounidenses a dejar de fabricar voluntariamente.

Aún así, la pandemia ha frenado estos esfuerzos. Recientemente se pospuso una reunión en Ginebra, programada para fines de junio, para reanudar las discusiones.

El ejército de Estados Unidos y el Reino Unido tienen programas para construir “enjambres” de pequeños drones que operan como un grupo con inteligencia artificial avanzada. Los enjambres podrían lanzarse desde barcos y aviones y usarse para abrumar las defensas de un país antes de que las tropas regulares invadan. En 2017, el Pentágono pidió propuestas sobre cómo podría disparar múltiples cuadricópteros a un misil, aterrizar en un objetivo y encontrar y destruir de forma autónoma pequeños drones.

[content-egg module=GoogleImages template=image next=1]

“¿Cómo puedes controlar 90 pequeños drones cuando toman sus propias decisiones?”, dijo Kayser. Ahora imagina un enjambre de millones de drones.

El ejército de los EE. UU. También ha experimentado con la incorporación de inteligencia de aprendizaje artificial profundo en simuladores de vuelo, y los algoritmos han demostrado que pueden competir con las habilidades de pilotos humanos capacitados en duros combates aéreos. Estados Unidos dice que los pilotos de IA solo se utilizan como “compañeros” de personas reales cuando están listos para la acción.

Al igual que en otras áreas donde avanza la tecnología de inteligencia artificial, puede ser difícil precisar exactamente dónde se encuentra la línea entre el control humano y el de las máquinas.

“Al igual que con los automóviles, existe esta gama de funciones donde se pueden tener más funciones autónomas que se pueden agregar gradualmente y que en algunos casos realmente pueden difuminar las líneas”, dice Paul Scharre, un ex soldado de Operaciones Especiales, vicepresidente y director de estudios del Center for a New American Security. También ayudó a redactar las directrices del Pentágono sobre armas autónomas.

El alcance aumenta lentamente a medida que los sistemas de armas se actualizan con el tiempo, dijo Scharre. Un misil que previamente apuntaba a un solo enemigo podría recibir una actualización de software que le permitiría perseguir múltiples objetivos a la vez y elegir el que tiene más probabilidades de impactar.

La tecnología hace que las armas sean más inteligentes, pero también facilita que las personas las controlen de forma remota, dijo Scharre. Esto le da a las personas la capacidad de detener los misiles después de que han sido lanzados, si solo luego se dan cuenta de que pueden alcanzar un objetivo civil.

Aún así, la demanda de velocidad en la guerra inevitablemente llevará a los ejércitos a transferir más decisiones a las máquinas, especialmente en situaciones de combate, dijo Kayser. No es difícil imaginar que algoritmos opuestos reaccionen entre sí más rápido de lo que los humanos pueden monitorear lo que está sucediendo.

“Lo viste en las repentinas caídas del mercado de valores”, dijo Kayser. “Si ponemos fin a esta guerra a una velocidad que los humanos ya no podemos controlar, será una idea realmente aterradora para mí. Puede que no sea tan poco realista que estos desarrollos continúen y no se detengan”.

Elenbyte
Elenbyte
Logo
Comparar artículos
  • Total (0)
Comparar
0