¿Son inevitables los robots asesinos como Terminator?
La tecnología militar avanza rápidamente hacia máquinas que se manejan solas.
Expertos y organismos de derechos humanos llaman a regular hoy su uso.
Los escépticos dicen que faltan décadas para un avance tan avanzado de la inteligencia artificial. Detractores creen que ésta podría ser una nueva herramienta para el terrorismo.
Un robot tanque se mueve rápidamente sobre los matorrales, se detiene repentinamente y su ametralladora dispara con una precisión devastadora.
Parece una película de ciencia ficción pero es la escena de un video sobre un robot que está siendo probado por el ejército de Estados Unidos. Una muestra más de cómo la ciencia ficción de ayer se ha vuelto una realidad en los escenarios de combate modernos.
El tanque en miniatura, de solo un metro de largo, es uno más de los vehículos robotizados utilizado por los militares de todo el mundo. Más de 90 países operan estos sistemas. Una industria que según la consultora IHS valdrá 98 mil millones de dólares en los próximos diez años.
"Estados Unidos sigue siendo el principal mercado y el motor principal detrás de esta industria, pero muchos países están mejorando sus propias capacidades en el campo de los sistemas no tripulados", señala Derrick Maple, de IHS.
La empresa constructora del robot tanque, Qinetiq, ha fabricado una amplia gama de robots diseñados para misiones de reconocimiento o vigilancia, o para internarse en zonas plagadas de trampas, que impliquen un riesgo mayúsculo para enviar tropas.
Decisiones propias
Armado con un lanzador de granada o una ametralladora, la última versión del robot tanque o MAARS por sus siglas en inglés, es ciertamente letal, pero no independiente. MAARS depende de un soldado que lo controla a distancia y solo tiene un rango de autonomía de 800 metros.
Sin embargo, muchos críticos temen que la unión entre avances en el campo de la robótica y la miniaturización, con un progreso en el campo de la inteligencia artificial, terminen creando un Terminator o, más probable, un precursor de esa criatura popularizada por Hollywood.
Otros sostienen que esa clase de desarrollo en el campo de la inteligencia artificial llevará muchas décadas, y que en el futuro más próximo siempre será necesaria la presencia de un humano para monitorear los sistemas.
Pero actualmente algunas de estas armas se encuentran en uso tienen el poder de decidir si atacan o no un objetivo.
Tomemos como ejemplo la nave no tripulada israelí Harpy: sus fabricantes, IAI, la llaman el arma autónoma que puedes "lanzar y olvidar", aunque en jerga militar también se la conoce como "munición merodeadora".
Una vez lanzada detrás de las líneas enemigas, Harpy -básicamente un misil guiado con alas- sobrevuela el área hasta que encuentra un objetivo adecuado (en su caso, radares enemigos).
Cuando un radar es detectado, es el drone el que decide si lanza un ataque o no.
Harpy solo es lanzado si un operador considera que puede haber radares enemigos en la zona, pero es probable que esta clase de automatización se vuelva más común.
Diferenciar aliados de contrarios
Por ahora el obstáculo real para un uso más amplio de lo que algunos llaman "robots asesinos" es lograr que puedan distinguir entre amigos y enemigos.
"Un tanque es bastante diferente a una camioneta, pero un tanque enemigo y un tanque amigo pueden verse bastante parecidos para una máquina", dice el experto en Defensa del Centro para una Nueva Seguridad Americana Paul Scharre.
"Los militares no querrán desplegar algo en el campo de batalla que pueda accidentalmente volverse en contra de sus propias fuerzas", añade.
Lo mismo piensa el general Larry James, vicejefe de personal de inteligencia de las Fuerzas Aéreas de Estados Unidos: "Estamos muchos, muchos años, si no décadas, de estar seguros que un sistema de inteligencia artificial puede hacer ese tipo de discriminación".
A pesar de estas dificultades, el plan del Departamento de Defensa para los próximos 25 años publicado en 2013 sostiene que "los sistemas no tripulados siguen siendo muy promisorios para las misiones de guerra del futuro".
El plan indica que, una vez que se superen las dificultades técnicas, se pueden lograr rápidos avances desconocidos hasta el momento.
Se estima que Washington gastará en la próxima década en el mercado de vehículos áereos no tripulados (UAVs por sus siglas en inglés) tres veces más que China, el segundo gran inversor en esta área.
Des-inventar
Uno de los científicos más avanzados en este campo es Sanjiv Singh, profesor de robótica de la Universidad Carnegie Mellon y jefe ejecutivo de la compañía Near Earth Autonomy.
Su equipo, que trabaja para el ejército estadounidense, ha desarrollado con éxito un helicóptero no tripulado autónomo.
Usando lasers ultra sensitivos, la nave crea mapas del terreno, decide cuál es la aproximación más segura y elige los sitios para aterrizar sin necesidad de un piloto o un operador remoto.
Ahora, el equipo de Singh trabaja en helicópteros autónomos que podrían llevar tropas o evacuar heridos o víctimas.
Según el científico, esto implicaría un gran salto en relación a la tecnología actual de los drones, que son comandados a partir de información derivada del sistema de posicionamiento global (GPS por sus siglas en inglés): "Si uno comete un error en el plan de vuelo, estas naves chocan felices contra una montaña, si ésta se encuentra en su camino".
El analista independiente de Defensa Paul Beaver opina que, con todo el dinero que está siendo invertido en el sector, sistemas de armamento autónomo serán una realidad: "Es como las armas nucleares, uno no las puede des-inventar".
Pero su preocupación principal no son los estados considerados marginales. "Creo que estamos a una década de que el crimen organizado tenga este tipo de sistemas y los venda a grupos terroristas", señala.
"Computadoras asesinas"
A comienzos de este mes, delegados de 117 países se encontraron en la sede de las Naciones Unidas en Ginebra, Suiza, para analizar una prohibición en este tipo de sistemas automatizados letales. Aunque la tecnología para crear "robots asesinos" no existe aún, activistas sostienen que el mundo necesita actuar desde ahora.
"Hay tanta gente que cree que esto es inevitable, y hasta deseable, que tenemos que hacer algo ya para evitarlo", dice Stephen Goose, de la organización Human Rights Watch.
Pero al solo prestar atención a los usos militares de naves no tripuladas, podemos perder noción de otra amenaza propia de la sofisticada inteligencia artificial.
"Lo problemático es que diseñamos algo que puede operar muy rápido y no siempre podemos predecir cómo lo hará", explica Sean O'Heigeartaigh, del Centro de Estudios para Riesgos Existentes de la Universidad de Cambridge.
En 2010, por ejemplo, algoritmos de computadoras bursátiles contribuyeron a que, por unos instantes, miles de miles de millones en acciones desaparecieran.
"Esto muestra que es muy difícil poner un alto a estos procesos de toma de decisiones, porque estos sistemas operan mucho más rápido que los humanos".
Por eso O'Heigeartaigh advierte que el uso por parte de civiles de la inteligencia artificial puede ser más peligroso que sus aplicaciones militares.
"Al no tratarse de militares, no habrá la misma atención en cuestiones de seguridad y ética, y puede ser que algo se salga de control, especialmente si uno diseña un algoritmo que es capaz de mejorarse a sí mismo y rediseñar su propio código". En otras palabras, quizás no debemos estar tan preocupados por robots asesinos, sino por computadoras asesinas.