Finanzas, Gobierno y Relaciones Internacionales



Inteligencia Artificial y tres niveles de guerra

“A war of technology/Threatens to igniteDigital murder/The language of machines” Front Line Assembly Como toda nueva tecnología, la Inteligencia Artificial (IA) maravilla por sus capacidades y alcances, a la vez que despierta rechazo y todo tipo de temores, algunos de ellos desmedidos e incluso escandalosos. Sin duda, para quienes crecimos […]

“A war of technology/Threatens to ignite
Digital murder/The language of machines”

Front Line Assembly

Como toda nueva tecnología, la Inteligencia Artificial (IA) maravilla por sus capacidades y alcances, a la vez que despierta rechazo y todo tipo de temores, algunos de ellos desmedidos e incluso escandalosos. Sin duda, para quienes crecimos a finales del siglo XX hablar de IA y temas militares nos evoca grandes películas como Terminator o Matrix, donde las máquinas cobran consciencia propia y se rebelan contra sus creadores humanos, un miedo tan antiguo como el monstruo industrial de Frankenstein retratado por Mary Shelley. Al momento de escribir estas líneas, aún no hay noticia de que en efecto la IA haya cobrado consciencia propia, pero aparecen cada vez más noticias que esta el software generativo por aprendizaje es usado cada vez más como herramienta en distintos campos, el militar siendo uno de ellos.

Así entonces, antes de hablar de los retos presentes en la utilización de la IA en temas militares, es pertinente entender el estado actual de la guerra, en particular cuando se trata de temas cibernéticos, y así esclarecer los principales retos que se presentan. En este orden de ideas, en este artículo se utilizará el concepto de Guerra Centrada en Redes (GCR) propuesto por Betz (2015), donde el choque ya no se da tanto entre bloques jerárquicos, sino entre redes cuyos nodos están conectados entre sí de varias maneras, y el objetivo ya no es un blanco especifico, sino atacar la integridad de la red contraria. En otras palabras, ya no se trata del choque entre grandes ejércitos buscando dar de baja una estructura física o a un individuo, sino más bien se trata de células intercomunicadas que buscan causar disrupciones en las comunicaciones contrarias, logrando así causar zozobra y confusión.

Agregado a esto, si se habla de Inteligencia Artificial, también es pertinente incluir el campo de Estudios en Inteligencia, al ser el carácter de la IA de tipo informacional dada su naturaleza computacional. Precisamente, el objetivo de los Estudios en Inteligencia es la recolección, procesamiento y análisis de información para la mejor toma de decisiones políticas, económicas y/o militares (Bruce y George, 2008), lo cual ya permite deducir que un primer uso de la IA tiene que ver con esa recolección, procesamiento y análisis para la inteligencia militar. Aunado con lo anterior, ya se puede anticipar que un uso de la IA en temas militares es la disrupción en las redes de información del enemigo, de tal modo que tome decisiones erradas en su accionar, y así mismo es un riesgo que se debe tener presente en el propio proceso de inteligencia.

Por consiguiente, se propone en este artículo el utilizar los tres niveles de la guerra codificados por Newell (1991): táctico, operacional y estratégico, para así dar mejor cuenta de los diversos riesgos existentes desde la IA. Claramente, no se trata de una lista exhaustiva de todos los riesgos acaecidos por esta nueva tecnología, pero sí se toman y clasifican aquí los más notorios dentro de la literatura especializada, para así dar una mejor idea de las implicaciones de la IA en temas militares, y de paso plantear nuevas posibilidades tanto de su uso como de otros riesgos implicados. Luego de esta revisión, se propondrán unos posibles escenarios e implicaciones futuras, ya que al tratarse de una tecnología en constante evolución las novedades están a la orden, así estas no alcancen un nivel cinematográfico.

En primer lugar, en cuanto a la táctica, entendida esta como el encuentro directo con el enemigo durante la batalla (Smith, 2007), es donde se puede encontrar las tácticas de engaño mencionadas anteriormente. Por medio de deep fakes, videos manipulados o imágenes tratadas, que pueden corromper la información recibida, ocultando ciberataques puntuales, intrusiones o generar desviaciones en la atención (Cohen, 2023); resonando así con el engaño utilizado en contrainteligencia, donde se bloquean las fuentes verídicas y se suministra información falsa para causarle fallas de inteligencia al enemigo (Shulsky y Schmitt, 2002). De este modo, aquí sigue siendo importante el elemento humano en filtrar la información que se le provea a la IA usada en apoyo en toma de decisiones, al ser todavía fácil de engañar, llevando a un posible efecto cascada de malas decisiones que puede escalar a otros niveles.

Rebelión de las máquinas

Retomando con ideas mencionadas, si bien se ha descartado por el momento el miedo a una rebelión de las máquinas, este miedo no es del todo infundado con la aparición de armas automatizadas o autónomas que cada vez requieren menos de intervención humana para su funcionamiento, como los drones. De hecho, la Cruz Roja Internacional ya ha hecho un llamado preventivo sobre el uso de este tipo de armamento, siendo de especial preocupación la falta de juicio humano a la hora en la elección de blancos militares (ICRC, 2022), siendo este un riesgo importante teniendo en cuenta lo mencionado en el párrafo anterior en cuanto al engaño táctico, o simplemente por el exceso de confianza que se aludirá párrafos más adelante. Además del drama humanitario que esto puede ocasionar, en el cual pueden caer población civil o estructuras físicas protegidas por el Derecho Internacional Humanitario, es algo que se puede aprovechar para girar a la opinión pública en contra.

Ahora bien, se han resaltado las capacidades de la IA en su ayuda para temas de ciberseguridad, en especial en la detección temprana de ciberataques, aunque también se señala el hecho que al igual que todo software, ésta puede tener puertas traseras o errores de programación como bugs y otros fallos en el algoritmo (Svenmarck et al., 2018). En consecuencia, este tipo de fallos en el código de programación de la IA da pie a explotaciones por parte de hackers, quienes lo aprovechan para llevar a cabo sus ataques (Singer y Friedman, 2014); pudiendo así el software generativo estar sujeto a ataques de denegación de sistema, bombas lógicas, inyecciones SQL, gusanos y demás acciones disruptivas, haciendo que se filtre información sensible, se provea información errada a sus usuarios, o simplemente se anule el sistema. En últimas, como toda red cibernética, la IA está sujeta a los riesgos cotidianos del ciberespacio que aún son causa de preocupación en la integridad del funcionamiento regular del Estado.

En segundo lugar, se encuentra el nivel operacional que sirve de intermedio entre los niveles táctico y estratégico, puntualmente, es la integración de las decisiones tomadas desde la estrategia con los actos realizados en la táctica (Newell, 1991). Dentro de esta conexión entre decisiones y actos, se encuentran los ataques de inferencia cuyo objetivo es reconocer las entradas de información que el sistema de IA ha estado utilizando, y así entrenarlo para que produzca los resultados esperados por quien realiza el ataque (Starck et al., 2022); para lograr esto, se hace necesaria la falla táctica comentada en el párrafo anterior, en donde el atacante pueda rastrear tanto entradas como salidas de la IA objetivo. De esta manera, ya se empieza a evidenciar que la combinación de ataques tácticos revisados en el presente artículo conlleva afectaciones que ya irrumpen en la toma de decisiones hasta los más altos niveles.

Con relación a lo anterior, otro de los riesgos operacionales con la IA que va de la mano con el anterior, es el de la ingeniería en reversa, donde ya no es solo aprender dónde está tomando el sistema sus fuentes de información, sino además extraer lo que el sistema ha aprendido, y con ello reconstruirlo (Oh et al., 2019). Esto, considerando que una de las grandes ventajas que ha aportado la IA a la operación militar, es su contribución al modelo Observar, Orientar, Decidir, Actuar para teatros operacionales complejos ideado por el coronel John Boyd, en donde la observación y la orientación ha mejorado gracias a los programas generativos por aprendizaje (Cho et al, 2020); aún más, si se tienen en cuenta todas las variables y campos de conocimiento que según Hall y Citrenbaum (2010) entran en juego a la hora de analizar los teatros mencionados, que van desde el análisis tecnológico hasta el análisis semiótico. Por ende, una reconstrucción malintencionada del proceso de aprendizaje de la IA es un ataque que puede afectar a toda la red de unidades implicadas en una operación militar.

Sin embargo, no todos los riesgos son de causa directamente humana, o por lo menos no vienen de una intencionalidad contraria, como toda máquina la IA está sujeta a fallos y averías, que de no revisarse pueden tener consecuencias nefastas. En este caso, un riesgo operacional de la IA por su mismo accionar tiene mucho que ver con su facilidad para observar y orientar, ya que al hacerlo a una velocidad mucho más rápida de la que es capaz cualquier ser humano, sumada a la complejidad de los entornos operacionales actuales, ya se han presentado consecuencias inesperadas como la introducción de malwares agresivos al ciberespacio, o colapsos financieros relámpago (Morgan et al., 2020). La impredecibilidad de estos accidentes junto a la velocidad con la que ocurren, en términos militares puede llevar a consecuencias catastróficas, como la filtración de información sensible que afecte la integridad física de las tropas.

Sesgos bélicos

Finalmente, en cuanto al nivel de la estrategia como tal, se define esta como el alcance de un fin con el uso de unos medios usando ciertos modos o cursos de acción (Freedman, 2013), haciendo que en este nivel el aspecto decisional sea el más relevante, y sus riesgos reflejen esta condición. Algo ya ampliamente documentado, pero no por ello menos importante, es la existencia de sesgos dentro de la IA, cuyos efectos nocivos ya han sido publicitados al presentar resultados con contenido racista, misógino, o de otro tipo de discriminaciones, lo cual abre espacio a la duda de que tanto se puede confiar en su aporte a una decisión militar adecuada y efectiva ante la presencia de dichos sesgos (Wasilow y Thorpe, 2019). De especial atención, no solo es el problema de la deshumanización y sus graves consecuencias en actos de guerra, sino también el que se dé un anquilosamiento de los valores existentes que impidan ver nuevas tendencias de pensamiento, lo cual es una falla en la ideación de cualquier estrategia.

Vinculado a esto, un riesgo decisional que trae consigo la sobre dependencia a la IA es el debilitamiento o empobrecimiento de las capacidades y habilidades propias del tomador de decisiones, al delegarle demasiado a la IA muchas de las funciones propias del ser humano, sin siquiera una mirada crítica de la situación (Hendrycks, 2023). De entrada, entre las ventajas que trajeron consigo las simulaciones cibernéticas, está el hecho que el entrenamiento de los soldados en combate era mucho menos riesgoso, además de que los equipos reales como tanques o aviones sufrían mucho menos desgaste; no obstante, como todo jugador ávido de videojuegos sabe, con el tiempo salió a relucir que los soldados salían airosos de las simulaciones al encontrar el patrón del algoritmo, pero en la más aleatoria realidad presentaron muchos fallos in situ (Bousquet, 2009). Del mismo modo, es posible argüir que un general que dependa de manera desmedida de la IA puede cometer graves errores estratégicos al delegar toda su capacidad decisional a un algoritmo.

Aun así, la estrategia no se elabora solamente de manera interna, esta también debe tener en cuenta factores externos, primordialmente, las capacidades estratégicas de rivales o enemigos (Freedman, 2009), y considerando esto la IA también puede traer un riesgo estratégico importante. Evidentemente, el acceso a la información no es algo homogéneo alrededor del globo, y hay lugares donde hay un mayor acceso a la información, de mejor calidad, sumado a mejores capacidades en la producción de software y capacidades cibernéticas, dará a una asimetría de IA entre los distintos Estados, que otorgará claras ventajas a quienes tengan más desarrolladas estas capacidades (Marwala y Hurwitz, 2015). Así como previo a las guerras industriales las potencias tenían un balance de acorazados, posterior a estas guerras apareció el balance nuclear, en la actual era de las comunicaciones se habla de un balance ciberespacial, no es descartable un balance de IA a futuro. Ahora, este puede ser un riesgo importante para Colombia en específico, debido a sus limitadas capacidades, y falta de voluntad política, ha tenido una actitud más bien reactiva en temas de ciberseguridad.

“The advent of computers, and the subsequent accumulation of incalculable data has given rise to a new system of memory and thought parallel to your own. Humanity has underestimated the consequences of computerization.”

Ghost in the Shell

Así pues, en el presente texto se ha hecho un recorrido a través de los tres niveles de la guerra de los riesgos presentes con el desarrollo de la IA, aunque si bien no están todos y hay muchos más, ya dan una luz de lo que se enfrenta en materia de seguridad y defensa con esta nueva tecnología. En adición, es evidente una vez más que los tres niveles: táctica, operación y estrategia, no son campos discretos y separados, por el contrario, están íntimamente relacionados, dado que un engaño o una mala recolección a nivel táctico produce fallas en los procesos operacionales, para en últimas causar una falla estratégica cuyas implicaciones pueden ser terribles. Si un radar defectuoso en 1983 casi lleva una guerra nuclear al detectar unos misiles que no estaban ahí, y por fortuna se pudo advertir la falla a tiempo; con la IA al estar aún más ligada al proceso de inteligencia, requiere de un especial discernimiento de todos aquellos implicados en la toma de decisiones.

De igual manera, estos riesgos mencionados pueden ser explotados ante un enemigo otorgando claras ventajas a quien los use astutamente, proveyendo así un cariz aún más complejo e interesante con la guerra en las sombras de la inteligencia actual. En ese orden de ideas, un escenario posible del uso del IA en temas militares tiene que ver con el escalamiento de capacidades que ya se está dando entre potencias, lo cual eventualmente podrá llevar a acuerdos de balance como se aludió anteriormente, de mantenerse la tendencia de cautela y evitar el primer ataque, que viene desde la era nuclear. De todos modos, ya se puede vislumbrar que el aprovechamiento de estas debilidades le da una nueva vuelta de tuerca a la presente y constante ciberguerra de la era de las comunicaciones, y esto obligará a establecer mayores cuidados y prevenciones al presentarse mayores posibilidades de engaño y desviación de decisiones, a la vez que crece nuestra dependencia a estas tecnologías.

Con todo y todo, la IA es una herramienta, y como toda herramienta no es más que la extensión de las propias capacidades humanas, y el uso y aprovechamiento que se le dé depende en gran medida de los usuarios detrás de ella. Como toda tecnología, la IA genera temores y reparos mientras se conocen todos sus alcances y capacidades, de los cuales queda mucho terreno por recorrer y hasta ahora estamos viendo una pequeña muestra; así como el ciberespacio nos proveyó de mayores capacidades, como también de mayores debilidades, la IA nos está mostrando de lo que es capaz, y lo ingenuo sería hacer como el avestruz y no sacarle el mayor provecho posible. En cualquier caso, en temas militares, estratégicos y bélicos, algo constante en la historia a pesar de todos los cambios tecnológicos, es que siempre gana aquel que tiene la inteligencia sobre su cabeza.


Referencias

Betz, D. (2015). Carnage y Connectivity: Landmarks in the Decline of Conventional Military Power. Oxford: Oxford University Press

Bousquet, A. (2009). The scientific way of warfare: Order and chaos on the battlefields of modernity. New York: Columbia University Press.

Bruce, J.B. y George, R.Z. (2008). Analyzing Intelligence: Origins, Obstacles and Innovations. Washington D.C.: Georgetown University Press.

Cho, S., Shin, W., Kim, N., Jeong, J., & In, H. P. (2020). Priority determination to apply artificial intelligence technology in military intelligence areas. Electronics, 9(12), 21-87.

Cohen, C.J. (2023). AI in Defense: Navigating Concerns, Seizing Opportunities. National Defense. https://www.nationaldefensemagazine.org/articles/2023/7/25/defense-department-needs-a-data-centric-digital-security-organization

Freedman, L. (2013). Strategy: A history. New York: Oxford University Press.

Hall, W. M., y Citrenbaum, G. (2010). Intelligence Analysis: How to Think in Complex Environments. Santa Barbara, CA: ABC-CLIO.

Hendrycks, D., Mazeika, M., y Woodside, T. (2023). An Overview of Catastrophic AI Risks. arXiv preprint arXiv:2306.12001.

ICRC. (2022). What you need to know about autonomous weapons. https://www.icrc.org/en/document/what-you-need-know-about-autonomous-weapons

Marwala, T., y Hurwitz, E. (2015). Artificial intelligence and asymmetric information theory. arXiv preprint arXiv:1510.02867.

Morgan, F. E., Boudreaux, B., Lohn, A. J., Ashby, M., Curriden, C., Klima, K., & Grossman, D. (2020). Military applications of artificial intelligence. Santa Monica: RAND Corporation.

Newell, C. (1991). The Framework of Operational Warfare. London: Routledge.

Oh, S.J., Schiele, B., Fritz, M. (2019). Towards Reverse-Engineering Black-Box Neural Networks. In: Samek, W., Montavon, G., Vedaldi, A., Hansen, L., Müller, KR. (eds) Explainable AI: Interpreting, Explaining and Visualizing Deep Learning. Lecture Notes in Computer Science, vol 11700. Springer, Cham. https://doi.org/10.1007/978-3-030-28954-6_7

Shulsky, A. N. y Schmitt, G. J. (2002). Silent Warfare (3rd ed.). Washington D.C: Potomac Books.

Singer, P. W. y Friedman, A. (2014). Cybersecurity and Cyberwar: What everybody needs to know. New York: Oxford University Press.

Smith, R. (2007). The Utility of Force: The Art of War in the Modern World. New York, NY: Alfred A. Knopf.

Starck, N., Bierbrauer, D. y Maxwell, P. (2022). Artificial Intelligence, Real Risks: Understanding—And Mitigating—Vulnerabilities In The Military Use Of AI. Modern War Institute. https://mwi.westpoint.edu/artificial-intelligence-real-risks-understanding-and-mitigating-vulnerabilities-in-the-military-use-of-ai/

Svenmarck, P., Luotsinen, L., Nilsson, M., y Schubert, J. (2018). Possibilities and challenges for artificial intelligence in military applications. In Proceedings of the NATO Big Data and Artificial Intelligence for Military Decision Making Specialists’ Meeting, 1-16.

Wasilow, S., y Thorpe, J. B. (2019). Artificial intelligence, robotics, ethics, and the military: A Canadian perspective. AI Magazine, 40(1), 37-48.


Alejandro Bohórquez-Keeney
Docente investigador
FIGRI
Alejandro.bohorquez@uexternado.edu.co

ISSN ELECTRÓNICO: 2344-8431
ISSN IMPRESO: 0123-8779