La Unión Europea ha sido pionera en el desarrollo de políticas que además de armonizar una legislación que se adecue alas nuevas tecnologías, también apunta al establecimiento de un encuadre ético cuyos principios en los que se incluyen prioridades y objetivos que pretenden impulsar su uso.
Según la OCDE (2019) al menos 50 países y la Unión Europea (UE), han adoptado estrategias internas relacionadas con la inteligencia artificial -IA- o políticas en las que se incluyen prioridades y objetivos que pretenden impulsar su uso. Esto con el fin de armonizar las capacidades, normas y estructuras de los agentes y ecosistemas que se adecuen a estas nuevas tecnologías.
Un claro ejemplo de ello, es la creciente actividad reguladora que ha venido desarrollando la UE como lo menciona Calderaro & Blumfelde (2022), que inició en el año 2012 con el Reglamento Europeo de Protección de Datos, con impacto no solo en la UE sino más allá de sus fronteras, que buscaba imponer normas de privacidad digital a los servicios de internet con sede en Estados Unidos.
Este reglamento tomó aún más fuerza en el año 2013 en el sector de defensa, inicialmente por el interés de lograr una “autonomía estratégica, posteriormente adoptada con fines más amplios de defensa y seguridad con la puesta en marcha de la Estrategia Global de la Unión Europea”. Sumado a lo anterior, ante la situación presentada con el caso de Snowden en el 2013, que dio a conocer a la prensa documentos confidenciales relacionados con programas gubernamentales de vigilancia masiva en los cuales no dejaba a ninguna persona del planeta libre de espionaje. Debido a esto, Hintz et al (2019), enfatizan en la preocupación que surgió alrededor de la lucha por la privacidad digital que impulsó a la UE, para incorporar este tema en la agenda digital que iniciaba a desarrollarse allí.
Posteriormente, de acuerdo con lo indicado por Calderaro & Blumfelde (2022), surgió el escándalo de Cambridge Analytica, al extraer información privada de los perfiles de Facebook de más de 50 millones de usuarios sin su consentimiento, utilizando esta filtración para desarrollar técnicas que le permitieron influir en la campaña presidencial de Donald Trump. Con este episodio se resaltó el papel dominante de los intermediarios digitales sobre los estados y la sociedad. Todo esto impulsó aún más el papel de la UE para exigir regulaciones más estrictas sobre los servicios digitales que les proveían otros países, así como el interés por invertir recursos en desarrollos de IA, con el fin de reducir la dependencia de agentes externos y así lograr separarse del mercado digital liderado por Estados Unidos y China (Archibugi y Vitantonio, 2021).
La UE continúo con su interés de incrementar su desempeño en materia de IA, por consiguiente, propendió por desarrollar un modelo concreto de minería de datos, para reforzar un marco europeo de privacidad digital.
Seguidamente, Bradford (2020), relaciona la importancia que obtuvo la UE con el Reglamento General de Protección de Datos (RGPD) en 2016, se equipó con una herramienta adicional para imponer sus estándares sobre la capacidad de minería de datos del sector privado. El RGPD (Reglamento General de Protección de Datos) es un ejemplo clave de cómo la UE ha sido capaz de superar la falta de liderazgo mundial en el sector digital mediante la aplicación de regulaciones proteccionistas dirigidas a su mercado digital. Al mismo tiempo ha influido en el debate mundial sobre cómo desarrollar un enfoque basado en los derechos humanos para las estrategias digitales (Calderaro & Blumfelde, 2022).
Así mismo, OCDE (2019) resalta que, en 2018, todos los países miembros de la Unión Europea firmaron la Declaración de Cooperación en Inteligencia Artificial (Declaration of Cooperation on Artificial Intelligence), por medio de la cual se comprometieron a colaborar para impulsar la capacidad y adopción de la IA en Europa, hacer frente a los problemas socioeconómicos y éticos y garantizar un marco jurídico adecuado. Otro compromiso al que llegaron está relacionado con disponer, en los diferentes escenarios, de la administración pública del uso de la IA, con el objetivo de compartir las mejores prácticas, así como lograr la implementación de datos abiertos.
La UE es un claro ejemplo de una estrategia proteccionista, en la que prevalece una agenda regulatoria que puede difundirse por todo el mundo gracias a su tamaño y lo atractivo de su mercado. Siguiendo a Calderaro & Blumfelde (2022), “la UE tiene la intención de emerger como un creador de reglas de mercado global”, bajo el efecto Bruselas que indica que, con sus leyes, acaba influyendo más a nivel mundial que EEUU con su poder militar o China con sus proyectos en el extranjero.
La Comunidad Europea ha continuado con el desarrollo de iniciativas que conlleven a diseñar una estrategia concreta en el campo de la IA, es por ello que en febrero de 2020 presentó el Libro Blanco, enfocado en los desafíos y oportunidades de la IA en Europa, desde una perspectiva tecnológica y socioeconómica.
Se planteó con la finalidad de aprovechar las oportunidades relacionadas con el uso de la inteligencia artificial en un enfoque relacionado con una mejor calidad de vida de los ciudadanos y competitividad de las empresas en el mercado mundial. La Comunidad Europea (2020), ha afirmado en su documento que “no aborda ni el desarrollo ni el uso de la inteligencia artificial para fines militares”, dejando claro su interés por influir en asuntos económicos, fuera del uso militar.
A pesar de no contar con grandes empresas desarrolladoras de inteligencia artificial, Europa no se ha limitado y ha querido destacarse por ser los primeros en adoptar una posición negociadora, como parte del camino a recorrer para la aprobación de la primera Ley de IA a nivel mundial, la UE busca garantizar mejores condiciones de desarrollo y uso de la tecnología, en la que se cuente con sistemas más seguros, con principios éticos como la transparencia, trazabilidad, no discriminatorios y en la que se haga énfasis acerca de su uso en el ámbito militar, el cual siempre debe estar bajo la supervisión de las personas para evitar resultados que pongan en riesgo la seguridad humana.
Sin lugar a dudas, se debió considerar el Concepto Estratégico de la OTAN, que afirma que “las tecnologías emergentes y disruptivas traen consigo tanto oportunidades como riesgos” (OTAN, 2022), haciendo referencia a la aplicación de la Inteligencia Artificial (IA), que conduce al logro de capacidades militares superiores tanto en el campo de batalla físico como virtual, que puede conllevar a una mayor efectividad en el resultado de las operaciones, así como, amenazas para la propia seguridad como resultado del uso de estas tecnologías por parte de quienes quieran causarles daño, por consiguiente, implica un análisis adecuado para mitigar los riesgos posibles.
Siguiendo a Gómez (2020), uno de los dilemas del uso de la IA en el ámbito militar, está relacionado con la utilización que se hace del armamento autónomo, principalmente por la probabilidad de afectar a personal no combatiente, por lo cual se hace necesario un visto bueno por parte de un operador humano, que pueda realizar una evaluación adecuada respecto a la proporcionalidad del ataque y los daños no intencionales que se puedan generar.
Así mismo, Martínez (2023), relaciona otro dilema asociado al alcance de la regulación, toda vez que, está centrada en sistemas de IA considerados de alto riesgo en los que se encuentran aquellos para uso militar, dejando por fuera sistemas de menor riesgo que pueden tener gran impacto en la población.
El alto riesgo en los sistemas de IA, está dado por varios aspectos en los que se destacan: “su uso, naturaleza, gravedad y posible irreversibilidad de los daños que se pueden generar y que vulneren los derechos fundamentales, normas de seguridad” (Parlamento Europeo, 2022, p.37), así mismo, se hace énfasis en el cumplimiento de las normas sobre protección de datos y respecto que deben garantizar los desarrolladores de IA.
Es por ello que la IA para uso militar, se encuentra clasificada como de “alto riesgo”, lo que implica que la supervisión deba estar a cargo de humanos y se encuentre bajo un marco regulador, propendiendo por el cumplimiento de principios éticos, que si bien es cierto deben ser flexibles, también debe estar orientada al futuro. Es importante garantizar el respeto de los Derechos Humanos (DDHH), el Derecho Internacional Humanitario (DIH) y el Derecho Internacional de los Conflictos Armados (DICA), así mismo, la propuesta de Ley de Inteligencia Artificial, insta a promover, a escala internacional, la prohibición de sistemas de IA autónomos, a que se capacite el personal militar en competencias digitales para un uso responsable de la IA y al cumplimiento de los principios del DIH en los que se destacan la proporcionalidad y la distinción, además resalta la importancia de la cooperación entre países para reducir las amenazas y riesgos generados por la IA para la seguridad y defensa.
Finalmente, es importante destacar que los esfuerzos realizados hasta ahora, si bien es cierto, no garantizan el camino hacia la autonomía estratégica de la UE, si puede conllevar en un futuro a la soberanía digital por la cual se debe trabajar en cada uno de los países que quieran proteger sus intereses nacionales, así como la seguridad y defensa de la nación. Así mismo, la regulación a los sistemas de alto riesgo contribuye a la ética que se debe impulsar en el uso de la inteligencia artificial, toda vez que, estos sistemas deben significar una mayor efectividad sin dejar de lado la seguridad en todos los aspectos. Es por ello que la formación y entrenamiento a las personas que se encarguen del uso de este tipo de tecnología es fundamental, porque son ellos quienes deben desarrollar el sentido crítico que les permita tomar decisiones frente al uso o no de la IA para hacer frente y vencer la voluntad de los adversarios, logrando una integración entre los seres humanos y las máquinas para una acertada toma de decisiones bajo principios éticos y del DIH.
Archibugi, D., Vitantonio, M. (2021). Is a European Recovery Possible Without High-Tech Public Corporations? Intereconomics, 56 (3), 160-166.
Calderaro, A., & Blumfelde, S. (2022). Artificial intelligence and EU security: the false promise of digital sovereignty. European Security, 31(3), 415-434. https://doi.org/10.1080/09662839.2022.2101885
Comisión Europea (2021). Directrices nacionales sobre el uso del sistema antifraude ARACHNE. https://antifraud-knowledge-centre.ec.europa.eu/library-good-practices-and-case-studies/good-practices/national-guidance-arachne_es
Gomez, A. (2020). La inteligencia artificial en el campo de batalla. En Ministerio de Defensa de España. Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R), 135-157. https://emad.defensa.gob.es/Galerias/CCDC/files/USOS_MILITARES_DE_LA_INTELIGENCIA_ARTIFICIALx_LA_AUTOMATIZACION_Y_LA_ROBOTICA_xIAA xRx.-_VV.AA.pdf
Hintz, A., Dencik, L., and Wahl-Jorgensen, K., (2019). Digital citizenship in a datafied society. Cambridge: Polity Press.
Martinez, P. (2023). La propuesta de marco regulador de los sistemas de Inteligencia Artificial en el mercado de la UE. Revista CESCO De Derecho De Consumo, (46), 1-20. https://doi.org/10.18239/RCDC_2023.46.3322
OCDE. (2019). Hello, World: Artificial intelligence and its use in the public sector (OECD Working Papers on Public Governance 36, OECD Working Papers on Public Governance, Vol. 36). https://doi.org/10.1787/726fd39d-en
Parlamento Europeo, (3 de mayo de 2022). Resolución del Parlamento Europeo, sobre la inteligencia artificial en la era digital. [P9_TA(2022)0140]. https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_ES.pdf
Nancy Marley Pacheco Oviedo
Semillero Inteligencia Artificial
Maestría en Gobierno y Políticas Públicas
nancypachecooviedo@yahoo.com
ISSN ELECTRÓNICO: 2344-8431
ISSN IMPRESO: 0123-8779