"La inteligencia artificial tiene el potencial de mejorar la vida de millones de personas, pero también puede ser una amenaza para los derechos humanos si no se regula adecuadamente"
Michelle Bachelet, Alta Comisionada de las Naciones Unidas para los Derechos Humanos.
Inteligencia Artificial (AI), gobernanza y derechos humanos son tres factores de la vida y el sistema internacional que han comenzado a sonar juntos cada vez más frecuentemente en los últimos meses.
De hecho, la adopción de la IA ha llevado a que el monto de los negocios relacionados con ella haya alcanzado un nivel histórico, especialmente desde 2022, cuando llegó a aproximado a los 241.8 mil millones de dólares, con una proyección de crecimiento del 205.5% para 2030. Se estima que estas tecnologías representan el 14.5% del PIB de América del Norte y el 26.1% del PIB de la República Popular de China (Maheshwari, 2023).
El gran crecimiento de estas tecnologías se ha dado gracias a su eficiencia en proporcionar herramientas que generen respuestas acertadas alas solicitudes de los usuarios. Estos resultados tienden a ser muy efectivos, como lo demuestra el programa Google Deep ML Technology, que ha logrado superar una tasa de asertividad del 90% en la detección de enfermedades como el cáncer de mama (Google Health).
Dada la gran adopción y efectividad de la IA, su uso se ha expandido en múltiples áreas, logrando una tasa de adopción media del 25.5% en usos como seguridad, procesos laborales, marketing, monitoreo y análisis de datos, entre otros. Esto ha llevado a que la IA tanga impactos significativos en la vida humana, desde los más cotidianos, como la formulación de un modelo para un ensayo, hasta la elaboración de una estrategia de marketing para una compañía internacional.
A pesar de que se considera que la IA aún se encuentra en una etapa prematura de desarrollo, es evidente su gran potencial. Por ello, se espera que esta tecnología llegue pronto a etapas maduras de desarrollo y aborde significativamente más áreas de la vida, cumpliendo así la visión de las BigTechs de crear un mundo interconectado y basado en los datos (Chui, 2022).
Sin embargo, también es crucial tener en cuenta los riesgos que está tecnología representa para los Derechos Humanos y la gobernanza internacional. En este artículo se entenderá el concepto de Derechos Humanos Internacionales como "un ideal común al que todos los pueblos y naciones deben esforzarse", que establece claramente los derechos civiles, políticos, económicos, sociales y culturales básicos que todos los seres humanos deben disfrutar (United Nations 2022). Los derechos humanos son cruciales para la buena gobernanza internacional, que se refiere a los procesos del gobierno, las instituciones, los procedimientos y las prácticas mediante los que se deciden y regulan los asuntos de la sociedad.
Estos incluyen la capacidad de los diferentes actores de mantener un Estado de Derecho, participación efectiva, asociaciones de múltiples interesados, pluralismo político, procesos e instituciones transparentes que rindan cuentas; así como un sector público eficiente y eficaz, con legitimidad, acceso al conocimiento, información y educación, empoderamiento político de la población, equidad, sostenibilidad, y actitudes y valores que fomenten la responsabilidad, la solidaridad y la tolerancia (Kleinfeld, R., & de Gramont, p33).
La irrupción de la IA en los diferentes espacios de la vida puede implicar cambios de tal profundidad que hace necesario entender y estudiar si el nuevo entorno ofrecido por la IA es seguro para los individuos y las dinámicas sociales.
La respuesta preliminar que se plantea en este artículo es que la integración de las nuevas tecnologías y dinámicas ofrecidas por la IA en la sociedad representa una amenaza a la seguridad de los individuos, en aspectos de privacidad y gobernanza. En consecuencia, es imprescindible formular y aplicar un marco regulatorio integral, rígido y técnico en aspectos de responsabilidad, ética y cooperación internacional.
Este ensayo se centrará, en primer lugar, en examinar las amenazas que la inteligencia artificial representa para el bienestar individual. Posteriormente, se abordará cómo la implementación de nuevas tecnologías afecta un sistema internacional caracterizado por su naturaleza anárquica. Finalmente, se destacará la imperiosa necesidad de establecer regulaciones que trascienden desde el ámbito internacional al nacional, y viceversa, para mitigar estos riesgos.
Comprender el funcionamiento de la IA es fundamental para abordar sus retos. A grandes rasgos, la IA intenta imitar las redes neuronales humanas: mediante la recepción de insumos específicos, procesa grandes volúmenes de datos para producir respuestas precisas, a través de un proceso de filtrado estadístico (Svitla Systems, Inc, 2020). Sin embargo, a diferencia del razonamiento humano, su precisión depende de la exactitud del insumo. Adicionalmente, la IA cuenta con sistemas de Aprendizaje Automático (ML), que acumulan y aprenden de los datos procesados anteriormente, perfeccionando su rendimiento de manera análoga a cómo la memoria humana se fortalece con la experiencia (Oracle, 2020).
La IA se nutre de dos tipos principales de bases de datos. El primero, el de las bases de datos limitadas, se concentra en información específica, como es el caso del programa Chat GPT Plan Nacional de Desarrollo 2022-2026, que opera de manera similar a Chat GPT, pero se alimenta exclusivamente de datos del plan de desarrollo del gobierno de Petro en Colombia. Esto significa que cualquier pregunta que se le formule, esta IA la responde utilizando únicamente la información de dicho plan de desarrollo (Carlos F Perez G,2023). El segundo tipo, corresponde a las bases de datos abiertas, las cuales extraen información de Internet y están limitadas a las especificaciones que se den en la instrucción inicial. Estas son las bases de datos utilizadas por IAs como Chat-GPT o BARD (Manickam et al., 2022).
La IA emerge como una herramienta innovadora y eficiente que ha entramado múltiples aspectos de la vida cotidiana, facilitándola y mejorándola. Sin embargo, la adopción y expansión de la IA conllevan riesgos para el bienestar individual de los usuarios, en aspectos como la privacidad, el derecho a la información y la discriminación de esa información.
Estos riesgos se originan tanto en el mal uso de la información recopilada por el sistema, como en su vasta capacidad para analizar datos de Internet y del empleo inapropiado de la propia IA. Al recolectar datos de los insumos de los usuarios, estos sistemas pueden acumular inadvertidamente información sensible. Esta información puede ser susceptible a filtraciones no autorizadas o utilizada de manera inadecuada en el procesamiento de respuestas para otros usuarios, comprometiendo así la privacidad del individuo (Barton et al., 2019).
Además de los riesgos previamente mencionados a los datos personales, el uso indebido de estas tecnologías abre la puerta a la creación de casos de deep fake y vishing . Estas tecnologías, al carecer de razón y estar construidas con el fin de dar un resultado a través de procesamiento estadístico, mas no bajo un marco ético, son capaces de generar contenidos audiovisuales que acaben por violar la identidad y privacidad de los usuarios, dado que pueden replicar características personales de los individuos y generar contenidos audiovisuales falsos (Homeland Security, 2021).
Se han evidenciado situaciones de deep fake y vishing en las campañas electorales de varios países de América Latina, en las que se denunciaron casos en los que se hacían circular —hasta viralizarse—, contenidos audiovisuales falsos, que iban desde fotos de los candidatos con criminales, hasta los primeros haciendo parte de videos para adultos (Newtral, 2023).
El funcionamiento de IA también es un riesgo para la discriminación que pueden sufrir los individuos. Dado que están nutridas por bases de datos abiertas, estas tecnologías son vulnerables a datos sesgados o que promuevan la discriminación. Estos datos representan un riesgo para el correcto funcionamiento de la IA, dado que son incorporados en el proceso de filtrado y pueden llegar a ser utilizados en las respuestas dirigidas a los usuarios (Barton et al., 2019). Esta vulnerabilidad puede llevar a que la IA promueva la distribución de información falsa, sesgada o hasta discriminatoria, como ha sucedido con el sistema de Facebook AI, que identificó seres humanos con determinados colores de piel y otras características físicas como simios (Mac, 2021), o sistemas de contratación que han descalificado candidatos por su género (Dastin, 2018).
Estas situaciones, que son consideradas como errores de formulación de las IA, han sido señaladas por el Parlamento Europeo como un riesgo, dado que han violado el Artículo 2 de la Declaración Universal de los Derechos Humanos (ONU, 1948), el cual establece:
"Toda persona tiene todos los derechos y libertades proclamados en esta Declaración, sin distinción alguna de raza, color, sexo, idioma, religión, opinión política o de cualquier otra índole, origen nacional o social, posición económica, nacimiento o cualquier otra condición".
Borgesius, 2018
Este riesgo de discriminación derivado del uso erróneo de las bases de datos abiertas quedó demostrado en el experimento Tay Tweets de Microsoft, el cual consistió en que una IA analizaba la información de Twitter y realizaba publicaciones como un usuario más, pero en cuestión de horas comenzó a tener interacciones inapropiadas, que fomentaban el odio y los prejuicios (Vincent, 2016). Estos “errores de formulación” les han ocasionado millonarias multas a empresas como Microsoft, Google u Open AI.
Asimismo, de los riesgos de discriminación y privacidad que la IA representa para el bienestar individual, es importante subrayar el de la incidencia de estas tecnologías en el derecho a la información. Este se produce por la confianza y veracidad que los usuarios les dan a las respuestas que formulan los sistemas, aun cuando estas pueden contener información falsa, sesgada o hasta discriminatoria.
Esta situación representa un riesgo adicional debido al procesamiento estadístico de la información. Este proceso puede dar lugar a la creación de información falsa, ya que, al recopilar datos de múltiples fuentes, la IA podría generar respuestas erróneas o engañosas, utilizando información sacada de contexto (Mark, 2023).
Adicionalmente, existe un riesgo inherente en el uso del Aprendizaje Automático (ML) en algoritmos de filtrado y procesamiento de información. Estos algoritmos son susceptibles a manipulaciones y a la adopción de sesgos basados en los insumos recibidos. Tal situación puede comprometer el correcto funcionamiento de la IA, llevándola a adoptar una narrativa o preferencia específica por ciertos tipos de información. Esto, a su vez, podría restringir la diversidad de contenidos disponibles y limitar el acceso de los usuarios a una amplia gama de perspectivas, incluso cuando estas sean solicitadas.
En respuesta a estas situaciones de riesgo, los desarrolladores han optado por diseñar modelos algorítmicos que busquen identificar y reducir la formulación de estas respuestas problemáticas. A pesar de que este tipo de medidas inicialmente ha producido buenos resultados, ha generado nuevos inconvenientes, como el sesgo de cierta información. (OVIC, 2022) Esta situación se ha logrado recrear en una prueba de la IA Perplexity, en la cual, aún tras múltiples intentos y una exhaustiva ejecución, no se logró que produjera una narrativa en la que incluyera el accionar de Marruecos y de Estados Unidos en la situación del Sahara Occidental (Perplexity, 2023).
El nuevo entorno que representa la IA no solo influye en el bienestar individual de los usuarios, sino que también tiene repercusión en la buena gobernanza. Esto es especialmente evidente en el sistema internacional, cuya naturaleza anárquica hace muy difícil y lento el desarrollo de una correcta y sana regulación de la IA. De hecho, el desarrollo acelerado de estas tecnologías representa un riesgo creciente para el bienestar humano.
Inicialmente, como menciona la experta Zlata Drnas de Clémente (2022), la IA, al censurar y sesgar información en sus respuestas, puede fomentar en los usuarios la falta de conocimiento equilibrado y verídico. Esto puede conducir a conflictos y problemas en la gobernanza, ya que los sistemas de IA pueden clasificar como falsos información que sea veraz, opiniones que vayan en contra de lo políticamente correcto o intereses políticos específicos, y movilizar así grandes sectores de la población a tomar decisiones equivocadas.
Estas fallas potenciales podrían afectar la percepción de la realidad de los individuos, lo que puede llegar a sesgar la toma de decisiones, desde el nivel local hasta el internacional, e influenciar la toma de decisiones discriminatorias y, con ello, debilitar la capacidad de buena gobernanza.
El debate sobre los sesgos en las herramientas de IA ha cobrado gran importancia debido a la creciente utilización de sistemas de este tipo en papeles clave dentro de organizaciones tanto públicas como privadas. Cuando se les utiliza para realizar funciones críticas, estos sistemas pueden estar sujetos a diversas circunstancias, que potencialmente alteren sus procesos de análisis y, como resultado, impacten significativamente su capacidad para tomar decisiones.
Adicionalmente, la falta de transparencia en el diseño y el funcionamiento de los algoritmos utilizados por los sistemas de IA puede generar desconfianza entre los actores internacionales. Si no se comprende cómo se toman las decisiones y se generan las respuestas, se dificulta la evaluación de su imparcialidad y objetividad. Esto puede llevar a disputas y tensiones, especialmente en el ámbito de las relaciones internacionales y la diplomacia; por ejemplo, cómo ciertos sistemas pueden incriminar o hacer señalamientos (negativos) hacia ciertos actores sin justificación alguna o comprensión del porqué se produjeron. (Araya, 2021).
La brecha tecnológica entre países es otro factor crítico en la interacción entre la inteligencia artificial y la gobernanza. Esta disparidad puede resultar en desigualdad internacional, afectando la competitividad de países que no pueden desarrollar o utilizar eficientemente la IA en áreas como comercio, seguridad e influencia política.
Además, la gobernanza de las bases de datos en el contexto de la IA es un tema importante, ya que el control de estas bases de datos puede llevar a la manipulación y distorsión de la realidad, limitando la diversidad de opiniones. Este riesgo se ve agravado por el uso de bots para difundir información sesgada o falsa con fines políticos, lo que puede afectar negativamente la gobernanza internacional a través de la comunicación. Por lo tanto, es crucial abordar la IA no solo desde una perspectiva tecnológica, sino también considerando la equidad y el acceso global. Se requieren políticas internacionales que promuevan un desarrollo equitativo y ético de la IA, garantizando que sus beneficios estén disponibles de manera amplia y fomentando una gobernanza global inclusiva y equitativa (Alemany, DAWN, ITF, Gurumurthy, n.d.).
El nuevo entorno que ofrece la IA provee un sinfín de oportunidades, pero con ello es necesario reconocer cual es la seguridad que este entorno provee para los individuos y las dinámicas sociales como las conocemos.
En este contexto, es esencial reconocer las recomendaciones de expertos y organizaciones internacionales sobre el uso y la transición hacia la inteligencia artificial. Por ejemplo, la misión de expertos de IA de Colombia y la OCDE ha propuesto establecer principios internacionales para la regulación de la IA. Estos principios deben incluir lineamientos éticos claros y definir responsabilidades frente a los riesgos que estas tecnologías puedan generar. El objetivo es garantizar que los desarrolladores y propietarios de sistemas de IA fundamenten su trabajo en bases éticas sólidas. Además, se ha sugerido la creación de rutas de transición y adopción de estas tecnologías en la sociedad. Estas rutas deben diseñarse para minimizar los impactos negativos y facilitar una integración armoniosa de la IA en diversos sectores. Una opción interesante es la experimentación con estas tecnologías en entornos regulados. Esto permitiría identificar las causas de posibles riesgos y trabajar en soluciones preventivas y éticas que aborden los desafíos sociales presentados por la IA.
Con estas recomendaciones se busca, más allá de regular y buscar responsables por posibles inconvenientes con la IA, establecer un marco para que los responsables de los programas desarrollen sistemas que respeten los lineamientos éticos y el bienestar del entorno, desde el individuo hasta la gobernanza. Se busca también que la creación de estos principios internacionales se formule a través de una cooperación en el sistema anárquico internacional, que entienda que "El futuro pertenece a la inteligencia artificial y el primer país que la domine será el gobernador del mundo" - Vladimir Putin. Una carrera por ello, desarrollada sin lineamientos éticos, puede ocasionar la deconstrucción de los entornos y el bienestar como los conocemos, desde el individuo hasta el sistema internacional y, con ello, un futuro incierto, donde las libertades, los derechos humanos, la información podrían cambiar por completo.
Alemany, C. & Gurumurthy, A. (2019). La gobernanza de los datos y la inteligencia artificial. Políticas Transversales. https://www.2030spotlight.org/sites/default/files/download/Spotlight_Innenteil_2019_web_V_La_gobernanza.pdf
Araya, C. (2021). Transparencia algorítmica ¿un problema normativo o tecnológico?. Cultura-Hombre-Sociedad, 31(2), 306–334. https://doi.org/10.7770/cuhso-v31n2-art2196
Barton, G., Turner Lee, N., & Resnick, P. (22 de mayo de 2019). Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms. https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/
Convolutional Neural Networks as a modern approach in AI (21 de enero de 2020). Svitla Systems, Inc. . https://svitla.com/blog/convolutional-neural-networks-as-a-modern-approach-in-ai
Drnas de Clément, Z. (2022). Inteligencia artificial en el Derecho Internacional, Naciones Unidas y Unión Europea. Revista Estudios Jurídicos. Segunda Época, (22). https://doi.org/10.17561/rej.n22.7524
Facebook Apologizes After A.I. Puts “Primates” Label on Video of Black Men. (2021). The New York Times. https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.htmlInstituto de Ciencia Política Hernán Echavarría Olózaga. (28 de septiembre de 2023). IA y Regulación: elementos para un debate informado . https://www.youtube.com/watch?v=uSHtCXdFhu4
Increasing Threat of Deep Fake Identities. (n.d.). Home Land Security. https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf
Kleinfeld, R., & de Gramont, D. (2015) Democracia, buena gobernanza y Estado de derecho. En McKay, L., Hacia una cultura del Estado de derecho, 33-38. Instituto de Paz de los Estados Unidos. https://www.usip.org/sites/default/files/Hacia-una-cultura-de-Estado-de-derecho.pdf
Los riesgos de la inteligencia artificial para la privacidad exigen medidas urgentes –Bachelet. (2021). Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. https://www.ohchr.org/es/press-releases/2021/09/artificial-intelligence-risks-privacy-demand-urgent-action-bachelet
Manickam P., Mariappan SA., Murugesan SM., Hansda S., Kaushik A., Shinde R. & Thipperudraswamy SP. (2022). Artificial Intelligence (AI) and Internet of Medical Things (IoMT) Assisted Biomedical Systems for Intelligent Healthcare. Biosensors, 12(8), 562–562. https://doi.org/10.3390/bios12080562
Pahl, S. (16 de febrero de 2023). Una brecha emergente: ¿Quién se beneficia de la IA?. Industrial Analytics Platform. https://iap.unido.org/es/articles/una-brecha-emergente-quien-se-beneficia-de-la-ia
Perxplesity IA. Perxplesity, IA generativa de bases limitadas a la academia.https://www.perplexity.ai/
Pombo, C. (7 de diciembre de 2022). Los riesgos de la inteligencia artificial y algunas soluciones. Abierto al Público. https://blogs.iadb.org/conocimiento-abierto/es/riesgos-inteligencia-artificial/
Rainie, L., Funk, C., Anderson, M. & Tyson, A. . (17 de marzo de 2022). 1. How Americans think about artificial intelligence. En AI and Human Enhancement: Americans’ Openness Is Tempered by a Range of Concerns Pew Research Center. https://www.pewresearch.org/internet/2022/03/17/how-americans-think-about-artificial-intelligence/
Zuiderveen Borgesius, F. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Directorate General of Democracy, Council of Europe. https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73
Juan Pablo Clavijo Salgado
Estudiante
Gobierno y Relaciones Internacionales
juan.clavijo03@est.uexternado.edu.co
ISSN ELECTRÓNICO: 2344-8431
ISSN IMPRESO: 0123-8779