La protección de los derechos humanos en proyectos de regulación de la IA es esencial para garantizar que el desarrollo y uso de la IA sean realizado de manera ética y técnica, respetando los principios generales de estos derechos, a través de proyectos que entiendan de los riesgos que esta tecnología puede generar.
Para nadie es un secreto que la Inteligencia Artificial (IA) ha presentado un desarrollo exponencial en las últimas décadas, que ha estado acompañado de diversas discusiones al respecto en materia ética y legal. Por un lado, una parte de la sociedad ha mostrado gran entusiasmo por el avance de la IA, argumentando las posibilidades que ofrece para el desarrollo de la humanidad en materia científica; por otro, muchas personas han expresado su preocupación frente al avance desenfrenado de esta tecnología y la manera como podría amenazar el futuro de la humanidad. Entre el segundo grupo, ha tenido un eco especial la advertencia del empresario Elon Musk: “La inteligencia artificial tiene el potencial de destruir civilizaciones” (Duffy, C. & Ramishah, M. 2023) y la carta abierta elaborada por más de mil expertos en la que advierten que la IA puede ser “una amenaza para la humanidad” (BBC News Mundo, 2023).
Jurídicamente, esta preocupación se ha hecho más evidente en materia de protección de los Derechos Humanos (DD. HH.) y la manera en que el gran desarrollo de la IA puede generar riesgos para la protección de estos derechos, “al poder llegar a discriminar el acceso a servicios públicos, un empleo o vulnerar la intimidad de los usuarios” (Corona, R. 2021).
Esta preocupación ha llevado a diferentes Estados a darle un puesto prioritario dentro de sus agendas regulatorias a la creación de un marco normativo para la IA. Este escrito se enfocará: en primer lugar, en los proyectos regulatorios y regulaciones de Estados Unidos (EE. UU.); en segundo lugar, analizará el proyecto de regulación de México. Como último elemento de análisis, abordará el caso colombiano con el proyecto de Ley 059 de 2023, radicado ante el Congreso de la República.
La importancia de EE. UU. se deriva de que ese es el país que dio origen a la IA con el proyecto de investigación de verano de Dartmouth (en 1956), organizada por John McCarthy, “con el objetivo de analizar cada aspecto del aprendizaje y la inteligencia humana, con el fin de replicarse por una máquina” (Dartmouth College, 2022).
Después, entre 1957 y 2000, se acrecentó la aplicación de la IA a sectores científicos, armamentísticos, entre otros (BBC, 2015); En2002, la empresa estadounidense ‘Irobot’ creó el primer producto funcional con IA, denominado ‘Roomba’, del cual vendió alrededor de 18 millones de unidades en 2017 (Sanchez, C. 2017). En la actualidad, existen múltiples dispositivos que cuentan con esta tecnología avanzada, facilitando las tareas diarias de todos los usuarios; basta con ingresar al teléfono y hacer uso de ‘Siri’ en el caso de los IPhone o ‘Alexa’ para los Android.
Aun así, el Congreso estadounidense y las distintas carteras gubernamentales de ese país han reconocido con el paso del tiempo la importancia de establecer reglas claras, que regulen el avanzado crecimiento de la IA. El primer antecedente data de la administración de Donald Trump en 2018, cuando el secretario de defensa Jean Mattis envió un memorando al Jefe de Estado, solicitando adoptar políticas públicas que regulen la IA (Metz, C. 2018).
El segundo antecedente normativo data de 2020 con la Ley Federal sobre la IA (Ley pública 116-260, 2020, División U, Título I) y la Orden Ejecutivo 13960, que promueven el uso de la IA confiable en el gobierno federal (National Artificial Intelligence [NAII], 2021); el tercer antecedente es de 2021, cuando el Congreso Federal expidió la Ley bipartidista de Autorización de Defensa Nacional para el año fiscal 2022, creando la oficina de la iniciativa de la IA (OFIA o en inglés NAII) , con el fin de fungir como eje de investigación central de la IA y formular políticas públicas que ayuden a la administración de EE. UU. (Ley pública 116-283, 2021, División E, Sección 5001).
Pese a lo anterior, la OFIA no ha expedido órdenes ejecutivas que contemplen una medición de los riesgos que la IA puede generar para la protección a los DD. HH.; hasta ahora, solo ha producido documentos estratégicos para la implementación de la IA en otros campos del sector administrativo de EE. UU., sin expedir una normatividad clara.
Hasta el momento, se ha hablado de riesgos en sentido amplio, es decir, el riesgo se entiende como “la medida compuesta de la probabilidad de que ocurra un evento que comporte un grado alto de amenaza de la IA a los DD. HH.” (Organización Internacional de Normalización [ISO], 2018, ISO 31000:2018).
Precisamente dentro de la perspectiva de esta definición se creó en EE. UU. la agencia denominada “Instituto Nacional de Estándares y Tecnología” (NIST), encargada de promover la innovación y la competitividad industrial a través de desarrollos técnicos para las agencias federales (NIST. s.f.). A esta agencia le fue ordenado, a través de la Orden Ejecutiva 13859 (2019), “crear los estándares técnicos que minimicen la vulnerabilidad a los ataques de actores maliciosos”. En cumplimiento de este mandato, el NIST publicó el marco de gestión de riesgos de la IA (Marco) en enero de 2021.
Este marco previene tres tipos de riesgos: “1) Riesgo individual y dentro de este, puede existir riesgos a los derechos civiles como la libertad, a la seguridad física o psicológica, incluso la pérdida de una oportunidad económica; 2) Riesgo a una comunidad, debido a una discriminación a un grupo o subgrupo de la población; 3) Riesgo a la sociedad, puede generar un daño a la democracia o el acceso a la educación” (NIST. 2019. Marco de gestión de riesgos. pp.4-5).
Para prevenir estos riesgos, el marco sugiere que la IA debe enmarcarse en los siguientes criterios: 1) Que sea válida y confiable; 2) Además de segura y resiliente; 3) También responsable y transparente; 4) Que pueda ser explicable e interpretable; 5) Que cuente con privacidad mejorada; 6) Que sea justa sin perjuicios gestionados, ni sesgos dañinos.
Todos los anteriores criterios deben ser observados por quienes suministran los datos, crean los algoritmos, proporcionan la información y construyen la IA, para que así sea considerada una IA confiable para un uso seguro del público.
De lo anterior, se puede concluir que en EE. UU. sí existe normas técnicas que prevén criterios objetivos y subjetivos que deben cumplir los desarrolladores de la IA, haciendo la salvedad que el marco de riesgos expedido por NIST usa como fuente las normas ISO, de modo que genera una uniformidad de reglas entre todos aquellos que adopten este marco de gestión de riesgos.
México es un Estado que ha tenido diversos acercamientos a la IA desde el punto de vista científico específicamente. El primer antecedente en este tema es la creación en 1990 del Laboratorio Nacional de Inteligencia Artificial, el cual luego pasó a llamarse Laboratorio Nacional de Informática Avanzada (LANIA). En 2013, el entonces presidente Enrique Peña Nieto creó la Estrategia Digital Nacional, la cual buscaba impulsar el desarrollo de nuevas tecnologías para el desarrollo social y económico, dentro de las que incluyó la tecnología de la IA.
Otro elemento del desarrollo institucional mexicano en torno a la IA fue la presentación en el Senado de la República, el 21 de abril de 2023, de la Alianza Nacional de Inteligencia Artificial (ANIA) , cuyo fin principal es lograr concertar distintos puntos de vista para el desarrollo, fomento y regulación de la IA en México. En mayo del mismo año, el diputado Ignacio Loyola presentó la iniciativa de ley: “Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica”, que busca la regulación de la IA de forma ética y protegiendo los DD. HH. de sus ciudadanos y el desarrollo de la nación. Dicho proyecto legislativo aún se encuentra en trámite y, de ser aprobado, contempla que la UNESCO trabajará de la mano con la ANIA para desarrollar estrategias que cumplan estos fines. en su exposición de motivos, el diputado citó el Primer Acuerdo Mundial sobre la Ética de la Inteligencia Artificial de la UNESCO, según el cual la IA está en una línea catastrófica en materia de vulneración de derechos humanos” en materia de género, etnia, privacidad y la vigilancia masiva. Lo anterior exige que se regule la materia y se brinden informes periódicos sobre sus progresos y prácticas (Ignacio Loyola, 2023).
En aras de proteger los DD. HH. en diferentes aspectos y materias, el proyecto se compone de 19 artículos, entre los que se encuentra la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica, el cual estará compuesto por expertos en la materia y tendrá como objetivo la veeduría del cumplimiento de las nuevas tecnologías con la bioética y la protección de los DD. HH. Asimismo, dicho proyecto establece entre sus objetivos: “Fomentar la creación de Normas Oficiales Mexicanas, basadas en principios éticos, para el buen uso de la Inteligencia Artificial (IA) y la Robótica en beneficio de la sociedad mexicana, siempre respetando los derechos humanos, paridad entre los géneros, sin discriminación alguna por raza, origen étnico, religión, clase social o posición económica”.
Este tipo de iniciativas legislativas muestran que el Estado mexicano apoya el avance y el desarrollo de la IA en aras de lograr utilizar dicha tecnología para el beneficio de la sociedad, la economía y la innovación; sin embargo, también tienen claros los riesgos de esta tecnología y la ruta que se debe seguir para minimizarlos. Esta postura se ve reforzada gracias al apoyo de la UNESCO y diversos expertos en la tarea regulatoria.
El último caso que se analiza es el colombiano. Para ello, en primer lugar, se establecerán los antecedentes normativos de la IA; en segundo lugar, se observará la más reciente regulación; por último, se analizará el proyecto de Ley 059 de 2023 en busca de medidas que regulen aspectos de los riesgos de la IA y el mecanismo para garantizar los DD. HH.
El antecedente más antiguo sobre normatividad que regule la IA en Colombia lo encontramos en el CONPES-3975 (CONPES) publicado en 2019 y denominado ‘Política Nacional para la transformación digital e inteligencia artificial’. En este documento, que tiene como finalidad crear una política pública que abra las barreras del mercado para que el sector público y privado haga mayor uso de la IA en sus actividades cotidianas, se menciona que Colombia ocupa el “puesto 45 entre 160 países internacionales evaluados por el índice de preparación del gobierno para la IA” (Ministerio de tecnologías de la información y las comunicaciones [MinTIC].2022).
El antecedente más próximo a una regulación de la IA se encuentra en la resolución 1117 de 2022 publicada por el MinTIC que tiene por fin “establecer los lineamientos de transformación digital para las estrategias de ciudades y territorio [sic] inteligentes de las entidades territoriales”. Esta resolución no específica los tipos de riesgos probables de la IA y sus acciones tempranas para prevenirlos; por el contrario, se concentra en establecer lineamientos generales para que sean las entidades territoriales las que actúen al momento en que ocurra el evento dañino.
El último elemento en este análisis de la regulación de la IA es el proyecto de Ley 059 de 2023, actualmente en trámite ante el Congreso colombiano. En este proyecto, “la IA se entiende como la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico” (Proyecto de Ley 059, 2023, art. 2). Esta definición tiene diferencias técnicas frente a la que se utiliza en EE. UU., en donde se define como “Cualquier sistema artificial que ejecute tareas en circunstancias variables e impredecibles sin supervisión humana o que pueda aprender de la experiencia mejorando su rendimiento al exponerse a datos” (Ley Pública 115-232, 2018, Sec.238, Subíndice [g]), trae además de la anterior definición, otras cuatro más.
De la anterior comparación, se evidencia que al proyecto que cursa ante el Congreso le falta incorporar componentes técnicos, como las circunstancias variables e impredecibles de la IA, de donde precisamente se origina el riesgo de esta tecnología que afecta los DD. HH. Inclusive, al hacer una observación más detallada, se encuentra en la exposición de motivos que la definición de IA del artículo 2 del proyecto fue extraída de la definición de la Real Academia Española, organización no especializada en esta área de la ciencia (Jiménez, L. 2023).
Otro punto por resaltar del proyecto consiste en la creación de la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial. Entre las múltiples funciones descritas en el artículo 5 del proyecto, está la de “Avalar las solicitudes institucionales sobre desarrollos e implementación de Inteligencia Artificial”. al respecto, es dudoso el modo de proceder de esta comisión para dar avales a solicitudes sin contar con criterios objetivos, que puedan establecer que la IA es confiable o al menos de baja amenaza para los DD. HH. De nuevo, este enfoque contrasta con el de la legislación de EE. UU., que cuenta con criterios que distinguen un tipo de IA de otro, como el de la confiabilidad, la seguridad, explicable e interpretable, entre otros ya explicados antes en este artículo.
Por último, encontramos en el artículo 3 y el título III del proyecto los principios y criterios prevalentes sobre la IA, como la “prevalencia de la inteligencia humana sobre la IA” o la “preservación del ser humano y su entorno sobre la IA”. Si bien estos principios son fundamentales en toda sociedad, bajo la interpretación literal del texto del proyecto, no se otorga flexibilidad para el desarrollo de la IA en el mercado. De prevalecer estos principios, cualquier IA, dadas sus características de impredecibilidad y constante adaptación a las conductas humanas, generaría un riesgo perenne a los DD. HH., contraviniendo con ello, los principios prevalentes del proyecto. Por esta razón, crear criterios objetivos que permitan identificar una IA de otra, en relación con los tipos de riesgo que genere, resulta ser la mejor manera de garantizar los DD. HH.
Después de analizar estos tres casos de regulación de la IA y su protección a los DD. HH., es importante insistir en que, si bien las iniciativas son distintas entre sí y ninguna tiene la madurez suficiente como para establecer un precedente internacional claro, demuestran que hay un camino y un propósito claro que eventualmente definirá una regulación y protección fuerte a los DD. HH. en la utilización de la IA.
El desarrollo y avance exponencial y acelerado de la IA exige su urgente regulación, no sólo para afrontar las violaciones a DD. HH. que se dan actualmente por la utilización de esta tecnología, sino también para prevenir las que puedan ocurrir en el futuro.
A pesar de las diferencias, las iniciativas más interesantes identificadas en los tres casos estudiados son la clasificación de la IA según distintos niveles de riesgo (en el caso de EE. UU.) y la creación de comisiones veedoras que supervisen la utilización y desarrollo de esta tecnología, protegiendo los DD. HH. (como proponen México y Colombia).
Dada la novedad de la aplicación amplia de la IA, es claro que queda un largo camino por recorrer y mucho que aprender en la regulación de los usos de esta tecnología con el fin de proteger los DD. HH. Se necesita desarrollar una mayor experticia en el tema y este proceso se puede acelerar con el acompañamiento internacional (en el caso de México, por ejemplo) y con la adopción de los principios de la bioética.
Finalmente, es necesario hacer énfasis en que el desarrollo y la utilización de la IA para el beneficio de la humanidad es algo que se debe incentivar; sin embargo, esto se debe hacer dentro de un marco de ética y responsabilidad para que realmente reporte un beneficio a la humanidad. Esta responsabilidad recae tanto en los gobiernos nacionales como en la comunidad internacional, en un marco de cooperación, aprendizaje y experticia.
Arteaga, J. R. (septiembre, 2023). La promesa de la inteligencia artificial en México: 20 líderes de esta tecnología. Nuestra Revista, Forbes México. https://www.forbes.com.mx/la-promesa-de-la-inteligencia-artificial-en-mexico/
Breve historia visual de la inteligencia artificial. (02 de diciembre de 2020). National Geographic España. https://www.nationalgeographic.com.es/ciencia/breve-historia-visual-inteligencia-artificial_14419
¿Cómo funciona el sistema bipartidista en Estados Unidos?. (s.f.). Whitehouse.es. https://whitehouse.es/blog/como-funciona-el-sistema-bipartidista-en-estados-unidos
Congreso de la República de Colombia. (1 de agosto de 2023). Proyecto de Ley por medio del cual se establecen los lineamientos de política pública para el desarrollo uso e implementación de Inteligencia Artificial y se dictan otras disposiciones. [Proyecto de Ley 059 de 2023]. http://leyes.senado.gov.co/proyectos/images/documentos/Textos%20Radicados/proyectos%20de%20ley/2023%20-%202024/PL%20059-23%20Inteligencia%20artificial.pdf
Congreso Federal de los Estados Unidos. (13 de agosto de 2018). Jhons S. Mccain National Defense Authorization Act for Fiscal Year 2019. [Ley Pública 115-232]. https://www.congress.gov/115/plaws/publ232/PLAW-115publ232.pdf
Congreso Federal de los Estados Unidos. (27 de diciembre de 2020). División U. [Título I]. Consolidated Appropiations Act. [Ley Pública 116-260]. https://www.congress.gov/116/plaws/publ260/PLAW-116publ260.pdf
Congreso Federal de los Estados Unidos. (1 de enero de 2021). División E. [Sección 5001]. William M. (MAC) Thornberry national defense authorization act for fiscal year 2021. [Ley Pública 116-283]. https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210
Congreso Federal de los Estados Unidos. (23 de julio de 2023). AI leadership to enable accountable deployment act. [Proyecto de Ley S.2293]. https://www.congress.gov/bill/118th-congress/senate-bill/2293/text?s=6&r=6&q=%7B%22search%22%3A%5B%22Artificial%22%2C%22Intelligence%22%5D%7D
Corona, R. (17 de septiembre de 2021). Derechos humanos con IA. Grupo Milenio. https://www.milenio.com/opinion/ricardo-corona/opinion-fundada/derechos-humanos-con-ia
Departamento Nacional de Planeación [DNP]. (8 de noviembre de 2019). CONPES 3975. Política nacional para la transformación digital e inteligencia artificial. https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/3975.pdf
Derechos Humanos. Organización de las Naciones Unidas [ONU]. https://www.un.org/es/global-issues/human-rights
Diputado Ignacio Loyola. Iniciativa Legislativa “Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica” (mayo, 2023). Gaceta Parlamentaria, Miércoles 24 de mayo de 2023 / LXV/2SPR-5-3226/135000
Duffy, C. & Ramishah, M. (18 de abril de 2023). Elon Musk advierte que la IA podría causar la “destrucción de la civilización” aunque invierte en ella. CNN International. https://cnnespanol.cnn.com/2023/04/18/elon-musk-advierte-ia-podria-causar-destruccion-civilizacion-trax/
Echavarría, J.D. & Garcés, J.C. (1 de agosto de 2023). Proyecto de Ley 059 de 2023. Congreso de Colombia. http://www.secretariasenado.gov.co/legibus/legibus/proyecto_ley_S0059_2023_legislatura_2023_2024.html
Executive Office of the President. (14 de febrero de 2019). Maintaining American Leadership in Artificial Intelligence. [Orden ejecutiva 13859]- Federal Register. https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence
Executive Office of the President. (12 de agosto de 2020). Promoting the use of trustworthy artificial intelligence in the federal government. [Orden ejecutiva 13960]. Federal Register. https://www.govinfo.gov/content/pkg/FR-2020-12-08/pdf/2020-27065.pdf
Fernández, L. (junio, 2023) Regulación ética de la IA en México, ¿qué dice la iniciativa y qué debería incluir? LexLatin. https://lexlatin.com/opinion/regulacion-ia-mexico-que-dice-etica
Inteligencia Artificial Acuñada en Dartmouht (octubre, 2022). Dartmouth College. https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth
ISO31000:2018. (Febrero de 2018). Organización Internacional de Normalización [ISO]. https://www.iso.org/standard/65694.html
Jabbour, G. (16 de junio de 2023). Mareas normativas: así es como se está regulando la inteligencia artificial. Expansión. https://expansion.mx/tecnologia/2023/06/16/regulacion-inteligencia-artificial-en-el-mundo#:~:text=Solo%20hasta%20enero%20de%202023%2C%20NIST%2C%20una%20agencia,confiable%20y%20responsable%20de%20los%20sistemas%20de%20IA
Jiménez, L. (10 de abril de 2023). ¿Es momento de regular la inteligencia artificial en Colombia?. Asuntos:legales. https://www.asuntoslegales.com.co/analisis/luisa-fernanda-jimenez-mahecha-3586461/es-momento-de-regular-la-inteligencia-artificial-en-colombia-3586435
Los 10 hitos más importantes de la inteligencia artificial (14 de septiembre de 2015). BBC, News Mundo. https://www.bbc.com/mundo/noticias/2015/09/150914_tecnologia_inteligencia_artificial_hitos_10_turing_asimov_amv
Metz, C. (26 de agosto de 2018). Artificial Intelligence is now a Pentagon priority, will Sillicion Valley help?. The New York Times. https://www.nytimes.com/2018/08/26/technology/pentagon-artificial-intelligence.html
Ministerio de Tecnologías de la Información y las Comunicaciones [MinTIC]. (6 de abril de 2022). Resolución 1117 de 2022. Por la cual se establecen los lineamientos de transformación digital para las estrategias de ciudades y territorios inteligentes de las entidades territoriales, en el marco de la Política de Gobierno Digital. https://normograma.mintic.gov.co/mintic/docs/pdf/R_MTIC_1117_2022.pdf
NIST. (s.f.). About Us. https://www.nist.gov/about-nist
NIST. (Enero de 2023). Marco de gestión de riesgos de inteligencia artificial. [AI RMF 1.0]. Página web oficial. https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
Ordoñez, A. (16 de agosto de 2023). Los grandes riesgos de la inteligencia artificial para la humanidad y para las empresas. Cesce. https://www.cesce.es/es/w/asesores-de-pymes/riesgos-inteligencia-artificial#:~:text=16%20ago%202023-,Los%20grandes%20riesgos%20de%20la%20inteligencia%20artificial%20para%20la%20humanidad,trabajadores%20y%20generadora%20de%20inestabilidad.
Página web oficial, ANIA ORG México https://www.ania.org.mx/
Presidencia de la República EPN (enero, 2018) Inteligencia Artificial en México. Blog de la página web oficial del Gobierno de México. https://www.gob.mx/epn/es/articulos/inteligencia-artificial-en-mexico
Real Academia Española. Inteligencia Artificial. Diccionario de la Lengua Española, 23ª.ed. https://dle.rae.es/inteligencia?m=form#2DxmhCT
Redacción BBC. (29 de marzo de 2023). La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser “una amenaza para la humanidad”. BBC. https://www.bbc.com/mundo/noticias-65117146
Sánchez, C. (13 de agosto de 2017). Hablamos con el padre de la Roomba: así logró vender 18 millones de aspiradoras robóticas. El confidencial. https://www.elconfidencial.com/tecnologia/2017-08-13/padre-roomba-robot-espia-aspirador_1428064/
Vélez. A. (13 de enero de 2021). Estados Unidos crea oficina de inteligencia artificial. Digitaltrends. https://es.digitaltrends.com/noticias/estados-unidos-crea-oficina-inicaitiva-nacional-inteligencia-artificial/#:~:text=%E2%80%9CLa%20oficina%20est%C3%A1%20a%20cargo%20de%20supervisar%20e,actores%E2%80%9D%2C%20se%C3%B1al%C3%B3%20la%20Casa%20Blanca%20en%20un%20comunicado.
Zamarrón, I. (agosto, 2023) ¿Dónde se encuentra México frente a la inteligencia artificial? Unesco hará diagnóstico. Nuestra Revista, Forbes México https://www.forbes.com.mx/donde-se-encuentra-mexico-frente-a-la-inteligencia-artificial-unesco-hara-diagnostico/
Valeria Facio-Lince González
valeria.gonzalez02@est.uexternado.edu.co
Jorge Luis Cifuentes Velandia
jorge.cifuentes02@est.uexternado.edu.co
Estudiantes
Derecho
ISSN ELECTRÓNICO: 2344-8431
ISSN IMPRESO: 0123-8779