Situemos los miedos en donde corresponde: en la estupidez humana y no en la inteligencia artificial.
En esta edición de la revista Zero abordamos uno de los temas que recibió mayor atención durante 2023: la Inteligencia Artificial (IA). Existen muchos malentendidos sobre esta tecnología digital y también hay numerosos aspectos en los que se han planteado posiciones encontradas sobre sus consecuencias sociales y el dudoso balance entre sus riesgos y sus beneficios. Los artículos de este número abordan temas amplios que tiene que ver con estas discusiones, desde la cultura, la educación, el género, hasta los más concretos asuntos del gobierno, la regulación y las relaciones internacionales.
Pero, antes de adentrarnos en esas especificidades, quisiera compartir una breve reflexión sobre dos aspectos generales relacionados con este tema: el primero, la delimitación del fenómeno que estamos estudiando; el segundo, el cuestionamiento sobre lo que nos depara el futuro.
¿Qué tan inteligente es la Inteligencia Artificial?
Con respecto al primer aspecto, los autores de esta edición se esforzarán por proveer varias definiciones de la tecnología denominada — equivocadamente en mi opinión — como IA. En efecto, esta herramienta se basa en la enorme capacidad de procesamiento de los computadores actuales y en la disponibilidad de gigantescos conjuntos y fuentes de datos digitales que pueden ser analizados por dichos computadores. A estas dos condiciones se suman los algoritmos, otra palabra clave para entender de qué estamos hablando: las instrucciones que dan los programadores a los computadores para que tomen esos datos masivos y saquen conclusiones a partir de estos, extrapolen, proyecten, hagan predicciones y análisis, que un cerebro humano o un computador equipado con software tradicional no podrían hacer. A este proceso que acabo de describir se le aplica el dudoso término de “Inteligencia Artificial”.
Sí, es cierto que ese proceso de análisis de datos simula un aspecto de la inteligencia humana, a saber, el aspecto lógico y racional que hasta donde sabemos nos diferencia, por su magnitud, de otros animales. Sin embargo, en la elección de esa expresión se generan buena parte de las tergiversaciones que se han dado en la discusión sobre el problema. Pues la inteligencia es una capacidad mucho más amplia que el procesamiento de datos. Se trata de la capacidad de entender las implicaciones de esos datos y de esas conexiones entre estos. De la capacidad de prever el efecto que una decisión va a tener en otras personas. De la empatía, el razonamiento emocional, la posibilidad de aspirar a cosas mejores y de imaginar e inventar lo que no existe. Ninguna de estas habilidades las tiene, estrictamente hablando, un algoritmo. Algunos añadirían, “no todavía”. Yo creo que no es posible que la lleguen a tener.
A esa eventualidad, todavía en el terreno de la ciencia ficción, se le denomina Inteligencia Artificial de tipo general. A las aún toscas herramientas analíticas que tenemos actualmente, se les dice por oposición, IA de tipo específico. Se las construye con mano de obra barata en el Sur Global, explotando a personas para que “entrenen” al algoritmo y le enseñen cuándo acierta y cuándo se equivoca. Por ese proceso de ensayo y error, se llega a sistemas que logran tareas como identificar lo que representan los bits de una imagen, de un sonido, incluías las voces humanas, de un video, de una base de datos sobre crimen, tráfico o patrones de consumo, o los bits que conforman el lenguaje escrito y la estructura gramatical de los copiosos idiomas que habitan el internet. Porque cualquier información que no esté digitalizada y en línea se escapa a los alcances del algoritmo, a no ser que se le carguen bases de datos privadas de manera más manual, como también puede ocurrir.
En suma, la delimitación de lo que constituye esta IA de tipo específico debe permitir que se zanjen algunas de las especulaciones más delirantes que se han presentado durante este año de auge de las tecnologías de generación de texto y de imagen, que se basan en un método predictivo. Este método se basa en el contenido de todos los textos e imágenes existentes en el internet, tanto de uso público como aquellos sujetos a derechos de autor y por los cuales se están presentando enormes batallas jurídicas en todo el mundo, además de huelgas y otras manifestaciones de justificada indignación. Es decir, sí hay consecuencias no deseadas y también problemas derivados de la utilización de la IA, pero no estamos ante el ocaso del ser humano frente al algoritmo ni frente a la singularidad.
¿Qué nos depara el futuro de la IA?
Todo esto nos lleva a la segunda cuestión y, por supuesto, cualquier respuesta a esa pregunta solo puede ser especulativa. Pero, en lo que respecta a la IA —tanto generativa como predictiva— es claro que estas tecnologías ya se volvieron parte del statu quo, del estado de cosas actual en todos los sectores de actividad.
Los Estados ya intentan regular y formular políticas públicas para acotar los posibles y probables daños que producen la utilización de herramientas de IA, tales como sesgos y discriminación, violación de derechos, desplazamiento laboral y eventualmente amenazas a la vida en este planeta. Sin embargo, esos esfuerzos de regulación siempre van rezagados frente a las innovaciones que el sector privado produce, llevado por el deseo de lucro.
En ese sentido, podemos hacer una predicción: la dicotomía no será entre la IA y la humanidad. Por el contrario, las batallas por la regulación de la IA son el nuevo capítulo del conflicto de la era neoliberal entre el interés colectivo de la humanidad y el interés particular de las grandes corporaciones; lucha que lleva perdida desde hace tiempo el interés común, como lo atestigua el estado del cambio climático. Entonces, en vez de entrar en pánico porque los robots nos van a dominar, deberíamos preguntarnos por qué no nos asusta el hecho de que las empresas ya nos dominan, ya nos explotan y ya están acabando con el hábitat, los derechos humanos, y otros factores fundamentales para nuestra supervivencia.
Así, espero que los artículos de este número amplíen la información con la que contamos para tomar decisiones políticas y económicas racionales, y que situemos los miedos en donde corresponde, es decir, para parafrasear una idea ya famosa, en la estupidez humana y no en la inteligencia artificial.
Carolina Isaza
Investigadora y escritora
caroisaza@gmail.com
ISSN ELECTRÓNICO: 2344-8431
ISSN IMPRESO: 0123-8779