El Catoblepas · número 207 · abril-junio 2024 · página 10
La dialéctica Sistema-Mundo de la Vida como marco para entender el efecto de la Inteligencia Artificial
Juan de la Cruz Berlanga
Comunicación defendida en los 28 Encuentros de Filosofía, Filosofía, inteligencia artificial y nuevas tecnologías, Salamanca, 29 septiembre-1 octubre de 2023
La Inteligencia Artificial está generando un impacto tanto en la opinión pública como en la actividad normativa, regulatoria y deliberativa de organismos nacionales e internacionales, tanto públicos como privados. En este documento tratamos de analizar el porqué de este impacto empleando la Teoría de la Acción Comunicativa de Habermas y observando el impacto que esta tecnología tiene en la comunicación a través de Internet.
Cuando Jürgen Habermas comienza a profundizar en la Teoría Crítica varios objetivos ambiciosos alineados con la Escuela de Frankfurt. Por un lado, rescatar el proyecto ilustrado, cuestionado por los resultados observados tras la II Guerra Mundial, el Gulag, el proceso de descolonización o la marginación de las minorías. Por otro, revisar la teoría marxista, explicando, igualmente, porque no se había alcanzado la emancipación y, sin dejar por ello, ser en algunos aspectos válida y necesaria para la ciudadanía{1}.
Para ello se fundamenta en sociólogos (Durkheim, Webber, Parsons) y filósofos (Husserl, Marx, Hegel, Kant) tratando de complementar los puntos de vista sobre la Historia y la evolución de las sociedades de unos y otros.
Considera la dialéctica como un proceso en la Historia tomando este concepto de Hegel y Marx, pero en lugar de basarse en las clases sociales o en las ideas, emplea una interpretación del Mundo de la Vida (Lebensbelt) de Husserl{2} y lo hace entrar en dialéctica con los Sistemas sociales de Parsons. El Mundo de la Vida lo entiende como el trasfondo social y cultural que posibilita la cosmovisión a un individuo dotándole de un contexto para la interpretación del lenguaje. Es en este último punto donde se apoya de cara a realizar el llamado giro lingüístico de la filosofía de la segunda mitad del siglo XX{3}. También es donde emplea las tesis de Webber y Durkheim acerca de la cultura en la conformación de sociedades.
Este Mundo de la Vida, más o menos espontáneo, que se da en todas las sociedades es sistematizado a lo largo de la Historia. Estos sistemas sociales son creados por la racionalidad orientada al cumplimiento de objetivos (racionalidad económica) y Habermas los clasifica en dos: el sistema administrativo (Estado) y el sistema económico (empresas, capital). Ambos sistemas actúan en sociedades donde se da un Mundo de la Vida que puede ser deshecho o diezmado, dando lugar a “patologías sociales” en sus individuos, incapaces de encajar en la contradicción entre a las que se ven sometidos al perder su marco para interpretar hechos lingüísticos. Esto explicaría el impacto social y ético negativo que han tenido todos los sistemas sociopolíticos hasta su época.
Para Habermas, “la piedra de clave” que produce estos problemas es la racionalidad orientada a objetivos. Es por ello que comienza su Teoría de la Acción Comunicativa con un análisis del concepto de racionalidad reorientándola en lugar de hacia el cumplimiento de objetivos hacia la realización de consensos entre sujetos.
Tanto el Sistema administrativo como el económico, desde la Ilustración, no contemplaron estos aspectos vinculados al Mundo de la Vida, o no al de todo colectivo donde actuaban, y condicionaron a los individuos mediante el lenguaje (actos de habla{4}). En concreto el sistema administrativo mediante el ejercicio del poder (actos de habla declarativos) o, en el caso del poder económico, mediante la “deslengüistización” que supone el empleo del dinero{5}.
Mediante esta teoría Habermas debatió con los filósofos ubicados en la Posmodernidad{6} y con los cibernetistas durante el llamado momento cibernético{7}. Con los primeros, argumento que por medio de la existencia y desarrollo de estos consensos sí era posible encontrar verdades morales, culturales y sociales válidas. Con los segundos, por estar enfocados en la totalidad hacia el Sistema y la orientación a objetivos, sin contemplar el Mundo de la Vida.
Y es en este último punto donde entra la cuestión de la Inteligencia Artificial.
La Inteligencia Artificial se fundamenta en la filosofía cibernética de Wiener{8}, esto es, una racionalidad orientada al cumplimiento de objetivos. Dado un objetivo medible a alcanzar, la Inteligencia Artificial ajusta sus parámetros para alcanzarlo. Esa es, en alto nivel, la lógica detrás de una red neuronal, base de la tecnología actual de procesamiento de lenguaje natural (NLP por sus siglas en inglés) o reconocimiento de imágenes. La Inteligencia Artificial se desarrolla, implementa y despliega con una lógica de orientación a objetivos{9}.
Esta capacidad de reconocimiento de imágenes y lenguaje, así como la de, a su vez, generarlos, hace que pueda estudiarse su aplicación o no dentro de la dialéctica que estableció Habermas. Pues Habermas centró su crítica a la cibernética aplicada a los sistemas sociales, pero no a los sistemas tecnológicos dado que la Inteligencia Artificial de la época no estaba al nivel de madurez de la actual y se conceptualizaba más en la línea de entes aislados-robóticos que como algo que operase en una Internet todavía en sus albores.
Y es que, por otro lado, la Inteligencia Artificial forma parte de un Sistema sociotécnico, esto es, su utilización como sistema técnico está hibridada en el marco de un Sistema social: una administración pública o estatal, una organización empresarial. La Inteligencia Artificial no es un ente aislado, sino que se diseña, desarrolla e implementa y opera por un sistema social humano, sin perjuicio de que este sea negligente y no se asegure frente a la realización de acciones no deseadas de forma autónoma.
La preocupación por el impacto de la Inteligencia Artificial en la sociedad, hoy en día, es conocida. Sin entrar en obras divulgativas como Armas de destrucción matemática (O’Neil 2016), Sapiens (Harari, 2018) o El Filtro Burbuja (Pariser, 2017), hay iniciativas de amplio calado que van desde la reglamentación de la Inteligencia Artificial en la Unión Europea{10}, a la Future of Artificial Intelligence Act del Congreso de Estados Unidos (2017){11} o los principios de Beijing (2019){12}; los marcos éticos para la Inteligencia Artificial de UNESCO{13} o la OCDE{14}; la estandarización orientada a la ética de la IEEE{15} o la ISO{16} o, en el ámbito del sector privado, el foro de Asilomar{17} o las distintas iniciativas individuales de cada empresa{18} {19}. En general, el llamado consenso de Harvard{20}, observa unos puntos en común en todos ellos que es necesario considerar para que no se vean afectados:
– Los derechos humanos
– La privacidad
– La ausencia de sesgos
– La sostenibilidad ambiental
– La transparencia en la toma de decisiones
– La rendición de cuentas si se cometen aciertos o errores en las decisiones que tome el automatismo
– La seguridad
– El control humano en la última decisión
No velar por estas cuestiones genera problemas que van desde la destrucción de sectores económicos, a riesgos para la vida humana, la propiedad intelectual o la discriminación por razones de identidad.
Pero, ¿pueden explicarse estas nuevas “patologías sociales” asociadas a la Inteligencia Artificial, empleando el término de Habermas, explicarse mediante su dialéctica?
Sin duda Internet, donde más frecuentemente actúa la Inteligencia Artificial, ha generado Mundos de la Vida conforme a la definición que emplea pero, ¿afecta la Inteligencia Artificial en ellos como sistema orientado a objetivos?
De dos maneras:
Una primera, modificando los actos de habla realizados en Internet por personas, a modo de canal. De este modo mediante el tipo “motores de recomendación” pueden modificar qué le llega a quién, generando con ello las conocidas como cámaras de eco{21}.
Una segunda, a nuestro juicio más interesante, es generando ella misma sus propios actos de habla. ¿Cómo se produciría este fenómeno? ¿Actúa realmente la Inteligencia Artificial sin poseer intencionalidad? ¿Entra en contradicción con Searle, uno de los co-autores de la Teoría de los Actos de Habla, que sitúa que para que existan es necesaria intencionalidad?
A nuestro juicio no. Y empleamos el mismo concepto que da Searle a propósito de una intencionalidad colectiva en su Creando el mundo social (2017){22}. Mediante este concepto Searle nos sitúa en que existe la posibilidad de intencionalidad colectiva cuando se actúa en conjunto, siendo conscientes de que se está actuando en conjunto. Se pasa de un “Yo”, a “Nosotros”.
La Inteligencia Artificial puede funcionar de este modo, trasladando los mensajes del colectivo que tiene detrás. Pongamos el siguiente ejemplo basado en un caso real:
Navegando por Internet, una persona tiene interés en obtener un crédito al consumo para comprarse un vehículo nuevo. Entra en una página de un banco y curiosea y, finalmente, la abandona y pasa a otra. Como el banco tiene registro de quién es le envía un correo electrónico proponiéndole un crédito a una determinada tasa. Al no interesarle las condiciones esta persona sigue a lo suyo pero, la Inteligencia Artificial no decae en su intento, y vuelve a enviarle otro correo electrónico con mejores condiciones. Finalmente el sujeto acepta, contestando al correo, y terminando de cumplimentar la información en la página web con lo que minutos más tarde tiene en su cuenta el dinero que necesitaba.
Este proceso lo podría haber llevado a cabo un agente bancario, pero lo hace de forma automática una Inteligencia Artificial. Se denomina agente bancario porque actúa, pero de nuevo, no actúa solo, sino que lo hace ejecutando las pautas que le da su organización, en este caso el banco. Estas pautas van desde el protocolo inicial de contacto con el cliente potencial, al conocer los objetivos marcados de ese mes que debe cumplir, qué condiciones puede usar y, en definitiva, una orientación similar a la que puede tener el algoritmo de la Inteligencia Artificial anterior. En ambos casos se produce una obligación legal, real y tangible, entre la persona y el banco; pero en el primer caso se ha llevado a cabo por una Inteligencia Artificial.
Es decir, tenemos la realización de un acto de habla vinculante entre un colectivo-sistema social, el banco, y un interlocutor, que ha sido llevado a cabo mediante un automatismo capaz de generar y rectificar ante el comportamiento verbal, y no verbal, del sujeto.
La Inteligencia Artificial actúa aquí como canal de una intencionalidad colectiva.
Tenemos pues un Sistema socio-técnico capaz de influir mediante el habla a un Mundo de la Vida. Quedaría por ver si las patologías asociadas a la Inteligencia Artificial son fruto de esta orientación a objetivos sin contemplarlo y, plantearnos si es el caso, la posibilidad del engarce de las Inteligencias Artificiales realizadas por administraciones públicas o compañías privadas y los Mundos de la Vida en los que actúan.
Y es que algunos problemas de la Inteligencia Artificial, como cuando se colecta información bajo derechos de autor para realizar una obra nueva, se vulnera la privacidad, se actúa sin considerar los sesgos de género, raza, identidad sexual o religiosa, se realizan deep fakes o se incomunica mediante filtros burbuja para lograr clickbait, se está produciendo una colisión entre el Mundo de la Vida en el que ancla su lenguaje un individuo y el sistema socio-técnico intermediado por la Inteligencia Artificial.
No podemos finalizar nuestra disertación sin considerar las consecuencias que para la filosofía política tendría la consideración de una Inteligencia Artificial como canalizadora de una intencionalidad comunicativa colectiva (acto de habla colectivo). Y es que, por ejemplo, la promulgación de una Ley es exactamente esto pero realizada por un Sistema social. ¿Cabría la posibilidad de actos de habla de este tipo, u opiniones sobre temáticas, realizadas por una Inteligencia Artificial que estuvieran basadas en un conjunto de datos de entrenamiento de colectivos más amplios?
En el caso que veíamos del agente bancario, la Inteligencia Artificial podría haber sido entrenada con los correos electrónicos que envía el banco a sus clientes proponiéndoles créditos y sus condiciones. ¿Podría esto generalizarse a un abanico mayor de cuestiones y alimentarlo con datos de un colectivo más amplio, por ejemplo una sociedad o un subconjunto de la misma?
Si fuera este el caso podríamos encontrarnos en que aquellos sistemas socio-técnicos legislativos, que fuesen capaces de hibridarse con una Inteligencia Artificial entrenada de este modo, adquirieran una capacidad representativa mayor. No se trataría en última instancia de sustituir, sino de hibridar y ver mecanismos y fórmulas para que el uso de la Inteligencia Artificial asegurara una mejor Democracia, siempre ligado al Mundo de la Vida en el que actúa.
Esto es, siguiendo el sistema filosófico de Habermas, profundizar en las necesidades de la democracia deliberativa.
Conclusión
Para poder analizar en encaje de la Inteligencia Artificial en la dialéctica de Jürgen Habermas es necesario entender los vínculos de su actuación en Internet con el del Mundo de la Vida de quienes lo emplean, así como considerar la manera en que esta tecnología intermedia en una comunicación: desde canalizando actos de habla colectivos a restringir o potenciar actos de habla individuales. El hecho de entender la Inteligencia Artificial como un canal para los actos de habla colectivos tiene implicaciones en el ámbito en cómo conformamos sistemas, especialmente aquellos dotados de una representatividad o legitimidad. Derivado de esto conviene tener en cuenta sus implicaciones éticas.
——
{1} Habermas, J. (1981). La Teoría de Acción Comunicativa. Madrid: Trotta.
{2} Husserl, E. (1936). La crisis de las ciencias europeas y la fenomenología trascendental. México: Folios (1984).
{3} Merchán, J. S. (2013). Del giro lingüístico al giro narrativo: Rorty, la contingencia del lenguaje y la filosofía como narrativa. Revista Grafía-Cuaderno de trabajo de los profesores de la Facultad de Ciencias Humanas. Universidad Autónoma de Colombia, 10(1), 127-147.
{4} Austin, J. L. (1990). Cómo hacer cosas con palabras. Barcelona: Paidós.
{5} Cortina, A. (1995). Claves de la razón práctica. In Ética empresarial y opinión pública (pp. 48-75).
{6} Kelly, M. (Ed.). (1994). Critique and power: recasting the Foucault/Habermas debate. MIT press.
{7} Harste, G. (2021). The Habermas-Luhmann Debate. Columbia University Press.
{8} Wiener, N. (1948). Cybernetics or Control and Communication in the Animal and the Machine. MIT Press.
{9} Russell, S. &. (2005). Agentes Inteligentes. In Inteligencia Artificial: Un Enfoque Moderno (pp. 37-67). Madrid: Pearson Educación.
{10} European Comission. (2020). White Paper on Artificial Intelligence - and european approach to excellence and trust. Retrieved from https://digital-strategy.ec.europa.eu/en/consulations/white-paper-artificial-intelligence-european-approach-excellence-and-trust
{11} GovTrack.tus. (2017). H.R. 4625 -- 115th Congress: FUTURE of Artificial Intelligence Act of 2017. Retrieved from https://www.govtrack.us/congress/bills/115/hr4625
{12} Beijing AI Principles. (2019). Datenschutz Und Datensicherheit.
{13} UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf000381137
{14} Council of Artificial Intelligence of the OCDE. (2019). Recommendations. Retrieved from https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449#mainText
{15} The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (2017). Ethically Alligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, Version 2. Retrieved from http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html
{16} Zhao, W. (2021). Artificial Intelligence and ISO 26000 (Guidance on Social Responsability). In AI and Learning Systems-Industrial Applications and Future Directions. IntechOpen.
{17} Future of Life Institute. (2017). Asilomar AI Principles. Retrieved from https://futureoflife.org/ai-principles
{18} Id. lib.
{19} IBM Corp. (2019). Everday Ethics for AI. Retrieved from https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf
{20} Fjeld, J. A. (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approached to Principles for AI. Berkman Klein Center Research Publication No. 2020-1.
{21} Pariser, E. (2011). The filter bubble: How the new personalized web is changing what we read and how we think.Penguin.
{22} Searle, J. R. (2014). Creando el mundo social. La estructura de la civilización humana.PAIDÓS Básica.