Dan McQuillian: Resonancias entre la IA y los nuevos fascismos

Dan McQuillan con la portada de Resisting AI (2022). Fuente del retrato: https://www.gold.ac.uk/news/dan-mcquillan-ai/

______

Breve reseña de Dan McQuillan, 2022, Resisting AI. An Anti-fascist approach to Artificial Intelligence [Resistiendo a la IA. Una aproximación antifascista a la inteligencia artificial], Bristol University Press

José Pérez de Lama

El tema de la Inteligencia Artificial es el último hype [objeto de bombo publicitario], la última moda en el entorno digital. La aparición de ChatGPT (lanzado inicialmente en 2022), que entre otras cosas simula convincentemente escribir textos, por ejemplo académicos, fue un acontecimiento de gran impacto. Las Big Tech están introduciendo la IA en todo lo que pueden. El infame Trump con su corte de tech bros la ha convertido en un elemento principal de su acción política. Y cada día podemos leer en los medios corporativos media docena de artículos sobre sus pretendidas virtudes y sus presuntas capacidades cuasi-milagrosas. Tenemos la IA «hasta en la sopa». Una de las leyendas urbanas, así podríamos llamarla, promovida por los propios empresarios de la industria es que la IA «pronto» será más inteligente que los humanos y nos podrá sustituir, mejorándonos, en cualquier actividad, llevando quizá a una nueva era de la humanidad — o según este evangelio, a una nueva era de «poshumanidad». And so on (esto es, etcétera).

Frente a este panorama mediático-espectacular, se da también un movimiento crítico, seguramente minoritario, pero importante. Las críticas son múltiples. Ya avanzaba algo en un post anterior en este mismo blog: ver referencias al final. En Mastodon, una red distribuida alternativa a X-Tuiter, por ejemplo, hay una escena muy activa de crítica a la IA. Las críticas como digo son múltiples y serias: laborales, tanto por el entrenamiento de las IA con mano de obra explotada de países pobres, como por la automatización del trabajo intelectual para su mejor explotación (ver Pasquinelli); importantes críticas medioambientales por el consumo de agua y energía y materiales de los centros de datos (actualmente se estima que en EEUU, por ejemplo, asciende a un 4.5% por ciento de la energía total consumida, con la previsión de crecer geométricamente en los próximos años, cuando lo que deberíamos es estar decreciendo para el cambio climático), o críticas relativas al sesgo que incorporan las diferentes aplicaciones de carácter social que perjudica a las minorías de todo tipo. Entre otras. También son relevantes las críticas sobre los errores o «alucinaciones», la falta de fiabilidad podríamos decir, lo que se llama en inglés brittleness, cuando las cuestiones que tratan no encajan bien en el sistema de patrones en que se basa. Un libro que se publica en los próximos días, The AI Con [La estafa de la IA], de Emily Bender y Alex Hanna, parece que presentará un buen resumen de la críticas.

Junto con todas estas críticas me parece importante destacar la que subraya Dan McQuillan. Cuando publicó en 2022 el libro que aquí reseño, con su subtítulo «Una aproximación antifascista a la inteligencia artificial», lo de «antifascista» me pareció algo hiperbólico. Sólo tres años después, habiendo estudiado un poco sobre el asunto, y sobre todo, viendo efectivamente cómo el nuevo gobierno de los EEUU dice estar aplicándolo en lo que muchos pensamos que es un auténtico golpe de estado, la intuición de McQuillan no sólo me parece acertada, sino que la considero clave para tratar de entender de qué va la cosa.

______

El libro tiene dos partes principales, la primera de crítica de la IA; la segunda reflexionando sobre cómo podría ser una IA anti-fascista, basada en el apoyo mutuo y los cuidados. La segunda parte, a mi juicio, siendo interesante, está menos desarrollada. Los comentarios se centrarán en la primera.

McQuillan explica que su libro trata de la IA tal como es, de lo que hace ahora, sin entrar en las elucubraciones promocionales tan de moda sobre lo que podría hacer en el futuro.

A continuación, aún en la primera página, dice que no le parece adecuado hacer una crítica de la IA abstractamente, como si fuera una tecnología en medio de la nada, sin contexto. Expone que su análisis considera tanto [1] la tecnología en sí misma, como [2] el contexto social y las instituciones y empresas que la promueven y aplican, como [3] los valores o las ideologías que la impulsan. Esto lo describe diciendo que la IA que tenemos que pensar, y frente a la que habría que resistir, es un «aparato» — que nosotros también podríamos llamar también una construcción social, o en lenguaje guattariano una «máquina». El «aparato» de la IA realmente existente es el que nos interesa estudiar y considerar en nuestros juicios, plantea McQuillan. En abstracto, como lo plantean tantos, y como ocurre con tantas otras tecnologías, es más bien ocioso valorarla… O interesado.

El primer capítulo de esta primera parte trata de describir para no expertos los fundamentos conceptuales y computacionales de la actual IA — su estado en 2022, que es relativamente parecido al de 2025. Los capítulos de esta parte crítica «progresan» según los siguientes títulos Daños colaterales, Violencia [estructural] y Necropolítica, lo que nos dan una cierta idea del hilo argumental.

El libro es breve pero intenso, difícil de resumir, al menos para mí. Me centraré en tratar de explicar tan sólo un argumento que es el que me parece diferencial de McQuillan; y que no se encuentra a mi juicio tan claramente en otras obras. El argumento es el de que existe una «resonancia», uno de los términos que usa el autor, una afinidad o posible propensión a conectar las tecnologías de IA con las políticas autoritarias o fascistas. ¡Nada más y nada menos! La resonancia se da, cabría decir, especialmente en el uso de las tecnologías de IA aplicadas a problemas sociales. (En 2025 vemos que también se da en sus aplicaciones militares, algo que por la fecha de publicación del libro McQuillan no llegó a tratar; y que encajarían perfectamente con las cuestiones «necropolíticas», como estamos viendo de manera patente con las aplicaciones de la IA para el genocidio israelí en Gaza.)

McQuillan dice que no es un determinista tecnológico, o sea que para él esta asociación con las políticas fascistas o autoritarias no es absolutamente necesaria. Pero que la resonancia sí nos debe preocupar dados el «aparato» del que forma parte la IA en sus manifestaciones dominantes, el marco institucional de Silicon Valley y ahora la Casa Blanca y el auge global de la ultraderecha, y la ideología y los valores de la llamada «broligarquía», la oligarquía tecnológica basada en los Estados Unidos. Una ideología que han analizado muy descarnadamente, entre otras, Timnit Gebru y Émil Torres, en un texto que referenciábamos en un post anterior, y que la calificaban de supremacista blanca y eugenicista, entre otros bonitos adjetivos. En fin que esta asociación entre la IA, la cultura de Silicon Valley y el fascismo, que en 2022 McQuillan veía como una amenaza, en 2025 la estamos verificando como una realidad con la toma del estado en los EEUU por personajes como Elon Musk o Peter Thiel (de Palantir y otros), entre los más conocidos y poderosos.

¿Por qué dice McQuillan que la tecnología misma de la IA tiene esta virtualidad de ser usada en el desarrollo de políticas fascistas? Intentare modestamente explicarlo. Aunque como siempre, lo mejor será leer la obra original. La idea es que la tecnología en si misma tiende a multiplicar los problemas estructurales de nuestra sociedad (como las desigualdades sociales) y a reforzar las relaciones de poder existentes. ¿Por qué es así?

La clave para McQuillan, si lo entendí correctamente, estaría en el propio funcionamiento del deep learning, la tecnología dominante en la IA. El deep learning se basa en las llamadas redes neuronales, una serie de nodos conectados en redes a través de las cuales se hacen pasar los datos que se pretende tratar. Las redes neuronales serían un invento de los años 50 para el reconocimiento de patrones, que muy recientemente (2012) se ha conseguido hacer eficiente, debido, por un lado, a la ingente cantidad de datos «disponibles» y, por otro, al incremento de la capacidad de computación, caracterizada por el uso de las famosas tarjetas gráficas (GPU) de Nvidia agrupadas masivamente en los centros de datos.

Deep learning y redes neuronales: reconocimiento de patrones

Los dispositivos de deep learning se componen de sucesivas capas de redes neuronales, con posibles filtros intermedios y complejos procesos de afinamiento de los resultados, calibrado del peso de los nodos (weights), retropropagación, y otros, conocidos en conjunto como el entrenamiento de los dispositivos. El output final son patrones mediante los que el dispositivo organiza los datos introducidos. Eso se traduce también en optimizaciones y clasificaciones. McQuillan explica que lo que se produce en la relativa caja negra del proceso, millones de interacciones, no es un razonamiento que pueda ser verificado sino una predicción: una parte del set de datos se usa para entrenar las redes neuronales; una segunda parte sirve para validar los resultados, en un proceso de iteraciones sucesivas hasta conseguir el ajuste que los ingenieros estimen oportuno. Es un procedimiento asimilable a lo estadístico, analogía que sería mucho más evidente en el machine learning que sería la etapa precedente al deep learning. Se trataría, si nos vamos a sus usos sociales, de un procedimiento para clasificar, por ejemplo, personas que deban o no recibir ciertas ayudas sociales, o que deban acceder a ciertos tratamientos médicos. Es el procedimiento que más o menos reconocemos de las burocracias, pero reforzado y legitimado, y a la vez opacado, por la «inteligencia artificial».

El problema de los datos

Unas observaciones más en esta burda explicación. La materia primera de estas clasificaciones que se pretenden usar para la gestión social son los datos. Los datos, como sabemos son abstracciones numéricas de la realidad. El input de las redes neuronales son vectores o matrices (columnas y filas de números). La realidad tiene que cuantificarse, transformarse en parámetros y números, para poder ser tratada. Esta cuestión plantea diversos problemas, desde la adecuación de los datos que representan un cierto universo a la exclusión en estas representaciones de la riqueza, variedad y complejidad de la vida. Podríamos hablar con Esteva e Illich de la representación y acción sobre el mundo desde la razón (inteligencia) de la Modernidad, la burocracia y las máquinas, frente al sentir-pensar más propio de lo humano.

Dado que los datos de entrada se basan en el mundo tal como es, (tal como es, además, en el momento en que se generan los datos que sirven de base a los modelos) los patrones y clasificaciones que producirán los dispositivos de inteligencia artificial reproducirán ese mundo, según explica McQuillan, con sus problemas estructurales: desigualdades, relaciones de poder, racismo, discriminaciones de género, etc. Es en este sentido que el autor hace la crítica de que los dispositivos de inteligencia artificial aplicados a las cuestiones sociales refuerzan los problemas «estructurales» y las relaciones de poder existentes.

A-cientifismo

McQuillan señala también cómo a pesar del hype en torno a su carácter tecnológico, la inteligencia artificial en su práctica actual no es una práctica científica, en el sentido tradicional del término. Las ciencias se caracterizan por su transparencia podríamos decir en cuanto a los procedimientos ya sean lógicos o experimentales a través de los cuales llegan a producir sus «verdades». Otros científicos pueden revisar esos procedimientos y verificar de alguna manera hasta que punto son correctos. En el caso de la IA, el relativo caja-negrismo de las redes neuronales no permite este tipo de comprobación. Como dijimos, en palabras de McQuillan, las redes neuronales no desarrollan razonamientos que puedan ser revisados sino opacos procedimientos maquínicos que ofrecen «predicciones». No sé hasta qué punto es adecuado, pero me gusta compararlo con una nueva astrología.

Solucionismo tecnológico

Un resumen parcial de la crítica podría hacerse en torno a la idea de solucionismo tecnológico, la pretensión de que los problemas de nuestras sociedades pueden resolverse con soluciones tecnológicas. Este planteamiento supone que se trata de problemas técnicos en lugar de problemas políticos, sirviendo así para obviar cualquier alternativa de crítica y de transformación cultural, social y política.

______

No me parece que exista aún un artículo breve del autor en que se planteen estas críticas que hace en Resisting AI. Y aunque uno desearía que mucha gente leyera el libro ya sabemos que las cosas no ocurren así. No sé si las ideas de McQuillan se pueden formular de una manera sencilla y clara, como por ejemplo ocurre con el consumo de energía, agua y otros recursos de los centros de datos, que me parece que están siendo muy bien estudiados y son mucho mejor comprendidos que estas otras críticas de carácter menos transparente (véanse por ejemplo los trabajos de Ana Valdivia y el colectivo TuNubeSecaMiRío). Estaría bien que el propio McQuillan hiciera una «Introducción a Resisting AI», o como dirían en inglés un «Resisting AI 101», para hacer más accesible sus ideas y poder avanzar más eficazmente en la resistencia frente a esta nuevas formas de fascismo tecnológico. De momento esto es mi modesta contribución al asunto que me parece otra circunstancia más de alarma y horror en el mundo actual.

Decomputing

En los últimos meses McQuillan anda elaborando en sus intervenciones públicas la propuesta del decomputing o descomputación, como respuesta a la pretendida imposición de la IA en todas las esferas de la vida. La descomputación sería el resultado de poner en diálogo el decrecimiento con la reducción de la computación en la cultura y la economía globales, y estaría relacionada con otras ideas y movimientos como el permacomputing, la simple web o la computación convivencial. Quedamos pendientes de esta idea. Y quizás escriba algún post sobre el tema próximamente.

______

Referencias

En este mismo blog: 2025, Pasquinelli: Pensar la «IA» como relación social, en: https://arquicontable.nam42.cc/pasquinelli-pensar-la-ia-como-relacion-social/

Timnit Gebru & Émil P. Torres, 2024, The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence, en: https://firstmonday.org/ojs/index.php/fm/article/view/13636

Emily Bender & Alex Hanna, 2025, The AI Con, How to Fight Big Tech’s Hype and Create the Future We Want

Ana Valdivia (30 Oct 2024): The supply chain capitalism of AI: a call to (re)think algorithmic harms and resistance through environmental lens, Information, Communication & Society, en: https://doi.org/10.5210/fm.v29i4.13636

Tu Nube Seca mi Río. Impacto ecosocial de los centros de datos, [2025], en: https://tunubesecamirio.com/


Publicado

en

,

por

Comentarios

Leave a Reply

Your email address will not be published. Required fields are marked *