Vigilar y predecir: el nuevo gobierno de los algoritmos

Surveil and Predict: The New Governance of Algorithms

Sandro Luce

Università degli Studi di Salerno

sluce@unisa.it 0000-0002-8366-0770

Recibido: 10 de mayo de 2025 | Aceptado: 16 de junio de 2025

IUS ET SCIENTIA • 2024 • ISSN 2444-8478

Vol. 11 • Nº 1 • pp. 211-219

https://dx.doi.org/10.12795/IESTSCIENTIA.2025.i01.10

I. Prólogo. La Epidemia

A lo largo de sus investigaciones, Michel Foucault destacó cómo la característica principal del poder soberano, es decir, la soberanía absoluta del derecho a la vida y a la muerte se desvanece con el gobierno biopolítico, centrado en cambio, en la gestión calculadora de los procesos vitales, y capaz de eliminar ese conjunto de mediaciones que en la modernidad se interponían entre la esfera de la vida y la del poder. Un gobierno inmanente de los hombres, en lugar de un reino sobre los hombres, que se estructura a través de un complejo de dispositivos normativos y normalizadores, disciplinarios y reguladores, y a un conjunto de regímenes de veridicción asociados a ellos, destinados a actuar dirigiendo las conductas de sujetos asumidos como libres.

Los análisis foucaultianos sobre el gobierno biopolítico y los mecanismos asociados de medicalización de la sociedad han sido ampliamente retomados con motivo de la pandemia del Covid-19. En esta fase, hemos sido testigos de un aplastamiento de la política sobre la vida, sobre su protección y su asunción, acompañado por el surgimiento simultáneo de razones de orden de emergencia que algunas lecturas –piénsese en Agamben– han interpretado como el intento de los poderes dominantes de instaurar un estado de excepción destinado a la suspensión de las garantías constitucionales y de las libertades individuales (Agamben, 2020). Desde esta perspectiva, la transformación de nuestra democracia en un sentido gubernamental habría tenido lugar a través de un proceso de normalización del estado de excepción, expresión de la inextricable relación entre la arbitrariedad y la necesidad de la decisión política, sin la cual no existiría soberanía ni dimensión jurídico-política. Esto dio lugar a un debate que –especialmente en Italia– se ha centrado en las medidas de seguridad inducidas por el carácter de emergencia de la gestión de la pandemia y en cómo estas disposiciones normativas limitaron considerablemente las libertades individuales, precisamente a través de una suspensión del derecho con el fin de mantener en vida a la mayoría de la población.

El resultado de esta política “sobre” y “para” la vida ha sido reestructurar la forma comunitaria sobre la base de la prohibición y el distanciamiento físico, en lugar de la cooperación y la solidaridad, siguiendo una lógica inmunitaria que, al defender la vida, termina por negarla (Esposito, 2022), como lo ha demostrado la respuesta médico-sanitaria a escala global que inevitablemente ha dejado fuera de esta protección a amplios sectores de la población mundial. No es casualidad que solo en raras ocasiones se haya planteado la cuestión relativa a los mecanismos de apropiación del conocimiento a través de dispositivos jurídicos –en este caso, las patentes– y la necesidad de abrir un frente para apoyar el uso común de este conocimiento, limitando los mecanismos de apropiación excluyentes. Al mismo tiempo, la difusión en la opinión pública de temas relacionados con el cuidado –no solo de los sujetos más o menos frágiles, sino de todo el planeta–, la cooperación y la interdependencia, que se presentaron con toda su urgencia e inmediatez, parece hoy un vago recuerdo ante las imperiosas necesidades del Capital de reactivar su proceso de crecimiento y acumulación. Es un relanzamiento que, como ha ocurrido con frecuencia en el pasado, ha tenido lugar no solo a través de la descalificación y marginación de discursos críticos, sino también mediante la incorporación de esas mismas críticas (Boltansky, Chiapello 2011)[1].

Desde mi punto de vista, aunque la crisis pandémica haya confirmado la perspectiva biopolítica de inspiración foucaultiana, de la misma manera también ha revelado una serie de aceleraciones que han favorecido cambios importantes en las formas de gobierno y producción de subjetividades. Hemos asistido a un fuerte impulso hacia la digitalización que, por razones diversas –necesidades de rastreo del contagio, nuevas posibilidades de conectividad para el trabajo remoto, una gran intensificación de las compras en línea, etc.–, ha producido un cambio relevante en nuestros hábitos y, sobre todo, ha favorecido una profunda reconfiguración de las subjetividades, cada vez más descompuestas en cifras y datos para ser analizadas y determinar, a través de predicciones algorítmicas, comportamientos futuros. Los nuevos dispositivos algorítmicos están revelando una capacidad inédita para intervenir en los gobernados, mediante instrumentos automáticos de control inmaterial y de inducción de comportamientos, que terminan influyendo profundamente en la posibilidad de construir procesos de subjetivación libres o lo menos gobernados posible, contradiciendo los supuestos anarco-libertarios que caracterizaron las primeras fases de Internet y luego de la World Wide Web (Stallman, 2010; Boyle, 2003). El objetivo de este análisis es, por lo tanto, examinar el cambio en curso, de una racionalidad de gobierno biopolítica que se apoya en saberes como la estadística, basada en cálculos probabilísticos e inferenciales, a una racionalidad de tipo algorítmico, en la cual la calculabilidad se vuelve al mismo tiempo ilimitada y opaca, con el fin de hacer emerger cómo de esta diferencia se derivan una serie de repercusiones importantes tanto en las formas de producción del conocimiento y los mecanismos de veridicción asociados, como en el plano de la construcción de subjetividades.

II. Normalizar

El acontecimiento que ha caracterizado la modernidad, determinando una diferencia radical respecto a las categorías filosóficas y políticas del mundo clásico, ha sido –según Foucault– “la entrada de los fenómenos propios de la vida de la especie humana en el orden del saber y del poder, en el campo de las técnicas políticas” (Foucault, 1976, 186). La forma principal del ejercicio del poder, entonces, no se encuentra –al menos a partir del siglo XVII– en su apropiación, sustracción o sometimiento, típicos de la soberanía, sino en la vigilancia, el aumento y la organización de las fuerzas vitales. Es la vida la que absorbe en su flujo ontológico el poder, cuyo último criterio de legitimación política reside en su capacidad para preservar y potenciar la vida de cada uno en su singularidad y, al mismo tiempo, como parte de un cuerpo biológico común: la población. La tarea del naciente arte gubernamental es, por tanto, mantener en condiciones óptimas el número y la operatividad de los gobernados, sin renunciar en absoluto a la tarea de disciplinar y normalizar cuerpos y sujetos que son dócilmente sometidos a la ingeniería de los espacios y de los tiempos.

Los nuevos saberes –la economía política, la biología y, en particular, la estadística– necesitan conocer y recopilar la mayor cantidad posible de datos relacionados con la población, el entorno en el que vive y trabaja, sus movimientos y hábitos, que tienen la tarea de describir para intervenir activamente en ellos. Como subraya Alain Desrosières (1993) se trata de construir el espejo de la nación y no solo del príncipe, y para ello resultan decisivos los primeros estudios estadísticos concebidos como descripciones lo más completas posible de todas las principales características de los objetos que caen bajo la administración estatal. Politik y Polizei se presentan como las dos caras del naciente arte gubernamental, resumida en los manuales del siglo XVIII con el término Polizeiwissenschaft: por un lado, destaca una función negativa, la de la Politik, que, mediante la ley, se dirige contra los enemigos internos y externos; por otro lado, el rol positivo de la Polizei, cuyo objetivo es la continua y creciente producción de algo nuevo que se presume alimentará la vida de los ciudadanos y la fuerza del Estado a través de una intervención específica, permanente y positiva en el comportamiento de los individuos (Foucault, 2001, 2004). El objetivo de la Polizei es hacer coincidir la mejora de la vida de la población con el vigor del Estado, en plena sintonía con las tesis de los fisiócratas: la intervención racional y calculada sobre los individuos regresa, en un juego circular, al Estado como conjunto de fuerzas en crecimiento.

La construcción de un espacio político para administrar y potenciar favorece la creación de un campo de medidas comunes dentro del cual es posible realizar comparaciones mediante la creación de clases generales de equivalencias y la estandarización de procedimientos de codificación que trascienden las singularidades. En Inglaterra, John Graunt publicó en 1662 Natural and Political Observations made upon the Bills of Mortality, mientras que en el mismo período aparecen los primeros ensayos sobre aritmética de William Petty: estos, –siguiendo la reconstrucción de Ian Hacking (1975) – son los primeros estudiosos en elaborar tablas estadísticas para realizar cálculos y predicciones sobre la población. No se trata solo de acumular conocimiento sobre ella y el territorio, sino que se empiezan a hacer estimaciones y predicciones gracias a innovadores cálculos probabilísticos que permiten, por ejemplo, calcular las “esperanzas de vida” en función de una “escala de salubridad” obtenida al parametrizar las condiciones del aire para establecer los posibles riesgos de contagio. La convicción de que la peste tenía un origen miasmático es la razón que lleva a considerar los datos, por primera vez, no solo como explicativos de las posibilidades de contagio, sino también como conocimientos necesarios para gobernar y justificar una serie de intervenciones destinadas a proteger a todo el cuerpo social. Las operaciones de “higiene pública” forman parte de una tecnología de poder positivo que, a través de un modelo “inclusivo”, define meticulosamente la división, organización y control de los espacios y cuerpos (Foucault, 1999). Es un proceso de “normalización” en el que la norma se deduce de inferencias estadísticas que, a partir de observaciones realizadas en muestras limitadas de la población, ofrecen estimaciones e hipótesis sobre la realidad a través de una generalización de los resultados obtenidos.

Los nuevos instrumentos estadísticos permiten no solo descubrir “sujetos/objetos” sobre los cuales basarse para describir el mundo y actuar sobre este, sino también crear otros nuevos a través de la identificación de regularidades de las que extrapolar tendencias en los comportamientos humanos, cuyas probabilidades de realizarse se expresan mediante índices que dependen de una serie de variables subjetivas –edad, condición social, estado de salud, etc.– que influyen profundamente en lo que Quetelet (1883) define como propensión (penchant). En el momento en que la ciencia estadística se desarrolla orgánicamente como un estudio sobre el hombre, que, basado en el cálculo de probabilidades, permite contar, medir y prever las acciones humanas estableciendo sus propensiones –como en el caso de la posibilidad de cometer o no un crimen–, asistimos a un desplazamiento epistemológico significativo, que transforma definitivamente la estadística de instrumento de conocimiento del Estado, a través de la recopilación de una gran cantidad de datos, en un saber a través del cual es posible establecer los parámetros para clasificar fenómenos. Se afirma, por tanto, la convicción de que existe una “legalidad” inmanente a las cosas y que esta coincide con su “normalidad”.

El “entusiasmo estadístico” (Westergaard, 1932) de estos años da un impulso decisivo a la determinación de una “mecánica social” a desarrollar mediante la identificación de las normas que gobiernan al hombre desde un punto de vista físico, intelectual y moral. El Hombre Medio se convierte en el “centro de gravedad” en torno al cual definir estos mecanismos de desarrollo con el fin de identificar y reducir las desviaciones respecto a los parámetros cuantitativos, que generalmente se expresan a través de índices que se presentan como la norma: se permiten niveles de oscilaciones más allá de los cuales los fenómenos observados y las categorías de individuos que los expresan se consideran anormales. Como señala Canguilhem (1966), lo normal es la norma establecida en el hecho, donde el hecho social se trata estadísticamente como si fuera una cosa que medir[2], según una convencionalidad que debería haber extendido el dominio de la certeza científica a la esfera social. Quetelet (1836) tenía tantas esperanzas en este hombre imaginario que afirmó: “si el hombre medio estuviera perfectamente determinado, se podría [...] considerarlo como una especie de belleza. Todo lo que se apartaba de lo que se le asemejaba [...] habría constituido deformidad y enfermedad. Lo que no se le asemejaba [...] habría sido monstruoso”. La nueva ciencia estadística –desde la física social de Quetelet hasta las investigaciones biométricas de Galton– propone, por lo tanto, un modelo, un término de comparación, sobre la base del cual hacer emerger todas las posibles desviaciones de una normalidad que no se limita a asumir un valor científico-descriptivo, sino que asume un significado político-performativo: es lo que debe ser perseguido a través de una acción de gobierno dirigida a la ampliación y a la intensificación de dispositivos de normalización capaces de actuar activamente sobre los cuerpos y las poblaciones.

III. PREDECIR

Durante la fase pandémica, asistimos a una enorme proliferación de datos, estudios, tablas y proyecciones estadísticas, justificadas por la necesidad de monitorear la propagación del virus, verificar las respuestas a las políticas sanitarias y, en general, para prevenir y limitar los efectos nefastos del virus y regresar a una condición de normalidad: las interpretaciones de esos datos fueron a menudo decisivas para orientar las actividades gubernamentales, alimentando un amplio debate público. Al mismo tiempo, se ha producido un uso masivo de toda una serie de tecnologías digitales que ampliaron las formas de vigilancia, comenzando con la introducción de aplicaciones para rastrear los movimientos y contagios. La centralidad del paradigma biopolítico de matriz foucaultiana parecía evidente pero, al mismo tiempo, el espacio jurídico-político y social pandémico se ha presentado como un laboratorio de experimentación de formas de gobierno digital, en el que un intenso, y en parte inédito, poder de vigilancia (Lyon, 2021; Brindisi, Vignola, 2021; Orrù 2021) se ha entrelazado con formas capilares de control y captura comportamental.

La pandemia llegó en un contexto en el que los datos ya eran valiosos; pues era evidente que podían ofrecer soluciones o, al menos, orientar el gobierno biopolítico. En particular, ofrecían enormes oportunidades para crear valor aprovechando las experiencias subjetivas que, al ser convertidas en datos comportamentales, se transformaban en una nueva clase de bienes para intercambiar en el mercado (Zuboff, 2019). La enorme aceleración que se ha producido en el desarrollo de numerosas actividades en modalidad online –pensemos en las nuevas posibilidades de conectividad para el trabajo remoto o en la intensificación de las compras online– ha producido un gran cambio en nuestros hábitos: nos encontramos constantemente conectados a pantallas, dispositivos y plataformas, que no solo monitorean y extraen datos de nuestras actividades, sino que también resultan decisivas para definir las condiciones de posibilidad de la experiencia mediada. El continuo paso entre lo real y lo virtual, entre lo corporal y lo inmaterial, se ha convertido en una constante ‘irreflexiva’ de la vida cotidiana, en la cual el ser viviente es cada vez menos representado por la ‘totalidad’ de su cuerpo, siendo fragmentado en una multiplicidad de flujos numéricos, que evocan el tema deleuziano del paso del individuo al ‘dividual’.

Deleuze fue el primero en percibir los síntomas de la transición hacia una sociedad que ya no tiene que ver con la pareja masa-individuo, sino con los flujos de datos; una sociedad en la que ya no se trata de segmentar los espacios y normalizar sujetos, como sucede en la sociedad disciplinaria, sino de transformar los comportamientos, afectos y relaciones que forman las tramas de los procesos de subjetivación, adaptándolos a las exigencias del Capital, cuya textura –subraya su colega Guattari– está estructurada en torno a “estos flujos de signos desterritorializados” (Guattari, 1977, 222). Desde esta perspectiva, el proceso de producción y acumulación de datos brutos –los llamados big data– es funcional para la construcción de máquinas semióticas a-significantes, que emiten señales desvinculadas de todo lo que las conecta a formas o experiencias de vida singulares, como ya subrayaba Guattari: “Las máquinas asignificantes no reconocen ni a los sujetos, ni a las personas, ni los roles, ni siquiera los objetos delimitados. Esto es precisamente lo que les confiere una especie de omnipotencia: el poder pasar a través de sistemas significantes en cuyo seno se reconocen y se alienan los sujetos individualizados” (Guattari, 1977, 223). Esta “omnipotencia” revela la predisposición a crear verdades indiscutibles que adquieren un carácter teocrático (Vaccaro, 2020), en virtud del peso de certeza científica de los números y, más en general, de las matemáticas. Como ha observado Eric Sadin, la potencia de cálculo del algoritmo se presenta como un verdadero “dispositivo aletheico”, capaz de desvelar la realidad de los fenómenos, más allá de su apariencia, y de orientar los comportamientos humanos con base en una autoridad que deriva precisamente de su supuesta objetividad (Sadin, 2018). Cualquier hipótesis comportamental se calcula exclusivamente sobre una base cuantitativa: cuanto mayor es la masa de datos disponibles, mayor es la probabilidad de que esa predicción se haga realidad, sin tener en cuenta el posible significado de cada dato individual, decretando así el extraordinario poder coercitivo de los sistemas algorítmicos, que tienen el efecto de sustituir nuestra capacidad de juicio y acción por una serie de protocolos anónimos y cálculos numéricos presentados como indiscutibles. En otras palabras, el proceso de informatización y digitalización de la sociedad se realiza mediante un mecanismo reduccionista que representa toda la realidad, tanto natural como humana, a través de una cadena de bits, es decir, mediante una procedimiento binario de naturaleza informacional que, traducida a un lenguaje alfanumérico, puede someterse a computación.

El aspecto que emerge de esta reconstrucción, y sobre el cual es necesario reflexionar, es que los datos recopilados y almacenados están completamente desvinculados de los fines para los cuales son obtenidos: reducidos a su naturaleza ‘bruta’, están descontextualizados de las circunstancias reales, inscribiéndose en trazas que multiplican la realidad como en un espejo roto. La fragmentación de lo real –además de la continua oscilación de los sujetos entre la virtualidad y la realidad material, a la que ya hice referencia anteriormente– tiene efectos desorientadores para los sujetos, que encuentran un mecanismo de estabilización precisamente en la capacidad de los algoritmos para formular, a través de las operaciones de data mining, ‘hipótesis verdaderas’ sobre comportamientos futuros, orientando así las conductas en razón de la presunta objetividad de los resultados predictivos. Se trata de una objetividad que deriva precisamente de la sustracción del tratamiento de los datos a cualquier intervención subjetiva y, por lo tanto, a cualquier acción de tipo reflexivo. Como han señalado Antoinette Rouvroy y Thomas Berns (2013, 169), la veracidad de esos datos reside precisamente en que no son más que «señales expurgadas de todo lo que las vinculaba a formas o experiencias de vida singulares». Son señales que responden a una sintaxis, es decir, a reglas que establecen relaciones, conexiones y operaciones de cálculo, evitando cualquier contradicción y sin tener una semántica propia (Finelli, 2022).

Muchos análisis han destacado acertadamente lo discutible, por no decir falsa, que es la supuesta neutralidad de los algoritmos y su sistema predictivo, y cómo estos replican y potencian efectos discriminatorios (O’Neal, 2016; Noble, 2018; Stinson 2022). Sin embargo, lo que me interesa resaltar aquí es el profundo cambio que está atravesando el proceso de producción del conocimiento, que en el modelo de la gubernamentalidad biopolítica se confía a saberes que operan –como hemos visto en el caso de la estadística– analizando fenómenos susceptibles de medición y descripción cuantitativa a través de la recopilación de datos que pertenecen a ese fenómeno específico, partiendo a menudo de hipótesis sugeridas directamente por la experiencia o por analogías con otros fenómenos ya conocidos. Los fenómenos aleatorios o casuales (random), de los cuales no es posible controlar todos los factores que determinan su desarrollo, se consideran dotados de una ‘causalidad intrínseca’ con reglas que los gobiernan, que se consideran descifrables desde un punto de vista probabilístico-estadístico. En otras palabras, el cálculo de probabilidades se basa en datos, generalmente relacionados con los seres vivos, claros, explícitos, susceptibles de interpretaciones y, por lo tanto, también de crítica y disenso. El régimen de verdad algorítmica se aparta de la perspectiva tradicional de la estadística, rompiendo con su origen convencional: con el data mining, de hecho, el objetivo no es comprender y describir una determinada realidad para intervenir en ella mediante procedimientos gubernamentales, sino que se trata de ‘producir la realidad’, ocasionando de manera unilateral y automatizada comportamientos y deseos que se vuelven verdaderos antes de que se materialicen en la realidad.

Así, asistimos a un alejamiento de las ambiciones de la racionalidad moderna, anclada en el experimento empírico y en la lógica deductiva y causal, hacia una racionalidad algorítmica que sigue un modo inductivo, indiferente a las causas de los fenómenos, que no se somete a verificaciones, pruebas o ensayos, que produce un saber anónimo, ciego a cualquier contexto, que ignora lo concreto, la existencia, la afectividad: una verdadera “tiranía del algoritmo” (Benasayag, 2019), que introduce no solo importantes elementos de ‘control inmaterial’, sino que predispone modelos comportamentales que inciden profundamente en los procesos de subjetivación y en las condiciones en las que tienen lugar dichos procesos, haciendo muy problemática la posibilidad de construir subjetividades libres, o menos gobernadas.

Indudablemente, el gobierno de los algoritmos exime a los sujetos de una serie de esfuerzos perceptivos, cognitivos, evaluativos, institucionales, lingüísticos, etc.; en definitiva, es decisivo para reducir la complejidad de nuestra vida, de nuestro día a día, mediante la constante adaptación de los entornos a los perfiles individuales y colectivos –en algunas circunstancias, de hecho, el algoritmo no interviene directamente sobre los comportamientos individuales, sino que simplemente actúa sobre el entorno que influirá en los comportamientos de los sujetos. En esta “capacidad operacional” se encuentra una de las claves de la legitimación del gobierno de los algoritmos, pero en ella también hay una peligrosa trampa: nos confiamos cada vez más a máquinas no intencionales, que no atribuyen ningún significado a los eventos y a los sujetos analizados, que son descompuestos en una red de datos agregados y correlacionados con otros datos independientes de esos mismos eventos y sujetos, con el fin de lanzar señales que generan respuestas irreflexivas, en lugar de interpretaciones o respuestas más o menos conscientes, anulando así el momento de reflexión y crítica necesario para que pueda darse una subjetivación (Rouvroy, 2011).

Las actuales subjetividades algorítmicas, en lugar de remitir a potencialidades inexpresadas que –como sostenía Deleuze– pueden manifestarse a través de procesos dinámicos e impredecibles, en un devenir que no anticipa ningún fin y que abre nuevas posibilidades para producir desviaciones, márgenes y espacios de libertad, son insertadas en un proceso de anticipación que captura las potencialidades de las singularidades, bloqueando su movimiento de subjetivación; es decir, los sujetos son golpeados en su capacidad singular, y al mismo tiempo común, de agencia y crítica. Este es el desafío que enfrentamos al intentar repensar la relación entre el ser humano y sus creaciones, e imaginar zonas de fricción, puntos de detención de la máquina algorítmica y de su poder normativo, prácticas comunes que abran espacios para subjetividades menos gobernadas, que no deleguen completamente su capacidad de acción y juicio a la tecnología de la verdad.

Bibliografía

Agamben G. (2020), A che punto siamo? L’epidemia come politica, Quodlibet, tr. esp. (2020) ¿En qué punto estamos?: La epidemia como política, Adriana Hidalgo Editora.

Benasayag M. (2019), La Tyrannye des algoritmes, Éditions Textuel.

L. Boltansky L., Chiapello È. (2011), Le nouvel esprit du capitalisme, Gallimard, tr. esp. (2002) El nuevo Espiritu del capitalismo, Ediciones Akal. Me refiero, por ejemplo, al uso instrumental de cuestiones relacionadas con

Boyle J. (2003), The Second Enclosure Movement and the Construction of the Public Domain, Law and Contemporary Problems, 66 (1/2), pp. 33-74.

Brindisi G., Vignola P. (2021), Dispositivo pandemico e governamentalità digitale, en G. Bevilacqua (al cuidado de), Sicurezza umana negli spazi navigabili: Sfide comuni e nuove tendenze, E.S.I., pp. 205-219.

Canguilhem G. (1966), Le normal et le pathologique, P.U.F., tr. esp. (1971) Lo normal y lo patológico, Siglo XXI Editores.

Desrosières A. (1993), La politique des grandes nombres. Histoire de la raison statistique, Éditions La Découverte.

Esposito R. (2022), Immunità comune. Biopolitica all’epoca della pandemia, Einaudi, tr. esp. (2023) Inmunidad común: Biopolítica en la época de la pandemia, Herder Editorial.

Finelli R. (2022), Filosofia e tecnologia. Una via di uscita dalle mente digitale, Rosemberg & Sellier. https://doi.org/10.4000/books.res.9024

Fogg B. J. (2023), Persuasive Technology: Using Computers to Change What We Think and Do, Morgan Kaufman.

Foucault M. (1976), La volonté de savoir, Galllimard, p. 186, tr. esp. (1983) Historia de la Sexualidad 1. La voluntad de saber, Siglo XXI Editores.

Foucault M (1999), Les anormaux. Cours au au Collège de France 1974-1975, Gallimard, tr. esp. (2001) Los anormales. Curso del Collège de France (1974-1975), Ediciones Akal.

Foucault M. (2001), «Omnes et singulatim»: vers une critique de la raison politique, en Dits et Écrits II, 1976-1988, Gallimard, pp. 953-981.

Foucault M. (2004), Sécurité, territoire, population. Cours au Collège de France (1977-1978), Gallimard, tr. esp (2009). Seguridad, territorio, población. Curso del Collège de France (1977-1978), Ediciones Akal.

Guattari F. (1977), La révolution moléculaire, Éditions Recherches, tr. esp. (2017) La revolutión molecular, Errata naturae editors.

Hacking I. (1975), The emergence of probability: a philosophical study of early ideas about probability, induction and statistical inference, Cambridge University Press.

Leonardi E. (2012), Per una critica della Green Economy neoliberale, Culture della sostenibilità, 5 (1), pp. 30-46.

Lyon D. (2021), Pandemic Surveillance, Polity Press.

O’Neal C. (2016), Weapons of Math Destruction. How Big Data Increases. Inequality and Threatens Democracy, Penguin Random House LLC, tr. esp. (2018) Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia, Capitán Swing.

Noble S. U. (2018), Algorithms of Oppression: How search engines reinforce racism, NYU Press.

Orrù E., Verso un nuovo Panottico? La sorveglianza digitale (2021), en Casadei T., Pietropaoli S. (al cuidado de), Informatica giuridica. Questioni e prospettive, Cedam, pp. 203-216.

Quetelet A. (1883), Recherches sur le penchant au crime aux différens âges, Hayez.

Quetelet A. (1836), Sur l’homme et le développement de ses facultés. Essai de Phisique sociale, t. 2, Louis Hauman et Comp.

Rouvroy A. (2011), The end(s) of critique Data behaviourism versus due process, en Hildebrandt M. y Rouvroy A. (al cuidado de), Law, Human Agency and Autonomic Computing The philosophy of law meets the philosophy of technology, Routledge, pp. 143-167

Rouvroy A., Berns T. (2013), Gouvernamentalité algoritmique et perspectives d’émancipation Le disparate comme condition d’individuation par la relation?, Réseaux, 177 (1), pp. 163-196. https://doi.org/10.3917/res.177.0163

Sadin E. (2018), L’Intelligence artificielle ou l’enjeu du siècle. Anatomie d’un antihumanisme radical, Éditions L’échappée, tr. esp. (2020) La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical, Caja Negra Editora.

Stallman R. (2010) Free Software, Free Society: Selected Essays of Richard M. Stallman, Free Software Foundation.

Stinson C. (2022), Algorithms are not neutral. Bias in collaborative filtering, AI and Ethics, 2, pp. 763–770. https://doi.org/10.1007/s43681-022-00136-w

Vaccaro S. (2020), Gli algoritmi della politica, elèuthera.

H. Westergaard H. (1932), Contributions to the Histary of Statistics, P.S. King, citado en I. Hacking I (1982), Biopower ant the Avalanche of Printed Numbers, Humanities in Society, 5 (3/4), pp. 279-295.

S. Zuboff S. (2019), The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, Public Affairs, tr. esp. (2020) La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder, Ediciones Paidós.


[1] Me refiero, por ejemplo, al uso instrumental de cuestiones relacionadas con temas ambientales, que se han condensado en la lógica de la green economy, capaz de armonizar las exigencias de protección ambiental, a través de la afirmación del régimen discursivo de la sostenibilidad con aquellas capitalísticas de producción de plusvalías (Leonardi, 2012).

[2] En este caso remito a la referencia de Desrosières a Durkhem (“hay que tratar los hechos sociales como cosas”) para subrayar las mismas dificultades ante las cuales se encuentran los estadísticos a la hora de inventar conceptos sintéticos bien formalizados (Desrosières,1993).