Nº 68 | OCTUBRE 2025

ISSN: 1139-1979 | E-ISSN: 1988-5733

© 2025. E. Universidad de Sevilla

CC BY-NC-SA 4.0

Cómo citar: Busón, C., Chaves de Moraes, J. y Machado García Arf, L. (2025). IA y polarización emocional: análisis de un vídeo viral como narrativa de desinformación política en Brasil. Ámbitos. Revista Internacional de Comunicación, (68), 16-36. https://doi.org/10.12795/Ambitos.2025.i68.01

IA y polarización emocional: análisis de un vídeo viral como narrativa de desinformación política en Brasil

AI and Emotional Polarization: Analysis of a Viral Video as a Narrative of Political Disinformation in Brazil

Carlos Busón

Universidade Federal de Mato Grosso do Sul | Cidade Universitária, Av. Costa e Silva - Pioneiros, MS, Campo Grade | Brasil

0000-0002-1446-2252 | carlos.buson@ufms.br

Jorge Chaves de Moraes

Universidad Petrobras | Rua Ulysses Guimarães, 565 - Cidade Nova. Rio de Janeiro | Brasil

0009-0009-7209-5575 | jcm@petrobras.com.br

Lucilene Machado García Arf

Universidade Federal de Mato Grosso do Sul | Cidade Universitária, Av. Costa e Silva - Pioneiros, MS, Campo Grade | Brasil

0000-0001-7870-3636 | lucilene.arf@ufms.br

Recepción 31/05/2025 · Aceptación 30/07/2025 · Publicación 15/10/2025


Resumen

Este artículo investiga cómo la inteligencia artificial y los algoritmos de recomendación impulsan la circulación de discursos polarizados a partir de un reel publicado por Jair Bolsonaro, en Facebook, el 13 de septiembre de 2024. Por medio del raspado y la depuración de 1.500 comentarios se construyó un corpus representativo de la interacción pública. El estudio aplicó un protocolo mixto que combinó limpieza en Python, análisis exploratorio con IRaMuTeQ, modelado de tópicos mediante Latent Dirichlet Allocation y matrices de coocurrencia con el método de Labbé, garantizando reproducibilidad y transparencia. Los resultados revelan que símbolos religiosos como capeta y Deus y motes despectivos como nove dedos reducen problemas complejos a marcos morales binarios, mientras la nube de palabras y la matriz de distancias confirman la estrecha asociación entre referencias demoníacas y ataques a Luiz Inácio Lula da Silva. El análisis factorial identifica cinco grupos discursivos claramente segmentados y visualiza tensiones temáticas entre exaltación y deslegitimación. Además, esta combinación de métodos computacionales y cualitativos ofrece un avance metodológico para futuros estudios sobre polarización digital. Las implicaciones de estos hallazgos orientan a responsables de políticas públicas y diseñadores de plataformas hacia intervenciones concretas para mitigar la desinformación impulsada por IA. Se concluye que la inteligencia artificial opera como motor de desinformación masiva, reforzando el sesgo de confirmación y erosionando la deliberación crítica al priorizar marcos emocionales sobre el razonamiento analítico. Si bien se trata de un estudio de caso con alcance limitado, los resultados permiten abrir líneas de investigación comparativa futuras, especialmente en contextos latinoamericanos donde las dinámicas de polarización digital aún requieren mayor análisis.

Palabras clave: inteligencia artificial, desinformación, polarización política, cámaras de resonancia, Brasil.

Abstract

This article examines how artificial intelligence and recommendation algorithms drive the circulation of polarized discourse, based on a reel published by Jair Bolsonaro on Facebook on September 13, 2024. By scraping and cleaning 1,500 user comments, a representative corpus of public interaction was constructed. The study employed a mixed-methods protocol combining data cleaning in Python, exploratory analysis using IRaMuTeQ, topic modeling through Latent Dirichlet Allocation (LDA), and co-occurrence matrices via Labbe’s method, ensuring reproducibility and transparency. The results reveal that religious symbols such as capeta and Deus, along with derogatory labels like nove dedos, reduce complex problems to binary moral frames. Word clouds and distance matrices confirm a strong association between demonizing references and attacks against Luiz Inácio Lula da Silva. Factorial analysis identifies five clearly segmented discursive clusters and visualizes thematic tensions between exaltation and delegitimization. Moreover, this combination of computational and qualitative methods offers a methodological advancement for future research on digital polarization. The implications of these findings may inform public policy makers and platform designers regarding concrete interventions to mitigate AI-driven disinformation. The study concludes that artificial intelligence functions as an engine of large-scale disinformation, reinforcing confirmation bias and undermining critical deliberation by prioritizing emotional framing over analytical reasoning. While the research is based on a single case with limited scope, its results open avenues for future comparative inquiry, particularly within Latin American contexts where the dynamics of digital polarization remain underexplored.

Keywords: artificial intelligence, disinformation, political polarization, echo chambers, Brazil.


1. Introducción

El presente artículo se sitúa en el debate sobre el impacto de las plataformas digitales y la inteligencia artificial (IA) como vectores de desinformación y polarización política. A partir del análisis del vídeo publicado por Jair Bolsonaro, que combina simbolismo religioso, referencias culturales y narrativas ambientales manipuladas mediante IA, se examina cómo las tecnologías digitales amplifican mensajes polarizados y refuerzan divisiones ideológicas. El estudio de las narrativas generadas permite observar cómo la desinformación ambiental y la manipulación emocional afectan la percepción pública y plantean desafíos significativos para los regímenes democráticos y la regulación ética de las tecnologías emergentes.

El artículo analiza el impacto de la IA en la manipulación política, tomando como caso de estudio el primer video en formato reel publicado por Jair Bolsonaro en Facebook, en el que se emplea tecnología de IA. Este material combina elementos visuales impactantes, como un bosque en llamas y la icónica imagen de la mano de cuatro dedos asociada a Lula, junto con un diseño sonoro descrito como “de ultratumba”. Estas elecciones narrativas buscan influir en la percepción pública y consolidar divisiones ideológicas, utilizando referencias simbólicas y culturales que apelan a emociones viscerales.

En un contexto global donde las tecnologías digitales se han vuelto herramientas fundamentales para la comunicación política, el caso analizado permite observar cómo la IA puede amplificar emociones, consolidar discursos manipuladores y perpetuar narrativas polarizadoras, fenómeno explorado por autores como Pariser (2011), Sunstein (2017) y Tufekci (2017).

El video refleja una estrategia cuidadosamente diseñada para movilizar emocionalmente a las audiencias, combinando simbolismos culturales profundamente arraigados con un diseño multisensorial que maximiza el impacto psicológico. Asociaciones como la de Lula con el capeta (diablo) no solo evocan miedo y rechazo, sino que también refuerzan narrativas moralistas simplificadas que deshumanizan su figura política. Este uso estratégico de la IA y del simbolismo cultural permite que las plataformas digitales actúen como cámaras de resonancia, amplificando creencias preexistentes y reforzando el sesgo de confirmación de los usuarios. Según Benkler et al. (2018), estos entornos digitales no solo intensifican la polarización, sino que erosionan la calidad del debate público al priorizar contenidos homogéneos y emocionalmente cargados.

El caso brasileño, con sus complejas interacciones entre religión, cultura y política, ofrece un contexto único para analizar cómo las tecnologías emergentes están redefiniendo la dinámica de la comunicación política. En un país donde las creencias religiosas tienen un papel central en el discurso público, las referencias al “capeta” y a la mano de Lula movilizan emocionalmente a sectores conservadores y religiosos, asociando valores morales con actores políticos. Este fenómeno ha sido abordado por Tufekci (2017), quien sostiene que las plataformas digitales no solo transmiten información, sino que configuran marcos emocionales que condicionan las percepciones públicas y limitan la capacidad de los usuarios para procesar críticamente el contenido.

La pregunta de investigación que guía este estudio es la siguiente: ¿de qué manera los contenidos generados mediante inteligencia artificial amplifican el sesgo de confirmación y la polarización política en las redes sociales, particularmente a través de la desinformación ambiental? A partir de esta interrogante, el artículo se propone analizar cómo la IA interactúa con dinámicas sociales y culturales para moldear narrativas polarizadas y consolidar creencias que obstaculizan el diálogo y fomentan el odio. Para ello se utilizarán herramientas metodológicas como IRaMuTeQ y modelos de análisis de temas (Latent Dirichlet Allocation, LDA), que permiten identificar patrones discursivos en los comentarios generados en torno al video.

El estudio también explora el papel del simbolismo religioso y cultural en la manipulación emocional de las audiencias digitales, evaluando cómo términos como “ capeta, nove dedos “ y “Deus” estructuran y movilizan discursos de odio. Asimismo, se analiza la eficacia de las plataformas digitales como cámaras de resonancia, investigando cómo sus algoritmos amplifican mensajes homogéneos y restringen el debate crítico. Finalmente, se proponen recomendaciones éticas y prácticas para mitigar el impacto de la IA en la polarización política y la desinformación, explorando estrategias como la alfabetización mediática y el desarrollo de marcos regulatorios.

En última instancia, la idea es contribuir al debate académico sobre el impacto de la inteligencia artificial en la comunicación política, explorando sus implicaciones éticas y sociales. La investigación no solo examina un caso concreto, sino que también ofrece reflexiones teóricas y prácticas aplicables a contextos globales donde la tecnología y la política convergen. El caso brasileño proporciona una base para entender fenómenos universales relacionados con la desinformación, la polarización y el uso estratégico de la inteligencia artificial en la política contemporánea, subrayando la urgencia de desarrollar marcos éticos y regulatorios que mitiguen los riesgos asociados a estas tecnologías, además de promover un debate público más crítico y democrático.

Esta investigación no solo aborda el impacto de la IA en la polarización política, sino que también proporciona un análisis detallado de cómo narrativas religiosas y simbólicas específicas pueden ser instrumentalizadas para movilizar emociones y reforzar divisiones ideológicas. Al combinar herramientas computacionales avanzadas como IRaMuTeQ y el método de Labbé y Labbé (2013) con un enfoque cualitativo, este trabajo ofrece una nueva perspectiva sobre cómo las tecnologías emergentes transforman las dinámicas del discurso público en entornos digitales polarizados.

Finalmente, este trabajo se inscribe en la problemática de cómo las plataformas digitales y la inteligencia artificial amplifican la desinformación y la polarización, facilitando dinámicas de odio y abuso adversarial en línea. El análisis del video de apenas 50 segundos publicado por Jair Bolsonaro, generado mediante técnicas de síntesis de voz y animación facial asistida por inteligencia artificial, constituye un caso paradigmático para examinar cómo estas tecnologías emergentes pueden ser instrumentalizadas con fines de manipulación emocional y polarización política. A partir del análisis de los comentarios generados en respuesta al video, se identifican patrones narrativos que revelan cómo las herramientas digitales activan emociones intensas y refuerzan creencias preexistentes. Expresiones deshumanizantes como “capeta” y “ladrão” contrastan con muestras de apoyo incondicional como “presidente”, reflejando la profunda polarización del discurso público. Si bien el caso se centra en Brasil, los hallazgos dialogan con procesos análogos observados en otros contextos latinoamericanos, donde la IA ha comenzado a ser utilizada en campañas de desinformación política, lo que evidencia la urgencia de establecer marcos regulatorios comunes y promover enfoques comparativos regionales.

2. Marco teórico y justificación del análisis

La polarización política y la desinformación digital son fenómenos interconectados que han sido ampliamente estudiados en el contexto de las redes sociales y el impacto de la inteligencia artificial (IA). Para comprender cómo operan estas dinámicas, dos conceptos fundamentales son las cámaras de resonancia y el sesgo de confirmación, los cuales explican cómo las audiencias tienden a consumir y amplificar información que refuerza sus creencias preexistentes, mientras ignoran o rechazan narrativas opuestas.

Una primera voz que abordó estos conceptos fue Sloterdijk en 1998, 1999 y 2004 con la publicación de su trilogía filosófica, explorando la noción de esferas como espacios de interacción y coexistencia que se forman entre seres vivos y sus relaciones materiales, afectivas y simbólicas. En el último volumen, Sloterdijk (2018) desarrolla una teoría de la contemporaneidad, en la cual la vida se concibe como multifocal, descentralizada y fragmentada, sustituyendo la idea de sociedad como totalidad orgánica por una red de esferas co-aisladas. Desde esta perspectiva, la sociedad contemporánea se asemeja a una espuma, compuesta por agregados de microesferas como familias, empresas o comunidades, que coexisten en un co-aislamiento relativo, compartiendo interfaces pero manteniendo su independencia. El autor rechaza así la noción clásica de sociedad como un cuerpo unificado. Además, destaca como característica de nuestro tiempo la explicitación de lo implícito, es decir, la visibilización de redes de poder y dinámicas destructivas como el atmoterrorismo.

El tercer volumen de la trilogía ofrece herramientas conceptuales valiosas para entender la formación del sesgo de confirmación dentro de las cámaras de resonancia, es decir, de las burbujas políticas que refuerzan la polarización en redes sociales. Estas funcionan como espumas digitales, donde grupos polarizados se agrupan en torno a ideologías específicas, creando paredes simbólicas configuradas a través de algoritmos o filtros que los aíslan de perspectivas contrarias. La inmunidad de estas burbujas se sostiene a través de la confirmación mutua y el rechazo al otro. De este modo, se produce un fallo en la ilusión de un espacio público unificado. Sloterdijk (2018) advierte que la idea de que la sociedad conforma una totalidad orgánica es, en realidad, una “hipnosis recíproca”. Internamente, cada burbuja cultiva un clima de defensa identitaria que incentiva también el ataque hacia lo diferente. La comunicación entre burbujas ocurre de manera mimética y no dialógica, ya que no se da por intercambio directo entre las células sino por la infiltración de normas, estímulos, mercancías contagiosas y símbolos semejantes. Esto genera una hiperconexión sin auténtico diálogo. La pérdida de visión panorámica es inevitable, pues desde cada lugar en la espuma solo se abren perspectivas hacia lo colindante, pero no hay vistas generales disponibles. Así, la fragmentación informativa intensifica la polarización, como evidencia la convivencia en realidades paralelas de usuarios de plataformas como Truth Social y Reddit. Para Sloterdijk, estas burbujas políticas no son anomalías sino expresiones de la condición posmetafísica contemporánea, donde solo queda reconocer la cofragilidad y buscar interfaces éticas entre esferas en lugar de buscar síntesis totalizantes.

Esta intuición filosófica encuentra su expresión empírica con el surgimiento de algoritmos personalizados. Pariser (2011) analizó cómo las plataformas digitales estructuran comunidades cerradas mediante algoritmos que priorizan contenidos altamente relevantes para cada usuario, limitando la exposición a perspectivas contrarias y creando burbujas de información. Sunstein (2017) profundizó en esta idea al advertir que la exposición selectiva refuerza la fragmentación social y erosiona las bases del debate democrático. Desde esta perspectiva, los algoritmos de filtrado actúan como mecanismos de construcción esférica en sentido sloterdijkiano, configurando atmósferas informativas aisladas donde predomina la lógica de reafirmación.

Las cámaras de resonancia funcionan como ecosistemas cerrados que amplifican narrativas homogéneas, restringiendo la capacidad de los usuarios para acceder a información diversa y procesarla críticamente. En este contexto, el sesgo de confirmación desempeña un papel crucial, ya que las personas tienden a buscar, interpretar y recordar información que valida sus creencias previas. Este fenómeno se observa claramente en el caso del video publicado por Jair Bolsonaro, donde referencias simbólicas y religiosas como capeta y “nove dedos” apelan emocionalmente a la audiencia, reforzando prejuicios y perpetuando narrativas polarizadoras. Estudios como el de Bail et al. (2018) destacan que la exposición a opiniones contrarias en redes sociales puede, paradójicamente, intensificar la polarización en lugar de reducirla. Iyengar y Westwood (2015) aportan al debate señalando que la polarización afectiva —el odio hacia el grupo contrario— es incluso más poderosa que la polarización ideológica, acentuando la carga emocional del discurso político.

El contexto brasileño ofrece un terreno especialmente fértil para analizar estas interacciones entre política, tecnología y sociedad. Las referencias simbólicas y religiosas presentes en el video de Bolsonaro apelan a valores culturales profundamente arraigados y explotan la emocionalidad inherente al discurso político. Según Tufekci (2017), esta manipulación emocional, facilitada tanto por el diseño multisensorial del contenido como por los algoritmos de las plataformas, dificulta el debate racional y favorece la viralización de mensajes altamente polarizados. Investigaciones realizadas en los últimos años como las de Montoya-Delgado (2022) y Silva-Ramos (2020) demuestran cómo en Brasil el uso de memes religiosos y simbólicos refuerza las cámaras de eco emocionales, movilizando adhesiones afectivas que intensifican la radicalización política.

La interacción entre cámaras de resonancia, sesgo de confirmación e inteligencia artificial refuerza así las divisiones ideológicas y plantea desafíos significativos para el debate democrático. Este marco teórico proporciona una comprensión profunda de las dinámicas observadas en el caso brasileño y ofrece una perspectiva comparativa aplicable a otros contextos políticos. La necesidad de implementar marcos regulatorios sólidos y promover la alfabetización mediática resulta cada vez más urgente, considerando el potencial de estas tecnologías para reconfigurar las narrativas políticas y moldear la percepción pública.

El uso de inteligencia artificial para manipular narrativas políticas y emocionales representa una amenaza creciente en la comunicación digital contemporánea. El video de Bolsonaro, que combina imágenes apocalípticas, sonidos impactantes y símbolos visuales como la mano de cuatro dedos de Lula, ilustra cómo estas tecnologías refuerzan narrativas polarizadoras y fomentan la desinformación. Este caso demuestra no solo la capacidad de la inteligencia artificial para amplificar mensajes emocionales, sino también el papel de las redes sociales como cámaras de resonancia que profundizan las divisiones ideológicas mediante el refuerzo del sesgo de confirmación.

La representación simbólica de la mano de cuatro dedos, en un contexto de destrucción ambiental y acompañada de la frase “as mãos do capeta”, revela una estrategia deliberada para vincular a Lula con el caos y el mal moral. Este simbolismo, que apela directamente a las emociones de la audiencia, simplifica problemas complejos como los incendios amazónicos y desvía el debate hacia ataques políticos individualizados. Estudios sobre imaginería política en redes muestran que los códigos visuales refuerzan clivajes ideológicos y legitiman discursos polarizantes (Farias Coelho & Simancas González, 2023). La retórica de señalamiento del enemigo mediático, frecuente en el populismo brasileño, opera en paralelo al uso de símbolos demonizadores (Martins & Porto Meirelles Leite, 2021). El efecto resultante se intensifica cuando las interacciones digitales se cargan de respuestas afectivas negativas, como observó Busón et al. (2022) en los comentarios a pronunciamientos presidenciales. Según Pariser (2011) y Sunstein (2017), las plataformas potencian estas narrativas al mostrar a los usuarios tan solo contenidos que confirmen sus creencias, profundizando la polarización política.

Diversos estudios han mostrado cómo la desinformación ambiental durante los incendios amazónicos operó como una estrategia política para legitimar el retroceso ecológico. Pinheiro (2022) señala que los discursos negacionistas facilitaron el desmonte de la fiscalización ambiental, mientras que Oliveira et al. (2025) identifican un patrón de noticias falsas que distorsionan la crisis y polarizan el debate. Wagner et al. (2024) complementan este panorama al analizar representaciones sociales fragmentadas en redes, donde el escepticismo científico y las emociones extremas refuerzan clivajes ideológicos.

Desde una perspectiva teórica, el análisis del video puede enmarcarse en los conceptos de cámaras de resonancia y sesgo de confirmación, desarrollados por Quattrociocchi et al. (2016), Pariser (2011) y Sunstein (2017). Las redes sociales, al priorizar contenido ideológicamente afín, consolidan comunidades cerradas donde se amplifican opiniones dominantes y se rechazan posturas opuestas. Este fenómeno es evidente en el caso de Bolsonaro, donde las narrativas visuales y sonoras capitalizan las creencias religiosas y políticas de sus seguidores, consolidando su impacto emocional inmediato.

El diseño sonoro del video, con graves distorsionados que evocan asociaciones culturales con el infierno y el demonio, refuerza la construcción emocional de la narrativa. Según Tufekci (2017), este tipo de elementos activa respuestas emocionales instintivas como el miedo y el rechazo, condicionando a la audiencia para asociar automáticamente a Lula con valores negativos. Esta estrategia plantea cuestiones éticas cruciales sobre la manipulación emocional en la política, ya que, como argumentan Aral (2020) y Benkler et al. (2018), estas prácticas socavan la confianza en las instituciones democráticas y desvían la atención pública de los problemas estructurales reales.

Finalmente, los comentarios generados en respuesta al video funcionan como cámaras de resonancia que amplifican las narrativas presentadas, refuerzan las creencias preexistentes y fomentan la polarización. Según Quattrociocchi et al. (2016) y Pariser (2011), estas dinámicas perpetúan la desinformación y dificultan el diálogo crítico e inclusivo. En este caso, términos como a mão do capeta y nove dedos se convierten en símbolos compartidos que movilizan emocionalmente a los seguidores de Bolsonaro y desactivan su capacidad de análisis crítico.

Desde una perspectiva ética, el uso de IA para manipular emocionalmente a las audiencias evidencia la necesidad urgente de implementar marcos regulatorios sólidos y fomentar la alfabetización mediática. Como sugieren Aral (2020) y Benkler et al. (2018), la manipulación emocional no solo compromete la calidad del debate público, sino que representa una amenaza seria para los valores democráticos.

La irrupción de inteligencias artificiales capaces de generar contenidos narrativos y visuales plantea un desafío urgente para las democracias actuales. Cada vez resulta más difícil distinguir lo verdadero de lo falso, lo real de lo simulado. En un entorno saturado de mensajes que apelan a las emociones, la verdad deja de importar y lo que se impone es lo que logra mayor impacto. O’Neil (2016) advirtió que los algoritmos refuerzan sesgos invisibles disfrazados de neutralidad. Zuboff (2019) mostró cómo el uso de estos sistemas busca moldear el comportamiento de las personas, debilitando su capacidad de decidir con autonomía. En ese escenario, es esperable que la inteligencia artificial se utilice para llenar las redes con contenidos sin valor, que confunden más que informan. Como anticipó Baudrillard (1994), vivimos en una era donde las imágenes ya no representan la realidad, sino que la reemplazan. Lo importante no es si algo es cierto, sino si parece convincente. Y en esa confusión, se pierde el sentido de lo que realmente ocurre.

Este análisis teórico subraya la importancia de estudiar cómo las plataformas digitales no solo amplifican información ideológicamente afín, sino también cómo moldean la formación de opiniones a través de mecanismos emocionales, especialmente en contextos polarizados como el brasileño. Este enfoque permite no solo comprender las dinámicas observadas en este caso, sino también reflexionar sobre las implicaciones globales del uso estratégico de la inteligencia artificial en la política digital contemporánea.

3. Metodología

Este estudio adopta un enfoque metodológico integral que combina herramientas computacionales avanzadas, análisis textual cualitativo y marcos teóricos sólidos para explorar las dinámicas narrativas y emocionales presentes en los comentarios generados en torno al video publicado por Jair Bolsonaro en Facebook. Con el objetivo de analizar las narrativas dominantes, las conexiones simbólicas y los elementos polarizadores amplificados por el contenido digital, se emplearon herramientas como Python, IRaMuTeQ, el modelo de análisis temático Latent Dirichlet Allocation (LDA) de pyLDAvis y el método de Labbe. Se aplicó Latent Dirichlet Allocation (LDA) para identificar temas latentes en los comentarios, visualizados mediante pyLDAvis. Además, se utilizó el método de Labbe para calcular la distancia léxica entre textos, permitiendo comparar similitudes discursivas. Ambos enfoques ofrecieron perspectivas complementarias sobre la estructura temática y la variación estilística del corpus.

El corpus se construyó a partir de los comentarios a un video generado por IA de 50 segundos titulado “Eu sabia, nesse incêndio tinha a mão do Capeta”, publicado en la cuenta oficial de Jair Bolsonaro (Figura 1). Este material combina elementos visuales provocadores, como un incendio forestal, con un lenguaje cargado de simbolismo religioso y referencias demoníacas. La publicación generó más de 256.000 visualizaciones y 1.500 comentarios principales, que fueron seleccionados para el análisis. Este corpus se concibió como una representación del debate público sobre polarización política, manipulación emocional y narrativas simbólicas en entornos digitales.

Se empleó un scraper desarrollado en Python (selenium + BeautifulSoup) para descargar la totalidad de los comentarios visibles en la publicación el 13 de septiembre de 2024. El proceso arrojó 1.764 hilos y 2.147 respuestas; tras depurar duplicados, mensajes únicamente con emojis o enlaces, spam y bots evidentes, el corpus final quedó en 1.500 comentarios únicos. Al abarcar el 100 % de la interacción disponible en esa fecha, el conjunto ofrece una representación completa de la conversación pública generada por el video.

El texto de los comentarios fue preprocesado mediante Python siguiendo un flujo de procesamiento de datos que incluyó limpieza de ruido textual, eliminación de signos de puntuación y palabras vacías, lematización y tokenización. La representación en formato nube de palabras permitió estructurar los datos en términos de frecuencia y relevancia, optimizando el corpus para su posterior análisis mediante IRaMuTeQ, LDA y el método de Labbe.

Para la generación de la nube de palabras, se emplearon exclusivamente palabras activas, asegurando un enfoque en los términos de mayor relevancia semántica. Esta decisión metodológica garantizó que las palabras seleccionadas reflejaran con precisión los temas predominantes en el corpus.

La tasa de retención del análisis fue de 98,13 %, lo que supera ampliamente el estándar mínimo del 75 % recomendado para investigaciones de este tipo, fortaleciendo la fiabilidad de los resultados obtenidos con IRaMuTeQ.

IRaMuTeQ permitió realizar dos análisis principales: la generación de una nube de palabras y el análisis de similitud. La nube de palabras visualizó los términos más frecuentes, destacando conceptos como “Brasil”, “capeta”, “risada”, “fogo”, “mão”, “deus” y “terra”, reflejando narrativas simbólicas y emocionales relacionadas con la polarización política y el discurso ambiental. El análisis de similitud representó gráficamente las conexiones entre términos, organizándolos en clústeres temáticos. Por ejemplo, el clúster político-religioso, que reúne términos como “deus”, “presidente” y “capeta”, evidencia la movilización emocional a través de narrativas simbólicas. Asimismo, el clúster ambiental, compuesto por términos como “fogo”, “terra” y “amazônia”, muestra cómo se politiza la crisis ecológica en el debate digital.

El modelo LDA fue implementado en el entorno de Jupyter Lab mediante bibliotecas de Python, con visualización interactiva a través de la herramienta pyLDAvis (LDAvis Team, n.d.). Esta técnica hizo posible identificar cinco temas latentes en el corpus, facilitando la detección de narrativas dominantes vinculadas a figuras políticas, referencias religiosas y problemáticas sociales. La estrategia metodológica permitió una interpretación cualitativa de los datos, destacando conexiones simbólicas entre términos clave como “nove dedos”, “capeta”, “deus” y “ladrão”, y evidenciando las estrategias discursivas de polarización presentes en el video analizado.

El método de Labbé fue empleado para construir matrices de coocurrencia y cuantificar las relaciones entre los distintos grupos discursivos identificados. Esta técnica proporcionó una representación cuantitativa de las similitudes y diferencias entre narrativas opuestas, como las referencias demoníacas y divinas, ofreciendo una perspectiva multidimensional sobre las conexiones simbólicas y emocionales del discurso.

Adicionalmente, los comentarios fueron clasificados en cuatro categorías principales: negativos, sarcásticos, neutrales y positivos. Esta segmentación permitió un análisis más detallado de las dinámicas emocionales y narrativas, evidenciando cómo los discursos digitales amplifican las divisiones ideológicas. La clasificación se apoyó en marcos teóricos como el framing de Entman (1993), que señala que los discursos no solo transmiten información, sino que configuran marcos interpretativos que moldean las percepciones públicas. Asimismo, se integraron las contribuciones de Blei et al. (2003) sobre la identificación de temas latentes, y los trabajos de Benkler et al. (2018) y Tufekci (2017) sobre la amplificación de narrativas polarizadoras en cámaras de eco.

La combinación de IRaMuTeQ, LDA y el método de Labbé, junto con un enfoque teórico robusto, permite un análisis riguroso y representativo de las narrativas digitales en un contexto de alta polarización. Este diseño metodológico no solo mapea dinámicas discursivas y emocionales, sino que también proporciona herramientas críticas para entender cómo las plataformas digitales amplifican divisiones simbólicas e ideológicas, destacando su relevancia y replicabilidad en estudios contemporáneos sobre manipulación narrativa.

Figura 1

Publicación de Jair Bolsonaro en Facebook sobre los incendios forestales “Eu sabia, nesse incêndio tinha a mão do Capeta”

Fuente. Bolsonaro, J. M. [@jairmessias.bolsonaro]. (s.f.). publicada el 13 de septiembre de 2024.

Cabe señalar que en la fase de limpieza del corpus se eliminaron emojis y enlaces externos para garantizar la coherencia textual del análisis. Esta decisión, aunque necesaria para los algoritmos de procesamiento textual utilizados, implica una pérdida parcial de matices afectivos que los emojis podrían haber aportado. Futuras investigaciones podrían considerar métodos específicos de codificación emocional de emojis para capturar esta dimensión paralingüística.

Más allá del interés técnico, el empleo de algoritmos en esta investigación obedece a una lógica reflexiva: aplicamos algoritmos para analizar los efectos de otros algoritmos. A través del estudio de los comentarios generados por un video producido con inteligencia artificial y potenciado por las dinámicas algorítmicas de las plataformas sociales, buscamos comprender cómo estas amplifican contenidos emocionales y refuerzan narrativas polarizantes.

4. Resultados

En conjunto, los análisis computacionales confirman que la conversación digital en torno al reel de Jair Bolsonaro se organiza alrededor de marcos morales con un fuerte marco emocional. Antes de desglosar la nube de palabras, conviene adelantar dos patrones centrales: primero, la omnipresencia de pares simbólicos contrapuestos, “deus” y “capeta”, “fogo” y “terra”, que articulan la disputa entre ‘bien’ y ‘mal’; segundo, la fusión de preocupaciones ambientales con referencias religiosas y políticas, lo que anticipa una narrativa donde la crisis ecológica se convierte en recurso identitario más que en problema técnico. Con esa doble clave interpretativa se leen los indicadores que se presentan a continuación.

4.1. Análisis de la Nube de Palabras con IRaMuTeQ

El examen de la nube de palabras elaborada con IRaMuTeQ (Figura 2) ofrece una instantánea de la conversación en torno al reel: Brasil, “capeta,risada, fogo, mão, deus” y “terra” son los vocablos con mayor peso semántico, señal de que la disputa integra sin fisuras dimensiones políticas, religiosas y ambientales. Este patrón confirma la hipótesis de Pariser (2011) sobre la formación de burbujas discursivas en las que las emociones refuerzan creencias previas; la reiteración de “mão” y “capeta”, junto con “nove dedos”, subraya la carga simbólica que polariza las figuras de Bolsonaro y Lula, mientras que “fogo” y “terra” trasladan la tensión al plano ecológico.

La prominencia de estos términos indica que la pieza audiovisual, apoyada en inteligencia artificial, apela a marcos morales simplificados que movilizan emociones intensas y facilitan la propagación virósica del contenido, tal como describe Tufekci (2017). Voces de apoyo se concentran en palabras como “presidente” y “melhor”; en el extremo opuesto, “ladrão” y “capeta” articulan la deslegitimación del adversario. La dimensión religiosa, patente en “deus” y “misericórdia”, ancla la narrativa en un eje bien-mal que, siguiendo a Benkler et al. (2018), favorece la escalada afectiva y desplaza el razonamiento complejo.

Por último, la irrupción de términos ambientales como “amazônia” y “queimado” confirma la observación de Aral (2020), incluso problemas técnicos de alta complejidad pueden ser absorbidos y transformados en marcadores identitarios, reorientando el debate público hacia lecturas emotivas y simplificadas que refuerzan la polarización existente.

Figura 2

Nube de Palabras generada a partir de los comentarios analizados

Fuente. Elaboración propia e IRaMuTeQ.

4.2. Análisis de Similitud con IRaMuTeQ

Antes de desglosar el mapa de similitud (Figura 3), conviene adelantar que IRaMuTeQ identifica cuatro ejes narrativos interrelacionados: uno político-religioso, otro demoníaco-crítico, uno ambiental y otro nacional. Esta segmentación anticipa cómo la IA y los algoritmos consolidan marcos simbólicos que polarizan la conversación pública tico-religioso reúne términos como “deus, presidente y bolsonaro, empleando referencias divinas para legitimar liderazgos y generar adhesiones emocionales, tal como describe Tufekci (2017) al analizar la manipulación afectiva en redes. En el eje demoníaco-crítico, “capeta”, “nove dedos” y “risada”, conforman una narrativa que asocia a Lula con maldad y caos, confirmando el uso de marcos morales simplificados señalado por Benkler et al. (2018).

El núcleo ambiental agrupa “fogo”, “terra” y “queimado”, evidenciando la politización de la crisis climática en señales de alarma colectiva, en línea con Aral (2020). Finalmente, el bloque nacional articula Brasil, “mão” y “governo” en discursos de identidad y gobernanza que refuerzan las divisiones afectivas entre grupos, según Iyengar y Westwood (2015) entre estos ejes, como la asociación entre deus y capeta o entre “fogo” y “terra”, revelan la convergencia simbólica que atraviesa el espacio digital. Desde una perspectiva afectiva, “ deus”, “capeta” y “fogo” emergen como núcleos que movilizan esperanza, indignación y miedo, generando un ciclo de retroalimentación que refuerza el sesgo de confirmación. Esta dinámica convierte a la IA en un agente que no solo selecciona contenido, sino que produce relatos diseñados para maximizar la viralización emocional y la polarización, completando la lógica del filtro burbuja descrita por Pariser (2011).

Figura 3

Mapa de Asociación de Palabras en los Comentarios del Video Analizado.

Fuente. Elaboración propia e IRaMuTeQ.

4.3. Análisis Factorial de Correspondencias (AFC): Dinámicas Narrativas y Discursivas

Antes de describir la configuración de los grupos, cabe señalar que el análisis factorial de correspondencias (Figura 4) organiza los 1500 comentarios en un espacio bidimensional que explica el 100 % de la varianza, lo que garantiza la solidez interpretativa. El eje horizontal, que abarca el 52,7 % de la varianza, distingue entre una narrativa de legitimación y exaltación de Bolsonaro, asociada a los términos “bolsonaro”, “jair messias” y “melhor”, una narrativa de deslegitimación de Lula, sustentada en vocablos como “nove dedos”, “capeta” y “ladrão”. Esta división refleja la hipótesis de Benkler et al. (2018) sobre el papel de marcos morales simplificados en la intensificación de la polarización política. El eje vertical, que cubre el 47,3 % restante, enfrenta expresiones ambientales y sociales menos cargadas afectivamente con términos que refuerzan el vínculo emocional hacia Bolsonaro, tales como “saudade” y “jair messias”. Este contraste confirma, siguiendo a Tufekci (2017), que la activación de emociones intensas potencia la viralización de narrativas políticas.

A partir de la proyección conjunta se identifican cinco conglomerados discursivos: uno que legitima la figura de Bolsonaro; otro que ridiculiza a Lula; un tercero que asocia a Lula con el mal moral; un cuarto que relaciona lo divino con el apoyo a Bolsonaro; y un quinto centrado en preocupaciones ambientales generales. Estas agrupaciones ilustran cómo las plataformas digitales, según Pariser (2011) y Sunstein (2017), priorizan contenidos emocionales y actúan como cámaras de resonancia que refuerzan las divisiones sociales. Además, la presencia de términos como “amazônia” y “queimado” y corrobora la observación de Aral (2020) de que incluso problemas complejos como la crisis climática pueden reducirse a símbolos polarizadores, desplazando el debate hacia marcos emotivos antes que análisis estructurales.

Figura 4

Análisis Factorial de Correspondencias (AFC) de los Comentarios

Fuente. Elaboración propia e IRaMuTeQ.

4.4. Análisis de la Matriz de Distancias

La figura 5 presenta la Matriz de Distancias construida mediante el método de Labbé, que ilustra las relaciones temáticas entre los cinco grupos discursivos identificados: GrupoBolsonaro, GrupoLula, GrupoNeutral, GrupoRel_Demonio y GrupoRel_Dios. Los valores más cercanos a cero indican mayor similitud temática, mientras que valores más altos reflejan divergencias significativas.

La distancia moderada entre GrupoBolsonaro y GrupoLula (0,613) sugiere que, aunque representan posiciones ideológicas opuestas, ambos grupos estructuran sus discursos dentro de un mismo marco político polarizado, como señala Sunstein (2017) sobre los entornos de retroalimentación emocional. El GrupoNeutral mantiene distancias intermedias con ambos (0,563 con GrupoBolsonaro y 0,506 con GrupoLula), indicando su papel marginal como narrativa menos polarizada.

La proximidad entre GrupoLula y GrupoRel_Demonio (0,464) refleja el uso intensivo de simbología demoníaca para deslegitimar a Lula, reforzando lo observado por Benkler et al. (2018) respecto al empleo de marcos morales simplificadores para movilizar emociones. Por el contrario, GrupoBolsonaro mantiene distancias mayores respecto a los grupos religiosos, indicando que las referencias simbólicas se utilizan principalmente para atacar a la oposición más que para legitimar su propia figura.

Figura 5

Matriz de Labbé mapa de Distancias entre Grupos

Fuente. Elaboración propia e IRaMuTeQ.

Finalmente, la conexión entre GrupoRel_Demonio y GrupoRel_Dios (0,666) revela cómo las narrativas simbólicas de “bien contra mal” estructuran el discurso, movilizando emociones intensas y profundizando la división ideológica, en línea con lo descrito por Tufekci (2017).

Este análisis confirma que las narrativas digitales no solo amplifican la polarización política, sino que también instrumentalizan símbolos religiosos para simplificar conflictos complejos en marcos emocionales de antagonismo moral.

4.5. Análisis de la Matriz de Distancias y las Narrativas Emergentes (LDA)

La figura 6 presenta el Mapa de Distancias Intertópicas (izquierda) y el gráfico de términos más salientes (derecha), generados a partir del modelo Latent Dirichlet Allocation (LDA). El modelo fue ejecutado en entorno Python (Jupyter Lab) y visualizado mediante pyLDAvis (LDAvis Team, n.d.). La elección del número óptimo de temas (k=5) se basó en múltiples pruebas exploratorias y análisis cualitativos de coherencia temática. La validación consideró la diferenciación semántica de los clústeres, la distribución marginal y la separación intertópica observada en el mapa de escalado multidimensional.

El Tema 1 se destaca como el más dominante, con una alta proporción de ocurrencias en el corpus. A partir del análisis intertópico y de los términos más salientes, se identifican cuatro patrones simbólicos principales. Primero, las narrativas religiosas empleadas en clave política, donde expresiones como “deus” y “capeta” son utilizadas para deslegitimar a Lula, aumentando la carga afectiva del discurso (Entman, 1993; Tufekci, 2017). Segundo, el uso reiterado de apodos peyorativos como nove dedos revela estrategias de deshumanización y ridiculización, asociadas a procesos de simplificación comunicativa (Benkler et al., 2018). Tercero, la absorción de problemáticas ambientales como “fogo” o “amazônia” dentro de discursos polarizantes evidencia una instrumentalización ideológica del medio ambiente (Aral, 2020). Cuarto, la interrelación entre religión, política y crisis socioambientales refuerza el sesgo de confirmación en audiencias polarizadas, conformando cámaras de eco afectivas (Pariser, 2011; Sunstein, 2017).

Figura 6

Mapa Intertópico y Términos Salientes del Modelo LDA

Fuente. Elaboración propia y pyLDAvis, LDAvis Team. (n.d.).

En conjunto, el análisis del modelo LDA muestra cómo las plataformas digitales no solo amplifican narrativas cargadas emocionalmente, sino que también consolidan divisiones sociales y erosionan el espacio de deliberación crítica. Estos hallazgos subrayan la urgencia de políticas de alfabetización mediática orientadas a fortalecer el pensamiento crítico y la resiliencia informacional ante entornos hiperpolarizados.

La clasificación emocional de los comentarios (positivo, sarcástico o negativo) se realizó mediante algoritmos de procesamiento del lenguaje natural (PLN). Se utilizó un enfoque computacional supervisado, entrenado con un conjunto reducido de ejemplos etiquetados, seguido de una inferencia extendida al resto del corpus. Esta técnica permitió identificar patrones de polaridad y sarcasmo con base en estructuras lingüísticas y distribución léxica. Aunque no se emplearon métricas de precisión formalizadas en esta etapa exploratoria, los resultados fueron validados por consistencia interna y coherencia contextual con los hallazgos narrativos previos.

4.6. Resultados integrados: Polarización emocional y desinformación mediada por IA

Los análisis de la nube de palabras, la similitud, el análisis factorial de correspondencias y la matriz de distancias muestran de modo coherente que las narrativas simbólicas y emocionales dominan el discurso digital sobre el video de Jair Bolsonaro. La alta frecuencia de “capeta, deus, fogo” y “nove dedos”, junto con la formación de clústeres centrados en antagonismos morales, confirma la estrecha interacción entre religión, política y medio ambiente en un escenario de confrontación ideológica cada vez más intenso. Estos hallazgos respaldan la propuesta de Benkler et al. (2018), quienes describen la sustitución del debate racional por marcos morales simplificados sustentados en emociones viscerales.

El análisis de similitud evidencia que los comentarios gravitan en torno a núcleos afectivos como esperanza, indignación y miedo, estimulados por símbolos culturales fácilmente reconocibles; la asociación de “deus” con Bolsonaro y de “capeta” con Lula ilustra cómo estos referentes movilizan la respuesta del público. Según Tufekci (2017), esta organización simbólica favorece la circulación viral de contenidos cargados de emoción y refuerza el sesgo de confirmación al reducir la exposición a opiniones divergentes.

El análisis factorial confirma la existencia de tres grandes constelaciones discursivas, exaltación, crítica y demonización, que estructuran un espacio binario, amigo frente a enemigo, bien frente a mal, nosotros frente a ellos. Sunstein (2017) advierte que esta polarización afectiva amplificada por los algoritmos convierte las redes sociales en cámaras de resonancia que intensifican la fragmentación social.

La matriz de distancias y el modelo LDA añaden una dimensión adicional al mostrar que problemáticas complejas, como el cambio climático, son absorbidas por narrativas emocionales que refuerzan divisiones existentes. Aral (2020) subraya que los asuntos ambientales, originalmente caracterizados por su complejidad técnica, se reducen en las plataformas a marcos emocionales simplificados cuya facilidad de circulación se impone a la profundidad analítica.

En conjunto, los resultados indican que la inteligencia artificial, integrada en algoritmos que priorizan la intensidad emocional, opera como un motor de desinformación a gran escala. La imagen de una mano en llamas vinculada a Lula y las narrativas que la acompañan ilustran cómo la IA simplifica conflictos complejos en binarismos morales, moviliza con rapidez emociones intensas, refuerza el sesgo confirmatorio en entornos cerrados y satura la conversación pública con contenido afectivo que desplaza la deliberación crítica. Pariser (2011) sitúa este fenómeno en la culminación de la lógica del filtro burbuja, puesto que la IA ya no se limita a ordenar la información disponible, sino que produce relatos diseñados para maximizar la activación emocional y la polarización. La clasificación emocional de los comentarios (positivo, sarcástico o negativo) se realizó mediante algoritmos de procesamiento del lenguaje natural (PLN). Se utilizó un enfoque computacional supervisado, entrenado con un conjunto reducido de ejemplos etiquetados, seguido de una inferencia extendida al resto del corpus. Esta técnica permitió identificar patrones de polaridad y sarcasmo con base en estructuras lingüísticas y distribución léxica. Aunque no se emplearon métricas de precisión formalizadas en esta etapa exploratoria, los resultados fueron validados por consistencia interna y coherencia contextual con los hallazgos narrativos previos.

El caso analizado demuestra que el uso de inteligencia artificial para generar símbolos políticos carece de neutralidad. Cuando los algoritmos privilegian la emoción sobre la información, la IA se convierte en un amplificador de desinformación y fragmentación social. Estos hallazgos subrayan la necesidad de marcos éticos y regulaciones capaces de orientar el uso de tecnologías emergentes en la comunicación política, junto con programas de alfabetización mediática que ayuden a las audiencias a reconocer y cuestionar las narrativas manipuladoras que proliferan en los entornos digitales contemporáneos.

No obstante, este estudio se basa en un caso único, centrado en un video de 50 segundos difundido en Facebook y generado mediante inteligencia artificial por el expresidente Jair Bolsonaro. Esta focalización deliberada responde al objetivo de analizar cómo un actor político específico instrumentaliza tecnologías emergentes para movilizar emocionalmente a su audiencia. Sin embargo, esta elección acota el alcance analítico del trabajo. Los hallazgos no deben generalizarse sin cautela, ya que reflejan una coyuntura particular, en un entorno digital específico y con un público determinado. Futuras investigaciones comparativas, que incluyan otros actores, plataformas y contextos regionales, serán necesarias para validar o matizar las tendencias aquí observadas

5. Conclusiones

Este estudio demuestra que la inteligencia artificial integrada en las plataformas digitales no solo amplifica narrativas polarizadas, sino que cataliza dinámicas simbólicas y emocionales que profundizan divisiones ideológicas. El análisis del reel de Jair Bolsonaro evidencia la instrumentalización de símbolos religiosos y culturales para construir narrativas que deshumanizan al adversario político, en línea con Benkler et al. (2018) sobre el papel de las emociones viscerales en la desinformación contemporánea.

Los hallazgos muestran que imágenes generadas por IA, combinadas con marcos emocionales simplificados, transforman la esfera pública digital en un entorno donde el debate crítico cede ante confrontaciones afectivas. Como advierte Sunstein (2017), los algoritmos refuerzan creencias preexistentes y cierran el acceso a perspectivas divergentes. Metodológicamente, IRaMuTeQ y LDA permiten detectar patrones de fragmentación discursiva: términos como “capeta”, “deus” y “nove dedos” funcionan como nodos que movilizan miedo, odio o fervor —confirmando, con Tufekci (2017), que la viralidad depende más de la intensidad emocional que de la veracidad. El análisis factorial muestra visiones binarizadas (“nosotros/ellos”, “bien/mal”) sistemáticamente favorecidas por las plataformas (Pariser, 2011), degradando el espacio deliberativo.

Lejos de ser neutra, la IA se comporta como un agente activo que, bajo lógicas de priorización emocional, reconfigura percepciones públicas, endurece identidades políticas y amplía brechas sociales. Además, temas complejos como la crisis ambiental se simplifican sacándolas del contexto en narrativas emocionales polarizadoras, desplazando soluciones estructurales hacia confrontaciones simbólicas (Aral, 2020). Sin marcos regulatorios sólidos y ciudadanía crítica, estas dinámicas seguirán imponiéndose por su capacidad de movilizar emociones intensas.

5.1. Propuestas para enfrentar la manipulación narrativa basada en IA

  1. Trazabilidad obligatoria del contenido generado o modificado por IA. Todo material alterado con inteligencia artificial debe portar un marcador visible que identifique origen y cadena de procesamiento (Helberger et al., 2019). Esta transparencia facilitará la rendición de cuentas y permitirá a las audiencias ejercer un juicio informado.
  2. Alfabetización mediática centrada en la dimensión emocional. Los programas educativos deben capacitar a la ciudadanía para reconocer encuadres que explotan miedo o indignación y, así, modular su propia respuesta afectiva (Pariser, 2011; Tufekci, 2017). Detectar datos falsos es insuficiente si no se comprenden los mecanismos emocionales que sostienen la viralización.
  3. Supervisión co-regulada de los algoritmos de recomendación. Auditorías externas periódicas y métricas públicas de diversidad informativa deben incentivar modelos que prioricen pluralidad sobre pura retención de atención, siguiendo la línea propuesta por Aral (2020). Rediseñar estos sistemas como infraestructuras democráticas, no meros optimizadores comerciales, es esencial para restaurar el equilibrio deliberativo.

Estas tres acciones, respaldadas por la evidencia presentada y la literatura especializada, ofrecen un marco operativo para mitigar la deriva polarizadora sin frenar la innovación tecnológica, preservando la deliberación pública en la era de la inteligencia artificial.

Aunque centrado en un único objeto mediático, los patrones discursivos detectados sugieren dinámicas que, dadas las similitudes estructurales de los ecosistemas digitales en América Latina, podrían extrapolarse a otros contextos nacionales caracterizados por alta polarización y vulnerabilidad mediática. De este modo, el protocolo metodológico aplicado ofrece una vía replicable para futuras investigaciones comparativas en el ámbito latinoamericano.

La evidencia presentada refuerza la urgencia de implementar políticas de trazabilidad de contenidos, estrategias de alfabetización mediática emocional y mecanismos de supervisión sobre los algoritmos de recomendación. Solo mediante una respuesta estratégica articulada será posible contener la deriva hacia espacios públicos fragmentados donde las emociones diseñadas y amplificadas por sistemas automatizados sustituyan a la deliberación racional entre ciudadanos.

Este vídeo marca un punto de inflexión siendo la primera vez que Jair Bolsonaro recurre de forma explícita a un contenido generado por inteligencia artificial en Facebook para intervenir en el debate público. Ante este riesgo, el Tribunal Superior Eleitoral de Brasil adoptó una medida concreta al aprobar la Resolução nº 23.732 (Tribunal Superior Eleitoral, 2024), que prohíbe el uso de deepfakes y exige señalar el contenido creado con IA en propaganda política. Además, se tramita en el Congreso el Projeto de Lei nº 2.338/2023 (Senado Federal, 2023), que busca establecer un marco regulatorio sobre el uso ético de la IA. La legislación en esta área es clave, sin una regulación clara, la IA puede acelerar la disolución de los consensos democráticos al inundar el espacio público de simulacros virales.

En última instancia, el reto es civilizar la inteligencia artificial, es decir, poner su potencia al servicio de la pluralidad y no del eco, de la conversación y no del agravio, para que el espacio público vuelva a ser un lugar donde las diferencias dialoguen sin convertirse en combustible de confrontaciones vacías.

6. Financiación y apoyos

Este estudio no recibió financiación ni apoyo económico por parte de instituciones públicas o privadas.

7. Declaración sobre la contribución específica de cada una de las autorías, según la taxonomía CrediT

8. Declaración sobre uso de inteligencia artificial

Se utilizó inteligencia artificial generativa (ChatGPT, modelo GPT-4o, OpenAI) como herramienta de apoyo técnico en la depuración del corpus analizado, así como en el desarrollo y revisión de scripts en Python utilizados para el procesamiento y análisis de los datos. Todas las decisiones analíticas, interpretaciones y conclusiones corresponden exclusivamente a los autores.

Semblanza de los/as autores/as

Carlos Busón Buesa es profesor visitante sénior en el Programa de Pós-Graduação em Comunicação (PPGCOM) de la Universidade Federal de Mato Grosso do Sul (UFMS). Doctor en Comunicación y Educación en Entornos Digitales por la UNED (España) y posdoctor en Desarrollo Territorial y Sistemas Productivos por la Universidade Estadual de Mato Grosso do Sul (UEMS), ha investigado desde los años noventa la articulación entre tecnologías digitales, educación y desarrollo regional. Su trabajo se centra en el uso de minería de datos, algoritmos y software aplicados a la investigación en educación y comunicación, con énfasis en narrativas transmedia, patrimonios culturales y procesos formativos en contextos diversos. Ha desarrollado materiales en el Centro de Medios Audiovisuales de la UNED y ha sido docente e investigador en instituciones académicas de España, México, Colombia y Brasil. Fue becario de FUNDECT/CNPq con una investigación sobre la cultura ervateira en el Cono Sur y se desempeña como consultor en innovación pedagógica y diseño de entornos virtuales de aprendizaje.

Jorge Chaves de Moraes es profesor en la Universidade Petrobras, donde coordina la Trilha de Formação de Docentes y el Curso de Formação de Administradores. Doctor en Filosofía por la Universidade Federal do Rio de Janeiro (UFRJ), cuenta con una sólida formación en historia de la filosofía, especialmente en pensamiento alemán. Sus investigaciones se centran en ética, educación, filosofía social y estética, con especial interés por la filosofía de la educación y la formación ética en contextos contemporáneos. Ha desarrollado trabajos sobre democracia y educación, derechos humanos, y pensamiento filosófico aplicado a la solución de problemas complejos y desafíos estratégicos en el ámbito de la administración. Su enfoque combina la reflexión filosófica con propuestas pedagógicas innovadoras, vinculando teoría y práctica en el contexto de la educación superior y la formación profesional.

Lucilene Machado García es investigadora, docente y traductora brasileña. Doctora en Teoría de la Literatura por la UNESP, con estancia en la Universidad Complutense de Madrid, y profesora de la Universidade Federal de Mato Grosso do Sul (UFMS), donde también coordina la Secretaría de Relaciones Internacionales. Su trayectoria académica articula estudios literarios, formación docente y educación intercultural en contextos de frontera. Ha coordinado proyectos pedagógicos, de extensión e investigación como el LIFROS y el Programa Escolas Interculturais de Fronteiras (MEC/UFMS), y se ha destacado en el ámbito de la literatura, la traducción y los estudios culturales, siendo galardonada con premios nacionales e internacionales como el Gaetano Scardochia (2009), el Guavira (2014) y el Carolina Maria de Jesus (2023).

Referencias

Aral, S. (2020). The hype machine: How social media disrupts our elections, our economy, and our health—and how we must adapt. Currency.

Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., & Hunzaker, M. F. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221. https://doi.org/10.1073/pnas.1804840115

Baudrillard, J. (1994). Simulacros y simulación (2.ª ed.). Kairós.

Benkler, Y., Faris, R., & Roberts, H. (2018). Network propaganda: Manipulation, disinformation, and radicalization in American politics. Oxford University Press. https://doi.org/10.1093/oso/9780190923624.001.0001

Blei, D. M., Ng, A. Y., & Jordan, M. I. (2003). Latent Dirichlet Allocation. Journal of Machine Learning Research, (3), 993-1022. https://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf

Busón, C., Carabalí Angola, A., Pérez Mendoza, K., & Díez Rodríguez, Á. (2022). Análisis de los comentarios a un pronunciamiento presidencial sobre el COVID-19 en Brasil, realizado el 23 de marzo de 2021. Ámbitos. Revista Internacional de Comunicación, (57), 138-156. https://doi.org/10.12795/Ambitos.2022.i57.08

Bolsonaro, J. M. [@jairmessias.bolsonaro]. (s.f.). [Video publicado en Facebook]. Facebook. https://www.facebook.com/jairmessias.bolsonaro/videos/1032201748215586

Entman, R. M. (1993). Framing: Toward clarification of a fractured paradigm. Journal of Communication, 43(4), 51-58. https://doi.org/10.1111/j.1460-2466.1993.tb01304.x

Farias Coelho, P. M., & Simancas González, E. (2023). Análise comparativa do recorte das imagens veiculadas no Facebook dos candidatos presidenciais no Brasil e na Espanha: Um estudo semiótico. Ámbitos. Revista Internacional de Comunicación, (60), 33-50. https://doi.org/10.12795/Ambitos.2023.i60.10

Helberger, N., Eskens, S., van Drunen, M., Bastian, M., & Moeller, J. (2019). Obligations of platforms and the right to freedom of expression. Journal of Media Law, 11(1), 1-28. https://doi.org/10.1080/17577632.2019.1573562

Iyengar, S., & Westwood, S. J. (2015). Fear and loathing across party lines: New evidence on group polarization. American Journal of Political Science, 59(3), 690-707. https://doi.org/10.1111/ajps.12152

Labbé, C., & Labbé, D. (2013). L’intertextualité dans les publications scientifiques. L’Auteur scientifique. https://hal.science/hal-00840769v1

LDAvis Team. (n.d.). pyLDAvis: Python library for interactive topic model visualization. Read the Docs. https://pyldavis.readthedocs.io/

Martins, R., & Porto Meirelles Leite, S. (2021). “Toda a fonte do mal é a Folha de São Paulo”: A relação entre Bolsonaro e Folha pelas ombudsman. Ámbitos. Revista Internacional de Comunicación (52), 87-101. https://doi.org/10.12795/Ambitos.2021.i52.06

Montoya-Delgado, L. (2022). Religious memes and political polarization in Brazil. Comunicação & Sociedade, (44), 105-125. https://doi.org/10.17231/comsoc.44.2022.3816

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing.

Oliveira, F., Barcelos, J., Dantas, C. A., & Souza, M. G. (2025). Fake news e sustentabilidade: Análise de conteúdos falsos sobre queimadas. Revista Eco-Pós, 28(1), 572-594. https://doi.org/10.29146/eco-ps.v28i1.28217

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press. https://doi.org/10.7312/pari15312

Pinheiro, D. C. (2022). Quando a fake news acelera o Antropoceno: O caso da Floresta Amazônica (2018-2021). Liinc em Revista, 18(1), e5927. https://doi.org/10.18617/liinc.v18i1.5927

Quattrociocchi, W., Scala, A., & Sunstein, C. R. (2016). Echo chambers on Facebook. Social Science Research Network. https://doi.org/10.2139/ssrn.2795110

Senado Federal. (2023). Projeto de Lei nº 2.338, de 2023: Dispõe sobre o uso da inteligência artificial no Brasil. https://www25.senado.leg.br/web/atividade/materias/-/materia/157233

Silva-Ramos, P. (2020). Emoções políticas em memes religiosos: Polarização e afetos na campanha de 2018. Revista Latinoamericana de Opinión Pública, 9(1), 67-90. https://doi.org/10.14201/rlop.24231

Sloterdijk, P. (2017). Esferas I: Burbujas. Microsferología (I. Reguera, Trad.; 6.ª ed.). Siruela. (Obra original publicada en 1998).

Sloterdijk, P. (2017). Esferas II: Globos. Macrosferología (I. Reguera, Trad.; 4.ª ed.). Siruela. (Obra original publicada en 1999).

Sloterdijk, P. (2018). Esferas III: Espumas. Esferología plural (I. Reguera, Trad.; 4.ª ed.). Siruela. (Obra original publicada en 2004).

Sunstein, C. R. (2017). #Republic: Divided democracy in the age of social media. Princeton University Press. https://doi.org/10.1515/9781400884711

Tribunal Superior Eleitoral. (2024, 27 de fevereiro). Resolução nº 23.732, de 27 de fevereiro de 2024: Altera dispositivos das Resoluções nos 23.610/2019 e 23.671/2021, para dispor sobre o uso de inteligência artificial nas eleições. https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024

Tufekci, Z. (2017). Twitter and tear gas: The power and fragility of networked protest. Yale University Press. https://doi.org/10.12987/9780300234174

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.