Introducción
La desinformación se ha convertido en uno de los principales desafíos éticos y políticos de nuestro tiempo. La proliferación de contenidos falsos o manipulados, potenciada por la digitalización y el avance de tecnologías de inteligencia artificial, compromete los principios democráticos, la deliberación pública, el derecho a la información veraz e impulsa actitudes de ignorancia activa que alteran de manera preocupante la percepción social de la ciencia, fomentando posturas negacionistas o anticientíficas. La instantaneidad de las redes, la sofisticación de las tecnologías y la erosión de la confianza informativa han redibujado los contornos del debate sobre la verdad, la opinión pública y la responsabilidad individual y colectiva. En las siguientes secciones, se analizan las definiciones y dimensiones del fenómeno, sus retos éticos, epistémicos y políticos, y las principales estrategias normativas, institucionales, tecnológicas y educativas para abordar la desinformación. El enfoque adoptado es integrador y multidisciplinar, combinando perspectivas de la filosofía, la ciencia de la información y la teoría democrática.
1. El fenómeno de la desinformación: definiciones, complejidad e impacto en la sociedad
En un sentido amplio e intuitivo, puede entenderse la desinformación como cualquier transmisión de información —sea intencionada o no— que produce efectos adversos sobre la comprensión, el conocimiento o las prácticas epistémicas, tanto a nivel individual como colectivo. Esta aproximación permite incluir no solo los casos deliberados de manipulación, sino también aquellos fenómenos en los que la difusión acrítica o negligente de contenidos erróneos contribuye a erosionar las condiciones para el juicio informado y el debate público. La desinformación se ha convertido en una amenaza híbrida que atraviesa dimensiones políticas, económicas, sociales, tecnológicas y cognitivas. Aunque las manifestaciones concretas son tan variadas que existe ya una amplia terminología propia de este campo de estudios emergente (Arce García et al 2025), se suelen establecer tres categorías principales dentro de los desórdenes informativos (Wardle/Derakhshan 2017): a) Disinformation (desinformación en sentido estricto) designa la difusión intencionada de datos falsos para engañar o manipular. b) Misinformation (información errónea) se refiere a la circulación de falsedades por error, descuido o desconocimiento. c) Malinformation (información dañina) designa el uso perjudicial de información verídica, p. ej. la revelación dañina de datos privados. Dada la dificultad de determinar la intencionalidad del emisor y la complejidad de su circulación en espacios digitales, “desinformación” se usa también como término genérico para los usos nocivos de la comunicación.
El fenómeno de la desinformación es complejo, multifacético y su enorme impacto en la sociedad se debe a una serie de factores estructurales del nuevo ecosistema informativo: a) La hiperabundancia de información (infodemia, infoxicación) que reduce la capacidad de análisis crítico y aumenta la vulnerabilidad cognitiva ante sesgos y rumores (Byung-Chul 2022). b) El diseño algorítmico de las plataformas de comunicación masiva que crea perfiles psicográficos de los usuarios y moldea así los contenidos que ven, siguiendo las reglas de la economía de la atención, favoreciendo cámaras de eco y reforzando la polarización (Sánchez Martínez 2025). c) El capitalismo de vigilancia que convierte la extracción y comercialización de datos en el nuevo motor de poder y manipulación (Zuboff 2020). d) La fragmentación de la esfera pública común que se desintegra en burbujas ideológicas, comunidades cerradas y cada vez más radicalizadas, y la desaparición de los límites entre la esfera pública, la privada e incluso el espacio íntimo de las personas (Habermas 2025, Arias Maldonado 2024, López García/Campos Domínguez 2025).
Estos factores debilitan los consensos sociales mínimos, socavan la autonomía y autoridad epistémica y erosionan la confianza tanto en los medios como en las instituciones. La irrupción del espacio digital en las democracias complejas de nuestro tiempo ha creado nuevos actores y amenazas a la calidad del debate cívico (Innerarity 2020). La prometedora era de la información ha fomentado las políticas de la posverdad y el pensamiento posfáctico, fenómenos que socavan la diferencia entre verdad y mentira, realidad y ficción, conocimiento y opinión (Wagner 2022). Así, las democracias contemporáneas colapsan gradualmente, no por golpes de Estado, sino por el deterioro interno a manos de líderes electos y partidos políticos que erosionan las normas democráticas desde dentro (Levitsky/Ziblatt 2018). De este modo, las democracias padecen procesos de autocratización progresivos (V-DEM 2023, 2024).
Al mismo tiempo, y vinculado con ello, la desinformación ha fomentado actitudes de ignorancia activa que ponen en entredicho no sólo consensos científicos, por ejemplo, respecto a la crisis climática antropogénica, la eficiencia de las vacunas o la forma de nuestro planeta, sino la objetividad y la integridad científica en general. En respuesta a las diversas posturas pseudo-escépticas han surgido nuevas líneas de investigación en el ámbito de la filosofía de la ciencia y de la epistemología: el campo de la agnotología, del estudio de la ignorancia o duda inducida (Proctor/Schiebinger 2022, Oreskes/Conway 2018), y la investigación sobre negacionismo y conspiracionismo (Diéguez 2022, Ambienta nº 138, Taguieff 2025).
Las dinámicas que configuran los fenómenos de la posverdad se desarrollan mediante procesos entrelazados que pueden organizarse del siguiente modo: a) Escalada afectiva: La movilización emocional prevalece sobre el análisis racional, favoreciendo la identificación grupal, la proliferación de estereotipos y la intensificación de ciclos de indignación y antagonismo social. b) Erosión normativa: Se debilitan los estándares tradicionales del debate público, la verificación y la evidencia, lo que genera escepticismo frente a toda autoridad epistémica y frente al conocimiento experto. c) Vulnerabilidad estructural: Las infraestructuras digitales, orientadas por incentivos económicos y políticos, facilitan la difusión viral de ignorancia manufacturada y refuerzan las divisiones sociales, consolidando burbujas ideológicas y zonas de polarización. d) Ciclos autorreforzados: Todos estos factores interactúan y se potencian mutuamente, encerrando a las sociedades en estados persistentes de crisis epistémica marcados por una caída sostenida de la confianza, el retraimiento del pluralismo y la desafección democrática.
2. Retos ético-políticos
2.1 Autonomía, manipulación y confianza social
Desde una perspectiva ética, la desinformación representa un ataque a la autonomía del individuo, ya que manipula sus procesos de formación de creencias y decisiones. El mercado de la atención con sus aplicaciones digitales para vender, enganchar y aumentar el consumo, paradójicamente reduce las capacidades de atención, de memoria, de empatía (Carr 2014) y transforma genuinamente la creatividad (Albar Mansoa 2024). El perfilado digital o digital profiling, basado en la recolección masiva y el análisis automatizado de datos personales y comportamentales, transforma a los individuos además en objetos de segmentación comercial, política y psicológica sofisticada. A través de la personalización algorítmica, esta vigilancia invisible condiciona tanto la exposición informativa como las preferencias, erosionando la autonomía crítica de cada sujeto y favoreciendo la manipulación emocional y cognitiva a gran escala. Como resultado, disminuye la capacidad de deliberación genuina y se estrechan los márgenes de libertad intelectual, con implicaciones profundas para la autodeterminación y la ciudadanía democrática. Así, las tecnologías del entorno digital afectan cada vez más a la concepción de la realidad y a la identidad personal, social y cultural, generando nuevas formas de dominación al nivel psíquico, físico y jurídico (Echeverría/Almendros 2020). La desinformación erosiona además la confianza, no solo entre ciudadanos, sino también respecto a instituciones, medios y expertos. El daño causado no se limita al ámbito individual, sino que repercute en el tejido social: incide sobre el clima de polarización y crispación, la deslegitimación política, y el debilitamiento de comunidades epistémicas, claves en la transmisión fiable de conocimiento.
2.2 Democracia, opinión pública y pluralidad
El impacto político de la desinformación es especialmente problemático en contextos electorales, debates públicos sensibles o en situaciones de crisis. La manipulación informativa puede inclinar resultados electorales, fomentar el enfrentamiento y socavar la deliberación plural. Frente a ello, las teorías de la democracia deliberativa subrayan que el acceso igualitario a una información veraz es condición de posibilidad para el autogobierno democrático y la justicia.
No obstante, la relación entre democracia, opinión pública y pluralidad informativa en redes digitales presenta una notable complejidad que varía significativamente según el diseño algorítmico y las dinámicas propias de cada plataforma. Si bien existe consenso acerca del potencial de las redes para favorecer burbujas epistémicas y dinámicas de uniformidad, este fenómeno no es uniforme ni automático en todos los contextos. Estudios comparativos demuestran que plataformas como X (Twitter) tienden a intensificar la polarización emocional y el alineamiento grupal mediante algoritmos de recomendación y tendencias, mientras que espacios emergentes como Bluesky o Mastodon promueven mayor descentralización, diversidad de fuentes y control comunitario, aunque no están exentos de la formación de comunidades cerradas o burbujas ideológicas.
La pluralidad en redes sociales, lejos de ser una cuestión dicotómica, se encuentra condicionada por factores que incluyen la arquitectura técnica, los modelos de negocio, la gobernanza digital y las prácticas participativas de los usuarios. La fragmentación de audiencias y la aparición de cámaras de eco no necesariamente implica el cierre absoluto al disenso, sino que puede coexistir con formas de creatividad, activismo y deliberación plural que desafían la homogeneización informativa (Velasco 2023, Torcal 2023).
Al mismo tiempo, hay que subrayar que no todo disenso en redes contribuye a fortalecer la pluralidad y la deliberación democrática; conviene distinguir entre un disenso constructivo, que reconoce la legitimidad del desacuerdo y fomenta el diálogo abierto entre interlocutores diversos, y un disenso destructivo, que transforma el desacuerdo en hostilidad y quiebra los consensos mínimos necesarios para la convivencia democrática. El primero impulsa la apertura y la revisión autocrítica, mientras que el segundo perpetúa divisiones irreconciliables y obstaculiza cualquier posibilidad de renovación democrática.
2.3 Libertad de expresión frente a regulación
El debate regulatorio sobre la desinformación sitúa en primer plano la difícil ponderación entre la protección de la libertad de expresión y la salvaguarda de otros derechos fundamentales, como el derecho al honor, la intimidad, la propia imagen o, de forma destacada, el derecho a recibir información veraz, reconocido en el artículo 20 de la Constitución española. Si bien toda intervención regulatoria debe evitar la censura arbitraria o desproporcionada, resulta igualmente fundamental articular mecanismos eficaces que permitan limitar la difusión de contenidos falsos y protejan a la ciudadanía frente a los impactos sociales y democráticos de la desinformación. La clave reside en construir instrumentos normativos y técnicos que garanticen tanto el pluralismo informativo y la transparencia de los procesos de moderación, como la protección judicial y la posibilidad real de recurso frente a eventuales abusos o restricciones indebidas.
3. Enfoques éticos frente a la desinformación
3.1 Enfoque institucional: actores y distribución de responsabilidades
El desafío de la desinformación es ante todo sistémico: implica múltiples actores, cada uno con responsabilidades éticas propias y diferenciadas. a) Los medios de comunicación deben comprometerse con la verificación rigurosa, evitando el sensacionalismo y el clickbait. b) Las plataformas digitales han adquirido un papel estructural en la amplificación o contención del fenómeno: sus decisiones de diseño algorítmico, moderación y recomendación de contenidos poseen impactos éticos directos y deben regirse por estándares de transparencia, explicabilidad y responsabilidad. c) Los Estados tienen la obligación de salvaguardar la integridad de la esfera pública sin incurrir en censura, asegurando que cualquier intervención sea proporcionada, respetuosa de los derechos humanos y sujeta a control democrático. d) Las instituciones educativas y la sociedad civil cumplen una función formativa fundamental: fomentar la alfabetización mediática, el escepticismo razonado y la cultura deliberativa que permitan resistir la manipulación informativa. e) Finalmente, la comunidad científica y académica debe ofrecer conocimiento riguroso, identificar tendencias emergentes, y participar activamente en la elaboración de políticas y marcos normativos. El reto sistémico de la desinformación requiere una respuesta en clave de responsabilidad compartida y estructural, donde cada actor ejerza sus capacidades en un entramado cooperativo.
3.2 Enfoque regulativo: tensiones entre libertad y control
Regular la desinformación plantea desafíos éticos y jurídicos de gran calado, en los que se tensionan los principios de libertad de expresión y protección frente al daño. La libertad de expresión, reconocida como derecho fundamental, debe articularse con mecanismos que eviten la censura arbitraria y permitan el pluralismo, al tiempo que protejan a la ciudadanía del impacto de narrativas abiertamente engañosas o peligrosas. En la práctica, existen modelos de regulación que abarcan desde la autorregulación sectorial hasta la intervención estatal, pasando por instrumentos supranacionales o recomendaciones de la UNESCO. En los últimos años, la Unión Europea ha avanzado en la creación de marcos regulatorios, como el Código de Buenas Prácticas sobre Desinformación, la Ley de Servicios Digitales, la Ley de Mercados Digitales, o la Ley de Inteligencia Artificial (Oficina C 2023). Todos estos modelos enfrentan el dilema de quién decide qué se considera desinformación punible, cómo garantizar la proporcionalidad y legalidad en medidas restrictivas, y de qué modo evitar la instrumentalización política de estas herramientas.
La moderación algorítmica de contenidos, dependiente de tecnologías opacas y no siempre auditables, añade retos de justicia y explicabilidad: los riesgos de sesgo sistémico o discriminación pueden trasladar el núcleo del problema ético desde el individuo al diseño y la gobernanza de los sistemas automatizados de gestión informativa. Por ello, una ética regulativa requiere también marcos de rendición de cuentas (accountability), mecanismos de recurso y apelación ante decisiones automatizadas y procedimientos de gobernanza democrática, así como la cooperación internacional para evitar vacíos normativos o fragmentaciones legislativas explotadas por actores maliciosos.
En este marco, la clave reside en diseñar mecanismos normativos y técnicos que, lejos de caer en la censura arbitraria o la impunidad informativa, garanticen tanto el pluralismo y la transparencia como el derecho de rectificación y la posibilidad de recurso ante eventuales restricciones indebidas. La eficacia de la protección dependerá de que los procedimientos regulatorios sean proporcionales, sujetos a control democrático y dotados de salvaguardias que preserven la legitimidad y confianza en el sistema informativo, consolidando así una esfera pública digna de sociedades libres y críticas.
3.3 Enfoque tecnológico: diseño ético de plataformas y herramientas
El enfoque tecnológico reconoce que el propio diseño de las infraestructuras digitales condiciona profundamente cómo circula, se produce y se consume la información. Las plataformas no son meros instrumentos neutrales: sus arquitecturas, algoritmos de recomendación y sistemas de moderación automatizada influyen directamente en la amplificación de la desinformación y en la formación de burbujas epistémicas. La irrupción de la inteligencia artificial generativa ha proporcionado, además, nuevas herramientas y formatos para la desinformación (deep fakes de vídeo y audio, imágenes manipuladas, textos automatizados, la simulación de cuentas y perfiles, etc.).
Este enfoque ha generado el desarrollo de los llamados principios de la ética algorítmica y las éticas de la inteligencia artificial (cf. Coeckelberg 2023, Floridi 2024, Lara & Deckers 2023). Los valores clave en el diseño tecnológico responsable son los siguientes: a) Transparencia algorítmica: los criterios bajo los cuales los sistemas priorizan, limitan o visibilizan contenidos deben ser comprendidos y auditables tanto por expertos como por usuarios comunes. b) Explicabilidad y rendición de cuentas: las decisiones automatizadas (por ejemplo, la eliminación de contenidos titulados de desinformación) deben poder ser explicadas públicamente y estar sujetas a apelación y revisión. c) Protección de la privacidad: la recolección y procesamiento de datos personales, especialmente con fines de perfilar conductas o segmentar audiencias, exige el consentimiento informado y mecanismos robustos para evitar abusos, manipulación y filtraciones. d) Robustez y sostenibilidad: los sistemas deben ser técnicamente sólidos, resilientes ante fallos, ataques o sesgos, y socialmente sostenibles, evitando reforzar desigualdades o exclusiones contextuales. e) Consentimiento y autonomía: las interfaces tecnológicas deben facilitar decisiones comprensibles, opciones claras para los usuarios y respeto por la autonomía epistémica y moral de cada individuo. f) Gobernanza participativa: los procesos de desarrollo y supervisión deben involucrar a actores sociales diversos, incluyendo usuarios, expertos en ética, organizaciones civiles y grupos tradicionalmente marginados, para anticipar riesgos y corregir sesgos antes de que se consoliden en el diseño. Finalmente, la ética del diseño tecnológico enfatiza que la lucha contra la desinformación requiere, más allá de la eficiencia técnica, una orientación activa hacia la justicia informativa, la pluralidad y la construcción de confianza colectiva en la esfera pública digital.
3.4 Enfoque educativo: alfabetización mediática y ética epistémica
El enfoque educativo asume que la mejor defensa a largo plazo contra la desinformación es el fortalecimiento de la autonomía crítica de los ciudadanos y la construcción de una cultura epistémica robusta en la sociedad digital. Lejos de limitarse a competencias instrumentales, la alfabetización mediática es un proceso formativo integral que incluye: a) Capacitación para identificar fuentes confiables y métodos efectivos de verificación de información. b) Comprensión de las lógicas de los algoritmos, del fenómeno viral y de las burbujas informativas o cámaras de eco. c) Sensibilidad ante los sesgos cognitivos recurrentes (Kahnemann 2021, Botella I Soler/López Alós 2025), las injusticias epistémicas (Fricker 2017) y ante la manipulación afectiva que propician bulos y rumores.
Desde la ética epistémica, se subraya que educar en el juicio crítico implica no sólo ofrecer herramientas para detectar contenido falso, sino también fomentar una actitud reflexiva y humilde ante la propia vulnerabilidad cognitiva (González Castán 2023). Esto incluye: a) Reconocer los límites del propio saber y la importancia del disenso razonado. b) Desarrollar habilidades para la revisión activa de creencias e informaciones frente a la presión grupal y la polarización digital. c) Recuperar la importancia del diálogo y ejercitar la empatía y el respeto en contextos de debate, como antídoto frente a la demonización y deshumanización del otro. A nivel práctico, la alfabetización mediática debe incorporarse de manera transversal en la educación formal y en las políticas públicas para el acceso universal a recursos de verificación, así como en la formación permanente de periodistas y comunicadores. Promover la resiliencia informacional implica asumir que el error es una constante en la vida democrática y que la clave está en cultivar una ciudadanía capaz de resistir la manipulación, dialogar y contribuir activamente a la salud epistemológica de la esfera pública.
4. Conclusiones
La desinformación supone uno de los mayores retos éticos, epistémicos y políticos de la sociedad digital contemporánea. Su expansión es resultado de dinámicas complejas –económicas, tecnológicas, cognitivas y sociales– que erosionan la confianza pública, la deliberación democrática y la autonomía informativa. El fenómeno desafía los principios de veracidad, responsabilidad y justicia informativa, exigiendo respuestas coordinadas desde la ética normativa, la regulación institucional y el diseño tecnológico responsable.
Frente a una crisis sistémica marcada por la fragmentación, la manipulación algorítmica y la vulnerabilidad cognitiva, solo un enfoque realmente integrado y multidimensional—anclado en la responsabilidad compartida de instituciones, medios, plataformas, sociedad civil y ciudadanía—puede ofrecer respuestas eficaces y justas. No basta con regular o monitorizar; fortalecer la cultura democrática exige reinventar la corresponsabilidad epistémica y generar marcos de transparencia, pluralidad y protección para la autonomía ciudadana. Esto implica repensar nuestros sistemas de gobernanza, nuestra alfabetización crítica y la exigencia ética hacia quienes diseñan y gestionan los entornos digitales.
Este desafío, lejos de condenarnos al escepticismo o al repliegue, abre la posibilidad de una regeneración colectiva. La oportunidad reside en cuidar y reconstruir los espacios para el disenso respetuoso, la colaboración intersectorial y la deliberación informada; en practicar una esperanza cívica activa, crítica y hospitalaria, que convierta cada conversación y cada acto de confianza, diálogo abierto y escucha activa en semillas de un espacio público digital más plural, justo y resiliente. Re-imaginar juntos la comunicación responsable es tanto una urgencia ética como una promesa para revitalizar nuestra vida democrática en la era digital.
Referencias
- Albar Mansoa, J., coord. (2024). Innovación y expresión: un recorrido por las artes, la cultura visual y la inteligencia artificial en la era digital. Madrid: Dykinson.
- Arce García, S. et al. (2025). «125 términos sobre desinformación». En: Trabajos del Foro contra las Campañas de Desinformación: Iniciativas 2024, 8-29. Gobierno de España. Ministerio de Presidencia, Justicia y Relaciones con las Cortes.
- Arias Maldonado, Manuel (2024). (Pos)verdad y democracia. Barcelona: Página indómita.
- Botella i Soler, V. / López Alós, J. (2025). Por qué pensamos lo que pensamos. Barcelona: Arpa Editores.
- Byung-Chul, Han (2022). Infocracia. La digitalización y la crisis de la democracia. Barcelona: Taurus.
- Carr, N. (2014). Atrapados. Cómo las máquinas se apoderan de nuestras vidas. Barcelona: Taurus.
- Coeckelbergh, M. (2023). La filosofía política de la inteligencia artificial. Madrid: Cátedra.
- Diéguez, A. (2024). La ciencia en cuestión. Disenso, negación y objetividad. Barcelona: Herder.
- Echeverría, J. / Almendros, L. (2020). Técnopersonas. Cómo las tecnologías nos transforman. Gijón: Ediciones Trea.
- Floridi, L. (2024). Ética de la Inteligencia Artificial. Barcelona: Herder.
- Fricker, M. (2017). Injusticia epistémica. El poder y la ética del conocimiento. Barcelona: Herder Editorial.
- González Castán, O. (2023). Cognitive Vulnerability. An Epistemological Approach. Berlín/Boston: De Gruyter.
- Habermas, J. (2025). Un nuevo cambio estructural de la esfera pública y la política deliberativa. Madrid: Trotta.
- Innerarity, D. (2020). Una teoría de la democracia compleja. Barcelona: Galaxia Gutenberg.
- Kahnemann, D. (2021). Pensar rápido, pensar despacio. Barcelona: Editorial DeBolsillo.
- Lara, F. / Deckers, J., eds. (2023). Ethics of Artificial Intelligence. Cham: Springer.
- Levitsky, S. / Ziblatt, D. (2018). Cómo mueren las democracias. Barcelona: Ariel.
- López García, G. / Campos Domínguez, E., eds. (2025). La esfera pública posmediática y sus flujos de comunicación. Madrid: Catarata.
- Ministerio para la Transición Ecológica y el Reto Demográfico (2024): Negacionismo. Estratégias y mentiras para retardar la acción climática. Revista Ambienta 138.
- Oficina de Ciencia y Tecnología del Congreso de Diputados (2023) Informe C: Desinformación en la era digital. Una amenaza compleja para las democracias. www.doi.org/10.57952/j3p6-9086
- Oreskes, N. / Conway, E. M. (2018). Mercaderes de la duda. Madrid: Capitán Swing.
- Proctor, R. / Schiebinger, L., eds. (2022). Agnotología. La producción de la ignorancia. Zaragoza: Prensas Universitarias de Zaragoza.
- Sánchez Martínez, M.O. (2025). Los efectos disruptivos de la comunicación digital. Madrid: Dykinson.
- Taguieff, P.A. (2025). Conspiracionismo. Madrid: Alianza.
- V-DEM Institute (2023, 2024). Democracy Report. https://www.v-dem.net/publications/democracy-reports/
- Velasco, G. (2023). Pensar la polarización. Barcelona: Gedisa.
- Wagner, A. (2022). “Retos filosóficos de las sociedades digitales: esbozo de un enfoque sistémico”. En: Dilemata. Revista Internacional de Éticas Aplicadas. 38.
- Wardle, C. / Derakhshan, H. (2017). “Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking”. Council of Europe. https://rm.coe.int/information-disorder-report-november-2017/1680764666
- Zuboff, S. (2020). La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder. Barcelona: Paidós.
Lecturas adicionales recomendadas
- Cortina, A. (2024). ¿Ética o ideología de la inteligencia artificial? El eclipse de la razón comunicativa en una sociedad tecnologizada. Barcelona: Paidós.
- Camps, V. (2011). El gobierno de las emociones. Barcelona: Herder.
- D’Ancona, M. (2019). Posverdad. La nueva guerra en torno a la verdad y cómo combatirla. Madrid: Alianza.
- García Marzá, D. / Calvo, P. “2022). Algorithmic democracy: A critical perspective from deliberative democracy, Cham: Springer.
- Miller, L. (2023). Polarizados. La política que nos divide. Barcelona: Ediciones Deusto.
- Rúas Araujo, J. / Fontenla Pedreira, J., eds. (2023). Contra la desinformación. Manual de herramientas y discursos didácticos para el aula. Madrid: Editorial Fragua. https://debatrue.com/manual-contra-la-desinformacion/
- Sunstein, C.R. (2018). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press.
Informes
- Asamblea General de las Naciones Unidas. Informe del Secretario General 12/08/2022. Contrarrestar la desinformación para promover y proteger los derechos humanos y las libertades fundamentales. https://docs.un.org/es/A/77/287
- Foro contra las campañas de desinformación en el ámbito de la seguridad nacional. Trabajos 2023. Gobierno de España, Ministerio de la Presidencia, Relaciones con las Cortes y Memoria Democrática. https://www.dsn.gob.es/sites/default/files/documents/Foro%20Campañas%20Desinfo%20GT%202023%20Accesible.pdf
- Gaitán Torres, Antonio. Luengo, María. Viciana, Hugo. Seoane Pérez, Francisco. Gil-López, Teresa. Lorenzo-Rodriguez, Javier. Barbarrusa, Daniel. Velasco Arias, Gonzalo. Broncano Rodríguez, Fernando. Müggenburg, Gabriela., Disagreements in Digital Contexts: Varieties, Causes, and Possible Interventions (January 01, 2025). Disponible en SSRN: https://ssrn.com/
abstract=5748943 o http://dx. doi.org/10.2139/ssrn.5748943. Versión en castellano: https://e-archivo.uc3m.es/entities/publication/5941d2ec-07e2-435b-89b8-06717b52c699 - Oficina de Ciencia y Tecnología del Congreso de Diputados (2023) Informe C: Desinformación en la era digital. Una amenaza compleja para las democracias. www.doi.org/10.57952/j3p6-9086
Entradas relacionadas
Cómo citar esta entrada
Wagner, A. (2025), «Ética de la desinformación», Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/etica-de-la-desinformacion/)