77 El fenómeno de la Desinformación. Análisis crítico y propuestas de actuación desde el ámbito académico Pedro Razquin Zazpe Facultad de Ciencias de la Documentación Universidad Complutense de Madrid Introducción El denominado “fenómeno de la Desinformación” ha alcanzado en los últimos años niveles nunca antes vistos. A partir de las elecciones norteamericanas de 2016, el grave peligro que la Desinformación supone para la vida democrática, las relaciones internacionales y la economía de los países ha hecho saltar todas las alarmas. En una primera aproximación, parece que la irrupción de las redes sociales en el ecosistema informativo tradicional y su forma descentralizada de funcionamiento está en el núcleo del problema. La Desinformación es un problema complejo que no tiene una causa única y que, por tanto, requiere un análisis profundo. Necesitamos identificar con claridad las distintas prácticas englobadas bajo este término genérico y sus causas, los diferentes actores y agentes participantes, y sus distintas responsabilidades, así como los diversos componentes tecnológicos que han propiciado esta situación. Sólo con un conocimiento profundo de esta realidad podremos desarrollar mecanismos y herramientas que nos permitan emprender acciones eficaces para paliar sus efectos negativos. 1. Desinformación: precisiones conceptuales Debido a la proliferación de términos asociados a esta área de investigación: posverdad, fake news, bulos, información errónea, etcétera, entendemos que el primer paso para el análisis del fenómeno de la Desinformación es establecer una delimitación conceptual que nos permita entender el alcance exacto de cada uno de ellos y sus relaciones entre sí. Como afirman Wardle y Derakhshan (2017, p. 4), es necesario “reflexionar críticamente sobre el lenguaje que utilizamos si queremos capturar efectivamente la complejidad del fenómeno”. Solamente sobre esta premisa podremos buscar soluciones y desarrollar proyectos de investigación que ayuden a acabar o, al menos, minimizar, el impacto de la Desinformación en nuestro ecosistema informativo online. A pesar de que existen algunos intentos muy interesantes, como “Defining Fake News” (Tandoc, Lim y Ling 2017), habitualmente se trata de trabajos parciales y, sobre todo, desarrollados en el ámbito de la lengua inglesa. Es necesario desarrollar trabajos terminológicos en nuestra propia lengua. A partir de 2016, dos nuevos términos tuvieron mayor presencia: posverdad (post- truth) y noticias falsas (fake news). Posverdad fue elegida por el Oxford Dictionary (2016) 78 en el 2016. Es un adjetivo “relativo a las circunstancias en las que los hechos objetivos influyen menos a la hora de modelar la opinión pública que los llamamientos a la emoción y a la creencia personal” (traducción de Fundéu). Su amplia extensión es un cambio muy importante en el comportamiento de las audiencias ante las noticias, ya que “la sustancia fundamental de la ‘Post-Verdad’, corrompida y corruptora, es justamente que la verdad ya no importa” (Oxford 2016). Es decir, se trata de una actitud de resistencia emocional ante hechos y pruebas objetivas que tiene mucho que ver con algunos comportamientos psicológicos del ser humano: son los llamados “sesgos cognitivos”, especialmente el sesgo de confirmación que hace más fácil creer y recordar aquellos datos que se ajustan a nuestras creencias previas. Se puede ejemplificar claramente en el comportamiento de los votantes del presidente Trump. A pesar de mentir reiteradamente en sus declaraciones públicas, sus partidarios no dejaron de apoyar al presidente frente a los datos objetivos. Este comportamiento cada vez más extendido no parece tener una solución fácil. Noticias falsas. Aunque no son en absoluto un fenómeno nuevo, la actual proliferación de las noticias falsas tiene dos motivaciones principales subyacentes en su producción: la financiera y la ideológica (Tandoc¸ Lim & Ling, 2018). La motivación financiera trata de obtener un beneficio económico rápido, está muy relacionada con las prácticas poco éticas de cierto tipo de marketing y se basa, en muchos casos, en mecanismos de “clickbait”. Por otro lado, la motivación ideológica o política resulta mucho más peligrosa porque, mediante la difusión de noticias falsas, se trata de inducir comportamientos en el público o la ciudadanía. Esto tiene consecuencias políticas y sociales de gran trascendencia como, por ejemplo, la elección de un determinado gobierno o la extensión de prácticas sanitarias peligrosas (como el movimiento antivacunas). Podemos definir las noticias falsas como información inventada que “imita el contenido de los medios de comunicación en la forma, pero no en el proceso de la organización o la intención” (Lazer et al. 2018, p.1094). Abarcan varias otras prácticas como el contenido manipulado, el uso de material auténtico utilizado en un contexto incorrecto, o los sitios falsos que simulan sitios reconocidos y reales, entre otras. En este sentido, son muy interesantes los trabajos en curso realizado por Wardle (2017), quien intenta desarrollar una tipología completa. 1.1 Desinformación e información errónea En el ámbito académico, se prefiere el término “Desinformación” a fake news. De hecho, existe una corriente muy importante que aboga por suprimir o limitar el uso del término en inglés. La razón más extendida es que éste resulta insuficiente e inadecuado para describir el complejo fenómeno de la Desinformación. También evitamos utilizar el término “noticias falsas” porque se está convirtiendo en un arma política para socavar o atacar a la prensa cuando resulta incómoda al gobierno o a determinados poderes (Sullivan 2017; Wardle y Derakhshan 2017). La Desinformación (disinformation) podría definirse, de acuerdo con el Grupo de Expertos europeos (HLEG), como “información falsa, inexacta o engañosa diseñada, presentada y promovida intencionalmente para causar daño público o con fines de lucro” (HLEG, 2018). El diccionario Oxford añade una matiz que consideramos importante “especialmente la propaganda emitida por una organización gubernamental a un poder rival o a los medios de comunicación”. Es decir, la desinformación tiene un componente político relevante que algunas veces se manifiesta como campañas orquestadas desde los diversos poderes. 79 Además, conviene especificar que la Desinformación no incluye los errores de información, la sátira, la parodia y los comentarios identificados como partidistas (Comisión Europea 2018). La intencionalidad en la creación y difusión de la información falsa es comúnmente admitida con el factor diferenciador entre la Desinformación y la información errónea. La información errónea (Misinformation) se puede entender “como una Información que es falsa pero no creada con la intención de causar daño” (Wardle y Derakhshan 2017). También se excluyen de este concepto la creación y diseminación en línea de contenidos ilegales (en particular, la difamación, incitación al odio e incitación a la violencia) que están sujetos a recursos reguladores en virtud de la legislación nacional o de la Unión Europea. 1.2 Otros términos relacionados Como se ha dicho en este campo, existe una amplia variedad de términos afines. Algunos son tradicionales como “bulo” (hoax), rumor y propaganda, y otros están relacionados directamente con la situación actual del problema. Por su importancia y novedad, destacamos los siguientes: “Burbuja de filtro” (Filter bubble). Esta expresión, creada por Pariser (2011), se refiere al funcionamiento de los algoritmos de búsqueda y sus efectos. Más concretamente indica el aislamiento intelectual que puede ocurrir cuando los sitios web hacen uso de algoritmos para asumir de forma selectiva la información que un usuario desearía ver, y luego proporcionar información al usuario de acuerdo con esta suposición. Los sitios web hacen estas suposiciones en función de la información relacionada con el usuario, como el comportamiento previo del clic, el historial de navegación, el historial de búsqueda y la ubicación (Techopedia). “Fábrica de trolls” (Troll Factory). Se denomina así a una empresa que paga a sus empleados para que escriban comentarios en línea a favor o en contra de alguien o algo que se haga pasar por usuarios comunes de Internet. Sus campañas han tenido enorme impacto en las políticas tanto europeas como estadounidenses. Un ejemplo muy popular por su implicación en las elecciones americanas es la Agencia de Investigación de Internet (IRA). Esta empresa rusa, con sede en San Petersburgo, se dedica a las campañas orquestadas para influir a favor de los intereses políticos del Kremlin. Para ello, la agencia emplea cuentas falsas, registradas en las redes sociales, foros de debate, periódicos en línea y plataformas de videos que actúan de manera coordinada. Muy relacionado con el anterior, el “astroturfing” es una técnica de marketing que consiste en ocultar al verdadero emisor de un mensaje publicitario o propagandístico, y hacerlo pasar por una expresión popular y espontánea (Quaglia 2012). Este procedimiento se ha extendido al mundo de la política. Uno de los ejemplos de astroturfing más conocido es el Partido de los cincuenta centavos, una denominación peyorativa y no oficial aplicada a comentaristas de Internet contratados por el gobierno de China para publicar comentarios favorables hacia sus políticas como si fueran las opiniones de ciudadanos normales participando en foros de debate en Internet. Creemos que, desde el ámbito académico, y más concretamente desde nuestra especialidad, Biblioteconomía y Ciencias de la Información, familiarizada con los tesauros y las ontologías, se pueden hacer aportaciones muy útiles en este trabajo terminológico pendiente. 80 2. Ecosistema informativo y mecanismos de difusión El ecosistema informativo del siglo XXI, marco contextual donde se produce el problema de la Desinformación, se puede caracterizar de forma resumida de la siguiente manera: en cuanto a los cambios estructurales, “el paso de un entorno del siglo XX dominado por los medios masivos impresos y de radiodifusión a un entorno cada vez más digital, móvil y de redes sociales” (Nielsen y Graves 2017, p 2) ; en cuanto a los cambios en comportamiento y hábitos de los usuarios de la información, “Si los viejos consumidores se suponían pasivos, los nuevos consumidores son activos. Si los viejos consumidores eran predecibles […] los nuevos consumidores son migratorios […] si los viejos consumidores eran individuos aislados, los nuevos consumidores están más conectados socialmente” (Jenkins 2008, p. 29Esta ). situación coincide con la aparición de grandes plataformas tecnológicas como Google, Facebook, You Tube y Twitter, que dominan los canales de acceso y distribución a la información y han configurado las nuevas formas de consumo de la información. “Este pequeño número de grandes compañías de plataformas influye cada vez más en el consumo de medios a través de servicios como búsqueda, las redes sociales y aplicaciones de mensajería” (Bell et al., 2017; Nielsen y Ganter 2017, p. 2). 2.1 Mecanismos de difusión Como ya se ha indicado, las plataformas de Internet se han convertido en los habilitadores más importantes y en los canales principales de las noticias falsas. En este contexto, habría que diferenciar dos tipos principales de mecanismos de difusión: los agentes humanos y los agentes computacionales conocidos como bots (abreviatura para robots). Algunos estudios, como el de Vosoughi, Roy y Aral (2018), apuntan a que la amplificación y la difusión de noticias falsas producida por las personas es superior a la producida por los sistemas automáticos. La corrección de este efecto pasaría por intervenciones encaminadas a modificar la conducta de los usuarios de la información, como las propuestas más adelante. Sin embargo, en este estudio, nos interesa más la influencia de los bots, que es muy relevante en las redes sociales. En concreto, de los social bots, “algoritmos de ordenador que producen automáticamente contenido e interactúan con los humanos en las redes sociales, tratando de emular y posiblemente alterar su comportamiento” (Ferrara et al. 2016, p. 96). Éstos son cada vez más sofisticados y difíciles de reconocer por los humanos. De hecho, se estima que entre el 9 y el 15 por ciento de las cuentas activas Twitter son bots (Varol et al. 2017, p.1). Por su parte, en 2017 “Facebook reveló a sus inversores que tenía al menos el doble de usuarios falsos que los estimados anteriormente, lo que indica que existen unas 60 millones de cuentas automatizadas en la plataforma de medios sociales más grande del mundo” (Confessore et al. 2018, p.1). Se está produciendo un incremento de bots cada vez más sofisticados. Ante esta situación, aunque ya existen algunos sistemas de detección, su perfeccionamiento es cada vez más necesario. Aunque los enfoques lingüísticos y los que están basados en la red han demostrado ser muy efectivos, en ámbitos específicos (Conroy et al. 2015) resulta necesario el diseño de herramientas de detección más eficientes. Es fácil imaginar un futuro los ecosistemas de redes sociales donde la interacción máquina-máquina sea la norma, y los seres humanos, que navegan en ese entorno poblado mayoritariamente por bots, necesitan ineludiblemente reconocerlos. 2.2 Formas de consumo información Las redes sociales incrementan su importancia como nuevos medios de comunicación y 81 acceso a las noticias al mismo tiempo que desciende la confianza en los medios de comunicación tradicionales. Aunque existen algunas diferencias cuantitativas, culturales y geográficas, los datos actuales parecen indicar una tendencia al alza en esta práctica. En 2016, para el 57 por ciento de los usuarios de la Unión Europea (UE) las principales formas de leer noticias en línea fueron los motores de búsqueda y los agregadores de noticias de las redes sociales (Eurobarometer 2016). En el caso de los jóvenes (de dieciocho a veinticuatro años), para un tercio las redes sociales son su principal fuente de información (Reuters 2018). Por otra parte, el 80 por ciento de los europeos han recibido información que consideran falsa o engañosa varias veces al mes o con mayor frecuencia. A pesar de esto, los encuestados europeos perciben a los medios tradicionales como la fuente de noticias más confiable: radio (70 por ciento), televisión (66 por ciento) y periódicos impresos y revistas de noticias (63 por ciento). En Estados Unidos, en 2017, dos tercios (67 por ciento) de los estadounidenses informan que reciben al menos algunas de sus noticias en las redes sociales, y dos de cada diez lo hacen con frecuencia, según los datos de Shearer y Gottfried (2016). En cuanto al uso de las redes, Facebook ocupa el primer lugar entre las redes sociales como fuente de noticias. You Tube ocupa el segundo puesto y Twitter el tercero. Entre los estadounidenses, el incremento de uso más sustancial se produce entre las personas mayores, menos educadas y no blancas. Aunque todas ellas han crecido en usuarios, su uso como fuente de información varía dependiendo de la red; por ejemplo You Tube. El 58 por ciento de la población es usuaria de esta red, pero sólo lo usa como fuente de información un 18 por ciento, mientras que Twitter es usada como fuente por un 74 por ciento, lo que representa sólo el 11 por ciento de la población adulta. El problema principal del uso de las redes como fuente de información se deriva de que, a diferencia de los medios de comunicación tradicionales, el contenido se comparte “sin un significativo filtrado realizado por terceros, ni verificación de datos o juicio editorial” (Allcott y Gentzkow 2017, p. 2). Además, el comportamiento confiado de los usuarios facilita esta contaminación ya qu,e como demuestra el estudio de Boshmaf et al. (2013), el 20 por ciento de los usuarios de Facebook acepta indiscriminadamente las peticiones de amistad de desconocidos y el 60 por ciento las acepta desde cuentas que al menos un contacto en común. 3. Propuestas de actuación de la universidad frente a la Desinformación La contribución de la universidad y, en general, de las instituciones educativas en la lucha contra la Desinformación, se puede articular en dos ejes principales de actuación. 3.1 Acciones formativas Se propone promover o potenciar la formación de los estudiantes (y por extensión de los ciudadanos) en la Alfabetización Mediática e Informacional (MIL). Este término, se refiere a “la capacidad de leer, analizar, evaluar y producir la comunicación en una variedad de formas de medios de comunicación (por ejemplo, la televisión, la prensa, la radio, ordenadores, etc.)” (Unesco 2013a, p.180) y, consecuentemente, permite a “los ciudadanos participar de manera efectiva con medios de comunicación y otros proveedores de información y desarrollar el pensamiento crítico y habilidades de aprendizaje permanente para la socialización y convertirse en ciudadanos activos” (Unesco 2013b). Entendemos que una persona bien formada en el conocimiento y funcionamiento de los medios de comunicación es capaz de enfrentarse a las diversas técnicas de Desinformación y, por lo tanto, más resistente a la manipulación. En nuestra opinión, este 82 trabajo de formación es una respuesta de máxima importancia y efectividad para contrarrestar la Desinformación y coincide con una de las cinco líneas de actuación propuestas por los expertos europeos en 2018. Como elemento adicional de esta tarea educativa, consideramos igualmente importante la formación de los estudiantes en la lectura de la imagen y, más concretamente, en el análisis de gráficos. Por una parte, la audiencia en general y las jóvenes generaciones, en particular, tienden a dar credibilidad a las imágenes de una manera poco crítica y sin excesiva reflexión o análisis. Conviene recordar que este tipo de mensaje informativo resulta más directo, convincente y perdurable en la memoria que los textos. En el caso de la manipulación de fotográfica, los retoques resultan más fácilmente identificables mediante un examen detallado o el uso de software especializado como Fotoforensics o Izitru. Pero en el caso de los gráficos, descubrir la manipulación no resulta tan fácil. Si bien los gráficos son extremadanamente útiles como ayuda para visualizar y difundir información compleja, existen algunas técnicas de manipulación cada vez más habituales que resultan muy efectivas para producir Desinformación basada en datos estadísticos o numéricos reales. Las prácticas más frecuentes son el uso de ejes cortados, la combinación de escalas, uso engañoso del 3D o la falta de datos (cherry picking). En este sentido, nuestra propuesta consiste en actualizar los programas de estudio mediante la inclusión de asignaturas de Visualización de datos. Entendemos que un profesional de la información adiestrado en la creación de gráficos como la manera más eficiente de transmitir datos complejos, también estará de capacitado para detectar de forma inmediata cualquiera de estas prácticas malintencionadas. Por último, proponemos reforzar la formación ética en la difusión de información. Debemos hacer conscientes a los usuarios de que el simple hecho de compartir una publicación o una imagen sin verificar aumenta el ruido y la confusión (Wardle 2017). Es decir, se trata de evitar el efecto amplificador que los retuits impulsivos tienen y paliar la contaminación informativa provocada por las mentiras y falsedades de origen interesado. Para desarrollar estas actuaciones educativas, sugerimos la aplicación de metodologías formativas innovadoras que resulten más efectivas y acordes con el estudiante destinatario, joven nativo digital y usuario frecuente de las redes sociales. Destacamos la gamificación, como el magnífico ejemplo de Roozenbeek y Van der Linden (2018), que crearon un juego donde nos proponen “Estoy aquí para ayudarte a convertirte en un magnate de la Desinformación y las noticias falsas” y los menos frecuentes “entornos de simulación” que resultan altamente estimulantes para los jóvenes actuales. 3.2 Acciones de investigación y desarrollo El segundo gran eje de actuación de la universidad se articula en el desarrollo de la investigación en las diversas áreas de conocimiento (tecnología, gestión de la información, psicología, economía, etc.) implicadas en el fenómeno. Resulta particularmente importante la investigación colaborativa con los diversos agentes (stakeholders) implicados, ya sean medios de comunicación, plataformas online o instituciones gubernamentales. En este sentido, una línea de actuación ya mencionada que consideramos prioritaria es la conceptualización de los términos relativos a la Desinformación. El resultado puede tomar la forma de tesauro y resultar ser una herramienta básica y de gran utilidad para los equipos de trabajo multidisciplinares. La universidad y sus especialistas informáticos en colaboración con las plataformas tecnológicas pueden desarrollar herramientas nuevas y más efectivas para detectar los bots. 83 Estos programas que progresivamente irán incorporando más técnicas de la Inteligencia artificial y el “machine learning”, permitirán a los consumidores de información el reconocimiento de este tipo de interlocutores y a las plataformas proveedoras de servicios ofrecer a sus clientes entornos libres de cuentas y perfiles falsos aumentando considerablemente su prestigio. Se propone la participación de las universidades, especialmente de las facultades de Comunicación, en confluencia con los medios de comunicación y también con los agentes sociales, para la puesta en marcha sistemas de verificadores de datos independientes. También, dentro de esta misma línea de colaboración, proponemos la creación de nuevos códigos de conducta profesionales adaptados a las necesidades de la comunicación online que tradicionalmente han representado el compromiso ético de los medios de comunicación con la verdad. 4. Conclusiones y reflexiones finales El problema de la Desinformación es uno multifacético, con muchos y diferentes participantes y variadas causas; por lo tanto, no tiene una solución simple. Las medidas más efectivas para combatirlo deberían ser tomadas de forma coordinada entre los distintos agentes: gobiernos, plataformas tecnológicas, medios de comunicación, instituciones educativas y usuarios consumidores de información. Las medidas legislativas tomadas por los distintos gobiernos e instituciones reguladoras, como el filtrado de información, los bloqueos o el cierre de espacios digitales, deben mantener un delicado equilibrio entre el control del problema y la libertad de expresión, entendida como el derecho de los ciudadanos al acceso y difusión de la información. Necesitamos conocer el alcance real del fenómeno ya que “con la parcial excepción de USA, carecemos incluso de la información más básica sobre la escala del problema en casi todos los países” (Fletcher et al., 2018, p.1 ). Es decir, son necesarios estudios más amplios y profundos de la situación. Además, a pesar de tratarse de un fenómeno global, se deben de tener en cuenta las características económicas, políticas y culturales de las distintas regiones afectadas. La universidad y las distintas instituciones educativas, inclusive siendo sólo uno de los agentes participantes, puede desarrollar una importante labor para mejorar la situación. En nuestra área de trabajo específica, Bibliotecas y Ciencias de la Información (LIS), incrementar la alfabetización MIL de usuarios puede considerarse de gran efectividad ya que, como demuestran algunos estudios, las personas tienen mayor impacto en la difusión y amplificación de la Desinformación que los propios bots o sistemas automáticos (Vosoughi et al. 2018). Además esta actuación estaría en sintonía con las directrices de la Comisión Europea (2018) y la UNESCO. Las técnicas pedagógicas aplicadas deberían actualizarse para estar en sintonía con las nuevas generaciones de estudiantes a las que esta formación va destinada principalmente. Los sistemas de detección de bots deben perfeccionarse ya que creemos que “existe la necesidad de que bots y humanos puedan reconocerse entre sí, para evitar situaciones extrañas o incluso peligrosas basadas en suposiciones falsas de interlocutores humanos” (Ferrara et al. 2016, p. 104). 84 Allcott, Hunt y Matthew Gentzkow. “Social media and fake news in the 2016 election”, Journal of Economic Perspectives, núm. 31, vol. 2 (2017): 211-36 Boshmaf, Yazan; Ildar Muslukhov, Konstantin Beznosov y Matei Ripeanu. “Design and analysis of a social botnet”, Computer Networks, vol. 57, núm. 2 (2013): 556-78. Confessore, Nicholas; Gabriel JX Dance, Richard Harris y Mark Hansen. “The follower factory”, The New York Times, 27 de enero de 2018. Comisión Europea. “La lucha contra la desinformación en línea: un enfoque europeo”. Comunicación de la Comisión al Parlamento europeo, al Comité económico y social europeo y al Comité de las regiones, 2018. Disponible en: https://ec.europa.eu/transparency/regdoc/rep/1/2018/ES/COM-2018-236-F1-ES- MAIN-PART-1.PDF. Eurobarometer. Internet users’ preferences for accessing content online, 2016. Disponible en https://ec.europa.eu/digital-single-market/en/news/eurobarometer-internet-users- preferences-accessing-content-online. European Commission. A multi-dimensional approach to disinformation: Report of the independent High level Group on fake news and online disinformation. Luxemburgo: Unión europea, 2018. Disponible el 28 de noviembre de 2018 en https://publications.europa.eu/en/publication-detail/-/publication/6ef4df8b-4cea- 11e8-be1d-01aa75ed71a1. Ferrara, Emilio; Onur Varol, Clayton Davis, Filippo Menczer y Alessandro Flammini. “The rise of social bots”, Communications of the ACM, núm. 59, vol. 7 (2016): 96-104. Flaxman, Seth; Sharad Goel y Justin M. Rao. “Filter bubbles, echo chambers, and online news consumption”, Public Opinion Quarterly, vol. 80, núm. S1 (2016): 298-320. Graves, Lucas y Federica Cherubini. 2016. The rise of fact-checking sites in Europe. Oxford: Oxford University, 2016. Disponible el 28 de noviembre de 2018 en https://reutersinstitute.politics.ox.ac.uk/our-research/rise-fact-checking-sites-europe. Jenkins, Henry. Convergence Culture: La cultura de la convergencia de los medias de comunicación. Barcelona: Paidós, 2008. Lazer, D. M. J. et al. ”The Science of Fake News”, Science, núm. 359, vol. 6380 (2018): 1094-6. Newman, Nic et al. 2017. Reuters Institute Digital News Report. Oxford: Reuters Institute for the Study of Journalism, 2017. Nielsen, Rasmus Kleis y Lucas Graves. News you don’t believe: Audience perspectives on fake news. Oxford: Reuters Institute, 2017. Oxford Dictionary. “Word of the year 2016 is…”. Página web, 2016. Disponible el 27 de noviembre de 2018 en https://en.oxforddictionaries.com/word-of-the-year/word-of- the-year-2016. Pariser, Eli. The filter bubble: What the internet is hiding from you. United Kingdom: Penguin, 2011. Quaglia, Juan. “¿Qué es el astroturfing?, Marketingaholic, 2012. Disponible el 28 de noviembre de 2018 en https://marketingaholic.com/astroturfing/1560/. Roozenbeek, Jon y Sander van der Linden. “The fake news game: actively inoculating against the risk of misinformation”, Journal of Risk Research, 2018. Doi: 10.1080/13669877.2018.1443491 Shearer, Elisa y Jeffrey Gottfried. “News use across social medial platforms”, Journalism and Media Pew Research Center, 2016. Disponible el 28 de noviembre de 2018 en http://www.journalism.org/2016/05/26/news-use-across-social-media-platforms-2016/ Bibliografía https://ec.europa.eu/transparency/regdoc/rep/1/2018/ES/COM-2018-236-F1-ES-MAIN-PART-1.PDF https://ec.europa.eu/transparency/regdoc/rep/1/2018/ES/COM-2018-236-F1-ES-MAIN-PART-1.PDF https://ec.europa.eu/digital-single-market/en/news/eurobarometer-internet-users-preferences-accessing-content-online https://ec.europa.eu/digital-single-market/en/news/eurobarometer-internet-users-preferences-accessing-content-online https://marketingaholic.com/astroturfing/1560/ 85 . Stahl, Bernd Carsten. “On the difference or equality of information, misinformation, and disinformation: A critical research perspective”, Informing Science, núm. 9 (2006). Sullivan, Margaret. “It’s Time to Retire the Tainted Term ‘Fake News’”. Washington Post, 8 de enero de 2017. Disponible el 28 de noviembre de 2018 en https://www.washingtonpost.com/lifestyle/style/its-timeto-retire-the-tainted-term- fake-news/2017/01/06/a5a7516c-d375-11e6-945a-76f69a399dd5_story.html. Tandoc Jr, Edson C., Zheng Wei Lim y Richard Ling. “Defining ‘Fake News’. A Typology of Scholarly Definitions”. Digital Journalism, núm. 6, vol. 2 (2018): 137-53. Techopedia. “Filter Bubble”, s.f. Disponible el 28 de noviembre de 2018 en https://www.techopedia.com/definition/28556/filter-bubble. UNESCO. Media and Information Literacy Policy and Strategy Guidelines. París: UNESCO, 2013a. Disponible en http://unesdoc.unesco.org/images/0022/002256/225606e.pdf. ___. Global Media and Information Literacy Assessment Framework: Country Readiness and Competencies. París: UNESCO, 2013b. Disponible en http://unesdoc.unesco.org/images/0022/002246/224655e.pdf. Varol, Onur; Emilio Ferrara, Clayton A. Davis, Filippo Menczer y Alessandro Flammini. “Online human-bot interactions: Detection, estimation, and characterization”, ArXiv Preprint arXiv:1703.03107, 2017. Vosoughi, S. Automatic detection and verification of rumors on Twitter. Tesis doctoral, MIT, 2015. Vosoughi, S.; D. Roy y S. Aral. 2018. “The spread of true and false news online”, Science núm. 359, vol. 6380 (2018): 1146-51 Wardle, Claire y Hossein Derakhshan. Information disorder: Toward an interdisciplinary framework for research and policy making. Estrasburgo: Consejo de Europa, 2017. Disponible el 28 de noviembre de 2018 en https://rm.coe.int/information-disorder- toward-an-interdisciplinary-framework-for-researc/168076277c. Wardle, Claire. “Fake news. It’s complicated”, First Draft, 2017. Disponible el 28 de noviembre en https://firstdraftnews.org/fake-news-complicated/ https://www.techopedia.com/definition/28556/filter-bubble http://unesdoc.unesco.org/images/0022/002256/225606e.pdf http://unesdoc.unesco.org/images/0022/002246/224655e.pdf https://firstdraftnews.org/fake-news-complicated/