Infodemia: desinformación antes, durante y después de la emergencia sanitaria

La desinformación presenta preocupaciones obvias, sobre todo en el contexto de una pandemia. El temor que provoca el avance del covid-19, el confinamiento y el consecuente uso creciente de las redes sociales, sumado al desconocimiento respecto del comportamiento del virus, configuran un escenario propicio para la diseminación de información falsa y/o errónea. Los riesgos que esto implica evidencian la necesidad de reflexionar acerca del alcance del problema, sus peligros y (aquellos de) las posibles soluciones.

“No sólo estamos luchando contra una epidemia; estamos luchando contra una infodemia”, declaró el Director General de la Organización Mundial de la Salud el 15 de febrero de este año, en la Conferencia de Seguridad de Munich. Este neologismo hace referencia a la epidemia global de desinformación que se propaga rápidamente a través de internet y también alcanza los medios de comunicación tradicionales. En este contexto, la sobreabundancia de información, especialmente cuando se trata de información falsa o errónea, plantea un problema grave para la salud pública, dado que las personas necesitan datos confiables para saber qué medidas adoptar para protegerse, para proteger a otrxs y ayudar a mitigar el impacto de la enfermedad. Para responder a este desafío, la OMS ha adoptado distintas estrategias de comunicación que incluyen una plataforma con recursos adaptados a públicos particulares, sesiones informativas con los Estados y trabajo articulado con empresas de internet (como Google, Facebook o YouTube) para que cualquier búsqueda relacionada con el coronavirus ofrezca como primera opción dirigirse al sitio de la OMS o de instituciones estatales de salud pública.

A primera vista tenemos aquí un tema cerrado: existe un trastorno de la información, se han detectado los riesgos que esto implica para la salud y se han desarrollado soluciones. Sin embargo, poniendo el problema en perspectiva, vemos que adquiere otras dimensiones, mayores riesgos y exige otro tipo de soluciones. 

Para empezar, la forma de describir el problema y los términos apropiados para hacerlo parecen ser un problema en sí mismo. La etiqueta “fake news”, por ejemplo, ha sido cuestionada por tratarse de un oxímoron, después de todo ‘noticia’ significa información verificable en el interés público. Una noticia falsa, entonces no merece ser llamada “noticia”, es una imitación fraudulenta presentada como cierta a través de medios de prensa (reales o ficticios). Por otra parte, se ha subrayado que no tiene un significado estable y, por lo tanto, no queda claro qué se está diciendo cuando se usa este neologismo.  

Para tratar de capturar las distintas expresiones de los trastornos de la información, lxs especialistas distinguen aquella que es errónea o engañosa y se difunde sin intenciones maliciosas (misinformation) de la que es a sabiendas falsa y se difunde deliberadamente para confundir o manipular, generalmente con fines políticos y/o económicos (disinformation). 

No se trata de fenómenos nuevos ni de temas poco trabajados desde la academia, pero recientemente han adquirido un particular protagonismo. En los últimos años, los medios a través de los cuales se propaga la información han cambiado de manera significativa en velocidad y magnitud. También se han transformado los flujos de información, tendiendo a la horizontalidad, de modo que quienes antes eran tan sólo receptorxs de información, hoy soy también productorxs y distribuidorxs. Todo esto ha facilitado la proliferación de información falsa y/o errónea sin ningún tipo de control y ha permitido que afecte nuestras decisiones, desempeñando un papel cada vez más importante en los acontecimientos políticos de nuestra historia. Por este motivo el tema recibido una atención creciente y hoy plantea problemas urgentes a una gran variedad de disciplinas, incluyendo la epistemología, la ética y el derecho. 

La difusión de este tipo de información es un problema capaz de dañar a las personas y perturbar las relaciones sociales. Probablemente todxs hayamos sido víctimas de ella en algún momento. Sin ir más lejos, durante las últimas semanas circuló por redes sociales y medios de comunicación todo tipo de información errónea y maliciosa acerca del coronavirus. Leímos entonces recomendaciones sanitarias infundadas y contraproducentes (como las que indicaban tomar bebidas calientes, asegurando que el virus muere a los 26°, o ingerir etanol como medida preventiva), propaganda (distintas teorías conspirativas acerca de la creación del virus como un arma biológica) y promociones explícitas de xenofobia (dirigida especialmente a la población china). En Japón, por ejemplo, se ha desatado el pánico después de que se difundiera que “pasajerxs chinxs de Wuhan con fiebre se deslizaron por la cuarentena del Aeropuerto Internacional de Kansai”. Aunque la información fue desmentida por las autoridades del aeropuerto, el daño ya estaba hecho: la discriminación no tardó en generalizarse y el “#No vengas a Japón” se puso de moda en Twitter. Y en Hong Kong, la cadena de restaurantes Kwong Wing Catering, anunció recientemente a través de Facebook que como medida de salud pública sólo atendería a lxs clientes de habla inglesa o cantonesa, no así lxs hablantes de chino mandarín.

¿Por qué creemos en este tipo de información? La respuesta inmediata y obvia es que no sabemos que es falsa. Además, en ocasiones cuenta con el respaldo de personas en las que confiamos y es razonable que creamos en lo que nos dicen. 

La desinformación explota los intercambios testimoniales, prácticas razonables de transmisión de conocimiento que aceptamos normalmente. Gran parte de nuestro conocimiento sobre el mundo, su historia, incluso sobre nosotrxs mismxs lo obtenemos a través de la palabra de otras personas en las que confiamos. Esto no tiene nada de malo, de hecho es una práctica virtuosa desde el punto de vista epistémico. Nuestro repertorio de conocimientos sería sumamente limitado si estuviera compuesto solamente por aquello de lo que tenemos experiencia directa. Para empezar no podríamos saber de historia ni de astronomía, porque sus objetos son distantes en tiempo y espacio. Pero tampoco podríamos saber nada acerca de temas que requieren de una formación especializada de la que carecemos.  

El problema de depender de otrxs para conocer es que nos expone al engaño. El desafío personal, entonces, reside en ser capaces de desarrollar juicios de credibilidad apropiados, es decir, saber a quién/es creerles y por qué. Esto puede resultar particularmente difícil en contextos de polarización ideológica, que reducen la disposición del público a pensar de manera crítica – efecto que se amplifica cuando la persona que comparte información errónea y/o falsa y su audiencia comparten el mismo signo político.

El filósofo C. Thi Nguyen distingue dos estructuras sociales que refuerzan la separación ideológica y aumentan la confianza de los individuos en sus creencias: las burbujas epistémicas y las cámaras de eco. Las primeras “son redes de información en las que algunas voces relevantes  fueron excluidas por omisión”. Que sean excluídas por omisión significa que no hubo una expulsión, simplemente nadie las sumó a la conversación. Esto es algo que puede ocurrir de manera deliberada (evitamos entrar en contacto con opiniones contrarias a las nuestras) o de manera espontánea (a veces nuestrxs amigxs se nos parecen mucho). Cuando estas redes son nuestra fuente de información estamos en problemas porque estos filtros de afinidad tienden a confirmar todo lo que creemos. 

Las cámaras de eco son estructuras “en las que otras voces relevantes han sido activamente desacreditadas”. En esta estructura se manipula la confianza de lxs miembrxs (como en una secta), que son condicionadxs a desconfiar de todas las fuentes de información no autorizadas. 

Los entornos virtuales favorecen estas estructuras de separación ideológica y, en consecuencia, movilizan nuestros sesgos cognitivos inhibiendo el razonamiento crítico. Google, Facebook y otras plataformas virtuales utilizan algoritmos que filtran la información que vemos. A partir de nuestro historial de clics, el algoritmo de personalización nos presenta resultados personalizados que se acomodan a nuestras creencias, exacerbando el sesgo de confirmación (la inclinación a favorecer la información que confirma nuestras creencias) y el de conveniencia (la tendencia a aceptar información que nos agrada). Por otra parte, la exposición repetida a la misma información (aun cuando esta proceda de la misma fuente) tiene un fuerte impacto psicológico y hace que resulte más persuasiva. 

Las iniciativas que buscan mitigar el flujo y las influencias de la desinformación apuntan en algunos casos a la prevención y en otros a la verificación. Entre las primeras encontramos aquellas políticas estatales que buscan castigar a quienes difunden información falsa y también aquellas adoptadas por las empresas de internet para que detecten la información que promueven bots y trolls y ajusten los algoritmos de manera tal que no respondan a sus manipulaciones. Entre las iniciativas de verificación encontramos aquellas que buscan proporcionar recursos a lxs individuxs para que puedan evaluar la información que reciben. Estas estrategias incluyen las páginas oficiales con información sobre distintos temas (hablamos antes de aquellos relativos al COVID-19), los portales de chequeo (que se dedican a verificar los hechos referidos en afirmaciones públicas y desacreditar engaños virales) y también las guías para detectar y desmentir noticias engañosas (que explican de manera accesible cómo verificar la información).

La estrategia punitiva presenta problemas. En primer lugar porque el castigo no sirve para desalentar el delito. Pero también porque éste sería un delito muy difícil de determinar. ¿Con qué criterio se decidiría si una publicación constituye un crimen? ¿El uso irónico del lenguaje estaría penado? ¿Portales de humor como El mundo today, Darío de Yucatán o The Onnion estarían en infracción?

Los manuales con estrategias para usuari*s suelen dar por supuestas ciertas capacidades que sus destinatari*s no necesariamente tienen y que no pueden ser provistas mediante guías prácticas. Para poder hacer uso del paso a paso de la verificación deberán primero superar los sesgos cognitivos aumentados por los algoritmos – es más probable que se embarquen de manera proactiva en la verificación de la información que desafía su bagaje ideológico y no la que lo confirma. Pero además, usualmente la información maliciosa se presenta en un formato que emula el de artículos periodísticos o de investigación, apela a instituciones académicas (fantasma) y a expertxs (ficticixs o reales pero cuyas áreas de especialidad nada tienen que ver con el tema del que están hablando). Entonces, para poder aprovechar el recurso, lxs usuarixsdeben tener una serie de conocimientos y criterios de evaluación (en el caso del ejemplo, conocimientos acerca del sistema universitario de países remotos y criterios para evaluar la expertise de lxs especialistas). 

Hay algo paradójico en las iniciativas de verificación. Por un lado, nacen del reconocimiento de que hay ciertos (aspectos de algunos) temas que lxs usuarixs ignoran y que van a necesitar ayuda para poder conocer. Por el otro, suelen utilizar términos técnicos (a veces en otros idiomas) que resultan difícilmente procesables y hasta inaccesibles para un público lego. 

Adicionalmente, parecen dar por supuesto que todas las personas expuestas a la misma información verdadera llegarán a las mismas conclusiones y, en consecuencia, no consumirán ni compartirán información falsa y/o errónea. Pero no todas las personas están ni estarán expuestas a la misma información; si eso fuera posible, no necesariamente llegarían a las mismas conclusiones; y aun si llegaran a las mismas conclusiones, eso no implica que dejarían de consumir y compartir información falsa y/o errónea. Después de todo, “la veracidad no siempre sería un elemento decisivo a la hora de inclinarse a consumir y compartir una noticia”

Por otra parte, los sesgos cognitivos también afectan a estas iniciativas. De una manera obvia, porque las personas no tienden a chequear los contenidos coherentes con sus creencias y porque comparten selectivamente los resultados de las verificaciones. Pero también porque los portales de chequeo han sido objetados por sus sesgos tanto en la selección de información a verificar como en sus estrategias de comunicación. 

Los portales de verificación que no tengan estos problemas pueden ser muy útiles y necesarios, sobre todo en tiempos excepcionales, pero como política de largo plazo pueden ser un problema si no se ofrece a lxs individuxs la formación para estar en condiciones de hacer juicios de confiabilidad. Y lo mismo podemos decir acerca del arbitraje del gobierno y las empresas. O tal vez más… ¿Realmente queremos que las empresas y el gobierno auditen y filtren la información que recibimos? Resuenan aquí las preguntas de Shoshana Zuboff, autora de La era del capitalismo de vigilancia: ¿Quién sabe? ¿Quién decide quién sabe? y ¿Quién decide quién decide quién sabe?

Tal vez en el contexto de una emergencia sanitaria estas preguntas nos resulten relativamente sencillas de responder y el filtro de información nos parezca adecuado – siempre y cuando la palabra autorizada sea la de lxs especialistas en salud. Pero la desinformación es un problema que conocíamos antes del covid 19 y que nos seguirá acompañando después de la pandemia, con temas en los que el consenso científico no necesariamente implica un consenso político y mucho menos un acuerdo con las empresas. En estas condiciones ¿es razonable que en adelante, y más allá de los contenidos relacionados con la pandemia, las empresas de tecnología y el gobierno oficien como árbitros de la información? ¿Es posible? ¿Es deseable?