Por qué el efecto contraproducente no explica la durabilidad de las percepciones políticas erróneas
Tabla de contenidos
- 1 ***
- 2 Cómo las redes sociales nos llevaron de la plaza Tahrir a Donald Trump
- 3 Por qué el efecto contraproducente no explica la durabilidad de las percepciones políticas erróneas
- 3.1 La prevalencia y la importancia de las percepciones erróneas
- 3.2 El efecto contraproducente: hallazgos frente a interpretaciones
- 3.3 Revisando el récord en contraataque
- 3.4 Otras posibles explicaciones de la persistencia de la percepción errónea
- 3.5 Estrategias alternativas para reducir las percepciones erróneas
- 3.6 Un enfoque centrado en los intermediarios para combatir las creencias falsas
- 3.7 Disponibilidad de datos
- 3.8 Expresiones de gratitud
- 3.9
- 3.10
- 3.11 Notas al pie
- 3.12
- 3.13
- 3.14 Referencias
***
Para comprender cómo las tecnologías digitales pasaron de ser instrumentos para difundir la democracia a armas para atacarla, hay que mirar más allá de las tecnologías en sí mismas.Por Zeynep Tufekci, 2018
1. La euforia del descubrimiento
Cuando la Primavera Árabe convulsionó el Medio Oriente en 2011 y los líderes autoritarios se derrumbaron uno tras otro, viajé por la región para tratar de comprender el papel que estaba jugando la tecnología. Charlé con manifestantes en cafés cerca de la plaza Tahrir en El Cairo, y muchos afirmaron que mientras tuvieran Internet y el teléfono inteligente, prevalecerían. En Túnez, activistas envalentonados me mostraron cómo habían usado herramientas de código abierto para rastrear los viajes de compras a París que la esposa de su autocrático presidente había tomado en aviones del gobierno. Incluso los sirios que conocí en Beirut seguían siendo optimistas; su país aún no había caído en una guerra infernal. Los jóvenes tenían energía, inteligencia, humor y teléfonos inteligentes, y esperábamos que el destino de la región se volviera a favor de sus demandas democráticas.
De vuelta en los Estados Unidos, en una conferencia en 2012, utilicé una captura de pantalla de un video viral grabado durante las protestas callejeras iraníes de 2009 para ilustrar cómo las nuevas tecnologías estaban dificultando las cosas para los guardianes de la información tradicionales, como los gobiernos y los medios de comunicación. para reprimir o controlar el discurso disidente. Era una imagen difícil de ver: una mujer joven yacía desangrándose en la acera. Pero ahí residía su poder. Solo una década antes, lo más probable es que nunca se hubiera tomado (¿quién llevaba cámaras de video todo el tiempo?), Y mucho menos se hubiera vuelto viral (¿cómo, a menos que fuera dueño de una estación de televisión o un periódico?). Incluso si un fotógrafo de noticias hubiera estado allí, la mayoría de las organizaciones de noticias no habrían mostrado una imagen tan gráfica.
En esa conferencia, hablé sobre el papel de las redes sociales para romper lo que los científicos sociales llaman “ignorancia pluralista”: la creencia de que uno está solo en sus puntos de vista cuando en realidad todos han sido silenciados colectivamente. Esa, dije, era la razón por la que las redes sociales habían fomentado tanta rebelión: personas que antes estaban aisladas en su disensión encontraron y se fortalecieron unas a otras.
Twitter, la empresa, retuiteó mi charla en una convocatoria para que los solicitantes de empleo «se unan al rebaño». El entendimiento implícito era que Twitter era una fuerza para el bien en el mundo, del lado de la gente y sus revoluciones. A los nuevos guardianes de la información, que no se veían a sí mismos como guardianes sino simplemente como “plataformas” neutrales, no obstante les agradaba el potencial cambiante de sus tecnologías.
Compartí el optimismo. Yo mismo provenía del Medio Oriente y había estado observando a los disidentes usar herramientas digitales para desafiar a un gobierno tras otro.
Pero un cambio ya estaba en el aire.
Durante el levantamiento de Tahrir, el cansado autócrata de Egipto, Hosni Mubarak, había cortado torpemente el servicio de Internet y el servicio celular. La medida fue contraproducente: restringió el flujo de información que salía de la plaza Tahrir, pero provocó un aumento en la atención internacional sobre Egipto. No había entendido que en el siglo XXI lo que importa es el flujo de atención, no la información (de la que ya tenemos demasiada). Además, los amigos de los valientes revolucionarios de El Cairo volaron rápidamente con teléfonos satelitales, lo que les permitió continuar dando entrevistas y enviando imágenes a las organizaciones de noticias globales que ahora tenían aún más interés en ellos.
A las pocas semanas, Mubarak fue expulsado. Un consejo militar lo reemplazó. Lo que hizo entonces presagió mucho de lo que estaba por venir. El Consejo Supremo de las Fuerzas Armadas de Egipto abrió rápidamente una página de Facebook y la convirtió en el medio exclusivo para sus comunicados. Había aprendido de los errores de Mubarak; jugaría pelota en el terreno de los disidentes.
Dentro de unos años, la esfera online de Egipto cambiaría drásticamente. “Tuvimos más influencia cuando solo estábamos nosotros en Twitter”, me dijo un activista prominente en las redes sociales. «Ahora está lleno de disputas entre disidentes [que están] siendo acosados por partidarios del gobierno». En 2013, tras las protestas contra un gobierno civil incipiente pero divisivo, los militares tomarían el control.
El poder siempre aprende y las herramientas poderosas siempre caen en sus manos. Esta es una dura lección de historia, pero sólida. Es clave para comprender cómo, en siete años, las tecnologías digitales han pasado de ser aclamadas como herramientas de libertad y cambio a ser culpadas de los trastornos en las democracias occidentales, por permitir una mayor polarización, un aumento del autoritarismo y la intromisión en las elecciones nacionales de Rusia y otros. .
Pero para comprender completamente lo que ha sucedido, también debemos examinar cómo la dinámica social humana, la conectividad digital ubicua y los modelos comerciales de los gigantes tecnológicos se combinan para crear un entorno en el que prospera la desinformación e incluso la información verdadera puede confundir y paralizar en lugar de informar e iluminar. .
2. La audacia de la esperanza
La elección de Barack Obama en 2008 como el primer presidente afroamericano de los Estados Unidos había prefigurado la narrativa de la tecnología de la Primavera Árabe que empodera a los desamparados. Era un candidato poco probable que había salido triunfante, venciendo primero a Hillary Clinton en las primarias demócratas y luego a su oponente republicano en las elecciones generales. Tanto sus victorias de 2008 como de 2012 provocaron una avalancha de artículos elogiosos sobre el uso intensivo de datos y conocimientos tecnológicos de su campaña en las redes sociales, la elaboración de perfiles de votantes y la microtargeting. Después de su segunda victoria, MIT Technology Review presentó a Bono en su portada, con el titular «Big Data salvará la política» y una cita: «El teléfono móvil, la red y la difusión de información: una combinación mortal para los dictadores».
Sin embargo, yo y muchos otros que observaban regímenes autoritarios ya estábamos preocupados. Un tema clave para mí fue cómo la microtargeting, especialmente en Facebook, podría usarse para causar estragos en la esfera pública. Era cierto que las redes sociales les permitían a los disidentes saber que no estaban solos, pero la microtargeting en línea también podría crear un mundo en el que no sabría qué mensajes estaban recibiendo sus vecinos o cómo los que estaban dirigidos a usted se estaban adaptando a sus deseos y vulnerabilidades. .
Las plataformas digitales permitieron que las comunidades se reunieran y formaran de nuevas formas, pero también dispersaron a las comunidades existentes, aquellas que habían visto las mismas noticias de televisión y leído los mismos periódicos. Incluso vivir en la misma calle significaba menos cuando la información se difundía a través de algoritmos diseñados para maximizar los ingresos manteniendo a las personas pegadas a las pantallas. Fue un cambio de una política pública y colectiva a una más privada, dispersa, con actores políticos recolectando cada vez más datos personales para descubrir cómo presionar los botones correctos, persona por persona y fuera de la vista.
Temía que todo esto pudiera ser una receta para la desinformación y la polarización.
Poco después de las elecciones de 2012, escribí un artículo de opinión para el New York Times expresando estas preocupaciones. No queriendo sonar como un cascarrabias, subestimé mis miedos. Simplemente defendí la transparencia y la responsabilidad por los anuncios políticos y el contenido en las redes sociales, similar a los sistemas establecidos para los medios regulados como la televisión y la radio.
La reacción fue rápida. Ethan Roeder, director de datos de la campaña de Obama 2012, escribió un artículo titulado «No soy el gran hermano», en el que calificaba esas preocupaciones de «malarkey». Casi todos los científicos de datos y demócratas con los que hablé estaban terriblemente irritados por mi idea de que la tecnología podría ser cualquier cosa menos positiva. Los lectores que comentaron mi artículo de opinión pensaron que solo estaba siendo un aguafiestas. Aquí había una tecnología que permitió a los demócratas ser mejores en las elecciones. ¿Cómo podría esto ser un problema?
3. La ilusión de la inmunidad
Los revolucionarios de Tahrir y los partidarios del Partido Demócrata de Estados Unidos no estaban solos en pensar que siempre tendrían la ventaja.
La Agencia de Seguridad Nacional de EE. UU. Tenía un arsenal de herramientas de piratería basadas en vulnerabilidades en tecnologías digitales: errores, puertas traseras secretas, exploits, atajos en matemáticas (muy avanzadas) y poder de cómputo masivo. Estas herramientas se denominaron “nadie más que nosotros” (o NOBUS, en la comunidad de inteligencia amante de las siglas), lo que significa que nadie más podía explotarlas, por lo que no había necesidad de parchear las vulnerabilidades o fortalecer la seguridad informática en general. La NSA parecía creer que la debilidad de la seguridad en línea perjudicaba a sus adversarios mucho más que a la NSA.
Esa confianza no parecía injustificada para muchos. Después de todo, Internet es principalmente una creación estadounidense; sus empresas más grandes se fundaron en los Estados Unidos. Los informáticos de todo el mundo todavía acuden al país con la esperanza de trabajar para Silicon Valley. Y la NSA tiene un presupuesto gigante y, según se informa, miles de los mejores hackers y matemáticos del mundo.
Dado que todo está clasificado, no podemos conocer la historia completa, pero entre 2012 y 2016 no hubo al menos un esfuerzo fácilmente visible para «fortalecer» significativamente la infraestructura digital de los EE. UU. Tampoco se hicieron fuertes alarmas sobre lo que podría significar una tecnología que traspasa fronteras. Los flujos de información global facilitados por plataformas globales significaban que ahora alguien podía sentarse en una oficina en Macedonia o en los suburbios de Moscú o San Petersburgo y, por ejemplo, construir lo que parecía ser un medio de comunicación local en Detroit o Pittsburgh.
No parece haber habido una comprensión importante dentro de las instituciones de los EE. UU. (Sus agencias de inteligencia, su burocracia, su maquinaria electoral) de que la verdadera seguridad digital requería tanto una mejor infraestructura técnica como una mejor conciencia pública sobre los riesgos de piratería, intromisión, desinformación, y más. El dominio empresarial de Estados Unidos y su magia técnica en algunas áreas parecían haber cegado al país ante las debilidades que se estaban gestando en otras, más importantes.
4. El poder de las plataformas
En ese contexto, el puñado de plataformas gigantes de medios sociales de Estados Unidos parece haber tenido que lidiar como mejor les pareciera con los problemas que pudieran surgir. Como era de esperar, priorizaron los precios de sus acciones y la rentabilidad. A lo largo de los años de la administración Obama, estas plataformas crecieron ruidosamente y esencialmente no estaban reguladas. Dedicaron su tiempo a solidificar sus habilidades técnicas para vigilar profundamente a sus usuarios, a fin de hacer que la publicidad en las plataformas sea cada vez más eficaz. En menos de una década, Google y Facebook se convirtieron en un duopolio virtual en el mercado de la publicidad digital.
Facebook también engulló a posibles competidores como WhatsApp e Instagram sin activar las alarmas antimonopolio. Todo esto le dio más datos, lo que le ayudó a mejorar sus algoritmos para mantener a los usuarios en la plataforma y orientarlos con anuncios. Cargue una lista de objetivos ya identificados y el motor de inteligencia artificial de Facebook encontrará de manera útil audiencias «similares» mucho más grandes que pueden ser receptivas a un mensaje determinado. Después de 2016, el grave daño que podría causar esta característica se haría evidente.
Mientras tanto, Google, cuyas clasificaciones de búsqueda pueden hacer o deshacer a una empresa, servicio o político, y cuyo servicio de correo electrónico tenía mil millones de usuarios en 2016, también operaba la plataforma de videos YouTube, cada vez más un canal de información y propaganda en todo el mundo. Una investigación del Wall Street Journal a principios de este año encontró que el algoritmo de recomendación de YouTube tendía a llevar a los espectadores hacia contenido extremista al sugerir versiones más atrevidas de lo que estaban viendo, una buena manera de mantener su atención.
Esto fue lucrativo para YouTube, pero también una bendición para los teóricos de la conspiración, ya que las personas se sienten atraídas por afirmaciones novedosas e impactantes. «Tres grados de Alex Jones» se convirtió en una broma corriente: no importa dónde comenzaste en YouTube, se decía, nunca estabas a más de tres recomendaciones de un video del conspirador de derecha que popularizó la idea de que la escuela Sandy Hook El tiroteo en 2012 nunca había sucedido y los padres en duelo eran meros actores que interpretaban papeles en una turbia conspiración contra los propietarios de armas.
Aunque más pequeño que Facebook y Google, Twitter desempeñó un papel enorme gracias a su popularidad entre los periodistas y las personas comprometidas políticamente. Su filosofía abierta y su enfoque tolerante de los seudónimos se adapta a los rebeldes de todo el mundo, pero también atrae a los trolls anónimos que abusan de las mujeres, los disidentes y las minorías. Solo a principios de este año se tomó medidas enérgicas contra el uso de cuentas de bot que los trolls usaban para automatizar y amplificar los tweets abusivos.
El formato conciso y rápido de Twitter también se adapta a cualquier persona con una comprensión profesional o instintiva de la atención, el recurso crucial de la economía digital.
Digamos, alguien como una estrella de telerrealidad. Alguien con una asombrosa habilidad para inventar apodos virales y menospreciadores para sus oponentes, y para hacer promesas jactanciosas que resonaban con un realineamiento en la política estadounidense, un realineamiento que la mayoría de los agentes del poder republicanos y demócratas pasan por alto.
Donald Trump, como se reconoce ampliamente, sobresale en el uso de Twitter para captar la atención. Pero su campaña también se destacó en el uso de Facebook, ya que fue diseñado para ser utilizado por anunciantes, probando mensajes en cientos de miles de personas y orientándolos hacia los que funcionaban mejor. Facebook había incorporado a sus propios empleados dentro de la campaña de Trump para ayudarlo a usar la plataforma de manera efectiva (y así gastar mucho dinero en ella), pero también estaban impresionados por lo bien que se desempeñó el propio Trump. En memorandos internos posteriores, según se informa, Facebook llamaría a la campaña de Trump un «innovador» del que podría aprender. Facebook también ofreció sus servicios a la campaña de Hillary Clinton, pero optó por usarlos mucho menos que los de Trump.
Las herramientas digitales han figurado significativamente en los trastornos políticos en todo el mundo en los últimos años, incluidos otros que dejaron a las élites atónitas: el voto de Gran Bretaña para abandonar la Unión Europea y los logros de la extrema derecha en Alemania, Hungría, Suecia, Polonia, Francia y otros lugares. . Facebook ayudó al hombre fuerte filipino Rodrigo Duterte con su estrategia electoral e incluso fue citado en un informe de la ONU por haber contribuido a la campaña de limpieza étnica contra la minoría rohingya en Myanmar.
Sin embargo, las redes sociales no son la única tecnología aparentemente democratizadora que los extremistas y los autoritarios han adoptado. Los operativos rusos que buscaban piratear las comunicaciones de los funcionarios del Partido Demócrata utilizaron Bitcoin, una criptomoneda fundada para dar a las personas el anonimato y la libertad de depender de las instituciones financieras, para comprar herramientas como redes privadas virtuales, que pueden ayudar a uno a cubrir sus rastros en línea. Luego utilizaron estas herramientas para crear organizaciones de noticias locales falsas en las redes sociales en todo Estados Unidos.
Allí empezaron a publicar materiales destinados a fomentar la polarización. Los trolls rusos se hicieron pasar por musulmanes estadounidenses con simpatías terroristas y supremacistas blancos que se oponían a la inmigración. Se hicieron pasar por activistas de Black Lives Matter que exponen la brutalidad policial y como personas que querían adquirir armas para disparar a los agentes de policía. Al hacerlo, no solo avivaron las llamas de la división, sino que proporcionaron a los miembros de cada grupo pruebas de que sus oponentes imaginarios eran tan horribles como sospechaban. Estos trolls también acosaron incesantemente a periodistas y simpatizantes de Clinton en línea, lo que resultó en una avalancha de noticias sobre el tema y alimentó una narrativa (autocumplida) de polarización entre los demócratas.
La NSA tenía un arsenal de herramientas de piratería denominado NOBUS.
¿Cómo sucedió todo esto? ¿Cómo pasaron las tecnologías digitales de empoderar a los ciudadanos y derrocar dictadores a ser utilizadas como herramientas de opresión y discordia? Hay varias lecciones clave.5. Las lecciones de la época
En primer lugar, el debilitamiento de los guardianes de la información al viejo estilo (como los medios de comunicación, las ONG y las instituciones gubernamentales y académicas), al tiempo que empodera a los desfavorecidos, también, de otra manera, ha debilitado profundamente a los desamparados. Los disidentes pueden eludir la censura más fácilmente, pero la esfera pública a la que ahora pueden llegar es a menudo demasiado ruidosa y confusa para que tengan un impacto. Aquellos que esperan lograr un cambio social positivo tienen que convencer a la gente de que algo en el mundo necesita cambiar y de que hay una forma constructiva y razonable de cambiarlo. Los autoritarios y los extremistas, por otro lado, a menudo simplemente tienen que enturbiar las aguas y debilitar la confianza en general para que todos estén demasiado fracturados y paralizados para actuar. Los viejos guardianes bloquearon algo de verdad y disensión, pero también bloquearon muchas formas de desinformación.
En segundo lugar, los nuevos guardianes algorítmicos no son simplemente (como les gusta creer) conductos neutrales tanto para la verdad como para la falsedad. Ganan dinero manteniendo a las personas en sus sitios y aplicaciones; que alinea sus incentivos estrechamente con aquellos que avivan la indignación, difunden información errónea y apelan a los prejuicios y preferencias existentes de la gente. Los viejos guardianes fracasaron de muchas maneras, y no hay duda de que el fracaso ayudó a alimentar la desconfianza y la duda; pero los nuevos guardianes tienen éxito alimentando la desconfianza y la duda, siempre que sigan llegando los clics.
En tercer lugar, la pérdida de guardianes ha sido especialmente grave en el periodismo local. Si bien algunos grandes medios de comunicación estadounidenses han logrado (hasta ahora) sobrevivir a la conmoción provocada por Internet, este vuelco ha roto casi por completo los periódicos locales y ha perjudicado a la industria en muchos otros países. Eso ha abierto un terreno fértil para la desinformación. También ha significado menos investigación y menor rendición de cuentas para quienes ejercen el poder, especialmente a nivel local. Los operativos rusos que crearon marcas de medios locales falsas en los EE. UU. Comprendieron el hambre de noticias locales o simplemente tuvieron suerte con esta estrategia. Sin controles y equilibrios locales, la corrupción local crece y se filtra para alimentar una ola de corrupción global que juega un papel importante en muchas de las crisis políticas actuales.
La cuarta lección tiene que ver con el tema tan publicitado de las burbujas de filtro o las cámaras de eco: la afirmación de que en línea solo encontramos puntos de vista similares a los nuestros. Esto no es del todo cierto. Si bien los algoritmos a menudo alimentan a las personas con algo de lo que ya quieren escuchar, las investigaciones muestran que probablemente encontremos una variedad más amplia de opiniones en línea que fuera de línea, o de la que encontrábamos antes de la llegada de las herramientas digitales.
Más bien, el problema es que cuando encontramos puntos de vista opuestos en la época y el contexto de las redes sociales, no es como leerlos en un periódico mientras estamos sentados solos. Es como escucharlos del equipo contrario mientras estamos sentados con nuestros compañeros fanáticos en un estadio de fútbol. En línea, estamos conectados con nuestras comunidades y buscamos la aprobación de nuestros compañeros de ideas afines. Nos vinculamos con nuestro equipo gritando a los fanáticos del otro. En términos de sociología, fortalecemos nuestro sentimiento de pertenencia “dentro del grupo” aumentando nuestra distancia y tensión con el “grupo externo”: nosotros contra ellos. Nuestro universo cognitivo no es una cámara de resonancia, pero nuestro universo social lo es. Esta es la razón por la que los diversos proyectos para verificar las afirmaciones en las noticias, si bien son valiosos, no convencen a la gente. Pertenecer es más fuerte que los hechos.
Una dinámica similar jugó un papel después de la Primavera Árabe. Los revolucionarios se vieron atrapados en luchas internas en las redes sociales mientras se dividían en grupos cada vez más pequeños, mientras que al mismo tiempo los autoritarios estaban movilizando a sus propios partidarios para atacar a los disidentes, definiéndolos como traidores o extranjeros. Tal acoso y trolling “patriótico” es probablemente más común, y una amenaza mayor para los disidentes, que los ataques orquestados por los gobiernos.
Así es también como los operativos rusos alimentaron la polarización en los Estados Unidos, haciéndose pasar por inmigrantes y supremacistas blancos, partidarios enojados de Trump y «Bernie bros». El contenido del argumento no importaba; buscaban paralizar y polarizar en lugar de convencer. Sin guardianes de estilo antiguo en el camino, sus mensajes podrían llegar a cualquiera, y con la analítica digital al alcance de la mano, podrían perfeccionar esos mensajes como cualquier anunciante o campaña política.
En quinto y último lugar, Rusia se aprovechó de la débil seguridad digital de EE. UU., Su mentalidad de «nadie más que nosotros», para subvertir el debate público en torno a las elecciones de 2016. La piratería y la liberación de correos electrónicos del Comité Nacional Demócrata y la cuenta del director de campaña de Clinton, John Podesta, equivalieron a una campaña de censura, inundando los canales de medios convencionales con contenido mayoritariamente irrelevante. A medida que el escándalo del correo electrónico de Clinton dominaba el ciclo de noticias, ni la campaña de Trump ni la de Clinton recibieron el tipo de escrutinio mediático que merecían.
No hay respuestas fáciles ni respuestas puramente digitales.
Esta potente combinación explica por qué, desde la Primavera Árabe, el autoritarismo y la desinformación han prosperado, y no lo ha hecho un concurso de ideas que fluye libremente. Sin embargo, quizás la declaración más simple del problema está resumida en la declaración de misión original de Facebook (que la red social cambió en 2017, después de una reacción violenta contra su papel en la difusión de información errónea). Fue para hacer que el mundo sea «más abierto y conectado». Resulta que esto no es necesariamente un bien puro. ¿Abierto a qué y conectado cómo ? La necesidad de hacer esas preguntas es quizás la lección más importante de todas. Esto demuestra, en última instancia, que “nadie más que nosotros” dependía de una interpretación errónea de lo que significa la seguridad digital. Es posible que Estados Unidos aún tenga las capacidades ofensivas más profundas en ciberseguridad. Pero Podesta se enamoró de un correo electrónico de suplantación de identidad (phishing), la forma más simple de piratería, y los medios de comunicación estadounidenses cayeron en la trampa de la atención. Debido a su hambre de clics y globos oculares, y su incapacidad para comprender cómo funciona la nueva esfera digital, fueron desviados de su trabajo principal a un pantano confuso. La seguridad no se trata solo de quién tiene más supercomputadoras Cray y expertos en criptografía, sino de comprender cómo funcionan la atención, la sobrecarga de información y los vínculos sociales en la era digital.
6. El camino a seguir
¿Lo que se debe hacer? No hay respuestas fáciles. Más importante aún, no hay respuestas puramente digitales.
Ciertamente, hay pasos que se deben tomar en el ámbito digital. El entorno antimonopolio débil que permitió que unas pocas empresas gigantes se convirtieran en casi monopolios debería revertirse. Sin embargo, simplemente romper estos gigantes sin cambiar las reglas del juego en línea puede simplemente producir muchas empresas más pequeñas que utilicen las mismas técnicas depredadoras de vigilancia de datos, microtargeting y «empujones».
La vigilancia digital ubicua debería simplemente terminar en su forma actual. No hay ninguna razón justificable para permitir que tantas empresas acumulen tantos datos sobre tanta gente. Invitar a los usuarios a «hacer clic aquí para aceptar» términos de uso vagos y difíciles de precisar no produce un «consentimiento informado». Si hace dos o tres décadas, antes de entrar sonámbulos a este mundo, una corporación hubiera sugerido una recopilación de datos tan imprudente como modelo de negocio, nos habríamos horrorizado.
Hay muchas formas de operar servicios digitales sin desviar tantos datos personales. Los anunciantes han vivido sin él antes, pueden volver a hacerlo y probablemente sea mejor si los políticos no pueden hacerlo tan fácilmente. Los anuncios se pueden adjuntar al contenido, en lugar de dirigirse a las personas: está bien anunciarme equipo de buceo si estoy en un foro de discusión de buzos, por ejemplo, en lugar de usar mi comportamiento en otros sitios para descubrir que soy un buceador y luego seguirme a todos lados a donde vaya, en línea o fuera de línea.
Pero no llegamos a donde estamos simplemente por las tecnologías digitales. Es posible que el gobierno ruso haya usado plataformas en línea para entrometerse remotamente en las elecciones estadounidenses, pero Rusia no creó las condiciones de desconfianza social, instituciones débiles y élites distantes que hicieron que Estados Unidos fuera vulnerable a ese tipo de intromisión.
Rusia no hizo que EE. UU. (y sus aliados) iniciaran y luego manejaran terriblemente mal una gran guerra en el Medio Oriente, cuyas secuelas, entre ellas la actual crisis de refugiados, siguen causando estragos y para las que prácticamente nadie ha sido considerada responsable. Rusia no creó el colapso financiero de 2008: eso sucedió a través de prácticas corruptas que enriquecieron enormemente a las instituciones financieras, después de lo cual todas las partes culpables salieron ilesas, a menudo incluso más ricas, mientras que millones de estadounidenses perdieron sus trabajos y no pudieron reemplazarlos por otros igualmente buenos. unos.
Rusia no instigó las medidas que han reducido la confianza de los estadounidenses en las autoridades sanitarias, las agencias ambientales y otros reguladores. Rusia no creó la puerta giratoria entre el Congreso y las empresas de cabildeo que emplean a ex políticos con buenos sueldos. Rusia no quitó fondos a la educación superior en Estados Unidos. Rusia no creó la red global de paraísos fiscales en la que las grandes corporaciones y los ricos pueden acumular una enorme riqueza mientras se recortan los servicios gubernamentales básicos.
Estas son las líneas de falla a lo largo de las cuales algunos memes pueden desempeñar un papel descomunal. Y no solo los memes rusos: independientemente de lo que haya hecho Rusia, los actores nacionales en los Estados Unidos y Europa occidental han sido participantes ansiosos, y mucho más grandes, en el uso de plataformas digitales para difundir información errónea viral.
Incluso el entorno libre para todos en el que estas plataformas digitales han operado durante tanto tiempo puede verse como un síntoma de un problema más amplio, un mundo en el que los poderosos tienen pocas restricciones en sus acciones mientras que todos los demás se ven presionados. Los salarios reales en EE. UU. Y Europa están estancados y lo han estado durante décadas, mientras que las ganancias corporativas se han mantenido altas y los impuestos a los ricos han caído. Los jóvenes hacen malabares con trabajos múltiples, a menudo mediocres, pero les resulta cada vez más difícil dar el paso tradicional de creación de riqueza de comprar su propia casa, a menos que ya provengan de privilegios y hereden grandes sumas.
Si la conectividad digital proporcionó la chispa, se encendió porque el fuego ya estaba en todas partes. El camino a seguir no es cultivar la nostalgia por los guardianes de la información del viejo mundo o por el idealismo de la Primavera Árabe. Se trata de averiguar cómo deberían funcionar nuestras instituciones, nuestros controles y contrapesos y nuestras salvaguardias sociales en el siglo XXI, no solo para las tecnologías digitales, sino también para la política y la economía en general. Esta responsabilidad no es de Rusia, ni únicamente de Facebook, Google o Twitter. Depende de nosotros.
***
Zeynep Tufekci es Sociólogo y profesor asociado en la Universidad de Carolina del Norte. Es colaborador de opinión en el New York Times.
*******
Por qué el efecto contraproducente no explica la durabilidad de las percepciones políticas erróneas
Por Brendan Nyham, 2021
Investigaciones anteriores indicaron que la información correctiva a veces puede provocar el llamado «efecto contraproducente» en el que los encuestados respaldaron con más fuerza una percepción errónea sobre un tema político o científico controvertido cuando se cuestionaron sus creencias o predisposiciones. Muestro cómo la investigación posterior y la cobertura de los medios aprovecharon este hallazgo, distorsionando su generalidad y exagerando su papel en relación con otros factores para explicar la durabilidad de las percepciones políticas erróneas. Por el contrario, un consenso de investigación emergente encuentra que la información correctiva suele ser al menos algo efectiva para aumentar la precisión de las creencias cuando la reciben los encuestados. Sin embargo, la investigación que reviso sugiere que los efectos que aumentan la precisión de la información correctiva, como las verificaciones de hechos, a menudo no duran ni se acumulan; en su lugar, con frecuencia, parecen decaer o sentirse abrumados por las señales de las élites y los medios de comunicación que promueven afirmaciones más agradables pero menos precisas. Como resultado, las percepciones erróneas generalmente persisten en la opinión pública durante años después de haber sido desacreditadas.
Dadas estas realidades, el principal desafío para la comunicación científica no es prevenir los efectos contraproducentes, sino comprender cómo enfocar mejor la información correctiva y hacerla más efectiva. Sin embargo, en última instancia, el mejor enfoque es interrumpir la formación de vínculos entre las identidades de grupo y las afirmaciones falsas y reducir el flujo de señales que refuerzan esas afirmaciones de las élites y los medios de comunicación. Hacerlo requerirá un cambio de una estrategia enfocada en brindar información al público a una que considere los roles de los intermediarios en la formación y mantenimiento de sistemas de creencias.
***
¿Por qué las percepciones erróneas sobre temas polémicos en la política y la ciencia son aparentemente tan persistentes y difíciles de corregir? Los académicos, periodistas y educadores luchan por superar la prevalencia de estas creencias falsas o infundadas, que afectan a problemas que van desde el cambio climático hasta los alimentos modificados genéticamente (1). Estas creencias, que a menudo están estrechamente relacionadas con identidades y sistemas de creencias como el partidismo (2), pueden socavar la base fáctica del debate público, distorsionar la opinión de las masas y deformar la política pública.
Una respuesta a la prevalencia de creencias erróneas es tratar de aclarar las cosas proporcionando información precisa, por ejemplo, proporcionando evidencia del consenso científico sobre el cambio climático. Los fracasos de este enfoque, que a veces se denomina «modelo de déficit» en la comunicación científica, son bien conocidos ( 3 ). Una preocupación particular es que las personas pueden mostrarse escépticas ante tal información cuando contradice sus predisposiciones o creencias existentes y razona hacia una conclusión preferida, especialmente cuando el tema es relevante o relevante para la identidad ( 4 , 5 ). Esta resistencia podría potencialmente evitar que dicha información tenga el efecto deseado de reducir las percepciones erróneas de la gente.
En 2010, Jason Reifler y yo publicamos un artículo que probaba los efectos de este enfoque en la revista Political Behavior que variaba aleatoriamente la exposición a información correctiva sobre temas controvertidos en artículos de noticias simulados ( 6 ). En dos de los cinco estudios que realizamos, observamos lo que llamamos un «efecto contraproducente» en el que la exposición a la corrección en realidad aumentó la creencia en la percepción errónea dirigida entre los grupos que estaban predispuestos a creer en la afirmación. Como muestro a continuación, estos resultados se interpretaron con frecuencia como la explicación principal de por qué las percepciones erróneas son tan persistentes.
Sin embargo, la literatura científica, incluida la investigación posterior que Reifler y yo hemos realizado, no respalda la interpretación de que los efectos contraproducentes explican la prevalencia y la durabilidad de las percepciones erróneas. En este artículo, primero muestro cómo las interpretaciones de nuestro artículo rápidamente superaron los hallazgos del estudio. Luego resumo el consenso emergente de que la exposición a información correctiva generalmente genera mejoras modestas pero significativas en la precisión de las creencias. La persistencia de las percepciones erróneas, en mi opinión, es más probable que se atribuya a la imposibilidad de llegar a las personas con información correctiva que cambia de opinión de forma duradera. La interacción de los flujos de información de la élite y las heurísticas simples como el partidismo tiende a inclinar a las personas a tener creencias agradables sobre temas controvertidos. Además, la investigación ha revelado problemas sustanciales de focalización, de hecho, los controles llegan a personas que tienen conceptos erróneos y efectos de deterioro rápido después de la exposición a la corrección. Como resultado, raramente observamos una reducción consistente y sistemática de creencias erróneas a lo largo del tiempo. Sin embargo, concluyo documentando enfoques de comunicación que la evidencia sugiere que podrían ser más efectivos para crear un cambio de creencias duradero, en particular, desalentar a las élites de promover afirmaciones falsas o vincularlas con identidades políticas y de grupo destacadas.
La prevalencia y la importancia de las percepciones erróneas
Aunque carecemos de un censo sistemático de percepciones erróneas o medidas de su prevalencia a lo largo del tiempo, las encuestas muestran que la creencia en afirmaciones fácticas falsas o sin fundamento destacadas parece estar muy extendida en los Estados Unidos ( 7 ) y en todo el mundo ( 8 , 9 ). Estas creencias están frecuentemente correlacionadas con las identidades grupales y los sistemas de creencias de las personas. En una encuesta de marzo de 2018 en los Estados Unidos ( 10), por ejemplo, el 82% de los demócratas, pero solo el 29% de los republicanos, estuvo de acuerdo con la conclusión de la comunidad de inteligencia de que Rusia creó y difundió noticias falsas para ayudar a Donald Trump a ganar las elecciones presidenciales de 2016. Por el contrario, el 66% de los demócratas apoyó la afirmación políticamente agradable pero sin respaldo de que Rusia manipuló los recuentos de votos en comparación con solo el 18% de los republicanos. A nivel internacional, una encuesta global reciente de 100 países encontró que el 32% de las personas que han oído hablar del Holocausto piensan que es un mito o muy exagerado, incluido el 63% en el Medio Oriente y África del Norte y el 64% de los musulmanes en la región ( 11 , 12). De manera similar, los partidarios de partidos y líderes populistas tienen menos probabilidades de respaldar el consenso científico sobre la amenaza que representa el cambio climático que otras personas en Europa y Estados Unidos ( 13 ).
¿Por qué la gente cree con tanta frecuencia estas afirmaciones falsas? La investigación realizada hasta la fecha sugiere que las limitaciones cognitivas y de la memoria, las motivaciones direccionales para defender o apoyar alguna identidad de grupo o creencia existente, y los mensajes de otras personas y élites políticas juegan un papel fundamental en la difusión de información errónea ( 2 , 14 , 15 ). Estos factores pueden ser especialmente difíciles de superar en el período contemporáneo, que combina niveles históricos de polarización política en los Estados Unidos con tecnología de la comunicación que permite que la información falsa se mueva más lejos y más rápido que nunca ( 16 , 17 ). Aunque la evidencia indica que la mayoría de las personas no están atrapadas en “cámaras de eco” de información de ideas afines ( 18 ), es más probable que la desinformación supere las defensas de la sociedad y se integre en los sistemas de creencias de las personas en estas circunstancias.
Las percepciones erróneas también pueden jugar un papel importante en los debates sobre políticas públicas. Uno de los ejemplos más conocidos es el cambio climático, donde Estados Unidos es un caso atípico tanto en la proporción de la población que cree que la actividad humana es su causa principal como en su apoyo a las medidas para abordar la crisis ( 19 , 20 ). Aunque es difícil establecer definitivamente la relación entre la creencia en la percepción errónea y la política climática nacional, la investigación indica que esta asociación se mantiene a nivel individual y que los cambios inducidos experimentalmente en la creencia en el cambio climático están asociados con un mayor apoyo para la acción política (21). Más recientemente, el debate sobre la atención al final de la vida se vio trastocado por el mito del «panel de la muerte«, una afirmación falsa popularizada por la exgobernadora de Alaska, Sarah Palin ( 22). Después de que este reclamo se generalizó, se retiró una disposición de la Ley de Atención Médica Asequible que habría proporcionado cobertura de Medicare para reuniones voluntarias con médicos para discutir las opciones de atención al final de la vida (una propuesta que anteriormente atraía el apoyo de ambos partidos). Una regulación posterior para cubrir estas reuniones fue nuevamente retirada después de 2011 por temor a una mayor controversia antes de ser finalmente instituida en 2015 ( 23 , 24 ).
El efecto contraproducente: hallazgos frente a interpretaciones
La durabilidad de las percepciones erróneas es especialmente preocupante. La evidencia de la encuesta indica que las creencias falsas sobre temas de alto perfil a menudo persisten durante años o décadas a pesar de los grandes esfuerzos de periodistas, científicos y funcionarios públicos para aclarar las cosas. A raíz de la invasión estadounidense de Irak en 2003, por ejemplo, el gobierno estadounidense concluyó que el gobierno de Saddam Hussein no poseía armas de destrucción masiva significativas (ADM) y no estaba llevando a cabo un programa activo de ADM ( 25 ). Estos hallazgos fueron ampliamente publicitados en el momento y en los años posteriores a la invasión. Sin embargo, una encuesta de 2015 encontró que el 42% de los estadounidenses, incluido el 51% de los republicanos, todavía creían que las tropas estadounidenses encontraron armas de destrucción masiva en Irak ( 26). Se observó un patrón similar en las encuestas sobre la religión de Barack Obama. A pesar de que el ex presidente era un cristiano declarado que asistía regularmente a la iglesia, circularon ampliamente los rumores de que era un musulmán secreto. A pesar de toda la evidencia contradictoria que estaba disponible en línea y en la cobertura de los medios, una encuesta realizada en 2015, el séptimo año de la presidencia de Obama, encontró que solo el 39% de los estadounidenses identificaron a Obama como cristiano y que el 29% de los estadounidenses (incluido el 43% de los estadounidenses Republicanos) dijo que era musulmán ( 27 ).
Una posible explicación de la persistencia de estas percepciones erróneas es que los medios de comunicación con frecuencia no controlan agresivamente las declaraciones falsas de las élites políticas o recurren a la cobertura neutral de disputas fácticas de «él dijo«, «ella dijo» ( 28 , 29 ). Para examinar esta hipótesis, Reifler y yo realizamos una serie de cinco experimentos en 2005 y 2006 con estudiantes de una universidad católica en el Medio Oeste ( 6). En cada uno, se pidió a los encuestados que leyeran un artículo de noticias simulado realista en el que una figura política prominente hacía una afirmación dudosa sobre un tema controvertido, como la guerra en Irak o la investigación con células madre. Estos artículos fueron manipulados experimentalmente para que algunos incluyan un pasaje que desacredite la declaración de la élite en cuestión. Aunque es difícil aislar los efectos de las motivaciones direccionales ( 30), la evidencia que observamos fue consistente con tal relato: en tres de cinco experimentos, la exposición a información correctiva fue más efectiva entre los encuestados que encontraron que la corrección era ideológicamente agradable (por ejemplo, los liberales por una corrección de George W. Bush en Irak). En dos de los estudios, el efecto marginal estimado de la exposición a la información correctiva fue significativo en la dirección opuesta a la esperada, un llamado «efecto contraproducente«. Sin embargo, este efecto no se observó en los otros tres estudios.
Basándonos en estos resultados, llegamos a la conclusión de que «la información correctiva en los informes noticiosos puede no reducir las percepciones erróneas y, a veces, puede aumentarlas para el grupo ideológico con más probabilidades de tener esas percepciones erróneas» y solicitamos más investigación sobre cómo reducir las percepciones erróneas de la manera más eficaz. En los años transcurridos desde la publicación del estudio, los resultados se han malinterpretado con frecuencia en el sentido de que muestran que todas las correcciones son contraproducentes o que los efectos contraproducentes son la causa principal de la persistencia de las percepciones erróneas (nuestros hallazgos no respaldan ninguna de las afirmaciones). ABC News, por ejemplo, resumió nuestros hallazgos de la siguiente manera: “cuando encontramos hechos que contradicen esas creencias, los hechos se ignoran o se tergiversan para apoyar nuestras posiciones” ( 31 ).
Revisando el récord en contraataque
Nuestro estudio inicial contraproducente, a menudo se ha interpretado en el sentido de que estos efectos están generalizados. Sin embargo, investigaciones posteriores sugieren que los efectos contraproducentes son extremadamente raros en la práctica. En particular, un extenso estudio de replicación y extensión realizado por otros investigadores encontró que no hay evidencia de efectos contraproducentes en respuesta a la información correctiva en numerosos experimentos ( 32 ). Reifler y yo colaboramos con esos autores en un estudio posterior, que de manera similar encontró que la exposición a información correctiva que contradecía una declaración del presidente Trump redujo las percepciones erróneas sobre la prevalencia de la delincuencia, independientemente de qué candidatos apoyaran los encuestados ( 33 ).
Estudios posteriores han demostrado que la información correctiva también puede aumentar la precisión de las creencias cuando se transmite en artículos de verificación de hechos, así como en formatos de presentación novedosos, como gráficos, correcciones que proporcionan explicaciones causales alternativas y etiquetas de verificación de hechos en plataformas de redes sociales ( 34 ⇓ – 36 ). Estos hallazgos son consistentes con los metanálisis que muestran que las correcciones son moderadamente efectivas para mejorar la precisión de las creencias fácticas de las personas, aunque los efectos se reducen cuando la información proporcionada se refiere a la política del mundo real y puede estar inflada por el sesgo de publicación ( 37 , 38 ). En particular, la exposición a información sobre el consenso científico que apoya el cambio climático antropogénico conduce a una mayor creencia expresada en estos hechos ( 21 ). De manera similar, investigaciones recientes han encontrado que la autoconciencia de las personas sobre su (falta de) conocimiento es mayor que lo indicado por investigaciones anteriores, aunque es más probable que las personas menos informadas sobreestimen su desempeño ( 39 ⇓ – 41 ). Esta metaconciencia de la propia falta de conocimiento sugeriría de manera similar a como las personas pueden, en algunos casos, reconocer lo que no saben cuando se les presenta información contradictoria o desagradable.
Si las personas a menudo actualizan sus creencias basándose en información fáctica cuando se les presenta directamente, ¿por qué las opiniones están tan polarizadas? Primero, las percepciones erróneas no necesariamente causan polarización de opiniones; en muchos casos, las personas pueden aceptar afirmaciones falsas porque son compatibles con sus opiniones y predisposiciones. En segundo lugar, las personas que están mal informadas a menudo actualizan un poco sus creencias. Estudios recientes indican que la exposición a información fáctica a menudo induce cambios paralelos en las opiniones entre grupos partidistas e ideológicos en lugar de reacciones violentas ( 42). En estos estudios, los encuestados a menudo actualizan sus creencias, pero interpretan la información que reciben de una manera coherente con sus actitudes, por ejemplo, asignando culpa o responsabilidad por los hechos en cuestión de forma coherente con sus puntos de vista políticos ( 43 ⇓ – 45 ) o expresando desconfianza en la credibilidad de la información que han aprendido ( 33 , 46 ). Como resultado de procesos de reducción de la disonancia como estos, y/o la falta de voluntad para reexaminar los puntos de vista, las opiniones de las personas sobre un tema a veces no cambian incluso si sus creencias fácticas se vuelven más precisas, aunque los hallazgos varían en este punto ( 21, 33, 47, 48 ). La investigación futura debe hacer más para identificar los tipos de temas y contextos que fomentan el cambio de opinión en lugar de interpretaciones motivadas de la evidencia, que pueden depender de la relevancia del tema, el conocimiento previo del tema o incluso las diferencias en los niveles de polarización partidista entre países ( 39 , 47 , 49 ).
Otras posibles explicaciones de la persistencia de la percepción errónea
Si los efectos contraproducentes no explican la persistencia de percepciones erróneas, ¿qué lo hace? ¿Por qué los resultados alentadores que a menudo se observan en los estudios de información correctiva no se traducen más a menudo en una menor creencia en afirmaciones falsas entre el público en general? Aunque las preguntas sobre las causas de los efectos no son fáciles de responder directamente ( 50 ), se deben considerar otros factores y se deben realizar más investigaciones para evaluar sus efectos sobre la persistencia de la percepción errónea. Como sostengo a continuación, las respuestas expresivas de la encuesta no parecen desempeñar un papel importante, mientras que con el tiempo el deterioro de los efectos de la información correctiva, los problemas para dirigirla a las personas que consumen información errónea, los flujos continuos de señales de las élites políticas que mejoran la percepción errónea, y las fallas en la capacidad cognitiva y el esfuerzo de procesamiento parecen ser factores importantes.
Respuesta expresiva.
Una posible explicación es que los encuestados responden de manera expresiva, proporcionando respuestas en las encuestas que indican lo que les gustaría que fuera verdad o trolling en lugar de indicar lo que creen sinceramente ( 51 ). Una minoría de los encuestados está claramente dispuesta a expresar puntos de vista que luego desautorizan o que indican claramente una respuesta expresiva ( 52 , 53 ). Un enfoque común para tratar de aislar este llamado porrismopartidista es pagar a las personas por las respuestas correctas a las preguntas de conocimiento fáctico ( 46 , 54 , 55 ). Estos estudios generalmente encuentran niveles reducidos de polarización de creencias partidistas cuando se ofrecen incentivos, lo que lleva a los autores a inferir que los niveles expresados de polarización partidista que a menudo observamos en las creencias fácticas reflejan respuestas expresivas. Sin embargo, el mecanismo de estos hallazgos no está claro. Por ejemplo, estudios anteriores encuentran evidencia mixta sobre si los incentivos financieros aumentan la precisión, lo que sugiere que los encuestados no necesariamente están ocultando lo que saben que es cierto. En su lugar, pueden estar ejerciendo un mayor esfuerzo cognitivo o cambiando la estrategia de adivinación que emplean de una manera que difiere de lo que observamos en el mundo real, donde los fuertes incentivos de precisión suelen estar ausentes. Es más, (56 ) de manera similar, las formas costosas de comportamiento en campos como las finanzas parecen variar de manera consistente con las sinceras diferencias partidistas en las creencias, lo que sugiere que las opiniones expresadas en las encuestas no son meramente expresivas ( 57 ).
Efectos de la decadencia y señales de las élites políticas.
Una explicación alternativa de la durabilidad de las creencias falsas podría enfatizar la tendencia a que los efectos de la exposición a la información se disipen con el tiempo o se vean abrumados por las señales de las élites políticas. Por lo general, las correcciones solo disminuyen parcialmente la prevalencia de información errónea, incluso cuando las creencias se miden inmediatamente después de la exposición ( 37 ). Estos efectos pueden durar semanas en algunos casos ( 48 , 58 , 59 ) pero a menudo desaparecen con el tiempo. Como resultado, los encuestados tienden a volver a sus creencias anteriores o a puntos de vista que son compatibles con su partidismo o identidad de grupo. Por el contrario, los miembros del público a menudo reciben flujos continuos de mensajes de élites que comparten su partidismo o ideología que promueven percepciones erróneas políticamente agradables ( 22 , 60 ). Considere las afirmaciones falsas del movimiento llamado «birther» de que Barack Obama no nació en los Estados Unidos, que creó un mito que resonó entre los identificadores republicanos y miembros del público con actitudes raciales negativas ( 61 ). En abril de 2011, Obama dio a conocer su certificado de nacimiento de formato largo del estado de Hawai, lo que proporciona una prueba más de su elegibilidad para servir como presidente. En consecuencia, la creencia de que nació en los Estados Unidos aumentó inmediatamente después de la publicación del certificado de nacimiento, pero volvió a los niveles anteriores en 2012 a pesar de que el mito había sido falsificado de una manera inusualmente definitiva ( 62 , 63 ).
Fallos en la focalización de la información correctiva.
Es probable que estos mensajes de élite y efectos de descomposición se vean agravados por los problemas de focalización en la entrega de información correctiva. Con la excepción de algunas controversias de alto perfil, las personas rara vez reciben una exposición continua a verificaciones de hechos o informes de noticias que desacreditan afirmaciones falsas, que a menudo son difundidas ampliamente por las élites políticas o en las redes sociales ( 2, 64 ). Como resultado, la audiencia de las verificaciones de hechos no parece coincidir con las personas que están expuestas a las afirmaciones en cuestión. En las semanas previas a las elecciones de 2016, por ejemplo, menos de la mitad de los estadounidenses que visitaron un sitio web poco confiable también visitaron uno de los principales sitios web nacionales de verificación de datos. Además, solo el 3% de los que leyeron un artículo de un sitio web no confiable que había sido verificado también lo leyó ( 65 ). Por el contrario, el volumen de información que consume una minoría de estadounidenses de estos sitios web, que con frecuencia promueven percepciones erróneas, puede ser extremo: los sitios web no confiables constituyeron aproximadamente el 20% de las dietas de noticias de los estadounidenses con las dietas de información más conservadoras en el período previo a las elecciones en 2016 ( 65 ) (frente a un porcentaje muy pequeño para el resto de la población). Este conjunto de individuos altamente interesados políticamente constituye una porción relativamente pequeña de la población, pero puede ser especialmente visible o influyente en conversaciones con otras personas realizadas en persona y en línea ( 66, 67 ). Por ejemplo, la combinación de una escasa exposición a la información correctiva en los medios de comunicación tradicionales que la mayoría de la gente consume y los intensos flujos de información errónea agradable en los medios de comunicación aliados (por ejemplo, Fox News) podría ayudar a explicar la persistencia de la negación del cambio climático en una gran fracción de la población. público ( 68 ).
Fallos de la capacidad cognitiva y el esfuerzo de procesamiento.
Finalmente, las personas a menudo pueden ser víctimas de percepciones erróneas debido a fallas en la capacidad cognitiva y el esfuerzo de procesamiento en lugar del procesamiento motivado de información correctiva. Estudios recientes indican que los niveles más bajos de pensamiento analítico (medidos por la prueba de Reflexión Cognitiva) están asociados con índices de precisión más altos para los titulares de noticias falsas ( 69 , 70 ). Además, la exposición previa a los titulares de las noticias conduce a una mayor percepción de su precisión debido al uso de una heurística de bajo esfuerzo en la que la verdad se infiere a partir de sentimientos de familiaridad ( 71). Por el contrario, las personas a las que se anima a participar en la deliberación tienen menos probabilidades de creer en titulares falsos que las que responden de inmediato, lo que sugiere que un mayor esfuerzo cognitivo ayuda a los encuestados a identificar afirmaciones falsas. Estos hallazgos plantean preguntas importantes sobre los roles relativos del pensamiento analítico y el razonamiento motivado direccionalmente en la creencia de percepción errónea. Un factor importante puede ser la diferencia entre los artículos de noticias (como se probó en la investigación del efecto contraproducente) y los titulares. Estos últimos, que se encuentran más comúnmente en la era de las redes sociales y que transmiten menos información, pueden ser especialmente propensos a ser procesados usando heurísticas que requieren poco esfuerzo cognitivo o que se distorsionan a través de la transmisión social ( 72 ). Por el contrario, las cuestiones muy destacadas y los estímulos atractivos pueden provocar más comúnmente a los encuestados a participar en formas de procesamiento con esfuerzo, especialmente si las señales heurísticas sugieren conclusiones políticamente desagradables que los encuestados motivados desean evitar ( 5 ). Las relaciones entre los niveles de esfuerzo de procesamiento, la capacidad analítica y la actualización basada en información correctiva son temas importantes para la investigación futura.
Estrategias alternativas para reducir las percepciones erróneas
Los hallazgos descritos anteriormente sugieren que las verificaciones de hechos y otros tipos de información correctiva son al menos algo efectivos. Contrariamente a la cobertura mediática del efecto contraproducente, la investigación posterior encuentra que las personas a menudo están dispuestas a revisar creencias erróneas cuando se les brinda información precisa. Sin embargo, estos hallazgos no siempre se acumulan en reducciones duraderas en muchas creencias falsas prominentes. Para lograr mejor este objetivo, los científicos, periodistas y educadores deben buscar enfoques de comunicación alternativos que, según las investigaciones, podrían contrarrestar de manera más efectiva la información errónea, minimizando las afirmaciones falsas y las señales partidistas e ideológicas en la discusión de disputas fácticas y destacando la información correctiva que es difícil de evitar para las personas. o negar.
Minimice la desinformación de élite y las señales partidistas.
Cualquier esfuerzo para contrarrestar las percepciones erróneas debe primero reconocer el papel que desempeñan las élites en la promoción de creencias falsas y vincularlas con las identidades políticas de las personas. Un ejemplo de ello es el cambio climático, un tema en el que las creencias se han polarizado de manera consistente con un proceso de liderazgo de opinión liderado por las élites ( 73 ). En particular, la polarización de creencias es más alta entre las personas que son más atentas políticamente y, por lo tanto, es más probable que reciban y acepten señales de las élites que comparten su visión del mundo ( 60). Es probable que estos mensajes de las élites partidistas, que aparentemente se han polarizado más con el tiempo, disminuyan los efectos de la verificación de hechos, ya sea alentando el razonamiento motivado direccionalmente o dando forma a los antecedentes de los miembros del grupo de una manera que reduzca su capacidad de respuesta a la información correctiva ( 30, 74 ). De hecho, son las personas con los niveles más altos de conocimiento científico las que están más polarizadas sobre el cambio climático, lo que sugiere que las señales que estos individuos más sofisticados reciben sobre las creencias del grupo político con el que se identifican triunfan sobre la evidencia de que podrían hacerlo. de lo contrario, considere ( 75 ).
La cobertura de noticias debe, por lo tanto, tratar de evitar amplificar afirmaciones falsas y reducir la incidencia de señales partidistas e ideológicas cuando se discuten cuestiones de hecho y ciencia, por ejemplo, resistiendo el hábito de equilibrar los mensajes de expertos sobre temas en los que existe consenso científico con citas a polarizar a los oponentes ( 68 ). Las señales partidistas se han vuelto más comunes, por ejemplo, en la cobertura mediática del cambio climático ( 60, 74 ), lo que alienta a las personas a ponerse del lado de los partidarios de su partido o ideología preferida en lugar de evaluar los hechos desapasionadamente ( 76 ). Este tipo de pistas pueden ser especialmente comunes en los informes «equilibrados«, que tienden a sobrerepresentar la prevalencia de perspectivas sin fundamento en disputas fácticas como el cambio climático, donde existe un fuerte consenso de opiniones y pruebas de expertos ( 28 ).
En cambio, los reporteros y comunicadores científicos deben enfatizar los puntos de vista de expertos no partidistas. Una historia de ABC News sobre el mito del panel de la muerte en 2009, por ejemplo, solo mencionó brevemente las fuentes partidistas de la afirmación ( 77 ). En cambio, el titular decía que «Los expertos desacreditan la regla del ‘panel de muerte’ del proyecto de ley de reforma de la atención médica«, señalando que «Los médicos están de acuerdo en que el proyecto de ley de salud no tiene un requisito de ‘panel de muerte’ para los ancianos«. El segundo párrafo de la historia señaló además la presencia de sorprendentes fuentes de expertos que contradicen la afirmación, afirmando que «incluso [los expertos] que no apoyan la versión del proyecto de ley de reforma del sistema de salud que se está discutiendo ahora» creen «que estas acusaciones son impactantes, incendiarias y incorrecto«.
Haga que las correcciones sean más difíciles de evitar o denegar.
Es probable que estas estrategias resulten más eficaces cuando se aplican a fuentes y contextos en los que las personas no pueden evitar fácilmente o no creer en la información desagradable. Los partidarios tienden a divergir en cómo ven el estado de la economía, pero convergen cuando es inusualmente fuerte o débil, lo que crea una realidad que es difícil de negar para cualquiera de las partes ( 44, 78 ). De manera similar, la mayoría de los estadounidenses se han visto obligados a reconocer que los eventos climáticos extremos se están volviendo más comunes, aunque todavía divergen en si creen que el cambio climático antropogénico es la causa principal ( 79 ). Los mensajes que llaman la atención sobre hechos potencialmente no deseados como estos también pueden ser más creíbles cuando provienen de fuentes inesperadas o confiables, como pronosticadores meteorológicos locales (sobre el cambio climático) ( 80 ) o documentos internos de la compañía tabacalera (sobre cómo fumar causa cáncer). Por último, las experiencias personales pueden ser igualmente poderosas: muchos estadounidenses atribuyen su cambio de opinión sobre el matrimonio homosexual a experiencias personales con personas que conocen que se identifican como homosexuales o lesbianas ( 81 ). Es probable que muchas personas también hayan conocido a alguien con una enfermedad relacionada con el tabaquismo dada la mortalidad y morbilidad asociadas con el consumo de tabaco, lo que podría contribuir al consenso abrumador entre el público de que fumar causa cáncer ( 82 ).
Un enfoque centrado en los intermediarios para combatir las creencias falsas
Sin embargo, las estrategias descritas anteriormente no son suficientes. La información correctiva parece causar raras veces efectos contraproducentes entre el público, pero sus efectos suelen ser modestos, decaen con relativa rapidez y no se acumulan en disminuciones sostenidas en muchas percepciones erróneas comunes. Los verificadores de hechos, los periodistas y los comunicadores científicos deberían complementar sus esfuerzos de cara al público con lo que yo llamo un enfoque centrado en los intermediarios que se dirige a las élites políticas que desempeñan un papel fundamental en la formación de creencias y opiniones.
Una estrategia importante es aumentar los costos políticos de hacer afirmaciones falsas al sancionar a las élites políticas que lo hacen de una manera más destacada y pública. Los funcionarios electos responden muy bien a la amenaza de una cobertura noticiosa negativa ( 83 ⇓ ⇓ – 86 ). Por lo tanto, aplicar un escrutinio de alto perfil a la retórica de la élite puede ayudar a disuadirlos de promover la desinformación. Un experimento de campo descubrió que los legisladores estatales a los que se les envió recordatorios de la amenaza a la reputación que representan los verificadores de hechos en su estado tenían menos probabilidades de hacer afirmaciones que se verificaron o cuya precisión se cuestionó públicamente ( 87 ). Hay muchas formas posibles de lograr este objetivo. Por ejemplo, proporcionar estadísticas de verificación de hechos que muestren que un político ha hecho declaraciones falsas repetidamente es más perjudicial para su reputación ante el público que una verificación de hechos de una sola afirmación falsa ( 88 ). Realizar verificaciones de hechos en vivo durante la programación política, integrar las verificaciones de hechos en la cobertura de las noticias principales en lugar de relegarlas a sitios web especializados y artículos de la barra lateral, y presentar de manera destacada las verificaciones de hechos en los resultados de búsqueda en línea podría aumentar de manera similar la relevancia de las verificaciones de hechos y el daño potencial que podrían ocasionar. infligir en la reputación de los políticos. En algunos casos, respaldar un reclamo desacreditado puede resultar lo suficientemente costoso como para que los políticos se vean obligados a repudiarlo. En el otoño de 2016, por ejemplo, Donald Trump finalmente desautorizó el mito del nacimiento, que parecía ayudar a reducir las falsas creencias entre el público de que Barack Obama no nació en los Estados Unidos ( 89 ).
También sería valioso interrumpir el proceso dentro de los partidos y grupos ideológicos mediante el cual las afirmaciones falsas se convierten en componentes establecidos en los mensajes grupales, por ejemplo, dando voz a las partes interesadas que poseen credibilidad dentro de un partido para comunicar la evidencia o la ciencia relevante. Considere el tema de los organismos genéticamente modificados (OGM), un tema en el que las creencias fácticas podrían polarizarse en líneas partidistas. La mayoría del público en los Estados Unidos cuestiona la seguridad de los alimentos transgénicos a pesar del consenso científico de que son seguros para comer ( 90 ), pero estas opiniones tienen una relevancia relativamente baja y no existe una división consistente entre los partidarios de los Estados Unidos en las dudas. sobre la seguridad de los OMG ( 91). Sin embargo, el statu quo parece vulnerable a un proceso que podría profundizar estas percepciones erróneas y vincularlas más estrechamente con las políticas públicas. El activismo en apoyo de las iniciativas de etiquetado de OMG está muy concentrado entre demócratas y liberales ( 92 ). Es plausible que el tema pueda politizarse en los Estados Unidos a través de un proceso de “extensión del conflicto” en el que los activistas promueven un nuevo tema a los funcionarios electos aliados, lo que a su vez motiva a otros activistas a adoptar puntos de vista similares ( 93 ). Una vez que estos puntos de vista se convierten en posiciones de consenso entre los activistas y las élites, a menudo generan una oposición compensatoria entre el partido de oposición. Este proceso de polarización entre activistas y élites puede entonces inducir un proceso similar entre los identificadores de partidos atentos, creando una brecha pública cada vez mayor en temas que antes no separaban a los partidos y alentando los esfuerzos de las élites para realizar los cambios correspondientes en las políticas públicas ( 94 ). En la práctica, el proceso de extensión del conflicto a menudo incluye no solo posiciones sobre cuestiones de política, sino también afirmaciones fácticas asociadas. Así como la oposición a las medidas propuestas para el cambio climático a menudo se combinaba con la negación de su existencia, también el apoyo a las iniciativas obligatorias de etiquetado de OGM puede combinarse con afirmaciones sin fundamento sobre los riesgos de comer alimentos OGM.
Los enfoques actuales para reducir las percepciones erróneas sobre los OGM parecen sufrir limitaciones similares a otros esfuerzos para proporcionar información correctiva descrita anteriormente. En particular, se centran en comunicar pruebas científicas y fácticas directamente al público, pero esta información suele ser poco convincente y está mal orientada. Al igual que con el cambio climático, estos mensajes suelen ser recibidos y persuasivos para audiencias que tienen menos probabilidades de tener percepciones erróneas (por ejemplo, lectores de publicaciones científicas y sitios web de verificación de datos). Además, es probable que cualquier efecto que tenga la información correctiva sobre la seguridad de los OGM se disipe rápidamente a medida que la gente vuelva a sus puntos de vista anteriores sobre el tema. Fundamentalmente, los mensajes dirigidos directamente al público pueden no contrarrestar eficazmente el flujo de mensajes de activistas y élites políticas que buscan vincular la oposición a los transgénicos —incluyendo afirmaciones científicamente infundadas sobre los riesgos que plantean— con las visiones del mundo partidistas e ideológicas de la gente. Estos mensajes a menudo provienen de élites afines y, como resultado, pueden tener efectos más duraderos en las creencias que los resúmenes de hechos y pruebas.
Un enfoque centrado en los intermediarios para contrarrestar las percepciones erróneas sobre los OMG y prevenir la polarización de creencias sobre el tema buscaría amplificar a los terceros que podrían hablar de manera efectiva sobre las preocupaciones liberales. Estas fuentes más creíbles podrían incluir comentaristas públicos con credibilidad científica y simpatías liberales ( 95 ), así como activistas y profesionales que podrían describir aplicaciones de la tecnología de OGM que atraen los valores liberales (por ejemplo, reducir el daño ambiental en la producción de cultivos o aumentar el suministro de alimentos). para poblaciones vulnerables). Por ejemplo, la exposición a una narrativa de conversión sobre un ex activista anti-OGM aumentó la percepción de la fuerza de su argumento sobre los beneficios de los cultivos OGM en comparación con un relato que omitió sus puntos de vista anteriores ( 96 ). También sería valioso fortalecer los incentivos para presentar con precisión la ciencia de los transgénicos entre estos intermediarios que son, como los políticos, a menudo sensibles a las preocupaciones de reputación. Sin embargo, dicha verificación de datos será más eficaz si se origina en fuentes creíbles de sus comunidades ideológicas, partidistas o profesionales. (Se puede ofrecer un relato similar a la derecha: los agricultores y las empresas serán más creíbles para contrarrestar las afirmaciones falsas de OMG que se originan en el movimiento conservador y el Partido Republicano que los científicos que son percibidos como abrumadoramente liberales).
Todas las estrategias anteriores describen cómo evitar que surja la polarización de creencias en un tema, pero se podría adoptar un enfoque correspondiente para contrarrestar la polarización de creencias cuando ya se ha afianzado. En el tema del cambio climático, por ejemplo, las verificaciones de hechos y los mensajes que enfatizan el consenso científico no han logrado reducir sustancialmente la polarización de creencias sobre el tema. Los esfuerzos para reducir las percepciones erróneas podrían, en cambio, buscar amplificar las voces creíbles que comparten identidades o visiones del mundo con grupos cuyos miembros con frecuencia dudan del cambio climático antropogénico. Ejemplos notables incluyen a Katharine Hayhoe, una científica climática evangélica, y Bob Inglis, un ex miembro republicano del Congreso convertido en activista climático. Sin embargo, se necesitan más defensores de este tipo, como agricultores de tendencia republicana y líderes corporativos que podrían hablar sobre cómo el cambio climático está afectando sus negocios o ex líderes militares que podrían discutir las amenazas a la seguridad nacional creadas por las interrupciones relacionadas con el clima. Si bien estas voces pueden parecer raras, la polarización puede revertirse cuando surgen fisuras en una coalición y las élites desautorizan una posición previamente consensuada. Por ejemplo, a medida que aumentaba la evidencia de que el matrimonio gay no representaba una amenaza social y se estaba volviendo cada vez más popular, los políticos republicanos nacionales abandonaron en gran medida sus mensajes en oposición a él, incluidas las afirmaciones infundadas sobre el daño que representa. En consecuencia, la opinión pública ha cambiado; Las creencias de que el matrimonio homosexual socavaría la familia estadounidense tradicional disminuyeron del 56% en 2003 al 46% en 2013 ( 81 ).
Lo que destaca este enfoque es la dinámica clave para contrarrestar las falsas creencias sobre la política y otros temas controvertidos: la configuración de los flujos de información hacia el público. Incluso si los efectos contraproducentes son raros, la verificación de hechos lucha por superar la inercia de la opinión pública en ausencia de pruebas inusualmente sólidas de que las personas se den cuenta y encuentren difíciles de negar (p. ej., una crisis económica), en particular dados los efectos compensatorios de la identidad de grupo en cuestiones de interés social. cuya polarización de creencias es común. Proporcionar información correctiva generalmente vale la pena y, a menudo, puede mejorar la precisión de las creencias en el margen, pero reducir de manera duradera las percepciones erróneas a menudo requerirá cambiar las señales que las personas reciben de las fuentes en las que más confían.
Disponibilidad de datos
Este artículo no usa ni incluye datos originales.
Expresiones de gratitud
Agradezco el apoyo de Carnegie Corporation de Nueva York, Dartmouth College y Gerald R. Ford School of Public Policy de la Universidad de Michigan. Agradezco a Andy Guess, Ben Lyons, Ethan Porter, Jason Reifler y Tom Wood por sus útiles comentarios.
Notas al pie
- Correo electrónico: nyhan@dartmouth.edu .
Contribuciones de los autores: BN escribió el artículo.
El autor declara no tener intereses en competencia.
Este artículo es el resultado del Coloquio Arthur M. Sackler de la Academia Nacional de Ciencias, «El avance de la ciencia y la práctica de la comunicación científica: información errónea sobre la ciencia en la esfera pública», que se llevó a cabo del 3 al 4 de abril de 2019 en Arnold and Mabel Beckman. Centro de las Academias Nacionales de Ciencias e Ingeniería en Irvine, CA.Los coloquios NAS comenzaron en 1991 y se han publicado en PNAS desde 1995. Desde febrero de 2001 hasta mayo de 2019, los coloquios fueron apoyados por una generosa donación de The Dame Jillian y Dr. Arthur M. Sackler Foundation for the Arts, Sciences, & Humanities, en memoria del esposo de Dame Sackler, Arthur M. Sackler. El programa completo y las grabaciones de video de la mayoría de las presentaciones están disponibles en el sitio web de NAS en http://www.nasonline.org / misinformation_about_science .
Este artículo es una presentación directa de PNAS. AH es un editor invitado invitado por el Comité Editorial.
Publicado bajo la licencia PNAS.
Referencias
- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefPubMedGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Resumen / Texto completo GRATISGoogle Académico- ↵
Resumen / Texto completo GRATISGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefPubMedGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefPubMedGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Resumen / Texto completo GRATISGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefPubMedGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
Google Académico- ↵
CrossRefGoogle Académico- ↵
CrossRefGoogle Académico- ↵
Google Académico- ↵
Google Académico
*******
RELACIONADOS:
«La historia no contada de Estados Unidos 01», DOCUMENTAL DE OLIVER STONE // DISONANCIA COGNITIVA
LA SOCIEDAD CAUTIVA. «La democracia y la gran pestilencia», por John Keane (Letras Libres).
YouTube ayudó al surgimiento de la derecha y la radicalización en Brasil (New York Times)
Deja tu opinión