top of page

¿Qué Hacer?

El avance de las estrategias de desinformación y sus efectos sobre el espacio de convivencia democrático son alarmantes. Además, la naturaleza cambiante y la creciente sofisticación de los usos del software, hace que sea casi imposible determinar quién está detrás de la producción y proliferación en línea de los mensajes tóxicos. Así, las soluciones no son sencillas.

Aún así, se han propuesto acciones, especialmente en Europa, para enfrentar el impacto de la desinformación que se podrían tipificar en 3 grupos:

1. ​“FORTALECER LA LEGISLACIÓN”


Un primer abordaje es el legal: deposita responsabilidades sobre poderes legislativos y agencias estatales. ​En este punto, el planteo de soluciones posibles no está exento de dilemas y debe hacerse rescatando las particularidades de los contextos nacionales, los comportamientos de los diferentes segmentos sociales y los grandes problemas estructurales de los países de nuestra región.

 

En este sentido, las ​propuestas políticas ​(en algunos casos ya legisladas) que incluyen rastreos de mensajerías privadas, la prohibición de los “perfiles falsos” o la remoción “preventiva” de contenido no sólo afectan los derechos humanos o chocan con intereses legítimos de las diversas partes, sino que no solucionan el problema.


La protección del espacio público democrático resulta impensable sin libertad de expresión. Entonces, ¿quien controla y cuál es el castigo?

 

Más allá de la moral: la censura de contenido no sólo requeriría la cesión de garantías constitucionales sino que, además, es difícilmente practicable y fácilmente eludible.

 

En cualquier caso, una cosa es la libertad de expresión y otra cosa es la fabricación industrial de información falsa; una cosa es una garantía constitucional y otra es poner dos millones de pesos en pauta para promocionar un sitio web fantasma, con contenido de ocasión.

Así, con las delicadezas de cada caso, se pueden proponer algunas líneas de acción para la política pública teniendo en cuenta, entre otros, los siguientes ejes:

- ​No regular al “usuario”, regular a las “plataformas”​
No ir detrás del contenido, sino del comportamiento de la red. De esta forma, se podría hacer foco en contenido viralizado, por ejemplo, con la “ayuda” de cuentas falsas, cuentas duplicadas u otras estrategias automatizadas para engañar al público (“comportamiento inautentico coordinado”).

- ​“Seguir el dinero”​
Se puede avanzar sobre la transparencia del contenido patrocinado en redes sociales y poner luz sobre la forma en que el contenido es sponsoreado.

- Revisar ​leyes de protección de datos personales​
Sobre todo, para regular y poder auditar la utilización de bases de datos que permiten la construcción de perfiles, que identifican afinidades, prejuicios y miedos, disponibilizados para el microtargeteo publicitario, a muy bajo costo.

2. BUENAS PRÁCTICAS PARA LA AUTORREGULACIÓN DEL SECTOR PRIVADO


Cuando la proliferación de noticias falsas empezó a asociarse con el éxito de algunas campañas políticas, cuando el escándalo de Cambridge Analytica salpicó a Facebook, cuando la Comisión Europea presaiónó para que las plataformas “​provean a sus usuarios de herramientas para denunciar las noticias falsas​”, las grandes corporaciones de la industria del software comenzaron a involucrarse en la búsqueda de soluciones frente a la desinformación.

Así, por ejemplo, buscaron incorporar características tecnológicas que permitieran a sus usuarios etiquetar (“flagear”) la información “sospechosa”. También, incorporaron características para la detección de contenido replicado por varias cuentas a la vez y otros elementos que dieran pauta de una difusión automatizada.

 

Asimismo, se han asociado con medios dedicados a la verificación de datos en la búsqueda de desacreditar la información falsa que circula en sus redes e imponer “castigos” (como la imposiblidad de “monetizar contenido”) a quienes la producen.

 

Estas experiencias contribuyeron, por una parte, a hacer visible la desinformación como un problema, una distorsión que no es de películas de espías sino que es una cosa de todos los días que sucede en nuestro teléfono. Además, generó incentivos negativos para los medios de comunicación que pudieran compartir contenido desinformante para tener, luego, que rectificar y admitir que se habían equivocado. Por último, fue un interesante mensaje a la clase política, que también podía tener costos si decidía utilizar piezas falsas como parte de su estrategia de campaña política.

 

Así, si bien “suben el costo de la mentira”, si bien existen estudios que muestran que los ​likes​, las ​compartidas y los ​comentarios sobre noticias falsas en Facebook disminuyeron, los volúmenes siguen siendo enormes. Por tanto, el impacto de estas medidas en la marea de desinformación convierten a los esfuerzos en reactivos e insuficientes.

 

Estos códigos de prácticas voluntarias y autorreguladas carecen de dientes si no se complementan con medidas para mejorar el escrutinio en lo que hace a cómo actores privados de comunicación “aprovechan” los datos personales de sus usuarios.

3. ​SOPORTE PARA LA ALFABETIZACIÓN MEDIÁTICA

Dado que no se puede luchar contra la desinformación cortando las "cabezas de la hidra" de una en una, existe cierto consenso en la necesidad de promover medidas medidas “desde el lado de la demanda” en lugar del “lado de la oferta”.

 

En otras palabras, considerar la necesidad de fortalecer a las y los usuarios, de forma tal que desarrollen habilidades específicas para el análisis crítico del contenido que circula online y crear así una resiliencia social, de abajo hacia arriba., frente a las campañas de desinformación.

 

Según Levitin, "​el pensamiento crítico se puede enseñar, practicar y perfeccionar"​ . En efecto, existe evidencia, sobre todo de estados europeos, muestra que los programas de alfabetización mediática (​media literacy​) son particularmente efectivos cuando se dirigen a ciudadanos en diferentes sectores de la sociedad, incluidos los profesionales de los medios.

La evidencia confirma que cuando las personas suben su “alerta” sobre sus propios prejuicios, tienden a sucumbir menos ante ellos. Muchos de quienes abogan por reforzar la alfabetización mediática plantean reformas al sistema educativo, promoviendo la idea de formar una generación con instrumentos emocionales y cognitivos que los protejan de la manipulación, dentro y fuera de Internet.

 

Asimismo, argumentan que, para desmontar el “sesgo de confirmación”, es necesario trabajar con los niños desde temprana edad, ya que las creencias y prejuicios se forman temprano en la vida. Este camino está siendo promovido por la Unión Europea y ya tiene recorrido en países como Francia, Finlandia, Reino Unido y en muchos estados de EEUU.

 

El acento sobre la alfabetización mediática abre la puerta a una pedagogía del mundo digital y su interactividad. La tan mentada “inclusión digital” no puede ser sólo garantizar acceso a dispositivos o a conectividad sino también la mirada crítica sobre los usos digitales.

 

En suma, un espacio en el que se enseñe cómo se usan determinadas herramientas digitales, pero que también pregunte: ¿cómo se priorizan las fuentes de información?, ¿cómo se evalúa la relevancia de una estadística?, ¿cómo se detectan falacias de autoridad? ¿qué es el sesgo de confirmación?, ¿cómo se identifican las interrupciones argumentativas?

Si bien se las presenta analíticamente como medidas separadas, lo ideal sería contar con una acción que combine los abordajes, de forma multidimensional, como respuesta unificada de las múltiples partes interesadas en combatir la desinformación: los gobiernos, la sociedad civil y el sector privado. La cooperación de todos los sectores es esencial ya que cada uno tiene un papel único que desempeñar en la búsqueda de garantías para el consumo de información online.

DECONSTRUIR IDENTIDADES CERRADAS

Las identidades colectivas son, y siempre han sido, parte de la vida social. Todas las identidades, religiosas, nacionales, políticas o deportivas, crean lealtades. Hoy, el problema es que algunas de las otras identidades son vistas como un enemigo que amenaza nuestros propios valores y creencias.

 

La transformación más impactante que trajo la traslación del debate público a las redes sociales es la visibilización de comunidades de personas, que mutan, que se reconstituyen a toda velocidad. Con personas que comulgan con más de una tribu, identidades políticas, precarias y contingentes.

 

Esta dinámica, muy rica, muy atrapante y sumamente veloz no puede ser absorbida por la rigidez de los sistemas políticos, que devienen inestables. Allí, cuando el tribalismo se radicaliza y la polarización se endurece, es cuando la desinformación encuentra anclaje.

Lo que nos sucede es una paradoja: en momentos en que estamos más conectados que nunca, vamos perdiendo el terreno común para debatir. Cuando nuestras posibilidades de diversificar los puntos de vista nunca antes fueron mayores, nos diluímos en una suerte de "realismo ingenuo" en el que nuestra percepción de la realidad es la única válida.

 

Así, ya ni siquiera reparamos los argumentos de nuestros oponentes: los desacreditamos. Nuestra indignación crece, nuestra ansiedad nos arrastra. Si hay una controversia, simplificamos el asunto: lo etiquetamos según alguna división binaria del mundo.

 

Si hay que validar un punto de vista, lo hacemos con quienes pertenecen a nuestro grupo, así nos refuerzan las propias creencias, esas que posteamos en alguna red social, para coronar su validación con una serie de likes. Nuestra verdad es por consenso y nuestra moral, superior.

 

Este mecanismo, tan bien incorporado por nuevas estrategias de comunicación política, amenaza el ambiente democrático porque su “realismo ingenuo” redunda en una cultura de intolerancia hacia aquellos que piensan diferente.

 

En ese camino, no basta confrontar las noticias falsas, exigiendo una negación constante, sino fortalecer dicha confrontación dentro de las personas, su autonomía y capacidad de reflexión.

bottom of page