¿Facebook es tóxico?: Un millón de mensajes de odio en un cuatrimestre

lunes, 7 de septiembre de 2020 · 12:29

La condición reaccionaria (que estimula las reacciones sesgadas de los usuarios), muchas veces anónima e íntima y, sobre todo, impune, que permite a cualquiera escribir y decir cualquier cosa sobre cualquier tema sin responder legalmente sobre ello, ha provocado que en todo el mundo se use la red social Facebook como una herramienta para promover contenidos tóxicos del mismo modo que el medio de comunicación más irresponsable.

En Necochea los mensajes de odio en las redes sociales, sobre todo en la red social de Mark Zuckerberg, están a la orden del día y florecen diariamente a pesar del esfuerzo de algunos administradores y moderadores de grupos de evitar su propagación. Así, ante cualquier clase de posteo, comentario o contenido que se vuelca en las redes, cientos de vecinos diariamente utilizan el canal para transformar su desacuerdo en mensajes de odio a una velocidad asombrosa y preocupante.

Por ejemplo, ante cualquier acción de gobierno (tanto en la actualidad como en el pasado) la reacción inmediata de los "haters" (odiadores en inglés) es la crítica muchas veces sesgada, basada en datos recortados que luego dan lugar a interpretaciones tendenciosas que terminan por reforzar prejuicios negativos de quienes acceden a esas reacciones. Incluso si la información no se ajusta a los prejuicios propios, una cantidad de usuarios elige además reaccionar contra los emisores del mensaje ya sin considerar siquiera la veracidad de los datos que se les presentan

Esa situación no se revela sólo en opiniones políticas: los discursos de odio se multiplican en múltiples formas y sobre toda clase de contenidos... hasta en foros de florería se pueden encontrar duras argumentaciones e insultos que sacan de control debates potencialmente fructíferos que terminan en rencores entre usuarios y peleas "a muerte" por cuestiones banales.

La tendencia es observada desde hace años y en nuestra ciudad ha mostrado sobrados ejemplos a lo largo de ellos: cada vez que se presenta un tema a la consideración pública, los debates en las redes ganan un calor que pronto se transforma en un infierno en el que nadie parece considerar la opinión del otro y cada uno escucha (y refuerza) sólo su propia voz y sus propios argumentos. Esa postura argumentativa deviene, en la mayoría de los casos, en un intercambio de calificaciones entre usuarios que bien puede decantar en insultos o, cuanto menos, desestimaciones con carga verbal violenta.

Recientemente la publicación de "La Cumbia de Necochea" por parte de un cantante necochense mereció incluso acusaciones personales contra el artista solo porque la canción no era del agrado del público. Semanas atrás, a una vecina se le ocurrió solicitar a los corredores que no usen la cinta asfáltica para correr por el riesgo de producir algún accidente y deportistas molestos insultaron y respondieron al pedido como si se tratara de un agravio. A la vez, otros vecinos agredían a los corredores como si cometieran una felonía imperdonable.

Si bien los casos mencionados son "inofensivos", para temas más polémicos, como el caso del aborto, la inseguridad, el manejo de los recursos públicos o las propuestas políticas de uno u otro partido, la violencia y los discursos de odio salen a relucir en su máxima expresión, muchas veces a manos de vecinos indignados y muchas veces también acicateados por usuarios anónimos y trolls que buscan la agitación de la masa con fines propios.

En las elecciones de 2015 la explotación de los discursos de odio en Facebook permitió el avance de Cambiemos para acceder al poder, aunque esa estrategia luego no pudo ser usada para sostener y defender las impopulares medidas de gobierno.

En Necochea esa modalidad fue ampliamente utilizada durante los últimos comicios, con una fuerte campaña de desprestigio sobre el ex intendente Facundo López que, de cualquier manera, tampoco estaba en condiciones de mostrar eficientemente su gestión y cualquier defensa contra las mentiras que se extendieron era descalificada e incluso atacada con fruición por vecinos indignados, militantes virtuales y, por supuesto, trolls articulados desde algún centro de campaña. 

Al respecto de lo que sucede en Facebook en la actualidad, el portal mexicano PijamaSurf publicó un reporte en el que da cuenta de la detección de un millón de posteos con notas con incitación al odio en el segundo cuatrimestre del año:

Desde hace años, Facebook se ha convertido en el medio de comunicación más importante del mundo. Acaso reflejando la priorización de los intereses económicos de su fundador y sus socios y la poca importancia que desde el principio se dio a la privacidad, la plataforma ha virado en los últimos años hacia una especie de arma para desestabilizar procesos democráticos, atacar grupos sociales, étnicos o religiosos y, por decirlo pronto, polarizar y enfrentar a la sociedad. Facebook siempre fue un experimento social. Primero se trataba de permitir que los jóvenes universitarios pudieran obtener información de chicas con las que querían salir. Luego se trató de ofrecer a todo tipo de marcas, corporaciones e incluso gobiernos acceso a poblaciones (targets) para influir en su conducta, ofreciendo una panoplia incomparable de datos sumamente sensibles. Anunciarse en Facebook era acceder al poder de manipular psicológicamente a las personas.

Al tiempo que se acerca una nueva elección en Estados Unidos y que se ha producido un momento histórico de desobediencia civil, y tomando en cuenta el papel protagónico de Facebook en la elección pasada, no es sorpresa que la red social esté bajo serio escrutinio. En respuesta a esto, Facebook ha dado a conocer un documento titulado Community Standards Enforcement Report en el que, entre otras cosas, expone los resultados del segundo cuatrimestre del año en relación a sus logros en la detección de contenido que viola los "estándares de la comunidad". 

Facebook presume que, durante ese periodo, su capacidad de detectar el contenido violatorio tuvo un importante incremento. Facebook dio a conocer que, en el caso de los llamados "discursos de odio" (hate speeches, contenido que promueve el odio o la violencia racial, sexual o de otro tipo), su algoritmo fue capaz de identificar el 94.5% de los cerca de veintidós millones de artículos con incitaciones de odio que fueron detectados. Esto significa que un millón de dichas publicaciones fueron denunciadas por los usuarios y posteriormente evaluadas efectivamente como "discursos de odio". 

Un millón de artículos incitando al odio puede parecernos mucho o poco, pero es importante notar que esto es obviamente sólo una fracción de lo que realmente sucede en Facebook, pues evidentemente existe mucho contenido que no es reportado y que tampoco es detectado por su algoritmo. Además, Facebook no ofrece información sobre cuánto tiempo esos veintidós millones de artículos estuvieron circulando, ni cuántas veces fueron compartidos. Claramente la empresa podría dar una cifra de vistas de contenido tóxico, pero esta cifra sería de cientos o hasta miles de millones de vistas, lo cual no sería muy halagador ni muy positivo para su imagen.

La misma red social señala en su reporte: "debido a que priorizamos eliminar contenido dañino por encima de medir ciertos efectos durante este tiempo, no pudimos calcular la prevalencia de contenido violento y gráfico, desnudos de adultos y actividad sexual". Y en otra parte, la empresa acepta que centrar su atención en las publicaciones de odio propició que tomaran menos acciones "en contra de contenido de suicidios, daño autoinfligido y desnudez infantil", tanto en Facebook como en Instagram, además de que en Instagram parece que no hubo tiempo de revisar publicaciones de "explotación sexual". Una extraña confesión, sin duda.

Como comenta Chris Gilliard, doctor y profesor experto en privacidad digital, esto es como si una empresa de alimentos nos dijera: "Pasamos mucho tiempo asegurándonos de que no hay excremento de ratas en su comida, pero no pudimos revisar si contiene metales punzocortantes".

Es cierto que Facebook no tiene la culpa de que exista tanto odio en el mundo, o al menos no toda. La red social podría argumentar que ellos son simplemente un medio de conexión entre las personas y no generan el contenido violento o incluso ilegal. Pero hay que recordar la frase más importante en la historia del análisis de los medios de comunicación: el medio es el mensaje. La misma plataforma determina o al menos inclina el tipo de contenido que se puede generar y los modos en los que se consume. Es evidente, por ejemplo, que una persona no haría los mismos comentarios racistas, misóginos o francamente ignorantes y violentos si tuviera que decírselos a alguien en la calle –y no a través de una pantalla– o si, por otro lado, no pasara todo el tiempo consumiendo contenido inane, más o menos inflamatorio, en su newsfeed. 

Facebook se ha convertido en una máquina de difusión de contenido tóxico; más aún, desde el principio capitalizó este modo de consumir y producir información que es tóxico, no sólo porque cumpla o no con un estándar comunitario, sino porque afecta la manera en la que nos relacionamos con la información y con el conocimiento. O, mejor dicho, siendo uno de los principales actores que determinan que ya no nos relacionamos con el conocimiento, sino con la información.

Comentarios

Otras Noticias