Masacre en Nueva Zelanda, transmitida en Facebook, muestra la falta de control de lo que se publica.

El viernes 15 de marzo un hombre australiano de 28 años llenó su automóvil de armas, condujo hasta dos mezquitas en Christchurch, Nueva Zelanda, y empezó a disparar contra gente indefensa que estaba orando. Cincuenta personas murieron. Pero lo más insólito del brutal hecho fue que el asesino transmitió en vivo la masacre durante 17 minutos a través de Facebook Live, gracias a una cámara que instaló en su casco. Así, esta atrocidad fue vista en directo por unas 200 personas y 4.000 más lo alcanzaron a ver luego ‘en diferido’, antes de que Facebook suprimiera el video.

El hecho ha puesto una vez más a la redes sociales en la picota pública. Incluso, cuando la primera ministra de Nueva Zelanda, Jacinda Ardern, habló frente a cámaras por lo ocurrido le exigió públicamente respuestas a Facebook sobre la transmisión de la matanza. “Hicimos lo mejor que pudimos para remover, o intentar remover, el video que circuló luego de este ataque terrorista. Pero en última instancia es responsabilidad de las plataformas facilitar la remoción. Pienso que aún hay preguntas que deben ser respondidas”, señaló Ardern.

La respuesta de Facebook no tardó en llegar, y Mia Garlick, de la oficina de la red social de ese país, aseguró: “Trabajaremos sin descanso para remover el contenido violatorio”. Al día siguiente, la red social publicó un comunicado en el que afirmaba que en las primeras 24 horas removieron un millón y medio de copias y versiones del video del ataque, a nivel global.

A pesar de esta acción, este hecho atizó un debate de grueso calado en torno a la responsabilidad de redes como Facebook, YouTube, Google y Twitter, entre otras, sobre la difusión en sus plataformas de contenido violento: tiroteos, violaciones, asesinatos, maltrato infantil o contra animales, pedofilia, tortura, suicidios e intentos de suicidio, por mencionar algunos ejemplos.

Si bien las principales plataformas de internet se han comprometido a adoptar medidas enérgicas para frenar la difusión de este tipo de contenido con sistemas automatizados y con monitoreo hecho por humanos, expertos coinciden en que es claro que estos controles no están funcionando.

Lucinda Creighton, exministra de gobierno irlandesa y asesora de la ONG Counter Extremism Project –que hace campaña para retirar contenido violento de internet– señaló que “no hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando”. Mientras que Carlos Charry, Ph. D en sociología y profesor de la Universidad del Rosario, anota que es sorprendente que haya más control sobre desnudos que sobre las transmisiones de contenidos explícitamente violentos, y explica que “algo se ha avanzado, pero el caso de Nueva Zelanda muestra que aún estamos lejos de lo que se espera”.​

¿Vieja excusa?

YouTube también se vio envuelta en el caso del video de Nueva Zelanda y la excusa que esta red presentó es que el volumen de copias del video del ataque subidas a su red por usuarios a partir de la transmisión original, que fue eliminada de inmediato, “no tiene precedentes tanto por su escala como por su rapidez”. Añadiendo que en las horas posteriores a la masacre, la velocidad a la que esos videos fueron montados en YouTube llegó a alcanzar el ritmo de una nueva subida cada segundo.

En cuanto a Facebook, el vicepresidente de Producto, Guy Rosen, publicó en el blog oficial de la compañía que los sistemas de detección automática no se activaron porque la inteligencia artificial no tenía suficiente entrenamiento para reconocer este tipo de videos. “Lo que desafió nuestro enfoque fue la proliferación de muchas variantes diferentes del video, impulsadas por las formas, amplias y diversas, en que la gente lo compartió”, explicó.

Lo que desafió nuestro enfoque fue la proliferación de muchas variantes diferentes del video, impulsadas por las formas, amplias y diversas, en que la gente lo compartió

Sin embargo, las explicaciones no parecen ser suficientes, pues esta no es la primera vez que ocurre un hecho como este. Si nos remontamos solo al surgimiento de la transmisión en vivo a través de redes sociales, ya son cientos o incluso miles los casos –las cifras son inciertas, pues estas plataformas se han negado en repetidas ocasiones a publicar cuántos casos han registrado–. Pero basta con señalar que, según un informe que reveló Facebook en mayo del año pasado, en el primer trimestre del 2018 se eliminaron cerca de 3,4 millones de imágenes violentas, casi el triple que en el trimestre anterior.

Y el gran problema –sin entrar en el punto de que no todos son detectados y eliminados– es el tiempo que hoy toma eliminar completamente –si es que eso es posible– materiales como el de la masacre de Nueva Zelanda. En abril de 2017, Facebook se demoró casi 24 horas en eliminar el video de un padre asesinando a su hija de 11 meses en Tailandia.

Las publicaciones que abordan y denuncian esta problemática ya vienen de tiempo atrás. ‘BuzzFeed News’ publicó a mediados de 2017 un artículo titulado ‘La violencia en Facebook Live es peor de lo que pensabas’ en el que se denunció que desde el debut de este sistema, en diciembre de 2015, hasta ese momento –menos de dos años– se emitieron en vivo y en directo no menos de 45 casos de violencia en Estados Unidos que incluían violaciones, asesinatos, tiroteos, maltrato infantil, tortura, suicidios e intentos de suicidio. Y es evidente que en esta cifra hay un subregistro.

En el caso particular de la masacre de Nueva Zelanda también quedó en evidencia que, aunque las plataformas se apresuraron a eliminar la grabación, la inteligencia artificial no superó la velocidad –como ellas mismas reconocieron– de los usuarios, la astucia humana y “el impulso morboso de observación”, según explica Charlie Warzel en su columna de ‘The New York Times’. En cuestión de segundos, el video fue descargado y transmitido en plataformas adicionales, se crearon formatos que no fueran identificables para evitar ser eliminados y hasta se hicieron capturas de pantalla de las escenas más sangrientas. Y una de las preocupaciones de los expertos es que estas ‘exaltaciones’ en línea de episodios tan condenables puedan incentivar a otras personas a imitarlos.

El tema clave es que esta problemática va mucho más allá del caso de Nueva Zelanda.

A comienzos de este año se filtró en el canal YouTube Kids –que se supone tiene unos filtros aún más estrictos para que solo se pueda ver contenido dirigido a menores de edad– el video de un hombre que les explicaba a los niños cómo debían suicidarse. Y la misma plataforma tuvo que enfrentar las denuncias que hizo el bloguero Matt Watson, quien descubrió en febrero de este año una falla en el algoritmo de recomendaciones de videos que ponía en contacto a pedófilos que actúan impunemente en esa red. Watson explicó en un comentado video como solamente le hicieron falta dos clics para acceder a contenido publicado por pedófilos y cómo la plataforma recomienda videos de este tipo de manera automática, destacó la BBC de Londres.

El caso tuvo repercusiones financieras inmediatas para YouTube. Cuando se hizo pública esta información, Disney, Nestle, Dr. Oetker o Epic Games, según ‘Bloomberg’, retiraron o paralizaron sus inversiones publicitarias en Google (YouTube), pues ninguna compañía quiere que sus videos publicitarios aparezcan junto a contenidos pedófilos o en plataformas que no protegen a los niños de estas amenazas.

¿Hay solución?

Desde luego, Facebook y las demás redes no son los únicos responsables de la difusión de este tipo de contenido. Pero al ser la plataforma de difusión de estos contenidos es innegable que tienen una responsabilidad muy alta y clara, opina Daniel Barredo, director del proyecto Esfera Pública y Participación Ciudadana y profesor de la Universidad del Rosario.

“Los mensajes que se intercambian los usuarios de estas plataformas tienen que ser moderados, sobre todo para evitar efectos como la réplica, la divulgación de contenidos que van en contra de la ley y, también, ayudar para fomentar una opinión pública más y mejor informada y mucho más dinámica”, explica el experto.

Es justo al aclarar que con el pasar del tiempo las redes son cada vez más conscientes del enorme poder que tienen y de que los controles ya no son optativos. Y no solo por la vía de la inteligencia artificial, (Facebook tiene 20.000 empleados que se dedican exclusivamente a moderar el contenido que se publica en la red social); sin embargo, este tipo de moderación se ve totalmente superada por formatos innovadores como Facebook Live.

“Las compañías deben ser muy cuidadosas antes de habilitar un formato sobre el cual no tienen casi control. Si no tienen control total sobre lo tradicional, menos sobre cosas como Facebook Live. Deben pensar en las consecuencias que pueden generar”, señala Barredo.

Mario Morales, analista y profesor asociado de la Universidad Javeriana, adiciona un punto más, pues dice que responsabilizar únicamente a las redes sociales “es buscar el ahogado río arriba” y asegura: “Los responsables de contenidos nocivos, violentos o lesivos son los autores del mismo. Hay que ventilar la responsabilidad de los autores intelectuales (y como actuar sobre ellos), que son los verdaderos instigadores o componentes tóxicos de esta historia”.

Y el experto agrega que como medidas secundarias se vale solicitarles a las plataformas que eleven los filtros, que hagan seguimiento y que contribuyan a que estos contenidos inapropiados no se distribuyan lleguen de manera masiva.

Otras voces opinan que el propio ‘mercado’ se va a encargar de solucionar el tema, pues en la medida que la falta de controles reales les siga costando anunciantes a las redes (que finalmente son un negocio), como en el citado caso de Youtube, la plata y los esfuerzos que esas compañías invertirán en ‘cuidarse’, serán cada vez mayores y más efectivos.

Pero el hecho es que el tema está sobre la mesa, es de un alcance descomunal y por ahora sigue sin una solución clara a la vista.

Referente:https://www.eltiempo.com/tecnosfera/novedades-tecnologia/la-transmision-de-violencia-en-las-redes-sociales-341280

Share This