Enviar por email

tu nombre: email destino: mensaje:
Nombre de Usuario: Email: Contraseña: Confirmar Contraseña:
Entra con
Confirmando registro ...

Edita tu perfil:

Usuario:
País: Población: Provincia:
Género: Cumpleaños:
Email: Web:
Como te describes:
Contraseña: Nueva contraseña: Repite contraseña:

viernes, 23 de marzo de 2018

YouTube tardó demasiado en eliminar un canal neonazi

Por Marina B.

¿Cuáles son los límites entre un contenido ofensivo y uno sensible, cómo determinarlos y a qué principios echan mano aquellos que se encuentran en el rol de establecer las políticas de publicación en redes sociales? En ocasiones la decisión de prohibir un material queda claro, pues transmite un mensaje abiertamente ofensivo o de discriminación; otras, al pasar por el tamiz del respeto a la libertad de expresión, en fin, el respeto a la diferencia, la decisión puede tornarse difícil e incluso motivar enconadas polémicas. En una situación similar se ha visto envuelta por estos días la popular red social Youtube.

No es la primera vez que esta plataforma de video se ha visto implicada en debates relacionados con sus políticas para regular el contenido. En esta ocasión todo comenzó cuando eliminó el canal de Atomwaffen, una organización neonazi a la que se responsabiliza de múltiples asesinatos. La suspensión de la cuenta respondió a la violación de la política de odio de la popular compañía de Internet, pero le fue cuestionado que solo lo hiciera tras iniciarse una larga discusión sobre las publicaciones de la reaccionaria Atomwaffen y las presiones internas para que fuera bloqueada.

Como discursos de odio Youtube reconoce aquellos materiales que promueven la violencia y el odio contra grupos y personas, basados en atributos como la raza, la religión, etnia, género, edad, orientación sexual o identidad de género, entre otros. Aquellos canales que infringen estas normas son bloqueados, pero para aquellos cuyo contenido "religioso controvertido o supremacista" no viola estas normas, se toman otras decisiones. Y es precisamente ahí donde radica uno de los puntos más álgidos de la polémica desatada: la plataforma no ha especificado de forma lo suficientemente clara donde radica la fina línea entre un contenido controversial y uno ilegal.

En el caso de Atomwaffen, aunque estaba bastante claro su abierto mensaje de odio, Youtube se tomó su tiempo para decidir eliminar su canal. El grupo supremacista Atomwaffen había estado haciendo de las suyas desde 2017 cuando abrió su cuenta y comenzó a publicar propaganda racista y antisemita. Desde ese entonces recibió advertencias de los administradores de la plataforma y sus vídeos habían sido marcados como ofensivos, una opción que limita las posibilidades de comentar y compartir estos materiales, pero que no los elimina.

Pero el pasado 23 de febrero la situación llegó al clímax cuando la agencia de noticias independiente y sin ánimo de lucro radicada en Manhattam, ProPublica, publicó los chats del grupo supremacista en los que los participantes en la conversación se congratulaban por la muerte de BlazeBernstein, un muchacho judío de 19 años asesinado en California por un miembro de Atomwaffen. Como agravante el grupo está vinculado de forma directa e indirecta a, al menos, cinco asesinatos más; uno de sus miembros está preso por acumular material explosivo para fabricar bombas y otro confesó a ProPublica que el grupo había recluido en Estados Unidos a 80 personas. Toda una joyita ¿eh?

A pesar de la evidente actitud reaccionaria de Atomwaffen, Youtube no se pronunció hasta cinco días después. El 28 de febrero canceló su canal y todo el material de la organización desapareción de Internet. ¿Por qué esperar tanto y andarse con tibiezas? Es la pregunta que usuarios y organizaciones como la Liga Antidifamación de Estados Unidos han formulado. Al parecer la filial del gigante Google se tomó su tiempo para “estudiar” el caso.

En un mundo hiperconectado y donde el florecimiento de la ultraderecha parece ser un fenómeno en ascenso, el caso Atomwaffen no es más que otro capítulo en el esfuerzo de sitios como Youtube, y en general de las compañías tecnológicas, por acabar, o al menos invisibilidad, contenidos relacionados con el nazismo y los supremacistas blancos.