Facebook vigilara contenido ofensivo e ilegal

Facebook agregará a 3000 personas al equipo que monitorea Facebook Live y otros aspectos de la red social para evitar esparcir contenido inapropiado, ofensivo o ilegal.

 

La decisión se tomó después de que la plataforma de Facebook Live, el popular servicio de transmisión de video de la empresa, fue utilizada para transmitir actos como el homicidio de una bebé en Tailandia y otro asesinato en Cleveland en el que un hombre mostró cómo disparaba a un señor aparentemente al azar.

La empresa también ha sido criticada por hacer un mal trabajo respecto a eliminar el contenido que viole sus reglas, como en el caso del intercambio de fotografías de militares desnudas, sin su consentimiento, así como el de ventas ilegales de armas de fuego.

En una publicación de Facebook, Mark Zuckerberg, el director ejecutivo de la empresa, señaló que los episodios recientes fueron “desgarradores” y que los nuevos moderadores se sumarán a las 4500 personas que ya tiene en su equipo de operaciones para la comunidad.

“Si vamos a construir una comunidad segura, necesitamos responder rápidamente”, escribió. “Estamos trabajando para hacer que sea más fácil reportar estos videos, de manera que podamos tomar la acción adecuada de manera más pronta, ya sea al responder rápidamente cuando alguien necesite ayuda o al eliminar una publicación”.

Zuckerberg también apuntó que Facebook facilitará que los usuarios y los empleados de la empresa tomen medidas cuando vean un problema.

“Haremos que sea más sencillo que nos reporten problemas, que sea más rápido para nuestros moderadores determinar cuáles publicaciones violan nuestros estándares y que sea más fácil para ellos contactar a las autoridades en caso de que alguien necesite ayuda”, dijo.

Pese a las promesas de Zuckerberg, muchos usuarios de la red social se mostraron escépticos de que la contratación de 3000 moderadores vaya a resultar en cambios. Cientos de comentarios en la publicación de Zuckerberg hablaban de casos en los que reportaron contenido que consideraron inapropiado y que la compañía no removió.

La mayoría de los moderadores son contratistas que reciben un sueldo relativamente bajo y viven alrededor del mundo. Usualmente revisan una publicación por solo algunos segundos. Una investigación de la Radio Pública Nacional estadounidense (NPR) llevada a cabo el año pasado halló que los estándares de contenido de Facebook eran aplicados de manera inconsistente.

Zeynep Tufekci, profesora asociada de la Universidad de Carolina del Norte que estudia temas relacionados a las publicaciones en línea, dijo que Facebook diseño la plataforma de video en vivo para que los amigos de quien transmita reciban la alerta de manera automática y que eso es atractivo para quienes buscan la publicidad.

“Me quedó claro que eso llevaría a suicidios transmitidos en vivo, a homicidios, abusos, tortura”, dijo Tufecki. “El FBI concluyó en un estudio abarcador de estudiantes que llevan a cabo tiroteos en sus colegios que la ‘infamia’ es uno de sus motivos”.

El anuncio de Zuckerberg fue hecho horas antes de que la empresa informara sobre su desempeño financiero trimestral, que ha aumentado en parte gracias a la popularidad de los videos en la plataforma.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *