¿Cuántos reportes de contenido inapropiado recibe Facebook?

¿Cuántos reportes de contenido inapropiado recibe Facebook?

La red social recibe al menos un millón de reportes de sus usuarios al día; la mayoría de ellos pide que se mejore la forma de bloquear las manifestaciones de odio.

AUSTIN — Facebook recibe más de un millón de reportes de violaciones de parte de sus usuarios todos los días.

Eso dice Monika Bickert, directora de administración de políticas de Facebook.

Bickert habló de la delgada (e imperfecta) línea que separa a la libre expresión de las manifestaciones de odio en la primera Cumbre de Acoso en Línea de SXSW del sábado 12 de marzo. Bickert dijo a CNNMoney que no sabía a ciencia cierta qué porcentaje de las infracciones eran graves y se eliminaban del sitio.

La conferencia se centró en qué tan lejos pueden (y deben) llegar las empresas de tecnología para eliminar contenidos potencialmente dañinos en sus plataformas.

“Puedes criticar a las instituciones, a las religiones, puedes participar en una conversación política intensa”, dijo Bickert respecto a los límites en Facebook. “Lo que no puedes hacer es atacar a una persona o a un grupo de personas con base en una característica en particular”.

Bickert dijo que es “complicado” desarrollar la política, particularmente porque el 80% de los 1,600 millones de usuarios de Facebook están fuera de Estados Unidos y tienen puntos de vista diferentes respecto a los contenidos que podrían ser ofensivos o amenazadores.

Sin embargo, la parte más importante es la aplicación de las sanciones, dijo.

Bickert dijo a CNNMoney que Facebook da prioridad a la revisión de publicaciones que incitan a causar daños físicos, pero que los empleados capacitados de Facebook revisan todos los reportes de violaciones.

Dijo que a menudo le preguntan por qué la empresa no hace que sus “ingenieros de clase mundial” aborden las manifestaciones de odio “de forma proactiva y perfecta”.

“Las manifestaciones de odio son muy contextuales… Creemos que es realmente importante que la gente sea la que tome esa decisión”, dijo. Agregó que la automatización podría tener una función más relevante algún día.

Señaló que la cantidad de violaciones reportadas ha “aumentado constantemente” porque Facebook ha permitido que los usuarios las reporten desde todos los dispositivos.

Entre los panelistas estuvieron Juniper Downs de Google, Lee Rowland de la Unión de Derechos Civiles de Estados Unidos (ACLU, por sus siglas en inglés), Deborah Lauter de la Liga contra la Difamación y Jeffrey Rosen, del Centro para la Constitución Nacional de Estados Unidos.

Rosen habló de la “presión tremenda” a que las empresas de tecnología se enfrentan para “adoptar un enfoque más europeo” ante la libre expresión, mientras que cualquier cosa que ofenda la “dignidad” de una persona puede ser causa de eliminación.

Sin embargo, esto abre la posibilidad de que no solo las personas soliciten la remoción de contenidos, sino también el gobierno.

“Es muy complicado”, agregó Rosen. “Como sociedad tenemos que decidir qué es más valioso: la privacidad, la dignidad o la libre expresión”.

Por otra parte, Rowland dijo que hizo que eliminaran una publicación de un blog en Facebook porque contenía una foto de una estatua desnuda (más tarde, señaló que no había sido una violación de las políticas de Facebook, sino que había sido un error).

Rowland dijo que sabía a quién llamar para saber por qué la habían quitado, pero que la mayoría de la gente lo ignora.

“Para el usuario común, hay un espacio desconocido inmenso”, dijo mientras pedía a las empresas de tecnología que fueran más transparentes respecto a sus políticas.

“La gente no entiende bien por qué se puede quitar lo que dicen”, agregó Rowland. “A final de cuentas, si la gente no sabe en dónde está el límite [a la libre expresión], el plan de negocios no va a ser muy bueno”.

(http://www.cnnexpansion.com/)