Quantcast
Channel: JEAN-MARIE LEBRAUD
Viewing all articles
Browse latest Browse all 5872

FACEBOOK ET LA LIBERTÉ D' EXPRESSION ET MODÉRATION ???

$
0
0

   INTERVIEW - Groupes racistes, commentaires discriminatoires… Mais pas de photos de femmes demi-nues.

Comment comprendre l'étrange modération de Facebook ?

Décryptage avec Flavien Chantrel, social media manager chez RegionsJob.com, auteur sur le Blog du modérateur.

 /5
 

LE FIGARO - On a le sentiment que Facebook est peu disert quant à sa politique de modération - en tout cas bien moins que sur sa politique de confidentialité. Partagez-vous cette analyse?

Flavien CHANTREL.

- C'est effectivement un sujet sur lequel Facebook communique très, très peu.

On en sait finalement peu de choses.

On sait encore moins combien de personnes y sont employées. Pourtant, Facebook se fait fréquemment reprocher de laisser en ligne des contenus illicites.

 

A contrario, on a pu voir que Twitter agissait concrètement lors de l'apparition de hashtags problématiques (du type #UnBonJuif ou #SiMonFilsEstGay).

Évidemment, sur Facebook, il s'agit de messages difficiles à modérer en raison de leur nombre: cela nécessiterait des dizaines de milliers de personnes pour superviser les publications…

D'où le fait que Facebook compte beaucoup sur sa communauté de membres pour s'autoréguler?

Oui, je pense d'ailleurs qu'un gros effort a été fait avec ce système de signalement, qui permet un premier tri des contenus.

Facebook ne peut pas contrôler par défaut tout contenu posté sur son réseau, il vérifie a minima les contenus signalés par ses utilisateurs.

On peut d'ailleurs considérer qu'au fond les contenus n'étant pas signalés n'intéressent personne en termes de modération.

Par ailleurs, imaginons que Facebook soit en mesure de contrôler tous les contenus publiés et le fasse: cela ne ferait-il pas fuir les utilisateurs attachés à une certaine confidentialité (que Facebook défend par ailleurs)?

C'est une question de rentabilité: si Facebook est assimilé à un endroit où l'on ne peut rien dire, il court un risque d'exode massif de ses utilisateurs.

Et si, en plus, cette image de liberté coïncide avec des économies de plusieurs millions de dollars sur la modération, elle n'a que des avantages…

Donc Facebook adapte ses standards de modération au gré des polémiques qui l'entachent?

Tout à fait. Il y a des principes assez figés, des «guidelines» internes données par Facebook à ses équipes (et qui avaient été éventées par le site Gawker), puis le site doit jongler dans un entre-deux, entre une ouverture absolue et un contrôle total des publications.

On peut prendre pour exemple le travail de lobbying de groupes féministes pour protester contre un certain nombre de publications sexistes, voire constituant des appels au viol sur Facebook.

Protestations auxquelles le réseau a finalement apporté une réponse.

Comment comprendre en revanche que Facebook ait hésité avant de supprimer une vidéo de décapitation, quand le moindre début de nudité peut valoir une suspension rapide de compte?

Il faut voir d'où vient la firme de Mark Zuckerberg. Il semble qu'on retrouve là une version concrète d'un certain puritanisme américain: il n'y a qu'à se souvenir par exemple du «nipplegate» de Janet Jackson, il y a dix ans, qui avait fait scandale.

Par ailleurs, étant donné que Facebook ambitionnait de conquérir le public des 13-18 ans (l'inscription étant d'ailleurs permise à partir de 13 ans), pourquoi les mineurs auraient-ils le droit de voir sur Facebook ce qu'ils n'ont pas le droit de voir au cinéma?

Facebook n'est d'ailleurs pas toujours aussi hésitant sur la violence: ainsi, la publication de la photo d'un moine tibétain s'immolant par le feu a valu au monde.fr plusieurs heures de suspension…

On peut en effet s'interroger sur le fait qu'une vidéo ultra-violente et démonstrative fasse hésiter le réseau, quand une photo à portée informative postée par un média vaut une sanction immédiate.

Mais je vois là une conséquence à la fois du fait que Facebook a externalisé une partie de sa modération à des prestataires, et qu'il n'est pas forcément facile de voir, avec le regard subjectif de chacun, si le contenu examiné est de l'apologie de la violence ou de l'information.

Les professionnels disposent-ils d'outils de modération plus adaptés que le simple utilisateur?

Pas vraiment, nous passons par les outils traditionnels de Facebook, même si beaucoup de community managers en demandent de plus perfectionnés et ont recours à des applications hors Facebook.

La modération n'est vraiment pas le problème numéro un de Facebook…

La rédaction vous conseille :


Viewing all articles
Browse latest Browse all 5872

Trending Articles