Translate

mercredi 16 mai 2018

Facebook :" Nos règles s'adaptent au monde entier "


16 mai 2018

Facebook :" Nos règles s'adaptent au monde entier "

La directrice de la politique des contenus du réseau social explique comment y fonctionne la modération

agrandir la taille du texte
diminuer la taille du texte
imprimer cet article
Pour répondre aux critiques sur ce qui peut ou non être posté en ligne, Facebook organise mardi 15  mai, à Paris, le premier " Content Summit ", une conférence destinée à présenter ses règles de modération et en débattre. Ces dernières sont fixées par Monika Bickert, directrice de la politique des contenus. Elle a répondu aux questions du Monde.


Comment résumeriez-vous ce qui est autorisé et ce qui ne l'est pas sur Facebook ?

Notre but numéro un, c'est la sécurité de notre communauté. Les gens vont voir des contenus avec lesquels ils ne sont pas d'accord, des choses qu'ils jugent choquantes, mais ce n'est pas parce que quelque chose est déplaisant ou offensant qu'il est contraire à nos règles. Nous préférons donner aux individus les moyens de contrôler ce qu'ils voient. Mais si quelque chose est potentiellement nocif ou vise personnellement ces derniers, nous intervenons.


L'existence de règles est désormais admise par Facebook – et les entreprises de la Silicon Valley en général –, alors que prévalait encore récemment la vision américaine de la liberté d'expression…

Nos règles ne correspondent pas au droit américain. L'exemple le plus parlant est fourni par les propos haineux. Ils sont légaux aux Etats-Unis. Nous sommes beaucoup plus proches des normes européennes : nous n'autorisons pas les attaques contre les personnes sur la base de leur genre ou de leur orientation sexuelle, par exemple. Nos règles ne seront jamais seulement américaines ou françaises, elles doivent s'adapter au monde entier.


Beaucoup ont cependant le sentiment que c'est encore la vision américaine qui domine, notamment en matière de nudité.

Nous n'avons pas toujours le contexte pour prendre la bonne décision, et nous devons parfois agir par précaution, surtout en matière de nudité. Notre politique en la matière est la suivante : si c'est artistique, c'est autorisé. Lorsqu'il s'agit de photos de vraies personnes, c'est différent : parfois l'image peut être celle d'un mineur ou être diffusée sans l'accord de la personne. Si c'est une photo d'une femme qui allaite, si c'est une photo d'une poitrine de femme destinée à alerter sur les risques du cancer, ou pour des raisons politiques, c'est autorisé. Ce n'est pas une ligne parfaite, pour personne, surtout quand on prend en compte la diversité des points de vue dans le monde.


Combien de modérateurs travaillent pour la France ?

Nous avons plus de 7 500  modérateurs travaillant pour Facebook basés dans le monde entier, dont une partie a le français pour langue maternelle, mais, parfois, quelqu'un va modérer un contenu pour la France sans être francophone, par exemple, si c'est une image de nudité, une vidéo de décapitation ou de quelqu'un en train d'être battu. Mais nous avons une couverture en français 24  heures sur 24.


Facebook a été accusé de nourrir les violences ethniques en Birmanie. Comment avez-vous réagi à ces critiques ?

A chaque fois qu'il y a de la violence, un conflit dans une zone donnée, la première chose que nous devons faire est de nous informer. Cela veut dire travailler avec la société civile sur place pour comprendre la situation. C'est ce que nous faisons en Birmanie. Nous travaillons avec certains groupes depuis des années, mais la situation sur place a beaucoup changé ces derniers mois. Nous essayons aussi de mieux communiquer sur la manière dont il est possible de nous alerter, par exemple, en mettant à disposition dans les cybercafés des copies papier de nos règles pour signaler du contenu problématique.


La question de la lutte contre les contenus djihadistes sur Facebook s'est beaucoup posée. Où en êtes-vous de cette bataille ?

La technologie nous permet d'identifier des contenus terroristes de manière proactive. Désormais, plus de 99  % du contenu terroriste que nous supprimons est détecté avant que quiconque nous le signale. Mais il reste encore beaucoup à faire.


En Europe et en France, on parle de rendre les réseaux sociaux encore plus responsables de ce qui est publié. L'Allemagne a commencé. Que pensez-vous de cette tendance ?

Je ne pense pas que la loi allemande soit une bonne réponse. Les gouvernements veulent souvent la même chose que nous en matière de sécurité. Paris ou Berlin ne veulent pas de contenu terroriste ? Nous n'en voulons pas non plus sur notre site. Notre intérêt économique est complètement compatible avec les exigences en matière de sécurité. Si quelque chose est illégal dans un pays mais ne contrevient pas à nos règles, nous avons un mécanisme : le pays doit nous montrer le contenu illégal, nos équipes juridiques le vérifient et, le cas échéant, nous rendrons l'accès à ce contenu impossible depuis ce pays seulement. En France, il y avait une image prise après l'attaque du Bataclan - le 13  novembre 2015 - qui avait été jugée illégale par le gouvernement français. Une fois que nous avons été saisis par lui, nous avons restreint le contenu en France. La loi allemande externalise cette décision et nous demande de déterminer ce qui est légal ou non. Nous ne sommes pas en position de le faire. Et il y a une pression à trop censurer, même lorsqu'on n'est pas sûrs que le contenu viole la loi allemande.
propos recueillis par Martin Untersinger
© Le Monde

Aucun commentaire:

Enregistrer un commentaire