Ces docu­ments révèlent comment Face­book modère la nudité et la violence

par   Ulyces   | 22 mai 2017

La gestion d’un réseau social de plus de deux milliards d’uti­li­sa­teurs n’est pas une mince affaire. Encore plus lorsqu’il s’agit des règles éthiques de publi­ca­tion à respec­ter. Mais au final, notre connais­sance sur cette juri­dic­tion reste très floue. Dans une enquête publiée le 19 mai, le quoti­dien britan­nique The Guar­dian dévoile une partie des secrets de Face­book en révé­lant certains dessous des règles de modé­ra­tion utili­sée par la plate­forme, notam­ment s’agis­sant de cas extrêmes comme les discours de haine, la porno­gra­phie, la violence, le terro­risme, le racisme ou l’auto-muti­la­tion. Les règles appa­raissent très impré­cises. Face­book est souvent sous le feu des critiques en Europe et aux États-Unis pour sa poli­tique de modé­ra­tion. Le réseau compte envi­ron 4 500 modé­ra­teurs et près de 3 000 nouvelles personnes devraient être embau­chées pour faire face au volume crois­sant de contenu publié. Les modé­ra­teurs, qui doivent connaître sur le bout des doigts leurs fiches pour­vues d’exemples précis, ont en règle géné­rale 10 secondes pour prendre une déci­sion : c’est-à-dire savoir si tel ou tel contenu est publiable ou pas, ce qui rend la tâche très complexe. Telle­ment qu’elle abou­tit parfois à des absur­di­tés. Par exemple, un commen­taire appe­lant au meurtre de Donald Trump doit être supprimé, car le Président fait partie d’une caté­go­rie proté­gée. En revanche, les commen­taires inci­tant à la violence vis-à-vis de trop vastes caté­go­ries de personnes comme « les roux » ou « les enfants en surpoids » ne sont pas consi­dé­rées comme des menaces crédibles. Pourquoi ne pas tout suppri­mer alors ? Face­book a égale­ment été vive­ment critiqué pour avoir mis du temps à suppri­mer des vidéos de meurtres. L’Amé­ri­cain Robert Godwin avait pu filmer en direct, à cause du Face­book Live, l’as­sas­si­nat d’un vieil homme dans les rues de Cleve­land en avril dernier. Néan­moins, l’en­tre­prise de Mark Zucker­berg ne consi­dère pas que ce genre de conte­nus doit être obli­ga­toi­re­ment censuré selon ces docu­ments, car elles peuvent « éveiller les consciences sur les consé­quences des mala­dies mentales ». Qui plus est, Face­book a auto­risé la diffu­sion des suicides en direct et d’au­to­mu­ti­la­tion, « ne voulant pas censu­rer ou punir les gens en détresse ». Les vidéos sont ensuite suppri­mées dès lors « qu’il n’y a plus d’oc­ca­sion d’ai­der la personne » en ques­tion. Certaines photos où donnant à voir des abus physiques non-sexuels sur des enfants ne doivent pas être suppri­mées à moins d’y aper­ce­voir un élément « sadique » ou de « célé­bra­tion ». S’agis­sant des règles de nudité, elles sont floues et variables. La suppres­sion du cliché histo­rique de « La fille de la photo » brûlée au napalm pendant la guerre du Viet­nam avait vive­ment choqué l’opi­nion publique, bien qu’elle ait été re-publiée par la suite. Sinon, toute œuvre d’art « faite à la main » évoquant, montrant la nudité ou une acti­vité sexuelle est auto­ri­sée tandis qu’une produc­tion artis­tique numé­rique à carac­tère sexuelle ne l’est pas. Concer­nant les vidéos d’avor­te­ment, elles sont auto­ri­sées seule­ment si le corps nu n’y est pas présent. « Face­book ne peut pas contrô­ler son contenu. Le réseau social est devenu trop gros, trop rapi­de­ment », explique une source anonyme au Guar­dian. On ne peut qu’ap­prou­ver et penser qu’on vit dans un monde très sombre, beau­coup trop sombre. Crédits : The Guar­dian Source : The Guar­dian    

Free Download WordPress Themes
Premium WordPress Themes Download
Free Download WordPress Themes
Free Download WordPress Themes
free online course