YouTube et Facebook disent accélérer sur la modération de contenus inappropriés

  25 Avril 2018    Lu: 1593
YouTube et Facebook disent accélérer sur la modération de contenus inappropriés

YouTube a supprimé, sur la période d'octobre à décembre derniers, 8,3 millions de vidéos inappropriées, selon le premier rapport trimestriel de la plate-forme relatif au règlement de sa communauté. Huit contenus supprimés sur dix ont été repérés par un algorithme et, au total, 30% des vidéos concernées présentaient un caractère sexuel. Facebook avance de son côté être intervenu sur 1,9 million de messages de propagande islamiste au premier trimestre de 2018, soit deux fois plus qu'au cours des trois mois précédents.

YouTube avait été sommée de réagir après plusieurs polémiques concernant la présence sur sa plate-forme de vidéos dans lesquelles des enfants étaient maltraités ou d'autres, tout à fait innocentes, mais qui suscitaient des commentaires à caractère pédophile.

Ces révélations avaient entraîné la fuite de nombreux annonceurs. A la fin de l'année, la filiale de Google avait dès lors promis de s'attaquer plus fermement au problème, notamment en investissant dans des algorithmes capables de détecter ces contenus.

Un tiers des vidéos retirées présentaient un caractère sexuel
Outre les 6,7 millions de vidéos supprimées grâce à cette technologie - dont 76% avant même qu'elles aient pu être vues -, 1,1 million l'ont été à la suite de signalements d'usagers et 400.000 après une dénonciation d'un membre de la communauté, ressort-il du rapport.

Près d'un tiers (30%) des vidéos retirées présentaient un caractère sexuel. Suivent les spams (27%), les contenus haineux (16%) et les violents (14%). Les vidéos pouvant mettre en danger des enfants représentent 5% des suppressions, celles faisant la promotion du terrorisme 2%.

D'après le rapport, les pays avec le plus de contenus signalés étaient, dans l'ordre, l'Inde, les États-Unis, le Brésil, la Russie et l'Allemagne. 

De son côté, Facebook indique sur son blog avoir "entrepris des actions" à l'encontre de 1,9 million de messages de propagande de l'Etat islamique ou d'Al-Qaïda lors des trois premiers mois de l'année. Ces actions peuvent aller jusqu'à la suppression du contenu, mais elles se limitent parfois à l'ajout d'un avertissement. Le réseau social, qui a lui aussi un blason à redorer depuis les révélations du scandale d'utilisation des données de ses utilisateurs lié à la société Cambridge Analytica, affirme que 99% des messages de haine ont été mis au jour grâce à ses propres outils.


Tags: YouTube   Facebook  


Fil d'info