Epinglé du doigt par la société civile sur ses stratégies pour endiguer le fléau de la haine en ligne, Facebook s’est félicité, jeudi 19 novembre, de ses «très bons» chiffres aussi bien sur les appels haineux que sur les autres contenus racistes et insultants.
Lors d’une conférence de presse, Guy Rosen, vice-président du groupe en charge de l’intégrité, a déclaré que «de juillet à septembre, la prévalence des contenus haineux a été comprise entre 0,1 et 0,11 %», ajoutant qu’«en d’autres termes, sur 10.000 contenus vus sur Facebook, en moyenne, entre 10 et 11 comportaient des discours de haine».
Efforts redoublés
L’entreprise californienne a retiré respectivement plus de 22,1et 6,5 millions des contenus haineux respectivement sur Facebook et Instagram, soit le double du trimestre précédent. Depuis des années, Facebook maîtrise automatiquement le retrait de certains contenus, liés à la pornographie, au terrorisme, etc. «La propagation de la haine est plus compliquée à gérer, les machines ayant du mal à faire la différence entre les informations, l’humour, les parodies, les rumeurs et les insultes», a précisé l’entreprise.
L’IA au cœur de sa plateforme
Par la même occasion, les dirigeants se sont également réjouis des progrès accomplis en intelligence artificielle (IA), expliquant qu’en 2017, le taux de détection automatique des discours haineux, retirés avant tout signalement par un utilisateur, était de 23,6 %, tandis qu’il est de 95 % aujourd’hui.
Les progrès de l’IA permettent d’aller plus vite, de systématiser les décisions des humains pour leur éviter de se répéter, et de consacrer plus de temps et d’énergie aux sujets plus compliqués, a fait valoir Mike Schroepfer, directeur de la technologie du groupe californien. Facebook a, par ailleurs, souligné qu’il ne compte pourtant pas à court ou même long termes de réduire ses équipes de modérateurs. Ces dernières sont constituées de 35.000 personnes chargées de la sécurité en général, dont 15.000, principalement employées par des sous-traitants, concentrées sur la modération des contenus. En effet, ces annonces interviennent au moment où des modérateurs expriment leur mécontentement vis-à-vis du groupe. Mercredi, plus de 200 modérateurs de Facebook ont en effet signé une lettre ouverte où ils reprochent à la société de les forcer à revenir au bureau malgré la pandémie, mais aussi le recours précipité, selon eux, à l’IA. «Des messages importants ont été broyés par le filtre de Facebook et des contenus dangereux, comme les blessures auto-infligées, sont passés», accusent-ils.
Lors d’une conférence de presse, Guy Rosen, vice-président du groupe en charge de l’intégrité, a déclaré que «de juillet à septembre, la prévalence des contenus haineux a été comprise entre 0,1 et 0,11 %», ajoutant qu’«en d’autres termes, sur 10.000 contenus vus sur Facebook, en moyenne, entre 10 et 11 comportaient des discours de haine».
Efforts redoublés
L’entreprise californienne a retiré respectivement plus de 22,1et 6,5 millions des contenus haineux respectivement sur Facebook et Instagram, soit le double du trimestre précédent. Depuis des années, Facebook maîtrise automatiquement le retrait de certains contenus, liés à la pornographie, au terrorisme, etc. «La propagation de la haine est plus compliquée à gérer, les machines ayant du mal à faire la différence entre les informations, l’humour, les parodies, les rumeurs et les insultes», a précisé l’entreprise.
L’IA au cœur de sa plateforme
Par la même occasion, les dirigeants se sont également réjouis des progrès accomplis en intelligence artificielle (IA), expliquant qu’en 2017, le taux de détection automatique des discours haineux, retirés avant tout signalement par un utilisateur, était de 23,6 %, tandis qu’il est de 95 % aujourd’hui.
Les progrès de l’IA permettent d’aller plus vite, de systématiser les décisions des humains pour leur éviter de se répéter, et de consacrer plus de temps et d’énergie aux sujets plus compliqués, a fait valoir Mike Schroepfer, directeur de la technologie du groupe californien. Facebook a, par ailleurs, souligné qu’il ne compte pourtant pas à court ou même long termes de réduire ses équipes de modérateurs. Ces dernières sont constituées de 35.000 personnes chargées de la sécurité en général, dont 15.000, principalement employées par des sous-traitants, concentrées sur la modération des contenus. En effet, ces annonces interviennent au moment où des modérateurs expriment leur mécontentement vis-à-vis du groupe. Mercredi, plus de 200 modérateurs de Facebook ont en effet signé une lettre ouverte où ils reprochent à la société de les forcer à revenir au bureau malgré la pandémie, mais aussi le recours précipité, selon eux, à l’IA. «Des messages importants ont été broyés par le filtre de Facebook et des contenus dangereux, comme les blessures auto-infligées, sont passés», accusent-ils.
Siham MDIJI