Technologie

Les outils de modération de Facebook sont considérés comme ridicules dans les documents internes

Le système de détection de haine par intelligence artificielle de Facebook ne fonctionne que pour un petit pourcentage de publications problématiques.

Un peu plus de 0,5% du résultat net.Selon un document interne de, il s’agit de l’investissement de Facebook en 2019 pour payer des modérateurs humains pour contrer les messages désagréables Le journal de Wall Street Il a été révélé le 17 octobre de cette année. Avec un investissement total de 104 millions de dollars dans ce domaine et un bénéfice de plus de 18 milliards de dollars par an, l’entreprise vise à automatiser autant que possible les outils de lutte contre la haine en ligne pour réduire les coûts. Problème, ces mêmes documents montrent que ces outils ont peu d’effet sur la haine en ligne.

Dans une note publiée mi-2019, les ingénieurs de Facebook estimaient que le système d’intelligence artificielle supprimait les messages offensants, qui ne représentaient que 2% du contenu affiché en violation des règles de la plateforme.

“Le problème, c’est qu’il n’y a pas de modèle qui détecte la plupart des violations d’intégrité, notamment dans les zones sensibles, et probablement jamais”, écrit un employé du réseau social. Ensuite, il devient plus précis en estimant que porter le taux de détection à 10 ou 20 % « à court ou moyen terme » est « très difficile ».

Intelligence artificielle très imparfaite

Ces données sont Le journal de Wall Street, Cette fois plus récemment. Le document de mars 2021 déjà évoqué par la lanceuse d’alerte Frances Haugen évoque l’effet « 3-5% » du système automatisé de Facebook et supprime les contenus offensants.

Toujours selon la même source, quelques exemples récents montrent les limites de l’intelligence artificielle de Facebook pour détecter les contenus violents. Ce dernier n’aurait pas pu détecter une vidéo d’une fusillade ou d’un accident de voiture montrant un cadavre démembré.

De telles critiques se sont propagées après que des terroristes paranormaux ont tué 50 personnes et diffusé des images des meurtres sur Facebook, Twitter et YouTube, en particulier après l’attaque de mars 2019 (Nouvelle-Zélande) contre Christchurch. La plateforme a alors été choisie en raison du retard pris dans le retrait de la séquence.

Le document suggère en outre que malgré la part limitée des investissements de Facebook dans les modérateurs humains, la société a cherché à réduire ses coûts en 2019.

Ainsi, l’entreprise a restreint les appels aux modérateurs humains tout en ajoutant un élément « friction » à ses outils de reporting pour les utilisateurs afin de réduire le nombre d’alertes envoyées.

Barrière de la langue

La documentation revient sur un autre point régulièrement évoqué par les détracteurs de Facebook : la capacité plus limitée des outils de modération à détecter des contenus dans des langues autres que l’anglais.

L’un des exemples cités est l’Afghanistan, qui, notamment selon le rapport de janvier, a été touché par la montée des publications haineuses, mais seulement « 0,23 % » a été supprimé.

Cette fois, un autre rapport interne de mars 2021 concerne le sort des musulmans d’Assam (Inde), qui sont souvent la cible du contenu dégoûtant de Facebook.

“L’assamais est particulièrement préoccupant car il n’y a pas d’outils de classification qui incluent l’assamais. [la langue locale, ndlr]” Spécifie le document.

Par le passé, Facebook a été régulièrement averti par des ONG de fréquents discours de haine contre les Rohingyas en Birmanie. Encore une fois, le système automatisé a rencontré de sérieux problèmes dans l’analyse du contenu birman. En 2015, la plateforme n’a embauché que quatre modérateurs birmans pour environ 7,3 millions d’utilisateurs à travers le pays.

Interrogée sur le sujet de l’atténuation de la haine en ligne, une porte-parole de l’entreprise a déclaré que ces chiffres ne concernaient que les publications qui ont été retirées grâce à des outils automatisés.

“Nous ne serons jamais parfaits, mais notre équipe s’engage à développer des systèmes, à identifier les problèmes et à trouver des solutions”, a déclaré la société dans un communiqué.

Elle constate également une réduction de 50 % de la prévalence des contenus désagréables depuis le début de 2021 et une amélioration de la situation. Cependant, sans partager la source de son sondage, elle estime qu’il ne contient que cinq des 10 000 contenus Facebook consultés par les internautes. Contenu dégoûtant.

Les outils de modération de Facebook sont considérés comme ridicules dans les documents internes

Source link Les outils de modération de Facebook sont considérés comme ridicules dans les documents internes

Back to top button