Technologie

Sur Facebook, les ingénieurs peuvent ne pas comprendre leurs algorithmes

Dans un rapport interne relayé par mondeUn ancien employé de Facebook décrit un algorithme très complexe qui empêche une modération efficace des réseaux sociaux. Selon eux, le résultat de décisions non uniformes au sein du groupe.

Les algorithmes de Facebook, qui sont au cœur des réseaux sociaux, sont devenus de plus en plus complexes au fil des années. Reportage maison diffusé le 26 octobre monde, Spécifiez l’engrenage.

L’algorithme de Facebook est la “machine” qui détermine ce qui apparaîtra dans le fil d’actualité d’un utilisateur. La fonctionnalité des réseaux sociaux repose entièrement sur ce système, qui définit les interactions et les expériences de chaque personne qui y est inscrite.

“Score” hors de contrôle

Au fil des ans, il a été modifié pour optimiser la sélection des publications selon différents critères.Ces critères sont nombreux et composent et précisent une « note » mondeIl liste le nombre d’amis qui s’abonnent à la page, le nombre de likes auquel elle appartient, ou encore les engagements observés dans la publication.

C’est ce score qui détermine la récurrence de la parution d’une publication. Le problème, pointé par les ingénieurs de Facebook et diffusé quotidiennement, est le nombre de critères nécessaires pour attribuer un score final sous la forme de “potentiellement plus d’un milliard” de points. Cependant, avec un tel score, l’outil de modération de Facebook sera désactivé. Ce dernier permet aux ingénieurs de transmettre des contenus inappropriés ou préjudiciables à l’utilisateur sans en comprendre la raison.

Selon certains témoignages d’anciens salariés, cette situation n’est pas volontaire de la part du dirigeant, mais le résultat d’un manque de « vision systématique unifiée ». Cependant, la politique générale de Facebook ces dernières années semble tendre vers le profit plutôt que la sécurité des utilisateurs. C’est un constat répété exprimé par la lanceuse d’alerte Frances Haugen.

Interaction sociale significative

En 2018, l’algorithme de Facebook est “Interaction sociale significative“, (” Interaction sociale significative “), désigne le contenu publié par les proches de l’utilisateur, tels que la famille et les amis proches.

Comme Frances Haugen l’a mentionné et rappelé à plusieurs reprises monde Aujourd’hui, ce changement n’a pas l’effet escompté. Cet algorithme utilise les mots des lanceurs d’alerte pour devenir une « boîte à écho » qui amplifie les contenus extrêmes et fait la part belle aux contenus politiques. Ou l’effet inverse de ce qui était recherché.

Jusqu’à présent, les ingénieurs n’ont pas semblé être en mesure d’expliquer spécifiquement le comportement de l’algorithme ou de le modifier efficacement.Toujours demandé monde, La société dit que ce n’est pas le cas.

« Les réseaux sociaux veillent à ce qu’ils changent régulièrement pour les améliorer », et « des recherches régulières auprès des utilisateurs nous permettent de détecter rapidement et de revenir sur les problèmes clés. « Je le ferai », explique un collègue. N.-É.tous les jours.

Lever le voile de l’algorithme

La situation peut changer. La nouvelle législation sur les services numériques qui doit être édictée par la Commission européenne obligera les réseaux sociaux à être transparents sur ces algorithmes et systèmes de modération. Nick Clegg, vice-président de Facebook et responsable des communications internes, l’a peut-être mentionné.

Le système que nous introduisons […] Si nécessaire, nous devons être audités par les organismes de réglementation pour nous assurer que le système fonctionne comme prévu », a déclaré Nick Clegg à CNN le 10 octobre.

Ces révélations font partie du “dossier Facebook” qui a débuté en septembre. Le journal de Wall Street Sur la base de documents internes fournis par les lanceurs d’alerte et l’ancienne employée de Facebook Frances Haugen.

Sur Facebook, les ingénieurs peuvent ne pas comprendre leurs algorithmes

Source link Sur Facebook, les ingénieurs peuvent ne pas comprendre leurs algorithmes

Back to top button