L'exécutif de Facebook affirme que les mises à jour techniques sont plus efficaces que les vérificateurs de faits pour lutter contre les fausses nouvelles

BuzzFeed

Adam Mosseri prononce une allocution au Festival international de journalisme en avril 2017.



Il y a six mois, Facebook était en état de siège.

L'élection surprise de Donald Trump a entraîné un contrecoup contre l'entreprise au cours de la quantité de désinformation diffusée sur sa plateforme pendant la campagne. La première réponse du PDG Mark Zuckerberg était de rejeter les préoccupations , ce qui n'a fait que générer plus de tollé. Comme BuzzFeed News signalé à l'époque , un groupe d'employés malhonnêtes a d'abord pris sur lui de commencer à travailler sur des moyens de réduire la propagation des canulars et de la désinformation sur la plate-forme. Mais bientôt, la direction de l'entreprise a changé de ton et a commencé à réfléchir aux moyens de s'attaquer au problème.



Ce travail est largement retombé sur les épaules d'Adam Mosseri, le vice-président du fil d'actualité. Il est de plus en plus le visage de la mission de l'entreprise de débarrasser Facebook des pièges à clics, des fausses nouvelles et de ce que le chef de l'équipe des partenariats de presse de l'entreprise a récemment appelé des ordures teneur. Cela a été un processus continu, qui a entraîné de nombreux changements dans la façon dont Facebook présente les mises à jour.



Afin de s'assurer que les éditeurs ne sont pas surpris (c'est-à-dire : déclassés de manière inattendue) par les changements en cours du fil d'actualité, Mosseri a publié aujourd'hui un article de blog proposer aux éditeurs des repères de base afin de rester du bon côté de la plateforme. Il conseille aux éditeurs d'éviter les gros titres d'appâts à clics et tente d'essayer délibérément de jouer avec le fil d'actualité, tout en les poussant à partager des liens significatifs et informatifs. Ceux qui ne tiennent pas compte des conseils risquent d'être pris dans le fil d'actualité en constante expansion.

Mosseri présente ces balises dans le contexte des changements qu'elle a apportés au cours des six mois qui ont suivi l'élection, au cours desquels la société a déployé une série de mises à jour du classement du fil d'actualité qui cibler les titres d'appâts cliquables et des liens vers sites truffés de publicités indésirables et peu de contenu. Cela a rendu la possibilité de signaler un contenu faux ou trompeur plus visible pour les utilisateurs, et également en partenariat avec des vérificateurs de faits tiers aux États-Unis et dans deux autres pays pour placer une étiquette d'avertissement sur le contenu jugé faux.

Parallèlement aux changements de produit - qui, étant donné le cœur de Facebook en tant qu'organisation d'ingénierie, sont peut-être la meilleure expression de son engagement dans ce travail - la société a adopté une nouveau ton plus humble en parlant de la lutte contre la désinformation et de sa relation avec les organes de presse. Il a également versé des millions dans la création d'un Initiative d'intégrité des actualités .



Tout cela est le résultat de l'élection et de ses conséquences, qui, reconnaît Mosseri, l'ont pris, lui et d'autres, par surprise.

Je pense que nous avons été pris au dépourvu par l'attention particulière portée aux fausses nouvelles, a-t-il déclaré dans une interview avec BuzzFeed News.

Je n'aurais jamais pu m'attendre, ou aucun d'entre nous n'aurait pu s'attendre à ce que ce soit le principal point focal de l'examen de l'élection. Cela nous a définitivement surpris.

Steve Jennings / Getty Images



Adam Mosseri prend la parole sur scène lors de TechCrunch Disrupt SF 2016.

Mosseri a déclaré à BuzzFeed News qu'il pensait que les récentes mises à jour ciblant les fermes publicitaires et les titres de clickbait auront l'impact le plus positif sur la qualité des liens que les gens voient dans leur fil d'actualité. Mais ces mises à jour ont été éclipsées par le partenariat de Facebook avec des vérificateurs de faits tiers qui associent une étiquette contestée aux liens contenant de faux contenus. Ce programme a fait l'objet d'un examen minutieux plus tôt cette semaine lorsque The Guardian a rapporté que les liens contestés sont parfois plus partagés que ceux qui n'ont pas été démystifiés. Mosseri a déclaré que les données de Facebook, qui n'ont pas été partagées publiquement ou avec ses partenaires de vérification des faits, montrent que ce n'est pas le cas. (Facebook a refusé de partager ces données avec BuzzFeed News.)

Nous regardons ce qui est signalé et généralement ils reçoivent moins de distribution presque immédiatement, a-t-il déclaré. La forme de leur courbe de distribution change presque immédiatement après leur étiquetage.

Mosseri a déclaré que le partenariat de vérification des faits reçoit souvent plus d'attention et d'examen parce qu'il est plus facile à comprendre qu'un ajustement d'algorithme.

Il est beaucoup plus difficile de comprendre ou de prendre une capture d'écran de tout le travail que nous faisons pour construire une infrastructure de classement et de modélisation…. que de voir 'Oh, il y a un gros morceau de texte au-dessus d'un lien qui dit qu'il a été contesté par Snopes ou PolitiFact.'

À l'heure actuelle, le programme de vérification des faits est unique parmi les mesures d'intégrité de Facebook, car il suscite souvent deux points de vue contradictoires : c'est la plus grande partie de l'ensemble des efforts de l'entreprise pour lutter contre la désinformation, et dicte donc si l'effort global est efficace ; ou ce n'est rien de plus qu'un feuille de figue destiné à générer de bonnes relations publiques. Ce dernier point de vue suggère que l'efficacité réelle de l'étiquette de contrôle n'est pas pertinente tant qu'elle est là pour que l'entreprise l'indique dans les communications.

Je ne dirais pas que ce n'est pas pertinent – ​​je pense que nous cherchons toujours de nouvelles façons de mieux identifier toutes les formes de contenu problématique, a déclaré Mosseri. C'est donc une chose que nous avons trouvée qui avait une valeur supplémentaire.

Honnêtement, le travail se passe bien, bien au-delà du programme tiers, a-t-il poursuivi. Et bien que je pense que le programme est important, c'est —- eh bien, je vais le dire de cette façon : nous devons nous assurer que cet [effort pour réduire les fausses nouvelles] fonctionne dans les pays où il n'y a pas d'organisations tierces de vérification des faits, qui soit dit en passant est beaucoup de pays à travers le monde.

Une façon d'augmenter potentiellement le nombre de vérificateurs serait que Facebook investisse de l'argent dans la vérification de fait dans le monde entier. (Actuellement, Facebook fait appel à des vérificateurs des faits aux États-Unis, en France et aux Pays-Bas.) Mosseri dit que c'est une option que l'entreprise envisagerait, mais la priorité actuelle est sur les efforts techniques.

Il y a plus de 2 milliards de choses publiées sur Facebook par jour, et peut-être 400 à 500 millions de liens publiés par semaine, a-t-il déclaré. Il n'y a donc pas de version du programme de vérification des faits tiers qui puisse tout vérifier. Par nécessité, nous cherchons toujours à compléter ce type de programmes ou de systèmes avec des solutions techniques qui peuvent évoluer, simplement parce que nous y sommes obligés.

Photo de Craig Silverman

ContactCraig Silverman àcraig.silverman@buzzfeed.com .

Vous avez un conseil confidentiel ? Soumettez-le ici .