Infox en ligne : Le CSA veut que les plateformes analysent leurs propres algorithmes

Société : Dans la lutte contre la désinformation, les plateformes ont l’obligation de rapporter toutes leurs pratiques auprès du CSA. Bilan 2020 à l’appui, le régulateur constate que les algorithmes de recommandation et de modération ne sont toujours pas suffisamment expliqués.

Le Conseil supérieur de l’audiovisuel (CSA) a rendu ce mardi son bilan sur les pratiques mises en œuvre en 2020 par les grandes plateformes pour lutter contre la désinformation.

C’est la deuxième année que les plateformes sont tenues de rendre compte auprès du CSA de leurs pratiques en France, depuis la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. Ces obligations en matière de régulation systémique s’inscrivent dans un panorama législatif plus vaste, avec en ligne de mire, entre autres, le prochain Digital Services Act de l’Union européenne.

Bien que plus détaillés que l’année précédente, les rapports remis par les plateformes au CSA apportent toujours très peu d’éléments sur le volet algorithmique, sur lequel repose pourtant une grande partie de la régulation qui est faite. Selon le CSA, le travail de modération devrait être supervisé par l’humain, puisque les effets de son automatisation ne sont pas encore clairement analysés, et les recommandations de contenus demeurent toujours opaques.

« Les opérateurs n’expliquent pas, ou ne le font que très partiellement, comment ces systèmes spécifiques fonctionnent, quelles sont leurs performances (faux positifs et négatifs) ainsi que leurs résultats concrets », écrit le CSA dans son rapport. Chez Microsoft, LinkedIn et Verizon Media, l’autorité note que ces informations sont même inexistantes. Qui plus est, « aucune indication des performances des systèmes utilisés n’a été indiquée », ajoute le CSA, qui reconnaît cependant que la « complexité » de certaines technologies, comme le machine learning, auxquels ont recours Facebook, Google ou encore Twitter, peuvent être un frein.

Comment prendre en compte la nuisance des biais algorithmiques ?

Pourtant, le CSA a pu constater que les systèmes algorithmiques sont de plus en plus exploités dans la détection de fausses informations. Certains opérateurs ont développé des systèmes algorithmiques de modération spécifiques pour identifier des contenus problématiques. Dailymotion, Snapchat et Twitter, par exemple, utilisent des algorithmes pour faire remonter les signalements, qui une fois remontés sont traités par les systèmes pour réduire les délais d’instruction. Dans le cas de Twitter, ce procédé permet d’identifier les contenus avant modération humaine.

D’autres plateformes, comme Facebook et Microsoft, utilisent des réseaux adversaires génératifs (GANs) pour « créer des hypertrucages, capables ensuite d’entraîner des algorithmes d’apprentissage profond à mieux les détecter », explique le CSA. Microsoft a indiqué dans son rapport donner accès à des outils de détection de deepfakes comme Microsoft Video Authenticator, qui peuvent être ensuite intégrés à son service Azure.

Alors que de tels systèmes automatisés peuvent être utilisés pour débusquer massivement des contenus problématiques, le CSA préconise une plus grande transparence de la part des plateformes sur les intentions, les mécanismes et les conséquences de ces systèmes. Sur le sujet plus spécifique des algorithmes de recommandation de contenus, les conseillers alertent en outre sur le potentiel de nuisance des biais algorithmiques, qui sont susceptibles d’altérer la recherche et la recommandation de contenus.

La crise sanitaire accentue le phénomène de la désinformation de masse

Face à la surabondance de fausses informations liées au contexte de la crise sanitaire, les plateformes ont su se montrer là particulièrement proactives, tempère le CSA. Facebook a notamment annoncé la suppression de 12 millions de contenus liés à la crise sanitaire, depuis mars 2020, sur Facebook et Instagram, et Google a annoncé avoir supprimé 9,3 millions de vidéos liées à la crise sanitaire, sur la plateforme YouTube, au premier trimestre 2020.

Mais, au-delà des chiffres, les éditeurs se voient souvent reprocher leur manque de responsabilisation et de sincérité en matière de régulation. Le Wall Street Journal a livré il y a peu une enquête sur la nocivité de Facebook et Instagram pour ses utilisateurs, après que Facebook a apporté des changements à ses algorithmes par le passé. Facebook s’est défendu en début de semaine, en avançant que les arguments avancés dans ce travail journalistique reposent sur une sélection restrictive de documents ayant fait l’objet de fuite.

La responsabilité des plateformes devient aussi un enjeu pour protéger les publics plus jeunes. Avec des réseaux sociaux comme TikTok, qui attirent les adolescents, les efforts pour en restreindre l’accès ou contrôler les contenus se multiplient. Il y a quelques jours encore, ByteDance, la maison mère de TikTok, annonçait de son propre chef qu’elle allait limiter le temps d’utilisation de la version chinoise de TikTok chez les moins de 14 ans. Une initiative plutôt surprenante de la part d’un éditeur, mais qui intervient par ailleurs dans un contexte de reprise de contrôle de l’Etat chinois sur les mastodontes de la tech, comme le rappelle Le Monde.

Source : ZDNet.com

Catégories