Chez Facebook, l’IA avance pour mieux modérer les contenus

Technologie : Le réseau social développe ses systèmes basés sur l’IA, dans le but de pouvoir toujours mieux modérer les contenus et réduire les publications indésirables et porteuses de messages haineux.

Facebook a partagé mercredi dernier certaines de ses avancées en matière d’intelligence artificielle (IA), en ce qui concerne sa tâche colossale de faire respecter les normes communautaires sur ses plateformes.

Les nouvelles techniques et les nouveaux systèmes que Facebook a rapidement fait passer de la recherche à la production, comme le « Reinforcement Integrity Optimizer » (RIO), contribuent à réduire la diffusion de contenus haineux et autres posts indésirables, d’après le réseau social.

« L’IA est un domaine qui évolue incroyablement vite, et bon nombre des éléments les plus importants de nos systèmes d’IA sont aujourd’hui basés sur des techniques comme l’autosurveillance, qui nous semblaient bien loin il y a seulement quelques années », rappelait Mike Schroepfer, directeur technique de Facebook, aux journalistes ce mercredi.

Les contenus indésirables augmentent, mais sont de plus en plus bloqués

Dans son « Community Standards Enforcement Report » (Rapport sur l’application des normes de la communauté, NDLR) publié mercredi, Facebook indique que la diffusion de discours haineux a diminué au deuxième trimestre 2021, pour la troisième fois consécutive. Ce recul serait notamment dû aux améliorations apportées à leur détection proactive et aux modifications de classement dans le fil d’actualité de la plateforme.

En détail, il y aurait eu cinq posts contenant des propos haineux pour 10 000 affichés au deuxième trimestre, selon ce rapport. Au premier trimestre, ce chiffre s’élevait à six. Parallèlement, la société a recensé 31,5 millions de contenus haineux sur la plateforme ce trimestre, contre 25,2 millions au précédent. Sur Instagram, on est passé de 6,3 millions au trimestre dernier à 9,8 millions.

Des systèmes comme RIO, introduit à la fin de l’année dernière, aident l’entreprise à détecter de manière proactive les contenus indésirables et haineux.

Un nouveau système d’apprentissage

L’approche classique pour entraîner une IA consiste à utiliser un ensemble de données fixe pour former un modèle, qui sera ensuite déployé pour prendre des décisions sur de nouveaux éléments de contenu. RIO, en revanche, guide un modèle d’IA pour qu’il apprenne directement à partir de millions de contenus. Il évalue en permanence la qualité de son travail, et il apprend et s’adapte pour rendre les plateformes Facebook plus sûres au fil du temps.

« Ce type d’apprentissage de bout en bout est extrêmement utile pour faire respecter les normes de la communauté », explique Mike Schroepfer.

« Parce que la nature du problème évolue toujours en même temps que les événements actuels : lorsque de nouveaux problèmes apparaissent, nos systèmes doivent être capables de s’adapter rapidement. L’apprentissage par renforcement est une approche puissante pour aider l’IA à relever de nouveaux défis lorsqu’il y a une pénurie de bonnes données d’entraînement. Notre système RIO devrait continuer à faire baisser la prévalence des discours haineux et autres contenus indésirables pendant longtemps, ce qui est très encourageant pour une technologie aussi récente. »

« Zero shot » et « few shot »

Facebook remplace également les systèmes sur-mesure à usage unique par des systèmes plus généraux, à un « rythme surprenant », avance Mike Schroepfer, qui ajoute que des « améliorations impressionnantes » ont été observées dans les modèles d’IA multimodaux. Ces derniers peuvent fonctionner dans plusieurs langues ou avec plusieurs modalités (comme le texte, les images et la vidéo), ou encore avec plusieurs types de politiques.

En outre, Mike Schroepfer a souligné les progrès réalisés par les chercheurs de Facbook dans les domaines de l’apprentissage « zero shot » et de l’apprentissage « few shot ». Ils permettent respectivement aux systèmes d’IA de reconnaître un contenu illicite qu’ils n’ont jamais vu auparavant, ou dont ils ont simplement vu quelques exemples pendant la formation. « Les apprentissages « zero shot » et « few shot » sont parmi les nombreux domaines de pointe de l’IA dans lesquels nous avons réalisé d’importants investissements de recherche, et nous espérons en voir les résultats au cours de l’année à venir », anticipe Mike Schroepfer.

Les systèmes d’IA de Facebook complètent le travail effectué par des dizaines de milliers de personnes pour faire respecter les normes de la communauté.

Source : net.fr/actualites/

Catégories