Close
    Search Search

    Facebook améliore l'IA pour détecter le harcèlement et les discours de haine

    Facebook améliore l'IA pour détecter le harcèlement et les discours de haine

    Mike Schroepfer, directeur de la technologie chez Facebook, mentionne qu'au cours du dernier trimestre 2020, la détection proactive des contenus de discours de haine, d'intimidation et de harcèlement sur Facebook est meilleure que jamais.

    Ce progrès technologique a eu lieu au cours des 3 dernières années. Fin 2017, le pourcentage de suppressions de discours de haine sur Facebook n'était que de 24 %. Fin 2019, il était passé à 80,5 %. Au troisième trimestre 2020, il atteignait 94 % et au dernier trimestre, le système de détection automatique détectait déjà 97 % des messages contenant des propos haineux.



    Le taux de pénétration des discours de haine est passé de 0,10-0,11 % à 0,07-0,08 %. Cela signifie que pour 10.000 7 vues de contenu, il n'y aura que 8 à 0,07 discours de haine. Le contenu violent est passé de 0,05 % à 0,05 % et la nudité adulte est passée de 0,06-0,03 % à 0,04-XNUMX %.

    L'importance de l'intelligence artificielle

    Facebook utilise l'intelligence artificielle pour détecter les discours de haine des utilisateurs. Mais il y en a encore beaucoup qui font de leur mieux pour éviter d'être détectés. Désormais, Facebook peut détecter plus complètement le contenu qui enfreint les politiques de la plateforme.

    Mike Schroepfer a donné un exemple : "C'est une excellente nouvelle" peut signifier des choses totalement différentes lorsqu'il est laissé sous les messages annonçant la naissance d'un enfant. Mais lorsqu'il apparaît sous un message où un être cher est décédé, le sens est tout le contraire. Par conséquent, il est nécessaire de déterminer si le commentaire viole les politiques de la plateforme.

    Facebook continue d'améliorer la technologie de l'intelligence artificielle, de comprendre plus profondément le langage et de combiner et d'analyser les images, le texte et d'autres détails des publications, puis de construire un système qui est bon pour analyser et commenter et peut apprendre continuellement avec de nouveaux matériaux.



    Facebook enregistre les liens partagés sur Messenger et Instagram

    Cette amélioration a permis à Facebook de détecter les textes d'intimidation et de harcèlement. Le taux de découverte est passé de 16 % au T2020 49 à XNUMX % au TXNUMX. Cela signifie que les utilisateurs l'ont découvert avant de signaler. Le système détecte d'abord et supprime activement ces contenus !

    De plus, les outils d'intelligence artificielle de Facebook prennent également en charge davantage de langues, ce qui lui permet de détecter les contenus qui enfreignent les politiques telles que l'espagnol et l'arabe, par exemple. Le nombre de contenus haineux supprimés a atteint 26,9 millions, contre 22,1 millions au trimestre précédent.

    Instagram se bat aussi contre de tels discours

    Le rapport de mise en œuvre des normes de la communauté Facebook inclut également Instagram. En raison des progrès technologiques, un total de 5 millions de contenus d'intimidation et de harcèlement ont été supprimés au quatrième trimestre 2020, soit près d'un de plus que les 2,6 millions du trimestre précédent. Dans le même temps, plus de 300.000 6,6 discours de haine organisés ont été supprimés. La détection globale des discours de haine a atteint 6,5 millions, plus que les XNUMX millions précédents.

    Mike Schroepfer a déclaré que malgré ces avancées, il reste encore beaucoup de travail à faire, car les mêmes mots peuvent être interprétés avec des sens différents selon l'emplacement de la publication et les lecteurs. Ils espèrent que l'intelligence artificielle pourra mieux détecter les expressions verbales à travers les langues, les cultures et les régions, et entraîner les machines à distinguer les différences subtiles dans la signification des langues.



    ajouter un commentaire de Facebook améliore l'IA pour détecter le harcèlement et les discours de haine
    Commentaire envoyé avec succès ! Nous l'examinerons dans les prochaines heures.

    End of content

    No more pages to load