Vidéos truquées, nouveau visage de la manipulation de l’information

L’intelligence artificielle est à l’origine de la prochaine phase de désinformation: les vidéos truquées ou “deepfakes”. Elles posent des défis majeurs aux salles de rédaction en matière de vérification. Le Wall Street Journal (WSJ) a pris cette menace au sérieux et a mis en place un groupe de travail interne dirigé par les équipes Éthique et normes et Recherche et développement. Ce groupe de travail comprend des concepteurs de vidéos, de photos, de visuels ainsi que des rédacteurs de nouvelles formés à la détection des deepfakes. Mais avant d’aborder les moyens mises en place par le WSJ pour les contrer, il est utile de savoir en quoi consiste ce terme.

C’est quoi les deepfakes ?

Le deepfake est une technologie basée sur l’intelligence artificielle utilisée pour produire ou modifier le contenu vidéo afin qu’il présente quelque chose qui ne s’est pas produit. Le mot, qui s’applique à la fois aux technologies et aux vidéos créées avec lui, est un modèle d’apprentissage en profondeur et de falsification.

La technologie existe déjà pour créer des contenus audio et vidéo convaincants – mais non authentiques – et ces technologies s’améliorent rapidement. Les logiciels de retouche photo, tels que Photoshop, ont longtemps été utilisés pour falsifier des images, et le public apprend à appliquer le bon sens et la pensée critique lorsqu’il présente une image dont le contenu semble improbable. Cependant, jusqu’à récemment, le contenu vidéo était plus difficile à modifier de manière substantielle. En tant que tel, la vidéo a souvent été considérée comme une preuve que quelque chose s’est réellement passé. Un état de fait qui est aujourd’hui remis en question à cause des deepfakes.

Comment détecter les deepfakes ?

Les équipes du Wall Street Journal travaillent sur des solutions et testent de nouveaux outils pouvant aider à détecter ou à prévenir les supports contrefaits. Dans l’ensemble du secteur, les agences de presse peuvent envisager plusieurs approches pour aider à authentifier les médias si elles suspectent des modifications.

«Il existe des moyens techniques pour vérifier si la vidéo a été modifiée, par exemple en le parcourant image par image dans un programme de montage vidéo pour rechercher des formes non naturelles et des éléments ajoutés, ou en effectuant une recherche d’image inversée», a déclaré Natalia V. Osipova, journaliste vidéo chevronnée du journal. Mais la meilleure option est souvent le reportage traditionnel: « Contactez directement la source et le sujet, et utilisez votre jugement éditorial. »

Examiner la source

Si quelqu’un a envoyé une vidéo suspecte, commencez par contacter la source. Comment cette personne l’a-t-elle obtenue? Où et quand a-t-elle été filmée? Obtenir le plus d’informations possible, demander une preuve supplémentaire des revendications.

Si la vidéo est en ligne et que le la personne qui l’a publiée est inconnue, d’autres questions méritent d’être explorées: Qui aurait filmé les images? Qui l’a publié et partagé et avec qui? La vérification des métadonnées de la vidéo ou de l’image à l’aide d’outils comme InVID ou d’autres visualiseurs de métadonnées peut fournir des réponses.

En plus de suivre ce processus en interne, le WSJ collabore avec des organisations de vérification de contenu telles que Storyful et Associated Press. Ce paysage évolue rapidement et de nouvelles solutions apparaissent régulièrement sur le marché. Par exemple, de nouveaux outils, tels que TruePic et Serelay, utilisent la blockchain pour authentifier les photos. Quelle que soit la technologie utilisée, les humains dans la salle de presse sont au centre du processus.

« La technologie à elle seule ne résoudra pas le problème », a déclaré Rajiv Pant, directeur technique du journal. « Le moyen de lutter contre les deepfakes est d’augmenter l’homme avec des outils d’intelligence artificielle. »

Recherche d’anciennes versions de la vidéo

Les “deepfakes” sont souvent basés sur des images déjà disponibles en ligne. Les moteurs de recherche d’images inversées tels que Tineye ou Google Image Search sont utiles pour rechercher les anciennes versions possibles de la vidéo afin de déterminer si un aspect de celle-ci a été manipulé.

Examiner les images

Les programmes d’édition vidéo permettent aux journalistes de ralentir la vidéo, de zoomer sur l’image et de le regarder image par image ou de le suspendre plusieurs fois. Cela aide à révéler des défauts évidents: scintillement et flou autour de la bouche ou du visage, éclairage ou mouvements anormaux, et les différences entre les tons de peau sont les signes révélateurs d’une défonce grave.

À titre d’expérience, l’équipe de criminalistique du Journal a découvert quelques problèmes lors d’une session de formation utilisant des séquences de Barack Obama (ci-dessous) créées par des producteurs vidéo de BuzzFeed. Des séquences qui ont mis en lumière le problème des manipulations des vidéos et les dangers qu’elles font courir sur la crédibilité des informations.

Article publié originellement en anglais sur NiemanLab.

 

Reply

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.