Une girafe piégé sur le haut d’une falaise est sauvée par un bulldozer , sous les acclamations de plusieurs spectateurs présents. La vidéo surréaliste à la fin, où plusieurs personnes semblent être heureuse de cet exploit salvateur. Sur Facebook, où cette vidéo a été vue par de milliers d’internautes, en commentaires ils sont peu nombreux à remarquer qu’il ne s’agit que d’un contenu générée par l’intelligence artificielle. Plusieurs éléments visuels incohérents nous ont permis d’en arriver à cette conclusion.
Le post écrit en anglais se traduit en français par : « Sauvetage d’une pauvre girafe piégée ». Plus de 2 250 mentions « j’aime », 441 commentaires et 263 partages sont à l’actif de cette publication.
Sur ce post, c’est plus de 5 millions de vue collectées.
Et plusieurs centaines de milliers de likes et de commentaires à ces autres publications ( 1 , 2 , 3 , 4, 5).
Un des publicateurs de cette vidéo a dit l’avoir tirée du réseau social Instagram, avant que lui aussi ne la poste sur sa page.
Une vidéo générée par l’IA
La vidéo surréaliste de 16 secondes est en réalité un produit de l’IA. Congo Check est arrivé à cette conclusion après avoir remarqué plusieurs incohérences visuelles dans la vidéo. Par exemple, dans la vidéo, il est clair que les visages des gens sont nuageux, les côtés de leur corps ne bougent pas normalement.
Un autre élément, dans la première partie de la vidéo, l’endroit où la girafe est piégée ne ressemble pas à l’endroit où la girafe est sauvée dans le restant de la vidéo. Le décor change au fur et à mesure que la vidéo avance.
Le plan de la vidéo est aussi différent comme il est visible de le voir ici. À cette séquence, la girafe a deux têtes au lieu d’une.
Ensuite, l’engin qui permet de sauver la girafe change. Dans la première partie, l’engin est différent de la deuxième et de la troisième partie.
Les outils de vérification vidéo n’ont rien produit comme résultat fructueux. Hive Modération aussi n’a également pas fourni des résultats probants en y insérant les captures d’écran tirées de la vidéo.
À propos de la vérification des vidéos générées par l’IA
Jusqu’à présent n’existe pas encore d’outil fiable permettant de détecter les vidéos générées par l’IA. Les vidéos « deepfake » ont encore un long chemin à parcourir avant d’être indiscernables des vraies vidéos.
Cependant, les textes, les images et certains audios sont détectables par des outils comme Hive detector ou Sightengine.