Depuis le mois de juin, des vidéos courtes montrant des femmes journalistes en direct sont devenues virales sur Facebook. Dans ces séquences, on prétend localiser différentes villes africaines, notamment à Lubumbashi, dans le sud-est de la RDC, où on entend les journalistes lancer des cris d’alerte, appelant les autorités à l’aide face à l’état catastrophique des routes. Les scènes les plus choquantes montrent des motocyclistes et passagers tomber dans des eaux stagnantes, révélant soi-disant la profondeur des nids-de-poule et la gravité du délabrement des infrastructures routières. Autour d’elles, des badauds observent la scène, dans le prétendu direct.
Mais attention, ces images ne sont pas réelles. Les vérifications de Congo Check prouvent qu’il s’agit de deepfakes. Des vidéos manipulées par intelligence artificielle. Les équipes de Congo Check ont soumis l’une des vidéos dans l’application Deepware, un outil spécialisé dans la détection de contenus générés par l’IA. Et, le résultat ont confirmé le niveau de manipulation évalué à 99 %, confirmant qu’il s’agit bien d’un deepfake.

« Nous sommes à Lubumbashi au quartier Bel Air, il y a beaucoup d’autorités ici, il faut nous aider » C’est ce que déclare une journaliste tenant un micro qui porte la mention «TV News », dans une publication émanant de la page Caleb Kalau CK, ayant plus de 79 000 abonnés.
Depuis le jour de la publication en juin, la vidéo a récolté plus de 3 500 mentions “J’aime”, 166 commentaires et 62 partages.
Si certains internautes ont été dupée, d’autres ont rapidement soupçonné une implication de l’intelligence artificielle.
Ces vidéos sont largement reprises sur Facebook, certaines ont totalisé jusqu’à deux millions de vues.

Vérification des faits
Les équipes de Congo Check ont procédé dans leur première démarche par une analyse des vidéos faisant objet de la présente vérification et ont repéré quelques incohérences. C’est notamment, les mouvements des lèvres des journalistes qui ne sont pas synchronisés. Nous observons un décalage. Ensuite, les décors (routes, passagers, paysages), semblent artificiels.
Tous ces éléments révèlent des doutes sur l’authenticité des vidéos accompagnant ces publications. Pour en avoir le cœur net, nous avons fait recours aux outils appropriés.
Des vidéos manipulées à l’aide de l’IA”Deepfake”
Poursuivant sa démarche de vérification, Congo Check a procédé au téléchargement de l’une des vidéos en étude et l’a soumise dans l’application Deepware. C’est un outil qui utilise des technologies avancées d’intelligence artificielle pour détecter et identifier les vidéos ou audios manipulés. Après vérification, les résultats ont prouvé que cette séquence n’est pas authentique. Elle a été générée par l’intelligence artificielle “Deepfake”

Un Deepfake quid?
Un deepfake est une technique qui utilise l’intelligence artificielle pour créer des vidéos ou des audios trompeurs en superposant des images ou des sons d’une personne sur ceux d’une autre. Cela peut donner l’impression que quelqu’un dit ou fait quelque chose qu’il n’a jamais réellement fait. Sans esprit critique, une personne peut facilement être dupée. Mais, grâce à une observation attentive, on observe souvent le décalage des paroles. Ce qui est un indice d’une vidéo truquée.
Nous avons également adressé un message aux auteurs du post pour connaître leurs sources d’information. L’un d’eux, Caleb Kalau nous a répondus précisant qu’il a obtenu cette vidéo sur le réseau social TikTok. Il a, par la suite, supprimé sa publication.
En conclusion, les vidéos virales commentées largement sur Facebook, prétendant montrer des journalistes en plein direct reportant les faits sur l’état avancé des routes délabrées en Afrique et dans lesquelles, les passagers et motocyclistes tombent dans l’eau stagnante sont générées par l’IA.