L’ère de l’intelligence artificielle prend ses racines dans le quotidien des Congolais. Cet usage massif apporte un lot d’abus, séduisant, trompant, et parfois, fabriquant des réalités entières. C’est dans ce contexte qu’une vidéo es apparu le 17 août sur Facebook, devenant tout de suite virale. La séquence prétend faire voyager au cœur de Kinshasa, la capitale de la République démocratique du Congo.
Le récit, narré d’une voix posée et convaincante, a tout pour plaire. Il s’agit d’une immersion personnelle, riche en anecdotes et en découvertes. On nous parle d’interactions chaleureuses avec les habitants, de saveurs culinaires uniques, et d’une culture vibrante. L’ensemble est monté avec soin, donnant l’impression que chaque plan a été capturé sur le vif par un voyageur passionné, en utilisant la caméra avant de son smartphone. La vidéo vend une image idyllique et surréelle de Kinshasa, une ville qui, sous cet angle, semble tout droit sortie d’un conte de fées touristique. Problème, ce voyage n’a jamais eu lieu.
Les premières incohérences apparaissent à l’analyse des images. La vidéo, malgré sa narration détaillée, ne montre aucun lieu emblématique ou identifiable de Kinshasa. Aucune rue connue, aucun monument reconnaissable, pas de repères visuels qui permettraient de confirmer la présence de ce « voyageur » dans la ville. Le marché central présenté n’a ainsi rien à voir avec celui de Kinshasa qui, d’ailleurs, est actuellement fermée pour rénovation.
« Du Marché de Kinshasa aux rives du Fleuve, le Congo lui a Donné des couleurs, des Sourires et des souvenirs incroyables. Impossible de ne pas tomber amoureux de ce pays », lit-on en légende.
De quoi rendre le récit authentique alors qu’il s’agit en réalité d’un contenu généré par intelligence artificielle, bien que sonnant vrai, malgré l’absence des noms ou des lieux précis qui caractérisent une véritable expérience humaine.
Pour étayer nos doutes, nous avons fait appel à un outil de détection de manipulations médiatiques : Attestiv. Le résultat a confirmé nos craintes. La vidéo a obtenu un score de suspicion technique de 66,7 %. Un chiffre qui est un indicateur très fort d’une manipulation ou, plus probablement, d’une génération par intelligence artificielle.

Contenus générés par IA, les indices qui changent tout
Ce cas n’est pas anodin. Il nous rappelle que même pour un objectif positif comme la promotion du tourisme, la manipulation des faits est une faute. Elle trompe le public et, surtout, elle nuit aux créateurs de contenu qui, eux, font l’effort de se rendre sur place et de documenter la réalité. Le risque est de voir notre perception du monde se déformer, remplacée par des récits synthétiques conçus pour plaire, mais qui n’ont aucune substance. Face à la montée en puissance de faux contenus générés par IA, la vigilance reste la meilleure arme, notamment en se familiarisant avec les signes révélateurs. L’observation des détails peut être salvateur. Une vidéo générée par IA manque souvent de ces petites imperfections qui rendent un contenu humain. En d’autres termes, les deepfakes peuvent paraître trop parfaits. Les ombres peuvent être étranges, la lumière incohérente, ou les mouvements des personnages légèrement rigides. Un récit trop lisse, qui manque de détails précis et de références concrètes, est aussi un signe d’alerte. Enfin, il est important de se fier à son instinct : si une vidéo semble trop belle pour être vraie, il y a de fortes chances qu’elle le soit. En développant notre sens critique, nous pouvons démasquer ces récits fabriqués et continuer à privilégier l’authenticité dans un monde où la réalité est de plus en plus concurrencée par la fiction.


