Une image largement partagée sur les réseaux sociaux prétend montrer le Président Félix Tshisekedi en compagnie d’une jeune femme en décollecté et petite culotte. Sur Facebook et X, le cliché a été largement partagée par des comptes dont l’analyse suggère une tendance à la désinformation contre le régime de Kinshasa, notamment Bobo Kapinga 243. Pourtant, la photo est manipulée.
Cependant, l’analyse de cette image laisse également apparaître des indices caractéristiques d’une modification assistée par intelligence artificielle. Contrairement à une simple retouche classique, certaines zones, notamment la tenue et les contours du corps, présentent un rendu trop uniforme, avec une texture artificielle et un manque de détails naturels comme les plis du tissu ou les variations de lumière.
On observe aussi de légères incohérences dans les transitions entre la peau et le vêtement, typiques des générateurs d’images ou des outils de « retexturing » automatisés. Ces technologies, de plus en plus accessibles, permettent de transformer une photo réelle en modifiant des éléments précis tout en conservant le reste intact. Cette sophistication croissante des outils d’IA marque un tournant dans la désinformation visuelle, où des images crédibles peuvent être altérées de manière presque imperceptible sans analyse approfondie.
Cependant, malgré ces indices flagrantes, aucun outil de détection de contenu IA n’a pu reconnaitre la manipulation, du fait des techniques utilisées visiblement très sophistiquées. Cette évolution marque une tendance vers une perfection croissante des manipulations visuelles, rendant leur détection plus difficile, même pour des observateurs avertis.
Face à cette impasse, Congo Check a recouru à PimEyes, un outil de reconnaissance faciale. Cette recherche a permis d’identifier Ntumba Tshimanga Nicole, commissaire divisionnaire adjoint de la police nationale congolaise. Une recherche avec les mots-clés « Tshisekedi et Nicole Ntumba Tshimanga » a ensuite permis de retrouver une photo similaire (1, 2, 3,…) montrant les deux personnes, mais la femme y apparaît vêtue d’un pull à rayures, et non d’une robe noire moulante. Cette correspondance parfaite entre les deux images suggère qu’il ne s’agit pas de deux clichés distincts, mais bien d’une seule image ayant été altérée.
L’analyse forensique réalisée via FotoForensics renforce également cette conclusion de manipulation. Cet outil utilise la technique dite Error Level Analysis (ELA), qui permet de détecter les différences de compression dans une image. En principe, une photo authentique présente un niveau de compression relativement uniforme, tandis qu’une image modifiée affiche des variations dans les zones retouchées. Les résultats de la photo en circulation attestent des zones d’intensité anormalement élevées au niveau de la tenue et du corps, indiquant des modifications locales. À l’inverse, l’image originale présente une répartition plus homogène des niveaux de compression. Ces différences suggèrent une modification de certaines parties de l’image, ce qui est caractéristique d’un montage ou d’une retouche avancée. Cette transformation s’accompagne d’irrégularités visibles, notamment au niveau des contours du corps, de la texture du tissu et de la cohérence des volumes, autant d’indices typiques des retouches avancées ou de l’utilisation d’outils d’intelligence artificielle.

Au-delà de ce cas précis, cette manipulation soulève des enjeux importants. Ce type de contenu vise souvent à porter atteinte à l’image de personnalités publiques, à créer le scandale ou à alimenter des narratifs trompeurs. En modifiant subtilement une image réelle, les auteurs exploitent la crédibilité visuelle pour induire le public en erreur, rendant la désinformation particulièrement efficace.


