Depuis quelques jours, une courte vidéo d’une minute et sept secondes circule abondamment sur les réseaux sociaux. Elle montre des bombes tombant sur de grandes agglomérations, des militaires déployés dans des centres urbains et des images de réunions entre différents dirigeants mondiaux. La séquence est attribuée à la journaliste de France 24, Meriem Amellal, que l’on voit annoncer le déclenchement d’une prétendue troisième guerre mondiale. Ces scènes au ton apocalyptique ont suscité inquiétude et réactions parmi de nombreux internautes. Après vérification, l’équipe de Congo Check a établi que cette vidéo n’est pas authentique : il s’agit d’un deepfake.
Cette vidéo virale, publiée sur Facebook (1, 2), Instagram (1, 2) et TikTok (1, 2), a été visionnée des milliers de fois.
Dans les commentaires, certains internautes évoquent déjà divers conflits mondiaux qui pourraient, selon eux, mener à une telle tragédie.
Une vidéo deepfake
L’enquête menée par l’équipe de Congo Check démontre que cette vidéo n’est qu’un deepfake.
Un deepfake est un contenu audiovisuel manipulé à l’aide de l’intelligence artificielle, qui permet de modifier ou de superposer des voix, des visages et des images avec un réalisme saisissant, afin de donner l’illusion de propos ou d’événements inexistants.
C’est ce qui a été constaté après l’analyse de cette séquence au moyen d’outils de recherche d’images inversées. Il s’avère que ce faux reportage résulte de l’assemblage de plusieurs vidéos et images sorties de leur contexte.
Le vrai contexte du JT de France 24
Les vérifications effectuées par Congo Check ont permis de retrouver l’émission originale dans laquelle Meriem Amellal apparaît. Google Images a redirigé vers le compte TikTok officiel du Journal Afrique de France 24. Ce journal avait été diffusé le 4 juillet dernier à 22h00, présenté par la journaliste de France 24.
Aucun extrait du reportage viral en circulation ne figure dans cette édition, que Congo Check a intégralement visionnée.

Cette édition abordait des sujets tels que la situation en Côte d’Ivoire ou encore l’actualité de la ville de Goma, sans rapport aucun avec l’annonce d’une hypothétique troisième guerre mondiale, comme tentaient de le faire croire les publications trompeuses.
Des images détournées et sorties de leur contexte
Pour fabriquer ce deepfake, les auteurs ont inséré des vidéos manipulées ou utilisées hors de leur contexte.
• Militaires dans les rues : présentés comme étant au nord-est de la France, ces soldats étaient en réalité des forces kazakhes, déployées en février 2022 lors des manifestations contre la hausse du prix du carburant. Ces images avaient déjà été relayées ici et ici.

• Missiles sur des zones urbaines : à la seizième seconde, la vidéo suggère des frappes sur des villes stratégiques. En réalité, ces images documentent une attaque de missiles et de drones russes contre Kiev, la capitale de l’Ukraine, survenue dans la nuit du 24 avril 2025. D’autres médias ( 1 , 2 ) avaient aussi relayé ces mêmes images.

• Matériel militaire russe : à la 39e seconde, des images montrent des blindés et missiles frappés du drapeau russe, présentés comme un déploiement en cours. Ces séquences sont fausses, générées par l’intelligence artificielle. Elles proviennent de la même source TikTok qui avait diffusé, en 2024, des vidéos virales montrant un prétendu armement sophistiqué livré par la Russie à l’Iran.

• Macron et Poutine en visioconférence : à la 48e seconde, l’image d’un échange entre Emmanuel Macron et Vladimir Poutine est utilisée pour illustrer de prétendues négociations internationales d’urgence. Or, cette visioconférence remonte au 26 juin 2020 et portait notamment sur la crise libyenne. Les médias français comme France 24 et LeMonde avaient beaucoup parlé de cet entretien.

Quant à la photo du Parlement européen, elle est utilisée hors contexte, puisqu’elle date de plusieurs années et n’a aucun lien avec des négociations liées à une supposée troisième guerre mondiale.
• Conflit en Asie du Sud-Est : enfin, la vidéo montre un camion militaire tirant des roquettes depuis le bord d’une route. Ces images proviennent en réalité du conflit frontalier entre le Cambodge et la Thaïlande, le 24 juillet dernier, lorsque le Cambodge avait tiré 70 missiles sur son voisin, provoquant des victimes. Différentes sources médiatiques et locales filment comment les militaires cambodgiens se préparaient à l’attaque.
Quels préjudices peut causer une telle vidéo ?
Une telle manipulation est susceptible de provoquer une panique généralisée au sein de l’opinion publique, de diffuser une désinformation massive et de porter atteinte à la crédibilité du média auquel elle est faussement associée. Elle peut également nuire à la confiance du public envers l’information vérifiée, créer des tensions politiques ou diplomatiques et accentuer un climat de peur et d’incertitude à l’échelle internationale.


