Home3PFCP« Syr.news.fm », décryptage d’une fabrique des fausses vidéos aux allures d’un média authentique

« Syr.news.fm », décryptage d’une fabrique des fausses vidéos aux allures d’un média authentique

-

Depuis plusieurs mois, des vidéos circulent massivement sur Facebook, Instagram, X, YouTube et WhatsApp, y compris en Afrique francophone, avec des femmes journalistes légèrement vêtues, s’exprimant en anglais ou en arabe. Ces courtes séquences portent le logo « Syr.news.fm » et prétendent montrer des éditions de journaux télévisés en Syrie. Pourtant, après vérification, rien n’indique l’existence d’un média réel correspondant à cette page.

Dans sa description, la page prétend apporter « les dernières nouvelles en toute transparence ». Créée en octobre 2025, la page cumule une large audience et adopte tous les codes d’une radio ou d’une chaîne d’information : nom journalistique, logo, plateau TV, présentatrice et narration. Mais aucune rédaction identifiable n’est associée à ce nom. Il n’existe ni site officiel, ni rédaction connue, ni journalistes déclarés. Des vérifications publiques montrent également que les administrateurs de la page sont situés dans deux pays différents : aux Pays-Bas et au Pakistan, et non en Syrie.

Des images impossibles dans la réalité

L’analyse des vidéos révèle des anomalies visuelles caractéristiques des contenus générés par intelligence artificielle : visages légèrement différents d’une vidéo à l’autre malgré une « même” présentatrice », dents et doigts déformés, écritures incohérentes dans les décors, objets qui apparaissent puis disparaissent ou encore des foules qui bougent sans interaction réelle. Ces défauts correspondent aux signatures connues des générateurs d’images modernes. Une caméra réelle produit du flou, du bruit ou des tremblements ; elle ne crée pas d’erreurs anatomiques. Le plateau lui-même est révélateur : écrans illisibles, logos inexistants, textes pseudo-arabes et éclairage physiquement incohérent, des éléments qui renvoient à un décor synthétique.

La narration sonore présente aussi des indices techniques. De l’intonation uniforme à l’accent fluctuant, en passant par des pauses artificielles et l’absence de respiration, les indices des contenus IA sont flagrants. L’ensemble indique un processus automatisé : script, image, animation et narration générés numériquement. Un autre détail attire l’attention : l’accoutrement des journalistes. Les vidéos montrent presque toujours une présentatrice jeune, maquillage identique, posture figée et robe très moulante. Les vêtements paraissent parfaits : pas de plis naturels, textures irréelles et accessoires parfois fusionnés au corps.

100% Intelligence artificielle

Au-delà de l’aspect technique, ce style contredit les normes médiatiques syriennes. Les chaînes d’information locales adoptent des codes vestimentaires sobres et professionnels, conformes au contexte social conservateur. Une hyper-sexualisation répétée serait incompatible avec une télévision nationale. Ce décalage culturel renforce l’hypothèse d’images produites par un modèle d’IA entraîné sur des bases de données globales, reproduisant des stéréotypes visuels internationaux plutôt que des pratiques locales.

Les équipes de Congo Check ont introduit une dizaine de vidéos de cette page sur des outils de détection IA, notamment TruthScan, Deepware et Hive Moderation. Tous les trois outils ont affiché des scores de probabilité IA d’au moins 99% pour chacune des vidéos.

Une machine à viralité plutôt qu’un média

Sur cette page et ses autres dépendances, les publications suivent toujours la même logique, évoquant des sujets choquants, émotionnels ou religieux, destinés à provoquer des réactions immédiates.  Ce mode opératoire correspond à une « ferme de contenus », une pratique qui consiste à produire en masse des vidéos notamment pour générer vues, partages et revenus publicitaires. Des plateformes comme Facebook et Google déconseillent la pratique, jugée contraire à l’éthique sur Internet.

Avis de Congo Check à la communauté en ligne de la République démocratique du Congo, de la République centrafricaine, du Congo-Brazzaville et de l'Afrique francophone : Si votre contenu est étiqueté comme faux, partiellement faux, sans contexte, photo ou vidéo retouchée... ne le supprimez pas ! Modifiez-le, avec la mise à jour de l'article de vérification que nous mettons à votre disposition, puis signalez-le-nous ! Ou faites un recours si vous estimez que notre article de vérification ne contient pas suffisamment d'éléments factuels susceptibles d'appeler à la modification de votre contenu. Notre équipe sera alors avertie et procédera au retrait du tag ou vous fournira plus d'assistance dans la compréhension du contexte autour de votre contenu ! En supprimant le contenu, nous ne pourrons malheureusement rien faire de plus et la sanction sera maintenue !


Congo Check, étant signataire du code de principe du Réseau international des fact-checkers (IFCN), se soumet aux principes de transparence et d’impartialité. Si, d’une manière ou d’une autre, vous pensez que l’un de nos articles viole ces principes (voir la vidéo ici https://youtu.be/OVrx_2OYuTg ) vous pouvez nous contacter à info@congocheck.net . Vous pouvez aussi reporter vos préoccupations à l’IFCN, en leur écrivant à info@poynter.org. Veuillez lire ici la politique de réclamation de IFCN : https://ifcncodeofprinciples.poynter.org/complaints-policy

LEAVE A REPLY

Please enter your comment!
Please enter your name here

LATEST POSTS

Ces photos montrent un entrainement de l’armée nigériane et une saisine d’armes au Kongo-Central impliquant un prêtre catholique

Depuis fin janvier, des images circulant sur Facebook et WhatsApp en République démocratique du Congo montrent un cercueil contenant des armes et des munitions, accompagné...

Contexte : cette reprise d’Aspirine de Koffi Olomide est une œuvre de l’Intelligence artificielle

Sur Facebook, une vidéo met en scène une jeune femme, casque sur les oreilles et regard habité par l’émotion dans un décor qui rappelle un...

Vrai, les AVN Awards récompensent chaque année les meilleurs de l’industries X

Fin janvier, un reel posté sur Instagram a attiré l’attention des internautes alors que le contenu présentait les principaux lauréats des « Oscars du porno ». Si...

L’arnaque du “bonbon miracle” pour ne plus faire pipi au lit la nuit !

Nous vivons dans l'ère de la solution rapide. Un clic, une commande, une promesse : "Dormez 8 heures sans interruption grâce à une gomme à...