Depuis plusieurs mois, des vidéos circulent massivement sur Facebook, Instagram, X, YouTube et WhatsApp, y compris en Afrique francophone, avec des femmes journalistes légèrement vêtues, s’exprimant en anglais ou en arabe. Ces courtes séquences portent le logo « Syr.news.fm » et prétendent montrer des éditions de journaux télévisés en Syrie. Pourtant, après vérification, rien n’indique l’existence d’un média réel correspondant à cette page.
Dans sa description, la page prétend apporter « les dernières nouvelles en toute transparence ». Créée en octobre 2025, la page cumule une large audience et adopte tous les codes d’une radio ou d’une chaîne d’information : nom journalistique, logo, plateau TV, présentatrice et narration. Mais aucune rédaction identifiable n’est associée à ce nom. Il n’existe ni site officiel, ni rédaction connue, ni journalistes déclarés. Des vérifications publiques montrent également que les administrateurs de la page sont situés dans deux pays différents : aux Pays-Bas et au Pakistan, et non en Syrie.
Des images impossibles dans la réalité
L’analyse des vidéos révèle des anomalies visuelles caractéristiques des contenus générés par intelligence artificielle : visages légèrement différents d’une vidéo à l’autre malgré une « même” présentatrice », dents et doigts déformés, écritures incohérentes dans les décors, objets qui apparaissent puis disparaissent ou encore des foules qui bougent sans interaction réelle. Ces défauts correspondent aux signatures connues des générateurs d’images modernes. Une caméra réelle produit du flou, du bruit ou des tremblements ; elle ne crée pas d’erreurs anatomiques. Le plateau lui-même est révélateur : écrans illisibles, logos inexistants, textes pseudo-arabes et éclairage physiquement incohérent, des éléments qui renvoient à un décor synthétique.
La narration sonore présente aussi des indices techniques. De l’intonation uniforme à l’accent fluctuant, en passant par des pauses artificielles et l’absence de respiration, les indices des contenus IA sont flagrants. L’ensemble indique un processus automatisé : script, image, animation et narration générés numériquement. Un autre détail attire l’attention : l’accoutrement des journalistes. Les vidéos montrent presque toujours une présentatrice jeune, maquillage identique, posture figée et robe très moulante. Les vêtements paraissent parfaits : pas de plis naturels, textures irréelles et accessoires parfois fusionnés au corps.
100% Intelligence artificielle
Au-delà de l’aspect technique, ce style contredit les normes médiatiques syriennes. Les chaînes d’information locales adoptent des codes vestimentaires sobres et professionnels, conformes au contexte social conservateur. Une hyper-sexualisation répétée serait incompatible avec une télévision nationale. Ce décalage culturel renforce l’hypothèse d’images produites par un modèle d’IA entraîné sur des bases de données globales, reproduisant des stéréotypes visuels internationaux plutôt que des pratiques locales.
Les équipes de Congo Check ont introduit une dizaine de vidéos de cette page sur des outils de détection IA, notamment TruthScan, Deepware et Hive Moderation. Tous les trois outils ont affiché des scores de probabilité IA d’au moins 99% pour chacune des vidéos.
Une machine à viralité plutôt qu’un média
Sur cette page et ses autres dépendances, les publications suivent toujours la même logique, évoquant des sujets choquants, émotionnels ou religieux, destinés à provoquer des réactions immédiates. Ce mode opératoire correspond à une « ferme de contenus », une pratique qui consiste à produire en masse des vidéos notamment pour générer vues, partages et revenus publicitaires. Des plateformes comme Facebook et Google déconseillent la pratique, jugée contraire à l’éthique sur Internet.


