Le 1er février, la page Facebook « ARC Urunana Nyarwanda France » a posté une vidéo montrant l’artiste américaine d’origine barbadienne, Rihanna, chantant en français et à la gloire de Goma. La vidéo est accompagnée d’une légende en kinyarwanda pouvant être traduite par : « La chanteuse Rihanna dit que Jésus aide Goma. Cet artiste célèbre choisit de dire la vérité, choisissant d’exposer la cruauté et les meurtres que Paul Kagame perpétrées contre les Congolais ». Cette vidéo est devenue virale dans la toile où elle a été prise comme une vraie chanson de Rihanna. Pourtant, Congo Check a découvert plusieurs éléments qui renforcent l’idée d’un contenu généré par intelligence artificielle.
Sur cette seule page, le contenu a généré 15.000 visualisations en une semaine, avec plusieurs commentaires, tant positifs que négatifs, envers Rihanna. Plusieurs pages sur Facebook ont également repris ce contenu.
Alors que ce contenu est introuvable sur la chaine officiel de l’artiste où le dernier contenu du 8 juin 2024, les équipes de Congo Check ont observé de près cette vidéo en circulation. En effet, comme précisé dans un précédent article, à l’ère de l’intelligence artificielle, les détails comptent. Une observation poussée de la vidéo a notamment permis de découvrir une incohérence visuelle à partir de la minute 1 et 34 secondes. Rihanna esquisse deux rotations de 360 degrés sur elle-même mais son dos est clairement inexistant. Autre incohérence, à 1’49’’ quand elle pleure, l’on voit clairement des larmes sortir de ses boucles d’oreille en plus du visage qui demeure étrangement sec.
De plus, l’analyse de cette chanson via l’application Shazam n’a pas donné d’occurrence. L’avancée des modèles d’IA capables de générer des images a rendu difficile le travail de vérification. La détection des images créées par IA nécessite une combinaison de connaissances techniques, d’outils spécialisés et d’une approche critique envers les contenus visuels.