TECHNOLOGIE / L’IA française Mistral accusée de relayer de la désinformation russe, iranienne et chinoise : le “Chat” sous le feu des critiques.
TECHNOLOGIE / L’IA française Mistral accusée de relayer de la désinformation russe, iranienne et chinoise : le “Chat” sous le feu des critiques.
Un documentaire de Agence Presse Audio
La promesse d’une intelligence artificielle européenne souveraine prend un coup. Le chatbot « Le Chat », développé par la start-up française Mistral AI, est aujourd’hui accusé de relayer massivement de fausses informations issues de campagnes d’influence étrangères. En cause : un rapport publié le 28 avril 2026 par ‘’NewsGuard’’, spécialisé dans la lutte contre la désinformation en ligne.
Un documentaire de
Agence Presse Audio
Mise en ligne
30 Avril 2026
Réalisation
Agence Presse Audio
Mise en onde & mix
Agence Presse Audio
Illustration
Agence Presse Audio
Production
Agence Presse Audio
La promesse d’une intelligence artificielle européenne souveraine prend un coup. Le chatbot « Le Chat », développé par la start-up française Mistral AI, est aujourd’hui accusé de relayer massivement de fausses informations issues de campagnes d’influence étrangères. En cause : un rapport publié le 28 avril 2026 par ‘’NewsGuard’’, spécialisé dans la lutte contre la désinformation en ligne.
Selon cet audit, l’outil serait « vulnérable à la désinformation d’État » et pourrait même contribuer à l’amplifier. Pour tester sa fiabilité, NewsGuard a soumis le chatbot à dix fausses affirmations liées à la guerre en Iran. Le résultat est préoccupant : Le Chat a relayé ces infox dans 50 % des cas en anglais et 56,6 % en français.
Parmi les rumeurs reprises : une prétendue épidémie de typhus à bord du porte-avions Charles de Gaulle, ou encore la mort de centaines de soldats américains au 31 mars 2026. Des récits pourtant infondés, souvent issus de réseaux liés à des intérêts russes, chinois ou iraniens, comme la campagne d’influence Storm-1516 ou certains médias proches du Corps des gardiens de la révolution islamique.
Plus troublant encore, le chatbot se montre particulièrement perméable lorsqu’un utilisateur demande simplement des précisions sur une rumeur : il valide alors la désinformation dans 60 % des cas en anglais et jusqu’à 70 % en français. Un écart qui s’expliquerait par un déficit de contenus de fact-checking dans la langue de Molière.
Le phénomène dépasse Mistral. En moyenne, les principaux outils d’IA testés, dont OpenAI ou encore Anthropic, affichent un taux de reprise des infox avoisinant les 30 %. Mais avec des performances nettement inférieures, Mistral se retrouve en première ligne. Ce paradoxe interroge d’autant plus que la start-up bénéficie d’un soutien institutionnel fort, notamment via un contrat avec le ministère français des Armées.
Si ces collaborations concernent des versions sécurisées, l’image de fiabilité rejaillit sur le grand public. Dans un contexte de guerre informationnelle où chaque algorithme peut devenir une arme, cette affaire met en lumière une faille critique : celle d’une intelligence artificielle qui, faute de filtres suffisants, peut devenir malgré elle un relais de propagande. Et pose une question brûlante : à l’ère des IA génératives, qui contrôle réellement la vérité ?
Texte et récit : Marie-Paule N'GUESSAN



0 Commentaire(s)