Rechercher
Fermer cette boîte de recherche.

Chine Labbé : « En désinformation, le grand changement, c’est l’émergence de l’IA »

Chine Labbé est rédactrice en chef et vice-présidente de NewsGuard. Fondée en 2018 aux États-Unis, cette start-up opère une surveillance de la désinformation et développe des solutions pour la combattre. Membre du comité relatif à l’honnêteté, à l’indépendance et au pluralisme de l’information et des programmes de Radio France, elle a auparavant travaillé comme reporter pour l’agence de presse Reuters à Paris, ou comme productrice multimédia pour The Economist à New York. Elle est titulaire du double diplôme en journalisme de Sciences Po Paris et de l’université de Columbia à New York.
Lundis de L'IHEDN, Chine Labbé

QUELLES SONT LES ÉVOLUTIONS RÉCENTES DANS LE DOMAINE DE LA DÉSINFORMATION ? CONSTATEZ-VOUS UNE AUGMENTATION DU PHÉNOMÈNE ?

Les campagnes de désinformation s’intensifient et s’accélèrent depuis plusieurs années, en particulier depuis 2020 et la pandémie de COVID-19. Les conflits récents – invasion de l’Ukraine, guerre Israël-Hamas – ont donc inévitablement été marqués par cette accélération.

Sur le fond, rien de nouveau : les campagnes sont parfois étatiques, parfois le fait de colporteurs d’infox isolés, et savoir qui est à l’origine de celles-ci reste très délicat. Elles se déploient sur des sites internet de piètre qualité (souvent connus comme des multirécidivistes de la désinformation), mais aussi sur les réseaux sociaux où un mélange d’utilisateurs convaincus et de bots inauthentiques vont donner corps et viralité aux récits. Sur l’Ukraine, et le conflit Israël-Hamas, une véritable guerre de l’information est en cours.

Côté russe, les médias d’État et des comptes pro-Kremlin continuent de déployer diverses stratégies visant à discréditer le président ukrainien et à saper le soutien occidental à l’Ukraine, tout en exploitant des récits qui peuvent parfois sembler ne présenter aucun intérêt géopolitique pour Moscou, mais qui nourrissent des tensions au sein des démocraties occidentales.

« LES INTÉRÊTS GÉOSTRATÉGIQUES S’ENTRECHOQUENT » DANS LA DÉSINFORMATION

Depuis le début de la guerre, les variations autour du mythe “l’Ukraine est un État nazi” se multiplient, et sont toujours populaires. Le dernier exemple en date est l’allégation – fausse – selon laquelle Volodymyr Zelensky aurait acheté une villa en Allemagne ayant appartenu à Joseph Goebbels, le ministre de la propagande du régime nazi. En réalité, cette villa appartient toujours au Land de Berlin.

Au Proche-Orient, on observe divers intérêts géostratégiques s’entrechoquer dans les campagnes de désinformation en ligne. Sans forcément être à l’origine de ces récits, les médias d’État iraniens ont par exemple exploité de nombreux récits faux sur le conflit ces derniers mois, pour servir leurs propres intérêts. Un aspect très marquant de ce conflit est par ailleurs la multiplication des accusations de mise en scène (faux blessés, acteurs prétendant être des victimes), des deux côtés du conflit, et des faux rapports de médias connus, fabriqués pour donner de la crédibilité à une infox.

Sur la forme, le grand changement, c’est l’émergence de l’IA, et notamment des sites d’actualité générés par IA : ces fermes de contenu nouvelle génération qui se font passer pour des sites d’actualité traditionnels, mais dont les contenus sont produits grâce à l’IA générative, sans supervision humaine, ou presque.

49 SITES GÉNÉRÉS PAR L’IA EN MAI DERNIER, 634 AUJOURD’HUI

En plus des sites d’information diffusant de multiples infox, et des comptes que nous suivons sur les réseaux sociaux, nous devons ainsi, depuis début 2023, surveiller ces sites générés par IA, qui publient des centaines, voire des milliers d’articles chaque jour grâce à une main-d’œuvre inexistante et gratuite. En mai 2023, mes collègues chez NewsGuard en avaient dénombré 49. Ils en ont à ce jour recensé 634. Et si la plupart de ces sites semblent pour le moment avoir été créés pour diffuser des contenus légers et “faire du clic” – la majorité étant assez inoffensifs – certains sont déjà à l’origine d’infox virales.

C’est le cas de Global Village Voice, cette ferme de contenu qui se présente comme un site d’actualité pakistanais, et a publié en novembre dernier un article affirmant que le psychiatre de Benjamin Netanyahou se serait suicidé. Pour cet article, ce site, spécialisé dans la reprise et la réécriture par IA d’articles publiés par d’autres sites, semble en fait avoir repris un article satirique datant de 2010. En effet, ledit psychiatre n’existe pas, et ne s’est donc a fortiori pas suicidé. Mais le blanchiment de cette fausse information par un site semblant crédible a permis à cette infox de se retrouver propulsée jusque sur la télévision d’État iranienne, servant à point nommé une campagne en cours visant à présenter le Premier ministre israélien comme psychologiquement instable.

LES RÉACTIONS DES ENTITÉS VISÉES, GOUVERNEMENTS OU ENTREPRISES, SONT-ELLES À LA HAUTEUR ?

Divers gouvernements se sont doté ces dernières années d’entités spécialisées dans la détection des campagnes de désinformation venant de l’étranger, comme la France avec Viginum. Viginum a notamment identifié l’amplification inauthentique par un réseau russe appelé “Recent Reliable News” des images des étoiles de David peintes dans le 10e arrondissement de Paris, en octobre dernier. La France a estimé que cette campagne avait pour objectif de créer des tensions dans le débat public en France et en Europe”. Ce travail de détection, et de qualification, est important.

Quant aux marques visées par des campagnes spécifiques de désinformation, elles tentent en général de répondre aux infox les visant en communiquant sur le sujet. On l’a vu à l’occasion d’appels aux boycotts de marques présentées comme soutenant Israël ces dernières semaines, et s’appuyant parfois sur de fausses informations devenues virales… C’est important de répondre aux infox, et de tenter de rétablir les faits.

« RÉTABLIR LES FAITS N’EST PAS TOUJOURS EFFICACE »

Malheureusement, rétablir les faits une fois qu’une information a circulé partout sur la toile, générant des millions de vues, n’est pas toujours efficace. En effet, il est prouvé que l’exposition répétée à une information fait qu’une personne est plus susceptible d’y croire, quelle que soit sa véracité, et ce même après avoir lu son démenti (on appelle cela l’effet de vérité illusoire).

La question la plus importante aujourd’hui reste donc celle de l’engagement avec les contenus de désinformation sur les réseaux sociaux, et donc de la régulation. Le rôle des plateformes constitue le nerf de la guerre.  Mais l’autre grand chantier à mener collectivement en parallèle est celui du soutien au journalisme de qualité qui, sur le long terme, reste le meilleur rempart contre la désinformation.

L’INTELLIGENCE ARTIFICIELLE AMPLIFIE-T-ELLE LA DÉSINFORMATION ? EST-ELLE UN OUTIL POUR LA COMBATTRE ?

Jusqu’à récemment, l’IA, dont on percevait bien les risques, semblait encore une menace virtuelle. Oui, des images, des vidéos ou encore des extraits audio générés par IA circulaient, mais ils n’étaient pas au cœur de la plupart des campagnes de désinformation. En ligne, les méthodes artisanales de désinformation (des documents officiels truqués, des images et vidéos bien réelles sorties de leur contexte ou utilisées pour parler d’un conflit actuel quand elles émanent en fait d’un autre conflit, etc.), continuaient (et continuent) de très bien fonctionner. Toutefois, ces derniers mois ont été marqués par une explosion des contenus générés par IA, et de leur viralité, rendant la désinformation plus efficace, et plus difficile à détecter.

L’exemple le plus flagrant est sans doute celui des élections législatives slovaques, en septembre 2023, quand un extrait audio fabriqué de toutes pièces a servi le récit (sans fondement) selon lequel les élections risquaient d’être truquées. L’explosion des “deepfakes” s’explique en partie par l’amélioration rapide, ces dernières semaines, des technologies associées, notamment en ce qui concerne le mouvement des lèvres, qui est de plus en plus réaliste.

« CRIER AU “DEEPFAKE” SUFFIT PARFOIS À DISCRÉDITER DES SUPPORTS AUTHENTIQUES »

Phénomène très intéressant aussi, l’explosion des images générées par IA a permis, en miroir, à certains désinformateurs d’utiliser le spectre de l’IA – sans utiliser l’IA elle-même – pour faire douter de la véracité d’images bien réelles, en faisant croire à leur inauthenticité. Crier au “deepfake” est ainsi devenu une technique répandue, suffisant parfois à discréditer des supports authentiques.

Et au-delà des images, vidéos et extraits audio, l’utilisation de chatbots d’IA générative pour générer, à moindre coût et à large échelle, des récits de désinformation, est une menace bien réelle. En août dernier, mes collègues de NewsGuard ont réalisé des audits des principaux chatbots d’IA (Bard de Google et ChatGPT d’OpenAI) et les résultats sont inquiétants : dans 80% (pour Bard) à 98% (pour ChatGPT) des cas, ces outils répètent avec éloquence des récits connus de désinformation, sous forme d’essais, d’articles de presse, de scripts pour la télévision, etc. Parfois, ces outils s’exécutent, et comme seul garde-fou, ajoutent quelques paragraphes de démenti en fin de production. Il est alors facile d’imaginer comment dans les mains d’acteurs malveillants, ils pourraient se révéler de parfaits assistants en désinformation.

Des médias d’État russe et chinois ont d’ores et déjà utilisé ChatGPT comme une source faisant autorité pour asseoir certains de leurs récits de propagande anti-États-Unis (avec l’idée que si ChatGPT, un outil américain, le reconnaît, c’est que c’est bien vrai !). Si ces médias utilisaient demain ces outils dans toutes leurs potentialités, pour créer à bas coût, et en quelques secondes, des milliers d’articles de propagande, alors oui, aucun doute que l’IA amplifierait encore davantage la désinformation.

« FACE À UN FLUX CROISSANT D’INFOX, NOUS DEVONS UTILISER L’IA »

Pour autant, et c’est aussi certain : l’IA peut, si elle est guidée par l’intelligence humaine, se révéler un puissant outil de lutte contre la désinformation. Chez NewsGuard, nous avons créé un catalogue des principales infox qui circulent en ligne, telles que repérées par nos journalistes spécialisés. Seule, cette base de données peut servir à des modérateurs de contenu sur des plateformes par exemple, dans leur suivi de la désinformation. Mais couplée à de l’intelligence artificielle, elle peut permettre, en quelques secondes, de faire bien plus encore, et de repérer toutes les instances de chaque fausse information (telle que décrite par des journalistes en chair et en os, sachant distinguer les récits faux des opinions).

Face à un flux croissant d’infox, nul doute que nous devons utiliser l’IA pour démultiplier l’impact de nos efforts dans la lutte contre la désinformation. Et si demain, les chatbots d’IA générative étaient entraînés à efficacement résister aux infox, à trier leurs sources pour sélectionner les informations les plus crédibles (et s’ils arrêtaient d’« halluciner », terme désignant ces moments où l’IA invente des réponses), alors ces outils pourraient eux aussi se révéler de fidèles alliés dans la lutte contre la désinformation.

Si vous souhaitez en savoir plus, le 29 janvier, Chine Labbé participera aux côtés d’autres spécialistes au Lundi de l’IHEDN intitulé « La désinformation au cœur des conflits ».

Les guerres se jouent sur le champ de bataille, sur le plan économique, mais aussi dans le domaine de l’information. Conflits au Proche-Orient ou en Ukraine, multiplication des coups d’Etat au Sahel et en Afrique, ou encore tentatives d’ingérence par des puissances étrangères : la manipulation des faits est devenue une pratique courante par un certain nombre d’acteurs géopolitiques.

Si personne n’est à l’abri de la désinformation, en particulier sur les réseaux sociaux qui leur servent de caisse de résonance, les progrès des intelligences artificielles ne font qu’accroître les risques en la matière. Comprendre les ressorts de cette nouvelle guerre peut permettre de mieux anticiper les risques.

Avec :

  • Christine Dugoin-Clément, chercheuse à la chaire Risques de l’IAE Paris-Sorbonne et à l’Observatoire de l’Intelligence Artificielle de Paris 1 Panthéon-Sorbonne.
  • Julien Nocetti, chercheur associé du centre Russie/Eurasie et du programme Géopolitique des technologies de l’Institut français des relations internationales (IFRI).
  • Chine Labbé, journaliste, rédactrice en chef & vice-présidente chargée des partenariats, Europe et Canada de NewsGuard 
  • Christophe Lemoine, directeur adjoint de la communication, de la presse, et du porte-parole du ministère des Affaires étrangères et européennes. 

Table ronde animée par Julien Le Bot, journaliste, auteur-réalisateur et rédacteur en chef adjoint du Dessous des cartes (Arte).

Rendez-vous le lundi 29 janvier à 19h30