I.A vs. Démocratie : on a demandé à ChatGPT

Entre le potentiel rachat de TikTok et les saluts nazis, Elon Musk inquiète. D’autant qu’il est, avec quelques entreprises de la tech, un des pionniers de l’intelligence artificielle. On a donc discuté avec ChatGPT de l’impact de l’IA sur la démocratie. Entre dangers et opportunités, suffira-t-il de réguler ?

Avant toute chose, il faut déjà baliser ce qu’on entend par Intelligence Artificielle. En gros, ce sont des machines auxquelles on va balancer un maximum d’infos et qui vont, via un algorithme très complexe de digestion de ces données, générer un raisonnement ou un comportement proche de celui de l’humain. Et, dans les faits, ça va prendre plusieurs formes : l’IA c’est tout autant l’algorithme de nos réseaux sociaux que les Chatbots conversationnels ou la reconnaissance faciale des caméras de surveillance… l’IA est dans tous nos outils numériques, donc dans notre quotidien, et c’est pour ça que ça touche à la démocratie. Même ChatGPT le dit :

Le risque le plus direct, c’est la désinformation, les fake news. L’intelligence artificielle, comme les médias, la pub ou les livres avant elle, peut orienter l’opinion publique, mentir aux citoyens et donc nuire à la démocratie. Et le souci c’est qu’elle fonctionne plus vite, plus précisément et plus fréquemment qu’un commercial dans une entreprise de céréales ! Ou qu’un réalisateur de pub de voiture ! C’est pour ça, par exemple, que vous avez l’impression que votre téléphone vous écoute : les publicités ciblées, générées par IA, savent presque en même temps que vous ce que vous voulez voir, entendre et surtout acheter ! Et ça marche aussi en politique ou pour vous faire changer d’avis sur tel ou tel sujet. On l’a vu avec l’élection présidentielle américaine ces derniers mois.

Propagande générée et généralisée

Elon Musk a fait de X/Twitter une plateforme d’extrême droite et de promotion d’idées réactionnaires. Il a modifié l’algorithme du réseau pour qu’on voit ses tweets en premier même si on ne le suit pas par exemple… Il a aussi invisibilisé les idées démocrates et lancé Grok, son générateur d’images de propagande. Il a ainsi grandement participé à la réélection de Donald Trump.

Comme n’importe quel cerveau humain, l’IA fonctionne avec ce qu’on lui donne à penser ! Et les plus connues d’entre elles sont créées et nourries par des grandes entreprises : OpenAI et Microsoft pour ChatGPT ou Google pour Gemini par exemple. Des algorithmes aux contenus variés et parfois problématiques. Et avec les IA spécialisées dans les images, sons et vidéos, les deepfakes peuvent faire dire tout et n’importe quoi à des personnalités publiques. Un faux Zelensky appelant à la reddition de l’Ukraine. Ou encore un robot Biden incitant les électeurs démocrates à s’abstenir de voter.

Le cas de la Chine est le plus avancé : des notes sociales pour les citoyens, la reconnaissance faciale généralisée, et l’orientation politique des réseaux sociaux. Tout passe par téléphone et par les applications du Parti au pouvoir qui prend les données des citoyens chinois et ne leur donne que ce qui protège le régime en place. Ernie Bot, leur équivalent de ChatGPT, évite donc totalement les sujets politiques ou critiques du Parti communiste chinois.  

Des algorithmes biaisés

Mais, je vous rassure, les Occidentaux aussi ont des soucis. Par exemple, une étude de 2021 montre que les algorithmes associent plutôt les hommes à la politique et au sport. Les femmes à la famille ou à l’apparence physique. Des clichés historiquement et socialement situés et réactionnaires qui entretiennent des inégalités ou des préjugés. Et il y en a plein d’autres. La manière de parler des robots conversationnels est très soutenue, ne représente pas les classes populaires, ou les accents régionaux par exemple. Les photos générées sur ChatGPT ne montreront que rarement des personnes racisées sauf si vous lui demandez explicitement.

Enfin, vous remarquerez que ChatGPT a un biais d’optimisme : il vous dira toujours que tout a un bon côté et que tout peut s’arranger. Effaçant ainsi les inégalités, les conflits, la critique. Comme quand on lui demande si l’IA est dangereuse pour la démocratie :

On peut quand même le rejoindre sur le fait que ce n’est pas l’outil en lui-même qui est problématique mais l’usage qu’on en fait. Les règles et lois pour le contrôler sont donc essentielles. Et, pour ça, l’Europe est en tête du classement ! Un traité international, ratifié par les 46 pays membres du Conseil de l’Europe en mai dernier cadre l’usage de l’IA.

On vous passe le détail mais, pour être bénéfique, ces outils doivent être , respectueux des droits humains et des libertés individuelles comme de la vie privée. L’IA ne doit pas non plus impacter les processus démocratiques locaux ou nationaux, type élections. Un traité qui balise bien le problème mais qui, malheureusement, ne propose pas encore d’instance de contrôle de tout ça. Pas de police de l’intelligence artificielle pour le moment donc, et ça risque de poser problème. Par exemple quand, comme le révèle Disclose, la France a réussi à préserver un certain « droit national » à l’usage de la vidéosurveillance de masse, prétextant la défense de la « sécurité nationale » des pays membres. Attention donc à la régulation et au contrôle de ces outils.

Mais, malgré ça, on peut imaginer des aspects positifs à ces IA. Un usage bénéfique pour les citoyens et la démocratie, non ?

Une fois bien cadré, ces outils facilitent grandement l’accès à l’information et donc l’éducation citoyenne. Et ça marche même avec les théories du complot selon The Guardian ! Thomas Costello, un psychologue américain a prouvé qu’une IA conversationnelle, a plus de chance de vous convaincre que votre pote de comptoir ou votre journaliste préféré ! Il a constaté en moyenne 20% de baisse dans les croyances complotistes pendant son étude ! ¼ des participants doutent même, après discussion avec l’IA, de la fake news en laquelle ils croyaient à leur arrivée. Des chiffres bien supérieurs à ceux des médias ou des conversations familiales. Par contre, quand l’info est vraie, l’IA les conforte dans leur croyance !

Les robots conversationnels peuvent donc réconcilier les citoyens avec l’information. Mais aussi avec la politique ! C’est en tout cas le pari de Pol.is, une IA qui travaille sur le consensus : elle digère des opinions très variées pour en tirer une décision collective qui conviendrait au plus grand nombre. La BBC relate qu’Andrew Gray l’a carrément utilisé pour élaborer son programme politique et candidater lors d’une élection locale au Royaume-Uni.

L’outil ne fait pas l’usage

C’est peut-être trop mais c’est une piste intéressante pour les collectivités qui voudraient s’essayer à plus de démocratie participative. L’IA pourrait, selon diverses études, aider à synthétiser de larges consultations publiques et citoyennes pour prendre des décisions politiques plus objectives. Elle permettrait aussi d’ouvrir ces consultations numériques à plus de personnes et donc d’être plus représentatives en allant interpeller directement les citoyennes et citoyens avec des propos qui leur ressemble. En bref, l’IA pourrait mieux cibler les citoyens et mieux résumer leurs envies pour faire avancer l’action publique. Un tout récent rapport de l’ICPC et du LAP détaille ces pistes enthousiasmantes.

L’IA n’est donc pas obligatoirement un problème démocratique ! Comme tout outil, on doit contrôler celui qui le fabrique et le code. On doit aussi former celles et ceux qui vont l’utiliser, citoyens et politiques. Que ce soit pour s’informer sur la société ou faciliter les décisions collectives ou la démocratie participative.

Vera, une intelligence artificielle française répond à pas mal de ces critères : elle est gratuite et se source exclusivement avec 300 médias fiables et reconnus pour répondre à vos questions. En plus, elle est apartisane et peut vous citer Libération comme Le Figaro sur une même question. Elle nous a beaucoup aidé, avec ChatGPT à préparer ce sujet et on voulait lui laisser le mot de la fin sur un dernier aspect de tout ça : l’écologie.

Vera, l’IA a quand même un impact écologique important, non ?

ChatGPT aussi optait pour cette réponse optimiste. La technologie a pourtant ses limites, surtout en pleine crise écologique. Et il nous faudra aussi cadrer son usage pour en limiter le coût environnemental. Ce que nous montre en tout cas l’IA, et son usage actuel, c’est que les décisions collectives sont en danger. Même si il ne faut pas diaboliser l’outil, ce sont aujourd’hui les grandes entreprises, les plus aisés et leurs partenaires politiques qui les contrôlent. Et donc, de plus en plus, nous contrôlent.

Il faut donc un peuple bien informé et éduqué sur le sujet et des entreprises de la Tech régulées dans leurs outils pour protéger la démocratie.

Réalisation et montage : Elliot Clarke