La confiance de l’opinion publique dans les gouvernements des démocraties établies se situant aujourd’hui au plus bas, beaucoup redoutent que l’IA ne vienne aggraver le problème, en alimentant la désinformation ainsi qu’en érodant la confiance dans les faits eux-mêmes. En réalité, de nouveaux outils d’IA pourraient faire partie de la solution au déficit de confiance qui affecte les démocraties.
Selon l’OCDE, seuls 39 % des citoyens des pays membres de l’organisation ont confiance en leur gouvernement national, contre 45 % en 2021. Aux États-Unis, Pew Research observe que cette confiance frôle un plus bas historique de 17 %, une tendance similaire étant observée en France, au Royaume-Uni et en Australie. Par opposition, les gouvernements technocratiques les plus efficaces au monde recueillent un niveau de confiance nettement plus élevé, des scores supérieurs à 70 % étant rapportés à Singapour et aux Émirats arabes unis. Le système autoritaire chinois surpasse lui-même de nombreuses démocraties occidentales sur ce plan.
Face à un tel écart, l’explication habituelle selon laquelle les démocraties laisseraient place à la critique, tandis que les autocraties ne feraient qu’imposer une conformité, ne suffit plus. Les technocraties qui suscitent un niveau de confiance élevé ont autre chose en commun. Elles obtiennent des résultats avec compétence, tout en demeurant à l’écoute des préoccupations de leur population. L’élaboration experte des mesures politiques va de pair avec la légitimité populaire.
Un défi plus profond pour les gouvernements démocratiques est ainsi mis en évidence : le creusement d’un écart entre la « rationalité contrainte » et la « rationalité abstraite » dans l’élaboration des politiques. La rationalité contrainte désigne le domaine des initiés expérimentés, qui conçoivent des mesures façonnées par la faisabilité politique, par l’opinion publique, et par ce qui a fonctionné dans le passé. La rationalité abstraite correspond quant à elle au domaine des économistes et des experts techniques qui entendent renforcer l’efficacité des politiques, et qui ont tendance à se concentrer davantage sur la cohérence empirique et théorique que sur les contraintes politiques du monde réel.
Lorsque la rationalité contrainte domine outre mesure, l’élaboration des politiques apparaît cynique et dictée par les sondages d’opinion. Les citoyens ont en effet le sentiment que leurs dirigeants font primer leur propre survie politique sur la résolution des problèmes. Les mesures techniquement efficaces (telles que la taxe carbone) étant abandonnées au profit d’alternatives politiquement plus sûres mais moins performantes, la confiance s’érode.
De l’autre côté, lorsque la rationalité abstraite l’emporte excessivement, l’élaboration des politiques apparaît distante et déconnectée de la réalité. Les gouvernements mettent en œuvre des réformes conçues par des experts, qui semblent brillantes sur le papier, mais qui se heurtent aux réalités politiques. Les réformes des retraites censées permettre d’économiser des milliards de dollars finissent par provoquer des semaines de grèves coûteuses. Une restructuration hospitalière destinée à améliorer les résultats finit par coûter son poste au ministre de la Santé. La confiance décline ici parce que les gouvernements semblent indifférents aux préoccupations légitimes de la population.
Si plusieurs success stories technocratiques existent, c’est parce que les dirigeants concernés sont parvenus à éviter ce piège. Le gouvernement de Singapour allie analyse politique rigoureuse et attention minutieuse à la manière dont les mesures seront accueillies. De même, les dirigeants politiques des pays du Conseil de coopération du Golfe investissent massivement dans l’expertise technique et dans des mécanismes permettant d’évaluer la satisfaction des citoyens. Aux Émirats arabes unis, les prestataires de services publics sont presque tous équipés de bornes de satisfaction client. Plutôt que de faire primer une forme de rationalité sur une autre, ces pays les intègrent toutes deux.
Si les démocraties occidentales peinent à y parvenir, c’est notamment parce que l’autorité gouvernementale est constamment mise à mal par les opposants partisans. Les économistes ont beau indiquer qu’une suppression des subventions sur les carburants permettrait de réaliser des économies et de réduire les inégalités, les dirigeants élus savent qu’une telle décision provoquerait un séisme politique. Les modèles relatifs aux finances publiques ont beau souligner la nécessité de réformer les retraites, les données de sondage révèlent qu’une politique dans cette direction constituerait un suicide électoral. Ainsi, les deux rationalités se contredisant, les gouvernements oscillent entre excès technocratique et capitulation politique, avec pour conséquence une paralysie désormais caractéristique de nombreuses démocraties.
L’IA pourrait contribuer à combler ce fossé. Les grands modèles de langage (LLM) présentent en effet une singulière capacité d’analyse des politiques. Contrairement aux modèles décisionnels traditionnels, qui optimisent des paramètres prédéfinis, les LLM tiennent compte de la manière dont les citoyens s’expriment sur les résultats des mesures politiques, reflétant ainsi leurs préoccupations morales, leur résonance émotionnelle, les narratifs politiques sous-jacents, et les points de vue des parties prenantes.
Si un LLM analyse par exemple une proposition de politique du logement, il ne se contentera pas d’en évaluer l’efficacité économique. Il sera également susceptible d’en souligner certains termes de nature à susciter une opposition fondée sur la catégorie sociale (tels que « promoteur immobilier de luxe »), ou de nature à éloigner les jeunes électeurs (tels que « quartiers familiaux »). Le LLM pourra également établir que des politiques du même type ont porté leurs fruits dans la région X, mais échoué politiquement dans la région Y, en dépit de contextes économiques comparables.
Dans le cadre de ma propre expérience d’analyse des politiques assistée par l’IA, pour des clients gouvernementaux, je constate que ces systèmes excellent dans ce que j’appelle l’élaboration politique « attentive au ressenti ». Tandis que les outils traditionnels auront tendance à souligner qu’un péage urbain réduirait la circulation de 22 %, les systèmes d’IA rappelleront que le terme « péage urbain » serait nettement moins bien perçu dans les sondages que le terme « contribution à la qualité de l’air », mais également que la mise en œuvre d’une telle mesure en période électorale multiplierait les risques politiques, et qu’une exemption accordée aux véhicules de livraison créerait des possibilités de coalition avec des groupements de petites entreprises.
Il ne s’agit pas de remplacer le jugement humain, mais de rendre plus explicites, plus systématiques et plus vérifiables les connaissances politiques implicites des acteurs publics expérimentés. Grâce à l’IA, les adeptes de la rationalité abstraite pourraient bénéficier d’une rigueur quantitative, les praticiens de la rationalité contrainte obtenir davantage de renseignements politiques, et, plus important encore, chacun des deux camps pourrait clairement connaître le point de vue de l’autre.
Par ailleurs, lorsqu’ils sont associés à des capacités de recherche sur le web, les outils d’IA peuvent contribuer à une analyse du ressenti quasiment en temps réel, ce qui n’est pas négligeable dans la mesure où les politiques élaborées pour répondre aux préoccupations du trimestre précédent peuvent ne plus être adaptées au contexte politique lors de leur application au trimestre suivant. Une fois la réforme X des retraites parvenue jusqu’au Parlement, des rumeurs de récession sont susceptibles d’avoir entièrement transformé les priorités des électeurs.
L’analyse assistée par l’IA peut révéler comment des questions spécifiques sont traitées dans les médias, sur les réseaux sociaux, dans les débats parlementaires, dans les communications des parties prenantes et sur d’autres canaux. Elle permet d’identifier les préoccupations croissantes, et de signaler lorsqu’une fenêtre d’opportunité politique s’ouvre ou se referme. Ces informations peuvent aider les gouvernements à contrer la perception selon laquelle ils seraient lents, sourds et déconnectés des réalités quotidiennes. L’IA ne rendra pas les gouvernements omniscients, mais peut leur permettre de devenir plus réactifs et moins aveugles aux conséquences politiques de décisions techniques.
Si les technocraties qui recueillent le plus de confiance sont parvenues au succès, c’est notamment parce qu’elles ont systématisé le fait d’allier excellence technique et réactivité politique. L’IA offre aujourd’hui aux démocraties les moyens d’en faire de même.
Il arrive certes que les LLM reproduisent des biais, qu’ils aboutissent à ce que l’on appelle des hallucinations (des réponses fabriquées), et qu’ils manquent de compréhension contextuelle. Ils ne remplaceront pas un ministre convaincu que le partenaire de coalition X n’acceptera jamais la politique Y, ni le secrétaire permanent qui se remémore l’échec catastrophique de la politique Z en 1997. Pour autant, les LLM peuvent révéler des angles morts analytiques, rendre visibles et partageables des connaissances tacites, permettre aux experts de mieux comprendre pourquoi des mesures techniquement optimales peuvent être irréalisables politiquement, et permettre aux responsables politiques d’identifier des modifications politiques prometteuses.
Pour rétablir la confiance dans la gouvernance démocratique, il est nécessaire que soient proposées des politiques de qualité, que les citoyens reconnaissent à la fois comme efficaces et comme répondant à leurs préoccupations. L’IA ne résoudra pas à elle seule les défis des démocraties, mais elle peut contribuer à combler le fossé de rationalité qui paralyse l’élaboration des politiques. Elle offre des outils permettant de conserver à la fois légitimité et efficacité – un équilibre que les gouvernements affichant les plus hauts niveaux de confiance populaire, démocratiques ou non, sont parvenus à maîtriser.
Par Sami Mahroum


JDF TV
L'actualité en vidéo