Lead
L'intelligence artificielle (IA) est aujourd'hui de plus en plus utilisée dans la relation citoyen-gouvernement. Les gouvernements ont progressivement adopté cette technologie pour répondre à une demande croissante de (i) numériser l'action publique, (ii) optimiser ses opérations et services, et (iii) accroître l'engagement des citoyens dans le développement, la mise en œuvre et l'évaluation des politiques publiques. Dans ce contexte, l'IA offre un avantage concurrentiel à celles et ceux qui ont les moyens financiers et/ou la capacité technologique d'exploiter sa puissance.

Lay summary
En introduisant (ou en autorisant l'utilisation) de cette technologie dans les processus démocratiques, les gouvernements introduisent également un certain degré d'incertitude et de vulnérabilité. La société civile, et en particulier les citoyens, prennent un risque lorsque leur interaction avec le gouvernement ou leur participation à l'élaboration des politiques a pour intermédiaire une forme d'IA. Compte tenu de la sensibilisation et des connaissances limitées des citoyens et des décideurs en matière d'IA, nous pouvons questionner la réflexivité de ces décisions de prise de risque. Le déploiement de l'IA dans les processus démocratiques n'est pas neutre et peut affecter à long terme  la confiance que les citoyens accordent à leurs gouvernements, et aux processus d'élaboration des politiques publiques. Des recherches supplémentaires doivent être menées pour évaluer la perception de l'IA par les citoyens dans ce contexte et son impact sur la confiance. En outre, il est impératif de sensibiliser et d'éduquer les citoyens à l'IA afin qu'ils puissent s'adapter et tirer profit de cette nouvelle relation médiatisée par l'IA.

Cette étude confirme des recherches antérieures, notamment celles de Mayer-Schonberger et Ramge (2018), qui affirment que le pouvoir sera de plus en plus concentré entre les mains de ceux qui ont développé la capacité de collecter et de contrôler des données volumineuses. Wu (2010) et Harari (2018) prédisent la croissance des cartels et des monopoles. La présente étude rejoint ces études en affirmant que dans un contexte où la relation entre gouvernement et citoyen est facilitée par une forme d'IA, le pouvoir appartient à ceux qui détiennent la capacité d'IA et de big data. Dans ce contexte, nous devons adopter une approche de l'IA centrée sur l'humain, qui respecte les droits de l'homme et contribue à la résilience de la démocratie libérale. Cette étude propose d'aller au-delà des lignes directrices et des recommandations actuelles, pour (i) mettre en œuvre un moratoire sur l'utilisation de l'IA développée et gérée par des acteurs privés, (ii) développer des campagnes d'alphabétisation sur l'IA, et (iii) construire des projets pilotes pour évaluer l'impact de la médiation de l'IA sur la participation des citoyens et la confiance dans la démocratie libérale.