L’Albanie lance une première mondiale : l’IA « Diella », d’abord assistante virtuelle sur e-Albania, devient ministre virtuelle des marchés publics, responsable progressive de l’évaluation et de l’attribution des appels d’offres publics. Le but affiché : rendre ces démarches 100 % transparentes, supprimer les conflits d’intérêts, les pots-de-vin, le favoritisme, la corruption, quoi.
Diella veut dire « soleil » en albanais, symbole de lumière, de clarté. Elle a une apparence humaine (avatar en costume traditionnel) mais n’est pas une personne, ni un décideur politique classique. Sa nomination est une révolution : la décision de passation des marchés publics, secteur historiquement corrompu, est confiée non plus à des hommes mais à un algorithme.
Enjeux et promesses
Promesses
- Transparence et impartialité
L’idée est qu’un algorithme, avec des règles transparentes, jugeant objectivement les offres sur les critères établis, ne sera pas sensible aux relations personnelles, aux pressions, à la corruption traditionnelle. Tout est en données, en chiffres, en performances.
- Traçabilité
Toute décision algorithme peut, en théorie, être documentée, tracée, auditée. Qui a soumis quoi, selon quel critère, quand, selon quel poids, ces données peuvent être rendues publiques ou au moins accessibles. Cela permettrait de contrer les critiques, les remises en question, en expliquant le « pourquoi » des choix.
- Efficacité et gains de temps
Moins de lourdeurs administratives, moins de « marchandages » sur les votes internes ou les arbitrages humains, moins de temps perdu à « négocier » ou à « réglages sous table ». L’IA peut gérer plusieurs dossiers simultanément, sans relâche.
- Confiance publique et réputation internationale
Dans un pays comme l’Albanie, où la corruption publique est un frein à l’entrée dans l’Union européenne, à l’investissement étranger, à la légitimité intérieure, ce geste peut être très symbolique : la promesse que le pays entre
Risques, limites et défis
- Biais au niveau des algorithmes
L’IA n’est pas « neutre ». Elle apprend de données historiques, de logiques humaines existantes. Si les données historiques sont biaisées (favoritisme, discrimination, copinage), l’IA risque de reproduire ou d’encapsuler ces biais en IA (parfois plus subtilement mais systématiquement).
- Absence de responsabilité et d’imputabilité
Si Diella décide, qui est responsable en cas de faute lourde ? Qui rend compte devant les tribunaux si un marché est attribué à tort, si un prestataire est lésé ? Les institutions humaines auront toujours un rôle de contrôle, de recours. Sinon, l’algorithme devient une « boîte noire » inattaquable, ce qui pose des problèmes d’État de droit.
- Sensibilité à la manipulation
Même les algorithmes peuvent être biaisés : par les données, par le paramétrage, par des attaques informatiques. Qu’ils soient censés être « incorruptibles » ne les empêche pas d’être manipulés par ceux qui écrivent les règles, qui fournissent les données, qui contrôlent l’infrastructure technologique.
- Manque de jugement humain
Certaines décisions de passation de marché ne se réduisent pas à un calcul d’offre la « moins chère » ou du « meilleur score quantifiable ». Il y a des éléments de jugement qualitatif : réputation, créativité, nuance locale, contexte, innovations non prévues, etc. L’IA peut manquer de flexibilité, d’intuition, de sens politique ou moral.
- Légalité, légitimité démocratique
Nommer une « ministre » non humaine, sans corps, sans appareil politique classique, peut soulever des questions constitutionnelles, de séparation des pouvoirs, de contrôle parlementaire. Des détracteurs ont déjà mis en doute la légitimité de cette nomination.
L’avenir en question : humains, IA et pouvoir
L’approche albanaise nous met à la lisière de ce que pourrait être l’avenir de la gouvernance publique. On peut imaginer des scénarios, des questions philosophiques, dystopiques ou utopiques. Mais aussi, on peut se demander sur la réglementation de l’IA dans le monde.
Scénario optimiste : symbiose IA-humain
Dans ce cas, l’IA comme Diella serait un outil puissant, strictement contrôlé, toujours sous l’autorité d’instances humaines responsables. Les démocraties ajusteraient leur droit : droits d’audit, transparence des algorithmes, recours, obsolescence, mise à jour, vérification de non-biais. L’humain resterait le décideur final dans les situations complexes, l’IA l’arbitre dans les situations routinières ou standardisées.
Scénario de remplacement progressif
Si l’expérience est concluante, certains États pourraient être tentés d’étendre ce modèle à d’autres domaines : attribution de marchés, justice administrative, allocations sociales, régulation, etc. À terme, des pans entiers de l’administration pourraient être délégués à des IA : l’humain devient un contrôleur, un vérificateur, plus qu’un acteur.
Scénario dystopique : l’IA comme écran de responsabilité
Le danger est que la désignation d’une IA soit un écran de fumée. Les choix sont toujours humains, mais la responsabilité est diluée derrière la « décision autonome » d’un système. En cas de scandale, on pourra dire « c’est l’IA », « c’est le code », « c’est un bug »… Cela viderait de son sens la responsabilité politique, démocratique et morale.
Fin de la décision humaine au sommet ?
Peut-on rêver que les grandes orientations politiques (budget, diplomatie, défense) soient aussi confiées à des IA ? Ce n’est pas (encore) le cas, et cela soulève des enjeux colossaux :
- Souveraineté : qui code l’IA, avec quelles valeurs ?
- Éthique : l’IA peut-elle saisir la morale, les valeurs humaines, la justice ?
- Intuition, empathie, clairvoyance : certaines décisions demandent plus que des chiffres : du jugement, de l’humanité, du leadership.
- Aléas de centralisation : ceux qui maîtrisent l’IA auront un pouvoir énorme, potentiellement non démocratique.
La « fin de l’humanité annoncée » ?
C’est une image choc, provocatrice, souvent employée dans la science-fiction ou les discours catastrophistes. On peut l’appréhender selon deux axes :
- L’idée que la technologie, notamment l’IA, remplacera l’humain dans la plupart de ses tâches, y compris la décision, la morale, la vision historique.
- Ou, plus sinistrement, que l’homme, sa liberté, sa responsabilité, sa dignité, seront dissous, annulés, si l’on confie tout au « logiciel ».
Mais il reste des freins : conscience, subjectivité, valeurs, éthique, culture. Même si les IA s’améliorent, elles sont conçues par des humains, entraînées sur des données humaines et souvent restreintes à ce que nous leur fournissons.
Que retenir ?
L’Albanie tente un pari : celui que l’IA peut être un rempart contre la corruption, pas en remplaçant l’humain partout, mais en réduisant les brèches humaines dans des domaines sensibles. Le succès de Diella dépendra moins de la technologie que des institutions autour : transparence des algorithmes, surveillance, responsabilité, légalité, recours, audit public, accès aux données.
Chez ipanemads, nous croyons que c’est un modèle qui pourra inspirer, mais aussi alerter. Car s’il échoue, il risque de nourrir le scepticisme technologique ou de favoriser une dérive technocratique non démocratique.