L'IA encore trop peu déployée dans les services publics

Pour le Conseil d'Etat, il n’est pas contestable que les outils IA auront un impact croissant sur l’emploi public.

Pour le Conseil d'Etat, il n’est pas contestable que les outils IA auront un impact croissant sur l’emploi public.

Sur demande du Premier ministre, le Conseil d'Etat a publié une étude portant sur la stratégie en intelligence artificelle à adopter pour améliorer et rendre plus performants les services publics. Encore trop peu déployée, l'IA apporte pour autant des bénéfices notamment en matière de gestion du trafic automobile et de la lutte contre la fraude.

Plus de 4 ans après le rapport de Cédric Villani sur l'intelligence artificielle anglé autour de la stratégie nationale et européenne à adopter dans ce domaine, c'est au tour du Conseil d'Etat de se pencher sur ce thème porteur. Encore une fois réalisée à la demande du Premier ministre, l'étude est cette fois-ci orientée sur les enjeux et bénéfices de l'IA pour les services publics. Un axe intéressant et loin d'avoir, d'après le rapport, été abordé jusqu'alors : « Si l'IA fait couler beaucoup d'encre, plus ou moins sympathique, la question de son utilisation dans la sphère publique demeure, quant à elle, assez peu étudiée », indique le Conseil d'Etat. « Le nombre modeste de rapports et d'articles spécifiquement consacrés au déploiement des outils basés sur l'intelligence artificielle dans l'action publique contraste singulièrement avec le battage médiatico-scientifique général que suscite ce thème. Comme si l'administration était vouée à en rester un acteur de second plan, agissant dans l'ombre des géants privés du numérique, au risque d'ailleurs de s'exposer au soupçon et au procès d'intention, qu'il s'agisse du remplacement subreptice de l'agent public par la machine ou des velléités de surveillance de masse de la population ».

A ce jour, la plus haute juridiction administrative française a identifié l'usage de ce type de systèmes dans plusieurs secteurs : la gestion des territoires (circulation automobile, entretien de la voire, gestion des déchets, de l'eau, de l'éclairage public, véhicules autonomes...), la défense et la sécurité (détection des forces militaires, prévention des attaques informatiques, anticipation des catastrophes naturelles...), la lutte contre la fraude (contrôles fiscaux, douanes...), la Justice (pseudonymisation des jugements...), politiques d'emploi (accompagnement à la recherche d'emploi...), l'Education (prévention du décrochage scolaire...), protection sociale et santé (identification du non recours aux droits, aide au diagnostic...). « A l'instar de ses voisins européens, la France ne vit pas une révolution de l'IA publique, mais connaît un déploiement très progressif des systèmes IA dans les services publics, très inégal selon les administrations et souvent expérimental », peut-on lire dans le rapport.

Accompagner la transformation des postes... ou leur disparition

« Les systèmes IA ont vocation à permettre d'améliorer la qualité du service public dans ses multiples dimensions [...] S'ils sont bien conçus et efficacement déployés, ils permettent d'optimiser l'emploi des ressources publiques, matérielles comme humaines », souligne le rapport. « Si le remplacement massif des agents reste purement théorique en l'état des techniques et largement hypothétique, il n'est pas contestable que ces outils auront un impact croissant sur l'emploi public et impliqueront, dans le cadre de la gestion prévisionnelle des emplois et des compétences, d'accompagner ceux occupant des postes ayant vocation soit à se transformer, soit à disparaître ». Sur ce point, l'étude précise que le choix de réduire ou de redéployer les effectifs ne doit cependant pas dépendre des systèmes d'intelligence artificielle mais des pouvoirs publics.

Pour conduire une stratégie « volontariste et lucide de déploiement de l'IA publique de confiance », le Conseil évoque la nécessité de créer les conditions de confiance et d'acceptabilité, de rehausser le niveau de compréhension des citoyens comme des agents publics sur ce qu'est et ce que n'est pas l'intelligence artificielle, et de définir une doctrine administrative de l'IA de confiance, reposant sur un ensemble de principes fondamentaux. 7 principes pour guider cette mise en oeuvre ont été édictés. A savoir la primauté humaine (l'IA doit répondre à une finalité d'intérêt général et son ingérence dans les droits et libertés fondamentaux résultant de leur mise en service ne doit pas être disproportionnée), la performance, l'équité et la non-discrimination, la transparence, la sécurité, la soutenabilité environnementale et l'autonomie stratégique.

« Afin d'anticiper sur l'éventuelle entrée en application du règlement européen et de guider les choix des administrations, les pouvoirs publics devraient, de préférence à l'adoption d'une législation-cadre qui risque de s'avérer trop rigide et rapidement dépassée, élaborer des lignes directrices de l'IA publique de confiance, qui formaliseraient tout à la fois la stratégie, la doctrine d'emploi et la méthodologie pratique de conception, de déploiement et d'utilisation des SIA au sein de la sphère publique », prévient par ailleurs le Conseil d'Etat qui soulève aussi la question de la responsabilité en cas de problème lié à l'IA : « les conditions d'engagement de la responsabilité de l'administration à raison d'un système défaillant seront également éclairées par le juge, sans qu'il soit utile ni pertinent de conférer la personnalité morale au système lui-même : la victime d'un dommage causé par un système IA dont l'administration est la gardienne ne devrait pas être contrainte de rechercher la responsabilité d'un autre acteur ayant participé à la conception ou au développement du système. Le régime actuel des infractions non intentionnelles apparaît quant à lui suffisant pour discipliner les autorités publiques sur le terrain pénal ».

Des freins encore à lever

En dépit de toute la bonne volonté de l'administration à vouloir déployer des services publics augmentés à l'IA, des résistances doivent être levées. Comme la difficulté à trouver des jeux de données de qualité, surmonter le manque de moyens (temps et argent), le risque juridique et le défaut d'acceptabilité des usagers ou des agents publics. « Lié à l'acculturation des parties prenantes sur les enjeux et potentialités offerts par l'intelligence artificielle, ce risque tend à se réaliser lorsque la méthode de construction du système IA est exclusivement descendante, ne répondant pas à un besoin des métiers clairement exprimé par les agents », indique l'étude. Et de prévenir : « seule la présence effective de citoyens directement ou par l'intermédiaire de partenaires sociaux ou d'associations autour de la table de la conception, du déploiement, de la critique et de la correction des systèmes IA est de nature à prévenir une partie de la défiance et de la critique ». Et si finalement les projets IA dans les services publics étaient des projets IT comme les autres ?



s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Le Zero Trust, un modèle à explorer

Le Zero Trust, un modèle à explorer

Zero Trust, ZTNA (Zero Trust Network Access) ou plus globalement SASE (Secure Access Service Edge), tous ces concepts ou modèles de cybersécurité inventés par les cabinets...

iPaaS : au coeur des convergences du SI

iPaaS : au coeur des convergences du SI

A l'heure où les données migrent de plus en plus dans le cloud public, les entreprises se doivent de contrôler leurs flux, de les préparer, de les intégrer et de les connecter...

Les accélérateurs viennent booster les datacenters

Les accélérateurs viennent booster les datacenters

Les datacenters des services providers, des opérateurs, mais aussi des entreprises cherchent en permanence à optimiser leurs infrastructures virtualisées pour les rendre plus...

Publicité