Le webinaire a démarré avec un rapide rappel des enjeux de l’IA (juridiques, éthiques, cybersécurité ou environnement) et sur la nécessité de lever les appréhensions des agents du secteur public en les accompagnant et en adaptant les pratiques. Il s’est poursuivi avec un focus sur quelques éléments qui doivent être questionnés dès lors que l’on introduit l’IA dans les services publics, à savoir :
- Les hallucinations et les biais : des réponses franchement incorrectes ou résultats erronés voire potentiellement dangereux dus à des erreurs humaines peuvent fausser les données d’entraînement ou l’algorithme d’IA.
- La dépendance technologique : vis-à-vis des « Big Tech » non-européens qui se partagent majoritairement le marché du cloud sur lequel peuvent notamment reposer certaines architectures d’IA.
- L’impact environnemental de l’IA : à la fois en lien avec les datacenters dédiés à l’IA dont les prévisions de consommation d’électricité en 2025 sont estimées à 10 % de la consommation mondiale et qui nécessitent une très grande quantité d’eau pour leur refroidissement. L’impact de l’IA est aussi à prendre en compte pour la production de déchets électroniques.
- La qualité des données utilisées : un projet d’introduction d’IA dans le fonctionnement de toute organisation n’est possible que si les données d’entrée sont propres, cohérentes, accessibles et suffisamment sécurisées.
- Les modèles de langages (LLM) sur lesquels repose l’IA dont la taille évolue de manière exponentielle (on parle d’un trillion de paramètres pour ChatGPT-5).
- Et bien sûr le cadre réglementaire qui se construit petit à petit : un règlement européen est en attente de publication au Journal Officiel et interdit ou encadre strictement des pratiques en fonction du risque encouru par les usagers.
Benoit Dehais a ensuite présenté la démarche de la région Occitanie. Elle a fait le choix d’une collaboration en partenariat avec un écosystème d’acteurs constitué d’universités, de laboratoires de recherche, de grands groupes technologiques… afin de travailler à la création d’un cadre éthique et de réfléchir à la gouvernance et au partage des données. Cette démarche a donné lieu à la naissance d’Ekitia, un Groupement d’Intérêt Public qui engage ses adhérents à aller au-delà des obligations juridiques grâce à des outils tels que l’auto-évaluation éthique by design, la charte de l’éthique ou encore un label indépendant. L’objectif étant de construire une IA de confiance pour les utilisateurs et d’anticiper les futures législations.
On en arrive donc à poser les 3 piliers d’une IA raisonnée que sont :
- La frugalité. Il convient de mettre en œuvre des systèmes d’IA efficaces et performants qui utilisent toutefois moins de ressources : données mieux calibrées, utilisation de modèles d’entrainement ciblés et efficacité énergétique des datacenters.
- L’éthique. Que ce soit dans le cadre de leur mise en œuvre ou de leur utilisation, il faut veiller à ce que les systèmes d’IA soient transparents, équitables et respectueux de la vie privée, au niveau des algorithmes et infrastructures.
- La souveraineté est plus difficile à mettre en œuvre, notamment en regard de la dépendance à l’égard des solutions cloud des « Big Tech ». Il est cependant essentiel de créer un écosystème local composé de collectivités, de startups, de grands groupes et de laboratoires de recherche pour ancrer localement les solutions d’IA disponibles.
Metapolis vous accompagne dans tous vos projets de transformations numériques et notamment ceux qui sont en lien avec l’IA : définition de vos besoins, études de faisabilité, mise en œuvre, sensibilisation des utilisateurs et montée en compétence. Pour en savoir plus, contactez-nous.