Tendance à l’utilisation d’outils d’IA non sécurisés
Les outils d’intelligence artificielle (IA) sont de plus en plus utilisés par les administrations publiques. Cependant, certaines voix s’élèvent pour critiquer le manque de mesures de sécurité concernant ces technologies. Dewand Neely Barnes, expert informatique, déplore que “les États permettent l’utilisation d’outils d’IA avant de les sécuriser”. Pour lui, il est essentiel de comprendre ces technologies avant d’en autoriser l’usage au sein des administrations.
Une approche restrictive face aux risques de l’IA
Conscient des dangers potentiels liés à l’utilisation d’outils d’IA non sécurisés, certains États ont choisi d’adopter une approche plus prudente. C’est notamment le cas de l’Indiana aux États-Unis, qui a décidé de limiter l’accès aux données sensibles et d’étudier les possibilités offertes par ces nouveaux outils avant de les utiliser pleinement. Cette démarche vise à mettre en place des politiques et des protections adaptées pour encadrer l’usage de l’IA dans les services publics.
Transparence et accessibilité : les défis majeurs de l’IA
Au-delà de la sécurisation des outils, les responsables des technologies de l’information doivent également veiller à ce que l’IA soit transparente et accessible à tous les citoyens. Pour Mike Rupert, directeur de la technologie de l’Office du directeur technique en chef à Washington D.C., il est impératif d'”assurer l’accessibilité pour chaque personne” dans son district.
Une communication transparente avec les utilisateurs
Dans cette optique, le bureau des technologies de l’information de Washington D.C. se focalise sur la transparence : le public doit être informé lorsque du contenu généré par IA est publié ou lorsqu’ils interagissent avec des chatbots. Cette approche vise à garantir que les usagers connaissent les limites et les spécificités des outils d’IA auxquels ils ont accès.
L’importance de l’accessibilité pour les personnes handicapées
Par ailleurs, tous les sites internet de la ville doivent répondre à des normes d’accessibilité en conformité avec les régulations en vigueur. Ces règles permettent de prendre en compte les besoins spécifiques des utilisateurs souffrant de déficiences visuelles, de handicaps moteurs ou de troubles de l’apprentissage.
Ainsi, les outils d’IA sont conçus pour s’intégrer au mieux aux équipements personnels des utilisateurs, leur permettant de bénéficier d’un appui adapté à leurs besoins. L’objectif est d’offrir un service pratique et accessible à tous les citoyens.
Former les employés publics pour une utilisation optimale de l’IA
Pour une mise en œuvre réussie de l’IA au sein des administrations publiques, il est crucial de former et d’équiper les employés afin qu’ils puissent tirer le meilleur parti de ces nouvelles technologies. C’est la position défendue par Dewand Neely Barnes, qui souligne l’importance d’investir dans la formation et les ressources pour que chaque agent puisse pleinement exploiter les potentialités offertes par l’intelligence artificielle dans son travail quotidien.
L’adoption croissante de l’intelligence artificielle dans les services publics présente des défis importants en matière de sécurité, de transparence et d’accessibilité. Pour répondre efficacement à ces enjeux, il est essentiel d’étudier avec précaution les possibilités offertes par ces outils avant de les intégrer au sein des administrations. Parallèlement, garantir une accessibilité totale aux nouveaux services et informer clairement les citoyens sur les limites de ces technologies doit être une priorité pour les décideurs publics. Enfin, investir dans la formation des employés est crucial pour assurer une utilisation optimale de l’IA dans un contexte administratif.