banner
Centre d'Information
Un suivi après-vente fiable

L'impact de ChatGPT sur la main-d'œuvre fédérale

Dec 13, 2023

Les agences fédérales sont constamment à la recherche de solutions innovantes et sécurisées pour améliorer leurs opérations et mieux servir leurs administrés. L’une des technologies qui a retenu leur attention au cours de la dernière décennie est l’intelligence artificielle.

Avec la récente poussée du Large Language Model et de Transformer AI, le personnel fédéral est devenu fasciné par le potentiel de l’IA et par la manière dont elle peut lui permettre de mener à bien les missions de l’agence.

Un outil LLM populaire est ChatGPT. Les législateurs utilisent déjà ChatGPT pour rédiger des discours, et les agences ont commencé à étudier les innombrables autres avantages de la mise en œuvre de la technologie dans les processus existants, notamment en aidant les employés à communiquer, en rationalisant les flux de travail et en augmentant l'accès des employés à l'information.

Au milieu de cet enthousiasme, certains craignent que ChatGPT et d'autres outils LLM puissent supprimer des emplois, fournir des informations inexactes et perpétuer des préjugés. Même si certaines craintes peuvent être infondées, il est crucial que les agences fédérales prennent en compte tous les impacts potentiels qu'une mise en œuvre à grande échelle de ChatGPT pourrait avoir sur la main-d'œuvre et les parties prenantes de l'agence.

Pour ce faire, il faut une compréhension approfondie des domaines dans lesquels ChatGPT peut aider la main-d'œuvre fédérale et, plus important encore, des domaines dans lesquels il ne peut pas.

Traditionnellement, l'IA aide les employés du gouvernement dans les processus internes en aidant les centres de services, en rationalisant les décisions, en automatisant les tâches répétitives, etc. Bien que ChatGPT puisse remplir ces rôles traditionnels, son vaste modèle de langage permet également une nouvelle dimension de fonctionnalités.

La technologie peut offrir à la main-d'œuvre fédérale des opportunités améliorées de formation et de développement professionnel en créant des cours en ligne, des didacticiels et d'autres ressources pédagogiques auxquelles les employés fédéraux peuvent accéder à tout moment. Alternativement, cela pourrait améliorer l’accès des employés aux informations sur les politiques, les procédures, les réglementations ainsi que les données et statistiques pertinentes pour le travail.

ChatGPT a également le potentiel d’aider à résoudre des défis bien documentés à l’échelle du gouvernement. Par exemple, cela peut aider à rationaliser le processus complexe d’acquisition fédérale en rédigeant un contrat gouvernemental que les employés peuvent modifier au lieu de créer à partir de zéro. Les applications potentielles ne sont pas perdues pour les agences, car le ministère de la Défense est déjà en train de créer une solution similaire de rédaction de contrats basée sur l'IA, connue sous le nom de « AcqBot » pour accélérer les flux de travail.

De plus, les applications de ChatGPT peuvent facilement être adaptées aux besoins spécifiques de l'agence. L'IRS pourrait utiliser ChatGPT pour automatiser le processus de catégorisation des formulaires fiscaux entrants et les acheminer vers le service approprié pour traitement, tandis que le DoD pourrait l'utiliser pour générer automatiquement des rapports sur la maintenance des équipements, rationalisant ainsi la planification des réparations.

Les applications de ChatGPT ne sont limitées que par l'imagination, la créativité et le niveau d'impact souhaité. Cependant, les effets ne sont pas tous positifs, et trop s’appuyer sur ChatGPT peut entraîner des risques importants pour une organisation sans les garde-fous appropriés. Par exemple, les membres certifiés de la communauté de piratage éthique ont prouvé comment jailbreaker de nombreux outils basés sur LLM et Transformer comme ChatGPT et les inciter à insérer des biais dans les réponses, à violer les politiques éthiques, à créer du code pour les attaques par déni de service distribué, etc.

ChatGPT peut également occasionnellement fournir des réponses ou extraire des informations de sources qui n'existent pas pour fournir une réponse rapide. Cela se produit parce que ChatGPT utilise des suppositions basées sur les probabilités basées sur les informations disponibles pour générer ses réponses.

Par conséquent, même si les données originales extraites peuvent être exactes, la compression et l’ajustement des données pour répondre à l’invite unique peuvent générer la déclaration la plus probable au lieu d’une déclaration précise, ce qui aboutit parfois à des sources entièrement inventées. En cas d'erreur, il ne reconnaîtra pas son erreur mais réaffirmera sa réponse. Cela peut conduire à des interprétations erronées de la part des employés fédéraux qui s'appuient sur l'outil pour obtenir des informations sur les prestations ou à des erreurs de formatage dans les contrats rédigés à l'aide de l'outil.