Votre section syndicale est toujours très attentive aux changements sociétaux qui tôt ou tard vont se refléter dans notre quotidien et nos conditions de travail.
Plus globalement la CFE-CGC s’interroge sur les conséquences potentielles de la mise en œuvre d’une utilisation autorisée au sein de l’entreprise.
Dans le contexte de la GEPP (Gestion des emplois et des parcours professionnels) en cours de négociation, toutes ces questions font sens et la CFE-CGC les portera auprès de la Direction.
Nous vous apportons aujourd’hui un éclairage sur ChatGPT et lançons quelques questionnements et recommandations.
ChatGPT est un modèle d’Intelligence Artificielle extrêmement puissant appliqué au « chat » (i.e. la discussion en ligne), capable d’être multilingue, de répondre à des questions et de tenir une conversation ; il peut aussi contribuer à résoudre des problèmes.
Pour ce faire, le modèle a été « entraîné » sur d’immenses quantités d’informations disponibles dans le domaine publique. Il se révèle étonnamment « intelligent » pour « comprendre » des requêtes comportant des fautes syntaxiques, « clustériser » des mots comme « vs. », »versus », « contre » …
On l’utilise aussi pour nettoyer des données non structurées, synthétiser et présenter de manière structurée les réponses (titre, sous-titre , tiret liste, …) avec un paramétrage dans le niveau de réponse attendue.
Il n’a pas besoin durant d’intervention humaine pour « labelliser » les réponses (cette étape étant longue et fastidieuse) contrairement à certains modèles de classification ou de réseau de neurones.
ChatGPT peut cependant introduire des biais car il va utiliser les mots les plus couramment utilisés, il faut donc -encore! Mais pour combien de temps ?- un humain pour compléter / noter le niveau de la réponse fournie.
Le modèle peut « inventer » des réponses « probables » lorsqu’il ne trouve pas d’éléments de réponse, dans le jargon c’est ce qu’on appelle « hallucination ». Il est donc important de toujours vérifier les réponses, surtout que le modèle ne cite pas ses sources contrairement à Google par exemple.
GPT utilise entre autres des outils « open source » (Open AI, Azure Open AI, Air Bing) qu’il faut donc bien choisir pour sourcer ses données. Le risque à terme réside au niveau des problèmes de propriété intellectuelle si ces outils venaient à être achetés ou que leur statut changeait.
(OPEN AI : vous confiez vos données et vos résultats en sortie du modèle GPT-3 à OPEN AI, en échange c’est gratuit et la puissance d’alimentation, d’entraînement du modèle, et la mise à jour du modèle est du ressort d’OPEN AI.
AZURE OPEN AI : la licence est payante, l’entraînement du modèle est déporté sur une distribution de GPU (Graphics Processing Unit ou « unité de traitement graphique » ; puce informatique qui optimise le rendu d’images et libère de la puissance de traitement pour le processeur central de l’ordinateur) puissant et très performant ; les données que vous soumettez pour l’entraînement restent votre propriété ainsi que les requêtes et résultats produits en sortie. Cela vous garantit la confidentialité des données, du savoir, et des connaissances exploitées, qui peuvent elles-même servir d’input à d’autres modèles d’intelligence artificielle.
AIR BING : générer du code simple à partir d’une question simple, la réponse inclut les citations de sources de code. utilisation de github, attention à l’utilisation des licences appropriées.)
ChatGPT est hébergé sur un serveur public donc il est conseillé de ne traiter que des données non sensibles sous peine de voir exposer ses données dans le domaine public. GPT-4 est la dernière version de modèle à ce jour et s’applique aujourd’hui au domaine du chat mais aussi dans le domaine d’application de l’imagerie (par ex : sélection d’éléments au sein d’une image selon une question posée).
Aujourd’hui ChatGPT est gratuit, il apprend de nos données… Si on construit des modèles propriétaires, rien ne garantit qu’on ne devra pas payer de licence plus tard et ainsi perturber la rentabilité du business model. Nous devons rester prudent et protéger notre connaissance.
ChatGPT a été entrainé sur des données sans vérification de licence ou de propriété intellectuelle. On peut risquer des « class actions » (action judiciaire entreprise par un grand nombre de personnes qui ont toutes subi le même préjudice) par exemple des droits sur les codes informatiques puisés dans le GitHub (service web d’hébergement et de gestion de développement de logiciels, utilisant le logiciel de gestion de versions, libre et gratuit, « Git »)
A l’instar d’autres entreprises, Michelin a engagé une réflexion quant à l’usage de ChatGPT pour éviter les mauvaises surprises relatives aux risques, à savoir :
L’arrivée de ChatGPT dans le paysage professionnel est sans doute une nouvelle extension « bureautique » (comme l’arrivée du smartphone ou des applications mobiles) et qui peut faciliter le travail dans beaucoup de domaines. On ne s’affranchira cependant pas de l’étape de vérification des réponses apportées.