Profession-Intelligence artificielle

Introduction de l’Intelligence artificielle générative dans les rédactions : comment agir syndicalement

Introduction de l’Intelligence artificielle générative dans les rédactions : comment agir syndicalement

Préambule


L'Intelligence Artificielle Générative (IAG) frappe à la porte des rédactions. Quand elle n’est pas déjà dans la bergerie ! Attise la curiosité et l'appétit de transformation des patrons de presse qui, au prétexte qu'il ne faut pas regarder passer le train de l'innovation, voient en elle « un outil au service des humains » susceptible de retirer aux journalistes les tâches ingrates, répétitives ou rébarbatives qui alourdissent leur travail, réduisent leur productivité et les éloignent des missions à « valeur ajoutée ».

« Ayez confiance, sans l'humain, l'IA n'est rien, ce n'est qu'une machine, des algorithmes ». Ecran de fumée ! 

Cette considération empeste la duperie. Dissimule de multiples risques pour la profession et pour la qualité de l’information  que nous ne pouvons pas encore complètement apprécier car tout évolue très vite. Cependant, des travaux, procédures, recommandations, ont déjà été produits ou sont en cours afin de nous aider, journalistes, à mesurer les conséquences éditoriales, déontologiques, économiques et sur l’emploi de l'utilisation de l'IAG dans le fonctionnement de nos rédactions. Parce qu’il s’agit d’une préoccupation majeure de la profession, le SNJ a la volonté de fournir à ses élus, en entreprise, déjà ou bientôt confrontés à l’emploi, sous différents usages, de ce robot conversationnel, un support syndical explicatif du maniement coordonné et rigoureux de cette IAG.

Un mode d’emploi amendable, qui présente l’IAG, son fonctionnement et ses utilisations ; informe sur les dispositifs légaux accessibles aux élus, fournit des documents types à utiliser en CSE ; développe les recommandations et préconisations soutenues par le SNJ, des applications acceptables à celles qu’il faut proscrire…


Intelligence Artificielle Générative, qui es-tu ?
L'intelligence artificielle générative est une catégorie d'IA qui utilise des contenus existants au service de leur apprentissage pour en générer de nouveaux. Elle se concentre de manière autonome sur la création de données, de contenus, de conversations, d’histoires, la résolution de problèmes, etc. Vous pouvez l'entraîner à apprendre le langage humain, les langages de programmation, l'art, la chimie, la biologie ou tout autre sujet complexe. Elle peut par exemple apprendre le vocabulaire anglais et créer un poème à partir des mots qu'elle traite. Ces systèmes utilisent des modèles avancés d'apprentissage automatique pour générer du contenu qui peut ressembler à ce qui est créé par des êtres humains.

Intelligence Artificielle Générative, comment fonctionnes-tu ?
L'intelligence artificielle générative utilise des algorithmes entraînés à partir du Big data. Ils se composent de modèles mathématiques complexes d'apprentissage profond et de réseaux de neurones artificiels qui vont, depuis des données d'entrée, concevoir des contenus de sortie. Pour cet apprentissage, il est nécessaire de pourvoir des machines avec des algorithmes multiples et des données massives. En effet, l'IA générative apprend par l'observation et la répétition. Elle analyse les données fournies, en repère les schémas, puis développe de nouveaux contenus originaux.
Cette intelligence artificielle était, dans un premier temps, cantonnée à un seul type de données. Par exemple, GPT 3.5 de ChatGPT se limitait à des données textuelles non structurées et ne pouvait donc présenter de réponses que sous la forme de textes. D'autres applications spécialisées ont également vu le jour comme les générateurs d'images ou de vidéos. L'IA est ensuite devenue multimodale et s'est donc ouverte à une multitude de sources de data différentes pour générer des contenus de plus en plus complexes. L’IA générative nécessite généralement que l’utilisateur ou l’utilisatrice saisisse des données, comme un prompt, pour générer le résultat correspondant.

IAG = nouvelle technologie → information et consultation des élus du CSE


En vertu de l’article L2312-8 du code du travail, le CSE doit être informé et consulté sur les questions intéressant l'organisation, la gestion et la marche générale de l'entreprise, notamment sur : «L'introduction de nouvelles technologies ».
L’introduction d’une nouvelle technologie rend obligatoire la consultation préalable du CSE, précisément dans l’objectif qu’il puisse être éclairé sur les conséquences de ce projet, notamment sur les conditions de travail. L’ampleur du projet n’est pas exigée par l’article L2312-8 4° du code du travail. Autrement dit, les projets et expérimentation en matière de nouvelles technologies, en l’occurrence d’intelligence artificielle générative, de par leurs répercussions possibles en termes professionnels, déontologiques, d’emploi et de conditions de travail, ne peuvent pas être décidés sans que le CSE soit préalablement informé et consulté sur les objectifs poursuivis, les modalités de mise en oeuvre de ces projets et leurs répercussions pour les salariés. Le défaut de consultation du CSE sur un tel projet avec modification des conditions de travail constitue un délit d’entrave. Le CSE peut alors réclamer au juge des référés d’imposer à l’employeur la suspension du projet et de procéder à la consultation du CSE.
En principe le délai de consultation CSE au projet important est de 1 mois, mais en cas d’intervention d’un expert, l’information-consultation du CSE est réalisée dans un délai de 2 mois. Ce délai est porté à 3 mois en cas d’intervention d’une ou plusieurs expertises dans le cadre de consultation se déroulant à la fois au niveau du CSE central et d’un ou plusieurs CSE d’établissement. Le délai préfixe court à compter de la communication par l’employeur des informations relatives au projet important et l’expertise doit être faite dans ce délai préfixe.



Demande d’expertise, désignation d’un expert habilité


L’engagement par l’employeur d’une procédure d’information-consultation sur un projet important est une condition préalable à toute désignation d’expertise CSE. Le CSE désigne l’expert lors de la première réunion d’information de la procédure d’information-consultation du CSE sur le projet important. Le droit de l’expertise est ouvert pour toute entreprise dont les effectifs sont d’au moins 50 salariés. Les élus du CSE doivent recevoir toutes les informations sur ce projet et ses conséquences sociales ainsi qu’un éventuel plan d’adaptation préparé par l’employeur dans le cas de mutations technologiques importantes et rapides à minima un mois avant consultation du CSE.
Il est primordial de préparer la décision du recours à l’expertise en amont de la réunion pour valider l’opportunité de l’expertise et rédiger la résolution qui sera soumise au vote :
– Le CSE doit se mettre d’accord sur la nécessité de l’expertise et le choix du cabinet.
– Formaliser ses inquiétudes sur le projet pour démontrer, le cas échéant, la nécessité du recours à l’expertise.
– Préparer la délibération qui sera adoptée à la majorité des membres présents à l’issue des débats sur le projet

Lors de la première réunion d’information en vue de la consultation du CSE, lecture de résolution qui doit figurer au PV de la réunion et qui donnera lieu de préférence à deux votes.
Le vote se fait par une délibération adoptée à la majorité de membres d’élus CSE, le président ne participe pas au vote.

La délibération comprend les éléments suivants :
– le principe de l’expertise c’est-à-dire la description des faits justifiant la nécessité de l’expertise ;
– le choix du cabinet de l’expertise ;
– le cahier des charges confié à l’expert, le cas échéant, c’est-à-dire la détermination précise de l’étendue de la mission de l’expertise ;
– le choix d’un membre des élus du CSE pour contacter l’expert et engager si nécessaire les procédures judiciaires pour faire respecter la décision du CSE ;
L’employeur peut également contester l’expertise dans son principe ou ses modalités de réalisation : le choix de l’expert, le coût, le périmètre et le délai de l’expertise .L’employeur doit saisir à cet effet le juge judiciaire dans un délai de 10 jours à compter de la délibération du CSE décidant le recours à l’expertise , la désignation de l’expert, la notification à l’employeur du cahier des charges établi par le cabinet d’expertise et la notification à l’employeur du coût final de l’expertise.

Article L2315-94 du code du travail : Le comité social et économique peut faire appel à un expert habilité dans des conditions prévues par décret en Conseil d'Etat :
1. Lorsqu'un risque grave, identifié et actuel, révélé ou non par un accident du travail, une maladie professionnelle ou à caractère professionnel est constaté dans l'établissement ;
2. En cas d'introduction de nouvelles technologies ou de projet important modifiant les conditions de santé et de sécurité ou les conditions de travail, prévus au 4° du II de l'article L. 2312-8 
3. Dans les entreprises d'au moins trois cents salariés, en vue de préparer la négociation sur l'égalité professionnelle.

Article L2312-8 du code du travail
I. - Le comité social et économique a pour mission d'assurer une expression collective des salariés permettant la prise en compte permanente de leurs intérêts dans les décisions relatives à la gestion et à l'évolution économique et financière de l'entreprise, à l'organisation du travail, à la formation professionnelle et aux techniques de production, notamment au regard des conséquences environnementales de ces décisions.
II. - Le comité est informé et consulté sur les questions intéressant l'organisation, la gestion et la marche générale de l'entreprise, notamment sur :
     - Les mesures de nature à affecter le volume ou la structure des effectifs
     - La modification de son organisation économique ou juridique
     - Les conditions d'emploi, de travail, notamment la durée du travail, et la formation professionnelle
     - L'introduction de nouvelles technologies, tout aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail
    - Les mesures prises en vue de faciliter la mise, la remise ou le maintien au travail des accidentés du travail, des invalides de guerre, des invalides civils, des personnes atteintes de maladies chroniques évolutives et des travailleurs handicapés, notamment sur l'aménagement des postes de travail.
III. - Le comité est informé et consulté sur les conséquences environnementales des mesures mentionnées au II du présent article.


Exemple de lettre de mission de l’expert technologique habilité

Délibération du CSE à propos de l’expérimentation de l’intelligence artificielle générative
Le CSE de l’UES Titre du média a été convoqué ce jour le … en réunion plénière, dont l’ordre du jour comportait notamment :
Exemple : « Information/consultation relative à l’expérimentation de l’utilisation de l’Intelligence Artificielle dans le métier de SR éditeur ».
Le CSE identifie que ce projet présente diverses modifications :
- L’introduction d’une nouvelle technologie d’intelligence artificielle CHATGPT
- Le test d’un nouvel outil éditorial devant automatiser certaines tâches dans l’agence de … Ce test durera … mois à dater du

Le CSE estime que ce projet impacte de manière directe le pôle secrétariat de rédaction de… , soit environ X salariés. Le CSE constate que plusieurs éléments de ce projet auront des impacts sur les conditions de travail des salariés concernés, dont notamment :
- La modification des missions, de la charge de travail des salariés concernés
- L’évolution du périmètre de poste, de responsabilité, de compétences, de la fonction éditoriale
- Des impacts potentiels sur les perspectives professionnelles, voire l’emploi de certains métiers
- Une source d’inquiétude pour l’ensemble des salariés liée à l’introduction de l’IA pour automatiser du travail précédemment réalisé par des salariés

En conséquence les représentants du personnel du CSE considèrent que les différentes dimensions de ce projet caractérisent l’introduction d’une nouvelle technologie et génèrent un changement important des conditions de travail, au sens de l’article L.2312-8, 4ème alinéa du code du travail.
En conséquence, les représentants du personnel au CSE décident conformément à l’article L.2315-94, 2ème alinéa du code du Travail d’avoir recours à un cabinet d’expertise afin d’examiner les conséquences de la mise en oeuvre prévue du projet sur la sécurité, les conditions de travail et la santé au travail du personnel.
À cet effet, le CSE désigne le cabinet X, expert CSE habilité par l’organisme de certification QUALIANOR.

La mission confiée à l’expert aura pour objectifs, sur le périmètre de l’entreprise (liste non exhaustive) :
- D’analyser les enjeux économiques, financiers, éditoriaux et d’emploi liés au déploiement de cette nouvelle technologie
- D’analyser les situations de travail et postes impactés par le déploiement de cette nouvelle technologie
- De prendre connaissance des dispositifs de réorganisation des activités et les changements attenants
- D’analyser les situations projetées en termes de nouvelles conditions de travail générées par ces transformations
- D’évaluer les impacts sur les nouvelles conditions de travail du personnel ainsi que les risques pour la santé provoquée par ce projet
- D’analyser les dispositions que devrait prendre la direction en vertu de ses obligations (Art. L.4121-1 à L.4121-3 du Code du Travail).

Pour cette mission, l’expert procédera à toutes les investigations qu’il estimera nécessaires pour répondre à la mission confiée. Il devra notamment pouvoir interroger librement tout salarié de l’entreprise.
Les représentants du personnel au CSE donnent mandat au ou à la secrétaire du CSE pour préciser le cahier des charges de l’expertise, signer la lettre de mission, représenter les représentants du personnel au CSE et prendre toutes les dispositions nécessaires à l'exécution de cette décision des représentants du personnel au CSE, notamment de prendre contact avec l'expert désigné et éventuellement d'engager toutes les procédures judiciaires qui s’avéreraient nécessaires.


Financement de l’expertise

En général, cette expertise est prise à la charge de l’employeur pour 80% du coût total quand 20% est imputable au CSE sur son budget de fonctionnement.
Le fait que le CSE ne soit pas consulté pour l’introduction d’une nouvelle technologie ne le prive pas de son droit d’expertise.
Exception de co-financement de l’expertise, les honoraires de l’expert sont pris intégralement en charge par l’employeur lorsque le budget de fonctionnement du CSE est :
– D’un part insuffisant pour couvrir le coût de l’expertise
– D’autre part, n’a pas donné lieu à un excédent annuel au budget destiné aux activités sociales et culturelles au cours des trois années précédentes.


Utilisation de l’Intelligence artificielle générative, qu’en pense le SNJ ?
 

Motion du Congrès national 2023 à Albi : https://snj.fr/motion-intelligence-artificielle-preservons-une-information-fiable-verifiee-et-sourcee/1972

La position du SNJ par rapport à l’utilisation de l’Intelligence artificielle générative s’appuie sur les recommandations formulées par le Conseil de déontologie journalistiques et de médiation (CDJM). Le présent document se concentre sur un seul de ces défis éthiques, celui relevant de la déontologie journalistique. Il vise à établir comment les principes des chartes de référence, dont la plus ancienne a plus d’un siècle, peuvent s’appliquer dans ce contexte nouveau et incertain. S’il dessine, dans certains cas, des lignes rouges à ne pas franchir et décrit, dans d’autres, les bonnes pratiques à respecter, il ne cherche pas à priver les rédactions d’outils utiles au quotidien.
Les spécialistes de l’innovation ont en effet vite identifié comment les journalistes, en se libérant de tâches désormais automatisables, peuvent gagner du temps pour un travail à plus haute valeur ajoutée. C’est aussi, in fine, l’ambition de la réflexion menée par le groupe de travail du Conseil de déontologie journalistique et de médiation (CDJM) à l’origine de cette recommandation : s’assurer que les progrès de l’IA sont mis au service d’une information de qualité délivrée au public.

Précautions d’emploi et lignes rouges
L’accélération et l’optimisation du travail permises par les outils d’intelligence artificielle ne peuvent être l’occasion de remettre en cause les principes des chartes de déontologie, qu’il s’agisse de l’exigence d’exactitude et de véracité des faits, de l’indépendance nécessaire du travail éditorial, du respect de la dignité et de la vie privée des personnes comme de la protection des sources, ou encore de l’impératif de ne pas alimenter haines et préjugés. Qu’un journaliste soit un simple utilisateur de ces services émergents ou qu’il contribue à les configurer et à les développer en interne, il doit s’assurer du respect des règles qui fondent l’éthique du journalisme.
Ce document s’intéresse aux utilisations possibles de l’intelligence artificielle par les journalistes et les rédactions en les répartissant, à l’instar des institutions de l’Union européenne, selon plusieurs niveaux, en fonction du degré de risque qu’elles représentent au regard du respect de la déontologie. 

I. Les utilisations à risque faible
Ces usages n’ont pas d’impact sur l’information délivrée au public. Ils peuvent faire l’objet d’une discussion organisée en interne, mais ne doivent pas forcément être notifiés au lecteur, auditeur ou téléspectateur.
Cela inclut par exemple :
- la correction orthographique et grammaticale d’un texte avant publication
- la traduction automatisée de textes à des fins de documentation préalable
- la transcription d’enregistrements (speech to text) pour en extraire des citations pertinentes
- la création de brouillons pour les publications qu’on souhaite diffuser sur les réseaux sociaux
- la génération d’idées de titres optimisés pour le référencement
- l’aide au repérage et au choix des informations qui circulent sur les réseaux sociaux
- l’analyse et la synthèse de dossiers complexes lors de recherches préparatoires
- la vérification d’affirmations (fact checking) en temps réel via des outils utilisés en interne
S’il a recours à ces services d’IA, le journaliste vérifie et valide toujours les éléments générés avant qu’ils soient éventuellement utilisés dans une production.

II. Les utilisations à risque modéré
Ces usages peuvent avoir un impact sur l’information publiée ou diffusée. Ils doivent rester sous la responsabilité directe des éditeurs et des journalistes, et être signalés de façon explicite à leur public.

A. Le public doit être informé lorsqu’un outil d’IA est utilisé dans la réalisation d’un contenu diffusé ou publié

Cette mention doit apparaître à chaque fois que le contenu publié ou diffusé n’est pas essentiellement le résultat de l’activité de cerveaux humains. Cette transparence permet au public de mieux comprendre les conditions de fabrication du contenu dont il prend connaissance. Elle établit en outre une distinction nécessaire entre ce qui est le fruit du travail de personnes réelles et ce qui est le produit d’une série d’algorithmes. En outre, d’éventuelles imperfections dues à l’automatisation ne doivent jamais altérer de façon significative l’information délivrée.
Cela inclut par exemple :
- la traduction automatisée d’articles publiés dans une langue étrangère
- la synthèse vocale avancée (text to speech) pour la lecture orale automatique de textes
- la mise à jour automatisée d’un contenu en fonction de nouvelles données disponibles
- le classement d’articles par mots-clés
- des résumés d’articles ou d’éléments audiovisuels
- la génération de versions en français simplifié
- la synthèse factuelle de résultats électoraux
- le compte-rendu technique d’une rencontre sportive
De façon générale, un contenu généré directement par ces outils ne peut être publié ou diffusé automatiquement qu’à condition que les journalistes aient pu connaître et maîtriser d’une part les informations utilisées à l’origine, d’autre part les étapes de traitement qui leur ont été appliquées. Ils contrôlent ainsi sa pertinence éditoriale. Les sources de données doivent être mentionnées ; le nom des outils employés comme les éventuelles requêtes utilisées (les prompts) peuvent aussi être indiqués.
 

B. Lorsque des visuels générés par des outils d’IA (dessins, illustrations, vues d’artiste, reconstitutions…) sont utilisés, il ne doit être laissé aucun doute sur leur caractère artificiel et l’audience doit en être informée

L’origine de toute image synthétique publiée ou diffusée doit être explicitée. En presse écrite (papier ou numérique), la légende indiquera une formule du type « image générée par une IA ». Si le visuel est inséré dans une séquence vidéo, une marque visible doit le signaler pendant toute la durée du plan, à l’instar des mentions « caméra cachée », « caméra discrète » ou « reconstitution » souvent utilisées en télévision. L’outil de génération d’images à l’oeuvre comme le texte de commande utilisé (le prompt) peuvent aussi être indiqués.


C. Les journalistes et les éditeurs veillent à ce que les règles déontologiques soient respectées lors de la configuration ou du développement d’outils IA utilisés en interne

Les journalistes sont associés aux équipes chargées de mener à bien ce type de projets et s’assurent, de la phase de conception à la livraison, que le fonctionnement choisi ne remet pas en cause le respect des principes figurant dans les chartes de déontologie communes à la profession et/ou spécifiques au média.

D. Les outils d’IA utilisés pour personnaliser l’information délivrée ne doivent pas priver les équipes de la maîtrise de la ligne éditoriale

En se fondant sur des données de navigation et d’autres informations personnelles, les outils d’IA peuvent modifier l’expérience des utilisateurs de services numériques. Ainsi, le visiteur d’un site d’information peut se voir proposer des contenus adaptés à son profil (âge, localisation, thèmes de prédilection…), voire une hiérarchie de l’information sur mesure. Éditeurs et rédactions doivent s’assurer que ces systèmes n’entrent pas en conflit avec la ligne éditoriale et les choix rédactionnels effectués dans le traitement de l’actualité.

III. Les utilisations à proscrire
Ces usages sont, de façon intrinsèque, incompatibles avec le respect de la déontologie journalistique.

A. Le journaliste n’utilise pas d’outils d’IA pour générer des images, des sons ou des vidéos dont le réalisme risque de tromper le public ou de le laisser dans l’ambiguïté, en lui soumettant une information contraire à la réalité des faits
Avec ou sans intelligence artificielle, la publication d’un faux est une faute déontologique majeure. Il ne suffit pas d’ajouter, en légende ou en commentaire, que la photo diffusée est une image synthétique ou de mentionner, en crédit, l’outil qui a servi la fabriquer : cette information peut en effet échapper à une part importante des lecteurs ou téléspectateurs. Par exception, de tels visuels peuvent être utilisés pour illustrer des sujets portant sur la création et la circulation de ces fausses images. Dans ce cas, une bonne pratique est d’ajouter une mention visible et explicite sur la création, afin de limiter le risque d’induire le public en erreur, notamment en cas de réutilisation.

B. Des contenus générés en intégralité par des outils d’IA ne peuvent être publiés ou diffusés sans contrôle éditorial
Les éditeurs et les rédactions sont responsables de ces contenus, au même titre que des productions humaines ; leur diffusion doit donc se faire exclusivement sous la supervision des journalistes, après des étapes de relecture et de validation qui garantissent au lecteur la véracité et la qualité de l’information publiée ou diffusée.


IV. Autres recommandations
 

Au-delà des règles déontologiques immédiates, le maintien et la promotion d’un journalisme éthique face aux usages de l’IA passent aussi par des attitudes proactives dans les rédactions.
Le CDJM considère ainsi que les éditeurs et les journalistes doivent s’efforcer … 

  • d’améliorer les requêtes (prompts) utilisées dans les outils d’IA générative
    Les interfaces de type chatbot ont contribué à populariser les grands modèles de langage (LLM) et suscité une multitude de nouveaux usages au sein des rédactions. Mais la qualité et la fiabilité des textes produits dépendent en grande partie des formulations utilisées par l’utilisateur en guise de consignes – le prompt. Les rédactions qui souhaitent s’appuyer sur ces outils doivent être formées à la bonne utilisation des prompts et peuvent en encadrer l’usage en mettant au point des règles internes dans ce domaine (prompt engineering).

  • de mieux valoriser le travail des photographes et journalistes reporters d’images
    Avec la multiplication des images générées par les outils d’IA et le degré de réalisme qu’elles atteignent, le risque s’accroît de voir le public prendre pour vrai ce qui est faux, mais aussi, inversement, de prendre pour virtuel ce qui est bien réel. Le respect de la déontologie conduit à privilégier le réel, en l’occurrence le travail des photojournalistes et les autres témoins de terrain. À cette fin, il importe de rendre plus explicites les légendes et plus visibles les crédits, en indiquant de façon systématique le lieu et la date de prise de vue. Les rédactions seront aussi attentives à des projets visant à authentifier techniquement les photos diffusées au public, comme la Content Authenticity Initiative ou le protocole Pix T.

  • de se former aux nouveaux outils d’IA afin d’évaluer leur intérêt et leurs limites
    Restituer la réalité pour un public passe aussi par la maîtrise des outils utilisés pour le faire. Le CDJM encourage les journalistes et les rédactions à se former aux outils d’IA, pour mieux comprendre ce que ceux-ci produisent ou pour identifier leurs risques, leurs biais et leurs limites.

  • d’échanger avec des spécialistes du domaine pour que les enjeux de la profession soient pris en compte
    De même, le CDJM considère que les enjeux déontologiques des nouvelles technologies sont tels qu’il importe que les journalistes soient associés aux travaux de mise au point et de développement des outils d’IA destinés à les assister dans leur travail d’information du public.

    Ce document de recommandations du CDJM est susceptible d’être mis à jour, au vu de l’évolution accélérée des pratiques et de la réflexion sur ce sujet. L’objectif reste avant tout que l’IA, quand elle est utilisée, soit un outil, et seulement un outil, au service d’une information de qualité. Il a été préparé par un groupe de travail au sein du Conseil de déontologie journalistique et de médiation (CDJM). Celui-ci s’est réuni à six reprises entre avril et juin 2023, appuyant ses réflexions et ses échanges sur des rencontres avec des chercheurs et des spécialistes de l’IA dans les médias, et sur une analyse de textes traitant de ces thématiques publiés à l’étranger. ll a été débattu et adopté à l’unanimité par le CDJM le 3 juillet 2023.

Accès pour tous