IA en entreprise : quel enjeux pour les élus du CSE en 2026 ?

IA en entreprise : quel enjeux pour les élus du CSE en 2026 ?


Les 8 questions clés que les élus du personnel doivent se poser en 2026.

L’intelligence artificielle bouleverse le monde du travail. Pour les élus des Comités sociaux et économiques (CSE), comprendre ses enjeux et impacts sur les conditions de travail, les emplois et la santé des salariés est devenu un impératif. Voici un décryptage des enjeux et des leviers d’action

L’IA en entreprise n’est plus un sujet de demain

Fin 2022, le lancement public de ChatGPT a fait prendre conscience au grand public de l’ampleur de la révolution en cours. Depuis, l’IA s’est installée dans les entreprises à un rythme inédit : automatisation des tâches administratives, aide à la décision, assistance à la rédaction, analyse prédictive, gestion de la relation client… Pratiquement aucun secteur n’est épargné.

Pour les élus du CSE, cette accélération pose une question centrale : comment exercer pleinement son rôle de représentation et de prévention face à une technologie qui transforme le travail plus vite que les cycles de consultation ne le permettent ?

Fort de ses nombreuses missions d’expertise sur le sujet, le Groupe Technologia identifie huit questions essentielles.

1. Quelles sont spécificités qui font de l’IA une technologie à part ?

L’IA générative, contrairement aux outils numériques connus jusqu’alors, ne donne pas un résultat certain. C’est une différence fondamentale.

Elle se repose sur un mécanisme d’assimilation face à des milliards de situations qu’elle a apprises et tente de donner à son utilisateur une réponse probable. Ce nouveau mécanisme, basé sur le deep learning, va conduire à conséquence forte dans le monde du travail : confidentialité des données, responsabilité face à l’erreur…

2. Quels projets d’IA sont déployés dans mon entreprise ?

C’est le point de départ. Beaucoup d’élus découvrent les outils d’IA au fil de l’eau, parfois après que les salariés ont commencé à les utiliser. Or le Code du travail prévoit que tout déploiement de solutions d’IA fasse l’objet d’une information-consultation du CSE.

Les élus doivent exiger un état des lieux complet : quels outils, pour quels usages, dans quels services, avec quel calendrier de déploiement. Cet inventaire doit être régulièrement mis à jour, car les technologies évoluent très rapidement.

Même le déploiement de Copilot sur la suite Office (Word, Excel, Powerpoint…) va avoir des conséquences importantes sur l’organisation du travail, les compétences, la productivité, la responsabilité…

3. Quels métiers sont les plus exposés ?

Tous les métiers ne sont pas affectés de la même manière. Les tâches répétitives et codifiées sont les plus directement menacées. Mais l’IA générative touche aussi des métiers intellectuels que l’on croyait protégés : analystes, assistantes, rédacteurs, développeurs, graphistes.

Une cartographie des métiers de l’entreprise au regard de leur exposition à l’IA permet d’identifier les priorités d’action. Les élus peuvent s’appuyer sur des grilles d’analyse reconnues, comme celle de Kai-Fu Lee, qui croise le niveau de relations humaines et le degré d’adaptabilité requis par chaque métier.

4. Quels sont les risques sur les conditions de travail ?

L’IA modifie profondément l’expérience de travail au quotidien. Parmi les risques identifiés par nos experts :

  • L’intensification du travail : quand l’IA prend en charge les tâches simples, le salarié se retrouve en prise permanente avec des tâches complexes, sans temps de respiration.
  • La pression sur la productivité : l’IA crée un nouvel étalon de référence. Ce que l’outil fait en dix minutes, le salarié ne peut plus prendre une heure pour le faire.
  • L’insécurité psychologique : la peur d’être remplacé, amplifiée par le discours médiatique, génère un niveau d’anxiété élevé, en particulier dans les métiers de l’économie de la connaissance.
  • La perte d’estime de soi : quand la machine produit plus vite et parfois mieux, la question du sens et de la valeur du travail humain se pose avec acuité.
  • Le risque de surveillance accrue : les outils d’IA permettent un suivi granulaire de l’activité qui peut dériver vers des formes de contrôle excessif.

5. Les salariés sont-ils préparés ?

Le niveau d’acculturation à l’IA varie considérablement d’un salarié à l’autre. Certains maîtrisent les outils et en comprennent les limites. D’autres les utilisent sans recul critique, ou les rejettent par méconnaissance.

Un questionnaire adressé à l’ensemble du personnel permet de mesurer cette réalité : connaissances du fonctionnement de l’IA, usages réels, craintes, attentes en formation. C’est un outil précieux pour le CSE, qui obtient ainsi une base factuelle pour mesurer les effets et anticiper une fracture entre ceux qui se l’approprie rapidement et les autres.

6. La réglementation protège-t-elle vraiment les salariés ?

Le cadre réglementaire existe : le RGPD protège les données personnelles et encadre les décisions automatisées (article 22), l’AI Act européen classe les systèmes d’IA par niveau de risque et impose des obligations renforcées pour les usages en ressources humaines.

Mais les limites sont réelles. Il est difficile de tracer les raisonnements dans les « boîtes noires » de l’IA, de garantir la souveraineté des données hébergées à l’étranger, de contrôler le consentement dans l’utilisation des données d’entraînement. Les élus doivent connaître ces failles pour formuler des exigences concrètes dans les négociations et limiter la responsabilité transférée aux salariés.

7. Quels leviers d’action pour le CSE ?

Les représentants du personnel disposent de plusieurs leviers :

  • Les informations-consultations obligatoires où la question de l’IA peut être abordée à plusieurs niveaux : dans les orientations stratégiques, dans le cadre d’un projet important modifiant les conditions de travail, dans le cadre de la situation économique et financière pour analyser les investissements, dans le cadre de la politique sociale pour anaticiper les parcours de carrière…
  • Le recours à l’expertise, financée par l’employeur dans le cadre légal, pour obtenir une analyse indépendante des impacts.
  • La négociation d’accords intégrant des engagements sur la formation, l’accompagnement au changement, la mise à jour du DUERP, la gouvernance éthique de l’IA.
  • Le suivi dans le temps, via des indicateurs réguliers et des points d’étape avec la direction.

L’objectif n’est pas de s’opposer au déploiement de l’IA, mais de négocier les conditions dans lesquelles il se fait, pour que les bénéfices soient partagés et les risques prévenus.

8. Comment structurer une démarche d’expertise ?

Une expertise efficace sur les impacts de l’IA se déroule en quatre temps : compréhension d’ensemble (analyse documentaire et entretiens avec les acteurs clés), enquête quantitative (questionnaire à tous les salariés), enquête qualitative (entretiens approfondis avec un échantillon représentatif), et synthèse avec préconisations opérationnelles.

La mise en place d’un Comité de suivi paritaire inscrit cette démarche dans un dialogue constructif, où les résultats sont partagés et les solutions co-construites.

L’IA, un sujet structurant pour le dialogue social

L’intelligence artificielle n’est ni une menace abstraite ni une simple évolution technique. C’est une transformation majeure qui touche à l’essence même du travail humain : son contenu, son sens, sa valeur. Les CSE qui s’emparent du sujet aujourd’hui ne font pas que remplir leur mission légale — ils construisent les conditions d’un déploiement de l’IA respectueux des salariés et, in fine, plus durable pour l’entreprise.

Comme nous le rappelons dans le Groupe Technologia depuis plus de 35 ans : on n’a jamais connu d’entreprise saine et pérenne sans un dialogue social équilibré. Face à l’IA, cette conviction n’a jamais été aussi pertinente.

Marc Chenais

Un article de Marc Chenais, Directeur Général du Groupe Technologia et spécialiste des question d’IA en entreprise.

Le Groupe Technologia accompagne les CSE dans leurs expertises sur les impacts de l’intelligence artificielle. Contactez-nous pour en savoir plus.