Denis Atlan accompagne les DRH et responsables QHSE pour déployer l'IA sans sacrifier la qualité de vie au travail (QVCT) ni violer l'AI Act. Conférences, formations Qualiopi, diagnostic DUERP et conseil QVCT à Lyon et partout en France.
En France, 59% des salariés ont été confrontés à au moins une situation de RPS en 2025. Parallèlement, 56% des salariés se retrouvent livrés à eux-mêmes face à l'IA, sans cadre ni formation. Ce n'est pas une coïncidence : l'IA déployée sans gouvernance dégrade la qualité de vie au travail (QVCT) et fragilise les conditions de travail. Denis Atlan est le seul consultant qui combine 200+ déploiements IA opérationnels et une démarche QVCT structurée pour accompagner les entreprises dans cette transition vers une IA respectueuse des conditions de travail et de la qualité de vie au travail.
La santé mentale est la Grande Cause Nationale 2025. 47% des salariés français sont en détresse psychologique (Empreinte Humaine). 59% des collaborateurs présentent des vulnérabilités personnelles — +17 points en 5 ans (Malakoff Humanis). Le gouvernement a lancé une Charte d'engagement pour la santé mentale au travail et déploie les formations PSSM (Premiers Secours en Santé Mentale) en entreprise.
76% des DRH estiment qu'un retard dans l'adoption de l'IA sera préjudiciable à leur compétitivité — et simultanément, 76% craignent la déshumanisation de leurs processus. Ce double blocage laisse les organisations sans gouvernance face aux risques QVCT réels. C'est exactement ce que qvct.ai résout.
La Qualité de Vie et des Conditions de Travail (QVCT) désigne l'ensemble des actions permettant de concilier amélioration des conditions de travail et performance globale de l'entreprise. Officialisée par l'ANI du 9 décembre 2020, elle succède à la QVT (Qualité de Vie au Travail) en recentrant la démarche sur le travail réel — et non plus sur les avantages périphériques.
En 2025, la santé mentale a été érigée en Grande Cause Nationale. L'article L.4121-1 du Code du travail impose à l'employeur de protéger la santé physique ET mentale de ses collaborateurs, sous peine de faute inexcusable.
La QVCT n'est pas un label ni une certification : c'est une obligation légale qui s'impose à tout employeur, renforcée par la loi du 2 août 2021 et le cadre européen AI Act.
Avec l'IA générative, la distinction QVT/QVCT devient critique. L'intelligence artificielle modifie profondément l'organisation du travail, la charge cognitive et les rapports sociaux — exactement les 6 dimensions QVCT définies par l'ANACT. Ignorer cette réalité, c'est exposer l'entreprise à un risque QVCT majeur.
DRH ou Responsable QHSE, vos angles d'approche sont différents. Les enjeux QVCT IA vous concernent tous les deux — mais pas de la même façon.
Partenaire stratégique au CODIR, le DRH de 2025 est pris en étau entre l'injonction de la direction à maximiser la productivité par l'IA et la nécessité de contenir l'hémorragie des talents dans un climat social électrique. 40% des DRH ont pour objectif prioritaire l'amélioration de l'expérience collaborateur — mais sans cadre QVCT IA structuré, ils naviguent à vue.
Un partenaire capable de traduire les enjeux IA en langage RH, social et légal — et de défendre le business case QVCT devant la direction générale.
Habitué aux audits (ISO 9001, ISO 14001, ISO 45001), au cycle PDCA et aux arbres des causes, le Responsable QHSE constate que ses méthodes traditionnelles sont devenues obsolètes face à la vitesse des transformations IA. Il voit l'IA comme un levier prédictif puissant — mais ne dispose pas des cadres méthodologiques pour analyser les nouveaux risques psychosociaux qu'elle génère.
Une méthodologie terrain pour cartographier les nouveaux risques IA, mettre à jour le DUERP et démontrer l'impact financier de la prévention à sa direction.
DRH et QHSE partagent une conviction commune : la protection globale du capital humain est la condition sine qua non de la performance durable de l'entreprise. C'est précisément l'espace où intervient Denis Atlan — un consultant qui parle le langage juridique et humain du DRH, tout en maîtrisant la rigueur analytique exigée par le QHSE. Un traducteur systémique entre la technologie et l'humain.
Comment articuler AI Act, DUERP et conditions de travail dans une approche QVCT IA cohérente.
Denis Atlan accompagne chaque étape — Diagnostic 72h · Formation Qualiopi · Conseil QVCT IA
Démarrer le parcoursLa demande en compétences IA a bondi de +245% en un an (Cornerstone OnDemand) — générant une anxiété d'obsolescence massive. Sans cadre de gouvernance, l'IA crée 4 risques QVCT majeurs documentés par les études 2025-2026.
L'IA élimine les tâches simples (respirations cognitives) et concentre l'activité humaine sur les décisions complexes. L'activité intellectuelle devient continue, sans temps de récupération cognitive.
42% des salariés utilisent l'IA via compte personnel faute de cadre. Stress de dissimulation, risque RGPD, délit d'entrave CSE. L'employeur perd toute visibilité sur les usages réels.
22% des salariés ressentent de la honte d'être félicités pour un travail produit par l'IA. Le rapport à la reconnaissance professionnelle est profondément dégradé.
56% des salariés se sentent livrés à eux-mêmes avec l'IA. 45% des moins de 35 ans délèguent une part majeure de leur travail à la machine, perdant le sens de leur contribution.
Ces 4 risques QVCT liés à l'IA doivent être évalués et consignés dans le DUERP selon la loi du 2 août 2021. L'article L.4121-1 du Code du travail impose à l'employeur de protéger la santé physique ET mentale. Le non-respect constitue une faute inexcusable.
L'intelligence artificielle crée une nouvelle catégorie de risques psychosociaux que la plupart des entreprises ne savent pas encore nommer, encore moins prévenir.
Le technostress IA désigne l'ensemble des réactions de stress, d'anxiété et d'épuisement générées par l'utilisation contrainte ou non maîtrisée des outils d'intelligence artificielle au travail. Il combine plusieurs facteurs : la peur de l'obsolescence professionnelle, la surcharge cognitive liée à des décisions plus complexes, la perte d'autonomie face aux recommandations algorithmiques et le sentiment de ne plus contrôler son propre travail.
Contrairement au technostress traditionnel (lié aux outils numériques en général), le technostress IA présente une dimension identitaire inédite : les salariés ne savent plus distinguer ce qui vient d'eux de ce que produit la machine. Ce brouillage de la frontière travail/IA est documenté chez 23% des salariés français en 2026 (OpinionWay).
L'IA supprime les tâches simples qui servaient de "respirations cognitives". Les salariés enchaînent les décisions complexes sans pauses. Résultat : épuisement mental accéléré, erreurs de jugement, burnout.
Le salarié est félicité pour un travail produit avec l'IA mais ressent de la honte ou un sentiment de tromperie. Il minimise sa contribution réelle. Ce phénomène touche particulièrement les moins de 35 ans.
La peur permanente d'être remplacé par l'IA. Même si elle est infondée, cette anxiété chronique génère du stress, de la distraction et une résistance passive aux outils déployés par l'entreprise.
Le salarié utilise des outils IA non approuvés (via compte personnel) et vit dans la peur d'être découvert. Ce stress de dissimulation s'ajoute au stress professionnel normal. 42% des salariés français sont dans ce cas — et 68% des organisations ont déjà subi des fuites de données liées à cette utilisation non encadrée.
Quand l'IA prend 30 à 50% des décisions à la place du salarié, le sentiment d'utilité et de contribution s'effondre. Le salarié ne sait plus pourquoi il vient travailler. C'est le décrochage silencieux.
Des agents conversationnels IA absorbent les plaintes et signaux de souffrance des collaborateurs sans déclencher la moindre action corrective. Soulagement éphémère, cynisme durable. La machine écoute, mais personne n'agit. Ce phénomène, identifié en 2025, dévitalise la démarche de prévention et isole encore davantage les salariés en difficulté.
Le technostress IA n'est pas une fatalité. Il se prévient par une gouvernance Human in the Loop, une charte d'usage IA, une formation managers et une mise à jour du DUERP.
Le technostress IA est un sujet émergent que nous documentons spécifiquement sur technostress.ai — la ressource dédiée à ce nouveau risque professionnel.
La QVCT n'est pas un coût. C'est un investissement dont le retour est documenté, chiffrable et défendable devant votre CODIR en 30 minutes.
Réduction moyenne avec une démarche QVCT structurée. Chaque jour d'absence = 300 à 500€ en coûts directs et indirects.
Gain de productivité des salariés dans un environnement de travail sain. Salariés heureux : 2× moins malades, 6× moins absents.
La réduction des RPS liés à l'IA diminue mécaniquement les accidents du travail et maladies professionnelles — et donc les cotisations AT/MP versées à l'URSSAF.
| Dimension | KPIs clés | Objectif |
|---|---|---|
| Adoption IA | Taux d'adoption effectif des outils IA Ressenti utilisateur net Heures de tâches manuelles éliminées |
Vérifier que l'IA est réellement appropriée et génère un gain mesurable |
| Vitalité QVCT | eNPS (Employer Net Promoter Score) Équilibre vie pro / vie perso Signaux faibles de démotivation |
S'assurer que le temps libéré par l'IA favorise la santé mentale, pas la surcharge |
| Prévention QHSE | Volume de signalements RPS technostress Taux d'accomplissement plans de prévention Scores prédictifs de risques IA |
Détecter les pathologies IA émergentes et garantir les obligations légales |
| Soutenabilité RH | Taux de rétention des talents à 12 et 24 mois Volume d'accès à la formation (upskilling IA) Taux de mobilité interne |
Sécuriser les collaborateurs dont les tâches sont hautement automatisables |
Source : Observatoire IA & RH (Mercer / ConvictionsRH, 2026) — ANDRH
*Estimation basée sur les données COHDA 2025, MIT/Harvard 2017 et Agence Européenne SST. Hors économies sur rotation du personnel et impact marque employeur.
Un salarié en technostress IA est 6× plus susceptible de s'absenter. Chaque jour d'absence coûte entre 300 et 500€ en coûts directs et indirects. La prévention coûte moins cher.
35% des salariés envisagent de quitter leur entreprise si elle déploie l'IA sans les protéger. Remplacer un salarié coûte entre 6 et 9 mois de salaire. La QVCT IA est un outil de rétention.
DUERP incomplet = faute inexcusable. AI Act non respecté = 15M€ d'amende. CSE non consulté = annulation du projet IA. La conformité QVCT IA protège l'entreprise juridiquement.
Le PST5 2026-2030 (Plan Santé au Travail) intègre l'IA comme priorité et ouvre de nouveaux axes de financement public.
6 textes fondamentaux que tout DRH et QHSE doit connaître pour piloter la transformation IA en conformité avec les obligations QVCT.
Obligation de l'employeur de protéger la santé physique et mentale. Non-respect = faute inexcusable.
DUERP obligatoire conservé 40 ans. Visite mi-carrière à 45 ans. Consécration légale de la QVCT.
Passage officiel QVT → QVCT. Recentrage sur le travail réel et les pratiques managériales.
Dès août 2026 : systèmes RH IA = haut risque. Supervision humaine obligatoire. Amendes jusqu'à 15M€ ou 3% CA.
TJ Nanterre janvier 2026 : tout déploiement d'IA modifiant les conditions de travail (QVCT) exige consultation préalable du CSE.
La CNIL impose : minimisation des données, anonymisation vérifiable, Privacy by Design. Tout déploiement IA traitant des données RH exige un DPO. 68% des organisations ont subi des fuites de données liées à l'IA non encadrée.
Référence scientifique des 6 familles de RPS. Base de tout diagnostic DUERP valide en France.
Loi n°2025-989 : négociation quadriennale obligatoire dès 300 salariés. Usure professionnelle, IA et maintien dans l'emploi. Visite de parcours professionnel à 60 ans.
Opérationnel depuis le 16 mars 2026 : saisie obligatoire de toutes les formations SST par l'employeur. Non-respect = risque pénal immédiat.
Décret n°2025-482 : nouvelles obligations pour les fortes chaleurs. Nouveau risque QHSE à intégrer dans le DUERP. Légifrance →
Le Document Unique d'Évaluation des Risques Professionnels doit intégrer les risques liés à l'intelligence artificielle. La loi du 2 août 2021 et l'AI Act vous y obligent. Voici comment faire.
Si votre DUERP n'intègre pas les risques liés à l'IA, il est juridiquement incomplet. L'article L.4121-1 du Code du travail oblige l'employeur à évaluer TOUS les risques pour la santé physique et mentale. L'IA génère des risques documentés : surcharge cognitive, technostress, Shadow IA, syndrome de l'imposteur.
Le règlement européen AI Act classe les systèmes IA RH comme à haut risque : recrutement algorithmique, évaluation des performances, suivi de productivité, systèmes de recommandation RH. Dès août 2026, la supervision humaine, la traçabilité et la documentation sont obligatoires. Votre DUERP doit l'anticiper dès maintenant.
Le Tribunal Judiciaire de Nanterre (janvier 2026) a confirmé l'obligation de consultation préalable du CSE avant tout déploiement d'outil IA modifiant les conditions de travail. Cette consultation doit s'appuyer sur un rapport d'impact QVCT — document que votre DUERP doit nourrir.
Intégrez ces 8 risques dans votre Document Unique selon la grille INRS (fréquence × gravité). Chaque risque doit être coté et associé à un plan d'action dans le PAPRIPACT.
| Risque IA identifié | Famille RPS (Gollac) | Signaux faibles | Action préventive DUERP |
|---|---|---|---|
| Surcharge cognitive (IA et charge mentale) | Intensité du travail | Erreurs en hausse, fatigue chronique, plaintes flux | EDT, régulation des flux IA, pauses cognitives |
| Shadow IA | Conflits de valeurs | Usage non déclaré, stress de dissimulation | Charte usage IA, cadre bienveillant, formation |
| Syndrome de l'imposteur IA | Exigences émotionnelles | Honte, dévalorisation, sentiment de tromperie | Espaces de parole, formation managers HITL |
| Anxiété d'obsolescence | Insécurité professionnelle | Peur de remplacement, résistance passive | Plan upskilling IA, communication transparente |
| IA et intensification du travail | Intensité + autonomie | Objectifs en hausse, sentiment de pression continue | Révision des objectifs, clause anti-intensification |
| IA et surveillance algorithmique | Rapports sociaux dégradés | Sentiment de contrôle permanent, méfiance | Transparence KPIs, consultation CSE, CNIL |
| Dépendance et perte d'autonomie | Manque d'autonomie | Incapacité à travailler sans l'IA, atrophie compétences | Alternance IA / travail autonome, formation |
| Illusion d'écoute IA | Rapports sociaux dégradés | Cynisme, défiance envers les outils RH IA | Canaux de signalement humains, EDT, feedback réel |
Source : Rapport Gollac (6 familles RPS) × 8 risques IA documentés — qvct.ai / Denis Atlan
Le règlement européen sur l'IA est entré en vigueur. Les entreprises qui utilisent l'IA dans leurs processus RH ont moins d'un an pour se mettre en conformité.
Tout système IA classé "à haut risque" dans les RH doit avoir un humain capable d'intervenir, de corriger ou d'arrêter le système à tout moment. Cela implique une formation spécifique des gestionnaires RH.
Chaque décision assistée par l'IA (recrutement, promotion, évaluation) doit être documentée et explicable. Le salarié a le droit de demander une explication humaine de toute décision automatisée le concernant.
Une analyse de risques formelle doit être réalisée avant tout déploiement d'IA RH à haut risque. Cette évaluation s'intègre naturellement dans la mise à jour de votre DUERP.
Le CSE doit être consulté et informé de manière substantielle avant tout déploiement d'IA affectant les conditions de travail. Le TJ Nanterre (janvier 2026) a confirmé cette obligation.
L'AI Act impose une obligation de formation pour les salariés qui utilisent ou supervisent des systèmes IA à haut risque. Cette formation obligatoire AI Act couvre les limites de l'IA, ses biais potentiels et les procédures de supervision humaine (Human in the Loop). Finançable OPCO via le Plan de Développement des Compétences — ENDKOO est certifié Qualiopi.
Jusqu'à 15 millions d'euros d'amende ou 3% du chiffre d'affaires mondial annuel pour les entreprises ne respectant pas les obligations AI Act sur les systèmes RH à haut risque.
Applicable dès maintenant — obligatoire pour août 2026
Faire l'audit completLes cabinets RH classiques offrent des diagnostics annuels basés sur des sondages déclaratifs. Avec l'IA, on passe d'une photographie à l'instant T à un flux continu de signaux faibles détectés avant la crise.
| Critère | Cabinet RH classique | qvct.ai — QVCT augmentée |
|---|---|---|
| Temporalité du diagnostic | Annuel ou bi-annuel — photographie statique | Flux continu — analyse en temps réel des signaux faibles |
| Méthode de collecte | Sondages déclaratifs, entretiens chronophages, survey fatigue | Diagnostic terrain 72h, analyse multi-sources, détection Shadow IA |
| Profondeur d'analyse | Descriptive — symptômes évidents | Causale — déterminants organisationnels profonds + risques IA |
| Délai de résultats | Plus d'un mois, consolidation manuelle | Rapport en 72h, plan d'action en 30 jours |
| Intégration DUERP + AI Act | Rarement intégrée — manque d'expertise IA | Systématique — DUERP mis à jour, conformité AI Act incluse |
| Gouvernance Shadow IA | Non traité — hors périmètre RH classique | Cartographiée, encadrée, charte d'usage co-construite avec le CSE |
| Financement | Budget conseil RH — non finançable OPCO | Formation Qualiopi finançable OPCO jusqu'à 100% |
La méthode Centaure est le principe fondateur de qvct.ai : hybridation optimale entre l'intelligence émotionnelle humaine et la puissance analytique de l'IA. L'algorithme détecte les signaux faibles et oriente l'intervention. L'expert humain intervient là où la machine ne peut pas aller : l'empathie, le dialogue social, le jugement contextuel.
L'IA ne remplace pas l'écoute humaine — elle en est le prérequis. En automatisant l'analyse des données et la détection des risques, elle restitue aux DRH et QHSE la ressource la plus précieuse : le temps disponible pour l'humain.
Formé ANACT — Formateur Qualiopi — Expert Commission Européenne IA
Comprendre les impacts réels de l'IA sur les conditions de travail, identifier les risques et co-construire une approche centrée sur l'humain.
Maîtrisez le cadre AI Act, déployez une gouvernance IA centrée sur les droits des salariés et sécurisez votre conformité réglementaire.
Formation certifiante finançable OPCO pour intégrer l'IA dans votre DUERP, prévenir les RPS et piloter la transition numérique.
Audit express en 72 h : cartographie des usages IA, identification des tensions RPS, rapport complet et plan d'action opérationnel.
Mission sur-mesure : gouvernance IA, prévention RPS, engagement salarié. Résultats mesurables sous 30 jours.
Journée immersive pour l'équipe dirigeante : alignement stratégique, gouvernance IA, feuille de route QVCT 2026.
Des interventions conçues pour déployer l'IA en protégeant vos collaborateurs et vos conditions de travail.
Audit flash 72h des impacts de l'IA sur vos conditions de travail (QVCT). Identification des zones de friction, surcharge cognitive, shadow IA.
Mise en place d'un cadre de gouvernance IA centré sur l'humain pour protéger la QVCT. Règles d'usage, formation, protocoles de supervision pour un déploiement IA respectueux des conditions de travail.
Acculturation IA pour acteurs RH et managers. Comprendre, cadrer et piloter l'IA pour préserver la qualité de vie au travail (QVT/QVCT) et les conditions de travail des équipes.
Intégration de l'IA comme levier QVCT. Réduction des tâches pénibles, amélioration des conditions de travail (QVCT) par l'automatisation choisie.
Identification et traitement des risques psychosociaux (RPS) liés au déploiement IA : technostress, shadow IA, syndrome de l'imposteur, perte de sens. Mise à jour DUERP et démarche QVCT préventive.
Interventions sur mesure pour CODIR, CSE, équipes RH sur l'impact de l'IA sur le travail et les conditions de travail (QVCT).
Une combinaison unique de compétences IA opérationnelles et QVCT pour accompagner votre transformation.
Les données qui justifient une démarche QVCT à l'ère de l'IA. Le déploiement de l'IA sans gouvernance humaine a un coût humain et financier mesurable sur la qualité de vie au travail et les conditions de travail.
4 étapes pour passer de l'idée à la valeur — sans gaspillage, sans faux départ.
Audit 72h impacts IA sur conditions de travail (QVCT).
Charte, règles d'usage, supervision humaine.
Intégration RPS IA dans le DUERP, formation managers.
Documentation systèmes RH haut risque, consultation CSE.
Auteur de "IA Sans Bullshit 2026" (249 pages, 4.9/5, 150+ avis) et "Génération Algorithme" (342 pages, 4.8/5) — tous deux déposés à la BNF — Denis Atlan est conférencier IA (70+ interventions documentées) et Fractional CAIO via humaloop.fr.
Fondateur d'ENDKOO (organisme de formation certifié Qualiopi, financement OPCO), DPO certifié et Expert enregistré à la Commission Européenne (EX2026D1368382, ORCID : 0009-0007-0785-7305), il défend depuis 20 ans le principe « Human in the Loop » : l'IA au service de l'humain, jamais à sa place.
En 2026, il complète sa formation ANACT "Piloter une démarche QVCT" pour structurer son offre à l'intersection de l'IA opérationnelle et de la qualité de vie et des conditions de travail. Il est également membre du Conseil d'Innovation du Crédit Mutuel et membre actif BNI Hermès Partners à Lyon.
Écosystème
La Qualité de Vie et des Conditions de Travail (QVCT) désigne les actions conciliant amélioration des conditions de travail et performance collective. Officialisée par l'ANI du 9 décembre 2020, la QVCT succède à la QVT en recentrant la démarche sur le travail réel, les pratiques managériales et les conditions de travail effectives.
La QVT (2013) portait sur le bien-être périphérique au travail. La QVCT (2020) traite des conditions de travail réelles, de la charge cognitive, du sens et des pratiques managériales. À l'ère de l'IA, la démarche QVCT intègre désormais les risques liés aux outils numériques.
Oui. L'IA génère de nouveaux risques psychosociaux (technostress, surcharge cognitive, perte d'autonomie, stress algorithmique) qui impactent directement la qualité de vie au travail (QVCT) et doivent figurer dans le DUERP selon la loi du 2 août 2021. Une démarche QVCT proactive est indispensable.
Le rapport Gollac (2011) est la référence scientifique française sur les risques psychosociaux (RPS) et les conditions de travail. Il identifie 6 familles de facteurs de RPS. Toute démarche DUERP et toute politique QVCT sérieuse s'appuient sur ce référentiel pour évaluer l'impact de l'IA sur la qualité de vie au travail.
Oui. Le Tribunal Judiciaire de Nanterre (janvier 2026) a confirmé l'obligation de consultation préalable du CSE pour tout déploiement d'outil IA modifiant les conditions de travail et la QVCT. Cette consultation doit s'accompagner d'une évaluation d'impact sur la qualité de vie au travail.
L'AI Act européen classe les systèmes RH intégrant l'IA comme "à haut risque". Ses implications QVCT sont majeures : dès août 2026, supervision humaine, traçabilité et documentation sont obligatoires pour tout outil IA impactant les conditions de travail. Sanctions : jusqu'à 15M€ ou 3% du CA mondial.
42% des salariés utilisent des outils IA via leur compte personnel faute de cadre interne. Ce phénomène de shadow IA génère du technostress, un stress de dissimulation, des risques RGPD et fragilise durablement les conditions de travail et la QVCT de l'organisation.
En 4 étapes : (1) Diagnostic QVCT des impacts IA sur les conditions de travail → (2) Gouvernance Human in the Loop pour protéger la qualité de vie au travail → (3) Prévention RPS, mise à jour DUERP → (4) Conformité AI Act et consultation CSE. La démarche QVCT doit être co-construite avec les salariés.
Les études Harvard/MIT montrent que les salariés dans un environnement QVCT favorable sont 2x moins malades, 6x moins absents et 9x plus loyaux. L'absentéisme lié à de mauvaises conditions de travail coûte en moyenne 3 500€ par salarié et par an — dont 99% est compressible grâce à une démarche QVCT active.
Human in the Loop (HITL) est un principe de gouvernance IA qui maintient l'humain comme décideur final. Appliqué à la QVCT, il garantit que l'IA est au service de la qualité de vie au travail et des conditions de travail — et non l'inverse. C'est le fondement de toute démarche QVCT responsable à l'ère de l'IA.
Le technostress IA désigne l'ensemble des réactions de stress, d'anxiété et d'épuisement générées par l'utilisation contrainte ou non maîtrisée de l'IA au travail. Il combine surcharge cognitive, peur de l'obsolescence professionnelle, syndrome de l'imposteur IA et perte de sens. C'est la nouvelle frontière des risques psychosociaux en entreprise. 23% des salariés français sont touchés en 2026.
L'AI Act classe comme systèmes à haut risque dans les RH : la présélection de CV par algorithme, l'évaluation automatique des performances, le suivi de productivité par IA, les outils de recommandation RH (promotions, mobilités). Pour chacun : supervision humaine, traçabilité et consultation CSE obligatoires dès août 2026. Amendes jusqu'à 15M€ ou 3% du CA mondial en cas de non-conformité.
La Shadow IA se prévient en 3 étapes : 1) Cartographier les usages IA existants via un diagnostic terrain. 2) Légitimer les usages pertinents avec une charte d'usage IA et des outils validés. 3) Former les managers à créer un cadre bienveillant où les salariés déclarent leurs usages sans crainte. L'objectif est de transformer la Shadow IA en usage transparent et maîtrisé, éliminant le stress de dissimulation.
Une charte d'usage IA définit les règles d'utilisation de l'IA par les salariés : outils autorisés, données ne devant pas être partagées avec une IA externe (données personnelles, secrets d'affaires), obligations de relecture humaine. Elle n'est pas légalement obligatoire mais fortement recommandée par l'ANACT et le Ministère du Travail. Sa co-construction avec le CSE renforce son appropriation et évite le délit d'entrave.
Les KPI QVCT IA incluent : taux d'usage IA déclaré vs réel (détection Shadow IA), niveau de stress perçu avant/après déploiement IA, taux d'absentéisme par équipes exposées, nombre d'alertes RPS liées aux outils numériques, sentiment de contrôle sur son propre travail. Ces indicateurs complètent les 6 dimensions du référentiel ANACT pour former un tableau de bord QVCT 2.0 adapté à l'ère de l'IA.
Oui. ENDKOO est certifié Qualiopi — condition obligatoire pour tout financement OPCO. Les formations QVCT IA sont éligibles au Plan de Développement des Compétences (PDC). OPCO concernés selon secteur : Atlas, Constructys, AFDAS, AKTO, Opco2i, OCAPIAT. Délai de traitement : 15 à 30 jours. Denis Atlan accompagne le montage du dossier de financement.
Oui, et les PME sont souvent plus vulnérables que les grandes entreprises. Elles déploient l'IA plus vite (moins de processus de validation), ont moins de ressources RH pour gérer les impacts humains et leurs salariés sont exposés sans filet. L'obligation DUERP s'applique dès 1 salarié. L'AI Act s'applique à toutes les entreprises utilisant des systèmes IA à haut risque, quelle que soit leur taille. Les offres qvct.ai sont spécifiquement adaptées aux PME et ETI.
Le bien-être au travail est une notion large couvrant le confort et l'ambiance. La QVCT IA est une démarche structurée, légalement encadrée (ANI 2020, Loi 2021, AI Act), centrée sur le travail réel et ses conditions d'exécution face à l'IA. Elle ne traite pas le baby-foot ou le yoga : elle traite la charge cognitive, l'autonomie réelle, le sens du travail et la protection contre les risques spécifiques de l'IA. C'est une obligation légale, pas un programme de confort.
La préparation du CSE à l'IA passe par 3 actions : 1) Une formation des élus sur les enjeux IA, l'AI Act et leurs nouvelles prérogatives de consultation (TJ Nanterre 2026). 2) La mise en place d'un protocole de consultation préalable à tout déploiement IA. 3) L'intégration des risques IA dans les bases de données économiques et sociales (BDESE) et dans les travaux de la CSSCT. Denis Atlan propose des conférences spécifiques pour les membres de CSE.
La méthode qvct.ai en 4 étapes : 1) Diagnostic 72h — cartographier les usages IA réels, identifier les zones de friction et Shadow IA, évaluer les RPS existants. 2) Gouvernance — co-construire une charte d'usage IA avec le CSE, définir les règles Human in the Loop. 3) Prévention — former les managers, mettre à jour le DUERP, créer des espaces de parole sur le travail réel. 4) Conformité AI Act — documenter la supervision humaine, anticiper les obligations 2026. Chaque étape peut être une intervention séparée ou un accompagnement global.
Tous les éléments de cette page s'appuient sur des sources vérifiables et publiques.
Chaque projet commence par une conversation. Décrivez votre enjeu et je vous recontacterai sous 24h pour un premier échange — sans engagement.