Résistance ou confiance envers l’IA ? Comment passer de l’angoisse technologique à l’autonomisation

Sommaire

SUIVEZ-NOUS SUR LINKEDIN

Malgré un optimisme croissant envers l'intelligence artificielle, ces technologies suscitent encore des craintes et des résistances. Avec les bonnes stratégies, il est possible de transformer l'anxiété technologique en autonomisation.

L’intelligence artificielle a fait une entrée rapide et, dans certains cas, disruptive dans la vie des entreprises et des individus. En quelques années, les outils basés sur l’IA générative, l’analyse prédictive et l’automatisation intelligente sont passés du stade de prototypes expérimentaux à celui de solutions opérationnelles largement déployées, tant à l’intérieur qu’à l’extérieur des entreprises.

Pourtant, malgré le potentiel évident et une augmentation prudente de la confiance et de l’intérêt pour l’intelligence artificielle, de nombreuses organisations sont encore confrontées à un obstacle silencieux mais puissant : la résistance à l’IA de la part de certaines personnes.

Adopter l’intelligence artificielle signifie changer sa façon de travailler, de prendre des décisions, d’interagir avec ses collègues et ses outils. Cela signifie accepter que certaines tâches puissent être automatisées, que de nouvelles compétences deviennent nécessaires, que le rôle de chacun évolue. Et cela génère naturellement de l’anxiété.

L’objectif de cet article est, à partir des données les plus récentes sur la confiance des personnes dans l’IA, d’explorer les racines de cette résistance, d’en comprendre les dynamiques psychologiques et organisationnelles, et surtout d’indiquer des stratégies concrètes pour transformer la peur en opportunité, l’insécurité en croissance, la résistance en autonomisation.

L’optimisme envers les produits et services liés à l’IA augmente

L’une des conclusions les plus intéressantes du dernier rapport Artificial Intelligence Index de l’université de Stanford concerne la légère augmentation de l’optimisme des gens à l’égard des produits et services d’intelligence artificielle.

L’édition 2025 du rapport, qui offre l’un des aperçus les plus complets de l’état de l’art en matière d’IA, explique qu’à l’échelle mondiale, la proportion de personnes qui considèrent les produits et services d’IA comme plus bénéfiques que nuisibles est passée de 52 % en 2022 à 55 % en 2024.

Toutefois, comme le rappellent Yolanda Gil et Raymond Perrault, co-directeurs du rapport, « la confiance reste un défi important » pour l’IA et les questions liées à l’impact environnemental, à la désinformation, à l’équité de ces technologies et aux préjugés (biais) qui les alimentent restent ouvertes.

L’institut de recherche Ipsos fait également état d’un « optimisme prudent », non seulement à l’égard des nouvelles technologies, mais aussi à l’égard de l’évolution générale en 2025, dans son Ipsos Predictions Survey 2025, qui analyse spécifiquement l’une des principales craintes liées à l’IA : la crainte qu’elle ne vole le travail de nombreuses personnes.

Globalement, souligne Ipsos, cette crainte continue de dépasser les attentes en matière de création d’emplois grâce à l’IA, avec un pourcentage de 65 % contre 43 %.

Les origines de la résistance : peur, désorientation et manque de contrôle

Les données présentées dans le paragraphe précédent montrent clairement que, malgré une légère augmentation de la confiance et de l’optimisme à l’égard des impacts de l’IA, des résistances et des inquiétudes persistent. Pourquoi ?

Toute transformation profonde génère inévitablement une certaine forme de résistance. Dans le cas de l’IA, cette réaction est particulièrement intense car elle touche à des aspects identitaires et professionnels très profonds. Il ne s’agit pas simplement « d’apprendre à utiliser un nouvel outil », mais d’être confronté à une technologie qui promet de faire certaines choses mieux que nous.

La première forme de résistance est liée, comme nous l’avons déjà souligné, à la peur de perdre son emploi. De nombreux professionnels craignent que l’intelligence artificielle ne rende leur rôle superflu, déclenchant une spirale de remplacement plutôt que de collaboration. Même lorsque l’entreprise affirme vouloir utiliser l’IA pour soutenir les personnes, la crainte sous-jacente peut rester vive et conditionner l’approche.

En réalité, comme l’explique également le rapport Future of Jobs 2025 du Forum économique mondial, l’impact de l’IA sera probablement plus transformateur que substitutif : la plupart des emplois ne seront ni supprimés, ni créés de toutes pièces par l’IA, mais transformés par ces technologies.

La deuxième forme de résistance est de nature cognitive : la désorientation. Face à une technologie qui évolue si rapidement, il est facile de se sentir mal préparé, inadéquat, exclu. Les concepts techniques peuvent sembler trop complexes, les interfaces trop différentes, le langage trop éloigné. Dans ces cas, la résistance naît d’un sentiment de distance et d’incompréhension.

Enfin, il existe une résistance liée au sentiment de contrôle. L’IA, par nature, suggère, automatise, prend des initiatives. Cela peut donner aux gens le sentiment d’être moins protagonistes, moins importants, moins libres d’exercer leur propre jugement. Même lorsque la technologie est utile, si son fonctionnement n’est pas clair, elle peut susciter la méfiance ou le rejet.

La résistance comme symptôme et comme ressource

Il est important de ne pas diaboliser la résistance. Elle est souvent considérée comme un obstacle à éliminer le plus rapidement possible. En réalité, elle peut être un indicateur précieux. Elle révèle les domaines dans lesquels l’organisation doit se renforcer, ceux où la communication fait défaut, ceux où les personnes ont le sentiment de ne pas disposer des outils nécessaires pour faire face au changement.

Traiter la résistance avec superficialité, par exemple en imposant l’adoption de l’IA par la hiérarchie ou en reléguant la formation à une question technique, revient à passer à côté d’une opportunité. Au lieu d’être un simple obstacle, la résistance peut devenir un point de départ. Elle peut aider à construire des parcours d’adoption plus humains, plus durables, plus efficaces.

Reconnaître la résistance, l’écouter, l’interpréter, c’est la première étape pour la transformer. C’est la seule façon d’accompagner véritablement le changement et de passer d’une logique de conformité à une logique d’implication.

Stratégie et culture : créer un environnement propice à l’adoption

Pour surmonter la résistance à l’IA, il faut bien plus qu’une campagne d’information ou quelques heures de formation. Il faut créer un environnement psychologiquement sûr, dans lequel les gens se sentent autorisés à poser des questions, à exprimer leurs doutes, à expérimenter sans crainte de se tromper.

Ce type de culture ne s’improvise pas. Elle se construit jour après jour, grâce à la cohérence des messages, à l’exemple donné par les dirigeants et à la qualité des conversations. Si les managers sont les premiers à faire preuve d’ouverture d’esprit envers la technologie, s’ils admettent leurs incertitudes et impliquent leurs équipes dans l’expérimentation, le climat change. L’IA n’est plus perçue comme une menace imposée, mais comme une opportunité à explorer ensemble.

De plus, il est important que l’intelligence artificielle soit toujours contextualisée. Elle ne doit pas être présentée comme une panacée ou une entité abstraite, mais ancrée dans la réalité opérationnelle des personnes. Il doit être clair ce qu’elle résout, comment elle s’intègre dans le travail quotidien, quels avantages concrets elle apporte, quelles sont ses limites. Comprendre ce qu’elle peut faire et ce qu’elle ne peut pas faire, ou ce qu’il vaut mieux qu’elle ne fasse pas, comme l’explique également un article de l’expert en IA et professeur à l’université de Wharton, Ethan Mollick.

La formation comme levier de confiance, pas seulement de compétence

L’une des erreurs les plus courantes dans la lutte contre la résistance à l’IA consiste à considérer la formation comme un simple acte informatif. En réalité, apprendre quelque chose de nouveau, surtout si cela est perçu comme potentiellement menaçant, est avant tout un processus émotionnel.

Les gens doivent sentir qu’ils peuvent apprendre, qu’il est normal de ne pas tout comprendre immédiatement, que personne n’attend d’eux une compétence technique complète. Il faut une approche de la formation qui soit progressive, modulaire, pratique, mais surtout inclusive. Elle doit valoriser le point de départ de chacun, reconnaître les difficultés, accompagner avec des exemples concrets.

Former à l’IA signifie également entraîner la capacité à interagir avec des systèmes intelligents, à juger de manière critique les résultats, à demander l’intervention humaine lorsque cela est nécessaire. Il s’agit d’une éducation à l’utilisation consciente et responsable, plutôt qu’à l’utilisation technique. Et ce type d’éducation génère de la confiance, pas seulement des compétences.

Participation active et protagonisme généralisé

La résistance diminue lorsque les personnes ont le sentiment de pouvoir participer au changement de manière efficace et durable dans le temps, c’est-à-dire lorsque des processus d’adoption efficaces sont mis en place. Impliquer activement les équipes dans l’expérimentation de l’IA est l’un des leviers les plus puissants pour transformer la perception de la nouveauté. Il ne s’agit pas nécessairement d’être un « early adopter », mais d’avoir un espace où tester, proposer, critiquer, améliorer.

Les communautés internes peuvent jouer un rôle fondamental dans ce processus. Elles peuvent devenir des lieux où échanger des expériences et des bonnes pratiques, discuter de suggestions, raconter des succès ou des petits échecs. Un exemple concret est le Dojo, une communauté d’adoption de l’IA, plus précisément de Microsoft Copilot, conçue et développée par la société de design indépendante Logotel pour ses clients.

Au sein de ces communautés, plus que des experts, il faut des facilitateurs capables de créer un espace de confrontation et d’apprentissage mutuel. Dans ce contexte, le rôle des managers est de faciliter. De reconnaître les efforts, de donner de la visibilité aux cas d’utilisation, de stimuler la curiosité. Lorsque l’adoption de l’IA devient une histoire collective, dans laquelle chaque personne a un rôle et une contribution possible, l’autonomisation s’active spontanément.

De la résistance à l’autonomisation : une transition culturelle

Surmonter la résistance à l’IA ne signifie pas seulement « convaincre » les gens d’accepter la technologie. Cela signifie les accompagner dans un processus de réappropriation de leur rôle dans le nouveau contexte. L’objectif n’est pas de s’adapter passivement, mais de trouver de nouvelles façons d’exprimer ses compétences, sa créativité, sa valeur.

Lorsque les gens comprennent que l’IA peut les libérer des tâches répétitives, qu’elle peut amplifier leur impact, qu’elle peut les aider à mieux faire ce qu’ils aiment, une motivation authentique naît. L’autonomisation n’est pas le résultat d’un changement imposé, mais le fruit d’une transformation partagée.

Cela demande du temps, de l’écoute, de la confiance. Mais surtout, cela demande une vision : l’intelligence artificielle non pas comme un substitut, mais comme une extension, un plus qui amplifie les capacités des personnes et des communautés. L’IA n’est pas une fin, mais un moyen. Ce n’est pas une menace, mais une occasion d’évoluer ensemble.

En conclusion

Toute grande innovation s’accompagne de résistances. C’est physiologique. Mais c’est dans la manière dont on aborde ces résistances que se joue le succès de la transformation. Pour s’intégrer véritablement dans la culture d’entreprise, l’intelligence artificielle doit être comprise, contextualisée, humanisée.

Il ne sert à rien de forcer les choses. Il faut construire. Un contexte de confiance, un discours crédible, un leadership cohérent, une formation accessible, une participation généralisée. Lorsque ces éléments se combinent, la résistance se transforme en énergie. Et l’anxiété initiale laisse place à l’envie d’explorer.

Car en fin de compte, surmonter la résistance à l’IA n’est pas un problème technique, mais un défi profondément humain. Et comme tous les défis humains, il se relève avec empathie, patience, écoute et vision commune.

Autres articles