L’art et la science du prompting : comment dialoguer avec l’intelligence artificielle

Sommaire

SUIVEZ-NOUS SUR LINKEDIN

Des prompts efficaces nous permettent de transformer une simple question en un dialogue productif avec l'IA générative, libérant ainsi tout son potentiel. De l'OpenAI Cookbook aux masterclasses de Google, découvrez des stratégies, des exemples pratiques et des ressources pour éviter les résultats ambigus et optimiser les résultats.

Avec l’apparition et la diffusion des chatbots et autres outils d’intelligence artificielle générative, outre les nombreuses et profondes conséquences dans tous les domaines de notre vie professionnelle et personnelle, nous faisons l’expérience d’une nouveauté : nous pouvons communiquer en langage naturel non seulement avec d’autres êtres humains, mais aussi avec des machines.

Cette possibilité, qui devient une nécessité à mesure que l’IA générative se généralise, a remis un terme au premier plan : le prompt.

Ce terme vient du latin promptus (prêt, disponible) et, dans le domaine informatique, il était déjà utilisé pour désigner le symbole ou la ligne de commande qui signalait à l’utilisateur que le système était prêt à recevoir des instructions.

Avec la diffusion de l’intelligence artificielle générative, le terme a subi une évolution importante : d’un signal statique, simple demande d’entrée de la part du système d’exploitation, il est devenu une véritable instruction, souvent complexe et articulée, qui guide le modèle d’IA dans la génération de contenus originaux.

Le professeur Federico Cabitza, qui enseigne à l’université de Milan Bicocca et est expert en interaction homme-machine, donne la définition suivante du prompt dans le livret Intelligenza artificiale generativa (Intelligence artificielle générative) publié par le Corriere della sera :

« L’entrée initiale, la question, la demande, (littéralement) l’idée, qui est fournie par l’utilisateur au système d’IA afin que celui-ci génère une réponse pertinente, précise et adéquate ».

Prompting : une profession ou une compétence transversale ?

L’importance des prompts est soulignée par l’apparition de nouveaux profils professionnels et de nouvelles compétences tels que le prompt designer ou le prompt engineering.

Selon le rapport Design economy 2025 de la Fondation Symbola, les prompt designers – définis comme des professionnels spécialisés dans la création de prompts pour les modèles d’IA générative – font partie des profils les plus en vogue dans le domaine des nouveaux métiers du design.

L’ingénierie des invites, quant à elle, est plus qu’une profession, c’est une compétence transversale de plus en plus demandée, capable de faire la différence dans de nombreux secteurs professionnels. Un article récent paru dans le Wall Street Journal a en effet souligné que ce qui était considéré en 2023 comme l’un des rôles les plus prometteurs (et les plus rémunérateurs) dans le domaine de la technologie n’a jamais décollé en tant que profession.

Mais c’est précisément une compétence transversale que toute personne souhaitant mieux dialoguer avec l’IA générative devrait développer. Tous les experts en GenAI, et tous ceux qui l’ont utilisée au moins une fois, s’accordent en effet sur un point : la qualité et la structure de la prompt influencent directement la pertinence, la créativité et l’utilité du résultat produit.

L’importance d’une invite bien structurée : la leçon de Rory Flynn avec Midjourney

L’importance centrale de la commande dans la relation entre l’homme et la machine a également été soulignée récemment par Rory Flynn, l’un des plus grands experts en IA générative – plus précisément en matière d’outil de conversion texte-image Midjourney – appliquée au marketing.

Lors d’une intervention dans le cadre de l’AI WEEK 2025, Flynn a montré aux participants comment, en apprenant à structurer des invites efficaces, il est possible de libérer un flux créatif potentiellement infini.

Selon Flynn, les instructions fournies à la machine sont un véritable art. Il a partagé une règle générale : des invites claires et directes donnent des résultats clairs et directs, tandis que des invites ambiguës donnent des résultats ambigus.

Comment améliorer les invites ? L’importance d’une approche axée sur la communauté

Une fois que l’on a compris l’importance et le rôle central du prompting, la question est la suivante : comment améliorer les instructions fournies à l’IA générative ?

Il n’existe pas de réponse unique. L’IA générative est un domaine en constante évolution, à tel point que les approches pédagogiques traditionnelles (par exemple, un cours magistral, en présentiel ou en ligne) ne peuvent atteindre qu’un certain degré d’efficacité.

La clé semble plutôt résider dans la capacité des personnes à vouloir apprendre de manière continue et autonome. L’apprentissage continu et l’auto-apprentissage sont deux des piliers permettant de surfer sur la vague de la révolution de l’IA générative sans se faire submerger. Et l’efficacité de ces deux piliers augmente si l’expérience individuelle s’inscrit dans le cadre d’une communauté d’adoption et d’apprentissage de l’intelligence artificielle.

C’est l’approche communautaire qu’une entreprise comme Logotel, société de design indépendante, utilise tant en interne qu’avec ses clients, comme le montre par exemple l’étude de cas Dojo, communauté d’adoption de Microsoft Copilot développée pour Italgas.

Le Cookbook d’OpenAI et autres conseils pour une invite bien structurée

Comme nous venons de le voir, la pratique individuelle dans le cadre des communautés d’apprentissage en entreprise peut aider à affiner ses techniques de prompting. Et en ligne, on trouve de nombreuses ressources utiles pour comprendre, seul puis éventuellement en groupe, comment structurer des prompts efficaces. Ces ressources sont très souvent réalisées par les mêmes entreprises leaders dans le domaine de l’intelligence artificielle générative.

Qu’est-ce que le Cookbook d’OpenAI ?

Un exemple est l’OpenAI Cookbook, une collection open source de guides pratiques, d’exemples de code et de bonnes pratiques pour utiliser les modèles et les API d’OpenAI, la « mère » de ChatGPT.

Le référentiel est disponible sur GitHub et est régulièrement mis à jour par la communauté et l’équipe d’OpenAI. Il est particulièrement utile pour ceux qui veulent aller au-delà de la documentation de base et voir des implémentations concrètes de divers cas d’utilisation.

Parmi les contenus du Cookbook, certains sont consacrés au prompting. Le guide GPT 4.1 Prompting, par exemple, contient quelques conseils pour améliorer les résultats obtenus avec ce Llm, principalement utilisé pour la création d’agents. En voici quelques-uns :

  • transformer le modèle en un assistant proactif, en incluant trois instructions fondamentales : continuer jusqu’à ce que la tâche soit terminée (persévérance), toujours utiliser les outils disponibles au lieu d’improviser des réponses (appel d’outils) et planifier chaque action avant de l’exécuter (planification) ;
  • répéter les instructions importantes au début et à la fin : lorsque vous fournissez des documents longs ou des contextes complexes, le guide suggère d’insérer les indications principales à la fois au début et à la fin du texte ;
  • organiser les instructions comme un manuel d’utilisation : en créant des sections bien définies avec des titres clairs, des sous-catégories pour les détails et en incluant toujours des exemples pratiques. Si vous voulez que le modèle réponde d’une certaine manière, vous devez lui montrer exactement comment faire à l’aide d’exemples concrets ;
  • invitez le modèle à raisonner étape par étape (chaîne de pensée) : même s’il n’est pas spécialement conçu pour le raisonnement complexe, ajouter la phrase « D’abord, réfléchissez attentivement étape par étape » améliore considérablement la qualité des réponses dans les activités qui nécessitent une analyse approfondie.

Le guide résume ensuite ce à quoi pourrait ressembler une structure de prompt idéale :

  • Rôle et objectif
  • Instructions
  • Sous-catégories pour des instructions plus détaillées
  • Étapes de raisonnement
  • Format de sortie
  • Exemples
  • Exemple 1
  • Contexte
  • Instructions finales et invitation à réfléchir étape par étape

Un autre contenu utile publié dans le Cookbook est le Prompt Migration Guide, qui souligne un aspect à prendre en compte. À mesure que les modèles GenAI deviennent plus sophistiqués, il est nécessaire d’adapter les invites qui étaient initialement conçues pour les limitations des modèles précédents, en veillant à ce qu’elles restent efficaces et claires.

Comment tirer le meilleur parti des prompt sur Copilot

Une autre ressource utile pour les invites se trouve dans le service d’assistance de Microsoft et concerne Copilot. Ce dernier est un assistant virtuel conçu pour aider les utilisateurs dans diverses tâches et intégré à la suite M365.

Dans un article sur la manière d’affiner les requêtes pour obtenir de meilleurs résultats, il est souligné que les invites doivent comporter quatre parties : l’objectif, le contexte, les attentes et la source. Parmi les conseils fournis pour obtenir des résultats plus conformes à vos attentes, on trouve :

  • inclure des détails : en plus de l’objectif, vous devez indiquer à Copilot le contexte, expliquer comment il doit répondre pour satisfaire votre demande et préciser toute source d’information spécifique que Copilot doit utiliser ;
  • structurer les prompt en gardant à l’esprit que l’ordre des instructions peut influencer la réponse obtenue, et tester différents ordres pour comprendre leur impact (par exemple, si vous souhaitez que Copilot utilise des fichiers ou des sources spécifiques, vous pouvez essayer de placer ces informations en dernier) ;
  • donnez des instructions positives, car Copilot est conçu pour agir. Il est donc plus efficace de lui dire ce qu’il doit faire plutôt que ce qu’il ne doit pas faire.
  • répétez et régénérez : ne vous contentez pas du premier résultat obtenu, qui n’est souvent pas la meilleure réponse, mais revoyez votre demande et réessayez.
  • vérifiez et contrôlez toujours les réponses reçues, car comme tout autre LLM, Copilot peut être victime d’hallucinations.

La masterclass de prompt engineering de Google

Google a également publié diverses ressources en ligne sur la manière d’améliorer les invites afin d’obtenir des résultats plus efficaces avec l’IA générative. Parmi celles-ci, nous signalons une masterclass complète qui approfondit les techniques d’ingénierie des invites, notamment :

  • les invites zero-shot, one-shot et few-shot : c’est-à-dire des stratégies pour guider le modèle d’IA avec aucun, un ou quelques exemples dans l’invite elle-même ;
  • Prompting de système et de rôle (role prompting) : instructions qui définissent le comportement général et les contraintes de l’IA ;
  • ReAct : un cadre qui combine raisonnement et action pour permettre à l’IA d’interagir avec des outils externes.

En conclusion :

Le prompting est un art et une science, même s’il est empirique. Il existe différentes techniques et astuces pour formuler des requêtes claires aux outils d’intelligence artificielle, afin qu’ils fournissent des résultats et des réponses utiles et pertinents par rapport à ce que les gens demandent.

En règle générale, celle énoncée par Rory Flynn, expert chez Midjourney, lors de l’AI WEEK 2025, s’applique : des prompts clairs et directs génèrent des résultats clairs et directs, tandis que des prompts ambigus conduisent à des résultats ambigus.

Il faut bien sûr se tenir constamment à jour et s’entraîner, éventuellement à l’aide de méthodologies communautaires. Les évolutions rapides des systèmes d’intelligence artificielle peuvent faire que des invites efficaces avec un système précédent ne le soient plus avec le suivant, comme le souligne également OpenAI dans son guide de migration des invites.

De plus, les guides d’OpenAI rappellent qu’il n’existe pas de conseils valables pour toutes les situations : « L’ingénierie de l’IA est par nature une discipline empirique, et les modèles linguistiques de grande taille sont intrinsèquement non déterministes. »

En d’autres termes : il n’existe pas de formule magique qui fonctionne à tous les coups, il faut expérimenter au cas par cas, et ces modèles peuvent donner des réponses différentes même avec la même entrée.

Enfin, une recommandation un peu hors des sentiers battus : soyez professionnels et courtois. Il y a quelque temps, les « merci » et « s’il vous plaît » adressés à l’intelligence artificielle ont déclenché un débat sur le gaspillage des ressources économiques et énergétiques que ces politesses entraîneraient.

Sam Altman, d’OpenAI, est lui-même intervenu dans la discussion, admettant que son entreprise dépenserait des dizaines de millions de dollars en frais d’électricité à cause de ceux qui traitent les modèles ChatGPT avec gentillesse.

Cependant, comme l’explique Microsoft dans l’un des articles mentionnés précédemment, « l’utilisation d’un langage courtois améliore la réponse de Copilot ». Alors, faisons preuve de courtoisie : cela ne peut certainement pas nuire à la qualité de toutes nos relations, qu’il s’agisse de chatbots IA, d’animaux, de plantes ou d’êtres humains.

Autres articles