58 méthodes pour bien parler à ChatGPT (L'art de Prompter)

Cet article explore 58 techniques de prompting utilisées pour interagir efficacement avec les modèles d’intelligence artificielle générative, en illustrant chaque méthode avec un exemple pratique. Ces techniques permettent d’améliorer la précision, la créativité, et l’efficacité des réponses fournies par les modèles IA.

Content

·

10 min

58 méthodes pour bien parler à ChatGPT
  1. Few-Shot Prompting : apprendre avec peu d’exemples

    Fournir quelques exemples pour montrer au modèle comment réaliser une tâche.

Exemple :
Prompt :

• Q : Quel est le pluriel de “chien” ? R : Chiens.
• Q : Quel est le pluriel de “chat” ? R : Chats.
• Q : Quel est le pluriel de “oiseau” ?

Réponse du modèle : Oiseaux.


  1. Zero-Shot Prompting : répondre sans exemple

    Formuler une question ou une requête sans fournir d’exemples explicites.

Exemple :
Prompt :
« Quel est le capital de l’Italie ? »

Réponse du modèle : Rome.


  1. Chain-of-Thought (CoT) : réflexion étape par étape

    Encourager le modèle à décomposer son raisonnement pour arriver à une réponse précise.

Exemple :
Prompt :
• Q : Si un gâteau coûte 5 euros et que Julie en achète 4, combien dépense-t-elle ? Pensons étape par étape.

Réponse : Un gâteau coûte 5 euros. Julie achète 4 gâteaux. Donc, elle dépense 5 x 4 = 20 euros.


  1. Zero-Shot CoT : penser étape par étape sans exemple

    Ajouter une phrase incitative pour guider le modèle dans une réflexion logique, sans utiliser d’exemples.

Exemple :
Prompt :
« Combien de jours y a-t-il en 3 semaines ? Pensons étape par étape. »

Réponse : Une semaine contient 7 jours. Donc, 3 semaines contiennent 3 x 7 = 21 jours.


  1. Tree-of-Thoughts : explorer plusieurs solutions

    Construire un raisonnement en branches, tester plusieurs hypothèses, et choisir la plus pertinente.

Exemple :
Prompt :
« Planifiez un itinéraire pour visiter 4 villes (Paris, Lyon, Marseille, Bordeaux). Explorez plusieurs options. »

Réponse :
• Option 1 : Paris → Lyon → Marseille → Bordeaux.
• Option 2 : Bordeaux → Marseille → Lyon → Paris.
Conclusion : Option 1 minimise les distances.


  1. Self-Consistency : vérifier plusieurs réponses pour choisir la meilleure

    Poser la même question plusieurs fois avec des variations dans le raisonnement pour sélectionner la réponse la plus fréquente.

Exemple :
Prompt :
« Résolvez 12 x 13 en pensant étape par étape. »

Réponse 1 : 12 x 13 = (12 x 10) + (12 x 3) = 120 + 36 = 156.
Réponse 2 : 12 x 13 = (10 x 13) + (2 x 13) = 130 + 26 = 156.
Conclusion : 156 est la réponse correcte.


  1. Decomposed Prompting : résoudre un problème en sous-problèmes

    Diviser une question complexe en plusieurs sous-tâches gérables.

Exemple :
Prompt :
« Planifiez un mariage. Décomposez les étapes principales. »

Réponse :
• Étape 1 : Choisir une date.
• Étape 2 : Réserver un lieu.
• Étape 3 : Préparer la liste des invités.


  1. Role Prompting : assigner un rôle spécifique au modèle

    Demander au modèle d’agir comme un expert dans un domaine particulier.

Exemple :
Prompt :
« Vous êtes un nutritionniste. Quels conseils donneriez-vous pour une alimentation équilibrée ? »

Réponse : Consommez des légumes, évitez les sucres raffinés, et buvez beaucoup d’eau.


  1. Style Prompting : personnaliser le ton et le style

    Permet de générer un contenu dans un style particulier, comme formel, humoristique ou poétique.

Exemple :
Prompt :
« Rédigez une lettre formelle annonçant une réunion d’équipe. »

Réponse :
“Cher(e) collègue,
Nous avons le plaisir de vous inviter à une réunion qui se tiendra le [date]. Cordialement.”


  1. Program-of-Thoughts (PoT) : raisonner avec des étapes codées

    Utiliser des instructions basées sur du code ou des algorithmes pour résoudre des tâches complexes.

Exemple :
Prompt :
« Écrivez un programme qui calcule la somme des nombres de 1 à 10. »

Réponse :
somme = sum(range(1, 11))
print(somme)


  1. Memory-of-Thought (MoT) : utiliser des exemples précédents comme mémoire

    Récupérer des exemples similaires dans une base de données ou une mémoire pour guider la réponse.

Exemple :
Prompt :
« Résolvez 15 x 14. »

Réponse : “Je me base sur l’exemple précédent (12 x 13 = 156). Donc, 15 x 14 = 210.”


  1. Self-Verification : vérifier la cohérence de la réponse

    Faire valider ou recalculer une réponse par le modèle lui-même.

Exemple :
Prompt :
« Vérifiez si votre réponse à 12 x 13 = 156 est correcte. »

Réponse : “Recalcul : 12 x 13 = (12 x 10) + (12 x 3) = 120 + 36 = 156. Correct.”


  1. Active Prompting : améliorer la précision via des incitations

    Demander des ajustements ou des confirmations pendant l’interaction.

Exemple :
Prompt :
“Pouvez-vous confirmer que votre réponse à la question précédente est exacte ?”

Réponse : “Après vérification, ma réponse est correcte.”


  1. Analogical Prompting : utiliser des analogies pour guider la compréhension

    Comparer un problème à un autre pour faciliter la résolution.

Exemple :
Prompt :
« Expliquez l’électricité comme si c’était de l’eau circulant dans des tuyaux. »

Réponse : “L’électricité est comme de l’eau. Les câbles sont les tuyaux, et les électrons sont les gouttes d’eau.”


  1. Reverse Chain-of-Thought (RCoT) : vérifier la réponse à rebours

    Demander au modèle de reconstruire le raisonnement en partant de la réponse finale.

Exemple :
Prompt :
“Si la réponse est 156, expliquez comment vous êtes arrivé à ce résultat pour 12 x 13.”

Réponse : “(12 x 10) + (12 x 3) = 120 + 36 = 156.”


  1. Zero-Shot Role Prompting : assigner un rôle sans exemple

    Orienter le modèle en précisant un rôle directement, sans fournir d’exemples préalables.

Exemple :
Prompt :
“Agissez comme un historien. Expliquez la Révolution française en 3 phrases.”

Réponse : “La Révolution française a commencé en 1789 pour renverser la monarchie absolue. Elle a établi les principes d’égalité et de liberté. Elle a conduit à des réformes majeures en France et en Europe.”


  1. Prompt Paraphrasing : reformuler la question pour varier les réponses

    Fournir une version alternative du même prompt pour explorer différentes réponses.

Exemple :
Prompt :
“Rédigez un résumé de cet article.”

Variation : “Pouvez-vous condenser les informations principales de cet article ?”


  1. Skeleton-of-Thought : établir une structure avant de répondre

    Demander au modèle de créer un cadre ou un plan avant de fournir la réponse finale.

Exemple :
Prompt :
“Planifiez les étapes pour écrire un roman.”

Réponse :
• Étape 1 : Choisir un thème.
• Étape 2 : Créer des personnages.
• Étape 3 : Développer un plan narratif.


  1. Contrastive Prompting : comparer deux options pour choisir la meilleure

    Poser une question en demandant une analyse comparative.

Exemple :
Prompt :
“Comparez les avantages des énergies solaires et éoliennes.”

Réponse : “L’énergie solaire est plus accessible pour les particuliers. L’énergie éolienne est plus efficace à grande échelle.”


  1. Self-Refine : améliorer une réponse déjà fournie

    Demander au modèle de relire sa propre réponse et de la peaufiner.

Exemple :
Prompt :
“Relisez votre réponse et améliorez-la pour plus de clarté.”

Réponse : “Je simplifie ma réponse : l’énergie solaire est économique et facile à installer. L’énergie éolienne est idéale pour les grandes productions.”


  1. Meta-CoT : combiner plusieurs raisonnement en chaînes (Chain-of-Thought)

    Mélanger plusieurs chaînes de raisonnement pour arriver à une conclusion finale.

Exemple :
Prompt :
“Donnez une estimation des revenus mensuels si une boulangerie vend 200 baguettes par jour à 1 euro chacune.”

Réponse : “Chaîne 1 : Une baguette coûte 1 euro. Ventes quotidiennes : 200 x 1 = 200 euros. Revenus mensuels : 200 x 30 = 6000 euros. Chaîne 2 : Vérifions : (200 x 30 jours) = 6000 euros. Résultat final : 6000 euros.”


  1. Plan-and-Solve : diviser un problème en plan et résolution

    Proposer un plan structuré avant de résoudre la question.

Exemple :
Prompt :
“Comment organiser une fête d’anniversaire réussie ?”

Réponse :
• Plan :

  1. Choisir un thème.

  2. Envoyer les invitations.

  3. Préparer le menu.

• Résolution : “Suivez ce plan étape par étape pour assurer le succès de votre fête.”


  1. Faithful Chain-of-Thought : intégrer des étapes symboliques et linguistiques

    Combiner langage naturel et logique symbolique dans le raisonnement.

Exemple :
Prompt :
“Calculez la somme des chiffres dans 123.”

Réponse : “1 + 2 + 3 = 6. Résultat : 6.”


  1. Ensembling : fusionner plusieurs réponses pour une meilleure précision

    Générer plusieurs réponses pour une même question et en sélectionner une par consensus.

Exemple :
Prompt :
“Quelle est la capitale de l’Allemagne ?”
Réponse 1 : “Berlin.”
Réponse 2 : “Berlin, capitale de l’Allemagne.”
Réponse finale : “Berlin.”


  1. Self-Criticism : évaluer et critiquer sa propre réponse

    Demander au modèle d’analyser les défauts potentiels de sa réponse.

Exemple :
Prompt :
“Analysez la validité de votre réponse précédente et améliorez-la.”

Réponse : “Ma réponse précédente manque de détails. Voici une version enrichie…”


  1. Prompt Mining : chercher les formats de prompts les plus performants

    Tester différentes formulations pour identifier celle qui donne les meilleurs résultats.

Exemple :
Prompt 1 :
“Expliquez les causes de la révolution industrielle.”
Prompt 2 : “Pourquoi la révolution industrielle a-t-elle eu lieu ?”

• Résultat : le Prompt 2 obtient une réponse plus complète.


  1. Vote-K : voter pour la réponse la plus représentative

    Collecter plusieurs réponses candidates et voter pour celle qui reflète le mieux la question posée.

Exemple :
Prompt :
“Décrivez les avantages du télétravail.”

• Réponses :

  1. “Gain de temps sur les trajets.”

  2. “Flexibilité accrue.”

  3. “Meilleur équilibre vie pro/vie perso.”

Réponse finale : “Toutes ces raisons sont valides et complémentaires.”


  1. Few-Shot Chain-of-Thought : fournir des exemples avec raisonnement structuré

    Ajouter des exemples illustrant un raisonnement détaillé.

Exemple :
Prompt :
• Q : Combien de pages lues si on lit 10 pages par jour en 7 jours ?
A : 10 x 7 = 70.
• Q : Combien de pommes mangées si on en mange 3 par jour pendant 5 jours ?
A : 3 x 5 = ?

Réponse : 15.


  1. Auto-CoT : générer automatiquement des chaînes de raisonnement

    Laisser le modèle produire spontanément des étapes logiques dans ses réponses.

Exemple :
Prompt :
“Combien de litres dans un baril contenant 3 fois 50 litres ?”

Réponse : “Un baril contient 50 litres. 3 x 50 = 150 litres.”


  1. DiVeRSe : diversifier les chaînes de raisonnement pour couvrir plusieurs angles

    Fournir différentes hypothèses pour analyser un problème sous plusieurs perspectives.

Exemple :

Prompt : “Quelles peuvent être les causes du réchauffement climatique ?”

Réponse :
• Option 1 : “L’activité industrielle.”
• Option 2 : “Les émissions de CO2 liées aux transports.”
• Option 3 : “La déforestation.”


  1. KNN Prompting (K-Nearest Neighbor) : sélectionner les exemples les plus proches

    Choisir des exemples qui ressemblent étroitement au contexte de la question posée.

Exemple :
Prompt :
“Résolvez 18 + 24. Exemples similaires : 12 + 15 = 27, 16 + 20 = 36.”

Réponse : 18 + 24 = 42.


  1. Contrastive CoT : inclure des exemples avec et sans erreurs

    Fournir des exemples de raisonnement corrects et incorrects pour montrer ce qu’il faut éviter.

Exemple :
Prompt :
• Exemple correct : “2 + 2 = 4.”
• Exemple incorrect : “2 + 2 = 5.”
• Résolvez : “3 + 3 = ?”


  1. Least-to-Most Prompting : résoudre les sous-problèmes avant le problème principal

    Décomposer un problème complexe en sous-étapes progressives.

Exemple :
Prompt :
“Calculez le périmètre d’un rectangle de 10m sur 5m.”

Réponse : “Étape 1 : 10 + 5 = 15. Étape 2 : 15 x 2 = 30m.”


  1. Skeleton-of-Thought : créer une structure de réponse avant de résoudre

    Demander au modèle de générer une “ossature” ou un plan avant d’approfondir la réponse.

Exemple :
Prompt :
“Rédigez un guide pour débuter en jardinage.”

Réponse :
• Étape 1 : Préparer le sol.
• Étape 2 : Choisir les bonnes plantes.
• Étape 3 : Planter et arroser.

“Détail complet disponible pour chaque étape.”


  1. Chain-of-Verification (CoVE) : vérifier une réponse avec des questions connexes

    Utiliser des questions supplémentaires pour confirmer ou invalider une réponse donnée.

Exemple :
Prompt :
“Combien font 25 x 4 ?”
Réponse initiale : 100.
Question de vérification : “Combien font 20 x 4 + 5 x 4 ?”
Réponse finale : 100. Réponse confirmée.


  1. Self-Adaptive Prompting : s’ajuster automatiquement à la complexité d’une question

    Ajuster le prompt en fonction des informations générées au fur et à mesure.

Exemple :
Prompt :
“Expliquez la photosynthèse à un enfant de 5 ans.”

Réponse : “La photosynthèse est le moyen par lequel les plantes fabriquent leur nourriture avec la lumière. Souhaitez-vous un exemple ?”


  1. Zero-Shot Emotion Prompting : intégrer des émotions dans une réponse

    Demander au modèle d’ajouter un contexte émotionnel à la réponse.

Exemple :
Prompt :
“Expliquez le concept de changement climatique avec une tonalité alarmante.”

Réponse : “Le changement climatique menace l’avenir de notre planète, avec des conséquences désastreuses pour l’humanité.”


  1. Tabular CoT (Tab-CoT) : structurer une réponse sous forme de tableau

    Organiser les étapes ou informations dans un format tabulaire pour plus de clarté.

Exemple :
Prompt :
“Présentez les étapes pour écrire un livre sous forme de tableau.”

Réponse :
Étape
Description
Idée Trouver un concept principal
Personnages Développer les protagonistes
Intrigue Construire un plan narratif


  1. Role-and-Style Prompting : combiner un rôle et un style particulier

    Associer un rôle spécifique à un ton ou style de réponse.

Exemple :
Prompt :
“Vous êtes un poète. Décrivez la lune dans un style romantique.”

Réponse : “La lune, éclat d’argent dans la nuit obscure, caresse le ciel de ses doux rayons.”


  1. Retrieval-Augmented Prompting : utiliser une base de données pour enrichir une réponse

    Intégrer des informations externes dans le prompt pour augmenter la précision.

Exemple :
Prompt :
“Donnez-moi les dernières statistiques sur le réchauffement climatique.”

Réponse : “Selon le rapport 2023 de l’ONU, les températures ont augmenté de 1,2 °C depuis 1900.”


  1. Tree-of-Thoughts : développer plusieurs branches de raisonnement

    Explorer différentes solutions possibles à un problème.

Exemple :
Prompt :
“Quels sont les meilleurs moyens de réduire la pollution ? Développez plusieurs stratégies.”

Réponse :
• Branche 1 : “Réduction des émissions industrielles.”
• Branche 2 : “Encourager le transport durable.”
• Branche 3 : “Reforestation massive.”


  1. Answer Shape Restriction : limiter la réponse à une forme précise

    Exiger un format particulier, comme une liste, une phrase, ou un tableau.

Exemple :
Prompt :
“Donnez trois avantages des énergies renouvelables sous forme de liste.”

Réponse :
• 1. Source inépuisable.
• 2. Réduction des émissions de CO2.
• 3. Création d’emplois verts.


  1. Multi-Step Prompting : poser plusieurs questions consécutives

    Structurer une série de requêtes pour arriver à une réponse finale.

Exemple :
Prompt :
• Étape 1 : “Quel est le périmètre d’un rectangle de 10m x 5m ?”
• Étape 2 : “Ajoutez 10 au résultat précédent.”

Réponse : Périmètre = 30m, résultat final = 40m.


  1. SimToM (Simulation-to-Math): traduire une situation en calcul mathématique

    Transformer un scénario réel en équation pour le résoudre.

Exemple :
Prompt :
“Un bus contient 20 personnes. À chaque arrêt, 5 personnes descendent et 3 montent. Combien reste-t-il après 4 arrêts ?”

Réponse : “20 - (5 x 4) + (3 x 4) = 20 - 20 + 12 = 12.”


  1. Few-Shot Active Prompting : ajuster un prompt avec des exemples en temps réel

    Ajouter des exemples au fur et à mesure pour guider la réponse.

Exemple :
Prompt :
• Exemples : “2 x 3 = 6, 3 x 4 = 12.”
• Question : “Combien fait 5 x 6 ?”

Réponse : 30.


  1. Counterfactual Prompting : explorer des scénarios hypothétiques

    Poser des questions qui supposent une modification des conditions initiales pour analyser les impacts.

Exemple :
Prompt :
“Que se serait-il passé si l’électricité n’avait jamais été inventée ?”

Réponse : “La révolution industrielle aurait pris un chemin différent, avec une dépendance accrue aux énergies mécaniques et humaines.”


  1. Iterative Refinement Prompting : améliorer une réponse étape par étape

    Demander au modèle d’affiner une réponse initiale à chaque interaction.

Exemple :
Prompt :
“Expliquez la gravité. Pouvez-vous simplifier encore davantage ?”

Réponse : “La gravité est une force qui attire les objets entre eux. Simplification : c’est ce qui fait que les choses tombent vers le sol.”


  1. Interleaved Prompting : combiner plusieurs tâches dans une seule requête

    Inclure des questions ou des tâches mixtes pour tester la polyvalence du modèle.

Exemple :
Prompt :
“Traduisez cette phrase en espagnol, puis expliquez son sens en français : ‘The sun is shining.’”

Réponse : “Traduction : ‘El sol está brillando.’ Sens : Le soleil brille.”


  1. Contrastive Few-Shot Prompting : fournir des exemples opposés pour guider la réponse

    Ajouter des exemples corrects et incorrects pour montrer au modèle ce qu’il faut faire ou éviter.

Exemple :
Prompt :
• Exemple correct : “Un carré a 4 côtés égaux.”
• Exemple incorrect : “Un carré a 3 côtés.”
• Question : “Combien de côtés a un rectangle ?”
Réponse : “Un rectangle a 4 côtés.”


  1. Role-Specific Few-Shot Prompting : exemples contextuels dans un rôle précis

    Fournir des exemples adaptés au rôle assigné au modèle.

Exemple :
Prompt :
“Vous êtes un médecin. Exemples :
• Q : Quels sont les symptômes de la grippe ? A : Fièvre, toux, courbatures.
• Q : Quels sont les traitements recommandés ? A : Repos, hydratation, paracétamol.
• Question : Quels sont les symptômes d’une angine ?”

Réponse : “Douleurs à la gorge, fièvre, difficulté à avaler.”


  1. Constrained Output Prompting : limiter la réponse à un format précis

    Imposer une contrainte stricte, comme un nombre de mots ou une structure.

Exemple :
Prompt :
“Expliquez l’intelligence artificielle en 10 mots maximum.”

Réponse : “Systèmes capables d’imiter l’intelligence humaine pour résoudre des tâches.”


  1. Iterative Questioning : poser des questions successives pour affiner une réponse

    Interroger le modèle étape par étape pour explorer un sujet en profondeur.

Exemple :
Prompt :
• Q1 : “Qu’est-ce que la biodiversité ?”
• R1 : “C’est la diversité des êtres vivants sur Terre.”
• Q2 : “Pourquoi est-elle importante ?”
• R2 : “Elle maintient l’équilibre des écosystèmes.”


  1. Guided Answer Verification : demander au modèle de justifier sa réponse

    Faire expliquer ou prouver le raisonnement derrière une réponse.

Exemple :
Prompt :
“Quelle est la capitale de l’Espagne ? Justifiez votre réponse.”

Réponse : “Madrid. Justification : C’est le siège du gouvernement et la ville la plus peuplée d’Espagne.”


  1. Heuristic Prompting : appliquer des règles pratiques pour guider une réponse

    Orienter le modèle avec des directives basées sur des heuristiques simples.

Exemple :
Prompt :
“Pour évaluer la crédibilité d’une source d’information, suivez ces étapes : 1) Vérifiez l’auteur. 2) Évaluez la date. 3) Recherchez des corroborations. Appliquez-les à cet article.”


Réponse : “1) Auteur : inconnu. 2) Date : 2012. 3) Pas de sources corroborées. Résultat : faible crédibilité.”


  1. Multimodal Prompting : intégrer des données de plusieurs formats

    Combiner texte, image, ou audio pour enrichir une réponse.

Exemple :
Prompt :
“Regardez cette image (joint un graphique de température) et décrivez la tendance climatique.”


Réponse : “Le graphique montre une augmentation régulière des températures au fil des décennies.”


  1. Feedback Loop Prompting : intégrer les commentaires utilisateur pour améliorer les résultats

    Ajuster la réponse en fonction des retours donnés.

Exemple :
Prompt :
“Résumez cet article. [Commentaire utilisateur] : ‘Trop vague, ajoutez des détails.’”

Réponse : “Résumé enrichi : Cet article traite des effets du changement climatique, notamment la montée des eaux et les températures extrêmes.”


  1. Cross-Lingual Prompting : poser une question dans une langue, répondre dans une autre

    Intégrer des éléments multilingues pour tester les capacités de traduction et de compréhension.

Exemple :
Prompt :
“Expliquez en anglais pourquoi la Tour Eiffel est célèbre.”

Réponse : “The Eiffel Tower is famous as a symbol of France and a marvel of engineering.”


  1. Hyper-Constrained Prompting : forcer une réponse spécifique avec des contraintes multiples

    Ajouter plusieurs limitations strictes pour orienter la réponse.

Exemple :
Prompt :
“Créez un poème de 4 lignes sur le soleil, sans utiliser le mot ‘chaud’.”

Réponse : “Le soleil éclaire notre matin,
Il danse dans le ciel lointain,
Ses rayons caressent l’horizon,
Et éveillent la vie sans raison.”

D’autres articles

Get the newsletter

Subscribe to get the latest updates on AI into your inbox every week.

Accelerate

© 2024, Acceler(h)ate - All rights reserved.