Dans la première partie de cet article, parue dans le numéro de juillet-août de Netsources, nous avons évoqué les fondamentaux et bonnes pratiques de prompt. Cette deuxième partie apporte un éclairage sur plusieurs notions complémentaires (méta-prompt, prompt injection…). Nous distinguerons des approches différenciées du prompt selon les principaux modèles, et conclurons par une réflexion sur les évolutions à l’ère de l’IA agentique.
Ne pas confondre méta-prompt et méga-prompt
Nous avons évoqué dans l’article précédent le principe du méga-prompt, c’est-à-dire un prompt de grande taille sous forme de texte long, structuré, comportant de nombreuses instructions, contextes, contraintes, rôles ou exemples.
Un méta-prompt est un prompt qui décrit la manière dont un modèle doit générer, améliorer ou analyser d’autres prompts. Le préfixe « méta » indique en effet qu’il s’agit d’une méta-instruction : ce méta-prompt est destiné à créer des instructions précises, sous forme de prompt.
Exemple de méta-prompt : Crée un prompt pour effectuer une veille technologique dans le domaine de l’antibiorésistance.
La pratique du méta-prompt peut constituer une aide pour générer des prompts détaillés à partir d’un objectif un peu vague : le modèle de langage va ainsi réduire « l’angoisse de la page blanche » et générer une série d’instructions précises, que l’utilisateur pourra ensuite utiliser en une seule fois ou bien par itérations. L’usage du méta-prompt inclut également des outils d’auto-amélioration de prompts existants (auto-prompting).
Il convient dans tous les cas de relire et réviser au besoin les prompts proposés : en effet, les modèles de langage (et tout particulièrement ChatGPT) ont tendance à être verbeux et redondants dans leur formulation. Un prompt généré par un méta-prompt aura tout intérêt à être allégé et affiné par l’utilisateur.

