La recherche de l’école d’informatique de Carnegie Mellon suggère que l’ingénierie rapide pourrait être aussi importante que le codage
Les modèles génératifs d’intelligence artificielle d’aujourd’hui peuvent tout créer, des images aux applications informatiques, mais la qualité de leur sortie dépend en grande partie de l’invite qu’un utilisateur humain fournit.
Les chercheurs de l’Université de Carnegie Mellon ont proposé une nouvelle approche pour enseigner aux utilisateurs quotidiens comment créer ces invites et améliorer leurs interactions avec des modèles d’intelligence artificielle générative.
La méthode, appelée ingénierie rapide axée sur les exigences (ROPE), déplace l’objectif de l’écriture rapide des astuces et des modèles intelligents pour indiquer clairement ce que l’IA devrait faire. Alors que les modèles de langue importants (LLM) s’améliorent, l’importance des compétences de codage peut décliner tandis que l’expertise en ingénierie rapide pourrait augmenter.
« Vous devez être en mesure de dire au modèle exactement ce que vous voulez. Vous ne pouvez pas vous attendre à deviner tous vos besoins personnalisés », a déclaré Christina Ma, un doctorat. Étudiant à l’Institut d’interaction Human-Computer (HCII). «Nous devons former des humains à des compétences en ingénierie rapide. La plupart des gens ont encore du mal à dire à l’AI ce qu’ils veulent. La corde les aide à le faire.»
L’ingénierie rapide fait référence aux instructions précises – les invites – un utilisateur donne un modèle d’IA génératif pour produire une sortie souhaitée. Plus un utilisateur est en ingénierie rapide, plus un modèle d’IA produira probablement ce que l’utilisateur voulait.
Dans «Que devrions-nous ingérer dans les invites? Former les humains dans l’utilisation de LLM axée sur les exigences», récemment accepté dans l’Association for Computing Machinery, les transactions sur l’interaction informatique-humaine, les chercheurs décrivent leur paradigme de corde et un module de formation qu’ils ont créé pour enseigner et évaluer la méthode. Rope est une stratégie de partenariat humain-llm où les humains maintiennent l’agence et le contrôle des objectifs en spécifiant les exigences pour les invites LLM. Le paradigme se concentre sur l’importance de fabriquer des exigences précises et complètes pour obtenir de meilleurs résultats, en particulier pour les tâches complexes et personnalisées.
Pour tester la corde, les chercheurs ont demandé à 30 personnes d’écrire des invites à un modèle d’IA pour effectuer deux tâches distinctes en tant que prétest: créer un jeu tic-tac-toe et concevoir un outil pour aider les gens à développer des contours de contenu. La moitié des participants ont ensuite reçu une formation par corde et le reste a regardé un tutoriel YouTube sur l’ingénierie rapide. Les groupes ont ensuite écrit des invites pour un jeu différent et un chat-chat différent en tant que post-test.
Lorsque les chercheurs ont comparé les résultats des exercices, ils ont constaté que les participants qui ont reçu la formation de corde ont surpassé les personnes qui ont regardé le tutoriel YouTube. Les scores du prétest à la post-test ont augmenté de 20% pour les personnes qui ont reçu la formation de la corde et seulement 1% pour ceux qui ne l’ont pas fait.
«Nous avons non seulement proposé un nouveau cadre pour l’enseignement de l’ingénierie rapide, mais nous avons également créé un outil de formation pour évaluer dans quelle mesure les participants fonctionnent et dans quelle mesure le paradigme fonctionne», a déclaré Ken Koedinger, professeur d’université dans le HCII. «Ce n’est pas seulement notre opinion que la corde fonctionne. Le module de formation le soutient.»
Les modèles d’IA génératifs ont déjà modifié le contenu des cours d’introduction en programmation et en génie logiciel à mesure que la programmation traditionnelle évolue vers la programmation en langage naturel. Au lieu d’écrire un logiciel, un ingénieur peut rédiger une invite en dirigeant l’IA pour développer le logiciel. Ce changement de paradigme pourrait créer de nouvelles opportunités pour les étudiants, ce qui leur permet de travailler sur des tâches de développement plus complexes plus tôt dans leurs études et de faire progresser le domaine.
Les chercheurs n’ont pas conçu la corde uniquement pour les ingénieurs logiciels. Alors que les humains continuent d’intégrer l’IA dans la vie quotidienne, la communication clairement avec les machines deviendra un aspect important de la littératie numérique. Armés de savoir comment rédiger des invites réussies et un modèle d’IA jusqu’à la tâche, les personnes sans codage ou arrière-plans d’ingénierie logicielle peuvent créer des applications qui leur bénéficieront.
« Nous voulons permettre aux utilisateurs finaux du grand public d’utiliser des LLM pour créer des chatbots et des applications », a déclaré Ma. « Si vous avez une idée et que vous comprenez comment communiquer les exigences, vous pouvez écrire une invite qui créera cette idée. »
Les chercheurs ont ouvert leurs outils et matériaux de formation, visant à rendre l’ingénierie rapide plus accessible aux non-experts.
Aaron Aupperlee
Université Carnegie Mellon
aaupperlee@cmu.edu
Bureau: 412-268-9068
Questions fréquemment posées
Quel est l’objectif principal de la recherche Deepseek-R1?
L’objectif principal de la recherche Deepseek-R1 est d’améliorer les capacités de raisonnement des grands modèles de langue (LLM) en utilisant des techniques d’apprentissage par renforcement.
Comment la recherche propose-t-elle d’inciter le raisonnement dans les LLM?
La recherche propose d’inciter le raisonnement dans les LLM en mettant en œuvre un cadre d’apprentissage de renforcement qui récompense les modèles pour faire des inférences logiques et cohérentes.
Quels sont les avantages attendus de l’amélioration des capacités de raisonnement dans les LLM?
L’amélioration des capacités de raisonnement dans les LLM devrait conduire à des sorties plus précises et fiables, ce qui rend ces modèles plus utiles pour des tâches complexes qui nécessitent une réflexion critique.