diff --git a/demo_llm.py b/demo_llm.py index 0b046c0..9e699bf 100644 --- a/demo_llm.py +++ b/demo_llm.py @@ -41,7 +41,6 @@ print("Connecté !") async def main(): """Fonction principale pour poser une question au LLM.""" - # TODO 1: définir le prompt de votre choix # On définit le prompt : c'est la question/instruction que l'on donne à l'IA. prompt = "Raconte-moi une blague courte sur un développeur Python." @@ -50,19 +49,12 @@ async def main(): print(f" '{prompt}'") print("-------------------------------------------") - # TODO 2: Invoquer le LLM # `ainvoke` envoie le prompt au LLM et attend sa réponse de manière asynchrone. # C'est la fonction la plus importante à comprendre. - response = # ... votre code ici ... + response = await llm.ainvoke(prompt) - # Vérification que la réponse a bien été reçue - if response is None: - print("Erreur : Le LLM n'a pas été appelé ! Veuillez compléter le code (TODO 2).") - return - - # TODO 3: extraire le contenu de la réponse # La réponse du LLM est un objet. Le texte généré se trouve dans l'attribut `content`. - ai_message = # ... votre code ici ... + ai_message = response.content print("\n Réponse du LLM :") print(f" '{ai_message}'")