This commit is contained in:
Johan
2025-12-17 09:45:23 +01:00
parent 59a077d5fd
commit fa1d837b6a

View File

@@ -41,7 +41,6 @@ print("Connecté !")
async def main(): async def main():
"""Fonction principale pour poser une question au LLM.""" """Fonction principale pour poser une question au LLM."""
# TODO 1: définir le prompt de votre choix
# On définit le prompt : c'est la question/instruction que l'on donne à l'IA. # On définit le prompt : c'est la question/instruction que l'on donne à l'IA.
prompt = "Raconte-moi une blague courte sur un développeur Python." prompt = "Raconte-moi une blague courte sur un développeur Python."
@@ -50,19 +49,12 @@ async def main():
print(f" '{prompt}'") print(f" '{prompt}'")
print("-------------------------------------------") print("-------------------------------------------")
# TODO 2: Invoquer le LLM
# `ainvoke` envoie le prompt au LLM et attend sa réponse de manière asynchrone. # `ainvoke` envoie le prompt au LLM et attend sa réponse de manière asynchrone.
# C'est la fonction la plus importante à comprendre. # C'est la fonction la plus importante à comprendre.
response = # ... votre code ici ... response = await llm.ainvoke(prompt)
# Vérification que la réponse a bien été reçue
if response is None:
print("Erreur : Le LLM n'a pas été appelé ! Veuillez compléter le code (TODO 2).")
return
# TODO 3: extraire le contenu de la réponse
# La réponse du LLM est un objet. Le texte généré se trouve dans l'attribut `content`. # La réponse du LLM est un objet. Le texte généré se trouve dans l'attribut `content`.
ai_message = # ... votre code ici ... ai_message = response.content
print("\n Réponse du LLM :") print("\n Réponse du LLM :")
print(f" '{ai_message}'") print(f" '{ai_message}'")