tp done
This commit is contained in:
12
demo_llm.py
12
demo_llm.py
@@ -41,7 +41,6 @@ print("Connecté !")
|
||||
async def main():
|
||||
"""Fonction principale pour poser une question au LLM."""
|
||||
|
||||
# TODO 1: définir le prompt de votre choix
|
||||
# On définit le prompt : c'est la question/instruction que l'on donne à l'IA.
|
||||
prompt = "Raconte-moi une blague courte sur un développeur Python."
|
||||
|
||||
@@ -50,19 +49,12 @@ async def main():
|
||||
print(f" '{prompt}'")
|
||||
print("-------------------------------------------")
|
||||
|
||||
# TODO 2: Invoquer le LLM
|
||||
# `ainvoke` envoie le prompt au LLM et attend sa réponse de manière asynchrone.
|
||||
# C'est la fonction la plus importante à comprendre.
|
||||
response = # ... votre code ici ...
|
||||
response = await llm.ainvoke(prompt)
|
||||
|
||||
# Vérification que la réponse a bien été reçue
|
||||
if response is None:
|
||||
print("Erreur : Le LLM n'a pas été appelé ! Veuillez compléter le code (TODO 2).")
|
||||
return
|
||||
|
||||
# TODO 3: extraire le contenu de la réponse
|
||||
# La réponse du LLM est un objet. Le texte généré se trouve dans l'attribut `content`.
|
||||
ai_message = # ... votre code ici ...
|
||||
ai_message = response.content
|
||||
|
||||
print("\n Réponse du LLM :")
|
||||
print(f" '{ai_message}'")
|
||||
|
||||
Reference in New Issue
Block a user