User prompt node
Permet de demander un prompt à l'utilisateur
This commit is contained in:
@@ -33,6 +33,26 @@ def preparation_docs(state: CustomState):
|
||||
|
||||
return {'messages': model.invoke(state['messages'])}
|
||||
|
||||
def user_prompt(state: CustomState):
|
||||
""" Dans ce nœud, l'utilisateur peut écrire un HumanMessage pour l'IA """
|
||||
|
||||
messages = [msg for msg in state['messages']] # Je récupère la liste des messages
|
||||
|
||||
sys_message = SystemMessage("Salut") # TODO: Anti-injections
|
||||
user_message = HumanMessage(
|
||||
InterruptPayload.fromJSON(
|
||||
interrupt(
|
||||
InterruptPayload({'prompt':''}, payload_type=InterruptPayload.USER_PROMPT).toJSON()
|
||||
)
|
||||
).get("prompt")
|
||||
) # Récupérer un prompt
|
||||
|
||||
messages.append(sys_message) # Rajout des nouveaux messages dans le système
|
||||
messages.append(user_message)
|
||||
|
||||
return {'messages': messages}# Je passe unen liste, devrait écraser tous les messages précédent au lieu d'ajouter à la liste du State
|
||||
|
||||
|
||||
def call_to_LLM(state: MessagesState):
|
||||
"""Noeud qui s'occupe de gérer les appels au LLM"""
|
||||
# Initialisation du LLM
|
||||
|
||||
Reference in New Issue
Block a user