alexkueck commited on
Commit
cfef8a1
·
1 Parent(s): 2b1517c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -1
app.py CHANGED
@@ -322,7 +322,8 @@ def generate(text, history, rag_option, model_option, k=3, top_p=0.6, temperatu
322
  #prompt = generate_prompt_with_history_openai(text, history)
323
  #als reiner prompt:
324
  prompt = generate_prompt_with_history(text, history)
325
-
 
326
  #Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
327
  #payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
328
  #Für LLAMA:
 
322
  #prompt = generate_prompt_with_history_openai(text, history)
323
  #als reiner prompt:
324
  prompt = generate_prompt_with_history(text, history)
325
+ print("prompt:....................................")
326
+ print (prompt)
327
  #Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
328
  #payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
329
  #Für LLAMA: