Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -322,7 +322,8 @@ def generate(text, history, rag_option, model_option, k=3, top_p=0.6, temperatu
|
|
322 |
#prompt = generate_prompt_with_history_openai(text, history)
|
323 |
#als reiner prompt:
|
324 |
prompt = generate_prompt_with_history(text, history)
|
325 |
-
|
|
|
326 |
#Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
|
327 |
#payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
|
328 |
#Für LLAMA:
|
|
|
322 |
#prompt = generate_prompt_with_history_openai(text, history)
|
323 |
#als reiner prompt:
|
324 |
prompt = generate_prompt_with_history(text, history)
|
325 |
+
print("prompt:....................................")
|
326 |
+
print (prompt)
|
327 |
#Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
|
328 |
#payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
|
329 |
#Für LLAMA:
|