alexkueck commited on
Commit
216be95
·
1 Parent(s): 79dfe7d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -8
app.py CHANGED
@@ -27,7 +27,7 @@ _ = load_dotenv(find_dotenv())
27
 
28
 
29
  # access token with permission to access the model and PRO subscription
30
- #HUGGINGFACEHUB_API_TOKEN = os.getenv("HF_ACCESS_READ")
31
  #login(token=os.environ["HF_ACCESS_READ"])
32
 
33
  OAI_API_KEY=os.getenv("OPENAI_API_KEY")
@@ -66,13 +66,6 @@ YOUTUBE_URL_2 = "https://www.youtube.com/watch?v=hdhZwyf24mE"
66
  #nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
67
  splittet = False
68
 
69
- ##############################################
70
- # tokenizer for generating prompt
71
- ##############################################
72
- print ("Tokenizer")
73
- #tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-70b-chat-hf")
74
- #tokenizer = AutoTokenizer.from_pretrained("TheBloke/Yi-34B-Chat-GGUF")
75
- tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.1")
76
 
77
  ##############################################
78
  # inference client
@@ -87,6 +80,15 @@ client = InferenceClient()
87
  print("List of models ......................:")
88
  print(client.list_deployed_models("text-generation-inference"))
89
 
 
 
 
 
 
 
 
 
 
90
 
91
  #################################################
92
  #################################################
 
27
 
28
 
29
  # access token with permission to access the model and PRO subscription
30
+ HUGGINGFACEHUB_API_TOKEN = os.getenv("HF_ACCESS_READ")
31
  #login(token=os.environ["HF_ACCESS_READ"])
32
 
33
  OAI_API_KEY=os.getenv("OPENAI_API_KEY")
 
66
  #nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
67
  splittet = False
68
 
 
 
 
 
 
 
 
69
 
70
  ##############################################
71
  # inference client
 
80
  print("List of models ......................:")
81
  print(client.list_deployed_models("text-generation-inference"))
82
 
83
+ ##############################################
84
+ # tokenizer for generating prompt
85
+ ##############################################
86
+ print ("Tokenizer")
87
+ #tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-70b-chat-hf")
88
+ #tokenizer = AutoTokenizer.from_pretrained("TheBloke/Yi-34B-Chat-GGUF")
89
+ #tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.1")
90
+ tokenizer = AutoTokenizer.from_pretrained("bigcode/starcoder")
91
+
92
 
93
  #################################################
94
  #################################################