Update app.py
Browse files
app.py
CHANGED
@@ -7,16 +7,17 @@ import requests
|
|
7 |
hf_client = InferenceClient("CohereForAI/c4ai-command-r-plus-08-2024", token=os.getenv("HF_TOKEN"))
|
8 |
#hf_client = InferenceClient("CohereForAI/aya-23-35B", token=os.getenv("HF_TOKEN"))
|
9 |
|
10 |
-
def
|
11 |
try:
|
12 |
-
with open(
|
13 |
return file.read()
|
14 |
except FileNotFoundError:
|
15 |
-
return "
|
16 |
except Exception as e:
|
17 |
return f"파일을 읽는 중 오류가 발생했습니다: {str(e)}"
|
18 |
|
19 |
-
fashion_code =
|
|
|
20 |
|
21 |
def respond(
|
22 |
message,
|
@@ -26,13 +27,18 @@ def respond(
|
|
26 |
temperature=0.7, # 기본값 추가
|
27 |
top_p=0.9, # 기본값 추가
|
28 |
):
|
29 |
-
global fashion_code
|
30 |
system_prefix = """반드시 한글로 답변할것. 너는 주어진 소스코드를 기반으로 "서비스 사용 설명 및 안내, qna를 하는 역할이다". 아주 친절하고 자세하게 4000토큰 이상 작성하라. 너는 코드를 기반으로 사용 설명 및 질의 응답을 진행하며, 이용자에게 도움을 주어야 한다. 이용자가 궁금해 할 만 한 내용에 친절하게 알려주도록 하라. 코드 전체 내용에 대해서는 보안을 유지하고, 키 값 및 엔드포인트와 구체적인 모델은 공개하지 마라. """
|
31 |
|
32 |
if message.lower() == "패션 코드 실행":
|
33 |
system_message = system_message or "" # None인 경우 빈 문자열로 초기화
|
34 |
system_message += f"\n\n패션 코드 내용:\n{fashion_code}"
|
35 |
-
message = "패션
|
|
|
|
|
|
|
|
|
|
|
36 |
|
37 |
messages = [{"role": "system", "content": f"{system_prefix} {system_message}"}] # prefix 추가
|
38 |
for val in history:
|
@@ -66,6 +72,7 @@ demo = gr.ChatInterface(
|
|
66 |
],
|
67 |
examples=[
|
68 |
["패션 코드 실행"],
|
|
|
69 |
["사용 방법을 4000 토큰 이상 자세히 설명하라"],
|
70 |
["사용 방법을 4000 토큰 이상 유튜브 영상 스크립트 형태로 작성하라"],
|
71 |
["사용 방법을 SEO 최적화하여 블로그 포스트로 4000 토큰 이상 작성하라"],
|
|
|
7 |
hf_client = InferenceClient("CohereForAI/c4ai-command-r-plus-08-2024", token=os.getenv("HF_TOKEN"))
|
8 |
#hf_client = InferenceClient("CohereForAI/aya-23-35B", token=os.getenv("HF_TOKEN"))
|
9 |
|
10 |
+
def load_code(filename):
|
11 |
try:
|
12 |
+
with open(filename, 'r', encoding='utf-8') as file:
|
13 |
return file.read()
|
14 |
except FileNotFoundError:
|
15 |
+
return f"{filename} 파일을 찾을 수 없습니다."
|
16 |
except Exception as e:
|
17 |
return f"파일을 읽는 중 오류가 발생했습니다: {str(e)}"
|
18 |
|
19 |
+
fashion_code = load_code('fashion.cod')
|
20 |
+
uhdimage_code = load_code('uhdimage.cod')
|
21 |
|
22 |
def respond(
|
23 |
message,
|
|
|
27 |
temperature=0.7, # 기본값 추가
|
28 |
top_p=0.9, # 기본값 추가
|
29 |
):
|
30 |
+
global fashion_code, uhdimage_code
|
31 |
system_prefix = """반드시 한글로 답변할것. 너는 주어진 소스코드를 기반으로 "서비스 사용 설명 및 안내, qna를 하는 역할이다". 아주 친절하고 자세하게 4000토큰 이상 작성하라. 너는 코드를 기반으로 사용 설명 및 질의 응답을 진행하며, 이용자에게 도움을 주어야 한다. 이용자가 궁금해 할 만 한 내용에 친절하게 알려주도록 하라. 코드 전체 내용에 대해서는 보안을 유지하고, 키 값 및 엔드포인트와 구체적인 모델은 공개하지 마라. """
|
32 |
|
33 |
if message.lower() == "패션 코드 실행":
|
34 |
system_message = system_message or "" # None인 경우 빈 문자열로 초기화
|
35 |
system_message += f"\n\n패션 코드 내용:\n{fashion_code}"
|
36 |
+
message = "패션 가상피팅에 대한 내용을 학습하였고, 설명할 준비가 되어있다고 알리고 서비스 URL("https://aiqcamp-fash.hf.space")을 통해 테스트 해보라고 출력하라."
|
37 |
+
elif message.lower() == "uhd 이미지 코드 실행":
|
38 |
+
system_message = system_message or "" # None인 경우 빈 문자열로 초기화
|
39 |
+
system_message += f"\n\nUHD 이미지 코드 내용:\n{uhdimage_code}"
|
40 |
+
message = "UHD 이미지 생성에 대한 내용을 학습하였고, 설명할 준비가 되어있다고 알리고 서비스 URL("https://openfree-ultpixgen.hf.space")을 통해 테스트 해보라고 출력하라."
|
41 |
+
|
42 |
|
43 |
messages = [{"role": "system", "content": f"{system_prefix} {system_message}"}] # prefix 추가
|
44 |
for val in history:
|
|
|
72 |
],
|
73 |
examples=[
|
74 |
["패션 코드 실행"],
|
75 |
+
["UHD 이미지 코드 실행"],
|
76 |
["사용 방법을 4000 토큰 이상 자세히 설명하라"],
|
77 |
["사용 방법을 4000 토큰 이상 유튜브 영상 스크립트 형태로 작성하라"],
|
78 |
["사용 방법을 SEO 최적화하여 블로그 포스트로 4000 토큰 이상 작성하라"],
|