Holy-fox commited on
Commit
fa58853
·
verified ·
1 Parent(s): bc4d2be

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +58 -3
README.md CHANGED
@@ -1,3 +1,58 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ datasets:
4
+ - DataPilot/in-foxhound-ja
5
+ language:
6
+ - ja
7
+ - en
8
+ base_model:
9
+ - unsloth/Qwen2.5-7B-Instruct-bnb-4bit
10
+ pipeline_tag: text-generation
11
+ tags:
12
+ - finance
13
+ ---
14
+
15
+ ## 概要
16
+ このモデルは[in-foxhound-ja](https://huggingface.co/datasets/DataPilot/in-foxhound-ja)を用いて、長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことを目的に製作されました。(あくまで実験であり、実際にはAIが出力した指示に従わないで下さい。)
17
+
18
+ ## how to use
19
+
20
+ ```python
21
+ import torch
22
+ from transformers import AutoTokenizer, AutoModelForCausalLM
23
+
24
+ # モデルとトークナイザーをロード
25
+ model_name = "DataPilot/Qwen2.5-Intelligent-Investor-5b" # 好きなモデル名に変更可能
26
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
27
+ model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) # デバイスを自動的に選択
28
+
29
+ # プロンプトテンプレート
30
+ prompt_template = """<|im_start|>system
31
+ {}<|im_end|>
32
+ <|im_start|>user
33
+ {}<|im_end|>
34
+ <|im_start|>assistant
35
+ {}"""
36
+
37
+ # 推論を実行
38
+ inputs = tokenizer(
39
+ [
40
+ prompt_template.format(
41
+ "あなたは世界最高レベルにある価値投資の達人です。長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことが得意です。", # 命令
42
+ "長期投資において優良な企業の条件と長期投資において大切なマインドを教えて下さい。", # 入力
43
+ "", # 出力 - 生成の場合は空白にします
44
+ )
45
+ ],
46
+ return_tensors="pt",
47
+ ).to("cuda")
48
+
49
+ outputs = model.generate(**inputs, max_new_tokens=1024, use_cache=True)
50
+ print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
51
+
52
+ ```
53
+
54
+ ## プロンプトフォーマット
55
+ プロンプトフォーマットにはQwen形式のプロンプトテンプレートを使用しています。
56
+
57
+ ## 謝辞
58
+ もとデータセットの作成者である[glaive-ai](https://glaive.ai/)と計算資源を貸してくれた[MDL](https://www.metadatalab.net/)に感謝します。