RichardErkhov commited on
Commit
e124e27
·
verified ·
1 Parent(s): 3f46b18

uploaded readme

Browse files
Files changed (1) hide show
  1. README.md +159 -0
README.md ADDED
@@ -0,0 +1,159 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ Quantization made by Richard Erkhov.
2
+
3
+ [Github](https://github.com/RichardErkhov)
4
+
5
+ [Discord](https://discord.gg/pvy7H8DZMG)
6
+
7
+ [Request more models](https://github.com/RichardErkhov/quant_request)
8
+
9
+
10
+ malaysian-llama-3-8b-instruct-16k - GGUF
11
+ - Model creator: https://huggingface.co/mesolitica/
12
+ - Original model: https://huggingface.co/mesolitica/malaysian-llama-3-8b-instruct-16k/
13
+
14
+
15
+ | Name | Quant method | Size |
16
+ | ---- | ---- | ---- |
17
+ | [malaysian-llama-3-8b-instruct-16k.Q2_K.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q2_K.gguf) | Q2_K | 2.96GB |
18
+ | [malaysian-llama-3-8b-instruct-16k.IQ3_XS.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.IQ3_XS.gguf) | IQ3_XS | 3.28GB |
19
+ | [malaysian-llama-3-8b-instruct-16k.IQ3_S.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.IQ3_S.gguf) | IQ3_S | 3.43GB |
20
+ | [malaysian-llama-3-8b-instruct-16k.Q3_K_S.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q3_K_S.gguf) | Q3_K_S | 3.41GB |
21
+ | [malaysian-llama-3-8b-instruct-16k.IQ3_M.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.IQ3_M.gguf) | IQ3_M | 3.52GB |
22
+ | [malaysian-llama-3-8b-instruct-16k.Q3_K.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q3_K.gguf) | Q3_K | 3.74GB |
23
+ | [malaysian-llama-3-8b-instruct-16k.Q3_K_M.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q3_K_M.gguf) | Q3_K_M | 3.74GB |
24
+ | [malaysian-llama-3-8b-instruct-16k.Q3_K_L.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q3_K_L.gguf) | Q3_K_L | 4.03GB |
25
+ | [malaysian-llama-3-8b-instruct-16k.IQ4_XS.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.IQ4_XS.gguf) | IQ4_XS | 4.18GB |
26
+ | [malaysian-llama-3-8b-instruct-16k.Q4_0.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q4_0.gguf) | Q4_0 | 4.34GB |
27
+ | [malaysian-llama-3-8b-instruct-16k.IQ4_NL.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.IQ4_NL.gguf) | IQ4_NL | 4.38GB |
28
+ | [malaysian-llama-3-8b-instruct-16k.Q4_K_S.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q4_K_S.gguf) | Q4_K_S | 4.37GB |
29
+ | [malaysian-llama-3-8b-instruct-16k.Q4_K.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q4_K.gguf) | Q4_K | 4.58GB |
30
+ | [malaysian-llama-3-8b-instruct-16k.Q4_K_M.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q4_K_M.gguf) | Q4_K_M | 4.58GB |
31
+ | [malaysian-llama-3-8b-instruct-16k.Q4_1.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q4_1.gguf) | Q4_1 | 4.78GB |
32
+ | [malaysian-llama-3-8b-instruct-16k.Q5_0.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q5_0.gguf) | Q5_0 | 5.21GB |
33
+ | [malaysian-llama-3-8b-instruct-16k.Q5_K_S.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q5_K_S.gguf) | Q5_K_S | 5.21GB |
34
+ | [malaysian-llama-3-8b-instruct-16k.Q5_K.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q5_K.gguf) | Q5_K | 5.34GB |
35
+ | [malaysian-llama-3-8b-instruct-16k.Q5_K_M.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q5_K_M.gguf) | Q5_K_M | 5.34GB |
36
+ | [malaysian-llama-3-8b-instruct-16k.Q5_1.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q5_1.gguf) | Q5_1 | 5.65GB |
37
+ | [malaysian-llama-3-8b-instruct-16k.Q6_K.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q6_K.gguf) | Q6_K | 6.14GB |
38
+ | [malaysian-llama-3-8b-instruct-16k.Q8_0.gguf](https://huggingface.co/RichardErkhov/mesolitica_-_malaysian-llama-3-8b-instruct-16k-gguf/blob/main/malaysian-llama-3-8b-instruct-16k.Q8_0.gguf) | Q8_0 | 7.95GB |
39
+
40
+
41
+
42
+
43
+ Original model description:
44
+ ---
45
+ language:
46
+ - ms
47
+ ---
48
+
49
+ # Full Parameter Finetuning Malaysian Llama-3 16384 context length on Malaysian chat completion 3B tokens
50
+
51
+ README at https://github.com/huseinzol05/malaya/tree/master/session/llama3
52
+
53
+ WandB, https://wandb.ai/huseinzol05/fpf-llama-3-8b-8192-hf-packing?nw=nwuserhuseinzol05
54
+
55
+ ## how-to
56
+
57
+ ```python
58
+ from transformers import AutoTokenizer, AutoModelForCausalLM
59
+ import torch
60
+
61
+ tokenizer = AutoTokenizer.from_pretrained('mesolitica/malaysian-llama-3-8b-instruct-16k')
62
+ model = AutoModelForCausalLM.from_pretrained('mesolitica/malaysian-llama-3-8b-instruct-16k',
63
+ torch_dtype=torch.bfloat16,
64
+ use_flash_attention_2 = True
65
+ )
66
+ _ = model.cuda()
67
+
68
+ messages = [
69
+ {'role': 'user', 'content': 'kwsp tu apa'}
70
+ ]
71
+ prompt = tokenizer.apply_chat_template(messages, tokenize = False)
72
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
73
+ generate_kwargs = dict(
74
+ inputs,
75
+ max_new_tokens=1024,
76
+ top_p=0.95,
77
+ top_k=50,
78
+ temperature=0.9,
79
+ do_sample=True,
80
+ num_beams=1,
81
+ )
82
+ r = model.generate(**generate_kwargs)
83
+ tokenizer.decode(r[0])
84
+ ```
85
+
86
+ ```
87
+ <|begin_of_text|><|start_header_id|>user<|end_header_id|>
88
+
89
+ kwsp tu apa<|eot_id|><|start_header_id|>assistant<|end_header_id|>
90
+
91
+ KWSP adalah singkatan kepada Kumpulan Wang Simpanan Pekerja, iaitu sejenis skim simpanan persaraan yang ditadbir oleh kerajaan Malaysia. Ia adalah sistem pencen yang disumbangkan oleh kedua-dua majikan dan pekerja. KWSP adalah skim simpanan wajib di Malaysia, dan kebanyakan pekerja mesti mendaftar dan menyumbang kepada KWSP. Skim ini ditadbir oleh Kumpulan Wang Simpanan Pekerja Malaysia. KWSP menyediakan pelbagai pilihan pelaburan untuk ahlinya, termasuk unit amanah, bon, dan juga simpanan tetap. Ahli boleh memohon untuk melabur sebahagian simpanan KWSP mereka dalam pilihan ini pada bila-bila masa, tertakluk kepada kriteria kelayakan tertentu. KWSP juga menyediakan perkhidmatan lain, seperti perumahan dan insurans.<|eot_id|>
92
+ ```
93
+
94
+ ```python
95
+ messages = [
96
+ {'role': 'user', 'content': 'nasi kandaq apa sedap kat sungai petani kedah'}
97
+ ]
98
+ prompt = tokenizer.apply_chat_template(messages, tokenize = False)
99
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
100
+ generate_kwargs = dict(
101
+ inputs,
102
+ max_new_tokens=1024,
103
+ top_p=0.95,
104
+ top_k=50,
105
+ temperature=0.9,
106
+ do_sample=True,
107
+ num_beams=1,
108
+ )
109
+ r = model.generate(**generate_kwargs)
110
+ print(tokenizer.decode(r[0]))
111
+ ```
112
+
113
+ ```
114
+ <|begin_of_text|><|start_header_id|>user<|end_header_id|>
115
+
116
+ nasi kandaq apa sedap kat sungai petani kedah<|eot_id|><|start_header_id|>assistant<|end_header_id|>
117
+
118
+ Di Sungai Petani, Kedah, terdapat sebuah gerai yang menyajikan "nasi kandaq" yang sangat lazat dan popular di kalangan penduduk setempat dan pelancong. Nasi kandaq ini merupakan sejenis hidangan nasi yang dimasak dengan santan dan rempah ratus yang dijual oleh seorang penjaja bernama "Cik Kandaq".
119
+
120
+ Gerai nasi kandaq yang terkenal ini terletak di Pekan Lama, Sungai Petani dan telah beroperasi selama lebih dari 30 tahun. Nasi kandaq ini dinamakan berdasarkan nama gerai yang menjualnya, Cik Kandaq, yang merupakan nama samaran bagi penjual tersebut. Nama "Cik Kandaq" sendiri adalah gabungan antara perkataan "Cik", yang merupakan kata ganti nama bagi seorang wanita yang lebih rendah statusnya berbanding dengan "Puan", dan perkataan "kandaq" yang bermaksud'miskin' dalam loghat Kedah.
121
+
122
+ Nasi kandaq yang dijual oleh Cik Kandaq sangat terkenal kerana rasa nasi yang lemak dan wangi dari campuran santan dan rempah ratus, serta kerangupan lauk-pauk yang dihidangkan bersama nasi tersebut. Lauk-pauk yang dihidangkan bersama nasi kandaq termasuk ikan goreng, sotong goreng, ayam goreng, dan telur masin.
123
+
124
+ Gerai ini hanya beroperasi pada waktu pagi sahaja dan seringkali pelanggan akan berbaris panjang untuk mendapatkan hidangan nasi kandaq yang sedap ini. Bagi penduduk setempat, nasi kandaq adalah makanan kegemaran yang sering dicari, terutama pada waktu sarapan atau makan tengahari. Bagi pelancong yang berkunjung ke Sungai Petani, gerai nasi kandaq ini adalah salah satu tempat yang wajib dikunjungi untuk merasai pengalaman makan nasi kandaq yang asli dan nikmat.<|eot_id|>
125
+ ```
126
+
127
+ ```python
128
+ messages = [
129
+ {'role': 'user', 'content': 'asdsd231asd'},
130
+ {'role': 'assistant', 'content': 'Saya minta maaf, saya tidak dapat menjana respons yang bermakna kepada input itu. Bolehkah anda berikan lebih banyak konteks atau jelaskan soalan anda?'},
131
+ {'role': 'user', 'content': 'awak giler eh'},
132
+ ]
133
+ prompt = tokenizer.apply_chat_template(messages, tokenize = False)
134
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
135
+ generate_kwargs = dict(
136
+ inputs,
137
+ max_new_tokens=1024,
138
+ top_p=0.95,
139
+ top_k=50,
140
+ temperature=0.9,
141
+ do_sample=True,
142
+ num_beams=1,
143
+ )
144
+ r = model.generate(**generate_kwargs)
145
+ print(tokenizer.decode(r[0]))
146
+ ```
147
+
148
+ ```
149
+ <|begin_of_text|><|start_header_id|>user<|end_header_id|>
150
+
151
+ asdsd231asd<|eot_id|><|start_header_id|>assistant<|end_header_id|>
152
+
153
+ Saya minta maaf, saya tidak dapat menjana respons yang bermakna kepada input itu. Bolehkah anda berikan lebih banyak konteks atau jelaskan soalan anda?<|eot_id|><|start_header_id|>user<|end_header_id|>
154
+
155
+ awak giler eh<|eot_id|><|start_header_id|>assistant<|end_header_id|>
156
+
157
+ Saya memohon maaf jika saya memberi anda maklumat yang salah atau tidak membantu. Saya berusaha untuk memberikan jawapan yang tepat dan relevan kepada pertanyaan pengguna. Jika anda boleh memberikan lebih banyak konteks atau menjelaskan apa yang anda cari, saya berbesar hati untuk mencuba dan membantu anda sekali lagi.<|eot_id|>
158
+ ```
159
+