jujbob commited on
Commit
ce5d4dd
·
verified ·
1 Parent(s): 952c65c

first commit

Browse files
Files changed (1) hide show
  1. README.md +324 -0
README.md ADDED
@@ -0,0 +1,324 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ - ko
5
+ license: llama3.1
6
+ library_name: transformers
7
+ base_model:
8
+ - meta-llama/Meta-Llama-3.1-405B
9
+ ---
10
+
11
+ <a href="https://github.com/MLP-Lab/Bllossom">
12
+ <img src="https://github.com/teddysum/bllossom/blob/main//bllossom_icon.png?raw=true" width="40%" height="50%">
13
+ </a>
14
+
15
+
16
+ # Bllossom | [Demo]() | [Homepage](https://www.bllossom.ai/) | [Github](https://github.com/MLP-Lab/Bllossom) |
17
+
18
+ <!-- [GPU용 Colab 코드예제](https://colab.research.google.com/drive/1fBOzUVZ6NRKk_ugeoTbAOokWKqSN47IG?usp=sharing) | -->
19
+ <!-- [CPU용 Colab 양자화모델 코드예제](https://colab.research.google.com/drive/129ZNVg5R2NPghUEFHKF0BRdxsZxinQcJ?usp=drive_link) -->
20
+
21
+ ```bash
22
+ 저희 Bllossom 팀에서 llama3.1 기반의 한국어-영어 이중 언어모델 Bllossom-405B, Bllossom-8B를 공개합니다.
23
+ 이번 Bllossom3.1-405B는 preview 버전으로 다음과 같은 특징을 보입니다.
24
+ - Llama3.1-405B-Inst 대비 5~10% 한국어 성능이 향상 되었습니다 (single turn 기준).
25
+ - Llama3.1의 영어 성능을 전혀 손상시키지 않은 완전한 Bilingual 모델입니다.
26
+ - 기존 모델 대비 자연스럽고 친절한 한국어 문장을 생성합니다.
27
+ - 인간평가, GPT평가(MT-Bench, LogicKor 9점 등) 결과 GPT4와 유사하거나 약간 낮은 성능을 보여줍니다.
28
+
29
+ 해당 모델은 다음과 같은 협업을 토대로 구축 되었습니다!
30
+ - 서울과기대 MLP연구실의 경량화 사전 학습기법이 적용되었습니다.
31
+ - HP의 computing 지원이 있었습니다.
32
+ - Common Crawl의 Oscar팀의 적극적인 데이터 지원이 있었습니다
33
+
34
+ 언제나 그랬듯 해당 모델은 상업적 이용이 가능합니다. A100 6대만 준비되면 Bllossom을 이용해 여러분만의 모델을 만들어보세요 GPT4가 더이상 필요 없습니다.
35
+ GPU자원이 부족하면 A100 3개 혹은 A6000 4개로 양자화 모델을 이용해 보세요. [양자화모델](https://huggingface.co/MLP-KTLim/llama-3-Korean-Bllossom-8B-4bit)
36
+
37
+ 1. Bllossom-8B는 서울과기대, 테디썸, 연세대 언어자원 연구실의 언어학자와 협업해 만든 실용주의기반 언어모델입니다! 앞으로 지속적인 업데이트를 통해 관리하겠습니다 많이 활용해주세요 🙂
38
+ 2. 초 강력한 Advanced-Bllossom 8B, 70B모델, 시각-언어모델을 보유하고 있습니다! (궁금하신분은 개별 연락주세요!!)
39
+ 3. Bllossom은 NAACL2024, LREC-COLING2024 (구두) 발표로 채택되었습니다.
40
+ 4. 좋은 언어모델 계속 업데이트 하겠습니다!! 한국어 강화를위해 공동 연구하실분(특히논문) 언제든 환영합니다!!
41
+ 특히 소량의 GPU라도 대여 가능한팀은 언제든 연락주세요! 만들고 싶은거 도와드려요.
42
+ ```
43
+
44
+ ```bash
45
+ The Bllossom language model is a Korean-English bilingual language model based on the open-source LLama3.1. It enhances the connection of knowledge between Korean and English. It has the following features:
46
+ - Korean performance improved by 5-10% compared to Llama 3.1-405B-Inst (single turn basis).
47
+ - A complete bilingual model that does not compromise the English performance of Llama 3.1.
48
+ - Generates more natural and friendly Korean sentences compared to existing models.
49
+ - Human evaluations and GPT evaluations (MT-Bench, LogicKor scoring 9, etc.) show performance similar to or slightly lower than GPT-4.
50
+ ```
51
+
52
+ **This model developed by [MLPLab at Seoultech](http://mlp.seoultech.ac.kr), [Teddysum](http://teddysum.ai/) and [Yonsei Univ](https://sites.google.com/view/hansaemkim/hansaem-kim)**
53
+
54
+ ## Demo Video
55
+
56
+ <div style="display: flex; justify-content: space-between;">
57
+ <!-- 첫 번째 컬럼 -->
58
+ <div style="width: 49%;">
59
+ <a>
60
+ <img src="https://github.com/lhsstn/lhsstn/blob/main/x-llava_dem.gif?raw=true" style="width: 100%; height: auto;">
61
+ </a>
62
+ <p style="text-align: center;">Bllossom-V Demo</p>
63
+ </div>
64
+
65
+ <!-- 두 번째 컬럼 (필요하다면) -->
66
+ <div style="width: 49%;">
67
+ <a>
68
+ <img src="https://github.com/lhsstn/lhsstn/blob/main/bllossom_demo_kakao.gif?raw=true" style="width: 70%; height: auto;">
69
+ </a>
70
+ <p style="text-align: center;">Bllossom Demo(Kakao)ㅤㅤㅤㅤㅤㅤㅤㅤ</p>
71
+ </div>
72
+ </div>
73
+
74
+
75
+
76
+ # NEWS
77
+ * [2024.06.18] We have reverted to the non-vocab-expansion model. However, we have significantly increased the amount of pre-training data to 250GB.
78
+ * [2024.05.08] Vocab Expansion Model Update
79
+ * [2024.04.25] We released Bllossom v2.0, based on llama-3
80
+
81
+ ## Example code
82
+
83
+ ### Colab Tutorial
84
+ - [Inference-Code-Link](https://colab.research.google.com/drive/1fBOzUVZ6NRKk_ugeoTbAOokWKqSN47IG?usp=sharing)
85
+
86
+ ### Install Dependencies
87
+ ```bash
88
+ pip install torch transformers==4.40.0 accelerate
89
+ ```
90
+
91
+ ### Python code with Pipeline
92
+ ```python
93
+ import transformers
94
+ import torch
95
+
96
+ model_id = "MLP-KTLim/llama-3-Korean-Bllossom-8B"
97
+
98
+ pipeline = transformers.pipeline(
99
+ "text-generation",
100
+ model=model_id,
101
+ model_kwargs={"torch_dtype": torch.bfloat16},
102
+ device_map="auto",
103
+ )
104
+
105
+ pipeline.model.eval()
106
+
107
+ PROMPT = '''You are a helpful AI assistant. Please answer the user's questions kindly. 당신은 유능한 AI 어시스턴트 입니다. 사용자의 질문에 대해 친절하게 답변해주세요.'''
108
+ instruction = "서울의 유명한 관광 코스를 만들어줄래?"
109
+
110
+ messages = [
111
+ {"role": "system", "content": f"{PROMPT}"},
112
+ {"role": "user", "content": f"{instruction}"}
113
+ ]
114
+
115
+ prompt = pipeline.tokenizer.apply_chat_template(
116
+ messages,
117
+ tokenize=False,
118
+ add_generation_prompt=True
119
+ )
120
+
121
+ terminators = [
122
+ pipeline.tokenizer.eos_token_id,
123
+ pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
124
+ ]
125
+
126
+ outputs = pipeline(
127
+ prompt,
128
+ max_new_tokens=2048,
129
+ eos_token_id=terminators,
130
+ do_sample=True,
131
+ temperature=0.6,
132
+ top_p=0.9
133
+ )
134
+
135
+ print(outputs[0]["generated_text"][len(prompt):])
136
+ ```
137
+ ```
138
+ # 물론이죠! 서울은 다양한 문화와 역사, 자연을 겸비한 도시로, 많은 관광 명소를 자랑합니다. 여기 서울의 유명한 관광 코스를 소개해 드릴게요.
139
+
140
+ ### 코스 1: 역사와 문화 탐방
141
+
142
+ 1. **경복궁**
143
+ - 서울의 대표적인 궁궐로, 조선 왕조의 역사와 문화를 체험할 수 있는 곳입니다.
144
+
145
+ 2. **북촌 한옥마을**
146
+ - 전통 한옥이 잘 보존된 마을로, 조선시대의 생활상을 느낄 수 있습니다.
147
+
148
+ 3. **인사동**
149
+ - 전통 문화와 현대 예술이 공존하는 거리로, 다양한 갤러리와 전통 음식점이 있습니다.
150
+
151
+ 4. **청계천**
152
+ - 서울의 중심에 위치한 천문으로, 조깅과 산책을 즐길 수 있는 곳입니다.
153
+
154
+ ### 코스 2: 자연과 쇼핑
155
+
156
+ 1. **남산 서울타워**
157
+ - 서울의 전경을 한눈에 볼 수 있는 곳으로, 특히 저녁 시간대에 일몰을 감상하는 것이 좋습니다.
158
+
159
+ 2. **명동**
160
+ - 쇼핑과 음식점이 즐비한 지역으로, 다양한 브랜드와 전통 음식을 맛볼 수 있습니다.
161
+
162
+ 3. **한강공원**
163
+ - 서울의 주요 공원 중 하나로, 조깅, 자전거 타기, 배낭 여행을 즐길 수 있습니다.
164
+
165
+ 4. **홍대**
166
+ - 젊은이들이 즐겨 찾는 지역으로, 다양한 카페, 레스토랑, 클럽이 있습니다.
167
+
168
+ ### 코스 3: 현대와 전통의 조화
169
+
170
+ 1. **동대문 디자인 플라자 (DDP)**
171
+ - 현대적인 건축물로, 다양한 전시와 이벤트가 열리는 곳입니다.
172
+
173
+ 2. **이태원**
174
+ - 다양한 국제 음식과 카페가 있는 지역으로, 다양한 문화를 경험할 수 있습니다.
175
+
176
+ 3. **광화문**
177
+ - 서울의 중심에 위치한 광장으로, 다양한 공연과 행사가 열립니다.
178
+
179
+ 4. **서울랜드**
180
+ - 서울 외곽에 위치한 테마파크로, 가족단위 관광객들에게 인기 있는 곳입니다.
181
+
182
+ 이 코스들은 서울의 다양한 면모를 경험할 수 있도록 구성되어 있습니다. 각 코스마다 시간을 조절하고, 개인의 관심사에 맞게 선택하여 방문하면 좋을 것 같습니다. 즐거운 여행 되세요!
183
+ ```
184
+
185
+ ### Python code with AutoModel
186
+ ```python
187
+
188
+ import os
189
+ import torch
190
+ from transformers import AutoTokenizer, AutoModelForCausalLM
191
+
192
+ model_id = 'MLP-KTLim/llama-3-Korean-Bllossom-8B'
193
+
194
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
195
+ model = AutoModelForCausalLM.from_pretrained(
196
+ model_id,
197
+ torch_dtype=torch.bfloat16,
198
+ device_map="auto",
199
+ )
200
+
201
+ model.eval()
202
+
203
+ PROMPT = '''You are a helpful AI assistant. Please answer the user's questions kindly. 당신은 유능한 AI 어시스턴트 입니다. 사용자의 질문에 대해 친절하게 답변해주세요.'''
204
+ instruction = "서울의 유명한 관광 코스를 만들어줄래?"
205
+
206
+ messages = [
207
+ {"role": "system", "content": f"{PROMPT}"},
208
+ {"role": "user", "content": f"{instruction}"}
209
+ ]
210
+
211
+ input_ids = tokenizer.apply_chat_template(
212
+ messages,
213
+ add_generation_prompt=True,
214
+ return_tensors="pt"
215
+ ).to(model.device)
216
+
217
+ terminators = [
218
+ tokenizer.eos_token_id,
219
+ tokenizer.convert_tokens_to_ids("<|eot_id|>")
220
+ ]
221
+
222
+ outputs = model.generate(
223
+ input_ids,
224
+ max_new_tokens=2048,
225
+ eos_token_id=terminators,
226
+ do_sample=True,
227
+ temperature=0.6,
228
+ top_p=0.9
229
+ )
230
+
231
+ print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
232
+ ```
233
+ ```
234
+ # 물론이죠! 서울은 다양한 문화와 역사, 자연을 겸비한 도시로, 많은 관광 명소를 자랑합니다. 여기 서울의 유명한 관광 코스를 소개해 드릴게요.
235
+
236
+ ### 코스 1: 역사와 문화 탐방
237
+
238
+ 1. **경복궁**
239
+ - 서울의 대표적인 궁궐로, 조선 왕조의 역사와 문화를 체험할 수 있는 곳입니다.
240
+
241
+ 2. **북촌 한옥마을**
242
+ - 전통 한옥이 잘 보존된 마을로, 조선시대의 생활상을 느낄 수 있습니다.
243
+
244
+ 3. **인사동**
245
+ - 전통 문화와 현대 예술이 공존하는 거리로, 다양한 갤러리와 전통 음식점이 있습니다.
246
+
247
+ 4. **청계천**
248
+ - 서울의 중심에 위치한 천문으로, 조깅과 산책을 즐길 수 있는 곳입니다.
249
+
250
+ ### 코스 2: 자연과 쇼핑
251
+
252
+ 1. **남산 서울타워**
253
+ - 서울의 전경을 한눈에 볼 수 있는 곳으로, 특히 저녁 시간대에 일몰을 감상하는 것이 좋습니다.
254
+
255
+ 2. **명동**
256
+ - 쇼핑과 음식점이 즐비한 지역으로, 다양한 브랜드와 전통 음식을 맛볼 수 있습니다.
257
+
258
+ 3. **한강공원**
259
+ - 서울의 주요 공원 중 하나로, 조깅, 자전거 타기, 배낭 여행을 즐길 수 있습니다.
260
+
261
+ 4. **홍대**
262
+ - 젊은이들이 즐겨 찾는 지역으로, 다양한 카페, 레스토랑, 클럽이 있습니다.
263
+
264
+ ### 코스 3: 현대와 전통의 조화
265
+
266
+ 1. **동대문 디자인 플라자 (DDP)**
267
+ - 현대적인 건축물로, 다양한 전시와 이벤트가 열리는 곳입니다.
268
+
269
+ 2. **이태원**
270
+ - 다양한 국제 음식과 카페가 있는 지역으로, 다양한 문화를 경험할 수 있습니다.
271
+
272
+ 3. **광화문**
273
+ - 서울의 중심에 위치한 광장으로, 다양한 공연과 행사가 열립니다.
274
+
275
+ 4. **서울랜드**
276
+ - 서울 외곽에 위치한 테마파크로, 가족단위 관광객들에게 인기 있는 곳입니다.
277
+
278
+ 이 코스들은 서울의 다양한 면모를 경험할 수 있도록 구성되어 있습니다. 각 코스마다 시간을 조절하고, 개인의 관심사에 맞게 선택하여 방문하면 좋을 것 같습니다. 즐거운 여행 되세요!
279
+ ```
280
+
281
+
282
+
283
+ ## Citation
284
+ **Language Model**
285
+ ```text
286
+ @misc{bllossom,
287
+ author = {ChangSu Choi, Yongbin Jeong, Seoyoon Park, InHo Won, HyeonSeok Lim, SangMin Kim, Yejee Kang, Chanhyuk Yoon, Jaewan Park, Yiseul Lee, HyeJin Lee, Younggyun Hahm, Hansaem Kim, KyungTae Lim},
288
+ title = {Optimizing Language Augmentation for Multilingual Large Language Models: A Case Study on Korean},
289
+ year = {2024},
290
+ journal = {LREC-COLING 2024},
291
+ paperLink = {\url{https://arxiv.org/pdf/2403.10882}},
292
+ },
293
+ }
294
+ ```
295
+
296
+ **Vision-Language Model**
297
+ ```text
298
+ @misc{bllossom-V,
299
+ author = {Dongjae Shin, Hyunseok Lim, Inho Won, Changsu Choi, Minjun Kim, Seungwoo Song, Hangyeol Yoo, Sangmin Kim, Kyungtae Lim},
300
+ title = {X-LLaVA: Optimizing Bilingual Large Vision-Language Alignment},
301
+ year = {2024},
302
+ publisher = {GitHub},
303
+ journal = {NAACL 2024 findings},
304
+ paperLink = {\url{https://arxiv.org/pdf/2403.11399}},
305
+ },
306
+ }
307
+ ```
308
+
309
+ ## Contact
310
+ - 임경태(KyungTae Lim), Professor at Seoultech. `[email protected]`
311
+ - 함영균(Younggyun Hahm), CEO of Teddysum. `[email protected]`
312
+ - 김한샘(Hansaem Kim), Professor at Yonsei. `[email protected]`
313
+
314
+ ## Contributor
315
+ - 최창수(Chansu Choi), [email protected]
316
+ - 김상민(Sangmin Kim), [email protected]
317
+ - 원인호(Inho Won), [email protected]
318
+ - 김민준(Minjun Kim), [email protected]
319
+ - 송승우(Seungwoo Song), [email protected]
320
+ - 신동재(Dongjae Shin), [email protected]
321
+ - 임현석(Hyeonseok Lim), [email protected]
322
+ - 육정훈(Jeonghun Yuk), [email protected]
323
+ - 유한결(Hangyeol Yoo), [email protected]
324
+ - 송서현(Seohyun Song), [email protected]