NghiemAbe commited on
Commit
d904f2a
·
verified ·
1 Parent(s): 1b485e7

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1429 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:609413
8
+ - loss:CachedMultipleNegativesRankingLoss
9
+ base_model: Turbo-AI/gte-multilingual-base__trim_vocab
10
+ widget:
11
+ - source_sentence: Những loại giấy tờ, tài liệu nào có thể dùng để xác định nội dung
12
+ con dấu, chữ ký và chức danh theo quy định pháp luật hiện nay?
13
+ sentences:
14
+ - 'Giấy tờ, tài liệu nêu tại điểm a khoản 2 Điều 12 Nghị định bao gồm:
15
+
16
+ 1. Giấy tờ, tài liệu có con dấu, chữ ký và chức danh chưa được giới thiệu chính
17
+ thức.
18
+
19
+ 2. Giấy tờ, tài liệu có con dấu, chữ ký và chức danh không thể xác định được trên
20
+ cơ sở đối chiếu với mẫu con dấu, mẫu chữ ký và chức danh được giới thiệu chính
21
+ thức hoặc trên cơ sở kết quả xác minh.'
22
+ - Người đứng đầu cơ quan, tổ chức trong phạm vi nhiệm vụ, quyền hạn của mình có
23
+ trách nhiệm quản lý về lưu trữ, áp dụng các biện pháp nhằm nâng cao hiệu quả trong
24
+ việc thu thập, quản lý, bảo quản và sử dụng tài liệu lưu trữ; ban hành quy chế
25
+ về công tác lưu trữ của cơ quan, tổ chức mình.
26
+ - '1. Tài liệu hình thành trong quá trình hoạt động của Hội đồng nhân dân, Ủy ban
27
+ nhân dân, các tổ chức xã hội, tổ chức xã hội - nghề nghiệp của xã, phường, thị
28
+ trấn được lựa chọn và lưu trữ tại Văn phòng Ủy ban nhân dân xã, phường, thị trấn.
29
+
30
+ Người làm lưu trữ tại Văn phòng Ủy ban nhân dân xã, phường, thị trấn phải có đủ
31
+ các tiêu chuẩn chuyên môn, nghiệp vụ lưu trữ và được hưởng chế độ, quyền lợi theo
32
+ quy định của pháp luật.
33
+
34
+ 2. Người làm lưu trữ tại Văn phòng Ủy ban nhân dân xã, phường, thị trấn có nhiệm
35
+ vụ hướng dẫn việc lập hồ sơ, tiếp nhận hồ sơ, tài liệu, chỉnh lý, thống kê, bảo
36
+ quản và phục vụ sử dụng tài liệu lưu trữ theo quy định của pháp luật về lưu trữ.'
37
+ - source_sentence: Giấy tờ, tài liệu có con dấu, chữ ký và chức danh chưa được giới
38
+ thiệu chính thức gồm những loại nào?
39
+ sentences:
40
+ - '1. Việc giới thiệu mẫu con dấu, mẫu chữ ký và chức danh của cơ quan, tổ chức
41
+ lập, công chứng, chứng thực, chứng nhận giấy tờ, tài liệu theo quy định tại khoản
42
+ 4 Điều 11 Nghị định được thực hiện như sau:
43
+
44
+ a) Cơ quan, tổ chức có thẩm quyền lập, công chứng, chứng thực giấy tờ, tài liệu
45
+ theo quy định của pháp luật có trách nhiệm giới thiệu mẫu con dấu, mẫu chữ ký
46
+ và chức danh của cơ quan, tổ chức.
47
+
48
+ b) Cơ quan, tổ chức có trách nhiệm định kỳ hàng năm rà soát mẫu con dấu, mẫu chữ
49
+ ký, chức danh của cơ quan, tổ chức và thông báo kết quả rà soát trước ngày 01
50
+ tháng 02 của năm tiếp theo.
51
+
52
+ c) Cục Lãnh sự và Sở Ngoại vụ Thành phố Hồ Chí Minh tiếp nhận việc giới thiệu
53
+ mẫu con dấu, mẫu chữ ký và chức danh của cơ quan, tổ chức Trung ương và cơ quan,
54
+ tổ chức địa phương.
55
+
56
+ Cơ quan ngoại vụ địa phương tiếp nhận việc giới thiệu mẫu con dấu, mẫu chữ ký
57
+ và chức danh của cơ quan, tổ chức địa phương và cơ quan, tổ chức Trung ương đặt
58
+ tại địa phương được gửi tới cơ quan ngoại vụ; chuyển bản gốc văn bản giới thiệu
59
+ cho Cục Lãnh sự và Sở Ngoại vụ Thành phố Hồ Chí Minh trong thời hạn 05 ngày làm
60
+ việc, kể từ ngày nhận được giới thiệu, và lưu giữ bản chụp của văn bản này.
61
+
62
+ 2. Cục Lãnh sự và Sở Ngoại vụ Thành phố Hồ Chí Minh có trách nhiệm giới thiệu
63
+ mẫu con dấu, mẫu chữ ký và chức danh của đơn vị mình cho các Cơ quan đại diện
64
+ nước ngoài tại Việt Nam và các Cơ quan đại diện Việt Nam ở nước ngoài.
65
+
66
+ 3. Các Cơ quan đại diện Việt Nam ở nước ngoài có trách nhiệm giới thiệu mẫu con
67
+ dấu, mẫu chữ ký và chức danh của Cơ quan đại diện cho Bộ Ngoại giao hoặc cơ quan
68
+ có thẩm quyền khác của nước ngoài.
69
+
70
+ 4. Trong trường hợp có sự thay đổi về mẫu con dấu, mẫu chữ ký và chức danh nêu
71
+ tại khoản 1, khoản 2 và khoản 3 Điều này thì cơ quan liên quan phải giới thiệu
72
+ mẫu con dấu, mẫu chữ ký và chức danh mới trong thời hạn 20 ngày làm việc, kể từ
73
+ ngày có sự thay đổi.'
74
+ - 'Gi��y tờ, tài liệu nêu tại điểm a khoản 2 Điều 12 Nghị định bao gồm:
75
+
76
+ 1. Giấy tờ, tài liệu có con dấu, chữ ký và chức danh chưa được giới thiệu chính
77
+ thức.
78
+
79
+ 2. Giấy tờ, tài liệu có con dấu, chữ ký và chức danh không thể xác định được trên
80
+ cơ sở đối chiếu với mẫu con dấu, mẫu chữ ký và chức danh được giới thiệu chính
81
+ thức hoặc trên cơ sở kết quả xác minh.'
82
+ - 'Thông báo về tình hình chấp hành án của người đang chấp hành án phạt tù
83
+
84
+ Bộ Công an thông báo ngay cho cơ quan có thẩm quyền của nước ngoài khi:
85
+
86
+ 1. Người đang chấp hành án phạt tù được tạm đình chỉ thi hành án phạt tù, giảm
87
+ thời hạn chấp hành hình phạt tù hoặc đặc xá;
88
+
89
+ 2. Người đang chấp hành án phạt tù đã chấp hành xong án phạt tù;
90
+
91
+ 3. Người đang chấp hành án phạt tù bỏ trốn khỏi nơi giam giữ;
92
+
93
+ 4. Người đang chấp hành án phạt tù chết trước khi chấp hành xong án phạt tù;
94
+
95
+ 5. Phía nước ngoài đề nghị thông báo về tình hình chấp hành án của người đang
96
+ chấp hành án phạt tù.'
97
+ - source_sentence: Việc trích yếu nội dung công văn của cơ quan Bộ Giáo dục và Đào
98
+ tạo được thực hiện theo thể thức nào?
99
+ sentences:
100
+ - '1. Thể thức
101
+
102
+ Tên loại văn bản là tên của từng loại văn bản do cơ quan, tổ chức ban hành. Khi
103
+ ban hành văn bản đều phải ghi tên loại, trừ công văn.
104
+
105
+ Trích yếu nội dung của văn bản là một câu ngắn gọn hoặc một cụm từ phản ánh khái
106
+ quát nội dung chủ yếu của văn bản.
107
+
108
+ 2. Kỹ thuật trình bày
109
+
110
+ Tên loại và trích yếu nội dung của các loại văn bản có ghi tên loại được trình
111
+ bày tại ô số 5a; tên loại văn bản (nghị quyết, quyết định, kế hoạch, báo cáo,
112
+ tờ trình và các loại văn bản khác) được đặt canh giữa bằng chữ in hoa, cỡ chữ
113
+ 14, kiểu chữ đứng, đậm; trích yếu nội dung văn bản được đặt canh giữa, ngay dưới
114
+ tên loại văn bản, bằng chữ in thường, cỡ chữ 14, kiểu chữ đứng, đậm; bên dưới
115
+ trích yếu có đường kẻ ngang, nét liền, có độ dài bằng từ 1/3 đến 1/2 độ dài của
116
+ dòng chữ và đặt cân đối so với dòng chữ, ví dụ:
117
+
118
+ QUYẾT ĐỊNH Về việc điều động cán bộ
119
+
120
+ Trích yếu nội dung công văn được trình bày tại ô số 5b, sau chữ “V/v” bằng chữ
121
+ in thường, cỡ chữ từ 12 đến 13, kiểu chữ đứng; được đặt canh giữa dưới số và ký
122
+ hiệu văn bản, cách dòng 6pt với số và ký hiệu văn bản, ví dụ:
123
+
124
+ Số: 72/VTLTNN-NVĐP
125
+
126
+ V/v kế hoạch kiểm tra công tác văn thư, lưu trữ năm 2009'
127
+ - 'Nguyên tắc vũ trang canh gác bảo vệ mục tiêu
128
+
129
+ 1. Tuân thủ quy định tại Nghị định số 37/2009/NĐ-CP ngày 23/4/2009 quy định các
130
+ mục tiêu quan trọng về chính trị, kinh tế, ngoại giao, khoa học - kỹ thuật, văn
131
+ hóa, xã hội do lực lượng Cảnh sát nhân dân có trách nhiệm vũ trang canh gác bảo
132
+ vệ và trách nhiệm của cơ quan, tổ chức có liên quan và quy định của Thông tư này.
133
+
134
+ 2. Bảo đảm vũ trang canh gác bảo vệ mục tiêu thường xuyên, liên tục 24/24 giờ.
135
+
136
+ 3. Phối hợp chặt chẽ với các đơn vị trong Công an nhân dân và các cơ quan, tổ
137
+ chức có liên quan nhằm phòng ngừa, phát hiện, ngăn chặn, xử lý kịp thời mọi hành
138
+ vi xâm hại mục tiêu.'
139
+ - 'Thông báo về việc giảm thời hạn chấp hành án phạt tù, đặc xá, đại xá cho người
140
+ đang chấp hành án phạt tù đã được chuyển giao
141
+
142
+ 1. Ngay sau khi nhận được thông báo về quyết định giảm thời hạn chấp hành án phạt
143
+ tù, đặc xá, đại xá cho người đang chấp hành án phạt tù đã được chuyển giao, Bộ
144
+ Công an thông báo ngay cho cơ quan có thẩm quyền của nước ngoài biết để thực hiện
145
+ việc giảm thời hạn chấp hành án phạt tù, đặc xá, đại xá cho người đang chấp hành
146
+ án phạt tù.
147
+
148
+ 2. Cơ quan đại diện Việt Nam có trách nhiệm phối hợp với Bộ Công an giám sát việc
149
+ cơ quan có thẩm quyền của nước tiếp nhận thực hiện quyết định giảm thời hạn chấp
150
+ hành án phạt tù, đặc xá, đại xá của cơ quan có thẩm quyền của Việt Nam.'
151
+ - source_sentence: Điều kiện để người bị kết án phạt tù chuyển giao về Việt Nam là
152
+ gì?
153
+ sentences:
154
+ - '1. Nguyên tắc ghi nhận chi phí:
155
+
156
+ a) Doanh nghiệp kinh doanh xổ số chỉ được hạch toán vào chi phí các khoản chi
157
+ phí phát sinh liên quan đến hoạt động kinh doanh trong năm tài chính;
158
+
159
+ b) Việc xác định chi phí của doanh nghiệp kinh doanh xổ số được thực hiện phù
160
+ hợp với chuẩn mực kế toán và các văn bản pháp luật về thuế hiện hành.
161
+
162
+ 2. Nguyên tắc quản lý chi phí:
163
+
164
+ a) Doanh nghiệp kinh doanh xổ số phải quản lý chặt chẽ các khoản chi phí để giảm
165
+ chi phí và giá thành sản phẩm nhằm tăng hiệu quả hoạt động kinh doanh của doanh
166
+ nghiệp;
167
+
168
+ b) Việc quản lý chi phí của doanh nghiệp kinh doanh xổ số được thực hiện theo
169
+ quy định của pháp luật về quy chế quản lý tài chính đối với doanh nghiệp do nhà
170
+ nước sở hữu 100% vốn điều lệ.'
171
+ - '"Điều 6. Điều kiện tiếp nhận người đang chấp hành án phạt tù
172
+
173
+ Người đang chấp hành án phạt tù ở nước chuyển giao chỉ có thể được tiếp nhận về
174
+ Việt Nam để tiếp tục chấp hành phần hình phạt tù còn lại khi có đủ các điều kiện
175
+ sau đây:
176
+
177
+ 1. Là công dân Việt Nam;
178
+
179
+ 2. Có nơi thường trú cuối cùng ở Việt Nam;
180
+
181
+ 3. Hành vi phạm tội mà người đó bị kết án ở nước ngoài cũng cấu thành tội phạm
182
+ theo quy định của pháp luật Việt Nam;
183
+
184
+ 4. Vào thời điểm tiếp nhận yêu cầu chuyển giao, thời hạn chưa chấp hành án phạt
185
+ tù phải còn ít nhất là 01 (một) năm; trong trường hợp đặc biệt, thời hạn này còn
186
+ ít nhất là 06 (sáu) tháng;
187
+
188
+ 5. Bản án đối với người được đề nghị chuyển giao về Việt Nam đã có hiệu lực pháp
189
+ luật và không còn thủ tục tố tụng nào đối với người đó tại nước chuyển giao;
190
+
191
+ 6. Nước chuyển giao và người bị kết án đều đồng ý với việc chuyển giao. Trong
192
+ trường hợp người bị kết án phạt tù là người chưa thành niên, người có nhược điểm
193
+ về thể chất hoặc tâm thần thì phải có sự đồng ý của người đại diện hợp pháp của
194
+ người đó;
195
+
196
+ 7. Tòa án có thẩm quyền của Việt Nam có quyết định đồng ý tiếp nhận đã có hiệu
197
+ lực pháp luật."'
198
+ - '1. Cơ quan, tổ chức thuộc Danh mục cơ quan, tổ chức thuộc nguồn nộp lưu tài liệu
199
+ có trách nhiệm sau đây:
200
+
201
+ a) Chỉnh lý tài liệu trước khi giao nộp và lập Mục lục hồ sơ, tài liệu nộp lưu;
202
+
203
+ b) Lập Danh mục tài liệu có đóng dấu chỉ các mức độ mật;
204
+
205
+ c) Giao nộp tài liệu và công cụ tra cứu vào Lưu trữ lịch sử.
206
+
207
+ 2. Lưu trữ lịch sử có trách nhiệm tổ chức tiếp nhận hồ sơ, tài liệu và lập Biên
208
+ bản giao nhận hồ sơ, tài liệu.
209
+
210
+ 3. Mục lục hồ sơ, tài liệu nộp lưu và Biên bản giao nhận hồ sơ, tài liệu được
211
+ lập thành 03 bản; cơ quan, tổ chức giao nộp hồ sơ, tài liệu giữ 01 bản, Lưu trữ
212
+ lịch sử giữ 02 bản và được lưu trữ vĩnh viễn tại cơ quan, tổ chức, Lưu trữ lịch
213
+ sử.'
214
+ - source_sentence: Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm
215
+ trong quản lý chất lượng bệnh viện đa khoa được quy định ra sao?
216
+ sentences:
217
+ - 'Cơ quan, tổ chức chia, tách, sáp nhập, giải thể; tổ chức kinh tế là doanh nghiệp
218
+ nhà nước chia, tách, sáp nhập, giải thể, chuyển đổi hình thức sở hữu hoặc phá
219
+ sản thì người đứng đầu cơ quan, tổ chức, doanh nghiệp phải tổ chức quản lý và
220
+ giao nộp tài liệu theo quy định sau đây:
221
+
222
+ 1. Tài liệu hình thành trong quá trình hoạt động của cơ quan, tổ chức nào phải
223
+ được chỉnh lý, thống kê và bảo quản theo phông lưu trữ của cơ quan, tổ chức đó;
224
+
225
+ 2. Khi cơ quan, tổ chức có quyết định chia, tách, sáp nhập, giải thể; doanh nghiệp
226
+ có quyết định chia, tách, sáp nhập, giải thể, chuyển đổi hình thức sở hữu hoặc
227
+ phá sản thì tất cả các hồ sơ, tài liệu đã giải quyết xong của các đơn vị, cá nhân
228
+ trong cơ quan, tổ chức, doanh nghiệp phải được giao nộp vào Lưu trữ cơ quan để
229
+ tiến hành chỉnh lý tài liệu theo quy định.
230
+
231
+ 3. Tài liệu lưu trữ sau khi được chỉnh lý được quản lý như sau:
232
+
233
+ a) Tài liệu lưu trữ của cơ quan, tổ chức, doanh nghiệp thuộc nguồn nộp lưu tài
234
+ liệu vào Lưu trữ lịch sử được giao nộp vào Lưu trữ lịch sử có thẩm quyền;
235
+
236
+ b) Tài liệu lưu trữ của cơ quan, tổ chức, doanh nghiệp không thuộc nguồn nộp lưu
237
+ vào Lưu trữ lịch sử được quản lý tại Lưu trữ cơ quan của cơ quan, tổ chức, doanh
238
+ nghiệp mới tiếp nhận trụ sở cũ; trường hợp cơ quan, tổ chức giải thể, doanh nghiệp
239
+ giải thể, phá sản hoặc không có cơ quan, tổ chức, doanh nghiệp tiếp nhận trụ sở
240
+ cũ hoặc có nhiều cơ quan, tổ chức, doanh nghiệp mới cùng tiếp nhận trụ sở cũ thì
241
+ tài liệu lưu trữ của cơ quan, tổ chức, doanh nghiệp được giao nộp vào Lưu trữ
242
+ cơ quan theo quyết định của cơ quan, tổ chức cấp trên trực tiếp hoặc cơ quan,
243
+ tổ chức có thẩm quyền.'
244
+ - 'Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm
245
+
246
+ 1. Tổng hợp, tham mưu cho trưởng phòng xét nghiệm trong triển khai các nội dung
247
+ về quản lý chất lượng xét nghiệm.
248
+
249
+ 2. Xây dựng kế hoạch và nội dung quản lý chất lượng xét nghiệm của phòng, trình
250
+ lãnh đạo phòng xét nghiệm xem xét, quyết định để trình lãnh đạo cơ sở khám bệnh,
251
+ chữa bệnh xem xét, phê duyệt.
252
+
253
+ 3. Tổ chức thực hiện chương trình nội kiểm và tham gia chương trình ngoại kiểm
254
+ để theo dõi, giám sát, đánh giá chất lượng công tác xét nghiệm và phát hiện, đề
255
+ xuất giải pháp can thiệp kịp thời nhằm quản lý những trường hợp sai sót, có nguy
256
+ cơ sai sót trong các quy trình xét nghiệm.
257
+
258
+ 4. Thu thập, tổng hợp, phân tích dữ liệu, quản lý và bảo mật thông tin liên quan
259
+ đến hoạt động phòng xét nghiệm.
260
+
261
+ 5. Phối hợp và hỗ trợ các khoa hoặc phòng liên quan khác trong việc triển khai
262
+ quản lý chất lượng xét nghiệm.
263
+
264
+ 6. Tổng kết, báo cáo định kỳ hằng tháng, quý và năm về hoạt động và kết quả quản
265
+ lý chất lượng xét nghiệm với trưởng phòng xét nghiệm, trưởng phòng (hoặc tổ trưởng)
266
+ quản lý chất lượng bệnh viện và lãnh đạo cơ sở khám bệnh, chữa bệnh.
267
+
268
+ 7. Là đầu mối tham mưu để thực hiện các công việc liên quan với các tổ chức đánh
269
+ giá, cấp chứng nhận phòng xét nghiệm đạt tiêu chuẩn quốc gia hoặc tiêu chuẩn quốc
270
+ tế.'
271
+ - '1. Phòng tiếp khách đối ngoại tại trụ sở cơ quan đại diện, văn phòng trực thuộc
272
+ hay nhà riêng có quốc kỳ Việt Nam và treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh
273
+ phía sau nơi ngồi tiếp khách của người chủ trì tiếp khách.
274
+
275
+ 2. Treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh ở chính giữa, quốc kỳ Việt Nam
276
+ treo trên cột cờ đặt phía bên trái ảnh hoặc tượng nếu nhìn từ phía đối diện. Đỉnh
277
+ của ảnh hoặc tượng Chủ tịch Hồ Chí Minh không cao hơn đỉnh ngôi sao vàng trong
278
+ quốc kỳ Việt Nam khi treo trên cột cờ. (Xem hình 5 trong Phụ lục).'
279
+ pipeline_tag: sentence-similarity
280
+ library_name: sentence-transformers
281
+ metrics:
282
+ - cosine_accuracy@10
283
+ - cosine_precision@10
284
+ - cosine_recall@10
285
+ - cosine_ndcg@10
286
+ - cosine_mrr@10
287
+ - cosine_map@10
288
+ - dot_accuracy@10
289
+ - dot_precision@10
290
+ - dot_recall@10
291
+ - dot_ndcg@10
292
+ - dot_mrr@10
293
+ - dot_map@10
294
+ model-index:
295
+ - name: SentenceTransformer based on Turbo-AI/gte-multilingual-base__trim_vocab
296
+ results:
297
+ - task:
298
+ type: information-retrieval
299
+ name: Information Retrieval
300
+ dataset:
301
+ name: Unknown
302
+ type: unknown
303
+ metrics:
304
+ - type: cosine_accuracy@10
305
+ value: 0.9496981891348089
306
+ name: Cosine Accuracy@10
307
+ - type: cosine_precision@10
308
+ value: 0.10040241448692154
309
+ name: Cosine Precision@10
310
+ - type: cosine_recall@10
311
+ value: 0.9305835010060363
312
+ name: Cosine Recall@10
313
+ - type: cosine_ndcg@10
314
+ value: 0.7428373133092846
315
+ name: Cosine Ndcg@10
316
+ - type: cosine_mrr@10
317
+ value: 0.6908386828909965
318
+ name: Cosine Mrr@10
319
+ - type: cosine_map@10
320
+ value: 0.6761721120373031
321
+ name: Cosine Map@10
322
+ - type: dot_accuracy@10
323
+ value: 0.9496981891348089
324
+ name: Dot Accuracy@10
325
+ - type: dot_precision@10
326
+ value: 0.10040241448692154
327
+ name: Dot Precision@10
328
+ - type: dot_recall@10
329
+ value: 0.9309188464118041
330
+ name: Dot Recall@10
331
+ - type: dot_ndcg@10
332
+ value: 0.7149323172808646
333
+ name: Dot Ndcg@10
334
+ - type: dot_mrr@10
335
+ value: 0.6546189837437317
336
+ name: Dot Mrr@10
337
+ - type: dot_map@10
338
+ value: 0.639206269362205
339
+ name: Dot Map@10
340
+ ---
341
+
342
+ # SentenceTransformer based on Turbo-AI/gte-multilingual-base__trim_vocab
343
+
344
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Turbo-AI/gte-multilingual-base__trim_vocab](https://huggingface.co/Turbo-AI/gte-multilingual-base__trim_vocab). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
345
+
346
+ ## Model Details
347
+
348
+ ### Model Description
349
+ - **Model Type:** Sentence Transformer
350
+ - **Base model:** [Turbo-AI/gte-multilingual-base__trim_vocab](https://huggingface.co/Turbo-AI/gte-multilingual-base__trim_vocab) <!-- at revision b49c5d1f2703a4f4725bcd54c2307348ae6b2381 -->
351
+ - **Maximum Sequence Length:** 1024 tokens
352
+ - **Output Dimensionality:** 768 tokens
353
+ - **Similarity Function:** Cosine Similarity
354
+ <!-- - **Training Dataset:** Unknown -->
355
+ <!-- - **Language:** Unknown -->
356
+ <!-- - **License:** Unknown -->
357
+
358
+ ### Model Sources
359
+
360
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
361
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
362
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
363
+
364
+ ### Full Model Architecture
365
+
366
+ ```
367
+ SentenceTransformer(
368
+ (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: NewModel
369
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
370
+ )
371
+ ```
372
+
373
+ ## Usage
374
+
375
+ ### Direct Usage (Sentence Transformers)
376
+
377
+ First install the Sentence Transformers library:
378
+
379
+ ```bash
380
+ pip install -U sentence-transformers
381
+ ```
382
+
383
+ Then you can load this model and run inference.
384
+ ```python
385
+ from sentence_transformers import SentenceTransformer
386
+
387
+ # Download from the 🤗 Hub
388
+ model = SentenceTransformer("Turbo-AI/gte-base-v0__trim_vocab-1024")
389
+ # Run inference
390
+ sentences = [
391
+ 'Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm trong quản lý chất lượng bệnh viện đa khoa được quy định ra sao?',
392
+ 'Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm\n1. Tổng hợp, tham mưu cho trưởng phòng xét nghiệm trong triển khai các nội dung về quản lý chất lượng xét nghiệm.\n2. Xây dựng kế hoạch và nội dung quản lý chất lượng xét nghiệm của phòng, trình lãnh đạo phòng xét nghiệm xem xét, quyết định để trình lãnh đạo cơ sở khám bệnh, chữa bệnh xem xét, phê duyệt.\n3. Tổ chức thực hiện chương trình nội kiểm và tham gia chương trình ngoại kiểm để theo dõi, giám sát, đánh giá chất lượng công tác xét nghiệm và phát hiện, đề xuất giải pháp can thiệp kịp thời nhằm quản lý những trường hợp sai sót, có nguy cơ sai sót trong các quy trình xét nghiệm.\n4. Thu thập, tổng hợp, phân tích dữ liệu, quản lý và bảo mật thông tin liên quan đến hoạt động phòng xét nghiệm.\n5. Phối hợp và hỗ trợ các khoa hoặc phòng liên quan khác trong việc triển khai quản lý chất lượng xét nghiệm.\n6. Tổng kết, báo cáo định kỳ hằng tháng, quý và năm về hoạt động và kết quả quản lý chất lượng xét nghiệm với trưởng phòng xét nghiệm, trưởng phòng (hoặc tổ trưởng) quản lý chất lượng bệnh viện và lãnh đạo cơ sở khám bệnh, chữa bệnh.\n7. Là đầu mối tham mưu để thực hiện các công việc liên quan với các tổ chức đánh giá, cấp chứng nhận phòng xét nghiệm đạt tiêu chuẩn quốc gia hoặc tiêu chuẩn quốc tế.',
393
+ '1. Phòng tiếp khách đối ngoại tại trụ sở cơ quan đại diện, văn phòng trực thuộc hay nhà riêng có quốc kỳ Việt Nam và treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh phía sau nơi ngồi tiếp khách của người chủ trì tiếp khách.\n2. Treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh ở chính giữa, quốc kỳ Việt Nam treo trên cột cờ đặt phía bên trái ảnh hoặc tượng nếu nhìn từ phía đối diện. Đỉnh của ảnh hoặc tượng Chủ tịch Hồ Chí Minh không cao hơn đỉnh ngôi sao vàng trong quốc kỳ Việt Nam khi treo trên cột cờ. (Xem hình 5 trong Phụ lục).',
394
+ ]
395
+ embeddings = model.encode(sentences)
396
+ print(embeddings.shape)
397
+ # [3, 768]
398
+
399
+ # Get the similarity scores for the embeddings
400
+ similarities = model.similarity(embeddings, embeddings)
401
+ print(similarities.shape)
402
+ # [3, 3]
403
+ ```
404
+
405
+ <!--
406
+ ### Direct Usage (Transformers)
407
+
408
+ <details><summary>Click to see the direct usage in Transformers</summary>
409
+
410
+ </details>
411
+ -->
412
+
413
+ <!--
414
+ ### Downstream Usage (Sentence Transformers)
415
+
416
+ You can finetune this model on your own dataset.
417
+
418
+ <details><summary>Click to expand</summary>
419
+
420
+ </details>
421
+ -->
422
+
423
+ <!--
424
+ ### Out-of-Scope Use
425
+
426
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
427
+ -->
428
+
429
+ ## Evaluation
430
+
431
+ ### Metrics
432
+
433
+ #### Information Retrieval
434
+
435
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
436
+
437
+ | Metric | Value |
438
+ |:--------------------|:-----------|
439
+ | cosine_accuracy@10 | 0.9497 |
440
+ | cosine_precision@10 | 0.1004 |
441
+ | cosine_recall@10 | 0.9306 |
442
+ | cosine_ndcg@10 | 0.7428 |
443
+ | cosine_mrr@10 | 0.6908 |
444
+ | **cosine_map@10** | **0.6762** |
445
+ | dot_accuracy@10 | 0.9497 |
446
+ | dot_precision@10 | 0.1004 |
447
+ | dot_recall@10 | 0.9309 |
448
+ | dot_ndcg@10 | 0.7149 |
449
+ | dot_mrr@10 | 0.6546 |
450
+ | dot_map@10 | 0.6392 |
451
+
452
+ <!--
453
+ ## Bias, Risks and Limitations
454
+
455
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
456
+ -->
457
+
458
+ <!--
459
+ ### Recommendations
460
+
461
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
462
+ -->
463
+
464
+ ## Training Details
465
+
466
+ ### Training Dataset
467
+
468
+ #### Unnamed Dataset
469
+
470
+
471
+ * Size: 609,413 training samples
472
+ * Columns: <code>anchor</code> and <code>positive</code>
473
+ * Approximate statistics based on the first 1000 samples:
474
+ | | anchor | positive |
475
+ |:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
476
+ | type | string | string |
477
+ | details | <ul><li>min: 8 tokens</li><li>mean: 25.66 tokens</li><li>max: 74 tokens</li></ul> | <ul><li>min: 26 tokens</li><li>mean: 265.94 tokens</li><li>max: 1024 tokens</li></ul> |
478
+ * Samples:
479
+ | anchor | positive |
480
+ |:---------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
481
+ | <code>Việc tuần tra, canh gác bảo vệ đê Điều trong mùa lũ được thực hiện như thế nào?</code> | <code>Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.</code> |
482
+ | <code>Cách thức bảo vệ tuyến đê sông trong mùa lũ được quy định như thế nào?</code> | <code>Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.</code> |
483
+ | <code>Các tuyến đê sông được phân loại, phân cấp thì được bảo vệ ra sao?</code> | <code>Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.</code> |
484
+ * Loss: [<code>CachedMultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedmultiplenegativesrankingloss) with these parameters:
485
+ ```json
486
+ {
487
+ "scale": 20.0,
488
+ "similarity_fct": "cos_sim"
489
+ }
490
+ ```
491
+
492
+ ### Training Hyperparameters
493
+ #### Non-Default Hyperparameters
494
+
495
+ - `eval_strategy`: steps
496
+ - `per_device_train_batch_size`: 4096
497
+ - `per_device_eval_batch_size`: 4096
498
+ - `num_train_epochs`: 5
499
+ - `warmup_ratio`: 0.05
500
+ - `bf16`: True
501
+ - `load_best_model_at_end`: True
502
+ - `batch_sampler`: no_duplicates
503
+
504
+ #### All Hyperparameters
505
+ <details><summary>Click to expand</summary>
506
+
507
+ - `overwrite_output_dir`: False
508
+ - `do_predict`: False
509
+ - `eval_strategy`: steps
510
+ - `prediction_loss_only`: True
511
+ - `per_device_train_batch_size`: 4096
512
+ - `per_device_eval_batch_size`: 4096
513
+ - `per_gpu_train_batch_size`: None
514
+ - `per_gpu_eval_batch_size`: None
515
+ - `gradient_accumulation_steps`: 1
516
+ - `eval_accumulation_steps`: None
517
+ - `torch_empty_cache_steps`: None
518
+ - `learning_rate`: 5e-05
519
+ - `weight_decay`: 0.0
520
+ - `adam_beta1`: 0.9
521
+ - `adam_beta2`: 0.999
522
+ - `adam_epsilon`: 1e-08
523
+ - `max_grad_norm`: 1.0
524
+ - `num_train_epochs`: 5
525
+ - `max_steps`: -1
526
+ - `lr_scheduler_type`: linear
527
+ - `lr_scheduler_kwargs`: {}
528
+ - `warmup_ratio`: 0.05
529
+ - `warmup_steps`: 0
530
+ - `log_level`: passive
531
+ - `log_level_replica`: warning
532
+ - `log_on_each_node`: True
533
+ - `logging_nan_inf_filter`: True
534
+ - `save_safetensors`: True
535
+ - `save_on_each_node`: False
536
+ - `save_only_model`: False
537
+ - `restore_callback_states_from_checkpoint`: False
538
+ - `no_cuda`: False
539
+ - `use_cpu`: False
540
+ - `use_mps_device`: False
541
+ - `seed`: 42
542
+ - `data_seed`: None
543
+ - `jit_mode_eval`: False
544
+ - `use_ipex`: False
545
+ - `bf16`: True
546
+ - `fp16`: False
547
+ - `fp16_opt_level`: O1
548
+ - `half_precision_backend`: auto
549
+ - `bf16_full_eval`: False
550
+ - `fp16_full_eval`: False
551
+ - `tf32`: None
552
+ - `local_rank`: 0
553
+ - `ddp_backend`: None
554
+ - `tpu_num_cores`: None
555
+ - `tpu_metrics_debug`: False
556
+ - `debug`: []
557
+ - `dataloader_drop_last`: False
558
+ - `dataloader_num_workers`: 0
559
+ - `dataloader_prefetch_factor`: None
560
+ - `past_index`: -1
561
+ - `disable_tqdm`: False
562
+ - `remove_unused_columns`: True
563
+ - `label_names`: None
564
+ - `load_best_model_at_end`: True
565
+ - `ignore_data_skip`: False
566
+ - `fsdp`: []
567
+ - `fsdp_min_num_params`: 0
568
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
569
+ - `fsdp_transformer_layer_cls_to_wrap`: None
570
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
571
+ - `deepspeed`: None
572
+ - `label_smoothing_factor`: 0.0
573
+ - `optim`: adamw_torch
574
+ - `optim_args`: None
575
+ - `adafactor`: False
576
+ - `group_by_length`: False
577
+ - `length_column_name`: length
578
+ - `ddp_find_unused_parameters`: None
579
+ - `ddp_bucket_cap_mb`: None
580
+ - `ddp_broadcast_buffers`: False
581
+ - `dataloader_pin_memory`: True
582
+ - `dataloader_persistent_workers`: False
583
+ - `skip_memory_metrics`: True
584
+ - `use_legacy_prediction_loop`: False
585
+ - `push_to_hub`: False
586
+ - `resume_from_checkpoint`: None
587
+ - `hub_model_id`: None
588
+ - `hub_strategy`: every_save
589
+ - `hub_private_repo`: False
590
+ - `hub_always_push`: False
591
+ - `gradient_checkpointing`: False
592
+ - `gradient_checkpointing_kwargs`: None
593
+ - `include_inputs_for_metrics`: False
594
+ - `eval_do_concat_batches`: True
595
+ - `fp16_backend`: auto
596
+ - `push_to_hub_model_id`: None
597
+ - `push_to_hub_organization`: None
598
+ - `mp_parameters`:
599
+ - `auto_find_batch_size`: False
600
+ - `full_determinism`: False
601
+ - `torchdynamo`: None
602
+ - `ray_scope`: last
603
+ - `ddp_timeout`: 1800
604
+ - `torch_compile`: False
605
+ - `torch_compile_backend`: None
606
+ - `torch_compile_mode`: None
607
+ - `dispatch_batches`: None
608
+ - `split_batches`: None
609
+ - `include_tokens_per_second`: False
610
+ - `include_num_input_tokens_seen`: False
611
+ - `neftune_noise_alpha`: None
612
+ - `optim_target_modules`: None
613
+ - `batch_eval_metrics`: False
614
+ - `eval_on_start`: False
615
+ - `use_liger_kernel`: False
616
+ - `eval_use_gather_object`: False
617
+ - `batch_sampler`: no_duplicates
618
+ - `multi_dataset_batch_sampler`: proportional
619
+
620
+ </details>
621
+
622
+ ### Training Logs
623
+ <details><summary>Click to expand</summary>
624
+
625
+ | Epoch | Step | Training Loss | cosine_map@10 |
626
+ |:------:|:----:|:-------------:|:-------------:|
627
+ | 0.0067 | 1 | 7.1703 | - |
628
+ | 0.0134 | 2 | 7.1798 | - |
629
+ | 0.0201 | 3 | 7.1921 | - |
630
+ | 0.0268 | 4 | 7.1764 | - |
631
+ | 0.0336 | 5 | 7.1942 | - |
632
+ | 0.0403 | 6 | 7.1712 | - |
633
+ | 0.0470 | 7 | 7.0703 | - |
634
+ | 0.0537 | 8 | 7.0478 | - |
635
+ | 0.0604 | 9 | 6.8367 | - |
636
+ | 0.0671 | 10 | 6.716 | - |
637
+ | 0.0738 | 11 | 6.6603 | - |
638
+ | 0.0805 | 12 | 5.8811 | - |
639
+ | 0.0872 | 13 | 5.7548 | - |
640
+ | 0.0940 | 14 | 5.4862 | - |
641
+ | 0.1007 | 15 | 4.9705 | - |
642
+ | 0.1074 | 16 | 4.5047 | - |
643
+ | 0.1141 | 17 | 4.3474 | - |
644
+ | 0.1208 | 18 | 4.1269 | - |
645
+ | 0.1275 | 19 | 3.8795 | - |
646
+ | 0.1342 | 20 | 3.7357 | - |
647
+ | 0.1409 | 21 | 3.2726 | - |
648
+ | 0.1477 | 22 | 3.107 | - |
649
+ | 0.1544 | 23 | 2.9576 | - |
650
+ | 0.1611 | 24 | 2.7544 | - |
651
+ | 0.1678 | 25 | 2.5584 | - |
652
+ | 0.1745 | 26 | 2.4129 | - |
653
+ | 0.1812 | 27 | 2.2592 | - |
654
+ | 0.1879 | 28 | 2.1605 | - |
655
+ | 0.1946 | 29 | 1.9635 | - |
656
+ | 0.2013 | 30 | 1.8905 | - |
657
+ | 0.2081 | 31 | 1.7623 | - |
658
+ | 0.2148 | 32 | 1.6536 | - |
659
+ | 0.2215 | 33 | 1.5194 | - |
660
+ | 0.2282 | 34 | 1.2924 | - |
661
+ | 0.2349 | 35 | 1.1131 | - |
662
+ | 0.2416 | 36 | 0.9684 | - |
663
+ | 0.2483 | 37 | 0.8815 | - |
664
+ | 0.2550 | 38 | 0.8135 | - |
665
+ | 0.2617 | 39 | 0.7569 | - |
666
+ | 0.2685 | 40 | 0.7257 | - |
667
+ | 0.2752 | 41 | 0.6537 | - |
668
+ | 0.2819 | 42 | 0.6096 | - |
669
+ | 0.2886 | 43 | 0.5817 | - |
670
+ | 0.2953 | 44 | 0.5965 | - |
671
+ | 0.3020 | 45 | 0.5602 | - |
672
+ | 0.3087 | 46 | 0.5287 | - |
673
+ | 0.3154 | 47 | 0.4964 | - |
674
+ | 0.3221 | 48 | 0.4858 | - |
675
+ | 0.3289 | 49 | 0.4805 | - |
676
+ | 0.3356 | 50 | 0.477 | - |
677
+ | 0.3423 | 51 | 0.4686 | - |
678
+ | 0.3490 | 52 | 0.432 | - |
679
+ | 0.3557 | 53 | 0.4303 | - |
680
+ | 0.3624 | 54 | 0.434 | - |
681
+ | 0.3691 | 55 | 0.423 | - |
682
+ | 0.3758 | 56 | 0.4075 | - |
683
+ | 0.3826 | 57 | 0.4019 | - |
684
+ | 0.3893 | 58 | 0.3886 | - |
685
+ | 0.3960 | 59 | 0.3725 | - |
686
+ | 0.4027 | 60 | 0.3675 | - |
687
+ | 0.4094 | 61 | 0.3733 | - |
688
+ | 0.4161 | 62 | 0.3774 | - |
689
+ | 0.4228 | 63 | 0.3909 | - |
690
+ | 0.4295 | 64 | 0.3721 | - |
691
+ | 0.4362 | 65 | 0.3566 | - |
692
+ | 0.4430 | 66 | 0.3409 | - |
693
+ | 0.4497 | 67 | 0.362 | - |
694
+ | 0.4564 | 68 | 0.3613 | - |
695
+ | 0.4631 | 69 | 0.354 | - |
696
+ | 0.4698 | 70 | 0.3379 | - |
697
+ | 0.4765 | 71 | 0.3525 | - |
698
+ | 0.4832 | 72 | 0.3225 | - |
699
+ | 0.4899 | 73 | 0.3148 | - |
700
+ | 0.4966 | 74 | 0.4755 | - |
701
+ | 0.5034 | 75 | 0.5973 | - |
702
+ | 0.5101 | 76 | 0.6487 | - |
703
+ | 0.5168 | 77 | 0.6887 | - |
704
+ | 0.5235 | 78 | 0.8575 | - |
705
+ | 0.5302 | 79 | 0.8181 | - |
706
+ | 0.5369 | 80 | 0.8791 | - |
707
+ | 0.5436 | 81 | 0.8026 | - |
708
+ | 0.5503 | 82 | 0.7696 | - |
709
+ | 0.5570 | 83 | 0.7278 | - |
710
+ | 0.5638 | 84 | 0.6707 | - |
711
+ | 0.5705 | 85 | 0.632 | - |
712
+ | 0.5772 | 86 | 0.6457 | - |
713
+ | 0.5839 | 87 | 0.7231 | - |
714
+ | 0.5906 | 88 | 0.6762 | - |
715
+ | 0.5973 | 89 | 0.6605 | - |
716
+ | 0.6040 | 90 | 0.639 | - |
717
+ | 0.6107 | 91 | 0.7126 | - |
718
+ | 0.6174 | 92 | 0.6703 | - |
719
+ | 0.6242 | 93 | 0.6116 | - |
720
+ | 0.6309 | 94 | 0.6143 | - |
721
+ | 0.6376 | 95 | 0.6082 | - |
722
+ | 0.6443 | 96 | 0.6074 | - |
723
+ | 0.6510 | 97 | 0.6499 | - |
724
+ | 0.6577 | 98 | 0.7679 | - |
725
+ | 0.6644 | 99 | 0.676 | - |
726
+ | 0.6711 | 100 | 0.6603 | 0.6409 |
727
+ | 0.6779 | 101 | 0.6438 | - |
728
+ | 0.6846 | 102 | 0.6479 | - |
729
+ | 0.6913 | 103 | 0.5959 | - |
730
+ | 0.6980 | 104 | 0.6173 | - |
731
+ | 0.7047 | 105 | 0.602 | - |
732
+ | 0.7114 | 106 | 0.5743 | - |
733
+ | 0.7181 | 107 | 0.5942 | - |
734
+ | 0.7248 | 108 | 0.5682 | - |
735
+ | 0.7315 | 109 | 0.5648 | - |
736
+ | 0.7383 | 110 | 0.5653 | - |
737
+ | 0.7450 | 111 | 0.6396 | - |
738
+ | 0.7517 | 112 | 0.7634 | - |
739
+ | 0.7584 | 113 | 0.6744 | - |
740
+ | 0.7651 | 114 | 0.6411 | - |
741
+ | 0.7718 | 115 | 0.5934 | - |
742
+ | 0.7785 | 116 | 0.5907 | - |
743
+ | 0.7852 | 117 | 0.5567 | - |
744
+ | 0.7919 | 118 | 0.5274 | - |
745
+ | 0.7987 | 119 | 0.6453 | - |
746
+ | 0.8054 | 120 | 0.6115 | - |
747
+ | 0.8121 | 121 | 0.5959 | - |
748
+ | 0.8188 | 122 | 0.5694 | - |
749
+ | 0.8255 | 123 | 0.5554 | - |
750
+ | 0.8322 | 124 | 0.5419 | - |
751
+ | 0.8389 | 125 | 0.591 | - |
752
+ | 0.8456 | 126 | 0.589 | - |
753
+ | 0.8523 | 127 | 0.5484 | - |
754
+ | 0.8591 | 128 | 0.5447 | - |
755
+ | 0.8658 | 129 | 0.6312 | - |
756
+ | 0.8725 | 130 | 0.6086 | - |
757
+ | 0.8792 | 131 | 0.5948 | - |
758
+ | 0.8859 | 132 | 0.5483 | - |
759
+ | 0.8926 | 133 | 0.5192 | - |
760
+ | 0.8993 | 134 | 0.5273 | - |
761
+ | 0.9060 | 135 | 0.6629 | - |
762
+ | 0.9128 | 136 | 0.6038 | - |
763
+ | 0.9195 | 137 | 0.5433 | - |
764
+ | 0.9262 | 138 | 0.5449 | - |
765
+ | 0.9329 | 139 | 0.5415 | - |
766
+ | 0.9396 | 140 | 0.566 | - |
767
+ | 0.9463 | 141 | 0.5391 | - |
768
+ | 0.9530 | 142 | 0.558 | - |
769
+ | 0.9597 | 143 | 0.6029 | - |
770
+ | 0.9664 | 144 | 0.6619 | - |
771
+ | 0.9732 | 145 | 0.597 | - |
772
+ | 0.9799 | 146 | 0.5931 | - |
773
+ | 0.9866 | 147 | 0.5943 | - |
774
+ | 0.9933 | 148 | 0.5677 | - |
775
+ | 1.0 | 149 | 0.4389 | - |
776
+ | 1.0067 | 150 | 0.2988 | - |
777
+ | 1.0134 | 151 | 0.1699 | - |
778
+ | 1.0201 | 152 | 0.0229 | - |
779
+ | 1.0067 | 153 | 0.5693 | - |
780
+ | 1.0134 | 154 | 0.6031 | - |
781
+ | 1.0201 | 155 | 0.5859 | - |
782
+ | 1.0268 | 156 | 0.5526 | - |
783
+ | 1.0336 | 157 | 0.5625 | - |
784
+ | 1.0403 | 158 | 0.5834 | - |
785
+ | 1.0470 | 159 | 0.5425 | - |
786
+ | 1.0537 | 160 | 0.5344 | - |
787
+ | 1.0604 | 161 | 0.5476 | - |
788
+ | 1.0671 | 162 | 0.5709 | - |
789
+ | 1.0738 | 163 | 0.5811 | - |
790
+ | 1.0805 | 164 | 0.5739 | - |
791
+ | 1.0872 | 165 | 0.5466 | - |
792
+ | 1.0940 | 166 | 0.564 | - |
793
+ | 1.1007 | 167 | 0.5211 | - |
794
+ | 1.1074 | 168 | 0.5349 | - |
795
+ | 1.1141 | 169 | 0.5007 | - |
796
+ | 1.1208 | 170 | 0.5054 | - |
797
+ | 1.1275 | 171 | 0.4804 | - |
798
+ | 1.1342 | 172 | 0.5091 | - |
799
+ | 1.1409 | 173 | 0.5141 | - |
800
+ | 1.1477 | 174 | 0.5154 | - |
801
+ | 1.1544 | 175 | 0.4973 | - |
802
+ | 1.1611 | 176 | 0.4771 | - |
803
+ | 1.1678 | 177 | 0.4817 | - |
804
+ | 1.1745 | 178 | 0.5269 | - |
805
+ | 1.1812 | 179 | 0.5113 | - |
806
+ | 1.1879 | 180 | 0.511 | - |
807
+ | 1.1946 | 181 | 0.4819 | - |
808
+ | 1.2013 | 182 | 0.5247 | - |
809
+ | 1.2081 | 183 | 0.5168 | - |
810
+ | 1.2148 | 184 | 0.5456 | - |
811
+ | 1.2215 | 185 | 0.5288 | - |
812
+ | 1.2282 | 186 | 0.4394 | - |
813
+ | 1.2349 | 187 | 0.4011 | - |
814
+ | 1.2416 | 188 | 0.3307 | - |
815
+ | 1.2483 | 189 | 0.3293 | - |
816
+ | 1.2550 | 190 | 0.3184 | - |
817
+ | 1.2617 | 191 | 0.3202 | - |
818
+ | 1.2685 | 192 | 0.3229 | - |
819
+ | 1.2752 | 193 | 0.3038 | - |
820
+ | 1.2819 | 194 | 0.2949 | - |
821
+ | 1.2886 | 195 | 0.2887 | - |
822
+ | 1.2953 | 196 | 0.297 | - |
823
+ | 1.3020 | 197 | 0.2925 | - |
824
+ | 1.3087 | 198 | 0.2819 | - |
825
+ | 1.3154 | 199 | 0.2689 | - |
826
+ | 1.3221 | 200 | 0.2711 | 0.6600 |
827
+ | 1.3289 | 201 | 0.2725 | - |
828
+ | 1.3356 | 202 | 0.2753 | - |
829
+ | 1.3423 | 203 | 0.2686 | - |
830
+ | 1.3490 | 204 | 0.2549 | - |
831
+ | 1.3557 | 205 | 0.255 | - |
832
+ | 1.3624 | 206 | 0.2586 | - |
833
+ | 1.3691 | 207 | 0.2499 | - |
834
+ | 1.3758 | 208 | 0.2481 | - |
835
+ | 1.3826 | 209 | 0.2536 | - |
836
+ | 1.3893 | 210 | 0.2407 | - |
837
+ | 1.3960 | 211 | 0.2312 | - |
838
+ | 1.4027 | 212 | 0.2264 | - |
839
+ | 1.4094 | 213 | 0.2355 | - |
840
+ | 1.4161 | 214 | 0.2501 | - |
841
+ | 1.4228 | 215 | 0.2509 | - |
842
+ | 1.4295 | 216 | 0.2428 | - |
843
+ | 1.4362 | 217 | 0.2358 | - |
844
+ | 1.4430 | 218 | 0.2266 | - |
845
+ | 1.4497 | 219 | 0.2455 | - |
846
+ | 1.4564 | 220 | 0.2431 | - |
847
+ | 1.4631 | 221 | 0.2445 | - |
848
+ | 1.4698 | 222 | 0.2349 | - |
849
+ | 1.4765 | 223 | 0.2451 | - |
850
+ | 1.4832 | 224 | 0.2225 | - |
851
+ | 1.4899 | 225 | 0.2207 | - |
852
+ | 1.4966 | 226 | 0.321 | - |
853
+ | 1.5034 | 227 | 0.4106 | - |
854
+ | 1.5101 | 228 | 0.442 | - |
855
+ | 1.5168 | 229 | 0.4754 | - |
856
+ | 1.5235 | 230 | 0.5885 | - |
857
+ | 1.5302 | 231 | 0.5739 | - |
858
+ | 1.5369 | 232 | 0.6174 | - |
859
+ | 1.5436 | 233 | 0.5669 | - |
860
+ | 1.5503 | 234 | 0.5445 | - |
861
+ | 1.5570 | 235 | 0.5238 | - |
862
+ | 1.5638 | 236 | 0.4801 | - |
863
+ | 1.5705 | 237 | 0.4585 | - |
864
+ | 1.5772 | 238 | 0.4656 | - |
865
+ | 1.5839 | 239 | 0.5197 | - |
866
+ | 1.5906 | 240 | 0.4985 | - |
867
+ | 1.5973 | 241 | 0.4895 | - |
868
+ | 1.6040 | 242 | 0.4842 | - |
869
+ | 1.6107 | 243 | 0.5392 | - |
870
+ | 1.6174 | 244 | 0.5039 | - |
871
+ | 1.6242 | 245 | 0.4607 | - |
872
+ | 1.6309 | 246 | 0.4645 | - |
873
+ | 1.6376 | 247 | 0.4642 | - |
874
+ | 1.6443 | 248 | 0.4603 | - |
875
+ | 1.6510 | 249 | 0.4968 | - |
876
+ | 1.6577 | 250 | 0.5946 | - |
877
+ | 1.6644 | 251 | 0.5178 | - |
878
+ | 1.6711 | 252 | 0.5016 | - |
879
+ | 1.6779 | 253 | 0.4997 | - |
880
+ | 1.6846 | 254 | 0.5071 | - |
881
+ | 1.6913 | 255 | 0.4633 | - |
882
+ | 1.6980 | 256 | 0.4814 | - |
883
+ | 1.7047 | 257 | 0.4717 | - |
884
+ | 1.7114 | 258 | 0.4541 | - |
885
+ | 1.7181 | 259 | 0.4641 | - |
886
+ | 1.7248 | 260 | 0.4557 | - |
887
+ | 1.7315 | 261 | 0.4479 | - |
888
+ | 1.7383 | 262 | 0.4514 | - |
889
+ | 1.7450 | 263 | 0.5193 | - |
890
+ | 1.7517 | 264 | 0.6282 | - |
891
+ | 1.7584 | 265 | 0.5518 | - |
892
+ | 1.7651 | 266 | 0.5105 | - |
893
+ | 1.7718 | 267 | 0.4772 | - |
894
+ | 1.7785 | 268 | 0.4799 | - |
895
+ | 1.7852 | 269 | 0.4534 | - |
896
+ | 1.7919 | 270 | 0.4318 | - |
897
+ | 1.7987 | 271 | 0.5261 | - |
898
+ | 1.8054 | 272 | 0.4988 | - |
899
+ | 1.8121 | 273 | 0.4867 | - |
900
+ | 1.8188 | 274 | 0.4587 | - |
901
+ | 1.8255 | 275 | 0.449 | - |
902
+ | 1.8322 | 276 | 0.4424 | - |
903
+ | 1.8389 | 277 | 0.4824 | - |
904
+ | 1.8456 | 278 | 0.4786 | - |
905
+ | 1.8523 | 279 | 0.4554 | - |
906
+ | 1.8591 | 280 | 0.4463 | - |
907
+ | 1.8658 | 281 | 0.5171 | - |
908
+ | 1.8725 | 282 | 0.5004 | - |
909
+ | 1.8792 | 283 | 0.4993 | - |
910
+ | 1.8859 | 284 | 0.4595 | - |
911
+ | 1.8926 | 285 | 0.4356 | - |
912
+ | 1.8993 | 286 | 0.4293 | - |
913
+ | 1.9060 | 287 | 0.5566 | - |
914
+ | 1.9128 | 288 | 0.509 | - |
915
+ | 1.9195 | 289 | 0.4572 | - |
916
+ | 1.9262 | 290 | 0.4519 | - |
917
+ | 1.9329 | 291 | 0.4471 | - |
918
+ | 1.9396 | 292 | 0.4804 | - |
919
+ | 1.9463 | 293 | 0.4505 | - |
920
+ | 1.9530 | 294 | 0.4779 | - |
921
+ | 1.9597 | 295 | 0.5127 | - |
922
+ | 1.9664 | 296 | 0.5568 | - |
923
+ | 1.9732 | 297 | 0.5047 | - |
924
+ | 1.9799 | 298 | 0.5021 | - |
925
+ | 1.9866 | 299 | 0.5035 | - |
926
+ | 1.9933 | 300 | 0.4793 | 0.6563 |
927
+ | 2.0 | 301 | 0.3424 | - |
928
+ | 2.0067 | 302 | 0.1931 | - |
929
+ | 2.0134 | 303 | 0.0681 | - |
930
+ | 2.0201 | 304 | 0.0015 | - |
931
+ | 2.0067 | 305 | 0.4829 | - |
932
+ | 2.0134 | 306 | 0.5198 | - |
933
+ | 2.0201 | 307 | 0.4872 | - |
934
+ | 2.0268 | 308 | 0.4593 | - |
935
+ | 2.0336 | 309 | 0.4781 | - |
936
+ | 2.0403 | 310 | 0.5025 | - |
937
+ | 2.0470 | 311 | 0.4695 | - |
938
+ | 2.0537 | 312 | 0.4529 | - |
939
+ | 2.0604 | 313 | 0.468 | - |
940
+ | 2.0671 | 314 | 0.4844 | - |
941
+ | 2.0738 | 315 | 0.498 | - |
942
+ | 2.0805 | 316 | 0.4933 | - |
943
+ | 2.0872 | 317 | 0.4663 | - |
944
+ | 2.0940 | 318 | 0.4913 | - |
945
+ | 2.1007 | 319 | 0.4582 | - |
946
+ | 2.1074 | 320 | 0.4652 | - |
947
+ | 2.1141 | 321 | 0.4318 | - |
948
+ | 2.1208 | 322 | 0.4375 | - |
949
+ | 2.1275 | 323 | 0.4237 | - |
950
+ | 2.1342 | 324 | 0.4435 | - |
951
+ | 2.1409 | 325 | 0.4428 | - |
952
+ | 2.1477 | 326 | 0.4469 | - |
953
+ | 2.1544 | 327 | 0.4416 | - |
954
+ | 2.1611 | 328 | 0.4162 | - |
955
+ | 2.1678 | 329 | 0.419 | - |
956
+ | 2.1745 | 330 | 0.4589 | - |
957
+ | 2.1812 | 331 | 0.4456 | - |
958
+ | 2.1879 | 332 | 0.4604 | - |
959
+ | 2.1946 | 333 | 0.4231 | - |
960
+ | 2.2013 | 334 | 0.4636 | - |
961
+ | 2.2081 | 335 | 0.4625 | - |
962
+ | 2.2148 | 336 | 0.4807 | - |
963
+ | 2.2215 | 337 | 0.4663 | - |
964
+ | 2.2282 | 338 | 0.3872 | - |
965
+ | 2.2349 | 339 | 0.3506 | - |
966
+ | 2.2416 | 340 | 0.2902 | - |
967
+ | 2.2483 | 341 | 0.2842 | - |
968
+ | 2.2550 | 342 | 0.2749 | - |
969
+ | 2.2617 | 343 | 0.2765 | - |
970
+ | 2.2685 | 344 | 0.283 | - |
971
+ | 2.2752 | 345 | 0.2649 | - |
972
+ | 2.2819 | 346 | 0.2552 | - |
973
+ | 2.2886 | 347 | 0.2548 | - |
974
+ | 2.2953 | 348 | 0.262 | - |
975
+ | 2.3020 | 349 | 0.255 | - |
976
+ | 2.3087 | 350 | 0.2479 | - |
977
+ | 2.3154 | 351 | 0.2348 | - |
978
+ | 2.3221 | 352 | 0.2354 | - |
979
+ | 2.3289 | 353 | 0.2397 | - |
980
+ | 2.3356 | 354 | 0.2427 | - |
981
+ | 2.3423 | 355 | 0.2398 | - |
982
+ | 2.3490 | 356 | 0.2235 | - |
983
+ | 2.3557 | 357 | 0.222 | - |
984
+ | 2.3624 | 358 | 0.2289 | - |
985
+ | 2.3691 | 359 | 0.2201 | - |
986
+ | 2.3758 | 360 | 0.2203 | - |
987
+ | 2.3826 | 361 | 0.2236 | - |
988
+ | 2.3893 | 362 | 0.2168 | - |
989
+ | 2.3960 | 363 | 0.202 | - |
990
+ | 2.4027 | 364 | 0.2021 | - |
991
+ | 2.4094 | 365 | 0.2106 | - |
992
+ | 2.4161 | 366 | 0.2213 | - |
993
+ | 2.4228 | 367 | 0.2254 | - |
994
+ | 2.4295 | 368 | 0.2189 | - |
995
+ | 2.4362 | 369 | 0.2097 | - |
996
+ | 2.4430 | 370 | 0.2001 | - |
997
+ | 2.4497 | 371 | 0.2174 | - |
998
+ | 2.4564 | 372 | 0.2135 | - |
999
+ | 2.4631 | 373 | 0.2175 | - |
1000
+ | 2.4698 | 374 | 0.2085 | - |
1001
+ | 2.4765 | 375 | 0.2191 | - |
1002
+ | 2.4832 | 376 | 0.1964 | - |
1003
+ | 2.4899 | 377 | 0.1948 | - |
1004
+ | 2.4966 | 378 | 0.2866 | - |
1005
+ | 2.5034 | 379 | 0.3712 | - |
1006
+ | 2.5101 | 380 | 0.3974 | - |
1007
+ | 2.5168 | 381 | 0.4217 | - |
1008
+ | 2.5235 | 382 | 0.5219 | - |
1009
+ | 2.5302 | 383 | 0.5122 | - |
1010
+ | 2.5369 | 384 | 0.5458 | - |
1011
+ | 2.5436 | 385 | 0.5018 | - |
1012
+ | 2.5503 | 386 | 0.4838 | - |
1013
+ | 2.5570 | 387 | 0.4573 | - |
1014
+ | 2.5638 | 388 | 0.4314 | - |
1015
+ | 2.5705 | 389 | 0.4078 | - |
1016
+ | 2.5772 | 390 | 0.4151 | - |
1017
+ | 2.5839 | 391 | 0.467 | - |
1018
+ | 2.5906 | 392 | 0.4502 | - |
1019
+ | 2.5973 | 393 | 0.4405 | - |
1020
+ | 2.6040 | 394 | 0.4345 | - |
1021
+ | 2.6107 | 395 | 0.4825 | - |
1022
+ | 2.6174 | 396 | 0.4586 | - |
1023
+ | 2.6242 | 397 | 0.4178 | - |
1024
+ | 2.6309 | 398 | 0.4212 | - |
1025
+ | 2.6376 | 399 | 0.4165 | - |
1026
+ | 2.6443 | 400 | 0.4162 | 0.6601 |
1027
+ | 2.6510 | 401 | 0.4444 | - |
1028
+ | 2.6577 | 402 | 0.5377 | - |
1029
+ | 2.6644 | 403 | 0.4701 | - |
1030
+ | 2.6711 | 404 | 0.4506 | - |
1031
+ | 2.6779 | 405 | 0.4495 | - |
1032
+ | 2.6846 | 406 | 0.4515 | - |
1033
+ | 2.6913 | 407 | 0.4148 | - |
1034
+ | 2.6980 | 408 | 0.4318 | - |
1035
+ | 2.7047 | 409 | 0.4246 | - |
1036
+ | 2.7114 | 410 | 0.4115 | - |
1037
+ | 2.7181 | 411 | 0.4142 | - |
1038
+ | 2.7248 | 412 | 0.41 | - |
1039
+ | 2.7315 | 413 | 0.4054 | - |
1040
+ | 2.7383 | 414 | 0.4035 | - |
1041
+ | 2.7450 | 415 | 0.4666 | - |
1042
+ | 2.7517 | 416 | 0.5645 | - |
1043
+ | 2.7584 | 417 | 0.4962 | - |
1044
+ | 2.7651 | 418 | 0.4597 | - |
1045
+ | 2.7718 | 419 | 0.4317 | - |
1046
+ | 2.7785 | 420 | 0.4325 | - |
1047
+ | 2.7852 | 421 | 0.4165 | - |
1048
+ | 2.7919 | 422 | 0.3908 | - |
1049
+ | 2.7987 | 423 | 0.4786 | - |
1050
+ | 2.8054 | 424 | 0.4571 | - |
1051
+ | 2.8121 | 425 | 0.4388 | - |
1052
+ | 2.8188 | 426 | 0.4182 | - |
1053
+ | 2.8255 | 427 | 0.4059 | - |
1054
+ | 2.8322 | 428 | 0.3994 | - |
1055
+ | 2.8389 | 429 | 0.4332 | - |
1056
+ | 2.8456 | 430 | 0.4352 | - |
1057
+ | 2.8523 | 431 | 0.421 | - |
1058
+ | 2.8591 | 432 | 0.4081 | - |
1059
+ | 2.8658 | 433 | 0.4704 | - |
1060
+ | 2.8725 | 434 | 0.4592 | - |
1061
+ | 2.8792 | 435 | 0.4508 | - |
1062
+ | 2.8859 | 436 | 0.4201 | - |
1063
+ | 2.8926 | 437 | 0.3928 | - |
1064
+ | 2.8993 | 438 | 0.3992 | - |
1065
+ | 2.9060 | 439 | 0.5154 | - |
1066
+ | 2.9128 | 440 | 0.4649 | - |
1067
+ | 2.9195 | 441 | 0.4165 | - |
1068
+ | 2.9262 | 442 | 0.4121 | - |
1069
+ | 2.9329 | 443 | 0.4072 | - |
1070
+ | 2.9396 | 444 | 0.4369 | - |
1071
+ | 2.9463 | 445 | 0.4191 | - |
1072
+ | 2.9530 | 446 | 0.4306 | - |
1073
+ | 2.9597 | 447 | 0.4688 | - |
1074
+ | 2.9664 | 448 | 0.5092 | - |
1075
+ | 2.9732 | 449 | 0.4639 | - |
1076
+ | 2.9799 | 450 | 0.4647 | - |
1077
+ | 2.9866 | 451 | 0.4589 | - |
1078
+ | 2.9933 | 452 | 0.4412 | - |
1079
+ | 3.0 | 453 | 0.3029 | - |
1080
+ | 3.0067 | 454 | 0.1599 | - |
1081
+ | 3.0134 | 455 | 0.0411 | - |
1082
+ | 3.0201 | 456 | 0.0017 | - |
1083
+ | 3.0067 | 457 | 0.4429 | - |
1084
+ | 3.0134 | 458 | 0.4789 | - |
1085
+ | 3.0201 | 459 | 0.4512 | - |
1086
+ | 3.0268 | 460 | 0.4197 | - |
1087
+ | 3.0336 | 461 | 0.4446 | - |
1088
+ | 3.0403 | 462 | 0.4597 | - |
1089
+ | 3.0470 | 463 | 0.4297 | - |
1090
+ | 3.0537 | 464 | 0.4197 | - |
1091
+ | 3.0604 | 465 | 0.4309 | - |
1092
+ | 3.0671 | 466 | 0.4503 | - |
1093
+ | 3.0738 | 467 | 0.4494 | - |
1094
+ | 3.0805 | 468 | 0.4538 | - |
1095
+ | 3.0872 | 469 | 0.4294 | - |
1096
+ | 3.0940 | 470 | 0.4493 | - |
1097
+ | 3.1007 | 471 | 0.4222 | - |
1098
+ | 3.1074 | 472 | 0.4294 | - |
1099
+ | 3.1141 | 473 | 0.4099 | - |
1100
+ | 3.1208 | 474 | 0.4062 | - |
1101
+ | 3.1275 | 475 | 0.3896 | - |
1102
+ | 3.1342 | 476 | 0.4083 | - |
1103
+ | 3.1409 | 477 | 0.4108 | - |
1104
+ | 3.1477 | 478 | 0.4192 | - |
1105
+ | 3.1544 | 479 | 0.4061 | - |
1106
+ | 3.1611 | 480 | 0.3783 | - |
1107
+ | 3.1678 | 481 | 0.3949 | - |
1108
+ | 3.1745 | 482 | 0.428 | - |
1109
+ | 3.1812 | 483 | 0.4176 | - |
1110
+ | 3.1879 | 484 | 0.4207 | - |
1111
+ | 3.1946 | 485 | 0.3946 | - |
1112
+ | 3.2013 | 486 | 0.4282 | - |
1113
+ | 3.2081 | 487 | 0.4346 | - |
1114
+ | 3.2148 | 488 | 0.4544 | - |
1115
+ | 3.2215 | 489 | 0.432 | - |
1116
+ | 3.2282 | 490 | 0.3556 | - |
1117
+ | 3.2349 | 491 | 0.3244 | - |
1118
+ | 3.2416 | 492 | 0.2702 | - |
1119
+ | 3.2483 | 493 | 0.2678 | - |
1120
+ | 3.2550 | 494 | 0.2567 | - |
1121
+ | 3.2617 | 495 | 0.2528 | - |
1122
+ | 3.2685 | 496 | 0.2624 | - |
1123
+ | 3.2752 | 497 | 0.2437 | - |
1124
+ | 3.2819 | 498 | 0.2387 | - |
1125
+ | 3.2886 | 499 | 0.2398 | - |
1126
+ | 3.2953 | 500 | 0.2435 | 0.6685 |
1127
+ | 3.3020 | 501 | 0.2353 | - |
1128
+ | 3.3087 | 502 | 0.229 | - |
1129
+ | 3.3154 | 503 | 0.2183 | - |
1130
+ | 3.3221 | 504 | 0.22 | - |
1131
+ | 3.3289 | 505 | 0.2236 | - |
1132
+ | 3.3356 | 506 | 0.2242 | - |
1133
+ | 3.3423 | 507 | 0.2251 | - |
1134
+ | 3.3490 | 508 | 0.2108 | - |
1135
+ | 3.3557 | 509 | 0.2065 | - |
1136
+ | 3.3624 | 510 | 0.2128 | - |
1137
+ | 3.3691 | 511 | 0.2051 | - |
1138
+ | 3.3758 | 512 | 0.2043 | - |
1139
+ | 3.3826 | 513 | 0.2116 | - |
1140
+ | 3.3893 | 514 | 0.2044 | - |
1141
+ | 3.3960 | 515 | 0.1903 | - |
1142
+ | 3.4027 | 516 | 0.1857 | - |
1143
+ | 3.4094 | 517 | 0.1971 | - |
1144
+ | 3.4161 | 518 | 0.2029 | - |
1145
+ | 3.4228 | 519 | 0.2098 | - |
1146
+ | 3.4295 | 520 | 0.2031 | - |
1147
+ | 3.4362 | 521 | 0.199 | - |
1148
+ | 3.4430 | 522 | 0.1868 | - |
1149
+ | 3.4497 | 523 | 0.2047 | - |
1150
+ | 3.4564 | 524 | 0.1982 | - |
1151
+ | 3.4631 | 525 | 0.2026 | - |
1152
+ | 3.4698 | 526 | 0.1931 | - |
1153
+ | 3.4765 | 527 | 0.2024 | - |
1154
+ | 3.4832 | 528 | 0.1848 | - |
1155
+ | 3.4899 | 529 | 0.1818 | - |
1156
+ | 3.4966 | 530 | 0.2712 | - |
1157
+ | 3.5034 | 531 | 0.3456 | - |
1158
+ | 3.5101 | 532 | 0.3678 | - |
1159
+ | 3.5168 | 533 | 0.394 | - |
1160
+ | 3.5235 | 534 | 0.4889 | - |
1161
+ | 3.5302 | 535 | 0.4686 | - |
1162
+ | 3.5369 | 536 | 0.5048 | - |
1163
+ | 3.5436 | 537 | 0.4732 | - |
1164
+ | 3.5503 | 538 | 0.4504 | - |
1165
+ | 3.5570 | 539 | 0.4241 | - |
1166
+ | 3.5638 | 540 | 0.3936 | - |
1167
+ | 3.5705 | 541 | 0.3833 | - |
1168
+ | 3.5772 | 542 | 0.3815 | - |
1169
+ | 3.5839 | 543 | 0.4333 | - |
1170
+ | 3.5906 | 544 | 0.4239 | - |
1171
+ | 3.5973 | 545 | 0.4124 | - |
1172
+ | 3.6040 | 546 | 0.4028 | - |
1173
+ | 3.6107 | 547 | 0.4585 | - |
1174
+ | 3.6174 | 548 | 0.4256 | - |
1175
+ | 3.6242 | 549 | 0.3916 | - |
1176
+ | 3.6309 | 550 | 0.4002 | - |
1177
+ | 3.6376 | 551 | 0.3962 | - |
1178
+ | 3.6443 | 552 | 0.3874 | - |
1179
+ | 3.6510 | 553 | 0.4229 | - |
1180
+ | 3.6577 | 554 | 0.5071 | - |
1181
+ | 3.6644 | 555 | 0.4432 | - |
1182
+ | 3.6711 | 556 | 0.4282 | - |
1183
+ | 3.6779 | 557 | 0.4249 | - |
1184
+ | 3.6846 | 558 | 0.4287 | - |
1185
+ | 3.6913 | 559 | 0.3875 | - |
1186
+ | 3.6980 | 560 | 0.403 | - |
1187
+ | 3.7047 | 561 | 0.395 | - |
1188
+ | 3.7114 | 562 | 0.3859 | - |
1189
+ | 3.7181 | 563 | 0.3917 | - |
1190
+ | 3.7248 | 564 | 0.3882 | - |
1191
+ | 3.7315 | 565 | 0.379 | - |
1192
+ | 3.7383 | 566 | 0.3819 | - |
1193
+ | 3.7450 | 567 | 0.4411 | - |
1194
+ | 3.7517 | 568 | 0.5383 | - |
1195
+ | 3.7584 | 569 | 0.4696 | - |
1196
+ | 3.7651 | 570 | 0.4367 | - |
1197
+ | 3.7718 | 571 | 0.4098 | - |
1198
+ | 3.7785 | 572 | 0.4104 | - |
1199
+ | 3.7852 | 573 | 0.3928 | - |
1200
+ | 3.7919 | 574 | 0.3686 | - |
1201
+ | 3.7987 | 575 | 0.4534 | - |
1202
+ | 3.8054 | 576 | 0.4255 | - |
1203
+ | 3.8121 | 577 | 0.4193 | - |
1204
+ | 3.8188 | 578 | 0.3925 | - |
1205
+ | 3.8255 | 579 | 0.3762 | - |
1206
+ | 3.8322 | 580 | 0.3748 | - |
1207
+ | 3.8389 | 581 | 0.4145 | - |
1208
+ | 3.8456 | 582 | 0.4085 | - |
1209
+ | 3.8523 | 583 | 0.3888 | - |
1210
+ | 3.8591 | 584 | 0.3903 | - |
1211
+ | 3.8658 | 585 | 0.4395 | - |
1212
+ | 3.8725 | 586 | 0.4347 | - |
1213
+ | 3.8792 | 587 | 0.428 | - |
1214
+ | 3.8859 | 588 | 0.4008 | - |
1215
+ | 3.8926 | 589 | 0.3706 | - |
1216
+ | 3.8993 | 590 | 0.3769 | - |
1217
+ | 3.9060 | 591 | 0.4869 | - |
1218
+ | 3.9128 | 592 | 0.4406 | - |
1219
+ | 3.9195 | 593 | 0.3963 | - |
1220
+ | 3.9262 | 594 | 0.39 | - |
1221
+ | 3.9329 | 595 | 0.3831 | - |
1222
+ | 3.9396 | 596 | 0.4088 | - |
1223
+ | 3.9463 | 597 | 0.3912 | - |
1224
+ | 3.9530 | 598 | 0.4108 | - |
1225
+ | 3.9597 | 599 | 0.4381 | - |
1226
+ | 3.9664 | 600 | 0.4841 | 0.6654 |
1227
+ | 3.9732 | 601 | 0.4425 | - |
1228
+ | 3.9799 | 602 | 0.4377 | - |
1229
+ | 3.9866 | 603 | 0.4344 | - |
1230
+ | 3.9933 | 604 | 0.4155 | - |
1231
+ | 4.0 | 605 | 0.2801 | - |
1232
+ | 4.0067 | 606 | 0.1418 | - |
1233
+ | 4.0134 | 607 | 0.0315 | - |
1234
+ | 4.0201 | 608 | 0.0013 | - |
1235
+ | 4.0067 | 609 | 0.4213 | - |
1236
+ | 4.0134 | 610 | 0.4604 | - |
1237
+ | 4.0201 | 611 | 0.4312 | - |
1238
+ | 4.0268 | 612 | 0.406 | - |
1239
+ | 4.0336 | 613 | 0.4238 | - |
1240
+ | 4.0403 | 614 | 0.4446 | - |
1241
+ | 4.0470 | 615 | 0.4127 | - |
1242
+ | 4.0537 | 616 | 0.4034 | - |
1243
+ | 4.0604 | 617 | 0.4092 | - |
1244
+ | 4.0671 | 618 | 0.4285 | - |
1245
+ | 4.0738 | 619 | 0.4324 | - |
1246
+ | 4.0805 | 620 | 0.4317 | - |
1247
+ | 4.0872 | 621 | 0.4167 | - |
1248
+ | 4.0940 | 622 | 0.4352 | - |
1249
+ | 4.1007 | 623 | 0.4074 | - |
1250
+ | 4.1074 | 624 | 0.4102 | - |
1251
+ | 4.1141 | 625 | 0.3799 | - |
1252
+ | 4.1208 | 626 | 0.3885 | - |
1253
+ | 4.1275 | 627 | 0.3709 | - |
1254
+ | 4.1342 | 628 | 0.3957 | - |
1255
+ | 4.1409 | 629 | 0.394 | - |
1256
+ | 4.1477 | 630 | 0.4035 | - |
1257
+ | 4.1544 | 631 | 0.389 | - |
1258
+ | 4.1611 | 632 | 0.3656 | - |
1259
+ | 4.1678 | 633 | 0.372 | - |
1260
+ | 4.1745 | 634 | 0.4066 | - |
1261
+ | 4.1812 | 635 | 0.3991 | - |
1262
+ | 4.1879 | 636 | 0.4057 | - |
1263
+ | 4.1946 | 637 | 0.3782 | - |
1264
+ | 4.2013 | 638 | 0.4117 | - |
1265
+ | 4.2081 | 639 | 0.41 | - |
1266
+ | 4.2148 | 640 | 0.4359 | - |
1267
+ | 4.2215 | 641 | 0.4191 | - |
1268
+ | 4.2282 | 642 | 0.3428 | - |
1269
+ | 4.2349 | 643 | 0.3156 | - |
1270
+ | 4.2416 | 644 | 0.2591 | - |
1271
+ | 4.2483 | 645 | 0.2533 | - |
1272
+ | 4.2550 | 646 | 0.2483 | - |
1273
+ | 4.2617 | 647 | 0.2505 | - |
1274
+ | 4.2685 | 648 | 0.2494 | - |
1275
+ | 4.2752 | 649 | 0.2354 | - |
1276
+ | 4.2819 | 650 | 0.2302 | - |
1277
+ | 4.2886 | 651 | 0.2285 | - |
1278
+ | 4.2953 | 652 | 0.2366 | - |
1279
+ | 4.3020 | 653 | 0.229 | - |
1280
+ | 4.3087 | 654 | 0.2217 | - |
1281
+ | 4.3154 | 655 | 0.2107 | - |
1282
+ | 4.3221 | 656 | 0.2153 | - |
1283
+ | 4.3289 | 657 | 0.216 | - |
1284
+ | 4.3356 | 658 | 0.2161 | - |
1285
+ | 4.3423 | 659 | 0.2174 | - |
1286
+ | 4.3490 | 660 | 0.2031 | - |
1287
+ | 4.3557 | 661 | 0.2034 | - |
1288
+ | 4.3624 | 662 | 0.2015 | - |
1289
+ | 4.3691 | 663 | 0.1987 | - |
1290
+ | 4.3758 | 664 | 0.1984 | - |
1291
+ | 4.3826 | 665 | 0.2004 | - |
1292
+ | 4.3893 | 666 | 0.1961 | - |
1293
+ | 4.3960 | 667 | 0.1829 | - |
1294
+ | 4.4027 | 668 | 0.1821 | - |
1295
+ | 4.4094 | 669 | 0.1894 | - |
1296
+ | 4.4161 | 670 | 0.2007 | - |
1297
+ | 4.4228 | 671 | 0.201 | - |
1298
+ | 4.4295 | 672 | 0.1973 | - |
1299
+ | 4.4362 | 673 | 0.1931 | - |
1300
+ | 4.4430 | 674 | 0.1803 | - |
1301
+ | 4.4497 | 675 | 0.1988 | - |
1302
+ | 4.4564 | 676 | 0.1906 | - |
1303
+ | 4.4631 | 677 | 0.1941 | - |
1304
+ | 4.4698 | 678 | 0.1878 | - |
1305
+ | 4.4765 | 679 | 0.1977 | - |
1306
+ | 4.4832 | 680 | 0.1767 | - |
1307
+ | 4.4899 | 681 | 0.1814 | - |
1308
+ | 4.4966 | 682 | 0.2594 | - |
1309
+ | 4.5034 | 683 | 0.3342 | - |
1310
+ | 4.5101 | 684 | 0.3562 | - |
1311
+ | 4.5168 | 685 | 0.3857 | - |
1312
+ | 4.5235 | 686 | 0.4643 | - |
1313
+ | 4.5302 | 687 | 0.4596 | - |
1314
+ | 4.5369 | 688 | 0.4978 | - |
1315
+ | 4.5436 | 689 | 0.4564 | - |
1316
+ | 4.5503 | 690 | 0.4336 | - |
1317
+ | 4.5570 | 691 | 0.4154 | - |
1318
+ | 4.5638 | 692 | 0.3796 | - |
1319
+ | 4.5705 | 693 | 0.3724 | - |
1320
+ | 4.5772 | 694 | 0.3708 | - |
1321
+ | 4.5839 | 695 | 0.4281 | - |
1322
+ | 4.5906 | 696 | 0.4082 | - |
1323
+ | 4.5973 | 697 | 0.4004 | - |
1324
+ | 4.6040 | 698 | 0.3893 | - |
1325
+ | 4.6107 | 699 | 0.4372 | - |
1326
+ | 4.6174 | 700 | 0.4132 | 0.6762 |
1327
+ | 4.6242 | 701 | 0.3766 | - |
1328
+ | 4.6309 | 702 | 0.3869 | - |
1329
+ | 4.6376 | 703 | 0.382 | - |
1330
+ | 4.6443 | 704 | 0.3733 | - |
1331
+ | 4.6510 | 705 | 0.4088 | - |
1332
+ | 4.6577 | 706 | 0.4887 | - |
1333
+ | 4.6644 | 707 | 0.4282 | - |
1334
+ | 4.6711 | 708 | 0.4137 | - |
1335
+ | 4.6779 | 709 | 0.4098 | - |
1336
+ | 4.6846 | 710 | 0.4165 | - |
1337
+ | 4.6913 | 711 | 0.3737 | - |
1338
+ | 4.6980 | 712 | 0.3973 | - |
1339
+ | 4.7047 | 713 | 0.3853 | - |
1340
+ | 4.7114 | 714 | 0.3744 | - |
1341
+ | 4.7181 | 715 | 0.3787 | - |
1342
+ | 4.7248 | 716 | 0.372 | - |
1343
+ | 4.7315 | 717 | 0.3675 | - |
1344
+ | 4.7383 | 718 | 0.3652 | - |
1345
+ | 4.7450 | 719 | 0.4291 | - |
1346
+ | 4.7517 | 720 | 0.5218 | - |
1347
+ | 4.7584 | 721 | 0.452 | - |
1348
+ | 4.7651 | 722 | 0.4202 | - |
1349
+ | 4.7718 | 723 | 0.3904 | - |
1350
+ | 4.7785 | 724 | 0.3979 | - |
1351
+ | 4.7852 | 725 | 0.3796 | - |
1352
+ | 4.7919 | 726 | 0.3569 | - |
1353
+ | 4.7987 | 727 | 0.4375 | - |
1354
+ | 4.8054 | 728 | 0.4149 | - |
1355
+ | 4.8121 | 729 | 0.4055 | - |
1356
+ | 4.8188 | 730 | 0.3813 | - |
1357
+ | 4.8255 | 731 | 0.3671 | - |
1358
+ | 4.8322 | 732 | 0.3631 | - |
1359
+ | 4.8389 | 733 | 0.4026 | - |
1360
+ | 4.8456 | 734 | 0.3986 | - |
1361
+ | 4.8523 | 735 | 0.3786 | - |
1362
+ | 4.8591 | 736 | 0.3757 | - |
1363
+ | 4.8658 | 737 | 0.4309 | - |
1364
+ | 4.8725 | 738 | 0.4228 | - |
1365
+ | 4.8792 | 739 | 0.416 | - |
1366
+ | 4.8859 | 740 | 0.3891 | - |
1367
+ | 4.8926 | 741 | 0.3614 | - |
1368
+ | 4.8993 | 742 | 0.3633 | - |
1369
+ | 4.9060 | 743 | 0.4739 | - |
1370
+ | 4.9128 | 744 | 0.4307 | - |
1371
+ | 4.9195 | 745 | 0.3833 | - |
1372
+
1373
+ </details>
1374
+
1375
+ ### Framework Versions
1376
+ - Python: 3.10.6
1377
+ - Sentence Transformers: 3.3.0.dev0
1378
+ - Transformers: 4.45.2
1379
+ - PyTorch: 2.4.1+cu118
1380
+ - Accelerate: 0.34.0
1381
+ - Datasets: 2.21.0
1382
+ - Tokenizers: 0.20.2
1383
+
1384
+ ## Citation
1385
+
1386
+ ### BibTeX
1387
+
1388
+ #### Sentence Transformers
1389
+ ```bibtex
1390
+ @inproceedings{reimers-2019-sentence-bert,
1391
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1392
+ author = "Reimers, Nils and Gurevych, Iryna",
1393
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1394
+ month = "11",
1395
+ year = "2019",
1396
+ publisher = "Association for Computational Linguistics",
1397
+ url = "https://arxiv.org/abs/1908.10084",
1398
+ }
1399
+ ```
1400
+
1401
+ #### CachedMultipleNegativesRankingLoss
1402
+ ```bibtex
1403
+ @misc{gao2021scaling,
1404
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
1405
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
1406
+ year={2021},
1407
+ eprint={2101.06983},
1408
+ archivePrefix={arXiv},
1409
+ primaryClass={cs.LG}
1410
+ }
1411
+ ```
1412
+
1413
+ <!--
1414
+ ## Glossary
1415
+
1416
+ *Clearly define terms in order to be accessible across audiences.*
1417
+ -->
1418
+
1419
+ <!--
1420
+ ## Model Card Authors
1421
+
1422
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1423
+ -->
1424
+
1425
+ <!--
1426
+ ## Model Card Contact
1427
+
1428
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1429
+ -->
config.json ADDED
@@ -0,0 +1,71 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "outputs/gte-v0/checkpoint-745",
3
+ "architectures": [
4
+ "NewModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.0,
7
+ "auto_map": {
8
+ "AutoConfig": "configuration.NewConfig",
9
+ "AutoModel": "Alibaba-NLP/new-impl--modeling.NewModel",
10
+ "AutoModelForMaskedLM": "Alibaba-NLP/new-impl--modeling.NewForMaskedLM",
11
+ "AutoModelForMultipleChoice": "Alibaba-NLP/new-impl--modeling.NewForMultipleChoice",
12
+ "AutoModelForQuestionAnswering": "Alibaba-NLP/new-impl--modeling.NewForQuestionAnswering",
13
+ "AutoModelForSequenceClassification": "Alibaba-NLP/new-impl--modeling.NewForSequenceClassification",
14
+ "AutoModelForTokenClassification": "Alibaba-NLP/new-impl--modeling.NewForTokenClassification"
15
+ },
16
+ "classifier_dropout": 0.0,
17
+ "hidden_act": "gelu",
18
+ "hidden_dropout_prob": 0.1,
19
+ "hidden_size": 768,
20
+ "id2label": {
21
+ "0": "LABEL_0"
22
+ },
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 3072,
25
+ "label2id": {
26
+ "LABEL_0": 0
27
+ },
28
+ "layer_norm_eps": 1e-12,
29
+ "layer_norm_type": "layer_norm",
30
+ "logn_attention_clip1": false,
31
+ "logn_attention_scale": false,
32
+ "max_position_embeddings": 8192,
33
+ "model_type": "new",
34
+ "num_attention_heads": 12,
35
+ "num_hidden_layers": 12,
36
+ "pack_qkv": true,
37
+ "pad_token_id": 1,
38
+ "position_embedding_type": "rope",
39
+ "rope_scaling": {
40
+ "factor": 8.0,
41
+ "type": "ntk"
42
+ },
43
+ "rope_theta": 20000,
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.45.2",
46
+ "type_vocab_size": 1,
47
+ "unpad_inputs": false,
48
+ "use_memory_efficient_attention": false,
49
+ "vocab_size": 16456,
50
+ "vocabtrimmer": {
51
+ "mining_config": {
52
+ "dataset": "Turbo-AI/data-corpus",
53
+ "dataset_column": "text",
54
+ "dataset_name": null,
55
+ "dataset_split": "train",
56
+ "language": "vi",
57
+ "min_frequency": 2,
58
+ "target_vocab_size": null
59
+ },
60
+ "stats": {
61
+ "compression_rate_embedding": 6.581136421807013,
62
+ "compression_rate_full": 41.25171334079449,
63
+ "parameter_size_embedding/raw": 192036864,
64
+ "parameter_size_embedding/trimmed": 12638208,
65
+ "parameter_size_full/raw": 305368320,
66
+ "parameter_size_full/trimmed": 125969664,
67
+ "vocab_size/raw": 250048,
68
+ "vocab_size/trimmed": 16456
69
+ }
70
+ }
71
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.0.dev0",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.4.1+cu118"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
configuration.py ADDED
@@ -0,0 +1,145 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # coding=utf-8
2
+ # Copyright 2024 The GTE Team Authors and Alibaba Group.
3
+ # Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
4
+ #
5
+ # Licensed under the Apache License, Version 2.0 (the "License");
6
+ # you may not use this file except in compliance with the License.
7
+ # You may obtain a copy of the License at
8
+ #
9
+ # http://www.apache.org/licenses/LICENSE-2.0
10
+ #
11
+ # Unless required by applicable law or agreed to in writing, software
12
+ # distributed under the License is distributed on an "AS IS" BASIS,
13
+ # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14
+ # See the License for the specific language governing permissions and
15
+ # limitations under the License.
16
+ """ NEW model configuration"""
17
+ from transformers.configuration_utils import PretrainedConfig
18
+ from transformers.utils import logging
19
+
20
+ logger = logging.get_logger(__name__)
21
+
22
+
23
+ class NewConfig(PretrainedConfig):
24
+ r"""
25
+ This is the configuration class to store the configuration of a [`NewModel`] or a [`TFNewModel`]. It is used to
26
+ instantiate a NEW model according to the specified arguments, defining the model architecture. Instantiating a
27
+ configuration with the defaults will yield a similar configuration to that of the NEW
28
+ [izhx/new-base-en](https://huggingface.co/izhx/new-base-en) architecture.
29
+
30
+ Configuration objects inherit from [`PretrainedConfig`] and can be used to control the model outputs. Read the
31
+ documentation from [`PretrainedConfig`] for more information.
32
+
33
+
34
+ Args:
35
+ vocab_size (`int`, *optional*, defaults to 30522):
36
+ Vocabulary size of the NEW model. Defines the number of different tokens that can be represented by the
37
+ `inputs_ids` passed when calling [`NewModel`] or [`TFNewModel`].
38
+ hidden_size (`int`, *optional*, defaults to 768):
39
+ Dimensionality of the encoder layers and the pooler layer.
40
+ num_hidden_layers (`int`, *optional*, defaults to 12):
41
+ Number of hidden layers in the Transformer encoder.
42
+ num_attention_heads (`int`, *optional*, defaults to 12):
43
+ Number of attention heads for each attention layer in the Transformer encoder.
44
+ intermediate_size (`int`, *optional*, defaults to 3072):
45
+ Dimensionality of the "intermediate" (often named feed-forward) layer in the Transformer encoder.
46
+ hidden_act (`str` or `Callable`, *optional*, defaults to `"gelu"`):
47
+ The non-linear activation function (function or string) in the encoder and pooler. If string, `"gelu"`,
48
+ `"relu"`, `"silu"` and `"gelu_new"` are supported.
49
+ hidden_dropout_prob (`float`, *optional*, defaults to 0.1):
50
+ The dropout probability for all fully connected layers in the embeddings, encoder, and pooler.
51
+ attention_probs_dropout_prob (`float`, *optional*, defaults to 0.1):
52
+ The dropout ratio for the attention probabilities.
53
+ max_position_embeddings (`int`, *optional*, defaults to 512):
54
+ The maximum sequence length that this model might ever be used with. Typically set this to something large
55
+ just in case (e.g., 512 or 1024 or 2048).
56
+ type_vocab_size (`int`, *optional*, defaults to 2):
57
+ The vocabulary size of the `token_type_ids` passed when calling [`NewModel`] or [`TFNewModel`].
58
+ initializer_range (`float`, *optional*, defaults to 0.02):
59
+ The standard deviation of the truncated_normal_initializer for initializing all weight matrices.
60
+ layer_norm_eps (`float`, *optional*, defaults to 1e-12):
61
+ The epsilon used by the layer normalization layers.
62
+ position_embedding_type (`str`, *optional*, defaults to `"rope"`):
63
+ Type of position embedding. Choose one of `"absolute"`, `"rope"`.
64
+ rope_theta (`float`, *optional*, defaults to 10000.0):
65
+ The base period of the RoPE embeddings.
66
+ rope_scaling (`Dict`, *optional*):
67
+ Dictionary containing the scaling configuration for the RoPE embeddings. Currently supports two scaling
68
+ strategies: linear and dynamic. Their scaling factor must be a float greater than 1. The expected format is
69
+ `{"type": strategy name, "factor": scaling factor}`. When using this flag, don't update
70
+ `max_position_embeddings` to the expected new maximum. See the following thread for more information on how
71
+ these scaling strategies behave:
72
+ https://www.reddit.com/r/LocalLLaMA/comments/14mrgpr/dynamically_scaled_rope_further_increases/. This is an
73
+ experimental feature, subject to breaking API changes in future versions.
74
+ classifier_dropout (`float`, *optional*):
75
+ The dropout ratio for the classification head.
76
+
77
+ Examples:
78
+
79
+ ```python
80
+ >>> from transformers import NewConfig, NewModel
81
+
82
+ >>> # Initializing a NEW izhx/new-base-en style configuration
83
+ >>> configuration = NewConfig()
84
+
85
+ >>> # Initializing a model (with random weights) from the izhx/new-base-en style configuration
86
+ >>> model = NewModel(configuration)
87
+
88
+ >>> # Accessing the model configuration
89
+ >>> configuration = model.config
90
+ ```"""
91
+
92
+ model_type = "new"
93
+
94
+ def __init__(
95
+ self,
96
+ vocab_size=30528,
97
+ hidden_size=768,
98
+ num_hidden_layers=12,
99
+ num_attention_heads=12,
100
+ intermediate_size=3072,
101
+ hidden_act="gelu",
102
+ hidden_dropout_prob=0.1,
103
+ attention_probs_dropout_prob=0.0,
104
+ max_position_embeddings=2048,
105
+ type_vocab_size=1,
106
+ initializer_range=0.02,
107
+ layer_norm_type='layer_norm',
108
+ layer_norm_eps=1e-12,
109
+ # pad_token_id=0,
110
+ position_embedding_type="rope",
111
+ rope_theta=10000.0,
112
+ rope_scaling=None,
113
+ classifier_dropout=None,
114
+ pack_qkv=True,
115
+ unpad_inputs=False,
116
+ use_memory_efficient_attention=False,
117
+ logn_attention_scale=False,
118
+ logn_attention_clip1=False,
119
+ **kwargs,
120
+ ):
121
+ super().__init__(**kwargs)
122
+
123
+ self.vocab_size = vocab_size
124
+ self.hidden_size = hidden_size
125
+ self.num_hidden_layers = num_hidden_layers
126
+ self.num_attention_heads = num_attention_heads
127
+ self.hidden_act = hidden_act
128
+ self.intermediate_size = intermediate_size
129
+ self.hidden_dropout_prob = hidden_dropout_prob
130
+ self.attention_probs_dropout_prob = attention_probs_dropout_prob
131
+ self.max_position_embeddings = max_position_embeddings
132
+ self.type_vocab_size = type_vocab_size
133
+ self.initializer_range = initializer_range
134
+ self.layer_norm_type = layer_norm_type
135
+ self.layer_norm_eps = layer_norm_eps
136
+ self.position_embedding_type = position_embedding_type
137
+ self.rope_theta = rope_theta
138
+ self.rope_scaling = rope_scaling
139
+ self.classifier_dropout = classifier_dropout
140
+
141
+ self.pack_qkv = pack_qkv
142
+ self.unpad_inputs = unpad_inputs
143
+ self.use_memory_efficient_attention = use_memory_efficient_attention
144
+ self.logn_attention_scale = logn_attention_scale
145
+ self.logn_attention_clip1 = logn_attention_clip1
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4a63d305c4f8bfc2b01bf13a34d3269019df07bdfbcf96f8a66d3c0f8becf612
3
+ size 503893088
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 1024,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "16455": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 1024,
50
+ "model_max_length": 1024,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }