Add new SentenceTransformer model
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +769 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +55 -0
- tokenizer.json +3 -0
- tokenizer_config.json +75 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,769 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- en
|
4 |
+
license: apache-2.0
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sentence-similarity
|
8 |
+
- feature-extraction
|
9 |
+
- generated_from_trainer
|
10 |
+
- dataset_size:5779
|
11 |
+
- loss:MatryoshkaLoss
|
12 |
+
- loss:MultipleNegativesRankingLoss
|
13 |
+
base_model: mixedbread-ai/deepset-mxbai-embed-de-large-v1
|
14 |
+
widget:
|
15 |
+
- source_sentence: der Zuordnung des Wertes zum In- oder Ausland imple- mentiert.
|
16 |
+
Zuordnung prüfen Die Implementierung dieser Zuordnung zum In- oder Ausland erfolgt
|
17 |
+
in den Klassen ZDP_CL_INTP_INT_INLAND und ZDP_CL_INTP_ INT_AUSLAND. Der zu prüfende
|
18 |
+
Wert wird aus der Klasse ZDP_CL_ INTP_KONTEXT mit der Methode GET_TEXT() abgefragt
|
19 |
+
und der Varia- blen LV_TEXT übergeben. In unserem Beispiel verwenden wir zur Prüfung
|
20 |
+
eine Zeichenfolge; dies kann eine PSP-Element-Nummer, eine ID oder Ähnliches sein.
|
21 |
+
Im Prinzip kann jede Art von Zeichen- lo_kontext ?= i_kontext. lv_text = lo_kontext->get_text(
|
22 |
+
). IF lv_text+2(2) EQ uebersetze_wert( ). r_return = gebe_wert_zurueck( ). ENDIF.
|
23 |
+
ENDMETHOD. METHOD uebersetze_wert. ENDMETHOD. ENDCLASS. Listing 5.10 Interpreter
|
24 |
+
Pattern
|
25 |
+
sentences:
|
26 |
+
- What should the project team implement during the integration implementation phase?
|
27 |
+
- Hey Team, I'm trying to figure out how to get the value from ZDP_CL_INTP_KONTEXT
|
28 |
+
for our country-specific sorting feature. Can someone remind me how we're supposed
|
29 |
+
to do that?
|
30 |
+
- Hallo, ich bin gerade dabei, Dokument 327 zu überprüfen und möchte verstehen,
|
31 |
+
wie der Auftragsprozess funktioniert. Kannst du mir bitte erklären, warum der
|
32 |
+
Zustand des Auftragskopfes für die Testmethode nicht immer verfügbar ist?
|
33 |
+
- source_sentence: "Inhalt 09876\x02887766. Unter sonst gleichen Bedingungen möchten\
|
34 |
+
\ Sie die führende Null durch die in- ternationale Vorwahl sowie eine eingeklammerte\
|
35 |
+
\ Null ersetzen, das heißt für Deutschland beispielsweise durch den String +49-(0),\
|
36 |
+
\ dann müsste die Anweisung lauten: REPLACE '0' IN telefon_international WITH\
|
37 |
+
\ '+49-(0)'. Nach der Operation hätte das Feld den Inhalt +49-(0)9876\x02887766.\
|
38 |
+
\ Soll das verbliebene Leerzeichen zwischen nationaler Vorwahl und örtli- cher\
|
39 |
+
\ Telefonnummer durch ein Minuszeichen ersetzt werden, würde die Anweisung wiederum\
|
40 |
+
\ lauten: REPLACE ` ` IN telefon_international WITH `-`. Diese Anweisung sucht\
|
41 |
+
\ ein Leerzeichen (als String-Literal), findet es erst- mals im Feld an Position\
|
42 |
+
\ 12 und tauscht es gegen ein Minuszeichen"
|
43 |
+
sentences:
|
44 |
+
- Soll das verbleibende Leerzeichen zwischen nationaler Vorwahl und örtlicher Telefonnummer
|
45 |
+
durch ein Minuszeichen ersetzt werden, unter der Voraussetzung dass die Anweisung
|
46 |
+
bereits eine führende Null durch die internationale Vorwahl und eine eingeklammerte
|
47 |
+
Null ersetzen wird?
|
48 |
+
- Welche programmierlinguistischen Elemente hat ABAP im Laufe der Zeit von sich
|
49 |
+
aufgenommen, insbesondere unter dem Einfluss moderner Sprachen wie Java?
|
50 |
+
- Was ist der Zweck davon?
|
51 |
+
- source_sentence: Ergebnisliste, wobei Sie mittels einer Konfigurationseinstel- lung
|
52 |
+
für einen Prüflauf auch die unterdrückten Fehler ausgeben las- sen können. Beachten
|
53 |
+
Sie, dass Sie bei der Nutzung der erweiterten Sicherheitsprüfungen Fehler nicht
|
54 |
+
über Pseudokommentare oder Pragmas unterdrücken können (siehe Abschnitt 13.1,
|
55 |
+
»Sicherheits- analysen aus Sicht des Entwicklers«). Da es sich bei ATC-Befreiungen
|
56 |
+
stets um eine menschliche Risikobewertung handelt, empfehlen wir Ihnen, den Ausnahmeprozess
|
57 |
+
ernst zu nehmen. Gerade wenn Teile einer Entwicklung von einer dritten Partei
|
58 |
+
durchgeführt werden, können Sie mithilfe des ABAP Test Cockpits den Abnahmeprozess
|
59 |
+
unterstützen. Schrittweise Generell empfehlen wir, stets schrittweise vorzugehen,
|
60 |
+
also nicht Servicepacks) vor einer Projektphase einzuspielen, da
|
61 |
+
sentences:
|
62 |
+
- Was bedeutet 'Unternehmensführung' und wie kann man eine Verbindung zu diesem
|
63 |
+
Bereich erstellen?
|
64 |
+
- Wie kann ich das ABAP Test Cockpit nutzen, um den Abnahmeprozess zu unterstützen,
|
65 |
+
insbesondere bei der Überprüfung von Änderungen an bestehender Entwicklung durch
|
66 |
+
Dritte?
|
67 |
+
- Wird etwas regelmäßig aktualisiert?
|
68 |
+
- source_sentence: In der Folge haben Sie einen sehr undurchsichtigen Programmcode,
|
69 |
+
der sich nur schwer warten lässt. Auch können bei diesem Ansatz viele Bedingungen
|
70 |
+
gar nicht betrachtet werden, was ein großes Fehlerpotenzial birgt. Umsetzung mit
|
71 |
+
Entwurfsmustern Plausibilitätsprüfungen lassen sich einfacher und übersichtlicher
|
72 |
+
über zwei Entwurfsmuster implementieren. Das Entwurfsmuster Façade Pattern stellt
|
73 |
+
dabei einen zentralen Zugriffspunkt für diese Prüfungen bereit (siehe auch Abschnitt
|
74 |
+
4.4). Als weiteres Entwurfs- muster implementieren wir ein Composite Pattern das
|
75 |
+
die Prüfun g g den einzelnen Prüfungen oder bereits im Vorfeld auch Spezialfälle
|
76 |
+
definiert werden. Die einzelnen Prüfungen werden jeweils mit einem Standard-Interface
|
77 |
+
erstellt, in dem die entsprechenden Prü-
|
78 |
+
sentences:
|
79 |
+
- Was hat sie?
|
80 |
+
- Wie erfolgt die Nummernvergabe und was ist der Grundgedanke des SQL Monitors?
|
81 |
+
- Welche zwei Entwurfsmuster sollen zur Umsetzung von Plausibilitätsprüfungen verwendet
|
82 |
+
werden?
|
83 |
+
- source_sentence: 'Kurs Netzwerktechnik gefunden''. 61 WHEN 4. 62 * Fehlerfall 63
|
84 |
+
WRITE: / ''keine Teilnehmer für den Kurs Netzwerktechnik gefunden''. 64 WHEN OTHERS.
|
85 |
+
65 * Kann nicht sein, anderer sy-subrc von der Anweisung nicht geliefert 66 ENDCASE.
|
86 |
+
Listing 10.2 Report Z_TEILNEHMERLISTE10_case Anmerkungen zum Quellcode Zeile 32
|
87 |
+
bis 41 Alle Sätze der Teilnehmertabelle werden gelesen. Je nach Feldinhalt des
|
88 |
+
Kurstitels werden die Zähler für die verschiedenen Kurse »Netz- werktechnik«,
|
89 |
+
»PC-Grundlagen« und für sonstige Kurse hochgezählt. Zeile 43 bis 46 Nach der SELECT-Schleife
|
90 |
+
werden die Gruppensummen ausgegeben. Dabei gilt wieder das Prinzip, in der Schleife
|
91 |
+
die Summen hochzuzäh- len und nach der Schleife'
|
92 |
+
sentences:
|
93 |
+
- Wie können Sie in SAP S/4HANA geeignete Anwendungsrollen identifizieren, die für
|
94 |
+
spezifische Geschäftsprozesse wie den Verkauf von Kartenkontingenten oder die
|
95 |
+
Lieferung von Produkten mit einer bestimmten Priorität erforderlich sind?
|
96 |
+
- Was sind die Vorteile der Version 1 der Testklasse?
|
97 |
+
- Wie werden die Teilnehmer für einen bestimmten Kurs gezählt und was wird ausgegeben,
|
98 |
+
nachdem alle Sätze der Teilnehmertabelle gelesen wurden?
|
99 |
+
pipeline_tag: sentence-similarity
|
100 |
+
library_name: sentence-transformers
|
101 |
+
metrics:
|
102 |
+
- cosine_accuracy@1
|
103 |
+
- cosine_accuracy@3
|
104 |
+
- cosine_accuracy@5
|
105 |
+
- cosine_accuracy@10
|
106 |
+
- cosine_precision@1
|
107 |
+
- cosine_precision@3
|
108 |
+
- cosine_precision@5
|
109 |
+
- cosine_precision@10
|
110 |
+
- cosine_recall@1
|
111 |
+
- cosine_recall@3
|
112 |
+
- cosine_recall@5
|
113 |
+
- cosine_recall@10
|
114 |
+
- cosine_ndcg@10
|
115 |
+
- cosine_mrr@10
|
116 |
+
- cosine_map@100
|
117 |
+
model-index:
|
118 |
+
- name: mixedbread-ai/deepset-mxbai-embed-de-large-v1
|
119 |
+
results:
|
120 |
+
- task:
|
121 |
+
type: information-retrieval
|
122 |
+
name: Information Retrieval
|
123 |
+
dataset:
|
124 |
+
name: dim 768
|
125 |
+
type: dim_768
|
126 |
+
metrics:
|
127 |
+
- type: cosine_accuracy@1
|
128 |
+
value: 0.19440124416796267
|
129 |
+
name: Cosine Accuracy@1
|
130 |
+
- type: cosine_accuracy@3
|
131 |
+
value: 0.5116640746500778
|
132 |
+
name: Cosine Accuracy@3
|
133 |
+
- type: cosine_accuracy@5
|
134 |
+
value: 0.5956454121306376
|
135 |
+
name: Cosine Accuracy@5
|
136 |
+
- type: cosine_accuracy@10
|
137 |
+
value: 0.6578538102643857
|
138 |
+
name: Cosine Accuracy@10
|
139 |
+
- type: cosine_precision@1
|
140 |
+
value: 0.19440124416796267
|
141 |
+
name: Cosine Precision@1
|
142 |
+
- type: cosine_precision@3
|
143 |
+
value: 0.1705546915500259
|
144 |
+
name: Cosine Precision@3
|
145 |
+
- type: cosine_precision@5
|
146 |
+
value: 0.11912908242612752
|
147 |
+
name: Cosine Precision@5
|
148 |
+
- type: cosine_precision@10
|
149 |
+
value: 0.06578538102643856
|
150 |
+
name: Cosine Precision@10
|
151 |
+
- type: cosine_recall@1
|
152 |
+
value: 0.19440124416796267
|
153 |
+
name: Cosine Recall@1
|
154 |
+
- type: cosine_recall@3
|
155 |
+
value: 0.5116640746500778
|
156 |
+
name: Cosine Recall@3
|
157 |
+
- type: cosine_recall@5
|
158 |
+
value: 0.5956454121306376
|
159 |
+
name: Cosine Recall@5
|
160 |
+
- type: cosine_recall@10
|
161 |
+
value: 0.6578538102643857
|
162 |
+
name: Cosine Recall@10
|
163 |
+
- type: cosine_ndcg@10
|
164 |
+
value: 0.435518072261628
|
165 |
+
name: Cosine Ndcg@10
|
166 |
+
- type: cosine_mrr@10
|
167 |
+
value: 0.3630026660742058
|
168 |
+
name: Cosine Mrr@10
|
169 |
+
- type: cosine_map@100
|
170 |
+
value: 0.3667171724544
|
171 |
+
name: Cosine Map@100
|
172 |
+
- task:
|
173 |
+
type: information-retrieval
|
174 |
+
name: Information Retrieval
|
175 |
+
dataset:
|
176 |
+
name: dim 512
|
177 |
+
type: dim_512
|
178 |
+
metrics:
|
179 |
+
- type: cosine_accuracy@1
|
180 |
+
value: 0.17573872472783825
|
181 |
+
name: Cosine Accuracy@1
|
182 |
+
- type: cosine_accuracy@3
|
183 |
+
value: 0.49922239502332816
|
184 |
+
name: Cosine Accuracy@3
|
185 |
+
- type: cosine_accuracy@5
|
186 |
+
value: 0.578538102643857
|
187 |
+
name: Cosine Accuracy@5
|
188 |
+
- type: cosine_accuracy@10
|
189 |
+
value: 0.6469673405909798
|
190 |
+
name: Cosine Accuracy@10
|
191 |
+
- type: cosine_precision@1
|
192 |
+
value: 0.17573872472783825
|
193 |
+
name: Cosine Precision@1
|
194 |
+
- type: cosine_precision@3
|
195 |
+
value: 0.16640746500777603
|
196 |
+
name: Cosine Precision@3
|
197 |
+
- type: cosine_precision@5
|
198 |
+
value: 0.11570762052877137
|
199 |
+
name: Cosine Precision@5
|
200 |
+
- type: cosine_precision@10
|
201 |
+
value: 0.06469673405909797
|
202 |
+
name: Cosine Precision@10
|
203 |
+
- type: cosine_recall@1
|
204 |
+
value: 0.17573872472783825
|
205 |
+
name: Cosine Recall@1
|
206 |
+
- type: cosine_recall@3
|
207 |
+
value: 0.49922239502332816
|
208 |
+
name: Cosine Recall@3
|
209 |
+
- type: cosine_recall@5
|
210 |
+
value: 0.578538102643857
|
211 |
+
name: Cosine Recall@5
|
212 |
+
- type: cosine_recall@10
|
213 |
+
value: 0.6469673405909798
|
214 |
+
name: Cosine Recall@10
|
215 |
+
- type: cosine_ndcg@10
|
216 |
+
value: 0.42150418838308457
|
217 |
+
name: Cosine Ndcg@10
|
218 |
+
- type: cosine_mrr@10
|
219 |
+
value: 0.347895529388531
|
220 |
+
name: Cosine Mrr@10
|
221 |
+
- type: cosine_map@100
|
222 |
+
value: 0.35213583443960883
|
223 |
+
name: Cosine Map@100
|
224 |
+
- task:
|
225 |
+
type: information-retrieval
|
226 |
+
name: Information Retrieval
|
227 |
+
dataset:
|
228 |
+
name: dim 256
|
229 |
+
type: dim_256
|
230 |
+
metrics:
|
231 |
+
- type: cosine_accuracy@1
|
232 |
+
value: 0.17107309486780714
|
233 |
+
name: Cosine Accuracy@1
|
234 |
+
- type: cosine_accuracy@3
|
235 |
+
value: 0.4867807153965785
|
236 |
+
name: Cosine Accuracy@3
|
237 |
+
- type: cosine_accuracy@5
|
238 |
+
value: 0.5738724727838258
|
239 |
+
name: Cosine Accuracy@5
|
240 |
+
- type: cosine_accuracy@10
|
241 |
+
value: 0.6345256609642301
|
242 |
+
name: Cosine Accuracy@10
|
243 |
+
- type: cosine_precision@1
|
244 |
+
value: 0.17107309486780714
|
245 |
+
name: Cosine Precision@1
|
246 |
+
- type: cosine_precision@3
|
247 |
+
value: 0.16226023846552615
|
248 |
+
name: Cosine Precision@3
|
249 |
+
- type: cosine_precision@5
|
250 |
+
value: 0.11477449455676515
|
251 |
+
name: Cosine Precision@5
|
252 |
+
- type: cosine_precision@10
|
253 |
+
value: 0.06345256609642301
|
254 |
+
name: Cosine Precision@10
|
255 |
+
- type: cosine_recall@1
|
256 |
+
value: 0.17107309486780714
|
257 |
+
name: Cosine Recall@1
|
258 |
+
- type: cosine_recall@3
|
259 |
+
value: 0.4867807153965785
|
260 |
+
name: Cosine Recall@3
|
261 |
+
- type: cosine_recall@5
|
262 |
+
value: 0.5738724727838258
|
263 |
+
name: Cosine Recall@5
|
264 |
+
- type: cosine_recall@10
|
265 |
+
value: 0.6345256609642301
|
266 |
+
name: Cosine Recall@10
|
267 |
+
- type: cosine_ndcg@10
|
268 |
+
value: 0.41329965063004476
|
269 |
+
name: Cosine Ndcg@10
|
270 |
+
- type: cosine_mrr@10
|
271 |
+
value: 0.3410427312449087
|
272 |
+
name: Cosine Mrr@10
|
273 |
+
- type: cosine_map@100
|
274 |
+
value: 0.34534909747047904
|
275 |
+
name: Cosine Map@100
|
276 |
+
- task:
|
277 |
+
type: information-retrieval
|
278 |
+
name: Information Retrieval
|
279 |
+
dataset:
|
280 |
+
name: dim 128
|
281 |
+
type: dim_128
|
282 |
+
metrics:
|
283 |
+
- type: cosine_accuracy@1
|
284 |
+
value: 0.13841368584758942
|
285 |
+
name: Cosine Accuracy@1
|
286 |
+
- type: cosine_accuracy@3
|
287 |
+
value: 0.463452566096423
|
288 |
+
name: Cosine Accuracy@3
|
289 |
+
- type: cosine_accuracy@5
|
290 |
+
value: 0.5396578538102644
|
291 |
+
name: Cosine Accuracy@5
|
292 |
+
- type: cosine_accuracy@10
|
293 |
+
value: 0.6065318818040435
|
294 |
+
name: Cosine Accuracy@10
|
295 |
+
- type: cosine_precision@1
|
296 |
+
value: 0.13841368584758942
|
297 |
+
name: Cosine Precision@1
|
298 |
+
- type: cosine_precision@3
|
299 |
+
value: 0.15448418869880767
|
300 |
+
name: Cosine Precision@3
|
301 |
+
- type: cosine_precision@5
|
302 |
+
value: 0.10793157076205287
|
303 |
+
name: Cosine Precision@5
|
304 |
+
- type: cosine_precision@10
|
305 |
+
value: 0.060653188180404355
|
306 |
+
name: Cosine Precision@10
|
307 |
+
- type: cosine_recall@1
|
308 |
+
value: 0.13841368584758942
|
309 |
+
name: Cosine Recall@1
|
310 |
+
- type: cosine_recall@3
|
311 |
+
value: 0.463452566096423
|
312 |
+
name: Cosine Recall@3
|
313 |
+
- type: cosine_recall@5
|
314 |
+
value: 0.5396578538102644
|
315 |
+
name: Cosine Recall@5
|
316 |
+
- type: cosine_recall@10
|
317 |
+
value: 0.6065318818040435
|
318 |
+
name: Cosine Recall@10
|
319 |
+
- type: cosine_ndcg@10
|
320 |
+
value: 0.383450249177046
|
321 |
+
name: Cosine Ndcg@10
|
322 |
+
- type: cosine_mrr@10
|
323 |
+
value: 0.3106235651336741
|
324 |
+
name: Cosine Mrr@10
|
325 |
+
- type: cosine_map@100
|
326 |
+
value: 0.31570059517455157
|
327 |
+
name: Cosine Map@100
|
328 |
+
- task:
|
329 |
+
type: information-retrieval
|
330 |
+
name: Information Retrieval
|
331 |
+
dataset:
|
332 |
+
name: dim 64
|
333 |
+
type: dim_64
|
334 |
+
metrics:
|
335 |
+
- type: cosine_accuracy@1
|
336 |
+
value: 0.11975116640746501
|
337 |
+
name: Cosine Accuracy@1
|
338 |
+
- type: cosine_accuracy@3
|
339 |
+
value: 0.37636080870917576
|
340 |
+
name: Cosine Accuracy@3
|
341 |
+
- type: cosine_accuracy@5
|
342 |
+
value: 0.45412130637636083
|
343 |
+
name: Cosine Accuracy@5
|
344 |
+
- type: cosine_accuracy@10
|
345 |
+
value: 0.536547433903577
|
346 |
+
name: Cosine Accuracy@10
|
347 |
+
- type: cosine_precision@1
|
348 |
+
value: 0.11975116640746501
|
349 |
+
name: Cosine Precision@1
|
350 |
+
- type: cosine_precision@3
|
351 |
+
value: 0.12545360290305857
|
352 |
+
name: Cosine Precision@3
|
353 |
+
- type: cosine_precision@5
|
354 |
+
value: 0.09082426127527217
|
355 |
+
name: Cosine Precision@5
|
356 |
+
- type: cosine_precision@10
|
357 |
+
value: 0.053654743390357695
|
358 |
+
name: Cosine Precision@10
|
359 |
+
- type: cosine_recall@1
|
360 |
+
value: 0.11975116640746501
|
361 |
+
name: Cosine Recall@1
|
362 |
+
- type: cosine_recall@3
|
363 |
+
value: 0.37636080870917576
|
364 |
+
name: Cosine Recall@3
|
365 |
+
- type: cosine_recall@5
|
366 |
+
value: 0.45412130637636083
|
367 |
+
name: Cosine Recall@5
|
368 |
+
- type: cosine_recall@10
|
369 |
+
value: 0.536547433903577
|
370 |
+
name: Cosine Recall@10
|
371 |
+
- type: cosine_ndcg@10
|
372 |
+
value: 0.3302350089756295
|
373 |
+
name: Cosine Ndcg@10
|
374 |
+
- type: cosine_mrr@10
|
375 |
+
value: 0.2638284085018143
|
376 |
+
name: Cosine Mrr@10
|
377 |
+
- type: cosine_map@100
|
378 |
+
value: 0.2699002519586214
|
379 |
+
name: Cosine Map@100
|
380 |
+
---
|
381 |
+
|
382 |
+
# mixedbread-ai/deepset-mxbai-embed-de-large-v1
|
383 |
+
|
384 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [mixedbread-ai/deepset-mxbai-embed-de-large-v1](https://huggingface.co/mixedbread-ai/deepset-mxbai-embed-de-large-v1) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
385 |
+
|
386 |
+
## Model Details
|
387 |
+
|
388 |
+
### Model Description
|
389 |
+
- **Model Type:** Sentence Transformer
|
390 |
+
- **Base model:** [mixedbread-ai/deepset-mxbai-embed-de-large-v1](https://huggingface.co/mixedbread-ai/deepset-mxbai-embed-de-large-v1) <!-- at revision fe450620a047ac704e100d84aebe7cd3fc137021 -->
|
391 |
+
- **Maximum Sequence Length:** 512 tokens
|
392 |
+
- **Output Dimensionality:** 1024 dimensions
|
393 |
+
- **Similarity Function:** Cosine Similarity
|
394 |
+
- **Training Dataset:**
|
395 |
+
- json
|
396 |
+
- **Language:** en
|
397 |
+
- **License:** apache-2.0
|
398 |
+
|
399 |
+
### Model Sources
|
400 |
+
|
401 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
402 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
403 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
404 |
+
|
405 |
+
### Full Model Architecture
|
406 |
+
|
407 |
+
```
|
408 |
+
SentenceTransformer(
|
409 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
410 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
411 |
+
(2): Normalize()
|
412 |
+
)
|
413 |
+
```
|
414 |
+
|
415 |
+
## Usage
|
416 |
+
|
417 |
+
### Direct Usage (Sentence Transformers)
|
418 |
+
|
419 |
+
First install the Sentence Transformers library:
|
420 |
+
|
421 |
+
```bash
|
422 |
+
pip install -U sentence-transformers
|
423 |
+
```
|
424 |
+
|
425 |
+
Then you can load this model and run inference.
|
426 |
+
```python
|
427 |
+
from sentence_transformers import SentenceTransformer
|
428 |
+
|
429 |
+
# Download from the 🤗 Hub
|
430 |
+
model = SentenceTransformer("kenoc/mxbai-de-abat-matryoshka")
|
431 |
+
# Run inference
|
432 |
+
sentences = [
|
433 |
+
"Kurs Netzwerktechnik gefunden'. 61 WHEN 4. 62 * Fehlerfall 63 WRITE: / 'keine Teilnehmer für den Kurs Netzwerktechnik gefunden'. 64 WHEN OTHERS. 65 * Kann nicht sein, anderer sy-subrc von der Anweisung nicht geliefert 66 ENDCASE. Listing 10.2 Report Z_TEILNEHMERLISTE10_case Anmerkungen zum Quellcode Zeile 32 bis 41 Alle Sätze der Teilnehmertabelle werden gelesen. Je nach Feldinhalt des Kurstitels werden die Zähler für die verschiedenen Kurse »Netz- werktechnik«, »PC-Grundlagen« und für sonstige Kurse hochgezählt. Zeile 43 bis 46 Nach der SELECT-Schleife werden die Gruppensummen ausgegeben. Dabei gilt wieder das Prinzip, in der Schleife die Summen hochzuzäh- len und nach der Schleife",
|
434 |
+
'Wie werden die Teilnehmer für einen bestimmten Kurs gezählt und was wird ausgegeben, nachdem alle Sätze der Teilnehmertabelle gelesen wurden?',
|
435 |
+
'Wie können Sie in SAP S/4HANA geeignete Anwendungsrollen identifizieren, die für spezifische Geschäftsprozesse wie den Verkauf von Kartenkontingenten oder die Lieferung von Produkten mit einer bestimmten Priorität erforderlich sind?',
|
436 |
+
]
|
437 |
+
embeddings = model.encode(sentences)
|
438 |
+
print(embeddings.shape)
|
439 |
+
# [3, 1024]
|
440 |
+
|
441 |
+
# Get the similarity scores for the embeddings
|
442 |
+
similarities = model.similarity(embeddings, embeddings)
|
443 |
+
print(similarities.shape)
|
444 |
+
# [3, 3]
|
445 |
+
```
|
446 |
+
|
447 |
+
<!--
|
448 |
+
### Direct Usage (Transformers)
|
449 |
+
|
450 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
451 |
+
|
452 |
+
</details>
|
453 |
+
-->
|
454 |
+
|
455 |
+
<!--
|
456 |
+
### Downstream Usage (Sentence Transformers)
|
457 |
+
|
458 |
+
You can finetune this model on your own dataset.
|
459 |
+
|
460 |
+
<details><summary>Click to expand</summary>
|
461 |
+
|
462 |
+
</details>
|
463 |
+
-->
|
464 |
+
|
465 |
+
<!--
|
466 |
+
### Out-of-Scope Use
|
467 |
+
|
468 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
469 |
+
-->
|
470 |
+
|
471 |
+
## Evaluation
|
472 |
+
|
473 |
+
### Metrics
|
474 |
+
|
475 |
+
#### Information Retrieval
|
476 |
+
|
477 |
+
* Datasets: `dim_768`, `dim_512`, `dim_256`, `dim_128` and `dim_64`
|
478 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
479 |
+
|
480 |
+
| Metric | dim_768 | dim_512 | dim_256 | dim_128 | dim_64 |
|
481 |
+
|:--------------------|:-----------|:-----------|:-----------|:-----------|:-----------|
|
482 |
+
| cosine_accuracy@1 | 0.1944 | 0.1757 | 0.1711 | 0.1384 | 0.1198 |
|
483 |
+
| cosine_accuracy@3 | 0.5117 | 0.4992 | 0.4868 | 0.4635 | 0.3764 |
|
484 |
+
| cosine_accuracy@5 | 0.5956 | 0.5785 | 0.5739 | 0.5397 | 0.4541 |
|
485 |
+
| cosine_accuracy@10 | 0.6579 | 0.647 | 0.6345 | 0.6065 | 0.5365 |
|
486 |
+
| cosine_precision@1 | 0.1944 | 0.1757 | 0.1711 | 0.1384 | 0.1198 |
|
487 |
+
| cosine_precision@3 | 0.1706 | 0.1664 | 0.1623 | 0.1545 | 0.1255 |
|
488 |
+
| cosine_precision@5 | 0.1191 | 0.1157 | 0.1148 | 0.1079 | 0.0908 |
|
489 |
+
| cosine_precision@10 | 0.0658 | 0.0647 | 0.0635 | 0.0607 | 0.0537 |
|
490 |
+
| cosine_recall@1 | 0.1944 | 0.1757 | 0.1711 | 0.1384 | 0.1198 |
|
491 |
+
| cosine_recall@3 | 0.5117 | 0.4992 | 0.4868 | 0.4635 | 0.3764 |
|
492 |
+
| cosine_recall@5 | 0.5956 | 0.5785 | 0.5739 | 0.5397 | 0.4541 |
|
493 |
+
| cosine_recall@10 | 0.6579 | 0.647 | 0.6345 | 0.6065 | 0.5365 |
|
494 |
+
| **cosine_ndcg@10** | **0.4355** | **0.4215** | **0.4133** | **0.3835** | **0.3302** |
|
495 |
+
| cosine_mrr@10 | 0.363 | 0.3479 | 0.341 | 0.3106 | 0.2638 |
|
496 |
+
| cosine_map@100 | 0.3667 | 0.3521 | 0.3453 | 0.3157 | 0.2699 |
|
497 |
+
|
498 |
+
<!--
|
499 |
+
## Bias, Risks and Limitations
|
500 |
+
|
501 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
502 |
+
-->
|
503 |
+
|
504 |
+
<!--
|
505 |
+
### Recommendations
|
506 |
+
|
507 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
508 |
+
-->
|
509 |
+
|
510 |
+
## Training Details
|
511 |
+
|
512 |
+
### Training Dataset
|
513 |
+
|
514 |
+
#### json
|
515 |
+
|
516 |
+
* Dataset: json
|
517 |
+
* Size: 5,779 training samples
|
518 |
+
* Columns: <code>positive</code> and <code>anchor</code>
|
519 |
+
* Approximate statistics based on the first 1000 samples:
|
520 |
+
| | positive | anchor |
|
521 |
+
|:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
|
522 |
+
| type | string | string |
|
523 |
+
| details | <ul><li>min: 17 tokens</li><li>mean: 181.9 tokens</li><li>max: 460 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 33.97 tokens</li><li>max: 112 tokens</li></ul> |
|
524 |
+
* Samples:
|
525 |
+
| positive | anchor |
|
526 |
+
|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
527 |
+
| <code>weiter aufgefächert und dienen zur Abbildung komplexerer Prozesse. Informationen zum Kunden, die sonst nur Vertriebsmitarbeitern mit direk ten Kundenkontakten zur Verfügung stehen, werden im System gespeichert. Diese Daten sind auch für Mitarbeiter aus den Bereichen Marketing oder Pro duktentwicklung relevant. So kann auf der Basis dieser Daten eine Marke tingaktion durchgeführt werden, oder die Produktentwicklung kann gezielt auf Kundenwünsche eingehen. Ohne ein IT-System gehen für das Unterneh In den letzten Jahren ist zu beobachten, dass CRM Anwendungen ver mehrt auf mobilen Endgeräten wie Tablet-Computern oder Smart phones (Blackberry, iPhone etc.) eingesetzt werden. Dieser Trend beschränkt sich natürlich nicht auf das</code> | <code>Was wird im System gespeichert und warum werden CRM-Anwendungen auf mobilen Endgeräten eingesetzt?</code> |
|
528 |
+
| <code>16 17 18 19 In der Personalzeitwirtschaft, kurz Zeitwirtschaft, werden zum einen die Anwesenheitszeiten erfasst; dazu gehören die Dauer und Lage der Anwesen heits- und Pausenzeiten, Informationen zu Arbeitszeiten, die nicht am übli chen Arbeitsplatz stattfinden (wie Dienstreisen) sowie die Tätigkeit während der erfassten Zeit. Zum anderen werden aber auch Abweichungen zum ursprünglichen Arbeitsplan gepflegt, wie zum Beispiel Überstunden, Kurzar beit oder Wiedereingliederung. Des Weiteren werden Fehlzeiten wie Krank heitstage und Urlaubstage im System dokumentiert. Diese Informationen können nur dann ausgewertet werden, wenn die vorge sehenen Arbeitszeiten eines Mitarbeiters im sogenannten Arbeitszeitplan festgehalten werden. Hierbei wird zum einen die Anzahl</code> | <code>Welche Arten von Abweichungen vom ursprünglichen Arbeitsplan, wie Überstunden, Kurzarbeit oder Wiedereingliederung, werden in der Personalzeitwirtschaft genau dokumentiert?</code> |
|
529 |
+
| <code>einer String-Operation beseitigt werden. Zeichenketten verschieben Eine Möglichkeit wäre, die Zeichenkette nach links zu verschieben, bis die führenden Nullen verschwunden sind. Dies erreichen Sie mit fol- gender Anweisung: SHIFT SHIFT telefon LEFT DELETING LEADING '0'. Durch die SHIFT-Anweisung wird der Feldinhalt, das heißt die Zei- chenkette 00887766, so lange nach links verschoben, bis alle führen- den Nullen gelöscht sind. Der Feldinhalt lautet nach der Operation 887766; das Feld wird demnach rechts mit zwei Leerzeichen aufge- füllt. Natürlich können Sie eine Zeichenkette in einem Feld auch in eine bestimmte Richtung um eine bestimmte Anzahl Positionen verschie- ben. Möchten Sie die Telefonnummer</code> | <code>Hey, ich habe eine Telefonnummer in einem String und führende Nullen, die ich entfernen muss. Kannst du mir bitte genau sagen, wie ich das machen kann? Die IT-Untstützung hat mich nur mit 'SHIFT LEFT DELETING LEADING' belädtet, aber ich verstehe nicht, was das bedeutet.</code> |
|
530 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
531 |
+
```json
|
532 |
+
{
|
533 |
+
"loss": "MultipleNegativesRankingLoss",
|
534 |
+
"matryoshka_dims": [
|
535 |
+
768,
|
536 |
+
512,
|
537 |
+
256,
|
538 |
+
128,
|
539 |
+
64
|
540 |
+
],
|
541 |
+
"matryoshka_weights": [
|
542 |
+
1,
|
543 |
+
1,
|
544 |
+
1,
|
545 |
+
1,
|
546 |
+
1
|
547 |
+
],
|
548 |
+
"n_dims_per_step": -1
|
549 |
+
}
|
550 |
+
```
|
551 |
+
|
552 |
+
### Training Hyperparameters
|
553 |
+
#### Non-Default Hyperparameters
|
554 |
+
|
555 |
+
- `eval_strategy`: epoch
|
556 |
+
- `per_device_train_batch_size`: 16
|
557 |
+
- `per_device_eval_batch_size`: 16
|
558 |
+
- `gradient_accumulation_steps`: 8
|
559 |
+
- `learning_rate`: 2e-05
|
560 |
+
- `num_train_epochs`: 4
|
561 |
+
- `lr_scheduler_type`: cosine
|
562 |
+
- `warmup_ratio`: 0.1
|
563 |
+
- `bf16`: True
|
564 |
+
- `load_best_model_at_end`: True
|
565 |
+
- `optim`: adamw_torch_fused
|
566 |
+
- `gradient_checkpointing`: True
|
567 |
+
- `batch_sampler`: no_duplicates
|
568 |
+
|
569 |
+
#### All Hyperparameters
|
570 |
+
<details><summary>Click to expand</summary>
|
571 |
+
|
572 |
+
- `overwrite_output_dir`: False
|
573 |
+
- `do_predict`: False
|
574 |
+
- `eval_strategy`: epoch
|
575 |
+
- `prediction_loss_only`: True
|
576 |
+
- `per_device_train_batch_size`: 16
|
577 |
+
- `per_device_eval_batch_size`: 16
|
578 |
+
- `per_gpu_train_batch_size`: None
|
579 |
+
- `per_gpu_eval_batch_size`: None
|
580 |
+
- `gradient_accumulation_steps`: 8
|
581 |
+
- `eval_accumulation_steps`: None
|
582 |
+
- `torch_empty_cache_steps`: None
|
583 |
+
- `learning_rate`: 2e-05
|
584 |
+
- `weight_decay`: 0.0
|
585 |
+
- `adam_beta1`: 0.9
|
586 |
+
- `adam_beta2`: 0.999
|
587 |
+
- `adam_epsilon`: 1e-08
|
588 |
+
- `max_grad_norm`: 1.0
|
589 |
+
- `num_train_epochs`: 4
|
590 |
+
- `max_steps`: -1
|
591 |
+
- `lr_scheduler_type`: cosine
|
592 |
+
- `lr_scheduler_kwargs`: {}
|
593 |
+
- `warmup_ratio`: 0.1
|
594 |
+
- `warmup_steps`: 0
|
595 |
+
- `log_level`: passive
|
596 |
+
- `log_level_replica`: warning
|
597 |
+
- `log_on_each_node`: True
|
598 |
+
- `logging_nan_inf_filter`: True
|
599 |
+
- `save_safetensors`: True
|
600 |
+
- `save_on_each_node`: False
|
601 |
+
- `save_only_model`: False
|
602 |
+
- `restore_callback_states_from_checkpoint`: False
|
603 |
+
- `no_cuda`: False
|
604 |
+
- `use_cpu`: False
|
605 |
+
- `use_mps_device`: False
|
606 |
+
- `seed`: 42
|
607 |
+
- `data_seed`: None
|
608 |
+
- `jit_mode_eval`: False
|
609 |
+
- `use_ipex`: False
|
610 |
+
- `bf16`: True
|
611 |
+
- `fp16`: False
|
612 |
+
- `fp16_opt_level`: O1
|
613 |
+
- `half_precision_backend`: auto
|
614 |
+
- `bf16_full_eval`: False
|
615 |
+
- `fp16_full_eval`: False
|
616 |
+
- `tf32`: None
|
617 |
+
- `local_rank`: 0
|
618 |
+
- `ddp_backend`: None
|
619 |
+
- `tpu_num_cores`: None
|
620 |
+
- `tpu_metrics_debug`: False
|
621 |
+
- `debug`: []
|
622 |
+
- `dataloader_drop_last`: False
|
623 |
+
- `dataloader_num_workers`: 0
|
624 |
+
- `dataloader_prefetch_factor`: None
|
625 |
+
- `past_index`: -1
|
626 |
+
- `disable_tqdm`: False
|
627 |
+
- `remove_unused_columns`: True
|
628 |
+
- `label_names`: None
|
629 |
+
- `load_best_model_at_end`: True
|
630 |
+
- `ignore_data_skip`: False
|
631 |
+
- `fsdp`: []
|
632 |
+
- `fsdp_min_num_params`: 0
|
633 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
634 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
635 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
636 |
+
- `deepspeed`: None
|
637 |
+
- `label_smoothing_factor`: 0.0
|
638 |
+
- `optim`: adamw_torch_fused
|
639 |
+
- `optim_args`: None
|
640 |
+
- `adafactor`: False
|
641 |
+
- `group_by_length`: False
|
642 |
+
- `length_column_name`: length
|
643 |
+
- `ddp_find_unused_parameters`: None
|
644 |
+
- `ddp_bucket_cap_mb`: None
|
645 |
+
- `ddp_broadcast_buffers`: False
|
646 |
+
- `dataloader_pin_memory`: True
|
647 |
+
- `dataloader_persistent_workers`: False
|
648 |
+
- `skip_memory_metrics`: True
|
649 |
+
- `use_legacy_prediction_loop`: False
|
650 |
+
- `push_to_hub`: False
|
651 |
+
- `resume_from_checkpoint`: None
|
652 |
+
- `hub_model_id`: None
|
653 |
+
- `hub_strategy`: every_save
|
654 |
+
- `hub_private_repo`: None
|
655 |
+
- `hub_always_push`: False
|
656 |
+
- `gradient_checkpointing`: True
|
657 |
+
- `gradient_checkpointing_kwargs`: None
|
658 |
+
- `include_inputs_for_metrics`: False
|
659 |
+
- `include_for_metrics`: []
|
660 |
+
- `eval_do_concat_batches`: True
|
661 |
+
- `fp16_backend`: auto
|
662 |
+
- `push_to_hub_model_id`: None
|
663 |
+
- `push_to_hub_organization`: None
|
664 |
+
- `mp_parameters`:
|
665 |
+
- `auto_find_batch_size`: False
|
666 |
+
- `full_determinism`: False
|
667 |
+
- `torchdynamo`: None
|
668 |
+
- `ray_scope`: last
|
669 |
+
- `ddp_timeout`: 1800
|
670 |
+
- `torch_compile`: False
|
671 |
+
- `torch_compile_backend`: None
|
672 |
+
- `torch_compile_mode`: None
|
673 |
+
- `dispatch_batches`: None
|
674 |
+
- `split_batches`: None
|
675 |
+
- `include_tokens_per_second`: False
|
676 |
+
- `include_num_input_tokens_seen`: False
|
677 |
+
- `neftune_noise_alpha`: None
|
678 |
+
- `optim_target_modules`: None
|
679 |
+
- `batch_eval_metrics`: False
|
680 |
+
- `eval_on_start`: False
|
681 |
+
- `use_liger_kernel`: False
|
682 |
+
- `eval_use_gather_object`: False
|
683 |
+
- `average_tokens_across_devices`: False
|
684 |
+
- `prompts`: None
|
685 |
+
- `batch_sampler`: no_duplicates
|
686 |
+
- `multi_dataset_batch_sampler`: proportional
|
687 |
+
|
688 |
+
</details>
|
689 |
+
|
690 |
+
### Training Logs
|
691 |
+
| Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
|
692 |
+
|:-------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
|
693 |
+
| 1.0 | 46 | - | 0.4144 | 0.4153 | 0.3957 | 0.3746 | 0.3258 |
|
694 |
+
| 1.0884 | 50 | 4.709 | - | - | - | - | - |
|
695 |
+
| 2.0 | 92 | - | 0.4353 | 0.4223 | 0.4205 | 0.3787 | 0.3343 |
|
696 |
+
| 2.1768 | 100 | 2.4455 | - | - | - | - | - |
|
697 |
+
| **3.0** | **138** | **-** | **0.4278** | **0.419** | **0.4156** | **0.3866** | **0.3398** |
|
698 |
+
| 3.2652 | 150 | 1.5083 | - | - | - | - | - |
|
699 |
+
| 3.9282 | 180 | - | 0.4355 | 0.4215 | 0.4133 | 0.3835 | 0.3302 |
|
700 |
+
|
701 |
+
* The bold row denotes the saved checkpoint.
|
702 |
+
|
703 |
+
### Framework Versions
|
704 |
+
- Python: 3.12.8
|
705 |
+
- Sentence Transformers: 3.3.1
|
706 |
+
- Transformers: 4.47.1
|
707 |
+
- PyTorch: 2.5.1+cu124
|
708 |
+
- Accelerate: 1.2.1
|
709 |
+
- Datasets: 2.19.2
|
710 |
+
- Tokenizers: 0.21.0
|
711 |
+
|
712 |
+
## Citation
|
713 |
+
|
714 |
+
### BibTeX
|
715 |
+
|
716 |
+
#### Sentence Transformers
|
717 |
+
```bibtex
|
718 |
+
@inproceedings{reimers-2019-sentence-bert,
|
719 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
720 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
721 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
722 |
+
month = "11",
|
723 |
+
year = "2019",
|
724 |
+
publisher = "Association for Computational Linguistics",
|
725 |
+
url = "https://arxiv.org/abs/1908.10084",
|
726 |
+
}
|
727 |
+
```
|
728 |
+
|
729 |
+
#### MatryoshkaLoss
|
730 |
+
```bibtex
|
731 |
+
@misc{kusupati2024matryoshka,
|
732 |
+
title={Matryoshka Representation Learning},
|
733 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
734 |
+
year={2024},
|
735 |
+
eprint={2205.13147},
|
736 |
+
archivePrefix={arXiv},
|
737 |
+
primaryClass={cs.LG}
|
738 |
+
}
|
739 |
+
```
|
740 |
+
|
741 |
+
#### MultipleNegativesRankingLoss
|
742 |
+
```bibtex
|
743 |
+
@misc{henderson2017efficient,
|
744 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
745 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
746 |
+
year={2017},
|
747 |
+
eprint={1705.00652},
|
748 |
+
archivePrefix={arXiv},
|
749 |
+
primaryClass={cs.CL}
|
750 |
+
}
|
751 |
+
```
|
752 |
+
|
753 |
+
<!--
|
754 |
+
## Glossary
|
755 |
+
|
756 |
+
*Clearly define terms in order to be accessible across audiences.*
|
757 |
+
-->
|
758 |
+
|
759 |
+
<!--
|
760 |
+
## Model Card Authors
|
761 |
+
|
762 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
763 |
+
-->
|
764 |
+
|
765 |
+
<!--
|
766 |
+
## Model Card Contact
|
767 |
+
|
768 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
769 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "mixedbread-ai/deepset-mxbai-embed-de-large-v1",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 514,
|
17 |
+
"model_type": "xlm-roberta",
|
18 |
+
"num_attention_heads": 16,
|
19 |
+
"num_hidden_layers": 24,
|
20 |
+
"output_past": true,
|
21 |
+
"pad_token_id": 1,
|
22 |
+
"position_embedding_type": "absolute",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.47.1",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": false,
|
27 |
+
"vocab_size": 178885
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.3.1",
|
4 |
+
"transformers": "4.47.1",
|
5 |
+
"pytorch": "2.5.1+cu124"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:2f03ca6539ef3d741485ea7d744af8a5fe5fff8917684f4ebc9aad653bfb82dd
|
3 |
+
size 1948311760
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,55 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"additional_special_tokens": [
|
3 |
+
"[MXBAI_Q]",
|
4 |
+
"[MXBAI_P]"
|
5 |
+
],
|
6 |
+
"bos_token": {
|
7 |
+
"content": "<s>",
|
8 |
+
"lstrip": false,
|
9 |
+
"normalized": false,
|
10 |
+
"rstrip": false,
|
11 |
+
"single_word": false
|
12 |
+
},
|
13 |
+
"cls_token": {
|
14 |
+
"content": "<s>",
|
15 |
+
"lstrip": false,
|
16 |
+
"normalized": false,
|
17 |
+
"rstrip": false,
|
18 |
+
"single_word": false
|
19 |
+
},
|
20 |
+
"eos_token": {
|
21 |
+
"content": "</s>",
|
22 |
+
"lstrip": false,
|
23 |
+
"normalized": false,
|
24 |
+
"rstrip": false,
|
25 |
+
"single_word": false
|
26 |
+
},
|
27 |
+
"mask_token": {
|
28 |
+
"content": "<mask>",
|
29 |
+
"lstrip": true,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false
|
33 |
+
},
|
34 |
+
"pad_token": {
|
35 |
+
"content": "<pad>",
|
36 |
+
"lstrip": false,
|
37 |
+
"normalized": false,
|
38 |
+
"rstrip": false,
|
39 |
+
"single_word": false
|
40 |
+
},
|
41 |
+
"sep_token": {
|
42 |
+
"content": "</s>",
|
43 |
+
"lstrip": false,
|
44 |
+
"normalized": false,
|
45 |
+
"rstrip": false,
|
46 |
+
"single_word": false
|
47 |
+
},
|
48 |
+
"unk_token": {
|
49 |
+
"content": "<unk>",
|
50 |
+
"lstrip": false,
|
51 |
+
"normalized": false,
|
52 |
+
"rstrip": false,
|
53 |
+
"single_word": false
|
54 |
+
}
|
55 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:b319c37e4f1e5f8f1c8dba7e1bc7b1a424184365d7f982ada0f18ab60c514c07
|
3 |
+
size 12283980
|
tokenizer_config.json
ADDED
@@ -0,0 +1,75 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"178882": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
},
|
43 |
+
"178883": {
|
44 |
+
"content": "[MXBAI_Q]",
|
45 |
+
"lstrip": false,
|
46 |
+
"normalized": false,
|
47 |
+
"rstrip": false,
|
48 |
+
"single_word": false,
|
49 |
+
"special": true
|
50 |
+
},
|
51 |
+
"178884": {
|
52 |
+
"content": "[MXBAI_P]",
|
53 |
+
"lstrip": false,
|
54 |
+
"normalized": false,
|
55 |
+
"rstrip": false,
|
56 |
+
"single_word": false,
|
57 |
+
"special": true
|
58 |
+
}
|
59 |
+
},
|
60 |
+
"additional_special_tokens": [
|
61 |
+
"[MXBAI_Q]",
|
62 |
+
"[MXBAI_P]"
|
63 |
+
],
|
64 |
+
"bos_token": "<s>",
|
65 |
+
"clean_up_tokenization_spaces": true,
|
66 |
+
"cls_token": "<s>",
|
67 |
+
"eos_token": "</s>",
|
68 |
+
"extra_special_tokens": {},
|
69 |
+
"mask_token": "<mask>",
|
70 |
+
"model_max_length": 512,
|
71 |
+
"pad_token": "<pad>",
|
72 |
+
"sep_token": "</s>",
|
73 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
74 |
+
"unk_token": "<unk>"
|
75 |
+
}
|