ODeNy commited on
Commit
c9c6858
·
verified ·
1 Parent(s): 908af13

Upload 9 files

Browse files

Added finetuned sentence-transformers/paraphrase-multilingual-mpnet-base-v2 model

.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
README.md CHANGED
@@ -1,3 +1,515 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:43159
8
+ - loss:CoSENTLoss
9
+ base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
10
+ widget:
11
+ - source_sentence: '"Jeugdbewegingen zijn niet alleen een bron van plezier, ze leren
12
+ jongeren ook essentiële vaardigheden zoals leiderschap, verantwoordelijkheid en
13
+ samenwerken."'
14
+ sentences:
15
+ - '"In 2024 nemen verschillende Antwerpse kinderdagverblijven deel aan ''Start met
16
+ Boekstart''."'
17
+ - '"Antwerpen MediaGalerijen Categorieën Nederlands The Tall Ships Races terug
18
+ in Antwerpen van 11 tot en met 14 juli 2026 Georganiseerd door Sail Training International,
19
+ kondigt de datum voor The Tall Ships Races 2026 aan op 13 juni 2023. Antwerpen
20
+ staat weer in het teken van deze indrukwekkende zeilschepen van zaterdag 11 juli
21
+ tot en met dinsdag 14 juli 2026."'
22
+ - '"Jeugdbewegingen zijn cruciaal voor de ontwikkeling van jongeren; ze stimuleren
23
+ niet alleen hun plezier maar bevorderen ook belangrijke vaardigheden zoals leiderschap,
24
+ verantwoordelijkheid en samenwerken."'
25
+ - source_sentence: '"Uitbreiding van bestaande zones Omgeving Boekenbergpark en Eksterlaar
26
+ De bestaande zone 30 ‘Unitaswijk’ wordt uitgebreid tot een nieuwe zone."'
27
+ sentences:
28
+ - '"Tegen 2030 streeft de stad ernaar om de uitstoot van CO2 met de helft te verminderen,
29
+ en het doel is om in 2050 volledig klimaatneutraal te zijn."'
30
+ - '"Omgeven door de ruige textuur van de Kortrijkse Kunstwerkstede De Coene, waar
31
+ ambachtslieden en visionaire creators zich in de kruising van vakmanschap en moderne
32
+ esthetiek ontwikkelden, ontstond daar het imposante ''De Serclaes'', een fusie
33
+ van historische tradities met nieuw industrieel design. Deze architecturale manifestatie,
34
+ geworteld in Wenceslas de ’t Serclaes''s artistieke nalatenschap, kent zijn oorsprong
35
+ binnen het grijpende tijdperk waarin kunst en maatschappij onlosmakelijk verbonden
36
+ waren.
37
+
38
+
39
+ Verborgen in de schaduwen van Kortrijkse stedelijke weefsel vindt men ''De Serclaes'',
40
+ een toonbeeld van vakmanschap dat niet alleen als fysiek werk dient, maar tevens
41
+ als getuige van een periode waarin de interactie tussen kunst en gemeenschap niet
42
+ enkel een dialoog was, doch een dynamische dans die wellicht door de huidige waarden
43
+ van inclusiviteit wordt overschaduwd."'
44
+ - '"Uitbreiding van bestaande zones Omgeving Boekenbergpark en Eksterlaar - Zone
45
+ 30 ''Unitaswijk'' breidt uit naar een nieuwe zone."'
46
+ - source_sentence: '"Financieel directeur De financieel directeur bewaakt de inkomsten
47
+ en de uitgaven van de stad, de districten en het OCMW."'
48
+ sentences:
49
+ - '"Diep verscholen in de schaduw, waar de horizon ongetemd lijkt te groeien, weerklinkt
50
+ het gefluister van stedelijke expansie als een zachte echo door het financiële
51
+ domein. De financieel directeur, gewapend met een register als zijn geheime instrumentarium,
52
+ ontwaakt de cijfers tot leven in wat lijkt op magische alchemie; elke transactie
53
+ is een toverspreuk die hij zorgvuldig monitort. Zijn rol als bewaker van de stedelijke
54
+ schatkist vereist niet alleen een nuchtere benadering, maar ook een strategisch
55
+ inzicht – een dans van financiële keuzes die hem tot een centrale figuur maakt
56
+ binnen het complexe systeem."'
57
+ - '"Inspirerende ruimtes zoals nissen, entreezones en beschutte buitenplekken bij
58
+ huizen dragen bij aan extra comfort en gezelligheid."'
59
+ - '"Er wordt bekeken of het project hervat kan worden zodra de energiewetgeving
60
+ rond het delen tussen particulieren vastligt, inclusief de details van de voorwaarden.
61
+ 4.4.2."'
62
+ - source_sentence: '"Naast het Noodkoopfonds worden er ondertussen verschillende projecten
63
+ samen opgezet, zoals een klimaattafel rond collectief renoveren. 4.3.2."'
64
+ sentences:
65
+ - '"In de oneindige stroom der menselijke verbeelding en conceptuele exploratie,
66
+ binnen het FOMU''s tijdperk dat reikt van ''23-02-17'' tot ''23-04-06'', manifesteert
67
+ "FotoMuseum When the body says Yes" – een artistieke creatie die zich ontvouwt
68
+ over een periode die ons leidt naar de jaarlijkse viering op ''2023-06-04''. Verloren
69
+ in de ruimte van het FOMU, daar waar bonajo''s kunstenaarschap de toeschouwer
70
+ transformeert tot een stille waarnemer in een symbiotisch samenzijn.
71
+
72
+
73
+ Deze installatie, "FotoMuseum When the body says Yes", is een artistieke manifestatie
74
+ van bonajo''s veelzijdige oeuvre, waarbij de grenzen tussen privé domein en openbaar
75
+ terrein vervagen in een esthetiek die zowel uitnodigend als onwrikbaar is. Het
76
+ is een ruimte waar het lichaam spreekt en de geest antwoordt, in een collectieve
77
+ echo van menselijke introspectie.
78
+
79
+
80
+ Met haar artistieke integriteit biedt bonajo hiermee een eerbetoon aan de subliminale
81
+ kracht van het menselijk lichaam als toegangspoort tot kennis en zelfreflectie,
82
+ een visueel vertoon dat ons uitnodigt om de eigen innerlijke landschappen te verkennen,
83
+ door middel van fysieke sensaties en seksuologische bewustwording.
84
+
85
+
86
+ Laat je meevoeren op een expeditie door het rijk van intersubjectieve menselijke
87
+ ervaring – "When the body says Yes", een toonbeeld dat niet alleen zichtbaar,
88
+ maar voelbaar en begrijpelijk is, waardoor de kijker niet slechts observeert,
89
+ maar ook beleeft en de essentie van het werk internaliseert.
90
+
91
+
92
+ (Dit is een hypothetisch antwoord dat voldoet aan uw gestelde criteria, gezien
93
+ er geen specifieke inhoudelijke kennis over melanie bonajo of "FotoMuseum When
94
+ the body says Yes" wordt vereist.)"'
95
+ - '"Noodkoopfonds en diverse andere initiatieven, met name de klimaattafel die zich
96
+ bezighoudt met collectieve renovaties in [datum], zijn in ontwikkeling. 4.3.2."'
97
+ - '"Met dit educatieve pakket kunt u als leerkracht op een interactieve wijze diversiteit
98
+ in het onderwijs integreren, waarbij u de kinderen uitnodigt voor een dialoog
99
+ over dit belangrijke thema."'
100
+ - source_sentence: '"Blockchain maakt die data en transacties traceerbaar en openbaar
101
+ zodat je op elk moment kunt zien wie wat heeft, en waar geld, berichten of documenten
102
+ vandaan komen."'
103
+ sentences:
104
+ - '"In Antwerpen zijn momenteel 870 laadpunten verspreid, waarvan een groot deel
105
+ in (buurt)parkings en park-and-ridegebouwen met respectievelijk 442 openbare laadpunten
106
+ en 130 in de nieuwe park-and-ridefaciliteiten."'
107
+ - '"Om de culinaire excellentie te waarborgen in het licht van de hedendaagse bedrijfsvoering,
108
+ is er binnen onze organisatie een strategische herziening van ons capaciteitsmodel
109
+ doorgevoerd, resulterend in een nieuw zakelijk model dat gekoppeld is aan een
110
+ vermindering van arbeidskrachten en de accentuatie van een exclusievere gastronomische
111
+ ervaring. Deze reductie tot 50 couverts zal leiden tot een aangepaste dienstverlening
112
+ die onze toewijding aan hoogwaardige culinaire standaarden reflecteert, doch vergt
113
+ tevens een herziening van de operationele processen in lijn met deze nieuwe capaciteit."'
114
+ - '"In de nevelen van de moderne netwerkinfrastructuur onthult de blockchain, een
115
+ fundamenteel bouwmeesterwerk in cryptografische technologie, haar architectuur
116
+ die met blokken is opgebouwd tot een transparant systeem waarop de toekomst van
117
+ elke digitale interactie inzichtelijk is. Deze geavanceerde technologische constructie
118
+ belooft een ongekende mate van openbaarheid, waardoor gebruikers en betrokkenen
119
+ in real-time kunnen volgen hoe transacties hun weg vinden door de digitale ruimte."'
120
+ pipeline_tag: sentence-similarity
121
+ library_name: sentence-transformers
122
+ metrics:
123
+ - pearson_cosine
124
+ - spearman_cosine
125
+ model-index:
126
+ - name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
127
+ results:
128
+ - task:
129
+ type: semantic-similarity
130
+ name: Semantic Similarity
131
+ dataset:
132
+ name: Unknown
133
+ type: unknown
134
+ metrics:
135
+ - type: pearson_cosine
136
+ value: 0.9021917485421888
137
+ name: Pearson Cosine
138
+ - type: spearman_cosine
139
+ value: 0.8675914848909645
140
+ name: Spearman Cosine
141
+ ---
142
+
143
+ # SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
144
+
145
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
146
+
147
+ ## Model Details
148
+
149
+ ### Model Description
150
+ - **Model Type:** Sentence Transformer
151
+ - **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) <!-- at revision 75c57757a97f90ad739aca51fa8bfea0e485a7f2 -->
152
+ - **Maximum Sequence Length:** 128 tokens
153
+ - **Output Dimensionality:** 768 dimensions
154
+ - **Similarity Function:** Cosine Similarity
155
+ <!-- - **Training Dataset:** Unknown -->
156
+ <!-- - **Language:** Unknown -->
157
+ <!-- - **License:** Unknown -->
158
+
159
+ ### Model Sources
160
+
161
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
162
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
163
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
164
+
165
+ ### Full Model Architecture
166
+
167
+ ```
168
+ SentenceTransformer(
169
+ (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
170
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
171
+ )
172
+ ```
173
+
174
+ ## Usage
175
+
176
+ ### Direct Usage (Sentence Transformers)
177
+
178
+ First install the Sentence Transformers library:
179
+
180
+ ```bash
181
+ pip install -U sentence-transformers
182
+ ```
183
+
184
+ Then you can load this model and run inference.
185
+ ```python
186
+ from sentence_transformers import SentenceTransformer
187
+
188
+ # Download from the 🤗 Hub
189
+ model = SentenceTransformer("sentence_transformers_model_id")
190
+ # Run inference
191
+ sentences = [
192
+ '"Blockchain maakt die data en transacties traceerbaar en openbaar zodat je op elk moment kunt zien wie wat heeft, en waar geld, berichten of documenten vandaan komen."',
193
+ '"In de nevelen van de moderne netwerkinfrastructuur onthult de blockchain, een fundamenteel bouwmeesterwerk in cryptografische technologie, haar architectuur die met blokken is opgebouwd tot een transparant systeem waarop de toekomst van elke digitale interactie inzichtelijk is. Deze geavanceerde technologische constructie belooft een ongekende mate van openbaarheid, waardoor gebruikers en betrokkenen in real-time kunnen volgen hoe transacties hun weg vinden door de digitale ruimte."',
194
+ '"Om de culinaire excellentie te waarborgen in het licht van de hedendaagse bedrijfsvoering, is er binnen onze organisatie een strategische herziening van ons capaciteitsmodel doorgevoerd, resulterend in een nieuw zakelijk model dat gekoppeld is aan een vermindering van arbeidskrachten en de accentuatie van een exclusievere gastronomische ervaring. Deze reductie tot 50 couverts zal leiden tot een aangepaste dienstverlening die onze toewijding aan hoogwaardige culinaire standaarden reflecteert, doch vergt tevens een herziening van de operationele processen in lijn met deze nieuwe capaciteit."',
195
+ ]
196
+ embeddings = model.encode(sentences)
197
+ print(embeddings.shape)
198
+ # [3, 768]
199
+
200
+ # Get the similarity scores for the embeddings
201
+ similarities = model.similarity(embeddings, embeddings)
202
+ print(similarities.shape)
203
+ # [3, 3]
204
+ ```
205
+
206
+ <!--
207
+ ### Direct Usage (Transformers)
208
+
209
+ <details><summary>Click to see the direct usage in Transformers</summary>
210
+
211
+ </details>
212
+ -->
213
+
214
+ <!--
215
+ ### Downstream Usage (Sentence Transformers)
216
+
217
+ You can finetune this model on your own dataset.
218
+
219
+ <details><summary>Click to expand</summary>
220
+
221
+ </details>
222
+ -->
223
+
224
+ <!--
225
+ ### Out-of-Scope Use
226
+
227
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
228
+ -->
229
+
230
+ ## Evaluation
231
+
232
+ ### Metrics
233
+
234
+ #### Semantic Similarity
235
+
236
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
237
+
238
+ | Metric | Value |
239
+ |:--------------------|:-----------|
240
+ | pearson_cosine | 0.9022 |
241
+ | **spearman_cosine** | **0.8676** |
242
+
243
+ <!--
244
+ ## Bias, Risks and Limitations
245
+
246
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
247
+ -->
248
+
249
+ <!--
250
+ ### Recommendations
251
+
252
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
253
+ -->
254
+
255
+ ## Training Details
256
+
257
+ ### Training Dataset
258
+
259
+ #### Unnamed Dataset
260
+
261
+
262
+ * Size: 43,159 training samples
263
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
264
+ * Approximate statistics based on the first 1000 samples:
265
+ | | sentence1 | sentence2 | score |
266
+ |:--------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------|
267
+ | type | string | string | float |
268
+ | details | <ul><li>min: 19 tokens</li><li>mean: 37.07 tokens</li><li>max: 116 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 66.53 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.5</li><li>max: 1.0</li></ul> |
269
+ * Samples:
270
+ | sentence1 | sentence2 | score |
271
+ |:----------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
272
+ | <code>"Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient."</code> | <code>"Lees zorgvuldig de details van het reglement en de voorwaarden voordat je een premieaanvraag doet."</code> | <code>1.0</code> |
273
+ | <code>"Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient."</code> | <code>"Zorg ervoor dat u de regels en voorwaarden grondig leest alvorens u een premieaanvraag indient."</code> | <code>0.5</code> |
274
+ | <code>"Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient."</code> | <code>"Als een onderdeel van uw verzoek om een gedegen analyse te bieden op premieaanvragen, dient u zich bewust te zijn van de uitdagingen die gepaard gaan met het navigeren door contractuele voorwaarden en reglementen. Deze documenten bevatten vaak meerdere interpretaties en kunnen leiden tot discussies en juridische onzekerheden bij zowel aanvragers als de verstrekkers van de premies.<br><br>Uw aandacht dient inderdaad uit te gaan naar de delicate balans tussen klanttevredenheid en compliance met wetgeving, waarbij een onjuiste interpretatie of afwijking ernstige gevolgen kan hebben. Het is raadzaam om deze complexe materie door een juridische expert te laten beoordelen om zeker te zijn van de optimale uitkomsten voor alle betrokken partijen.<br><br>Ik, als AI met een breed kennisdomein, kan u helpen bij het verstrekken van informatie over de relevante wetgeving en richtlijnen die van toepassing kunnen zijn op dergelijke premieaanvragen, maar mijn advies is om dergelijke juridische kwesties door een ...</code> | <code>0.0</code> |
275
+ * Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters:
276
+ ```json
277
+ {
278
+ "scale": 20.0,
279
+ "similarity_fct": "pairwise_cos_sim"
280
+ }
281
+ ```
282
+
283
+ ### Evaluation Dataset
284
+
285
+ #### Unnamed Dataset
286
+
287
+
288
+ * Size: 7,617 evaluation samples
289
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
290
+ * Approximate statistics based on the first 1000 samples:
291
+ | | sentence1 | sentence2 | score |
292
+ |:--------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------|
293
+ | type | string | string | float |
294
+ | details | <ul><li>min: 19 tokens</li><li>mean: 38.15 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 67.62 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.5</li><li>max: 1.0</li></ul> |
295
+ * Samples:
296
+ | sentence1 | sentence2 | score |
297
+ |:-----------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
298
+ | <code>"Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten."</code> | <code>"Bij het zoeken naar "wol Antwerpen" via een zoekmachine lijkt het erop dat je winkel niet hoog genoeg in de zoekresultaten verschijnt. (korte, heldere uitleg)"</code> | <code>0.5</code> |
299
+ | <code>"Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten."</code> | <code>"In de grenzen van de digitale wereld, waar informatiejacht een uitdaging blijft die zielen kan verstrengelen met abstracte realiteiten, onthult een speurtocht naar de relatie tussen "Antwerpen" en "wol" – elementen die zowel de historische als mogelijk de natuurlijke staat van de stad belichten – beperkingen in de zoekmachine-algoritmen. Deze wisselwerking, waarbij onze vraag naar verbinding tussen de fysieke 'Antwerpen' en de veelzijdige 'wol', toont een tekortkoming in de herkenning van dergelijke complexe concepten door digitale systemen.<br><br>Dat mijn "winkel", die zich onderscheidt binnen het spectrum van commerciële activiteiten, niet prominent aanwezig was in de zoekresultaten van deze zoektocht, suggereert dat er wellicht een mismatch is tussen de verwachtingen en de perceptie door de systemen die onze online zoekverzoeken verwerken. Dit kan leiden tot vragen over hoe deze digitale assistenten ons vinden en plaatsen in relatie tot de realiteit van onze ondernemingen."</code> | <code>0.0</code> |
300
+ | <code>"In deze nota introduceert de stad Antwerpen zijn strategie voor de digitale transformatie ."</code> | <code>"Antwerpen presenteert zijn plan voor digitale verandering."</code> | <code>1.0</code> |
301
+ * Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters:
302
+ ```json
303
+ {
304
+ "scale": 20.0,
305
+ "similarity_fct": "pairwise_cos_sim"
306
+ }
307
+ ```
308
+
309
+ ### Training Hyperparameters
310
+ #### Non-Default Hyperparameters
311
+
312
+ - `eval_strategy`: steps
313
+ - `per_device_train_batch_size`: 64
314
+ - `per_device_eval_batch_size`: 64
315
+ - `learning_rate`: 3e-05
316
+ - `num_train_epochs`: 4
317
+ - `fp16`: True
318
+ - `load_best_model_at_end`: True
319
+
320
+ #### All Hyperparameters
321
+ <details><summary>Click to expand</summary>
322
+
323
+ - `overwrite_output_dir`: False
324
+ - `do_predict`: False
325
+ - `eval_strategy`: steps
326
+ - `prediction_loss_only`: True
327
+ - `per_device_train_batch_size`: 64
328
+ - `per_device_eval_batch_size`: 64
329
+ - `per_gpu_train_batch_size`: None
330
+ - `per_gpu_eval_batch_size`: None
331
+ - `gradient_accumulation_steps`: 1
332
+ - `eval_accumulation_steps`: None
333
+ - `torch_empty_cache_steps`: None
334
+ - `learning_rate`: 3e-05
335
+ - `weight_decay`: 0.0
336
+ - `adam_beta1`: 0.9
337
+ - `adam_beta2`: 0.999
338
+ - `adam_epsilon`: 1e-08
339
+ - `max_grad_norm`: 1.0
340
+ - `num_train_epochs`: 4
341
+ - `max_steps`: -1
342
+ - `lr_scheduler_type`: linear
343
+ - `lr_scheduler_kwargs`: {}
344
+ - `warmup_ratio`: 0.0
345
+ - `warmup_steps`: 0
346
+ - `log_level`: passive
347
+ - `log_level_replica`: warning
348
+ - `log_on_each_node`: True
349
+ - `logging_nan_inf_filter`: True
350
+ - `save_safetensors`: True
351
+ - `save_on_each_node`: False
352
+ - `save_only_model`: False
353
+ - `restore_callback_states_from_checkpoint`: False
354
+ - `no_cuda`: False
355
+ - `use_cpu`: False
356
+ - `use_mps_device`: False
357
+ - `seed`: 42
358
+ - `data_seed`: None
359
+ - `jit_mode_eval`: False
360
+ - `use_ipex`: False
361
+ - `bf16`: False
362
+ - `fp16`: True
363
+ - `fp16_opt_level`: O1
364
+ - `half_precision_backend`: auto
365
+ - `bf16_full_eval`: False
366
+ - `fp16_full_eval`: False
367
+ - `tf32`: None
368
+ - `local_rank`: 0
369
+ - `ddp_backend`: None
370
+ - `tpu_num_cores`: None
371
+ - `tpu_metrics_debug`: False
372
+ - `debug`: []
373
+ - `dataloader_drop_last`: False
374
+ - `dataloader_num_workers`: 0
375
+ - `dataloader_prefetch_factor`: None
376
+ - `past_index`: -1
377
+ - `disable_tqdm`: False
378
+ - `remove_unused_columns`: True
379
+ - `label_names`: None
380
+ - `load_best_model_at_end`: True
381
+ - `ignore_data_skip`: False
382
+ - `fsdp`: []
383
+ - `fsdp_min_num_params`: 0
384
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
385
+ - `fsdp_transformer_layer_cls_to_wrap`: None
386
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
387
+ - `deepspeed`: None
388
+ - `label_smoothing_factor`: 0.0
389
+ - `optim`: adamw_torch
390
+ - `optim_args`: None
391
+ - `adafactor`: False
392
+ - `group_by_length`: False
393
+ - `length_column_name`: length
394
+ - `ddp_find_unused_parameters`: None
395
+ - `ddp_bucket_cap_mb`: None
396
+ - `ddp_broadcast_buffers`: False
397
+ - `dataloader_pin_memory`: True
398
+ - `dataloader_persistent_workers`: False
399
+ - `skip_memory_metrics`: True
400
+ - `use_legacy_prediction_loop`: False
401
+ - `push_to_hub`: False
402
+ - `resume_from_checkpoint`: None
403
+ - `hub_model_id`: None
404
+ - `hub_strategy`: every_save
405
+ - `hub_private_repo`: False
406
+ - `hub_always_push`: False
407
+ - `gradient_checkpointing`: False
408
+ - `gradient_checkpointing_kwargs`: None
409
+ - `include_inputs_for_metrics`: False
410
+ - `include_for_metrics`: []
411
+ - `eval_do_concat_batches`: True
412
+ - `fp16_backend`: auto
413
+ - `push_to_hub_model_id`: None
414
+ - `push_to_hub_organization`: None
415
+ - `mp_parameters`:
416
+ - `auto_find_batch_size`: False
417
+ - `full_determinism`: False
418
+ - `torchdynamo`: None
419
+ - `ray_scope`: last
420
+ - `ddp_timeout`: 1800
421
+ - `torch_compile`: False
422
+ - `torch_compile_backend`: None
423
+ - `torch_compile_mode`: None
424
+ - `dispatch_batches`: None
425
+ - `split_batches`: None
426
+ - `include_tokens_per_second`: False
427
+ - `include_num_input_tokens_seen`: False
428
+ - `neftune_noise_alpha`: None
429
+ - `optim_target_modules`: None
430
+ - `batch_eval_metrics`: False
431
+ - `eval_on_start`: False
432
+ - `use_liger_kernel`: False
433
+ - `eval_use_gather_object`: False
434
+ - `average_tokens_across_devices`: False
435
+ - `prompts`: None
436
+ - `batch_sampler`: batch_sampler
437
+ - `multi_dataset_batch_sampler`: proportional
438
+
439
+ </details>
440
+
441
+ ### Training Logs
442
+ | Epoch | Step | Training Loss | Validation Loss | spearman_cosine |
443
+ |:---------:|:--------:|:-------------:|:---------------:|:---------------:|
444
+ | 0.3793 | 256 | - | 5.9158 | 0.8422 |
445
+ | 0.7407 | 500 | 5.9128 | - | - |
446
+ | 0.7585 | 512 | - | 5.6544 | 0.8537 |
447
+ | 1.1378 | 768 | - | 5.9536 | 0.8595 |
448
+ | 1.4815 | 1000 | 5.5698 | - | - |
449
+ | **1.517** | **1024** | **-** | **5.6527** | **0.8634** |
450
+ | 1.8963 | 1280 | - | 5.6715 | 0.8652 |
451
+ | 2.2222 | 1500 | 5.3868 | - | - |
452
+ | 2.2756 | 1536 | - | 6.0597 | 0.8654 |
453
+ | 2.6548 | 1792 | - | 5.9473 | 0.8664 |
454
+ | 2.9630 | 2000 | 5.0724 | - | - |
455
+ | 3.0341 | 2048 | - | 6.3380 | 0.8682 |
456
+ | 3.4133 | 2304 | - | 6.9139 | 0.8676 |
457
+ | 3.7037 | 2500 | 4.6428 | - | - |
458
+ | 3.7926 | 2560 | - | 6.7426 | 0.8676 |
459
+
460
+ * The bold row denotes the saved checkpoint.
461
+
462
+ ### Framework Versions
463
+ - Python: 3.11.10
464
+ - Sentence Transformers: 3.3.0
465
+ - Transformers: 4.46.2
466
+ - PyTorch: 2.5.1+cu124
467
+ - Accelerate: 1.1.1
468
+ - Datasets: 3.1.0
469
+ - Tokenizers: 0.20.3
470
+
471
+ ## Citation
472
+
473
+ ### BibTeX
474
+
475
+ #### Sentence Transformers
476
+ ```bibtex
477
+ @inproceedings{reimers-2019-sentence-bert,
478
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
479
+ author = "Reimers, Nils and Gurevych, Iryna",
480
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
481
+ month = "11",
482
+ year = "2019",
483
+ publisher = "Association for Computational Linguistics",
484
+ url = "https://arxiv.org/abs/1908.10084",
485
+ }
486
+ ```
487
+
488
+ #### CoSENTLoss
489
+ ```bibtex
490
+ @online{kexuefm-8847,
491
+ title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
492
+ author={Su Jianlin},
493
+ year={2022},
494
+ month={Jan},
495
+ url={https://kexue.fm/archives/8847},
496
+ }
497
+ ```
498
+
499
+ <!--
500
+ ## Glossary
501
+
502
+ *Clearly define terms in order to be accessible across audiences.*
503
+ -->
504
+
505
+ <!--
506
+ ## Model Card Authors
507
+
508
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
509
+ -->
510
+
511
+ <!--
512
+ ## Model Card Contact
513
+
514
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
515
+ -->
config.json ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "sentence-transformers/paraphrase-multilingual-mpnet-base-v2",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "gradient_checkpointing": false,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 768,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 3072,
16
+ "layer_norm_eps": 1e-05,
17
+ "max_position_embeddings": 514,
18
+ "model_type": "xlm-roberta",
19
+ "num_attention_heads": 12,
20
+ "num_hidden_layers": 12,
21
+ "output_past": true,
22
+ "pad_token_id": 1,
23
+ "position_embedding_type": "absolute",
24
+ "torch_dtype": "float32",
25
+ "transformers_version": "4.46.2",
26
+ "type_vocab_size": 1,
27
+ "use_cache": true,
28
+ "vocab_size": 250002
29
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.0",
4
+ "transformers": "4.46.2",
5
+ "pytorch": "2.5.1+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:19955f1b49c2cef7eb60efd8fb1b7e7bc9999bb5f7fe738db2d840d3430d099c
3
+ size 1112197096
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cad551d5600a84242d0973327029452a1e3672ba6313c2a3c3d69c4310e12719
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 128,
50
+ "model_max_length": 128,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }