ChecketV2 / README.md
ODeNy's picture
Update README.md
ae46ccd verified
metadata
tags:
  - sentence-transformers
  - sentence-similarity
  - phrasing-similarity
  - semantic-search
  - generated-from-trainer
  - dataset-size:43159
  - loss:CoSENTLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
model-index:
  - name: >-
      SentenceTransformer based on
      sentence-transformers/paraphrase-multilingual-mpnet-base-v2
    results:
      - task:
          type: semantic-similarity
          name: Semantic Similarity
        dataset:
          name: ODeNy/ChecketV2-Dataset
          type: text
        metrics:
          - type: pearson_correlation
            value: 0.9022
            name: Pearson Correlation (Cosine Similarity)
          - type: spearman_correlation
            value: 0.8676
            name: Spearman Correlation (Cosine Similarity)
metrics:
  - pearson_correlation
  - spearman_correlation
widget:
  - source_sentence: >-
      Jeugdbewegingen zijn niet alleen een bron van plezier, ze leren jongeren
      ook essentiële vaardigheden zoals leiderschap, verantwoordelijkheid en
      samenwerken.
    sentences:
      - >-
        In 2024 nemen verschillende Antwerpse kinderdagverblijven deel aan
        'Start met Boekstart'.
      - >-
        Antwerpen  MediaGalerijen Categorieën Nederlands The Tall Ships Races
        terug in Antwerpen van 11 tot en met 14 juli 2026 Georganiseerd door
        Sail Training International, kondigt de datum voor The Tall Ships Races
        2026 aan op 13 juni 2023. Antwerpen staat weer in het teken van deze
        indrukwekkende zeilschepen van zaterdag 11 juli tot en met dinsdag 14
        juli 2026.
      - >-
        Jeugdbewegingen zijn cruciaal voor de ontwikkeling van jongeren; ze
        stimuleren niet alleen hun plezier maar bevorderen ook belangrijke
        vaardigheden zoals leiderschap, verantwoordelijkheid en samenwerken.
  - source_sentence: >-
      Uitbreiding van bestaande zones Omgeving Boekenbergpark en Eksterlaar De
      bestaande zone 30 ‘Unitaswijk’ wordt uitgebreid tot een nieuwe zone.
    sentences:
      - >-
        Tegen 2030 streeft de stad ernaar om de uitstoot van CO2 met de helft te
        verminderen, en het doel is om in 2050 volledig klimaatneutraal te zijn.
      - >-
        Omgeven door de ruige textuur van de Kortrijkse Kunstwerkstede De Coene,
        waar ambachtslieden en visionaire creators zich in de kruising van
        vakmanschap en moderne esthetiek ontwikkelden, ontstond daar het
        imposante 'De Serclaes', een fusie van historische tradities met nieuw
        industrieel design.
      - >-
        Uitbreiding van bestaande zones Omgeving Boekenbergpark en Eksterlaar -
        Zone 30 'Unitaswijk' breidt uit naar een nieuwe zone.
  - source_sentence: >-
      Financieel directeur De financieel directeur bewaakt de inkomsten en de
      uitgaven van de stad, de districten en het OCMW.
    sentences:
      - >-
        Diep verscholen in de schaduw, waar de horizon ongetemd lijkt te
        groeien, weerklinkt het gefluister van stedelijke expansie als een
        zachte echo door het financiële domein.
      - >-
        Inspirerende ruimtes zoals nissen, entreezones en beschutte
        buitenplekken bij huizen dragen bij aan extra comfort en gezelligheid.
      - >-
        Er wordt bekeken of het project hervat kan worden zodra de
        energiewetgeving rond het delen tussen particulieren vastligt, inclusief
        de details van de voorwaarden.
  - source_sentence: >-
      Naast het Noodkoopfonds worden er ondertussen verschillende projecten
      samen opgezet, zoals een klimaattafel rond collectief renoveren. 4.3.2.
    sentences:
      - >-
        Noodkoopfonds en diverse andere initiatieven, met name de klimaattafel
        die zich bezighoudt met collectieve renovaties in [datum], zijn in
        ontwikkeling.
      - >-
        Met dit educatieve pakket kunt u als leerkracht op een interactieve
        wijze diversiteit in het onderwijs integreren, waarbij u de kinderen
        uitnodigt voor een dialoog over dit belangrijke thema.
  - source_sentence: >-
      Blockchain maakt die data en transacties traceerbaar en openbaar zodat je
      op elk moment kunt zien wie wat heeft, en waar geld, berichten of
      documenten vandaan komen.
    sentences:
      - >-
        In Antwerpen zijn momenteel 870 laadpunten verspreid, waarvan een groot
        deel in (buurt)parkings en park-and-ridegebouwen met respectievelijk 442
        openbare laadpunten en 130 in de nieuwe park-and-ridefaciliteiten.
      - >-
        Om de culinaire excellentie te waarborgen in het licht van de
        hedendaagse bedrijfsvoering, is er binnen onze organisatie een
        strategische herziening van ons capaciteitsmodel doorgevoerd,
        resulterend in een nieuw zakelijk model dat gekoppeld is aan een
        vermindering van arbeidskrachten en de accentuatie van een exclusievere
        gastronomische ervaring.
      - >-
        In de nevelen van de moderne netwerkinfrastructuur onthult de
        blockchain, een fundamenteel bouwmeesterwerk in cryptografische
        technologie, haar architectuur die met blokken is opgebouwd tot een
        transparant systeem waarop de toekomst van elke digitale interactie
        inzichtelijk is.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
license: apache-2.0
language:
  - nl
datasets:
  - ODeNy/ChecketV2-Dataset

SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for paraphrase similarity (main task) and semantic textual similarity. Using an SBERT model for stylistic textual similarity is an experimental use case but it works really well and I recommend it.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("ODeNy/ChecketV2")
# Run inference
sentences = [
    '"Blockchain maakt die data en transacties traceerbaar en openbaar zodat je op elk moment kunt zien wie wat heeft, en waar geld, berichten of documenten vandaan komen."',
    '"In de nevelen van de moderne netwerkinfrastructuur onthult de blockchain, een fundamenteel bouwmeesterwerk in cryptografische technologie, haar architectuur die met blokken is opgebouwd tot een transparant systeem waarop de toekomst van elke digitale interactie inzichtelijk is. Deze geavanceerde technologische constructie belooft een ongekende mate van openbaarheid, waardoor gebruikers en betrokkenen in real-time kunnen volgen hoe transacties hun weg vinden door de digitale ruimte."',
    '"Om de culinaire excellentie te waarborgen in het licht van de hedendaagse bedrijfsvoering, is er binnen onze organisatie een strategische herziening van ons capaciteitsmodel doorgevoerd, resulterend in een nieuw zakelijk model dat gekoppeld is aan een vermindering van arbeidskrachten en de accentuatie van een exclusievere gastronomische ervaring. Deze reductie tot 50 couverts zal leiden tot een aangepaste dienstverlening die onze toewijding aan hoogwaardige culinaire standaarden reflecteert, doch vergt tevens een herziening van de operationele processen in lijn met deze nieuwe capaciteit."',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.9022
spearman_cosine 0.8676

Training Details

Training Dataset

ChecketV2-Dataset

  • Size: 43,159 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 19 tokens
    • mean: 37.07 tokens
    • max: 116 tokens
    • min: 14 tokens
    • mean: 66.53 tokens
    • max: 128 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Lees zorgvuldig de details van het reglement en de voorwaarden voordat je een premieaanvraag doet." 1.0
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Zorg ervoor dat u de regels en voorwaarden grondig leest alvorens u een premieaanvraag indient." 0.5
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Als een onderdeel van uw verzoek om een gedegen analyse te bieden op premieaanvragen, dient u zich bewust te zijn van de uitdagingen die gepaard gaan met het navigeren door contractuele voorwaarden en reglementen. Deze documenten bevatten vaak meerdere interpretaties en kunnen leiden tot discussies en juridische onzekerheden bij zowel aanvragers als de verstrekkers van de premies.

    Uw aandacht dient inderdaad uit te gaan naar de delicate balans tussen klanttevredenheid en compliance met wetgeving, waarbij een onjuiste interpretatie of afwijking ernstige gevolgen kan hebben. Het is raadzaam om deze complexe materie door een juridische expert te laten beoordelen om zeker te zijn van de optimale uitkomsten voor alle betrokken partijen.

    Ik, als AI met een breed kennisdomein, kan u helpen bij het verstrekken van informatie over de relevante wetgeving en richtlijnen die van toepassing kunnen zijn op dergelijke premieaanvragen, maar mijn advies is om dergelijke juridische kwesties door een ...
    0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Evaluation Dataset

ChecketV2-Dataset

  • Size: 7,617 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 19 tokens
    • mean: 38.15 tokens
    • max: 128 tokens
    • min: 11 tokens
    • mean: 67.62 tokens
    • max: 128 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    "Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten." "Bij het zoeken naar "wol Antwerpen" via een zoekmachine lijkt het erop dat je winkel niet hoog genoeg in de zoekresultaten verschijnt. (korte, heldere uitleg)" 0.5
    "Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten." "In de grenzen van de digitale wereld, waar informatiejacht een uitdaging blijft die zielen kan verstrengelen met abstracte realiteiten, onthult een speurtocht naar de relatie tussen "Antwerpen" en "wol" – elementen die zowel de historische als mogelijk de natuurlijke staat van de stad belichten – beperkingen in de zoekmachine-algoritmen. Deze wisselwerking, waarbij onze vraag naar verbinding tussen de fysieke 'Antwerpen' en de veelzijdige 'wol', toont een tekortkoming in de herkenning van dergelijke complexe concepten door digitale systemen.

    Dat mijn "winkel", die zich onderscheidt binnen het spectrum van commerciële activiteiten, niet prominent aanwezig was in de zoekresultaten van deze zoektocht, suggereert dat er wellicht een mismatch is tussen de verwachtingen en de perceptie door de systemen die onze online zoekverzoeken verwerken. Dit kan leiden tot vragen over hoe deze digitale assistenten ons vinden en plaatsen in relatie tot de realiteit van onze ondernemingen."
    0.0
    "In deze nota introduceert de stad Antwerpen zijn strategie voor de digitale transformatie ." "Antwerpen presenteert zijn plan voor digitale verandering." 1.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • learning_rate: 3e-05
  • num_train_epochs: 4
  • fp16: True
  • load_best_model_at_end: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 3e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 4
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss Validation Loss spearman_cosine
0.3793 128 - 5.9158 0.8422
0.7407 500 5.9128 - -
0.7585 512 - 5.6544 0.8537
1.1378 768 - 5.9536 0.8595
1.4815 1000 5.5698 - -
1.517 1024 - 5.6527 0.8634
1.8963 1280 - 5.6715 0.8652
2.2222 1500 5.3868 - -
2.2756 1536 - 6.0597 0.8654
2.6548 1792 - 5.9473 0.8664
2.9630 2000 5.0724 - -
3.0341 2048 - 6.3380 0.8682
3.4133 2304 - 6.9139 0.8676
3.7037 2500 4.6428 - -
3.7926 1280 - 6.7426 0.8676
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.10
  • Sentence Transformers: 3.3.0
  • Transformers: 4.46.2
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.1.1
  • Datasets: 3.1.0
  • Tokenizers: 0.20.3

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}