AES_IndoNLI / README.md
Thugpou's picture
Upload folder using huggingface_hub
b99a5ac verified
metadata
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:300
  - loss:CosineSimilarityLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
widget:
  - source_sentence: >-
      dari pihak ibunya saleha dia masih punya pertalian keluarga dengan sutan
      sjahrir perdana menteri pertama indonesia
    sentences:
      - >-
        dari pihak ibunya saleha dia masih punya pertalian keluarga dengan raden
        michael perdana menteri pertama indonesia
      - luas wilayah adalah 2166086 km² dan merupakan pulau terbesar di dunia
      - >-
        berdasarkan kesusastraan india terutama pustaka tamil disebut dengan
        nama sanskerta yāvaka dvīpa dvīpa pulau
  - source_sentence: >-
      kata sel berasal dari kata bahasa latin cellula yang berarti rongga
      ruangan
    sentences:
      - kata sel berasal dari kata bahasa latin yang berarti rongga ruangan
      - >-
        sebagai seorang ekonom smith tidak melupakan akar moralitasnya terutama
        yang tertuang dalam the theory of moral sentiments
      - >-
        ada berbagai macam corak musik dangdut antara lain dangdut melayu
        dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa
        sunda dll
  - source_sentence: >-
      antropologi berasal dari kata yunani anthropos yang berarti manusia atau
      orang dan logos yang berarti ilmu
    sentences:
      - >-
        antropologi berasal dari kata anthropos yang berarti manusia dan logos
        yang berarti ilmu
      - >-
        selain di pemerintahan di masa demokrasi liberal parlemen indonesia
        didominasi oleh orang minang
      - >-
        bulan oktober 1898 churchill telah kembali ke inggris dan mulai menulis
        buku the river war yang diterbitkan dalam dua volume pada tahun
        berikutnya
  - source_sentence: >-
      republik indonesia disingkat ri atau republik indonesia adalah negara di
      asia tenggara yang dilintasi garis khatulistiwa dan berada di antara benua
      asia dan australia serta antara samudra pasifik dan samudra hindia
    sentences:
      - karena itu virus tidak dapat disaring dengan penyaring bakteri
      - >-
        republik indonesia disingkat ri atau indonesia adalah negara di asia
        tenggara yang dilintasi garis khatulistiwa dan berada di antara benua
        asia dan australia serta antara samudra pasifik dan samudra hindia
      - >-
        di indonesia perguruan tinggi yang membuka program studi geografi
        sebagai ilmu murni hanya empat perguruan tinggi negeri yaitu universitas
        indonesia ui ugm universitas gadjah mada unp universitas negeri padang
        dan um universitas negeri malang dan satu perguruan tinggi swasta
        universitas muhammadiyah surakarta
  - source_sentence: interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell
    sentences:
      - >-
        bahasa indonesia adalah bahasa dinamis yang terus menyerap katakata dari
        bahasa asing
      - interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell
      - >-
        ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat
        peta dunia yang dihuni oikoumenè dan provinsi romawi
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
  - pearson_cosine
  - spearman_cosine
model-index:
  - name: >-
      SentenceTransformer based on
      sentence-transformers/paraphrase-multilingual-mpnet-base-v2
    results:
      - task:
          type: semantic-similarity
          name: Semantic Similarity
        dataset:
          name: Unknown
          type: unknown
        metrics:
          - type: pearson_cosine
            value: 0.7599563987028465
            name: Pearson Cosine
          - type: spearman_cosine
            value: 0.7409471122290413
            name: Spearman Cosine

SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 256-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Dense({'in_features': 768, 'out_features': 256, 'bias': True, 'activation_function': 'torch.nn.modules.activation.ReLU'})
  (3): Dropout(
    (dropout_layer): Dropout(p=0.2, inplace=False)
  )
  (4): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell',
    'interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell',
    'ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia yang dihuni oikoumenè dan provinsi romawi',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 256]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.76
spearman_cosine 0.7409

Training Details

Training Dataset

Unnamed Dataset

  • Size: 300 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 300 samples:
    sentence_0 sentence_1 label
    type string string float
    details
    • min: 9 tokens
    • mean: 29.94 tokens
    • max: 90 tokens
    • min: 6 tokens
    • mean: 25.27 tokens
    • max: 74 tokens
    • min: 0.0
    • mean: 0.61
    • max: 1.0
  • Samples:
    sentence_0 sentence_1 label
    pada tahun 1953 churchil dianugrahkan penghargaan nobel di bidang literarur karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia pada tahun 1953 churchill dianugerahi penghargaan nobel di bidang sastra karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia 1.0
    ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll ada berbagai macam musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll 1.0
    hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh menjadikan pembagian kerja akan semakin efektif hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh maka pembagian kerja akan semakin efektif 1.0
  • Loss: CosineSimilarityLoss with these parameters:
    {
        "loss_fct": "torch.nn.modules.loss.MSELoss"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • num_train_epochs: 20
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 20
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • tp_size: 0
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin

Training Logs

Epoch Step spearman_cosine
1.0 10 0.6353
2.0 20 0.6524
3.0 30 0.6610
4.0 40 0.6924
5.0 50 0.6924
6.0 60 0.7067
7.0 70 0.7095
8.0 80 0.7267
9.0 90 0.7181
10.0 100 0.7267
11.0 110 0.7238
12.0 120 0.7295
13.0 130 0.7381
14.0 140 0.7381
15.0 150 0.7409

Framework Versions

  • Python: 3.11.12
  • Sentence Transformers: 4.1.0
  • Transformers: 4.51.3
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.6.0
  • Datasets: 3.6.0
  • Tokenizers: 0.21.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}