metadata
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:300
- loss:CosineSimilarityLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
widget:
- source_sentence: >-
dari pihak ibunya saleha dia masih punya pertalian keluarga dengan sutan
sjahrir perdana menteri pertama indonesia
sentences:
- >-
dari pihak ibunya saleha dia masih punya pertalian keluarga dengan raden
michael perdana menteri pertama indonesia
- luas wilayah adalah 2166086 km² dan merupakan pulau terbesar di dunia
- >-
berdasarkan kesusastraan india terutama pustaka tamil disebut dengan
nama sanskerta yāvaka dvīpa dvīpa pulau
- source_sentence: >-
kata sel berasal dari kata bahasa latin cellula yang berarti rongga
ruangan
sentences:
- kata sel berasal dari kata bahasa latin yang berarti rongga ruangan
- >-
sebagai seorang ekonom smith tidak melupakan akar moralitasnya terutama
yang tertuang dalam the theory of moral sentiments
- >-
ada berbagai macam corak musik dangdut antara lain dangdut melayu
dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa
sunda dll
- source_sentence: >-
antropologi berasal dari kata yunani anthropos yang berarti manusia atau
orang dan logos yang berarti ilmu
sentences:
- >-
antropologi berasal dari kata anthropos yang berarti manusia dan logos
yang berarti ilmu
- >-
selain di pemerintahan di masa demokrasi liberal parlemen indonesia
didominasi oleh orang minang
- >-
bulan oktober 1898 churchill telah kembali ke inggris dan mulai menulis
buku the river war yang diterbitkan dalam dua volume pada tahun
berikutnya
- source_sentence: >-
republik indonesia disingkat ri atau republik indonesia adalah negara di
asia tenggara yang dilintasi garis khatulistiwa dan berada di antara benua
asia dan australia serta antara samudra pasifik dan samudra hindia
sentences:
- karena itu virus tidak dapat disaring dengan penyaring bakteri
- >-
republik indonesia disingkat ri atau indonesia adalah negara di asia
tenggara yang dilintasi garis khatulistiwa dan berada di antara benua
asia dan australia serta antara samudra pasifik dan samudra hindia
- >-
di indonesia perguruan tinggi yang membuka program studi geografi
sebagai ilmu murni hanya empat perguruan tinggi negeri yaitu universitas
indonesia ui ugm universitas gadjah mada unp universitas negeri padang
dan um universitas negeri malang dan satu perguruan tinggi swasta
universitas muhammadiyah surakarta
- source_sentence: interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell
sentences:
- >-
bahasa indonesia adalah bahasa dinamis yang terus menyerap katakata dari
bahasa asing
- interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell
- >-
ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat
peta dunia yang dihuni oikoumenè dan provinsi romawi
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: >-
SentenceTransformer based on
sentence-transformers/paraphrase-multilingual-mpnet-base-v2
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: Unknown
type: unknown
metrics:
- type: pearson_cosine
value: 0.7599563987028465
name: Pearson Cosine
- type: spearman_cosine
value: 0.7409471122290413
name: Spearman Cosine
SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 256-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 256 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Dense({'in_features': 768, 'out_features': 256, 'bias': True, 'activation_function': 'torch.nn.modules.activation.ReLU'})
(3): Dropout(
(dropout_layer): Dropout(p=0.2, inplace=False)
)
(4): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell',
'interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell',
'ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia yang dihuni oikoumenè dan provinsi romawi',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 256]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Semantic Similarity
- Evaluated with
EmbeddingSimilarityEvaluator
| Metric | Value |
|---|---|
| pearson_cosine | 0.76 |
| spearman_cosine | 0.7409 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 300 training samples
- Columns:
sentence_0,sentence_1, andlabel - Approximate statistics based on the first 300 samples:
sentence_0 sentence_1 label type string string float details - min: 9 tokens
- mean: 29.94 tokens
- max: 90 tokens
- min: 6 tokens
- mean: 25.27 tokens
- max: 74 tokens
- min: 0.0
- mean: 0.61
- max: 1.0
- Samples:
sentence_0 sentence_1 label pada tahun 1953 churchil dianugrahkan penghargaan nobel di bidang literarur karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah duniapada tahun 1953 churchill dianugerahi penghargaan nobel di bidang sastra karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia1.0ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dllada berbagai macam musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll1.0hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh menjadikan pembagian kerja akan semakin efektifhal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh maka pembagian kerja akan semakin efektif1.0 - Loss:
CosineSimilarityLosswith these parameters:{ "loss_fct": "torch.nn.modules.loss.MSELoss" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy: stepsper_device_train_batch_size: 32per_device_eval_batch_size: 32num_train_epochs: 20multi_dataset_batch_sampler: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: stepsprediction_loss_only: Trueper_device_train_batch_size: 32per_device_eval_batch_size: 32per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 5e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1num_train_epochs: 20max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}tp_size: 0fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torchoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: round_robin
Training Logs
| Epoch | Step | spearman_cosine |
|---|---|---|
| 1.0 | 10 | 0.6353 |
| 2.0 | 20 | 0.6524 |
| 3.0 | 30 | 0.6610 |
| 4.0 | 40 | 0.6924 |
| 5.0 | 50 | 0.6924 |
| 6.0 | 60 | 0.7067 |
| 7.0 | 70 | 0.7095 |
| 8.0 | 80 | 0.7267 |
| 9.0 | 90 | 0.7181 |
| 10.0 | 100 | 0.7267 |
| 11.0 | 110 | 0.7238 |
| 12.0 | 120 | 0.7295 |
| 13.0 | 130 | 0.7381 |
| 14.0 | 140 | 0.7381 |
| 15.0 | 150 | 0.7409 |
Framework Versions
- Python: 3.11.12
- Sentence Transformers: 4.1.0
- Transformers: 4.51.3
- PyTorch: 2.6.0+cu124
- Accelerate: 1.6.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}