--- tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:300 - loss:CosineSimilarityLoss base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2 widget: - source_sentence: dari pihak ibunya saleha dia masih punya pertalian keluarga dengan sutan sjahrir perdana menteri pertama indonesia sentences: - dari pihak ibunya saleha dia masih punya pertalian keluarga dengan raden michael perdana menteri pertama indonesia - luas wilayah adalah 2166086 km² dan merupakan pulau terbesar di dunia - berdasarkan kesusastraan india terutama pustaka tamil disebut dengan nama sanskerta yāvaka dvīpa dvīpa pulau - source_sentence: kata sel berasal dari kata bahasa latin cellula yang berarti rongga ruangan sentences: - kata sel berasal dari kata bahasa latin yang berarti rongga ruangan - sebagai seorang ekonom smith tidak melupakan akar moralitasnya terutama yang tertuang dalam the theory of moral sentiments - ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll - source_sentence: antropologi berasal dari kata yunani anthropos yang berarti manusia atau orang dan logos yang berarti ilmu sentences: - antropologi berasal dari kata anthropos yang berarti manusia dan logos yang berarti ilmu - selain di pemerintahan di masa demokrasi liberal parlemen indonesia didominasi oleh orang minang - bulan oktober 1898 churchill telah kembali ke inggris dan mulai menulis buku the river war yang diterbitkan dalam dua volume pada tahun berikutnya - source_sentence: republik indonesia disingkat ri atau republik indonesia adalah negara di asia tenggara yang dilintasi garis khatulistiwa dan berada di antara benua asia dan australia serta antara samudra pasifik dan samudra hindia sentences: - karena itu virus tidak dapat disaring dengan penyaring bakteri - republik indonesia disingkat ri atau indonesia adalah negara di asia tenggara yang dilintasi garis khatulistiwa dan berada di antara benua asia dan australia serta antara samudra pasifik dan samudra hindia - di indonesia perguruan tinggi yang membuka program studi geografi sebagai ilmu murni hanya empat perguruan tinggi negeri yaitu universitas indonesia ui ugm universitas gadjah mada unp universitas negeri padang dan um universitas negeri malang dan satu perguruan tinggi swasta universitas muhammadiyah surakarta - source_sentence: interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell sentences: - bahasa indonesia adalah bahasa dinamis yang terus menyerap katakata dari bahasa asing - interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell - ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia yang dihuni oikoumenè dan provinsi romawi pipeline_tag: sentence-similarity library_name: sentence-transformers metrics: - pearson_cosine - spearman_cosine model-index: - name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2 results: - task: type: semantic-similarity name: Semantic Similarity dataset: name: Unknown type: unknown metrics: - type: pearson_cosine value: 0.7599563987028465 name: Pearson Cosine - type: spearman_cosine value: 0.7409471122290413 name: Spearman Cosine --- # SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2 This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 256-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 256 dimensions - **Similarity Function:** Cosine Similarity ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Dense({'in_features': 768, 'out_features': 256, 'bias': True, 'activation_function': 'torch.nn.modules.activation.ReLU'}) (3): Dropout( (dropout_layer): Dropout(p=0.2, inplace=False) ) (4): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("sentence_transformers_model_id") # Run inference sentences = [ 'interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell', 'interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell', 'ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia yang dihuni oikoumenè dan provinsi romawi', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 256] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` ## Evaluation ### Metrics #### Semantic Similarity * Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator) | Metric | Value | |:--------------------|:-----------| | pearson_cosine | 0.76 | | **spearman_cosine** | **0.7409** | ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 300 training samples * Columns: sentence_0, sentence_1, and label * Approximate statistics based on the first 300 samples: | | sentence_0 | sentence_1 | label | |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------| | type | string | string | float | | details | | | | * Samples: | sentence_0 | sentence_1 | label | |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------| | pada tahun 1953 churchil dianugrahkan penghargaan nobel di bidang literarur karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia | pada tahun 1953 churchill dianugerahi penghargaan nobel di bidang sastra karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia | 1.0 | | ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll | ada berbagai macam musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll | 1.0 | | hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh menjadikan pembagian kerja akan semakin efektif | hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh maka pembagian kerja akan semakin efektif | 1.0 | * Loss: [CosineSimilarityLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters: ```json { "loss_fct": "torch.nn.modules.loss.MSELoss" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `per_device_train_batch_size`: 32 - `per_device_eval_batch_size`: 32 - `num_train_epochs`: 20 - `multi_dataset_batch_sampler`: round_robin #### All Hyperparameters
Click to expand - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 32 - `per_device_eval_batch_size`: 32 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 5e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1 - `num_train_epochs`: 20 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.0 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `tp_size`: 0 - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: round_robin
### Training Logs | Epoch | Step | spearman_cosine | |:-----:|:----:|:---------------:| | 1.0 | 10 | 0.6353 | | 2.0 | 20 | 0.6524 | | 3.0 | 30 | 0.6610 | | 4.0 | 40 | 0.6924 | | 5.0 | 50 | 0.6924 | | 6.0 | 60 | 0.7067 | | 7.0 | 70 | 0.7095 | | 8.0 | 80 | 0.7267 | | 9.0 | 90 | 0.7181 | | 10.0 | 100 | 0.7267 | | 11.0 | 110 | 0.7238 | | 12.0 | 120 | 0.7295 | | 13.0 | 130 | 0.7381 | | 14.0 | 140 | 0.7381 | | 15.0 | 150 | 0.7409 | ### Framework Versions - Python: 3.11.12 - Sentence Transformers: 4.1.0 - Transformers: 4.51.3 - PyTorch: 2.6.0+cu124 - Accelerate: 1.6.0 - Datasets: 3.6.0 - Tokenizers: 0.21.1 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ```