---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:300
- loss:CosineSimilarityLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
widget:
- source_sentence: dari pihak ibunya saleha dia masih punya pertalian keluarga dengan
sutan sjahrir perdana menteri pertama indonesia
sentences:
- dari pihak ibunya saleha dia masih punya pertalian keluarga dengan raden michael
perdana menteri pertama indonesia
- luas wilayah adalah 2166086 km² dan merupakan pulau terbesar di dunia
- berdasarkan kesusastraan india terutama pustaka tamil disebut dengan nama sanskerta
yāvaka dvīpa dvīpa pulau
- source_sentence: kata sel berasal dari kata bahasa latin cellula yang berarti rongga
ruangan
sentences:
- kata sel berasal dari kata bahasa latin yang berarti rongga ruangan
- sebagai seorang ekonom smith tidak melupakan akar moralitasnya terutama yang tertuang
dalam the theory of moral sentiments
- ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut masa
kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll
- source_sentence: antropologi berasal dari kata yunani anthropos yang berarti manusia
atau orang dan logos yang berarti ilmu
sentences:
- antropologi berasal dari kata anthropos yang berarti manusia dan logos yang berarti
ilmu
- selain di pemerintahan di masa demokrasi liberal parlemen indonesia didominasi
oleh orang minang
- bulan oktober 1898 churchill telah kembali ke inggris dan mulai menulis buku the
river war yang diterbitkan dalam dua volume pada tahun berikutnya
- source_sentence: republik indonesia disingkat ri atau republik indonesia adalah
negara di asia tenggara yang dilintasi garis khatulistiwa dan berada di antara
benua asia dan australia serta antara samudra pasifik dan samudra hindia
sentences:
- karena itu virus tidak dapat disaring dengan penyaring bakteri
- republik indonesia disingkat ri atau indonesia adalah negara di asia tenggara
yang dilintasi garis khatulistiwa dan berada di antara benua asia dan australia
serta antara samudra pasifik dan samudra hindia
- di indonesia perguruan tinggi yang membuka program studi geografi sebagai ilmu
murni hanya empat perguruan tinggi negeri yaitu universitas indonesia ui ugm universitas
gadjah mada unp universitas negeri padang dan um universitas negeri malang dan
satu perguruan tinggi swasta universitas muhammadiyah surakarta
- source_sentence: interaksi ini diekspresikan secara matematis menggunakan persamaan
maxwell
sentences:
- bahasa indonesia adalah bahasa dinamis yang terus menyerap katakata dari bahasa
asing
- interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell
- ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia
yang dihuni oikoumenè dan provinsi romawi
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: Unknown
type: unknown
metrics:
- type: pearson_cosine
value: 0.7599563987028465
name: Pearson Cosine
- type: spearman_cosine
value: 0.7409471122290413
name: Spearman Cosine
---
# SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 256-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 256 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Dense({'in_features': 768, 'out_features': 256, 'bias': True, 'activation_function': 'torch.nn.modules.activation.ReLU'})
(3): Dropout(
(dropout_layer): Dropout(p=0.2, inplace=False)
)
(4): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'interaksi ini diekspresikan secara matematis menggunakan persamaan maxwell',
'interaksi ini dinyatakan secara matematis menggunakan persamaan maxwell',
'ptolemeus juga merancang dan menyediakan petunjuk tentang cara membuat peta dunia yang dihuni oikoumenè dan provinsi romawi',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 256]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Semantic Similarity
* Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| pearson_cosine | 0.76 |
| **spearman_cosine** | **0.7409** |
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 300 training samples
* Columns: sentence_0, sentence_1, and label
* Approximate statistics based on the first 300 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------|
| type | string | string | float |
| details |
pada tahun 1953 churchil dianugrahkan penghargaan nobel di bidang literarur karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia | pada tahun 1953 churchill dianugerahi penghargaan nobel di bidang sastra karena sumbangan yang ia berikan dalam bukubuku karangannya mengenai bahasa inggris dan sejarah dunia | 1.0 |
| ada berbagai macam corak musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll | ada berbagai macam musik dangdut antara lain dangdut melayu dangdut asli dangdut masa kini dan dangdut pesisir lagu dangdut tradisional jawa sunda dll | 1.0 |
| hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh menjadikan pembagian kerja akan semakin efektif | hal ini bertujuan untuk efisiensi kerja karena dengan banyaknya organ tubuh maka pembagian kerja akan semakin efektif | 1.0 |
* Loss: [CosineSimilarityLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `num_train_epochs`: 20
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters