haiFrHust commited on
Commit
3eac825
·
verified ·
1 Parent(s): 66f89db

Upload folder using huggingface_hub

Browse files
.gitattributes ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ model.safetensors filter=lfs diff=lfs merge=lfs -text
2
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,410 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:130899
8
+ - loss:MultipleNegativesRankingLoss
9
+ base_model: Alibaba-NLP/gte-multilingual-base
10
+ widget:
11
+ - source_sentence: Những quản lý này cũng ngày càng tập trung vào quản lý , hoạt động
12
+ , chương trình và dịch vụ giao hàng lợi ích , và hiệu quả của hệ thống thông tin
13
+ chiến lược lớn của họ .
14
+ sentences:
15
+ - Các hoạt động của hệ thống thông tin chiến lược của họ là một trong những điều
16
+ mà những người quản lý này đang tập trung vào nhiều hơn .
17
+ - Tất cả các trường hợp đều nên đi qua cùng một quá trình bất kể họ là ai .
18
+ - Eszterhaus viết về những người đàn ông mạnh mẽ .
19
+ - source_sentence: Hoa kỳ hôm nay là bố trí tổng hợp và đậm kiểu dự đoán trang web
20
+ đa dạng điển hình , gần như mời ngón tay đến điểm và bấm , để theo Christine Hoàng
21
+ Gia thông qua quá trình phẫu thuật thẩm mỹ của cô ấy , để nhảy vào trang cá nhân
22
+ hàng ngày của các vận động viên Olympic , để khám phá những sâu thẳm trong cuộc
23
+ đấu tranh của bô .
24
+ sentences:
25
+ - Các nhân viên được đảm bảo một khoản lương hưu và lợi ích của chính phủ .
26
+ - Tôi rất vui vì ông ấy đã đi xa khỏi chủ đề liên quan đến chất độc .
27
+ - Trước khi sự tồn tại của trang web hiện đại , các bố trí ngày hôm nay có tác dụng
28
+ với các xu hướng thiết kế web .
29
+ - source_sentence: Các cửa hàng của các nghệ nhân cá nhân không còn ở đây nữa , nhưng
30
+ bạn có thể ghé thăm một nhà máy dệt lụa , một nhà máy gốm , và phòng tranh nghệ
31
+ thuật dân gian phật sơn , nơi bạn có thể quan sát công nhân làm đèn lồng trung
32
+ quốc , bức tượng đồ gỗ , cuộn vẽ tranh , và cắt các thiết trong giấy .
33
+ sentences:
34
+ - Madrasa của sultan hasan đã được xây dựng vào năm 1362 .
35
+ - Sử dụng tên nào ?
36
+ - Có thể xem công trình của những chiếc đèn lồng trung quốc .
37
+ - source_sentence: Khi Linda Wertheimer hỏi anh ta , làm sao chúng ta biết được ?
38
+ sentences:
39
+ - Thành viên ban quản trị cần hai tuần để dọn dẹp trách nhiệm của họ .
40
+ - Vào ngày đầu tiên , ông ấy thích chuyến đi xuyên qua vùng đất đầm lầy và cỏ cỏ
41
+ .
42
+ - Linda đã hỏi anh ta một câu hỏi .
43
+ - source_sentence: Dù thế nào đi nữa , tôi sẽ biết ấn độ cuối cùng đã tăng lên từ
44
+ trạng thái thế giới thứ ba khi tôi quay về thăm người thân của mình và những lời
45
+ đầu tiên họ nói là không ăn , ăn , gầy trai .
46
+ sentences:
47
+ - Ernie Lewis đã trải qua 15 năm trong chính sách tư nhân trước khi tham gia hội
48
+ đồng appalred .
49
+ - Khi người thân của tôi nói ít về thức ăn , tôi sẽ biết ấn độ đang được cải thiện
50
+ .
51
+ - Phần sớm nhất của thế kỷ bao gồm 12,000 công ty tự động .
52
+ pipeline_tag: sentence-similarity
53
+ library_name: sentence-transformers
54
+ metrics:
55
+ - cosine_accuracy
56
+ model-index:
57
+ - name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
58
+ results:
59
+ - task:
60
+ type: triplet
61
+ name: Triplet
62
+ dataset:
63
+ name: xnli vi test
64
+ type: xnli-vi-test
65
+ metrics:
66
+ - type: cosine_accuracy
67
+ value: 0.9982035756111145
68
+ name: Cosine Accuracy
69
+ ---
70
+
71
+ # SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
72
+
73
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
74
+
75
+ ## Model Details
76
+
77
+ ### Model Description
78
+ - **Model Type:** Sentence Transformer
79
+ - **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) <!-- at revision 9fdd4ee8bba0e2808a34e0e739576f6740d2b225 -->
80
+ - **Maximum Sequence Length:** 8192 tokens
81
+ - **Output Dimensionality:** 768 dimensions
82
+ - **Similarity Function:** Cosine Similarity
83
+ <!-- - **Training Dataset:** Unknown -->
84
+ <!-- - **Language:** Unknown -->
85
+ <!-- - **License:** Unknown -->
86
+
87
+ ### Model Sources
88
+
89
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
90
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
91
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
92
+
93
+ ### Full Model Architecture
94
+
95
+ ```
96
+ SentenceTransformer(
97
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
98
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
99
+ )
100
+ ```
101
+
102
+ ## Usage
103
+
104
+ ### Direct Usage (Sentence Transformers)
105
+
106
+ First install the Sentence Transformers library:
107
+
108
+ ```bash
109
+ pip install -U sentence-transformers
110
+ ```
111
+
112
+ Then you can load this model and run inference.
113
+ ```python
114
+ from sentence_transformers import SentenceTransformer
115
+
116
+ # Download from the 🤗 Hub
117
+ model = SentenceTransformer("sentence_transformers_model_id")
118
+ # Run inference
119
+ sentences = [
120
+ 'Dù thế nào đi nữa , tôi sẽ biết ấn độ cuối cùng đã tăng lên từ trạng thái thế giới thứ ba khi tôi quay về thăm người thân của mình và những lời đầu tiên họ nói là không ăn , ăn , gầy trai .',
121
+ 'Khi người thân của tôi nói ít về thức ăn , tôi sẽ biết ấn độ đang được cải thiện .',
122
+ 'Ernie Lewis đã trải qua 15 năm trong chính sách tư nhân trước khi tham gia hội đồng appalred .',
123
+ ]
124
+ embeddings = model.encode(sentences)
125
+ print(embeddings.shape)
126
+ # [3, 768]
127
+
128
+ # Get the similarity scores for the embeddings
129
+ similarities = model.similarity(embeddings, embeddings)
130
+ print(similarities.shape)
131
+ # [3, 3]
132
+ ```
133
+
134
+ <!--
135
+ ### Direct Usage (Transformers)
136
+
137
+ <details><summary>Click to see the direct usage in Transformers</summary>
138
+
139
+ </details>
140
+ -->
141
+
142
+ <!--
143
+ ### Downstream Usage (Sentence Transformers)
144
+
145
+ You can finetune this model on your own dataset.
146
+
147
+ <details><summary>Click to expand</summary>
148
+
149
+ </details>
150
+ -->
151
+
152
+ <!--
153
+ ### Out-of-Scope Use
154
+
155
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
156
+ -->
157
+
158
+ ## Evaluation
159
+
160
+ ### Metrics
161
+
162
+ #### Triplet
163
+
164
+ * Dataset: `xnli-vi-test`
165
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
166
+
167
+ | Metric | Value |
168
+ |:--------------------|:-----------|
169
+ | **cosine_accuracy** | **0.9982** |
170
+
171
+ <!--
172
+ ## Bias, Risks and Limitations
173
+
174
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
175
+ -->
176
+
177
+ <!--
178
+ ### Recommendations
179
+
180
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
181
+ -->
182
+
183
+ ## Training Details
184
+
185
+ ### Training Dataset
186
+
187
+ #### Unnamed Dataset
188
+
189
+ * Size: 130,899 training samples
190
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>sentence_2</code>
191
+ * Approximate statistics based on the first 1000 samples:
192
+ | | sentence_0 | sentence_1 | sentence_2 |
193
+ |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
194
+ | type | string | string | string |
195
+ | details | <ul><li>min: 3 tokens</li><li>mean: 35.19 tokens</li><li>max: 167 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 18.96 tokens</li><li>max: 64 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 19.34 tokens</li><li>max: 57 tokens</li></ul> |
196
+ * Samples:
197
+ | sentence_0 | sentence_1 | sentence_2 |
198
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------|
199
+ | <code>Trong thời gian đó , julius đã lấy được đo lường của anh ta .</code> | <code>Julius đã làm việc của mình rồi .</code> | <code>Tôi biết anh đã nói với tôi rằng anh không bao giờ đi nhà hàng , bởi vì anh sợ họ sẽ nhổ vào thức ăn của anh .</code> |
200
+ | <code>Khi hoàn thiện , các công cụ sẽ cho phép các ứng dụng để đánh giá các dự án công nghệ của họ trong thời gian triển khai để cả hai đảm bảo hoàn thành thành công và cuối cùng , để xác định xem mục tiêu của họ</code> | <code>Một khi hoàn thiện các công cụ sẽ được đánh giá nếu mục tiêu được đạt được .</code> | <code>Có thường xuyên chiến đấu quanh khu vực của penrith .</code> |
201
+ | <code>H ' s , thân yêu tôi .</code> | <code>À , con yêu bé nhỏ của ta .</code> | <code>Đúng rồi đó .</code> |
202
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
203
+ ```json
204
+ {
205
+ "scale": 20.0,
206
+ "similarity_fct": "cos_sim"
207
+ }
208
+ ```
209
+
210
+ ### Training Hyperparameters
211
+ #### Non-Default Hyperparameters
212
+
213
+ - `eval_strategy`: steps
214
+ - `per_device_train_batch_size`: 32
215
+ - `per_device_eval_batch_size`: 32
216
+ - `num_train_epochs`: 1
217
+ - `fp16`: True
218
+ - `multi_dataset_batch_sampler`: round_robin
219
+
220
+ #### All Hyperparameters
221
+ <details><summary>Click to expand</summary>
222
+
223
+ - `overwrite_output_dir`: False
224
+ - `do_predict`: False
225
+ - `eval_strategy`: steps
226
+ - `prediction_loss_only`: True
227
+ - `per_device_train_batch_size`: 32
228
+ - `per_device_eval_batch_size`: 32
229
+ - `per_gpu_train_batch_size`: None
230
+ - `per_gpu_eval_batch_size`: None
231
+ - `gradient_accumulation_steps`: 1
232
+ - `eval_accumulation_steps`: None
233
+ - `torch_empty_cache_steps`: None
234
+ - `learning_rate`: 5e-05
235
+ - `weight_decay`: 0.0
236
+ - `adam_beta1`: 0.9
237
+ - `adam_beta2`: 0.999
238
+ - `adam_epsilon`: 1e-08
239
+ - `max_grad_norm`: 1
240
+ - `num_train_epochs`: 1
241
+ - `max_steps`: -1
242
+ - `lr_scheduler_type`: linear
243
+ - `lr_scheduler_kwargs`: {}
244
+ - `warmup_ratio`: 0.0
245
+ - `warmup_steps`: 0
246
+ - `log_level`: passive
247
+ - `log_level_replica`: warning
248
+ - `log_on_each_node`: True
249
+ - `logging_nan_inf_filter`: True
250
+ - `save_safetensors`: True
251
+ - `save_on_each_node`: False
252
+ - `save_only_model`: False
253
+ - `restore_callback_states_from_checkpoint`: False
254
+ - `no_cuda`: False
255
+ - `use_cpu`: False
256
+ - `use_mps_device`: False
257
+ - `seed`: 42
258
+ - `data_seed`: None
259
+ - `jit_mode_eval`: False
260
+ - `use_ipex`: False
261
+ - `bf16`: False
262
+ - `fp16`: True
263
+ - `fp16_opt_level`: O1
264
+ - `half_precision_backend`: auto
265
+ - `bf16_full_eval`: False
266
+ - `fp16_full_eval`: False
267
+ - `tf32`: None
268
+ - `local_rank`: 0
269
+ - `ddp_backend`: None
270
+ - `tpu_num_cores`: None
271
+ - `tpu_metrics_debug`: False
272
+ - `debug`: []
273
+ - `dataloader_drop_last`: False
274
+ - `dataloader_num_workers`: 0
275
+ - `dataloader_prefetch_factor`: None
276
+ - `past_index`: -1
277
+ - `disable_tqdm`: False
278
+ - `remove_unused_columns`: True
279
+ - `label_names`: None
280
+ - `load_best_model_at_end`: False
281
+ - `ignore_data_skip`: False
282
+ - `fsdp`: []
283
+ - `fsdp_min_num_params`: 0
284
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
285
+ - `tp_size`: 0
286
+ - `fsdp_transformer_layer_cls_to_wrap`: None
287
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
288
+ - `deepspeed`: None
289
+ - `label_smoothing_factor`: 0.0
290
+ - `optim`: adamw_torch
291
+ - `optim_args`: None
292
+ - `adafactor`: False
293
+ - `group_by_length`: False
294
+ - `length_column_name`: length
295
+ - `ddp_find_unused_parameters`: None
296
+ - `ddp_bucket_cap_mb`: None
297
+ - `ddp_broadcast_buffers`: False
298
+ - `dataloader_pin_memory`: True
299
+ - `dataloader_persistent_workers`: False
300
+ - `skip_memory_metrics`: True
301
+ - `use_legacy_prediction_loop`: False
302
+ - `push_to_hub`: False
303
+ - `resume_from_checkpoint`: None
304
+ - `hub_model_id`: None
305
+ - `hub_strategy`: every_save
306
+ - `hub_private_repo`: None
307
+ - `hub_always_push`: False
308
+ - `gradient_checkpointing`: False
309
+ - `gradient_checkpointing_kwargs`: None
310
+ - `include_inputs_for_metrics`: False
311
+ - `include_for_metrics`: []
312
+ - `eval_do_concat_batches`: True
313
+ - `fp16_backend`: auto
314
+ - `push_to_hub_model_id`: None
315
+ - `push_to_hub_organization`: None
316
+ - `mp_parameters`:
317
+ - `auto_find_batch_size`: False
318
+ - `full_determinism`: False
319
+ - `torchdynamo`: None
320
+ - `ray_scope`: last
321
+ - `ddp_timeout`: 1800
322
+ - `torch_compile`: False
323
+ - `torch_compile_backend`: None
324
+ - `torch_compile_mode`: None
325
+ - `dispatch_batches`: None
326
+ - `split_batches`: None
327
+ - `include_tokens_per_second`: False
328
+ - `include_num_input_tokens_seen`: False
329
+ - `neftune_noise_alpha`: None
330
+ - `optim_target_modules`: None
331
+ - `batch_eval_metrics`: False
332
+ - `eval_on_start`: False
333
+ - `use_liger_kernel`: False
334
+ - `eval_use_gather_object`: False
335
+ - `average_tokens_across_devices`: False
336
+ - `prompts`: None
337
+ - `batch_sampler`: batch_sampler
338
+ - `multi_dataset_batch_sampler`: round_robin
339
+
340
+ </details>
341
+
342
+ ### Training Logs
343
+ | Epoch | Step | Training Loss | xnli-vi-test_cosine_accuracy |
344
+ |:------:|:----:|:-------------:|:----------------------------:|
345
+ | 0.1222 | 500 | 0.3095 | - |
346
+ | 0.2444 | 1000 | 0.1216 | 0.9976 |
347
+ | 0.3667 | 1500 | 0.1093 | - |
348
+ | 0.4889 | 2000 | 0.103 | 0.9988 |
349
+ | 0.6111 | 2500 | 0.0934 | - |
350
+ | 0.7333 | 3000 | 0.0929 | 0.9982 |
351
+ | 0.8555 | 3500 | 0.0847 | - |
352
+ | 0.9778 | 4000 | 0.0966 | 0.9982 |
353
+ | 1.0 | 4091 | - | 0.9982 |
354
+
355
+
356
+ ### Framework Versions
357
+ - Python: 3.10.12
358
+ - Sentence Transformers: 4.0.2
359
+ - Transformers: 4.50.3
360
+ - PyTorch: 2.6.0+cu124
361
+ - Accelerate: 0.26.1
362
+ - Datasets: 3.5.0
363
+ - Tokenizers: 0.21.1
364
+
365
+ ## Citation
366
+
367
+ ### BibTeX
368
+
369
+ #### Sentence Transformers
370
+ ```bibtex
371
+ @inproceedings{reimers-2019-sentence-bert,
372
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
373
+ author = "Reimers, Nils and Gurevych, Iryna",
374
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
375
+ month = "11",
376
+ year = "2019",
377
+ publisher = "Association for Computational Linguistics",
378
+ url = "https://arxiv.org/abs/1908.10084",
379
+ }
380
+ ```
381
+
382
+ #### MultipleNegativesRankingLoss
383
+ ```bibtex
384
+ @misc{henderson2017efficient,
385
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
386
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
387
+ year={2017},
388
+ eprint={1705.00652},
389
+ archivePrefix={arXiv},
390
+ primaryClass={cs.CL}
391
+ }
392
+ ```
393
+
394
+ <!--
395
+ ## Glossary
396
+
397
+ *Clearly define terms in order to be accessible across audiences.*
398
+ -->
399
+
400
+ <!--
401
+ ## Model Card Authors
402
+
403
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
404
+ -->
405
+
406
+ <!--
407
+ ## Model Card Contact
408
+
409
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
410
+ -->
config.json ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "NewModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.0,
6
+ "auto_map": {
7
+ "AutoConfig": "Alibaba-NLP/new-impl--configuration.NewConfig",
8
+ "AutoModel": "Alibaba-NLP/new-impl--modeling.NewModel",
9
+ "AutoModelForMaskedLM": "Alibaba-NLP/new-impl--modeling.NewForMaskedLM",
10
+ "AutoModelForMultipleChoice": "Alibaba-NLP/new-impl--modeling.NewForMultipleChoice",
11
+ "AutoModelForQuestionAnswering": "Alibaba-NLP/new-impl--modeling.NewForQuestionAnswering",
12
+ "AutoModelForSequenceClassification": "Alibaba-NLP/new-impl--modeling.NewForSequenceClassification",
13
+ "AutoModelForTokenClassification": "Alibaba-NLP/new-impl--modeling.NewForTokenClassification"
14
+ },
15
+ "classifier_dropout": 0.0,
16
+ "hidden_act": "gelu",
17
+ "hidden_dropout_prob": 0.1,
18
+ "hidden_size": 768,
19
+ "id2label": {
20
+ "0": "LABEL_0"
21
+ },
22
+ "initializer_range": 0.02,
23
+ "intermediate_size": 3072,
24
+ "label2id": {
25
+ "LABEL_0": 0
26
+ },
27
+ "layer_norm_eps": 1e-12,
28
+ "layer_norm_type": "layer_norm",
29
+ "logn_attention_clip1": false,
30
+ "logn_attention_scale": false,
31
+ "max_position_embeddings": 8192,
32
+ "model_type": "new",
33
+ "num_attention_heads": 12,
34
+ "num_hidden_layers": 12,
35
+ "pack_qkv": true,
36
+ "pad_token_id": 1,
37
+ "position_embedding_type": "rope",
38
+ "rope_scaling": {
39
+ "factor": 8.0,
40
+ "type": "ntk"
41
+ },
42
+ "rope_theta": 20000,
43
+ "torch_dtype": "float32",
44
+ "transformers_version": "4.50.3",
45
+ "type_vocab_size": 1,
46
+ "unpad_inputs": false,
47
+ "use_memory_efficient_attention": false,
48
+ "vocab_size": 250048
49
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.0.2",
4
+ "transformers": "4.50.3",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1ea2edb7160456e6f0140a32719becdc5f1656cdfd40fb9ca9821826185b1820
3
+ size 1221487872
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aa7a6ad87a7ce8fe196787355f6af7d03aee94d19c54a5eb1392ed18c8ef451a
3
+ size 17082988
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 32768,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "XLMRobertaTokenizerFast",
54
+ "unk_token": "<unk>"
55
+ }