SentenceTransformer based on iambestfeed/phobert-base-v2-finetuned-wiki-data-raw_data_wseg-lr2e-05-1-epochs-bs-48
This is a sentence-transformers model finetuned from iambestfeed/phobert-base-v2-finetuned-wiki-data-raw_data_wseg-lr2e-05-1-epochs-bs-48 on the vnexpress-data-similarity dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: iambestfeed/phobert-base-v2-finetuned-wiki-data-raw_data_wseg-lr2e-05-1-epochs-bs-48
- Maximum Sequence Length: 256 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("iambestfeed/phobert-base-v2-finetuneed-wiki-finetuned-vnexpress-data-similarity-lr2e-05-1-epochs-bs-48")
# Run inference
sentences = [
'Sau 27 năm gia_nhập làng giải_trí , MC - diễn_viên Thanh_Mai hiện hoạt_động nghệ_thuật cầm_chừng , chủ_yếu tập_trung kinh_doanh . - Ngôi_sao',
'Anh_Tuấn \n - Showbiz \n - Thời_trang \n - Làm_đẹp \n - Xem \n - Ăn_chơi \n - Lối_sống \n - Thể_thao \n - Thời_cuộc \n - Podcasts \n - Thương_trường \n - Trắc_nghiệm \n - Video \n - Ảnh \n - Reviews & Deals \n Sau 27 năm gia_nhập làng giải_trí , MC - diễn_viên Thanh_Mai hiện hoạt_động nghệ_thuật cầm_chừng , chủ_yếu tập_trung kinh_doanh . \n Anh_Tuấn',
'Phòng Cảnh_sát hình_sự Công_an tỉnh Quảng_Nam cho biết Vũ_Viết Hải , trú thị_trấn Trà_My , huyện Bắc_Trà_My , bị bắt 7h sáng nay khi đang trốn ở phường Trường_Xuân , thành_phố Tam_Kỳ . \n Hải đang đối_mặt với cáo_buộc cướp tài_sản . \n Trước đó , tối 26 / 11 , Hải đi xe_máy mang biển số giả đến cây_xăng bán_lẻ Tiên_Cảnh ở xã Tiên_Cảnh , huyện Tiên_Phước , chờ khách vãn mới đi vào , đề_nghị đổ xăng cho xe_máy của mình . Khi chủ cây_xăng đang bơm xăng , nghi can rút liềm trong người , từ phía sau quàng tay dí vào cổ uy_hiếp . \n Thời_điểm này , cây_xăng có một nhân_viên ngồi phía trong kiểm_đếm tiền và ghi sổ_sách . Hải yêu_cầu chủ cây_xăng đưa hết tiền trong túi , tổng_cộng hơn 15 triệu đồng . \n Theo đại_tá Trần_Văn_Xuân , Trưởng_Phòng Cảnh_sát hình_sự Công_an tỉnh Quảng_Nam , Hải khai trốn ở nhiều nơi . Sáng 5 / 12 , Hải về thành_phố Tam_Kỳ , mượn xe_máy và giật túi_xách của một phụ_nữ trên đường Bạch_Đằng , bên trong có 100.000 đồng và một điện_thoại . \n Nghi_vụ cướp này và cướp tiền ở cây_xăng Tiên_Cảnh có liên_quan , Công_an thành_phố Tam_Kỳ lần theo dấu_vết đã phát_hiện ra Hải . \n Hải không nghề_nghiệp ổn_định , theo cha_mẹ từ huyện Chương Mỹ , Hà_Nội vào lập_nghiệp ở thị_trấn Trà_My , huyện Bắc_Trà_My theo diện kinh_tế mới .',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
vnexpress-data-similarity
- Dataset: vnexpress-data-similarity at 9547fde
- Size: 349,711 training samples
- Columns:
anchorandpositive - Approximate statistics based on the first 1000 samples:
anchor positive type string string details - min: 5 tokens
- mean: 29.65 tokens
- max: 70 tokens
- min: 22 tokens
- mean: 205.8 tokens
- max: 256 tokens
- Samples:
anchor positive Tôi ở chung_cư , dịp cuối tuần hoặc ngày lễ là người hàng_xóm lại rủ bạn_bè đến nhậu , lôi loa kẹo kéo ra hành_lang hát , & quot ; tra_tấn & quot ; cả tầng trong nhiều giờ . - VnExpressHọ vặn loa hết cỡ , hát từ trưa đến chiều . Căn_hộ tôi ở sát bên , dù đã đóng hết cửa nhưng các con tôi vẫn không ngủ được .
Trước đó , trưởng tầng từng góp_ý với gia_đình này , tôi cũng báo bảo_vệ chung_cư lên nhắc_nhở , nhưng họ vẫn tái_diễn . Tôi không biết hành_vi này có bị xử_phạt vì gây ô_nhiễm tiếng ồn không ? Tôi nên làm gì để tình_trạng này được xử_lý dứt_điểm ? ( Ngọc_Dung )Việt_Nam nằm trong số năm nước có khối_lượng giao_dịch lớn nhất trên sàn Binance với số tiền 20 tỷ USD trong tháng 5 . - VnExpressTheo thống_kê của WSJ , các nhà đầu_tư Việt_Nam giao_dịch khoảng 20 tỷ USD trên sàn tiền số lớn nhất thế_giới và hình_thức chiếm 90 % là Future ( hợp_đồng tương_lai ) . Con_số này đạt gần 5 % trong tổng khối_lượng giao_dịch toàn_cầu của Binance .
Nước có lượng giao_dịch hàng tháng cao nhất là Trung_Quốc với 90 tỷ USD , tiếp_theo là Hàn_Quốc và Thổ_Nhĩ_Kỳ với 60 tỷ và 45 tỷ USD. Khu_vực còn lại trong top 5 là Quần_đảo Virgin của Anh với 18 tỷ USD.
Số_liệu thống_kê gây bất_ngờ khi Trung_Quốc chiếm 20 % tổng khối_lượng giao_dịch toàn_cầu của Binance , trong khi chính_phủ nước này cấm tất_cả hoạt_động giao_dịch và đầu_tư tiền số từ 2021 . Bên cạnh đó , Binance cũng tuyên_bố không còn hoạt_động tại đây . Theo nguồn tin nội_bộ , hiện có 900.000 nhà đầu_tư Trung_Quốc hoạt_động trên Binance , còn tổng_số nhà đầu_tư tiền số nói_chung tại quốc_gia này là 5,6 triệu . Để lách luật , Binance điều hướng người dùng Trung_Quốc đến các trang_web có tên_miền thuộc quốc_gia này trước khi chuyển tới s...Màn giả gái của Jang_Dong_Yoon trong ' The_Tale of Nokdu ' lên top tìm_kiếm mạng xã_hội Hàn .Drama_cổ trang The_Tale of Nokdu lên sóng 2 tập đầu_vào thứ hai - thứ ba vừa_qua . Phim của đài KBS có rating đứng đầu trong các phim cùng khung giờ . Theo chỉ_số từ Nielsen_Korea , hai tập đầu The_Tale of Nokdu có rating trung_bình lần_lượt là 6,5 % và 8,3 % , thời_điểm rating cao nhất lên 9,6 % . Đã lâu rồi đài KBS mới có phim đạt rating cao như_vậy . Tác_phẩm trước của đài này là I Wanna Hear Your Song chỉ có rating ở mức 3,6 - 4.0 % .
The_Tale of Nokdu kể về Jeon Nok_Du ( do Jang_Dong_Yoon_thủ vai ) , một chàng trai lưu_lạc đến ngôi làng toàn góa phụ . Để sống được ở đây , Nok_Du phải giả gái và nhận Dong_Dong_Joo ( Kim So_Hyun ) làm con gái nuôi , hướng_dẫn cô các kỹ_năng để trở_thành một kỹ_nữ .
Trong 2 tập đầu , Nok_Du đã tìm đến ngôi làng . Vì phải giả gái , anh_chàng tạo ra biết_bao tình_huống dở khóc dở cười . Nam diễn_viên Jang_Dong_Yoon nhận được lời khen qua cách thể_hiện sự bối_rối khi phải mặc trang_phục nữ_giới , đồng_thời diễn_vẻ điệu_đà , tinh_tế của phụ_nữ ở từng... - Loss:
MultipleNegativesRankingLosswith these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size: 48learning_rate: 2e-05num_train_epochs: 1warmup_ratio: 0.1save_safetensors: Falsefp16: Truepush_to_hub: Truehub_model_id: iambestfeed/phobert-base-v2-finetuneed-wiki-finetuned-vnexpress-data-similarity-lr2e-05-1-epochs-bs-48batch_sampler: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: noprediction_loss_only: Trueper_device_train_batch_size: 48per_device_eval_batch_size: 8per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 2e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1.0num_train_epochs: 1max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.1warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Falsesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Truefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Truedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torchoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Trueresume_from_checkpoint: Nonehub_model_id: iambestfeed/phobert-base-v2-finetuneed-wiki-finetuned-vnexpress-data-similarity-lr2e-05-1-epochs-bs-48hub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Nonedispatch_batches: Nonesplit_batches: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: no_duplicatesmulti_dataset_batch_sampler: proportional
Training Logs
Click to expand
| Epoch | Step | Training Loss |
|---|---|---|
| 0.0027 | 10 | 0.2688 |
| 0.0055 | 20 | 0.245 |
| 0.0082 | 30 | 0.2227 |
| 0.0110 | 40 | 0.1718 |
| 0.0137 | 50 | 0.1239 |
| 0.0165 | 60 | 0.1569 |
| 0.0192 | 70 | 0.1095 |
| 0.0220 | 80 | 0.131 |
| 0.0247 | 90 | 0.1197 |
| 0.0275 | 100 | 0.1 |
| 0.0302 | 110 | 0.0696 |
| 0.0329 | 120 | 0.0886 |
| 0.0357 | 130 | 0.0933 |
| 0.0384 | 140 | 0.1103 |
| 0.0412 | 150 | 0.0679 |
| 0.0439 | 160 | 0.0691 |
| 0.0467 | 170 | 0.0778 |
| 0.0494 | 180 | 0.0695 |
| 0.0522 | 190 | 0.0771 |
| 0.0549 | 200 | 0.0593 |
| 0.0577 | 210 | 0.0594 |
| 0.0604 | 220 | 0.0511 |
| 0.0632 | 230 | 0.0492 |
| 0.0659 | 240 | 0.0535 |
| 0.0686 | 250 | 0.0813 |
| 0.0714 | 260 | 0.0593 |
| 0.0741 | 270 | 0.051 |
| 0.0769 | 280 | 0.0614 |
| 0.0796 | 290 | 0.0544 |
| 0.0824 | 300 | 0.0539 |
| 0.0851 | 310 | 0.0494 |
| 0.0879 | 320 | 0.056 |
| 0.0906 | 330 | 0.0676 |
| 0.0934 | 340 | 0.0371 |
| 0.0961 | 350 | 0.0541 |
| 0.0988 | 360 | 0.0817 |
| 0.1016 | 370 | 0.064 |
| 0.1043 | 380 | 0.0427 |
| 0.1071 | 390 | 0.0593 |
| 0.1098 | 400 | 0.0448 |
| 0.1126 | 410 | 0.0458 |
| 0.1153 | 420 | 0.0589 |
| 0.1181 | 430 | 0.0416 |
| 0.1208 | 440 | 0.0403 |
| 0.1236 | 450 | 0.0646 |
| 0.1263 | 460 | 0.0484 |
| 0.1290 | 470 | 0.0433 |
| 0.1318 | 480 | 0.044 |
| 0.1345 | 490 | 0.0541 |
| 0.1373 | 500 | 0.0352 |
| 0.1400 | 510 | 0.0478 |
| 0.1428 | 520 | 0.0445 |
| 0.1455 | 530 | 0.0537 |
| 0.1483 | 540 | 0.0454 |
| 0.1510 | 550 | 0.0409 |
| 0.1538 | 560 | 0.0465 |
| 0.1565 | 570 | 0.0523 |
| 0.1593 | 580 | 0.04 |
| 0.1620 | 590 | 0.0324 |
| 0.1647 | 600 | 0.037 |
| 0.1675 | 610 | 0.0405 |
| 0.1702 | 620 | 0.0371 |
| 0.1730 | 630 | 0.0359 |
| 0.1757 | 640 | 0.0491 |
| 0.1785 | 650 | 0.0362 |
| 0.1812 | 660 | 0.0358 |
| 0.1840 | 670 | 0.0308 |
| 0.1867 | 680 | 0.0313 |
| 0.1895 | 690 | 0.0434 |
| 0.1922 | 700 | 0.0341 |
| 0.1949 | 710 | 0.0369 |
| 0.1977 | 720 | 0.0603 |
| 0.2004 | 730 | 0.0346 |
| 0.2032 | 740 | 0.0415 |
| 0.2059 | 750 | 0.0446 |
| 0.2087 | 760 | 0.0535 |
| 0.2114 | 770 | 0.0365 |
| 0.2142 | 780 | 0.0427 |
| 0.2169 | 790 | 0.0391 |
| 0.2197 | 800 | 0.0416 |
| 0.2224 | 810 | 0.0369 |
| 0.2252 | 820 | 0.0241 |
| 0.2279 | 830 | 0.0395 |
| 0.2306 | 840 | 0.0246 |
| 0.2334 | 850 | 0.0416 |
| 0.2361 | 860 | 0.0295 |
| 0.2389 | 870 | 0.0302 |
| 0.2416 | 880 | 0.0277 |
| 0.2444 | 890 | 0.0381 |
| 0.2471 | 900 | 0.0423 |
| 0.2499 | 910 | 0.04 |
| 0.2526 | 920 | 0.0559 |
| 0.2554 | 930 | 0.0442 |
| 0.2581 | 940 | 0.0326 |
| 0.2608 | 950 | 0.0314 |
| 0.2636 | 960 | 0.0397 |
| 0.2663 | 970 | 0.0379 |
| 0.2691 | 980 | 0.0269 |
| 0.2718 | 990 | 0.0343 |
| 0.2746 | 1000 | 0.0359 |
| 0.2773 | 1010 | 0.0374 |
| 0.2801 | 1020 | 0.0309 |
| 0.2828 | 1030 | 0.0482 |
| 0.2856 | 1040 | 0.0264 |
| 0.2883 | 1050 | 0.037 |
| 0.2910 | 1060 | 0.0438 |
| 0.2938 | 1070 | 0.0205 |
| 0.2965 | 1080 | 0.0331 |
| 0.2993 | 1090 | 0.0245 |
| 0.3020 | 1100 | 0.0375 |
| 0.3048 | 1110 | 0.0378 |
| 0.3075 | 1120 | 0.036 |
| 0.3103 | 1130 | 0.0574 |
| 0.3130 | 1140 | 0.031 |
| 0.3158 | 1150 | 0.0369 |
| 0.3185 | 1160 | 0.0282 |
| 0.3213 | 1170 | 0.0251 |
| 0.3240 | 1180 | 0.0521 |
| 0.3267 | 1190 | 0.0337 |
| 0.3295 | 1200 | 0.0507 |
| 0.3322 | 1210 | 0.0301 |
| 0.3350 | 1220 | 0.0374 |
| 0.3377 | 1230 | 0.0392 |
| 0.3405 | 1240 | 0.0507 |
| 0.3432 | 1250 | 0.0615 |
| 0.3460 | 1260 | 0.0432 |
| 0.3487 | 1270 | 0.0282 |
| 0.3515 | 1280 | 0.0372 |
| 0.3542 | 1290 | 0.0289 |
| 0.3569 | 1300 | 0.0342 |
| 0.3597 | 1310 | 0.0444 |
| 0.3624 | 1320 | 0.0355 |
| 0.3652 | 1330 | 0.0172 |
| 0.3679 | 1340 | 0.0345 |
| 0.3707 | 1350 | 0.0504 |
| 0.3734 | 1360 | 0.0346 |
| 0.3762 | 1370 | 0.0359 |
| 0.3789 | 1380 | 0.0455 |
| 0.3817 | 1390 | 0.0282 |
| 0.3844 | 1400 | 0.0434 |
| 0.3871 | 1410 | 0.0485 |
| 0.3899 | 1420 | 0.0478 |
| 0.3926 | 1430 | 0.0227 |
| 0.3954 | 1440 | 0.0332 |
| 0.3981 | 1450 | 0.0322 |
| 0.4009 | 1460 | 0.0215 |
| 0.4036 | 1470 | 0.0295 |
| 0.4064 | 1480 | 0.0344 |
| 0.4091 | 1490 | 0.036 |
| 0.4119 | 1500 | 0.0199 |
| 0.4146 | 1510 | 0.036 |
| 0.4174 | 1520 | 0.0289 |
| 0.4201 | 1530 | 0.0314 |
| 0.4228 | 1540 | 0.0293 |
| 0.4256 | 1550 | 0.0352 |
| 0.4283 | 1560 | 0.0275 |
| 0.4311 | 1570 | 0.0282 |
| 0.4338 | 1580 | 0.0318 |
| 0.4366 | 1590 | 0.0299 |
| 0.4393 | 1600 | 0.0379 |
| 0.4421 | 1610 | 0.0267 |
| 0.4448 | 1620 | 0.0382 |
| 0.4476 | 1630 | 0.0311 |
| 0.4503 | 1640 | 0.0337 |
| 0.4530 | 1650 | 0.0402 |
| 0.4558 | 1660 | 0.0368 |
| 0.4585 | 1670 | 0.0477 |
| 0.4613 | 1680 | 0.0441 |
| 0.4640 | 1690 | 0.0288 |
| 0.4668 | 1700 | 0.0303 |
| 0.4695 | 1710 | 0.0318 |
| 0.4723 | 1720 | 0.0307 |
| 0.4750 | 1730 | 0.0324 |
| 0.4778 | 1740 | 0.0299 |
| 0.4805 | 1750 | 0.0448 |
| 0.4833 | 1760 | 0.0398 |
| 0.4860 | 1770 | 0.0292 |
| 0.4887 | 1780 | 0.0351 |
| 0.4915 | 1790 | 0.028 |
| 0.4942 | 1800 | 0.0308 |
| 0.4970 | 1810 | 0.0242 |
| 0.4997 | 1820 | 0.0487 |
| 0.5025 | 1830 | 0.0346 |
| 0.5052 | 1840 | 0.0331 |
| 0.5080 | 1850 | 0.0232 |
| 0.5107 | 1860 | 0.041 |
| 0.5135 | 1870 | 0.0429 |
| 0.5162 | 1880 | 0.0447 |
| 0.5189 | 1890 | 0.0308 |
| 0.5217 | 1900 | 0.0349 |
| 0.5244 | 1910 | 0.0303 |
| 0.5272 | 1920 | 0.0396 |
| 0.5299 | 1930 | 0.0309 |
| 0.5327 | 1940 | 0.0379 |
| 0.5354 | 1950 | 0.0228 |
| 0.5382 | 1960 | 0.0337 |
| 0.5409 | 1970 | 0.0409 |
| 0.5437 | 1980 | 0.0228 |
| 0.5464 | 1990 | 0.0413 |
| 0.5491 | 2000 | 0.0429 |
| 0.5519 | 2010 | 0.0295 |
| 0.5546 | 2020 | 0.0213 |
| 0.5574 | 2030 | 0.0425 |
| 0.5601 | 2040 | 0.0291 |
| 0.5629 | 2050 | 0.0331 |
| 0.5656 | 2060 | 0.0339 |
| 0.5684 | 2070 | 0.0214 |
| 0.5711 | 2080 | 0.0313 |
| 0.5739 | 2090 | 0.0461 |
| 0.5766 | 2100 | 0.0215 |
| 0.5794 | 2110 | 0.0231 |
| 0.5821 | 2120 | 0.0175 |
| 0.5848 | 2130 | 0.0217 |
| 0.5876 | 2140 | 0.0407 |
| 0.5903 | 2150 | 0.0325 |
| 0.5931 | 2160 | 0.0338 |
| 0.5958 | 2170 | 0.0207 |
| 0.5986 | 2180 | 0.0241 |
| 0.6013 | 2190 | 0.0275 |
| 0.6041 | 2200 | 0.0226 |
| 0.6068 | 2210 | 0.0258 |
| 0.6096 | 2220 | 0.0258 |
| 0.6123 | 2230 | 0.0238 |
| 0.6150 | 2240 | 0.0213 |
| 0.6178 | 2250 | 0.0356 |
| 0.6205 | 2260 | 0.0416 |
| 0.6233 | 2270 | 0.0355 |
| 0.6260 | 2280 | 0.024 |
| 0.6288 | 2290 | 0.0342 |
| 0.6315 | 2300 | 0.0342 |
| 0.6343 | 2310 | 0.0293 |
| 0.6370 | 2320 | 0.0306 |
| 0.6398 | 2330 | 0.0334 |
| 0.6425 | 2340 | 0.0256 |
| 0.6452 | 2350 | 0.0371 |
| 0.6480 | 2360 | 0.0504 |
| 0.6507 | 2370 | 0.0236 |
| 0.6535 | 2380 | 0.0305 |
| 0.6562 | 2390 | 0.0266 |
| 0.6590 | 2400 | 0.0339 |
| 0.6617 | 2410 | 0.0321 |
| 0.6645 | 2420 | 0.0194 |
| 0.6672 | 2430 | 0.0221 |
| 0.6700 | 2440 | 0.0215 |
| 0.6727 | 2450 | 0.0301 |
| 0.6755 | 2460 | 0.0338 |
| 0.6782 | 2470 | 0.0241 |
| 0.6809 | 2480 | 0.0166 |
| 0.6837 | 2490 | 0.0333 |
| 0.6864 | 2500 | 0.026 |
| 0.6892 | 2510 | 0.0385 |
| 0.6919 | 2520 | 0.0303 |
| 0.6947 | 2530 | 0.0283 |
| 0.6974 | 2540 | 0.0279 |
| 0.7002 | 2550 | 0.0302 |
| 0.7029 | 2560 | 0.0302 |
| 0.7057 | 2570 | 0.0387 |
| 0.7084 | 2580 | 0.0328 |
| 0.7111 | 2590 | 0.0241 |
| 0.7139 | 2600 | 0.0238 |
| 0.7166 | 2610 | 0.0296 |
| 0.7194 | 2620 | 0.0297 |
| 0.7221 | 2630 | 0.0234 |
| 0.7249 | 2640 | 0.0278 |
| 0.7276 | 2650 | 0.0298 |
| 0.7304 | 2660 | 0.0271 |
| 0.7331 | 2670 | 0.0383 |
| 0.7359 | 2680 | 0.0312 |
| 0.7386 | 2690 | 0.0247 |
| 0.7414 | 2700 | 0.0224 |
| 0.7441 | 2710 | 0.036 |
| 0.7468 | 2720 | 0.0252 |
| 0.7496 | 2730 | 0.0545 |
| 0.7523 | 2740 | 0.0269 |
| 0.7551 | 2750 | 0.0269 |
| 0.7578 | 2760 | 0.0249 |
| 0.7606 | 2770 | 0.0261 |
| 0.7633 | 2780 | 0.0173 |
| 0.7661 | 2790 | 0.0215 |
| 0.7688 | 2800 | 0.0243 |
| 0.7716 | 2810 | 0.0307 |
| 0.7743 | 2820 | 0.0456 |
| 0.7770 | 2830 | 0.022 |
| 0.7798 | 2840 | 0.033 |
| 0.7825 | 2850 | 0.0204 |
| 0.7853 | 2860 | 0.0248 |
| 0.7880 | 2870 | 0.0233 |
| 0.7908 | 2880 | 0.026 |
| 0.7935 | 2890 | 0.0271 |
| 0.7963 | 2900 | 0.0259 |
| 0.7990 | 2910 | 0.0212 |
| 0.8018 | 2920 | 0.0179 |
| 0.8045 | 2930 | 0.0258 |
| 0.8072 | 2940 | 0.031 |
| 0.8100 | 2950 | 0.0209 |
| 0.8127 | 2960 | 0.029 |
| 0.8155 | 2970 | 0.0269 |
| 0.8182 | 2980 | 0.0193 |
| 0.8210 | 2990 | 0.0342 |
| 0.8237 | 3000 | 0.0417 |
| 0.8265 | 3010 | 0.0358 |
| 0.8292 | 3020 | 0.0356 |
| 0.8320 | 3030 | 0.0293 |
| 0.8347 | 3040 | 0.0357 |
| 0.8375 | 3050 | 0.026 |
| 0.8402 | 3060 | 0.0243 |
| 0.8429 | 3070 | 0.0391 |
| 0.8457 | 3080 | 0.0228 |
| 0.8484 | 3090 | 0.0188 |
| 0.8512 | 3100 | 0.0256 |
| 0.8539 | 3110 | 0.0385 |
| 0.8567 | 3120 | 0.0163 |
| 0.8594 | 3130 | 0.0297 |
| 0.8622 | 3140 | 0.0304 |
| 0.8649 | 3150 | 0.0319 |
| 0.8677 | 3160 | 0.0343 |
| 0.8704 | 3170 | 0.0485 |
| 0.8731 | 3180 | 0.041 |
| 0.8759 | 3190 | 0.0263 |
| 0.8786 | 3200 | 0.03 |
| 0.8814 | 3210 | 0.0259 |
| 0.8841 | 3220 | 0.0212 |
| 0.8869 | 3230 | 0.0265 |
| 0.8896 | 3240 | 0.0158 |
| 0.8924 | 3250 | 0.0225 |
| 0.8951 | 3260 | 0.0372 |
| 0.8979 | 3270 | 0.0137 |
| 0.9006 | 3280 | 0.039 |
| 0.9033 | 3290 | 0.0187 |
| 0.9061 | 3300 | 0.0393 |
| 0.9088 | 3310 | 0.0218 |
| 0.9116 | 3320 | 0.0253 |
| 0.9143 | 3330 | 0.0291 |
| 0.9171 | 3340 | 0.0361 |
| 0.9198 | 3350 | 0.0237 |
| 0.9226 | 3360 | 0.0268 |
| 0.9253 | 3370 | 0.018 |
| 0.9281 | 3380 | 0.0208 |
| 0.9308 | 3390 | 0.0207 |
| 0.9336 | 3400 | 0.0236 |
| 0.9363 | 3410 | 0.0252 |
| 0.9390 | 3420 | 0.025 |
| 0.9418 | 3430 | 0.0193 |
| 0.9445 | 3440 | 0.0246 |
| 0.9473 | 3450 | 0.028 |
| 0.9500 | 3460 | 0.037 |
| 0.9528 | 3470 | 0.032 |
| 0.9555 | 3480 | 0.0365 |
| 0.9583 | 3490 | 0.0189 |
| 0.9610 | 3500 | 0.0214 |
| 0.9638 | 3510 | 0.0226 |
| 0.9665 | 3520 | 0.0281 |
| 0.9692 | 3530 | 0.0234 |
| 0.9720 | 3540 | 0.0266 |
| 0.9747 | 3550 | 0.019 |
| 0.9775 | 3560 | 0.0232 |
| 0.9802 | 3570 | 0.0383 |
| 0.9830 | 3580 | 0.0216 |
| 0.9857 | 3590 | 0.0221 |
| 0.9885 | 3600 | 0.045 |
| 0.9912 | 3610 | 0.0189 |
| 0.9940 | 3620 | 0.02 |
| 0.9967 | 3630 | 0.0208 |
| 0.9995 | 3640 | 0.0164 |
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.3.1
- Transformers: 4.47.0
- PyTorch: 2.5.1+cu121
- Accelerate: 1.2.1
- Datasets: 3.3.1
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 8
Model tree for iambestfeed/phobert-base-v2-finetuneed-wiki-finetuned-vnexpress-data-similarity-lr2e-05-1-epochs-bs-48
Base model
vinai/phobert-base-v2