SentenceTransformer based on vinai/phobert-base-v2
This is a sentence-transformers model finetuned from vinai/phobert-base-v2 on the vi_nli-healthcare-supervised dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: vinai/phobert-base-v2
- Maximum Sequence Length: 128 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
- Language: vi
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'Phương_pháp điều_trị tự_nhiên số 5 : Châm_cứu',
'Châm_cứu là một hình_thức y_học cổ_truyền của Trung_Quốc . Các kim rất mỏng được đưa vào da của bạn ở các điểm khác nhau trên_cơ_thể . Nó được sử_dụng để điều_trị nhiều tình_trạng khác nhau . Một bài báo được xuất_bản trong Cơ_sở dữ_liệu Cochrane về các đánh_giá có hệ_thống cho thấy nó có_thể giúp điều_trị chứng đau cơ xơ_hóa . Các tác_giả đã đánh_giá 9 nghiên_cứu với tổng_số 395 người tham_gia . Họ đã tìm ra một_số bằng_chứng cho thấy châm_cứu có_thể giúp cải_thiện tình_trạng đau và cứng khớp .',
'Những lợi_ích của châm_cứu đối_với sức_khoẻ An Hoà Khang Những lợi_ích của châm_cứu đối_với sức_khoẻ Mặc_dù lão_hoá là một quá_trình_tự_nhiên của cơ_thể nhưng châm_cứu có_thể giúp làm chậm quá_trình này và giảm hiện_tượng lão_hoá hiệu_quả . Châm_cứu_giúp làm_đẹp da bằng cách tăng_cường lưu_thông máu đến các tế_bào da . Nó cũng giúp làm giảm nếp nhăn , đốm đồi_mồi và các dấu_hiệu lão_hoá khác . Đẩy_lùi viêm họng Đau họng có_thể là do bạn đã bị nhiễm_trùng , dị_ứng hoặc do các chất kích_thích . Việc châm_cứu_giúp tăng_cường lưu_thông máu , từ đó cải_thiện hệ miễn_dịch và khắc_phục các vấn_đề về hô_hấp hiệu_quả . Châm_cứu làm tăng lưu_lượng máu đến tử_cung , giúp thư giãn các cơ và kích_thích giải_phóng endorphin trong não để bạn quên đi cảm_giác khó_chịu và đau_đớn trong những ngày " đèn_đỏ " . Nếu muốn có đời_sống tình_dục tốt , bạn cần có sức_khoẻ tốt về cả_thể_chất lẫn tinh_thần và không bị rối_loạn tình_dục . Châm_cứu có_thể cải_thiện sức_khoẻ thể_chất và tinh_thần , từ đó giúp bạn có đời_sống tình_dục tốt_đẹp . Châm_cứu còn có_thể giúp điều_trị các chứng rối_loạn tình_dục như rối_loạn cương dương , xuất_tinh sớm ... Châm_cứu cũng được xem là một phương_pháp điều_trị hen_suyễn rất hiệu_quả . Các nghiên_cứu đã chỉ ra rằng , khoảng 70 bệnh_nhân bị hen_suyễn đã giảm bớt các triệu_chứng của bệnh sau khi điều_trị bằng cách châm_cứu . Đối_phó với hội_chứng ống cổ_tay Hội_chứng ống cổ_tay hay còn gọi là hội_chứng đường_hầm cổ_tay , hội_chứng chèn_ép thần_kinh giữa . Hội_chứng này xảy ra khi dây thần_kinh hoặc dây_chằng trong ống cổ_tay bị kích_thích do chấn_thương . Các biểu_hiện lâm_sàng của hội_chứng ống cổ_tay là ngứa ran hoặc tê ở lòng bàn_tay và các ngón tay , đặc_biệt là ngón_cái và ngón_giữa . Châm_cứu là một phương_pháp điều_trị hội_chứng ống cổ_tay rất hiệu_quả thay_vì bạn phải tiến_hành phẫu_thuật .',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
vi_nli-healthcare-supervised
- Dataset: vi_nli-healthcare-supervised at 3aadc4d
- Size: 1,032,889 training samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 1000 samples:
anchor positive negative type string string string details - min: 3 tokens
- mean: 10.1 tokens
- max: 30 tokens
- min: 2 tokens
- mean: 118.68 tokens
- max: 128 tokens
- min: 20 tokens
- mean: 118.11 tokens
- max: 128 tokens
- Samples:
anchor positive negative Triệu_chứng của u sợi thần_kinh hạ_thanh môn
Bệnh có_thể gặp ở từ 2 đến 60 tuổi nhưng hầu_hết tập_trung ở trẻ_em . Các triệu_chứng của u sợi thần_kinh hạ_thanh môn là khàn tiếng , khó thở , khò_khè , khó nuốt , khó phát_âm ... Trẻ thường được chẩn_đoán nhầm là hen phế_quản và được cho điều_trị nội_khoa nhưng không đáp_ứng với điều_trị . Tình_trạng khó thở ngày_càng tăng đặc_biệt khi nằm , trẻ phải ngồi , nằm đầu cao hoặc ngước cổ lên để thở . Trẻ thường nhập_viện với tình_trạng khó thở nặng , đôi_khi phải mở khí_quản cấp_cứu . Để chẩn_đoán bệnh , bác_sĩ sẽ nội_soi thanh_quản , chụp cắt_lớp vi_tính và sinh_thiết lấy mẫu bệnh_phẩm để thực_hiện xét_nghiệm giải_phẫu bệnh . Xét_nghiệm cho thấy là các tế_bào hình_thoi với nhân gợn sóng , collagen và những sợi thần_kinh trong đó . Ngoài_ra , có_thể xét_nghiệm_hóa mô miễn_dịch dương_tính với S100 để chẩn_đoán u sợi thần_kinh hạ_thanh môn .
Triệu_chứng ung_thư thanh_quản
Quy_trình chụp cắt_lớp vi_tính hốc mắt axial và coronal có tiêm thuốc cản_quang
Khi người gặp chấn_thương vùng hốc mắt , bác_sĩ sẽ có chỉ_định chụp cắt_lớp vi_tính Chỉ_định : ● Chấn_thương vùng hốc mắt . ● Viêm , nhiễm_trùng như viêm dây thần_kinh thị_giác ... ● Nghi_ngờ có tổn_thương mạch_máu , thần_kinh , khối_u trong vùng hốc mắt . ● Chỉ_định theo yêu_cầu chuyên_môn của bác_sĩ điều_trị . Chống chỉ_định : ● Chống chỉ_định tương_đối : Phụ_nữ mang thai , trẻ nhỏ . Phụ_nữ mang thai nếu chụp phải dùng áo chì để che vùng bụng nếu chụp . ● Chống chỉ_định tuyệt_đối trong các trường_hợp có chống chỉ_định với thuốc đối quang như : Bệnh_nhân mắc bệnh suy thận , suy gan , suy tim nặng , tiền_sử dị_ứng với thuốc cản_quang , hen phế_quản hay cường_giáp_trạng chưa điều_trị ổn_định ...
● Trẻ nhỏ có_thể không hợp_tác trong quá_trình chụp : Xử_trí bằng cách có_thể chụp lúc trẻ ngủ , dùng thuốc an_thần hoặc một_số trường_hợp phải gây_mê . ● Người_bệnh không_thể ngửa cổ được khi chụp lớp cắt đứng ngang ( coronal ) , có_thể tái_tạo_hình_ảnh từ hướng cắt ngang đối_với các máy chụp...Hệ_thống chụp cắt_lớp võng_mạc hỗ_trợ chẩn_đoán các bệnh_lý chuyên_sâu ( VO H ) - Bệnh_viện Mắt TPHCM vừa được trang_bị Hệ_thống chụp cắt_lớp võng_mạc CIRRUS HD - OCT 5000 ( OCT - A ) nhằm hỗ_trợ chẩn_đoán các bệnh_lý chuyên_sâu về mắt . Đây là máy chẩn_đoán hình_ảnh không xâm_lấn có_thể chụp được những vi_mạch_máu của võng_mạc , hắc mạc , được xem là thành_tựu công_nghệ sáng_tạo nổi_bật mới được Cục quản_lý thuốc và thực_phẩm Mỹ công_nhận . Máy OCT - A sử_dụng kỹ_thuật laser quét để ghi_nhận hình_ảnh các mạch_máu ở võng_mạc là lớp thần_kinh của mắt . Xét_nghiệm thực_hiện nhanh chỉ trong vòng 15 giây , người_bệnh chỉ cần nhìn vào tia hướng_dẫn trong máy như đo kính thông_thường . Ngoài_ra tia laser quét ở phổ hồng_ngoại có năng_lượng thấp không gây bất_cứ tổn_thương nào cho mắt của người_bệnh . Trước_đây để ghi_nhận được hình_ảnh các mạch_máu tương_tự thì phải tiêm thuốc cản_quang vào tĩnh_mạch người_bệnh và điều này tiềm_ẩn rủi_ro do thuốc gây ra . Người_bệnh cũng phải chịu hàng chục ...
Thế_nào là hở van tim 3 lá ?
Van 3 lá nằm giữa tâm_nhĩ phải và tâm_thất phải của tim , có tác_dụng cho máu lưu_thông theo một_chiều từ tâm_nhĩ xuống tâm_thất . Van 3 lá sẽ mở ra khi tâm_nhĩ co lại để bơm máu vào tâm_thất phải , van ba_lá đóng lại khi tâm_thất co tống máu vào động_mạch phổi , để có_thể ngăn dòng máu chảy ngược về tâm_nhĩ . Hở van tim 3 lá là tình_trạng van không đóng kín hoàn_toàn khi tâm_thất phải co lại , để bơm máu lên động_mạch phổi , khiến cho một phần máu bị trào ngược trở_lại thất phải . Khi có một lượng máu chảy ngược trở_lại tâm_nhĩ thì tâm_nhĩ phải cần phải hoạt_động nhiều hơn và trở_nên to ra , lâu dần gây suy chức_năng tim phải và gây ra nhiều biến_chứng như suy tim , rung nhĩ ... Hở van ba_lá tùy theo mức_độ mà được chia thành 4 mức_độ khác nhau : Hở van tim tim 3 lá 1 / 4 : Mức_độ hở van ba_lá nhẹ nhất , thông_thường còn được gọi là hở van sinh_lý , có_thể gặp ở nhiều người khỏe mạnh bình_thường . Hở van 2 lá 2 / 4 : Mức_độ hở van trung_bình và cần tiến_hành điều_trị khi thấy có các t...
Trang_chủ Bệnh tim_mạch Bệnh_lý về van tim Hở van tim 3 lá Hở van tim 3 lá là gì ? 19 / 04 / 2016 534 luợt xem Hở van tim 3 lá là gì , hậu_quả hở van tim 3 lá như thế_nào và hở van tim 3 lá cần lưu_ý những gì là những vấn_đề mọi người cần trang_bị cho mình những kiến_thức cần_thiết để biết cách đối_phó với căn_bệnh nguy_hiểm này . Van tim 3 lá bị hở cần được phát_hiện sớm và điều_trị hiệu_quả . Khi hai tâm_thất bóp ( thời_kỳ tâm thu ) thì van 2 lá và van 3 lá đóng kín , đồng_thời van động_mạch chủ và van động_mạch phổi mở để đẩy máu lên phổi và đưa máu giàu ôxy tới nuôi các tế_bào . Khi tâm_nhĩ nghỉ ( thời_kỳ tâm trương ) , 2 van động_mạch chủ và phổi đóng kín để máu không chảy ngược_lại tâm_thất được . Chúng_ta có_thể coi các van tim là những cánh cửa , khi mở ra cho máu chảy một_chiều , khi đóng lại giữ máu không chảy ngược_lại được . Van tim 3 lá là van tim thông giữa tâm_nhĩ phải và tâm_thất phải . Nếu van 3 lá bị hở , người_ta gọi là bệnh hở van tim 3 lá . Nguyên_nhân hở van tim 3...
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 128learning_rate
: 0.0001weight_decay
: 0.1num_train_epochs
: 1warmup_ratio
: 0.1fp16
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 128per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 0.0001weight_decay
: 0.1adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss |
---|---|---|
0.0062 | 50 | 3.345 |
0.0124 | 100 | 0.8099 |
0.0186 | 150 | 0.3079 |
0.0248 | 200 | 0.2089 |
0.0310 | 250 | 0.1961 |
0.0372 | 300 | 0.186 |
0.0434 | 350 | 0.1607 |
0.0496 | 400 | 0.1483 |
0.0558 | 450 | 0.1391 |
0.0620 | 500 | 0.1343 |
0.0682 | 550 | 0.1235 |
0.0743 | 600 | 0.1222 |
0.0805 | 650 | 0.1186 |
0.0867 | 700 | 0.128 |
0.0929 | 750 | 0.1145 |
0.0991 | 800 | 0.1153 |
0.1053 | 850 | 0.1143 |
0.1115 | 900 | 0.1099 |
0.1177 | 950 | 0.1018 |
0.1239 | 1000 | 0.1079 |
0.1301 | 1050 | 0.0982 |
0.1363 | 1100 | 0.0949 |
0.1425 | 1150 | 0.0945 |
0.1487 | 1200 | 0.0952 |
0.1549 | 1250 | 0.1162 |
0.1611 | 1300 | 0.0965 |
0.1673 | 1350 | 0.0847 |
0.1735 | 1400 | 0.0916 |
0.1797 | 1450 | 0.0821 |
0.1859 | 1500 | 0.0693 |
0.1921 | 1550 | 0.0753 |
0.1983 | 1600 | 0.072 |
0.2045 | 1650 | 0.0718 |
0.2107 | 1700 | 0.0715 |
0.2169 | 1750 | 0.0711 |
0.2230 | 1800 | 0.0731 |
0.2292 | 1850 | 0.0636 |
0.2354 | 1900 | 0.076 |
0.2416 | 1950 | 0.06 |
0.2478 | 2000 | 0.0582 |
0.2540 | 2050 | 0.056 |
0.2602 | 2100 | 0.0539 |
0.2664 | 2150 | 0.0548 |
0.2726 | 2200 | 0.0522 |
0.2788 | 2250 | 0.0429 |
0.2850 | 2300 | 0.0543 |
0.2912 | 2350 | 0.055 |
0.2974 | 2400 | 0.0449 |
0.3036 | 2450 | 0.0526 |
0.3098 | 2500 | 0.0432 |
0.3160 | 2550 | 0.0513 |
0.3222 | 2600 | 0.0478 |
0.3284 | 2650 | 0.041 |
0.3346 | 2700 | 0.0455 |
0.3408 | 2750 | 0.0515 |
0.3470 | 2800 | 0.0455 |
0.3532 | 2850 | 0.0429 |
0.3594 | 2900 | 0.037 |
0.3656 | 2950 | 0.0329 |
0.3717 | 3000 | 0.0381 |
0.3779 | 3050 | 0.0381 |
0.3841 | 3100 | 0.0373 |
0.3903 | 3150 | 0.0405 |
0.3965 | 3200 | 0.0344 |
0.4027 | 3250 | 0.0345 |
0.4089 | 3300 | 0.0327 |
0.4151 | 3350 | 0.0271 |
0.4213 | 3400 | 0.0314 |
0.4275 | 3450 | 0.0352 |
0.4337 | 3500 | 0.0262 |
0.4399 | 3550 | 0.0295 |
0.4461 | 3600 | 0.0284 |
0.4523 | 3650 | 0.0248 |
0.4585 | 3700 | 0.0239 |
0.4647 | 3750 | 0.0272 |
0.4709 | 3800 | 0.0253 |
0.4771 | 3850 | 0.0288 |
0.4833 | 3900 | 0.0267 |
0.4895 | 3950 | 0.027 |
0.4957 | 4000 | 0.0233 |
0.5019 | 4050 | 0.0237 |
0.5081 | 4100 | 0.0224 |
0.5143 | 4150 | 0.0252 |
0.5204 | 4200 | 0.0228 |
0.5266 | 4250 | 0.0243 |
0.5328 | 4300 | 0.0269 |
0.5390 | 4350 | 0.0228 |
0.5452 | 4400 | 0.0219 |
0.5514 | 4450 | 0.0215 |
0.5576 | 4500 | 0.0242 |
0.5638 | 4550 | 0.0199 |
0.5700 | 4600 | 0.0196 |
0.5762 | 4650 | 0.0171 |
0.5824 | 4700 | 0.0161 |
0.5886 | 4750 | 0.0182 |
0.5948 | 4800 | 0.019 |
0.6010 | 4850 | 0.0192 |
0.6072 | 4900 | 0.018 |
0.6134 | 4950 | 0.016 |
0.6196 | 5000 | 0.0167 |
0.6258 | 5050 | 0.0155 |
0.6320 | 5100 | 0.0151 |
0.6382 | 5150 | 0.0169 |
0.6444 | 5200 | 0.0151 |
0.6506 | 5250 | 0.0152 |
0.6568 | 5300 | 0.0141 |
0.6629 | 5350 | 0.0167 |
0.6691 | 5400 | 0.0159 |
0.6753 | 5450 | 0.0163 |
0.6815 | 5500 | 0.0153 |
0.6877 | 5550 | 0.0122 |
0.6939 | 5600 | 0.016 |
0.7001 | 5650 | 0.0169 |
0.7063 | 5700 | 0.0132 |
0.7125 | 5750 | 0.0129 |
0.7187 | 5800 | 0.0128 |
0.7249 | 5850 | 0.0119 |
0.7311 | 5900 | 0.0118 |
0.7373 | 5950 | 0.0138 |
0.7435 | 6000 | 0.0123 |
0.7497 | 6050 | 0.0104 |
0.7559 | 6100 | 0.0147 |
0.7621 | 6150 | 0.0102 |
0.7683 | 6200 | 0.0125 |
0.7745 | 6250 | 0.0133 |
0.7807 | 6300 | 0.0134 |
0.7869 | 6350 | 0.0125 |
0.7931 | 6400 | 0.0119 |
0.7993 | 6450 | 0.0134 |
0.8055 | 6500 | 0.0144 |
0.8116 | 6550 | 0.0119 |
0.8178 | 6600 | 0.0109 |
0.8240 | 6650 | 0.0098 |
0.8302 | 6700 | 0.0115 |
0.8364 | 6750 | 0.0127 |
0.8426 | 6800 | 0.0102 |
0.8488 | 6850 | 0.011 |
0.8550 | 6900 | 0.0114 |
0.8612 | 6950 | 0.0116 |
0.8674 | 7000 | 0.0102 |
0.8736 | 7050 | 0.0104 |
0.8798 | 7100 | 0.0098 |
0.8860 | 7150 | 0.01 |
0.8922 | 7200 | 0.01 |
0.8984 | 7250 | 0.0085 |
0.9046 | 7300 | 0.0106 |
0.9108 | 7350 | 0.0085 |
0.9170 | 7400 | 0.0092 |
0.9232 | 7450 | 0.0095 |
0.9294 | 7500 | 0.0099 |
0.9356 | 7550 | 0.0113 |
0.9418 | 7600 | 0.0077 |
0.9480 | 7650 | 0.0095 |
0.9542 | 7700 | 0.0077 |
0.9603 | 7750 | 0.0089 |
0.9665 | 7800 | 0.009 |
0.9727 | 7850 | 0.0077 |
0.9789 | 7900 | 0.0101 |
0.9851 | 7950 | 0.0088 |
0.9913 | 8000 | 0.0098 |
0.9975 | 8050 | 0.0102 |
Framework Versions
- Python: 3.10.13
- Sentence Transformers: 3.3.1
- Transformers: 4.47.1
- PyTorch: 2.2.0
- Accelerate: 0.26.0
- Datasets: 3.2.0
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 6
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.
Model tree for quangtohe/Simcse-phoBert-base-healthcare
Base model
vinai/phobert-base-v2