quangtohe commited on
Commit
1c2c025
·
verified ·
1 Parent(s): 73cece5

Upload 16 files

Browse files
README.md ADDED
@@ -0,0 +1,773 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vi
4
+ tags:
5
+ - sentence-transformers
6
+ - sentence-similarity
7
+ - feature-extraction
8
+ - generated_from_trainer
9
+ - dataset_size:1032889
10
+ - loss:MultipleNegativesRankingLoss
11
+ base_model: vinai/phobert-base-v2
12
+ widget:
13
+ - source_sentence: Nội_soi phế_quản ống mềm là gì ?
14
+ sentences:
15
+ - 'Trang_chủ Hô_hấp Sinh_thiết xuyên thành phế_quản ống mềm trong chẩn_đoán một_số
16
+ bệnh phổi Nôi soi phế_quản ( NSP Q ) là kỹ_thuật để chẩn_đoán một_số bệnh_lý ở
17
+ phế_quản phổi . NSP Q giúp quan_sát cấu_trúc trong lòng phế_quản và lấy bệnh_phẩm
18
+ làm xét nghiêm tế '' bào , mô bệnh học , vi_sinh dịch phế '' quản giúp chẩn_đoán
19
+ xác_định bệnh [ 6 ] , [ 8 ] . Ngày_nay , với sự tiến_bộ của khoa_học có rất nhiều
20
+ phương_pháp ... Rửa phế_quản phế_nang và chải phế_quản trên những tổn_thương dạng
21
+ đám mờ ngoại_vi ở phổi Đám mờ ( moss ) : là những tổn_thương có kích_thước > 3
22
+ cm , mật_độ có_thể thuần_nhất hoặc không , ranh_giới có_thể rõ_ràng hoặc không
23
+ rõ_ràng ; đây là một tổn_thương hay gặp trong bệnh_lý hô_hấp . Nguyên_nhân thường
24
+ gặp là viêm phổi , lao_phổi , ung_thư phổi , nấm phổi , xẹp phổi và một_số nguyên_nhân
25
+ khác ít gặp hơn ... Xây_dựng và đánh_giá kết_quả chương_trình điều_trị phục_hồi
26
+ chức_năng cho người_bệnh copd tại bệnh_viện lao và phổi trung_ương Bênh phổi tắc_nghẽn
27
+ mạn tính ( COPD ) đặc_trưng bởi sự tắc_nghẽn luồng khi " thở ra không hồi_phục
28
+ hoàn_toàn . Sự cản_trở_thông khí này thường tiên triển từ từ và là hâu quả của
29
+ sự tiếp_xúc lâu ngày với các chất và khí độc_hại [ 54 ] , [ 55 ] . Quá_trình viêm
30
+ , mất cân_bằng của hê thống proteinase , anti - proteinase , sự ... Đặc_điểm lâm_sàng
31
+ , hình_ảnh tổn_thương trên phim cắt_lớp vi_tính ngực và rối_loạn thông khí phổi
32
+ ở bệnh_nhân giãn phế_quản Giãn phế_quản ( GPQ ) là tình_trạng tăng khẩu kính một_cách
33
+ bất_thường , vĩnh_viễn và không hồi_phục của một phần cây phế_quản . Có_thể giãn
34
+ ở phế_quản ( PQ ) lớn trong khi PQ nhỏ vẫn bình_thường hoặc giãn ở PQ nhỏ trong
35
+ khi PQ lớn bình_thường [ 12 ] , [ 13 ] , [ 66 ] . Bệnh được Lan nec mô_tả lần
36
+ đầu_tiên năm 1819 với đặc_điểm lâm ... Thực_trạng phát_hiện , điều_trị bệnh lao
37
+ ở nông_dân tại bệnh_viện lao và bệnh phổi tỉnh thanh hoá Công_cuộc đấu_tranh của
38
+ loài_người với bệnh lao đã trải qua nhiều thế_kỷ . Căn_bệnh này đã xuất_hiện cùng
39
+ với loài_người , song mãi đến những năm cuối của thế_kỷ 19 ( 1882 ) , khi Robert
40
+ Koch tìm ra nguyên_nhân gây bệnh : vi_khuẩn lao ( Mycobacteria_Tuberculosis )
41
+ thì cuộc_chiến mới thực_sự bắt_đầu . Những tiến_bộ của khoa_học kỹ_thuật đã ...
42
+ sự tuân_thủ điều_trị lao và hiểu_biết của người lao có hiv về bệnh lao tại 14
43
+ quân huyện thành_phố hà_nội Bênh lao gắn liền với sự phát_triển của loài_người
44
+ . Từ xưa , bênh lao được xem là một bênh di_truyền và không chữa được . Nhưng
45
+ đến năm 1882 khi Robert Koch tìm ra vi_khuẩn lao là nguyên_nhân gây bênh lao thì
46
+ bênh không còn được xem là bênh di_truyền nữa và cùng với việc tìm ra các thuốc
47
+ chống lao sau_này đã ... Kết_quả gần phẫu_thuật tĩnh_mạch phổi trở_về bất_thường
48
+ hoàn_toàn tại bệnh viên nhi trung_ương Tĩnh_mạch phổi trở_về bất_thường hoàn_toàn
49
+ ( TMP TVB THT ) là một dị_tật tim bẩm_sinh , trong đó các tĩnh_mạch phổi hoàn_toàn
50
+ không kết_nối trực_tiếp vào nhĩ trái , mà_lại đổ về một tĩnh_mạch hệ_thống hoặc
51
+ về nhĩ phải [ 58 ] . Do máu được oxy hoá từ phổi đổ về tim phải , nên sự tồn_tại
52
+ và độ rộng của lỗ bầu ... Giá_trị của thông khí không xâm_nhập BiP AP trong điều_trị
53
+ đợt cấp bệnh phổi tắc_nghẽn mạn tính tại khoa Hô_hấp Bệnh_viện Bạch_Mai Bệnh phổi
54
+ tắc_nghẽn mạn tính ( COPD - Chronic Obstructive Pulmonary_Disease ) là một bệnh
55
+ rất phổ_biến và có xu_hướng ngày_càng tăng , đặc_biệt ở các nước phát_triển .
56
+ Bệnh là nguyên_nhân gây tử_vong hàng thứ tư trên thế_giới , và sẽ là thứ 3 vào
57
+ năm 2020 [ 40 ] . Hiện_nay trên toàn thế_giới có khoảng 600 triệu người mắc bệnh
58
+ [ 34 ] ... . Đ đặc_điểm lâm_s��ng , cận lâm_sàng và căn nguyên gây bệnh của tràn
59
+ dịch màng phổi thanh tơ Tràn dịch màng phổi ( TDMP ) là sự_tích_tụ dịch trong
60
+ khoang màng phổi . Tràn dịch màng phổi thanh tơ là dịch tiết có phản_ứng Ri_valta
61
+ dương_tính và lượng protein trên 30 g / l [ 54 ] . Chẩn_đoán tràn dịch màng phổi
62
+ không khó nhưng chẩn_đoán nguyên_nhân gây tràn dịch màng phổi vẫn còn gặp nhiều
63
+ khó_khăn : do lao , do ung_thư và một_số_nguyên ... Đặc_điểm lâm_sàng , cận lâm_sàng
64
+ tràn dịch màng phổi do lao và tính kháng thuốc của mycobacterium tuberculosis
65
+ ở bệnh_nhân có xét_nghiệm HIV ( + ) Bệnh lao đã có từ rất lâu ( trước Công_nguyên
66
+ ) ở Ân_Đô , Ai Cập , Hy Lạp và các nước vùng Trung_Á . Năm 1882 khi Robert Koch
67
+ tìm ra nguyên_nhân gây bệnh lao là do vi_khuẩn lao , thời_kỳ đó người_ta lạc_quan
68
+ tuyên_bố có_thể thanh_toán được bệnh lao . Nhưng thực_tế bệnh lao không giảm mà
69
+ còn có xu_hướng ...'
70
+ - 'Có một_vài yếu_tố tuy không phải nguyên_nhân trực_tiếp , nhưng lại khiến loạn
71
+ sản phế_quản phổi có khả_năng xuất_hiện hơn , bao_gồm : Mức_độ trẻ sinh thiếu
72
+ tháng : phổi càng kém phát_triển thì càng dễ bị tổn_thương và nguy_cơ xuất_hiện
73
+ loạn sản phế_quản phổi càng cao . Loạn sản phế_quản phổi hiếm gặp ở những trẻ
74
+ sinh sau 32 tuần tuổi thai . Can_thiệp thở máy_kéo_dài : thở máy làm căng giãn
75
+ các phế_nang , và khi bị căng giãn quá mức , trong thời_gian dài , các phế_nang
76
+ sẽ bị tổn_thương . Nồng_độ oxy cao : nồng_độ oxy càng cao , thời_gian thở oxy
77
+ càng kéo_dài thì nguy_cơ xuất_hiện loạn sản phế_quản phổi càng lớn . Thông_thường
78
+ nồng_độ oxy dưới 60 % được coi là mức tương_đối an_toàn . Trẻ là nam_giới : những
79
+ trẻ mang giới_tính nam có nguy_cơ sinh thiếu tháng lớn hơn , và dễ phát_triển
80
+ loạn sản phế_quản phổi hơn . T_ình trạng của thai_phụ : thai_phụ hút thuốc_lá
81
+ , sử_dụng các chất kích_thích bất_hợp_pháp , thai_phụ không được cung_cấp đủ dưỡng_chất
82
+ , nhiễm_khuẩn trong lúc mang thai có_thể tác_động tới sự phát_triển bình_thường
83
+ của bào_thai , từ đó có_thể dẫn tới sinh trẻ thiếu tháng , làm tăng nguy_cơ xuất_hiện
84
+ các hội_chứng rối_loạn hô_hấp , và gây ra loạn sản phế_quản phổi . Cấy_ghép tế_bào
85
+ gốc đã được chứng_minh hiệu_quả trong điều_trị loạn sản phế_quản phổi . Tại Vinmec
86
+ Times City , bệnh_viện duy_nhất ở miền Bắc đã thực_hiện được kỹ_thuật này với
87
+ tỷ_lệ thành_công đạt 80 % . Đây là kỹ_thuật tiên_tiến có_thể điều_trị dứt_điểm
88
+ xơ phổi nặng ở trẻ sinh non . Tế_bào gốc ghép vào là các tế_bào toàn_năng , giúp
89
+ cho phổi xơ_hóa trưởng_thành tốt , tăng thêm cơ_hội cứu_chữa và sống khỏe_mạnh
90
+ cho trẻ sinh non mắc biến_chứng xơ phổi , giảm dần thời_gian lệ_thuộc máy , mau_chóng
91
+ trả lại cho trẻ một cuộc_sống như bình_thường . Cấy_ghép tế_bào gốc điều_trị loạn
92
+ sản phế_quản phổi tại Vinmec Hệ_thống trang thiết_bị hiện_đại hỗ_trợ quá_trình
93
+ điều_trị , Labo ngân_hàng tế_bào gốc , chiết tách , nuôi_cấy , kỹ_thuật cao .
94
+ Bác_sĩ giàu kinh_nghiệm : Bác_sĩ Trần_Liên_Anh và Đội_ngũ điều_dưỡng có kiến_thức
95
+ chuyên_sâu , có trách_nhiệm . Viện nghiên_cứu Tế_bào gốc & Công_nghệ Gen : trình_độ
96
+ kỹ_thuật cao , có khả_năng nuôi_cấy tế_bào gốc . Loạn sản phế_quản phổi là những
97
+ tổn_thương phổi khó tránh khỏi ở trẻ sinh non nếu phải cần đến hô_hấp hỗ_trợ .
98
+ Tuy_vậy , nhờ vào những thành_tựu y_học , đặc_biệt là kỹ_thuật ghép tế_bào gốc
99
+ , căn_bệnh này không còn là nỗi ám_ảnh lâu_dài . Hệ_thống Y_khoa Vinmec đã từng
100
+ bước ứng_dụng và thành_công trong không chỉ nuôi_dưỡng trẻ sinh non và còn bảo_tồn
101
+ được chức_năng hô_hấp cho trẻ . Xem thêm : Hướng_dẫn chẩn_đoán và điều_trị loạn
102
+ sản phế_quản phối Để đặt lịch khám tại viện , Quý_khách vui_lòng bấm số HOTLINE
103
+ hoặc đặt lịch trực_tiếp TẠI ĐÂY . Tải và đặt lịch khám tự_động trên ứng_dụng MyVinmec
104
+ để quản_lý , theo_dõi lịch và đặt hẹn mọi lúc mọi nơi ngay trên ứng_dụng . Bài
105
+ viết tham_khảo nguồn : webmd . com'
106
+ - 'Nội_soi phế_quản hay soi phế_quản là một thủ_thuật để nhìn trực_tiếp vào đường_dẫn
107
+ khí trong phổi bằng cách sử_dụng một ống mỏng , có gắn nguồn sáng và máy thu_hình
108
+ trong suốt quá_trình thực_hiện . Ngã vào của nội_soi phế_quản được đặt trong mũi
109
+ hoặc miệng . Ống nội_soi sẽ đưa di_chuyển xuống cổ_họng , qua khí_quản , vào phế_quản
110
+ và các cấp phân_chia . Nhờ đó , bác_sĩ có_thể quan_sát thấy toàn_bộ đường_dẫn
111
+ khí như : thanh_quản , khí_quản , phế_quản và các nhánh nhỏ của phế_quản là tiểu
112
+ phế_quản . Có hai loại ống soi phế_quản : ống soi cứng và ống soi mềm . Mỗi loại
113
+ có những ưu_điểm riêng và được ứng_dụng trong từng bệnh cảnh khác nhau . Tuy_nhiên
114
+ , trong thực_tế , nội_soi phế_quản ống mềm được sử_dụng thường_xuyên hơn . So
115
+ với ống soi phế_quản cứng , ống soi phế_quản mềm linh_hoạt hơn và có_thể di_chuyển
116
+ xuống các đường_dẫn khí nhỏ hơn như tiểu phế_quản . Nhờ đó , ống soi phế_quản
117
+ mềm có_thể được sử_dụng đặt một ống thở trong đường thở để giúp cung_cấp oxy ,
118
+ hút ra dịch tiết , lấy mẫu mô làm sinh_thiết hay bơm thuốc điều_trị vào phổi .
119
+ Nội_soi phế_quản ống mềm đem lại nhiều ưu_điểm'
120
+ - source_sentence: Tủy răng là gì ?
121
+ sentences:
122
+ - Ống tuỷ chân răng là gì ? | Nha_Khoa_Xuân_Hương_Răng của bạn phía ngoài là men
123
+ , lớp tiếp là ngà , trong cùng là vùng mô mềm gọi là tuỷ răng , ở đó có động_mạch
124
+ , tĩnh_mạch , thần_kinh và các mao_mạch bạch_huyết của răng . Ống tuỷ chân răng
125
+ là những nhánh rất nhỏ , mỏng phân nhánh từ buồng tuỷ phía trên xuống đến chóp
126
+ chân răng . Răng có_thể có từ 1 đến 4 ống tuỷ .
127
+ - Tủy răng là một mô liên_kết đặc_biệt gồm mạch_máu và thần_kinh , nằm trong hốc
128
+ tủy và được bao quanh bởi mô cứng của răng ( gồm men và ngà răng ) . Tủy răng
129
+ đi vào từ đỉnh của chân răng . Hốc tủy là một hốc ở giữa răng . Hốc ở phần thân
130
+ răng gọi là buồng tủy và tủy răng nằm trong đó gọi là tủy buồng . Hốc ở phần chân
131
+ răng gọi là ống tủy và tủy răng nằm trong đó gọi là tủy chân . Mỗi chân răng có_thể
132
+ có 1 hoặc nhiều ống tủy , nhiều ống tủy phụ . Các ống tủy của một răng được gọi
133
+ là hệ_thống ống tủy . Đỉnh của chân răng , nơi có mạch_máu và thần_kinh đi vào
134
+ gọi là chóp răng ( cuống răng ) . Tủy răng tham_gia vào chức_năng cảm_giác , nuôi_dưỡng
135
+ và sửa_chữa ngà răng . Hình_ảnh giải_phẫu răng
136
+ - '5.1 Thuốc nhỏ mắt và thuốc không kê đơn Thuốc nhỏ mắt nhân_tạo có_thể làm rửa
137
+ sạch tạm_thời các chất gây dị_ứng khỏi mắt và làm ẩm mắt . Nước_mắt nhân_tạo giúp
138
+ cho mắt dịu , giảm đỏ và giảm khô kích_ứng . Loại thuốc này có_thể được sử_dụng
139
+ thường_xuyên nếu cần . Thuốc nhỏ mắt thông mũi có tác_dụng làm giảm đỏ mắt do
140
+ dị_ứng mắt bằng cách thu_hẹp những mạch_máu trong mắt . Tuy_nhiên , cần đặc_biệt
141
+ lưu_ý không sử_dụng thuốc trên bệnh_nhân bị tăng nhãn áp . 5.2 Thuốc nhỏ mắt theo
142
+ toa Thuốc nhỏ mắt kháng histamin có_thể làm giảm ngứa , sưng và đỏ do dị_ứng mắt
143
+ . Mặc_dù những loại thuốc này có hiệu_quả nhanh_chóng nhưng tác_dụng có_thể chỉ
144
+ kéo_dài trong vài giờ . Thông_thường liệu_trình điều_trị là 4 lần / ngày . Thuốc
145
+ nhỏ mắt ổn_định tế_bào mast : có tác_dụng ngăn_chặn sự giải_phóng histamin và
146
+ những chất khác gây ra triệu_chứng dị_ứng , qua đó giúp giảm ngứa nhanh_chóng
147
+ . Thuốc nhỏ mắt chống viêm không steroid có tác_dụng giảm ngứa , nhưng có_thể
148
+ gây châm_chích . Thuốc nhỏ mắt có chứa corticosteroid : loại thuốc này có_thể
149
+ giúp điều_trị những triệu_chứng dị_ứng mắt mãn_tính và nghiêm_trọng . Điều_trị
150
+ lâu_dài bằng thuốc steroid cần phải theo phác_đồ điều_trị , vì tác_dụng không
151
+ mong_muốn có_thể làm tăng nguy_cơ nhiễm_trùng , tăng nhãn áp và đục thuỷ_tinh_thể
152
+ .'
153
+ - source_sentence: Tương_tác thuốc Momenazal
154
+ sentences:
155
+ - Sử_dụng chung các thuốc giống thần_kinh giao_cảm nói_chung bao_gồm cả Momenazal
156
+ cho người_bệnh đang dùng các thuốc thuốc chống trầm_cảm ba vòng hay thuốc ức_chế
157
+ monoaminoxydase , maprotilin có_thể gây phản_ứng tăng huyết_áp mức_độ nặng . Nên
158
+ đây là chống chỉ_định tuyệt_đối .
159
+ - 'Cách dùng : Thuốc Tarnir dùng đường uống , bạn nên uống nguyên viên thuốc với
160
+ một cốc nước không nên bẻ hoặc chia nhỏ thuốc . Liều dùng : Thuốc Tarnir được
161
+ dùng theo chỉ_định của bác_sĩ , bạn có_thể tham_khảo thêm liều khuyến_cáo dưới
162
+ đây : Đối_với người_lớn và trẻ_em trên 12 tuổi : Mỗi ngày uống hai lần , mỗi lần
163
+ uống 1 viên , các lần cách nhau 12 giờ . Thời_gian điều_trị tùy thuộc vào đáp_ứng
164
+ của từng bệnh_nhân . Đối_với trẻ_em từ 6 tháng đến 12 tuổi : Liều dùng khuyến_cáo
165
+ là 14mg / kg / ngày , không được vượt quá 600mg / ngày . Đối_với bệnh_nhân suy
166
+ thận : với người có độ thanh thải dưới 30ml / phút , dùng liều 300mg 1 lần duy_nhất
167
+ trong ngày .'
168
+ - Những loại thuốc tuyệt_đối không được dùng chung - Công_ty TNHH Đông_Dược_Xuân_Quang
169
+ Một thiếu_nữ 18 tuổi ở Giang_Môn , Quảng_Đông ( Trung_Quốc ) qua_đời sau khi uống
170
+ hai loại thuốc cảm_cúm cùng lúc . Theo báo_cáo , cô gái sử_dụng một thuốc giảm
171
+ đau và viên nang có chứa thành_phần methoxyphenamine .
172
+ - source_sentence: Các yếu_tố nguy_cơ của ung_thư da
173
+ sentences:
174
+ - "Ung_thư da là sự phát_triển bất_thường của các tế_bào da thường phát_triển nhất\
175
+ \ trên da tiếp_xúc với ánh nắng mặt_trời . Những dạng ung_thư phổ_biến này cũng\
176
+ \ có_thể xảy ra ở những vùng da của bạn không tiếp_xúc với ánh_sáng mặt_trời .\
177
+ \ Có ba loại ung_thư da chính - ung_thư biểu mô tế_bào đáy , ung_thư biểu mô tế_bào\
178
+ \ vảy và khối_u ác_tính . Bạn có_thể giảm nguy_cơ ung_thư da bằng cách hạn_chế\
179
+ \ hoặc tránh tiếp_xúc với tia cực_tím ( UV ) . Kiểm_tra làn da của bạn để biết\
180
+ \ những thay_đổi đáng ngờ có_thể giúp phát_hiện ung_thư da ở giai_đoạn sớm nhất\
181
+ \ . Phát_hiện sớm ung_thư da mang đến cho bạn cơ_hội lớn nhất để điều_trị ung_thư\
182
+ \ da thành_công . Ung_thư biểu mô tế_bào vảy là một loại ung_thư da thường gặp\
183
+ \ \n Hầu_hết các bệnh ung_thư da đều có_thể phòng_ngừa được . Để bảo_vệ bản_thân\
184
+ \ , hãy làm theo các mẹo phòng_chống ung_thư da sau : Tránh ánh nắng mặt_trời\
185
+ \ vào giữa ngày . Đối_với nhiều người ở Bắc_Mỹ , các tia nắng mặt_trời mạnh nhất\
186
+ \ trong khoảng từ 10 giờ sáng đến 4 giờ chiều . Lên lịch các hoạt_động ngoài_trời\
187
+ \ cho những thời_điểm khác trong ngày , ngay cả trong mùa đông hoặc khi trời nhiều\
188
+ \ mây . Bạn hấp_thụ bức_xạ UV quanh_năm và các đám mây cung_cấp ít sự bảo_vệ khỏi\
189
+ \ các tia gây hại . Tránh ánh nắng mặt_trời mạnh nhất giúp bạn tránh được những\
190
+ \ vết cháy nắng và nắng_nóng gây tổn_thương da và tăng nguy_cơ phát_triển ung_thư\
191
+ \ da . Phơi nắng tích_lũy theo thời_gian cũng có_thể gây ung_thư da . Mặc kem\
192
+ \ chống nắng quanh_năm : Kem chống nắng không lọc được tất_cả các bức_xạ tia cực_tím\
193
+ \ có hại , đặc_biệt là bức_xạ có_thể dẫn đến khối_u ác_tính . Nhưng chúng đóng\
194
+ \ một vai_trò quan_trọng trong một chương_trình chống nắng tổng_thể . Sử_dụng\
195
+ \ kem chống nắng là một_cách phòng_ngừa bệnh ung_thư da Sử_dụng kem chống nắng\
196
+ \ phổ rộng với SPF ít_nhất là 30 , ngay cả trong những ngày nhiều mây . Thoa kem\
197
+ \ chống nắng một_cách hào_phóng , và bôi lại sau mỗi hai giờ - hoặc thường_xuyên\
198
+ \ hơn nếu bạn đang bơi hoặc ra mồ_hôi . Sử_dụng một lượng lớn kem chống nắng trên\
199
+ \ tất_cả các vùng da bị phơi nhiễm , bao_gồm cả môi , chóp tai và mu bàn_tay và\
200
+ \ cổ của bạn . Mặc quần_áo bảo_hộ : kem chống nắng không cung_cấp sự bảo_vệ hoàn_toàn\
201
+ \ khỏi tia UV. Vì_vậy , che_phủ làn da của bạn với quần_áo tối màu , dệt chặt_chẽ\
202
+ \ che cánh_tay và chân của bạn , và một chiếc mũ rộng vành , mang lại sự bảo_vệ\
203
+ \ nhiều hơn so với mũ bóng_chày hoặc tấm che mặt . Đeo kính_râm : hãy tìm những\
204
+ \ loại chặn cả hai loại bức_xạ UV - tia UVA và UVB. Kiểm_tra da của bạn thường_xuyên\
205
+ \ và báo_cáo thay_đổi với bác_sĩ của bạn . Kiểm_tra da của bạn thường_xuyên để\
206
+ \ ph��t_triển da mới hoặc thay_đổi trong các nốt_ruồi , tàn_nhang , vết sưng và\
207
+ \ vết bớt hiện có . Khách_hàng có_thể trực_tiếp đến hệ_thống Y_tế Vinmec trên\
208
+ \ toàn_quốc để thăm khám hoặc liên_hệ hotline tại đây để được hỗ_trợ ."
209
+ - '2.1 . Chỉ_định Thuốc Phacoparamol được dùng trong các trường_hợp sau : Sốt ,
210
+ đau_đầu , đau nhức cơ_bắp , đau khớp do cảm_cúm , cảm lạnh gây ra . Hỗ_trợ điều_trị
211
+ triệu_chứng_bệnh nhiễm_trùng đường hô_hấp trên gây hắt_hơi , chảy nước_mắt , nghẹt
212
+ mũi , sổ_mũi , ớn lạnh ; giảm triệu_chứng viêm xoang mũi do nhiễm_khuẩn hay thời_tiết
213
+ , viêm mũi dị_ứng . 2.2 . Chống chỉ_định Không dùng thuốc Phacoparamol trong trường_hợp
214
+ sau : Bệnh_nhân suy gan hoặc bị suy thận nặng . Người mẫn_cảm với bất_kỳ thành_phần_nào
215
+ của thuốc Phacoparamol . Người_bệnh đang bị cơn hen cấp . Người_bệnh thiếu_hụt
216
+ glucose - 6 – phosphat dehydrogenase ( G6PD ) Người_bệnh có triệu_chứng của bệnh
217
+ phì đại tuyến tiền_liệt ; tắc cổ bàng_quang ; Glocom góc hẹp . Người_bệnh dùng
218
+ thuốc ức_chế monoamin oxydase ( IMAO ) trong vòng 14 ngày , tính đến thời_điểm
219
+ điều_trị bằng thuốc clorpheniramin . Vì tính_chất chống tiết acetylcholin của
220
+ clorpheniramin bị tăng lên khi dùng chung với các chất ức_chế MAO.'
221
+ - 'Ung_Thư Da Sức_Khoẻ Bí_quyết chăm_sóc sức_khoẻ cho mọi người Home Các Loại Bệnh
222
+ Bệnh_Về Da và Tóc Ung_Thư Da Tiếp_xúc với những nguy_hại của môi_trường như môi_trường
223
+ như môi_trường hoá_chất , thuốc diệt cỏ cũng tăng nguy_cơ ung_thư da . Nói_chung
224
+ nguy_cơ mắc ung_thư da của bạn tăng lên theo tuổi , thường nhất là sau 50 tuổi
225
+ . Tuy_nhiên một_số trường_hợp vẫn thấy ung_thư ở người trẻ từ Các biện_pháp điều_trị
226
+ ung_thư da và sang thương tiền ung_thư da thay_đổi tuỳ theo kích_thước , phân_loại
227
+ , độ ăn sâu và vị_trí của một hoặc nhiều sang thương . Hầu_hết đều dùng biện_pháp
228
+ vô_cảm tại_chỗ và điều_trị ngoại_trú , nhưng đôi_khi chỉ thực_hiện_sinh_thiết
229
+ sang thương . Hầu_hết các trường_hợp ung_thư da đều có_thể phòng_ngừa được . Bạn
230
+ nên thực_hiện theo một_số biện_pháp sau để duy_trì sự khoẻ_mạnh của làn da . Những
231
+ cách phòng_ngừa : Giảm thời_gian phơi nắng . Tránh làm_việc và tiếp_xúc ánh nắng
232
+ mặt_trời quá lâu . Bỏng nắng , sạm nắng đều tăng Dấu_hiệu báo_động thường gặp
233
+ nhất của ung_thư da là một chỗ biến_đổi bất_thường của da , ví_dụ như một vết
234
+ loét đau , chảy_máu , đóng mài trên bề_mặt , lành rồi sau đó lại loét trợ lại
235
+ ngay tại vị_trí này . Dấu_hiệu và triệu_chứng Dấu_hiệu đầu_tiên thường gặp của
236
+ ung Ung_thư da là một tình_trạng phát_triển bất_thường của tế_bào da . Một trong
237
+ những dạng ung_thư phổ_biến nhất hiện_nay . Ba loại ung_thư da thường gặp là ung_thư
238
+ tế_bào đáy , tế_bào sừng và tế_bào hắc tố , trong đó phổ_biến nhất là ung_thư
239
+ tế_bào đáy và tế'
240
+ - source_sentence: 'Phương_pháp điều_trị tự_nhiên số 5 : Châm_cứu'
241
+ sentences:
242
+ - Châm_cứu là một hình_thức y_học cổ_truyền của Trung_Quốc . Các kim rất mỏng được
243
+ đưa vào da của bạn ở các điểm khác nhau trên_cơ_thể . Nó được sử_dụng để điều_trị
244
+ nhiều tình_trạng khác nhau . Một bài báo được xuất_bản trong Cơ_sở dữ_liệu Cochrane
245
+ về các đánh_giá có hệ_thống cho thấy nó có_thể giúp điều_trị chứng đau cơ xơ_hóa
246
+ . Các tác_giả đã đánh_giá 9 nghiên_cứu với tổng_số 395 người tham_gia . Họ đã
247
+ tìm ra một_số bằng_chứng cho thấy châm_cứu có_thể giúp cải_thiện tình_trạng đau
248
+ và cứng khớp .
249
+ - 'Một_số tương_tác thuốc của Hemarexin gồm : Ofloxacin , norfloxacin , ciprofloxacin
250
+ , Ca carbonate , Na carbonate , Mg trisilicat , Tetracyclin , nước chè , Penicilamin
251
+ , carbidopa / levodopa , methyldopa , hormon giáp , quinolon , muối Zn , ... khi
252
+ sử_dụng đồng_thời . Trước khi sử_dụng thuốc Hemarexin , người_bệnh nên báo_cáo
253
+ cho bác_sĩ về bệnh_lý của bản_thân , các loại thuốc mình đang sử_dụng để đề_phòng
254
+ nguy_cơ tương_tác thuốc . Khi dùng thuốc , bệnh_nhân nên tuân_thủ đúng hướng_dẫn
255
+ của bác_sĩ để luôn đạt được hiệu_quả trị_liệu tốt nhất . Theo_dõi website Bệnh_viện
256
+ Đa_khoa Quốc_tế Vinmec để nắm thêm nhiều thông_tin sức_khỏe , dinh_dưỡng , làm_đẹp
257
+ để bảo_vệ sức_khỏe cho bản_thân và những người_thân_yêu trong gia_đình . Để đặt
258
+ lịch khám tại viện , Quý_khách vui_lòng bấm số HOTLINE hoặc đặt lịch trực_tiếp
259
+ TẠI ĐÂY . Tải và đặt lịch khám tự_động trên ứng_dụng MyVinmec để quản_lý , theo_dõi
260
+ lịch và đặt hẹn mọi lúc mọi nơi ngay trên ứng_dụng .'
261
+ - Những lợi_ích của châm_cứu đối_với sức_khoẻ An Hoà Khang Những lợi_ích của châm_cứu
262
+ đối_với sức_khoẻ Mặc_dù lão_hoá là một quá_trình_tự_nhiên của cơ_thể nhưng châm_cứu
263
+ có_thể giúp làm chậm quá_trình này và giảm hiện_tượng lão_hoá hiệu_quả . Châm_cứu_giúp
264
+ làm_đẹp da bằng cách tăng_cường lưu_thông máu đến các tế_bào da . Nó cũng giúp
265
+ làm giảm nếp nhăn , đốm đồi_mồi và các dấu_hiệu lão_hoá khác . Đẩy_lùi viêm họng
266
+ Đau họng có_thể là do bạn đã bị nhiễm_trùng , dị_ứng hoặc do các chất kích_thích
267
+ . Việc châm_cứu_giúp tăng_cường lưu_thông máu , từ đó cải_thiện hệ miễn_dịch và
268
+ khắc_phục các vấn_đề về hô_hấp hiệu_quả . Châm_cứu làm tăng lưu_lượng máu đến
269
+ tử_cung , giúp thư giãn các cơ và kích_thích giải_phóng endorphin trong não để
270
+ bạn quên đi cảm_giác khó_chịu và đau_đớn trong những ngày " đèn_đỏ " . Nếu muốn
271
+ có đời_sống tình_dục tốt , bạn cần có sức_khoẻ tốt về cả_thể_chất lẫn tinh_thần
272
+ và không bị rối_loạn tình_dục . Châm_cứu có_thể cải_thiện sức_khoẻ thể_chất và
273
+ tinh_thần , từ đó giúp bạn có đời_sống tình_dục tốt_đẹp . Châm_cứu còn có_thể
274
+ giúp điều_trị các chứng rối_loạn tình_dục như rối_loạn cương dương , xuất_tinh
275
+ sớm ... Châm_cứu cũng được xem là một phương_pháp điều_trị hen_suyễn rất hiệu_quả
276
+ . Các nghiên_cứu đã chỉ ra rằng , khoảng 70 bệnh_nhân bị hen_suyễn đã giảm bớt
277
+ các triệu_chứng của bệnh sau khi điều_trị bằng cách châm_cứu . Đối_phó với hội_chứng
278
+ ống cổ_tay Hội_chứng ống cổ_tay hay còn gọi là hội_chứng đường_hầm cổ_tay , hội_chứng
279
+ chèn_ép thần_kinh giữa . Hội_chứng này xảy ra khi dây thần_kinh hoặc dây_chằng
280
+ trong ống cổ_tay bị kích_thích do chấn_thương . Các biểu_hiện lâm_sàng của hội_chứng
281
+ ống cổ_tay là ngứa ran hoặc tê ở lòng bàn_tay và các ngón tay , đặc_biệt là ngón_cái
282
+ và ngón_giữa . Châm_cứu là một phương_pháp điều_trị hội_chứng ống cổ_tay rất hiệu_quả
283
+ thay_vì bạn phải tiến_hành phẫu_thuật .
284
+ datasets:
285
+ - anti-ai/ViNLI-Healthcare-supervised
286
+ pipeline_tag: sentence-similarity
287
+ library_name: sentence-transformers
288
+ ---
289
+
290
+ # SentenceTransformer based on vinai/phobert-base-v2
291
+
292
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) on the [vi_nli-healthcare-supervised](https://huggingface.co/datasets/anti-ai/ViNLI-Healthcare-supervised) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
293
+
294
+ ## Model Details
295
+
296
+ ### Model Description
297
+ - **Model Type:** Sentence Transformer
298
+ - **Base model:** [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) <!-- at revision e2375d266bdf39c6e8e9a87af16a5da3190b0cc8 -->
299
+ - **Maximum Sequence Length:** 128 tokens
300
+ - **Output Dimensionality:** 768 dimensions
301
+ - **Similarity Function:** Cosine Similarity
302
+ - **Training Dataset:**
303
+ - [vi_nli-healthcare-supervised](https://huggingface.co/datasets/anti-ai/ViNLI-Healthcare-supervised)
304
+ - **Language:** vi
305
+ <!-- - **License:** Unknown -->
306
+
307
+ ### Model Sources
308
+
309
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
310
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
311
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
312
+
313
+ ### Full Model Architecture
314
+
315
+ ```
316
+ SentenceTransformer(
317
+ (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: RobertaModel
318
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
319
+ )
320
+ ```
321
+
322
+ ## Usage
323
+
324
+ ### Direct Usage (Sentence Transformers)
325
+
326
+ First install the Sentence Transformers library:
327
+
328
+ ```bash
329
+ pip install -U sentence-transformers
330
+ ```
331
+
332
+ Then you can load this model and run inference.
333
+ ```python
334
+ from sentence_transformers import SentenceTransformer
335
+
336
+ # Download from the 🤗 Hub
337
+ model = SentenceTransformer("sentence_transformers_model_id")
338
+ # Run inference
339
+ sentences = [
340
+ 'Phương_pháp điều_trị tự_nhiên số 5 : Châm_cứu',
341
+ 'Châm_cứu là một hình_thức y_học cổ_truyền của Trung_Quốc . Các kim rất mỏng được đưa vào da của bạn ở các điểm khác nhau trên_cơ_thể . Nó được sử_dụng để điều_trị nhiều tình_trạng khác nhau . Một bài báo được xuất_bản trong Cơ_sở dữ_liệu Cochrane về các đánh_giá có hệ_thống cho thấy nó có_thể giúp điều_trị chứng đau cơ xơ_hóa . Các tác_giả đã đánh_giá 9 nghiên_cứu với tổng_số 395 người tham_gia . Họ đã tìm ra một_số bằng_chứng cho thấy châm_cứu có_thể giúp cải_thiện tình_trạng đau và cứng khớp .',
342
+ 'Những lợi_ích của châm_cứu đối_với sức_khoẻ An Hoà Khang Những lợi_ích của châm_cứu đối_với sức_khoẻ Mặc_dù lão_hoá là một quá_trình_tự_nhiên của cơ_thể nhưng châm_cứu có_thể giúp làm chậm quá_trình này và giảm hiện_tượng lão_hoá hiệu_quả . Châm_cứu_giúp làm_đẹp da bằng cách tăng_cường lưu_thông máu đến các tế_bào da . Nó cũng giúp làm giảm nếp nhăn , đốm đồi_mồi và các dấu_hiệu lão_hoá khác . Đẩy_lùi viêm họng Đau họng có_thể là do bạn đã bị nhiễm_trùng , dị_ứng hoặc do các chất kích_thích . Việc châm_cứu_giúp tăng_cường lưu_thông máu , từ đó cải_thiện hệ miễn_dịch và khắc_phục các vấn_đề về hô_hấp hiệu_quả . Châm_cứu làm tăng lưu_lượng máu đến tử_cung , giúp thư giãn các cơ và kích_thích giải_phóng endorphin trong não để bạn quên đi cảm_giác khó_chịu và đau_đớn trong những ngày " đèn_đỏ " . Nếu muốn có đời_sống tình_dục tốt , bạn cần có sức_khoẻ tốt về cả_thể_chất lẫn tinh_thần và không bị rối_loạn tình_dục . Châm_cứu có_thể cải_thiện sức_khoẻ thể_chất và tinh_thần , từ đó giúp bạn có đời_sống tình_dục tốt_đẹp . Châm_cứu còn có_thể giúp điều_trị các chứng rối_loạn tình_dục như rối_loạn cương dương , xuất_tinh sớm ... Châm_cứu cũng được xem là một phương_pháp điều_trị hen_suyễn rất hiệu_quả . Các nghiên_cứu đã chỉ ra rằng , khoảng 70 bệnh_nhân bị hen_suyễn đã giảm bớt các triệu_chứng của bệnh sau khi điều_trị bằng cách châm_cứu . Đối_phó với hội_chứng ống cổ_tay Hội_chứng ống cổ_tay hay còn gọi là hội_chứng đường_hầm cổ_tay , hội_chứng chèn_ép thần_kinh giữa . Hội_chứng này xảy ra khi dây thần_kinh hoặc dây_chằng trong ống cổ_tay bị kích_thích do chấn_thương . Các biểu_hiện lâm_sàng của hội_chứng ống cổ_tay là ngứa ran hoặc tê ở lòng bàn_tay và các ngón tay , đặc_biệt là ngón_cái và ngón_giữa . Châm_cứu là một phương_pháp điều_trị hội_chứng ống cổ_tay rất hiệu_quả thay_vì bạn phải tiến_hành phẫu_thuật .',
343
+ ]
344
+ embeddings = model.encode(sentences)
345
+ print(embeddings.shape)
346
+ # [3, 768]
347
+
348
+ # Get the similarity scores for the embeddings
349
+ similarities = model.similarity(embeddings, embeddings)
350
+ print(similarities.shape)
351
+ # [3, 3]
352
+ ```
353
+
354
+ <!--
355
+ ### Direct Usage (Transformers)
356
+
357
+ <details><summary>Click to see the direct usage in Transformers</summary>
358
+
359
+ </details>
360
+ -->
361
+
362
+ <!--
363
+ ### Downstream Usage (Sentence Transformers)
364
+
365
+ You can finetune this model on your own dataset.
366
+
367
+ <details><summary>Click to expand</summary>
368
+
369
+ </details>
370
+ -->
371
+
372
+ <!--
373
+ ### Out-of-Scope Use
374
+
375
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
376
+ -->
377
+
378
+ <!--
379
+ ## Bias, Risks and Limitations
380
+
381
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
382
+ -->
383
+
384
+ <!--
385
+ ### Recommendations
386
+
387
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
388
+ -->
389
+
390
+ ## Training Details
391
+
392
+ ### Training Dataset
393
+
394
+ #### vi_nli-healthcare-supervised
395
+
396
+ * Dataset: [vi_nli-healthcare-supervised](https://huggingface.co/datasets/anti-ai/ViNLI-Healthcare-supervised) at [3aadc4d](https://huggingface.co/datasets/anti-ai/ViNLI-Healthcare-supervised/tree/3aadc4df7524e16cc502f124a2b3ba77bd15c976)
397
+ * Size: 1,032,889 training samples
398
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
399
+ * Approximate statistics based on the first 1000 samples:
400
+ | | anchor | positive | negative |
401
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
402
+ | type | string | string | string |
403
+ | details | <ul><li>min: 3 tokens</li><li>mean: 10.1 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 118.68 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 118.11 tokens</li><li>max: 128 tokens</li></ul> |
404
+ * Samples:
405
+ | anchor | positive | negative |
406
+ |:---------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
407
+ | <code>Triệu_chứng của u sợi thần_kinh hạ_thanh môn</code> | <code>Bệnh có_thể gặp ở từ 2 đến 60 tuổi nhưng hầu_hết tập_trung ở trẻ_em . Các triệu_chứng của u sợi thần_kinh hạ_thanh môn là khàn tiếng , khó thở , khò_khè , khó nuốt , khó phát_âm ... Trẻ thường được chẩn_đoán nhầm là hen phế_quản và được cho điều_trị nội_khoa nhưng không đáp_ứng với điều_trị . Tình_trạng khó thở ngày_càng tăng đặc_biệt khi nằm , trẻ phải ngồi , nằm đầu cao hoặc ngước cổ lên để thở . Trẻ thường nhập_viện với tình_trạng khó thở nặng , đôi_khi phải mở khí_quản cấp_cứu . Để chẩn_đoán bệnh , bác_sĩ sẽ nội_soi thanh_quản , chụp cắt_lớp vi_tính và sinh_thiết lấy mẫu bệnh_phẩm để thực_hiện xét_nghiệm giải_phẫu bệnh . Xét_nghiệm cho thấy là các tế_bào hình_thoi với nhân gợn sóng , collagen và những sợi thần_kinh trong đó . Ngoài_ra , có_thể xét_nghiệm_hóa mô miễn_dịch dương_tính với S100 để chẩn_đoán u sợi thần_kinh hạ_thanh môn .</code> | <code>Triệu_chứng ung_thư thanh_quản | Triệu_chứng ung_thư thanh_quản > Hiện_nay , rất nhiều người chưa hiểu đầy_đủ về bệnh ung_thư thanh_quản , không biết về các triệu_chứng của nó , không ít bệnh_nhân vì_thế_mà để mất cơ_hội điều_trị bệnh tốt nhất , gây nguy_hại đến tính_mạng . Vậy thì , sau đây chúng_tôi sẽ giới_thiệu tới các bạn những dạng bệnh và triệu_chứng cơ_bản của ung_thư thanh_quản . Khối_u có_thể nằm ở những vị_trí khác nhau của vùng hầu họng , thông_thường chia ung_thư vòm họng thành ba loại : ung_thư trên thanh môn , ung_thư thanh môn và ung_thư dưới thanh môn . Ung_thư thanh_quản trên thanh môn chỉ khối_u nằm ở vị_trí trên dây thanh , ung_thư thanh môn là chỉ ung_thư dây thanh , ung_thư dưới thanh môn là chỉ khối_u nằm ở dưới thanh đới và trên sụn nhẫn . Ung_thư thanh_quản có những triệu_chứng gì ? 1 . Giọng nói khản cổ kéo_dài , họng có cảm_giác vướng hoặc nuốt đau : Khàn tiếng liên_tục là triệu_chứng thường gặp nhất của ung_thư thanh_quản giai_đoạn sớm . Trong cuộc_sống hằng...</code> |
408
+ | <code>Quy_trình chụp cắt_lớp vi_tính hốc mắt axial và coronal có tiêm thuốc cản_quang</code> | <code>Khi người gặp chấn_thương vùng hốc mắt , bác_sĩ sẽ có chỉ_định chụp cắt_lớp vi_tính Chỉ_định : ● Chấn_thương vùng hốc mắt . ● Viêm , nhiễm_trùng như viêm dây thần_kinh thị_giác ... ● Nghi_ngờ có tổn_thương mạch_máu , thần_kinh , khối_u trong vùng hốc mắt . ● Chỉ_định theo yêu_cầu chuyên_môn của bác_sĩ điều_trị . Chống chỉ_định : ● Chống chỉ_định tương_đối : Phụ_nữ mang thai , trẻ nhỏ . Phụ_nữ mang thai nếu chụp phải dùng áo chì để che vùng bụng nếu chụp . ● Chống chỉ_định tuyệt_đối trong các trường_hợp có chống chỉ_định với thuốc đối quang như : Bệnh_nhân mắc bệnh suy thận , suy gan , suy tim nặng , tiền_sử dị_ứng với thuốc cản_quang , hen phế_quản hay cường_giáp_trạng chưa điều_trị ổn_định ... <br> ● Trẻ nhỏ có_thể không hợp_tác trong quá_trình chụp : Xử_trí bằng cách có_thể chụp lúc trẻ ngủ , dùng thuốc an_thần hoặc một_số trường_hợp phải gây_mê . ● Người_bệnh không_thể ngửa cổ được khi chụp lớp cắt đứng ngang ( coronal ) , có_thể tái_tạo_hình_ảnh từ hướng cắt ngang đối_với các máy chụp...</code> | <code>Hệ_thống chụp cắt_lớp võng_mạc hỗ_trợ chẩn_đoán các bệnh_lý chuyên_sâu ( VO H ) - Bệnh_viện Mắt TPHCM vừa được trang_bị Hệ_thống chụp cắt_lớp võng_mạc CIRRUS HD - OCT 5000 ( OCT - A ) nhằm hỗ_trợ chẩn_đoán các bệnh_lý chuyên_sâu về mắt . Đây là máy chẩn_đoán hình_ảnh không xâm_lấn có_thể chụp được những vi_mạch_máu của võng_mạc , hắc mạc , được xem là thành_tựu công_nghệ sáng_tạo nổi_bật mới được Cục quản_l�� thuốc và thực_phẩm Mỹ công_nhận . Máy OCT - A sử_dụng kỹ_thuật laser quét để ghi_nhận hình_ảnh các mạch_máu ở võng_mạc là lớp thần_kinh của mắt . Xét_nghiệm thực_hiện nhanh chỉ trong vòng 15 giây , người_bệnh chỉ cần nhìn vào tia hướng_dẫn trong máy như đo kính thông_thường . Ngoài_ra tia laser quét ở phổ hồng_ngoại có năng_lượng thấp không gây bất_cứ tổn_thương nào cho mắt của người_bệnh . Trước_đây để ghi_nhận được hình_ảnh các mạch_máu tương_tự thì phải tiêm thuốc cản_quang vào tĩnh_mạch người_bệnh và điều này tiềm_ẩn rủi_ro do thuốc gây ra . Người_bệnh cũng phải chịu hàng chục ...</code> |
409
+ | <code>Thế_nào là hở van tim 3 lá ?</code> | <code>Van 3 lá nằm giữa tâm_nhĩ phải và tâm_thất phải của tim , có tác_dụng cho máu lưu_thông theo một_chiều từ tâm_nhĩ xuống tâm_thất . Van 3 lá sẽ mở ra khi tâm_nhĩ co lại để bơm máu vào tâm_thất phải , van ba_lá đóng lại khi tâm_thất co tống máu vào động_mạch phổi , để có_thể ngăn dòng máu chảy ngược về tâm_nhĩ . Hở van tim 3 lá là tình_trạng van không đóng kín hoàn_toàn khi tâm_thất phải co lại , để bơm máu lên động_mạch phổi , khiến cho một phần máu bị trào ngược trở_lại thất phải . Khi có một lượng máu chảy ngược trở_lại tâm_nhĩ thì tâm_nhĩ phải cần phải hoạt_động nhiều hơn và trở_nên to ra , lâu dần gây suy chức_năng tim phải và gây ra nhiều biến_chứng như suy tim , rung nhĩ ... Hở van ba_lá tùy theo mức_độ mà được chia thành 4 mức_độ khác nhau : Hở van tim tim 3 lá 1 / 4 : Mức_độ hở van ba_lá nhẹ nhất , thông_thường còn được gọi là hở van sinh_lý , có_thể gặp ở nhiều người khỏe mạnh bình_thường . Hở van 2 lá 2 / 4 : Mức_độ hở van trung_bình và cần tiến_hành điều_trị khi thấy có các t...</code> | <code>Trang_chủ Bệnh tim_mạch Bệnh_lý về van tim Hở van tim 3 lá Hở van tim 3 lá là gì ? 19 / 04 / 2016 534 luợt xem Hở van tim 3 lá là gì , hậu_quả hở van tim 3 lá như thế_nào và hở van tim 3 lá cần lưu_ý những gì là những vấn_đề mọi người cần trang_bị cho mình những kiến_thức cần_thiết để biết cách đối_phó với căn_bệnh nguy_hiểm này . Van tim 3 lá bị hở cần được phát_hiện sớm và điều_trị hiệu_quả . Khi hai tâm_thất bóp ( thời_kỳ tâm thu ) thì van 2 lá và van 3 lá đóng kín , đồng_thời van động_mạch chủ và van động_mạch phổi mở để đẩy máu lên phổi và đưa máu giàu ôxy tới nuôi các tế_bào . Khi tâm_nhĩ nghỉ ( thời_kỳ tâm trương ) , 2 van động_mạch chủ và phổi đóng kín để máu không chảy ngược_lại tâm_thất được . Chúng_ta có_thể coi các van tim là những cánh cửa , khi mở ra cho máu chảy một_chiều , khi đóng lại giữ máu không chảy ngược_lại được . Van tim 3 lá là van tim thông giữa tâm_nhĩ phải và tâm_thất phải . Nếu van 3 lá bị hở , người_ta gọi là bệnh hở van tim 3 lá . Nguyên_nhân hở van tim 3...</code> |
410
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
411
+ ```json
412
+ {
413
+ "scale": 20.0,
414
+ "similarity_fct": "cos_sim"
415
+ }
416
+ ```
417
+
418
+ ### Training Hyperparameters
419
+ #### Non-Default Hyperparameters
420
+
421
+ - `per_device_train_batch_size`: 128
422
+ - `learning_rate`: 0.0001
423
+ - `weight_decay`: 0.1
424
+ - `num_train_epochs`: 1
425
+ - `warmup_ratio`: 0.1
426
+ - `fp16`: True
427
+ - `batch_sampler`: no_duplicates
428
+
429
+ #### All Hyperparameters
430
+ <details><summary>Click to expand</summary>
431
+
432
+ - `overwrite_output_dir`: False
433
+ - `do_predict`: False
434
+ - `eval_strategy`: no
435
+ - `prediction_loss_only`: True
436
+ - `per_device_train_batch_size`: 128
437
+ - `per_device_eval_batch_size`: 8
438
+ - `per_gpu_train_batch_size`: None
439
+ - `per_gpu_eval_batch_size`: None
440
+ - `gradient_accumulation_steps`: 1
441
+ - `eval_accumulation_steps`: None
442
+ - `torch_empty_cache_steps`: None
443
+ - `learning_rate`: 0.0001
444
+ - `weight_decay`: 0.1
445
+ - `adam_beta1`: 0.9
446
+ - `adam_beta2`: 0.999
447
+ - `adam_epsilon`: 1e-08
448
+ - `max_grad_norm`: 1.0
449
+ - `num_train_epochs`: 1
450
+ - `max_steps`: -1
451
+ - `lr_scheduler_type`: linear
452
+ - `lr_scheduler_kwargs`: {}
453
+ - `warmup_ratio`: 0.1
454
+ - `warmup_steps`: 0
455
+ - `log_level`: passive
456
+ - `log_level_replica`: warning
457
+ - `log_on_each_node`: True
458
+ - `logging_nan_inf_filter`: True
459
+ - `save_safetensors`: True
460
+ - `save_on_each_node`: False
461
+ - `save_only_model`: False
462
+ - `restore_callback_states_from_checkpoint`: False
463
+ - `no_cuda`: False
464
+ - `use_cpu`: False
465
+ - `use_mps_device`: False
466
+ - `seed`: 42
467
+ - `data_seed`: None
468
+ - `jit_mode_eval`: False
469
+ - `use_ipex`: False
470
+ - `bf16`: False
471
+ - `fp16`: True
472
+ - `fp16_opt_level`: O1
473
+ - `half_precision_backend`: auto
474
+ - `bf16_full_eval`: False
475
+ - `fp16_full_eval`: False
476
+ - `tf32`: None
477
+ - `local_rank`: 0
478
+ - `ddp_backend`: None
479
+ - `tpu_num_cores`: None
480
+ - `tpu_metrics_debug`: False
481
+ - `debug`: []
482
+ - `dataloader_drop_last`: False
483
+ - `dataloader_num_workers`: 0
484
+ - `dataloader_prefetch_factor`: None
485
+ - `past_index`: -1
486
+ - `disable_tqdm`: False
487
+ - `remove_unused_columns`: True
488
+ - `label_names`: None
489
+ - `load_best_model_at_end`: False
490
+ - `ignore_data_skip`: False
491
+ - `fsdp`: []
492
+ - `fsdp_min_num_params`: 0
493
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
494
+ - `fsdp_transformer_layer_cls_to_wrap`: None
495
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
496
+ - `deepspeed`: None
497
+ - `label_smoothing_factor`: 0.0
498
+ - `optim`: adamw_torch
499
+ - `optim_args`: None
500
+ - `adafactor`: False
501
+ - `group_by_length`: False
502
+ - `length_column_name`: length
503
+ - `ddp_find_unused_parameters`: None
504
+ - `ddp_bucket_cap_mb`: None
505
+ - `ddp_broadcast_buffers`: False
506
+ - `dataloader_pin_memory`: True
507
+ - `dataloader_persistent_workers`: False
508
+ - `skip_memory_metrics`: True
509
+ - `use_legacy_prediction_loop`: False
510
+ - `push_to_hub`: False
511
+ - `resume_from_checkpoint`: None
512
+ - `hub_model_id`: None
513
+ - `hub_strategy`: every_save
514
+ - `hub_private_repo`: None
515
+ - `hub_always_push`: False
516
+ - `gradient_checkpointing`: False
517
+ - `gradient_checkpointing_kwargs`: None
518
+ - `include_inputs_for_metrics`: False
519
+ - `include_for_metrics`: []
520
+ - `eval_do_concat_batches`: True
521
+ - `fp16_backend`: auto
522
+ - `push_to_hub_model_id`: None
523
+ - `push_to_hub_organization`: None
524
+ - `mp_parameters`:
525
+ - `auto_find_batch_size`: False
526
+ - `full_determinism`: False
527
+ - `torchdynamo`: None
528
+ - `ray_scope`: last
529
+ - `ddp_timeout`: 1800
530
+ - `torch_compile`: False
531
+ - `torch_compile_backend`: None
532
+ - `torch_compile_mode`: None
533
+ - `dispatch_batches`: None
534
+ - `split_batches`: None
535
+ - `include_tokens_per_second`: False
536
+ - `include_num_input_tokens_seen`: False
537
+ - `neftune_noise_alpha`: None
538
+ - `optim_target_modules`: None
539
+ - `batch_eval_metrics`: False
540
+ - `eval_on_start`: False
541
+ - `use_liger_kernel`: False
542
+ - `eval_use_gather_object`: False
543
+ - `average_tokens_across_devices`: False
544
+ - `prompts`: None
545
+ - `batch_sampler`: no_duplicates
546
+ - `multi_dataset_batch_sampler`: proportional
547
+
548
+ </details>
549
+
550
+ ### Training Logs
551
+ <details><summary>Click to expand</summary>
552
+
553
+ | Epoch | Step | Training Loss |
554
+ |:------:|:----:|:-------------:|
555
+ | 0.0062 | 50 | 3.345 |
556
+ | 0.0124 | 100 | 0.8099 |
557
+ | 0.0186 | 150 | 0.3079 |
558
+ | 0.0248 | 200 | 0.2089 |
559
+ | 0.0310 | 250 | 0.1961 |
560
+ | 0.0372 | 300 | 0.186 |
561
+ | 0.0434 | 350 | 0.1607 |
562
+ | 0.0496 | 400 | 0.1483 |
563
+ | 0.0558 | 450 | 0.1391 |
564
+ | 0.0620 | 500 | 0.1343 |
565
+ | 0.0682 | 550 | 0.1235 |
566
+ | 0.0743 | 600 | 0.1222 |
567
+ | 0.0805 | 650 | 0.1186 |
568
+ | 0.0867 | 700 | 0.128 |
569
+ | 0.0929 | 750 | 0.1145 |
570
+ | 0.0991 | 800 | 0.1153 |
571
+ | 0.1053 | 850 | 0.1143 |
572
+ | 0.1115 | 900 | 0.1099 |
573
+ | 0.1177 | 950 | 0.1018 |
574
+ | 0.1239 | 1000 | 0.1079 |
575
+ | 0.1301 | 1050 | 0.0982 |
576
+ | 0.1363 | 1100 | 0.0949 |
577
+ | 0.1425 | 1150 | 0.0945 |
578
+ | 0.1487 | 1200 | 0.0952 |
579
+ | 0.1549 | 1250 | 0.1162 |
580
+ | 0.1611 | 1300 | 0.0965 |
581
+ | 0.1673 | 1350 | 0.0847 |
582
+ | 0.1735 | 1400 | 0.0916 |
583
+ | 0.1797 | 1450 | 0.0821 |
584
+ | 0.1859 | 1500 | 0.0693 |
585
+ | 0.1921 | 1550 | 0.0753 |
586
+ | 0.1983 | 1600 | 0.072 |
587
+ | 0.2045 | 1650 | 0.0718 |
588
+ | 0.2107 | 1700 | 0.0715 |
589
+ | 0.2169 | 1750 | 0.0711 |
590
+ | 0.2230 | 1800 | 0.0731 |
591
+ | 0.2292 | 1850 | 0.0636 |
592
+ | 0.2354 | 1900 | 0.076 |
593
+ | 0.2416 | 1950 | 0.06 |
594
+ | 0.2478 | 2000 | 0.0582 |
595
+ | 0.2540 | 2050 | 0.056 |
596
+ | 0.2602 | 2100 | 0.0539 |
597
+ | 0.2664 | 2150 | 0.0548 |
598
+ | 0.2726 | 2200 | 0.0522 |
599
+ | 0.2788 | 2250 | 0.0429 |
600
+ | 0.2850 | 2300 | 0.0543 |
601
+ | 0.2912 | 2350 | 0.055 |
602
+ | 0.2974 | 2400 | 0.0449 |
603
+ | 0.3036 | 2450 | 0.0526 |
604
+ | 0.3098 | 2500 | 0.0432 |
605
+ | 0.3160 | 2550 | 0.0513 |
606
+ | 0.3222 | 2600 | 0.0478 |
607
+ | 0.3284 | 2650 | 0.041 |
608
+ | 0.3346 | 2700 | 0.0455 |
609
+ | 0.3408 | 2750 | 0.0515 |
610
+ | 0.3470 | 2800 | 0.0455 |
611
+ | 0.3532 | 2850 | 0.0429 |
612
+ | 0.3594 | 2900 | 0.037 |
613
+ | 0.3656 | 2950 | 0.0329 |
614
+ | 0.3717 | 3000 | 0.0381 |
615
+ | 0.3779 | 3050 | 0.0381 |
616
+ | 0.3841 | 3100 | 0.0373 |
617
+ | 0.3903 | 3150 | 0.0405 |
618
+ | 0.3965 | 3200 | 0.0344 |
619
+ | 0.4027 | 3250 | 0.0345 |
620
+ | 0.4089 | 3300 | 0.0327 |
621
+ | 0.4151 | 3350 | 0.0271 |
622
+ | 0.4213 | 3400 | 0.0314 |
623
+ | 0.4275 | 3450 | 0.0352 |
624
+ | 0.4337 | 3500 | 0.0262 |
625
+ | 0.4399 | 3550 | 0.0295 |
626
+ | 0.4461 | 3600 | 0.0284 |
627
+ | 0.4523 | 3650 | 0.0248 |
628
+ | 0.4585 | 3700 | 0.0239 |
629
+ | 0.4647 | 3750 | 0.0272 |
630
+ | 0.4709 | 3800 | 0.0253 |
631
+ | 0.4771 | 3850 | 0.0288 |
632
+ | 0.4833 | 3900 | 0.0267 |
633
+ | 0.4895 | 3950 | 0.027 |
634
+ | 0.4957 | 4000 | 0.0233 |
635
+ | 0.5019 | 4050 | 0.0237 |
636
+ | 0.5081 | 4100 | 0.0224 |
637
+ | 0.5143 | 4150 | 0.0252 |
638
+ | 0.5204 | 4200 | 0.0228 |
639
+ | 0.5266 | 4250 | 0.0243 |
640
+ | 0.5328 | 4300 | 0.0269 |
641
+ | 0.5390 | 4350 | 0.0228 |
642
+ | 0.5452 | 4400 | 0.0219 |
643
+ | 0.5514 | 4450 | 0.0215 |
644
+ | 0.5576 | 4500 | 0.0242 |
645
+ | 0.5638 | 4550 | 0.0199 |
646
+ | 0.5700 | 4600 | 0.0196 |
647
+ | 0.5762 | 4650 | 0.0171 |
648
+ | 0.5824 | 4700 | 0.0161 |
649
+ | 0.5886 | 4750 | 0.0182 |
650
+ | 0.5948 | 4800 | 0.019 |
651
+ | 0.6010 | 4850 | 0.0192 |
652
+ | 0.6072 | 4900 | 0.018 |
653
+ | 0.6134 | 4950 | 0.016 |
654
+ | 0.6196 | 5000 | 0.0167 |
655
+ | 0.6258 | 5050 | 0.0155 |
656
+ | 0.6320 | 5100 | 0.0151 |
657
+ | 0.6382 | 5150 | 0.0169 |
658
+ | 0.6444 | 5200 | 0.0151 |
659
+ | 0.6506 | 5250 | 0.0152 |
660
+ | 0.6568 | 5300 | 0.0141 |
661
+ | 0.6629 | 5350 | 0.0167 |
662
+ | 0.6691 | 5400 | 0.0159 |
663
+ | 0.6753 | 5450 | 0.0163 |
664
+ | 0.6815 | 5500 | 0.0153 |
665
+ | 0.6877 | 5550 | 0.0122 |
666
+ | 0.6939 | 5600 | 0.016 |
667
+ | 0.7001 | 5650 | 0.0169 |
668
+ | 0.7063 | 5700 | 0.0132 |
669
+ | 0.7125 | 5750 | 0.0129 |
670
+ | 0.7187 | 5800 | 0.0128 |
671
+ | 0.7249 | 5850 | 0.0119 |
672
+ | 0.7311 | 5900 | 0.0118 |
673
+ | 0.7373 | 5950 | 0.0138 |
674
+ | 0.7435 | 6000 | 0.0123 |
675
+ | 0.7497 | 6050 | 0.0104 |
676
+ | 0.7559 | 6100 | 0.0147 |
677
+ | 0.7621 | 6150 | 0.0102 |
678
+ | 0.7683 | 6200 | 0.0125 |
679
+ | 0.7745 | 6250 | 0.0133 |
680
+ | 0.7807 | 6300 | 0.0134 |
681
+ | 0.7869 | 6350 | 0.0125 |
682
+ | 0.7931 | 6400 | 0.0119 |
683
+ | 0.7993 | 6450 | 0.0134 |
684
+ | 0.8055 | 6500 | 0.0144 |
685
+ | 0.8116 | 6550 | 0.0119 |
686
+ | 0.8178 | 6600 | 0.0109 |
687
+ | 0.8240 | 6650 | 0.0098 |
688
+ | 0.8302 | 6700 | 0.0115 |
689
+ | 0.8364 | 6750 | 0.0127 |
690
+ | 0.8426 | 6800 | 0.0102 |
691
+ | 0.8488 | 6850 | 0.011 |
692
+ | 0.8550 | 6900 | 0.0114 |
693
+ | 0.8612 | 6950 | 0.0116 |
694
+ | 0.8674 | 7000 | 0.0102 |
695
+ | 0.8736 | 7050 | 0.0104 |
696
+ | 0.8798 | 7100 | 0.0098 |
697
+ | 0.8860 | 7150 | 0.01 |
698
+ | 0.8922 | 7200 | 0.01 |
699
+ | 0.8984 | 7250 | 0.0085 |
700
+ | 0.9046 | 7300 | 0.0106 |
701
+ | 0.9108 | 7350 | 0.0085 |
702
+ | 0.9170 | 7400 | 0.0092 |
703
+ | 0.9232 | 7450 | 0.0095 |
704
+ | 0.9294 | 7500 | 0.0099 |
705
+ | 0.9356 | 7550 | 0.0113 |
706
+ | 0.9418 | 7600 | 0.0077 |
707
+ | 0.9480 | 7650 | 0.0095 |
708
+ | 0.9542 | 7700 | 0.0077 |
709
+ | 0.9603 | 7750 | 0.0089 |
710
+ | 0.9665 | 7800 | 0.009 |
711
+ | 0.9727 | 7850 | 0.0077 |
712
+ | 0.9789 | 7900 | 0.0101 |
713
+ | 0.9851 | 7950 | 0.0088 |
714
+ | 0.9913 | 8000 | 0.0098 |
715
+ | 0.9975 | 8050 | 0.0102 |
716
+
717
+ </details>
718
+
719
+ ### Framework Versions
720
+ - Python: 3.10.13
721
+ - Sentence Transformers: 3.3.1
722
+ - Transformers: 4.47.1
723
+ - PyTorch: 2.2.0
724
+ - Accelerate: 0.26.0
725
+ - Datasets: 3.2.0
726
+ - Tokenizers: 0.21.0
727
+
728
+ ## Citation
729
+
730
+ ### BibTeX
731
+
732
+ #### Sentence Transformers
733
+ ```bibtex
734
+ @inproceedings{reimers-2019-sentence-bert,
735
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
736
+ author = "Reimers, Nils and Gurevych, Iryna",
737
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
738
+ month = "11",
739
+ year = "2019",
740
+ publisher = "Association for Computational Linguistics",
741
+ url = "https://arxiv.org/abs/1908.10084",
742
+ }
743
+ ```
744
+
745
+ #### MultipleNegativesRankingLoss
746
+ ```bibtex
747
+ @misc{henderson2017efficient,
748
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
749
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
750
+ year={2017},
751
+ eprint={1705.00652},
752
+ archivePrefix={arXiv},
753
+ primaryClass={cs.CL}
754
+ }
755
+ ```
756
+
757
+ <!--
758
+ ## Glossary
759
+
760
+ *Clearly define terms in order to be accessible across audiences.*
761
+ -->
762
+
763
+ <!--
764
+ ## Model Card Authors
765
+
766
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
767
+ -->
768
+
769
+ <!--
770
+ ## Model Card Contact
771
+
772
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
773
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "vinai/phobert-base-v2",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.47.1",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.47.1",
5
+ "pytorch": "2.2.0"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8011ac8a7a7cca5af16ec8af683b61f4af80e25f38845e1c0a9cfef06516d82f
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e3c78ab291461c5bb81ce74cac40a81470708b06a22f8a4a9fa92602471751fa
3
+ size 1075426234
rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e3461834138ec87caf0f66bc8c9f4d66a914e3e303b9cbdec352bcc469dbe636
3
+ size 14244
scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c98cd14055412be06675f14a4e028118585f12f41701c3642c54881d7494e6db
3
+ size 1064
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 1000000000000000019884624838656,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "PhobertTokenizer",
54
+ "unk_token": "<unk>"
55
+ }
trainer_state.json ADDED
@@ -0,0 +1,1160 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": null,
3
+ "best_model_checkpoint": null,
4
+ "epoch": 1.0,
5
+ "eval_steps": 500,
6
+ "global_step": 8070,
7
+ "is_hyper_param_search": false,
8
+ "is_local_process_zero": true,
9
+ "is_world_process_zero": true,
10
+ "log_history": [
11
+ {
12
+ "epoch": 0.006195786864931847,
13
+ "grad_norm": 11.78878402709961,
14
+ "learning_rate": 5.947955390334573e-06,
15
+ "loss": 3.345,
16
+ "step": 50
17
+ },
18
+ {
19
+ "epoch": 0.012391573729863693,
20
+ "grad_norm": 5.766342639923096,
21
+ "learning_rate": 1.2019826517967782e-05,
22
+ "loss": 0.8099,
23
+ "step": 100
24
+ },
25
+ {
26
+ "epoch": 0.01858736059479554,
27
+ "grad_norm": 3.6993865966796875,
28
+ "learning_rate": 1.821561338289963e-05,
29
+ "loss": 0.3079,
30
+ "step": 150
31
+ },
32
+ {
33
+ "epoch": 0.024783147459727387,
34
+ "grad_norm": 3.7327823638916016,
35
+ "learning_rate": 2.4411400247831474e-05,
36
+ "loss": 0.2089,
37
+ "step": 200
38
+ },
39
+ {
40
+ "epoch": 0.030978934324659233,
41
+ "grad_norm": 3.176992416381836,
42
+ "learning_rate": 3.0607187112763326e-05,
43
+ "loss": 0.1961,
44
+ "step": 250
45
+ },
46
+ {
47
+ "epoch": 0.03717472118959108,
48
+ "grad_norm": 3.009659767150879,
49
+ "learning_rate": 3.667905824039653e-05,
50
+ "loss": 0.186,
51
+ "step": 300
52
+ },
53
+ {
54
+ "epoch": 0.04337050805452292,
55
+ "grad_norm": 3.961405038833618,
56
+ "learning_rate": 4.287484510532838e-05,
57
+ "loss": 0.1607,
58
+ "step": 350
59
+ },
60
+ {
61
+ "epoch": 0.04956629491945477,
62
+ "grad_norm": 2.818254232406616,
63
+ "learning_rate": 4.907063197026023e-05,
64
+ "loss": 0.1483,
65
+ "step": 400
66
+ },
67
+ {
68
+ "epoch": 0.055762081784386616,
69
+ "grad_norm": 1.836232304573059,
70
+ "learning_rate": 5.526641883519207e-05,
71
+ "loss": 0.1391,
72
+ "step": 450
73
+ },
74
+ {
75
+ "epoch": 0.061957868649318466,
76
+ "grad_norm": 2.5643157958984375,
77
+ "learning_rate": 6.146220570012391e-05,
78
+ "loss": 0.1343,
79
+ "step": 500
80
+ },
81
+ {
82
+ "epoch": 0.06815365551425032,
83
+ "grad_norm": 2.9712822437286377,
84
+ "learning_rate": 6.765799256505576e-05,
85
+ "loss": 0.1235,
86
+ "step": 550
87
+ },
88
+ {
89
+ "epoch": 0.07434944237918216,
90
+ "grad_norm": 3.6296300888061523,
91
+ "learning_rate": 7.385377942998762e-05,
92
+ "loss": 0.1222,
93
+ "step": 600
94
+ },
95
+ {
96
+ "epoch": 0.080545229244114,
97
+ "grad_norm": 10.417726516723633,
98
+ "learning_rate": 8.004956629491945e-05,
99
+ "loss": 0.1186,
100
+ "step": 650
101
+ },
102
+ {
103
+ "epoch": 0.08674101610904585,
104
+ "grad_norm": 2.5631349086761475,
105
+ "learning_rate": 8.624535315985131e-05,
106
+ "loss": 0.128,
107
+ "step": 700
108
+ },
109
+ {
110
+ "epoch": 0.09293680297397769,
111
+ "grad_norm": 1.6498531103134155,
112
+ "learning_rate": 9.244114002478316e-05,
113
+ "loss": 0.1145,
114
+ "step": 750
115
+ },
116
+ {
117
+ "epoch": 0.09913258983890955,
118
+ "grad_norm": 2.1243278980255127,
119
+ "learning_rate": 9.8636926889715e-05,
120
+ "loss": 0.1153,
121
+ "step": 800
122
+ },
123
+ {
124
+ "epoch": 0.10532837670384139,
125
+ "grad_norm": 1.869721531867981,
126
+ "learning_rate": 9.946303180503924e-05,
127
+ "loss": 0.1143,
128
+ "step": 850
129
+ },
130
+ {
131
+ "epoch": 0.11152416356877323,
132
+ "grad_norm": 1.236275315284729,
133
+ "learning_rate": 9.877461104226904e-05,
134
+ "loss": 0.1099,
135
+ "step": 900
136
+ },
137
+ {
138
+ "epoch": 0.11771995043370508,
139
+ "grad_norm": 2.4983303546905518,
140
+ "learning_rate": 9.808619027949883e-05,
141
+ "loss": 0.1018,
142
+ "step": 950
143
+ },
144
+ {
145
+ "epoch": 0.12391573729863693,
146
+ "grad_norm": 1.4123425483703613,
147
+ "learning_rate": 9.739776951672863e-05,
148
+ "loss": 0.1079,
149
+ "step": 1000
150
+ },
151
+ {
152
+ "epoch": 0.13011152416356878,
153
+ "grad_norm": 2.497483253479004,
154
+ "learning_rate": 9.670934875395842e-05,
155
+ "loss": 0.0982,
156
+ "step": 1050
157
+ },
158
+ {
159
+ "epoch": 0.13630731102850063,
160
+ "grad_norm": 1.100753903388977,
161
+ "learning_rate": 9.602092799118821e-05,
162
+ "loss": 0.0949,
163
+ "step": 1100
164
+ },
165
+ {
166
+ "epoch": 0.14250309789343246,
167
+ "grad_norm": 2.238828182220459,
168
+ "learning_rate": 9.533250722841801e-05,
169
+ "loss": 0.0945,
170
+ "step": 1150
171
+ },
172
+ {
173
+ "epoch": 0.14869888475836432,
174
+ "grad_norm": 1.5351171493530273,
175
+ "learning_rate": 9.46440864656478e-05,
176
+ "loss": 0.0952,
177
+ "step": 1200
178
+ },
179
+ {
180
+ "epoch": 0.15489467162329615,
181
+ "grad_norm": 3.6645586490631104,
182
+ "learning_rate": 9.39556657028776e-05,
183
+ "loss": 0.1162,
184
+ "step": 1250
185
+ },
186
+ {
187
+ "epoch": 0.161090458488228,
188
+ "grad_norm": 2.153944730758667,
189
+ "learning_rate": 9.32672449401074e-05,
190
+ "loss": 0.0965,
191
+ "step": 1300
192
+ },
193
+ {
194
+ "epoch": 0.16728624535315986,
195
+ "grad_norm": 5.332737922668457,
196
+ "learning_rate": 9.25788241773372e-05,
197
+ "loss": 0.0847,
198
+ "step": 1350
199
+ },
200
+ {
201
+ "epoch": 0.1734820322180917,
202
+ "grad_norm": 1.9773648977279663,
203
+ "learning_rate": 9.189040341456699e-05,
204
+ "loss": 0.0916,
205
+ "step": 1400
206
+ },
207
+ {
208
+ "epoch": 0.17967781908302355,
209
+ "grad_norm": 1.072949767112732,
210
+ "learning_rate": 9.120198265179678e-05,
211
+ "loss": 0.0821,
212
+ "step": 1450
213
+ },
214
+ {
215
+ "epoch": 0.18587360594795538,
216
+ "grad_norm": 0.5937812924385071,
217
+ "learning_rate": 9.051356188902658e-05,
218
+ "loss": 0.0693,
219
+ "step": 1500
220
+ },
221
+ {
222
+ "epoch": 0.19206939281288724,
223
+ "grad_norm": 3.5840229988098145,
224
+ "learning_rate": 8.982514112625638e-05,
225
+ "loss": 0.0753,
226
+ "step": 1550
227
+ },
228
+ {
229
+ "epoch": 0.1982651796778191,
230
+ "grad_norm": 1.8539464473724365,
231
+ "learning_rate": 8.913672036348617e-05,
232
+ "loss": 0.072,
233
+ "step": 1600
234
+ },
235
+ {
236
+ "epoch": 0.20446096654275092,
237
+ "grad_norm": 1.8574514389038086,
238
+ "learning_rate": 8.844829960071597e-05,
239
+ "loss": 0.0718,
240
+ "step": 1650
241
+ },
242
+ {
243
+ "epoch": 0.21065675340768278,
244
+ "grad_norm": 2.465460777282715,
245
+ "learning_rate": 8.775987883794575e-05,
246
+ "loss": 0.0715,
247
+ "step": 1700
248
+ },
249
+ {
250
+ "epoch": 0.21685254027261464,
251
+ "grad_norm": 1.191398024559021,
252
+ "learning_rate": 8.707145807517555e-05,
253
+ "loss": 0.0711,
254
+ "step": 1750
255
+ },
256
+ {
257
+ "epoch": 0.22304832713754646,
258
+ "grad_norm": 1.4969195127487183,
259
+ "learning_rate": 8.638303731240535e-05,
260
+ "loss": 0.0731,
261
+ "step": 1800
262
+ },
263
+ {
264
+ "epoch": 0.22924411400247832,
265
+ "grad_norm": 1.8418350219726562,
266
+ "learning_rate": 8.569461654963514e-05,
267
+ "loss": 0.0636,
268
+ "step": 1850
269
+ },
270
+ {
271
+ "epoch": 0.23543990086741015,
272
+ "grad_norm": 2.362734794616699,
273
+ "learning_rate": 8.500619578686494e-05,
274
+ "loss": 0.076,
275
+ "step": 1900
276
+ },
277
+ {
278
+ "epoch": 0.241635687732342,
279
+ "grad_norm": 1.3227559328079224,
280
+ "learning_rate": 8.431777502409473e-05,
281
+ "loss": 0.06,
282
+ "step": 1950
283
+ },
284
+ {
285
+ "epoch": 0.24783147459727387,
286
+ "grad_norm": 2.1812291145324707,
287
+ "learning_rate": 8.362935426132452e-05,
288
+ "loss": 0.0582,
289
+ "step": 2000
290
+ },
291
+ {
292
+ "epoch": 0.2540272614622057,
293
+ "grad_norm": 0.8610977530479431,
294
+ "learning_rate": 8.294093349855432e-05,
295
+ "loss": 0.056,
296
+ "step": 2050
297
+ },
298
+ {
299
+ "epoch": 0.26022304832713755,
300
+ "grad_norm": 1.2188324928283691,
301
+ "learning_rate": 8.225251273578411e-05,
302
+ "loss": 0.0539,
303
+ "step": 2100
304
+ },
305
+ {
306
+ "epoch": 0.2664188351920694,
307
+ "grad_norm": 0.6571711301803589,
308
+ "learning_rate": 8.156409197301392e-05,
309
+ "loss": 0.0548,
310
+ "step": 2150
311
+ },
312
+ {
313
+ "epoch": 0.27261462205700127,
314
+ "grad_norm": 9.587064743041992,
315
+ "learning_rate": 8.08756712102437e-05,
316
+ "loss": 0.0522,
317
+ "step": 2200
318
+ },
319
+ {
320
+ "epoch": 0.2788104089219331,
321
+ "grad_norm": 1.4897613525390625,
322
+ "learning_rate": 8.018725044747349e-05,
323
+ "loss": 0.0429,
324
+ "step": 2250
325
+ },
326
+ {
327
+ "epoch": 0.2850061957868649,
328
+ "grad_norm": 1.3524194955825806,
329
+ "learning_rate": 7.94988296847033e-05,
330
+ "loss": 0.0543,
331
+ "step": 2300
332
+ },
333
+ {
334
+ "epoch": 0.29120198265179675,
335
+ "grad_norm": 0.49432888627052307,
336
+ "learning_rate": 7.88241773371885e-05,
337
+ "loss": 0.055,
338
+ "step": 2350
339
+ },
340
+ {
341
+ "epoch": 0.29739776951672864,
342
+ "grad_norm": 1.082529902458191,
343
+ "learning_rate": 7.813575657441828e-05,
344
+ "loss": 0.0449,
345
+ "step": 2400
346
+ },
347
+ {
348
+ "epoch": 0.30359355638166047,
349
+ "grad_norm": 3.580268144607544,
350
+ "learning_rate": 7.744733581164808e-05,
351
+ "loss": 0.0526,
352
+ "step": 2450
353
+ },
354
+ {
355
+ "epoch": 0.3097893432465923,
356
+ "grad_norm": 3.7611606121063232,
357
+ "learning_rate": 7.675891504887788e-05,
358
+ "loss": 0.0432,
359
+ "step": 2500
360
+ },
361
+ {
362
+ "epoch": 0.3159851301115242,
363
+ "grad_norm": 3.605032205581665,
364
+ "learning_rate": 7.607049428610767e-05,
365
+ "loss": 0.0513,
366
+ "step": 2550
367
+ },
368
+ {
369
+ "epoch": 0.322180916976456,
370
+ "grad_norm": 0.8407074809074402,
371
+ "learning_rate": 7.538207352333747e-05,
372
+ "loss": 0.0478,
373
+ "step": 2600
374
+ },
375
+ {
376
+ "epoch": 0.32837670384138784,
377
+ "grad_norm": 1.2463380098342896,
378
+ "learning_rate": 7.469365276056726e-05,
379
+ "loss": 0.041,
380
+ "step": 2650
381
+ },
382
+ {
383
+ "epoch": 0.3345724907063197,
384
+ "grad_norm": 1.2079633474349976,
385
+ "learning_rate": 7.400523199779705e-05,
386
+ "loss": 0.0455,
387
+ "step": 2700
388
+ },
389
+ {
390
+ "epoch": 0.34076827757125155,
391
+ "grad_norm": 1.7008190155029297,
392
+ "learning_rate": 7.331681123502685e-05,
393
+ "loss": 0.0515,
394
+ "step": 2750
395
+ },
396
+ {
397
+ "epoch": 0.3469640644361834,
398
+ "grad_norm": 0.6003010272979736,
399
+ "learning_rate": 7.262839047225664e-05,
400
+ "loss": 0.0455,
401
+ "step": 2800
402
+ },
403
+ {
404
+ "epoch": 0.35315985130111527,
405
+ "grad_norm": 0.7806116342544556,
406
+ "learning_rate": 7.193996970948645e-05,
407
+ "loss": 0.0429,
408
+ "step": 2850
409
+ },
410
+ {
411
+ "epoch": 0.3593556381660471,
412
+ "grad_norm": 1.190233826637268,
413
+ "learning_rate": 7.125154894671623e-05,
414
+ "loss": 0.037,
415
+ "step": 2900
416
+ },
417
+ {
418
+ "epoch": 0.3655514250309789,
419
+ "grad_norm": 0.49826720356941223,
420
+ "learning_rate": 7.056312818394602e-05,
421
+ "loss": 0.0329,
422
+ "step": 2950
423
+ },
424
+ {
425
+ "epoch": 0.37174721189591076,
426
+ "grad_norm": 1.38163423538208,
427
+ "learning_rate": 6.987470742117583e-05,
428
+ "loss": 0.0381,
429
+ "step": 3000
430
+ },
431
+ {
432
+ "epoch": 0.37794299876084264,
433
+ "grad_norm": 0.6930022835731506,
434
+ "learning_rate": 6.918628665840562e-05,
435
+ "loss": 0.0381,
436
+ "step": 3050
437
+ },
438
+ {
439
+ "epoch": 0.38413878562577447,
440
+ "grad_norm": 0.3004520535469055,
441
+ "learning_rate": 6.849786589563542e-05,
442
+ "loss": 0.0373,
443
+ "step": 3100
444
+ },
445
+ {
446
+ "epoch": 0.3903345724907063,
447
+ "grad_norm": 1.0762969255447388,
448
+ "learning_rate": 6.78094451328652e-05,
449
+ "loss": 0.0405,
450
+ "step": 3150
451
+ },
452
+ {
453
+ "epoch": 0.3965303593556382,
454
+ "grad_norm": 0.9407225251197815,
455
+ "learning_rate": 6.712102437009501e-05,
456
+ "loss": 0.0344,
457
+ "step": 3200
458
+ },
459
+ {
460
+ "epoch": 0.40272614622057,
461
+ "grad_norm": 1.1790508031845093,
462
+ "learning_rate": 6.64326036073248e-05,
463
+ "loss": 0.0345,
464
+ "step": 3250
465
+ },
466
+ {
467
+ "epoch": 0.40892193308550184,
468
+ "grad_norm": 0.6774219274520874,
469
+ "learning_rate": 6.574418284455459e-05,
470
+ "loss": 0.0327,
471
+ "step": 3300
472
+ },
473
+ {
474
+ "epoch": 0.41511771995043373,
475
+ "grad_norm": 0.5361367464065552,
476
+ "learning_rate": 6.505576208178439e-05,
477
+ "loss": 0.0271,
478
+ "step": 3350
479
+ },
480
+ {
481
+ "epoch": 0.42131350681536556,
482
+ "grad_norm": 0.2760148048400879,
483
+ "learning_rate": 6.436734131901418e-05,
484
+ "loss": 0.0314,
485
+ "step": 3400
486
+ },
487
+ {
488
+ "epoch": 0.4275092936802974,
489
+ "grad_norm": 0.7887628674507141,
490
+ "learning_rate": 6.367892055624398e-05,
491
+ "loss": 0.0352,
492
+ "step": 3450
493
+ },
494
+ {
495
+ "epoch": 0.43370508054522927,
496
+ "grad_norm": 1.0329231023788452,
497
+ "learning_rate": 6.299049979347378e-05,
498
+ "loss": 0.0262,
499
+ "step": 3500
500
+ },
501
+ {
502
+ "epoch": 0.4399008674101611,
503
+ "grad_norm": 0.9285022020339966,
504
+ "learning_rate": 6.230207903070356e-05,
505
+ "loss": 0.0295,
506
+ "step": 3550
507
+ },
508
+ {
509
+ "epoch": 0.44609665427509293,
510
+ "grad_norm": 0.23095445334911346,
511
+ "learning_rate": 6.161365826793336e-05,
512
+ "loss": 0.0284,
513
+ "step": 3600
514
+ },
515
+ {
516
+ "epoch": 0.45229244114002476,
517
+ "grad_norm": 0.42350977659225464,
518
+ "learning_rate": 6.092523750516316e-05,
519
+ "loss": 0.0248,
520
+ "step": 3650
521
+ },
522
+ {
523
+ "epoch": 0.45848822800495664,
524
+ "grad_norm": 0.9503557085990906,
525
+ "learning_rate": 6.023681674239295e-05,
526
+ "loss": 0.0239,
527
+ "step": 3700
528
+ },
529
+ {
530
+ "epoch": 0.4646840148698885,
531
+ "grad_norm": 1.4695123434066772,
532
+ "learning_rate": 5.954839597962275e-05,
533
+ "loss": 0.0272,
534
+ "step": 3750
535
+ },
536
+ {
537
+ "epoch": 0.4708798017348203,
538
+ "grad_norm": 0.835435688495636,
539
+ "learning_rate": 5.8859975216852544e-05,
540
+ "loss": 0.0253,
541
+ "step": 3800
542
+ },
543
+ {
544
+ "epoch": 0.4770755885997522,
545
+ "grad_norm": 0.8063173294067383,
546
+ "learning_rate": 5.817155445408233e-05,
547
+ "loss": 0.0288,
548
+ "step": 3850
549
+ },
550
+ {
551
+ "epoch": 0.483271375464684,
552
+ "grad_norm": 0.5583626627922058,
553
+ "learning_rate": 5.748313369131213e-05,
554
+ "loss": 0.0267,
555
+ "step": 3900
556
+ },
557
+ {
558
+ "epoch": 0.48946716232961585,
559
+ "grad_norm": 0.3900113105773926,
560
+ "learning_rate": 5.6794712928541925e-05,
561
+ "loss": 0.027,
562
+ "step": 3950
563
+ },
564
+ {
565
+ "epoch": 0.49566294919454773,
566
+ "grad_norm": 0.684743344783783,
567
+ "learning_rate": 5.610629216577172e-05,
568
+ "loss": 0.0233,
569
+ "step": 4000
570
+ },
571
+ {
572
+ "epoch": 0.5018587360594795,
573
+ "grad_norm": 1.3466298580169678,
574
+ "learning_rate": 5.541787140300152e-05,
575
+ "loss": 0.0237,
576
+ "step": 4050
577
+ },
578
+ {
579
+ "epoch": 0.5080545229244114,
580
+ "grad_norm": 0.814662754535675,
581
+ "learning_rate": 5.472945064023132e-05,
582
+ "loss": 0.0224,
583
+ "step": 4100
584
+ },
585
+ {
586
+ "epoch": 0.5142503097893433,
587
+ "grad_norm": 0.20325958728790283,
588
+ "learning_rate": 5.40410298774611e-05,
589
+ "loss": 0.0252,
590
+ "step": 4150
591
+ },
592
+ {
593
+ "epoch": 0.5204460966542751,
594
+ "grad_norm": 0.9722644686698914,
595
+ "learning_rate": 5.3352609114690896e-05,
596
+ "loss": 0.0228,
597
+ "step": 4200
598
+ },
599
+ {
600
+ "epoch": 0.5266418835192069,
601
+ "grad_norm": 0.8962277770042419,
602
+ "learning_rate": 5.26641883519207e-05,
603
+ "loss": 0.0243,
604
+ "step": 4250
605
+ },
606
+ {
607
+ "epoch": 0.5328376703841388,
608
+ "grad_norm": 0.8505231738090515,
609
+ "learning_rate": 5.1975767589150495e-05,
610
+ "loss": 0.0269,
611
+ "step": 4300
612
+ },
613
+ {
614
+ "epoch": 0.5390334572490706,
615
+ "grad_norm": 1.4101253747940063,
616
+ "learning_rate": 5.128734682638029e-05,
617
+ "loss": 0.0228,
618
+ "step": 4350
619
+ },
620
+ {
621
+ "epoch": 0.5452292441140025,
622
+ "grad_norm": 1.0223798751831055,
623
+ "learning_rate": 5.0598926063610086e-05,
624
+ "loss": 0.0219,
625
+ "step": 4400
626
+ },
627
+ {
628
+ "epoch": 0.5514250309789344,
629
+ "grad_norm": 0.3649487793445587,
630
+ "learning_rate": 4.9910505300839875e-05,
631
+ "loss": 0.0215,
632
+ "step": 4450
633
+ },
634
+ {
635
+ "epoch": 0.5576208178438662,
636
+ "grad_norm": 0.467814564704895,
637
+ "learning_rate": 4.922208453806967e-05,
638
+ "loss": 0.0242,
639
+ "step": 4500
640
+ },
641
+ {
642
+ "epoch": 0.563816604708798,
643
+ "grad_norm": 1.218153953552246,
644
+ "learning_rate": 4.8533663775299466e-05,
645
+ "loss": 0.0199,
646
+ "step": 4550
647
+ },
648
+ {
649
+ "epoch": 0.5700123915737298,
650
+ "grad_norm": 0.2747304141521454,
651
+ "learning_rate": 4.784524301252926e-05,
652
+ "loss": 0.0196,
653
+ "step": 4600
654
+ },
655
+ {
656
+ "epoch": 0.5762081784386617,
657
+ "grad_norm": 0.572721004486084,
658
+ "learning_rate": 4.715682224975905e-05,
659
+ "loss": 0.0171,
660
+ "step": 4650
661
+ },
662
+ {
663
+ "epoch": 0.5824039653035935,
664
+ "grad_norm": 0.48146089911460876,
665
+ "learning_rate": 4.646840148698885e-05,
666
+ "loss": 0.0161,
667
+ "step": 4700
668
+ },
669
+ {
670
+ "epoch": 0.5885997521685254,
671
+ "grad_norm": 0.3745860457420349,
672
+ "learning_rate": 4.577998072421865e-05,
673
+ "loss": 0.0182,
674
+ "step": 4750
675
+ },
676
+ {
677
+ "epoch": 0.5947955390334573,
678
+ "grad_norm": 0.5441644191741943,
679
+ "learning_rate": 4.509155996144844e-05,
680
+ "loss": 0.019,
681
+ "step": 4800
682
+ },
683
+ {
684
+ "epoch": 0.6009913258983891,
685
+ "grad_norm": 0.39052465558052063,
686
+ "learning_rate": 4.4403139198678234e-05,
687
+ "loss": 0.0192,
688
+ "step": 4850
689
+ },
690
+ {
691
+ "epoch": 0.6071871127633209,
692
+ "grad_norm": 0.2999328672885895,
693
+ "learning_rate": 4.371471843590803e-05,
694
+ "loss": 0.018,
695
+ "step": 4900
696
+ },
697
+ {
698
+ "epoch": 0.6133828996282528,
699
+ "grad_norm": 0.5317378044128418,
700
+ "learning_rate": 4.3026297673137825e-05,
701
+ "loss": 0.016,
702
+ "step": 4950
703
+ },
704
+ {
705
+ "epoch": 0.6195786864931846,
706
+ "grad_norm": 1.1451416015625,
707
+ "learning_rate": 4.233787691036762e-05,
708
+ "loss": 0.0167,
709
+ "step": 5000
710
+ },
711
+ {
712
+ "epoch": 0.6257744733581165,
713
+ "grad_norm": 1.846800684928894,
714
+ "learning_rate": 4.164945614759742e-05,
715
+ "loss": 0.0155,
716
+ "step": 5050
717
+ },
718
+ {
719
+ "epoch": 0.6319702602230484,
720
+ "grad_norm": 0.2182386815547943,
721
+ "learning_rate": 4.0961035384827206e-05,
722
+ "loss": 0.0151,
723
+ "step": 5100
724
+ },
725
+ {
726
+ "epoch": 0.6381660470879802,
727
+ "grad_norm": 0.6467189788818359,
728
+ "learning_rate": 4.0272614622057e-05,
729
+ "loss": 0.0169,
730
+ "step": 5150
731
+ },
732
+ {
733
+ "epoch": 0.644361833952912,
734
+ "grad_norm": 1.209778070449829,
735
+ "learning_rate": 3.95841938592868e-05,
736
+ "loss": 0.0151,
737
+ "step": 5200
738
+ },
739
+ {
740
+ "epoch": 0.6505576208178439,
741
+ "grad_norm": 0.8446183204650879,
742
+ "learning_rate": 3.889577309651659e-05,
743
+ "loss": 0.0152,
744
+ "step": 5250
745
+ },
746
+ {
747
+ "epoch": 0.6567534076827757,
748
+ "grad_norm": 1.0092103481292725,
749
+ "learning_rate": 3.820735233374639e-05,
750
+ "loss": 0.0141,
751
+ "step": 5300
752
+ },
753
+ {
754
+ "epoch": 0.6629491945477075,
755
+ "grad_norm": 0.4524877369403839,
756
+ "learning_rate": 3.7518931570976184e-05,
757
+ "loss": 0.0167,
758
+ "step": 5350
759
+ },
760
+ {
761
+ "epoch": 0.6691449814126395,
762
+ "grad_norm": 0.09342479705810547,
763
+ "learning_rate": 3.683051080820597e-05,
764
+ "loss": 0.0159,
765
+ "step": 5400
766
+ },
767
+ {
768
+ "epoch": 0.6753407682775713,
769
+ "grad_norm": 0.5114253759384155,
770
+ "learning_rate": 3.6142090045435776e-05,
771
+ "loss": 0.0163,
772
+ "step": 5450
773
+ },
774
+ {
775
+ "epoch": 0.6815365551425031,
776
+ "grad_norm": 0.1552111655473709,
777
+ "learning_rate": 3.545366928266557e-05,
778
+ "loss": 0.0153,
779
+ "step": 5500
780
+ },
781
+ {
782
+ "epoch": 0.6877323420074349,
783
+ "grad_norm": 0.7425574064254761,
784
+ "learning_rate": 3.476524851989536e-05,
785
+ "loss": 0.0122,
786
+ "step": 5550
787
+ },
788
+ {
789
+ "epoch": 0.6939281288723668,
790
+ "grad_norm": 0.43186843395233154,
791
+ "learning_rate": 3.4076827757125156e-05,
792
+ "loss": 0.016,
793
+ "step": 5600
794
+ },
795
+ {
796
+ "epoch": 0.7001239157372986,
797
+ "grad_norm": 0.7145938277244568,
798
+ "learning_rate": 3.338840699435495e-05,
799
+ "loss": 0.0169,
800
+ "step": 5650
801
+ },
802
+ {
803
+ "epoch": 0.7063197026022305,
804
+ "grad_norm": 0.09214766323566437,
805
+ "learning_rate": 3.269998623158475e-05,
806
+ "loss": 0.0132,
807
+ "step": 5700
808
+ },
809
+ {
810
+ "epoch": 0.7125154894671624,
811
+ "grad_norm": 1.138299584388733,
812
+ "learning_rate": 3.201156546881454e-05,
813
+ "loss": 0.0129,
814
+ "step": 5750
815
+ },
816
+ {
817
+ "epoch": 0.7187112763320942,
818
+ "grad_norm": 1.3126403093338013,
819
+ "learning_rate": 3.132314470604434e-05,
820
+ "loss": 0.0128,
821
+ "step": 5800
822
+ },
823
+ {
824
+ "epoch": 0.724907063197026,
825
+ "grad_norm": 1.0886186361312866,
826
+ "learning_rate": 3.063472394327413e-05,
827
+ "loss": 0.0119,
828
+ "step": 5850
829
+ },
830
+ {
831
+ "epoch": 0.7311028500619579,
832
+ "grad_norm": 0.23192736506462097,
833
+ "learning_rate": 2.9946303180503927e-05,
834
+ "loss": 0.0118,
835
+ "step": 5900
836
+ },
837
+ {
838
+ "epoch": 0.7372986369268897,
839
+ "grad_norm": 0.9914634227752686,
840
+ "learning_rate": 2.9257882417733723e-05,
841
+ "loss": 0.0138,
842
+ "step": 5950
843
+ },
844
+ {
845
+ "epoch": 0.7434944237918215,
846
+ "grad_norm": 0.29283687472343445,
847
+ "learning_rate": 2.8569461654963515e-05,
848
+ "loss": 0.0123,
849
+ "step": 6000
850
+ },
851
+ {
852
+ "epoch": 0.7496902106567535,
853
+ "grad_norm": 0.9173604249954224,
854
+ "learning_rate": 2.788104089219331e-05,
855
+ "loss": 0.0104,
856
+ "step": 6050
857
+ },
858
+ {
859
+ "epoch": 0.7558859975216853,
860
+ "grad_norm": 0.35434839129447937,
861
+ "learning_rate": 2.7192620129423103e-05,
862
+ "loss": 0.0147,
863
+ "step": 6100
864
+ },
865
+ {
866
+ "epoch": 0.7620817843866171,
867
+ "grad_norm": 0.18677830696105957,
868
+ "learning_rate": 2.65041993666529e-05,
869
+ "loss": 0.0102,
870
+ "step": 6150
871
+ },
872
+ {
873
+ "epoch": 0.7682775712515489,
874
+ "grad_norm": 0.28843411803245544,
875
+ "learning_rate": 2.5815778603882695e-05,
876
+ "loss": 0.0125,
877
+ "step": 6200
878
+ },
879
+ {
880
+ "epoch": 0.7744733581164808,
881
+ "grad_norm": 0.5970668792724609,
882
+ "learning_rate": 2.5127357841112487e-05,
883
+ "loss": 0.0133,
884
+ "step": 6250
885
+ },
886
+ {
887
+ "epoch": 0.7806691449814126,
888
+ "grad_norm": 0.4063868224620819,
889
+ "learning_rate": 2.4438937078342283e-05,
890
+ "loss": 0.0134,
891
+ "step": 6300
892
+ },
893
+ {
894
+ "epoch": 0.7868649318463445,
895
+ "grad_norm": 0.7077623605728149,
896
+ "learning_rate": 2.375051631557208e-05,
897
+ "loss": 0.0125,
898
+ "step": 6350
899
+ },
900
+ {
901
+ "epoch": 0.7930607187112764,
902
+ "grad_norm": 0.056457001715898514,
903
+ "learning_rate": 2.3062095552801874e-05,
904
+ "loss": 0.0119,
905
+ "step": 6400
906
+ },
907
+ {
908
+ "epoch": 0.7992565055762082,
909
+ "grad_norm": 0.0479193776845932,
910
+ "learning_rate": 2.2373674790031666e-05,
911
+ "loss": 0.0134,
912
+ "step": 6450
913
+ },
914
+ {
915
+ "epoch": 0.80545229244114,
916
+ "grad_norm": 0.2201872020959854,
917
+ "learning_rate": 2.1685254027261465e-05,
918
+ "loss": 0.0144,
919
+ "step": 6500
920
+ },
921
+ {
922
+ "epoch": 0.8116480793060719,
923
+ "grad_norm": 0.24738062918186188,
924
+ "learning_rate": 2.0996833264491258e-05,
925
+ "loss": 0.0119,
926
+ "step": 6550
927
+ },
928
+ {
929
+ "epoch": 0.8178438661710037,
930
+ "grad_norm": 0.38614606857299805,
931
+ "learning_rate": 2.0308412501721053e-05,
932
+ "loss": 0.0109,
933
+ "step": 6600
934
+ },
935
+ {
936
+ "epoch": 0.8240396530359355,
937
+ "grad_norm": 0.05887860804796219,
938
+ "learning_rate": 1.9619991738950846e-05,
939
+ "loss": 0.0098,
940
+ "step": 6650
941
+ },
942
+ {
943
+ "epoch": 0.8302354399008675,
944
+ "grad_norm": 0.7075309753417969,
945
+ "learning_rate": 1.893157097618064e-05,
946
+ "loss": 0.0115,
947
+ "step": 6700
948
+ },
949
+ {
950
+ "epoch": 0.8364312267657993,
951
+ "grad_norm": 0.39252975583076477,
952
+ "learning_rate": 1.8243150213410437e-05,
953
+ "loss": 0.0127,
954
+ "step": 6750
955
+ },
956
+ {
957
+ "epoch": 0.8426270136307311,
958
+ "grad_norm": 0.4794786870479584,
959
+ "learning_rate": 1.755472945064023e-05,
960
+ "loss": 0.0102,
961
+ "step": 6800
962
+ },
963
+ {
964
+ "epoch": 0.8488228004956629,
965
+ "grad_norm": 0.39937812089920044,
966
+ "learning_rate": 1.686630868787003e-05,
967
+ "loss": 0.011,
968
+ "step": 6850
969
+ },
970
+ {
971
+ "epoch": 0.8550185873605948,
972
+ "grad_norm": 0.7926356792449951,
973
+ "learning_rate": 1.617788792509982e-05,
974
+ "loss": 0.0114,
975
+ "step": 6900
976
+ },
977
+ {
978
+ "epoch": 0.8612143742255266,
979
+ "grad_norm": 1.0466240644454956,
980
+ "learning_rate": 1.5489467162329617e-05,
981
+ "loss": 0.0116,
982
+ "step": 6950
983
+ },
984
+ {
985
+ "epoch": 0.8674101610904585,
986
+ "grad_norm": 0.6414132714271545,
987
+ "learning_rate": 1.4801046399559412e-05,
988
+ "loss": 0.0102,
989
+ "step": 7000
990
+ },
991
+ {
992
+ "epoch": 0.8736059479553904,
993
+ "grad_norm": 0.8947381377220154,
994
+ "learning_rate": 1.4112625636789206e-05,
995
+ "loss": 0.0104,
996
+ "step": 7050
997
+ },
998
+ {
999
+ "epoch": 0.8798017348203222,
1000
+ "grad_norm": 0.8255850076675415,
1001
+ "learning_rate": 1.3424204874019e-05,
1002
+ "loss": 0.0098,
1003
+ "step": 7100
1004
+ },
1005
+ {
1006
+ "epoch": 0.885997521685254,
1007
+ "grad_norm": 0.16911354660987854,
1008
+ "learning_rate": 1.2735784111248796e-05,
1009
+ "loss": 0.01,
1010
+ "step": 7150
1011
+ },
1012
+ {
1013
+ "epoch": 0.8921933085501859,
1014
+ "grad_norm": 0.04949663579463959,
1015
+ "learning_rate": 1.204736334847859e-05,
1016
+ "loss": 0.01,
1017
+ "step": 7200
1018
+ },
1019
+ {
1020
+ "epoch": 0.8983890954151177,
1021
+ "grad_norm": 0.3117857277393341,
1022
+ "learning_rate": 1.1358942585708386e-05,
1023
+ "loss": 0.0085,
1024
+ "step": 7250
1025
+ },
1026
+ {
1027
+ "epoch": 0.9045848822800495,
1028
+ "grad_norm": 0.38259008526802063,
1029
+ "learning_rate": 1.067052182293818e-05,
1030
+ "loss": 0.0106,
1031
+ "step": 7300
1032
+ },
1033
+ {
1034
+ "epoch": 0.9107806691449815,
1035
+ "grad_norm": 0.423921138048172,
1036
+ "learning_rate": 9.982101060167976e-06,
1037
+ "loss": 0.0085,
1038
+ "step": 7350
1039
+ },
1040
+ {
1041
+ "epoch": 0.9169764560099133,
1042
+ "grad_norm": 0.2425990253686905,
1043
+ "learning_rate": 9.29368029739777e-06,
1044
+ "loss": 0.0092,
1045
+ "step": 7400
1046
+ },
1047
+ {
1048
+ "epoch": 0.9231722428748451,
1049
+ "grad_norm": 0.17992499470710754,
1050
+ "learning_rate": 8.605259534627565e-06,
1051
+ "loss": 0.0095,
1052
+ "step": 7450
1053
+ },
1054
+ {
1055
+ "epoch": 0.929368029739777,
1056
+ "grad_norm": 0.634684681892395,
1057
+ "learning_rate": 7.91683877185736e-06,
1058
+ "loss": 0.0099,
1059
+ "step": 7500
1060
+ },
1061
+ {
1062
+ "epoch": 0.9355638166047088,
1063
+ "grad_norm": 0.92573481798172,
1064
+ "learning_rate": 7.228418009087154e-06,
1065
+ "loss": 0.0113,
1066
+ "step": 7550
1067
+ },
1068
+ {
1069
+ "epoch": 0.9417596034696406,
1070
+ "grad_norm": 0.07547607272863388,
1071
+ "learning_rate": 6.539997246316949e-06,
1072
+ "loss": 0.0077,
1073
+ "step": 7600
1074
+ },
1075
+ {
1076
+ "epoch": 0.9479553903345725,
1077
+ "grad_norm": 0.8026949167251587,
1078
+ "learning_rate": 5.851576483546744e-06,
1079
+ "loss": 0.0095,
1080
+ "step": 7650
1081
+ },
1082
+ {
1083
+ "epoch": 0.9541511771995044,
1084
+ "grad_norm": 0.40003785490989685,
1085
+ "learning_rate": 5.163155720776539e-06,
1086
+ "loss": 0.0077,
1087
+ "step": 7700
1088
+ },
1089
+ {
1090
+ "epoch": 0.9603469640644362,
1091
+ "grad_norm": 0.1786423921585083,
1092
+ "learning_rate": 4.474734958006334e-06,
1093
+ "loss": 0.0089,
1094
+ "step": 7750
1095
+ },
1096
+ {
1097
+ "epoch": 0.966542750929368,
1098
+ "grad_norm": 1.094724416732788,
1099
+ "learning_rate": 3.7863141952361286e-06,
1100
+ "loss": 0.009,
1101
+ "step": 7800
1102
+ },
1103
+ {
1104
+ "epoch": 0.9727385377942999,
1105
+ "grad_norm": 0.7275987863540649,
1106
+ "learning_rate": 3.0978934324659235e-06,
1107
+ "loss": 0.0077,
1108
+ "step": 7850
1109
+ },
1110
+ {
1111
+ "epoch": 0.9789343246592317,
1112
+ "grad_norm": 0.17183449864387512,
1113
+ "learning_rate": 2.409472669695718e-06,
1114
+ "loss": 0.0101,
1115
+ "step": 7900
1116
+ },
1117
+ {
1118
+ "epoch": 0.9851301115241635,
1119
+ "grad_norm": 0.138813316822052,
1120
+ "learning_rate": 1.721051906925513e-06,
1121
+ "loss": 0.0088,
1122
+ "step": 7950
1123
+ },
1124
+ {
1125
+ "epoch": 0.9913258983890955,
1126
+ "grad_norm": 0.39123526215553284,
1127
+ "learning_rate": 1.0326311441553077e-06,
1128
+ "loss": 0.0098,
1129
+ "step": 8000
1130
+ },
1131
+ {
1132
+ "epoch": 0.9975216852540273,
1133
+ "grad_norm": 0.0659351795911789,
1134
+ "learning_rate": 3.442103813851026e-07,
1135
+ "loss": 0.0102,
1136
+ "step": 8050
1137
+ }
1138
+ ],
1139
+ "logging_steps": 50,
1140
+ "max_steps": 8070,
1141
+ "num_input_tokens_seen": 0,
1142
+ "num_train_epochs": 1,
1143
+ "save_steps": 100,
1144
+ "stateful_callbacks": {
1145
+ "TrainerControl": {
1146
+ "args": {
1147
+ "should_epoch_stop": false,
1148
+ "should_evaluate": false,
1149
+ "should_log": false,
1150
+ "should_save": true,
1151
+ "should_training_stop": true
1152
+ },
1153
+ "attributes": {}
1154
+ }
1155
+ },
1156
+ "total_flos": 0.0,
1157
+ "train_batch_size": 128,
1158
+ "trial_name": null,
1159
+ "trial_params": null
1160
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:499ebc2395cf3cb41e71c7e6d079b89028b0947d84c3224b685f3d629fd6af93
3
+ size 5560
vocab.txt ADDED
The diff for this file is too large to render. See raw diff