cilorku's picture
Training in progress, step 150, checkpoint
abade49 verified
raw
history blame
27.5 kB
{
"best_metric": 0.5722422003746033,
"best_model_checkpoint": "miner_id_24/checkpoint-150",
"epoch": 0.07116593523899893,
"eval_steps": 50,
"global_step": 150,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.0004744395682599929,
"grad_norm": 1.1011534929275513,
"learning_rate": 3.3333333333333335e-07,
"loss": 0.7751,
"step": 1
},
{
"epoch": 0.0004744395682599929,
"eval_loss": 0.9001743793487549,
"eval_runtime": 843.3508,
"eval_samples_per_second": 8.419,
"eval_steps_per_second": 2.105,
"step": 1
},
{
"epoch": 0.0009488791365199858,
"grad_norm": 1.3106392621994019,
"learning_rate": 6.666666666666667e-07,
"loss": 0.8164,
"step": 2
},
{
"epoch": 0.0014233187047799788,
"grad_norm": 1.1848171949386597,
"learning_rate": 1.0000000000000002e-06,
"loss": 0.834,
"step": 3
},
{
"epoch": 0.0018977582730399715,
"grad_norm": 1.3275964260101318,
"learning_rate": 1.3333333333333334e-06,
"loss": 0.874,
"step": 4
},
{
"epoch": 0.0023721978412999645,
"grad_norm": 1.3640103340148926,
"learning_rate": 1.6666666666666667e-06,
"loss": 0.8872,
"step": 5
},
{
"epoch": 0.0028466374095599575,
"grad_norm": 1.7666573524475098,
"learning_rate": 2.0000000000000003e-06,
"loss": 0.9615,
"step": 6
},
{
"epoch": 0.00332107697781995,
"grad_norm": 1.5754951238632202,
"learning_rate": 2.3333333333333336e-06,
"loss": 0.9396,
"step": 7
},
{
"epoch": 0.003795516546079943,
"grad_norm": 1.599647879600525,
"learning_rate": 2.666666666666667e-06,
"loss": 0.9529,
"step": 8
},
{
"epoch": 0.004269956114339936,
"grad_norm": 1.6514160633087158,
"learning_rate": 3e-06,
"loss": 0.9763,
"step": 9
},
{
"epoch": 0.004744395682599929,
"grad_norm": 1.4871176481246948,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.954,
"step": 10
},
{
"epoch": 0.005218835250859922,
"grad_norm": 1.6975586414337158,
"learning_rate": 3.666666666666667e-06,
"loss": 0.9514,
"step": 11
},
{
"epoch": 0.005693274819119915,
"grad_norm": 1.614019513130188,
"learning_rate": 4.000000000000001e-06,
"loss": 0.9722,
"step": 12
},
{
"epoch": 0.006167714387379907,
"grad_norm": 1.4458463191986084,
"learning_rate": 4.333333333333334e-06,
"loss": 0.9372,
"step": 13
},
{
"epoch": 0.0066421539556399,
"grad_norm": 1.5191285610198975,
"learning_rate": 4.666666666666667e-06,
"loss": 0.9822,
"step": 14
},
{
"epoch": 0.007116593523899893,
"grad_norm": 1.5517295598983765,
"learning_rate": 5e-06,
"loss": 0.9747,
"step": 15
},
{
"epoch": 0.007591033092159886,
"grad_norm": 1.5122692584991455,
"learning_rate": 5.333333333333334e-06,
"loss": 0.9531,
"step": 16
},
{
"epoch": 0.008065472660419879,
"grad_norm": 1.5926417112350464,
"learning_rate": 5.666666666666667e-06,
"loss": 0.9896,
"step": 17
},
{
"epoch": 0.008539912228679872,
"grad_norm": 1.5614891052246094,
"learning_rate": 6e-06,
"loss": 1.0201,
"step": 18
},
{
"epoch": 0.009014351796939865,
"grad_norm": 1.648463487625122,
"learning_rate": 6.333333333333334e-06,
"loss": 1.0783,
"step": 19
},
{
"epoch": 0.009488791365199858,
"grad_norm": 1.677830696105957,
"learning_rate": 6.666666666666667e-06,
"loss": 1.0911,
"step": 20
},
{
"epoch": 0.009963230933459851,
"grad_norm": 1.4554977416992188,
"learning_rate": 7.000000000000001e-06,
"loss": 1.0418,
"step": 21
},
{
"epoch": 0.010437670501719844,
"grad_norm": 1.5130020380020142,
"learning_rate": 7.333333333333334e-06,
"loss": 1.0849,
"step": 22
},
{
"epoch": 0.010912110069979837,
"grad_norm": 1.5033063888549805,
"learning_rate": 7.666666666666667e-06,
"loss": 1.0362,
"step": 23
},
{
"epoch": 0.01138654963823983,
"grad_norm": 1.1862666606903076,
"learning_rate": 8.000000000000001e-06,
"loss": 0.9098,
"step": 24
},
{
"epoch": 0.011860989206499821,
"grad_norm": 1.6206886768341064,
"learning_rate": 8.333333333333334e-06,
"loss": 1.0731,
"step": 25
},
{
"epoch": 0.012335428774759814,
"grad_norm": 1.4080322980880737,
"learning_rate": 8.666666666666668e-06,
"loss": 1.0661,
"step": 26
},
{
"epoch": 0.012809868343019807,
"grad_norm": 1.200601577758789,
"learning_rate": 9e-06,
"loss": 0.9338,
"step": 27
},
{
"epoch": 0.0132843079112798,
"grad_norm": 1.1154807806015015,
"learning_rate": 9.333333333333334e-06,
"loss": 0.8724,
"step": 28
},
{
"epoch": 0.013758747479539793,
"grad_norm": 1.0023611783981323,
"learning_rate": 9.666666666666667e-06,
"loss": 0.8245,
"step": 29
},
{
"epoch": 0.014233187047799786,
"grad_norm": 0.8822727799415588,
"learning_rate": 1e-05,
"loss": 0.6384,
"step": 30
},
{
"epoch": 0.01470762661605978,
"grad_norm": 1.0753445625305176,
"learning_rate": 1.0333333333333333e-05,
"loss": 0.6262,
"step": 31
},
{
"epoch": 0.015182066184319772,
"grad_norm": 1.0272926092147827,
"learning_rate": 1.0666666666666667e-05,
"loss": 0.637,
"step": 32
},
{
"epoch": 0.015656505752579764,
"grad_norm": 1.097462773323059,
"learning_rate": 1.1000000000000001e-05,
"loss": 0.6295,
"step": 33
},
{
"epoch": 0.016130945320839758,
"grad_norm": 0.9121147394180298,
"learning_rate": 1.1333333333333334e-05,
"loss": 0.5959,
"step": 34
},
{
"epoch": 0.01660538488909975,
"grad_norm": 0.9392078518867493,
"learning_rate": 1.1666666666666668e-05,
"loss": 0.6206,
"step": 35
},
{
"epoch": 0.017079824457359744,
"grad_norm": 0.9847398400306702,
"learning_rate": 1.2e-05,
"loss": 0.6635,
"step": 36
},
{
"epoch": 0.017554264025619735,
"grad_norm": 0.9751656651496887,
"learning_rate": 1.2333333333333334e-05,
"loss": 0.584,
"step": 37
},
{
"epoch": 0.01802870359387973,
"grad_norm": 0.9086722731590271,
"learning_rate": 1.2666666666666668e-05,
"loss": 0.6111,
"step": 38
},
{
"epoch": 0.01850314316213972,
"grad_norm": 0.8567488789558411,
"learning_rate": 1.3000000000000001e-05,
"loss": 0.5712,
"step": 39
},
{
"epoch": 0.018977582730399716,
"grad_norm": 0.7811497449874878,
"learning_rate": 1.3333333333333333e-05,
"loss": 0.5872,
"step": 40
},
{
"epoch": 0.019452022298659707,
"grad_norm": 0.8421127796173096,
"learning_rate": 1.3666666666666666e-05,
"loss": 0.5367,
"step": 41
},
{
"epoch": 0.019926461866919702,
"grad_norm": 0.8142737746238708,
"learning_rate": 1.4000000000000001e-05,
"loss": 0.5787,
"step": 42
},
{
"epoch": 0.020400901435179693,
"grad_norm": 0.8048014640808105,
"learning_rate": 1.4333333333333334e-05,
"loss": 0.5632,
"step": 43
},
{
"epoch": 0.020875341003439688,
"grad_norm": 0.863360583782196,
"learning_rate": 1.4666666666666668e-05,
"loss": 0.5754,
"step": 44
},
{
"epoch": 0.02134978057169968,
"grad_norm": 0.8289929032325745,
"learning_rate": 1.5e-05,
"loss": 0.5561,
"step": 45
},
{
"epoch": 0.021824220139959674,
"grad_norm": 0.85724937915802,
"learning_rate": 1.5333333333333334e-05,
"loss": 0.5622,
"step": 46
},
{
"epoch": 0.022298659708219665,
"grad_norm": 0.8593965172767639,
"learning_rate": 1.5666666666666667e-05,
"loss": 0.5511,
"step": 47
},
{
"epoch": 0.02277309927647966,
"grad_norm": 1.0296480655670166,
"learning_rate": 1.6000000000000003e-05,
"loss": 0.5909,
"step": 48
},
{
"epoch": 0.02324753884473965,
"grad_norm": 0.7865881323814392,
"learning_rate": 1.6333333333333335e-05,
"loss": 0.5336,
"step": 49
},
{
"epoch": 0.023721978412999643,
"grad_norm": 0.9496569633483887,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.5838,
"step": 50
},
{
"epoch": 0.023721978412999643,
"eval_loss": 0.6891337037086487,
"eval_runtime": 847.2128,
"eval_samples_per_second": 8.38,
"eval_steps_per_second": 2.095,
"step": 50
},
{
"epoch": 0.024196417981259637,
"grad_norm": 0.8724004626274109,
"learning_rate": 1.7000000000000003e-05,
"loss": 0.6618,
"step": 51
},
{
"epoch": 0.02467085754951963,
"grad_norm": 1.0227757692337036,
"learning_rate": 1.7333333333333336e-05,
"loss": 0.6868,
"step": 52
},
{
"epoch": 0.025145297117779623,
"grad_norm": 1.042378544807434,
"learning_rate": 1.7666666666666668e-05,
"loss": 0.7535,
"step": 53
},
{
"epoch": 0.025619736686039615,
"grad_norm": 1.0859417915344238,
"learning_rate": 1.8e-05,
"loss": 0.7201,
"step": 54
},
{
"epoch": 0.02609417625429961,
"grad_norm": 0.9193178415298462,
"learning_rate": 1.8333333333333333e-05,
"loss": 0.6989,
"step": 55
},
{
"epoch": 0.0265686158225596,
"grad_norm": 0.9652199149131775,
"learning_rate": 1.866666666666667e-05,
"loss": 0.7242,
"step": 56
},
{
"epoch": 0.027043055390819595,
"grad_norm": 0.9476621150970459,
"learning_rate": 1.9e-05,
"loss": 0.7294,
"step": 57
},
{
"epoch": 0.027517494959079587,
"grad_norm": 0.8135749101638794,
"learning_rate": 1.9333333333333333e-05,
"loss": 0.6931,
"step": 58
},
{
"epoch": 0.02799193452733958,
"grad_norm": 0.8867154717445374,
"learning_rate": 1.9666666666666666e-05,
"loss": 0.7151,
"step": 59
},
{
"epoch": 0.028466374095599573,
"grad_norm": 0.8246985673904419,
"learning_rate": 2e-05,
"loss": 0.6985,
"step": 60
},
{
"epoch": 0.028940813663859567,
"grad_norm": 0.9400069117546082,
"learning_rate": 2.0333333333333334e-05,
"loss": 0.7583,
"step": 61
},
{
"epoch": 0.02941525323211956,
"grad_norm": 0.9306464791297913,
"learning_rate": 2.0666666666666666e-05,
"loss": 0.7102,
"step": 62
},
{
"epoch": 0.029889692800379553,
"grad_norm": 0.9207206964492798,
"learning_rate": 2.1e-05,
"loss": 0.7491,
"step": 63
},
{
"epoch": 0.030364132368639545,
"grad_norm": 0.894155740737915,
"learning_rate": 2.1333333333333335e-05,
"loss": 0.7253,
"step": 64
},
{
"epoch": 0.030838571936899536,
"grad_norm": 0.9724550843238831,
"learning_rate": 2.1666666666666667e-05,
"loss": 0.6927,
"step": 65
},
{
"epoch": 0.03131301150515953,
"grad_norm": 1.022789716720581,
"learning_rate": 2.2000000000000003e-05,
"loss": 0.6891,
"step": 66
},
{
"epoch": 0.03178745107341952,
"grad_norm": 1.0346360206604004,
"learning_rate": 2.2333333333333335e-05,
"loss": 0.6819,
"step": 67
},
{
"epoch": 0.032261890641679516,
"grad_norm": 1.0943830013275146,
"learning_rate": 2.2666666666666668e-05,
"loss": 0.649,
"step": 68
},
{
"epoch": 0.03273633020993951,
"grad_norm": 1.4495000839233398,
"learning_rate": 2.3000000000000003e-05,
"loss": 0.7443,
"step": 69
},
{
"epoch": 0.0332107697781995,
"grad_norm": 1.4373321533203125,
"learning_rate": 2.3333333333333336e-05,
"loss": 0.695,
"step": 70
},
{
"epoch": 0.033685209346459494,
"grad_norm": 1.4558850526809692,
"learning_rate": 2.3666666666666668e-05,
"loss": 0.7146,
"step": 71
},
{
"epoch": 0.03415964891471949,
"grad_norm": 1.4145175218582153,
"learning_rate": 2.4e-05,
"loss": 0.7443,
"step": 72
},
{
"epoch": 0.03463408848297948,
"grad_norm": 1.4205809831619263,
"learning_rate": 2.4333333333333336e-05,
"loss": 0.6662,
"step": 73
},
{
"epoch": 0.03510852805123947,
"grad_norm": 1.290022850036621,
"learning_rate": 2.466666666666667e-05,
"loss": 0.7065,
"step": 74
},
{
"epoch": 0.035582967619499466,
"grad_norm": 1.149020791053772,
"learning_rate": 2.5e-05,
"loss": 0.6644,
"step": 75
},
{
"epoch": 0.03605740718775946,
"grad_norm": 1.2090888023376465,
"learning_rate": 2.5333333333333337e-05,
"loss": 0.7048,
"step": 76
},
{
"epoch": 0.036531846756019455,
"grad_norm": 1.0506725311279297,
"learning_rate": 2.5666666666666666e-05,
"loss": 0.6499,
"step": 77
},
{
"epoch": 0.03700628632427944,
"grad_norm": 0.9727707505226135,
"learning_rate": 2.6000000000000002e-05,
"loss": 0.6037,
"step": 78
},
{
"epoch": 0.03748072589253944,
"grad_norm": 0.9653875231742859,
"learning_rate": 2.633333333333333e-05,
"loss": 0.5309,
"step": 79
},
{
"epoch": 0.03795516546079943,
"grad_norm": 0.9321266412734985,
"learning_rate": 2.6666666666666667e-05,
"loss": 0.52,
"step": 80
},
{
"epoch": 0.03842960502905942,
"grad_norm": 0.9468806385993958,
"learning_rate": 2.7000000000000002e-05,
"loss": 0.5323,
"step": 81
},
{
"epoch": 0.038904044597319415,
"grad_norm": 0.8491917848587036,
"learning_rate": 2.733333333333333e-05,
"loss": 0.5106,
"step": 82
},
{
"epoch": 0.03937848416557941,
"grad_norm": 0.7738452553749084,
"learning_rate": 2.7666666666666667e-05,
"loss": 0.5023,
"step": 83
},
{
"epoch": 0.039852923733839404,
"grad_norm": 0.8697175979614258,
"learning_rate": 2.8000000000000003e-05,
"loss": 0.5128,
"step": 84
},
{
"epoch": 0.04032736330209939,
"grad_norm": 0.8305590748786926,
"learning_rate": 2.8333333333333335e-05,
"loss": 0.5268,
"step": 85
},
{
"epoch": 0.04080180287035939,
"grad_norm": 0.7482445240020752,
"learning_rate": 2.8666666666666668e-05,
"loss": 0.5031,
"step": 86
},
{
"epoch": 0.04127624243861938,
"grad_norm": 0.7649620175361633,
"learning_rate": 2.9e-05,
"loss": 0.5165,
"step": 87
},
{
"epoch": 0.041750682006879376,
"grad_norm": 0.7447785139083862,
"learning_rate": 2.9333333333333336e-05,
"loss": 0.5376,
"step": 88
},
{
"epoch": 0.042225121575139364,
"grad_norm": 0.6879016160964966,
"learning_rate": 2.9666666666666672e-05,
"loss": 0.497,
"step": 89
},
{
"epoch": 0.04269956114339936,
"grad_norm": 0.6963317394256592,
"learning_rate": 3e-05,
"loss": 0.459,
"step": 90
},
{
"epoch": 0.043174000711659354,
"grad_norm": 0.8578452467918396,
"learning_rate": 3.0333333333333337e-05,
"loss": 0.5259,
"step": 91
},
{
"epoch": 0.04364844027991935,
"grad_norm": 0.8178767561912537,
"learning_rate": 3.066666666666667e-05,
"loss": 0.5095,
"step": 92
},
{
"epoch": 0.044122879848179336,
"grad_norm": 0.7515349388122559,
"learning_rate": 3.1e-05,
"loss": 0.5328,
"step": 93
},
{
"epoch": 0.04459731941643933,
"grad_norm": 0.8614064455032349,
"learning_rate": 3.1333333333333334e-05,
"loss": 0.5261,
"step": 94
},
{
"epoch": 0.045071758984699326,
"grad_norm": 0.743465781211853,
"learning_rate": 3.1666666666666666e-05,
"loss": 0.5333,
"step": 95
},
{
"epoch": 0.04554619855295932,
"grad_norm": 0.6975815296173096,
"learning_rate": 3.2000000000000005e-05,
"loss": 0.5108,
"step": 96
},
{
"epoch": 0.04602063812121931,
"grad_norm": 0.7408277988433838,
"learning_rate": 3.233333333333333e-05,
"loss": 0.5115,
"step": 97
},
{
"epoch": 0.0464950776894793,
"grad_norm": 0.6896212697029114,
"learning_rate": 3.266666666666667e-05,
"loss": 0.5285,
"step": 98
},
{
"epoch": 0.0469695172577393,
"grad_norm": 0.6541280746459961,
"learning_rate": 3.3e-05,
"loss": 0.5029,
"step": 99
},
{
"epoch": 0.047443956825999285,
"grad_norm": 0.774246335029602,
"learning_rate": 3.3333333333333335e-05,
"loss": 0.5129,
"step": 100
},
{
"epoch": 0.047443956825999285,
"eval_loss": 0.6152984499931335,
"eval_runtime": 848.275,
"eval_samples_per_second": 8.37,
"eval_steps_per_second": 2.092,
"step": 100
},
{
"epoch": 0.04791839639425928,
"grad_norm": 0.7622676491737366,
"learning_rate": 3.366666666666667e-05,
"loss": 0.606,
"step": 101
},
{
"epoch": 0.048392835962519275,
"grad_norm": 0.7645723819732666,
"learning_rate": 3.4000000000000007e-05,
"loss": 0.6439,
"step": 102
},
{
"epoch": 0.04886727553077927,
"grad_norm": 0.794933557510376,
"learning_rate": 3.433333333333333e-05,
"loss": 0.6248,
"step": 103
},
{
"epoch": 0.04934171509903926,
"grad_norm": 0.8379741311073303,
"learning_rate": 3.466666666666667e-05,
"loss": 0.6828,
"step": 104
},
{
"epoch": 0.04981615466729925,
"grad_norm": 0.7191290259361267,
"learning_rate": 3.5e-05,
"loss": 0.6195,
"step": 105
},
{
"epoch": 0.05029059423555925,
"grad_norm": 0.7295191287994385,
"learning_rate": 3.5333333333333336e-05,
"loss": 0.6372,
"step": 106
},
{
"epoch": 0.05076503380381924,
"grad_norm": 0.8286232948303223,
"learning_rate": 3.566666666666667e-05,
"loss": 0.6116,
"step": 107
},
{
"epoch": 0.05123947337207923,
"grad_norm": 0.7905992865562439,
"learning_rate": 3.6e-05,
"loss": 0.5729,
"step": 108
},
{
"epoch": 0.051713912940339224,
"grad_norm": 0.7963486313819885,
"learning_rate": 3.633333333333333e-05,
"loss": 0.5936,
"step": 109
},
{
"epoch": 0.05218835250859922,
"grad_norm": 0.7339712977409363,
"learning_rate": 3.6666666666666666e-05,
"loss": 0.5722,
"step": 110
},
{
"epoch": 0.05266279207685921,
"grad_norm": 0.796782910823822,
"learning_rate": 3.7e-05,
"loss": 0.5644,
"step": 111
},
{
"epoch": 0.0531372316451192,
"grad_norm": 0.9761651754379272,
"learning_rate": 3.733333333333334e-05,
"loss": 0.6047,
"step": 112
},
{
"epoch": 0.053611671213379196,
"grad_norm": 1.0321804285049438,
"learning_rate": 3.766666666666667e-05,
"loss": 0.5908,
"step": 113
},
{
"epoch": 0.05408611078163919,
"grad_norm": 1.0944875478744507,
"learning_rate": 3.8e-05,
"loss": 0.609,
"step": 114
},
{
"epoch": 0.05456055034989918,
"grad_norm": 0.9031066298484802,
"learning_rate": 3.8333333333333334e-05,
"loss": 0.5865,
"step": 115
},
{
"epoch": 0.05503498991815917,
"grad_norm": 0.9918826222419739,
"learning_rate": 3.866666666666667e-05,
"loss": 0.6191,
"step": 116
},
{
"epoch": 0.05550942948641917,
"grad_norm": 0.935981273651123,
"learning_rate": 3.9000000000000006e-05,
"loss": 0.5879,
"step": 117
},
{
"epoch": 0.05598386905467916,
"grad_norm": 1.0208978652954102,
"learning_rate": 3.933333333333333e-05,
"loss": 0.6392,
"step": 118
},
{
"epoch": 0.05645830862293915,
"grad_norm": 0.9402481913566589,
"learning_rate": 3.966666666666667e-05,
"loss": 0.6081,
"step": 119
},
{
"epoch": 0.056932748191199145,
"grad_norm": 0.9677188396453857,
"learning_rate": 4e-05,
"loss": 0.6061,
"step": 120
},
{
"epoch": 0.05740718775945914,
"grad_norm": 0.9563785791397095,
"learning_rate": 4.0333333333333336e-05,
"loss": 0.6148,
"step": 121
},
{
"epoch": 0.057881627327719135,
"grad_norm": 0.9848144054412842,
"learning_rate": 4.066666666666667e-05,
"loss": 0.5913,
"step": 122
},
{
"epoch": 0.05835606689597912,
"grad_norm": 1.0895841121673584,
"learning_rate": 4.1e-05,
"loss": 0.6033,
"step": 123
},
{
"epoch": 0.05883050646423912,
"grad_norm": 0.9529857635498047,
"learning_rate": 4.133333333333333e-05,
"loss": 0.6168,
"step": 124
},
{
"epoch": 0.05930494603249911,
"grad_norm": 0.9967851638793945,
"learning_rate": 4.166666666666667e-05,
"loss": 0.6192,
"step": 125
},
{
"epoch": 0.059779385600759107,
"grad_norm": 1.0510427951812744,
"learning_rate": 4.2e-05,
"loss": 0.6253,
"step": 126
},
{
"epoch": 0.060253825169019094,
"grad_norm": 1.0621651411056519,
"learning_rate": 4.233333333333334e-05,
"loss": 0.6501,
"step": 127
},
{
"epoch": 0.06072826473727909,
"grad_norm": 0.95118647813797,
"learning_rate": 4.266666666666667e-05,
"loss": 0.5404,
"step": 128
},
{
"epoch": 0.061202704305539084,
"grad_norm": 0.9522389769554138,
"learning_rate": 4.3e-05,
"loss": 0.5584,
"step": 129
},
{
"epoch": 0.06167714387379907,
"grad_norm": 0.9012666940689087,
"learning_rate": 4.3333333333333334e-05,
"loss": 0.5293,
"step": 130
},
{
"epoch": 0.062151583442059066,
"grad_norm": 0.7849039435386658,
"learning_rate": 4.3666666666666666e-05,
"loss": 0.5287,
"step": 131
},
{
"epoch": 0.06262602301031905,
"grad_norm": 0.7727446556091309,
"learning_rate": 4.4000000000000006e-05,
"loss": 0.4966,
"step": 132
},
{
"epoch": 0.06310046257857906,
"grad_norm": 0.7492961883544922,
"learning_rate": 4.433333333333334e-05,
"loss": 0.5113,
"step": 133
},
{
"epoch": 0.06357490214683904,
"grad_norm": 0.851240873336792,
"learning_rate": 4.466666666666667e-05,
"loss": 0.4814,
"step": 134
},
{
"epoch": 0.06404934171509905,
"grad_norm": 0.696323573589325,
"learning_rate": 4.5e-05,
"loss": 0.4951,
"step": 135
},
{
"epoch": 0.06452378128335903,
"grad_norm": 0.712622880935669,
"learning_rate": 4.5333333333333335e-05,
"loss": 0.4679,
"step": 136
},
{
"epoch": 0.06499822085161902,
"grad_norm": 0.6531604528427124,
"learning_rate": 4.566666666666667e-05,
"loss": 0.4736,
"step": 137
},
{
"epoch": 0.06547266041987902,
"grad_norm": 0.6559727787971497,
"learning_rate": 4.600000000000001e-05,
"loss": 0.4663,
"step": 138
},
{
"epoch": 0.06594709998813901,
"grad_norm": 0.7849781513214111,
"learning_rate": 4.633333333333333e-05,
"loss": 0.4749,
"step": 139
},
{
"epoch": 0.066421539556399,
"grad_norm": 0.6514148116111755,
"learning_rate": 4.666666666666667e-05,
"loss": 0.4433,
"step": 140
},
{
"epoch": 0.066895979124659,
"grad_norm": 0.7218091487884521,
"learning_rate": 4.7e-05,
"loss": 0.4618,
"step": 141
},
{
"epoch": 0.06737041869291899,
"grad_norm": 0.8696113228797913,
"learning_rate": 4.7333333333333336e-05,
"loss": 0.5214,
"step": 142
},
{
"epoch": 0.06784485826117899,
"grad_norm": 0.6764204502105713,
"learning_rate": 4.766666666666667e-05,
"loss": 0.4632,
"step": 143
},
{
"epoch": 0.06831929782943898,
"grad_norm": 0.6929240226745605,
"learning_rate": 4.8e-05,
"loss": 0.4505,
"step": 144
},
{
"epoch": 0.06879373739769896,
"grad_norm": 0.7792762517929077,
"learning_rate": 4.8333333333333334e-05,
"loss": 0.515,
"step": 145
},
{
"epoch": 0.06926817696595897,
"grad_norm": 0.7740099430084229,
"learning_rate": 4.866666666666667e-05,
"loss": 0.52,
"step": 146
},
{
"epoch": 0.06974261653421895,
"grad_norm": 0.6254486441612244,
"learning_rate": 4.9e-05,
"loss": 0.4599,
"step": 147
},
{
"epoch": 0.07021705610247894,
"grad_norm": 0.6425098776817322,
"learning_rate": 4.933333333333334e-05,
"loss": 0.4807,
"step": 148
},
{
"epoch": 0.07069149567073894,
"grad_norm": 0.6772657036781311,
"learning_rate": 4.966666666666667e-05,
"loss": 0.4762,
"step": 149
},
{
"epoch": 0.07116593523899893,
"grad_norm": 0.6634912490844727,
"learning_rate": 5e-05,
"loss": 0.476,
"step": 150
},
{
"epoch": 0.07116593523899893,
"eval_loss": 0.5722422003746033,
"eval_runtime": 847.2641,
"eval_samples_per_second": 8.38,
"eval_steps_per_second": 2.095,
"step": 150
}
],
"logging_steps": 1,
"max_steps": 200,
"num_input_tokens_seen": 0,
"num_train_epochs": 1,
"save_steps": 50,
"stateful_callbacks": {
"EarlyStoppingCallback": {
"args": {
"early_stopping_patience": 4,
"early_stopping_threshold": 0.0
},
"attributes": {
"early_stopping_patience_counter": 0
}
},
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 7.139320027215299e+17,
"train_batch_size": 8,
"trial_name": null,
"trial_params": null
}