ogulcanakca's picture
Uploading model
8bf52be verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 11250,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.02666666666666667,
"grad_norm": 4.86626672744751,
"learning_rate": 8.533333333333334e-07,
"loss": 8.0208,
"step": 100
},
{
"epoch": 0.05333333333333334,
"grad_norm": 3.3916521072387695,
"learning_rate": 1.7422222222222224e-06,
"loss": 5.8171,
"step": 200
},
{
"epoch": 0.08,
"grad_norm": 3.5112016201019287,
"learning_rate": 2.6311111111111115e-06,
"loss": 4.7527,
"step": 300
},
{
"epoch": 0.10666666666666667,
"grad_norm": 3.508920669555664,
"learning_rate": 3.52e-06,
"loss": 4.0662,
"step": 400
},
{
"epoch": 0.13333333333333333,
"grad_norm": 4.699676513671875,
"learning_rate": 4.408888888888889e-06,
"loss": 3.6461,
"step": 500
},
{
"epoch": 0.16,
"grad_norm": 4.627090930938721,
"learning_rate": 5.297777777777778e-06,
"loss": 3.3864,
"step": 600
},
{
"epoch": 0.18666666666666668,
"grad_norm": 4.664205074310303,
"learning_rate": 6.186666666666668e-06,
"loss": 3.1795,
"step": 700
},
{
"epoch": 0.21333333333333335,
"grad_norm": 4.104228973388672,
"learning_rate": 7.0755555555555565e-06,
"loss": 3.0256,
"step": 800
},
{
"epoch": 0.24,
"grad_norm": 3.472336530685425,
"learning_rate": 7.964444444444445e-06,
"loss": 2.9146,
"step": 900
},
{
"epoch": 0.26666666666666666,
"grad_norm": 4.164829254150391,
"learning_rate": 8.853333333333334e-06,
"loss": 2.7903,
"step": 1000
},
{
"epoch": 0.29333333333333333,
"grad_norm": 3.6888585090637207,
"learning_rate": 9.742222222222222e-06,
"loss": 2.7095,
"step": 1100
},
{
"epoch": 0.32,
"grad_norm": 3.9901719093322754,
"learning_rate": 9.929876543209878e-06,
"loss": 2.6091,
"step": 1200
},
{
"epoch": 0.3466666666666667,
"grad_norm": 4.848642826080322,
"learning_rate": 9.8320987654321e-06,
"loss": 2.525,
"step": 1300
},
{
"epoch": 0.37333333333333335,
"grad_norm": 3.7277579307556152,
"learning_rate": 9.733333333333334e-06,
"loss": 2.474,
"step": 1400
},
{
"epoch": 0.4,
"grad_norm": 5.541881084442139,
"learning_rate": 9.634567901234568e-06,
"loss": 2.4034,
"step": 1500
},
{
"epoch": 0.4266666666666667,
"grad_norm": 4.910915374755859,
"learning_rate": 9.535802469135803e-06,
"loss": 2.329,
"step": 1600
},
{
"epoch": 0.4533333333333333,
"grad_norm": 3.9040019512176514,
"learning_rate": 9.437037037037038e-06,
"loss": 2.2805,
"step": 1700
},
{
"epoch": 0.48,
"grad_norm": 4.538000583648682,
"learning_rate": 9.338271604938272e-06,
"loss": 2.2337,
"step": 1800
},
{
"epoch": 0.5066666666666667,
"grad_norm": 4.436681747436523,
"learning_rate": 9.239506172839507e-06,
"loss": 2.1707,
"step": 1900
},
{
"epoch": 0.5333333333333333,
"grad_norm": 3.9308009147644043,
"learning_rate": 9.140740740740741e-06,
"loss": 2.1456,
"step": 2000
},
{
"epoch": 0.56,
"grad_norm": 3.86208176612854,
"learning_rate": 9.041975308641976e-06,
"loss": 2.1016,
"step": 2100
},
{
"epoch": 0.5866666666666667,
"grad_norm": 3.7303709983825684,
"learning_rate": 8.94320987654321e-06,
"loss": 2.0947,
"step": 2200
},
{
"epoch": 0.6133333333333333,
"grad_norm": 3.9554977416992188,
"learning_rate": 8.844444444444445e-06,
"loss": 2.0326,
"step": 2300
},
{
"epoch": 0.64,
"grad_norm": 3.9618735313415527,
"learning_rate": 8.745679012345679e-06,
"loss": 2.0283,
"step": 2400
},
{
"epoch": 0.6666666666666666,
"grad_norm": 3.3923730850219727,
"learning_rate": 8.646913580246914e-06,
"loss": 1.9994,
"step": 2500
},
{
"epoch": 0.6933333333333334,
"grad_norm": 3.5262701511383057,
"learning_rate": 8.54814814814815e-06,
"loss": 1.9543,
"step": 2600
},
{
"epoch": 0.72,
"grad_norm": 3.634221076965332,
"learning_rate": 8.449382716049383e-06,
"loss": 1.9488,
"step": 2700
},
{
"epoch": 0.7466666666666667,
"grad_norm": 3.6543495655059814,
"learning_rate": 8.350617283950619e-06,
"loss": 1.9339,
"step": 2800
},
{
"epoch": 0.7733333333333333,
"grad_norm": 3.7309067249298096,
"learning_rate": 8.251851851851852e-06,
"loss": 1.882,
"step": 2900
},
{
"epoch": 0.8,
"grad_norm": 3.5877723693847656,
"learning_rate": 8.153086419753088e-06,
"loss": 1.8521,
"step": 3000
},
{
"epoch": 0.8266666666666667,
"grad_norm": 3.463477373123169,
"learning_rate": 8.054320987654321e-06,
"loss": 1.8491,
"step": 3100
},
{
"epoch": 0.8533333333333334,
"grad_norm": 3.7584869861602783,
"learning_rate": 7.955555555555557e-06,
"loss": 1.841,
"step": 3200
},
{
"epoch": 0.88,
"grad_norm": 3.6154866218566895,
"learning_rate": 7.856790123456792e-06,
"loss": 1.8371,
"step": 3300
},
{
"epoch": 0.9066666666666666,
"grad_norm": 3.6091232299804688,
"learning_rate": 7.758024691358026e-06,
"loss": 1.8111,
"step": 3400
},
{
"epoch": 0.9333333333333333,
"grad_norm": 3.884768009185791,
"learning_rate": 7.65925925925926e-06,
"loss": 1.7937,
"step": 3500
},
{
"epoch": 0.96,
"grad_norm": 4.100072860717773,
"learning_rate": 7.5604938271604946e-06,
"loss": 1.7838,
"step": 3600
},
{
"epoch": 0.9866666666666667,
"grad_norm": 3.37955641746521,
"learning_rate": 7.461728395061729e-06,
"loss": 1.7689,
"step": 3700
},
{
"epoch": 1.0133333333333334,
"grad_norm": 3.240987539291382,
"learning_rate": 7.3629629629629636e-06,
"loss": 1.7468,
"step": 3800
},
{
"epoch": 1.04,
"grad_norm": 3.664125919342041,
"learning_rate": 7.264197530864198e-06,
"loss": 1.7248,
"step": 3900
},
{
"epoch": 1.0666666666666667,
"grad_norm": 3.392308473587036,
"learning_rate": 7.1654320987654326e-06,
"loss": 1.7108,
"step": 4000
},
{
"epoch": 1.0933333333333333,
"grad_norm": 3.8562703132629395,
"learning_rate": 7.066666666666667e-06,
"loss": 1.7124,
"step": 4100
},
{
"epoch": 1.12,
"grad_norm": 7.625685214996338,
"learning_rate": 6.967901234567902e-06,
"loss": 1.6827,
"step": 4200
},
{
"epoch": 1.1466666666666667,
"grad_norm": 3.6525189876556396,
"learning_rate": 6.869135802469137e-06,
"loss": 1.6883,
"step": 4300
},
{
"epoch": 1.1733333333333333,
"grad_norm": 3.893947124481201,
"learning_rate": 6.7703703703703706e-06,
"loss": 1.6624,
"step": 4400
},
{
"epoch": 1.2,
"grad_norm": 3.3236780166625977,
"learning_rate": 6.671604938271605e-06,
"loss": 1.6615,
"step": 4500
},
{
"epoch": 1.2266666666666666,
"grad_norm": 3.5743353366851807,
"learning_rate": 6.57283950617284e-06,
"loss": 1.6507,
"step": 4600
},
{
"epoch": 1.2533333333333334,
"grad_norm": 3.5603439807891846,
"learning_rate": 6.474074074074075e-06,
"loss": 1.6587,
"step": 4700
},
{
"epoch": 1.28,
"grad_norm": 3.948760747909546,
"learning_rate": 6.375308641975309e-06,
"loss": 1.6183,
"step": 4800
},
{
"epoch": 1.3066666666666666,
"grad_norm": 3.4485912322998047,
"learning_rate": 6.276543209876543e-06,
"loss": 1.6288,
"step": 4900
},
{
"epoch": 1.3333333333333333,
"grad_norm": 3.2528655529022217,
"learning_rate": 6.177777777777778e-06,
"loss": 1.6272,
"step": 5000
},
{
"epoch": 1.3599999999999999,
"grad_norm": 3.571824073791504,
"learning_rate": 6.079012345679013e-06,
"loss": 1.6081,
"step": 5100
},
{
"epoch": 1.3866666666666667,
"grad_norm": 3.4644646644592285,
"learning_rate": 5.980246913580247e-06,
"loss": 1.6084,
"step": 5200
},
{
"epoch": 1.4133333333333333,
"grad_norm": 3.1932268142700195,
"learning_rate": 5.881481481481483e-06,
"loss": 1.59,
"step": 5300
},
{
"epoch": 1.44,
"grad_norm": 3.6251769065856934,
"learning_rate": 5.782716049382716e-06,
"loss": 1.6158,
"step": 5400
},
{
"epoch": 1.4666666666666668,
"grad_norm": 3.33617901802063,
"learning_rate": 5.683950617283951e-06,
"loss": 1.5942,
"step": 5500
},
{
"epoch": 1.4933333333333334,
"grad_norm": 3.5370359420776367,
"learning_rate": 5.585185185185185e-06,
"loss": 1.5839,
"step": 5600
},
{
"epoch": 1.52,
"grad_norm": 3.4808433055877686,
"learning_rate": 5.486419753086421e-06,
"loss": 1.5713,
"step": 5700
},
{
"epoch": 1.5466666666666666,
"grad_norm": 3.199596643447876,
"learning_rate": 5.387654320987655e-06,
"loss": 1.5752,
"step": 5800
},
{
"epoch": 1.5733333333333333,
"grad_norm": 3.5203781127929688,
"learning_rate": 5.288888888888889e-06,
"loss": 1.5601,
"step": 5900
},
{
"epoch": 1.6,
"grad_norm": 3.5010998249053955,
"learning_rate": 5.190123456790123e-06,
"loss": 1.5686,
"step": 6000
},
{
"epoch": 1.6266666666666667,
"grad_norm": 3.3944363594055176,
"learning_rate": 5.091358024691359e-06,
"loss": 1.5388,
"step": 6100
},
{
"epoch": 1.6533333333333333,
"grad_norm": 3.223571538925171,
"learning_rate": 4.992592592592592e-06,
"loss": 1.5595,
"step": 6200
},
{
"epoch": 1.6800000000000002,
"grad_norm": 3.2041091918945312,
"learning_rate": 4.893827160493828e-06,
"loss": 1.5533,
"step": 6300
},
{
"epoch": 1.7066666666666666,
"grad_norm": 3.480818033218384,
"learning_rate": 4.795061728395062e-06,
"loss": 1.5388,
"step": 6400
},
{
"epoch": 1.7333333333333334,
"grad_norm": 3.6483476161956787,
"learning_rate": 4.696296296296297e-06,
"loss": 1.5365,
"step": 6500
},
{
"epoch": 1.76,
"grad_norm": 3.3835060596466064,
"learning_rate": 4.597530864197531e-06,
"loss": 1.5209,
"step": 6600
},
{
"epoch": 1.7866666666666666,
"grad_norm": 3.4606142044067383,
"learning_rate": 4.498765432098766e-06,
"loss": 1.5244,
"step": 6700
},
{
"epoch": 1.8133333333333335,
"grad_norm": 3.4562504291534424,
"learning_rate": 4.4e-06,
"loss": 1.5201,
"step": 6800
},
{
"epoch": 1.8399999999999999,
"grad_norm": 3.1761395931243896,
"learning_rate": 4.3012345679012356e-06,
"loss": 1.517,
"step": 6900
},
{
"epoch": 1.8666666666666667,
"grad_norm": 3.3345909118652344,
"learning_rate": 4.202469135802469e-06,
"loss": 1.519,
"step": 7000
},
{
"epoch": 1.8933333333333333,
"grad_norm": 3.478909492492676,
"learning_rate": 4.1037037037037046e-06,
"loss": 1.5059,
"step": 7100
},
{
"epoch": 1.92,
"grad_norm": 3.1588165760040283,
"learning_rate": 4.004938271604938e-06,
"loss": 1.5096,
"step": 7200
},
{
"epoch": 1.9466666666666668,
"grad_norm": 3.4162404537200928,
"learning_rate": 3.9061728395061736e-06,
"loss": 1.5212,
"step": 7300
},
{
"epoch": 1.9733333333333334,
"grad_norm": 3.6003329753875732,
"learning_rate": 3.807407407407408e-06,
"loss": 1.4954,
"step": 7400
},
{
"epoch": 2.0,
"grad_norm": 3.615638256072998,
"learning_rate": 3.708641975308642e-06,
"loss": 1.4833,
"step": 7500
},
{
"epoch": 2.026666666666667,
"grad_norm": 3.468055248260498,
"learning_rate": 3.609876543209877e-06,
"loss": 1.46,
"step": 7600
},
{
"epoch": 2.0533333333333332,
"grad_norm": 3.4660258293151855,
"learning_rate": 3.511111111111111e-06,
"loss": 1.4648,
"step": 7700
},
{
"epoch": 2.08,
"grad_norm": 3.182377815246582,
"learning_rate": 3.412345679012346e-06,
"loss": 1.4711,
"step": 7800
},
{
"epoch": 2.1066666666666665,
"grad_norm": 3.9496777057647705,
"learning_rate": 3.31358024691358e-06,
"loss": 1.46,
"step": 7900
},
{
"epoch": 2.1333333333333333,
"grad_norm": 3.103764533996582,
"learning_rate": 3.214814814814815e-06,
"loss": 1.4573,
"step": 8000
},
{
"epoch": 2.16,
"grad_norm": 3.518872022628784,
"learning_rate": 3.11604938271605e-06,
"loss": 1.467,
"step": 8100
},
{
"epoch": 2.1866666666666665,
"grad_norm": 3.5382354259490967,
"learning_rate": 3.017283950617284e-06,
"loss": 1.4533,
"step": 8200
},
{
"epoch": 2.2133333333333334,
"grad_norm": 3.7412240505218506,
"learning_rate": 2.918518518518519e-06,
"loss": 1.4548,
"step": 8300
},
{
"epoch": 2.24,
"grad_norm": 3.4695069789886475,
"learning_rate": 2.819753086419753e-06,
"loss": 1.4342,
"step": 8400
},
{
"epoch": 2.2666666666666666,
"grad_norm": 3.71409010887146,
"learning_rate": 2.720987654320988e-06,
"loss": 1.4538,
"step": 8500
},
{
"epoch": 2.2933333333333334,
"grad_norm": 3.422849655151367,
"learning_rate": 2.6222222222222225e-06,
"loss": 1.4491,
"step": 8600
},
{
"epoch": 2.32,
"grad_norm": 3.2974777221679688,
"learning_rate": 2.523456790123457e-06,
"loss": 1.4472,
"step": 8700
},
{
"epoch": 2.3466666666666667,
"grad_norm": 3.2598888874053955,
"learning_rate": 2.4246913580246915e-06,
"loss": 1.4377,
"step": 8800
},
{
"epoch": 2.3733333333333335,
"grad_norm": 3.5371761322021484,
"learning_rate": 2.3259259259259264e-06,
"loss": 1.4451,
"step": 8900
},
{
"epoch": 2.4,
"grad_norm": 3.5494816303253174,
"learning_rate": 2.227160493827161e-06,
"loss": 1.4311,
"step": 9000
},
{
"epoch": 2.4266666666666667,
"grad_norm": 2.9961225986480713,
"learning_rate": 2.1283950617283954e-06,
"loss": 1.438,
"step": 9100
},
{
"epoch": 2.453333333333333,
"grad_norm": 3.317133665084839,
"learning_rate": 2.02962962962963e-06,
"loss": 1.4434,
"step": 9200
},
{
"epoch": 2.48,
"grad_norm": 3.474153995513916,
"learning_rate": 1.9308641975308644e-06,
"loss": 1.4393,
"step": 9300
},
{
"epoch": 2.506666666666667,
"grad_norm": 3.3163111209869385,
"learning_rate": 1.8320987654320991e-06,
"loss": 1.4309,
"step": 9400
},
{
"epoch": 2.533333333333333,
"grad_norm": 3.372511863708496,
"learning_rate": 1.7333333333333336e-06,
"loss": 1.43,
"step": 9500
},
{
"epoch": 2.56,
"grad_norm": 3.3499677181243896,
"learning_rate": 1.6345679012345681e-06,
"loss": 1.4234,
"step": 9600
},
{
"epoch": 2.586666666666667,
"grad_norm": 3.7494187355041504,
"learning_rate": 1.5358024691358026e-06,
"loss": 1.4138,
"step": 9700
},
{
"epoch": 2.6133333333333333,
"grad_norm": 3.28361439704895,
"learning_rate": 1.437037037037037e-06,
"loss": 1.4271,
"step": 9800
},
{
"epoch": 2.64,
"grad_norm": 3.311584711074829,
"learning_rate": 1.3382716049382718e-06,
"loss": 1.4276,
"step": 9900
},
{
"epoch": 2.6666666666666665,
"grad_norm": 3.294921636581421,
"learning_rate": 1.2404938271604939e-06,
"loss": 1.41,
"step": 10000
},
{
"epoch": 2.6933333333333334,
"grad_norm": 3.2336692810058594,
"learning_rate": 1.1417283950617284e-06,
"loss": 1.415,
"step": 10100
},
{
"epoch": 2.7199999999999998,
"grad_norm": 3.503819227218628,
"learning_rate": 1.042962962962963e-06,
"loss": 1.4112,
"step": 10200
},
{
"epoch": 2.7466666666666666,
"grad_norm": 3.102999210357666,
"learning_rate": 9.441975308641977e-07,
"loss": 1.4167,
"step": 10300
},
{
"epoch": 2.7733333333333334,
"grad_norm": 3.2620484828948975,
"learning_rate": 8.454320987654322e-07,
"loss": 1.4242,
"step": 10400
},
{
"epoch": 2.8,
"grad_norm": 3.2163949012756348,
"learning_rate": 7.466666666666668e-07,
"loss": 1.4281,
"step": 10500
},
{
"epoch": 2.8266666666666667,
"grad_norm": 3.1168317794799805,
"learning_rate": 6.479012345679013e-07,
"loss": 1.4166,
"step": 10600
},
{
"epoch": 2.8533333333333335,
"grad_norm": 3.3667855262756348,
"learning_rate": 5.491358024691359e-07,
"loss": 1.4196,
"step": 10700
},
{
"epoch": 2.88,
"grad_norm": 3.4047067165374756,
"learning_rate": 4.503703703703704e-07,
"loss": 1.4116,
"step": 10800
},
{
"epoch": 2.9066666666666667,
"grad_norm": 3.1459200382232666,
"learning_rate": 3.5160493827160494e-07,
"loss": 1.4082,
"step": 10900
},
{
"epoch": 2.9333333333333336,
"grad_norm": 3.670799732208252,
"learning_rate": 2.528395061728395e-07,
"loss": 1.4204,
"step": 11000
},
{
"epoch": 2.96,
"grad_norm": 3.3167898654937744,
"learning_rate": 1.540740740740741e-07,
"loss": 1.3972,
"step": 11100
},
{
"epoch": 2.986666666666667,
"grad_norm": 3.06726336479187,
"learning_rate": 5.5308641975308646e-08,
"loss": 1.4173,
"step": 11200
},
{
"epoch": 3.0,
"step": 11250,
"total_flos": 1.0681625740050432e+20,
"train_loss": 1.8866207526312935,
"train_runtime": 25047.9369,
"train_samples_per_second": 7.186,
"train_steps_per_second": 0.449
}
],
"logging_steps": 100,
"max_steps": 11250,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.0681625740050432e+20,
"train_batch_size": 4,
"trial_name": null,
"trial_params": null
}