6020 lines
116 KiB
JSON
6020 lines
116 KiB
JSON
{
|
|
"best_metric": null,
|
|
"best_model_checkpoint": null,
|
|
"epoch": 0.5,
|
|
"eval_steps": 500,
|
|
"global_step": 1000,
|
|
"is_hyper_param_search": false,
|
|
"is_local_process_zero": true,
|
|
"is_world_process_zero": true,
|
|
"log_history": [
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 0.0,
|
|
"loss": 5.7356,
|
|
"step": 1
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 3.924720619434383e-06,
|
|
"loss": 4.6667,
|
|
"step": 2
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 6.220535007610605e-06,
|
|
"loss": 4.6761,
|
|
"step": 3
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 7.849441238868767e-06,
|
|
"loss": 4.3554,
|
|
"step": 4
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 9.112919070848425e-06,
|
|
"loss": 3.726,
|
|
"step": 5
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 1.0145255627044989e-05,
|
|
"loss": 3.4391,
|
|
"step": 6
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 1.1018083748670085e-05,
|
|
"loss": 3.0144,
|
|
"step": 7
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 1.1774161858303149e-05,
|
|
"loss": 2.817,
|
|
"step": 8
|
|
},
|
|
{
|
|
"epoch": 0.0,
|
|
"learning_rate": 1.244107001522121e-05,
|
|
"loss": 2.4966,
|
|
"step": 9
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.3037639690282811e-05,
|
|
"loss": 2.4469,
|
|
"step": 10
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.3577302605189066e-05,
|
|
"loss": 2.2515,
|
|
"step": 11
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.4069976246479373e-05,
|
|
"loss": 2.0972,
|
|
"step": 12
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.4523192062762302e-05,
|
|
"loss": 2.0147,
|
|
"step": 13
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.4942804368104467e-05,
|
|
"loss": 1.989,
|
|
"step": 14
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.5333454078459035e-05,
|
|
"loss": 1.8722,
|
|
"step": 15
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.5698882477737533e-05,
|
|
"loss": 1.8283,
|
|
"step": 16
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.6042149694227056e-05,
|
|
"loss": 1.9019,
|
|
"step": 17
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.6365790634655595e-05,
|
|
"loss": 1.799,
|
|
"step": 18
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.667192870187467e-05,
|
|
"loss": 1.7604,
|
|
"step": 19
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.6962360309717193e-05,
|
|
"loss": 1.6676,
|
|
"step": 20
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.723861875628069e-05,
|
|
"loss": 1.7299,
|
|
"step": 21
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.750202322462345e-05,
|
|
"loss": 1.7555,
|
|
"step": 22
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.7753716882225892e-05,
|
|
"loss": 1.7525,
|
|
"step": 23
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.7994696865913757e-05,
|
|
"loss": 1.6877,
|
|
"step": 24
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.822583814169685e-05,
|
|
"loss": 1.6517,
|
|
"step": 25
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.8447912682196686e-05,
|
|
"loss": 1.6837,
|
|
"step": 26
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.866160502283182e-05,
|
|
"loss": 1.6958,
|
|
"step": 27
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.886752498753885e-05,
|
|
"loss": 1.5624,
|
|
"step": 28
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.9066218180397546e-05,
|
|
"loss": 1.7027,
|
|
"step": 29
|
|
},
|
|
{
|
|
"epoch": 0.01,
|
|
"learning_rate": 1.9258174697893417e-05,
|
|
"loss": 1.7013,
|
|
"step": 30
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 1.9443836412101112e-05,
|
|
"loss": 1.6777,
|
|
"step": 31
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 1.9623603097171916e-05,
|
|
"loss": 1.6667,
|
|
"step": 32
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 1.979783761279967e-05,
|
|
"loss": 1.6605,
|
|
"step": 33
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 1.996687031366144e-05,
|
|
"loss": 1.6594,
|
|
"step": 34
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.013100281951851e-05,
|
|
"loss": 1.6461,
|
|
"step": 35
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.0290511254089977e-05,
|
|
"loss": 1.7218,
|
|
"step": 36
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.0445649040065787e-05,
|
|
"loss": 1.6855,
|
|
"step": 37
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.0596649321309053e-05,
|
|
"loss": 1.624,
|
|
"step": 38
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.074372707037291e-05,
|
|
"loss": 1.6645,
|
|
"step": 39
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.0887080929151576e-05,
|
|
"loss": 1.6098,
|
|
"step": 40
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.102689482221661e-05,
|
|
"loss": 1.6454,
|
|
"step": 41
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1163339375715075e-05,
|
|
"loss": 1.6256,
|
|
"step": 42
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1296573169289382e-05,
|
|
"loss": 1.6594,
|
|
"step": 43
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1426743844057832e-05,
|
|
"loss": 1.6135,
|
|
"step": 44
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1553989086069634e-05,
|
|
"loss": 1.6699,
|
|
"step": 45
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1678437501660274e-05,
|
|
"loss": 1.6264,
|
|
"step": 46
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.1800209398659577e-05,
|
|
"loss": 1.6138,
|
|
"step": 47
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.191941748534814e-05,
|
|
"loss": 1.6918,
|
|
"step": 48
|
|
},
|
|
{
|
|
"epoch": 0.02,
|
|
"learning_rate": 2.203616749734017e-05,
|
|
"loss": 1.6574,
|
|
"step": 49
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2150558761131236e-05,
|
|
"loss": 1.6895,
|
|
"step": 50
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2262684701837662e-05,
|
|
"loss": 1.6356,
|
|
"step": 51
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2372633301631072e-05,
|
|
"loss": 1.6198,
|
|
"step": 52
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2480487514504157e-05,
|
|
"loss": 1.6671,
|
|
"step": 53
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.25863256422662e-05,
|
|
"loss": 1.6289,
|
|
"step": 54
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2690221676037493e-05,
|
|
"loss": 1.6205,
|
|
"step": 55
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2792245606973237e-05,
|
|
"loss": 1.6379,
|
|
"step": 56
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.2892463709485273e-05,
|
|
"loss": 1.6187,
|
|
"step": 57
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.299093879983193e-05,
|
|
"loss": 1.6071,
|
|
"step": 58
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.308773047260278e-05,
|
|
"loss": 1.6421,
|
|
"step": 59
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.31828953173278e-05,
|
|
"loss": 1.6778,
|
|
"step": 60
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.327648711718244e-05,
|
|
"loss": 1.6518,
|
|
"step": 61
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.33685570315355e-05,
|
|
"loss": 1.6837,
|
|
"step": 62
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3459153763891295e-05,
|
|
"loss": 1.6666,
|
|
"step": 63
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3548323716606298e-05,
|
|
"loss": 1.6592,
|
|
"step": 64
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3636111133610725e-05,
|
|
"loss": 1.6383,
|
|
"step": 65
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.372255823223405e-05,
|
|
"loss": 1.5754,
|
|
"step": 66
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3807705325117645e-05,
|
|
"loss": 1.6911,
|
|
"step": 67
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3891590933095828e-05,
|
|
"loss": 1.6394,
|
|
"step": 68
|
|
},
|
|
{
|
|
"epoch": 0.03,
|
|
"learning_rate": 2.3974251889836498e-05,
|
|
"loss": 1.6899,
|
|
"step": 69
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.40557234389529e-05,
|
|
"loss": 1.6001,
|
|
"step": 70
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.413603932422723e-05,
|
|
"loss": 1.5922,
|
|
"step": 71
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4215231873524363e-05,
|
|
"loss": 1.597,
|
|
"step": 72
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.429333207691774e-05,
|
|
"loss": 1.5628,
|
|
"step": 73
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4370369659500173e-05,
|
|
"loss": 1.6929,
|
|
"step": 74
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4446373149307456e-05,
|
|
"loss": 1.5004,
|
|
"step": 75
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4521369940743435e-05,
|
|
"loss": 1.7119,
|
|
"step": 76
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.459538635385915e-05,
|
|
"loss": 1.6318,
|
|
"step": 77
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4668447689807292e-05,
|
|
"loss": 1.6006,
|
|
"step": 78
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.474057828276418e-05,
|
|
"loss": 1.6465,
|
|
"step": 79
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4811801548585958e-05,
|
|
"loss": 1.5935,
|
|
"step": 80
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.488214003044242e-05,
|
|
"loss": 1.6413,
|
|
"step": 81
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.4951615441650993e-05,
|
|
"loss": 1.6828,
|
|
"step": 82
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5020248705914527e-05,
|
|
"loss": 1.6749,
|
|
"step": 83
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5088059995149458e-05,
|
|
"loss": 1.6665,
|
|
"step": 84
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5155068765075484e-05,
|
|
"loss": 1.6902,
|
|
"step": 85
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.522129378872376e-05,
|
|
"loss": 1.6414,
|
|
"step": 86
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5286753188008153e-05,
|
|
"loss": 1.6144,
|
|
"step": 87
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5351464463492215e-05,
|
|
"loss": 1.5533,
|
|
"step": 88
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.5415444522474385e-05,
|
|
"loss": 1.6336,
|
|
"step": 89
|
|
},
|
|
{
|
|
"epoch": 0.04,
|
|
"learning_rate": 2.547870970550402e-05,
|
|
"loss": 1.6321,
|
|
"step": 90
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5541275811432387e-05,
|
|
"loss": 1.6576,
|
|
"step": 91
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.560315812109466e-05,
|
|
"loss": 1.676,
|
|
"step": 92
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5664371419711722e-05,
|
|
"loss": 1.6398,
|
|
"step": 93
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5724930018093962e-05,
|
|
"loss": 1.6672,
|
|
"step": 94
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5784847772723095e-05,
|
|
"loss": 1.6393,
|
|
"step": 95
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5844138104782522e-05,
|
|
"loss": 1.5729,
|
|
"step": 96
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5902814018201607e-05,
|
|
"loss": 1.6974,
|
|
"step": 97
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.5960888116774555e-05,
|
|
"loss": 1.6475,
|
|
"step": 98
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6018372620410276e-05,
|
|
"loss": 1.6246,
|
|
"step": 99
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6075279380565622e-05,
|
|
"loss": 1.6339,
|
|
"step": 100
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.613161989491075e-05,
|
|
"loss": 1.5869,
|
|
"step": 101
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6187405321272044e-05,
|
|
"loss": 1.6535,
|
|
"step": 102
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6242646490894852e-05,
|
|
"loss": 1.5813,
|
|
"step": 103
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6297353921065454e-05,
|
|
"loss": 1.6523,
|
|
"step": 104
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6351537827129114e-05,
|
|
"loss": 1.6188,
|
|
"step": 105
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6405208133938536e-05,
|
|
"loss": 1.6874,
|
|
"step": 106
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6458374486764752e-05,
|
|
"loss": 1.6769,
|
|
"step": 107
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.6511046261700587e-05,
|
|
"loss": 1.6801,
|
|
"step": 108
|
|
},
|
|
{
|
|
"epoch": 0.05,
|
|
"learning_rate": 2.656323257558458e-05,
|
|
"loss": 1.6357,
|
|
"step": 109
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.661494229547188e-05,
|
|
"loss": 1.6206,
|
|
"step": 110
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.666618404767639e-05,
|
|
"loss": 1.6582,
|
|
"step": 111
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.6716966226407616e-05,
|
|
"loss": 1.6259,
|
|
"step": 112
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.676729700202349e-05,
|
|
"loss": 1.5274,
|
|
"step": 113
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.681718432891966e-05,
|
|
"loss": 1.6414,
|
|
"step": 114
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.6866635953074317e-05,
|
|
"loss": 1.5947,
|
|
"step": 115
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.691565941926631e-05,
|
|
"loss": 1.6128,
|
|
"step": 116
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.6964262077983513e-05,
|
|
"loss": 1.5298,
|
|
"step": 117
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.701245109203716e-05,
|
|
"loss": 1.5705,
|
|
"step": 118
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.7060233442897146e-05,
|
|
"loss": 1.6785,
|
|
"step": 119
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.710761593676218e-05,
|
|
"loss": 1.5613,
|
|
"step": 120
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.715460521037813e-05,
|
|
"loss": 1.5675,
|
|
"step": 121
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.720120773661682e-05,
|
|
"loss": 1.593,
|
|
"step": 122
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.7247429829827213e-05,
|
|
"loss": 1.5963,
|
|
"step": 123
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.729327765096988e-05,
|
|
"loss": 1.5633,
|
|
"step": 124
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.7338757212545282e-05,
|
|
"loss": 1.5791,
|
|
"step": 125
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.738387438332568e-05,
|
|
"loss": 1.6053,
|
|
"step": 126
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.7428634892900046e-05,
|
|
"loss": 1.6572,
|
|
"step": 127
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.747304433604068e-05,
|
|
"loss": 1.6153,
|
|
"step": 128
|
|
},
|
|
{
|
|
"epoch": 0.06,
|
|
"learning_rate": 2.7517108176899985e-05,
|
|
"loss": 1.5561,
|
|
"step": 129
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.756083175304511e-05,
|
|
"loss": 1.6422,
|
|
"step": 130
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.76042202793381e-05,
|
|
"loss": 1.6226,
|
|
"step": 131
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7647278851668435e-05,
|
|
"loss": 1.6258,
|
|
"step": 132
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7690012450544753e-05,
|
|
"loss": 1.6424,
|
|
"step": 133
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.773242594455203e-05,
|
|
"loss": 1.639,
|
|
"step": 134
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7774524093680244e-05,
|
|
"loss": 1.6626,
|
|
"step": 135
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.781631155253021e-05,
|
|
"loss": 1.6286,
|
|
"step": 136
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7857792873401968e-05,
|
|
"loss": 1.6523,
|
|
"step": 137
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7898972509270884e-05,
|
|
"loss": 1.6503,
|
|
"step": 138
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7939854816656276e-05,
|
|
"loss": 1.5887,
|
|
"step": 139
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.7980444058387276e-05,
|
|
"loss": 1.5711,
|
|
"step": 140
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8020744406270186e-05,
|
|
"loss": 1.6154,
|
|
"step": 141
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8060759943661617e-05,
|
|
"loss": 1.5811,
|
|
"step": 142
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8100494667951368e-05,
|
|
"loss": 1.6294,
|
|
"step": 143
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8139952492958746e-05,
|
|
"loss": 1.6456,
|
|
"step": 144
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8179137251245975e-05,
|
|
"loss": 1.6862,
|
|
"step": 145
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8218052696352124e-05,
|
|
"loss": 1.5825,
|
|
"step": 146
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8256702504950776e-05,
|
|
"loss": 1.6625,
|
|
"step": 147
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.829509027893455e-05,
|
|
"loss": 1.6748,
|
|
"step": 148
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.833321954742946e-05,
|
|
"loss": 1.6082,
|
|
"step": 149
|
|
},
|
|
{
|
|
"epoch": 0.07,
|
|
"learning_rate": 2.8371093768741842e-05,
|
|
"loss": 1.5547,
|
|
"step": 150
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.84087163322407e-05,
|
|
"loss": 1.6677,
|
|
"step": 151
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8446090560177818e-05,
|
|
"loss": 1.6569,
|
|
"step": 152
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8483219709448265e-05,
|
|
"loss": 1.6738,
|
|
"step": 153
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8520106973293536e-05,
|
|
"loss": 1.6141,
|
|
"step": 154
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.855675548294954e-05,
|
|
"loss": 1.5672,
|
|
"step": 155
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8593168309241675e-05,
|
|
"loss": 1.6375,
|
|
"step": 156
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.862934846412885e-05,
|
|
"loss": 1.6223,
|
|
"step": 157
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8665298902198563e-05,
|
|
"loss": 1.5412,
|
|
"step": 158
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.870102252211476e-05,
|
|
"loss": 1.6759,
|
|
"step": 159
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8736522168020344e-05,
|
|
"loss": 1.5432,
|
|
"step": 160
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8771800630895978e-05,
|
|
"loss": 1.6142,
|
|
"step": 161
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.88068606498768e-05,
|
|
"loss": 1.6019,
|
|
"step": 162
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8841704913528686e-05,
|
|
"loss": 1.7054,
|
|
"step": 163
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.887633606108538e-05,
|
|
"loss": 1.6164,
|
|
"step": 164
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.8910756683648095e-05,
|
|
"loss": 1.6566,
|
|
"step": 165
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.894496932534891e-05,
|
|
"loss": 1.6326,
|
|
"step": 166
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.897897648447908e-05,
|
|
"loss": 1.5753,
|
|
"step": 167
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.901278061458384e-05,
|
|
"loss": 1.5593,
|
|
"step": 168
|
|
},
|
|
{
|
|
"epoch": 0.08,
|
|
"learning_rate": 2.9046384125524604e-05,
|
|
"loss": 1.6084,
|
|
"step": 169
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.907978938450987e-05,
|
|
"loss": 1.6251,
|
|
"step": 170
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9112998717095883e-05,
|
|
"loss": 1.5961,
|
|
"step": 171
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9146014408158143e-05,
|
|
"loss": 1.5894,
|
|
"step": 172
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.917883870283476e-05,
|
|
"loss": 1.6327,
|
|
"step": 173
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.921147380744254e-05,
|
|
"loss": 1.556,
|
|
"step": 174
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9243921890366943e-05,
|
|
"loss": 1.6353,
|
|
"step": 175
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9276185082926594e-05,
|
|
"loss": 1.5983,
|
|
"step": 176
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.930826548021338e-05,
|
|
"loss": 1.5733,
|
|
"step": 177
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9340165141908768e-05,
|
|
"loss": 1.5809,
|
|
"step": 178
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9371886093077382e-05,
|
|
"loss": 1.6145,
|
|
"step": 179
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9403430324938406e-05,
|
|
"loss": 1.6309,
|
|
"step": 180
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9434799795615613e-05,
|
|
"loss": 1.6589,
|
|
"step": 181
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.946599643086677e-05,
|
|
"loss": 1.5294,
|
|
"step": 182
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9497022124793045e-05,
|
|
"loss": 1.6121,
|
|
"step": 183
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9527878740529043e-05,
|
|
"loss": 1.6969,
|
|
"step": 184
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9558568110914212e-05,
|
|
"loss": 1.5832,
|
|
"step": 185
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9589092039146104e-05,
|
|
"loss": 1.6647,
|
|
"step": 186
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9619452299416123e-05,
|
|
"loss": 1.5977,
|
|
"step": 187
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.9649650637528345e-05,
|
|
"loss": 1.6416,
|
|
"step": 188
|
|
},
|
|
{
|
|
"epoch": 0.09,
|
|
"learning_rate": 2.96796887715019e-05,
|
|
"loss": 1.669,
|
|
"step": 189
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.970956839215748e-05,
|
|
"loss": 1.5951,
|
|
"step": 190
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.973929116368842e-05,
|
|
"loss": 1.5813,
|
|
"step": 191
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9768858724216908e-05,
|
|
"loss": 1.658,
|
|
"step": 192
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9798272686335726e-05,
|
|
"loss": 1.6341,
|
|
"step": 193
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.982753463763599e-05,
|
|
"loss": 1.5739,
|
|
"step": 194
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9856646141221335e-05,
|
|
"loss": 1.5799,
|
|
"step": 195
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9885608736208934e-05,
|
|
"loss": 1.593,
|
|
"step": 196
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9914423938217798e-05,
|
|
"loss": 1.6079,
|
|
"step": 197
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.994309323984466e-05,
|
|
"loss": 1.5967,
|
|
"step": 198
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9971618111127933e-05,
|
|
"loss": 1.5549,
|
|
"step": 199
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 3e-05,
|
|
"loss": 1.653,
|
|
"step": 200
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 3e-05,
|
|
"loss": 1.6828,
|
|
"step": 201
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9983333333333335e-05,
|
|
"loss": 1.673,
|
|
"step": 202
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.996666666666667e-05,
|
|
"loss": 1.6009,
|
|
"step": 203
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.995e-05,
|
|
"loss": 1.6145,
|
|
"step": 204
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9933333333333334e-05,
|
|
"loss": 1.6093,
|
|
"step": 205
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9916666666666668e-05,
|
|
"loss": 1.6,
|
|
"step": 206
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9900000000000002e-05,
|
|
"loss": 1.6694,
|
|
"step": 207
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9883333333333332e-05,
|
|
"loss": 1.6427,
|
|
"step": 208
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.9866666666666666e-05,
|
|
"loss": 1.6015,
|
|
"step": 209
|
|
},
|
|
{
|
|
"epoch": 0.1,
|
|
"learning_rate": 2.985e-05,
|
|
"loss": 1.6388,
|
|
"step": 210
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9833333333333335e-05,
|
|
"loss": 1.5957,
|
|
"step": 211
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.981666666666667e-05,
|
|
"loss": 1.6698,
|
|
"step": 212
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.98e-05,
|
|
"loss": 1.6669,
|
|
"step": 213
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9783333333333333e-05,
|
|
"loss": 1.64,
|
|
"step": 214
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9766666666666667e-05,
|
|
"loss": 1.5388,
|
|
"step": 215
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.975e-05,
|
|
"loss": 1.6413,
|
|
"step": 216
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9733333333333336e-05,
|
|
"loss": 1.5813,
|
|
"step": 217
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9716666666666666e-05,
|
|
"loss": 1.6324,
|
|
"step": 218
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.97e-05,
|
|
"loss": 1.6289,
|
|
"step": 219
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9683333333333334e-05,
|
|
"loss": 1.6329,
|
|
"step": 220
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.966666666666667e-05,
|
|
"loss": 1.6078,
|
|
"step": 221
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.965e-05,
|
|
"loss": 1.6288,
|
|
"step": 222
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9633333333333333e-05,
|
|
"loss": 1.604,
|
|
"step": 223
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9616666666666667e-05,
|
|
"loss": 1.6233,
|
|
"step": 224
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.96e-05,
|
|
"loss": 1.4986,
|
|
"step": 225
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9583333333333335e-05,
|
|
"loss": 1.5508,
|
|
"step": 226
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9566666666666666e-05,
|
|
"loss": 1.5869,
|
|
"step": 227
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.955e-05,
|
|
"loss": 1.5944,
|
|
"step": 228
|
|
},
|
|
{
|
|
"epoch": 0.11,
|
|
"learning_rate": 2.9533333333333334e-05,
|
|
"loss": 1.6007,
|
|
"step": 229
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9516666666666668e-05,
|
|
"loss": 1.6832,
|
|
"step": 230
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.95e-05,
|
|
"loss": 1.5926,
|
|
"step": 231
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9483333333333333e-05,
|
|
"loss": 1.6207,
|
|
"step": 232
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9466666666666667e-05,
|
|
"loss": 1.6639,
|
|
"step": 233
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.945e-05,
|
|
"loss": 1.6279,
|
|
"step": 234
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9433333333333335e-05,
|
|
"loss": 1.639,
|
|
"step": 235
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9416666666666666e-05,
|
|
"loss": 1.5788,
|
|
"step": 236
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.94e-05,
|
|
"loss": 1.639,
|
|
"step": 237
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9383333333333334e-05,
|
|
"loss": 1.6584,
|
|
"step": 238
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9366666666666668e-05,
|
|
"loss": 1.6232,
|
|
"step": 239
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9350000000000002e-05,
|
|
"loss": 1.6254,
|
|
"step": 240
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9333333333333333e-05,
|
|
"loss": 1.5959,
|
|
"step": 241
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9316666666666667e-05,
|
|
"loss": 1.5646,
|
|
"step": 242
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.93e-05,
|
|
"loss": 1.6442,
|
|
"step": 243
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9283333333333335e-05,
|
|
"loss": 1.6127,
|
|
"step": 244
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9266666666666665e-05,
|
|
"loss": 1.6513,
|
|
"step": 245
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.925e-05,
|
|
"loss": 1.6449,
|
|
"step": 246
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9233333333333334e-05,
|
|
"loss": 1.6458,
|
|
"step": 247
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9216666666666668e-05,
|
|
"loss": 1.6055,
|
|
"step": 248
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.92e-05,
|
|
"loss": 1.6277,
|
|
"step": 249
|
|
},
|
|
{
|
|
"epoch": 0.12,
|
|
"learning_rate": 2.9183333333333332e-05,
|
|
"loss": 1.6116,
|
|
"step": 250
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9166666666666666e-05,
|
|
"loss": 1.6621,
|
|
"step": 251
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.915e-05,
|
|
"loss": 1.6453,
|
|
"step": 252
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9133333333333334e-05,
|
|
"loss": 1.6849,
|
|
"step": 253
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9116666666666665e-05,
|
|
"loss": 1.6509,
|
|
"step": 254
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.91e-05,
|
|
"loss": 1.5746,
|
|
"step": 255
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9083333333333333e-05,
|
|
"loss": 1.6221,
|
|
"step": 256
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9066666666666667e-05,
|
|
"loss": 1.5694,
|
|
"step": 257
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.905e-05,
|
|
"loss": 1.6277,
|
|
"step": 258
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9033333333333332e-05,
|
|
"loss": 1.6619,
|
|
"step": 259
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9016666666666666e-05,
|
|
"loss": 1.5168,
|
|
"step": 260
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.9e-05,
|
|
"loss": 1.7277,
|
|
"step": 261
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8983333333333334e-05,
|
|
"loss": 1.622,
|
|
"step": 262
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8966666666666665e-05,
|
|
"loss": 1.625,
|
|
"step": 263
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.895e-05,
|
|
"loss": 1.6136,
|
|
"step": 264
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8933333333333333e-05,
|
|
"loss": 1.5663,
|
|
"step": 265
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8916666666666667e-05,
|
|
"loss": 1.6109,
|
|
"step": 266
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.89e-05,
|
|
"loss": 1.5866,
|
|
"step": 267
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8883333333333332e-05,
|
|
"loss": 1.586,
|
|
"step": 268
|
|
},
|
|
{
|
|
"epoch": 0.13,
|
|
"learning_rate": 2.8866666666666666e-05,
|
|
"loss": 1.5857,
|
|
"step": 269
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.885e-05,
|
|
"loss": 1.5678,
|
|
"step": 270
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8833333333333334e-05,
|
|
"loss": 1.638,
|
|
"step": 271
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8816666666666668e-05,
|
|
"loss": 1.6746,
|
|
"step": 272
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.88e-05,
|
|
"loss": 1.608,
|
|
"step": 273
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8783333333333333e-05,
|
|
"loss": 1.6063,
|
|
"step": 274
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8766666666666667e-05,
|
|
"loss": 1.6262,
|
|
"step": 275
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.875e-05,
|
|
"loss": 1.6104,
|
|
"step": 276
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.873333333333333e-05,
|
|
"loss": 1.5773,
|
|
"step": 277
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8716666666666666e-05,
|
|
"loss": 1.6768,
|
|
"step": 278
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.87e-05,
|
|
"loss": 1.5747,
|
|
"step": 279
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8683333333333334e-05,
|
|
"loss": 1.4977,
|
|
"step": 280
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8666666666666668e-05,
|
|
"loss": 1.5874,
|
|
"step": 281
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.865e-05,
|
|
"loss": 1.5795,
|
|
"step": 282
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8633333333333332e-05,
|
|
"loss": 1.6428,
|
|
"step": 283
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8616666666666667e-05,
|
|
"loss": 1.6388,
|
|
"step": 284
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.86e-05,
|
|
"loss": 1.6407,
|
|
"step": 285
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.858333333333333e-05,
|
|
"loss": 1.6155,
|
|
"step": 286
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8566666666666665e-05,
|
|
"loss": 1.686,
|
|
"step": 287
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.855e-05,
|
|
"loss": 1.5846,
|
|
"step": 288
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8533333333333333e-05,
|
|
"loss": 1.5694,
|
|
"step": 289
|
|
},
|
|
{
|
|
"epoch": 0.14,
|
|
"learning_rate": 2.8516666666666668e-05,
|
|
"loss": 1.5652,
|
|
"step": 290
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8499999999999998e-05,
|
|
"loss": 1.6208,
|
|
"step": 291
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8483333333333332e-05,
|
|
"loss": 1.612,
|
|
"step": 292
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8466666666666666e-05,
|
|
"loss": 1.652,
|
|
"step": 293
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.845e-05,
|
|
"loss": 1.6709,
|
|
"step": 294
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8433333333333334e-05,
|
|
"loss": 1.6696,
|
|
"step": 295
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8416666666666665e-05,
|
|
"loss": 1.6055,
|
|
"step": 296
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.84e-05,
|
|
"loss": 1.6019,
|
|
"step": 297
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8383333333333333e-05,
|
|
"loss": 1.5671,
|
|
"step": 298
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8366666666666667e-05,
|
|
"loss": 1.5491,
|
|
"step": 299
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8349999999999998e-05,
|
|
"loss": 1.5702,
|
|
"step": 300
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8333333333333332e-05,
|
|
"loss": 1.5425,
|
|
"step": 301
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8316666666666666e-05,
|
|
"loss": 1.6306,
|
|
"step": 302
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.83e-05,
|
|
"loss": 1.6099,
|
|
"step": 303
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8283333333333334e-05,
|
|
"loss": 1.6351,
|
|
"step": 304
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8266666666666665e-05,
|
|
"loss": 1.5901,
|
|
"step": 305
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.825e-05,
|
|
"loss": 1.5929,
|
|
"step": 306
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8233333333333333e-05,
|
|
"loss": 1.6534,
|
|
"step": 307
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8216666666666667e-05,
|
|
"loss": 1.6174,
|
|
"step": 308
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8199999999999998e-05,
|
|
"loss": 1.5284,
|
|
"step": 309
|
|
},
|
|
{
|
|
"epoch": 0.15,
|
|
"learning_rate": 2.8183333333333332e-05,
|
|
"loss": 1.635,
|
|
"step": 310
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8166666666666666e-05,
|
|
"loss": 1.6206,
|
|
"step": 311
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.815e-05,
|
|
"loss": 1.5583,
|
|
"step": 312
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8133333333333334e-05,
|
|
"loss": 1.6276,
|
|
"step": 313
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8116666666666665e-05,
|
|
"loss": 1.654,
|
|
"step": 314
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.81e-05,
|
|
"loss": 1.6161,
|
|
"step": 315
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8083333333333333e-05,
|
|
"loss": 1.6613,
|
|
"step": 316
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8066666666666667e-05,
|
|
"loss": 1.5855,
|
|
"step": 317
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.805e-05,
|
|
"loss": 1.6344,
|
|
"step": 318
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.803333333333333e-05,
|
|
"loss": 1.611,
|
|
"step": 319
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8016666666666666e-05,
|
|
"loss": 1.5735,
|
|
"step": 320
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.8e-05,
|
|
"loss": 1.5765,
|
|
"step": 321
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.7983333333333334e-05,
|
|
"loss": 1.552,
|
|
"step": 322
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.7966666666666664e-05,
|
|
"loss": 1.6707,
|
|
"step": 323
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.795e-05,
|
|
"loss": 1.6798,
|
|
"step": 324
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.7933333333333332e-05,
|
|
"loss": 1.5439,
|
|
"step": 325
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.7916666666666666e-05,
|
|
"loss": 1.6005,
|
|
"step": 326
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.79e-05,
|
|
"loss": 1.5929,
|
|
"step": 327
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.788333333333333e-05,
|
|
"loss": 1.5936,
|
|
"step": 328
|
|
},
|
|
{
|
|
"epoch": 0.16,
|
|
"learning_rate": 2.7866666666666665e-05,
|
|
"loss": 1.6213,
|
|
"step": 329
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7850000000000003e-05,
|
|
"loss": 1.6693,
|
|
"step": 330
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7833333333333337e-05,
|
|
"loss": 1.655,
|
|
"step": 331
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7816666666666667e-05,
|
|
"loss": 1.6406,
|
|
"step": 332
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.78e-05,
|
|
"loss": 1.6615,
|
|
"step": 333
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7783333333333336e-05,
|
|
"loss": 1.5313,
|
|
"step": 334
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.776666666666667e-05,
|
|
"loss": 1.6049,
|
|
"step": 335
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7750000000000004e-05,
|
|
"loss": 1.5838,
|
|
"step": 336
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7733333333333334e-05,
|
|
"loss": 1.5668,
|
|
"step": 337
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.771666666666667e-05,
|
|
"loss": 1.6217,
|
|
"step": 338
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7700000000000002e-05,
|
|
"loss": 1.5784,
|
|
"step": 339
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7683333333333337e-05,
|
|
"loss": 1.6315,
|
|
"step": 340
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.766666666666667e-05,
|
|
"loss": 1.6129,
|
|
"step": 341
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.765e-05,
|
|
"loss": 1.5617,
|
|
"step": 342
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7633333333333335e-05,
|
|
"loss": 1.5849,
|
|
"step": 343
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.761666666666667e-05,
|
|
"loss": 1.6429,
|
|
"step": 344
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7600000000000003e-05,
|
|
"loss": 1.579,
|
|
"step": 345
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7583333333333334e-05,
|
|
"loss": 1.5937,
|
|
"step": 346
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7566666666666668e-05,
|
|
"loss": 1.5987,
|
|
"step": 347
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7550000000000002e-05,
|
|
"loss": 1.6499,
|
|
"step": 348
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.7533333333333336e-05,
|
|
"loss": 1.6158,
|
|
"step": 349
|
|
},
|
|
{
|
|
"epoch": 0.17,
|
|
"learning_rate": 2.751666666666667e-05,
|
|
"loss": 1.5951,
|
|
"step": 350
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.75e-05,
|
|
"loss": 1.5956,
|
|
"step": 351
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7483333333333335e-05,
|
|
"loss": 1.6758,
|
|
"step": 352
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.746666666666667e-05,
|
|
"loss": 1.6498,
|
|
"step": 353
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7450000000000003e-05,
|
|
"loss": 1.6099,
|
|
"step": 354
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7433333333333334e-05,
|
|
"loss": 1.5893,
|
|
"step": 355
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7416666666666668e-05,
|
|
"loss": 1.5668,
|
|
"step": 356
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7400000000000002e-05,
|
|
"loss": 1.6374,
|
|
"step": 357
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7383333333333336e-05,
|
|
"loss": 1.6256,
|
|
"step": 358
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.736666666666667e-05,
|
|
"loss": 1.5758,
|
|
"step": 359
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.735e-05,
|
|
"loss": 1.6479,
|
|
"step": 360
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7333333333333335e-05,
|
|
"loss": 1.5802,
|
|
"step": 361
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.731666666666667e-05,
|
|
"loss": 1.5667,
|
|
"step": 362
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7300000000000003e-05,
|
|
"loss": 1.5773,
|
|
"step": 363
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7283333333333337e-05,
|
|
"loss": 1.6186,
|
|
"step": 364
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7266666666666668e-05,
|
|
"loss": 1.5902,
|
|
"step": 365
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.725e-05,
|
|
"loss": 1.6168,
|
|
"step": 366
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7233333333333336e-05,
|
|
"loss": 1.6176,
|
|
"step": 367
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.721666666666667e-05,
|
|
"loss": 1.6617,
|
|
"step": 368
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.72e-05,
|
|
"loss": 1.6623,
|
|
"step": 369
|
|
},
|
|
{
|
|
"epoch": 0.18,
|
|
"learning_rate": 2.7183333333333335e-05,
|
|
"loss": 1.6145,
|
|
"step": 370
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.716666666666667e-05,
|
|
"loss": 1.6291,
|
|
"step": 371
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7150000000000003e-05,
|
|
"loss": 1.5766,
|
|
"step": 372
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7133333333333337e-05,
|
|
"loss": 1.589,
|
|
"step": 373
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7116666666666667e-05,
|
|
"loss": 1.6047,
|
|
"step": 374
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.71e-05,
|
|
"loss": 1.636,
|
|
"step": 375
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7083333333333335e-05,
|
|
"loss": 1.5866,
|
|
"step": 376
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.706666666666667e-05,
|
|
"loss": 1.5371,
|
|
"step": 377
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.705e-05,
|
|
"loss": 1.6254,
|
|
"step": 378
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7033333333333334e-05,
|
|
"loss": 1.5957,
|
|
"step": 379
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.701666666666667e-05,
|
|
"loss": 1.6221,
|
|
"step": 380
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.7000000000000002e-05,
|
|
"loss": 1.6534,
|
|
"step": 381
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.6983333333333336e-05,
|
|
"loss": 1.5436,
|
|
"step": 382
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.6966666666666667e-05,
|
|
"loss": 1.5399,
|
|
"step": 383
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.695e-05,
|
|
"loss": 1.6717,
|
|
"step": 384
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.6933333333333335e-05,
|
|
"loss": 1.5822,
|
|
"step": 385
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.691666666666667e-05,
|
|
"loss": 1.6209,
|
|
"step": 386
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.69e-05,
|
|
"loss": 1.5961,
|
|
"step": 387
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.6883333333333334e-05,
|
|
"loss": 1.6128,
|
|
"step": 388
|
|
},
|
|
{
|
|
"epoch": 0.19,
|
|
"learning_rate": 2.6866666666666668e-05,
|
|
"loss": 1.5672,
|
|
"step": 389
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6850000000000002e-05,
|
|
"loss": 1.6204,
|
|
"step": 390
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6833333333333336e-05,
|
|
"loss": 1.5788,
|
|
"step": 391
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6816666666666667e-05,
|
|
"loss": 1.5847,
|
|
"step": 392
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.68e-05,
|
|
"loss": 1.6685,
|
|
"step": 393
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6783333333333335e-05,
|
|
"loss": 1.6113,
|
|
"step": 394
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.676666666666667e-05,
|
|
"loss": 1.6332,
|
|
"step": 395
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6750000000000003e-05,
|
|
"loss": 1.6327,
|
|
"step": 396
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6733333333333334e-05,
|
|
"loss": 1.6268,
|
|
"step": 397
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6716666666666668e-05,
|
|
"loss": 1.5654,
|
|
"step": 398
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6700000000000002e-05,
|
|
"loss": 1.5523,
|
|
"step": 399
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6683333333333336e-05,
|
|
"loss": 1.6114,
|
|
"step": 400
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6666666666666667e-05,
|
|
"loss": 1.6163,
|
|
"step": 401
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.665e-05,
|
|
"loss": 1.6193,
|
|
"step": 402
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6633333333333335e-05,
|
|
"loss": 1.6043,
|
|
"step": 403
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.661666666666667e-05,
|
|
"loss": 1.6536,
|
|
"step": 404
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6600000000000003e-05,
|
|
"loss": 1.5351,
|
|
"step": 405
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6583333333333333e-05,
|
|
"loss": 1.6281,
|
|
"step": 406
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6566666666666668e-05,
|
|
"loss": 1.5114,
|
|
"step": 407
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.655e-05,
|
|
"loss": 1.6017,
|
|
"step": 408
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6533333333333336e-05,
|
|
"loss": 1.5666,
|
|
"step": 409
|
|
},
|
|
{
|
|
"epoch": 0.2,
|
|
"learning_rate": 2.6516666666666666e-05,
|
|
"loss": 1.5962,
|
|
"step": 410
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.65e-05,
|
|
"loss": 1.6336,
|
|
"step": 411
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6483333333333334e-05,
|
|
"loss": 1.5775,
|
|
"step": 412
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.646666666666667e-05,
|
|
"loss": 1.5634,
|
|
"step": 413
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6450000000000003e-05,
|
|
"loss": 1.5674,
|
|
"step": 414
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6433333333333333e-05,
|
|
"loss": 1.5659,
|
|
"step": 415
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6416666666666667e-05,
|
|
"loss": 1.6391,
|
|
"step": 416
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.64e-05,
|
|
"loss": 1.638,
|
|
"step": 417
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6383333333333335e-05,
|
|
"loss": 1.6178,
|
|
"step": 418
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.636666666666667e-05,
|
|
"loss": 1.6188,
|
|
"step": 419
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.635e-05,
|
|
"loss": 1.6826,
|
|
"step": 420
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6333333333333334e-05,
|
|
"loss": 1.5844,
|
|
"step": 421
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6316666666666668e-05,
|
|
"loss": 1.6559,
|
|
"step": 422
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6300000000000002e-05,
|
|
"loss": 1.5284,
|
|
"step": 423
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6283333333333333e-05,
|
|
"loss": 1.6218,
|
|
"step": 424
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6266666666666667e-05,
|
|
"loss": 1.611,
|
|
"step": 425
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.625e-05,
|
|
"loss": 1.6042,
|
|
"step": 426
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6233333333333335e-05,
|
|
"loss": 1.578,
|
|
"step": 427
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.621666666666667e-05,
|
|
"loss": 1.6425,
|
|
"step": 428
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.62e-05,
|
|
"loss": 1.5545,
|
|
"step": 429
|
|
},
|
|
{
|
|
"epoch": 0.21,
|
|
"learning_rate": 2.6183333333333334e-05,
|
|
"loss": 1.6344,
|
|
"step": 430
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6166666666666668e-05,
|
|
"loss": 1.6342,
|
|
"step": 431
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6150000000000002e-05,
|
|
"loss": 1.5865,
|
|
"step": 432
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6133333333333333e-05,
|
|
"loss": 1.5646,
|
|
"step": 433
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6116666666666667e-05,
|
|
"loss": 1.5427,
|
|
"step": 434
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.61e-05,
|
|
"loss": 1.6069,
|
|
"step": 435
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6083333333333335e-05,
|
|
"loss": 1.6057,
|
|
"step": 436
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.606666666666667e-05,
|
|
"loss": 1.6489,
|
|
"step": 437
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.605e-05,
|
|
"loss": 1.6019,
|
|
"step": 438
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6033333333333334e-05,
|
|
"loss": 1.6162,
|
|
"step": 439
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6016666666666668e-05,
|
|
"loss": 1.5949,
|
|
"step": 440
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.6000000000000002e-05,
|
|
"loss": 1.6048,
|
|
"step": 441
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.5983333333333336e-05,
|
|
"loss": 1.5965,
|
|
"step": 442
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.5966666666666667e-05,
|
|
"loss": 1.587,
|
|
"step": 443
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.595e-05,
|
|
"loss": 1.6105,
|
|
"step": 444
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.5933333333333335e-05,
|
|
"loss": 1.6539,
|
|
"step": 445
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.591666666666667e-05,
|
|
"loss": 1.5832,
|
|
"step": 446
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.59e-05,
|
|
"loss": 1.6406,
|
|
"step": 447
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.5883333333333333e-05,
|
|
"loss": 1.6157,
|
|
"step": 448
|
|
},
|
|
{
|
|
"epoch": 0.22,
|
|
"learning_rate": 2.5866666666666667e-05,
|
|
"loss": 1.5784,
|
|
"step": 449
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.585e-05,
|
|
"loss": 1.5614,
|
|
"step": 450
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5833333333333336e-05,
|
|
"loss": 1.6321,
|
|
"step": 451
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5816666666666666e-05,
|
|
"loss": 1.689,
|
|
"step": 452
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.58e-05,
|
|
"loss": 1.5708,
|
|
"step": 453
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5783333333333334e-05,
|
|
"loss": 1.5364,
|
|
"step": 454
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.576666666666667e-05,
|
|
"loss": 1.6959,
|
|
"step": 455
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.575e-05,
|
|
"loss": 1.6125,
|
|
"step": 456
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5733333333333333e-05,
|
|
"loss": 1.649,
|
|
"step": 457
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5716666666666667e-05,
|
|
"loss": 1.536,
|
|
"step": 458
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.57e-05,
|
|
"loss": 1.6513,
|
|
"step": 459
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5683333333333335e-05,
|
|
"loss": 1.6271,
|
|
"step": 460
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5666666666666666e-05,
|
|
"loss": 1.7161,
|
|
"step": 461
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.565e-05,
|
|
"loss": 1.5551,
|
|
"step": 462
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5633333333333334e-05,
|
|
"loss": 1.5555,
|
|
"step": 463
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5616666666666668e-05,
|
|
"loss": 1.6005,
|
|
"step": 464
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5600000000000002e-05,
|
|
"loss": 1.6456,
|
|
"step": 465
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5583333333333333e-05,
|
|
"loss": 1.6509,
|
|
"step": 466
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5566666666666667e-05,
|
|
"loss": 1.53,
|
|
"step": 467
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.555e-05,
|
|
"loss": 1.6861,
|
|
"step": 468
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5533333333333335e-05,
|
|
"loss": 1.6488,
|
|
"step": 469
|
|
},
|
|
{
|
|
"epoch": 0.23,
|
|
"learning_rate": 2.5516666666666666e-05,
|
|
"loss": 1.6192,
|
|
"step": 470
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.55e-05,
|
|
"loss": 1.6054,
|
|
"step": 471
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5483333333333334e-05,
|
|
"loss": 1.6503,
|
|
"step": 472
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5466666666666668e-05,
|
|
"loss": 1.674,
|
|
"step": 473
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5450000000000002e-05,
|
|
"loss": 1.6407,
|
|
"step": 474
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5433333333333333e-05,
|
|
"loss": 1.592,
|
|
"step": 475
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5416666666666667e-05,
|
|
"loss": 1.6279,
|
|
"step": 476
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.54e-05,
|
|
"loss": 1.6539,
|
|
"step": 477
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5383333333333335e-05,
|
|
"loss": 1.5864,
|
|
"step": 478
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5366666666666665e-05,
|
|
"loss": 1.6139,
|
|
"step": 479
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.535e-05,
|
|
"loss": 1.5941,
|
|
"step": 480
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5333333333333334e-05,
|
|
"loss": 1.609,
|
|
"step": 481
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5316666666666668e-05,
|
|
"loss": 1.6295,
|
|
"step": 482
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5300000000000002e-05,
|
|
"loss": 1.6,
|
|
"step": 483
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5283333333333332e-05,
|
|
"loss": 1.6832,
|
|
"step": 484
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5266666666666666e-05,
|
|
"loss": 1.6053,
|
|
"step": 485
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.525e-05,
|
|
"loss": 1.6339,
|
|
"step": 486
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5233333333333335e-05,
|
|
"loss": 1.6454,
|
|
"step": 487
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5216666666666665e-05,
|
|
"loss": 1.6171,
|
|
"step": 488
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.52e-05,
|
|
"loss": 1.6156,
|
|
"step": 489
|
|
},
|
|
{
|
|
"epoch": 0.24,
|
|
"learning_rate": 2.5183333333333333e-05,
|
|
"loss": 1.6083,
|
|
"step": 490
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5166666666666667e-05,
|
|
"loss": 1.7138,
|
|
"step": 491
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.515e-05,
|
|
"loss": 1.57,
|
|
"step": 492
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5133333333333332e-05,
|
|
"loss": 1.6458,
|
|
"step": 493
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5116666666666666e-05,
|
|
"loss": 1.6726,
|
|
"step": 494
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.51e-05,
|
|
"loss": 1.6159,
|
|
"step": 495
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5083333333333334e-05,
|
|
"loss": 1.6097,
|
|
"step": 496
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.506666666666667e-05,
|
|
"loss": 1.6225,
|
|
"step": 497
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.505e-05,
|
|
"loss": 1.5893,
|
|
"step": 498
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5033333333333333e-05,
|
|
"loss": 1.6657,
|
|
"step": 499
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5016666666666667e-05,
|
|
"loss": 1.6471,
|
|
"step": 500
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.5e-05,
|
|
"loss": 1.5641,
|
|
"step": 501
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4983333333333332e-05,
|
|
"loss": 1.5611,
|
|
"step": 502
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4966666666666666e-05,
|
|
"loss": 1.6273,
|
|
"step": 503
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.495e-05,
|
|
"loss": 1.5958,
|
|
"step": 504
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4933333333333334e-05,
|
|
"loss": 1.5878,
|
|
"step": 505
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4916666666666668e-05,
|
|
"loss": 1.5581,
|
|
"step": 506
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.49e-05,
|
|
"loss": 1.54,
|
|
"step": 507
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4883333333333333e-05,
|
|
"loss": 1.6392,
|
|
"step": 508
|
|
},
|
|
{
|
|
"epoch": 0.25,
|
|
"learning_rate": 2.4866666666666667e-05,
|
|
"loss": 1.6962,
|
|
"step": 509
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.485e-05,
|
|
"loss": 1.5864,
|
|
"step": 510
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.483333333333333e-05,
|
|
"loss": 1.5833,
|
|
"step": 511
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4816666666666666e-05,
|
|
"loss": 1.61,
|
|
"step": 512
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.48e-05,
|
|
"loss": 1.5124,
|
|
"step": 513
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4783333333333334e-05,
|
|
"loss": 1.567,
|
|
"step": 514
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4766666666666668e-05,
|
|
"loss": 1.5855,
|
|
"step": 515
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.475e-05,
|
|
"loss": 1.585,
|
|
"step": 516
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4733333333333333e-05,
|
|
"loss": 1.6698,
|
|
"step": 517
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4716666666666667e-05,
|
|
"loss": 1.6161,
|
|
"step": 518
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.47e-05,
|
|
"loss": 1.6507,
|
|
"step": 519
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4683333333333335e-05,
|
|
"loss": 1.6626,
|
|
"step": 520
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4666666666666665e-05,
|
|
"loss": 1.5951,
|
|
"step": 521
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.465e-05,
|
|
"loss": 1.6386,
|
|
"step": 522
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4633333333333334e-05,
|
|
"loss": 1.6027,
|
|
"step": 523
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4616666666666668e-05,
|
|
"loss": 1.6487,
|
|
"step": 524
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4599999999999998e-05,
|
|
"loss": 1.5622,
|
|
"step": 525
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4583333333333332e-05,
|
|
"loss": 1.6805,
|
|
"step": 526
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4566666666666666e-05,
|
|
"loss": 1.5457,
|
|
"step": 527
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.455e-05,
|
|
"loss": 1.545,
|
|
"step": 528
|
|
},
|
|
{
|
|
"epoch": 0.26,
|
|
"learning_rate": 2.4533333333333334e-05,
|
|
"loss": 1.5866,
|
|
"step": 529
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4516666666666665e-05,
|
|
"loss": 1.6644,
|
|
"step": 530
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.45e-05,
|
|
"loss": 1.6138,
|
|
"step": 531
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4483333333333333e-05,
|
|
"loss": 1.6258,
|
|
"step": 532
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4466666666666667e-05,
|
|
"loss": 1.5881,
|
|
"step": 533
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4449999999999998e-05,
|
|
"loss": 1.6707,
|
|
"step": 534
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4433333333333332e-05,
|
|
"loss": 1.602,
|
|
"step": 535
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4416666666666666e-05,
|
|
"loss": 1.6251,
|
|
"step": 536
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.44e-05,
|
|
"loss": 1.6491,
|
|
"step": 537
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4383333333333334e-05,
|
|
"loss": 1.612,
|
|
"step": 538
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4366666666666665e-05,
|
|
"loss": 1.6302,
|
|
"step": 539
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.435e-05,
|
|
"loss": 1.6413,
|
|
"step": 540
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4333333333333333e-05,
|
|
"loss": 1.5524,
|
|
"step": 541
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4316666666666667e-05,
|
|
"loss": 1.6433,
|
|
"step": 542
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.43e-05,
|
|
"loss": 1.5831,
|
|
"step": 543
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4283333333333332e-05,
|
|
"loss": 1.6074,
|
|
"step": 544
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4266666666666666e-05,
|
|
"loss": 1.602,
|
|
"step": 545
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.425e-05,
|
|
"loss": 1.612,
|
|
"step": 546
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4233333333333334e-05,
|
|
"loss": 1.5835,
|
|
"step": 547
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.4216666666666665e-05,
|
|
"loss": 1.5895,
|
|
"step": 548
|
|
},
|
|
{
|
|
"epoch": 0.27,
|
|
"learning_rate": 2.42e-05,
|
|
"loss": 1.5125,
|
|
"step": 549
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4183333333333333e-05,
|
|
"loss": 1.6154,
|
|
"step": 550
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4166666666666667e-05,
|
|
"loss": 1.6166,
|
|
"step": 551
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.415e-05,
|
|
"loss": 1.6474,
|
|
"step": 552
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.413333333333333e-05,
|
|
"loss": 1.5888,
|
|
"step": 553
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4116666666666666e-05,
|
|
"loss": 1.605,
|
|
"step": 554
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.41e-05,
|
|
"loss": 1.6117,
|
|
"step": 555
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4083333333333334e-05,
|
|
"loss": 1.5778,
|
|
"step": 556
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4066666666666664e-05,
|
|
"loss": 1.6652,
|
|
"step": 557
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.405e-05,
|
|
"loss": 1.6771,
|
|
"step": 558
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4033333333333332e-05,
|
|
"loss": 1.5803,
|
|
"step": 559
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4016666666666667e-05,
|
|
"loss": 1.6564,
|
|
"step": 560
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.4e-05,
|
|
"loss": 1.5199,
|
|
"step": 561
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.398333333333333e-05,
|
|
"loss": 1.5914,
|
|
"step": 562
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3966666666666665e-05,
|
|
"loss": 1.6142,
|
|
"step": 563
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.395e-05,
|
|
"loss": 1.65,
|
|
"step": 564
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3933333333333333e-05,
|
|
"loss": 1.6328,
|
|
"step": 565
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3916666666666668e-05,
|
|
"loss": 1.6243,
|
|
"step": 566
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3899999999999998e-05,
|
|
"loss": 1.6104,
|
|
"step": 567
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3883333333333332e-05,
|
|
"loss": 1.5324,
|
|
"step": 568
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.3866666666666666e-05,
|
|
"loss": 1.6444,
|
|
"step": 569
|
|
},
|
|
{
|
|
"epoch": 0.28,
|
|
"learning_rate": 2.385e-05,
|
|
"loss": 1.5333,
|
|
"step": 570
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.383333333333333e-05,
|
|
"loss": 1.5263,
|
|
"step": 571
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3816666666666665e-05,
|
|
"loss": 1.6511,
|
|
"step": 572
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.38e-05,
|
|
"loss": 1.5801,
|
|
"step": 573
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3783333333333333e-05,
|
|
"loss": 1.6262,
|
|
"step": 574
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3766666666666667e-05,
|
|
"loss": 1.6608,
|
|
"step": 575
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3749999999999998e-05,
|
|
"loss": 1.6111,
|
|
"step": 576
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3733333333333332e-05,
|
|
"loss": 1.5539,
|
|
"step": 577
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3716666666666666e-05,
|
|
"loss": 1.6485,
|
|
"step": 578
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.37e-05,
|
|
"loss": 1.658,
|
|
"step": 579
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.368333333333333e-05,
|
|
"loss": 1.6374,
|
|
"step": 580
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3666666666666665e-05,
|
|
"loss": 1.6317,
|
|
"step": 581
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.365e-05,
|
|
"loss": 1.627,
|
|
"step": 582
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3633333333333333e-05,
|
|
"loss": 1.6285,
|
|
"step": 583
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3616666666666667e-05,
|
|
"loss": 1.6399,
|
|
"step": 584
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3599999999999998e-05,
|
|
"loss": 1.6074,
|
|
"step": 585
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3583333333333332e-05,
|
|
"loss": 1.6143,
|
|
"step": 586
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.356666666666667e-05,
|
|
"loss": 1.6178,
|
|
"step": 587
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3550000000000003e-05,
|
|
"loss": 1.6291,
|
|
"step": 588
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3533333333333337e-05,
|
|
"loss": 1.6237,
|
|
"step": 589
|
|
},
|
|
{
|
|
"epoch": 0.29,
|
|
"learning_rate": 2.3516666666666668e-05,
|
|
"loss": 1.6269,
|
|
"step": 590
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3500000000000002e-05,
|
|
"loss": 1.6612,
|
|
"step": 591
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3483333333333336e-05,
|
|
"loss": 1.5332,
|
|
"step": 592
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.346666666666667e-05,
|
|
"loss": 1.628,
|
|
"step": 593
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.345e-05,
|
|
"loss": 1.6377,
|
|
"step": 594
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3433333333333335e-05,
|
|
"loss": 1.6288,
|
|
"step": 595
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.341666666666667e-05,
|
|
"loss": 1.6802,
|
|
"step": 596
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3400000000000003e-05,
|
|
"loss": 1.6204,
|
|
"step": 597
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3383333333333337e-05,
|
|
"loss": 1.6835,
|
|
"step": 598
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3366666666666668e-05,
|
|
"loss": 1.6154,
|
|
"step": 599
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3350000000000002e-05,
|
|
"loss": 1.6081,
|
|
"step": 600
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3333333333333336e-05,
|
|
"loss": 1.6421,
|
|
"step": 601
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.331666666666667e-05,
|
|
"loss": 1.6159,
|
|
"step": 602
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.33e-05,
|
|
"loss": 1.6506,
|
|
"step": 603
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3283333333333335e-05,
|
|
"loss": 1.6534,
|
|
"step": 604
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.326666666666667e-05,
|
|
"loss": 1.5688,
|
|
"step": 605
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3250000000000003e-05,
|
|
"loss": 1.6478,
|
|
"step": 606
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3233333333333337e-05,
|
|
"loss": 1.6291,
|
|
"step": 607
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3216666666666667e-05,
|
|
"loss": 1.623,
|
|
"step": 608
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.32e-05,
|
|
"loss": 1.6248,
|
|
"step": 609
|
|
},
|
|
{
|
|
"epoch": 0.3,
|
|
"learning_rate": 2.3183333333333336e-05,
|
|
"loss": 1.6611,
|
|
"step": 610
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.316666666666667e-05,
|
|
"loss": 1.6356,
|
|
"step": 611
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.315e-05,
|
|
"loss": 1.5774,
|
|
"step": 612
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3133333333333334e-05,
|
|
"loss": 1.6073,
|
|
"step": 613
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.311666666666667e-05,
|
|
"loss": 1.6511,
|
|
"step": 614
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3100000000000002e-05,
|
|
"loss": 1.5762,
|
|
"step": 615
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3083333333333337e-05,
|
|
"loss": 1.6101,
|
|
"step": 616
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3066666666666667e-05,
|
|
"loss": 1.5855,
|
|
"step": 617
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.305e-05,
|
|
"loss": 1.622,
|
|
"step": 618
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3033333333333335e-05,
|
|
"loss": 1.5684,
|
|
"step": 619
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.301666666666667e-05,
|
|
"loss": 1.6591,
|
|
"step": 620
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.3000000000000003e-05,
|
|
"loss": 1.6504,
|
|
"step": 621
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2983333333333334e-05,
|
|
"loss": 1.6061,
|
|
"step": 622
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2966666666666668e-05,
|
|
"loss": 1.5562,
|
|
"step": 623
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2950000000000002e-05,
|
|
"loss": 1.5988,
|
|
"step": 624
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2933333333333336e-05,
|
|
"loss": 1.6279,
|
|
"step": 625
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2916666666666667e-05,
|
|
"loss": 1.5616,
|
|
"step": 626
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.29e-05,
|
|
"loss": 1.5861,
|
|
"step": 627
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.2883333333333335e-05,
|
|
"loss": 1.6506,
|
|
"step": 628
|
|
},
|
|
{
|
|
"epoch": 0.31,
|
|
"learning_rate": 2.286666666666667e-05,
|
|
"loss": 1.6537,
|
|
"step": 629
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2850000000000003e-05,
|
|
"loss": 1.6538,
|
|
"step": 630
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2833333333333334e-05,
|
|
"loss": 1.5568,
|
|
"step": 631
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2816666666666668e-05,
|
|
"loss": 1.5914,
|
|
"step": 632
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2800000000000002e-05,
|
|
"loss": 1.5925,
|
|
"step": 633
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2783333333333336e-05,
|
|
"loss": 1.5973,
|
|
"step": 634
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2766666666666667e-05,
|
|
"loss": 1.635,
|
|
"step": 635
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.275e-05,
|
|
"loss": 1.6612,
|
|
"step": 636
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2733333333333335e-05,
|
|
"loss": 1.5762,
|
|
"step": 637
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.271666666666667e-05,
|
|
"loss": 1.6466,
|
|
"step": 638
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2700000000000003e-05,
|
|
"loss": 1.6055,
|
|
"step": 639
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2683333333333334e-05,
|
|
"loss": 1.7243,
|
|
"step": 640
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2666666666666668e-05,
|
|
"loss": 1.6572,
|
|
"step": 641
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.265e-05,
|
|
"loss": 1.5238,
|
|
"step": 642
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2633333333333336e-05,
|
|
"loss": 1.5279,
|
|
"step": 643
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.261666666666667e-05,
|
|
"loss": 1.6202,
|
|
"step": 644
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.26e-05,
|
|
"loss": 1.5549,
|
|
"step": 645
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2583333333333335e-05,
|
|
"loss": 1.5725,
|
|
"step": 646
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.256666666666667e-05,
|
|
"loss": 1.6484,
|
|
"step": 647
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2550000000000003e-05,
|
|
"loss": 1.6294,
|
|
"step": 648
|
|
},
|
|
{
|
|
"epoch": 0.32,
|
|
"learning_rate": 2.2533333333333333e-05,
|
|
"loss": 1.5652,
|
|
"step": 649
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2516666666666667e-05,
|
|
"loss": 1.593,
|
|
"step": 650
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.25e-05,
|
|
"loss": 1.6014,
|
|
"step": 651
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2483333333333335e-05,
|
|
"loss": 1.5662,
|
|
"step": 652
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.246666666666667e-05,
|
|
"loss": 1.6489,
|
|
"step": 653
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.245e-05,
|
|
"loss": 1.567,
|
|
"step": 654
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2433333333333334e-05,
|
|
"loss": 1.5957,
|
|
"step": 655
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.241666666666667e-05,
|
|
"loss": 1.6402,
|
|
"step": 656
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2400000000000002e-05,
|
|
"loss": 1.6611,
|
|
"step": 657
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2383333333333333e-05,
|
|
"loss": 1.642,
|
|
"step": 658
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2366666666666667e-05,
|
|
"loss": 1.5784,
|
|
"step": 659
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.235e-05,
|
|
"loss": 1.6181,
|
|
"step": 660
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2333333333333335e-05,
|
|
"loss": 1.6555,
|
|
"step": 661
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.231666666666667e-05,
|
|
"loss": 1.5914,
|
|
"step": 662
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.23e-05,
|
|
"loss": 1.5839,
|
|
"step": 663
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2283333333333334e-05,
|
|
"loss": 1.6169,
|
|
"step": 664
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2266666666666668e-05,
|
|
"loss": 1.6168,
|
|
"step": 665
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2250000000000002e-05,
|
|
"loss": 1.6365,
|
|
"step": 666
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2233333333333336e-05,
|
|
"loss": 1.5341,
|
|
"step": 667
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.2216666666666667e-05,
|
|
"loss": 1.6166,
|
|
"step": 668
|
|
},
|
|
{
|
|
"epoch": 0.33,
|
|
"learning_rate": 2.22e-05,
|
|
"loss": 1.6177,
|
|
"step": 669
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2183333333333335e-05,
|
|
"loss": 1.5742,
|
|
"step": 670
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.216666666666667e-05,
|
|
"loss": 1.6423,
|
|
"step": 671
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.215e-05,
|
|
"loss": 1.553,
|
|
"step": 672
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2133333333333334e-05,
|
|
"loss": 1.6215,
|
|
"step": 673
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2116666666666668e-05,
|
|
"loss": 1.606,
|
|
"step": 674
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2100000000000002e-05,
|
|
"loss": 1.5934,
|
|
"step": 675
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2083333333333336e-05,
|
|
"loss": 1.5696,
|
|
"step": 676
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2066666666666667e-05,
|
|
"loss": 1.5947,
|
|
"step": 677
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.205e-05,
|
|
"loss": 1.6335,
|
|
"step": 678
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2033333333333335e-05,
|
|
"loss": 1.6517,
|
|
"step": 679
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.201666666666667e-05,
|
|
"loss": 1.6433,
|
|
"step": 680
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.2e-05,
|
|
"loss": 1.6464,
|
|
"step": 681
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1983333333333333e-05,
|
|
"loss": 1.5896,
|
|
"step": 682
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1966666666666668e-05,
|
|
"loss": 1.6113,
|
|
"step": 683
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.195e-05,
|
|
"loss": 1.6216,
|
|
"step": 684
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1933333333333336e-05,
|
|
"loss": 1.6585,
|
|
"step": 685
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1916666666666666e-05,
|
|
"loss": 1.6612,
|
|
"step": 686
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.19e-05,
|
|
"loss": 1.5966,
|
|
"step": 687
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1883333333333334e-05,
|
|
"loss": 1.6164,
|
|
"step": 688
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.186666666666667e-05,
|
|
"loss": 1.5405,
|
|
"step": 689
|
|
},
|
|
{
|
|
"epoch": 0.34,
|
|
"learning_rate": 2.1850000000000003e-05,
|
|
"loss": 1.5947,
|
|
"step": 690
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1833333333333333e-05,
|
|
"loss": 1.603,
|
|
"step": 691
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1816666666666667e-05,
|
|
"loss": 1.583,
|
|
"step": 692
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.18e-05,
|
|
"loss": 1.628,
|
|
"step": 693
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1783333333333335e-05,
|
|
"loss": 1.6271,
|
|
"step": 694
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1766666666666666e-05,
|
|
"loss": 1.6076,
|
|
"step": 695
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.175e-05,
|
|
"loss": 1.6211,
|
|
"step": 696
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1733333333333334e-05,
|
|
"loss": 1.6353,
|
|
"step": 697
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1716666666666668e-05,
|
|
"loss": 1.5385,
|
|
"step": 698
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1700000000000002e-05,
|
|
"loss": 1.5715,
|
|
"step": 699
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1683333333333333e-05,
|
|
"loss": 1.6054,
|
|
"step": 700
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1666666666666667e-05,
|
|
"loss": 1.6698,
|
|
"step": 701
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.165e-05,
|
|
"loss": 1.6617,
|
|
"step": 702
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1633333333333335e-05,
|
|
"loss": 1.5936,
|
|
"step": 703
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1616666666666666e-05,
|
|
"loss": 1.4865,
|
|
"step": 704
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.16e-05,
|
|
"loss": 1.6057,
|
|
"step": 705
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1583333333333334e-05,
|
|
"loss": 1.613,
|
|
"step": 706
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1566666666666668e-05,
|
|
"loss": 1.5807,
|
|
"step": 707
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1550000000000002e-05,
|
|
"loss": 1.572,
|
|
"step": 708
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1533333333333333e-05,
|
|
"loss": 1.5817,
|
|
"step": 709
|
|
},
|
|
{
|
|
"epoch": 0.35,
|
|
"learning_rate": 2.1516666666666667e-05,
|
|
"loss": 1.5983,
|
|
"step": 710
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.15e-05,
|
|
"loss": 1.5878,
|
|
"step": 711
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1483333333333335e-05,
|
|
"loss": 1.5799,
|
|
"step": 712
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1466666666666666e-05,
|
|
"loss": 1.6033,
|
|
"step": 713
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.145e-05,
|
|
"loss": 1.6644,
|
|
"step": 714
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1433333333333334e-05,
|
|
"loss": 1.5854,
|
|
"step": 715
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1416666666666668e-05,
|
|
"loss": 1.5486,
|
|
"step": 716
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1400000000000002e-05,
|
|
"loss": 1.5576,
|
|
"step": 717
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1383333333333332e-05,
|
|
"loss": 1.6526,
|
|
"step": 718
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1366666666666667e-05,
|
|
"loss": 1.595,
|
|
"step": 719
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.135e-05,
|
|
"loss": 1.6256,
|
|
"step": 720
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1333333333333335e-05,
|
|
"loss": 1.5848,
|
|
"step": 721
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.131666666666667e-05,
|
|
"loss": 1.6405,
|
|
"step": 722
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.13e-05,
|
|
"loss": 1.6637,
|
|
"step": 723
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1283333333333333e-05,
|
|
"loss": 1.6256,
|
|
"step": 724
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1266666666666667e-05,
|
|
"loss": 1.6331,
|
|
"step": 725
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.125e-05,
|
|
"loss": 1.5911,
|
|
"step": 726
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1233333333333332e-05,
|
|
"loss": 1.4956,
|
|
"step": 727
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1216666666666666e-05,
|
|
"loss": 1.6249,
|
|
"step": 728
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.12e-05,
|
|
"loss": 1.5869,
|
|
"step": 729
|
|
},
|
|
{
|
|
"epoch": 0.36,
|
|
"learning_rate": 2.1183333333333334e-05,
|
|
"loss": 1.5483,
|
|
"step": 730
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.116666666666667e-05,
|
|
"loss": 1.5928,
|
|
"step": 731
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.115e-05,
|
|
"loss": 1.5795,
|
|
"step": 732
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1133333333333333e-05,
|
|
"loss": 1.706,
|
|
"step": 733
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1116666666666667e-05,
|
|
"loss": 1.6794,
|
|
"step": 734
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.11e-05,
|
|
"loss": 1.5374,
|
|
"step": 735
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1083333333333332e-05,
|
|
"loss": 1.5606,
|
|
"step": 736
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1066666666666666e-05,
|
|
"loss": 1.5857,
|
|
"step": 737
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.105e-05,
|
|
"loss": 1.6604,
|
|
"step": 738
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1033333333333334e-05,
|
|
"loss": 1.6009,
|
|
"step": 739
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1016666666666668e-05,
|
|
"loss": 1.6118,
|
|
"step": 740
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.1e-05,
|
|
"loss": 1.5538,
|
|
"step": 741
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0983333333333333e-05,
|
|
"loss": 1.5401,
|
|
"step": 742
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0966666666666667e-05,
|
|
"loss": 1.6154,
|
|
"step": 743
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.095e-05,
|
|
"loss": 1.5529,
|
|
"step": 744
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0933333333333335e-05,
|
|
"loss": 1.5585,
|
|
"step": 745
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0916666666666666e-05,
|
|
"loss": 1.649,
|
|
"step": 746
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.09e-05,
|
|
"loss": 1.5872,
|
|
"step": 747
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0883333333333334e-05,
|
|
"loss": 1.5459,
|
|
"step": 748
|
|
},
|
|
{
|
|
"epoch": 0.37,
|
|
"learning_rate": 2.0866666666666668e-05,
|
|
"loss": 1.6291,
|
|
"step": 749
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.085e-05,
|
|
"loss": 1.6041,
|
|
"step": 750
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0833333333333333e-05,
|
|
"loss": 1.613,
|
|
"step": 751
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0816666666666667e-05,
|
|
"loss": 1.5723,
|
|
"step": 752
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.08e-05,
|
|
"loss": 1.6065,
|
|
"step": 753
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0783333333333335e-05,
|
|
"loss": 1.6199,
|
|
"step": 754
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0766666666666665e-05,
|
|
"loss": 1.6393,
|
|
"step": 755
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.075e-05,
|
|
"loss": 1.6302,
|
|
"step": 756
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0733333333333334e-05,
|
|
"loss": 1.5949,
|
|
"step": 757
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0716666666666668e-05,
|
|
"loss": 1.6181,
|
|
"step": 758
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.07e-05,
|
|
"loss": 1.5542,
|
|
"step": 759
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0683333333333332e-05,
|
|
"loss": 1.6459,
|
|
"step": 760
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0666666666666666e-05,
|
|
"loss": 1.6927,
|
|
"step": 761
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.065e-05,
|
|
"loss": 1.6379,
|
|
"step": 762
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0633333333333335e-05,
|
|
"loss": 1.6239,
|
|
"step": 763
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0616666666666665e-05,
|
|
"loss": 1.6242,
|
|
"step": 764
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.06e-05,
|
|
"loss": 1.5522,
|
|
"step": 765
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0583333333333333e-05,
|
|
"loss": 1.6693,
|
|
"step": 766
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0566666666666667e-05,
|
|
"loss": 1.5492,
|
|
"step": 767
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.055e-05,
|
|
"loss": 1.6026,
|
|
"step": 768
|
|
},
|
|
{
|
|
"epoch": 0.38,
|
|
"learning_rate": 2.0533333333333332e-05,
|
|
"loss": 1.6107,
|
|
"step": 769
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0516666666666666e-05,
|
|
"loss": 1.5896,
|
|
"step": 770
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.05e-05,
|
|
"loss": 1.5141,
|
|
"step": 771
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0483333333333334e-05,
|
|
"loss": 1.655,
|
|
"step": 772
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0466666666666665e-05,
|
|
"loss": 1.6623,
|
|
"step": 773
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.045e-05,
|
|
"loss": 1.5938,
|
|
"step": 774
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0433333333333333e-05,
|
|
"loss": 1.6357,
|
|
"step": 775
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0416666666666667e-05,
|
|
"loss": 1.6067,
|
|
"step": 776
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.04e-05,
|
|
"loss": 1.6066,
|
|
"step": 777
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0383333333333332e-05,
|
|
"loss": 1.6611,
|
|
"step": 778
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0366666666666666e-05,
|
|
"loss": 1.6165,
|
|
"step": 779
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.035e-05,
|
|
"loss": 1.6102,
|
|
"step": 780
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0333333333333334e-05,
|
|
"loss": 1.5749,
|
|
"step": 781
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0316666666666665e-05,
|
|
"loss": 1.5482,
|
|
"step": 782
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.03e-05,
|
|
"loss": 1.6432,
|
|
"step": 783
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0283333333333333e-05,
|
|
"loss": 1.6547,
|
|
"step": 784
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0266666666666667e-05,
|
|
"loss": 1.6132,
|
|
"step": 785
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.025e-05,
|
|
"loss": 1.5564,
|
|
"step": 786
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.023333333333333e-05,
|
|
"loss": 1.6715,
|
|
"step": 787
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.0216666666666666e-05,
|
|
"loss": 1.5699,
|
|
"step": 788
|
|
},
|
|
{
|
|
"epoch": 0.39,
|
|
"learning_rate": 2.02e-05,
|
|
"loss": 1.6747,
|
|
"step": 789
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0183333333333334e-05,
|
|
"loss": 1.6093,
|
|
"step": 790
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0166666666666668e-05,
|
|
"loss": 1.5568,
|
|
"step": 791
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.015e-05,
|
|
"loss": 1.5715,
|
|
"step": 792
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0133333333333333e-05,
|
|
"loss": 1.6006,
|
|
"step": 793
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0116666666666667e-05,
|
|
"loss": 1.6163,
|
|
"step": 794
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.01e-05,
|
|
"loss": 1.566,
|
|
"step": 795
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.008333333333333e-05,
|
|
"loss": 1.5815,
|
|
"step": 796
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0066666666666665e-05,
|
|
"loss": 1.4918,
|
|
"step": 797
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.005e-05,
|
|
"loss": 1.6575,
|
|
"step": 798
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0033333333333334e-05,
|
|
"loss": 1.6007,
|
|
"step": 799
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 2.0016666666666668e-05,
|
|
"loss": 1.5914,
|
|
"step": 800
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9999999999999998e-05,
|
|
"loss": 1.5458,
|
|
"step": 801
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9983333333333332e-05,
|
|
"loss": 1.5558,
|
|
"step": 802
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9966666666666666e-05,
|
|
"loss": 1.5813,
|
|
"step": 803
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.995e-05,
|
|
"loss": 1.6143,
|
|
"step": 804
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.993333333333333e-05,
|
|
"loss": 1.6275,
|
|
"step": 805
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9916666666666665e-05,
|
|
"loss": 1.5806,
|
|
"step": 806
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.99e-05,
|
|
"loss": 1.7256,
|
|
"step": 807
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9883333333333333e-05,
|
|
"loss": 1.6191,
|
|
"step": 808
|
|
},
|
|
{
|
|
"epoch": 0.4,
|
|
"learning_rate": 1.9866666666666667e-05,
|
|
"loss": 1.7145,
|
|
"step": 809
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9849999999999998e-05,
|
|
"loss": 1.6782,
|
|
"step": 810
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9833333333333332e-05,
|
|
"loss": 1.6276,
|
|
"step": 811
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9816666666666666e-05,
|
|
"loss": 1.5399,
|
|
"step": 812
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.98e-05,
|
|
"loss": 1.6111,
|
|
"step": 813
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9783333333333334e-05,
|
|
"loss": 1.5063,
|
|
"step": 814
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9766666666666665e-05,
|
|
"loss": 1.6463,
|
|
"step": 815
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.975e-05,
|
|
"loss": 1.6131,
|
|
"step": 816
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9733333333333333e-05,
|
|
"loss": 1.6156,
|
|
"step": 817
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9716666666666667e-05,
|
|
"loss": 1.6121,
|
|
"step": 818
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9699999999999998e-05,
|
|
"loss": 1.6344,
|
|
"step": 819
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9683333333333332e-05,
|
|
"loss": 1.6571,
|
|
"step": 820
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9666666666666666e-05,
|
|
"loss": 1.5878,
|
|
"step": 821
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.965e-05,
|
|
"loss": 1.6096,
|
|
"step": 822
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9633333333333334e-05,
|
|
"loss": 1.618,
|
|
"step": 823
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9616666666666665e-05,
|
|
"loss": 1.5772,
|
|
"step": 824
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.96e-05,
|
|
"loss": 1.673,
|
|
"step": 825
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9583333333333333e-05,
|
|
"loss": 1.6192,
|
|
"step": 826
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9566666666666667e-05,
|
|
"loss": 1.5703,
|
|
"step": 827
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9549999999999997e-05,
|
|
"loss": 1.5985,
|
|
"step": 828
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.953333333333333e-05,
|
|
"loss": 1.6373,
|
|
"step": 829
|
|
},
|
|
{
|
|
"epoch": 0.41,
|
|
"learning_rate": 1.9516666666666666e-05,
|
|
"loss": 1.6307,
|
|
"step": 830
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.95e-05,
|
|
"loss": 1.6137,
|
|
"step": 831
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9483333333333334e-05,
|
|
"loss": 1.6347,
|
|
"step": 832
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9466666666666664e-05,
|
|
"loss": 1.6203,
|
|
"step": 833
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.945e-05,
|
|
"loss": 1.5953,
|
|
"step": 834
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9433333333333332e-05,
|
|
"loss": 1.565,
|
|
"step": 835
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9416666666666667e-05,
|
|
"loss": 1.5791,
|
|
"step": 836
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9399999999999997e-05,
|
|
"loss": 1.5879,
|
|
"step": 837
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.938333333333333e-05,
|
|
"loss": 1.6233,
|
|
"step": 838
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9366666666666665e-05,
|
|
"loss": 1.5762,
|
|
"step": 839
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.935e-05,
|
|
"loss": 1.5398,
|
|
"step": 840
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9333333333333333e-05,
|
|
"loss": 1.4702,
|
|
"step": 841
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9316666666666664e-05,
|
|
"loss": 1.5915,
|
|
"step": 842
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9299999999999998e-05,
|
|
"loss": 1.5819,
|
|
"step": 843
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9283333333333336e-05,
|
|
"loss": 1.6009,
|
|
"step": 844
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.926666666666667e-05,
|
|
"loss": 1.5981,
|
|
"step": 845
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9250000000000004e-05,
|
|
"loss": 1.586,
|
|
"step": 846
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9233333333333334e-05,
|
|
"loss": 1.5202,
|
|
"step": 847
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.921666666666667e-05,
|
|
"loss": 1.6575,
|
|
"step": 848
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9200000000000003e-05,
|
|
"loss": 1.6032,
|
|
"step": 849
|
|
},
|
|
{
|
|
"epoch": 0.42,
|
|
"learning_rate": 1.9183333333333337e-05,
|
|
"loss": 1.6136,
|
|
"step": 850
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9166666666666667e-05,
|
|
"loss": 1.6383,
|
|
"step": 851
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.915e-05,
|
|
"loss": 1.5523,
|
|
"step": 852
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9133333333333335e-05,
|
|
"loss": 1.6214,
|
|
"step": 853
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.911666666666667e-05,
|
|
"loss": 1.5784,
|
|
"step": 854
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9100000000000003e-05,
|
|
"loss": 1.6271,
|
|
"step": 855
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9083333333333334e-05,
|
|
"loss": 1.5944,
|
|
"step": 856
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9066666666666668e-05,
|
|
"loss": 1.6116,
|
|
"step": 857
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9050000000000002e-05,
|
|
"loss": 1.6507,
|
|
"step": 858
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9033333333333336e-05,
|
|
"loss": 1.6076,
|
|
"step": 859
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9016666666666667e-05,
|
|
"loss": 1.607,
|
|
"step": 860
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.9e-05,
|
|
"loss": 1.6212,
|
|
"step": 861
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8983333333333335e-05,
|
|
"loss": 1.6055,
|
|
"step": 862
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.896666666666667e-05,
|
|
"loss": 1.5756,
|
|
"step": 863
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8950000000000003e-05,
|
|
"loss": 1.6118,
|
|
"step": 864
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8933333333333334e-05,
|
|
"loss": 1.5765,
|
|
"step": 865
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8916666666666668e-05,
|
|
"loss": 1.5934,
|
|
"step": 866
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8900000000000002e-05,
|
|
"loss": 1.6527,
|
|
"step": 867
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.8883333333333336e-05,
|
|
"loss": 1.5825,
|
|
"step": 868
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.886666666666667e-05,
|
|
"loss": 1.547,
|
|
"step": 869
|
|
},
|
|
{
|
|
"epoch": 0.43,
|
|
"learning_rate": 1.885e-05,
|
|
"loss": 1.6314,
|
|
"step": 870
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8833333333333335e-05,
|
|
"loss": 1.6024,
|
|
"step": 871
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.881666666666667e-05,
|
|
"loss": 1.6144,
|
|
"step": 872
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8800000000000003e-05,
|
|
"loss": 1.643,
|
|
"step": 873
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8783333333333334e-05,
|
|
"loss": 1.5551,
|
|
"step": 874
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8766666666666668e-05,
|
|
"loss": 1.5508,
|
|
"step": 875
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8750000000000002e-05,
|
|
"loss": 1.6318,
|
|
"step": 876
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8733333333333336e-05,
|
|
"loss": 1.6093,
|
|
"step": 877
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.871666666666667e-05,
|
|
"loss": 1.6631,
|
|
"step": 878
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.87e-05,
|
|
"loss": 1.5921,
|
|
"step": 879
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8683333333333335e-05,
|
|
"loss": 1.5354,
|
|
"step": 880
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.866666666666667e-05,
|
|
"loss": 1.6345,
|
|
"step": 881
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8650000000000003e-05,
|
|
"loss": 1.6121,
|
|
"step": 882
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8633333333333333e-05,
|
|
"loss": 1.6168,
|
|
"step": 883
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8616666666666667e-05,
|
|
"loss": 1.6567,
|
|
"step": 884
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.86e-05,
|
|
"loss": 1.6917,
|
|
"step": 885
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8583333333333336e-05,
|
|
"loss": 1.629,
|
|
"step": 886
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.856666666666667e-05,
|
|
"loss": 1.6652,
|
|
"step": 887
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.855e-05,
|
|
"loss": 1.6227,
|
|
"step": 888
|
|
},
|
|
{
|
|
"epoch": 0.44,
|
|
"learning_rate": 1.8533333333333334e-05,
|
|
"loss": 1.5935,
|
|
"step": 889
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.851666666666667e-05,
|
|
"loss": 1.6451,
|
|
"step": 890
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8500000000000002e-05,
|
|
"loss": 1.6024,
|
|
"step": 891
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8483333333333337e-05,
|
|
"loss": 1.6215,
|
|
"step": 892
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8466666666666667e-05,
|
|
"loss": 1.5804,
|
|
"step": 893
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.845e-05,
|
|
"loss": 1.641,
|
|
"step": 894
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8433333333333335e-05,
|
|
"loss": 1.5688,
|
|
"step": 895
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.841666666666667e-05,
|
|
"loss": 1.5367,
|
|
"step": 896
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.84e-05,
|
|
"loss": 1.6075,
|
|
"step": 897
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8383333333333334e-05,
|
|
"loss": 1.5584,
|
|
"step": 898
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8366666666666668e-05,
|
|
"loss": 1.6435,
|
|
"step": 899
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8350000000000002e-05,
|
|
"loss": 1.6174,
|
|
"step": 900
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8333333333333336e-05,
|
|
"loss": 1.6112,
|
|
"step": 901
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8316666666666667e-05,
|
|
"loss": 1.5923,
|
|
"step": 902
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.83e-05,
|
|
"loss": 1.64,
|
|
"step": 903
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8283333333333335e-05,
|
|
"loss": 1.6189,
|
|
"step": 904
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.826666666666667e-05,
|
|
"loss": 1.5564,
|
|
"step": 905
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.825e-05,
|
|
"loss": 1.5713,
|
|
"step": 906
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8233333333333334e-05,
|
|
"loss": 1.5673,
|
|
"step": 907
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8216666666666668e-05,
|
|
"loss": 1.6326,
|
|
"step": 908
|
|
},
|
|
{
|
|
"epoch": 0.45,
|
|
"learning_rate": 1.8200000000000002e-05,
|
|
"loss": 1.6599,
|
|
"step": 909
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8183333333333336e-05,
|
|
"loss": 1.6365,
|
|
"step": 910
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8166666666666667e-05,
|
|
"loss": 1.5509,
|
|
"step": 911
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.815e-05,
|
|
"loss": 1.6177,
|
|
"step": 912
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8133333333333335e-05,
|
|
"loss": 1.6052,
|
|
"step": 913
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.811666666666667e-05,
|
|
"loss": 1.6148,
|
|
"step": 914
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8100000000000003e-05,
|
|
"loss": 1.6028,
|
|
"step": 915
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8083333333333334e-05,
|
|
"loss": 1.5847,
|
|
"step": 916
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8066666666666668e-05,
|
|
"loss": 1.5654,
|
|
"step": 917
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.805e-05,
|
|
"loss": 1.6228,
|
|
"step": 918
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8033333333333336e-05,
|
|
"loss": 1.5965,
|
|
"step": 919
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8016666666666666e-05,
|
|
"loss": 1.5995,
|
|
"step": 920
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.8e-05,
|
|
"loss": 1.6607,
|
|
"step": 921
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7983333333333335e-05,
|
|
"loss": 1.6159,
|
|
"step": 922
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.796666666666667e-05,
|
|
"loss": 1.5828,
|
|
"step": 923
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7950000000000003e-05,
|
|
"loss": 1.633,
|
|
"step": 924
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7933333333333333e-05,
|
|
"loss": 1.5349,
|
|
"step": 925
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7916666666666667e-05,
|
|
"loss": 1.5985,
|
|
"step": 926
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.79e-05,
|
|
"loss": 1.629,
|
|
"step": 927
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7883333333333335e-05,
|
|
"loss": 1.6485,
|
|
"step": 928
|
|
},
|
|
{
|
|
"epoch": 0.46,
|
|
"learning_rate": 1.7866666666666666e-05,
|
|
"loss": 1.6107,
|
|
"step": 929
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.785e-05,
|
|
"loss": 1.5622,
|
|
"step": 930
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7833333333333334e-05,
|
|
"loss": 1.5591,
|
|
"step": 931
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.781666666666667e-05,
|
|
"loss": 1.6053,
|
|
"step": 932
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7800000000000002e-05,
|
|
"loss": 1.6325,
|
|
"step": 933
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7783333333333333e-05,
|
|
"loss": 1.5535,
|
|
"step": 934
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7766666666666667e-05,
|
|
"loss": 1.6012,
|
|
"step": 935
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.775e-05,
|
|
"loss": 1.5838,
|
|
"step": 936
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7733333333333335e-05,
|
|
"loss": 1.5735,
|
|
"step": 937
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7716666666666666e-05,
|
|
"loss": 1.5962,
|
|
"step": 938
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.77e-05,
|
|
"loss": 1.6439,
|
|
"step": 939
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7683333333333334e-05,
|
|
"loss": 1.5921,
|
|
"step": 940
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7666666666666668e-05,
|
|
"loss": 1.5717,
|
|
"step": 941
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7650000000000002e-05,
|
|
"loss": 1.6092,
|
|
"step": 942
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7633333333333333e-05,
|
|
"loss": 1.604,
|
|
"step": 943
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7616666666666667e-05,
|
|
"loss": 1.6099,
|
|
"step": 944
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.76e-05,
|
|
"loss": 1.6282,
|
|
"step": 945
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7583333333333335e-05,
|
|
"loss": 1.5021,
|
|
"step": 946
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.756666666666667e-05,
|
|
"loss": 1.6059,
|
|
"step": 947
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.755e-05,
|
|
"loss": 1.652,
|
|
"step": 948
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7533333333333334e-05,
|
|
"loss": 1.62,
|
|
"step": 949
|
|
},
|
|
{
|
|
"epoch": 0.47,
|
|
"learning_rate": 1.7516666666666668e-05,
|
|
"loss": 1.6417,
|
|
"step": 950
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7500000000000002e-05,
|
|
"loss": 1.6289,
|
|
"step": 951
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7483333333333333e-05,
|
|
"loss": 1.5926,
|
|
"step": 952
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7466666666666667e-05,
|
|
"loss": 1.5985,
|
|
"step": 953
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.745e-05,
|
|
"loss": 1.5856,
|
|
"step": 954
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7433333333333335e-05,
|
|
"loss": 1.6041,
|
|
"step": 955
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.741666666666667e-05,
|
|
"loss": 1.5978,
|
|
"step": 956
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.74e-05,
|
|
"loss": 1.6044,
|
|
"step": 957
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7383333333333333e-05,
|
|
"loss": 1.5701,
|
|
"step": 958
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7366666666666668e-05,
|
|
"loss": 1.607,
|
|
"step": 959
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.735e-05,
|
|
"loss": 1.5858,
|
|
"step": 960
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7333333333333332e-05,
|
|
"loss": 1.6919,
|
|
"step": 961
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7316666666666666e-05,
|
|
"loss": 1.5634,
|
|
"step": 962
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.73e-05,
|
|
"loss": 1.632,
|
|
"step": 963
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7283333333333334e-05,
|
|
"loss": 1.6019,
|
|
"step": 964
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.726666666666667e-05,
|
|
"loss": 1.6092,
|
|
"step": 965
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.725e-05,
|
|
"loss": 1.5799,
|
|
"step": 966
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7233333333333333e-05,
|
|
"loss": 1.5763,
|
|
"step": 967
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7216666666666667e-05,
|
|
"loss": 1.6312,
|
|
"step": 968
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.72e-05,
|
|
"loss": 1.6286,
|
|
"step": 969
|
|
},
|
|
{
|
|
"epoch": 0.48,
|
|
"learning_rate": 1.7183333333333335e-05,
|
|
"loss": 1.6163,
|
|
"step": 970
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7166666666666666e-05,
|
|
"loss": 1.5303,
|
|
"step": 971
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.715e-05,
|
|
"loss": 1.5876,
|
|
"step": 972
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7133333333333334e-05,
|
|
"loss": 1.5808,
|
|
"step": 973
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7116666666666668e-05,
|
|
"loss": 1.5531,
|
|
"step": 974
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.71e-05,
|
|
"loss": 1.5831,
|
|
"step": 975
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7083333333333333e-05,
|
|
"loss": 1.6419,
|
|
"step": 976
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7066666666666667e-05,
|
|
"loss": 1.5729,
|
|
"step": 977
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.705e-05,
|
|
"loss": 1.6208,
|
|
"step": 978
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7033333333333335e-05,
|
|
"loss": 1.5798,
|
|
"step": 979
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7016666666666666e-05,
|
|
"loss": 1.5551,
|
|
"step": 980
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.7e-05,
|
|
"loss": 1.6147,
|
|
"step": 981
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6983333333333334e-05,
|
|
"loss": 1.5777,
|
|
"step": 982
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6966666666666668e-05,
|
|
"loss": 1.6026,
|
|
"step": 983
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.695e-05,
|
|
"loss": 1.5926,
|
|
"step": 984
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6933333333333333e-05,
|
|
"loss": 1.5963,
|
|
"step": 985
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6916666666666667e-05,
|
|
"loss": 1.5545,
|
|
"step": 986
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.69e-05,
|
|
"loss": 1.5499,
|
|
"step": 987
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6883333333333335e-05,
|
|
"loss": 1.6348,
|
|
"step": 988
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.6866666666666666e-05,
|
|
"loss": 1.6342,
|
|
"step": 989
|
|
},
|
|
{
|
|
"epoch": 0.49,
|
|
"learning_rate": 1.685e-05,
|
|
"loss": 1.6254,
|
|
"step": 990
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6833333333333334e-05,
|
|
"loss": 1.6062,
|
|
"step": 991
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6816666666666668e-05,
|
|
"loss": 1.6181,
|
|
"step": 992
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6800000000000002e-05,
|
|
"loss": 1.5167,
|
|
"step": 993
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6783333333333332e-05,
|
|
"loss": 1.5957,
|
|
"step": 994
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6766666666666667e-05,
|
|
"loss": 1.6438,
|
|
"step": 995
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.675e-05,
|
|
"loss": 1.5637,
|
|
"step": 996
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6733333333333335e-05,
|
|
"loss": 1.6198,
|
|
"step": 997
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6716666666666665e-05,
|
|
"loss": 1.625,
|
|
"step": 998
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.67e-05,
|
|
"loss": 1.5912,
|
|
"step": 999
|
|
},
|
|
{
|
|
"epoch": 0.5,
|
|
"learning_rate": 1.6683333333333333e-05,
|
|
"loss": 1.5689,
|
|
"step": 1000
|
|
}
|
|
],
|
|
"logging_steps": 1.0,
|
|
"max_steps": 2000,
|
|
"num_train_epochs": 9223372036854775807,
|
|
"save_steps": 200,
|
|
"total_flos": 8373092430643200.0,
|
|
"trial_name": null,
|
|
"trial_params": null
|
|
}
|