1535 lines
42 KiB
JSON
1535 lines
42 KiB
JSON
{
|
|
"best_global_step": null,
|
|
"best_metric": null,
|
|
"best_model_checkpoint": null,
|
|
"epoch": 2.0,
|
|
"eval_steps": 500,
|
|
"global_step": 1500,
|
|
"is_hyper_param_search": false,
|
|
"is_local_process_zero": true,
|
|
"is_world_process_zero": true,
|
|
"log_history": [
|
|
{
|
|
"entropy": 1.7908701181411744,
|
|
"epoch": 0.013333333333333334,
|
|
"grad_norm": 1.1777843236923218,
|
|
"learning_rate": 0.00019952000000000001,
|
|
"loss": 1.8912,
|
|
"mean_token_accuracy": 0.5405127346515656,
|
|
"num_tokens": 14665.0,
|
|
"step": 10
|
|
},
|
|
{
|
|
"entropy": 1.757728385925293,
|
|
"epoch": 0.02666666666666667,
|
|
"grad_norm": 0.9262706637382507,
|
|
"learning_rate": 0.00019898666666666668,
|
|
"loss": 1.7762,
|
|
"mean_token_accuracy": 0.5599964261054993,
|
|
"num_tokens": 29061.0,
|
|
"step": 20
|
|
},
|
|
{
|
|
"entropy": 1.705195951461792,
|
|
"epoch": 0.04,
|
|
"grad_norm": 0.8576209545135498,
|
|
"learning_rate": 0.00019845333333333334,
|
|
"loss": 1.7582,
|
|
"mean_token_accuracy": 0.5612735390663147,
|
|
"num_tokens": 43628.0,
|
|
"step": 30
|
|
},
|
|
{
|
|
"entropy": 1.764819598197937,
|
|
"epoch": 0.05333333333333334,
|
|
"grad_norm": 0.9937595725059509,
|
|
"learning_rate": 0.00019792000000000003,
|
|
"loss": 1.7875,
|
|
"mean_token_accuracy": 0.5601426303386688,
|
|
"num_tokens": 57878.0,
|
|
"step": 40
|
|
},
|
|
{
|
|
"entropy": 1.692608082294464,
|
|
"epoch": 0.06666666666666667,
|
|
"grad_norm": 0.8142558932304382,
|
|
"learning_rate": 0.00019738666666666667,
|
|
"loss": 1.7188,
|
|
"mean_token_accuracy": 0.5711204051971436,
|
|
"num_tokens": 72081.0,
|
|
"step": 50
|
|
},
|
|
{
|
|
"entropy": 1.713820493221283,
|
|
"epoch": 0.08,
|
|
"grad_norm": 0.8134881854057312,
|
|
"learning_rate": 0.00019685333333333333,
|
|
"loss": 1.7262,
|
|
"mean_token_accuracy": 0.5672860145568848,
|
|
"num_tokens": 86547.0,
|
|
"step": 60
|
|
},
|
|
{
|
|
"entropy": 1.7069548845291138,
|
|
"epoch": 0.09333333333333334,
|
|
"grad_norm": 0.7980002760887146,
|
|
"learning_rate": 0.00019632000000000002,
|
|
"loss": 1.7412,
|
|
"mean_token_accuracy": 0.5662308156490325,
|
|
"num_tokens": 100695.0,
|
|
"step": 70
|
|
},
|
|
{
|
|
"entropy": 1.7331032037734986,
|
|
"epoch": 0.10666666666666667,
|
|
"grad_norm": 0.8221873044967651,
|
|
"learning_rate": 0.00019578666666666668,
|
|
"loss": 1.7445,
|
|
"mean_token_accuracy": 0.5610231578350067,
|
|
"num_tokens": 114813.0,
|
|
"step": 80
|
|
},
|
|
{
|
|
"entropy": 1.7180450558662415,
|
|
"epoch": 0.12,
|
|
"grad_norm": 0.8718360662460327,
|
|
"learning_rate": 0.00019525333333333334,
|
|
"loss": 1.7297,
|
|
"mean_token_accuracy": 0.5656625151634216,
|
|
"num_tokens": 128864.0,
|
|
"step": 90
|
|
},
|
|
{
|
|
"entropy": 1.6863915205001831,
|
|
"epoch": 0.13333333333333333,
|
|
"grad_norm": 0.7490881085395813,
|
|
"learning_rate": 0.00019472,
|
|
"loss": 1.7097,
|
|
"mean_token_accuracy": 0.5710519969463348,
|
|
"num_tokens": 143400.0,
|
|
"step": 100
|
|
},
|
|
{
|
|
"entropy": 1.656905508041382,
|
|
"epoch": 0.14666666666666667,
|
|
"grad_norm": 0.7690205574035645,
|
|
"learning_rate": 0.00019418666666666667,
|
|
"loss": 1.6377,
|
|
"mean_token_accuracy": 0.5826482594013214,
|
|
"num_tokens": 157812.0,
|
|
"step": 110
|
|
},
|
|
{
|
|
"entropy": 1.70476393699646,
|
|
"epoch": 0.16,
|
|
"grad_norm": 0.7643902897834778,
|
|
"learning_rate": 0.00019365333333333336,
|
|
"loss": 1.7258,
|
|
"mean_token_accuracy": 0.5608070731163025,
|
|
"num_tokens": 171892.0,
|
|
"step": 120
|
|
},
|
|
{
|
|
"entropy": 1.6601023912429809,
|
|
"epoch": 0.17333333333333334,
|
|
"grad_norm": 0.8293864130973816,
|
|
"learning_rate": 0.00019312000000000002,
|
|
"loss": 1.6714,
|
|
"mean_token_accuracy": 0.5756373822689056,
|
|
"num_tokens": 186019.0,
|
|
"step": 130
|
|
},
|
|
{
|
|
"entropy": 1.6955374836921693,
|
|
"epoch": 0.18666666666666668,
|
|
"grad_norm": 0.8544629812240601,
|
|
"learning_rate": 0.00019258666666666668,
|
|
"loss": 1.6904,
|
|
"mean_token_accuracy": 0.5779714524745941,
|
|
"num_tokens": 200048.0,
|
|
"step": 140
|
|
},
|
|
{
|
|
"entropy": 1.672298264503479,
|
|
"epoch": 0.2,
|
|
"grad_norm": 0.7459447383880615,
|
|
"learning_rate": 0.00019205333333333335,
|
|
"loss": 1.6373,
|
|
"mean_token_accuracy": 0.5774146437644958,
|
|
"num_tokens": 214845.0,
|
|
"step": 150
|
|
},
|
|
{
|
|
"entropy": 1.621527373790741,
|
|
"epoch": 0.21333333333333335,
|
|
"grad_norm": 0.778339684009552,
|
|
"learning_rate": 0.00019152,
|
|
"loss": 1.6564,
|
|
"mean_token_accuracy": 0.5799753427505493,
|
|
"num_tokens": 228965.0,
|
|
"step": 160
|
|
},
|
|
{
|
|
"entropy": 1.6854836463928222,
|
|
"epoch": 0.22666666666666666,
|
|
"grad_norm": 0.7781394720077515,
|
|
"learning_rate": 0.00019098666666666667,
|
|
"loss": 1.6731,
|
|
"mean_token_accuracy": 0.5745640277862549,
|
|
"num_tokens": 243138.0,
|
|
"step": 170
|
|
},
|
|
{
|
|
"entropy": 1.648065435886383,
|
|
"epoch": 0.24,
|
|
"grad_norm": 0.7444502711296082,
|
|
"learning_rate": 0.00019045333333333336,
|
|
"loss": 1.6556,
|
|
"mean_token_accuracy": 0.5753928661346436,
|
|
"num_tokens": 257706.0,
|
|
"step": 180
|
|
},
|
|
{
|
|
"entropy": 1.6733452081680298,
|
|
"epoch": 0.25333333333333335,
|
|
"grad_norm": 0.6875325441360474,
|
|
"learning_rate": 0.00018992,
|
|
"loss": 1.6905,
|
|
"mean_token_accuracy": 0.5732767701148986,
|
|
"num_tokens": 271550.0,
|
|
"step": 190
|
|
},
|
|
{
|
|
"entropy": 1.675937283039093,
|
|
"epoch": 0.26666666666666666,
|
|
"grad_norm": 0.7303425073623657,
|
|
"learning_rate": 0.00018938666666666666,
|
|
"loss": 1.6684,
|
|
"mean_token_accuracy": 0.5771281003952027,
|
|
"num_tokens": 285690.0,
|
|
"step": 200
|
|
},
|
|
{
|
|
"entropy": 1.6358152866363525,
|
|
"epoch": 0.28,
|
|
"grad_norm": 0.7411030530929565,
|
|
"learning_rate": 0.00018885333333333335,
|
|
"loss": 1.6339,
|
|
"mean_token_accuracy": 0.5838043510913848,
|
|
"num_tokens": 300104.0,
|
|
"step": 210
|
|
},
|
|
{
|
|
"entropy": 1.6545907258987427,
|
|
"epoch": 0.29333333333333333,
|
|
"grad_norm": 0.7895593047142029,
|
|
"learning_rate": 0.00018832,
|
|
"loss": 1.6858,
|
|
"mean_token_accuracy": 0.5718037188053131,
|
|
"num_tokens": 314047.0,
|
|
"step": 220
|
|
},
|
|
{
|
|
"entropy": 1.6488535761833192,
|
|
"epoch": 0.30666666666666664,
|
|
"grad_norm": 0.7785155177116394,
|
|
"learning_rate": 0.00018778666666666668,
|
|
"loss": 1.6694,
|
|
"mean_token_accuracy": 0.5763668715953827,
|
|
"num_tokens": 328674.0,
|
|
"step": 230
|
|
},
|
|
{
|
|
"entropy": 1.6801724672317504,
|
|
"epoch": 0.32,
|
|
"grad_norm": 0.697731614112854,
|
|
"learning_rate": 0.00018725333333333334,
|
|
"loss": 1.6564,
|
|
"mean_token_accuracy": 0.5734941899776459,
|
|
"num_tokens": 342932.0,
|
|
"step": 240
|
|
},
|
|
{
|
|
"entropy": 1.6780007004737854,
|
|
"epoch": 0.3333333333333333,
|
|
"grad_norm": 0.7615799903869629,
|
|
"learning_rate": 0.00018672,
|
|
"loss": 1.694,
|
|
"mean_token_accuracy": 0.5711317896842957,
|
|
"num_tokens": 357167.0,
|
|
"step": 250
|
|
},
|
|
{
|
|
"entropy": 1.6752456307411194,
|
|
"epoch": 0.3466666666666667,
|
|
"grad_norm": 0.715129017829895,
|
|
"learning_rate": 0.00018618666666666666,
|
|
"loss": 1.6726,
|
|
"mean_token_accuracy": 0.5754297077655792,
|
|
"num_tokens": 371293.0,
|
|
"step": 260
|
|
},
|
|
{
|
|
"entropy": 1.6538572311401367,
|
|
"epoch": 0.36,
|
|
"grad_norm": 0.8093023896217346,
|
|
"learning_rate": 0.00018565333333333335,
|
|
"loss": 1.6722,
|
|
"mean_token_accuracy": 0.5708646178245544,
|
|
"num_tokens": 385455.0,
|
|
"step": 270
|
|
},
|
|
{
|
|
"entropy": 1.6819413661956788,
|
|
"epoch": 0.37333333333333335,
|
|
"grad_norm": 0.7279489636421204,
|
|
"learning_rate": 0.00018512000000000002,
|
|
"loss": 1.6482,
|
|
"mean_token_accuracy": 0.5810510337352752,
|
|
"num_tokens": 399994.0,
|
|
"step": 280
|
|
},
|
|
{
|
|
"entropy": 1.6535839796066285,
|
|
"epoch": 0.38666666666666666,
|
|
"grad_norm": 0.7264725565910339,
|
|
"learning_rate": 0.00018458666666666668,
|
|
"loss": 1.6601,
|
|
"mean_token_accuracy": 0.5782212734222412,
|
|
"num_tokens": 414302.0,
|
|
"step": 290
|
|
},
|
|
{
|
|
"entropy": 1.6291370630264281,
|
|
"epoch": 0.4,
|
|
"grad_norm": 0.7391830682754517,
|
|
"learning_rate": 0.00018405333333333334,
|
|
"loss": 1.6252,
|
|
"mean_token_accuracy": 0.5810718059539794,
|
|
"num_tokens": 428367.0,
|
|
"step": 300
|
|
},
|
|
{
|
|
"entropy": 1.6454604744911194,
|
|
"epoch": 0.41333333333333333,
|
|
"grad_norm": 0.7421492338180542,
|
|
"learning_rate": 0.00018352,
|
|
"loss": 1.6548,
|
|
"mean_token_accuracy": 0.5764368116855622,
|
|
"num_tokens": 442350.0,
|
|
"step": 310
|
|
},
|
|
{
|
|
"entropy": 1.6191022634506225,
|
|
"epoch": 0.4266666666666667,
|
|
"grad_norm": 0.6302896738052368,
|
|
"learning_rate": 0.0001829866666666667,
|
|
"loss": 1.6362,
|
|
"mean_token_accuracy": 0.5786097645759583,
|
|
"num_tokens": 456414.0,
|
|
"step": 320
|
|
},
|
|
{
|
|
"entropy": 1.694426167011261,
|
|
"epoch": 0.44,
|
|
"grad_norm": 0.7121474742889404,
|
|
"learning_rate": 0.00018245333333333333,
|
|
"loss": 1.7126,
|
|
"mean_token_accuracy": 0.5670216321945191,
|
|
"num_tokens": 470836.0,
|
|
"step": 330
|
|
},
|
|
{
|
|
"entropy": 1.724251127243042,
|
|
"epoch": 0.4533333333333333,
|
|
"grad_norm": 0.6601665019989014,
|
|
"learning_rate": 0.00018192,
|
|
"loss": 1.7136,
|
|
"mean_token_accuracy": 0.5723266065120697,
|
|
"num_tokens": 485043.0,
|
|
"step": 340
|
|
},
|
|
{
|
|
"entropy": 1.6735360264778136,
|
|
"epoch": 0.4666666666666667,
|
|
"grad_norm": 0.8272239565849304,
|
|
"learning_rate": 0.00018138666666666668,
|
|
"loss": 1.6753,
|
|
"mean_token_accuracy": 0.5723617672920227,
|
|
"num_tokens": 499183.0,
|
|
"step": 350
|
|
},
|
|
{
|
|
"entropy": 1.6469814419746398,
|
|
"epoch": 0.48,
|
|
"grad_norm": 0.7188411951065063,
|
|
"learning_rate": 0.00018085333333333335,
|
|
"loss": 1.6475,
|
|
"mean_token_accuracy": 0.5769975543022156,
|
|
"num_tokens": 513579.0,
|
|
"step": 360
|
|
},
|
|
{
|
|
"entropy": 1.6747308850288392,
|
|
"epoch": 0.49333333333333335,
|
|
"grad_norm": 0.7487552762031555,
|
|
"learning_rate": 0.00018032,
|
|
"loss": 1.6823,
|
|
"mean_token_accuracy": 0.5752046227455139,
|
|
"num_tokens": 527660.0,
|
|
"step": 370
|
|
},
|
|
{
|
|
"entropy": 1.666330885887146,
|
|
"epoch": 0.5066666666666667,
|
|
"grad_norm": 0.6975488662719727,
|
|
"learning_rate": 0.00017978666666666667,
|
|
"loss": 1.6582,
|
|
"mean_token_accuracy": 0.5811319828033448,
|
|
"num_tokens": 542081.0,
|
|
"step": 380
|
|
},
|
|
{
|
|
"entropy": 1.6803588151931763,
|
|
"epoch": 0.52,
|
|
"grad_norm": 0.737691342830658,
|
|
"learning_rate": 0.00017925333333333333,
|
|
"loss": 1.6788,
|
|
"mean_token_accuracy": 0.5737549722194671,
|
|
"num_tokens": 556595.0,
|
|
"step": 390
|
|
},
|
|
{
|
|
"entropy": 1.6843163609504699,
|
|
"epoch": 0.5333333333333333,
|
|
"grad_norm": 0.739733099937439,
|
|
"learning_rate": 0.00017872,
|
|
"loss": 1.6939,
|
|
"mean_token_accuracy": 0.5709910333156586,
|
|
"num_tokens": 570777.0,
|
|
"step": 400
|
|
},
|
|
{
|
|
"entropy": 1.6645950436592103,
|
|
"epoch": 0.5466666666666666,
|
|
"grad_norm": 0.7805267572402954,
|
|
"learning_rate": 0.00017818666666666669,
|
|
"loss": 1.6813,
|
|
"mean_token_accuracy": 0.5687461018562316,
|
|
"num_tokens": 585138.0,
|
|
"step": 410
|
|
},
|
|
{
|
|
"entropy": 1.6936459064483642,
|
|
"epoch": 0.56,
|
|
"grad_norm": 0.726749062538147,
|
|
"learning_rate": 0.00017765333333333335,
|
|
"loss": 1.6973,
|
|
"mean_token_accuracy": 0.5707198500633239,
|
|
"num_tokens": 599933.0,
|
|
"step": 420
|
|
},
|
|
{
|
|
"entropy": 1.6732940793037414,
|
|
"epoch": 0.5733333333333334,
|
|
"grad_norm": 0.6750204563140869,
|
|
"learning_rate": 0.00017712,
|
|
"loss": 1.6797,
|
|
"mean_token_accuracy": 0.5727494537830353,
|
|
"num_tokens": 614132.0,
|
|
"step": 430
|
|
},
|
|
{
|
|
"entropy": 1.6580298662185669,
|
|
"epoch": 0.5866666666666667,
|
|
"grad_norm": 0.719950795173645,
|
|
"learning_rate": 0.00017658666666666667,
|
|
"loss": 1.6577,
|
|
"mean_token_accuracy": 0.5744940221309662,
|
|
"num_tokens": 628571.0,
|
|
"step": 440
|
|
},
|
|
{
|
|
"entropy": 1.652840507030487,
|
|
"epoch": 0.6,
|
|
"grad_norm": 0.6199878454208374,
|
|
"learning_rate": 0.00017605333333333334,
|
|
"loss": 1.6518,
|
|
"mean_token_accuracy": 0.5756324470043183,
|
|
"num_tokens": 643076.0,
|
|
"step": 450
|
|
},
|
|
{
|
|
"entropy": 1.6695269465446472,
|
|
"epoch": 0.6133333333333333,
|
|
"grad_norm": 0.7818489074707031,
|
|
"learning_rate": 0.00017552000000000003,
|
|
"loss": 1.6768,
|
|
"mean_token_accuracy": 0.5710194766521454,
|
|
"num_tokens": 656943.0,
|
|
"step": 460
|
|
},
|
|
{
|
|
"entropy": 1.668250596523285,
|
|
"epoch": 0.6266666666666667,
|
|
"grad_norm": 0.6790580749511719,
|
|
"learning_rate": 0.0001749866666666667,
|
|
"loss": 1.6783,
|
|
"mean_token_accuracy": 0.5728156328201294,
|
|
"num_tokens": 671345.0,
|
|
"step": 470
|
|
},
|
|
{
|
|
"entropy": 1.6558388233184815,
|
|
"epoch": 0.64,
|
|
"grad_norm": 0.7647916078567505,
|
|
"learning_rate": 0.00017445333333333333,
|
|
"loss": 1.6723,
|
|
"mean_token_accuracy": 0.5740255832672119,
|
|
"num_tokens": 685563.0,
|
|
"step": 480
|
|
},
|
|
{
|
|
"entropy": 1.6663503646850586,
|
|
"epoch": 0.6533333333333333,
|
|
"grad_norm": 0.6828808188438416,
|
|
"learning_rate": 0.00017392000000000002,
|
|
"loss": 1.6718,
|
|
"mean_token_accuracy": 0.5754141092300415,
|
|
"num_tokens": 699746.0,
|
|
"step": 490
|
|
},
|
|
{
|
|
"entropy": 1.6640026688575744,
|
|
"epoch": 0.6666666666666666,
|
|
"grad_norm": 0.7021526098251343,
|
|
"learning_rate": 0.00017338666666666668,
|
|
"loss": 1.6442,
|
|
"mean_token_accuracy": 0.5807092905044555,
|
|
"num_tokens": 714501.0,
|
|
"step": 500
|
|
},
|
|
{
|
|
"entropy": 1.6755484104156495,
|
|
"epoch": 0.68,
|
|
"grad_norm": 0.6762555241584778,
|
|
"learning_rate": 0.00017285333333333334,
|
|
"loss": 1.6864,
|
|
"mean_token_accuracy": 0.5786374986171723,
|
|
"num_tokens": 728741.0,
|
|
"step": 510
|
|
},
|
|
{
|
|
"entropy": 1.6181371688842774,
|
|
"epoch": 0.6933333333333334,
|
|
"grad_norm": 0.7460752129554749,
|
|
"learning_rate": 0.00017232,
|
|
"loss": 1.6443,
|
|
"mean_token_accuracy": 0.5760051727294921,
|
|
"num_tokens": 742943.0,
|
|
"step": 520
|
|
},
|
|
{
|
|
"entropy": 1.6662646651268005,
|
|
"epoch": 0.7066666666666667,
|
|
"grad_norm": 0.6818891167640686,
|
|
"learning_rate": 0.00017178666666666667,
|
|
"loss": 1.6626,
|
|
"mean_token_accuracy": 0.5765082776546478,
|
|
"num_tokens": 757701.0,
|
|
"step": 530
|
|
},
|
|
{
|
|
"entropy": 1.640554964542389,
|
|
"epoch": 0.72,
|
|
"grad_norm": 0.699113130569458,
|
|
"learning_rate": 0.00017125333333333333,
|
|
"loss": 1.6219,
|
|
"mean_token_accuracy": 0.5862498044967651,
|
|
"num_tokens": 772062.0,
|
|
"step": 540
|
|
},
|
|
{
|
|
"entropy": 1.692064070701599,
|
|
"epoch": 0.7333333333333333,
|
|
"grad_norm": 0.7120975852012634,
|
|
"learning_rate": 0.00017072000000000002,
|
|
"loss": 1.6991,
|
|
"mean_token_accuracy": 0.5677917718887329,
|
|
"num_tokens": 786707.0,
|
|
"step": 550
|
|
},
|
|
{
|
|
"entropy": 1.6766908407211303,
|
|
"epoch": 0.7466666666666667,
|
|
"grad_norm": 0.7205502390861511,
|
|
"learning_rate": 0.00017018666666666668,
|
|
"loss": 1.6758,
|
|
"mean_token_accuracy": 0.5790870308876037,
|
|
"num_tokens": 801236.0,
|
|
"step": 560
|
|
},
|
|
{
|
|
"entropy": 1.632925820350647,
|
|
"epoch": 0.76,
|
|
"grad_norm": 0.738036572933197,
|
|
"learning_rate": 0.00016965333333333332,
|
|
"loss": 1.6494,
|
|
"mean_token_accuracy": 0.5808292210102082,
|
|
"num_tokens": 815883.0,
|
|
"step": 570
|
|
},
|
|
{
|
|
"entropy": 1.669986116886139,
|
|
"epoch": 0.7733333333333333,
|
|
"grad_norm": 0.6785821914672852,
|
|
"learning_rate": 0.00016912,
|
|
"loss": 1.6544,
|
|
"mean_token_accuracy": 0.5800759375095368,
|
|
"num_tokens": 829570.0,
|
|
"step": 580
|
|
},
|
|
{
|
|
"entropy": 1.6363327860832215,
|
|
"epoch": 0.7866666666666666,
|
|
"grad_norm": 0.6850758790969849,
|
|
"learning_rate": 0.00016858666666666667,
|
|
"loss": 1.6549,
|
|
"mean_token_accuracy": 0.578828877210617,
|
|
"num_tokens": 844009.0,
|
|
"step": 590
|
|
},
|
|
{
|
|
"entropy": 1.64016250371933,
|
|
"epoch": 0.8,
|
|
"grad_norm": 0.6750107407569885,
|
|
"learning_rate": 0.00016805333333333336,
|
|
"loss": 1.6566,
|
|
"mean_token_accuracy": 0.575623071193695,
|
|
"num_tokens": 858282.0,
|
|
"step": 600
|
|
},
|
|
{
|
|
"entropy": 1.6842385530471802,
|
|
"epoch": 0.8133333333333334,
|
|
"grad_norm": 0.7148203253746033,
|
|
"learning_rate": 0.00016752000000000002,
|
|
"loss": 1.6909,
|
|
"mean_token_accuracy": 0.5759712219238281,
|
|
"num_tokens": 872855.0,
|
|
"step": 610
|
|
},
|
|
{
|
|
"entropy": 1.6071362018585205,
|
|
"epoch": 0.8266666666666667,
|
|
"grad_norm": 0.709815263748169,
|
|
"learning_rate": 0.00016698666666666666,
|
|
"loss": 1.6062,
|
|
"mean_token_accuracy": 0.5838622927665711,
|
|
"num_tokens": 887139.0,
|
|
"step": 620
|
|
},
|
|
{
|
|
"entropy": 1.647024357318878,
|
|
"epoch": 0.84,
|
|
"grad_norm": 0.7029419541358948,
|
|
"learning_rate": 0.00016645333333333335,
|
|
"loss": 1.6712,
|
|
"mean_token_accuracy": 0.5723545610904693,
|
|
"num_tokens": 901212.0,
|
|
"step": 630
|
|
},
|
|
{
|
|
"entropy": 1.6637583255767823,
|
|
"epoch": 0.8533333333333334,
|
|
"grad_norm": 0.7077947854995728,
|
|
"learning_rate": 0.00016592,
|
|
"loss": 1.6467,
|
|
"mean_token_accuracy": 0.5752432465553283,
|
|
"num_tokens": 915566.0,
|
|
"step": 640
|
|
},
|
|
{
|
|
"entropy": 1.6351732969284059,
|
|
"epoch": 0.8666666666666667,
|
|
"grad_norm": 0.7223191857337952,
|
|
"learning_rate": 0.00016538666666666667,
|
|
"loss": 1.6326,
|
|
"mean_token_accuracy": 0.5809595823287964,
|
|
"num_tokens": 930155.0,
|
|
"step": 650
|
|
},
|
|
{
|
|
"entropy": 1.625480556488037,
|
|
"epoch": 0.88,
|
|
"grad_norm": 0.6872687339782715,
|
|
"learning_rate": 0.00016485333333333334,
|
|
"loss": 1.6096,
|
|
"mean_token_accuracy": 0.5873603641986846,
|
|
"num_tokens": 943961.0,
|
|
"step": 660
|
|
},
|
|
{
|
|
"entropy": 1.6413599967956543,
|
|
"epoch": 0.8933333333333333,
|
|
"grad_norm": 0.6594866514205933,
|
|
"learning_rate": 0.00016432,
|
|
"loss": 1.692,
|
|
"mean_token_accuracy": 0.5740860402584076,
|
|
"num_tokens": 958370.0,
|
|
"step": 670
|
|
},
|
|
{
|
|
"entropy": 1.6765796422958374,
|
|
"epoch": 0.9066666666666666,
|
|
"grad_norm": 0.6635148525238037,
|
|
"learning_rate": 0.00016378666666666666,
|
|
"loss": 1.6493,
|
|
"mean_token_accuracy": 0.5794400811195374,
|
|
"num_tokens": 972746.0,
|
|
"step": 680
|
|
},
|
|
{
|
|
"entropy": 1.64844651222229,
|
|
"epoch": 0.92,
|
|
"grad_norm": 0.6969758868217468,
|
|
"learning_rate": 0.00016325333333333335,
|
|
"loss": 1.6465,
|
|
"mean_token_accuracy": 0.5806655645370483,
|
|
"num_tokens": 987210.0,
|
|
"step": 690
|
|
},
|
|
{
|
|
"entropy": 1.628549289703369,
|
|
"epoch": 0.9333333333333333,
|
|
"grad_norm": 0.6831814050674438,
|
|
"learning_rate": 0.00016272000000000001,
|
|
"loss": 1.6445,
|
|
"mean_token_accuracy": 0.5774340748786926,
|
|
"num_tokens": 1001627.0,
|
|
"step": 700
|
|
},
|
|
{
|
|
"entropy": 1.6590662002563477,
|
|
"epoch": 0.9466666666666667,
|
|
"grad_norm": 0.7329531908035278,
|
|
"learning_rate": 0.00016218666666666668,
|
|
"loss": 1.6746,
|
|
"mean_token_accuracy": 0.5709875702857972,
|
|
"num_tokens": 1015828.0,
|
|
"step": 710
|
|
},
|
|
{
|
|
"entropy": 1.6233970403671265,
|
|
"epoch": 0.96,
|
|
"grad_norm": 0.6673484444618225,
|
|
"learning_rate": 0.00016165333333333334,
|
|
"loss": 1.6213,
|
|
"mean_token_accuracy": 0.5806674182415008,
|
|
"num_tokens": 1030323.0,
|
|
"step": 720
|
|
},
|
|
{
|
|
"entropy": 1.6572086334228515,
|
|
"epoch": 0.9733333333333334,
|
|
"grad_norm": 0.7702727913856506,
|
|
"learning_rate": 0.00016112,
|
|
"loss": 1.6664,
|
|
"mean_token_accuracy": 0.5798572361469269,
|
|
"num_tokens": 1044685.0,
|
|
"step": 730
|
|
},
|
|
{
|
|
"entropy": 1.620801281929016,
|
|
"epoch": 0.9866666666666667,
|
|
"grad_norm": 0.6698365211486816,
|
|
"learning_rate": 0.0001605866666666667,
|
|
"loss": 1.6032,
|
|
"mean_token_accuracy": 0.5835649371147156,
|
|
"num_tokens": 1058992.0,
|
|
"step": 740
|
|
},
|
|
{
|
|
"entropy": 1.6149493217468263,
|
|
"epoch": 1.0,
|
|
"grad_norm": 0.6890732645988464,
|
|
"learning_rate": 0.00016005333333333335,
|
|
"loss": 1.6306,
|
|
"mean_token_accuracy": 0.5798977136611938,
|
|
"num_tokens": 1073437.0,
|
|
"step": 750
|
|
},
|
|
{
|
|
"entropy": 1.6699055314064026,
|
|
"epoch": 1.0133333333333334,
|
|
"grad_norm": 0.7555853724479675,
|
|
"learning_rate": 0.00015952,
|
|
"loss": 1.635,
|
|
"mean_token_accuracy": 0.5828357517719269,
|
|
"num_tokens": 1087792.0,
|
|
"step": 760
|
|
},
|
|
{
|
|
"entropy": 1.6272497057914734,
|
|
"epoch": 1.0266666666666666,
|
|
"grad_norm": 0.7309948801994324,
|
|
"learning_rate": 0.00015898666666666668,
|
|
"loss": 1.6164,
|
|
"mean_token_accuracy": 0.5864035606384277,
|
|
"num_tokens": 1102220.0,
|
|
"step": 770
|
|
},
|
|
{
|
|
"entropy": 1.6252751708030702,
|
|
"epoch": 1.04,
|
|
"grad_norm": 0.6662526726722717,
|
|
"learning_rate": 0.00015845333333333334,
|
|
"loss": 1.6074,
|
|
"mean_token_accuracy": 0.5863919079303741,
|
|
"num_tokens": 1116220.0,
|
|
"step": 780
|
|
},
|
|
{
|
|
"entropy": 1.6117313146591186,
|
|
"epoch": 1.0533333333333332,
|
|
"grad_norm": 0.6945940256118774,
|
|
"learning_rate": 0.00015792,
|
|
"loss": 1.6198,
|
|
"mean_token_accuracy": 0.5855257391929627,
|
|
"num_tokens": 1130621.0,
|
|
"step": 790
|
|
},
|
|
{
|
|
"entropy": 1.6056355476379394,
|
|
"epoch": 1.0666666666666667,
|
|
"grad_norm": 0.7574010491371155,
|
|
"learning_rate": 0.0001573866666666667,
|
|
"loss": 1.6585,
|
|
"mean_token_accuracy": 0.582321560382843,
|
|
"num_tokens": 1144891.0,
|
|
"step": 800
|
|
},
|
|
{
|
|
"entropy": 1.6536706924438476,
|
|
"epoch": 1.08,
|
|
"grad_norm": 0.7776330709457397,
|
|
"learning_rate": 0.00015685333333333333,
|
|
"loss": 1.6417,
|
|
"mean_token_accuracy": 0.5807085573673249,
|
|
"num_tokens": 1159452.0,
|
|
"step": 810
|
|
},
|
|
{
|
|
"entropy": 1.636245596408844,
|
|
"epoch": 1.0933333333333333,
|
|
"grad_norm": 0.7058615684509277,
|
|
"learning_rate": 0.00015632,
|
|
"loss": 1.6129,
|
|
"mean_token_accuracy": 0.5896495580673218,
|
|
"num_tokens": 1174079.0,
|
|
"step": 820
|
|
},
|
|
{
|
|
"entropy": 1.573302984237671,
|
|
"epoch": 1.1066666666666667,
|
|
"grad_norm": 0.7599795460700989,
|
|
"learning_rate": 0.00015578666666666668,
|
|
"loss": 1.5675,
|
|
"mean_token_accuracy": 0.5902469873428344,
|
|
"num_tokens": 1188584.0,
|
|
"step": 830
|
|
},
|
|
{
|
|
"entropy": 1.5608547449111938,
|
|
"epoch": 1.12,
|
|
"grad_norm": 0.7376325130462646,
|
|
"learning_rate": 0.00015525333333333335,
|
|
"loss": 1.5674,
|
|
"mean_token_accuracy": 0.5912195801734924,
|
|
"num_tokens": 1203146.0,
|
|
"step": 840
|
|
},
|
|
{
|
|
"entropy": 1.609606885910034,
|
|
"epoch": 1.1333333333333333,
|
|
"grad_norm": 0.7759743332862854,
|
|
"learning_rate": 0.00015472,
|
|
"loss": 1.6121,
|
|
"mean_token_accuracy": 0.5835619568824768,
|
|
"num_tokens": 1217734.0,
|
|
"step": 850
|
|
},
|
|
{
|
|
"entropy": 1.6040807604789733,
|
|
"epoch": 1.1466666666666667,
|
|
"grad_norm": 0.7043464183807373,
|
|
"learning_rate": 0.00015418666666666667,
|
|
"loss": 1.5964,
|
|
"mean_token_accuracy": 0.5868722558021545,
|
|
"num_tokens": 1232005.0,
|
|
"step": 860
|
|
},
|
|
{
|
|
"entropy": 1.6219854712486268,
|
|
"epoch": 1.16,
|
|
"grad_norm": 0.7642476558685303,
|
|
"learning_rate": 0.00015365333333333333,
|
|
"loss": 1.6229,
|
|
"mean_token_accuracy": 0.5852142035961151,
|
|
"num_tokens": 1246209.0,
|
|
"step": 870
|
|
},
|
|
{
|
|
"entropy": 1.5783800959587098,
|
|
"epoch": 1.1733333333333333,
|
|
"grad_norm": 0.7461272478103638,
|
|
"learning_rate": 0.00015312,
|
|
"loss": 1.5816,
|
|
"mean_token_accuracy": 0.5920245468616485,
|
|
"num_tokens": 1260843.0,
|
|
"step": 880
|
|
},
|
|
{
|
|
"entropy": 1.6118128061294557,
|
|
"epoch": 1.1866666666666668,
|
|
"grad_norm": 0.7573221921920776,
|
|
"learning_rate": 0.0001525866666666667,
|
|
"loss": 1.6237,
|
|
"mean_token_accuracy": 0.5853161156177521,
|
|
"num_tokens": 1275378.0,
|
|
"step": 890
|
|
},
|
|
{
|
|
"entropy": 1.5877676010131836,
|
|
"epoch": 1.2,
|
|
"grad_norm": 0.726969301700592,
|
|
"learning_rate": 0.00015205333333333332,
|
|
"loss": 1.5968,
|
|
"mean_token_accuracy": 0.586136519908905,
|
|
"num_tokens": 1289452.0,
|
|
"step": 900
|
|
},
|
|
{
|
|
"entropy": 1.621052074432373,
|
|
"epoch": 1.2133333333333334,
|
|
"grad_norm": 0.7222169637680054,
|
|
"learning_rate": 0.00015152,
|
|
"loss": 1.5923,
|
|
"mean_token_accuracy": 0.5882635056972504,
|
|
"num_tokens": 1303574.0,
|
|
"step": 910
|
|
},
|
|
{
|
|
"entropy": 1.6104066729545594,
|
|
"epoch": 1.2266666666666666,
|
|
"grad_norm": 0.71150803565979,
|
|
"learning_rate": 0.00015098666666666668,
|
|
"loss": 1.6069,
|
|
"mean_token_accuracy": 0.5818524241447449,
|
|
"num_tokens": 1317990.0,
|
|
"step": 920
|
|
},
|
|
{
|
|
"entropy": 1.6299067378044128,
|
|
"epoch": 1.24,
|
|
"grad_norm": 0.7796948552131653,
|
|
"learning_rate": 0.00015045333333333334,
|
|
"loss": 1.6278,
|
|
"mean_token_accuracy": 0.5779022514820099,
|
|
"num_tokens": 1332231.0,
|
|
"step": 930
|
|
},
|
|
{
|
|
"entropy": 1.640848958492279,
|
|
"epoch": 1.2533333333333334,
|
|
"grad_norm": 0.7690544128417969,
|
|
"learning_rate": 0.00014992000000000003,
|
|
"loss": 1.6586,
|
|
"mean_token_accuracy": 0.5768225789070129,
|
|
"num_tokens": 1346353.0,
|
|
"step": 940
|
|
},
|
|
{
|
|
"entropy": 1.6566609621047974,
|
|
"epoch": 1.2666666666666666,
|
|
"grad_norm": 0.7505296468734741,
|
|
"learning_rate": 0.00014938666666666666,
|
|
"loss": 1.6513,
|
|
"mean_token_accuracy": 0.5779002785682679,
|
|
"num_tokens": 1360484.0,
|
|
"step": 950
|
|
},
|
|
{
|
|
"entropy": 1.630296492576599,
|
|
"epoch": 1.28,
|
|
"grad_norm": 0.6883164048194885,
|
|
"learning_rate": 0.00014885333333333333,
|
|
"loss": 1.6294,
|
|
"mean_token_accuracy": 0.5862487494945526,
|
|
"num_tokens": 1374779.0,
|
|
"step": 960
|
|
},
|
|
{
|
|
"entropy": 1.6024248838424682,
|
|
"epoch": 1.2933333333333334,
|
|
"grad_norm": 0.7196306586265564,
|
|
"learning_rate": 0.00014832000000000002,
|
|
"loss": 1.5981,
|
|
"mean_token_accuracy": 0.5908697605133056,
|
|
"num_tokens": 1388795.0,
|
|
"step": 970
|
|
},
|
|
{
|
|
"entropy": 1.582094705104828,
|
|
"epoch": 1.3066666666666666,
|
|
"grad_norm": 0.7783096432685852,
|
|
"learning_rate": 0.00014778666666666668,
|
|
"loss": 1.6106,
|
|
"mean_token_accuracy": 0.5879612743854523,
|
|
"num_tokens": 1403193.0,
|
|
"step": 980
|
|
},
|
|
{
|
|
"entropy": 1.645870816707611,
|
|
"epoch": 1.32,
|
|
"grad_norm": 0.7696360945701599,
|
|
"learning_rate": 0.00014725333333333334,
|
|
"loss": 1.6356,
|
|
"mean_token_accuracy": 0.578856211900711,
|
|
"num_tokens": 1417479.0,
|
|
"step": 990
|
|
},
|
|
{
|
|
"entropy": 1.6369327068328858,
|
|
"epoch": 1.3333333333333333,
|
|
"grad_norm": 0.7761406898498535,
|
|
"learning_rate": 0.00014672,
|
|
"loss": 1.6175,
|
|
"mean_token_accuracy": 0.5842687666416169,
|
|
"num_tokens": 1431576.0,
|
|
"step": 1000
|
|
},
|
|
{
|
|
"entropy": 1.6226306080818176,
|
|
"epoch": 1.3466666666666667,
|
|
"grad_norm": 0.7547776103019714,
|
|
"learning_rate": 0.00014618666666666667,
|
|
"loss": 1.6172,
|
|
"mean_token_accuracy": 0.5815251469612122,
|
|
"num_tokens": 1446102.0,
|
|
"step": 1010
|
|
},
|
|
{
|
|
"entropy": 1.6198955655097962,
|
|
"epoch": 1.3599999999999999,
|
|
"grad_norm": 0.7692626118659973,
|
|
"learning_rate": 0.00014565333333333333,
|
|
"loss": 1.6022,
|
|
"mean_token_accuracy": 0.5851478815078736,
|
|
"num_tokens": 1460559.0,
|
|
"step": 1020
|
|
},
|
|
{
|
|
"entropy": 1.6360511779785156,
|
|
"epoch": 1.3733333333333333,
|
|
"grad_norm": 0.7356512546539307,
|
|
"learning_rate": 0.00014512000000000002,
|
|
"loss": 1.6665,
|
|
"mean_token_accuracy": 0.5710932374000549,
|
|
"num_tokens": 1474127.0,
|
|
"step": 1030
|
|
},
|
|
{
|
|
"entropy": 1.6403623819351196,
|
|
"epoch": 1.3866666666666667,
|
|
"grad_norm": 0.7629533410072327,
|
|
"learning_rate": 0.00014458666666666668,
|
|
"loss": 1.6187,
|
|
"mean_token_accuracy": 0.5833263874053956,
|
|
"num_tokens": 1488460.0,
|
|
"step": 1040
|
|
},
|
|
{
|
|
"entropy": 1.6373688101768493,
|
|
"epoch": 1.4,
|
|
"grad_norm": 0.7465691566467285,
|
|
"learning_rate": 0.00014405333333333335,
|
|
"loss": 1.6393,
|
|
"mean_token_accuracy": 0.5801452934741974,
|
|
"num_tokens": 1502527.0,
|
|
"step": 1050
|
|
},
|
|
{
|
|
"entropy": 1.6059898138046265,
|
|
"epoch": 1.4133333333333333,
|
|
"grad_norm": 0.7648448348045349,
|
|
"learning_rate": 0.00014352,
|
|
"loss": 1.6234,
|
|
"mean_token_accuracy": 0.5848953366279602,
|
|
"num_tokens": 1517179.0,
|
|
"step": 1060
|
|
},
|
|
{
|
|
"entropy": 1.6081330895423889,
|
|
"epoch": 1.4266666666666667,
|
|
"grad_norm": 0.7271841168403625,
|
|
"learning_rate": 0.00014298666666666667,
|
|
"loss": 1.6111,
|
|
"mean_token_accuracy": 0.5818961441516877,
|
|
"num_tokens": 1531217.0,
|
|
"step": 1070
|
|
},
|
|
{
|
|
"entropy": 1.6149009227752686,
|
|
"epoch": 1.44,
|
|
"grad_norm": 0.7602919936180115,
|
|
"learning_rate": 0.00014245333333333336,
|
|
"loss": 1.6105,
|
|
"mean_token_accuracy": 0.5892933189868927,
|
|
"num_tokens": 1545388.0,
|
|
"step": 1080
|
|
},
|
|
{
|
|
"entropy": 1.6233277559280395,
|
|
"epoch": 1.4533333333333334,
|
|
"grad_norm": 0.7907194495201111,
|
|
"learning_rate": 0.00014192,
|
|
"loss": 1.6208,
|
|
"mean_token_accuracy": 0.5803293466567994,
|
|
"num_tokens": 1559761.0,
|
|
"step": 1090
|
|
},
|
|
{
|
|
"entropy": 1.6400368571281434,
|
|
"epoch": 1.4666666666666668,
|
|
"grad_norm": 0.885079562664032,
|
|
"learning_rate": 0.00014138666666666666,
|
|
"loss": 1.636,
|
|
"mean_token_accuracy": 0.5783513307571411,
|
|
"num_tokens": 1573726.0,
|
|
"step": 1100
|
|
},
|
|
{
|
|
"entropy": 1.6282047271728515,
|
|
"epoch": 1.48,
|
|
"grad_norm": 0.7767795324325562,
|
|
"learning_rate": 0.00014085333333333335,
|
|
"loss": 1.6297,
|
|
"mean_token_accuracy": 0.5802080571651459,
|
|
"num_tokens": 1587669.0,
|
|
"step": 1110
|
|
},
|
|
{
|
|
"entropy": 1.601949942111969,
|
|
"epoch": 1.4933333333333334,
|
|
"grad_norm": 0.7795525193214417,
|
|
"learning_rate": 0.00014032,
|
|
"loss": 1.6048,
|
|
"mean_token_accuracy": 0.5889493882656097,
|
|
"num_tokens": 1602029.0,
|
|
"step": 1120
|
|
},
|
|
{
|
|
"entropy": 1.645953929424286,
|
|
"epoch": 1.5066666666666668,
|
|
"grad_norm": 0.8331775665283203,
|
|
"learning_rate": 0.00013978666666666667,
|
|
"loss": 1.6354,
|
|
"mean_token_accuracy": 0.5802436769008636,
|
|
"num_tokens": 1616319.0,
|
|
"step": 1130
|
|
},
|
|
{
|
|
"entropy": 1.6269161701202393,
|
|
"epoch": 1.52,
|
|
"grad_norm": 0.8028736114501953,
|
|
"learning_rate": 0.00013925333333333334,
|
|
"loss": 1.62,
|
|
"mean_token_accuracy": 0.5843124330043793,
|
|
"num_tokens": 1630892.0,
|
|
"step": 1140
|
|
},
|
|
{
|
|
"entropy": 1.605080258846283,
|
|
"epoch": 1.5333333333333332,
|
|
"grad_norm": 0.7749471664428711,
|
|
"learning_rate": 0.00013872,
|
|
"loss": 1.6045,
|
|
"mean_token_accuracy": 0.5877731800079345,
|
|
"num_tokens": 1645279.0,
|
|
"step": 1150
|
|
},
|
|
{
|
|
"entropy": 1.6540703892707824,
|
|
"epoch": 1.5466666666666666,
|
|
"grad_norm": 0.8123717308044434,
|
|
"learning_rate": 0.00013818666666666666,
|
|
"loss": 1.68,
|
|
"mean_token_accuracy": 0.5777017891407012,
|
|
"num_tokens": 1659598.0,
|
|
"step": 1160
|
|
},
|
|
{
|
|
"entropy": 1.6219762325286866,
|
|
"epoch": 1.56,
|
|
"grad_norm": 0.7976855635643005,
|
|
"learning_rate": 0.00013765333333333335,
|
|
"loss": 1.6218,
|
|
"mean_token_accuracy": 0.5819440305233001,
|
|
"num_tokens": 1673712.0,
|
|
"step": 1170
|
|
},
|
|
{
|
|
"entropy": 1.6105915784835816,
|
|
"epoch": 1.5733333333333333,
|
|
"grad_norm": 0.7372804284095764,
|
|
"learning_rate": 0.00013712000000000002,
|
|
"loss": 1.5914,
|
|
"mean_token_accuracy": 0.5869231700897217,
|
|
"num_tokens": 1687929.0,
|
|
"step": 1180
|
|
},
|
|
{
|
|
"entropy": 1.6036946177482605,
|
|
"epoch": 1.5866666666666667,
|
|
"grad_norm": 0.8347821235656738,
|
|
"learning_rate": 0.00013658666666666665,
|
|
"loss": 1.5892,
|
|
"mean_token_accuracy": 0.5874670445919037,
|
|
"num_tokens": 1702354.0,
|
|
"step": 1190
|
|
},
|
|
{
|
|
"entropy": 1.6106571435928345,
|
|
"epoch": 1.6,
|
|
"grad_norm": 0.7794219851493835,
|
|
"learning_rate": 0.00013605333333333334,
|
|
"loss": 1.6222,
|
|
"mean_token_accuracy": 0.581736969947815,
|
|
"num_tokens": 1716614.0,
|
|
"step": 1200
|
|
},
|
|
{
|
|
"entropy": 1.6166094422340394,
|
|
"epoch": 1.6133333333333333,
|
|
"grad_norm": 0.7475622892379761,
|
|
"learning_rate": 0.00013552,
|
|
"loss": 1.64,
|
|
"mean_token_accuracy": 0.5818658828735351,
|
|
"num_tokens": 1731314.0,
|
|
"step": 1210
|
|
},
|
|
{
|
|
"entropy": 1.5999322414398194,
|
|
"epoch": 1.6266666666666667,
|
|
"grad_norm": 0.7694371938705444,
|
|
"learning_rate": 0.0001349866666666667,
|
|
"loss": 1.5933,
|
|
"mean_token_accuracy": 0.5930391371250152,
|
|
"num_tokens": 1745561.0,
|
|
"step": 1220
|
|
},
|
|
{
|
|
"entropy": 1.6249719500541686,
|
|
"epoch": 1.6400000000000001,
|
|
"grad_norm": 0.8657720685005188,
|
|
"learning_rate": 0.00013445333333333333,
|
|
"loss": 1.607,
|
|
"mean_token_accuracy": 0.584237003326416,
|
|
"num_tokens": 1759390.0,
|
|
"step": 1230
|
|
},
|
|
{
|
|
"entropy": 1.6074962973594666,
|
|
"epoch": 1.6533333333333333,
|
|
"grad_norm": 0.7591989040374756,
|
|
"learning_rate": 0.00013392,
|
|
"loss": 1.6062,
|
|
"mean_token_accuracy": 0.5843867778778076,
|
|
"num_tokens": 1773830.0,
|
|
"step": 1240
|
|
},
|
|
{
|
|
"entropy": 1.5924188375473023,
|
|
"epoch": 1.6666666666666665,
|
|
"grad_norm": 0.7454883456230164,
|
|
"learning_rate": 0.00013338666666666668,
|
|
"loss": 1.5763,
|
|
"mean_token_accuracy": 0.5892716884613037,
|
|
"num_tokens": 1788240.0,
|
|
"step": 1250
|
|
},
|
|
{
|
|
"entropy": 1.5488623142242433,
|
|
"epoch": 1.6800000000000002,
|
|
"grad_norm": 0.7816988229751587,
|
|
"learning_rate": 0.00013285333333333334,
|
|
"loss": 1.5701,
|
|
"mean_token_accuracy": 0.5965048789978027,
|
|
"num_tokens": 1802785.0,
|
|
"step": 1260
|
|
},
|
|
{
|
|
"entropy": 1.6266264081001283,
|
|
"epoch": 1.6933333333333334,
|
|
"grad_norm": 0.8586941361427307,
|
|
"learning_rate": 0.00013232,
|
|
"loss": 1.6321,
|
|
"mean_token_accuracy": 0.5797922134399414,
|
|
"num_tokens": 1816998.0,
|
|
"step": 1270
|
|
},
|
|
{
|
|
"entropy": 1.5411754608154298,
|
|
"epoch": 1.7066666666666666,
|
|
"grad_norm": 0.7459612488746643,
|
|
"learning_rate": 0.00013178666666666667,
|
|
"loss": 1.5042,
|
|
"mean_token_accuracy": 0.605999493598938,
|
|
"num_tokens": 1831206.0,
|
|
"step": 1280
|
|
},
|
|
{
|
|
"entropy": 1.5982468724250793,
|
|
"epoch": 1.72,
|
|
"grad_norm": 0.870665967464447,
|
|
"learning_rate": 0.00013125333333333333,
|
|
"loss": 1.6334,
|
|
"mean_token_accuracy": 0.5830047309398652,
|
|
"num_tokens": 1845184.0,
|
|
"step": 1290
|
|
},
|
|
{
|
|
"entropy": 1.6464913845062257,
|
|
"epoch": 1.7333333333333334,
|
|
"grad_norm": 0.7105476260185242,
|
|
"learning_rate": 0.00013072,
|
|
"loss": 1.6243,
|
|
"mean_token_accuracy": 0.5817919194698333,
|
|
"num_tokens": 1859534.0,
|
|
"step": 1300
|
|
},
|
|
{
|
|
"entropy": 1.630496096611023,
|
|
"epoch": 1.7466666666666666,
|
|
"grad_norm": 0.7204705476760864,
|
|
"learning_rate": 0.00013018666666666669,
|
|
"loss": 1.642,
|
|
"mean_token_accuracy": 0.5803155720233917,
|
|
"num_tokens": 1874146.0,
|
|
"step": 1310
|
|
},
|
|
{
|
|
"entropy": 1.6060070395469666,
|
|
"epoch": 1.76,
|
|
"grad_norm": 0.753718912601471,
|
|
"learning_rate": 0.00012965333333333335,
|
|
"loss": 1.6104,
|
|
"mean_token_accuracy": 0.5942363500595093,
|
|
"num_tokens": 1888076.0,
|
|
"step": 1320
|
|
},
|
|
{
|
|
"entropy": 1.5962331891059875,
|
|
"epoch": 1.7733333333333334,
|
|
"grad_norm": 0.7588234543800354,
|
|
"learning_rate": 0.00012911999999999998,
|
|
"loss": 1.5948,
|
|
"mean_token_accuracy": 0.5896466076374054,
|
|
"num_tokens": 1902536.0,
|
|
"step": 1330
|
|
},
|
|
{
|
|
"entropy": 1.58995623588562,
|
|
"epoch": 1.7866666666666666,
|
|
"grad_norm": 0.6991354823112488,
|
|
"learning_rate": 0.00012858666666666667,
|
|
"loss": 1.6086,
|
|
"mean_token_accuracy": 0.5877136707305908,
|
|
"num_tokens": 1917070.0,
|
|
"step": 1340
|
|
},
|
|
{
|
|
"entropy": 1.590635347366333,
|
|
"epoch": 1.8,
|
|
"grad_norm": 0.7136776447296143,
|
|
"learning_rate": 0.00012805333333333334,
|
|
"loss": 1.5808,
|
|
"mean_token_accuracy": 0.5926080405712127,
|
|
"num_tokens": 1931650.0,
|
|
"step": 1350
|
|
},
|
|
{
|
|
"entropy": 1.6412133812904357,
|
|
"epoch": 1.8133333333333335,
|
|
"grad_norm": 0.808604896068573,
|
|
"learning_rate": 0.00012752,
|
|
"loss": 1.6438,
|
|
"mean_token_accuracy": 0.5795077741146087,
|
|
"num_tokens": 1945527.0,
|
|
"step": 1360
|
|
},
|
|
{
|
|
"entropy": 1.6124160170555115,
|
|
"epoch": 1.8266666666666667,
|
|
"grad_norm": 0.801104724407196,
|
|
"learning_rate": 0.0001269866666666667,
|
|
"loss": 1.6018,
|
|
"mean_token_accuracy": 0.58566255569458,
|
|
"num_tokens": 1959696.0,
|
|
"step": 1370
|
|
},
|
|
{
|
|
"entropy": 1.6068571090698243,
|
|
"epoch": 1.8399999999999999,
|
|
"grad_norm": 0.7318655848503113,
|
|
"learning_rate": 0.00012645333333333332,
|
|
"loss": 1.5978,
|
|
"mean_token_accuracy": 0.5856489419937134,
|
|
"num_tokens": 1974414.0,
|
|
"step": 1380
|
|
},
|
|
{
|
|
"entropy": 1.633586871623993,
|
|
"epoch": 1.8533333333333335,
|
|
"grad_norm": 0.7998054623603821,
|
|
"learning_rate": 0.00012592000000000001,
|
|
"loss": 1.643,
|
|
"mean_token_accuracy": 0.5775534093379975,
|
|
"num_tokens": 1988428.0,
|
|
"step": 1390
|
|
},
|
|
{
|
|
"entropy": 1.616657567024231,
|
|
"epoch": 1.8666666666666667,
|
|
"grad_norm": 0.7818200588226318,
|
|
"learning_rate": 0.00012538666666666668,
|
|
"loss": 1.6263,
|
|
"mean_token_accuracy": 0.5841812074184418,
|
|
"num_tokens": 2002940.0,
|
|
"step": 1400
|
|
},
|
|
{
|
|
"entropy": 1.606257176399231,
|
|
"epoch": 1.88,
|
|
"grad_norm": 0.791130542755127,
|
|
"learning_rate": 0.00012485333333333334,
|
|
"loss": 1.6072,
|
|
"mean_token_accuracy": 0.5823240101337432,
|
|
"num_tokens": 2017136.0,
|
|
"step": 1410
|
|
},
|
|
{
|
|
"entropy": 1.5826048731803894,
|
|
"epoch": 1.8933333333333333,
|
|
"grad_norm": 0.7947362065315247,
|
|
"learning_rate": 0.00012432,
|
|
"loss": 1.576,
|
|
"mean_token_accuracy": 0.5913291692733764,
|
|
"num_tokens": 2031535.0,
|
|
"step": 1420
|
|
},
|
|
{
|
|
"entropy": 1.602376353740692,
|
|
"epoch": 1.9066666666666667,
|
|
"grad_norm": 0.8083633184432983,
|
|
"learning_rate": 0.00012378666666666667,
|
|
"loss": 1.6007,
|
|
"mean_token_accuracy": 0.5866346061229706,
|
|
"num_tokens": 2045760.0,
|
|
"step": 1430
|
|
},
|
|
{
|
|
"entropy": 1.582177996635437,
|
|
"epoch": 1.92,
|
|
"grad_norm": 0.8095344305038452,
|
|
"learning_rate": 0.00012325333333333333,
|
|
"loss": 1.6136,
|
|
"mean_token_accuracy": 0.5853443145751953,
|
|
"num_tokens": 2060266.0,
|
|
"step": 1440
|
|
},
|
|
{
|
|
"entropy": 1.6533708095550537,
|
|
"epoch": 1.9333333333333333,
|
|
"grad_norm": 0.7946311235427856,
|
|
"learning_rate": 0.00012272000000000002,
|
|
"loss": 1.6718,
|
|
"mean_token_accuracy": 0.5766183912754059,
|
|
"num_tokens": 2074455.0,
|
|
"step": 1450
|
|
},
|
|
{
|
|
"entropy": 1.6250546097755432,
|
|
"epoch": 1.9466666666666668,
|
|
"grad_norm": 0.7304287552833557,
|
|
"learning_rate": 0.00012218666666666668,
|
|
"loss": 1.6092,
|
|
"mean_token_accuracy": 0.585831755399704,
|
|
"num_tokens": 2089106.0,
|
|
"step": 1460
|
|
},
|
|
{
|
|
"entropy": 1.5917622566223144,
|
|
"epoch": 1.96,
|
|
"grad_norm": 0.7634790539741516,
|
|
"learning_rate": 0.00012165333333333333,
|
|
"loss": 1.5798,
|
|
"mean_token_accuracy": 0.5906044125556946,
|
|
"num_tokens": 2103095.0,
|
|
"step": 1470
|
|
},
|
|
{
|
|
"entropy": 1.5722275495529174,
|
|
"epoch": 1.9733333333333334,
|
|
"grad_norm": 0.7202575206756592,
|
|
"learning_rate": 0.00012112,
|
|
"loss": 1.5641,
|
|
"mean_token_accuracy": 0.5980747759342193,
|
|
"num_tokens": 2117688.0,
|
|
"step": 1480
|
|
},
|
|
{
|
|
"entropy": 1.5911229491233825,
|
|
"epoch": 1.9866666666666668,
|
|
"grad_norm": 0.8743401765823364,
|
|
"learning_rate": 0.00012058666666666667,
|
|
"loss": 1.5924,
|
|
"mean_token_accuracy": 0.590107125043869,
|
|
"num_tokens": 2132364.0,
|
|
"step": 1490
|
|
},
|
|
{
|
|
"entropy": 1.6268518090248107,
|
|
"epoch": 2.0,
|
|
"grad_norm": 0.7789967060089111,
|
|
"learning_rate": 0.00012005333333333333,
|
|
"loss": 1.6187,
|
|
"mean_token_accuracy": 0.5850143015384675,
|
|
"num_tokens": 2146874.0,
|
|
"step": 1500
|
|
}
|
|
],
|
|
"logging_steps": 10,
|
|
"max_steps": 3750,
|
|
"num_input_tokens_seen": 0,
|
|
"num_train_epochs": 5,
|
|
"save_steps": 500,
|
|
"stateful_callbacks": {
|
|
"TrainerControl": {
|
|
"args": {
|
|
"should_epoch_stop": false,
|
|
"should_evaluate": false,
|
|
"should_log": false,
|
|
"should_save": true,
|
|
"should_training_stop": false
|
|
},
|
|
"attributes": {}
|
|
}
|
|
},
|
|
"total_flos": 1453416596407296.0,
|
|
"train_batch_size": 4,
|
|
"trial_name": null,
|
|
"trial_params": null
|
|
}
|