3785 lines
105 KiB
JSON
3785 lines
105 KiB
JSON
{
|
|
"best_global_step": null,
|
|
"best_metric": null,
|
|
"best_model_checkpoint": null,
|
|
"epoch": 5.0,
|
|
"eval_steps": 500,
|
|
"global_step": 3750,
|
|
"is_hyper_param_search": false,
|
|
"is_local_process_zero": true,
|
|
"is_world_process_zero": true,
|
|
"log_history": [
|
|
{
|
|
"entropy": 1.7908701181411744,
|
|
"epoch": 0.013333333333333334,
|
|
"grad_norm": 1.1777843236923218,
|
|
"learning_rate": 0.00019952000000000001,
|
|
"loss": 1.8912,
|
|
"mean_token_accuracy": 0.5405127346515656,
|
|
"num_tokens": 14665.0,
|
|
"step": 10
|
|
},
|
|
{
|
|
"entropy": 1.757728385925293,
|
|
"epoch": 0.02666666666666667,
|
|
"grad_norm": 0.9262706637382507,
|
|
"learning_rate": 0.00019898666666666668,
|
|
"loss": 1.7762,
|
|
"mean_token_accuracy": 0.5599964261054993,
|
|
"num_tokens": 29061.0,
|
|
"step": 20
|
|
},
|
|
{
|
|
"entropy": 1.705195951461792,
|
|
"epoch": 0.04,
|
|
"grad_norm": 0.8576209545135498,
|
|
"learning_rate": 0.00019845333333333334,
|
|
"loss": 1.7582,
|
|
"mean_token_accuracy": 0.5612735390663147,
|
|
"num_tokens": 43628.0,
|
|
"step": 30
|
|
},
|
|
{
|
|
"entropy": 1.764819598197937,
|
|
"epoch": 0.05333333333333334,
|
|
"grad_norm": 0.9937595725059509,
|
|
"learning_rate": 0.00019792000000000003,
|
|
"loss": 1.7875,
|
|
"mean_token_accuracy": 0.5601426303386688,
|
|
"num_tokens": 57878.0,
|
|
"step": 40
|
|
},
|
|
{
|
|
"entropy": 1.692608082294464,
|
|
"epoch": 0.06666666666666667,
|
|
"grad_norm": 0.8142558932304382,
|
|
"learning_rate": 0.00019738666666666667,
|
|
"loss": 1.7188,
|
|
"mean_token_accuracy": 0.5711204051971436,
|
|
"num_tokens": 72081.0,
|
|
"step": 50
|
|
},
|
|
{
|
|
"entropy": 1.713820493221283,
|
|
"epoch": 0.08,
|
|
"grad_norm": 0.8134881854057312,
|
|
"learning_rate": 0.00019685333333333333,
|
|
"loss": 1.7262,
|
|
"mean_token_accuracy": 0.5672860145568848,
|
|
"num_tokens": 86547.0,
|
|
"step": 60
|
|
},
|
|
{
|
|
"entropy": 1.7069548845291138,
|
|
"epoch": 0.09333333333333334,
|
|
"grad_norm": 0.7980002760887146,
|
|
"learning_rate": 0.00019632000000000002,
|
|
"loss": 1.7412,
|
|
"mean_token_accuracy": 0.5662308156490325,
|
|
"num_tokens": 100695.0,
|
|
"step": 70
|
|
},
|
|
{
|
|
"entropy": 1.7331032037734986,
|
|
"epoch": 0.10666666666666667,
|
|
"grad_norm": 0.8221873044967651,
|
|
"learning_rate": 0.00019578666666666668,
|
|
"loss": 1.7445,
|
|
"mean_token_accuracy": 0.5610231578350067,
|
|
"num_tokens": 114813.0,
|
|
"step": 80
|
|
},
|
|
{
|
|
"entropy": 1.7180450558662415,
|
|
"epoch": 0.12,
|
|
"grad_norm": 0.8718360662460327,
|
|
"learning_rate": 0.00019525333333333334,
|
|
"loss": 1.7297,
|
|
"mean_token_accuracy": 0.5656625151634216,
|
|
"num_tokens": 128864.0,
|
|
"step": 90
|
|
},
|
|
{
|
|
"entropy": 1.6863915205001831,
|
|
"epoch": 0.13333333333333333,
|
|
"grad_norm": 0.7490881085395813,
|
|
"learning_rate": 0.00019472,
|
|
"loss": 1.7097,
|
|
"mean_token_accuracy": 0.5710519969463348,
|
|
"num_tokens": 143400.0,
|
|
"step": 100
|
|
},
|
|
{
|
|
"entropy": 1.656905508041382,
|
|
"epoch": 0.14666666666666667,
|
|
"grad_norm": 0.7690205574035645,
|
|
"learning_rate": 0.00019418666666666667,
|
|
"loss": 1.6377,
|
|
"mean_token_accuracy": 0.5826482594013214,
|
|
"num_tokens": 157812.0,
|
|
"step": 110
|
|
},
|
|
{
|
|
"entropy": 1.70476393699646,
|
|
"epoch": 0.16,
|
|
"grad_norm": 0.7643902897834778,
|
|
"learning_rate": 0.00019365333333333336,
|
|
"loss": 1.7258,
|
|
"mean_token_accuracy": 0.5608070731163025,
|
|
"num_tokens": 171892.0,
|
|
"step": 120
|
|
},
|
|
{
|
|
"entropy": 1.6601023912429809,
|
|
"epoch": 0.17333333333333334,
|
|
"grad_norm": 0.8293864130973816,
|
|
"learning_rate": 0.00019312000000000002,
|
|
"loss": 1.6714,
|
|
"mean_token_accuracy": 0.5756373822689056,
|
|
"num_tokens": 186019.0,
|
|
"step": 130
|
|
},
|
|
{
|
|
"entropy": 1.6955374836921693,
|
|
"epoch": 0.18666666666666668,
|
|
"grad_norm": 0.8544629812240601,
|
|
"learning_rate": 0.00019258666666666668,
|
|
"loss": 1.6904,
|
|
"mean_token_accuracy": 0.5779714524745941,
|
|
"num_tokens": 200048.0,
|
|
"step": 140
|
|
},
|
|
{
|
|
"entropy": 1.672298264503479,
|
|
"epoch": 0.2,
|
|
"grad_norm": 0.7459447383880615,
|
|
"learning_rate": 0.00019205333333333335,
|
|
"loss": 1.6373,
|
|
"mean_token_accuracy": 0.5774146437644958,
|
|
"num_tokens": 214845.0,
|
|
"step": 150
|
|
},
|
|
{
|
|
"entropy": 1.621527373790741,
|
|
"epoch": 0.21333333333333335,
|
|
"grad_norm": 0.778339684009552,
|
|
"learning_rate": 0.00019152,
|
|
"loss": 1.6564,
|
|
"mean_token_accuracy": 0.5799753427505493,
|
|
"num_tokens": 228965.0,
|
|
"step": 160
|
|
},
|
|
{
|
|
"entropy": 1.6854836463928222,
|
|
"epoch": 0.22666666666666666,
|
|
"grad_norm": 0.7781394720077515,
|
|
"learning_rate": 0.00019098666666666667,
|
|
"loss": 1.6731,
|
|
"mean_token_accuracy": 0.5745640277862549,
|
|
"num_tokens": 243138.0,
|
|
"step": 170
|
|
},
|
|
{
|
|
"entropy": 1.648065435886383,
|
|
"epoch": 0.24,
|
|
"grad_norm": 0.7444502711296082,
|
|
"learning_rate": 0.00019045333333333336,
|
|
"loss": 1.6556,
|
|
"mean_token_accuracy": 0.5753928661346436,
|
|
"num_tokens": 257706.0,
|
|
"step": 180
|
|
},
|
|
{
|
|
"entropy": 1.6733452081680298,
|
|
"epoch": 0.25333333333333335,
|
|
"grad_norm": 0.6875325441360474,
|
|
"learning_rate": 0.00018992,
|
|
"loss": 1.6905,
|
|
"mean_token_accuracy": 0.5732767701148986,
|
|
"num_tokens": 271550.0,
|
|
"step": 190
|
|
},
|
|
{
|
|
"entropy": 1.675937283039093,
|
|
"epoch": 0.26666666666666666,
|
|
"grad_norm": 0.7303425073623657,
|
|
"learning_rate": 0.00018938666666666666,
|
|
"loss": 1.6684,
|
|
"mean_token_accuracy": 0.5771281003952027,
|
|
"num_tokens": 285690.0,
|
|
"step": 200
|
|
},
|
|
{
|
|
"entropy": 1.6358152866363525,
|
|
"epoch": 0.28,
|
|
"grad_norm": 0.7411030530929565,
|
|
"learning_rate": 0.00018885333333333335,
|
|
"loss": 1.6339,
|
|
"mean_token_accuracy": 0.5838043510913848,
|
|
"num_tokens": 300104.0,
|
|
"step": 210
|
|
},
|
|
{
|
|
"entropy": 1.6545907258987427,
|
|
"epoch": 0.29333333333333333,
|
|
"grad_norm": 0.7895593047142029,
|
|
"learning_rate": 0.00018832,
|
|
"loss": 1.6858,
|
|
"mean_token_accuracy": 0.5718037188053131,
|
|
"num_tokens": 314047.0,
|
|
"step": 220
|
|
},
|
|
{
|
|
"entropy": 1.6488535761833192,
|
|
"epoch": 0.30666666666666664,
|
|
"grad_norm": 0.7785155177116394,
|
|
"learning_rate": 0.00018778666666666668,
|
|
"loss": 1.6694,
|
|
"mean_token_accuracy": 0.5763668715953827,
|
|
"num_tokens": 328674.0,
|
|
"step": 230
|
|
},
|
|
{
|
|
"entropy": 1.6801724672317504,
|
|
"epoch": 0.32,
|
|
"grad_norm": 0.697731614112854,
|
|
"learning_rate": 0.00018725333333333334,
|
|
"loss": 1.6564,
|
|
"mean_token_accuracy": 0.5734941899776459,
|
|
"num_tokens": 342932.0,
|
|
"step": 240
|
|
},
|
|
{
|
|
"entropy": 1.6780007004737854,
|
|
"epoch": 0.3333333333333333,
|
|
"grad_norm": 0.7615799903869629,
|
|
"learning_rate": 0.00018672,
|
|
"loss": 1.694,
|
|
"mean_token_accuracy": 0.5711317896842957,
|
|
"num_tokens": 357167.0,
|
|
"step": 250
|
|
},
|
|
{
|
|
"entropy": 1.6752456307411194,
|
|
"epoch": 0.3466666666666667,
|
|
"grad_norm": 0.715129017829895,
|
|
"learning_rate": 0.00018618666666666666,
|
|
"loss": 1.6726,
|
|
"mean_token_accuracy": 0.5754297077655792,
|
|
"num_tokens": 371293.0,
|
|
"step": 260
|
|
},
|
|
{
|
|
"entropy": 1.6538572311401367,
|
|
"epoch": 0.36,
|
|
"grad_norm": 0.8093023896217346,
|
|
"learning_rate": 0.00018565333333333335,
|
|
"loss": 1.6722,
|
|
"mean_token_accuracy": 0.5708646178245544,
|
|
"num_tokens": 385455.0,
|
|
"step": 270
|
|
},
|
|
{
|
|
"entropy": 1.6819413661956788,
|
|
"epoch": 0.37333333333333335,
|
|
"grad_norm": 0.7279489636421204,
|
|
"learning_rate": 0.00018512000000000002,
|
|
"loss": 1.6482,
|
|
"mean_token_accuracy": 0.5810510337352752,
|
|
"num_tokens": 399994.0,
|
|
"step": 280
|
|
},
|
|
{
|
|
"entropy": 1.6535839796066285,
|
|
"epoch": 0.38666666666666666,
|
|
"grad_norm": 0.7264725565910339,
|
|
"learning_rate": 0.00018458666666666668,
|
|
"loss": 1.6601,
|
|
"mean_token_accuracy": 0.5782212734222412,
|
|
"num_tokens": 414302.0,
|
|
"step": 290
|
|
},
|
|
{
|
|
"entropy": 1.6291370630264281,
|
|
"epoch": 0.4,
|
|
"grad_norm": 0.7391830682754517,
|
|
"learning_rate": 0.00018405333333333334,
|
|
"loss": 1.6252,
|
|
"mean_token_accuracy": 0.5810718059539794,
|
|
"num_tokens": 428367.0,
|
|
"step": 300
|
|
},
|
|
{
|
|
"entropy": 1.6454604744911194,
|
|
"epoch": 0.41333333333333333,
|
|
"grad_norm": 0.7421492338180542,
|
|
"learning_rate": 0.00018352,
|
|
"loss": 1.6548,
|
|
"mean_token_accuracy": 0.5764368116855622,
|
|
"num_tokens": 442350.0,
|
|
"step": 310
|
|
},
|
|
{
|
|
"entropy": 1.6191022634506225,
|
|
"epoch": 0.4266666666666667,
|
|
"grad_norm": 0.6302896738052368,
|
|
"learning_rate": 0.0001829866666666667,
|
|
"loss": 1.6362,
|
|
"mean_token_accuracy": 0.5786097645759583,
|
|
"num_tokens": 456414.0,
|
|
"step": 320
|
|
},
|
|
{
|
|
"entropy": 1.694426167011261,
|
|
"epoch": 0.44,
|
|
"grad_norm": 0.7121474742889404,
|
|
"learning_rate": 0.00018245333333333333,
|
|
"loss": 1.7126,
|
|
"mean_token_accuracy": 0.5670216321945191,
|
|
"num_tokens": 470836.0,
|
|
"step": 330
|
|
},
|
|
{
|
|
"entropy": 1.724251127243042,
|
|
"epoch": 0.4533333333333333,
|
|
"grad_norm": 0.6601665019989014,
|
|
"learning_rate": 0.00018192,
|
|
"loss": 1.7136,
|
|
"mean_token_accuracy": 0.5723266065120697,
|
|
"num_tokens": 485043.0,
|
|
"step": 340
|
|
},
|
|
{
|
|
"entropy": 1.6735360264778136,
|
|
"epoch": 0.4666666666666667,
|
|
"grad_norm": 0.8272239565849304,
|
|
"learning_rate": 0.00018138666666666668,
|
|
"loss": 1.6753,
|
|
"mean_token_accuracy": 0.5723617672920227,
|
|
"num_tokens": 499183.0,
|
|
"step": 350
|
|
},
|
|
{
|
|
"entropy": 1.6469814419746398,
|
|
"epoch": 0.48,
|
|
"grad_norm": 0.7188411951065063,
|
|
"learning_rate": 0.00018085333333333335,
|
|
"loss": 1.6475,
|
|
"mean_token_accuracy": 0.5769975543022156,
|
|
"num_tokens": 513579.0,
|
|
"step": 360
|
|
},
|
|
{
|
|
"entropy": 1.6747308850288392,
|
|
"epoch": 0.49333333333333335,
|
|
"grad_norm": 0.7487552762031555,
|
|
"learning_rate": 0.00018032,
|
|
"loss": 1.6823,
|
|
"mean_token_accuracy": 0.5752046227455139,
|
|
"num_tokens": 527660.0,
|
|
"step": 370
|
|
},
|
|
{
|
|
"entropy": 1.666330885887146,
|
|
"epoch": 0.5066666666666667,
|
|
"grad_norm": 0.6975488662719727,
|
|
"learning_rate": 0.00017978666666666667,
|
|
"loss": 1.6582,
|
|
"mean_token_accuracy": 0.5811319828033448,
|
|
"num_tokens": 542081.0,
|
|
"step": 380
|
|
},
|
|
{
|
|
"entropy": 1.6803588151931763,
|
|
"epoch": 0.52,
|
|
"grad_norm": 0.737691342830658,
|
|
"learning_rate": 0.00017925333333333333,
|
|
"loss": 1.6788,
|
|
"mean_token_accuracy": 0.5737549722194671,
|
|
"num_tokens": 556595.0,
|
|
"step": 390
|
|
},
|
|
{
|
|
"entropy": 1.6843163609504699,
|
|
"epoch": 0.5333333333333333,
|
|
"grad_norm": 0.739733099937439,
|
|
"learning_rate": 0.00017872,
|
|
"loss": 1.6939,
|
|
"mean_token_accuracy": 0.5709910333156586,
|
|
"num_tokens": 570777.0,
|
|
"step": 400
|
|
},
|
|
{
|
|
"entropy": 1.6645950436592103,
|
|
"epoch": 0.5466666666666666,
|
|
"grad_norm": 0.7805267572402954,
|
|
"learning_rate": 0.00017818666666666669,
|
|
"loss": 1.6813,
|
|
"mean_token_accuracy": 0.5687461018562316,
|
|
"num_tokens": 585138.0,
|
|
"step": 410
|
|
},
|
|
{
|
|
"entropy": 1.6936459064483642,
|
|
"epoch": 0.56,
|
|
"grad_norm": 0.726749062538147,
|
|
"learning_rate": 0.00017765333333333335,
|
|
"loss": 1.6973,
|
|
"mean_token_accuracy": 0.5707198500633239,
|
|
"num_tokens": 599933.0,
|
|
"step": 420
|
|
},
|
|
{
|
|
"entropy": 1.6732940793037414,
|
|
"epoch": 0.5733333333333334,
|
|
"grad_norm": 0.6750204563140869,
|
|
"learning_rate": 0.00017712,
|
|
"loss": 1.6797,
|
|
"mean_token_accuracy": 0.5727494537830353,
|
|
"num_tokens": 614132.0,
|
|
"step": 430
|
|
},
|
|
{
|
|
"entropy": 1.6580298662185669,
|
|
"epoch": 0.5866666666666667,
|
|
"grad_norm": 0.719950795173645,
|
|
"learning_rate": 0.00017658666666666667,
|
|
"loss": 1.6577,
|
|
"mean_token_accuracy": 0.5744940221309662,
|
|
"num_tokens": 628571.0,
|
|
"step": 440
|
|
},
|
|
{
|
|
"entropy": 1.652840507030487,
|
|
"epoch": 0.6,
|
|
"grad_norm": 0.6199878454208374,
|
|
"learning_rate": 0.00017605333333333334,
|
|
"loss": 1.6518,
|
|
"mean_token_accuracy": 0.5756324470043183,
|
|
"num_tokens": 643076.0,
|
|
"step": 450
|
|
},
|
|
{
|
|
"entropy": 1.6695269465446472,
|
|
"epoch": 0.6133333333333333,
|
|
"grad_norm": 0.7818489074707031,
|
|
"learning_rate": 0.00017552000000000003,
|
|
"loss": 1.6768,
|
|
"mean_token_accuracy": 0.5710194766521454,
|
|
"num_tokens": 656943.0,
|
|
"step": 460
|
|
},
|
|
{
|
|
"entropy": 1.668250596523285,
|
|
"epoch": 0.6266666666666667,
|
|
"grad_norm": 0.6790580749511719,
|
|
"learning_rate": 0.0001749866666666667,
|
|
"loss": 1.6783,
|
|
"mean_token_accuracy": 0.5728156328201294,
|
|
"num_tokens": 671345.0,
|
|
"step": 470
|
|
},
|
|
{
|
|
"entropy": 1.6558388233184815,
|
|
"epoch": 0.64,
|
|
"grad_norm": 0.7647916078567505,
|
|
"learning_rate": 0.00017445333333333333,
|
|
"loss": 1.6723,
|
|
"mean_token_accuracy": 0.5740255832672119,
|
|
"num_tokens": 685563.0,
|
|
"step": 480
|
|
},
|
|
{
|
|
"entropy": 1.6663503646850586,
|
|
"epoch": 0.6533333333333333,
|
|
"grad_norm": 0.6828808188438416,
|
|
"learning_rate": 0.00017392000000000002,
|
|
"loss": 1.6718,
|
|
"mean_token_accuracy": 0.5754141092300415,
|
|
"num_tokens": 699746.0,
|
|
"step": 490
|
|
},
|
|
{
|
|
"entropy": 1.6640026688575744,
|
|
"epoch": 0.6666666666666666,
|
|
"grad_norm": 0.7021526098251343,
|
|
"learning_rate": 0.00017338666666666668,
|
|
"loss": 1.6442,
|
|
"mean_token_accuracy": 0.5807092905044555,
|
|
"num_tokens": 714501.0,
|
|
"step": 500
|
|
},
|
|
{
|
|
"entropy": 1.6755484104156495,
|
|
"epoch": 0.68,
|
|
"grad_norm": 0.6762555241584778,
|
|
"learning_rate": 0.00017285333333333334,
|
|
"loss": 1.6864,
|
|
"mean_token_accuracy": 0.5786374986171723,
|
|
"num_tokens": 728741.0,
|
|
"step": 510
|
|
},
|
|
{
|
|
"entropy": 1.6181371688842774,
|
|
"epoch": 0.6933333333333334,
|
|
"grad_norm": 0.7460752129554749,
|
|
"learning_rate": 0.00017232,
|
|
"loss": 1.6443,
|
|
"mean_token_accuracy": 0.5760051727294921,
|
|
"num_tokens": 742943.0,
|
|
"step": 520
|
|
},
|
|
{
|
|
"entropy": 1.6662646651268005,
|
|
"epoch": 0.7066666666666667,
|
|
"grad_norm": 0.6818891167640686,
|
|
"learning_rate": 0.00017178666666666667,
|
|
"loss": 1.6626,
|
|
"mean_token_accuracy": 0.5765082776546478,
|
|
"num_tokens": 757701.0,
|
|
"step": 530
|
|
},
|
|
{
|
|
"entropy": 1.640554964542389,
|
|
"epoch": 0.72,
|
|
"grad_norm": 0.699113130569458,
|
|
"learning_rate": 0.00017125333333333333,
|
|
"loss": 1.6219,
|
|
"mean_token_accuracy": 0.5862498044967651,
|
|
"num_tokens": 772062.0,
|
|
"step": 540
|
|
},
|
|
{
|
|
"entropy": 1.692064070701599,
|
|
"epoch": 0.7333333333333333,
|
|
"grad_norm": 0.7120975852012634,
|
|
"learning_rate": 0.00017072000000000002,
|
|
"loss": 1.6991,
|
|
"mean_token_accuracy": 0.5677917718887329,
|
|
"num_tokens": 786707.0,
|
|
"step": 550
|
|
},
|
|
{
|
|
"entropy": 1.6766908407211303,
|
|
"epoch": 0.7466666666666667,
|
|
"grad_norm": 0.7205502390861511,
|
|
"learning_rate": 0.00017018666666666668,
|
|
"loss": 1.6758,
|
|
"mean_token_accuracy": 0.5790870308876037,
|
|
"num_tokens": 801236.0,
|
|
"step": 560
|
|
},
|
|
{
|
|
"entropy": 1.632925820350647,
|
|
"epoch": 0.76,
|
|
"grad_norm": 0.738036572933197,
|
|
"learning_rate": 0.00016965333333333332,
|
|
"loss": 1.6494,
|
|
"mean_token_accuracy": 0.5808292210102082,
|
|
"num_tokens": 815883.0,
|
|
"step": 570
|
|
},
|
|
{
|
|
"entropy": 1.669986116886139,
|
|
"epoch": 0.7733333333333333,
|
|
"grad_norm": 0.6785821914672852,
|
|
"learning_rate": 0.00016912,
|
|
"loss": 1.6544,
|
|
"mean_token_accuracy": 0.5800759375095368,
|
|
"num_tokens": 829570.0,
|
|
"step": 580
|
|
},
|
|
{
|
|
"entropy": 1.6363327860832215,
|
|
"epoch": 0.7866666666666666,
|
|
"grad_norm": 0.6850758790969849,
|
|
"learning_rate": 0.00016858666666666667,
|
|
"loss": 1.6549,
|
|
"mean_token_accuracy": 0.578828877210617,
|
|
"num_tokens": 844009.0,
|
|
"step": 590
|
|
},
|
|
{
|
|
"entropy": 1.64016250371933,
|
|
"epoch": 0.8,
|
|
"grad_norm": 0.6750107407569885,
|
|
"learning_rate": 0.00016805333333333336,
|
|
"loss": 1.6566,
|
|
"mean_token_accuracy": 0.575623071193695,
|
|
"num_tokens": 858282.0,
|
|
"step": 600
|
|
},
|
|
{
|
|
"entropy": 1.6842385530471802,
|
|
"epoch": 0.8133333333333334,
|
|
"grad_norm": 0.7148203253746033,
|
|
"learning_rate": 0.00016752000000000002,
|
|
"loss": 1.6909,
|
|
"mean_token_accuracy": 0.5759712219238281,
|
|
"num_tokens": 872855.0,
|
|
"step": 610
|
|
},
|
|
{
|
|
"entropy": 1.6071362018585205,
|
|
"epoch": 0.8266666666666667,
|
|
"grad_norm": 0.709815263748169,
|
|
"learning_rate": 0.00016698666666666666,
|
|
"loss": 1.6062,
|
|
"mean_token_accuracy": 0.5838622927665711,
|
|
"num_tokens": 887139.0,
|
|
"step": 620
|
|
},
|
|
{
|
|
"entropy": 1.647024357318878,
|
|
"epoch": 0.84,
|
|
"grad_norm": 0.7029419541358948,
|
|
"learning_rate": 0.00016645333333333335,
|
|
"loss": 1.6712,
|
|
"mean_token_accuracy": 0.5723545610904693,
|
|
"num_tokens": 901212.0,
|
|
"step": 630
|
|
},
|
|
{
|
|
"entropy": 1.6637583255767823,
|
|
"epoch": 0.8533333333333334,
|
|
"grad_norm": 0.7077947854995728,
|
|
"learning_rate": 0.00016592,
|
|
"loss": 1.6467,
|
|
"mean_token_accuracy": 0.5752432465553283,
|
|
"num_tokens": 915566.0,
|
|
"step": 640
|
|
},
|
|
{
|
|
"entropy": 1.6351732969284059,
|
|
"epoch": 0.8666666666666667,
|
|
"grad_norm": 0.7223191857337952,
|
|
"learning_rate": 0.00016538666666666667,
|
|
"loss": 1.6326,
|
|
"mean_token_accuracy": 0.5809595823287964,
|
|
"num_tokens": 930155.0,
|
|
"step": 650
|
|
},
|
|
{
|
|
"entropy": 1.625480556488037,
|
|
"epoch": 0.88,
|
|
"grad_norm": 0.6872687339782715,
|
|
"learning_rate": 0.00016485333333333334,
|
|
"loss": 1.6096,
|
|
"mean_token_accuracy": 0.5873603641986846,
|
|
"num_tokens": 943961.0,
|
|
"step": 660
|
|
},
|
|
{
|
|
"entropy": 1.6413599967956543,
|
|
"epoch": 0.8933333333333333,
|
|
"grad_norm": 0.6594866514205933,
|
|
"learning_rate": 0.00016432,
|
|
"loss": 1.692,
|
|
"mean_token_accuracy": 0.5740860402584076,
|
|
"num_tokens": 958370.0,
|
|
"step": 670
|
|
},
|
|
{
|
|
"entropy": 1.6765796422958374,
|
|
"epoch": 0.9066666666666666,
|
|
"grad_norm": 0.6635148525238037,
|
|
"learning_rate": 0.00016378666666666666,
|
|
"loss": 1.6493,
|
|
"mean_token_accuracy": 0.5794400811195374,
|
|
"num_tokens": 972746.0,
|
|
"step": 680
|
|
},
|
|
{
|
|
"entropy": 1.64844651222229,
|
|
"epoch": 0.92,
|
|
"grad_norm": 0.6969758868217468,
|
|
"learning_rate": 0.00016325333333333335,
|
|
"loss": 1.6465,
|
|
"mean_token_accuracy": 0.5806655645370483,
|
|
"num_tokens": 987210.0,
|
|
"step": 690
|
|
},
|
|
{
|
|
"entropy": 1.628549289703369,
|
|
"epoch": 0.9333333333333333,
|
|
"grad_norm": 0.6831814050674438,
|
|
"learning_rate": 0.00016272000000000001,
|
|
"loss": 1.6445,
|
|
"mean_token_accuracy": 0.5774340748786926,
|
|
"num_tokens": 1001627.0,
|
|
"step": 700
|
|
},
|
|
{
|
|
"entropy": 1.6590662002563477,
|
|
"epoch": 0.9466666666666667,
|
|
"grad_norm": 0.7329531908035278,
|
|
"learning_rate": 0.00016218666666666668,
|
|
"loss": 1.6746,
|
|
"mean_token_accuracy": 0.5709875702857972,
|
|
"num_tokens": 1015828.0,
|
|
"step": 710
|
|
},
|
|
{
|
|
"entropy": 1.6233970403671265,
|
|
"epoch": 0.96,
|
|
"grad_norm": 0.6673484444618225,
|
|
"learning_rate": 0.00016165333333333334,
|
|
"loss": 1.6213,
|
|
"mean_token_accuracy": 0.5806674182415008,
|
|
"num_tokens": 1030323.0,
|
|
"step": 720
|
|
},
|
|
{
|
|
"entropy": 1.6572086334228515,
|
|
"epoch": 0.9733333333333334,
|
|
"grad_norm": 0.7702727913856506,
|
|
"learning_rate": 0.00016112,
|
|
"loss": 1.6664,
|
|
"mean_token_accuracy": 0.5798572361469269,
|
|
"num_tokens": 1044685.0,
|
|
"step": 730
|
|
},
|
|
{
|
|
"entropy": 1.620801281929016,
|
|
"epoch": 0.9866666666666667,
|
|
"grad_norm": 0.6698365211486816,
|
|
"learning_rate": 0.0001605866666666667,
|
|
"loss": 1.6032,
|
|
"mean_token_accuracy": 0.5835649371147156,
|
|
"num_tokens": 1058992.0,
|
|
"step": 740
|
|
},
|
|
{
|
|
"entropy": 1.6149493217468263,
|
|
"epoch": 1.0,
|
|
"grad_norm": 0.6890732645988464,
|
|
"learning_rate": 0.00016005333333333335,
|
|
"loss": 1.6306,
|
|
"mean_token_accuracy": 0.5798977136611938,
|
|
"num_tokens": 1073437.0,
|
|
"step": 750
|
|
},
|
|
{
|
|
"entropy": 1.6699055314064026,
|
|
"epoch": 1.0133333333333334,
|
|
"grad_norm": 0.7555853724479675,
|
|
"learning_rate": 0.00015952,
|
|
"loss": 1.635,
|
|
"mean_token_accuracy": 0.5828357517719269,
|
|
"num_tokens": 1087792.0,
|
|
"step": 760
|
|
},
|
|
{
|
|
"entropy": 1.6272497057914734,
|
|
"epoch": 1.0266666666666666,
|
|
"grad_norm": 0.7309948801994324,
|
|
"learning_rate": 0.00015898666666666668,
|
|
"loss": 1.6164,
|
|
"mean_token_accuracy": 0.5864035606384277,
|
|
"num_tokens": 1102220.0,
|
|
"step": 770
|
|
},
|
|
{
|
|
"entropy": 1.6252751708030702,
|
|
"epoch": 1.04,
|
|
"grad_norm": 0.6662526726722717,
|
|
"learning_rate": 0.00015845333333333334,
|
|
"loss": 1.6074,
|
|
"mean_token_accuracy": 0.5863919079303741,
|
|
"num_tokens": 1116220.0,
|
|
"step": 780
|
|
},
|
|
{
|
|
"entropy": 1.6117313146591186,
|
|
"epoch": 1.0533333333333332,
|
|
"grad_norm": 0.6945940256118774,
|
|
"learning_rate": 0.00015792,
|
|
"loss": 1.6198,
|
|
"mean_token_accuracy": 0.5855257391929627,
|
|
"num_tokens": 1130621.0,
|
|
"step": 790
|
|
},
|
|
{
|
|
"entropy": 1.6056355476379394,
|
|
"epoch": 1.0666666666666667,
|
|
"grad_norm": 0.7574010491371155,
|
|
"learning_rate": 0.0001573866666666667,
|
|
"loss": 1.6585,
|
|
"mean_token_accuracy": 0.582321560382843,
|
|
"num_tokens": 1144891.0,
|
|
"step": 800
|
|
},
|
|
{
|
|
"entropy": 1.6536706924438476,
|
|
"epoch": 1.08,
|
|
"grad_norm": 0.7776330709457397,
|
|
"learning_rate": 0.00015685333333333333,
|
|
"loss": 1.6417,
|
|
"mean_token_accuracy": 0.5807085573673249,
|
|
"num_tokens": 1159452.0,
|
|
"step": 810
|
|
},
|
|
{
|
|
"entropy": 1.636245596408844,
|
|
"epoch": 1.0933333333333333,
|
|
"grad_norm": 0.7058615684509277,
|
|
"learning_rate": 0.00015632,
|
|
"loss": 1.6129,
|
|
"mean_token_accuracy": 0.5896495580673218,
|
|
"num_tokens": 1174079.0,
|
|
"step": 820
|
|
},
|
|
{
|
|
"entropy": 1.573302984237671,
|
|
"epoch": 1.1066666666666667,
|
|
"grad_norm": 0.7599795460700989,
|
|
"learning_rate": 0.00015578666666666668,
|
|
"loss": 1.5675,
|
|
"mean_token_accuracy": 0.5902469873428344,
|
|
"num_tokens": 1188584.0,
|
|
"step": 830
|
|
},
|
|
{
|
|
"entropy": 1.5608547449111938,
|
|
"epoch": 1.12,
|
|
"grad_norm": 0.7376325130462646,
|
|
"learning_rate": 0.00015525333333333335,
|
|
"loss": 1.5674,
|
|
"mean_token_accuracy": 0.5912195801734924,
|
|
"num_tokens": 1203146.0,
|
|
"step": 840
|
|
},
|
|
{
|
|
"entropy": 1.609606885910034,
|
|
"epoch": 1.1333333333333333,
|
|
"grad_norm": 0.7759743332862854,
|
|
"learning_rate": 0.00015472,
|
|
"loss": 1.6121,
|
|
"mean_token_accuracy": 0.5835619568824768,
|
|
"num_tokens": 1217734.0,
|
|
"step": 850
|
|
},
|
|
{
|
|
"entropy": 1.6040807604789733,
|
|
"epoch": 1.1466666666666667,
|
|
"grad_norm": 0.7043464183807373,
|
|
"learning_rate": 0.00015418666666666667,
|
|
"loss": 1.5964,
|
|
"mean_token_accuracy": 0.5868722558021545,
|
|
"num_tokens": 1232005.0,
|
|
"step": 860
|
|
},
|
|
{
|
|
"entropy": 1.6219854712486268,
|
|
"epoch": 1.16,
|
|
"grad_norm": 0.7642476558685303,
|
|
"learning_rate": 0.00015365333333333333,
|
|
"loss": 1.6229,
|
|
"mean_token_accuracy": 0.5852142035961151,
|
|
"num_tokens": 1246209.0,
|
|
"step": 870
|
|
},
|
|
{
|
|
"entropy": 1.5783800959587098,
|
|
"epoch": 1.1733333333333333,
|
|
"grad_norm": 0.7461272478103638,
|
|
"learning_rate": 0.00015312,
|
|
"loss": 1.5816,
|
|
"mean_token_accuracy": 0.5920245468616485,
|
|
"num_tokens": 1260843.0,
|
|
"step": 880
|
|
},
|
|
{
|
|
"entropy": 1.6118128061294557,
|
|
"epoch": 1.1866666666666668,
|
|
"grad_norm": 0.7573221921920776,
|
|
"learning_rate": 0.0001525866666666667,
|
|
"loss": 1.6237,
|
|
"mean_token_accuracy": 0.5853161156177521,
|
|
"num_tokens": 1275378.0,
|
|
"step": 890
|
|
},
|
|
{
|
|
"entropy": 1.5877676010131836,
|
|
"epoch": 1.2,
|
|
"grad_norm": 0.726969301700592,
|
|
"learning_rate": 0.00015205333333333332,
|
|
"loss": 1.5968,
|
|
"mean_token_accuracy": 0.586136519908905,
|
|
"num_tokens": 1289452.0,
|
|
"step": 900
|
|
},
|
|
{
|
|
"entropy": 1.621052074432373,
|
|
"epoch": 1.2133333333333334,
|
|
"grad_norm": 0.7222169637680054,
|
|
"learning_rate": 0.00015152,
|
|
"loss": 1.5923,
|
|
"mean_token_accuracy": 0.5882635056972504,
|
|
"num_tokens": 1303574.0,
|
|
"step": 910
|
|
},
|
|
{
|
|
"entropy": 1.6104066729545594,
|
|
"epoch": 1.2266666666666666,
|
|
"grad_norm": 0.71150803565979,
|
|
"learning_rate": 0.00015098666666666668,
|
|
"loss": 1.6069,
|
|
"mean_token_accuracy": 0.5818524241447449,
|
|
"num_tokens": 1317990.0,
|
|
"step": 920
|
|
},
|
|
{
|
|
"entropy": 1.6299067378044128,
|
|
"epoch": 1.24,
|
|
"grad_norm": 0.7796948552131653,
|
|
"learning_rate": 0.00015045333333333334,
|
|
"loss": 1.6278,
|
|
"mean_token_accuracy": 0.5779022514820099,
|
|
"num_tokens": 1332231.0,
|
|
"step": 930
|
|
},
|
|
{
|
|
"entropy": 1.640848958492279,
|
|
"epoch": 1.2533333333333334,
|
|
"grad_norm": 0.7690544128417969,
|
|
"learning_rate": 0.00014992000000000003,
|
|
"loss": 1.6586,
|
|
"mean_token_accuracy": 0.5768225789070129,
|
|
"num_tokens": 1346353.0,
|
|
"step": 940
|
|
},
|
|
{
|
|
"entropy": 1.6566609621047974,
|
|
"epoch": 1.2666666666666666,
|
|
"grad_norm": 0.7505296468734741,
|
|
"learning_rate": 0.00014938666666666666,
|
|
"loss": 1.6513,
|
|
"mean_token_accuracy": 0.5779002785682679,
|
|
"num_tokens": 1360484.0,
|
|
"step": 950
|
|
},
|
|
{
|
|
"entropy": 1.630296492576599,
|
|
"epoch": 1.28,
|
|
"grad_norm": 0.6883164048194885,
|
|
"learning_rate": 0.00014885333333333333,
|
|
"loss": 1.6294,
|
|
"mean_token_accuracy": 0.5862487494945526,
|
|
"num_tokens": 1374779.0,
|
|
"step": 960
|
|
},
|
|
{
|
|
"entropy": 1.6024248838424682,
|
|
"epoch": 1.2933333333333334,
|
|
"grad_norm": 0.7196306586265564,
|
|
"learning_rate": 0.00014832000000000002,
|
|
"loss": 1.5981,
|
|
"mean_token_accuracy": 0.5908697605133056,
|
|
"num_tokens": 1388795.0,
|
|
"step": 970
|
|
},
|
|
{
|
|
"entropy": 1.582094705104828,
|
|
"epoch": 1.3066666666666666,
|
|
"grad_norm": 0.7783096432685852,
|
|
"learning_rate": 0.00014778666666666668,
|
|
"loss": 1.6106,
|
|
"mean_token_accuracy": 0.5879612743854523,
|
|
"num_tokens": 1403193.0,
|
|
"step": 980
|
|
},
|
|
{
|
|
"entropy": 1.645870816707611,
|
|
"epoch": 1.32,
|
|
"grad_norm": 0.7696360945701599,
|
|
"learning_rate": 0.00014725333333333334,
|
|
"loss": 1.6356,
|
|
"mean_token_accuracy": 0.578856211900711,
|
|
"num_tokens": 1417479.0,
|
|
"step": 990
|
|
},
|
|
{
|
|
"entropy": 1.6369327068328858,
|
|
"epoch": 1.3333333333333333,
|
|
"grad_norm": 0.7761406898498535,
|
|
"learning_rate": 0.00014672,
|
|
"loss": 1.6175,
|
|
"mean_token_accuracy": 0.5842687666416169,
|
|
"num_tokens": 1431576.0,
|
|
"step": 1000
|
|
},
|
|
{
|
|
"entropy": 1.6226306080818176,
|
|
"epoch": 1.3466666666666667,
|
|
"grad_norm": 0.7547776103019714,
|
|
"learning_rate": 0.00014618666666666667,
|
|
"loss": 1.6172,
|
|
"mean_token_accuracy": 0.5815251469612122,
|
|
"num_tokens": 1446102.0,
|
|
"step": 1010
|
|
},
|
|
{
|
|
"entropy": 1.6198955655097962,
|
|
"epoch": 1.3599999999999999,
|
|
"grad_norm": 0.7692626118659973,
|
|
"learning_rate": 0.00014565333333333333,
|
|
"loss": 1.6022,
|
|
"mean_token_accuracy": 0.5851478815078736,
|
|
"num_tokens": 1460559.0,
|
|
"step": 1020
|
|
},
|
|
{
|
|
"entropy": 1.6360511779785156,
|
|
"epoch": 1.3733333333333333,
|
|
"grad_norm": 0.7356512546539307,
|
|
"learning_rate": 0.00014512000000000002,
|
|
"loss": 1.6665,
|
|
"mean_token_accuracy": 0.5710932374000549,
|
|
"num_tokens": 1474127.0,
|
|
"step": 1030
|
|
},
|
|
{
|
|
"entropy": 1.6403623819351196,
|
|
"epoch": 1.3866666666666667,
|
|
"grad_norm": 0.7629533410072327,
|
|
"learning_rate": 0.00014458666666666668,
|
|
"loss": 1.6187,
|
|
"mean_token_accuracy": 0.5833263874053956,
|
|
"num_tokens": 1488460.0,
|
|
"step": 1040
|
|
},
|
|
{
|
|
"entropy": 1.6373688101768493,
|
|
"epoch": 1.4,
|
|
"grad_norm": 0.7465691566467285,
|
|
"learning_rate": 0.00014405333333333335,
|
|
"loss": 1.6393,
|
|
"mean_token_accuracy": 0.5801452934741974,
|
|
"num_tokens": 1502527.0,
|
|
"step": 1050
|
|
},
|
|
{
|
|
"entropy": 1.6059898138046265,
|
|
"epoch": 1.4133333333333333,
|
|
"grad_norm": 0.7648448348045349,
|
|
"learning_rate": 0.00014352,
|
|
"loss": 1.6234,
|
|
"mean_token_accuracy": 0.5848953366279602,
|
|
"num_tokens": 1517179.0,
|
|
"step": 1060
|
|
},
|
|
{
|
|
"entropy": 1.6081330895423889,
|
|
"epoch": 1.4266666666666667,
|
|
"grad_norm": 0.7271841168403625,
|
|
"learning_rate": 0.00014298666666666667,
|
|
"loss": 1.6111,
|
|
"mean_token_accuracy": 0.5818961441516877,
|
|
"num_tokens": 1531217.0,
|
|
"step": 1070
|
|
},
|
|
{
|
|
"entropy": 1.6149009227752686,
|
|
"epoch": 1.44,
|
|
"grad_norm": 0.7602919936180115,
|
|
"learning_rate": 0.00014245333333333336,
|
|
"loss": 1.6105,
|
|
"mean_token_accuracy": 0.5892933189868927,
|
|
"num_tokens": 1545388.0,
|
|
"step": 1080
|
|
},
|
|
{
|
|
"entropy": 1.6233277559280395,
|
|
"epoch": 1.4533333333333334,
|
|
"grad_norm": 0.7907194495201111,
|
|
"learning_rate": 0.00014192,
|
|
"loss": 1.6208,
|
|
"mean_token_accuracy": 0.5803293466567994,
|
|
"num_tokens": 1559761.0,
|
|
"step": 1090
|
|
},
|
|
{
|
|
"entropy": 1.6400368571281434,
|
|
"epoch": 1.4666666666666668,
|
|
"grad_norm": 0.885079562664032,
|
|
"learning_rate": 0.00014138666666666666,
|
|
"loss": 1.636,
|
|
"mean_token_accuracy": 0.5783513307571411,
|
|
"num_tokens": 1573726.0,
|
|
"step": 1100
|
|
},
|
|
{
|
|
"entropy": 1.6282047271728515,
|
|
"epoch": 1.48,
|
|
"grad_norm": 0.7767795324325562,
|
|
"learning_rate": 0.00014085333333333335,
|
|
"loss": 1.6297,
|
|
"mean_token_accuracy": 0.5802080571651459,
|
|
"num_tokens": 1587669.0,
|
|
"step": 1110
|
|
},
|
|
{
|
|
"entropy": 1.601949942111969,
|
|
"epoch": 1.4933333333333334,
|
|
"grad_norm": 0.7795525193214417,
|
|
"learning_rate": 0.00014032,
|
|
"loss": 1.6048,
|
|
"mean_token_accuracy": 0.5889493882656097,
|
|
"num_tokens": 1602029.0,
|
|
"step": 1120
|
|
},
|
|
{
|
|
"entropy": 1.645953929424286,
|
|
"epoch": 1.5066666666666668,
|
|
"grad_norm": 0.8331775665283203,
|
|
"learning_rate": 0.00013978666666666667,
|
|
"loss": 1.6354,
|
|
"mean_token_accuracy": 0.5802436769008636,
|
|
"num_tokens": 1616319.0,
|
|
"step": 1130
|
|
},
|
|
{
|
|
"entropy": 1.6269161701202393,
|
|
"epoch": 1.52,
|
|
"grad_norm": 0.8028736114501953,
|
|
"learning_rate": 0.00013925333333333334,
|
|
"loss": 1.62,
|
|
"mean_token_accuracy": 0.5843124330043793,
|
|
"num_tokens": 1630892.0,
|
|
"step": 1140
|
|
},
|
|
{
|
|
"entropy": 1.605080258846283,
|
|
"epoch": 1.5333333333333332,
|
|
"grad_norm": 0.7749471664428711,
|
|
"learning_rate": 0.00013872,
|
|
"loss": 1.6045,
|
|
"mean_token_accuracy": 0.5877731800079345,
|
|
"num_tokens": 1645279.0,
|
|
"step": 1150
|
|
},
|
|
{
|
|
"entropy": 1.6540703892707824,
|
|
"epoch": 1.5466666666666666,
|
|
"grad_norm": 0.8123717308044434,
|
|
"learning_rate": 0.00013818666666666666,
|
|
"loss": 1.68,
|
|
"mean_token_accuracy": 0.5777017891407012,
|
|
"num_tokens": 1659598.0,
|
|
"step": 1160
|
|
},
|
|
{
|
|
"entropy": 1.6219762325286866,
|
|
"epoch": 1.56,
|
|
"grad_norm": 0.7976855635643005,
|
|
"learning_rate": 0.00013765333333333335,
|
|
"loss": 1.6218,
|
|
"mean_token_accuracy": 0.5819440305233001,
|
|
"num_tokens": 1673712.0,
|
|
"step": 1170
|
|
},
|
|
{
|
|
"entropy": 1.6105915784835816,
|
|
"epoch": 1.5733333333333333,
|
|
"grad_norm": 0.7372804284095764,
|
|
"learning_rate": 0.00013712000000000002,
|
|
"loss": 1.5914,
|
|
"mean_token_accuracy": 0.5869231700897217,
|
|
"num_tokens": 1687929.0,
|
|
"step": 1180
|
|
},
|
|
{
|
|
"entropy": 1.6036946177482605,
|
|
"epoch": 1.5866666666666667,
|
|
"grad_norm": 0.8347821235656738,
|
|
"learning_rate": 0.00013658666666666665,
|
|
"loss": 1.5892,
|
|
"mean_token_accuracy": 0.5874670445919037,
|
|
"num_tokens": 1702354.0,
|
|
"step": 1190
|
|
},
|
|
{
|
|
"entropy": 1.6106571435928345,
|
|
"epoch": 1.6,
|
|
"grad_norm": 0.7794219851493835,
|
|
"learning_rate": 0.00013605333333333334,
|
|
"loss": 1.6222,
|
|
"mean_token_accuracy": 0.581736969947815,
|
|
"num_tokens": 1716614.0,
|
|
"step": 1200
|
|
},
|
|
{
|
|
"entropy": 1.6166094422340394,
|
|
"epoch": 1.6133333333333333,
|
|
"grad_norm": 0.7475622892379761,
|
|
"learning_rate": 0.00013552,
|
|
"loss": 1.64,
|
|
"mean_token_accuracy": 0.5818658828735351,
|
|
"num_tokens": 1731314.0,
|
|
"step": 1210
|
|
},
|
|
{
|
|
"entropy": 1.5999322414398194,
|
|
"epoch": 1.6266666666666667,
|
|
"grad_norm": 0.7694371938705444,
|
|
"learning_rate": 0.0001349866666666667,
|
|
"loss": 1.5933,
|
|
"mean_token_accuracy": 0.5930391371250152,
|
|
"num_tokens": 1745561.0,
|
|
"step": 1220
|
|
},
|
|
{
|
|
"entropy": 1.6249719500541686,
|
|
"epoch": 1.6400000000000001,
|
|
"grad_norm": 0.8657720685005188,
|
|
"learning_rate": 0.00013445333333333333,
|
|
"loss": 1.607,
|
|
"mean_token_accuracy": 0.584237003326416,
|
|
"num_tokens": 1759390.0,
|
|
"step": 1230
|
|
},
|
|
{
|
|
"entropy": 1.6074962973594666,
|
|
"epoch": 1.6533333333333333,
|
|
"grad_norm": 0.7591989040374756,
|
|
"learning_rate": 0.00013392,
|
|
"loss": 1.6062,
|
|
"mean_token_accuracy": 0.5843867778778076,
|
|
"num_tokens": 1773830.0,
|
|
"step": 1240
|
|
},
|
|
{
|
|
"entropy": 1.5924188375473023,
|
|
"epoch": 1.6666666666666665,
|
|
"grad_norm": 0.7454883456230164,
|
|
"learning_rate": 0.00013338666666666668,
|
|
"loss": 1.5763,
|
|
"mean_token_accuracy": 0.5892716884613037,
|
|
"num_tokens": 1788240.0,
|
|
"step": 1250
|
|
},
|
|
{
|
|
"entropy": 1.5488623142242433,
|
|
"epoch": 1.6800000000000002,
|
|
"grad_norm": 0.7816988229751587,
|
|
"learning_rate": 0.00013285333333333334,
|
|
"loss": 1.5701,
|
|
"mean_token_accuracy": 0.5965048789978027,
|
|
"num_tokens": 1802785.0,
|
|
"step": 1260
|
|
},
|
|
{
|
|
"entropy": 1.6266264081001283,
|
|
"epoch": 1.6933333333333334,
|
|
"grad_norm": 0.8586941361427307,
|
|
"learning_rate": 0.00013232,
|
|
"loss": 1.6321,
|
|
"mean_token_accuracy": 0.5797922134399414,
|
|
"num_tokens": 1816998.0,
|
|
"step": 1270
|
|
},
|
|
{
|
|
"entropy": 1.5411754608154298,
|
|
"epoch": 1.7066666666666666,
|
|
"grad_norm": 0.7459612488746643,
|
|
"learning_rate": 0.00013178666666666667,
|
|
"loss": 1.5042,
|
|
"mean_token_accuracy": 0.605999493598938,
|
|
"num_tokens": 1831206.0,
|
|
"step": 1280
|
|
},
|
|
{
|
|
"entropy": 1.5982468724250793,
|
|
"epoch": 1.72,
|
|
"grad_norm": 0.870665967464447,
|
|
"learning_rate": 0.00013125333333333333,
|
|
"loss": 1.6334,
|
|
"mean_token_accuracy": 0.5830047309398652,
|
|
"num_tokens": 1845184.0,
|
|
"step": 1290
|
|
},
|
|
{
|
|
"entropy": 1.6464913845062257,
|
|
"epoch": 1.7333333333333334,
|
|
"grad_norm": 0.7105476260185242,
|
|
"learning_rate": 0.00013072,
|
|
"loss": 1.6243,
|
|
"mean_token_accuracy": 0.5817919194698333,
|
|
"num_tokens": 1859534.0,
|
|
"step": 1300
|
|
},
|
|
{
|
|
"entropy": 1.630496096611023,
|
|
"epoch": 1.7466666666666666,
|
|
"grad_norm": 0.7204705476760864,
|
|
"learning_rate": 0.00013018666666666669,
|
|
"loss": 1.642,
|
|
"mean_token_accuracy": 0.5803155720233917,
|
|
"num_tokens": 1874146.0,
|
|
"step": 1310
|
|
},
|
|
{
|
|
"entropy": 1.6060070395469666,
|
|
"epoch": 1.76,
|
|
"grad_norm": 0.753718912601471,
|
|
"learning_rate": 0.00012965333333333335,
|
|
"loss": 1.6104,
|
|
"mean_token_accuracy": 0.5942363500595093,
|
|
"num_tokens": 1888076.0,
|
|
"step": 1320
|
|
},
|
|
{
|
|
"entropy": 1.5962331891059875,
|
|
"epoch": 1.7733333333333334,
|
|
"grad_norm": 0.7588234543800354,
|
|
"learning_rate": 0.00012911999999999998,
|
|
"loss": 1.5948,
|
|
"mean_token_accuracy": 0.5896466076374054,
|
|
"num_tokens": 1902536.0,
|
|
"step": 1330
|
|
},
|
|
{
|
|
"entropy": 1.58995623588562,
|
|
"epoch": 1.7866666666666666,
|
|
"grad_norm": 0.6991354823112488,
|
|
"learning_rate": 0.00012858666666666667,
|
|
"loss": 1.6086,
|
|
"mean_token_accuracy": 0.5877136707305908,
|
|
"num_tokens": 1917070.0,
|
|
"step": 1340
|
|
},
|
|
{
|
|
"entropy": 1.590635347366333,
|
|
"epoch": 1.8,
|
|
"grad_norm": 0.7136776447296143,
|
|
"learning_rate": 0.00012805333333333334,
|
|
"loss": 1.5808,
|
|
"mean_token_accuracy": 0.5926080405712127,
|
|
"num_tokens": 1931650.0,
|
|
"step": 1350
|
|
},
|
|
{
|
|
"entropy": 1.6412133812904357,
|
|
"epoch": 1.8133333333333335,
|
|
"grad_norm": 0.808604896068573,
|
|
"learning_rate": 0.00012752,
|
|
"loss": 1.6438,
|
|
"mean_token_accuracy": 0.5795077741146087,
|
|
"num_tokens": 1945527.0,
|
|
"step": 1360
|
|
},
|
|
{
|
|
"entropy": 1.6124160170555115,
|
|
"epoch": 1.8266666666666667,
|
|
"grad_norm": 0.801104724407196,
|
|
"learning_rate": 0.0001269866666666667,
|
|
"loss": 1.6018,
|
|
"mean_token_accuracy": 0.58566255569458,
|
|
"num_tokens": 1959696.0,
|
|
"step": 1370
|
|
},
|
|
{
|
|
"entropy": 1.6068571090698243,
|
|
"epoch": 1.8399999999999999,
|
|
"grad_norm": 0.7318655848503113,
|
|
"learning_rate": 0.00012645333333333332,
|
|
"loss": 1.5978,
|
|
"mean_token_accuracy": 0.5856489419937134,
|
|
"num_tokens": 1974414.0,
|
|
"step": 1380
|
|
},
|
|
{
|
|
"entropy": 1.633586871623993,
|
|
"epoch": 1.8533333333333335,
|
|
"grad_norm": 0.7998054623603821,
|
|
"learning_rate": 0.00012592000000000001,
|
|
"loss": 1.643,
|
|
"mean_token_accuracy": 0.5775534093379975,
|
|
"num_tokens": 1988428.0,
|
|
"step": 1390
|
|
},
|
|
{
|
|
"entropy": 1.616657567024231,
|
|
"epoch": 1.8666666666666667,
|
|
"grad_norm": 0.7818200588226318,
|
|
"learning_rate": 0.00012538666666666668,
|
|
"loss": 1.6263,
|
|
"mean_token_accuracy": 0.5841812074184418,
|
|
"num_tokens": 2002940.0,
|
|
"step": 1400
|
|
},
|
|
{
|
|
"entropy": 1.606257176399231,
|
|
"epoch": 1.88,
|
|
"grad_norm": 0.791130542755127,
|
|
"learning_rate": 0.00012485333333333334,
|
|
"loss": 1.6072,
|
|
"mean_token_accuracy": 0.5823240101337432,
|
|
"num_tokens": 2017136.0,
|
|
"step": 1410
|
|
},
|
|
{
|
|
"entropy": 1.5826048731803894,
|
|
"epoch": 1.8933333333333333,
|
|
"grad_norm": 0.7947362065315247,
|
|
"learning_rate": 0.00012432,
|
|
"loss": 1.576,
|
|
"mean_token_accuracy": 0.5913291692733764,
|
|
"num_tokens": 2031535.0,
|
|
"step": 1420
|
|
},
|
|
{
|
|
"entropy": 1.602376353740692,
|
|
"epoch": 1.9066666666666667,
|
|
"grad_norm": 0.8083633184432983,
|
|
"learning_rate": 0.00012378666666666667,
|
|
"loss": 1.6007,
|
|
"mean_token_accuracy": 0.5866346061229706,
|
|
"num_tokens": 2045760.0,
|
|
"step": 1430
|
|
},
|
|
{
|
|
"entropy": 1.582177996635437,
|
|
"epoch": 1.92,
|
|
"grad_norm": 0.8095344305038452,
|
|
"learning_rate": 0.00012325333333333333,
|
|
"loss": 1.6136,
|
|
"mean_token_accuracy": 0.5853443145751953,
|
|
"num_tokens": 2060266.0,
|
|
"step": 1440
|
|
},
|
|
{
|
|
"entropy": 1.6533708095550537,
|
|
"epoch": 1.9333333333333333,
|
|
"grad_norm": 0.7946311235427856,
|
|
"learning_rate": 0.00012272000000000002,
|
|
"loss": 1.6718,
|
|
"mean_token_accuracy": 0.5766183912754059,
|
|
"num_tokens": 2074455.0,
|
|
"step": 1450
|
|
},
|
|
{
|
|
"entropy": 1.6250546097755432,
|
|
"epoch": 1.9466666666666668,
|
|
"grad_norm": 0.7304287552833557,
|
|
"learning_rate": 0.00012218666666666668,
|
|
"loss": 1.6092,
|
|
"mean_token_accuracy": 0.585831755399704,
|
|
"num_tokens": 2089106.0,
|
|
"step": 1460
|
|
},
|
|
{
|
|
"entropy": 1.5917622566223144,
|
|
"epoch": 1.96,
|
|
"grad_norm": 0.7634790539741516,
|
|
"learning_rate": 0.00012165333333333333,
|
|
"loss": 1.5798,
|
|
"mean_token_accuracy": 0.5906044125556946,
|
|
"num_tokens": 2103095.0,
|
|
"step": 1470
|
|
},
|
|
{
|
|
"entropy": 1.5722275495529174,
|
|
"epoch": 1.9733333333333334,
|
|
"grad_norm": 0.7202575206756592,
|
|
"learning_rate": 0.00012112,
|
|
"loss": 1.5641,
|
|
"mean_token_accuracy": 0.5980747759342193,
|
|
"num_tokens": 2117688.0,
|
|
"step": 1480
|
|
},
|
|
{
|
|
"entropy": 1.5911229491233825,
|
|
"epoch": 1.9866666666666668,
|
|
"grad_norm": 0.8743401765823364,
|
|
"learning_rate": 0.00012058666666666667,
|
|
"loss": 1.5924,
|
|
"mean_token_accuracy": 0.590107125043869,
|
|
"num_tokens": 2132364.0,
|
|
"step": 1490
|
|
},
|
|
{
|
|
"entropy": 1.6268518090248107,
|
|
"epoch": 2.0,
|
|
"grad_norm": 0.7789967060089111,
|
|
"learning_rate": 0.00012005333333333333,
|
|
"loss": 1.6187,
|
|
"mean_token_accuracy": 0.5850143015384675,
|
|
"num_tokens": 2146874.0,
|
|
"step": 1500
|
|
},
|
|
{
|
|
"entropy": 1.585142731666565,
|
|
"epoch": 2.013333333333333,
|
|
"grad_norm": 0.7658165097236633,
|
|
"learning_rate": 0.00011952000000000001,
|
|
"loss": 1.5608,
|
|
"mean_token_accuracy": 0.5958513855934143,
|
|
"num_tokens": 2161372.0,
|
|
"step": 1510
|
|
},
|
|
{
|
|
"entropy": 1.6029693126678466,
|
|
"epoch": 2.026666666666667,
|
|
"grad_norm": 0.7773604393005371,
|
|
"learning_rate": 0.00011898666666666667,
|
|
"loss": 1.6023,
|
|
"mean_token_accuracy": 0.5862701058387756,
|
|
"num_tokens": 2176142.0,
|
|
"step": 1520
|
|
},
|
|
{
|
|
"entropy": 1.5811169385910033,
|
|
"epoch": 2.04,
|
|
"grad_norm": 0.8513122200965881,
|
|
"learning_rate": 0.00011845333333333335,
|
|
"loss": 1.5785,
|
|
"mean_token_accuracy": 0.5917201817035675,
|
|
"num_tokens": 2190302.0,
|
|
"step": 1530
|
|
},
|
|
{
|
|
"entropy": 1.5799914717674255,
|
|
"epoch": 2.0533333333333332,
|
|
"grad_norm": 0.8198806047439575,
|
|
"learning_rate": 0.00011792000000000001,
|
|
"loss": 1.5793,
|
|
"mean_token_accuracy": 0.5923818409442901,
|
|
"num_tokens": 2205151.0,
|
|
"step": 1540
|
|
},
|
|
{
|
|
"entropy": 1.5766605257987976,
|
|
"epoch": 2.066666666666667,
|
|
"grad_norm": 0.788634181022644,
|
|
"learning_rate": 0.00011738666666666667,
|
|
"loss": 1.5606,
|
|
"mean_token_accuracy": 0.5957651615142823,
|
|
"num_tokens": 2219254.0,
|
|
"step": 1550
|
|
},
|
|
{
|
|
"entropy": 1.577822983264923,
|
|
"epoch": 2.08,
|
|
"grad_norm": 0.8373826742172241,
|
|
"learning_rate": 0.00011685333333333335,
|
|
"loss": 1.5849,
|
|
"mean_token_accuracy": 0.586124038696289,
|
|
"num_tokens": 2233366.0,
|
|
"step": 1560
|
|
},
|
|
{
|
|
"entropy": 1.5713662028312683,
|
|
"epoch": 2.0933333333333333,
|
|
"grad_norm": 0.8463520407676697,
|
|
"learning_rate": 0.00011632000000000001,
|
|
"loss": 1.5655,
|
|
"mean_token_accuracy": 0.590080064535141,
|
|
"num_tokens": 2247589.0,
|
|
"step": 1570
|
|
},
|
|
{
|
|
"entropy": 1.5764389276504516,
|
|
"epoch": 2.1066666666666665,
|
|
"grad_norm": 0.7835231423377991,
|
|
"learning_rate": 0.00011578666666666666,
|
|
"loss": 1.565,
|
|
"mean_token_accuracy": 0.5909649908542634,
|
|
"num_tokens": 2261973.0,
|
|
"step": 1580
|
|
},
|
|
{
|
|
"entropy": 1.555051064491272,
|
|
"epoch": 2.12,
|
|
"grad_norm": 0.8321986198425293,
|
|
"learning_rate": 0.00011525333333333335,
|
|
"loss": 1.5215,
|
|
"mean_token_accuracy": 0.5993135154247284,
|
|
"num_tokens": 2276364.0,
|
|
"step": 1590
|
|
},
|
|
{
|
|
"entropy": 1.5359538912773132,
|
|
"epoch": 2.1333333333333333,
|
|
"grad_norm": 0.8371411561965942,
|
|
"learning_rate": 0.00011472,
|
|
"loss": 1.5386,
|
|
"mean_token_accuracy": 0.6001984238624573,
|
|
"num_tokens": 2290590.0,
|
|
"step": 1600
|
|
},
|
|
{
|
|
"entropy": 1.546908962726593,
|
|
"epoch": 2.1466666666666665,
|
|
"grad_norm": 0.8553025722503662,
|
|
"learning_rate": 0.00011418666666666666,
|
|
"loss": 1.5506,
|
|
"mean_token_accuracy": 0.593190461397171,
|
|
"num_tokens": 2305300.0,
|
|
"step": 1610
|
|
},
|
|
{
|
|
"entropy": 1.5948908805847168,
|
|
"epoch": 2.16,
|
|
"grad_norm": 0.8036778569221497,
|
|
"learning_rate": 0.00011365333333333334,
|
|
"loss": 1.6253,
|
|
"mean_token_accuracy": 0.587450259923935,
|
|
"num_tokens": 2319355.0,
|
|
"step": 1620
|
|
},
|
|
{
|
|
"entropy": 1.6008782386779785,
|
|
"epoch": 2.1733333333333333,
|
|
"grad_norm": 0.7809582352638245,
|
|
"learning_rate": 0.00011312,
|
|
"loss": 1.5967,
|
|
"mean_token_accuracy": 0.5970557570457459,
|
|
"num_tokens": 2333924.0,
|
|
"step": 1630
|
|
},
|
|
{
|
|
"entropy": 1.5687730431556701,
|
|
"epoch": 2.1866666666666665,
|
|
"grad_norm": 0.8718525171279907,
|
|
"learning_rate": 0.00011258666666666666,
|
|
"loss": 1.5709,
|
|
"mean_token_accuracy": 0.5926283657550812,
|
|
"num_tokens": 2348564.0,
|
|
"step": 1640
|
|
},
|
|
{
|
|
"entropy": 1.5576546907424926,
|
|
"epoch": 2.2,
|
|
"grad_norm": 0.8280225992202759,
|
|
"learning_rate": 0.00011205333333333334,
|
|
"loss": 1.5517,
|
|
"mean_token_accuracy": 0.5959837913513184,
|
|
"num_tokens": 2362561.0,
|
|
"step": 1650
|
|
},
|
|
{
|
|
"entropy": 1.542318296432495,
|
|
"epoch": 2.2133333333333334,
|
|
"grad_norm": 0.8084622621536255,
|
|
"learning_rate": 0.00011152,
|
|
"loss": 1.5563,
|
|
"mean_token_accuracy": 0.5949320733547211,
|
|
"num_tokens": 2377348.0,
|
|
"step": 1660
|
|
},
|
|
{
|
|
"entropy": 1.557004714012146,
|
|
"epoch": 2.2266666666666666,
|
|
"grad_norm": 0.8355733156204224,
|
|
"learning_rate": 0.00011098666666666667,
|
|
"loss": 1.545,
|
|
"mean_token_accuracy": 0.5942671120166778,
|
|
"num_tokens": 2391362.0,
|
|
"step": 1670
|
|
},
|
|
{
|
|
"entropy": 1.582864260673523,
|
|
"epoch": 2.24,
|
|
"grad_norm": 0.8267885446548462,
|
|
"learning_rate": 0.00011045333333333334,
|
|
"loss": 1.5725,
|
|
"mean_token_accuracy": 0.5937030494213105,
|
|
"num_tokens": 2405834.0,
|
|
"step": 1680
|
|
},
|
|
{
|
|
"entropy": 1.59455748796463,
|
|
"epoch": 2.2533333333333334,
|
|
"grad_norm": 0.8203350901603699,
|
|
"learning_rate": 0.00010992,
|
|
"loss": 1.5912,
|
|
"mean_token_accuracy": 0.588907790184021,
|
|
"num_tokens": 2420432.0,
|
|
"step": 1690
|
|
},
|
|
{
|
|
"entropy": 1.5951794385910034,
|
|
"epoch": 2.2666666666666666,
|
|
"grad_norm": 0.8221817016601562,
|
|
"learning_rate": 0.00010938666666666668,
|
|
"loss": 1.5905,
|
|
"mean_token_accuracy": 0.5942423284053803,
|
|
"num_tokens": 2434668.0,
|
|
"step": 1700
|
|
},
|
|
{
|
|
"entropy": 1.5587371706962585,
|
|
"epoch": 2.2800000000000002,
|
|
"grad_norm": 0.8858346343040466,
|
|
"learning_rate": 0.00010885333333333334,
|
|
"loss": 1.5365,
|
|
"mean_token_accuracy": 0.5979893505573273,
|
|
"num_tokens": 2448405.0,
|
|
"step": 1710
|
|
},
|
|
{
|
|
"entropy": 1.5494319081306458,
|
|
"epoch": 2.2933333333333334,
|
|
"grad_norm": 0.8947677612304688,
|
|
"learning_rate": 0.00010831999999999999,
|
|
"loss": 1.5781,
|
|
"mean_token_accuracy": 0.597874504327774,
|
|
"num_tokens": 2462476.0,
|
|
"step": 1720
|
|
},
|
|
{
|
|
"entropy": 1.5796007871627809,
|
|
"epoch": 2.3066666666666666,
|
|
"grad_norm": 0.826831579208374,
|
|
"learning_rate": 0.00010778666666666668,
|
|
"loss": 1.5996,
|
|
"mean_token_accuracy": 0.5898862779140472,
|
|
"num_tokens": 2476792.0,
|
|
"step": 1730
|
|
},
|
|
{
|
|
"entropy": 1.5943578839302064,
|
|
"epoch": 2.32,
|
|
"grad_norm": 0.827757716178894,
|
|
"learning_rate": 0.00010725333333333335,
|
|
"loss": 1.5698,
|
|
"mean_token_accuracy": 0.588228178024292,
|
|
"num_tokens": 2491447.0,
|
|
"step": 1740
|
|
},
|
|
{
|
|
"entropy": 1.5647313237190246,
|
|
"epoch": 2.3333333333333335,
|
|
"grad_norm": 0.8185635805130005,
|
|
"learning_rate": 0.00010672,
|
|
"loss": 1.5501,
|
|
"mean_token_accuracy": 0.6049631834030151,
|
|
"num_tokens": 2505692.0,
|
|
"step": 1750
|
|
},
|
|
{
|
|
"entropy": 1.5669399857521058,
|
|
"epoch": 2.3466666666666667,
|
|
"grad_norm": 0.8592873811721802,
|
|
"learning_rate": 0.00010618666666666668,
|
|
"loss": 1.56,
|
|
"mean_token_accuracy": 0.591478306055069,
|
|
"num_tokens": 2520081.0,
|
|
"step": 1760
|
|
},
|
|
{
|
|
"entropy": 1.5316062092781066,
|
|
"epoch": 2.36,
|
|
"grad_norm": 0.8451710343360901,
|
|
"learning_rate": 0.00010565333333333333,
|
|
"loss": 1.549,
|
|
"mean_token_accuracy": 0.599509346485138,
|
|
"num_tokens": 2534521.0,
|
|
"step": 1770
|
|
},
|
|
{
|
|
"entropy": 1.549249529838562,
|
|
"epoch": 2.3733333333333335,
|
|
"grad_norm": 0.83949214220047,
|
|
"learning_rate": 0.00010512,
|
|
"loss": 1.5653,
|
|
"mean_token_accuracy": 0.5934397757053376,
|
|
"num_tokens": 2548270.0,
|
|
"step": 1780
|
|
},
|
|
{
|
|
"entropy": 1.6044985413551331,
|
|
"epoch": 2.3866666666666667,
|
|
"grad_norm": 0.7997593283653259,
|
|
"learning_rate": 0.00010458666666666667,
|
|
"loss": 1.5787,
|
|
"mean_token_accuracy": 0.5900993704795837,
|
|
"num_tokens": 2562203.0,
|
|
"step": 1790
|
|
},
|
|
{
|
|
"entropy": 1.565584373474121,
|
|
"epoch": 2.4,
|
|
"grad_norm": 0.7950856685638428,
|
|
"learning_rate": 0.00010405333333333334,
|
|
"loss": 1.5696,
|
|
"mean_token_accuracy": 0.5836081087589264,
|
|
"num_tokens": 2576499.0,
|
|
"step": 1800
|
|
},
|
|
{
|
|
"entropy": 1.56252601146698,
|
|
"epoch": 2.413333333333333,
|
|
"grad_norm": 0.9029465913772583,
|
|
"learning_rate": 0.00010352,
|
|
"loss": 1.5795,
|
|
"mean_token_accuracy": 0.5931217908859253,
|
|
"num_tokens": 2591059.0,
|
|
"step": 1810
|
|
},
|
|
{
|
|
"entropy": 1.606614637374878,
|
|
"epoch": 2.4266666666666667,
|
|
"grad_norm": 0.8114829659461975,
|
|
"learning_rate": 0.00010298666666666667,
|
|
"loss": 1.5946,
|
|
"mean_token_accuracy": 0.5885919332504272,
|
|
"num_tokens": 2605295.0,
|
|
"step": 1820
|
|
},
|
|
{
|
|
"entropy": 1.5890040159225465,
|
|
"epoch": 2.44,
|
|
"grad_norm": 0.8022209405899048,
|
|
"learning_rate": 0.00010245333333333334,
|
|
"loss": 1.5651,
|
|
"mean_token_accuracy": 0.594106924533844,
|
|
"num_tokens": 2619635.0,
|
|
"step": 1830
|
|
},
|
|
{
|
|
"entropy": 1.5523112416267395,
|
|
"epoch": 2.453333333333333,
|
|
"grad_norm": 0.863002598285675,
|
|
"learning_rate": 0.00010192000000000001,
|
|
"loss": 1.5516,
|
|
"mean_token_accuracy": 0.5980621099472045,
|
|
"num_tokens": 2633688.0,
|
|
"step": 1840
|
|
},
|
|
{
|
|
"entropy": 1.5858504891395568,
|
|
"epoch": 2.466666666666667,
|
|
"grad_norm": 0.8607020378112793,
|
|
"learning_rate": 0.00010138666666666668,
|
|
"loss": 1.5654,
|
|
"mean_token_accuracy": 0.5964959144592286,
|
|
"num_tokens": 2647947.0,
|
|
"step": 1850
|
|
},
|
|
{
|
|
"entropy": 1.5548157095909119,
|
|
"epoch": 2.48,
|
|
"grad_norm": 0.932727575302124,
|
|
"learning_rate": 0.00010085333333333334,
|
|
"loss": 1.5814,
|
|
"mean_token_accuracy": 0.5986407458782196,
|
|
"num_tokens": 2662286.0,
|
|
"step": 1860
|
|
},
|
|
{
|
|
"entropy": 1.5810554265975951,
|
|
"epoch": 2.493333333333333,
|
|
"grad_norm": 0.9040839076042175,
|
|
"learning_rate": 0.00010032000000000002,
|
|
"loss": 1.5786,
|
|
"mean_token_accuracy": 0.5919859528541564,
|
|
"num_tokens": 2676684.0,
|
|
"step": 1870
|
|
},
|
|
{
|
|
"entropy": 1.6407557845115661,
|
|
"epoch": 2.506666666666667,
|
|
"grad_norm": 0.8452841639518738,
|
|
"learning_rate": 9.978666666666668e-05,
|
|
"loss": 1.6253,
|
|
"mean_token_accuracy": 0.5836106419563294,
|
|
"num_tokens": 2691029.0,
|
|
"step": 1880
|
|
},
|
|
{
|
|
"entropy": 1.5972301483154296,
|
|
"epoch": 2.52,
|
|
"grad_norm": 0.8987472653388977,
|
|
"learning_rate": 9.925333333333334e-05,
|
|
"loss": 1.5788,
|
|
"mean_token_accuracy": 0.5922116279602051,
|
|
"num_tokens": 2705154.0,
|
|
"step": 1890
|
|
},
|
|
{
|
|
"entropy": 1.5375146269798279,
|
|
"epoch": 2.533333333333333,
|
|
"grad_norm": 0.8886555433273315,
|
|
"learning_rate": 9.872e-05,
|
|
"loss": 1.5579,
|
|
"mean_token_accuracy": 0.5923705160617828,
|
|
"num_tokens": 2719350.0,
|
|
"step": 1900
|
|
},
|
|
{
|
|
"entropy": 1.5481518626213073,
|
|
"epoch": 2.546666666666667,
|
|
"grad_norm": 0.9328354001045227,
|
|
"learning_rate": 9.818666666666667e-05,
|
|
"loss": 1.5549,
|
|
"mean_token_accuracy": 0.6001533806324005,
|
|
"num_tokens": 2733631.0,
|
|
"step": 1910
|
|
},
|
|
{
|
|
"entropy": 1.5680987000465394,
|
|
"epoch": 2.56,
|
|
"grad_norm": 0.8165973424911499,
|
|
"learning_rate": 9.765333333333334e-05,
|
|
"loss": 1.5448,
|
|
"mean_token_accuracy": 0.5991613447666169,
|
|
"num_tokens": 2748392.0,
|
|
"step": 1920
|
|
},
|
|
{
|
|
"entropy": 1.5857497572898864,
|
|
"epoch": 2.5733333333333333,
|
|
"grad_norm": 0.8247725367546082,
|
|
"learning_rate": 9.712e-05,
|
|
"loss": 1.559,
|
|
"mean_token_accuracy": 0.5950605392456054,
|
|
"num_tokens": 2762795.0,
|
|
"step": 1930
|
|
},
|
|
{
|
|
"entropy": 1.5625442147254944,
|
|
"epoch": 2.586666666666667,
|
|
"grad_norm": 0.8277323246002197,
|
|
"learning_rate": 9.658666666666667e-05,
|
|
"loss": 1.5632,
|
|
"mean_token_accuracy": 0.5961414158344269,
|
|
"num_tokens": 2776820.0,
|
|
"step": 1940
|
|
},
|
|
{
|
|
"entropy": 1.5943711280822754,
|
|
"epoch": 2.6,
|
|
"grad_norm": 0.9177942872047424,
|
|
"learning_rate": 9.605333333333334e-05,
|
|
"loss": 1.5851,
|
|
"mean_token_accuracy": 0.5896559417247772,
|
|
"num_tokens": 2791055.0,
|
|
"step": 1950
|
|
},
|
|
{
|
|
"entropy": 1.5706278681755066,
|
|
"epoch": 2.6133333333333333,
|
|
"grad_norm": 0.8184349536895752,
|
|
"learning_rate": 9.552000000000001e-05,
|
|
"loss": 1.5608,
|
|
"mean_token_accuracy": 0.5961948752403259,
|
|
"num_tokens": 2805369.0,
|
|
"step": 1960
|
|
},
|
|
{
|
|
"entropy": 1.551083242893219,
|
|
"epoch": 2.626666666666667,
|
|
"grad_norm": 0.8752719163894653,
|
|
"learning_rate": 9.498666666666667e-05,
|
|
"loss": 1.5462,
|
|
"mean_token_accuracy": 0.6008795142173767,
|
|
"num_tokens": 2819115.0,
|
|
"step": 1970
|
|
},
|
|
{
|
|
"entropy": 1.5619949221611023,
|
|
"epoch": 2.64,
|
|
"grad_norm": 0.8993157148361206,
|
|
"learning_rate": 9.445333333333333e-05,
|
|
"loss": 1.5786,
|
|
"mean_token_accuracy": 0.5938997268676758,
|
|
"num_tokens": 2833134.0,
|
|
"step": 1980
|
|
},
|
|
{
|
|
"entropy": 1.5283340811729431,
|
|
"epoch": 2.6533333333333333,
|
|
"grad_norm": 0.8566839694976807,
|
|
"learning_rate": 9.392000000000001e-05,
|
|
"loss": 1.5229,
|
|
"mean_token_accuracy": 0.5933463096618652,
|
|
"num_tokens": 2847507.0,
|
|
"step": 1990
|
|
},
|
|
{
|
|
"entropy": 1.5436741828918457,
|
|
"epoch": 2.6666666666666665,
|
|
"grad_norm": 0.8830874562263489,
|
|
"learning_rate": 9.338666666666667e-05,
|
|
"loss": 1.5389,
|
|
"mean_token_accuracy": 0.5969677925109863,
|
|
"num_tokens": 2861898.0,
|
|
"step": 2000
|
|
},
|
|
{
|
|
"entropy": 1.547942042350769,
|
|
"epoch": 2.68,
|
|
"grad_norm": 0.8862874507904053,
|
|
"learning_rate": 9.285333333333333e-05,
|
|
"loss": 1.5501,
|
|
"mean_token_accuracy": 0.5986298620700836,
|
|
"num_tokens": 2876655.0,
|
|
"step": 2010
|
|
},
|
|
{
|
|
"entropy": 1.5677669167518615,
|
|
"epoch": 2.6933333333333334,
|
|
"grad_norm": 0.8643227815628052,
|
|
"learning_rate": 9.232000000000001e-05,
|
|
"loss": 1.5779,
|
|
"mean_token_accuracy": 0.5907069921493531,
|
|
"num_tokens": 2890904.0,
|
|
"step": 2020
|
|
},
|
|
{
|
|
"entropy": 1.586483073234558,
|
|
"epoch": 2.7066666666666666,
|
|
"grad_norm": 0.924693763256073,
|
|
"learning_rate": 9.178666666666667e-05,
|
|
"loss": 1.5885,
|
|
"mean_token_accuracy": 0.5896041989326477,
|
|
"num_tokens": 2905222.0,
|
|
"step": 2030
|
|
},
|
|
{
|
|
"entropy": 1.573203444480896,
|
|
"epoch": 2.7199999999999998,
|
|
"grad_norm": 0.8887900710105896,
|
|
"learning_rate": 9.125333333333334e-05,
|
|
"loss": 1.5766,
|
|
"mean_token_accuracy": 0.594086104631424,
|
|
"num_tokens": 2919381.0,
|
|
"step": 2040
|
|
},
|
|
{
|
|
"entropy": 1.6035616278648377,
|
|
"epoch": 2.7333333333333334,
|
|
"grad_norm": 0.9206690192222595,
|
|
"learning_rate": 9.072e-05,
|
|
"loss": 1.6035,
|
|
"mean_token_accuracy": 0.587703424692154,
|
|
"num_tokens": 2933393.0,
|
|
"step": 2050
|
|
},
|
|
{
|
|
"entropy": 1.605739426612854,
|
|
"epoch": 2.7466666666666666,
|
|
"grad_norm": 0.9108862280845642,
|
|
"learning_rate": 9.018666666666668e-05,
|
|
"loss": 1.5964,
|
|
"mean_token_accuracy": 0.5823703825473785,
|
|
"num_tokens": 2947696.0,
|
|
"step": 2060
|
|
},
|
|
{
|
|
"entropy": 1.570500636100769,
|
|
"epoch": 2.76,
|
|
"grad_norm": 0.8783732056617737,
|
|
"learning_rate": 8.965333333333334e-05,
|
|
"loss": 1.5668,
|
|
"mean_token_accuracy": 0.5982495486736298,
|
|
"num_tokens": 2962165.0,
|
|
"step": 2070
|
|
},
|
|
{
|
|
"entropy": 1.5682417631149292,
|
|
"epoch": 2.7733333333333334,
|
|
"grad_norm": 0.8872748613357544,
|
|
"learning_rate": 8.912e-05,
|
|
"loss": 1.5582,
|
|
"mean_token_accuracy": 0.5934194147586822,
|
|
"num_tokens": 2976580.0,
|
|
"step": 2080
|
|
},
|
|
{
|
|
"entropy": 1.5745473384857178,
|
|
"epoch": 2.7866666666666666,
|
|
"grad_norm": 0.8372012376785278,
|
|
"learning_rate": 8.858666666666668e-05,
|
|
"loss": 1.5539,
|
|
"mean_token_accuracy": 0.595549339056015,
|
|
"num_tokens": 2990834.0,
|
|
"step": 2090
|
|
},
|
|
{
|
|
"entropy": 1.5593324422836303,
|
|
"epoch": 2.8,
|
|
"grad_norm": 1.002053141593933,
|
|
"learning_rate": 8.805333333333333e-05,
|
|
"loss": 1.5569,
|
|
"mean_token_accuracy": 0.5923760533332825,
|
|
"num_tokens": 3004965.0,
|
|
"step": 2100
|
|
},
|
|
{
|
|
"entropy": 1.5695477366447448,
|
|
"epoch": 2.8133333333333335,
|
|
"grad_norm": 0.9037586450576782,
|
|
"learning_rate": 8.752e-05,
|
|
"loss": 1.5977,
|
|
"mean_token_accuracy": 0.5864211857318878,
|
|
"num_tokens": 3018831.0,
|
|
"step": 2110
|
|
},
|
|
{
|
|
"entropy": 1.6073215126991272,
|
|
"epoch": 2.8266666666666667,
|
|
"grad_norm": 0.8945902585983276,
|
|
"learning_rate": 8.698666666666668e-05,
|
|
"loss": 1.6014,
|
|
"mean_token_accuracy": 0.5889787793159484,
|
|
"num_tokens": 3033127.0,
|
|
"step": 2120
|
|
},
|
|
{
|
|
"entropy": 1.573106336593628,
|
|
"epoch": 2.84,
|
|
"grad_norm": 0.8975586891174316,
|
|
"learning_rate": 8.645333333333334e-05,
|
|
"loss": 1.568,
|
|
"mean_token_accuracy": 0.5911540150642395,
|
|
"num_tokens": 3047670.0,
|
|
"step": 2130
|
|
},
|
|
{
|
|
"entropy": 1.5784244179725646,
|
|
"epoch": 2.8533333333333335,
|
|
"grad_norm": 0.8847512006759644,
|
|
"learning_rate": 8.592e-05,
|
|
"loss": 1.5784,
|
|
"mean_token_accuracy": 0.5914340734481811,
|
|
"num_tokens": 3062005.0,
|
|
"step": 2140
|
|
},
|
|
{
|
|
"entropy": 1.632266640663147,
|
|
"epoch": 2.8666666666666667,
|
|
"grad_norm": 0.871953547000885,
|
|
"learning_rate": 8.538666666666667e-05,
|
|
"loss": 1.6218,
|
|
"mean_token_accuracy": 0.5837793171405792,
|
|
"num_tokens": 3076209.0,
|
|
"step": 2150
|
|
},
|
|
{
|
|
"entropy": 1.5616440415382384,
|
|
"epoch": 2.88,
|
|
"grad_norm": 0.9761366844177246,
|
|
"learning_rate": 8.485333333333334e-05,
|
|
"loss": 1.5746,
|
|
"mean_token_accuracy": 0.5900084018707276,
|
|
"num_tokens": 3090316.0,
|
|
"step": 2160
|
|
},
|
|
{
|
|
"entropy": 1.5654826641082764,
|
|
"epoch": 2.8933333333333335,
|
|
"grad_norm": 0.8501173257827759,
|
|
"learning_rate": 8.431999999999999e-05,
|
|
"loss": 1.576,
|
|
"mean_token_accuracy": 0.594745135307312,
|
|
"num_tokens": 3104895.0,
|
|
"step": 2170
|
|
},
|
|
{
|
|
"entropy": 1.5615467786788941,
|
|
"epoch": 2.9066666666666667,
|
|
"grad_norm": 0.8829309344291687,
|
|
"learning_rate": 8.378666666666667e-05,
|
|
"loss": 1.557,
|
|
"mean_token_accuracy": 0.5989877581596375,
|
|
"num_tokens": 3119373.0,
|
|
"step": 2180
|
|
},
|
|
{
|
|
"entropy": 1.6191027879714965,
|
|
"epoch": 2.92,
|
|
"grad_norm": 0.9040039777755737,
|
|
"learning_rate": 8.325333333333334e-05,
|
|
"loss": 1.6196,
|
|
"mean_token_accuracy": 0.5827397584915162,
|
|
"num_tokens": 3134025.0,
|
|
"step": 2190
|
|
},
|
|
{
|
|
"entropy": 1.550943338871002,
|
|
"epoch": 2.9333333333333336,
|
|
"grad_norm": 0.866418719291687,
|
|
"learning_rate": 8.272000000000001e-05,
|
|
"loss": 1.5504,
|
|
"mean_token_accuracy": 0.5985494375228881,
|
|
"num_tokens": 3148404.0,
|
|
"step": 2200
|
|
},
|
|
{
|
|
"entropy": 1.565235435962677,
|
|
"epoch": 2.9466666666666668,
|
|
"grad_norm": 0.8547842502593994,
|
|
"learning_rate": 8.218666666666667e-05,
|
|
"loss": 1.5756,
|
|
"mean_token_accuracy": 0.5908091068267822,
|
|
"num_tokens": 3163235.0,
|
|
"step": 2210
|
|
},
|
|
{
|
|
"entropy": 1.5894795179367065,
|
|
"epoch": 2.96,
|
|
"grad_norm": 0.827774167060852,
|
|
"learning_rate": 8.165333333333333e-05,
|
|
"loss": 1.5853,
|
|
"mean_token_accuracy": 0.5880443394184113,
|
|
"num_tokens": 3177761.0,
|
|
"step": 2220
|
|
},
|
|
{
|
|
"entropy": 1.5686504244804382,
|
|
"epoch": 2.9733333333333336,
|
|
"grad_norm": 0.9508612751960754,
|
|
"learning_rate": 8.112000000000001e-05,
|
|
"loss": 1.5686,
|
|
"mean_token_accuracy": 0.595020055770874,
|
|
"num_tokens": 3191712.0,
|
|
"step": 2230
|
|
},
|
|
{
|
|
"entropy": 1.5673606276512146,
|
|
"epoch": 2.986666666666667,
|
|
"grad_norm": 0.9725732207298279,
|
|
"learning_rate": 8.058666666666667e-05,
|
|
"loss": 1.598,
|
|
"mean_token_accuracy": 0.5905315458774567,
|
|
"num_tokens": 3205942.0,
|
|
"step": 2240
|
|
},
|
|
{
|
|
"entropy": 1.5908629655838014,
|
|
"epoch": 3.0,
|
|
"grad_norm": 0.9016281962394714,
|
|
"learning_rate": 8.005333333333333e-05,
|
|
"loss": 1.577,
|
|
"mean_token_accuracy": 0.5954754590988159,
|
|
"num_tokens": 3220311.0,
|
|
"step": 2250
|
|
},
|
|
{
|
|
"entropy": 1.568978214263916,
|
|
"epoch": 3.013333333333333,
|
|
"grad_norm": 0.8706175088882446,
|
|
"learning_rate": 7.952000000000001e-05,
|
|
"loss": 1.5296,
|
|
"mean_token_accuracy": 0.6016439259052276,
|
|
"num_tokens": 3234573.0,
|
|
"step": 2260
|
|
},
|
|
{
|
|
"entropy": 1.5914393663406372,
|
|
"epoch": 3.026666666666667,
|
|
"grad_norm": 0.935184121131897,
|
|
"learning_rate": 7.898666666666667e-05,
|
|
"loss": 1.5724,
|
|
"mean_token_accuracy": 0.5917469561100006,
|
|
"num_tokens": 3249112.0,
|
|
"step": 2270
|
|
},
|
|
{
|
|
"entropy": 1.5323091745376587,
|
|
"epoch": 3.04,
|
|
"grad_norm": 0.858280599117279,
|
|
"learning_rate": 7.845333333333334e-05,
|
|
"loss": 1.5108,
|
|
"mean_token_accuracy": 0.6061249256134034,
|
|
"num_tokens": 3263545.0,
|
|
"step": 2280
|
|
},
|
|
{
|
|
"entropy": 1.5515693068504333,
|
|
"epoch": 3.0533333333333332,
|
|
"grad_norm": 0.9198875427246094,
|
|
"learning_rate": 7.792e-05,
|
|
"loss": 1.5448,
|
|
"mean_token_accuracy": 0.5956708252429962,
|
|
"num_tokens": 3277595.0,
|
|
"step": 2290
|
|
},
|
|
{
|
|
"entropy": 1.5632219552993774,
|
|
"epoch": 3.066666666666667,
|
|
"grad_norm": 0.9695958495140076,
|
|
"learning_rate": 7.738666666666668e-05,
|
|
"loss": 1.5681,
|
|
"mean_token_accuracy": 0.5980175077915192,
|
|
"num_tokens": 3291813.0,
|
|
"step": 2300
|
|
},
|
|
{
|
|
"entropy": 1.5405032515525818,
|
|
"epoch": 3.08,
|
|
"grad_norm": 0.9365873336791992,
|
|
"learning_rate": 7.685333333333334e-05,
|
|
"loss": 1.5225,
|
|
"mean_token_accuracy": 0.6013495624065399,
|
|
"num_tokens": 3306318.0,
|
|
"step": 2310
|
|
},
|
|
{
|
|
"entropy": 1.5518471002578735,
|
|
"epoch": 3.0933333333333333,
|
|
"grad_norm": 0.845671534538269,
|
|
"learning_rate": 7.632e-05,
|
|
"loss": 1.5151,
|
|
"mean_token_accuracy": 0.6005370378494262,
|
|
"num_tokens": 3320746.0,
|
|
"step": 2320
|
|
},
|
|
{
|
|
"entropy": 1.539054560661316,
|
|
"epoch": 3.1066666666666665,
|
|
"grad_norm": 0.9144167900085449,
|
|
"learning_rate": 7.578666666666668e-05,
|
|
"loss": 1.5483,
|
|
"mean_token_accuracy": 0.6029142439365387,
|
|
"num_tokens": 3334906.0,
|
|
"step": 2330
|
|
},
|
|
{
|
|
"entropy": 1.5425136089324951,
|
|
"epoch": 3.12,
|
|
"grad_norm": 0.9548327922821045,
|
|
"learning_rate": 7.525333333333334e-05,
|
|
"loss": 1.5389,
|
|
"mean_token_accuracy": 0.598310512304306,
|
|
"num_tokens": 3349004.0,
|
|
"step": 2340
|
|
},
|
|
{
|
|
"entropy": 1.5283753871917725,
|
|
"epoch": 3.1333333333333333,
|
|
"grad_norm": 0.9677910804748535,
|
|
"learning_rate": 7.472e-05,
|
|
"loss": 1.5248,
|
|
"mean_token_accuracy": 0.5972473978996277,
|
|
"num_tokens": 3362792.0,
|
|
"step": 2350
|
|
},
|
|
{
|
|
"entropy": 1.4916217088699342,
|
|
"epoch": 3.1466666666666665,
|
|
"grad_norm": 0.9695535898208618,
|
|
"learning_rate": 7.418666666666667e-05,
|
|
"loss": 1.5091,
|
|
"mean_token_accuracy": 0.603951758146286,
|
|
"num_tokens": 3376992.0,
|
|
"step": 2360
|
|
},
|
|
{
|
|
"entropy": 1.5379073739051818,
|
|
"epoch": 3.16,
|
|
"grad_norm": 0.940748929977417,
|
|
"learning_rate": 7.365333333333334e-05,
|
|
"loss": 1.5384,
|
|
"mean_token_accuracy": 0.5966765224933624,
|
|
"num_tokens": 3390815.0,
|
|
"step": 2370
|
|
},
|
|
{
|
|
"entropy": 1.551477313041687,
|
|
"epoch": 3.1733333333333333,
|
|
"grad_norm": 0.9891520142555237,
|
|
"learning_rate": 7.312e-05,
|
|
"loss": 1.5371,
|
|
"mean_token_accuracy": 0.6020065069198608,
|
|
"num_tokens": 3405041.0,
|
|
"step": 2380
|
|
},
|
|
{
|
|
"entropy": 1.496951448917389,
|
|
"epoch": 3.1866666666666665,
|
|
"grad_norm": 0.9348304867744446,
|
|
"learning_rate": 7.258666666666667e-05,
|
|
"loss": 1.4885,
|
|
"mean_token_accuracy": 0.6076002061367035,
|
|
"num_tokens": 3419348.0,
|
|
"step": 2390
|
|
},
|
|
{
|
|
"entropy": 1.5233224272727965,
|
|
"epoch": 3.2,
|
|
"grad_norm": 0.9134016036987305,
|
|
"learning_rate": 7.205333333333334e-05,
|
|
"loss": 1.5329,
|
|
"mean_token_accuracy": 0.5990419864654541,
|
|
"num_tokens": 3433372.0,
|
|
"step": 2400
|
|
},
|
|
{
|
|
"entropy": 1.485716211795807,
|
|
"epoch": 3.2133333333333334,
|
|
"grad_norm": 0.9218888282775879,
|
|
"learning_rate": 7.151999999999999e-05,
|
|
"loss": 1.4948,
|
|
"mean_token_accuracy": 0.6072625935077667,
|
|
"num_tokens": 3448231.0,
|
|
"step": 2410
|
|
},
|
|
{
|
|
"entropy": 1.5432994723320008,
|
|
"epoch": 3.2266666666666666,
|
|
"grad_norm": 0.9489049911499023,
|
|
"learning_rate": 7.098666666666667e-05,
|
|
"loss": 1.5198,
|
|
"mean_token_accuracy": 0.6017504334449768,
|
|
"num_tokens": 3462627.0,
|
|
"step": 2420
|
|
},
|
|
{
|
|
"entropy": 1.5430184602737427,
|
|
"epoch": 3.24,
|
|
"grad_norm": 0.9261946678161621,
|
|
"learning_rate": 7.045333333333333e-05,
|
|
"loss": 1.5304,
|
|
"mean_token_accuracy": 0.5989054262638092,
|
|
"num_tokens": 3477179.0,
|
|
"step": 2430
|
|
},
|
|
{
|
|
"entropy": 1.5579718232154847,
|
|
"epoch": 3.2533333333333334,
|
|
"grad_norm": 0.9805364608764648,
|
|
"learning_rate": 6.992000000000001e-05,
|
|
"loss": 1.5719,
|
|
"mean_token_accuracy": 0.5949232459068299,
|
|
"num_tokens": 3491318.0,
|
|
"step": 2440
|
|
},
|
|
{
|
|
"entropy": 1.5308945298194885,
|
|
"epoch": 3.2666666666666666,
|
|
"grad_norm": 0.9229746460914612,
|
|
"learning_rate": 6.938666666666667e-05,
|
|
"loss": 1.5278,
|
|
"mean_token_accuracy": 0.6017228066921234,
|
|
"num_tokens": 3505545.0,
|
|
"step": 2450
|
|
},
|
|
{
|
|
"entropy": 1.5501757264137268,
|
|
"epoch": 3.2800000000000002,
|
|
"grad_norm": 0.9151250123977661,
|
|
"learning_rate": 6.885333333333333e-05,
|
|
"loss": 1.56,
|
|
"mean_token_accuracy": 0.5958873093128204,
|
|
"num_tokens": 3519905.0,
|
|
"step": 2460
|
|
},
|
|
{
|
|
"entropy": 1.541603410243988,
|
|
"epoch": 3.2933333333333334,
|
|
"grad_norm": 0.9317360520362854,
|
|
"learning_rate": 6.832000000000001e-05,
|
|
"loss": 1.5236,
|
|
"mean_token_accuracy": 0.5980823755264282,
|
|
"num_tokens": 3534229.0,
|
|
"step": 2470
|
|
},
|
|
{
|
|
"entropy": 1.5316584587097168,
|
|
"epoch": 3.3066666666666666,
|
|
"grad_norm": 0.9597722291946411,
|
|
"learning_rate": 6.778666666666666e-05,
|
|
"loss": 1.5503,
|
|
"mean_token_accuracy": 0.598351776599884,
|
|
"num_tokens": 3548741.0,
|
|
"step": 2480
|
|
},
|
|
{
|
|
"entropy": 1.5937495470046996,
|
|
"epoch": 3.32,
|
|
"grad_norm": 0.9751064777374268,
|
|
"learning_rate": 6.725333333333334e-05,
|
|
"loss": 1.6064,
|
|
"mean_token_accuracy": 0.5901899337768555,
|
|
"num_tokens": 3562651.0,
|
|
"step": 2490
|
|
},
|
|
{
|
|
"entropy": 1.536835825443268,
|
|
"epoch": 3.3333333333333335,
|
|
"grad_norm": 0.965374231338501,
|
|
"learning_rate": 6.672e-05,
|
|
"loss": 1.5286,
|
|
"mean_token_accuracy": 0.5959660887718201,
|
|
"num_tokens": 3577154.0,
|
|
"step": 2500
|
|
},
|
|
{
|
|
"entropy": 1.5430336594581604,
|
|
"epoch": 3.3466666666666667,
|
|
"grad_norm": 0.9446620941162109,
|
|
"learning_rate": 6.618666666666667e-05,
|
|
"loss": 1.5257,
|
|
"mean_token_accuracy": 0.6019025802612304,
|
|
"num_tokens": 3591703.0,
|
|
"step": 2510
|
|
},
|
|
{
|
|
"entropy": 1.562184739112854,
|
|
"epoch": 3.36,
|
|
"grad_norm": 1.0254513025283813,
|
|
"learning_rate": 6.565333333333334e-05,
|
|
"loss": 1.5445,
|
|
"mean_token_accuracy": 0.5995786130428314,
|
|
"num_tokens": 3605814.0,
|
|
"step": 2520
|
|
},
|
|
{
|
|
"entropy": 1.5465585470199585,
|
|
"epoch": 3.3733333333333335,
|
|
"grad_norm": 0.9644083976745605,
|
|
"learning_rate": 6.512e-05,
|
|
"loss": 1.526,
|
|
"mean_token_accuracy": 0.6059982419013977,
|
|
"num_tokens": 3620161.0,
|
|
"step": 2530
|
|
},
|
|
{
|
|
"entropy": 1.545060896873474,
|
|
"epoch": 3.3866666666666667,
|
|
"grad_norm": 0.8921205997467041,
|
|
"learning_rate": 6.458666666666668e-05,
|
|
"loss": 1.5597,
|
|
"mean_token_accuracy": 0.5956127285957337,
|
|
"num_tokens": 3634357.0,
|
|
"step": 2540
|
|
},
|
|
{
|
|
"entropy": 1.5648165464401245,
|
|
"epoch": 3.4,
|
|
"grad_norm": 0.8965704441070557,
|
|
"learning_rate": 6.405333333333333e-05,
|
|
"loss": 1.5678,
|
|
"mean_token_accuracy": 0.5984209656715394,
|
|
"num_tokens": 3648932.0,
|
|
"step": 2550
|
|
},
|
|
{
|
|
"entropy": 1.525015687942505,
|
|
"epoch": 3.413333333333333,
|
|
"grad_norm": 0.8811851739883423,
|
|
"learning_rate": 6.352e-05,
|
|
"loss": 1.5105,
|
|
"mean_token_accuracy": 0.6055955350399017,
|
|
"num_tokens": 3663311.0,
|
|
"step": 2560
|
|
},
|
|
{
|
|
"entropy": 1.5257496595382691,
|
|
"epoch": 3.4266666666666667,
|
|
"grad_norm": 0.9278171062469482,
|
|
"learning_rate": 6.298666666666668e-05,
|
|
"loss": 1.5258,
|
|
"mean_token_accuracy": 0.6030934095382691,
|
|
"num_tokens": 3677632.0,
|
|
"step": 2570
|
|
},
|
|
{
|
|
"entropy": 1.5222936630249024,
|
|
"epoch": 3.44,
|
|
"grad_norm": 0.9584081172943115,
|
|
"learning_rate": 6.245333333333334e-05,
|
|
"loss": 1.5393,
|
|
"mean_token_accuracy": 0.5988688111305237,
|
|
"num_tokens": 3691875.0,
|
|
"step": 2580
|
|
},
|
|
{
|
|
"entropy": 1.5535321831703186,
|
|
"epoch": 3.453333333333333,
|
|
"grad_norm": 0.9423199892044067,
|
|
"learning_rate": 6.192e-05,
|
|
"loss": 1.5298,
|
|
"mean_token_accuracy": 0.6007149696350098,
|
|
"num_tokens": 3706132.0,
|
|
"step": 2590
|
|
},
|
|
{
|
|
"entropy": 1.5232931613922118,
|
|
"epoch": 3.466666666666667,
|
|
"grad_norm": 1.0105632543563843,
|
|
"learning_rate": 6.138666666666667e-05,
|
|
"loss": 1.5247,
|
|
"mean_token_accuracy": 0.6052738845348358,
|
|
"num_tokens": 3720216.0,
|
|
"step": 2600
|
|
},
|
|
{
|
|
"entropy": 1.5247660517692565,
|
|
"epoch": 3.48,
|
|
"grad_norm": 0.9150577783584595,
|
|
"learning_rate": 6.085333333333334e-05,
|
|
"loss": 1.5208,
|
|
"mean_token_accuracy": 0.5995133519172668,
|
|
"num_tokens": 3734539.0,
|
|
"step": 2610
|
|
},
|
|
{
|
|
"entropy": 1.513060462474823,
|
|
"epoch": 3.493333333333333,
|
|
"grad_norm": 0.880031168460846,
|
|
"learning_rate": 6.032e-05,
|
|
"loss": 1.4962,
|
|
"mean_token_accuracy": 0.6052732288837432,
|
|
"num_tokens": 3749432.0,
|
|
"step": 2620
|
|
},
|
|
{
|
|
"entropy": 1.5187323570251465,
|
|
"epoch": 3.506666666666667,
|
|
"grad_norm": 0.9158090353012085,
|
|
"learning_rate": 5.978666666666667e-05,
|
|
"loss": 1.5331,
|
|
"mean_token_accuracy": 0.6001138806343078,
|
|
"num_tokens": 3763875.0,
|
|
"step": 2630
|
|
},
|
|
{
|
|
"entropy": 1.5483896255493164,
|
|
"epoch": 3.52,
|
|
"grad_norm": 1.0003399848937988,
|
|
"learning_rate": 5.925333333333334e-05,
|
|
"loss": 1.5644,
|
|
"mean_token_accuracy": 0.5938949644565582,
|
|
"num_tokens": 3777587.0,
|
|
"step": 2640
|
|
},
|
|
{
|
|
"entropy": 1.5300243020057678,
|
|
"epoch": 3.533333333333333,
|
|
"grad_norm": 0.9665408730506897,
|
|
"learning_rate": 5.872000000000001e-05,
|
|
"loss": 1.5431,
|
|
"mean_token_accuracy": 0.5967665314674377,
|
|
"num_tokens": 3792085.0,
|
|
"step": 2650
|
|
},
|
|
{
|
|
"entropy": 1.5510748624801636,
|
|
"epoch": 3.546666666666667,
|
|
"grad_norm": 0.8770591616630554,
|
|
"learning_rate": 5.818666666666667e-05,
|
|
"loss": 1.5373,
|
|
"mean_token_accuracy": 0.6025650322437286,
|
|
"num_tokens": 3806778.0,
|
|
"step": 2660
|
|
},
|
|
{
|
|
"entropy": 1.5056788206100464,
|
|
"epoch": 3.56,
|
|
"grad_norm": 0.9131604433059692,
|
|
"learning_rate": 5.765333333333334e-05,
|
|
"loss": 1.4771,
|
|
"mean_token_accuracy": 0.6143821954727173,
|
|
"num_tokens": 3821363.0,
|
|
"step": 2670
|
|
},
|
|
{
|
|
"entropy": 1.6025187015533446,
|
|
"epoch": 3.5733333333333333,
|
|
"grad_norm": 0.8975100517272949,
|
|
"learning_rate": 5.712000000000001e-05,
|
|
"loss": 1.6288,
|
|
"mean_token_accuracy": 0.5900951147079467,
|
|
"num_tokens": 3835847.0,
|
|
"step": 2680
|
|
},
|
|
{
|
|
"entropy": 1.5534098029136658,
|
|
"epoch": 3.586666666666667,
|
|
"grad_norm": 0.915364682674408,
|
|
"learning_rate": 5.6586666666666665e-05,
|
|
"loss": 1.5461,
|
|
"mean_token_accuracy": 0.5989337146282196,
|
|
"num_tokens": 3850098.0,
|
|
"step": 2690
|
|
},
|
|
{
|
|
"entropy": 1.544235599040985,
|
|
"epoch": 3.6,
|
|
"grad_norm": 0.9425997734069824,
|
|
"learning_rate": 5.6053333333333334e-05,
|
|
"loss": 1.5385,
|
|
"mean_token_accuracy": 0.6020561575889587,
|
|
"num_tokens": 3864351.0,
|
|
"step": 2700
|
|
},
|
|
{
|
|
"entropy": 1.5583856701850891,
|
|
"epoch": 3.6133333333333333,
|
|
"grad_norm": 0.9308770895004272,
|
|
"learning_rate": 5.5520000000000004e-05,
|
|
"loss": 1.5742,
|
|
"mean_token_accuracy": 0.5945243000984192,
|
|
"num_tokens": 3878274.0,
|
|
"step": 2710
|
|
},
|
|
{
|
|
"entropy": 1.5502717971801758,
|
|
"epoch": 3.626666666666667,
|
|
"grad_norm": 0.9082095623016357,
|
|
"learning_rate": 5.4986666666666666e-05,
|
|
"loss": 1.5303,
|
|
"mean_token_accuracy": 0.6046061396598816,
|
|
"num_tokens": 3892345.0,
|
|
"step": 2720
|
|
},
|
|
{
|
|
"entropy": 1.5468443989753724,
|
|
"epoch": 3.64,
|
|
"grad_norm": 0.8664106726646423,
|
|
"learning_rate": 5.4453333333333336e-05,
|
|
"loss": 1.536,
|
|
"mean_token_accuracy": 0.5977400660514831,
|
|
"num_tokens": 3907309.0,
|
|
"step": 2730
|
|
},
|
|
{
|
|
"entropy": 1.5455082178115844,
|
|
"epoch": 3.6533333333333333,
|
|
"grad_norm": 0.9628744721412659,
|
|
"learning_rate": 5.3920000000000006e-05,
|
|
"loss": 1.5354,
|
|
"mean_token_accuracy": 0.6015696048736572,
|
|
"num_tokens": 3921683.0,
|
|
"step": 2740
|
|
},
|
|
{
|
|
"entropy": 1.536933183670044,
|
|
"epoch": 3.6666666666666665,
|
|
"grad_norm": 0.9550725817680359,
|
|
"learning_rate": 5.3386666666666675e-05,
|
|
"loss": 1.5267,
|
|
"mean_token_accuracy": 0.5989175796508789,
|
|
"num_tokens": 3936084.0,
|
|
"step": 2750
|
|
},
|
|
{
|
|
"entropy": 1.5419671058654785,
|
|
"epoch": 3.68,
|
|
"grad_norm": 0.8897593021392822,
|
|
"learning_rate": 5.285333333333333e-05,
|
|
"loss": 1.5721,
|
|
"mean_token_accuracy": 0.5970069587230682,
|
|
"num_tokens": 3950398.0,
|
|
"step": 2760
|
|
},
|
|
{
|
|
"entropy": 1.5253605365753173,
|
|
"epoch": 3.6933333333333334,
|
|
"grad_norm": 0.932597815990448,
|
|
"learning_rate": 5.232e-05,
|
|
"loss": 1.5503,
|
|
"mean_token_accuracy": 0.5980878293514251,
|
|
"num_tokens": 3964640.0,
|
|
"step": 2770
|
|
},
|
|
{
|
|
"entropy": 1.5455471992492675,
|
|
"epoch": 3.7066666666666666,
|
|
"grad_norm": 0.958440899848938,
|
|
"learning_rate": 5.178666666666667e-05,
|
|
"loss": 1.5549,
|
|
"mean_token_accuracy": 0.595582765340805,
|
|
"num_tokens": 3979170.0,
|
|
"step": 2780
|
|
},
|
|
{
|
|
"entropy": 1.5645827770233154,
|
|
"epoch": 3.7199999999999998,
|
|
"grad_norm": 0.9052761197090149,
|
|
"learning_rate": 5.125333333333333e-05,
|
|
"loss": 1.5638,
|
|
"mean_token_accuracy": 0.5930671095848083,
|
|
"num_tokens": 3993448.0,
|
|
"step": 2790
|
|
},
|
|
{
|
|
"entropy": 1.552584969997406,
|
|
"epoch": 3.7333333333333334,
|
|
"grad_norm": 0.9555622935295105,
|
|
"learning_rate": 5.072e-05,
|
|
"loss": 1.528,
|
|
"mean_token_accuracy": 0.5987822771072387,
|
|
"num_tokens": 4007421.0,
|
|
"step": 2800
|
|
},
|
|
{
|
|
"entropy": 1.5182175993919373,
|
|
"epoch": 3.7466666666666666,
|
|
"grad_norm": 0.9573342204093933,
|
|
"learning_rate": 5.018666666666667e-05,
|
|
"loss": 1.523,
|
|
"mean_token_accuracy": 0.5980591893196106,
|
|
"num_tokens": 4022054.0,
|
|
"step": 2810
|
|
},
|
|
{
|
|
"entropy": 1.5343862652778626,
|
|
"epoch": 3.76,
|
|
"grad_norm": 0.9257014989852905,
|
|
"learning_rate": 4.9653333333333335e-05,
|
|
"loss": 1.5316,
|
|
"mean_token_accuracy": 0.5965834498405457,
|
|
"num_tokens": 4036388.0,
|
|
"step": 2820
|
|
},
|
|
{
|
|
"entropy": 1.5238468170166015,
|
|
"epoch": 3.7733333333333334,
|
|
"grad_norm": 0.9983755946159363,
|
|
"learning_rate": 4.9120000000000004e-05,
|
|
"loss": 1.5243,
|
|
"mean_token_accuracy": 0.5981217920780182,
|
|
"num_tokens": 4050574.0,
|
|
"step": 2830
|
|
},
|
|
{
|
|
"entropy": 1.5190123915672302,
|
|
"epoch": 3.7866666666666666,
|
|
"grad_norm": 0.9549235105514526,
|
|
"learning_rate": 4.858666666666667e-05,
|
|
"loss": 1.5043,
|
|
"mean_token_accuracy": 0.606141847372055,
|
|
"num_tokens": 4065423.0,
|
|
"step": 2840
|
|
},
|
|
{
|
|
"entropy": 1.5409671902656554,
|
|
"epoch": 3.8,
|
|
"grad_norm": 0.9504667520523071,
|
|
"learning_rate": 4.8053333333333336e-05,
|
|
"loss": 1.5403,
|
|
"mean_token_accuracy": 0.5979942917823792,
|
|
"num_tokens": 4079136.0,
|
|
"step": 2850
|
|
},
|
|
{
|
|
"entropy": 1.5068301916122437,
|
|
"epoch": 3.8133333333333335,
|
|
"grad_norm": 0.9554270505905151,
|
|
"learning_rate": 4.7520000000000006e-05,
|
|
"loss": 1.4953,
|
|
"mean_token_accuracy": 0.6107352197170257,
|
|
"num_tokens": 4093742.0,
|
|
"step": 2860
|
|
},
|
|
{
|
|
"entropy": 1.5738101601600647,
|
|
"epoch": 3.8266666666666667,
|
|
"grad_norm": 0.928646981716156,
|
|
"learning_rate": 4.698666666666667e-05,
|
|
"loss": 1.5824,
|
|
"mean_token_accuracy": 0.5926680564880371,
|
|
"num_tokens": 4108437.0,
|
|
"step": 2870
|
|
},
|
|
{
|
|
"entropy": 1.5398183822631837,
|
|
"epoch": 3.84,
|
|
"grad_norm": 0.9368409514427185,
|
|
"learning_rate": 4.645333333333334e-05,
|
|
"loss": 1.533,
|
|
"mean_token_accuracy": 0.5980203092098236,
|
|
"num_tokens": 4122892.0,
|
|
"step": 2880
|
|
},
|
|
{
|
|
"entropy": 1.5480363965034485,
|
|
"epoch": 3.8533333333333335,
|
|
"grad_norm": 1.0476551055908203,
|
|
"learning_rate": 4.592e-05,
|
|
"loss": 1.533,
|
|
"mean_token_accuracy": 0.5974063098430633,
|
|
"num_tokens": 4137071.0,
|
|
"step": 2890
|
|
},
|
|
{
|
|
"entropy": 1.5110187888145448,
|
|
"epoch": 3.8666666666666667,
|
|
"grad_norm": 0.8856561779975891,
|
|
"learning_rate": 4.5386666666666664e-05,
|
|
"loss": 1.5016,
|
|
"mean_token_accuracy": 0.6007718324661255,
|
|
"num_tokens": 4151116.0,
|
|
"step": 2900
|
|
},
|
|
{
|
|
"entropy": 1.5123493790626525,
|
|
"epoch": 3.88,
|
|
"grad_norm": 0.950052797794342,
|
|
"learning_rate": 4.485333333333333e-05,
|
|
"loss": 1.514,
|
|
"mean_token_accuracy": 0.6044878840446473,
|
|
"num_tokens": 4165311.0,
|
|
"step": 2910
|
|
},
|
|
{
|
|
"entropy": 1.5221743702888488,
|
|
"epoch": 3.8933333333333335,
|
|
"grad_norm": 0.9398069977760315,
|
|
"learning_rate": 4.432e-05,
|
|
"loss": 1.5197,
|
|
"mean_token_accuracy": 0.5995207250118255,
|
|
"num_tokens": 4179400.0,
|
|
"step": 2920
|
|
},
|
|
{
|
|
"entropy": 1.5764641046524048,
|
|
"epoch": 3.9066666666666667,
|
|
"grad_norm": 0.9717305302619934,
|
|
"learning_rate": 4.378666666666667e-05,
|
|
"loss": 1.57,
|
|
"mean_token_accuracy": 0.5923245131969452,
|
|
"num_tokens": 4193832.0,
|
|
"step": 2930
|
|
},
|
|
{
|
|
"entropy": 1.5880395293235778,
|
|
"epoch": 3.92,
|
|
"grad_norm": 0.9916149377822876,
|
|
"learning_rate": 4.3253333333333335e-05,
|
|
"loss": 1.5966,
|
|
"mean_token_accuracy": 0.5948573172092437,
|
|
"num_tokens": 4208289.0,
|
|
"step": 2940
|
|
},
|
|
{
|
|
"entropy": 1.5256868720054626,
|
|
"epoch": 3.9333333333333336,
|
|
"grad_norm": 0.9789999127388,
|
|
"learning_rate": 4.2720000000000004e-05,
|
|
"loss": 1.5197,
|
|
"mean_token_accuracy": 0.6066460609436035,
|
|
"num_tokens": 4222461.0,
|
|
"step": 2950
|
|
},
|
|
{
|
|
"entropy": 1.509637713432312,
|
|
"epoch": 3.9466666666666668,
|
|
"grad_norm": 1.0663766860961914,
|
|
"learning_rate": 4.218666666666667e-05,
|
|
"loss": 1.4937,
|
|
"mean_token_accuracy": 0.6105896472930908,
|
|
"num_tokens": 4236727.0,
|
|
"step": 2960
|
|
},
|
|
{
|
|
"entropy": 1.531943142414093,
|
|
"epoch": 3.96,
|
|
"grad_norm": 1.0610631704330444,
|
|
"learning_rate": 4.165333333333333e-05,
|
|
"loss": 1.5256,
|
|
"mean_token_accuracy": 0.5991976082324981,
|
|
"num_tokens": 4251099.0,
|
|
"step": 2970
|
|
},
|
|
{
|
|
"entropy": 1.5246513843536378,
|
|
"epoch": 3.9733333333333336,
|
|
"grad_norm": 0.8666181564331055,
|
|
"learning_rate": 4.1120000000000006e-05,
|
|
"loss": 1.506,
|
|
"mean_token_accuracy": 0.6017008781433105,
|
|
"num_tokens": 4265505.0,
|
|
"step": 2980
|
|
},
|
|
{
|
|
"entropy": 1.5450469136238099,
|
|
"epoch": 3.986666666666667,
|
|
"grad_norm": 0.9432908892631531,
|
|
"learning_rate": 4.058666666666667e-05,
|
|
"loss": 1.5485,
|
|
"mean_token_accuracy": 0.5970555782318115,
|
|
"num_tokens": 4279364.0,
|
|
"step": 2990
|
|
},
|
|
{
|
|
"entropy": 1.543686866760254,
|
|
"epoch": 4.0,
|
|
"grad_norm": 0.9634518623352051,
|
|
"learning_rate": 4.005333333333334e-05,
|
|
"loss": 1.5473,
|
|
"mean_token_accuracy": 0.5991696536540985,
|
|
"num_tokens": 4293748.0,
|
|
"step": 3000
|
|
},
|
|
{
|
|
"entropy": 1.5365136742591858,
|
|
"epoch": 4.013333333333334,
|
|
"grad_norm": 0.9655920267105103,
|
|
"learning_rate": 3.952e-05,
|
|
"loss": 1.5263,
|
|
"mean_token_accuracy": 0.60786372423172,
|
|
"num_tokens": 4307867.0,
|
|
"step": 3010
|
|
},
|
|
{
|
|
"entropy": 1.515799343585968,
|
|
"epoch": 4.026666666666666,
|
|
"grad_norm": 0.9749683737754822,
|
|
"learning_rate": 3.8986666666666664e-05,
|
|
"loss": 1.4944,
|
|
"mean_token_accuracy": 0.6081764221191406,
|
|
"num_tokens": 4322056.0,
|
|
"step": 3020
|
|
},
|
|
{
|
|
"entropy": 1.5035780668258667,
|
|
"epoch": 4.04,
|
|
"grad_norm": 0.9794076681137085,
|
|
"learning_rate": 3.845333333333333e-05,
|
|
"loss": 1.4705,
|
|
"mean_token_accuracy": 0.6093484103679657,
|
|
"num_tokens": 4336354.0,
|
|
"step": 3030
|
|
},
|
|
{
|
|
"entropy": 1.5286927461624145,
|
|
"epoch": 4.053333333333334,
|
|
"grad_norm": 0.9505215287208557,
|
|
"learning_rate": 3.792e-05,
|
|
"loss": 1.5048,
|
|
"mean_token_accuracy": 0.604096668958664,
|
|
"num_tokens": 4350863.0,
|
|
"step": 3040
|
|
},
|
|
{
|
|
"entropy": 1.5154425978660584,
|
|
"epoch": 4.066666666666666,
|
|
"grad_norm": 0.961539626121521,
|
|
"learning_rate": 3.738666666666667e-05,
|
|
"loss": 1.5091,
|
|
"mean_token_accuracy": 0.6095735013484955,
|
|
"num_tokens": 4365089.0,
|
|
"step": 3050
|
|
},
|
|
{
|
|
"entropy": 1.5314760208129883,
|
|
"epoch": 4.08,
|
|
"grad_norm": 0.9384079575538635,
|
|
"learning_rate": 3.6853333333333335e-05,
|
|
"loss": 1.5372,
|
|
"mean_token_accuracy": 0.6006677091121674,
|
|
"num_tokens": 4379362.0,
|
|
"step": 3060
|
|
},
|
|
{
|
|
"entropy": 1.5400151133537292,
|
|
"epoch": 4.093333333333334,
|
|
"grad_norm": 1.0001577138900757,
|
|
"learning_rate": 3.6320000000000005e-05,
|
|
"loss": 1.5373,
|
|
"mean_token_accuracy": 0.599011504650116,
|
|
"num_tokens": 4394102.0,
|
|
"step": 3070
|
|
},
|
|
{
|
|
"entropy": 1.4634116888046265,
|
|
"epoch": 4.1066666666666665,
|
|
"grad_norm": 0.9589743614196777,
|
|
"learning_rate": 3.578666666666667e-05,
|
|
"loss": 1.4457,
|
|
"mean_token_accuracy": 0.6174215316772461,
|
|
"num_tokens": 4408230.0,
|
|
"step": 3080
|
|
},
|
|
{
|
|
"entropy": 1.5070185899734496,
|
|
"epoch": 4.12,
|
|
"grad_norm": 0.8964406847953796,
|
|
"learning_rate": 3.525333333333333e-05,
|
|
"loss": 1.4862,
|
|
"mean_token_accuracy": 0.6075563490390777,
|
|
"num_tokens": 4422790.0,
|
|
"step": 3090
|
|
},
|
|
{
|
|
"entropy": 1.5099178075790405,
|
|
"epoch": 4.133333333333334,
|
|
"grad_norm": 0.9634713530540466,
|
|
"learning_rate": 3.472e-05,
|
|
"loss": 1.5269,
|
|
"mean_token_accuracy": 0.6015920817852021,
|
|
"num_tokens": 4437640.0,
|
|
"step": 3100
|
|
},
|
|
{
|
|
"entropy": 1.4996770977973939,
|
|
"epoch": 4.1466666666666665,
|
|
"grad_norm": 1.0171689987182617,
|
|
"learning_rate": 3.418666666666667e-05,
|
|
"loss": 1.5012,
|
|
"mean_token_accuracy": 0.6036042392253875,
|
|
"num_tokens": 4451347.0,
|
|
"step": 3110
|
|
},
|
|
{
|
|
"entropy": 1.5029872059822083,
|
|
"epoch": 4.16,
|
|
"grad_norm": 0.9633923172950745,
|
|
"learning_rate": 3.365333333333334e-05,
|
|
"loss": 1.498,
|
|
"mean_token_accuracy": 0.609248948097229,
|
|
"num_tokens": 4465136.0,
|
|
"step": 3120
|
|
},
|
|
{
|
|
"entropy": 1.5449779272079467,
|
|
"epoch": 4.173333333333334,
|
|
"grad_norm": 1.008050799369812,
|
|
"learning_rate": 3.312e-05,
|
|
"loss": 1.529,
|
|
"mean_token_accuracy": 0.6036719799041748,
|
|
"num_tokens": 4479438.0,
|
|
"step": 3130
|
|
},
|
|
{
|
|
"entropy": 1.5340414762496948,
|
|
"epoch": 4.1866666666666665,
|
|
"grad_norm": 0.9338605403900146,
|
|
"learning_rate": 3.258666666666667e-05,
|
|
"loss": 1.5253,
|
|
"mean_token_accuracy": 0.6027257800102234,
|
|
"num_tokens": 4494090.0,
|
|
"step": 3140
|
|
},
|
|
{
|
|
"entropy": 1.505314087867737,
|
|
"epoch": 4.2,
|
|
"grad_norm": 0.9618511199951172,
|
|
"learning_rate": 3.2053333333333334e-05,
|
|
"loss": 1.4802,
|
|
"mean_token_accuracy": 0.6125230073928833,
|
|
"num_tokens": 4508591.0,
|
|
"step": 3150
|
|
},
|
|
{
|
|
"entropy": 1.5371877670288085,
|
|
"epoch": 4.213333333333333,
|
|
"grad_norm": 1.0643171072006226,
|
|
"learning_rate": 3.1519999999999996e-05,
|
|
"loss": 1.5358,
|
|
"mean_token_accuracy": 0.5961817026138305,
|
|
"num_tokens": 4522699.0,
|
|
"step": 3160
|
|
},
|
|
{
|
|
"entropy": 1.5019853830337524,
|
|
"epoch": 4.226666666666667,
|
|
"grad_norm": 1.0207290649414062,
|
|
"learning_rate": 3.098666666666667e-05,
|
|
"loss": 1.4876,
|
|
"mean_token_accuracy": 0.6124690473079681,
|
|
"num_tokens": 4536673.0,
|
|
"step": 3170
|
|
},
|
|
{
|
|
"entropy": 1.5112155199050903,
|
|
"epoch": 4.24,
|
|
"grad_norm": 1.0339583158493042,
|
|
"learning_rate": 3.0453333333333335e-05,
|
|
"loss": 1.5318,
|
|
"mean_token_accuracy": 0.6031135380268097,
|
|
"num_tokens": 4551299.0,
|
|
"step": 3180
|
|
},
|
|
{
|
|
"entropy": 1.5400923371315003,
|
|
"epoch": 4.253333333333333,
|
|
"grad_norm": 0.9485198855400085,
|
|
"learning_rate": 2.9920000000000005e-05,
|
|
"loss": 1.5602,
|
|
"mean_token_accuracy": 0.5906065762042999,
|
|
"num_tokens": 4565397.0,
|
|
"step": 3190
|
|
},
|
|
{
|
|
"entropy": 1.5005444288253784,
|
|
"epoch": 4.266666666666667,
|
|
"grad_norm": 0.9524121880531311,
|
|
"learning_rate": 2.9386666666666668e-05,
|
|
"loss": 1.4912,
|
|
"mean_token_accuracy": 0.6092116355895996,
|
|
"num_tokens": 4579831.0,
|
|
"step": 3200
|
|
},
|
|
{
|
|
"entropy": 1.5193938732147216,
|
|
"epoch": 4.28,
|
|
"grad_norm": 0.9724217653274536,
|
|
"learning_rate": 2.8853333333333334e-05,
|
|
"loss": 1.5091,
|
|
"mean_token_accuracy": 0.6084510862827301,
|
|
"num_tokens": 4594484.0,
|
|
"step": 3210
|
|
},
|
|
{
|
|
"entropy": 1.4901248335838317,
|
|
"epoch": 4.293333333333333,
|
|
"grad_norm": 1.007354736328125,
|
|
"learning_rate": 2.8320000000000003e-05,
|
|
"loss": 1.4844,
|
|
"mean_token_accuracy": 0.6138048768043518,
|
|
"num_tokens": 4608570.0,
|
|
"step": 3220
|
|
},
|
|
{
|
|
"entropy": 1.54730122089386,
|
|
"epoch": 4.306666666666667,
|
|
"grad_norm": 1.0710642337799072,
|
|
"learning_rate": 2.7786666666666666e-05,
|
|
"loss": 1.5347,
|
|
"mean_token_accuracy": 0.5982505917549134,
|
|
"num_tokens": 4622633.0,
|
|
"step": 3230
|
|
},
|
|
{
|
|
"entropy": 1.5040061354637146,
|
|
"epoch": 4.32,
|
|
"grad_norm": 0.9621327519416809,
|
|
"learning_rate": 2.7253333333333336e-05,
|
|
"loss": 1.4716,
|
|
"mean_token_accuracy": 0.6066832184791565,
|
|
"num_tokens": 4636860.0,
|
|
"step": 3240
|
|
},
|
|
{
|
|
"entropy": 1.5182342648506164,
|
|
"epoch": 4.333333333333333,
|
|
"grad_norm": 1.0994747877120972,
|
|
"learning_rate": 2.672e-05,
|
|
"loss": 1.5179,
|
|
"mean_token_accuracy": 0.608071756362915,
|
|
"num_tokens": 4651437.0,
|
|
"step": 3250
|
|
},
|
|
{
|
|
"entropy": 1.5286983251571655,
|
|
"epoch": 4.346666666666667,
|
|
"grad_norm": 1.0231680870056152,
|
|
"learning_rate": 2.618666666666667e-05,
|
|
"loss": 1.5418,
|
|
"mean_token_accuracy": 0.595749455690384,
|
|
"num_tokens": 4665066.0,
|
|
"step": 3260
|
|
},
|
|
{
|
|
"entropy": 1.5123022079467774,
|
|
"epoch": 4.36,
|
|
"grad_norm": 0.9780040383338928,
|
|
"learning_rate": 2.5653333333333334e-05,
|
|
"loss": 1.525,
|
|
"mean_token_accuracy": 0.6082418739795685,
|
|
"num_tokens": 4679253.0,
|
|
"step": 3270
|
|
},
|
|
{
|
|
"entropy": 1.4931334614753724,
|
|
"epoch": 4.373333333333333,
|
|
"grad_norm": 0.9400593042373657,
|
|
"learning_rate": 2.512e-05,
|
|
"loss": 1.4676,
|
|
"mean_token_accuracy": 0.6080067753791809,
|
|
"num_tokens": 4693597.0,
|
|
"step": 3280
|
|
},
|
|
{
|
|
"entropy": 1.5012006640434266,
|
|
"epoch": 4.386666666666667,
|
|
"grad_norm": 1.0232207775115967,
|
|
"learning_rate": 2.458666666666667e-05,
|
|
"loss": 1.5032,
|
|
"mean_token_accuracy": 0.6103330433368683,
|
|
"num_tokens": 4708006.0,
|
|
"step": 3290
|
|
},
|
|
{
|
|
"entropy": 1.4855156302452088,
|
|
"epoch": 4.4,
|
|
"grad_norm": 0.9974182844161987,
|
|
"learning_rate": 2.4053333333333332e-05,
|
|
"loss": 1.4692,
|
|
"mean_token_accuracy": 0.6116929650306702,
|
|
"num_tokens": 4721909.0,
|
|
"step": 3300
|
|
},
|
|
{
|
|
"entropy": 1.507442343235016,
|
|
"epoch": 4.413333333333333,
|
|
"grad_norm": 0.994115948677063,
|
|
"learning_rate": 2.3520000000000002e-05,
|
|
"loss": 1.5232,
|
|
"mean_token_accuracy": 0.602092158794403,
|
|
"num_tokens": 4736076.0,
|
|
"step": 3310
|
|
},
|
|
{
|
|
"entropy": 1.5151393413543701,
|
|
"epoch": 4.426666666666667,
|
|
"grad_norm": 0.9637674689292908,
|
|
"learning_rate": 2.2986666666666668e-05,
|
|
"loss": 1.5315,
|
|
"mean_token_accuracy": 0.6027554571628571,
|
|
"num_tokens": 4750600.0,
|
|
"step": 3320
|
|
},
|
|
{
|
|
"entropy": 1.516111147403717,
|
|
"epoch": 4.44,
|
|
"grad_norm": 1.0446134805679321,
|
|
"learning_rate": 2.2453333333333334e-05,
|
|
"loss": 1.5051,
|
|
"mean_token_accuracy": 0.6078939437866211,
|
|
"num_tokens": 4764720.0,
|
|
"step": 3330
|
|
},
|
|
{
|
|
"entropy": 1.5067867398262025,
|
|
"epoch": 4.453333333333333,
|
|
"grad_norm": 1.0402345657348633,
|
|
"learning_rate": 2.192e-05,
|
|
"loss": 1.5307,
|
|
"mean_token_accuracy": 0.604242342710495,
|
|
"num_tokens": 4779488.0,
|
|
"step": 3340
|
|
},
|
|
{
|
|
"entropy": 1.5478395223617554,
|
|
"epoch": 4.466666666666667,
|
|
"grad_norm": 0.9418982863426208,
|
|
"learning_rate": 2.138666666666667e-05,
|
|
"loss": 1.5544,
|
|
"mean_token_accuracy": 0.5938528180122375,
|
|
"num_tokens": 4794141.0,
|
|
"step": 3350
|
|
},
|
|
{
|
|
"entropy": 1.519230580329895,
|
|
"epoch": 4.48,
|
|
"grad_norm": 0.9991651177406311,
|
|
"learning_rate": 2.0853333333333332e-05,
|
|
"loss": 1.5005,
|
|
"mean_token_accuracy": 0.6039314925670624,
|
|
"num_tokens": 4808795.0,
|
|
"step": 3360
|
|
},
|
|
{
|
|
"entropy": 1.5240678668022156,
|
|
"epoch": 4.493333333333333,
|
|
"grad_norm": 1.0143169164657593,
|
|
"learning_rate": 2.032e-05,
|
|
"loss": 1.5145,
|
|
"mean_token_accuracy": 0.6043189346790314,
|
|
"num_tokens": 4823069.0,
|
|
"step": 3370
|
|
},
|
|
{
|
|
"entropy": 1.5255629777908326,
|
|
"epoch": 4.506666666666667,
|
|
"grad_norm": 1.0140531063079834,
|
|
"learning_rate": 1.9786666666666668e-05,
|
|
"loss": 1.5276,
|
|
"mean_token_accuracy": 0.6000255227088929,
|
|
"num_tokens": 4837704.0,
|
|
"step": 3380
|
|
},
|
|
{
|
|
"entropy": 1.5075699806213378,
|
|
"epoch": 4.52,
|
|
"grad_norm": 1.1020138263702393,
|
|
"learning_rate": 1.9253333333333334e-05,
|
|
"loss": 1.5075,
|
|
"mean_token_accuracy": 0.6047464787960053,
|
|
"num_tokens": 4851522.0,
|
|
"step": 3390
|
|
},
|
|
{
|
|
"entropy": 1.4965790510177612,
|
|
"epoch": 4.533333333333333,
|
|
"grad_norm": 1.01288640499115,
|
|
"learning_rate": 1.872e-05,
|
|
"loss": 1.4973,
|
|
"mean_token_accuracy": 0.6059385955333709,
|
|
"num_tokens": 4865776.0,
|
|
"step": 3400
|
|
},
|
|
{
|
|
"entropy": 1.5590728878974915,
|
|
"epoch": 4.546666666666667,
|
|
"grad_norm": 1.0550872087478638,
|
|
"learning_rate": 1.818666666666667e-05,
|
|
"loss": 1.5542,
|
|
"mean_token_accuracy": 0.6034840047359467,
|
|
"num_tokens": 4880282.0,
|
|
"step": 3410
|
|
},
|
|
{
|
|
"entropy": 1.5032998323440552,
|
|
"epoch": 4.5600000000000005,
|
|
"grad_norm": 0.973737895488739,
|
|
"learning_rate": 1.7653333333333333e-05,
|
|
"loss": 1.4842,
|
|
"mean_token_accuracy": 0.614830732345581,
|
|
"num_tokens": 4894925.0,
|
|
"step": 3420
|
|
},
|
|
{
|
|
"entropy": 1.5427478194236754,
|
|
"epoch": 4.573333333333333,
|
|
"grad_norm": 1.0277985334396362,
|
|
"learning_rate": 1.712e-05,
|
|
"loss": 1.553,
|
|
"mean_token_accuracy": 0.5940081357955933,
|
|
"num_tokens": 4908989.0,
|
|
"step": 3430
|
|
},
|
|
{
|
|
"entropy": 1.5309156775474548,
|
|
"epoch": 4.586666666666667,
|
|
"grad_norm": 0.9727867841720581,
|
|
"learning_rate": 1.6586666666666668e-05,
|
|
"loss": 1.535,
|
|
"mean_token_accuracy": 0.5985087752342224,
|
|
"num_tokens": 4923645.0,
|
|
"step": 3440
|
|
},
|
|
{
|
|
"entropy": 1.528634285926819,
|
|
"epoch": 4.6,
|
|
"grad_norm": 0.981076717376709,
|
|
"learning_rate": 1.6053333333333334e-05,
|
|
"loss": 1.5466,
|
|
"mean_token_accuracy": 0.599447101354599,
|
|
"num_tokens": 4937514.0,
|
|
"step": 3450
|
|
},
|
|
{
|
|
"entropy": 1.5382391691207886,
|
|
"epoch": 4.613333333333333,
|
|
"grad_norm": 0.9588137865066528,
|
|
"learning_rate": 1.552e-05,
|
|
"loss": 1.5461,
|
|
"mean_token_accuracy": 0.5956820666790008,
|
|
"num_tokens": 4951733.0,
|
|
"step": 3460
|
|
},
|
|
{
|
|
"entropy": 1.5259844303131103,
|
|
"epoch": 4.626666666666667,
|
|
"grad_norm": 0.9686817526817322,
|
|
"learning_rate": 1.4986666666666668e-05,
|
|
"loss": 1.5072,
|
|
"mean_token_accuracy": 0.6090186178684235,
|
|
"num_tokens": 4965879.0,
|
|
"step": 3470
|
|
},
|
|
{
|
|
"entropy": 1.5061089873313904,
|
|
"epoch": 4.64,
|
|
"grad_norm": 0.9926065802574158,
|
|
"learning_rate": 1.4453333333333336e-05,
|
|
"loss": 1.4799,
|
|
"mean_token_accuracy": 0.6152295053005219,
|
|
"num_tokens": 4980306.0,
|
|
"step": 3480
|
|
},
|
|
{
|
|
"entropy": 1.481192135810852,
|
|
"epoch": 4.653333333333333,
|
|
"grad_norm": 1.0045454502105713,
|
|
"learning_rate": 1.3919999999999999e-05,
|
|
"loss": 1.4756,
|
|
"mean_token_accuracy": 0.6149226605892182,
|
|
"num_tokens": 4994519.0,
|
|
"step": 3490
|
|
},
|
|
{
|
|
"entropy": 1.514465832710266,
|
|
"epoch": 4.666666666666667,
|
|
"grad_norm": 0.9934251308441162,
|
|
"learning_rate": 1.3386666666666667e-05,
|
|
"loss": 1.5233,
|
|
"mean_token_accuracy": 0.6061447322368622,
|
|
"num_tokens": 5008550.0,
|
|
"step": 3500
|
|
},
|
|
{
|
|
"entropy": 1.4955842971801758,
|
|
"epoch": 4.68,
|
|
"grad_norm": 0.9881407618522644,
|
|
"learning_rate": 1.2853333333333335e-05,
|
|
"loss": 1.4896,
|
|
"mean_token_accuracy": 0.609752070903778,
|
|
"num_tokens": 5023117.0,
|
|
"step": 3510
|
|
},
|
|
{
|
|
"entropy": 1.5218215346336366,
|
|
"epoch": 4.693333333333333,
|
|
"grad_norm": 0.9354364275932312,
|
|
"learning_rate": 1.232e-05,
|
|
"loss": 1.5131,
|
|
"mean_token_accuracy": 0.6043624520301819,
|
|
"num_tokens": 5037655.0,
|
|
"step": 3520
|
|
},
|
|
{
|
|
"entropy": 1.4963951706886292,
|
|
"epoch": 4.706666666666667,
|
|
"grad_norm": 1.0661942958831787,
|
|
"learning_rate": 1.1786666666666667e-05,
|
|
"loss": 1.4775,
|
|
"mean_token_accuracy": 0.6150636911392212,
|
|
"num_tokens": 5051612.0,
|
|
"step": 3530
|
|
},
|
|
{
|
|
"entropy": 1.5108888030052186,
|
|
"epoch": 4.72,
|
|
"grad_norm": 0.9670630693435669,
|
|
"learning_rate": 1.1253333333333335e-05,
|
|
"loss": 1.5048,
|
|
"mean_token_accuracy": 0.6051742970943451,
|
|
"num_tokens": 5066170.0,
|
|
"step": 3540
|
|
},
|
|
{
|
|
"entropy": 1.5038720846176148,
|
|
"epoch": 4.733333333333333,
|
|
"grad_norm": 0.9345632791519165,
|
|
"learning_rate": 1.072e-05,
|
|
"loss": 1.5102,
|
|
"mean_token_accuracy": 0.6104423046112061,
|
|
"num_tokens": 5080444.0,
|
|
"step": 3550
|
|
},
|
|
{
|
|
"entropy": 1.5030319571495057,
|
|
"epoch": 4.746666666666667,
|
|
"grad_norm": 0.9831485748291016,
|
|
"learning_rate": 1.0186666666666667e-05,
|
|
"loss": 1.5069,
|
|
"mean_token_accuracy": 0.6037883818149566,
|
|
"num_tokens": 5094761.0,
|
|
"step": 3560
|
|
},
|
|
{
|
|
"entropy": 1.510043454170227,
|
|
"epoch": 4.76,
|
|
"grad_norm": 0.9235440492630005,
|
|
"learning_rate": 9.653333333333333e-06,
|
|
"loss": 1.5157,
|
|
"mean_token_accuracy": 0.6063662171363831,
|
|
"num_tokens": 5109257.0,
|
|
"step": 3570
|
|
},
|
|
{
|
|
"entropy": 1.5091351628303529,
|
|
"epoch": 4.773333333333333,
|
|
"grad_norm": 0.9886734485626221,
|
|
"learning_rate": 9.12e-06,
|
|
"loss": 1.5055,
|
|
"mean_token_accuracy": 0.6026559054851532,
|
|
"num_tokens": 5123300.0,
|
|
"step": 3580
|
|
},
|
|
{
|
|
"entropy": 1.5251986622810363,
|
|
"epoch": 4.786666666666667,
|
|
"grad_norm": 0.9874600768089294,
|
|
"learning_rate": 8.586666666666667e-06,
|
|
"loss": 1.5275,
|
|
"mean_token_accuracy": 0.5958361983299255,
|
|
"num_tokens": 5137532.0,
|
|
"step": 3590
|
|
},
|
|
{
|
|
"entropy": 1.5034950971603394,
|
|
"epoch": 4.8,
|
|
"grad_norm": 1.0683790445327759,
|
|
"learning_rate": 8.053333333333333e-06,
|
|
"loss": 1.53,
|
|
"mean_token_accuracy": 0.5999804496765136,
|
|
"num_tokens": 5151953.0,
|
|
"step": 3600
|
|
},
|
|
{
|
|
"entropy": 1.4827401161193847,
|
|
"epoch": 4.8133333333333335,
|
|
"grad_norm": 0.9795315861701965,
|
|
"learning_rate": 7.520000000000001e-06,
|
|
"loss": 1.4785,
|
|
"mean_token_accuracy": 0.6117274701595307,
|
|
"num_tokens": 5166275.0,
|
|
"step": 3610
|
|
},
|
|
{
|
|
"entropy": 1.523775041103363,
|
|
"epoch": 4.826666666666666,
|
|
"grad_norm": 0.9917919635772705,
|
|
"learning_rate": 6.986666666666666e-06,
|
|
"loss": 1.5365,
|
|
"mean_token_accuracy": 0.5984505116939545,
|
|
"num_tokens": 5180126.0,
|
|
"step": 3620
|
|
},
|
|
{
|
|
"entropy": 1.4949087142944335,
|
|
"epoch": 4.84,
|
|
"grad_norm": 1.0012309551239014,
|
|
"learning_rate": 6.453333333333333e-06,
|
|
"loss": 1.5111,
|
|
"mean_token_accuracy": 0.5995598495006561,
|
|
"num_tokens": 5194364.0,
|
|
"step": 3630
|
|
},
|
|
{
|
|
"entropy": 1.5341680884361266,
|
|
"epoch": 4.8533333333333335,
|
|
"grad_norm": 1.0409471988677979,
|
|
"learning_rate": 5.920000000000001e-06,
|
|
"loss": 1.5152,
|
|
"mean_token_accuracy": 0.6018074989318848,
|
|
"num_tokens": 5208375.0,
|
|
"step": 3640
|
|
},
|
|
{
|
|
"entropy": 1.534318196773529,
|
|
"epoch": 4.866666666666667,
|
|
"grad_norm": 0.9401106834411621,
|
|
"learning_rate": 5.386666666666667e-06,
|
|
"loss": 1.5351,
|
|
"mean_token_accuracy": 0.6016264021396637,
|
|
"num_tokens": 5222816.0,
|
|
"step": 3650
|
|
},
|
|
{
|
|
"entropy": 1.554974091053009,
|
|
"epoch": 4.88,
|
|
"grad_norm": 0.9982031583786011,
|
|
"learning_rate": 4.853333333333333e-06,
|
|
"loss": 1.5502,
|
|
"mean_token_accuracy": 0.5979870140552521,
|
|
"num_tokens": 5237407.0,
|
|
"step": 3660
|
|
},
|
|
{
|
|
"entropy": 1.5086179733276368,
|
|
"epoch": 4.8933333333333335,
|
|
"grad_norm": 0.9466696977615356,
|
|
"learning_rate": 4.32e-06,
|
|
"loss": 1.479,
|
|
"mean_token_accuracy": 0.6097995579242707,
|
|
"num_tokens": 5251459.0,
|
|
"step": 3670
|
|
},
|
|
{
|
|
"entropy": 1.5055303931236268,
|
|
"epoch": 4.906666666666666,
|
|
"grad_norm": 0.970635712146759,
|
|
"learning_rate": 3.7866666666666667e-06,
|
|
"loss": 1.4846,
|
|
"mean_token_accuracy": 0.6134307503700256,
|
|
"num_tokens": 5266401.0,
|
|
"step": 3680
|
|
},
|
|
{
|
|
"entropy": 1.5042688965797424,
|
|
"epoch": 4.92,
|
|
"grad_norm": 1.0346366167068481,
|
|
"learning_rate": 3.2533333333333332e-06,
|
|
"loss": 1.4929,
|
|
"mean_token_accuracy": 0.6128629386425019,
|
|
"num_tokens": 5280693.0,
|
|
"step": 3690
|
|
},
|
|
{
|
|
"entropy": 1.5321940779685974,
|
|
"epoch": 4.933333333333334,
|
|
"grad_norm": 1.0521286725997925,
|
|
"learning_rate": 2.72e-06,
|
|
"loss": 1.5439,
|
|
"mean_token_accuracy": 0.5974100470542908,
|
|
"num_tokens": 5294954.0,
|
|
"step": 3700
|
|
},
|
|
{
|
|
"entropy": 1.4757335424423217,
|
|
"epoch": 4.946666666666666,
|
|
"grad_norm": 0.9642630815505981,
|
|
"learning_rate": 2.1866666666666668e-06,
|
|
"loss": 1.4506,
|
|
"mean_token_accuracy": 0.6165753841400147,
|
|
"num_tokens": 5309236.0,
|
|
"step": 3710
|
|
},
|
|
{
|
|
"entropy": 1.5279500603675842,
|
|
"epoch": 4.96,
|
|
"grad_norm": 1.0271079540252686,
|
|
"learning_rate": 1.6533333333333335e-06,
|
|
"loss": 1.5234,
|
|
"mean_token_accuracy": 0.6033308267593384,
|
|
"num_tokens": 5323155.0,
|
|
"step": 3720
|
|
},
|
|
{
|
|
"entropy": 1.485176193714142,
|
|
"epoch": 4.973333333333334,
|
|
"grad_norm": 0.9741034507751465,
|
|
"learning_rate": 1.12e-06,
|
|
"loss": 1.4862,
|
|
"mean_token_accuracy": 0.6087356626987457,
|
|
"num_tokens": 5337648.0,
|
|
"step": 3730
|
|
},
|
|
{
|
|
"entropy": 1.5567009210586549,
|
|
"epoch": 4.986666666666666,
|
|
"grad_norm": 1.0231209993362427,
|
|
"learning_rate": 5.866666666666667e-07,
|
|
"loss": 1.5451,
|
|
"mean_token_accuracy": 0.5986318230628968,
|
|
"num_tokens": 5352566.0,
|
|
"step": 3740
|
|
},
|
|
{
|
|
"entropy": 1.5206527352333068,
|
|
"epoch": 5.0,
|
|
"grad_norm": 0.9890077114105225,
|
|
"learning_rate": 5.333333333333334e-08,
|
|
"loss": 1.5194,
|
|
"mean_token_accuracy": 0.6073900282382965,
|
|
"num_tokens": 5367185.0,
|
|
"step": 3750
|
|
}
|
|
],
|
|
"logging_steps": 10,
|
|
"max_steps": 3750,
|
|
"num_input_tokens_seen": 0,
|
|
"num_train_epochs": 5,
|
|
"save_steps": 500,
|
|
"stateful_callbacks": {
|
|
"TrainerControl": {
|
|
"args": {
|
|
"should_epoch_stop": false,
|
|
"should_evaluate": false,
|
|
"should_log": false,
|
|
"should_save": true,
|
|
"should_training_stop": true
|
|
},
|
|
"attributes": {}
|
|
}
|
|
},
|
|
"total_flos": 3632125648607232.0,
|
|
"train_batch_size": 4,
|
|
"trial_name": null,
|
|
"trial_params": null
|
|
}
|