私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

期货量化交易软件:如何使用时间序列挖掘的数据标签3.0

[复制链接]
发表于 2024-4-25 08:31:26 | 显示全部楼层 |阅读模式
同样,我们将获得最佳学习率的这部分代码封装到函数get_learning_rate()中,并将获得的最佳学习率作为其返回值:
$ b9 U1 {# _$ }8 pdef get_learning_rate():        pl.seed_everything(42)    trainer = pl.Trainer(accelerator="cpu", gradient_clip_val=0.1,logger=False)    net = NHiTS.from_dataset(        training,        learning_rate=3e-2,        weight_decay=1e-2,        loss=MQF2DistributionLoss(prediction_length=max_prediction_length),        backcast_loss_ratio=0.0,        hidden_size=64,        optimizer="AdamW",    )    res = Tuner(trainer).lr_find(        net, train_dataloaders=t_loader, val_dataloaders=v_loader, min_lr=1e-5, max_lr=1e-1    )    lr_=res.suggestion()    return lr_) B4 V+ k  l  t8 p4 N" r# ?
如果您想可视化学习率,可以添加以下代码:1 O' U# N. N2 d- b8 N0 W! Q
期货量化交易软件:如何使用时间序列挖掘的数据标签3.0-1.jpg 添加图片注释,不超过 140 字(可选)print(f"suggested learning rate: {res.suggestion()}")fig = res.plot(show=True, suggest=True)fig.show()1 I/ x6 V# c- U
此示例中的结果如下:+ o/ V8 E: L( R$ e4 O

4 c! J* N. |/ d7 m; l  Z 期货量化交易软件:如何使用时间序列挖掘的数据标签3.0-2.jpg 添加图片注释,不超过 140 字(可选)$ }# a1 E0 M! T. O9 G0 J
建议学习率:0.003981071705534973。2. 定义EarlyStoping回调此回调主要用于监测验证损失,并在损失连续几个时期没有改善时停止训练。这样可以防止模型过拟合。
; z9 T8 p. k& {0 _/ [early_stop_callback = EarlyStopping(monitor="val_loss",                                     min_delta=1e-4,                                     patience=10,                                      verbose=True,                                     mode="min")8 [% q2 x1 V" L
这里需要注意的参数是“patience”,它主要控制在训练过程中,如果损失连续几个时期没有改善,何时停止。我们把它设置为10。3. 定义ModelCheckpoint回调此回调主要用于控制模型归档和归档的名称。我们主要设置这两个变量。ck_callback=ModelCheckpoint(monitor='val_loss',                            mode="min",                            save_top_k=1,                              filename='{epoch}-{val_loss:.2f}')
" S5 a, s  b) |" m) H. [* U, H“save_top_k”用于控制保存前几个最好的模型。我们将其设置为1,只保存最好的模型。4. 定义训练模型我们首先需要在lightning.pytarch中实例化一个Trainer类,并添加我们之前定义的两个回调。% _' V& t8 O6 C
trainer = pl.Trainer(    max_epochs=ep,    accelerator="cpu",    enable_model_summary=True,    gradient_clip_val=1.0,    callbacks=[early_stop_callback,ck_callback],    limit_train_batches=30,    enable_checkpointing=True,)
: D' [, ]) g% _0 m/ _这里我们需要注意的参数是“max_epochs”(最大训练时期数)、“gradient_clip_val”(用于防止梯度爆炸)和“回调”。这里“max_epochs”使用ep,这是我们稍后将定义的全局变量,而“callbacks”是我们的回调集合。接下来,我们还需要定义NHiTS模型并实例化它:
) ~- T0 @/ j5 C* Ynet = NHiTS.from_dataset(    training,    learning_rate=lr,    log_interval=10,    log_val_interval=1,    weight_decay=1e-2,    backcast_loss_ratio=0.0,    hidden_size=64,    optimizer="AdamW",    loss=MQF2DistributionLoss(prediction_length=max_prediction_length),)
8 q$ I2 ?$ F1 X" B这里,参数通常不需要修改,只需使用默认的参数即可。这里我们只将“loss”修改为MQF2DistributionLoss 损失函数。5. 训练模块 我们使用Trainer对象的fit()函数来训练模型:
( e) W1 c6 s; d7 n5 T7 I$ Itrainer.fit(    net,    train_dataloaders=train_dataloader,    val_dataloaders=val_dataloader,)
8 l+ V! g: k' s$ Y: ~0 |4 U类似地,我们将这部分代码封装到一个函数train()中:def train():    early_stop_callback = EarlyStopping(monitor="val_loss",                                         min_delta=1e-4,                                         patience=10,  # The number of times without improvement will stop                                        verbose=True,                                         mode="min")    ck_callback=ModelCheckpoint(monitor='val_loss',                                mode="min",                                save_top_k=1,  # Save the top few best ones                                filename='{epoch}-{val_loss:.2f}')    trainer = pl.Trainer(        max_epochs=ep,        accelerator="cpu",        enable_model_summary=True,        gradient_clip_val=1.0,        callbacks=[early_stop_callback,ck_callback],        limit_train_batches=30,        enable_checkpointing=True,    )    net = NHiTS.from_dataset(        training,        learning_rate=lr,        log_interval=10,        log_val_interval=1,        weight_decay=1e-2,        backcast_loss_ratio=0.0,        hidden_size=64,        optimizer="AdamW",        loss=MQF2DistributionLoss(prediction_length=max_prediction_length),    )    trainer.fit(        net,        train_dataloaders=t_loader,        val_dataloaders=v_loader,        # ckpt_path='best'    )return trainer* E, {; A7 K" R, T# W3 S
此函数将返回一个经过训练的模型,可用于预测任务。
" D( p; {/ a( K+ X; F定义执行逻辑1. 定义全局变量:( v/ w2 Z9 ]% R$ D: v( c2 U
ep=200__train=Falsemt_data_len=200000max_encoder_length = 2*96max_prediction_length = 30batch_size = 128
- Z5 s0 Z5 Q! f2 d# h8 p__train用于控制我们当前是在训练还是测试模型。值得注意的是,ep用于控制最大训练时期。由于我们已经设置了EarlyStoping,因此可以将该值设置得更大一点,因为当模型不再收敛时,它将自动停止。mt_data_len是从客户端获得的最近时间序列数据的数量。max_encoder_length 和 max_prediction_length 分别是最大编码长度和最大预测长度。2.训练当训练完成时,我们还需要将当前的最佳训练结果保存到本地文件中,因此我们定义了一个json文件来保存这些信息:info_file='results.json'为了使我们的训练过程更加清晰,我们需要避免在训练过程中输出一些不必要的警告信息,因此我们将添加以下代码:
" i7 `* G/ w8 J1 G) i# Bwarnings.filterwarnings("ignore"), B4 ?6 H, @& p. o0 v1 \
接下来是我们的训练逻辑:
. r/ `" K& V9 {5 `dt=get_data(mt_data_len=mt_data_len)if __train:    # print(dt)    # dt=get_data(mt_data_len=mt_data_len)    t_loader,v_loader,training=spilt_data(dt,                                    t_shuffle=False,t_drop_last=True,                                    v_shuffle=False,v_drop_last=True)    lr=get_learning_rate()    trainer__=train()    m_c_back=trainer__.checkpoint_callback    m_l_back=trainer__.early_stopping_callback    best_m_p=m_c_back.best_model_path    best_m_l=m_l_back.best_score.item()    # print(best_m_p)    if os.path.exists(info_file):        with open(info_file,'r+') as f1:            last=json.load(fp=f1)            last_best_model=last['last_best_model']            last_best_score=last['last_best_score']            if last_best_score > best_m_l:                last['last_best_model']=best_m_p                last['last_best_score']=best_m_l                json.dump(last,fp=f1)    else:                       with open(info_file,'w') as f2:            json.dump(dict(last_best_model=best_m_p,last_best_score=best_m_l),fp=f2)  y2 R. A2 Y- p
训练完成后,您可以在根目录的results.json文件中找到我们最佳模型的存储位置和最佳分数。在训练过程中,您将看到一个进度条,显示每个 epoch 的进度。
http://www.simu001.cn/x288753x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-3-28 09:56 , Processed in 0.407913 second(s), 34 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表