由于国庆前仅有 1 个工作日,因此将这个工作日也合并到上周一起写了。

本周状态有所回升,RNN 的代码总算跑起来了。由于设备性能的限制,仅使用了小样本数据来试跑,可惜效果不佳。此时带教总算想起他还没有给我公司的算力,于是我又吭哧吭哧把代码转移到服务器上,在节前将更大样本的代码跑起来了。

滚动训练-预测的模式下,需要训练大量模型,我也肉眼盯了一下各个模型的训练过程,发现训练与训练的悲欢并不相通。有的模型一开始测试集 loss 很大,但是能够迅速下降,最后收敛到较低数值;有的一开始就 loss 很小,但是随着训练进行反而越来越大;有的在测试集 loss 下降到较低位置后开始上升,有明显过拟合现象;有的则半死不活,loss 几乎没有什么变化。

这让我开始思考,训练时是不是应该对各个模型加以更加精细的调教,或者在训练失败的情况下,多随机几次参数重新训练一下。当然,重新训练的成本很高,因此当务之急,似乎是考察一下当前训练的结果,并看看不同训练效果下,因子回测效果如何。