这周的工作就比较懒散了。周一汇总好了上周的工作产出,由于带教一直不看就拖到了周二。而周二我则整理了几篇研报对于 RNN 模型因子的改进方法,带教又不回复,就这么到了周三。 在我的催促下,带教在周三终于回复了意见,接下来的工作方向是输入更多特征和引入注意力机制。先尝试构造更多的特征用来训练,并趁着训练时间里开发注意力机制。 于是他给我甩过来八九个 Python...
阅读全文
本周只做了一件事:对模型进行特征归因。 对于深度学习都堪堪上手的我来说,特征归因算是一个比较深入的话题了。在 GPT 的帮助下,我认识了不少特征归因的方法,最终决定采用最简单的梯度法。 这种方法讲起来蛮简单的,就是利用输入数据预测后,再调用 backward() 来计算输入数据的梯度。但是在实际的实现中,我却碰到了不少困扰。 首先是需要完全复刻对于数据的处理...
阅读全文
想起来上周的周记也没写,干脆混在一起写得了。正好做深度学习研究以来大部分时间都在等待模型训练,能写代码的机会反而不多。 工作总结从这两周的时间来看,工作还是有一些进展的。 首先是模型的损失函数。自从两周前我发现模型所用的损失函数有大问题后,这次我尝试使用 Rank IC 的相反数作为损失函数。由于 Rank 操作不可微分不能作为深度学习的损失函数,我尝试曲线...
阅读全文
前情提要在做金融时序收益率预测时,尤其在需要按照分位数来选择标的回测的情况下,我们可能会希望使用 Rank IC(可理解为秩相关性)作为评价收益率预测能力的标准。然而在深度学习中,这一指标却无法直接作为损失函数使用,因为反向传播要求损失函数的计算是可微的,而 rank 计算却是不可微分的。 为了解决这一问题,Soft Rank 算法应运而生。 Soft Ra...
阅读全文
果然印证了我的判断:人的适应能力比自己想象的更强。这周开始,我对于深度学习的框架有了一定掌握,并且开始提出自己的质疑和思考。 这一次的训练大幅提升了训练集容量,这么做的结果是过拟合与不能拟合的情况确实减少了,但坏消息是,回测的情况看上去依然很差。仔细排查了代码,我发现一个可能很致命的问题:原本代码的损失函数,是将预测值与真实值的相关系数取绝对值再取负数。这一...
阅读全文
时间过得好快,而我的进展好慢。 带教大概看出我的状态不是很好,遂要求我每日提交一段工作总结到微信群。这样倒挺好的,还能倒逼自己一下。 这周做的事情也不太多,回测数据并形成了一份训练及结果的报告(用 Marp 做完了 Slides,感觉还不错,效率挺高的),跟带教在线展示讨论了一会,确定了下一步能够改进的方向。 这周结束前还分到了一个新的北京服务器,终于不用再...
阅读全文
由于国庆前仅有 1 个工作日,因此将这个工作日也合并到上周一起写了。 本周状态有所回升,RNN 的代码总算跑起来了。由于设备性能的限制,仅使用了小样本数据来试跑,可惜效果不佳。此时带教总算想起他还没有给我公司的算力,于是我又吭哧吭哧把代码转移到服务器上,在节前将更大样本的代码跑起来了。 滚动训练-预测的模式下,需要训练大量模型,我也肉眼盯了一下各个模型的训练...
阅读全文
第三周了,虽然这周只有三天,但是状态依然很差。待在荒郊野岭公寓中的小房间里,连续几日不与任何人接触,寂静得令人发疯。 思维不清晰,稍微想一会就猪脑过载,编码进度缓慢。身后就是床,让人经常想偷懒,完全无法进入工作状态。无法推进工作的焦虑和因焦虑而导致的工作无法推进形成正反馈,将焦虑推向至高峰。 这周仍旧对 GRU+NN 的深度学习框架进行修改,解决了上周遗留下...
阅读全文
再一次开始一段实习时,发现自己写日记的冲动没有之前那么强烈了,不过思来想去,保持一个思绪的出口总是有利的,于是暂定接下来一周发表一篇周记。 由于入职匆忙,来到北京鸟不屙屎的地方租了个月租 2000 的一居室,前两周总体来说是兵荒马乱的,现在才有时间(和心情)坐下来总结一番,因此前两周就先合并这么一起写了。 这次顺利入职了一家稍微有点名气的私募,研究加密货币的...
阅读全文
额尔古纳河右岸一书,就是一部古老的游牧文明被现代文明蚕食直至消亡的历史。鄂温克族这一民族仍有后裔,但是不再放牧驯鹿、不再居住在乌力楞,也不再有萨满了,这实际上意味着这一文明的消失。 鄂温克族的生活是相当有秩序的。他们分布在一个个乌力楞中,逐水草而居,有自己的神明。每个部落各自有酋长和萨满,一个酋长死后会推举新的酋长,一个萨满死后三年会自然诞生一名新的萨满。...
阅读全文