量化实习 v3丨Week 5:群策群力

时间过得好快,而我的进展好慢。 带教大概看出我的状态不是很好,遂要求我每日提交一段工作总结到微信群。这样倒挺好的,还能倒逼自己一下。 这周做的事情也不太多,回测数据并形成了一份训练及结果的报告(用 Marp 做完了 Slides,感觉还不错,效率挺高的),跟带教在线展示讨论了一会,确定了下一步能够改进的方向。 这周结束前还分到了一个新的北京服务器,终于不用再...

阅读全文

量化实习 v3丨Week 4:深度幽灵

由于国庆前仅有 1 个工作日,因此将这个工作日也合并到上周一起写了。 本周状态有所回升,RNN 的代码总算跑起来了。由于设备性能的限制,仅使用了小样本数据来试跑,可惜效果不佳。此时带教总算想起他还没有给我公司的算力,于是我又吭哧吭哧把代码转移到服务器上,在节前将更大样本的代码跑起来了。 滚动训练-预测的模式下,需要训练大量模型,我也肉眼盯了一下各个模型的训练...

阅读全文

量化实习 v3丨Week 3:仍然没有适应

第三周了,虽然这周只有三天,但是状态依然很差。待在荒郊野岭公寓中的小房间里,连续几日不与任何人接触,寂静得令人发疯。 思维不清晰,稍微想一会就猪脑过载,编码进度缓慢。身后就是床,让人经常想偷懒,完全无法进入工作状态。无法推进工作的焦虑和因焦虑而导致的工作无法推进形成正反馈,将焦虑推向至高峰。 这周仍旧对 GRU+NN 的深度学习框架进行修改,解决了上周遗留下...

阅读全文

量化实习 v3丨Week 1 & 2:赶鸭子上架

再一次开始一段实习时,发现自己写日记的冲动没有之前那么强烈了,不过思来想去,保持一个思绪的出口总是有利的,于是暂定接下来一周发表一篇周记。 由于入职匆忙,来到北京鸟不屙屎的地方租了个月租 2000 的一居室,前两周总体来说是兵荒马乱的,现在才有时间(和心情)坐下来总结一番,因此前两周就先合并这么一起写了。 这次顺利入职了一家稍微有点名气的私募,研究加密货币的...

阅读全文

阅读笔记丨《额尔古纳河右岸》——少数民族消亡史

额尔古纳河右岸一书,就是一部古老的游牧文明被现代文明蚕食直至消亡的历史。鄂温克族这一民族仍有后裔,但是不再放牧驯鹿、不再居住在乌力楞,也不再有萨满了,这实际上意味着这一文明的消失。 鄂温克族的生活是相当有秩序的。他们分布在一个个乌力楞中,逐水草而居,有自己的神明。每个部落各自有酋长和萨满,一个酋长死后会推举新的酋长,一个萨满死后三年会自然诞生一名新的萨满。...

阅读全文

量化实习 v2丨Day -1:大结局 & 复盘

距离职仅剩最后几日了,三个月的时间过得真快。 最后的时间里,带教没有再给我安排策略研究的工作,而是让我对数据再作一番筛选,算是用任务填充一下离职前的工作空窗。但我心猿意马,已经在考虑下一段实习的投递,因此大部分时间无心工作,转而刷了十几道 LeetCode 题。 既然如此,这几日的实习日记也就不写了,不如好好总结一下这段时间的经历与思考,复盘一下成功与失败的...

阅读全文

量化实习 v2丨Day 54:就这么着吧

尝试对策略进行风险管理,但是几无思路。上网找了一些资料,尝试了两种方法,一种是根据策略回撤来决定是否开平仓,一种是根据各品种净值回撤来调整各品种持仓权重。但是无论是哪一种方法,效果都不好,只会导致原本的夏普比率下降。这样做真的有意义吗? 把当前工作写了文档发给带教,带教让我先把黑色和有色的数据再筛一遍。感觉这段时间确实没学到什么……而且筛数据的事情现在另外两...

阅读全文

量化实习 v2丨Day 51:周五综合征

上午提交了一下因子代码,但是下午带教让我再多想想,把夏普进一步提高一下。 然而今天是又一个周五,慵懒的气息弥漫在办公室里,加之下午又困困的,实在是不想再工作了,于是读了一篇关于高频交易的科普文章,读到一半真的开始打瞌睡了,于是又刷了刷手机,决定把下午就这么消耗掉算了。 对着日历算了算,今天结束之后,在这家公司的时间就只剩一周多几天了,时间过得真快。回头想一想...

阅读全文

量化实习 v2丨Day 50:不合预期但确实神奇的期限结构因子

今日花了一天时间,好好检查了一下数据和程序逻辑,重点检查是否使用了未来数据;接着将目前为止所做的工作写了一份报告提交给带教,真够折腾的。 尽管做策略的时候已经很小心了,但是果然还是在不经意间引入了未来数据。而罪魁祸首就是 pandas.DataFrame.resample() 这一方法。 pandas 的 resample() 之谜使用这一方法的场景是,由于...

阅读全文

量化实习 v2丨Day 49:更高、更快、更强

今天仍旧在处理期限结构因子,但是大部分时间在做另一件事儿:优化回测框架的 Position 类的性能。 起因是在研究策略的时候,发现用自己开发的回测框架运行常常耗费大量时间,一次回测甚至要 3 秒。究其原因,发现性能瓶颈主要出现在 Position 类生成持仓数据的过程。这个过程会在一个 for 循环中处理每一日的持仓,而且仅使用 pandas 的方法来处理...

阅读全文