本文不是讨论如何使用量化基本面分析法预测公司股价。而是以郝伯特·西蒙的过程理性理论结合AlphaGo算法步骤探讨量化基本面分析法的分析方式。
量化基本面分析法(Quantamental)将量化和基本面两种方法结合起来,是近几年随着市场电子化、大数据、自然语言处理技术快速发展产生的新的基本面分析法。现在已经是DT时代,发挥海量数据价值已成为可能。以下讨论都是假设已合法的收集相关数据包括交易、消费、关注度、GPS、卫星数据等等。
一、基于大数据的量化基本面分析法一定有更好的预测吗? 一般来说,我们会将整个经济看作一个大的动态市场系统,其中又会分割为一些子市场系统,可以认为每一个子市场系统中参与方与相关变量彼此之间的联系要比其他子系统中变量的联系要更强些。所以每个子市场系统中的参与方以及变量独立于其他子系统相对均衡动态移动。
短期均衡及每个子系统显著主导的行为往往是波动而不可预期的。但长期动态均衡往往是可预期的,既虽然每个子系统中的变量一起动态移动,但保持了每个子系统间的相对均衡。既从微观角度考虑的时候现象是变化的,而从宏观角度考虑时,现象是不变的。现在基于之前的数据假设,我们有了关于各个子市场系统方方面面的数据,自然可以更好地统计长期动态均衡中那些稳定的关系,从而得到更加可靠的基本面分析结果。
但与此同时,我们也能听到另一种声音。在《信号与噪声》[1]书中,作者认为在大数据时代信息量呈指数增长,需要验证的假设也正在以同样的速度增长。数据中那些有意义的因果关系组合少之又少,增长的速度也不及信息本身的增长速度快。大多数数据都只是噪声。人们很难从干扰他们的噪声中分辨出有用的信号。
数据展示给我们的通常都是我们想要的结果,而且我们通常也默认这种皆大欢喜的结果。作者纳特•西尔弗还引用莎士比亚剧作中的话“人们照着自己的意思解释一切事物的原因,实际上却和这些事物本身的目的完全相反”。更大量信息能帮助我们更好预测吗?
当然我们知道,通过深度学习和大数据,一定能得到一个更优的模式识别效果。但前提是我们假设未来和历史特征向量是符合同一概率分布。未来当然不会和历史是同一概率分布,就像彼得·林奇说的“你无法从后视镜中看到未来。”哈耶克也说过“我们做出的预测有可能被否定,因为他们只具有经验的意义。”这里也不想用深度学习成果来证明大数据在预测方面的效用。
纳特•西尔弗在其书中接下来说:”信息只有在恰当的环境下才会成为知识,没有环境,我们就无法从噪声中区分信号,不断犯错,不断尝试,这或许是贝叶斯定理应用起来最容易的一个原则:进行大量的预测。”[1]”贝叶斯定理告诉我们,任何时候获得新信息,我们都应该更新自己的预测。
简单地说就是,不断犯错,不断尝试。真正’拥有’大数据的公司,比如谷歌公司,并不会在建立模型的问题上花费太多时间。它每年会进行上千次实验,并在真正的客户身上检验它的想法。”[1]在谷歌等互联网公司都会有完善AB测试框架,以方便不同功能快速部署AB测试,通过客户使用效果反馈不断迭代完善功能。我们知道AB测试本质上是个分离式组间实验,不断获取客户反馈既新信息持续优化模型效果。
同样我们可以认为基于大数据的量化基本面分析法,不只是用大数据补充之前基本面分析法所用数据不足,其也是通过量化和更及时的数据不断修正预测模型的过程。
二、基于过程理性的量化基本面分析法 接下来,将以郝伯特·西蒙的过程理性理论结合AlphaGo算法步骤探讨量化基本面分析法的步骤[2][3]:
1.设想可选方案集合,以及可能后果集合。 还是基本面分析法经常需要分析的那些问题,包括上下游、销量、成本、利润、财务比率等。设想不同预测值下的可选方案与可能后果。
2.评估可能后果集合的概率。 以上两步,过程理性和贝叶斯定理要求基本一致。都需要基于历史统计得到各可选方案的概率。这种预测被称作“初始观点”。”从理论上讲,我们希望将初始观点建立在过去的经验最好是社会经验的集合之上。”[1]
3.改进预测的数据,获得新数据,从而改进预测模型。 新信息和原有信息结合起来的理性过程也是应用了贝叶斯定理。同样,基于大数据的量化基本面分析法可以更及时的收集最新数据以及结果反馈来改进预测模型。
4.预测模型结果将会影响可选方案集合,以及可能后果集合,从而持续优化决策过程。 持续优化的预测模型,即是一个预期过程,可以进一步减少不确定性以及消剪了行动域即可选方案集合。这点本质上也是缓冲预测误差影响,和量化中动态对冲,不断调整风险敞口的方式是一致的。
|