数据预处理是重要的,包括重复值、异常值/缺失值/极端值的处理,以及标准化和数据频率的处理。常用的处理方法有三倍标准差法、绝对值差中位数法、Z-score标准化、最大最小值差标准化、排序百分位以及数据频率的下采样和上采样。
原文来源:mirror
原文作者:LUCIDA & FALCON
书接上回,我们发布了《用多因子策略构建强大的加密资产投资组合》系列文章的第一篇 - 理论基础篇,本篇是第二篇 - 数据预处理篇。
在计算因子数据前/后,以及测试单因子的有效性之前,都需要对相关数据进行处理。具体的数据预处理涉及重复值、异常值/缺失值/极端值、标准化和数据频率的处理。
诊断重复值的首先需要理解数据“应当”是什么样子。通常数据的形式有:
原则:确定了数据的索引(键),就能知道数据应该在什么层面没有重复值。
1.百分位法。
通过将顺序从小到大排列,将超过最小和最大比例的数据替换为临界的数据。对于历史数据较丰富的数据,该方法相对粗略,不太适用,强行删除固定比例的数据可能造成一定比例的损失。
2.3σ / 三倍标准差法
标准差 体现因子数据分布的离散程度,即波动性。利用 范围识别并替换数据集中的异常值,约有99.73% 的数据落入该范围。该方法适用前提:因子数据必须服从正态分布,即 。
其中,, ,因子值的合理范围是。
对数据范围内的所有因子做出如下调整:
该方法不足在于,量化领域常用的数据如股票价格、token价格常呈现尖峰厚尾分布,并不符合正态分布的假设,在该情况下采用方法将有大量数据错误地被识别为异常值。
3.绝对值差中位数法(Median Absolute Deviation, MAD)
该方法基于中位数和绝对偏差,使处理后的数据对极端值或异常值没那么敏感。比基于均值和标准差的方法更稳健。
绝对偏差值的中位数
因子值的合理范围是。对数据范围内的所有因子做出如下调整:
1.Z-score标准化
2.最大最小值差标准化(Min-Max Scaling)
将每个因子数据转化为在 区间的数据,以便比较不同规模或范围的数据,但它并不改变数据内部的分布,也不会使总和变为1。
3.排序百分位(Rank Scaling)
将数据特征转换为它们的排名,并将这些排名转换为介于0和1之间的分数,通常是它们在数据集中的百分位数。*
其中,, 为区间内数据点的总个数。
有时获得的数据并非我们分析所需要的频率。比如分析的层次为月度,原始数据的频率为日度,此时就需要用到“下采样”,即聚合数据为月度。
指的是将一个集合里的数据聚合为一行数据,比如日度数据聚合为月度。此时需要考虑每个被聚合的指标的特性,通常的操作有:
指的是将一行数据的数据拆分为多行数据,比如年度数据用在月度分析上。这种情况一般就是简单重复即可,有时需要将年度数据按比例归集于各个月份。