辛普森指数 万字干货 数据分析的基本方法论 收藏了慢慢看

栏目:军事 2021-10-12 16:59:33
分享到:

“为什么-做什么-怎么做”是一个很好的解释概念和执行的思维模式。这一次,按照这个框架,“数据分析”是拆分的。相信很多朋友都有丰富的分析经验,所以要从个人角度进行梳理,以供参考。为了帮助大家更好地理解这篇文章,先贴一张思维导图:

目前大部分关于数据分析的文章都忽略了数据分析本身的目的。这将导致我们在执行时动作的变形。只有以终为始,才能保证不跑路。个人认为,数据分析就是对业务问题进行量化分析,得出结论。有两个关键词:量化和商业。

先说量化。量化就是统一认知,保证路径可追溯可复制。只有统一认知,不同层级、不同部门的人才能在话语权平等、方向一致的背景下展开讨论和合作,公司里的人才能避免用“我感觉”和“我猜测”来猜测当前的经营情况。路径是可追踪和可复制的,这意味着许多优化方法可以通过量化的结果被发现和复制。同样是转化率优化。可以预测谁会得到更好的结果,使用方案A和方案B会取得多少更好的结果..

要量化,需要做好三件事:建立量化体系,明确量化重点,保证数据的准确性。

1.1建立量化体系

量化体系的建立主要是基于“指标设计法”,设计业务的“核心指标+拆解指标+业务指标”,最后放入全公司通用的“指标字典”和“维度字典”。这类工作通常由数据分析师或数据PM来完成。这样就可以初步建立起全公司全面系统的量化分析框架,保证日常分析能够“层层拆解,不重复不泄露”。

1.1.1指标设计方法

说到索引设计方法,你可能会觉得以前听过产品设计方法、程序开发方法、索引设计方法。事实上,指数设计是一种以准确性和可理解性为标准的方法,它整合了统计和商业效果。

准确是指能准确满足测量目的,通俗易懂是指指标算法能直观地表现好与坏,指标算法也能通俗易懂。两者之间总有一个选择,准确第一。例如,当我们想要衡量一个群体的收入差异时,我们是使用方差还是基尼系数?方差很容易理解,但不能说明两个极端有多大的不同。基尼系数算法很难理解,但它可以准确描述这个问题。

具体到指标设计,我们需要用到一些常用的统计工具:

以客户质量分析为例:概况是我们看客户的平均支付金额或支付中位数来了解客户概况。想要知道这些客户的质量好不好,需要用方差和标准差来描述。如果想了解更多的细节,可以了解每个区间的用户数量来做判断。

这里有一些提示供你参考:

以下是每个提示的目标的简要说明。之所以采用比率指标和伴随指标,是因为它能清晰地反映业务的“效率”,有效防止因追求单一指标而导致的动作变形。如果这辆车能跑10万公里,并不代表这辆车有多好。只有“速度=距离/时间”才能体现这款车的效率。同时,如果单方面追求速度,会导致车的剑在设计上误入歧途,给驾驶员带来危险。因此,需要增加“故障率”或“事故率”等伴随指标,以确保安全。

不良指标中的“虚荣心指标”最早出现在《精益数据分析》一书中,作者简单地将“PV/UV”等指标归为虚荣心指标。刚开始的时候我是认可的,但是后来在实际应用过程中,我发现这些指标对于监控很多业务来说是无法避免的。后来我把“虚荣心指数”修正为“把离业务目标太远的环节定义为核心监控指标”。对于一个即时通讯APP,需要监控下载次数、启动用户和注册用户,但不能作为核心监控指标。更合适的是消息数或“有过对话的用户数”。复杂的指标往往是各种各样的“指标”,很多指标是加、减、乘、除,这就使得此类指标波动时很难分析原因。

拥有定义和解释指标的权利是一件非常高级的事情。这就要求设计师对业务有很深的理解,有很高的抽象能力。对于分析师来说,拥有定义指标的权利将突出你在业务方面的重要性。当然,这并不是鼓励大家为了定义指标而定义指标。找到行业内现有的量化方法并在公司推广也是一件很棒的事情。

以美容外卖“美容主厨率加权指导值”为例。为了避免泄露商业秘密,将原本用来衡量用户体验的指标改为“Beauty Chef Rate”,并对下面的背景略加修改,让大家都能理解其中的精神。指标的背景是保证用户的用餐体验,美团外卖总部提出每个城市的商家必须配备一定比例的美团厨师。但是城市提出反对意见:不同的城市有不同的商家,大商家厨师多,美女厨师率相对较低,不可能用一个统一的数值来比较所有的城市。所以总部设计了这样一个指导值:全国的商家会分层,每一级的商家拿到全国平均值,然后每个城市对照基准平均值产生自己的基准值,也就是美女厨师率的加权指导值。虽然在计算上有点复杂,但在实际应用过程中,BD人只需要知道整体差距和各层业务的区别,就很容易做出针对性的落地和优化。

1.1.2建立指标体系

按照“指标设计法”,如何围绕业务建立指标体系?核心是根据业务特点确定核心指标,在核心指标的基础上从不同角度进行拆解。然后慢慢补充其他业务的指标。

拆卸时,需要根据指标而不是尺寸进行拆卸。例如,订单数量也可以细分为每个类别的订单总数。这可以通过保持上层和下层的索引名称不一致来避免。拆卸过程遵循“层层拆卸,不注意泄露”的金字塔方法论。如果业务拆解或补充的指标太多,可以借鉴数据仓库中“域”的概念来管理这些指标,比如上图中的“交易域”、“商品域”、“用户域”。

在标准的索引系统中,涉及了元数据管理领域。包括索引命名的规范、数据存储和计算的管理等。如果你感兴趣,可以搜索相关文章或者阅读阿里巴巴新推出的《大数据实践之路》。下面,我们将截取一份来自云起会议的PPT,为大家讲述指标的命名标准:

1.1.3建设指标维度词典

这里是转让公司前期的指标维度字典,一定程度上解决了之前公司指标定义不清或者不一致的问题。现在这套东西已经产品化了,可以在可视化产品中查看和展示。

对于暂时无法生产产品的公司,建议分析师可以通过Google Docs或Wiki统一维护一些关键的、常用的指标。

对于维度总线矩阵,主要是通过维度为数据仓库建模、数据产品设计和多维交叉分析提供框架和基础。

1.2明确量化重点

在每个阶段,应该明确定义当前的业务优先级。量化体系需要根据业务阶段改变量化重点和方法。同时也意味着有了更详细的指标和更大的监测推广力度。

比如外卖行业早期,经历了重视订单号、订单金额、新客户数+补贴率、新客户数+资金使用效率的过程。我们可以看到,随着战争阶段的升级和变化,我们开始考虑新客户的数量,同时控制补贴,随着战争趋于正常,我们开始控制整体补贴额度,通过争取效率来击败对手。在每一个阶段,都需要根据不同的战场情况来判断当前的焦点,从而建立一个围绕焦点无死角的360度分析监控系统。

1.3保证数据的准确性

在数据准确性这个话题上,数据产品已经有了成熟的数据质量管理方法,涉及到数据源的监控、指标的计算和数据的呈现。本文主要从分析师的角度阐述了保证准确性的方法,不会重复数据产品。

本文重点介绍Double Check的技巧,它可以让很多管理者或投资者在不了解业务的情况下判断数据是否有问题。

震级检查:每个数据都有其大致的范围,如DAU、WAU和MAU。

计算逻辑Check:一般对于积分偏分,比如市场份额,必须满足以下要求:1。最大值不能超过1;2、各部分之和应为1;3.两个数相加后,总和应该在中间范围。

业务知识检查:根据其他常用数字计算业务范围。如果有人告诉你某个社交APP的DAU过亿,你大概就知道你是不是在吹牛了,因为只有少数几个APP的日活过亿。对于DAU/MAU,所有行业都有响应范围值,淘宝为34.6%,天猫为15.5%,JD.COM为15.8%。

1.4从业务方面来看

除了“量化”,另一个关键词是“经营”。只有解决业务问题,分析才能创造价值。价值包括个人价值和公司价值。对于公司来说,你提高了收入水平或者降低了业务成本;对于个人来说,你知道如何利用数据解决业务问题,这对个人的能力成长和职业生涯有很大的帮助。

总结一下,如何从业务方的角度去思考,就是八个字:“操心他们的心事,给他们想要的”。这不仅适用于分析师的职位,对于供应商来说,在所有以供需为主要关系的互动过程中,准确理解对方的需求才是最重要的。比如PM是给用户的,分析师是给业务方的,下属是给上级的。

在具体的落地过程中,主要是在以下几个环节

在沟通中,确定业务方想要分析什么,提出更合理、更专业的度量和分析方法,同时做好节点同步,避免一路走黑。在分析业务需求时,它类似于许多产品需求分析方法,因此有必要阐明所需数据背后的含义。比如业务方说要看“页面停留时间”,但他实际想要的可能是衡量用户质量,所以“留存率”和“目标转化率”是更合适的指标。

在阐述分析结果时,要记住结论要先来,层层解释,再提供论据。在参数上,图>表>文本。因为业务方或者管理层的时间有限,一大封邮件就扔掉了,没人在乎看你分析了什么。需要在邮件前面用1-3句话给出结论,让需求方不用看后续内容就能知道你报告80%的内容。

关于“提供信息量及落地建议”,首先要明白信息量是什么意思:提供对方不知道的信息。明天太阳从东方升起,这不是信息,而是在西方。在分析的过程中,一定要从专业的角度,从已知的边界向未知的边界进军,争取一个新的、扎实的论点,并根据分析内容给出可以落地的建议。举个简单的例子:

寻求反馈是很多分析过程中缺失的一步,数据分析后没有持续的跟进。那你不知道你做得对不对。反馈就像一面镜子,可以让你及时调整和优化你的方法论。

数据分析的本质是把握“变”和“不变”。

“变”是数据分析的基础。如果一个企业每天订单1万单,或者每天以10%的速度稳定增长,就不需要分析了。要想把握“变”,首先要形成“不变”的意识。

积累“不变性”就是发展“数据常识”的过程。“不变性”是建立在对历史数据不断观察和积累的基础上的。一般来说,会是一个范围。范围越精确,你对变化就越敏感。有三个个人习惯可以帮助养成“不变”:

大多数指标不需要记住所有的数字。只需记住大数字,10000以下只有10000位数字,有些数字只需要记住百分比。指标之间的计算可以帮助你梳理出每个指标的数量级关系和逻辑脉络,在波动发生时使其更加敏感。记录关键数据是将工作和生活中遇到的有趣的列表或数据报告保存在统一的地方,便于参考和分析。

在“不变”的基础上,可以逐步培养指标敏感性,即实现指标偏离的能力。这主要是通过周悦的各种日常监测和同比监测以及日常好奇心来维持的。

下面是一段管理林元帅的野史:林彪领导军队,每一次战役中缴获、歼灭敌人的数量和种类都记得清清楚楚,这是一种习惯。1948年,在辽沈战役中寻找对方指挥官的过程中,发现一次遭遇战的战报数据略有变化。他认识到了与过去“不变”基础的偏差:缴获的短枪和长枪的比例,缴获和销毁的汽车和大车,缴获和击毙的官兵比其他战斗中的稍高。他根据这个偏离指数,迅速圈定了对方指挥所的位置,一举打下了对方的大本营。

从QuestMobile年春季列表中,让我们简单了解一下“指标偏差”是如何应用于日常分析的:

在这里,让我与您分享如何看待这个列表:

在这里我试着抛出几个问题:

新浪新闻甚至比腾讯新闻还高?今天的头条比一点信息都低?

第二枪比Aauto快?

百度地图在榜单上高于高德。为什么于永福敢宣称去年活跃终端数量第一?

QQ的时长已经连续活了两个季度两个月了。有什么意义吗?

按增长速度排序,王者荣耀最快,其次是今日头条、Aauto faster和高德地图。既然高德还是一款快速增长的APP?

数据分析的定义和国外商业分析书的定义用作脚注:

任何数据分析都是“细分、对比、溯源”的不断交汇。细分和比较最常见的维度是时间。我们用时间开展周月同比。发现数据异常后,我们对维度或流程进行细分,一步步拆解,找到问题所在。如果发现某个维度的问题,需要追溯到业务端或者真实端,确认问题的来源。如果经过反复细分和对比,问题仍然没有得到确认,则需要追溯到业务日志或用户访谈,进一步了解情况。

3.1细分

以下内容在之前关于大数据和用户的研究中略有提及,这里做一个总结。就细分方法而言,主要有三种方式

交叉,以转身为例,我们对维度和指标进行分类交叉。当某类指标出现问题时,我们知道要分析哪个维度。在横切分析中,经常需要跨越多个维度。这在数据分析方面叫做跨多维分析。这也是刚才提到的“维度总线矩阵”中看到的各个维度的交集。

在纵向切割中,如果有目的和路径,则使用漏斗分析。如果没有目的或路径,则使用轨迹分析。如果没有目的和路径,则使用日志分析。

漏斗分析可分为长漏斗和短漏斗。长漏斗的特点是环节多,时间周期长。常用的长漏斗包括渠道归因模型、AARRR、用户生命周期漏斗等。短漏斗目的明确,时间短,如订单转换漏斗、注册漏斗。在轨迹分析中,桑基图是一种常用的方法。常见于各页面的流转关系、电子商务中各品类的转移关系等。日志分析,通过直接浏览用户的前后日志,分析用户的每一个动作。

各种手段的细分经常交叉使用。例如,在纵向切割订单漏斗后,可以横切它以查看哪个维度的转化率导致了问题。

在内部,分析主要基于市场上现有的常见分析模型,如RFM、队列和细分。RFM是三个指标的组合,即最新购买时间、频率和金额,来判断用户的忠诚度和粘性。队列,或同期组分析,通过分析不同时期进入平台的新用户,区分不同新用户的质量,如留存率或目标转化率。Segment通过几个条件对用户进行分层,然后对不同的用户进行分层分析和操作,比如用户活动分层等等。

3.2比较

比较主要分为以下几类:

时间对比严格来说是一种横切对比。但是,因为时间维度在数据分析和产品中极其重要,所以应该简单提及。在交叉比较中,有一个众所周知的数据应用方法,叫做“排名列表”。通过这种简单粗暴的方式,我们可以驱使人们实现自己的目标或者占据人们的认知。前者有销售完成清单。后者有一个最畅销的类别列表。

3.3可追溯性

经过反复细分对比,基本可以确认问题。此时需要与业务方确认数据是否因为一些业务动作而出现异常,包括新版本的推出或者活动策略的优化。

如果仍然没有头绪,只能从最细的粒度开始,比如

用户日志分析

用户访谈

了解外部环境,如外部活动、政策和经济条件的变化等

3.4衍生模型

在“细分比较”的基础上,可以推导出许多模型。这些模型的意义在于,可以帮助你快速判断一件事情的关键要素,而不去关注它们。这里有几个供参考:

为什么-怎么-什么

5W1H

5为什么

4P模型

SWOT模型

PEST模型

波士顿矩阵

例如,最近,JD.COM和美国的交货时间可能会延长。针对物流相关的客户投诉增加,可以用PEST模型分析是否存在政治问题。当你对竞争产品做比较分析时,SWOT或4P模型可以为你提供不同的角度。

以上言论都是偏于《道法姬叔》的“术”部分,但以下是总结以上内容并结合实际工作的“术”部分。

4.1数据分析流程和场景

根据不同的流程和场景,会有不同的注意点和“艺术”的应用

4.2数据分析中常见的谬误

控制变量谬误:A/B测试时变量控制不好,导致测试结果没有反映实验结果。或者比较数据时,两个指标没有可比性。

样本谬误:在抽样分析中,选取的样本不够随机或代表性不足。比如,互联网圈的人会发现身边的人几乎不用“今日头条”。为什么这个APP还能有这么多页面浏览量?有一个类似的概念叫做幸存者偏差。

定义谬误:在阅读一些报告或披露数据时,人们往往会感到困惑。“网站访问量过亿”是指用户或页面访问量?

比率谬误:比率或比例指标的谬误可以单独提出来。一是每次谈到这类指标,都需要明确分子和分母是什么。另一方面,在讨论变化百分比时,有必要注意基数。即使有的人工资只涨10%,也可能是150万…

因果关联谬误:关联会被误认为因果,中介变量会被忽略。比如,发现冰淇淋销量与江河溪流中溺死儿童数量有显著相关性,于是责令其削减冰淇淋销量。其实可能只是因为两者都发生在炎热的夏天。天气热的时候,买冰淇淋的人越多,去河里游泳的人也明显增多。

辛普森悖论:简单来说,当两个不同的分组数据相加,在分组比较中占优势的一方将是在整体评价中失势的一方。

最后总结几句,这也是本文的核心思想:

结束。

精选干货