竞价人员不懂如何进行数据分析?掌握这一篇文章足矣

文章汇聚多年的数据分析心得,值得一读。首先表明身份,本人从事互联网运营工作,需要定期对新媒体、网站等平台的数据进行复盘,电脑操作系统为 Win7 64bit,分析过程不涉及编程及专业分析软件,主要依靠 Excel 2013 和 WPS。接下来以网站数据(为保密,部分展示数据已处理)分析为例,谈谈我在数据分析方面的一些浅显看法。(本文从网站数据分析展开,但操作方法及思路同样适用于推广后台数据,经验可供借鉴)▍数据获取01.数据来源平台的选择多数中小企业通常会直接外挂第三方统计软件,像 GA、百度统计、CNZZ、51la 等等,尽管这些统计平台的功能大体相似,但统计数据仍存在细微差别。我曾在百度统计和 CNZZ 两个平台的选择上纠结过一段时间,后来干脆两个都用,当作双重保障。在日常分析中我更倾向于 CNZZ,但倘若你的网站参与了百度竞价,那么百度统计则是更优选择。如今的统计代码基本都是异步加载,无需过于担忧速度问题,倘若你仍感到纠结,那就像我一样两个都用。 02.本地保存“即时数据”统计软件的后台通常会保存大部分数据,比如 CNZZ 的来路页面、受访页面等,基本不受时间限制,随时能够下载。但要留意那些需要即时保存的数据栏目,比如 CNZZ 后台的“访问明细”,该栏目仅保存最近 7 天的数据,这意味着倘若你稍有疏忽,放个长假回来,数据可能就找不回了。所以,类似的“即时数据”,务必要保存至本地。 03.下载数据格式选“.xls”在统计后台需要下载报表时,通常会出现下载格式的选项,CNZZ 有.csv 和.xls 格式,百度统计有.csv 和.pdf 格式。pdf 数据自带图表;csv 为纯文本数据格式;xls 为 Excel 专用,更便于进行数据分析。其中.csv 文件和.xls 下载后,数据的外观极为相似(这里有个陷阱,后文会介绍避坑方法)。由于 csv 文件属于纯文本数据,并非数值,所以无法进行数据求和、求平均值等操作,只能计数!倘若不小心使用了.csv 文件,一定要先处理为数值,否则在后期进行数据分析时,可能会出现无法正确统计的情况! 04.多页数据采集及合并当你需要保存在线数据时,需要留意一个小细节,例如 CNZZ 的“访问明细”栏,右上角显示的下载按钮是“下载本页报表”,而其他栏目的下载按钮是“下载报表”,下载报表时不论当前显示多少页,系统默认下载所有页面数据,不会有缺失。而下载本页报表就仅下载当前显示的页面数据。我曾在这上面吃过亏,分析数据时发现明显少了很多,一看原来是只下载了一页的数据,等再想下载时,服务器数据已超过 7 天,无法获取了…下载每页报表,会面临两个问题:一是当网站访问量较大时,访问明细数据的每一页都需要点击下载。我目前的解决办法是使用“火车头采集器”,模拟人工点击,下载每页数据;二是自动下载的数据每张都有表头/尾,人工合并会非常累。可以使用 Excel VBA 功能,不过我采用的是“慧办公”插件的合并多表功能(有次数限制,需购买)。这两个问题,

图片[1]-竞价人员不懂如何进行数据分析?掌握这一篇文章足矣-精准获客

若有更好的解决办法,欢迎告知。▍数据清理01.尽量避免对源数据进行修改我在进行数据分析时有一个原则,即“坚决反对直接对源数据进行修改”。首先,专业的统计软件在设计统计后台的数据时,已经经过反复筛选,所选取的数据能够满足绝大多数用户的需求。当源数据不符合你的要求时,千万不要在源数据中插入行和列,比如要插入日期列,请在数据表头或者尾进行插入。因为每次保存数据时,都是直接从下载好的表格中粘贴数据,在源数据表中多出任何一行或一列都会增加你的操作成本。我曾经为了让数据看起来更直观,将下载好的源数据两列值的位置进行对调,最终导致每次粘贴数据时都要先调整列的位置。尤其是有一次进行工作交接,我忘记提及这个细节,交接人员没有注意到位置与源数据不一致,从而导致分析出错。也就是说,尽量减少对源数据的人为干预,这样既省心又省力。 02.将坑人的 csv 转化为数值在数据获取部分我提到了有关源数据为.csv 格式的问题,倘若你能提前知晓并避开这个陷阱自然最好,但若已经陷入其中,该如何处理?我最初下载源数据一直使用 csv 格式,因为 csv 文件较小,下载速度快,最终在进行数据分析时却傻眼了。那么已经保存为 csv 格式的数据怎样才能转变为数值呢?答案是利用 Excel 的分列功能。1)在 Excel 中打开源数据表,复制部分数据到.txt 文本中,观察源数据所使用的符号; 2)选中某列数据,点击导航栏“数据”—“分列”;3)下一步,如图中的数据分隔符是“Tab”+“"”,则选择 Tab 和其他两项,继续下一步; 4)选择目标区域(要复制到何处),完成操作。▍如何制表01.报表是思考成果的呈现我发现在工作中,存在部分小组制表人和分析人并非同一人的情况。这很可能导致成员在分析报表时变成了“看图分析”而非真正的“看数据分析”。制表的基础在于制表人必须清晰地了解源数据的来源、获取方式以及如何从数据转化为表格,在转化过程中是否因美观需求而隐藏了某些内容等。要牢记报表的作用是将分析人的思路更简洁地展示给他人。所以我建议,制表人应由分析人本人担任。不要以浪费时间或不熟悉办公软件为由拒绝,熟练掌握办公软件,我认为是运营人员的基本素养。思路的展现逻辑通常为“总分总”,以网站分析为例,我的框架是:流量趋势→来源渠道→渠道 1 明细→渠道 2 明细…→来路分析→受访分析→搜索词→外链。 02.制定表格规范在制表过程中,不少同学的表格制作较为随意。图表展示乱用,用折线图表示百分比关系?用折线图进行数据对比??要为数据选择最为合适的展示图表类型,在比较数据间的差异时,使用条形图;表示不同项在总体中的占比时,使用饼状图;反映事物的变化时,使用折线图;观察不同项目的长短板时,使用雷达图…还有其他诸如符号使用规范、配色规范等,在此不一一列举。总之,秉持“方便他人”的理念即可。03.数据分析后务必给出可执行建议不可否认,很多人将数据制成表格只是为了炫耀,让别人觉得厉害。但作为专业人员,始终要记得“报表只是思考结果的展示”,最为重要的是通过数据分析得出了哪些对今后工作具有指导意义的建议,以便他人能够直接按照建议执行,并取得良好效果。例如,观察数据发现“本周的 PV 大幅降低”,没有指导意义的说法是“增加文章更新频率”。虽然这种说法没错,但真正具有指导意义的应该是先分析 PV 下降的具体原因,找到原因后有针对性地解决,而非仅仅说“增加文章更新频率”这样一个大方向。将报表制作得美观是一种能力,但美观终究只是表面。只有真正具有指导意义的建议才能长久地令人信服。这一步难度较大,但一旦做到,你就绝非只是一个普通专员。04.透视表,实现降维打击早前我使用 Excel 进行分析时,基本都是直接运用基本的筛选、公式(sumif、countif、sumproduct)、条件格式等,虽然操作逐渐熟练,速度也越来越快。但想象一下,当需要对比源数据中两天某一项数据的差异时,可能需要先添加三列辅助列,然后使用 countif 函数对两列进行计数,第三列使用减法并加上颜色的条件格式。那么如何对比两个月的数据呢?使用 sumproduct,多添加几个条件??我建议尽早学习透视表功能,使用 Excel 的“数据透视表”功能后,能力大幅提升,“对比功能”“创建组”功能,用起来简直爽到爆!哪里还需要繁琐的公式?刚开始可能会觉得麻烦,但只要记住“‘列’放对比项;‘行’放分析项;‘值’放数据结果项”。不懂的多尝试几次,自然就熟悉了。花费几个小时,能够节省使用 Excel 基本功能时 80%的时间。另外,对于 Excel 的学习,基本功也不能落下,对于数据的基本函数和条件格式,运用得当也能事半功倍。▍分析要素01.日记:记录当天特殊情况于趋势表中作为网站运营人员,每天上班的首要任务便是大致浏览一遍昨日的统计数据。在日常工作中,要密切关注不同小组是否进行了可能对网站流量产生重大影响的工作。比如 EDM、活动运营开展了线上活动、内容运营抓取了某个栏目的文章、技术人员对某个栏目进行了改版等。这里存在沟通问题,本部门作为各平台的负责人必须事先强调提前通知的重要性。虽然事后能够通过数据进行反推,但可能会导致思考过于发散。将每天收集到可能影响网站数据的情况“批注”在趋势表中,等到周报时进行数据对比,会方便许多。 02.峰值:高峰、低峰均不可松懈在面对图表进行分析时,峰值最为显著。然而很多人只分析不佳的低峰而忽略高峰,对高峰随意代入。面对峰值时,首先要缩小粒度。例如观察到 8 月 8 日出现低峰,那么再查看 8 月 8 日当天哪几个小时数值降低,接着分别筛选出这几个小时的来访及受访数据,逐一进行分析,查找根源。找出低峰的原因,以便今后避免;对于高峰,同样找出原因,今后重现,并验证所找到的原因。 03.对比:限定变量,同轴对比在上文中提到了“制定表格规范”,其中对比规范的核心在于要同轴。比如数据对比的坐标轴不能随意改变,这周记录的是星期一到星期天,对比的就是本周和上周;下周记录的变成了星期三到星期五,对比的则是上半月和下半月。坐标轴必须依照表格类型来,周报告就以周报告为轴,对比的也是本周 7 天和上周 7 天的数据。若有特殊情况需要在周报告中显示更长的时间段,也请固定该时间段。频繁更改坐标轴或者完全混乱操作,不仅会影响报告的可读性,还可能导致分析人员分析出错。 04.经验:铭记周期性现象,此乃你的财富什么是周期性现象,比如“每逢节假日流量下降”、“每逢周末流量下降”、“每周三 9 点 PV 暴增”等等,多次重复并在数据波动上有所体现的情况。针对平台运营,记住所有的周期现象,这就是你今后工作比他人更专业的经验来源,能够为企业节省大量的试错成本,节约的人力物力就是你的价值所在。但需注意的是,周期性现象也是有“周期”的。互联网时代知识更新迅速,切勿守旧,经验也可能存在误导。05.反常:事出反常必有因什么是反常现象,比如多数网站在中午 12 – 14 点间,流量都会因网民需要休息而显著降低,且 PC 流量降低,移动流量骤升。但倘若某一天,或者某一周的 12 – 14 点流量突然大幅增加呢?反常现象就是周期性现象的变异,当多次出现反常现象时,找到原因后就要开始重新审视周期性现象是否发生了变化,是政策变化;是环境风向变化;还是平台规则变化等。▍理论误区01.猜测不等同于结论在进行数据分析时,先查看日记中记录的行为,再对比数据结果,查看记录该行为的同时是否产生数据波动,如果数据波动符合日记中的行为常识,那么可以大胆猜测该项数据变化是由该次行为导致。接着需要做的是通过数据来验证它,而不是武断地认为数据波动就是这个行为造成的。举个例子,某次公司派同事去路演,路演 PPT 尾页留有微信公号的二维码。结果在进行数据分析时,发现当天微信新关注数量剧增。随后运营人员未经验证就直接武断地将新增用户的效果归因于路演,甚至得出要多参加路演的指示。但最终在数据分析时,发现当天新关注数的增长来源是“名片分享”而非“扫描二维码”,后来一问才知道,是社群组的同事进行了一次小范围的社群名片互动。始终要记住“猜测不等同于结论”,提出猜测后,要进行证实。当遇到实在无法找到根源的问题时,先暂时放下,记录下你的猜测,寻找机会再进行验证。02.深入分析,结论或许为假前文提到了“猜测不等同于结论”,这里面存在连环套。由于数据分析工作面对大量数据,时间一长,人难免会变得焦躁,尤其是在长时间找不到原因时,很容易得出错误结论。举个例子,某次分析网站数据时,对比发现有一天网站的 PV 大幅增加,缩小粒度后发现数据增幅集中在当天 14 – 17 点,然后开始分析“受访页面”的访问次数,进行排序后,发现某个栏目 PV 剧增,询问部门同事后才知道是因为内容运营开启了爬虫,抓取了大量的信息流,提高了 PV 量。此时,如果不仔细思考很容易得出“PV 剧增是因为内容组抓取大量内容导致”的表面结论。因为回到问题中,原现象是“14 – 17 点,PV 剧增”,现有的表面结论并没有按照小时粒度进行分析,最终分析 14 – 17 点的小时数据时,发现原来是因为这三个小时来了一位新访客,浏览了多篇资讯文章,并且浏览了所有栏目。所以最终 PV 剧增的原因应该是“新访客浏览整站”和“内容组开爬虫”共同作用的结果,而非单一因素。在实际工作中,人们很容易只看到第一层表象就得出结论,时刻记住要深入分析,思考现有的结论是否已经细化到最小粒度,是否可能是个陷阱?▍结语&题外话01.当你的某项工作长期毫无进展,怀疑源头试试以数据分析为例,分析人员有时会出现反复分析却始终无法得出结论的情况,导致这种现象的原因除了上文提到的“csv 格式”等操作问题外,还有可能是数据源本身存在错误。不要认为机器一定正确,比如 CNZZ 后台统计“来源分类”时,四个来源渠道数量相加不等于总和。这里面有部分来源是后台无法统计到的,所以未被计入。也会出现下载数据表格时,后台出错下载一张空表,在合并时就会出现大问题。所以适当地怀疑源头,或许会有意外的发现。02.三方平台不可靠?那就自行搭建刚才提到了统计后台出错的一些情况,当后台出错的频率较高时,会降低运营者对统计软件的信任度。一旦对源数据的正确性产生怀疑,工作起来必然不会顺心。既然三方平台不可靠,有实力的话就让公司的技术人员自行搭建后台。在技术人员能力过硬的情况下,不仅可靠,而且扩展性强,分析粒度更细(例如 CNZZ 无法统计用户行为路径),能够完全按照运营人员的数据要求进行定制,为后期为用户建模提供全面的数据支持。03.数据不会发声,但你要负责在数据分析过程中,你会逐渐发现许多乐趣。第一次学会使用 Excel 中的某个函数时的得意、第一次了解透视表时的兴奋、第一次制作 PPT 受到称赞时的喜悦…你会遇到很多陷阱,也学会了很多小技巧。会从新手成长为高手,能够轻易地运用某些小手段,掩盖真实数据的缺陷。这些,数据永远无法开口说明,但你要对自己负责。每一次未经深思熟虑得出的结论,或许能忽悠到外行,但最终会被打脸。04.乐于分享,永远保持好奇终于写到最后了,这几年在数据方面走过的路都化为了这些文字。保持对知识的敬畏,一直是我的理念。或许某天你还在为自己的某个发现沾沾自喜时,却发现不过是坐井观天。希望能与朋友们共同学习,倘若你对上述观点和方法有不同的看法,欢迎大家一起探讨,去见识更广阔的世界。

THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容