图片-精准获客

知乎蓝海:2000万流量机会的掘金指南

依据本地数据(知乎百度top3关键词)的不完全统计:

百度PC端关键词总流量达1亿2743万。

知乎实际获取的总流量为:1亿2743万×0.15(平均点击率) = 1911万。

仅看PC端,就有超2000W的流量机会摆在眼前。

在互联网领域,获取流量是赚钱的基础,如今流量比黄金还珍贵。事实上,我身边已有5位以上的朋友,在近半年内借助此次机会获得了6W – 25W不等的收益。我们只需勤劳的双手和清晰的思维。

那么,为何会有这个流量机会?流量机会具体指什么?我们如何从中获取流量?接下来,我将为你揭开流量的奥秘。

阅读提示:本文不同于市面上的“爽文”,按我的实际思路正叙,讲述如何“从0到1”,需边读边思考,建议拿出10 – 20分钟集中阅读。

1. 资本的游戏

江湖上流传着这样一段话:站长收割机、流量截胡达人百度daddy在2019年8月跟投知乎,由快手领头,随后百度对知乎提权,知乎流量不断攀升。

我看到这段话时,对其信息量存疑。熟悉传播学的朋友都知道,对于事情应关注事实判断而非价值判断。因为事实判断确凿且能达成共识,价值判断则依赖视角和立场,有多种解读。这里投资事件是事实描述,后续影响是价值描述。可网上关于这个简单事实的描述有N个版本,时间点、投资方都有错误。

验证后还会发现,百度也投资过快手,或许这是另一个机会。有时思路就是基于事实发散。那么价值判断方面,知乎流量是否真增长、是否真提权?

直接用数据验证(从投资时间点2019.8分段取爱站半年的数据,稍有误差不影响):

词量数据

图片[1]-知乎蓝海:2000万流量机会的掘金指南-精准获客

图片[2]-知乎蓝海:2000万流量机会的掘金指南-精准获客

图片[3]-知乎蓝海:2000万流量机会的掘金指南-精准获客

从词量数据能看出两点:2019年11月中旬起,流量跳跃式增长,词量从30W涨到270W,近10倍;2020年7月开始,流量增长放缓但仍呈上升趋势。

这些流量是如何增长的呢?来看收录数据。

图片[4]-知乎蓝海:2000万流量机会的掘金指南-精准获客

图片[5]-知乎蓝海:2000万流量机会的掘金指南-精准获客

图片[6]-知乎蓝海:2000万流量机会的掘金指南-精准获客

从收录数据可观察到:虽数据口径不同,但流量跳跃式增长期间,收录量无增长趋势,即原收录页面在对应搜索词下排名提升,提权属实。

图片[7]-知乎蓝海:2000万流量机会的掘金指南-精准获客

当已收录页面无法覆盖更多搜索词时,百度给知乎的定向流量将达临界值。

上述分析可能让人觉得像废话,因为结果和最初信息相似。这体现了“归纳法”和“演绎法”的差异。若不验证,归纳思维默认百度提权为真,后续行动都基于假设;而演绎思维每一步都基于条件为“真”。试想,若分析结果相反会怎样?

在信息爆炸时代,我们急需筛选信息的能力,独立思考尤为重要,但不是对所有事都持不同观点。有效思考需建立在知识积累上,否则就是盲目思考。身处陌生领域,向同行学习是不错的选择。

虽然流量增长放缓,但知乎未完全“吃下”巨大流量,现在仍有机会利用红利期获取流量并赚钱。Let’s keep going!

2. SEO?

若你对收录、排名、提权有疑问,可能不太了解SEO领域,下面简单介绍。

SEO是通过了解搜索引擎(SE)规则调整网站,提高其在目标搜索引擎上的排名,以获取流量。收录是SE的爬虫系统抓取网页后缓存在服务器的行为;权重是SE对站点的综合评分,是排名的主要依据;排名是页面在搜索结果中的排列位置。这三点都是动态变化的。

搜索流量是如何产生的呢?用户输入搜索词(query)向SE发起请求,SE将缓存页面通过算法排名后返回给前端(浏览器),用户根据喜好点击页面。一个页面要有流量,需先被收录,排名靠前(top10),有搜索量,且标题和描述吸引人。

在点击环节,知乎有先天优势。多年来“知识型”平台的定位与发展,让用户对知乎品牌有天然信任感,即便排名不在前3,点击率也可能超同位大盘。此次百度给知乎定向流量,知乎又提升了流量效率,可谓美事一桩。

3. 蓝海问题 + 蓝海流量

我们的机会在哪呢?宏宏缺钱,在百度搜“怎么来钱快”(真实数据示例),发现知乎某页面排第1。

图片[8]-知乎蓝海:2000万流量机会的掘金指南-精准获客

他点击进入,看到空荡荡的页面,表情有了细微变化。

图片[9]-知乎蓝海:2000万流量机会的掘金指南-精准获客

这可太坑了!凭借5年网赚经验,我敏锐地察觉到机会。我拿到百万级关键词和知乎数据,筛选分析后发现,不少有搜索流量的问题页面存在这些情况:回答未解决搜索需求、回答质量低、回答少、回答前N名赞少。

我们能否找到这类问题,自己编写答案,让排名靠前,再向自己的载体(微信、公众号等)导流呢?答案是肯定的!

综上,有搜索流量且竞争低的问题叫“蓝海问题”,这些问题的流量集合叫“蓝海流量”。下面举个例子(SE排名动态变化,实际搜索可能有差异,考虑公开性选了个例子)。

图片[10]-知乎蓝海:2000万流量机会的掘金指南-精准获客

图片[11]-知乎蓝海:2000万流量机会的掘金指南-精准获客

看,“gay”这个问题,PC和移动端排名都第2,移动月均搜索量44.7W,PC月均搜索量9.5W,共50W,排名第2点击率约20%,即这个问题每月有10W的SEO流量。可里面的回答呢?

图片[12]-知乎蓝海:2000万流量机会的掘金指南-精准获客

第1名只有58个赞,有机会超越吗?有!能变现吗?

4. 突破认知局限

有些朋友可能看到这就开始思考所在行业该怎么操作了。但要是所在行业没有蓝海流量呢?为何非要局限在熟悉的领域?

流量高手用大盘思维,从全局看问题。这次我们要分析知乎整体搜索流量分布,哪里有蓝海流量就去哪,不局限于某个问题或行业。甚至知乎好物也能基于蓝海流量思维。记住,我们的目的只有赚钱。

这也是我写【TACE】(Traffic ACE,流量高手)公众号的主要思想,后来忙项目发文少了。前面讲这么多,是想把“道”讲清,即为什么这么做;“法”是死的,规则一变方法就失效。

比如特斯拉诞生时,电池成本比市面低10倍,CEO马斯克靠的是“物理学思维”,把事物拆解成最小单元找解决方案(TED有演讲)。但80%的人喜欢直接要方法,为什么呢?

人类大脑是狩猎阶段为存活进化而来,进化需上百万年,人类诞生才二十万年左右,现在还是“旧脑子”。“旧脑子”遵循最小作用力原理,天生会选择消耗脑力低的行为,道理学习用脑多。我懒于思考时,就自嘲是原始人。

下面,让我们进入“战场”。

5. 打造百万级词库

词库是用户搜索词和词属性的集合。我们要尽可能从N个渠道收集关键词,因为每个渠道或第三方平台都有局限。在流量高手看来,词库里的关键词就是一张张人民币。从搜索流量角度,多数情况下,增加关键词就等于增加流量。能找到别人找不到的词,就能拿到别人拿不到的流量,赚到别人赚不到的钱。

数据储存格式建议用csv,以逗号为分隔符的本地文件储存,用Bash shell查询和分析比mysql类数据库方便。

拿词渠道有:5118,爱站,站长之家。下面以5118为例。

5.1 母词获取

1) 5118

分别下载百度PC关键词和移动关键词并分开处理。

图片[13]-知乎蓝海:2000万流量机会的掘金指南-精准获客

没会员的可去淘宝购买,有企业版的建议全量导出。接下来会涉及编程知识:Bash shell(Linux) + Python。因为常规工具无法满足数据计算需求,所以要用编程。我已开发好,部分简单的Bash shell命令行直接给出。我相信这会让80%的人退缩,但谁不是从小白过来的呢?编程没那么难,相信我!争取成为那20%。记住,我们不需要成为专业程序员,编程能力满足当前需求就行。

2) 初始处理

转码(GBK > UTF – 8),因为5118数据编码是GBK,Linux需要UTF – 8。只输出关键词,不使用其他数据,第三方数据准确度差,像5118量级每天更新量至少1亿,成本高。获取前100名,一是数据准度低,后面要自己验证;二是排名动态变化,获取和验证数据有时间差,排名可能改变。

bash shell:

cat 输入文件名| iconv -c -f GB18030 -t utf-8| grep -Ev “整域百度PC关键词排名列表|百度指数|100以外”|awk -F, ‘{print $1}’ > 输出文件名

3) 关键词清理

特殊符号:[s+.!?/_,$%^*()+“’]+|[+——!,::。√?、~@#¥%……&*()“”《》~]

很多人信任不同渠道的关键词数据,但“流量高手”与“流量高手”的搜索量数据差异很大。

网址:www|com|cn|cc|top|net|org|net|cn|rog|cn|tv|info|wang|biz|club|top|vip

年份替换,如2010年替换为2020年。中文长度 >=2(可选)。

4) 去敏感词

用DFA算法处理非法词汇,平均处理一个关键词不到0.1s。

5) 去重

去重很重要,但对内存要求高,要去重的文件大小不能超可使用内存大小。目前用sort + uniq,先split分割目标文件,再sort逐个排序,最后sort+uniq合并去重,虽没大幅减少内存使用,但提升了计算效率。

bash shell简版:

cat 输入文件名 | sort | uniq > 输入文件名

bash shell大数据版:

#!/bin/bash#命令行参数:#$1 输入文件#$2 输出文件basepath=$(cd `dirname $0`; pwd)echo `date` “[wordsUniq.sh DEBUG INFO] 开始文件分割…”split -l300000 $1 ${basepath}/words_split/split_ #文件分割echo `date` “[wordsUniq.sh DEBUG INFO] 开始单个排序…”for f in `ls ${basepath}/words_split/`dosort ${basepath}/words_split/${f} > ${basepath}/words_split/${f}.sort #单个排序doneecho `date` “[wordsUniq.sh DEBUG INFO] 开始合并去重…”sort -sm ${basepath}/words_split/*.sort|uniq > $2echo `date` “[wordsUniq.sh DEBUG INFO] 删除缓存数据…”rm ${basepath}/words_split/*

使用方法:储存为filename.sh文件,在当前目录创建words_split文件夹,用如下命令行,输入输出文件可指定路径。

sh 脚本名称.sh 输入文件 输出文件

处理完后,我们得到两份“干净”的母词数据,即知乎百度PC关键词和移动关键词。

5.2 词扩展

词扩展是对母词进行扩展,一个页面可能命中多个相关关键词。我们假设从第三方平台获取的词只是知乎能命中词的子集,要找出其他部分的词,准确预估问题页面的百度流量。

图片[14]-知乎蓝海:2000万流量机会的掘金指南-精准获客

假设有A和B两个问题,词库中A命中50个关键词,总流量1W,B命中10个关键词,流量100。你可能忽略B问题只处理A问题,但B实际命中100个关键词,流量10W。这就是数据不完整造成的信息差,会让我们错过流量机会。

举个例子:

图片[15]-知乎蓝海:2000万流量机会的掘金指南-精准获客

扩展后,该页面命中47个关键词,PC + 移动总流量132W,因广告多知乎被迫风控提醒,下面展示部分数据。

图片[16]-知乎蓝海:2000万流量机会的掘金指南-精准获客

是不是感受到数据的魅力了?加油,Let’s

© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容