如何深度的阅读一篇文章
这种属于阅读理解的范畴,怎么会引出这个文章的呢?
其实是这样的,我有好多篇文章,然后不同的读者读完后,会有很多种不同的情况出现。
我这里以我比较尊敬的国平老师的文章作为引子来引入。 文章链接如下《我以前在阿里巴巴的流量方法论》
好了,给你5分钟的时候,让你重温文章究竟在写什么?
这里就回到初中阅读理解的时候。
我简单的概括下,这篇文章写了什么(每个人看这个文章读到的内容是不一样的,跟自己的知识储备,当前在处理的问题)
第一个部分:如何挖掘词汇。
第二个部分:搜索引擎的流量还有很大部分没有被利用,因为第一部分的人做的不好,所以第二部分就肯定是很多是洼地。
第三个部分:酷讯的地区与地区之间查询的流量做法
第四个部分:让内容在百度喜欢的平台上流动
第五个部分:在任何渠道里做流量,都可以观察这个渠道里是不是有些流量是通过关键词分发的
第六个部分:如何批量触达优质KOL
可能每个人看到的信息都不一样,也看到的信息结论会不同,那么我就是对的吗?不是的,你是错的吗?不对的。
上面的第一二三五个部分,我之前一篇文章已经详细讲解,基本上案例的case我也有粗略提及。
那么下个部分就是我们想探讨国平老师给我们讲了一点东西,但是没有摊开讲的东西。国平老师没有摊开讲肯定是考虑了一些因素,可能是商业机密的因素,或者是读者的因素。
我们这里把第四个部分,和第六个部分去摊开讲
(
第四个部分:让内容在百度喜欢的平台上流动
第六个部分:如何批量触达优质KOL
)
第四个部分,是在第一个部分的延伸基础上才可以做出来,我推测国平老师的想法是,假设我挖掘到了关键字A,那么我依据关键词A来做 满足用户搜索意图 的内容,可能是文章,可能是视频,可能是其他载体。然后让这些内容在不同的自媒体号上传播。
上面这句话,反复读下,总结一句话,就是关键字找准(这里是找准,不是找到,注意是有区别的,找到指的是你找到一个关键词,找准关键词指的你是找到了一个 有商业价值 的词),然后把符合 关键词的用户搜索意图 的内容给整出来,然后上多平台分发。各种自媒体号,各种音频号,各种视频号。
那么假设是按照关键字给你导流量,这个做的是哪些流量,这个一定要注意,这是做百度的搜索流量,或者是可能各大平台的站内搜索流量。核心指标是文章质量+文章数量(覆盖满足关键词数量的文章)。这一步我想很多团队的指标都弄错了。如何按照关键字指标,我拿阅读数来做,播放数来做,就百分百准确,从最终逻辑是看百分百准确的,但是起步的时候,思维是错的。因为当你用关键词去覆盖更多的用户需求,一定是文章的title(数量),视频的title(数量)在帮你抢流量。那么数量走在前面才是正确的。
那么文章质量就错了吗?不对,文章质量的话,更多的需要有质量的文章流量渠道的曝光。
文章发布后,需要做各种媒体的PR,以及各种号的曝光,而这些文章曝光,如果内容做的好(满足人性的弱点,不属于自嗨),那么可能才有可能做成爆款文章,和跨圈层的文章。这个需要的资源更多的是很多隐含的。
在19年,我们策划了一个活动,我们用了大量的奖项,作为奖品,然后大号推二条或者是合集多少曝光量来换奖项。我们花费的成本是0,但是我们换了很多曝光量出来,我们仅需要出的就是一个奖牌,和奖杯,和大V的合影的机会,但是对于外部人员来说,就是大量的PR,而不知道都是资源置换来的。
而我们的曝光的载体就是文章。严格意义来说就是曝光。
那么如果我有钱,财大气粗,那么就是营销软文,+ 派单在执行着。
而没预算的话,那就苦逼哈哈的想策略去商务层面的去曝光,或者是技术层面的曝光。
下面部分讲如果在在上面的假设我落地执行,那么我可能遇到的问题。
关键词词库 10万起,起码生产内容最少也是万篇(可能是自动生成+小部分精品)吧。不管是视频还是文章。万篇是最少的。那么团队的人员规模配置是怎么样的,文章并无提及,所以的话,这一点也要注意下。很多人拿着工具导一波词,然后就一起疯狂,希望逆天改命。第31天就被打脸了。我只是希望你看到我这边的文章的时候,你要做好预案这一步怎么样解决,才去推进文章提及的东西。国平老师的文章非常适合大公司,资源强,积累多的团队,跑起来会非常顺畅,会很快。假设你的方法跟国平老师一样的话,然后有效,但是效果没有那么好的,应该考虑更多的是隐含的因素,例如资源,例如钱,例如人员配比。
再者往下推演,假设你真的搞出来了10万篇高质量的文章,那么下个问题就是你如何分发。
我们假设用知乎号分发,平台安全风控值限制10篇,那么你需要1万天。假设你有1000个号。那么你只要10天就完事了。
10万篇 = 1000个号 * 10 天 * 10篇/号/天 ;
而目前市场上能够把账号养到知乎高盐值的号,然后自持1000个知乎高盐值号的团队,寥寥可数
我们按照一个号400的成本去思考问题,那么你起步资金就是40万的号子钱,还不算内容的输出成本,这个也是一个大头。
假设你不用百家号,你用各种自媒体号,方法去计算是一样的。
只要你ROI控制的住,那么你就大胆的去测试,但是你当你用1个号,5个号,10个号,100个号去测试的时候,你的成本模型会很不一样。而如果你根据文章的方法,准备落地执行,那么很可能还没有到ROI出来之前,就死掉了。
那么这个方法来做的坑点我已经基本上都给你挖出来了。剩下来就是你要做的事情,就是评估是否自己搞定定。
阅读文章,读出来文章没有写的东西本来就是很需要功力,而这个思维你需要长期的去训练,如果不训练,你获取不到,你训练的话,会慢慢变得好。
上面这个部分仅是提及如何分发,并无提及如何生产内容。
那么这一步内容的生产,在国平老师的文章内,稍微提及了批量生产内容去match用户的搜索意图。那么这个我们可以找到阿里巴巴的这一篇专利来对应国平老师的这篇文章,
文章中有以下的段落:
”以前这是我负责的,我能确定每个词每天的流量都达到了一定的搜索量,也就是说都是比较重要的词语。那时候我们的口头禅就是“加词等于加流量”。记得当时从国外一家专门 卖词 的公司 买了 3 万多个优质的词,然后我们一个季度的KPI就完成了。“
那么对应的专利可能就是这个。阿里巴巴曾经有一个专利,这个专利详细描述了,如何批量自动化生产页面,我想这个就是对应的国平老师的实践的总结,并且申请专利了,而且公开了。
是不是感觉国平老师其实就是很多料,但是可能在公开分享上,有点放不开。需要我们好好深入的挖掘,才可以读懂国平老师的良苦用心。
本来只想讲分发,没有想到把内容生产部分也给讲出来了。
可能很多人对于论文读起来感觉头很大。如果感觉头很大,先拉到底部直接看流程图,那么可能会容易很多。
我这里给你们简单的解析下:
专利说到底就是一句话:提取关键词词库,根据规则,计算这个词的权重,然后去生产页面。
那么这个词的权重计算规则是专利的机密了,这个肯定不会摊开。
我们应该大胆的根据上下问,以及国平老师的文章去推测这个权重可能牵扯到哪些规则:
1.当某个关键词的百度搜索量大于某个阈值,并且关键词不属于黑名单内,自动生成该关键字类型的页面
2.当某个关键词的域名的平均权重大于某个阈值,并且关键词不属于黑名单内,自动生成该关键字类型的页面
3.当某个关键词及其衍生关键词导入平台的量大于某个阈值,并且关键词不属于黑名单内,自动生成该关键字类型的页面
4.当某个关键词的站内搜索量大于某个阈值,并且关键词不属于黑名单内,自动生成该关键字类型的页面
5.当某个关键词的百度搜索量大于某个阈值,并且关键词不属于黑名单内,自动生成该关键字类型的页面
那么其中的1,3,4,就是国平老师说的流量洼地的词汇。其中2,5就是1688的对应的优化的点。
那么挖掘出来了那么多词汇后,1688是否会直接堆页面呢?不会,他肯定有某个策略,来执行哪些词先生成,哪些词慢生成。
然后对应的文章类型跟上。
这个做法可以重点看看各大类型的B2B的站,基本上都是这个做法。但是策略的话,可能根据数据去做策略的制定。
但是里面提及了权重。应该是某个预测这个结果下的阈值生成的页面的页面导入的量是最大的。应该不会上bulk。
如果1688上bulk的话,我想这个从这个项目的负责人应该不会同意做的,太短视了。而且百度也不会给他好果子吃。
这里已经把第四点完整的敞开的探讨了, 稍微提及文章生成,及文章发布的坑。
那么下面继续阅读理解。
最后一个章节:如何批量触达KOL,国平老师曾经讲过,我做2C,去触达1个亿人,我要做1个亿的曝光。那么假设我去触达100个100万粉的KOL,那么我只需要触达100个KOL即可。当我们把基数在降低下来,假设我们要触达1000个10万粉的,也有一个亿的曝光了。
那么在国平老师的图片界面上,我们可以看到有采集的信息,然后再结合一些国平老师放出来的信息。
大胆的推测,国平老师应该是采集了微信公众号,抖音,快手,微博,等各大平台的KOL的资料,然后进行二次数据分析,然后再用某些方式在批量触达这群人。
那么我们知道,这几年的互联网,APP爬虫的数据并无前几天那么大开自由之门,都是逆向和反爬虫的斗争。那么假设国平老师做采集任务,那么他接下来的就是招人,去解决这个技术数据库的问题,那么看下面一个贴,
可以证实国平老师确实在招人,并且在推进这个事情。
岗位有:逆向工程师,和爬虫工程师。再一次推论,数据源来头大概率是这个环节来的。那么下一步环节就是如何批量触达KOL,我想采集如果被拦住的人,走不到这一步,那么他的思维也无法推演到这一步。我们通过光年实验室放出来的工具,我们大胆的推测,国平老师应该是用企业微信在批量的大规模的再添加他们这些KOL。
完成这一步需要的资源:所有平台的账号(这个是赢与否的关键因素),代理池,服务器,手机。这些都是硬成本。
而这一步很多没有做过的人是没有考虑过的
假设我们按照1000万数据一个月的采集规模去推演。
按照抖音账号一天只给1-5万个采集的数据机会,那么国平老师起码准备了几十上百个个抖音账号在处理这个事情。那么抖音账号,他的载体是否需要手机去登录呢?假设不用那么多1000个太手机,我想最少也需要100台手机(从国平老师放出来的视频,也可以验证到这一步)。
好了,假设1000万个数据,来提取联系方式。
1000万 * 20%(有联系方式) = 200万。
200万 * 50%(有手机号码) = 100万。
再做一下性别筛选,城市筛选,可能就剩下50万左右了。
这个数据是比较有参考性的,请重视。10分之1的人,有联系方式。
那么50万,按照通过率5%的通过率,这批人加完可能是2.5万个KOL。
这个通过率数据是根据每个行业的情况再定的的。可能会很不一样。
那么我发起50万个请求,我需要的账号及账号登录的手机,按照一个账号发起500次(应该不准确)请求,我需要1000个员工账号。
假设一个员工有10个微信号,那么我100个人的企业一天就可以发起5万词请求,我搞个10天这群人应该就加完了。(不负责任的推论,可能会有单个企业主体上限,可能会有单个员工账号上限,可能还有各种因素,这个仅是理想化推论)
好了,以上的推演应用不准确,但是数据的计算方式是可以看出来,推演出来需要的资源,和时间,和人力去执行的。
这样点拨开,你可知你与国平老师的差距不单单是一个文章的差距,还有资源性的压倒性差距了吗?
有人加我,然后跟我探讨这个环节能不能从1个号做起来,答案是肯定可以的,就是时间长短问题。
我举个例子你一看就懂。
假设我要测试单个账号的单IP下,可以发起多少次请求。
我用A,B,C,D,E,F,G,H,I,J (10个号)作为账号ID,那么我在单位时间内,我可以同时测试多个个做法。这个多个个做法,可能是什么组合起来的呢?
第一个A,B,C分别执行的是一个小时内添加10次,
第二个D,E,F分别执行的是一个小时内添加20次,
第三个GHI分别执行的是一个小时内添加30次,
第四个J,执行的是一个小时内添加40次。
可能还有更多的做法。
而你只有单号的情况下,单位时间内,你只可以测试一个做法,我单位时间内我测试出来的是4个以上做法了,然后我进行做法的迭代,我的测试时间周期绝对比你单号的要快。这样对比后,你大概就知道优缺点了。
还有一种非常常见的问题,账号被限制,账号被禁言,账号被封,然后停止了(绝大部分80%的人在这一步上止步了,那么这80%的人可能需要找到自己更加舒服的方式去获取流量)
在做营销的话,你封的越多,你触发到的风控就会越多,后面会稍微顺点。
大部分人接触到的非生财文章是不适合读很多次的,因为是爽文,颅内高潮数次,但是继续仔细推演,是经不起推敲的。(请注意,你的大脑有时候不是你控制的大脑)
而生财的精华部分,基本上已经属于非常高质量的内容源了,很多人也喜欢打印出来然后多次阅读,当你如果去精读一篇的时候,你可以推演到国平老师这个做法,好多精华都是用这一个的做法,不低于5篇精华就是国平老师的这种做法。这里再引入一篇文章(王华荣的那篇文章,你们可以搜索看看)但是你与国平老师可能差距的不是一篇文章与文章的差距。
上面我说的可能仅是一种获取流量的方法而已,流量的世界并不是那么窄小。但是多号思维始终还是work的。而如果要用跨圈层传播的套路,可能启动量就是非常不一样。这个你可以多跟踪下。当一篇文章被跨圈层传播的时候,你可以深入挖掘到肯定有几个跨圈层的启动中种子量,才可以跨圈传播的。如何挖掘呢?看看哪个的发布时间早,哪个的阅读量大。
这个两个月发生了很多事,很多事,心力憔悴,而生财始终会有一个氛围:始终有个人喊着你,坚持下,坚持下,快到了,熬下就好了。而这个氛围是别的社群很不容易给你的。
而你在这里也可以找到很多的合作伙伴,这里基本上涉猎了互联网非常多的行业,在这里学到应该学的东西,然后用到自己的主业即可。
而当你向人请教的时候,因为你的主业跟别人不冲突,别人也会乐意跟你聊多点。
小伙伴们,感恩生活,感恩家人,感恩你的朋友圈。自知,感恩。
相信我,在这条路上,你并不孤独。
如有交流问题,请直接加88356983
