一.前语
本文比较适用与中大型网站的SEO人员,小网站也能够参阅。
意图在于讨论一种发掘网站的内容潜力,把网站中用户可能会关怀的内容出现给用户,满意其需求,获取相应的SEO流量。
许多大型网站都在用的一种方法,可是很少有人出来详详细细的解说。
这样的SEO流量是怎么取得的,下面举一个通俗易懂的比方。
假定我在百度上查找“iOS 英雄无敌3”,意图是找一个能在iOS下运行的英雄无敌3这个游戏。
事实上这个游戏并不存在。因而压根不存在一个页面能够让我找到我想要的内容(如果有也是标题党)
所以我进入了tgbus的这个关于iOS 英雄无敌3的页面。
我在这个页面上找到了iOS上的英雄无敌2这个游戏以及其他相似英雄无敌3的iOS游戏,以及一些奇奇怪怪的新闻(ok,这个页面做得并不是很简略阅览)
Finall,我在tgbus上下载了英雄无敌2的iOS版别试试。
OK,我们再换个实际生活中比方:
一个姑娘去买衣服,所以看上一条粉红色的连衣裙,可是没她要的尺码。
这时分营业员会怎么做,没错,引荐一些相似色彩or样式的连衣裙,而且有码。
(TGBUS好像引荐出了一条牛仔裤。)
SO,我们应该怎么去找出用户想要的连衣裙和我们库房中有的连衣裙,而且在最恰当的时分给用户最好的成果,还能获取到SEO流量,这并不是一件很简略的作业。
Wait,这不是就一个引荐引擎么?这么杂乱的玩意交给工程师做就行了。事实上大都时分,这仅仅SEO们一厢情愿的东西,工程师才不会来鸟你什么引荐引擎,我们先从一个可执行的视点,自给自足来把这个SEO方法施行下去。
二.内容剖析,关键词剖析,数据接口规划
一个SEO知道自己网站有多少内容很重要,常常遇到和人说:“你网站这个XX页面有问题” “啊?这是什么页面啊,我从来没见过。”
一般一个网站垂直去分,有主页,内容页,列表页。
内容页中,又可能分图片页,谈论页,文章分页等等
列表页中,又可能分频道页,产品列表页,索引页,专题页等等。
一般一套页面临应一套乃至多套php模板。
需求弄清楚这些模板是否在一个架构内,是否公用数据库,页面上使用了哪些字段,最好能够找到对应模板的开发人,如果有条件申请到源代码检查权限,能够自己看一下。一个内容聚合的需求可完成度很大程度上取决于上面这些内容,先弄清楚把配料都弄齐全了,再开端做菜,不然巧妇难为无米之炊。
横向去分可能是更多往business方向考虑,比方有我们有卖线路的,卖门票的,卖酒店的,攻略,用户图片,论坛帖子等等各个频道,各个频道可能是由不同的部分在担任。哪些是网站畅销的,需求热推(至少你做个SEO的东西得有商业价值,在电商公司非常重要),包含各个频道是否有人还在运营,一个终年无人打理的频道,明显不是一个好的内容源。一般来说,首要的产品线,和UGC的内容一般是网站内容供给主力。如果我们想发掘用户需求,也能够优先考虑它们。
这个过程需求花许多时刻,杂乱一些网站乃至要1个月才干弄清楚网站到底有多少类型的页面。在弄清楚上面的问题之后,
接下来,就需求只需知道各类内容有多少数量。
比方多少个SKU,多少文章,多少帖子,多少tags,多少分类等等
这是许多人在做相似作业时考虑不周全的,凭感觉去做。最后做出来一大堆重复内容的页面,重复页面临SEO有多坏的影响就不必再提了。
这个核算内容数量的方法(从好到坏排序)。
1.读数据库
2.经过一些”奇妙”的方法去数
3.用东西抓
4.靠经历猜(根本不靠谱)
读数据库是最简略,也是最准确的方法了,一个select完事
如果没有数据库权限,就要去想方法知道。比方文章有多少条,那能够核算分页数量*每页文章数量来核算
如果是自增id,那来凑自增id来数;
如果是固定格局数据,比方来北京的图片,北京的气候,区域数量*类型来核算,等等;
经过东西抓是许多查找引擎优化的愿望,无数人问过这样的问题,有没有什么东西能够核算出我网站有多少网页啊。
抱歉,还真没有,因为种种网站原因,没有任何一个东西能够核算出一个中大型网站到底有多少网页(谁有那这个东西比google,百度爬虫还NB),太多的爬虫圈套,阻止深化抓取的东西了。当然,这样的抓取东西并不是一无可取,关于小型网站,或许特定频道,乃至特定区块的抓取,仍是有一定作用的。比方Httrack,Xeun,当然还有我比较喜欢用的火车头。python,shell等脚本语言一直是全能的。
上面根本就是内容剖析的大致状况了,弄清楚内容的品种,数量和运营状况,对SEO是有许多优点的。
三.关键词发掘,清洗与过滤
关键词的发掘说难不难,说简略也不简略。
根本每个人都会问,怎么发掘关键词制造词库。先说说一些常用的方法。
1.baidu/google API
2.收集爱站,chinaz,伯乐等数据
3.收集百度下拉框(其他查找引擎同理)
4.收集百度相关查找(其他查找引擎同理)
5.站内查找和天然流量关键词
6.现成字典/词库
讲点详细完成的一些注意点,都是在实践过程中总结出来的东西。方法说了,根本10个人里边有1个人去实践一些就不错了
1.百度和google的api是要申请的,想方法搞一个,如果没有,只能用百度网页级别的收集,百度竞价后台常常改,所以不是很稳定,这边友谊引荐一个东西http://www.lingdonge.com/(暂时存案中可能打不开),作者很nb,搞侠客站群软件的。百度API的python的SOAP通讯有BUG,连不上(可能我水平太低了T_T),PHP会SOAP通讯的话能够自己写脚正本跑,Google的没玩过,应该差不多;
2.API是有准确查找量的数据,所以是词库榜首数据来历;
3.百度下拉框反收集做的比较少,收集地址为http://suggestion.baidu.com/su?wd=xxxxxxxxx+一堆参数的,详细调整一下,一个小脚本能够搞定,可是数据深度有限,一般收集2轮后就不必再采了,根本采不出新数据了;
4.相关查找能够用火车头或许飞达鲁金花之类的,因为是收集SERP,反收集这块要想方法绕过;
5.站内查找和天然流量关键词去GA搞一下就行,批量导出不说了。很简略,不是用的GA可能会悲剧一些;
6.拼音输入法词库;
7.一些特别的查找引擎,淘宝,youku之类,他们也积攒了很多的数据信息。
四.分词/检索/排序/批改
五.频道的运营,保护,拓宽
六.数据监控
|