K先生个人博客

当前位置:首页 > 爱生活 > 正文

网站改版后,网站内页一直不被收录时,我做了什么

说起网站改版,这又是一段心酸事,10月25号我在新版博客上面写了第一篇文章,而随后收录量也是从之前的三十多篇逐渐降低,这是因为这次改版我删掉所有的数据,并且没有做301重定向,所以收录量后来直接降到了3,因为只有这三篇文章的链接没有变。 

改版40天后,网站收录量依旧没有回升 

博客改版之后,我在尽可能的多更新文章,可是文章写是写了,可是百度依旧是不收录啊,相信对于网站不被收录是大多数站长的心病吧,就像自己努力做出的东西却不被大家所认可,相信站长们都会有这个心情,特别是对于那些新站长。

之前我以为只要坚持更新文章,百度迟早会收录的,这样想确实没有错,可是你可能会面临漫长的枯燥等待。就像老K一样,每天打开电脑的第一件事就是打开百度,site一下自己的域名,看看自己网站的文章有没有被收录,可是每一次都是失望。

 后来我想到了seo,坚持更新的确也是会被收录的,可是等待的时间可能会特别长。于是,我就恶补了一点seo方面的知识。然后不断地调整优化自己的网站。

关于网站优化我都做了什么? 

对于网站优化我并不是很了解,但也是尽可能的去优化自己的网站,毕竟被收录也是对自己努力的一种认可吧。

 第一、网页关键词的分割符号,之前我用的是中文符号“,”其实正确的应该是用英文符号“,”来分割网站关键词。这是我踩的第一个坑。

第二、面包屑导航。蜘蛛在爬网页的时候,是根据网页超链接来依次爬取的,没有做面包屑导航可能造成的结果就是蜘蛛爬取了你的链接,进入了你一个没有面包屑导航的页面,然后,然后蜘蛛就“迷路”了,找不到了回去的路,这就是蜘蛛被“困”了,这就可能蜘蛛下一次就不愿意再来你这个页面了,因为蜘蛛也不想被同样的“坑”栽倒一次又一次。这是我踩的第二个坑。 

第三、robots文件禁止了蜘蛛爬取js和css。对于禁止蜘蛛爬取js和css这个问题,可能会有人说这和seo没关系,不影响网站收录。可是以我个人的经历来说,如果没有特殊需求,最好不要禁止蜘蛛抓取css文件,(js文件感觉应该不影响)。具体原因我也说不清楚......不过这是我自个优化网站时所悟得。我感觉这也算是一个坑吧。 

第四、网站标题连接符。这个我是根据百度11月15号刚发布的《百度搜索网页标题规范》所修改的。也就是规范自己的网页标题。就像淘宝的标题“淘宝网 - 淘!我喜欢”,就是核心词+修饰词的方式,中间“ - ”来分割,要注意中间的空格哦。这也是我踩的一个坑。 

第五、停止使用发外链工具。虽然发外链会有助于seo优化,但是工具的安全性却是需要慎重的一个问题,万一被搜索引擎判定作弊的话,那就得不偿失了。个人人为,新站还是实事求是比较好,没必要投机取巧。 

第六、百度站长链接提交手动比sitemap提交效果要好。坚持每天在百度站长上手动提交网站的链接。这个个人认为效果还是比较好的。 

第七、通过分析apache服务器日志来分析蜘蛛,并对网站做出调整。怎么通过服务器日志来分析蜘蛛,这个要说起来不是一时半会能结束的,这里就不多说了。

......其他的一些小细节,这里就不多赘述了。

 结果如何? 

做了优化,那么结果如何这才是大家最关心的,也是最重要的。看下面一张图大家就知道了。

(ps:很尴尬,由于某种原因图片找不到了,,,)

虽然收录量为9还是非常的低,但是我的网站在收录量为3的情况下持续了近40天,这期间也在持续更新文章,但丝毫没有增长,现在收录量突然增加,这是一个质的变化,相信我的其他文章不久后也会被收录的。

 这网站改版近40天的时间,其实我也就最后十天才开始做seo,在这期间不断优化自己网站,现在终于算看到了结果。开心(嘻嘻0-0)。 

希望我的微薄经验能让此刻和我遇到同样问题的人少走一些弯路。

作者K先生本文地址http://www.gold404.cn/info/22

版权声明:本文为原创文章,版权归 K先生个人博客 所有,欢迎分享本文,转载请保留出处,谢谢!

文章评论

* 必填
可选
可选

评论列表