新站如何做好seo的robots规则书写?

目录

很多学习seo的并不知道百度站长学院,这里有百度最官方的关于seo的资讯和案例,在这里好好阅读几篇文章比什么seo论坛的效果好很多,当然西安seo也会摘取一些seo好文章。也帮助看本站的用户做个整理。今天介绍的是:新站如何做好seo的robots规则书写?

这里是链接地址:百度站长学院: http://zhanzhang.baidu.com/college/index

前方高能——本篇文章是攻城狮们根据日常收到的case整理而来,亲自编写,希望站长亲们给个好评哦!

平台攻城狮近日接到了百度内部用户的反馈,说lvshi.baidu.com站点的收录情况比较差,希望协助追查原因。

攻城狮追查的过程如下:

首先通过site语法检索,发现收录量确实比较少,只有11条,而且还发现一部分是死链数据。

新站如何做好seo的robots规则书写?
新站如何做好seo的robots规则书写?

 

然后根据用户反馈的部分url,检测发现这批链接在2016年12月26日当天已经就已经抓取回来了,首次抓取上是没有问题;

http://lvshi.baidu.com/help/about/story

http://lvshi.baidu.com/help/about/contact

http://lvshi.baidu.com/help/user/guide

http://lvshi.baidu.com/help/user/question

http://lvshi.baidu.com/help/user/feedback

http://lvshi.baidu.com/help/cooperation/provider

http://lvshi.baidu.com/goods?categoryid=1

http://lvshi.baidu.com/goods/33

紧接着发现这批网页都被百度爬虫判定为空短页面,从网页库中获取当时的抓取页面,检查发现这些页面抓取回来的内容是一样的,都是提示让输入邀请码。

被百度爬虫判断为空短页面,肯定是不能被百度搜索收录的。

有站长可能会问,那等网站全部开放后,是不是就可以收录了呢?对于百度爬虫来说,当对一个网站抓取后发现大面积都是低值的空短页面时,爬虫会认为这个站点的整体价值比较低,那么在后面的抓取流量分布上会降低,导致针对该站点的页面更新会比较慢,进而收录也会比较慢。这里学院君再次强调一下,不要让爬虫给站点画上不优质的标签哦,后果很严重!

那么该如何避免呢?方法其实比较简单,网站在邀请测试阶段使用robots封禁就可以。

那么robots开始封禁百度怎么写呢?

 

User-agent: *
Disallow: /

西安seo总结:

(1)新站内容没填充好、站内结构没优化好一定要用robots封掉百度爬虫

(2)之后注册页面可以加nofollow

(3)出现没有收录问题,首先要查看日志有没有爬虫过来,然后再找原因。

大佬分享的公式:谷歌SEO = 高质量内容 + 优质外链 + 技术端优化+用户交互行为

当你使用我的 推荐链接 购买产品时,我会赚取佣金并感谢你对我辛苦写文章的认可。

欢迎订阅本站深度内容:
◇万字长文
◇每1-3月出一篇
◇深度测评工具
◇网站案例研究

留下第一个评论