1. 首页
  2. SEO优化教程
  3. SEO优化进阶
  4. 搜索引擎排行:百度站长平台提交重新生成操作需要注意的喔

搜索引擎排行:百度站长平台提交重新生成操作需要注意的喔

说到屏蔽搜索蜘蛛的抓取,自然而然的就会想到robots.txt文档。robots.txt是什么?其实在此前笔者也已经对此进行了基础的说明。robots.txt是一种存放在网站空间根目录下的文本文件,是一种协议,用来告诉搜索蜘蛛网站中哪些可被爬行抓取,哪些不可被爬行抓取。然而,在这里,笔者有着这么一个疑问,robots.txt是否能彻底屏蔽蜘蛛的爬行抓取呢? robots.txt能屏蔽蜘蛛的爬行抓取 近日,好友遇到了这么一个问题:&ldq

  说到屏蔽掉检索搜索引擎蜘蛛的爬取,顺理成章的就会想起robots.txt文本文档。robots.txt是啥?实际上在先前小编也早已对于开展了基本的表明。robots.txt是一种储放在服务器空间网站根目录下的文本文档,是一种协议书,用于告知检索搜索引擎蜘蛛平台网站中什么可被爬取爬取,什么不能被爬取爬取。殊不知,这里,小编拥有那么一个疑惑,robots.txt是不是能完全屏蔽掉搜索引擎蜘蛛的爬取爬取呢?

  robots.txt能屏蔽掉搜索引擎蜘蛛的爬取爬取

  前不久,朋友碰到了那么一个难题:“我本来用robots.txt屏蔽掉wordpress中的文件目录文档呀,为何搜索引擎蜘蛛每天依然仍旧爬取呢?”然后,小编当然便查平台网站robots.txt文本文档,下列就是对wordpress文件目录屏蔽掉设定:

  Disallow:/wp-admin

  Disallow:/wp-content

  Disallow:/wp-includes

  在查询之后,发觉了那么一个难题,它是文件目录文档屏蔽掉,殊不知,这屏蔽掉设定后面却好像缺乏了,而开展资询时,朋友确是那么觉得:“文件目录文档前面再加了/就就行了,后面加不用都一样的呀”。对于,小编确是另一种观点,在后面再加与未再加/,针对搜索引擎蜘蛛来讲是二种定义,再加了是告知搜索引擎蜘蛛,它是一个文件夹名称,而未再加即告知搜索引擎蜘蛛它是一个文档,也因而造成本来在robots.txt上搞好了设定,却不曾合理的屏蔽掉。自然这只是是小编的本人观点。

  进而,朋友遵从提议将robots.txt改动为:

  Disallow:/wp-admin/

  Disallow:/wp-content/

  Disallow:/wp-includes/

  取得成功改动后便在百度站长工具开展递交再次转化成实际操作(必须留意的是,若不积极递交转化成,靠搜索引擎蜘蛛自主制造得话,用时较长的喔),在当日也就起效了。隔今后再对系统日志开展查询,发觉搜索引擎蜘蛛对这三个wordpress下的文件目录确实已不爬取爬取了。

  从那么一点上看,在人们开展平台网站SEO提升之际,确实不可以忽视一切关键点,只是一个,可产生的确是不一样的实际效果。

  robots.txt不可以完全屏蔽掉搜索引擎蜘蛛的爬取爬取

  而在这里一解决问题后,朋友在这里文档屏蔽掉上却又拥有另一难题:“本来把某一文件目录屏蔽掉呀,为何搜索引擎蜘蛛還是可以爬取网站收录该文件目录下的某一文档呢?”

  那麼,这里就必须做一个表明,robots.txt协议书并不是是一个规范,一个标准,仅仅约定成俗罢了而已,一般 百度搜索引擎会分辨这一文档,但也是一些独特状况。(如以前的360恶性事件就懒政本次探讨內容)

  不论是百度搜索亦或者Google,某一网页页面要是有别的网页链接到该网页页面得话,一样有将会会被数据库索引和网站收录。要想完全屏蔽掉网页页面文档被Google数据库索引得话(即便有别的网页链接到该网页页面文档),则必须在网页页面head中插进noindex元标识或x-robots-tag。以下:

  当Google搜索引擎蜘蛛见到网页页面上着noindex的元标识,就会将此页从谷歌搜索引擎結果中彻底丢掉,忽视是不是也有别的页连接到此页。

  而百度搜索呢?针对百度搜索来讲,并不是适用如Google那样根据noindex彻底将网页页面从数据库索引上删掉,仅适用noarchive元标识来严禁百度搜索显示信息网页快照。实际句子以下:

  上边这一标识仅仅严禁百度搜索显示信息该网页页面快照更新,但百度搜索仍会为其建数据库索引,并在百度搜索中显示信息网页页面引言。

  大家都知道,淘宝根据robots.txt整站屏蔽掉百度爬虫,可为何人们在百度搜索搜索淘宝网时第一个結果都是淘宝网首页详细地址呢?而在人们查询该网页页面快照更新时确是显示信息空白页?因而来看,平台网站只有严禁网页快照的显示信息,却没法保证严禁百度搜索为网页页面建数据库索引。

  结语:

  返回小编在文章内容段首常说到的疑惑,robots.txt是不是能完全屏蔽掉搜索引擎蜘蛛的爬取爬取呢?坚信在见到那么一个难题,会有那么一部分盆友的回应是毫无疑问的。而这只有说,我们缺乏了擅于去发觉的心,而针对未能合理屏蔽掉搜索引擎蜘蛛爬取,只有表明我们的提升工作中做得不足细致。

  由那么2个robots.txt的小难题上,综上所述,阻拦人们升阶为SEO大神的也许就是那擅于发觉难题的心和精细化管理的团队执行力。

 

转载请注明: 爱推站 » 搜索引擎排行:百度站长平台提交重新生成操作需要注意的喔

相关文章

评论列表(0)

发表评论