网站怎样屏蔽某些蜘蛛过来抓取

网站怎样屏蔽某些蜘蛛过来抓取,第1张

在服务器根目录,新建一个robots.txt文件,里面添加自己不想让蜘蛛爬取的目录:

写法

1.如果你站点中的所有文件,都可以让蜘蛛爬取、收录的话,那么语法这样写:

User-agent: *Disallow:当然,如果你网站中全部的文件都可以让搜索引擎索引的话,你也可以不管这个文件。

2.完全禁止搜索引擎来访的Robots.txt文件写法:

User-agent: *

Disallow: /

2.1.要禁止掉某个搜索引擎来访的Robots.txt文件写法:

User-agent: Googlebot

Disallow: /

3.网站中某个文件夹不希望让搜索引擎收录的Robots.txt文件写法:

User-agent: *

Disallow: /admin/

Disallow: /images/

4.禁止Google抓取网站中的图片文件:

User-agent: Googlebot

网站不被蜘蛛抓取问题产生与解决主要有以下几个方面:

1、服务器或许空间宕机

网站的服务器或许空间宕机蜘蛛访问不了,就会出现蜘蛛不来这种情况。遇到蜘蛛不来首先要检查网站服务器和空间是否出问题。假设出问题一定要最快速度批改。

2、robots文件书写差错屏蔽了蜘蛛抓取

这个是一个本不应该犯的初级差错,假设出现蜘蛛不来第一看服务器空间是否出问题,第二就是看robots是否书写差错。假设发现robots书写差错一定要马上修改。

3、网站内容被搜索引擎判定为低质量

比如,短时间内从其他网站搜集了许多文章,或许网站大部分内容都来源于搜集,违反百度原创保护的机制。严峻的甚至会被百度删去索引,直接消失在搜索引擎。

解决方法:

一、找到原因恢复

什么原因被处置就怎样恢复。比如:修改搜集内容,坚持写原创内容以及做高质量伪原创,守时定量更新。

二、恰当发外链吸引蜘蛛

到一些高权重的途径发一些外链吸引蜘蛛,虽然外链现已对排名没有影响,但是吸引蜘蛛加速录入仍是有效果的。

三、做推广注入流量

可以适作为一些推广注入真实流量,对网站录入和排名都会有必定协助。

坚持做好内容,网站迟早必定会恢复。咱们假设遇到千万要吸取教训,不要胡乱搜集内容。

四、网站有做弊行为

网站做了黑帽非常简略被冲击,黑帽方法虽然可以短期内见到效果,但是长期来看随时都可能直接消失在搜索引擎中。后果咱们都知道,在此不多做赘述。

Robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。

使用方法:

Robots.txt 文件应该放在网站根目录下,并且该文件是可以通过互联网进行访问的。

例如:如果您的网站地址是 http://www.baidu.com/那么,该文件必须能够通过 http://www.baidu.com/robots.txt 打开并看到里面的内容。

格式:

User-agent:

用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。

Disallow:

用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。

举例:

例一:"Disallow:/help"是指/help.html 和/help/index.html都不允许搜索引擎蜘蛛抓取。

例二:"Disallow:/help/"是指允许搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。

例三:Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

#:Robots.txt 协议中的注释符。

综合例子 :

例一:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:

User-agent: *

Disallow: /bin/cgi/

Disallow: /tmp/

Disallow: /foo.html

例二:通过"/robots.txt"只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允许名为"slurp"的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:

User-agent: *

Disallow: /cgi/

User-agent: slurp

Disallow:

例三:禁止任何搜索引擎抓取我的网站,设置方法如下:

User-agent: *

Disallow: /

例四:只禁止某个搜索引擎抓取我的网站如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:

User-agent: slurp

Disallow: /


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/61585.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-02-27
下一篇2023-02-27

发表评论

登录后才能评论

评论列表(0条)

    保存