如何禁止所有搜索引擎蜘蛛的爬行收录

如何禁止所有搜索引擎蜘蛛的爬行收录,第1张

可使用robots协议:建立robots.txt 文件,上传至网站根目录

屏蔽所有搜索引擎爬取网站的语法:

User-agent: *

Disallow: /

允许所有搜索引擎爬取网站所有内容

User-agent: *

Disallow:

只禁止百度抓取你网站的内容

User-agent: Baiduspider

Disallow: /

只允许百度抓取你网站的内容

User-agent: Baiduspider

Disallow:

User-agent: *

disallow: /

在网站的根目录里面,放入robots.txt文件,这样就可以屏蔽蜘蛛的爬取,不过在文件里面要放入你不想让蜘蛛爬取的地方。详细的内容你打开这个网址可以看到 http://help.baidu.com/question?prod_en=search&class=499


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/464570.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-06-04
下一篇2023-06-04

发表评论

登录后才能评论

评论列表(0条)

    保存