网站优化:怎样屏蔽蜘蛛对网站的抓取?_网站优化

发布时间:2023-06-20 18:41:54 作者:无聊狗 阅读量:3745

  要知道在网站优化过程中,有时需要阻止搜索引擎蜘蛛,也就是说,禁止在网站上某处抓取,那么我们应该如何阻止搜索引擎蜘蛛呢?我们来看看具体的操作方法。
  百度蜘蛛抓取我们的网站,希望我们的网页能被包含在它的搜索引擎中。将来,当用户搜索时,它会给我们带来一定量的搜索引擎优化流量。当然,我们不想让搜索引擎抓取所有东西。
   因此,此时我们只希望能够抓取搜索引擎搜索到的内容。例如,用户的隐私和背景信息不希望搜索引擎被捕获和包含。解决这些问题有最佳方法,如下所示:
  robots协议文件屏蔽百度蜘蛛抓取
  robots协议是放在网站根目录下的协议文件,可以通过网址访问,当百度蜘蛛抓取我们的网站时,它会先访问这个文件。因为它告诉蜘蛛哪些能抓,哪些不能。
  robots协议文件的设置比较简单,可以通过User-Agent、Disallow、Allow这三个参数进行设置。
  User-Agent:对不同搜索引擎的声明;
  Disallow:不允许抓取的目录或页面;
  Allow:被允许抓取的目录或页面通常可以省略或不写,因为如果你不写任何不能抓取的东西,它就可以被抓取。

***本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。

我要评论

网友评论


评论时间:2024-01-24 09:30:02

据中国信通院发布《2013年中国信息基础设施发展报告》显示,截至2012年底,全国共建成大一个云虚拟主机可以建几个网站 中型云计算中心(含在建)近500家,服务于政府北京市云服务器云主机 展报告》显示,截至2012年底,全国共建成大中型云计算中心(含在建)近500家,服务于政府机构、金融、电信等行业领域

回复

  热门标签

爱秒云
Catfish(鲶鱼) Blog V 4.7.3