首页 » 如何在商业网站上屏蔽 Googlebot

如何在商业网站上屏蔽 Googlebot

无法阻止 Googlebot 访问页面 HTML 的特定部分,但您可以通过使用 data-nosnippet HTML 属性等方法获得一些控制。

Googlebot,也称为爬虫或蜘蛛,是 Google 推出的一款特殊搜索程序,其工作是索引网页。该软件抓取互联网上的网页,读取其内容,然后将其添加到其索引中,即数据库。从那里,当用户输入搜索查询后,页面就会以搜索结果的形式显示在 SERP 上。

如果一家公司想阻止 Googlebot 抓取 belgium电子邮件列表 其网站内容,那么它首先应该考虑是否要 a) 阻止 Googlebot 抓取该页面,b) 阻止 Googlebot 对该页面编入索引,或者 c) 阻止 Googlebot 和用户访问该页面。

阻止 Googlebot 访问网站

最简单的解决方案是robots.txt文件。如果某个公司为 Googlebot 用户代理添加了 disallow: / 命令,那么只要网站管理员将该规则保留在文件中,它就不会管该网站。

索引阻塞

可以使用noindex规则阻止对网页 客户旅程示例那里听说他是当 进行索引,该规则可通过 <meta> 标签或 HTTP 响应标头设置。当 Googlebot 在抓取网页时提取标签或标题时,它会将该网页从 Google 搜索结果中排除,无论其他网站是否链接到该网页。但前提条件是该页面或资源不能被robots.txt文件屏蔽,并且必须能够被搜索引擎访问。

阻止 Googlebot 访问网站的特定部分

您无法阻止Google抓取HTML 页面的某些部分。有两种可能的策略可以解决这个问题,但是,它们都不能提供该问题的最佳解决方案。

第一种方法是使用data-nosnippet HTML属性,它可以防止文本显示在搜索片段中。第二种选择是使用iframe或 JavaScript,其来 加密数据库 源被 robots.txt 阻止。然而,这两种方法都有各自的缺陷。使用机器人化的 iframe 或 JavaScript 文件可能会导致难以诊断和解决的抓取和索引问题。

更改 Googlebot 抓取网站的速度

 

当您的网站因 Googlebot 过度抓取而面临可访问性问题时,您可以使用 robots.txt 文件来紧急阻止抓取。但是,您不应长时间阻止访 如何在商业网站上屏蔽 Googlebot 问该网站,否则可能会对您的浏览体验产生负面影响。还需要记住的是,更改可能需要长达 24 小时才能生效。然后在抓取速度设置页面调整抓取速度,几天后,当 Google 调整速度时,你就可以再次从 robots.txt 文件中删除该阻止。

滚动至顶部