|
Post by sabiaakther on May 20, 2024 5:26:34 GMT
- 在许多情况下,我们将声明对每个人的访问权限(用户代理:*),而在其他情况下,我们将引用特定的机器人或爬虫(用户代理:googlebot)。 2. 然后我们使用“Allow:表达式”和“Disallow:表达式”指令来决定是否授予访问权限或删除它。默认情况下,我站的所有 URL(“允许:*”),但尽管从一开始就是这种情况,但许多人决定将其明确声明并继续禁止。这就是为什么,即使没有必要,看到以“允许:*”开头的机器人也不会显得奇怪。 3.最后,如果需要的话,我们可以指向我)。如果我们正确 冰岛 电话号码 管理 Google Search Console,这与 Google 无关,尽管它可以帮助其他机器人读取它,因此不会伤害我们声明它。 关于此站点地图文件的一个有趣的事情是,它甚至可以托管在我们以外的其他域上(例如,如果我们需要不时上传对文件的更改,而我们工作的网站不这样做,这可能会很有用)允许以这种敏捷的方式更新)。 因此,涵盖我们刚才提到的所有内容的案例如下: 有了这个最著名的机器人基础,让我们来了解一下并不是每个人都掌握的概念...... 回到顶部 2) 1. 文件存放的位置比您想象的更重要。 关于这一点有很多困惑,部分原因是之前的文档(事实上,当我写这篇博客文章本身时,我详细说明了错误)robots.txt 文件总是在“/robots.txt”中查找“您的域的路径。 robots.txt 会影响托管它的主机,但仅影响该主机。
|
|