|
Post by account_disabled on Dec 26, 2023 11:51:28 GMT 3
个日益严峻的挑战,因为有些服务的唯一目的是拦截通过云服务传输的数据,而有些服务则拦截个性化内容以用于自己的目的,从而挑战了消费者的权利。 对于使用云服务的公司来说,他们希望确保其网站的安全,并且安全设置不要太严格,以免导致 Googlebot 无法抓取其网站的内容。 个性化和 SEO 的重要技巧 我在上面提到了一些 SEO 考虑因素。还有其他一些需要记住的事情。 本地自适应页面 如果您的网站具有区域设置自适应页面(即,您的网站根据访问者感知到的国家/地区或首选语言返回不同的内容),Google 可能不会针对不同区域设置对您的所有内容进行抓取、编制索引或排名。 这是因为 Googlebot 抓取工具的默认 IP 地址似 手机号码数据 位于美国。另外,爬虫发送HTTP请求时,不会在请求头中设置Accept-Language。 当 Googlebot 看起来来自某个国家/地区时,请像对待该国家/地区的任何其他用户一样对待它。 这意味着,如果您阻止美国用户访问您的内容,但允许澳大利亚访问者查看该内容,则您的服务器应阻止看似来自美国的 Googlebot,但允许访问看似来自美国的 Googlebot澳大利亚。 阻止访问 对每个区域设置一致地应用机器人排除协议。简而言之,机器人元标记和robots.txt 文件都应在每个区域设置中指定相同的指令。 在某些情况下,网站使用 robots.txt 文件来阻止包含多个“EN”版本的页面被抓取,并利用其 CDN 或根据抓取工具的位置/访问点更新 robots.txt 文件。 例如,在英语网站的“AU”版本上执行的爬网将显示一个 robots.txt 文件,该文件阻止访问“AU”域之外的任何其他“EN”页面。 对于美国版本,CDN 将显示美国版本的 robots.txt 文件,阻止访问任何其他“EN”版本。 Google 建议,如果您使用此解决方案,则应为每个域进行相同的设置。我们建议进行初步测试,以确保预期结果对每个客户长期有效。
|
|