杭州搜索引擎优化服务(确保搜索引擎无法访问暂存/测试站点在使新站点的应用)
优采云 发布时间: 2022-02-06 11:22杭州搜索引擎优化服务(确保搜索引擎无法访问暂存/测试站点在使新站点的应用)
越早开始测试越好。有些事情需要完全实施才能进行测试,但有些事情则不需要。例如,可以在原型设计或线框图中识别用户旅程问题。新旧站点之间的内容相关问题或内容不一致(例如桌面站点和移动站点之间的内容不一致)也可以在早期发现。但是,更多技术组件在完全实现之前无法进行测试——例如重定向、规范标记或 XML 站点地图。越早发现问题,就越有可能在发布新站点之前解决这些问题。在稍后阶段识别某些类型的问题不具有成本效益,需要更多资源,并造成重大延误。
确保搜索引擎无法访问暂存/测试站点
在暂存/测试环境中使新站点可用之前,请注意搜索引擎不会对其进行索引。有几种不同的方法可以做到这一点,每种方法都有不同的优点和缺点。
可用于特定 IP 的站点(最推荐)
将测试站点限制为仅特定 IP 地址是防止搜索引擎抓取的一种非常有效的方法。任何试图访问测试站点 URL 的人都将无法看到任何内容,除非他们的 IP 已被清除。主要优点是白名单用户可以轻松访问和获取 网站 没有任何问题。唯一的缺点是第三方网络工具(如谷歌的)由于IP限制无法使用。
密码保护
密码保护登台/测试站点是防止搜索引擎爬虫的另一种方法,但这种解决方案有两个主要缺点。根据实施情况,如果爬虫应用程序无法通过登录屏幕,则可能无法爬取和测试受密码保护的 网站。另一个缺点:使用表单进行身份验证的受密码保护的 网站 可以被第三方应用程序抓取,但也存在导致严重和意外问题的风险。这是因为爬虫点击页面上的每个链接(当您登录时)并轻松点击链接以创建或删除页面、安装/卸载插件等。
robots.txt 阻止
将以下代码行添加到测试站点的 robots.txt 文件将阻止搜索引擎抓取测试站点的页面。
用户代理:* 禁止:/
这种方法的一个缺点是,即使出现在测试服务器上的内容不会被索引,不允许的 URL 也可能出现在 Google 的搜索结果中。另一个缺点是,如果上面的 robots.txt 文件进入实时站点,将导致严重的去索引问题。这是我遇到过很多次的事情,因此我不推荐这种方法来屏蔽搜索引擎。
用户旅程回顾
如果网站被重新设计或重组,很可能会在一定程度上影响用户的旅程。由于缺乏用户数据,在新网站上线初期很难检查用户行程。但是,经验丰富的 UX 专业人员将能够指出任何可能对 网站 转化率产生负面影响的问题。由于现阶段几乎不可能进行 A/B 测试,因此可能值得进行一些用户测试并尝试从实际用户那里获得一些反馈。不幸的是,用户体验问题可能是一些更难解决的问题,因为它们可能需要在站点范围内进行更改,这需要花费大量时间和精力。
在全面的网站大修中,并非所有 UX 决策都可以由数据支持,许多必须基于最佳实践、过去的经验和“直觉”,因此尽早让 UX/CRO 专家参与可能会在以后获得红利。
网站架构审查
站点迁移通常是改进站点架构的好机会。换句话说,您有很好的机会重新组织以关键字为目标的内容并最大限度地提高其搜索流量潜力。进行广泛的 关键词 研究将有助于确定最佳类别和子类别页面,以便用户和搜索引擎只需点击几下即可到达 网站 上的任何页面 - 越少越好,因此您不会最终得到很深的分类。
识别具有良好流量潜力的新关键字并将它们映射到新的目标网页可以对网站的自然流量水平产生重大影响。另一方面,强化站点架构需要仔细考虑。如果重要页面深入到新的站点架构中,或者有太多相似页面针对相同关键字进行了优化,ITT 可能会导致问题。一些最成功的站点迁移是那些分配大量资源来增强站点架构的迁移。
元数据和副本审查
确保站点的页面标题、元描述、标题和副本已从旧站点转移到新站点而没有问题。如果您创建了任何新页面,请确保这些页面已经过优化,并且不要针对已被其他页面锁定的关键字。如果您正在重新创建平台,请注意新平台在创建新页面时可能会有不同的默认值。在没有适当优化页面标题或缺少任何副本的情况下启动新站点将立即对您的 网站 排名和流量产生负面影响。不要忘记检查是否还上传了任何用户生成的内容(即用户评论、评论)。
内部链接审查
内部链接是 网站 的支柱。无论 网站 的副本如何优化和结构化,除非有完美的内部链接方案支持,否则成功是不够的。必须审查整个 网站 内部链接,包括以下链接:
技术检验
必须进行一系列技术检查,确保新站点技术设置健全,避免新站点投入运营后出现重大技术故障。
robots.txt 文件审查
在暂存环境中为新站点准备 robots.txt 文件。这样,您可以测试它是否有错误或遗漏,并避免在遇到搜索引擎抓取问题时遇到新的 网站。站点迁移中的一个典型错误是 robots.txt 文件使用以下指令阻止搜索引擎访问:
不允许: /
如果这被意外移动到实时站点(并且经常如此),它将阻止搜索引擎抓取该站点。当搜索引擎无法抓取索引页面时,与该页面关联的关键字将在搜索结果中降级,最终该页面将被取消索引。
但是,如果使用新站点的 robots.txt 指令填充暂存 robots.txt 文件,则可以避免此故障。
在为您的新网站准备 robots.txt 文件时,请确保:
标准标签审查
检查 网站 的规范标签。寻找没有规范标签或具有指向另一个 URL 的规范标签的页面,并询问这是否是故意的。不要忘记抓取规范标签以确定它们是否返回 200 服务器响应。如果不是,则需要更新它们以消除任何 3xx、4xx 或 5xx 服务器响应。您还应该寻找带有规范标签和指向另一个 URL 的 noindex 指令的页面,因为这两个是相互冲突的信号,您需要消除其中一个。