谷歌 搜索引擎优化指南(Google中自动排位第一的秘诀(抱歉!)(组图))
优采云 发布时间: 2021-09-05 11:12谷歌 搜索引擎优化指南(Google中自动排位第一的秘诀(抱歉!)(组图))
前言
如果您通过 Google 搜索运营、管理或宣传在线内容,或者通过在线内容获利,则本指南适用于您。如果你是一个快速成长的企业,拥有十几位网站的网站站长,网络代理SEO专家,或者对搜索机制有浓厚兴趣的DIY SEO专家,本指南也适合给你。
如果您有兴趣根据我们的最佳实践全面了解 SEO 基础知识,那么本指南也适用于您。本指南不会提供任何让您的 网站 自动在 Google 中排名第一的提示(抱歉!),但如果您遵循下面列出的最佳实践,您将有望让搜索引擎更轻松地抓取、理解您的内容和索引它。
搜索引擎优化 (SEO) 通常是指对网站 的各个部分进行细微修改。单独来看,这些修改可能只是渐进式和细微的改进,但当与其他优化结合时,它们可能会对您的网站 在自然搜索结果中的用户体验和性能产生重大影响。您可能已经熟悉本指南中的许多主题,因为它们是任何网页的基本元素,但您可能不会充分利用它们。
您应该优化网站以满足用户需求。您的一个用户是搜索引擎,它可以帮助其他用户发现您的内容。搜索引擎优化是指帮助搜索引擎理解和呈现内容。你的网站可能比我们的例子网站更简单或更复杂,呈现的内容也可能大不相同,但我们下面讨论的优化主题适用于网站的所有大小和类型。
我们希望本指南能够为您带来一些全新的关于如何改进网站的想法,也希望您在Google网站站长帮论坛1中积极分享您的问题、反馈和成功案例.
相关术语
以下简要词汇表收录本指南中使用的重要术语:
索引 - Google 会将它知道的所有网页存储在其“索引”中。每个网页的索引条目描述了网页的内容和位置(URL)。索引是指 Google 抓取、读取网页并将其添加到索引中的过程。例如:Google 今天已将我的 网站 上的几个网页编入索引。
爬行-查找新页面或更新页面的过程。 Google 将通过点击链接、阅读站点地图或其他各种方法来发现 URL。 Google 会抓取网络以查找新页面,然后(在适当的情况下)将这些页面编入索引。
爬虫自动化软件,可从网络爬取(提取)网页并为其编制索引。
Googlebot - Google 抓取工具的通用名称。 Googlebot 将继续抓取网页。
SEO-搜索引擎优化:使您的网站 更容易被搜索引擎抓取和索引的过程。它也可以指从事搜索引擎优化工作的人的职位。例如,我们刚刚聘请了一名新的 SEO 来增加我们在互联网上的曝光率。
您的网站 是否被 Google 搜索引擎 收录 使用过?
您可以在 Google 搜索引擎中对您的 网站 主页网址执行“站点:”搜索。如果你能看到结果,说明你的网站在索引中。如“站点:”。
虽然谷歌可以抓取数十亿个网页,但难免会漏掉一些网站。所以如果你的网站不是收录,可能是以下原因造成的:
如何让我的 网站 出现在 Google 搜索结果中?
在谷歌搜索结果中收录网站是完全免费的,操作简单,你甚至不需要向谷歌提交网站。 Google 是一个完全自动化的搜索引擎,它使用网络爬虫不断抓取网页以找到可以添加到 Google 索引中的 网站。
实际上,谷歌搜索结果中显示的网站大部分不是手动提交纳入索引的,而是谷歌在抓取网页时发现并自动添加的。了解 Google 如何发现、抓取和呈现网页。
我们提供了网站站长的攻略,帮助网站站长搭建方便Google处理的网站。虽然我们不能保证我们的抓取工具能够找到特定的 网站,但遵循这些准则应该会让您的 网站 出现在我们的搜索结果中。
Google Search Console 提供了一系列工具来帮助您向 Google 提交内容并监控您的 网站/mobile 应用程序在 Google 搜索结果中的可见性。如果您愿意,Search Console 甚至可以在 Google 在抓取您网站 的过程中发现任何严重问题时向您发送提醒。注册 Search Console。
首先,您需要问自己以下有关网站 的基本问题:
帮助 Google 发现您的内容
要让网站 出现在 Google 搜索结果中,第一步是确保 Google 可以找到它。最好的方法是提交站点地图。站点地图是网站 上的一个文件,它可以通知搜索引擎网站 上的新网页或更新网页。详细了解如何构建和提交站点地图。
Google 还会通过其他网页上的链接查找网页。
让 Google 知道不应抓取哪些页面
最佳做法
如果是非敏感信息,可以使用robots.txt防止不必要的爬取
“robots.txt”文件将告诉搜索引擎他们是否可以访问您网站 的每个部分并执行抓取。该文件必须命名为“robots.txt”,并且应位于网站 的根目录中。被 robots.txt 屏蔽的页面也可能被抓取,因此您应该使用更安全的方法来保护敏感页面。
您可能不希望网站的某些页面被抓取,因为这些页面出现在搜索引擎的搜索结果中时可能对用户毫无用处。如果您想阻止搜索引擎抓取您的页面,Google Search Console 可以提供方便的 robots.txt *敏*感*词*来帮助您创建此文件。请注意,如果您的 网站 使用子域,并且您不希望 Google 抓取特定子域上的某些网页,则您必须为该子域创建单独的 robots.txt 文件。
避免什么:
不要让 Google 抓取内部搜索结果页面。用户不喜欢点击搜索引擎结果,而是在您的网站 上登录其他搜索结果页面。
允许抓取代理服务器创建的 URL。
如果是敏感信息,请使用更安全的方法
为了防止用户访问敏感或机密信息,Robots.txt 不是一种适当或有效的方式。它只是告诉运行良好的爬虫不要爬取相应的页面,但它不会阻止您的服务器将这些页面发送到请求它们的浏览器。原因之一是:如果互联网上的某处(如referrer日志)有这些被禁止的URL的链接,那么搜索引擎仍然可以引用这些URL(只显示URL,但不显示标题或摘要) )。此外,不合规的搜索引擎或不同意遵守机器人排除标准的流氓搜索引擎可能会违反您的 robots.txt 文件中的说明。最后,用户可能会出于好奇查看您的 robots.txt 文件中的目录或子目录,并猜测您不想看到的内容的 URL。
在这些情况下,如果您只是希望网页不显示在 Google 中,您可以使用 noindex 标签,而不必担心任何用户会通过链接访问网页。但是,为了真正安全,您应该使用适当的授权方式(例如,需要用户密码才能访问)或将网页从网站 中彻底删除。