搜索引擎检索结果列表中的URL命名规则是什么?
优采云 发布时间: 2021-06-08 03:41搜索引擎检索结果列表中的URL命名规则是什么?
URL 是搜索引擎搜索结果列表中显示的内容之一。在设计网站结构时,需要提前规划目录和文件命名系统。总的原则是从用户体验出发,网址要清晰、友好、易记,然后再考虑网址对排名的影响。 URL命名技术 URL命名是针对URL的各个组成部分进行的,是URL优化中最重要的环节之一。
URL 命名的关键是使用合适的关键字来命名 URL 的各个组成部分,即关键字所表达的含义必须与 URL 指向的页面的主题相关,这将有助于提高页面的相关性。突出页面的主题。 1) URL 命名规则大部分网站 URL 命名规则如下:
根域+列+文章page
网站还有一些URL命名规则:
根域 +文章page
大部分可以生成的变量都在文章页面的命名规则中。很多朋友可能会注意到他们的命名规则不合理。那么什么样的URL命名规则更有利于搜索引擎抓取呢? ?
Google 在《创建方便 Google 处理的 URL 结构》一文中的建议如下:2) URL 级别深度 相信大家已经讨论过 URL 的深度级别,二层、三层、四层。 网站 的要求不同:3) URL 标准化。相信大家都非常重视URL的标准化。例如,最常见的 URL 标准化是对主页 URL 中的四种可能形式进行 301 重定向。 网站的权重集中在首选域上。
但这只是最基本的 URL 标准化操作。在考虑了 URL 命名和层次结构之后,我们需要检查网页的 收录 中是否存在类似于网页内容的 URL,尤其是对于一些动态网页。出现这种情况。比如WordPress程序设置好后,很容易出现多个动态重复的页面URL。因此,遇到这种情况,可以在robots.txt文件中写入爬取规则,禁止蜘蛛爬取所有动态URL地址。具体操作是写如下命令:
用户代理:*
禁止:/*?*
4) URL权重可控性 当然,URL结构优化还涉及到一些其他的细节,其中最重要的是后期要把握好URL权重的可控性。
比如一开始,我们需要做长远的考虑,为网站设计了很多专栏,但是这些专栏不是我们第一阶段想要投资的,那么我们可以写这些专栏进入robots文件来阻止蜘蛛爬行,或者使用nofollow标签来防止权重传递,达到合理引导网页权重的目的。如果后期有精力开始开发新的栏目,我们可以放开搜索引擎蜘蛛的爬取权限。 URL长度控制 URL的长度控制主要是从用户的角度考虑,方便用户输入、记忆和传播。对于搜索引擎来说,过长的网址可能会被收录限制,甚至被搜索引擎收录直接放弃。
URL长度=域名长度+路径长度+文件名长度
比如URL的长度就是域名的长度(17)+路径长度(11)+文件名长度(9)=37。URL关键词结合关键词可以提高页面)相关性,对排名贡献一点点。关键词出现的越早越好,表示它出现在域名中最好,其次是目录名,出现效果最差在文件名中。
但不要为了关键词出现而堆积。
在 URL 中,我们可以充分利用分隔符,将 URL 各组成部分的名称组合起来,生成新的短语(或短语)来扩展 URL 的含义。这就是URL中组件名称的组合与分离问题,即URL中目录、目录、文件名称的组合与分离。
例如,在这个网址中,三个看似无关但又密切相关的关键词“SEO”、“xuexi”和“jiaocheng”巧妙地组合在一起,创造了另一个新的热门关键词“SEOxuexijiaocheng(SEO学习教程)”。
另外,为了让搜索引擎更好的识别关键词组合的含义,目录之间的分隔斜线/用于有效分割关键词,同时兼顾“SEOxuexi”和“SEOjiaocheng”两个关键词。