韩国搜索引擎优化(内容方法快速索引3.2防止爬行3.3日益突出5.2专业角色查看)
优采云 发布时间: 2022-01-18 01:04韩国搜索引擎优化(内容方法快速索引3.2防止爬行3.3日益突出5.2专业角色查看)
网站进行搜索引擎优化 SEO 的过程 影响网站在搜索引擎中为“自然”或无偿(“有机”)构建或制作网页的搜索引擎优化 (SEO) 过程") 搜索结果的可见性。一般来说,越早(或在搜索结果页面中排名越高)的词条,网站在搜索结果列表中出现的频率越高,从搜索引擎用户那里获得的访问者就越多。搜索引擎优化可以针对不同类型的搜索,包括图片搜索、本地搜索、视频搜索、学术搜索、[ ]新闻搜索和行业特定的垂直搜索引擎。作为一种网络营销策略,SEO 考虑搜索引擎的工作方式、人们搜索的内容、实际搜索词或 关键词 输入到搜索引擎和搜索引擎是首选目标受众。优化 网站 可能需要编辑其内容、HTML 和相关编码,以增加特定关键字的相关性并消除搜索引擎索引活动的障碍。推广 网站 反向链接或增加入站链接的数量是另一种 SEO 策略。search engine optimization的英文缩写复数可以指“搜索引擎优化”,即提供SEO服务的人。内容方法3.1 快速索引3.2 抓取预防3.3 日益突出,SEO 文案5.1 技术细节5.2 专业角色审查10 注意事项11 外部链接历史优化 网站 的搜索引擎始于 1990 年代中期,
最初,所有 网站 管理员需要做的就是“蜘蛛”“爬取”页面,提取到其他页面的链接,并返回页面上找到的信息,以将提交的页面的地址或 URL 发送到不同的页面engine ,用于索引。[ ]该过程涉及搜索引擎蜘蛛下载页面并将其存储在搜索引擎自己的服务器上,第二个程序称为索引器,提取各种信息,例如它收录的单词以及它们的位置定位,以及任何特定单词的权重,以及页面中收录的所有链接,然后被放入调度程序以供以后抓取。网站@ >业主开始意识到拥有自己的网站的价值高度,排名在搜索引擎结果中可见,白帽SEO从业者创造机会。根据行业分析师 Danny Sullivan 的说法,“搜索引擎优化”可能在 1997 年开始使用。[] SEO 的第一个记录使用是 John Odette 和他公司的多媒体营销部门 MMG 网站从 1997 年开始的网页记录。早期版本的搜索算法依赖于管理员提供的 网站 关键字元标记,或者像 ALIWEB 引擎的索引文件这样的信息,例如。元标记为每个页面的内容提供指导。使用元数据索引的网页被认为低于 Reliable,但是,由于 网站 管理员选择的元标记中的 关键词 可能不准确,因此 网站 的实际内容。元标记不准确、不完整和不一致的数据也会导致页面的搜索排名不相关。
Web 内容提供商还操纵网页的 HTML 源代码中的某些属性,以试图在搜索引擎中排名 [早期的搜索引擎依赖于许多因素,例如关键字密度,而这些因素完全在管理员的控制范围内 网站 ,遭受滥用和分类操作。为了向他们的用户提供更好的结果,搜索引擎必须适应以确保他们的结果页面显示最相关的搜索结果,而不是由*敏*感*词*的网站管理员塞满大量关键字的不相关页面。由于一个成功且流行的搜索引擎取决于其为任何给定搜索生成最相关结果的能力,因此将这些结果设为错误将使用户转向寻找其他搜索。搜索引擎正在开发更复杂的排名算法,考虑到其他因素,使 网站 管理员更难操作。斯坦福大学的*敏*感*词*拉里·佩奇和谢尔盖·布林,“BackRub”的搜索引擎依靠数学算法对突出的页面进行评分。PageRank 算法计算一个数字,该数字是入站链接的数量和强度的函数。[ ] PageRank 的估计概率将由随机网络用户通过从一个页面到另一个页面的链接浏览给定页面而达到。在实践中,这意味着某些链接比其他链接更强大,因为具有高 PageRank 的页面更有可能被随机冲浪者访问。Page 和 Brin 于 1998 年创立了 Google。Google 正在吸引越来越多的互联网用户,他们喜欢其在忠实追随者中的简单设计 [] 页外因素(例如 PageRank 和超链接分析),
标签、标题、链接和 网站 结构)允许 Google 避免仅将哪些页面视为其在搜索引擎中的排名因素的行为。虽然 PageRank 是更难的游戏,但网站管理员影响了 Inktomi 搜索引擎的链接构建工具和程序,事实证明这些方法同样适用于游戏的 PageRank。集中交易,买卖,通常由许多 网站 *敏*感*词*进行。这些程序或链接农场参与创建数千个 网站 链接,其唯一目的是发送垃圾邮件。[到 2004 年,搜索引擎在其排名算法中加入了广泛的未公开因素,以减少链接控制的影响。2007 年 7 月,《纽约时报》的 Saul Hansell 表示,谷歌排名 网站 使用超过 200 种不同的信号。[10] 领先的搜索引擎谷歌、必应和雅虎也没有披露他们用来对页面进行排名的算法。一些SEO从业者有不同的研究方法,搜索引擎优化,并分享他们的个人观点11]搜索引擎提供的专利相关信息,以便更好地了解搜索引擎。[12 2005 年,Google 开始为每位用户提供个性化的搜索结果。登录用户根据他们的历史记录、以前的搜索和 Google 构建结果。[13] 2008 年,Bruce Clay 说“排名已死”,因为个性化搜索。他认为,讨论一个 网站 如何对每个用户和每个搜索进行排名将变得毫无意义,因为它的排名可能会有所不同 [14 在 2007 年,
谷歌知名软件工程师 Matt Cutts 宣布,谷歌机器人将不再以同样的方式对待 PageRank 建模,以防止 SEO 服务提供商使用 nofollow。[16] 由于这种变化,使用 nofollow 链接会导致 PageRank 蒸发。为了避免上述问题,SEO 工程师开发了替代技术来混淆 Javascript 并使用 nofollow 替换标签,从而允许 PageRank 建模。此外,已经提出了几种解决方案,包括使用 iframe、Flash 和 Javascript。[17 2009 年 12 月,谷歌宣布将使用其所有用户的网络搜索历史来填充搜索结果。[18 Google Instant 是一种实时搜索,于 2010 年底推出,旨在使搜索结果更加及时和相关。从历史上看,网站 管理员花费数月甚至数年时间优化网站 以提高搜索排名。随着社交媒体 网站 和博客的普及,占主导地位的引擎改变了他们的算法,以允许新鲜内容在搜索结果中快速排名。[9 月,Google 宣布“熊猫更新,处罚。历史上 网站 复制内容在搜索引擎排名中通过从事这种做法受益于另一个,但 Google 实施了一个新系统,其中包括从其他 网站@ 复制的内容> 和 网站punished网站 的来源,其内容不是唯一的。
[10 月,Google 推出了 Google Penguin 更新,目的是惩罚 网站 使用操纵技术来提高其在搜索引擎中的排名 [引文需要到 1997 年与搜索引擎 Yahoo 和 Google Offices 建立联系,搜索引擎, 网站管理员很难在他们的搜索引擎中排名,一些网站管理员甚至使用过多或不相关的关键字操纵填充页面在搜索结果中排名以进行确认。早期的搜索引擎,如 AltaVista 和 Infoseek,调整了他们的算法以防止 网站 管理员操纵排名。[21 2005 年,年度会议 AIRWeb,Web 上的对抗性信息检索成立,旨在让从业者和研究人员关注网络上的对抗性信息检索。[ 22 采用过于激进的技术的公司可能会让他们的客户网站被禁止进入搜索结果。2005 年,《*敏*感*词*日报》报道称,据称使用高风险技术的运输电力公司没有向其客户披露这些风险。[23“杂志报道说,同一家公司起诉博主和搜索引擎优化作家艾伦沃尔的禁令。[24谷歌的马特卡茨后来证实,谷歌实际上是在禁止流量和它的一些客户。一些搜索引擎也达到了已知的SEO 行业,是 SEO 会议、聊天和研讨会的频繁赞助商和嘉宾。主要搜索引擎提供信息和指南以帮助 网站优化[26 27]Google 有一个站点地图计划,以帮助网站管理员了解 Google 是否将他们的网站 关于任何问题,
方法 本节收录说明、评论或内容。维基百科的目的是呈现事实,而不是训练。请通过重写内容或移动 Wikiversity (10/2012) 帮助改进此 文章 ,比如说,网站F 到 网站B,但反之则不然。搜索引擎首先假设每个 网站 都有相同的机会被用户选中。接下来,爬虫公式检查哪些 网站 链接到其他 网站 并猜测 网站 的更多传入链接收录用户想要的有价值信息。搜索引擎使用复杂的数学算法来猜测 网站 的一部分,根据用户请求检查 网站 彼此的链接。网站 B 是大量外部链接的接收者,B 是网络上的热门搜索之一,并且回到了网络搜索中。此外,由于 B 很受欢迎并且有到 C 的出站链接,因此 C 也名列前茅。被谷歌、必应和雅虎等领先的搜索引擎索引,使用爬虫找到他们的搜索算法结果页面。从其他搜索引擎索引的页面链接的页面不需要提交,因为它们是自动发现的。一些搜索引擎,特别是雅虎,运营付费提交服务,保证固定费用或每次点击的爬行费用。[29] 此类程序通常保证收录在数据库中,但不保证在搜索结果中的特定排名。30] 两个主要目录,雅虎目录和开放目录项目,需要手动提交者编辑审查。
[31]谷歌提供Google网站Administrator工具,可以免费创建和提交XML网站地图,确保所有页面[32]都被发现,尤其是自动链接的网页不会被发现. 在抓取 网站 时,搜索引擎的抓取工具可能会考虑许多不同的因素。并非每个网页都被搜索引擎索引。页面与站点根目录的距离也可能是页面是否被爬取的一个因素。[ 33 主要防止爬取文章:搜索索引中的机器人排除标准,避免不良内容,网站管理员可以指示蜘蛛不要爬取通过条件robots.txt的域根目录中的某些文件或目录文件。此外,通过使用机器人的元标记,可以从搜索引擎数据库中明确排除页面。当搜索引擎访问 网站 时,要抓取的第一个文件是位于根目录中的 robots.txt。robots.txt 文件被解析并指示机器人抓取哪些页面。由于搜索引擎爬虫可能会保留此文件的缓存副本,它有时可能会爬取 网站 管理员不希望爬取的页面。通常无法抓取的页面包括特定于登录的页面(例如购物车)和特定于用户的内容(例如来自内部搜索的搜索结果)。2007 年 7 月,Google 警告 网站 管理员也要避免将内部搜索结果编入索引,因为这些网络搜索是垃圾邮件。[34 越来越多的方法可以提高页面在搜索结果中的显着性。
[35] 编写收录经常搜索的关键字词组的内容,因此各种搜索查询都是相关的,往往会增加流量。[35] 更新内容以保持搜索引擎爬行通常会给 网站 额外的权重。将相关关键字添加到网页的元数据中,包括标题标签和元描述,将提高 网站 搜索列表的相关性,从而增加流量。可以通过多个 URL、使用规范链接元素 [36] 或通过 301 重定向访问的 URL 规范化网页可以帮助确保指向不同版本 URL 的链接计入页面的链接流行度分数。搜索引擎优化技术可以分为两大类:作为良好设计建议一部分的搜索引擎技术,以及那些搜索引擎不认可的技术。搜索引擎试图将垃圾邮件索引的后者的影响降至最低。行业评论员如何对他们进行分类和雇用,无论是白帽 SEO 还是黑帽 SEO 37] 白帽医生往往会在去年很长一段时间内产生成果,而黑帽医生则希望他们的 网站 最终可能会被暂时或永久禁止一旦搜索引擎发现它在做什么。[38 如果 SEO 技术符合搜索引擎指南并且不涉及欺骗,则它被视为白帽技术。作为搜索引擎的指南 [26, 39] 不是作为一组规则和规则呈现的,这是一个重要的区别。black hat SEO 37] 白帽医生往往会在去年很长一段时间内产生结果,而黑帽医生希望他们的 网站@ > 一旦搜索引擎发现它在做什么,最终可能会被暂时或永久禁止。[38 如果 SEO 技术符合搜索引擎指南并且不涉及欺骗,则它被视为白帽技术。作为搜索引擎的指南 [26, 39] 不是作为一组规则和规则呈现的,这是一个重要的区别。black hat SEO 37] 白帽医生往往会在去年很长一段时间内产生结果,而黑帽医生希望他们的 网站@ > 一旦搜索引擎发现它在做什么,最终可能会被暂时或永久禁止。[38 如果 SEO 技术符合搜索引擎指南并且不涉及欺骗,则它被视为白帽技术。作为搜索引擎的指南 [26, 39] 不是作为一组规则和规则呈现的,这是一个重要的区别。
SEO不仅仅是遵循指南,而是确保内容被搜索引擎索引,然后排名,用户将看到相同的内容。白帽建议是概括用户创建的内容,而不是搜索引擎,然后让这些内容对蜘蛛来说很容易,而不是试图欺骗算法来达到它们的预期目的。白帽 SEO 是一种 Web 开发,它以许多相似的方式促进可访问性,[40] 尽管两者并不相同。搜索引擎优化试图通过拒绝搜索引擎来提高排名,或者涉及欺骗。黑帽技术在不可见的 div 或屏幕外位置使用隐藏文本,作为文本颜色和类似背景。另一种方法根据页面是由一个人的访问者请求还是搜索引擎技术提供不同的页面,这种技术称为隐形。搜索引擎惩罚 网站 他们发现黑帽方法可以降低他们的排名或从他们自己的数据库中完全删除他们的列表。此类处罚由搜索引擎算法或通过人工现场审查自动执行。一个例子是谷歌在 2006 年 6 月从宝马德国和理光德国删除了欺诈行为。 [41] 然而,两家公司很快道歉,修复了有问题的页面,并将它们恢复到谷歌的列表中。[42 SEO Copy 本节需要额外引用以进行验证。请通过引用可靠的来源帮助改进这个文章。黔东南苗族侗族自治州的挑战与删减.
技术细节主要文章:搜索引擎优化爬虫依赖于文章文本中的关键字放置文章,通常会忽略图像。[43] 出现在几个关键位置(例如,在页面代码的 <title> 标记中)的文本会受到特别关注,因为搜索引擎会将信息与其他页面进行比较以确定相关性。SEO 撰稿人还力求在页面上提供独特的书面内容,将其与竞争的类似页面区分开来以放置在搜索结果中。在搜索过程中的其他因素中,确定相关页面的关键字密度、关键字的位置以及从其他页面到该页面的链接数量。专业角色 SEO 文案是最常见的文案工作类型之一。但是,也有专为 SEO 设计的租赁服务,专门从事 SEO(搜索引擎优化文案)的机构和企业,作为 SEO 文案自由撰稿人的一部分,提供全面的写作和编辑服务的文案机构。自由SEO文案将与客户合作,以促进客户的业务需求,以确定合适的关键字。然后使用在线关键字研究工具来采集潜在短语的列表。SEO文案的一个明显目标是让业务或产品页面在搜索中排名,该领域的大多数专家认为这是次要的。SEO文案的主要目标是在精心编写的网页上提供简洁、有效的有说服力的文字,以激励读者采取行动。写“优化”
在最坏的情况下,它会成为一种昂贵的资源,吸引潜在买家远离 网站,而不是产生销售。SEO文案的主要目标仍然是编写人们想要阅读和链接的有趣内容。SEO文案往往是SEO技术方面的专家,具有“优化”。他们不仅会一起重写文本,还会更改代码以设计出最受搜索引擎青睐的网页。然而,这不是一个明确的、科学的过程。为了保持竞争力并抵御构成所谓的黑帽 SEO 的策略,今天的搜索引擎设计人员不会透露其搜索引擎的复杂算法过程。尽管优化技术人员的见解,搜索引擎优化文案需要技巧和反复试验来评估潜在客户的“ s 搜索团队的页面修改将会生效。SEO 作为一种营销策略并不是每个网站 都适合的策略,其他互联网营销策略可能更有效,具体取决于网站 运营商的目标。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。s 页面修改会收费。SEO 作为一种营销策略并不是每个网站 都适合的策略,其他互联网营销策略可能更有效,具体取决于网站 运营商的目标。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。s 页面修改会收费。SEO 作为一种营销策略并不是每个网站 都适合的策略,其他互联网营销策略可能更有效,具体取决于网站 运营商的目标。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。SEO 作为一种营销策略并不是每个网站 都适合的策略,其他互联网营销策略可能更有效,具体取决于网站 运营商的目标。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。SEO 作为一种营销策略并不是每个网站 都适合的策略,其他互联网营销策略可能更有效,具体取决于网站 运营商的目标。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。根据 网站 运营商的目标,其他互联网营销策略可能更有效。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。根据 网站 运营商的目标,其他互联网营销策略可能更有效。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。[44] 成功的互联网营销活动还可能依赖于建立高质量的网页来吸引和说服,建立分析程序,使 网站 所有者能够衡量结果并提高网站转换率。SEO 可能会产生足够的投资回报率。然而,搜索引擎的自然搜索流量,他们的算法不支付,也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。它也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。它也不保证持续推荐。由于缺乏保证和确定性,如果搜索引擎停止发送访问者,依赖大量搜索引擎流量的企业将遭受重大损失。
[46] 搜索引擎可以改变他们的算法,影响网站的布局,可能导致严重的流量损失。据谷歌 CEO Eric Schmidt 称,2010 年,谷歌进行了 500 多次算法更改——几乎每天 1.5。[47] 网站 运营商将自己从对搜索引擎流量的依赖中解放出来被认为是明智的商业实践。[48 国际市场高度关注主导目标市场的 SEO 技术。搜索引擎市场份额因市场而异,竞争也是如此。2003 年,Danny Sullivan 表示 Google 约占所有搜索的 75%。[49] 在美国以外的市场,谷歌的市场份额通常更大,2007 年谷歌仍然是全球搜索引擎的主导者。 50] 截至 2006 年在德国,谷歌拥有 85-90% 的市场份额。[51] 虽然当时美国有数百个 SEO 部门,但德国只有大约 5 个。[51,Google 在英国的市场份额接近 90%,根据 Hitwise 52] 在一些国家,市场份额达到了。截至 2009 年,只有少数几个大型市场 Google 不是领先的搜索引擎。当谷歌不在特定市场领先时,在大多数情况下它落后于本地玩家。在这种情况下,最引人注目的市场是中国、日本、韩国、*敏*感*词*和捷克共和国,其中百度、雅虎日本、Naver、Yandex 和 Seznam 分别是市场领导者。在国际市场上成功的搜索优化可能需要专业的网页翻译、目标市场顶级域名的域名注册、网络托管以及提供本地 IP 地址。否则,搜索优化的基本元素本质上是相同的,无论是什么语言。原创来源