名誉 搜索引擎优化(搜索引擎优化对任何一家网站来说的重要性)
优采云 发布时间: 2021-09-02 10:15名誉 搜索引擎优化(搜索引擎优化对任何一家网站来说的重要性)
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
搜索引擎优化(也叫搜索引擎优化,英文叫Search Engine Optimization,简称SEO)是一种利用搜索引擎搜索规则来提高网站提名在相关搜索引擎中的目的的方式。许多研究发现,搜索引擎用户往往只关注搜索结果中的前几项,因此很多网站希望通过各种形式影响搜索点击量的排名。其中,以广告为生的各种网站非常重要。
所谓的“搜索引擎优化处理”,就是让网站更容易被搜索引擎接受。搜索引擎会将网站的内容与一些相关数据进行对比,然后浏览器将这些内容以最快最完整的方式呈现给搜索者。
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有 可观的流量。所以每次搜索引擎算法变化,网站都会引起很多骚动和焦虑。可以说,搜索引擎优化是一项越来越复杂的任务。
早期搜索引擎
网站管理员和网络内容提供商在 1990 年代中期开始使用搜索引擎来优化 网站。这时,第一代搜索引擎开始对互联网进行分类。一开始,网站员要做的就是向各种搜索引擎提交网站。这些引擎运行一些蜘蛛(spider)──检索到网络程序中找到的其他网页的链接──并存储找到的数据。该过程还包括将网页下载并保存到搜索引擎所有者的服务器。这时候还有一个软件叫Indexer,用来抓取页面上的不同信息——页面上的文字,文字的位置,以及文字的重要性。以及页面中收录的任何链接,然后将该页面放入列表中并等待一段时间后才能检索它。随着在线文件数量的积累,越来越多的网站员意识到基本搜索(organic search,也译为随机搜索[1])项目的重要性,所以比较热门的搜索引擎公司开始整理他们的列表,给予优先显示最合适的网页。搜索引擎和网站员之间的战争开始并持续到今天。
一开始,搜索引擎是由网站administrators 领导的。搜索算法的早期版本依靠网站员提供信息,例如关键字(元标签)的基本定义。当一些网站员开始滥用标签,导致页面排名与链接无关时,搜索引擎开始抛弃标签,开发更复杂的排名算法。由于准备数量不够,仅列出几个分析目标如下:
title标签中的文字,如引擎域名,如:统一资源定位器下的目录和文件名,如:“软盘,软盘”“硬盘,硬盘” Alt属性图文链接,例如:因为这些还在网站员的眼皮底下滚动,搜索引擎陆续遇到了滥用、操纵排名等诸多问题。为了给用户提供更好的结果,搜索引擎必须进行调整,让他们的搜索结果显示最合适的结果,而不是用一些*敏*感*词*的互联网用户生成的关键字填充无用的网页。结果,出现了新型搜索引擎。
#p#
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
当代搜索引擎
Google 由斯坦福大学的两名博士生拉里·佩奇和谢尔盖·布林创立。他们为网页评估带来了一个新概念。这个概念称为 PageRank,是 Google 算法的重要开端 [2]。网页的层级很大程度上依赖于传入的链接,引入一个网页的每个链接都相当于为网页的价值投票的理论被用来建立一个逻辑系统。导入的链接越多,页面的“价值”就越大。每个导入链接的值直接基于链接来自的页面级别,反之基于页面的传出链接。
在页面层面的帮助下,谷歌在服务相关的结果方面已经被证明是非常出色的。谷歌已经成为最受欢迎和最成功的搜索引擎。由于页面级别衡量的是站外因素,因此 Google 认为会比页面内因素更难操纵。
然而,路高一尺,魔鬼高一尺。 网站员人开发了链接操作工具,并计划应对Inktomi搜索引擎。事实证明,这些方法对 Google 的算法同样有效。许多站点专注于交换、购买和销售大量链接。随着“网站员寻求获取链接只会影响谷歌向网站发送更多流量,无论对网站访问者是否有用”行为的增加,页面原创算法的可信度水平已经逐渐被破坏。 .
此时,是 Google 和其他搜索引擎仔细检查各种非现场因素的时候了。开发更智能的算法还有其他原因。互联网已经膨胀到一大群非技术人员。他们往往无法使用高级提问技巧来获取信息;并且他们必须处理比开发初期更大的数据和更复杂的索引。搜索引擎必须开发预测、语义、语言和启发式算法。
目前,Google 工具栏上仍显示页面级别的缩小版本,但页面级别只是 Google 在考虑页面评级时考虑的 100 多个因素之一。
如今,大多数搜索引擎都对其算法的评级保密。搜索引擎可能会使用数百个因素来对目录进行排名;每个因素本身和因素的比例可能会不断变化。
大多数当代搜索引擎优化想法(有效和无效)主要基于基于内部信息的观察和猜测。一些优化器必须进行受控实验才能获得不同优化方法的结果。
尽管如此,以下是搜索引擎开发算法时的一些注意事项。此外,这份谷歌专利列表[3]可能会让读者猜测他们会走哪条路线:
自域名注册以来网站的年龄有多久了。内容的年龄。新内容添加的常规链接的年龄、连接站点的声誉及其相关性。一般内部因素。负面的内部因素(例如,关键词太多。(元标签),明显优化,会对网站造成伤害)术语被视为如何与页面的主要内容相关)谷歌页面级别(仅用于谷歌算法)*敏*感*词*绕导出链接和导入反向链接周围的文本。例如,如果链接被“赞助商链接”包围,则该链接可能会被忽略。使用“rel=nofollow”建议搜索引擎忽略该链接。站点上文件结构的深度。从其他来源采集的网格表,例如监控用户在搜索结果将用户引导到某个页面后按浏览器返回的频率来自以下来源的按钮:Google AdWords/AdSense、Google Toolbar 和其他程序采集的网格表采集网格数据的第三方数据共享协议(例如监控站点流量的统计程序提供商) 删除导入链接使用率 域、子网中关键字的使用、内容质量等,如以及来自这些活动的负面分数以及主文档的链接文件语义的增加或变化率。托管服务提供商 IP 和该 IP 下的其他站点的数量/质量
其他链接农场成员(链接农场/链接从属关系)和链接站点(他们是否共享 IP?他们在“联系我们”页面上是否有共同的邮政地址?)技术细节,例如利用 301 重定向已删除的网页, 为不存在的网页显示 404 个服务器标头而不是 200 个服务器标头,并适当地使用 robots.txt。主机服务提供商正常运行时间是否为不同类型的用户显示不同的内容(伪装(Cloaking)) 未更正、无效导出链接、不安全或非法内容、HTML 代码质量、错误数量。搜索引擎从其搜索结果中观察到的实际点击通过率。最常访问的搜索结果。人工评分
#p#
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
搜索引擎优化与搜索引擎的关系
第一代搜索引擎发布后,搜索引擎运营商开始对搜索引擎优化社区产生兴趣。在一些早期的搜索引擎中,比如INFOSEEK,要想获得第一名,很简单,就是抓取最上面的网页代码,放在你的网站中,然后提交一个URL,让搜索引擎立即对页面进行索引和排名。
由于搜索的高价值和标准性,搜索引擎和搜索引擎优化者从一开始就存在对抗关系。最近一次于 2005 年举行的 AirWeb 年会旨在讨论缩小这种敌对关系中的差距,以及如何将一些过于激进的优化所造成的损害降至最低。
一些更积极的优化器会生成自动化站点,或使用某些技术,最终会导致域被搜索引擎扫除。大多数优化公司销售长期、低风险的战略服务,大多数使用高风险战略的优化公司在会员点使用它们,产生业务线索或纯内容网站,而不是让他们的客户站着。亲自承担风险。
在此案例中,一家使用激进优化技术的优化公司允许其客户被禁止。 《*敏*感*词*时报》描述了一家使用高风险技术并据称未能披露客户必须承担的风险的公司 [4]。 《连线》报道称,该公司起诉了一篇博客,称其提及该公司被禁止 [5]。 Google 的 Matt Cutts 后来证实 Google 确实禁止了 Traffic Power 及其客户群 [6]。
一些搜索引擎为搜索引擎优化行业提供帮助,经常是优化会议和研讨会的赞助商和访问贵宾。事实上,自从付费收录(付费收录)出现以来,一些搜索引擎现在对网站optimization 社区的健康有着既得利益。所有主要的搜索引擎都提供信息/指南来帮助站点优化:Google[7]、Yahoo[8] 和 MSN[9]。谷歌提供站点地图程序[10] 来帮助网站员了解如果谷歌在检索网站时遇到任何问题该怎么办,并提供关于谷歌流量与您的网站之间关系的宝贵信息。 Yahoo 的 SiteExplorer[11] 旨在提供一种免费的方式来提交您的 URL,它允许您决定要对 Yahoo 建立索引的页面数量和深度。雅虎大使计划[12] 和谷歌广告专家[13] 提供专家认证。
#p#
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
开始使用搜索引擎
新网站不需要“提交”到搜索引擎来注册列表。来自在日本建立的另一个站点的简单链接将允许搜索引擎访问新站点并开始“抓取”该站点的内容。从这样一个已建立的网站获取链接并让所有主要搜索引擎开始访问新网站并将其编入索引可能需要数天甚至数周的时间。
一旦搜索引擎找到一个新站点,它通常会访问并开始索引该站点,直到所有标准超链接都被链接页面索引为止。蜘蛛机器人可能找不到只能通过 Flash 或 JavaScript 访问的链接。
当搜索引擎蜘蛛爬虫爬过一个网站时,它会取决于相当多的不同因素,网站的许多页面可能不会被索引,除非它们的页面级别、链接或流量增加到一定程度。从站点的根到页面的距离,以及其他权重考虑因素,也可能是决定页面是否被检索到的因素。 Cho 等人。 (Cho et al. 1998) [14] 描述了确定哪些页面将被访问以及哪些将被搜索引擎索引的标准。
网站员可以通过域根目录下的标准robots.txt文件指示蜘蛛机器人不要索引某些文件或目录。标准的实现要求是搜索引擎访问这个域时引用这个文件,虽然搜索引擎的蜘蛛机器人在访问某个站点的网页时会缓存这个文件的副本,更新速度是不如网站员快。 网站Developers 可能会使用此功能来阻止某些页面,例如购物车或其他动态、特定用户内容出现在搜索引擎结果中,以及阻止机器人进入无限循环和其他机器人陷阱。
对于一些付费提交的搜索引擎(如雅虎),支付象征性的提交费用可能会节省一些时间,尽管雅虎的付费提交计划不保证提交者/公司会被包括在他们的搜索结果中。中文搜狐和新浪问需要支付一定的费用,但可以提供免费的非商业网站。当然,搜索引擎不保证收录对应网站。
新网站不需要“提交”到搜索引擎来注册列表。来自在日本建立的另一个站点的简单链接将允许搜索引擎访问新站点并开始“抓取”该站点的内容。从这样一个已建立的网站获取链接并让所有主要搜索引擎开始访问新网站并将其编入索引可能需要数天甚至数周的时间。
一旦搜索引擎找到一个新站点,它通常会访问并开始索引该站点,直到所有标准超链接都被链接页面索引为止。蜘蛛机器人可能找不到只能通过 Flash 或 JavaScript 访问的链接。
当搜索引擎蜘蛛爬虫爬过一个网站时,它会取决于相当多的不同因素,网站的许多页面可能不会被索引,除非它们的页面级别、链接或流量增加到一定程度。从站点的根到页面的距离,以及其他权重考虑因素,也可能是决定页面是否被检索到的因素。 Cho 等人。 (Cho et al. 1998) [14] 描述了确定哪些页面将被访问以及哪些将被搜索引擎索引的标准。
网站员可以通过域根目录下的标准robots.txt文件指示蜘蛛机器人不要索引某些文件或目录。标准的实现要求是搜索引擎访问这个域时引用这个文件,虽然搜索引擎的蜘蛛机器人在访问某个站点的网页时会缓存这个文件的副本,更新速度是没有网站员那么快。 网站Developers 可能会使用此功能来阻止某些页面,例如购物车或其他动态、特定用户内容出现在搜索引擎结果中,以及阻止机器人进入无限循环和其他机器人陷阱。
对于一些付费提交的搜索引擎(如雅虎),支付象征性的提交费用可能会节省一些时间,尽管雅虎的付费提交计划不保证提交者/公司会被包括在他们的搜索结果中。中文搜狐和新浪问需要支付一定的费用,但可以提供免费的非商业网站。当然,搜索引擎不保证收录对应网站。
#p#
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
白帽法
搜索引擎优化的白帽方法包括以下关于搜索引擎可接受和不可接受的准则。他们的建议一般是为用户而不是搜索引擎创建内容,让这些内容很容易被蜘蛛机器人索引,而不是试图在搜索引擎系统上耍花招。经常网站员于设计或构建他们的网站 犯了致命的错误,并在不经意间“毒化”了网站,使其排名不佳。白帽优化器会尝试查找并纠正错误,例如不可读的菜单、无效链接、方向的临时更改或糟糕的指导结构。
因为搜索引擎是以文本为中心的,很多帮助网页亲和度的相同方法也便于搜索引擎优化。这些方法包括优化图形内容,包括 ALT 属性,以及添加文本描述。在设计页面时,即使是 Flash *敏*感*词*也可以收录替代内容 - 这最初用于访问者无法阅读 Flash 的环境 - 以帮助优化它。
以下是一些搜索引擎认为合适的方法:
在每个页面上使用简短、独特且相关的标题。编辑网页以使用与页面主题相关的特定术语替换晦涩的词。这有助于网站吸引的受众在搜索引擎上进行搜索并正确定向到该网站。向本站添加大量原创内容。使用大小合理、准确的标准描述,不要过度使用关键字、感叹号或不相关的标题术语。确保所有页面都可以通过普通链接访问,而不仅仅是通过 Java、JavaScript 或 Macromedia Flash 应用程序。这可以通过使用专用网页 (网站Map) 以自然的方式开发链接来实现:Google 不会花时间在这个有点混乱的指南上。给网站员写一封邮件,告诉他你刚刚发布了一个很好的文章并请求一个链接。这种方法很可能被搜索引擎认可。参加其他网站网络群(翻译:网圈是指站群同主题的联盟)-只要其他网站独立,共享相同主题,具有可比性。
'黑帽法
Spamdexing 是指使用欺骗技术和滥用搜索算法来推广主要面向业务的不相关网页。许多搜索引擎管理员认为,任何形式的旨在提高网站 页面排名的搜索引擎优化都是垃圾邮件索引。但是,随着时间的推移,业界舆论已经形成了哪些是可以接受的方法,哪些是不可接受的方法来提升某个网站的搜索引擎排名和流量结果。
由于搜索引擎以高度自动化的方式运行,网站员通常可以使用某些搜索引擎无法识别的方法和方法来提升排名。除非搜索引擎员工访问网站并注意到异常活动,或者排名算法的微小变化导致网站失去过去获得的高排名,否则这些方法通常不会被注意到。有时,某些公司会聘请优化顾问来评估竞争对手的网站,并向搜索引擎报告“*敏*感*词*”的优化方法。
垃圾邮件索引经常与不涉及欺骗的合法搜索引擎优化技术相混淆。垃圾邮件索引侧重于让网站获得更多曝光,而不是他们选择的关键词,导致搜索结果不理想;另一方面,优化侧重于他们希望根据特定目标关键字获得的排名;这会带来令人满意的搜索体验。
当发现这些不良垃圾邮件索引时,搜索引擎可能会对发现使用*敏*感*词*优化方法的人采取行动。 2006年2月,谷歌删除了宝马德国站和理光德国站,因为他们使用了这些方法[15]。
隐身法(cloaking)简单来说就是网站站长使用两个不同的页面来达到最佳效果。一个版本仅用于搜索引擎,另一个版本用于其他。搜索引擎说这种做法是不规则的。如果找到,网站 将永远从搜索引擎列表中删除 [16]。
带有关键字填充的隐藏文本是欺骗搜索引擎的另一种方式。通常是指将关键字的颜色设置为与网页的背景颜色一致,或者通过css的隐藏属性(hidden feature)来达到优化效果。这种做法一旦被谷歌发现,就会遇到网站从谷歌数据库中删除。
#p#
搜索引擎优化 对于任何网站来说,要想在网站推广上取得成功,搜索引擎优化是最关键的任务。同时,随着搜索引擎不断改变自己的排名算法规则,每一次算法的变化,一些排名靠前的网站就会一夜之间失名,失去排名的直接后果就是网站的失落固有的可观访问
搜索引擎优化和营销
当这个文章倾向于建立搜索引擎优化者戴的颜色帽子的差异时,这些行业写照实际上并没有太多关注为行业做出一些巨大成就的工作者。
有不少优化从业者只是认为搜索引擎是该网站的另一个访问者,并试图使该网站与那些页面的真实访问者一样友好。他们的工作重点不是将许多术语集中在搜索引擎排名上,而是帮助网站所有者实现网站的业务目标。这可能是将基本搜索结果定向到某些页面,甚至在搜索引擎上使用付费广告。至于其他页面,建立高质量的页面来吸引参与和说服,并澄清技术问题。这些方法允许搜索引擎继续爬行并检索这些站点。另外,设置分析程序可以让网站主衡量网站的成就,让网站更加友好和有用。
这些搜索引擎优化人员可能是某个组织的成员或顾问,而搜索引擎优化可能只是他们日常工作的一部分。他们对搜索引擎功能的了解通常来自论坛、博客、大会和研讨会、互动和讨论主题,甚至来自他们自己网站上的实验。目前很少有大学课程涉及电子交易观点的在线营销,这可能是由于互联网的日常变化。
当许多人审查并承诺遵守搜索引擎指南(这可以帮助某人在网络上取得成功奠定坚实的基础)时,遵循这些指南的结果实际上只是一个开始。很多人认为搜索营销只是搜索优化的一个更大的分支,但可能是很多老手主要专注于搜索引擎优化,他们已经聚集了越来越多的营销灵感。由于搜索引擎认识到这一点,他们扩大了搜索引擎的覆盖范围,包括提供元数据的 RSS、视频搜索、本地结果、地图以及更多他们必须提供的功能。
高质量的网站通常排名很好
对于很多有兴趣最大化网站附加值的网站管理员,可以阅读搜索引擎和W3C发布的编码指南。如果遵循准则,网站更新频繁,有用,原创内容,并建立一些有用且有意义的导入链接,获得相当数量的基本搜索流量不难。
当一个网站有有用的内容时,其他网站成员自然会链接到该网站,从而增加其页面级别和访问者流量。当访问者发现有用的网站时,他们倾向于通过电子邮件或即时消息链接将其介绍给其他访问者。
总而言之,提高网站 质量的 SEO 实施可能比直接试图操纵搜索排名的短期实施寿命更长。顶级搜索引擎优化者追求的目标与搜索引擎追求的目标相同。它们是:与其用户相关的、有用的内容。