名誉 搜索引擎优化(搜索引擎最佳化优化的搜索规则及应用优化)
优采云 发布时间: 2022-02-14 19:01名誉 搜索引擎优化(搜索引擎最佳化优化的搜索规则及应用优化)
搜索引擎优化(也称搜索引擎优化,英文名称为search engine optimization,缩写为seo)是一种利用搜索引擎的搜索规则,在相关搜索引擎中提高目的提名网站的方法。由于很多研究发现搜索引擎用户往往只关注搜索结果的前几项,所以很多网站希望通过各种形式影响搜索点击的排名。其中,各种靠广告谋生的网站。
所谓“搜索引擎优化处理”,是指让网站更容易被搜索引擎接受。搜索引擎会将网站的内容与一些相关数据进行对比,然后浏览器会以最快、最完整的方式将内容呈现给搜索者。
搜索引擎优化 对于任何网站 公司来说,搜索引擎优化是成功推广网站 的关键任务。同时,随着搜索引擎不断改变其排名算法规则,每一次算法的改变都会让一些排名靠前的网站一夜成名,而失去排名的直接后果就是失去网站固有的显着流量. 所以搜索引擎算法的每一次变化都会在网站中引起很大的骚动和焦虑。可以说,搜索引擎优化是一项越来越复杂的任务。
早期的搜索引擎
网站管理员和网络内容提供商在 1990 年代中期开始使用搜索引擎来优化网站。这时,第一代搜索引擎开始对互联网进行分类。一开始,所有网站成员所要做的就是将他们的网站提交给各种搜索引擎。这些引擎运行蜘蛛程序——获取网页以查找到其他网页的链接的程序——并存储它们找到的数据。该过程还包括将网页下载并存储到搜索引擎所有者的服务器。这时候还有另外一个叫indexer的软件,用来检索页面上的不同信息——页面上的文字,文字的位置,文字的重要性。以及页面收录的任何链接,然后将页面放入列表中并等待一段时间,然后再次检索它。随着网上文档的积累,越来越多的网站人们意识到有机搜索(organic search,也译为organic search[1])项目的重要性,于是比较火的搜索引擎公司开始整理他们的榜单,首先显示最合适的网页。搜索引擎和 网站 成员之间的战争开始并持续到今天。
一开始,搜索引擎是由 网站 管理员自己领导的。早期版本的搜索算法依靠 网站 成员来提供信息,例如关键字的元标记。当一些 网站 人开始滥用标签以使页面排名与链接无关时,搜索引擎开始丢弃标签并开发更复杂的排名算法。由于数量没有备份那么多,所以只列出几个分析目标如下:
标题标签中的文字,如:引擎域名,如:统一资源定位器下的目录和文件名,如:'软盘,软盘''硬盘,硬盘'图形链接的alt属性,如:因为这些也在网站会员的眼皮底下翻滚,所以搜索引擎遇到了很多滥用、操纵排名等问题。为了给用户提供更好的结果,必须对搜索引擎进行适配,使其搜索结果显示最合适的结果,而不是一些无良网友塞满关键词的无用网页。于是,新型搜索引擎应运而生。
|||
现代搜索引擎
谷歌由斯坦福大学的两名博士生拉里佩奇和谢尔盖布林创立。他们为网页评估带来了一个新概念。这个概念,称为 pagerank,是 Google 算法 [2] 的一个重要起点。网页级别在很大程度上依赖于传入的链接,并使用每个指向网页的链接都相当于对该网页的价值进行投票的理论来构建一个逻辑系统。更多的传入链接意味着该页面的更多“价值”。而每个传入链接本身的价值直接取决于链接来自的页面级别,反之亦然页面的传出链接。
在页面级别的帮助下,谷歌在服务相关结果上的表现相当不错。谷歌成为最受欢迎和最成功的搜索引擎。由于站外因素是在页面级别衡量的,谷歌认为它比页面因素更难做到。
然而,路高一尺,魔高一尺。网站成员们为inktomi 搜索引擎开发了链接操作工具和程序。事实证明,这些方法与 Google 的算法同样适用。许多网站专注于交换、购买和销售大量链接。由于 '网站 成员寻求获取链接的行为只会影响 Google 向网站发送更多流量,无论对网站访问者是否有用'的增加,因此对原创算法的页面级信任是逐渐减少。破碎的。
在这一点上,谷歌和其他搜索引擎是时候仔细检查各种场外因素了。开发更智能的算法还有其他原因。互联网已经膨胀到大量非技术人员。他们往往无法使用先进的提问技巧来获取信息;他们必须处理比开发早期更大的数据和更复杂的索引。搜索引擎必须开发预测、语义、语言和启发式算法。
目前,Google 工具栏上仍显示缩小版的页面级别,但页面级别只是 Google 在评估页面时考虑的 100 多个因素之一。
今天,大多数搜索引擎对其算法的评级方式保密。搜索引擎可能会使用数百个因素来对列表进行排名;每个因素及其权重都可能不断变化。
当代 SEO 中的大部分思考——什么有效,什么无效——主要是基于观察和基于内部信息的猜测。一些优化器必须执行受控实验才能从不同的优化方法中获得结果。
尽管如此,以下是搜索引擎在开发算法时的一些注意事项,而这份谷歌专利列表[3]可能会让读者猜测他们将采取哪条路线:
链接中的引用以及站点/页面和研究来源中收录的引用(表明内容具有研究性质) 根在与其相关的搜索引擎数据库中列出的术语(例如财务/融资)导入的反向链接和该链接的文本 一些传入链接的负分(可能来自低价值页面、交换的反向链接等) 反向链接获取率:太多 太快意味着围绕传出链接周围的文本的“不自然”链接购买活动,传入的反向链接。例如,如果链接被“赞助链接”包围,则该链接可能会被忽略。使用“rel=nofollow”建议搜索引擎忽略站点结构深度文件中的链接从其他来源采集的网格表,
与链接站点的其他链接场/链接从属关系(他们是否共享 ip?在“联系我们”页面上有一个共同的邮政地址?)技术细节,如使用 301 重定向页面已删除,显示 404 服务器标头而不是非 200 服务器标头- 存在的页面,正确使用 robots.txt 托管服务提供商的正常运行时间,网站是否向不同类别的用户显示不同的内容(伪装))未更正,无效的导出链接,不安全或非法的内容评级
|||
SEO与搜索引擎的关系
第一代搜索引擎问世后,搜索引擎运营商开始对SEO社区产生兴趣。在一些早期的搜索引擎中,例如 infoseek,获得第一名就像抓取首页代码一样简单,将其放入您的 网站 中,然后提交一个 url 让搜索引擎立即对页面进行索引和排名。
由于搜索本身的高价值和针对性,搜索引擎和SEO从一开始就存在对抗关系。最近在 2005 年举行的 airweb 年度会议是讨论缩小这种对抗性关系的差距,以及如何将一些过于激进的优化的破坏性影响降至最低。
一些更积极的优化器会生成自动化站点,或者使用某些技术,最终会使域被搜索引擎扫除。大多数优化公司都销售长期、低风险的策略服务,而大多数使用高风险策略的优化公司在其附属网站上使用、产生业务线索或纯内容网站,而不是让他们的客户自己冒险。
这是一家优化公司的示例,该公司使用积极的优化技术来禁止其客户。《*敏*感*词*日报》描述了一家使用高风险技术的公司,据称未能披露客户所承担的风险。 [4] 有线报道称,该公司起诉了一个博客,因为该博客因提及该公司而被禁止 [5]。谷歌的马特·卡茨后来证实,谷歌确实已经禁止了他们的客户群 [6] 的流量。
某些搜索引擎为 SEO 行业提供帮助,并且通常是优化会议和研讨会的赞助商和来宾。事实上,自从付费 收录(付费包容)出现以来,一些搜索引擎现在对 网站 优化其社区的健康状况产生了既得利益。所有主要的搜索引擎都提供信息/指南来协助网站优化:google[7]、yahoo[8] 和 msn[9]。Google 提供站点地图程序[10] 以帮助 网站 成员了解如果 google 在检索他们的 网站 时遇到任何问题该怎么办,并在 google 流量和您的 网站 关系之间提供宝贵的链接 丰富的信息. 雅虎的 siteexplorer[11] 旨在提供一种免费的方式来提交您的网址,这使您可以决定要被雅虎索引多少页和多深。雅虎的大使计划[12] 和谷歌的广告专业人士[13] 提供专家级认证。
|||
搜索引擎入门
新网站无需“提交”到搜索引擎即可注册上市。来自已建立的其他站点的简单链接将导致搜索引擎访问新站点并开始“爬行”该站点的内容。从这样一个已建立的站点获取链接并让所有主要搜索引擎开始访问和索引新站点可能需要几天甚至几周的时间。
一旦搜索引擎发现一个新站点,它通常会访问并开始索引该站点,直到所有标准超链接都被链接页面索引。蜘蛛机器人可能无法找到只能通过 flash 或 javascript 访问的链接。
当一个搜索引擎的蜘蛛机器人抓取一个站点时,它取决于许多不同的因素,并且该站点的许多页面可能不会被索引,除非它们的页面级别、链接或流量增加到一定程度。从站点根目录到页面的距离以及其他权重考虑因素也可能会影响页面是否被爬取。乔等人。(cho 等人 1998) [14] 描述了确定哪些页面将被访问以及哪些页面将被搜索引擎索引的标准。
网站管理员可以通过将标准 robots.txt 文件放在域根目录中来指示蜘蛛机器人不要索引某些文件或目录。标准的实现要求是搜索引擎在访问这个域的时候引用这个文件,虽然搜索引擎的蜘蛛机器人在访问一个站点的网页时会保留一份这个文件的缓存副本,而且更新速度不如网站. 很快。网站开发人员可以使用此功能来防止某些页面(例如购物车或其他动态的用户特定内容)出现在搜索引擎结果中,并防止机器人进入无限循环和其他机器人陷阱。
对于某些付费提交搜索引擎(如雅虎),支付象征性的提交费用可能会节省一些时间,尽管雅虎付费提交计划不保证提交者/公司将收录在他们的搜索结果中。中国搜狐和新浪问需要支付一定的费用,但可以免费提供非商业的网站。当然,搜索引擎端并不能保证一定的收录对应网站。
新网站无需“提交”到搜索引擎即可注册上市。来自已建立的其他站点的简单链接将导致搜索引擎访问新站点并开始“爬行”该站点的内容。从这样一个已建立的站点获取链接并让所有主要搜索引擎开始访问和索引新站点可能需要几天甚至几周的时间。
一旦搜索引擎发现一个新站点,它通常会访问并开始索引该站点,直到所有标准超链接都被链接页面索引。蜘蛛机器人可能无法找到只能通过 flash 或 javascript 访问的链接。
当一个搜索引擎的蜘蛛机器人抓取一个站点时,它取决于许多不同的因素,并且该站点的许多页面可能不会被索引,除非它们的页面级别、链接或流量增加到一定程度。从站点根目录到页面的距离以及其他权重考虑因素也可能会影响页面是否被爬取。乔等人。(cho 等人 1998) [14] 描述了确定哪些页面将被访问以及哪些页面将被搜索引擎索引的标准。
网站管理员可以通过将标准 robots.txt 文件放在域根目录中来指示蜘蛛机器人不要索引某些文件或目录。标准的实现要求是搜索引擎在访问这个域的时候引用这个文件,虽然搜索引擎的蜘蛛机器人在访问一个站点的网页时会保留一份这个文件的缓存副本,而且更新速度不如网站. 很快。网站开发人员可以使用此功能来防止某些页面(例如购物车或其他动态的用户特定内容)出现在搜索引擎结果中,并防止机器人进入无限循环和其他机器人陷阱。
对于某些付费提交搜索引擎(如雅虎),支付象征性的提交费用可能会节省一些时间,尽管雅虎付费提交计划不保证提交者/公司将收录在他们的搜索结果中。中国搜狐和新浪问需要支付一定的费用,但可以免费提供非商业的网站。当然,搜索引擎端并不能保证一定的收录对应网站。
|||
白帽法
搜索引擎优化的白帽方法涉及遵循搜索引擎指南,了解什么是可接受的,什么是不可接受的。他们的建议通常是为用户而不是搜索引擎创建内容,让蜘蛛容易索引该内容,而不是试图在搜索引擎系统上玩花样。网站 成员在设计或构建他们的 网站 时经常犯致命错误,无意中“毒化”了网站,使其排名不佳。白帽优化器尝试查找和纠正错误,例如不可读的菜单、断开的链接、临时重定向更改或糟糕的导航结构。
由于搜索引擎是以文本为中心的,许多有助于网页亲和力的相同工具也有助于 SEO。这些方法包括优化图形内容(包括 alt 属性)和添加文本描述。甚至 Flash *敏*感*词*也可以收录在具有替代内容的页面设计中——这适用于访问者无法阅读 Flash 的环境——以帮助优化。
以下是搜索引擎认为合适的一些方法:
在每一页上使用简短、独特且相关的标题。编辑页面以用与页面主题相关的特定术语替换模糊的单词。这有助于通过在搜索引擎上进行搜索,将网站所吸引的受众正确地引导到网站。向此站点添加大量 原创 内容。使用大小合理、描述准确的联合组织,不要过度使用关键字、感叹号或不相关的标题字词。确保所有页面都可以通过正常链接访问,而不仅仅是通过 java、javascript 或 macromedia flash 应用程序。这可以通过使用列出所有站点内容的专用页面来实现(网站map) 以自然的方式开发链接:Google 不会为这个有点混乱的指南而烦恼。给 网站 人写一封电子邮件,告诉他你刚刚发布了一个不错的 文章,并要求提供一个链接,这可能会被搜索引擎接受。参加其他 网站 网络组——只要其他 网站 是独立的、共享相同的主题并且具有可比性的质量。
'黑帽法
垃圾索引是指使用欺骗性技术和滥用搜索算法来推广不相关的主要是商业网页。许多搜索引擎管理员认为旨在提高 网站 的页面排名的任何形式的 SEO 都是索引垃圾邮件。然而,随着时间的推移,行业内的舆论已经形成了提高网站搜索引擎排名和流量结果的可接受和不可接受的方法。
由于搜索引擎以高度自动化的方式运行,网站会员经常可以使用搜索引擎不认可的方法和方法来提升排名。除非搜索引擎员工亲自访问该网站并注意到异常活动,或者排名算法的一些小变化导致该网站失去过去获得的高排名,否则这些方法通常会被忽视。有时某些公司聘请优化顾问来评估竞争对手的网站,并向搜索引擎报告“*敏*感*词*”的优化方法。
垃圾邮件索引经常与合法的、非欺骗性的 SEO 技术相混淆。垃圾邮件索引的重点是让 网站 获得比他们选择的 关键词 更多的曝光率,这会导致搜索结果不理想;相比之下,优化侧重于他们想要的排名,基于特定的目标关键词;这会带来令人满意的搜索体验。
当发现这些不良垃圾邮件索引时,搜索引擎可能会对那些被发现使用*敏*感*词*优化技术的人采取行动。2006 年 2 月,google 删除了 bmw Germany 和 ricoh Germany,因为他们使用了这些方法 [15]。
伪装法(cloaking)简单来说就是网站站长使用两个不同版本的网页来达到最佳效果。一种是供搜索引擎看的,一种是供人看的。搜索引擎称这种做法是不正常的,如果发现,网站 将从搜索引擎列表中永久删除[16]。
带有关键字填充的隐藏文本是另一种欺骗搜索引擎的方法。通常是指将关键字的颜色设置为与网页的背景颜色相同,或者通过css隐藏属性来达到优化效果。一旦这种做法被 google 发现,这种遭遇也将导致 网站 从 google 的数据库中删除。
|||
搜索引擎优化和营销
虽然这篇文章 文章 倾向于确定 SEO 大师所戴的帽子颜色之间的区别,但这些行业肖像实际上并没有说明一些为行业中一些最有影响力的部分做出贡献的工人.
有不少优化从业者只是将搜索引擎视为网站的另一个访问者,并试图使网站像真正的访问者访问这些页面一样友好。他们的工作重点不是针对许多术语对顶级搜索引擎进行排名,而是帮助网站所有者实现网站的业务目标。这可以通过引导基本搜索结果的形式来实现,甚至可以利用搜索引擎上的付费广告到某些页面。至于其他页面,创建高质量的页面以吸引参与和说服,并澄清技术问题,将允许搜索引擎继续抓取和抓取这些网站。此外,设置一个分析程序可以让 网站master 衡量 网站 的成就并使网站更加友好和有用。
这些 SEO 可能是组织或顾问的一部分,而 SEO 可能只是他们日常工作的一部分。他们对搜索引擎功能的了解通常来自论坛、博客、大会和研讨会的互动和讨论主题,甚至来自他们自己网站上的实验。目前很少有大学课程涵盖电子交易观点的在线营销,这可能是由于网络不断变化的性质。
虽然许多人审查并承诺满足搜索引擎指南 - 这有助于为某人在网络上的成功奠定坚实的基础 - 遵循这些指南的结果实际上只是开始。很多人认为搜索引擎营销只是搜索优化的一个更大的分支,但它可能是很多前辈主要专注于搜索引擎优化的结果,采集了越来越多的营销灵感。认识到这一点,搜索引擎已经扩大了他们的搜索引擎覆盖范围,包括 rss 提供元、视频搜索、本地结果、地图以及他们必须提供的更多内容。
高质量 网站 通常排名很好
对于许多有兴趣最大化网站附加值的网站 管理员,搜索引擎和w3c 发布了编码指南。如果遵循这些指南,网站会经常更新,提供有用的 原创 内容和一些有用的、有意义的传入链接,获得相当数量的基本搜索流量应该不会太难。
当一个站点有有用的内容时,其他站点成员自然会链接到该站点,从而增加其页面级别和访问量。当访问者发现有用的 网站 时,他们倾向于使用电子邮件或即时消息链接将其介绍给其他访问者。
总之,提高 网站 质量的 SEO 实施可能比直接寻找操纵搜索排名的方法的短期实施更长寿。顶级 SEO 正在寻找搜索引擎正在寻找蓬勃发展的相同事物。它们是: 对用户有用的相关内容。