搜索引擎优化名词解释(1.站外SEO和站内SEO的区别及分类分类说明)
优采云 发布时间: 2022-01-03 15:02搜索引擎优化名词解释(1.站外SEO和站内SEO的区别及分类分类说明)
1.SEO(搜索引擎)
搜索引擎优化中文翻译是利用搜索引擎搜索规则提高网站在相关搜索引擎中的排名的一种方式。是目前流行的网络营销方式。主要目的是增加特定关键词的曝光率,增加网站的知名度,进而增加销售机会。分为站外SEO和站内SEO。
搜索引擎优化的作用
扩大资本规模。
优化企业财务结构。
资产 SEO 资产重组。
调整产品结构,促进产业升级。
品牌保护
推广(主要角色)
为企业节省网络营销成本。
SEO1.0 阶段。
从1995年到1998年,在关注网站的内容匹配时,搜索引擎蜘蛛的识别能力较弱,因此出现了列出关键词的现象。
SEO2.0 阶段。
从1999年到2010年,这个时期关注的是站内优化、站外优化、搜索结果的区域差异以及多媒体结果的出现。 网站 是否有高权重、高质量的内容成为影响排名的主要因素之一。
SEO3.0 阶段。
请在此处输入您的内容,注意不要使用退格键删除所有文本。请保留一份或用鼠标选中并直接输入,以免造成格式混乱。
SEO分类
分类说明
白帽SEO 白帽SEO 是一种符合主流搜索引擎发布指南要求的SEO 优化方法。它一直被业界认为是最好的 SEO 技术。既避免了一切风险,又避免了与搜索引擎发布指南的冲突。这也是SEOer从业者的最高职业道德标准。由于搜索引擎以文本为中心,许多与白帽 SEO 相同的方法都有助于提高网页亲和力并促进搜索引擎优化。这些方法包括优化图形内容,包括 ALT 属性和添加文本描述。
一般来说,所有使用作弊或可疑手段的黑帽SEO都可以称为黑帽SEO。如垃圾链接、隐藏网页、刷IP流量、桥页、关键词填充等。 SEO黑帽是一种不支持搜索引擎的*敏*感*词*。因为黑帽SEO挑战行业道德底线,被广大白帽SEO鄙视。 Spamdexing(Spamdexing)是指通过欺骗技术和滥用搜索算法对不相关网页进行推广,主要以业务为中心。
灰帽SEO 灰帽SEO 是指介于白帽和黑帽之间的中间区域。就白帽而言,会采用一些棘手的方法。这些行为不违反规则,但也不遵守规则,属于灰色地带。它侧重于整体和局部优化的所有方面。灰帽SEO在一定程度上追求中庸之道。灰帽 SEO 是白帽和黑帽技术的结合。必须同时考虑长期利益和短期利益。
对 SEO 知之甚少。
1. 原创信息被他人转发后,他人信息排名第一。
衡量自然排名的因素有很多。常见的有:网页评价或权重(PR\SR)、URL深度、网页外链、网站行业权重、网站在搜索引擎中的影响力、网页内链、网页链接对其他网站、标题的合理性、描述的恰当性、关键词的合理分布、内容质量的可读性、用户体验的体现等。
2.多个域名对网站有什么影响?
在同一个网站上使用多个域名是作弊。多个域名可以在短时间内增加收录的数量,但会造成权重、补充材料、重复页面等问题。建议只保留一个,其他的可以301重定向。
三、SEO 和 SEM 的区别。
SEO(Searchenginehoptization)被翻译成搜索引擎优化。它是指利用搜索引擎的排名规则,增加自然搜索结果中收录的目标网站的数量和排名的优化行为,旨在从搜索引擎获得更多的免费流量,更好地展示图片。
SEM(搜索引擎营销)被翻译成搜索引擎营销。它是一种网络营销方式,主要用于搜索引擎中的网站或品牌营销,所以搜索引擎中的营销行为属于SEM。 SEM包括:竞价排名、关键词广告、ppc电话支付.seo。
蜘蛛,搜索引擎。
搜索引擎蜘蛛一般指网络爬虫。
网络爬虫(在社区中,网络爬虫(也称为网络蜘蛛、网络机器人,更多时候称为网络追逐者)是根据一定的规则自动抓取万维网上信息的程序或脚本。其他常用名称是蚂蚁、自动索引、模拟器或蠕虫。
爬虫分类:
通用网络爬虫
又称全网爬虫的爬取对象,从一些*敏*感*词*网址延伸到整个网络,主要针对门户网站搜索引擎和大型webl服务商采集数据。由于商业原因,他们的技术细节很少公开。结构大致可以分为页面爬取模块。页面分析模块、链接过滤模块、页面数据库、URL队列、初始URL组合。
关注网络爬虫。
也称为主题网络爬虫,它是指一种网络爬虫,它有选择地抓取与预定义主题相关的页面[8]。与一般的网络爬虫相比,聚焦爬虫只需要抓取与主题相关的页面,大大节省了硬件和网络资源。保存的页面由于数量少更新快,也可以满足某些特定人群对特定领域信息的需求。需要。
增量网络爬虫
是指对下载的网页进行增量更新,只抓取新创建或更改的网页的爬虫,可以在一定程度上保证抓取到的网页尽可能新。增量爬虫只会在必要时抓取新生成或更新的页面,不会重新下载未更改的页面,可以有效减少数据下载量,但增加了爬虫算法的复杂度和实现难度。
网络爬虫深度。
按存在方式可分为表层网页和深层网页。表面网页是指可以被传统搜索引擎索引的页面,主要由可以通过超链接访问的静态网页组成。 Deep-Web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web- web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web- web- web-web-web-web-web-web-web-web-web-web-web-w-web-web-web-web-web-web-web-web-web-web-web-web- web- web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web- web-web- web-web-www-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web-web- web-web-web-web-web-web-web-web-web-web-web-w-web-w
搜索引擎优化现象。
沙盒
Sandbox通常是指新的网站在谷歌初期很难排名好,一般时限在6个月左右。为什么要进入沙箱?进入沙箱的一般原因是网站突然增加了大量的外部连接。
爆炸*敏*感*词*
*敏*感*词*是指通过建立大量的外部连接,所有锚文本都是关键词,导致网站强行提升排名。由于搜索引擎算法的问题,大量的锚文本使引擎误认为网站是最能满足搜索请求的页面。
幽灵
幻影指的是新站排名不稳定、波动的现象。为什么会有鬼?这主要是由于搜索引擎防止作弊造成的。另一个因素是网站的权重。
我们坐下
联作是古代*敏*感*词*,这里指的是其他网站同服务器或IP地址的关联。同样,搜索引擎为了避免链接工厂的泛滥和防止作弊。
金三角
金三角表示google抓取的关键位置一般分布在页面的左上角,呈三角形。
快照恢复
快照返回是指百度快照返回到上一个日期。原因:主机空间不稳定、网站首页变化、好友链接异常、百度算法调整、过度优化、seo作弊。解决方法:稳定维护更新网站文章,及时排查站外链接和友情链接,及时更新调整!
优化内容内部优化。
me 标签优化:例如:TITLE、KEYWORDS、DEs。优化scriptION等内部链接,包括相关链接(Tag标签)、锚文本链接、导航链接和图片链接。
网站内容更新:保持网站每天更新(主要是文章更新等)。
代码压缩改进:如网站首页唯一性、网站首页内页链接、301、404等
静态页面;
一、优化内容-外部优化。
外链类:博客、论坛、B2B、新闻、分类信息、贴吧、问答、百科、社区、空间、微信、微博等相关信息网络。
外链形成:每天增加一定数量的外链,稳步提升关键词的排名。
朋友链交流:与一些网站高度相关且整体质量好的网站交换友情链接,以巩固稳定的关键词排名。
一、 链接优化。
优化网站的结构。
一、创建网站的地图。
如果可能,最好为网站创建一个完整的网站地图站点地图。同时将网站地图的链接放在首页,方便搜索引擎查找和抓取所有网页信息。
2.每个网页最多可以从主页点击四次。
三、网站导航系统最好使用文字链接。
4.网站导航中的链接文字要准确描述栏目内容。
5. 全站公关传播和流程。
六、 网页的相互链接。
搜索引擎如何抓取网页?
一、如何抓取搜索引擎。 (根据规则和如何爬取)
2.物理和链接结构。
三、URL 是静态的。
4.绝对路径和相对路径。
5.内部链权重分布和网站映射。
六、避免蜘蛛陷阱。
链接结构
网络结构的第二种结构形式:链接结构也称为逻辑结构,是由网站内部链接形成的链接网络图。 网站架构分析包括:剔除网站架构的不良设计,实现树形目录结构,网站导航和链接优化。
关键词选择
使用百度推广助手中的关键词工具选择适合推广的词;
选择关键词进行调查;
通过查看统计日志选择关键词;
长尾关键词;
多种排列组合关键词;
尽量不要使用行业通用词;
利用好地理位置;
确定关键词的值;
选择长尾词;
关键词的及时性;
分析竞争对手;
有些词来自百度上的相关搜索,而不是用户搜索的关键词。
技术文章-描述标签。
1.描述标签。
推荐:
最差(只写 关键词 标签):
稍微好一点(只需添加几个相关词):
最佳(提供用户感兴趣的信息,突出显示关键词)
避免(可能被视为垃圾邮件网站):
注意:
不同的网页,不同的描述;
首页和列表页(摘要页)建议使用网站一级描述,与首页一致;内容页使用网页的一级描述;
如果没有条件或时间为每一页写描述,可以考虑清空。但对于重要页面,建议手写。
2.Robots.txt 文件。
推荐:
如果您的 网站 对所有搜索引擎开放,则不需要使用此文件或 robots.txt 为空。
必须命名为:robots.txt,全部小写,robot后加s。
robots.txt 必须放在 网站 的根目录下。比如pass可以成功访问,说明网站放置正确。
一般来说robots.txt只写了两个函数:User-agent和disallow。
3.关键词
推荐:
1.Target关键词 一般用作网站首页的标题。
2.Target关键词一般是2-4个词组成的词或词组,有很多名词。
三:在搜索引擎中定位关键字。每天都有一定的稳定搜索量。
4.搜索目标关键词的用户往往需要网站的产品和服务,或者对网站的内容感兴趣。
5.网站的主要内容围绕着目标关键词,关键词的位置、密度和处理。
注意:
关键词 Overlay:指为了增加关键词的密度,在网页上重复大量关键词的行为。 关键词Overlay是典型的SEO作弊,搜索引擎有相当成熟的算法来判断这种作弊。所以一旦关键词叠加出现在网页上,整个网站一般都会被搜索引擎屏蔽。许多网站没有被搜索到收录,这往往是原因。
什么是长尾关键词?
1.网站非目标关键词但也能带来搜索流量的关键词被称为长尾关键词。一般长尾关键词有以下特点:
2:更长,通常由 2-3 个单词组成,甚至是短语。
3.存在于内容页中,除了内容页的标题外,还存在于内容中。
4.搜索量小且不稳定。
5.长尾关键词将客户带入网站产品的概率远低于目标关键词。
6.有大量大中型网站长尾关键词,总流量非常大。
四、隐藏文本和链接。
推荐:
隐藏的文字和链接:许多文字和链接通过隐藏的方式放置在网页上。访问者看不到隐藏的文字,搜索引擎可以抓取,从而诱使搜索引擎判断网页关键词。这些方法包括:
将文本和链接的颜色设置为与背景相同。
在图片后放置文字。
1. 使用css隐藏文本,例如设置字体大小为0。
2.通过css隐藏链接,例如链接像素为1。
用逗号等小字符隐藏链接
意见:
如果你的网站因为这个错误被搜索引擎删除了,你应该把网站清理掉隐藏的文字和链接后重新提交给搜索引擎,过一段时间重新找回来收录 和排名。对于 Google,您可以通过注册和使用 Google网站管理员工具来提供帮助。
五、前端代码。
一、 简化代码。
精简代码有两个好处:一是提高蜘蛛抓取效率,在最短的实践中抓取整个页面,对收录的质量有一定的好处;第二,能高效爬取的页面会受到蜘蛛的影响 喜欢它,对收录的数量有好处。
B.表格的嵌套。
从目前的情况来看,蜘蛛爬取了表格布局。当遇到多层嵌套时,会跳过嵌套的内容或直接放弃整个页面。尽量避免它。
c.布局
与表格布局相比,DIV-CSS布局大大减少了页面变化,大大提高了加载速度,非常有利于蜘蛛爬行。页面代码过多可能会导致爬取超时,蜘蛛会认为页面无法访问,从而影响收录和权重。另一方面,真正的网站优化不仅是为了追求收录和排名,更是为了提升用户体验。
意见:
搜索引擎从上到下从左到右访问网站信息。搜索引擎的访问代码与网页的美观程度无关。因此,在创建网站时,关键内容在网页中的位置非常重要。当我们研究比较大的网站时,我们会发现整个网页代码被很多注释所包围。这些注解有两个好处:一是方便技术人员调整代码;二是方便SEO人员了解重点内容的位置和调整。
6.网址
A.优化 URL 重写。
一般来说,谷歌是根据外部链接的数量来判断的。多用途,即标准化的URL。如果你想设置一个标准化的 URL,你可以使用 301 重定向。
B.静态动态链接。
搜索引擎喜欢静态页面。从Web服务器的角度来看,这个问题转化为:如何将静态文件名转换为参数。
七、网站静态化。
有利于搜索引擎和收录的爬取。
静态页面和动态页面对比,搜索引擎更喜欢静态页面,搜索引擎可以很好的抓取和收录静态页面,有利于排名。比如一些大型门户网站网站:新浪、阿里巴巴、百度等页面多为静态或伪静态页面。可以想象,即使是百度也要静态化页面,足以说明静态化给网站带来了很大的好处。
但是自从2013年百度的算法和功能改进后,搜索引擎对静态页面的抓取和动态页面的抓取是一样的。当动态页面的路径级别较深时,必须将三个或三个以上参数视为静态,否则搜索引擎会爬取而收录。个人推荐一般使用的静态页面。
二、网站 稳定性好。
首先,从安全的角度来说,静态页面不容易被黑客攻击。黑客无法从您的路径中看到您的 网站 背景。 网站 程序和数据库的地址。其次,静态页面是存储在空间中的文件,不会因为程序和数据库的问题影响网站的正常打开和用户访问,所以网站的稳定性非常高。一个非常稳定的网站不仅对搜索引擎友好,而且有利于用户体验,有助于提高网站的信用。
3.快速打开网页。
动态页面存储在数据库中。当这个页面打开时,程序调用数据库中的表文件,然后显示内容。这个过程需要一定的时间。静态页面存放在空间中,一个页面相当于一个文件夹。打开页面的时候可以直接打开文件夹,比较快。于是静态页面的优势首先显现出来。对于网站,首先是打开速度。打开一个页面需要几秒钟的时间,这样的网站用户必须直接关闭它。因此,为了减少用户的时间成本,尽量选择静态页面。
8.伪静态
伪静态相对于真正的静态。通常,为了增强搜索引擎的友好度,我们会生成文章内容的静态页面,但有的朋友会实时显示一些信息。或者想用动态脚本解决一些问题。 网站 的内容无法静态显示。然而,这已经失去了搜索引擎的友好性。如何在两者之间寻找中间方法产生伪静态技术。以html等静态页面的形式展示。
差异静态
从URL结构和页面名称来看,伪静态页面和静态页面是一样的。伪静态页面后缀可以是html或目录格式。
伪静态只是改变了URL模板源码网站的现状,实际上是一个动态页面。
静态页面可以节省服务器资源,而伪静态会严格增加服务器资源的消耗。
缺点:
一、服务器成本比较高;
二、网站 负担能力低。如果你的网站可以保证1000人同时访问,那么经过伪静态处理,300人访问就足以让你的网站挂断;
三、 网页打开很慢。伪静态还是需要读数据库的,还有一个。重写网址。在这个过程中,其他步骤肯定不亚于动态;
4.大量重复页面;
五、 真正的静态网页无法访问。如果PHP伪静态为html,则无法访问真正的静态网页(可以在服务器端进行配置)。
雷锋网站打造网络专业网站作为网络服务的先进企业,为投资创业者提供微信小程序开发、网站系统开发、品牌设计、APP开发及其他服务 十余年网络服务经验,服务3000多家企业,与国内多家知名企业合作,是您值得信赖的合作伙伴!