seo关键解码:网站营销与搜索引擎优化(img标签必须添加“alt”和“title”属性,告诉搜索引擎导航的定位)

优采云 发布时间: 2022-02-11 22:20

  seo关键解码:网站营销与搜索引擎优化(img标签必须添加“alt”和“title”属性,告诉搜索引擎导航的定位)

  网站首页是权重最高的地方。如果首页链接太少,没有“桥”,“蜘蛛”就无法继续往内爬,直接影响网站收录的数量。但是,主页上的链接不应该太多。一旦链接过多,很容易影响用户体验,降低网站首页的权重,收录的效果也不好。注意链接要以用户的良好体验为基础,引导用户获取信息。

  4.导航优化

  导航尽量使用文本模式,也可以配合图片导航使用,但要优化图片代码。img标签必须添加“alt”和“title”属性来告诉搜索引擎导航的定位,这样即使图片无法正常显示,用户也能看到提示文字。其次,应该在每个网页中添加面包屑导航。好处:从用户体验的角度,让用户知道自己当前所在的位置以及当前页面在整个网站中的位置,帮助用户快速了解网站的组织形式,从而形成一个更好的位置感,同时提供每个页面的返回界面,方便用户操作;

  5.控制页面大小

  减少http请求,提高网站的加载速度。速度慢的时候,用户体验不好,访客留不住,一旦超时,“蜘蛛”也会离开。

  6.适量的关键词和网页描述

  关键词不宜过多也不宜过少,列举几页重要的关键词就行了,记得堆多。网页描述应准确、简洁地描述网页的内容。

  1.标题:只强调重点,尽量把重要的关键词放在前面,关键词不要重复,尽量不要在每个页面内容的标题中设置相同的标题.

  

  2.元关键字标签:关键词,只列出几个页面的重要关键字,记得多填。

  3.元描述标签:网页的描述。它需要高度概括网页的内容。切记不要太长或太多关键词,而且每一页要不同。

  

  4. 正文中的标签:使您的代码尽可能符合语义,在正确的位置使用正确的标签,并用正确的标签做正确的事情。让读者和“蜘蛛”一目了然。例如:h1-h6用于title类,nav标签用于设置页面的主导航。

  对于搜索引擎来说,最直接的面孔就是网页的HTML代码。如果代码以语义的方式编写,搜索引擎将很容易理解网页的含义。比如文本模块标题要大,合理使用h1-h6,列表形式的代码使用ul或ol,重要文本使用strong等等。总之,要充分利用各种HTML标签来完成自己的工作,当然要兼容IE、Firefox、Chrome等主流浏览器。我们来看看著名的禅园网站()。没有样式,代码非常语义化并且看起来很整洁。加载不同的样式后,您可以随意更改页面的外观。

  没有样式表:

  

  有样式表:

  

  5.a 标签:页内链接,添加“title”属性进行描述,让访问者和“蜘蛛”知道。对于外部链接,哪个链接到其他网站,需要加上el="nofollow"属性告诉“蜘蛛”不要爬,因为“蜘蛛”一旦爬到外部链接就不会来了背部。

  6.img 应该使用“alt”属性来描述。给图片添加alt属性,当网速很慢,或者图片地址无效时,可以体现alt属性的作用,可以让用户知道图片不在的时候图片的作用显示。

  7.strong, em 标签:在需要强调时使用。强标签在搜索引擎中可以得到高度重视,它可以突出关键词并表达重要的内容。em 标签在强调方面仅次于 strong 标签。

  9.巧妙运用CSS布局,将重要内容的HTML代码放在最前面。最前面的内容被认为是最重要的,“蜘蛛”优先读取和关键词抓取内容。搜索引擎从上到下抓取 HTML 内容。使用此功能,可以先读取主要代码,将广告等不重要的代码放置在底部。例如,如果左列和右列的代码保持不变,只需更改样式并使用 float:left; 和浮动:对;随意交换显示屏上两列的位置,让重要的Code在前,让爬虫先爬。这同样适用于多列的情况。

  

  10.谨慎使用display:none:对于不想显示的文本内容,应该设置z-index或者设置在浏览器显示之外。因为搜索引擎会过滤掉 display:none 的内容。

  11.保留文字效果

  如果我们需要考虑到用户体验和SEO效果,在哪里一定要用到图片,比如个性化字体的标题,我们可以通过样式控制来防止文字出现在浏览器上,但是标题在网页中页码。比如这里的“电视剧分类”中,为了完美还原设计图,前端工程师可以把文字做成背景图,然后用样式设置html中文字的缩进到足够大的负数以偏离浏览器。您可以通过设置行高来隐藏文本。

  

  12.使用CSS截取字符

  如果文字过长,可以使用样式截取,设置高度,隐藏多余部分。这样做的好处是可以让文本完整呈现给搜索引擎,同时保证性能上的美观。

  

  5.编码实践

  6.拓展思维

  如何防止搜索引擎抓取网站的私密内容

  Robots Protocol(也称Crawler Protocol、Robot Protocol等)的全称是“Robots Exclusion Protocol”。网站 通过 Robots Protocol 告诉搜索引擎哪些页面可以爬取,哪些页面不能爬取。

  如何编写文件:

  用户代理:*

  * 是所有搜索引擎类型的通配符

  禁止:/admin/

  这意味着禁止搜索引擎爬取admin目录的内容

  不允许:*?*

  这意味着禁止搜索引擎抓取收录 ?

  站点地图:sitemap.xml

  在这里,通过 Sitemap 指定一个固定的 网站 地图页面。目前支持此功能的搜索引擎公司包括 Google、Yahoo、Ask 和 MSN。而中国搜索引擎公司显然不在这个圈子里。这样做的好处是站长不需要使用每个搜索引擎的站长工具或类似的站长部件来提交自己的站点地图文件,搜索引擎的蜘蛛会抓取robots.txt文件并读取文件。站点地图路径,然后爬取链接的页面。

  

  如何进行外部优化?

  外部链接类别:博客、论坛、B2B、新闻、分类信息、贴吧、知乎、百科、相关信息网等。尽量保持链接的多样性。

  外链选择:与一些与你相关度高、综合质量好的网站交换友情链接,巩固和稳定关键词的排名。

  7.参考资料

  参考1:从前端角度做SEO需要考虑什么?

  参考1:Robots.txt协议详解及使用说明

  8.更多讨论

  SEO和SEM之间的区别

  搜索引擎优化和扫描电镜

  SEM(Search Engine Market)是搜索引擎营销。简单的理解就是购买搜索引擎提供的广告位。比如百度和google右边的结果都是广告。按关键词购买,按点击收费。网民每点击一次你的广告,搜索引擎就会扣除一笔费用。.

  区别:SEO是对网站的内容、结构、外链进行优化,使网站更符合搜索引擎的抓取,从而提高搜索结果的排名,增加< @网站 的方法。

  视频链接

  ppt链接

  感谢收看

  今天的分享就到这里,欢迎大家点赞、转发、留言、做砖~

  技能树.IT培养学院

  “我们相信人人都能成为工程师,从现在开始,找一位师兄指导,掌握自己的学习节奏,不再在学习的路上迷茫。”

  这里是技能树。IT修养院,万千长者在这里找到了自己的学习路线,学习透明,成长可见,长者*敏*感*词*免费指导。快来和小编一起学习吧~

  我的邀请码:12361358,也可以直接点击这个链接:

  更多内容,可以加入IT交流群565734203与大家讨论交流

  这里是技能树IT修炼学院:初学者转网的聚集地

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线