推荐:怎样做好网站优化是每个站长毕经之路
优采云 发布时间: 2021-05-16 19:00推荐:怎样做好网站优化是每个站长毕经之路
推荐:如何进行网站优化
网站优化是每个网站站长的路径。仅当网站设计为符合搜索引擎标准时,它们才会获得更高的排名并获得更多流量。 1、要查找与关键字相关的域名,最好选择一些简单,易记且相关的域名。 2、
有效使用robots.txt
robots.txt文件可以告诉搜索引擎网站的哪些部分允许其抓取。该文件不仅必须命名为“ robots.txt”,而且还必须放置在您的网站的根目录中。
网站 robots.txt文件的路径。
所有遵循此规则(由通配符*表示)的搜索引擎抓取工具都不应输入和抓取/ images /或以/ search开头的任何URL中的内容。
您可能不希望对某些网站页面进行爬网,因为如果它们出现在搜索结果中,对用户来说可能就没有多大意义。如果您想防止搜索引擎爬行您的网页,Google 网站的管理人员可以使用非常有用的robots.txt*敏*感*词*来帮助您创建此文件。另外,如果您希望不对子域名中的某些内容进行爬网,则需要在子域名目录中创建一个新的robots.txt文件。您还可以在我们的网站管理员帮助中心中获取有关robots.txt的更多信息。
还有其他一些更方便的方法来防止您的内容出现在搜索结果中,例如,在漫游器元标记中添加“ NOINDEX”,使用htaccess加密某些目录或使用Google 网站管理员工具删除某些内容已被索引。 Google工程师Matt Cutts在帮助视频中简要介绍了各种URL排除原理。
Robots.txt的实践经验
对那些敏感内容使用更安全的解决方案-使用robots.txt阻止敏感或机密内容。这样做的原因是,如果您在robots.txt中阻止的那些链接出现在Internet上(例如源记录),则搜索引擎可能会引用这些URL(但这只是URL,并且不会收录标题或内容片段。)。还有一些恶意搜索引擎不符合漫游器排除标准,这违反了robots.txt上的说明。最后,一些好奇的用户将检查您的robots.txt是被声明为被阻止的目录或子目录,并猜测您不希望看到的内容。因此,通过.htaccess加密内容或实施密码保护是一个更安全的选择。当然,您需要避免:
1.允许对看起来像搜索结果的页面进行爬网。
2.允许爬网大量自动生成的页面,并且大多数页面相同或差别很小。 “搜索引擎将几乎被复制的这100,000个页面编入索引有多重要?”
3.允许对代理服务器创建的URL进行爬网。
知识补充:Robots.txt
robots.txt(小写统一)是存储在网站根目录中的ASCII编码文本文件。它通常告诉网络搜索引擎的漫游器(也称为网络蜘蛛)。搜索引擎的机器人无法获取哪些内容,而(机器人)可以获取哪些内容。由于某些系统中的URL区分大小写,因此应使用小写形式统一robots.txt的文件名。 robots.txt应该放置在网站的根目录中。如果要在访问子目录时分别定义搜索引擎机械手的行为,则可以将自定义设置合并到根目录中的robots.txt中,或使用机械手元数据。
Robots.txt协议不是规范,而是约定,因此无法保证网站的私密性。请注意,Robots.txt使用字符串比较来确定是否获取URL,因此目录末尾带有和不带有斜杠“ /”的两种类型的URL表示不同的URL,以及通配符(例如“ Disallow:* .gif”) “无法使用。
此协议不是规范,而只是约定。通常,搜索引擎会识别此元数据,并且不会索引此页面以及该页面的链接页面。
分享:Google的官方“搜索引擎优化指南” 网站促销文章翻译
核心提示:当人们找到您的网站并链接到它时,指向您网站的链接将逐渐增加,并且Google将了解您希望其他人知道您在网站上的辛勤工作成果。