百度网页关键字抓取(腾讯面试题:百度搜索为什么那么快?也收到了很多知友反驳)

优采云 发布时间: 2022-02-24 07:17

  百度网页关键字抓取(腾讯面试题:百度搜索为什么那么快?也收到了很多知友反驳)

  上一篇文章【腾讯面试题:为什么百度搜索这么快?】引起了大家的关注,也收到了很多朋友的反驳。

  首先声明文章为转载,仅记录学习作用。我只是一个小工厂的程序员。我接受大家的反驳。我承认。当然,我很想去大厂体验996。我的具体情况可以看我的资料和知乎个人视频。

  看到很多评论都提到了很多技术,然后就去百度web开发者文档找了。官方给出了详细的搜索引擎原理。请自行检查。你的bb有意义吗?当然你也可以去CNKI搜索引擎上搜索很多论文。看来阅读下载是要收费的(天下没有免费的午餐,哈哈),土豪请无视。

  刚经1:搜索结果全是广告和百家账号。谁的服务器资源不是用*敏*感*词*买的?程序员不拿钱?马云也不是80岁。否则,他就有和巴菲特、比尔盖茨一样的资产去做慈善。我不是在吃人血馒头。

  限制2:用户网速影响不大:早起kb/s时,要等很久才能搜索。但是在这个时代,网速也有一定的影响,但是当你的网络不稳定的时候,不要打电话给正在看视频的我。或者是哪个CDN网络供应商提供全向?是不是没有效果,也不是缩短物理传输距离。

  纲静3:如果你问为什么快,你回答原理,但答案是错误的:我基本明白,这取决于你的知识和原理是否清楚。百度/谷歌是搜索的领头羊,绝对值得学习。线公司搜索原则。换句话说,如果你是面试官,我对搜索过程了解很多,我会说我是从百度/谷歌搜索的。阿三说,如果你去百度,你会选择谁?

  为了方便大神们集中注意力,我把目录拿出来,按需翻阅。当然目录是不能跳转的,可以自己拉下来。

  内容

  一、蜘蛛抓取系统的基本框架

  二、百度蜘蛛主要爬取策略类型

  爬取友好性 常用爬取返回码 多url重定向指示 爬取优先级标识 重复url分配 暗网数据过滤 抓取爬取防作弊

  三、百度蜘蛛爬取过程中涉及的网络协议

  四、百度蜘蛛爬取频率原理及调整方法

  五、百度蜘蛛爬取异常的原因

  服务器连接异常 网络运营商异常 DNS异常 IP Ban UA Ban 死链接异常跳转

  六、判断新链接的重要性

  一、对用户的价值二、链接的重要性,

  七、百度优先建设重要库的原则

  八、哪些网页不能被索引

  九、搜索引擎索引系统概述

  十、倒排索引的重要过程——存储和写入

  影响搜索结果排名的十个一、因素

  十大二、低质量网页狙击策略——石榴算法

  十 三、外部链接的作用

  十个四、斩断买卖的超级链条——路罗算法1.0&2.0

  十个 五、 结构化数据——帮助您的网站获得更多点击

  一、蜘蛛抓取系统的基本框架

  随着互联网信息的爆炸式增长,如何有效地获取和利用这些信息是搜索引擎工作的首要环节。数据爬取系统作为整个搜索系统的上游,主要负责互联网信息的采集、保存和更新。它像蜘蛛一样在网络中爬行,因此通常被称为“蜘蛛”。比如我们常用的几种常见的搜索引擎蜘蛛叫做:Baiduspdier、Googlebot、搜狗网络蜘蛛等。

  蜘蛛爬取系统是搜索引擎数据来源的重要保障。如果把网络理解为一个有向图,那么蜘蛛的工作过程可以认为是对这个有向图的遍历。从一些重要的*敏*感*词*URL开始,通过页面上的超链接关系,不断发现新的URL并进行爬取,尽可能多地爬取有价值的网页。对于百度这样的大型爬虫系统,由于随时都有网页被修改、删除或者新的超链接出现的可能,所以需要保持过去爬虫爬取的页面保持更新,维护一个URL库和Page图书馆。

  下图是蜘蛛爬取系统的基本框架图,包括链接存储系统、链接选择系统、dns解析服务系统、爬取调度系统、网页分析系统、链接提取系统、链接分析系统、网页存储系统。百度蜘蛛通过本系统的配合完成对互联网页面的爬取。

  

  二、百度蜘蛛主要爬取策略类型

  上图看似简单,但实际上百度蜘蛛在爬取过程中面临着一个超级复杂的网络环境。为了让系统尽可能多地抢到有价值的资源,保持系统中页面与实际环境的一致性,同时不会给网站的体验带来压力,会设计一个各种复杂的抓取策略。这里有一个简单的介绍:

  1. 抓取友好度

  海量的互联网资源要求抓取系统在有限的硬件和带宽资源下,尽可能高效地利用带宽,尽可能多地抓取有价值的资源。这就产生了另一个问题,消耗了被逮捕的 网站 的带宽并造成访问压力。如果太大,将直接影响被捕网站的正常用户访问行为。因此,需要在爬取过程中控制爬取压力,以达到在不影响网站正常用户访问的情况下尽可能多地抓取有价值资源的目的。

  通常,最基本的是基于 ip 的压力控制。这是因为如果是基于域名的话,可能会出现一个域名对应多个IP(很多大网站)或者多个域名对应同一个IP(小网站共享 IP)。在实践中,往往根据ip和域名的各种情况进行压力分配控制。同时,站长平台也推出了压力反馈工具。站长可以自己手动调节抓取压力网站。这时候百度蜘蛛会根据站长的要求优先控制抓取压力。

  对同一个站点的爬取速度控制一般分为两类:一类是一段时间内的爬取频率;另一种是一段时间内的爬行流量。同一个站点在不同时间的爬取速度会有所不同。例如,在夜深人静、月黑风高的情况下,爬行可能会更快。它还取决于特定的站点类型。主要思想是错开正常的用户访问高峰并不断进行调整。不同的站点也需要不同的爬取率。

  2. 常用的fetch返回码

  简单介绍一下百度支持的几个返回码:

  3. 各种url重定向的标识

  由于各种原因,互联网上的某些网页具有 url 重定向状态。为了正常抓取这些资源,需要蜘蛛识别和判断url重定向,同时防止作弊。重定向可以分为三类:http 30x 重定向、meta refresh 重定向、js 重定向。另外,百度还支持Canonical标签,在效果上可以认为是间接重定向。

  4. 获取优先级调整

  由于互联网资源的巨*敏*感*词*和快速变化,搜索引擎几乎不可能全部抓取并保持合理更新的一致性。因此,这就需要爬取系统设计一套合理的爬取优先级。供应策略。主要包括:深度优先遍历策略、广度优先遍历策略、pr-first策略、反链策略、社交分享引导策略等。每种策略各有优缺点,在实际情况下,往往会出现多种策略配合使用,达到最佳的抓取效果。

  5. 过滤重复的 url

  在爬取过程中,蜘蛛需要判断一个页面是否被爬取过。如果还没有被爬取过,就会对网页进行爬取,放到被爬取的url集合中。判断是否被爬取的核心是快速查找对比,还涉及到url规范化识别。例如,一个url收录大量无效参数但实际上是同一个页面,将被视为同一个url。.

  6. 获取暗网数据

  互联网上有大量暂时无法被搜索引擎捕获的数据,称为暗网数据。一方面,网站的大量数据存在于网络数据库中,蜘蛛很难通过爬取网页获取完整的内容;以此类推,也会导致搜索引擎无法抓取。目前暗网数据获取的主要思路还是使用开放平台提交数据,如“百度站长平台”、“百度开放平台”等。

  7. 抓取反作弊

  爬虫在爬取过程中,经常会遇到所谓的爬虫黑洞或面临大量低质量页面,这就要求在爬虫系统中还应设计一套完整的爬虫防作弊系统。比如分析url特征,分析页面大小和内容,分析爬取规模对应的站点规模等等。

  三、百度蜘蛛爬取过程中涉及的网络协议

  刚才提到百度搜索引擎会设计复杂的爬取策略。事实上,搜索引擎和资源提供者之间存在着相互依存的关系。其中,搜索引擎需要站长为其提供资源,否则搜索引擎将无法满足用户的检索需求;并且站长需要通过搜索引擎来推广他们的内容以获得更多的受众。蜘蛛爬取系统直接涉及互联网资源提供者的利益。为了实现搜索引擎和站长的双赢,双方在爬取过程中都必须遵守一定的规范,以方便双方的数据处理和对接。这个过程所遵循的规范,就是我们日常生活中所说的一些网络协议。

  这是一个简短的列表:

  四、百度蜘蛛爬取频率原理及调整方法

  百度蜘蛛根据上述网站设定的协议爬取网站页面,但不可能对所有网站一视同仁。它会综合考虑网站的实际情况来确定一个抓取配额,每天定量抓取网站内容,也就是我们常说的抓取频率。那么百度搜索引擎是通过哪些指标来判断一个网站的爬取频率呢?主要有四个指标:

  网站更新频率:更新更频繁,更新更慢,直接影响百度蜘蛛的访问频率网站更新质量:提升了更新频率,只是为了吸引百度蜘蛛的注意,百度蜘蛛有很多对质量有严格要求,如果网站每天更新的大量内容被百度蜘蛛判断为低质量页面,仍然没有意义。连通性:网站应该安全稳定,保持百度蜘蛛畅通,保持百度蜘蛛关闭不是好事。站点评价:百度搜索引擎对每个站点都会有一个评价,这个评价会根据站点情况而变化 是百度搜索引擎对站点的一个基本评分(绝不是外界所说的百度权重),这是百度内部非常机密的数据。站点评级从不单独使用,并与其他因素和阈值一起影响 网站 的爬取和排名。

  爬取频率间接决定了网站有多少页面可能被数据库收录。这么重要的值,如果不符合站长的期望,应该如何调整呢?百度站长平台提供了爬频工具(),并完成了多次升级。除了提供爬取统计,该工具还提供了“频率调整”功能。站长要求百度蜘蛛根据实际情况增加或减少对百度站长平台的访问量。调整。

  五、百度蜘蛛爬取异常的原因

  有一些网页内容优质,用户可以正常访问,但Baiduspider无法正常访问和爬取,导致搜索结果覆盖不足,对百度搜索引擎和网站来说都是一种损失。百度称这种情况为“抢”。对于大量内容无法正常抓取的网站,百度搜索引擎会认为网站存在用户体验缺陷,降低对网站的评价,在爬取、索引和排序方面都会受到一定程度的负面影响,最终会影响到网站从百度获得的流量。

  以下是爬取异常的一些常见原因:

  1. 服务器连接异常

  服务器连接异常有两种情况:一种是网站不稳定,百度蜘蛛在尝试连接你的网站服务器时暂时无法连接;另一个是百度蜘蛛一直无法连接到你的网站服务器。

  服务器连接异常的原因通常是你的网站服务器太大,过载。也有可能是你的网站没有正常运行,请检查网站的web服务器(如apache、iis)是否安装运行正常,用浏览器查看主页面可以正常访问。您的 网站 和您的主机也可能阻止了百度蜘蛛的访问,您需要检查您的 网站 和主机的防火墙。

  2. 网络运营商异常

  网络运营商有两种:中国电信和中国联通。百度蜘蛛无法通过中国电信或中国网通访问您的网站。如果出现这种情况,需要联系网络服务运营商,或者购买双线服务空间或者购买cdn服务。

  3. DNS 异常

  当百度蜘蛛无法解析您的 网站 IP 时,会出现 DNS 异常。可能你的网站 IP地址有误,或者Baiduspider被你的域名服务商屏蔽了。请使用 WHOIS 或主机检查您的 网站 IP 地址是否正确且可解析。如果不正确或无法解决,请联系域名注册商更新您的 IP 地址。

  4. IP 阻塞

  IP封禁是:限制网络的出站IP地址,禁止该IP段内的用户访问内容。在这里,BaiduspiderIP被明确禁止。仅当您的 网站 不希望百度蜘蛛访问时,才需要此设置。如果您想让百度蜘蛛访问您的网站,请检查相关设置中是否错误添加了百度蜘蛛IP。也有可能是你网站所在的空间服务商封杀了百度IP。在这种情况下,您需要联系服务提供商更改设置。

  5. UA 禁令

  UA就是User-Agent,服务器通过UA识别访问者的身份。当网站返回异常页面(如403、500)或跳转到其他页面供指定UA访问时,属于UA禁令。当你的网站不想要百度蜘蛛时这个设置只有在访问时才需要,如果你想让百度蜘蛛访问你的网站,请检查useragent相关设置中是否有百度蜘蛛UA,并及时修改。

  6. 死链接

  已经无效且无法为用户提供任何有价值信息的页面为死链接,包括协议死链接和内容死链接两种形式:

  7. 异常跳转

  将网络请求重定向到另一个位置是一个跳转。异常跳转指以下几种情况:

  六、判断新链接的重要性

  好了,上面我们讲了影响百度蜘蛛正常爬取的原因,下面说一下百度蜘蛛的一些判断原则。在建库链接之前,百度蜘蛛会对页面进行初步的内容分析和链接分析,通过内容分析判断页面是否需要建索引库,通过链接分析发现更多页面,然后爬取更多页面——分析——是否建立图书馆并发现新链接的过程。理论上,百度蜘蛛会把新页面上所有“看到”的链接都爬回来,那么面对众多的新链接,百度蜘蛛如何判断哪个更重要呢?两个方面:

  首先,用户的价值内容是独一无二的。百度搜索引擎喜欢独特的内容主体脱颖而出。不要显得网页的主要内容不突出,被搜索引擎误判为空缺的页面。不抓取内容丰富的广告是合适的。二、链接重要度目录级别——网站中浅优先链接的流行度七、百度先建重要库的原则

  百度蜘蛛抓取的页数并不是最重要的,重要的是建了多少页到索引库中,也就是我们常说的“建库”。众所周知,搜索引擎的索引库是分层的。高质量的网页将分配到重要的索引库,普通网页将留在普通库,较差的网页将分配到低级库作为补充资料。目前60%的检索需求只需要调用重要的索引库就可以满足,这就解释了为什么有些网站的收录的超高流量并不理想。

  那么,哪些页面可以进入优质索引库呢?其实,总的原则是一个:对用户有价值。包括但不仅限于:

  及时有价值的页面:在这里,及时性和价值并列,缺一不可。有些网站为了生成时间敏感的内容页面做了很多采集的工作,导致一堆毫无价值的页面,百度不想看到。优质内容的特色页:特色页的内容不一定是完全的原创,也就是可以很好的融合各方的内容,或者加入一些新鲜的内容,比如意见、评论等,给予为用户提供更丰富、更全面的内容。高价值的原创内容页面:百度将原创定义为花费一定成本,积累大量经验后形成的文章。永远不要再问我们是否 伪原创 是原创。重要个人页面:这里只是一个例子,科比在新浪微博上开了一个账号,即使他不经常更新,对于百度来说,它仍然是一个非常重要的页面。八、哪些网页不能被索引

  上面提到的优质网页都进入了索引库,所以其实网上的大部分网站都没有被百度收录列出来。不是百度没找到,而是建库前的筛选过程中被过滤掉了。那么在第一个链接中过滤掉了什么样的网页:

  内容重复的网页:百度不需要收录互联网上已有的内容。主体为空且短的网页

  部分作弊页面九、搜索引擎索引系统概述

  众所周知,搜索引擎的主要工作流程包括爬取、存储、页面分析、索引、检索等几个主要流程。上一章我们主要介绍了一些爬取和存储链接的内容。本章简要介绍了索引系统。

  在以十亿为单位的网页库中搜索特定的 关键词 就像大海捞针一样。有可能在一定时间内完成搜索,但用户不能等待。从用户体验的角度来看,我们必须在毫秒级别给出。用户对结果满意,否则用户只能流失。怎样才能满足这个要求?

  如果可以知道用户搜索的关键词(查询切分后)中出现了哪些页面,那么用户检索的处理过程可以想象为对收录查询不同部分的页面集合进行交叉的过程分割后。, 检索成为页面名称之间的比较和交集。这样,以毫秒为单位的数十亿单位的检索成为可能。这就是所谓的倒排索引和交集检索过程。构建倒排索引的基本流程如下:

  

  页面分析的过程其实就是对原创页面的不同部分进行识别和标记,例如:标题、关键词、内容、链接、锚点、评论、其他非重要区域等;分词的过程实际上包括分词和同义词转换同义词替换等,以一个页面的标题分词为例,得到的数据会是这样的数据:词条文本,词条,词性,词性,等等。; 前面的准备工作完成后,下一步就是建立倒排索引,形成{termàdoc},下图是索引系统中的倒排索引流程。

  

  倒排索引是搜索引擎实现毫秒级检索的一个非常重要的环节。接下来,我们将主要介绍在索引系统中建立倒排索引的重要过程——入库和写入。

  十、倒排索引的重要过程——存储和写入

  索引系统在倒排索引建立的最后还需要一个入库和写库的过程。为了提高效率,这个过程还需要把所有的term和offset都保存在文件头中,并对数据进行压缩,这个涉及到技术性太强这里就不提了。这里简单介绍一下索引后的检索系统。

  检索系统主要包括五个部分,如下图所示:

  

  影响搜索结果排名的十个一、因素

  上面的内容好像有点深奥,因为涉及到很多技术细节,这里只能说一下。那么再来说说大家最感兴趣的排序问题。用户输入关键词进行检索。百度搜索引擎在排序过程中要做两件事。一是从索引数据库中提取相关网页,二是根据不同维度对提取的网页进行评分。综合排序。“不同维度”包括:

  以上就是百度搜索引擎在确定搜索结果排名时考虑的六大原则。那么六项原则的重点是什么?哪个原理在实际应用中所占的比例最大?其实这里并没有明确的答案。在百度搜索引擎的早期,这些门槛确实是比较固定的。例如,“相关性”在整体排名中的权重可以占到 70%。然而,随着互联网的不断发展,检索技术的进步,以及网页数量的爆炸式增长,相关性已不再是问题。因此,百度搜索引擎引入了机器学习机制,让程序自动生成计算公式,推动排序策略更加合理。

  十大二、低质量网页狙击策略——石榴算法

  我们理解网站需要资金支持才能生存和发展,我们从不反对网站添加各种合法广告。不要再问我们“我们会不会网站加XX联盟广告会被处罚?” 此类问题。一些网站在百度排名不错,但在页面上投放了大量不利于用户体验的广告,严重影响了百度搜索引擎的用户体验。为此,百度质量团队于2013年5月17日发布公告:针对低质量网页启动石榴算法,旨在打击含有大量不良广告、妨碍用户正常浏览的页面,特别是弹出大量低质量广告和混乱页面。

  如下网页截图所示,用户需要很长时间才能找到真正的下载地址,这是百度无法接受的。

  

  百度质量团队希望站长能站在用户的角度出发,考虑长远发展,在不影响用户体验的情况下合理投放广告,赢得用户长期青睐是网站发展的基础和成长。

  十个三、外链的作用(2014版)

  曾经,“内容为王,超链接为王”的说法流传了多年。通过计算超链接的得分来反映网页的相关性和重要性。它确实是搜索引擎评估网页的重要参考因素之一。搜索结果排序计算。然而,随着越来越多的SEO人员了解这项技术,超链接也逐渐失去了投票的意义。无论是谷歌还是百度,对超链接数据的依赖度越来越低。那么,目前超链的作用是什么?

  吸引蜘蛛爬行:虽然百度在发现新的好网站方面下足了功夫,打通了多个数据提交入口,避开了社交发现渠道,但超链接仍然是发现收录链接入口的最主要途径。将相关信息传递给搜索引擎:除了通过TITLE、页面关键词、H标签等来判断网页内容外,百度还会使用锚文本来进行判断。使用图片作为点击入口的超链接,也可以通过alt属性和title标签向百度传达你的感受。提升排名:百度搜索引擎虽然减少了对超链接的依赖,但对超链接的认可度从未下降,对优质链接、正常链接、垃圾链接和作弊链接制定了更严格的标准。对于作弊链接,除了对链接进行过滤和清理外,对链接的受益站点也进行了一定的处罚。相应地,百度依然欢迎优质链接。内容分享,口碑相传:优质内容广为传播,网站可能不会获得大量流量,但如果内容做得足够好,也能树立自己的品牌效应。严格来说,这不属于超链接的作用。在百度眼里,网站的品牌远比超链接重要。十个四、切断买卖超链——路罗算法1.0&2.0 百度仍然欢迎高质量的链接。内容分享,口碑相传:优质内容广为传播,网站可能不会获得大量流量,但如果内容做得足够好,也能树立自己的品牌效应。严格来说,这不属于超链接的作用。在百度眼里,网站的品牌远比超链接重要。十个四、切断买卖超链——路罗算法1.0&2.0 百度仍然欢迎高质量的链接。内容分享,口碑相传:优质内容广为传播,网站可能不会获得大量流量,但如果内容做得足够好,也能树立自己的品牌效应。严格来说,这不属于超链接的作用。在百度眼里,网站的品牌远比超链接重要。十个四、切断买卖超链——路罗算法1.0&2.0 s 品牌比超链接重要得多。十个四、切断买卖超链——路罗算法1.0&2.0 s 品牌比超链接重要得多。十个四、切断买卖超链——路罗算法1.0&2.0

  2013年2月19日,百度质量团队发布公告,上线lulu算法,再次强调买卖链接的行为:一方面,买卖链接的行为影响用户体验,干扰搜索引擎算法;得利,真正用心做好站内工作的站长们,在这个严酷的互联网超链环境下,是得不到应有的回报的。因此,以下三类网站在清除买卖环节外链计算的基础上会受到不同程度的影响:

  1.超链接中介:超链接应该是互联网上比较优质的推荐。是普通用户和网站之间对页面内容和网站价值的肯定,但现在各种超链接作弊,让真实的肯定成为一些人谋取利益的敲门砖,用户找不到高-根据链接推荐需要的优质资源,严重干扰了搜索引擎对网站的评价。超链中介是在这个畸形的超链市场中形成的邪恶之花。我们有义务维护超链的纯粹性,保护用户的利益。我们也有责任引导站长朋友们停止花费不必要的开支。所以,

  2.卖链接网站:一个网站赚钱的方法很多,用优质的原创内容吸引老用户,引入优质的广告资源,甚至举办线下活动,这些盈利方式都是我们乐于看到的,也是一个网站的真正价值。但是,有些网站的内容基本上是采集来自网络,靠卖超链位置来活的;一些机构网站或被链接中介租用出售链接位置,使得超链市场的泡沫越来越大。这种调整也会影响这些网站。

  3.购买链接网站:百度一直保护和支持优质网站,这是从用户需求和创业站长的角度来看的必然结果。然而,一些站长并没有把精力花在提高网站的质量上,而是选择了耍花招,用金钱换超链接,欺骗搜索引擎,然后欺骗用户。对于没有太多资源和金钱来支付此类费用的创业站长来说,这也是一种无形的伤害。如果不加以遏制,劣币将驱逐良币,势必导致更糟糕的互联网环境。此类网站本身也将受到此次调整的影响。

  以上是百度质量团队首次推出鲁洛算法时的具体情况,后来被称为鲁洛算法1.0。时隔5个月,百度质量团队再次推出鲁洛算法2.0,对明显提升软文进行了更宽更严的处理。

  处罚对象为发布软文的新闻网站,包括软文交易平台和软文收益网站。处罚包括:

  对于软文交易平台,直接封禁;对于软文发布站,将分别进行不同程度的处理。比如一条新闻网站,有发布软文的现象但情况不严重,搜索系统中的网站会被降级;如果大量使用子域发布软文,则直接屏蔽子域,清空百度动态;即使为发布软文创建了大量子域,整个主域也会被屏蔽。对于软文受益站点,如果一个网站的外链中有少量软文外链,则该外链会被过滤掉权重计算系统,而受益站点将在观察一段时间后,根据情况进一步处理;如果一个网站的外部链接中有大量的软文外部链接,那么此时受益站点将被降级或直接屏蔽。十个 五、 结构化数据——帮助您的网站获得更多点击

  网页经过爬取和建库,参与排序计算,最终展现在搜索引擎用户面前。目前百度搜索左侧的结果展示形式有很多种,比如:凤巢、品牌专区、自然结果等,如何让一个自然结果获得更多点击是站长考虑的重要部分。

  目前自然结果分为两类,如下图所示。第一种,即结构化呈现,形式多样。目前覆盖了80%的搜索需求,即80%的关键词都会出现这种复杂的展示风格;第二种是单段摘要展示,最原创的展示方式,只有一个标题,两行摘要,部分链接。

  

  显然,结构化展示能够清晰地向用户传达信息,直击用户需求痛点,自然获得更好的点击量。目前结构化展示有几种风格:

  

  

  

  

  

  

  参考文档:

  百度开发者中心 百度搜索引擎工作原理

  /resources/online/doc/seo/search-engine-principle.html

  百度搜索资源平台

  /college/courseinfo?id=144

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线