robots.txt文件写入即可我也想知道啊!!

优采云 发布时间: 2021-06-01 01:02

  robots.txt文件写入即可我也想知道啊!!

  网站内容添加过滤的话,都会在特定的域名指向给你展示链接。这样会导致,如果当前域名对应的所有链接没有被过滤过,那么所有的用户都可以访问。可能是过滤的人太多,或者是那些过滤的人没有按照你的需求,来过滤链接。

  robots.txt文件写入即可

  我也想知道啊!

  -robots.htm

  网站内部的文件都是可以查看的。

  我不知道题主找的到底是哪个网站。我来正经回答吧。网站有两种。一种是主页+functionalweb,另一种是页面+functionalweb。先找到对应网站的domtree。每个网站的domtree是独立的。注意,domtree的每个元素,会有一个class对应。可以在tooltip里面查看。domtree被分析之后,会发送到我们的浏览器。

  浏览器再自己去解析这个domtree。如果找到相应文件了,还要把该对应的文件改名。然后再交给浏览器去解析。差不多就是这样的过程。所以,用indexeddb取dom的时候,应该自己去处理每个页面对应的domtree。例如。我取的domtree就是每个页面对应functionalweb.用indexeddb取functionalweb.比用第三方工具更可靠。

  我现在就用的indexeddb。importio.lib.screenshotfrom"document.getelementbyid("f")";document.getelementbyid("d")[0].screenshot(filename);。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线