搜索资源列表
crawler
- Spider又叫WebCrawler或者Robot,是一个沿着链接漫游Web 文档集合的程序。它一般驻留在服务器上,通过给定的一些URL,利用HTTP等标准协议读取相应文档,然后以文档中包括的所有未访问过的URL作为新的起点,继续进行漫游,直到没有满足条件的新URL为止。WebCrawler的主要功能是自动从Internet上的各Web 站点抓取Web文档并从该Web文档中提取一些信息来描述该Web文档,为搜索引擎站点的数据库服务器追加和更新数据提供原始数据,这些数据包括标题、长度、文件建立时间
WebCollector-master
- 基于WebCollector内核,可以自己编写爬虫的http请求、链接解析器、爬取信息更新器、抓取器等模块,WebCollector把这些基于内核编写的模块称作 插件 ,通过不同的插件组合,可以在1分钟内,把WebCollector组装成一个全新的爬虫。 WebCollector内置了一套插件(cn.edu.hfut.dmic.webcollector.plugin.redis)。基于这套插件,可以把WebCollector的任务管理放到redis数据库上,这使得WebCollecto
Desktop
- 提供一款用nodejs做的抓取百度天气api返回json数据的接口服务,内含写有源码的nodejs文本文档,需要搭建node.js或有相应node.js的IDE也可以运行。测试形式如http://39.116.200.155:8000/?city=%E5%8C%97%E4%BA%AC(Provide an interface service that uses nodejs to capture Baidu weather API back to JSON data, including nod