搜索资源列表
webharvest1-project
- Web-Harvest是一个Java开源Web数据抽取工具。它能够收集指定的Web页面并从这些页面中提取有用的数据。Web-Harvest主要是运用了像XSLT,XQuery,正则表达式等这些技术来实现对text/xml的操作
hyperestraier-1.4.13
- 1.Hyper Estraier是一个用C语言开发的全文检索引擎,他是由一位日本人开发的.工程注册在sourceforge.net(http://hyperestraier.sourceforge.net). 2.Hyper的特性: 高速度,高稳定性,高可扩展性…(这可都是有原因的,不是瞎吹) P2P架构(可译为端到端的,不是咱们下大片用的p2p) 自带Web Crawler 文档权重排序 良好的多字节支持(想一想,它是由日本人开发的….) 简单实用的A
songSpider
- python爬虫 自动下载mp3歌 有比较经典的正则表达式
test
- 一个小的爬虫程序,可以利用正则表达式匹配字符串,提取有用信息-spider program
usr
- 详细说明:perl实现的一个爬虫程序,程序虽小,但是短小精干。可以使用正则表达式来限定爬行范围-achieve a reptile procedure is small, but small and lean. It is the use of regular expressions to limit the scope of crawling.
spider2006
- 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。 -C# spider.
TestBaidu
- 测试获取百度的搜索结果,利用正则表达式匹配内容-Testing Gets Baidu search results, use regular expressions to match content
NWebCrawler
- 网络爬虫, * 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 * 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 * 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 * 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 * 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。-Web crawler
web
- 适用于初学者参考的python小程序,功能是用正则表达式爬取58同城的主要二手房信息(本代码仅限作者城市,可以自行修改),可以控制爬取页数,和每页的显示条目.(python source for house info on web 58)
pacar
- 利用python爬取汽车之家评论,涉及scarpy,bs4和正则表达式的使用(Climb the review of the car on the web)