搜索资源列表
miniSearch
- 搜索,2006年4月开发出来。开发之初,搜索就将自己的目标定位于打造专业化的搜索引擎。力争用“最”短的时间为广大搜索用户提供“最”有用的信息。 搜索目前主要提供“美容经验” “大杂烩” “旅行资讯”三个领域的网页信息。 注:我们提供各行业专业搜索引擎索引库定制服务,您只需提供需要索引的网址,我们便会为您提供强大的网页信息抓取服务,丰富您的搜索引擎数据库,抓取内容可嵌入本搜索系统中。我们按所提供的网址数量收费。欢迎广大公司、站长和个人联系!
NetTrafficButton1.0.rar
- 通过抓取网页中的流量信息来实现实时网络流量监控,用于大学校园的校园网应用,Crawl through the page flow of information to achieve real-time network traffic monitor for the campus of the University Campus Network Application
ADOcatchNet.rar
- 用MFC做的从网页中抓取信息后放在数据库中,To use MFC to do grab the information from the website on the database after the
SearchBiDui
- 可以对搜索网页信息进行抓取,包括地址,关键字描述等-Information on the web page can crawl
GetPic
- 抓图小工具REV 3.0 可独立批量抓图 新增批量抓图功能,带更新图片功能,可设置时间间隔、抓取数量、信息提示、放大镜功能、方向键微调功能。 批量抓图技巧: 针对网页验证码需要点击更新再抓取的,勾选[点击更新图片],鼠标拖动[坐标获取]的右边图形移动到需要点击的地方自动获取坐标,设置时间间隔,设置抓取数量,点击批量抓图按钮,完成! 如果不需要点击更新不勾选[点击更新图片]即可 本程序可辅助OCR识别,图形识别与自动控制-Grab a small tool i
larbin-2.6.3
- larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。 latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网
HTMLDownloader
- 输入网址 读取网页 抓取文字信息 文本文档读出-Enter a URL to read a web page to read a text message text documents
MetaSeeker-4.11.2
- 主要应用领域: • 垂直搜索(Vertical Search):也称为专业搜索,高速、海量和精确抓取是定题网络爬虫DataScraper的强项,每天24小时每周7天无人值守自主调度的周期性批量采集,加上断点续传和软件看门狗(Watch Dog),确保您高枕无忧 • 移动互联网:手机搜索、手机混搭(mashup)、移动社交网络、移动电子商务都离不开结构化的数据内容,DataScraper实时高效地 采集内容,输出富含语义元数据的XML格式的抓取结果文件,确保自动化
Web-Crawlers
- 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。 -Web crawler (also known as web spider, robot, in the middle of the FOAF community, more often referred to as Web Chaser), is one kind of in acco
simplehtmldom
- 抓取网页指定信息,针对html文件做操作-Crawl pages specified information
Bohaoqi
- 使用API来自动拨号换取IP,并自动记录到数据库中,如果该IP在一天内重复,则可以继续自动换IP。直到IP不相同为止,一般可以用来抓取网页,发送信息等限制IP的网站。-Using the API to automatically dial in exchange for IP, and automatically record to the database, if the IP is repeated in a day, you can continue to automatically ch
MyProxy
- VC socket抓取网页获取代理信息,作者:邱景栋。程序通过socket 抓取网页文件,并读取指定网址的代理信息。-VC socket crawl the web to obtain the proxy information, the author: Qiu Jingdong. Program files crawled pages socket, and read the proxy information specified URL.
p_fangbaidu_kuaso
- 仿百度搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描; 自动识别GB2312、BIG5、UTF-8、Unicode等网页编码; 文件类型证察防止非文本类型文件采集; 蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页; 支持续采功能,如果因系统、网络等故障问题终止采集,系统将在下次启动采集时提示您是否“继续采集”或“结束任务”; 采集任务管理功能可以设置多个采集任务安排计划工作,每一个采集任务将会
SpliderDemo
- 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。-Web crawler (also known as web spider, web robot, FOAF community in the middle, more often referred to as the page chaser), is a follow certain rules to automatically crawl the
tevtdocument
- 输入网址 读取网页 抓取文字信息, 文本文档读出-Enter url Read pages grab text information, read out a text document
TechNewsAutoChecker
- 可以抓取网页财经信息,绝对好用东东干货,供参考!(this is very good!please gei me a guest!)
newsCrawler
- 获取新浪网页评论,抓取评论地域信息,对地域信息进行分类整理(get xinlang comment and then hand it)
test001
- 通过url抓取网页信息,具体是通过host和请求路径 最后保存在文件中(Grab Web Information. At last save in a file)
python
- 从猎聘网爬取相关招聘信息和评论信息,网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。(From the recruitment network crawling relevant recruitment information.Web crawlers, also known as web spiders, web robots, more commonly known as web chasers
spider
- 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。(Cepstrum image generation and analysis, can be used for motion-blurred image PSF parameter estimation)