搜索资源列表
点对点我的资源QQ
- 点对点文件上传下载软件,带ICQ功能,带搜索引擎功能。 成品简介:朋友就是你最丰富最忠实的资源,这套软件会帮你搜索他共享出来的资源。 功能包括:1、聊天室,透视网上邻居正在做什么;2、交朋友,跟你喜欢的网上邻居结盟做朋友;3、发送文字信息;4、查看他共享的资源:文件夹、收藏夹、朋友名单;5、互联浏览:和朋友连接浏览器,他看到的网站,你同时也看到;6、语音通话:和朋友用话筒及音箱来对话;7、网页量温:安排电脑跟踪你喜爱的网站的最新更新情况。系统优点:1、不用登录服务器和注注册;2、发
Crawler_bemjh
- 用为为教育黄页网站提供数据的主题工蜘蛛,这个蜘蛛只下载与教育相关的网页,过滤掉一些不相关的网页,其中有重要的评分部分,很实用,稍加改动就可用于各种主题的蜘蛛.-use of the Search for Education website to provide data for the theme of spiders, The spider only download to education-related website, filtering out some not related to
get_page
- 可以下载网页的原始格式,并可以模仿各种UA的小工具。主要用来调试和测试。
v6499_zgurlsearch_1_12
- zgurl.com搜索是集国内多家搜索引擎于一体,收录了百度(baidu.com)、中搜、一搜、google、yahoo、阿里巴巴、阿土伯、慧聪等国内搜索引擎公司和专业数据库。 可搜索网址、网页、新闻、MP3、图片、Falsh、购物、黄页(公司库)等内容。 解决了百度不允许框架其网页(用一般的框架加入百度的页面,百度会自动刷新父框架为百度当前页面)。 演示地址:http://www.zgurl.com/search.asp zgurlsearch 1.12版 修正了1.0版阿土伯交易网企业库的链
incSpideraspnet
- 蜘蛛登陆追捕器 (网络版)0.12 版 Spider是搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在搜索引擎中搜索到贵网站的网页。 搜索引擎派出“蜘蛛”程序检索现有网站一定IP地址范围内的新网站,而对现有网站的更新则根据该网站的等级不同有快慢之分。一般来说,网站网页等级越高,更新的频率就越快。搜索引擎的“蜘蛛”同一天会对某些网站或同一网页进行多次爬行,知道蜘蛛的运动规律,对于更新网页、了解搜索引擎收录的收录情况等等有相当重要的作用。
zhizhu
- 网页下载程序,源码来自网上,大家一起学习
IndexFiles
- 基于Lucene的网页生成工具,对于有网页爬行器从网络上下载下来的网页库,本软件可以对他们进行网页索引生成,生成网页索引是搜索引擎设计中核心的部分之一。也称网页预处理子系统。本程序用的是基于lucene而设计的。
heritrix-1.14.0-src
- 知名网络蜘蛛源码,可以下载整站内容,扩展性强,可以下载动态网页
SearchEngine1.0
- 实现搜索引擎最基本的下载网页、建立倒排索引、关键词查询功能。程序的实现借助了libcurl库。-Search engine to achieve the most basic functionality of downloading page, seting up inverted index, keyword querying. Program implementation with the libcurl library.
03
- 本文首先介绍了图像搜索引擎系统的总体设计,分别介绍了数据下载模块、 预处理模块、图像分类模块、图像检索模块。在分析Spider系统的总体架构、运 行流程和重要组件的基础上,实现了普通爬虫和精确爬虫,分别针对不同的网页 进行数据下载。-This thesis describes the overall design of the image search engine firstly and describes the data download module、preprocess
GetImage_Eng
- 类似网络爬虫,从一个网页“爬”到另一个网页,然后选择图片下载。多线程。 可以用来按照一定规则下载网页中的元素,如图片、网页、flash等,举例如下-download images or other stuffs by analyzing webpages, search for webpages like a spider. you can config the downloading and crawling strategy in the program
Web-Crawler-Cpp
- 网页抓取,可以实现网页的下载,并过滤出想要的内容。很实用-Web crawling, Web page downloads can be achieved, and to filter out unwanted content. Very practical
crawler
- 一个针对分主题的网页分析和下载系统,能主动下载信息详细页-Automatically analyze and download classified web pages
esou
- 整合了目前比较流行的各大搜索引擎的功能,按网页、音乐、视频、游戏、下载、商业、黄页、字典等功能进行分类。重要的是针对Google和百度、sogou等搜索联盟赚钱提供了软件端口。用户下载后只需将注册的代码输入系统即可开始赚钱。 新版本还将整合网址导航站等实用功能给大家。-Integration of the more popular features in major search engines, according to web pages, music, video, games, do
MySo
- 例子以拍拍网为例下载网页,最大线程1024,但是要比较好的网络条件下,机器配置比较高才不会处问题哦,在服务器上测试效果很好。-Patted network example to download page as an example, the biggest thread 1024, but relatively good network conditions, the machine configuration will not compare Gao Cai Department issue
datascraper_zh
- DataScraper是网页信息提取(抽取)工具箱MetaSeeker中的一个工具,可以提取任何网站,为一个网站定制提取规则时不用编程,操作GUI,规则自动生成。适合做 1. 垂直搜索(或称为专业搜索)服务 2. 信息汇聚和门户服务 3. Mashup服务 4. 企业网信息汇聚 5. 商业情报采集 6. 论坛或博客迁移 7. 智能信息代理 8. 个人信息检索 9. 信息挖掘 有多个版本可以共享下载,下载完整工具箱,请访问:http:
wget
- 批量下载论坛源码的工具,使用请搜索相关的网页-Batch Download Forum-source tools, use the search for relevant pages
NetSpiderDemo
- 简单描述: 本程序是一个网络爬虫的演示程序。 程序主要涉及到:网页下载,URL解析,数据库读写。 网页下载使用Winhttp组件;数据库使用Sqlite。 使用方法: 1. 在“搜索网页”Tab页,输入关键字搜索,程序会把含关键字的网页信息,存入子目录下的Info.db。 2. 在“显示网页”Tab页,输入关键字显示,程序会把含关键字的网页信息,显示在界面上。 交流及指正,请联系QQ:270156812-This is a net
wtxx
- 一个课程设计,用于将下载的网页,去除无用信息,基于本地的lucene搜索引擎,可以输入关键字,然后查找那些文件包含这个keyword-A course design, used for download web pages, remove useless information, based on local lucene search engine, can enter keyword and then find those that file contains the keyword
pudndownload
- 下载工具 可以下载网页代码 网络蚂蚁,获取网页内容。-The download tool can download the web page code network ants, and access to web content.