搜索资源列表
free141full
- 这个系统属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。适合与于对某一指定领域里的网站进行搜索,比如建立一个内网的搜索引擎。 升级内容: 1.增加屏蔽网址功能 。 2.修正上一版本处理网页重定向时判断部分网址的错误。 3.增加了删除重复数据功能,可选择是否采用重复页面删除模式,可定义索引重复数据的数据表。 4.首次采用注册码注册完全版本,共享版本限制每网址索引10个页面。 -this system i
spider(java)
- 网页抓取器又叫网络机器人(Robot)、网络爬行者、网络蜘蛛。网络机器人(Web Robot),也称网络蜘蛛(Spider),漫游者(Wanderer)和爬虫(Crawler),是指某个能以人类无法达到的速度不断重复执行某项任务的自动程序。他们能自动漫游与Web站点,在Web上按某种策略自动进行远程数据的检索和获取,并产生本地索引,产生本地数据库,提供查询接口,共搜索引擎调用。-web crawling robots - known network (Robot), Web crawling,
Crawler_bemjh
- 用为为教育黄页网站提供数据的主题工蜘蛛,这个蜘蛛只下载与教育相关的网页,过滤掉一些不相关的网页,其中有重要的评分部分,很实用,稍加改动就可用于各种主题的蜘蛛.-use of the Search for Education website to provide data for the theme of spiders, The spider only download to education-related website, filtering out some not related to
lz_spidetytryryr
- 这个系统是属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。 适合与于对某一指定领域里的网站进行搜索,比如仅搜索医学网站。 使用sql server 2000做数据库。 网络蜘蛛根据用户设定的入口网址自动收集网页数据 强大完备的后台管理 充分挖掘.net性能,百万数据瞬间搜索 完美的前台web页cc面媲美专业搜索 中文分词接口-The system is an automated search
Aibo_SohuHouse
- 网页数据采集系统,非常好用,不防试试.网页数据采集系统,非常好用,不防-website data acquisition system is very convenient, and preventing a try. Data Acquisition System website, very convenient, try not defense
theory_of_search_engine
- 本书比较系统地介绍了互联网搜索引擎的工作原理、实现技术及其系统构建 方案。全书分三篇共13章内容,从基本工作原理概述开始,到一个小型简单搜索 引擎实现的具体细节,进而详细讨论了大规模分布式搜索引擎系统的设计要点及 其关键技术;最后面向主题和个性化的Web信息服务,阐述了中文网页自动分类 等技术及其应用。本书层次分明,由浅入深;既有深入的理论分析,也有大量的 实验数据,具有学习和实用双重意义。
SearchEngineer
- 本书比较系统地介绍了互联网搜索引擎的工作原理、实现技术及其系统构建方案。全书分三篇共13章内容,从基本工作原理概述开始,到一个小型简单搜索引擎实现的具体细节,进而详细讨论了大规模分布式搜索引擎系统的设计要点及其关键技术;最后面向主题和个性化的Web信息服务,阐述了中文网页自动分类等技术及其应用。本书层次分明,由浅入深;既有深入的理论分析,也有大量的实验数据,具有学习和实用双重意义。
incSpideraspnet
- 蜘蛛登陆追捕器 (网络版)0.12 版 Spider是搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在搜索引擎中搜索到贵网站的网页。 搜索引擎派出“蜘蛛”程序检索现有网站一定IP地址范围内的新网站,而对现有网站的更新则根据该网站的等级不同有快慢之分。一般来说,网站网页等级越高,更新的频率就越快。搜索引擎的“蜘蛛”同一天会对某些网站或同一网页进行多次爬行,知道蜘蛛的运动规律,对于更新网页、了解搜索引擎收录的收录情况等等有相当重要的作用。
SearchEnginePrincipleTechnologyandSystems
- 本书比较系统地介绍了互联网搜索引擎的工作原理、实现技术及其系统构建方案。全书分三篇共13章内容,从基本工作原理概述开始,到一个小型简单搜索引擎实现的具体细节,进而详细讨论了大规模分布式搜索引擎系统的设计要点及其关键技术;最后面向主题和个性化的Web信息服务,阐述了中文网页自动分类等技术及其应用。本书层次分明,由浅入深;既有深入的理论分析,也有大量的实验数据,具有学习和实用双重意义。
COM2008-v50
- 一套现成的分类信息网站发布系统,拥有完善的数据分类和简洁的网页设计,适合于做城市门户网站、报社分类广告网站、行业分类信息网站;最新的5.0版本加入了社区化网站经营理念和成功的信息置顶赢利模式,更强的网站交互式功能、会员VIP功能、网站后台管理功能使COM2008分类信息系统实现质的飞跃;网站内容由信息发布者和网站浏览者共建、赢利点也由发布的信息产生,是一套带有成功赢利模式的优秀的Web2.0网站全站系统。 COM2008分类信息系统5.0商业版较上一个版本增加了以下功能:信息置顶功能、
wininet-spider
- 网络爬虫,完美演示了多线程和深度设置抓取网页数据。-crawl through internet to get web data. the win32 api supports applications that are pre-emptively multithreaded. this is a very useful and powerful feature of win32 in writing mfc internet spiders. the spider project is a
Search_Engine
- 课程作业 包含分词 前端 后台 爬虫等 网页数据直接用文本文件存储,倒叙表用二进制文件-Coursework includes reptiles and other sub-word front-back
03
- 本文首先介绍了图像搜索引擎系统的总体设计,分别介绍了数据下载模块、 预处理模块、图像分类模块、图像检索模块。在分析Spider系统的总体架构、运 行流程和重要组件的基础上,实现了普通爬虫和精确爬虫,分别针对不同的网页 进行数据下载。-This thesis describes the overall design of the image search engine firstly and describes the data download module、preprocess
vbXML
- VB源码:通过XML读取网页内容并分析取得需要的数据-VB Source: Read through the XML content and analysis of data required to obtain
LxmYhfWjm_v1.0
- 本书比较系统地介绍了互联网搜索引擎的工作原理、实现技术及其系统构建方案。全书分三篇共13章内容,从基本工作原理概述开始,到一个小型简单搜索引擎实现的具体细节,进而详细讨论了大规模分布式搜索引擎系统的设计要点及其关键技术;最后面向主题和个性化的Web 信息服务,阐述了中文网页自动分类等技术及其应用。本书层次分明,由浅入深;既有深入的理论分析,也有大量的实验数据,具有学习和实用双重意义。 本书可作为高等院校计算机科学与技术、信息管理与信息系统、电子商务等专业的研究生或高年级本科生的教学参考书和技术资
ss
- 网页抓取器又叫网络机器人(Robot)、网络爬行者、网络蜘蛛。网络机器人(Web Robot),也称网络蜘蛛(Spider),漫游者(Wanderer)和爬虫(Crawler),是指某个能以人类无法达到的速度不断重复执行某项任务的自动程序。他们能自动漫游与Web站点,在Web上按某种策略自动进行远程数据的检索和获取,并产生本地索引,产生本地数据库,提供查询接口,共搜索引擎调用。-asp
GooglePR
- Google PageRank (网页级别) 是 Google 搜索引擎用于评测一个网页“重要性”的一种方法。 Google 通过 PageRank 来调整结果,使那些更具“重要性”的网页在搜索结果中另网站排名获得提升,从而提高搜索结果的相关性和质量。 主要功能: 1、Google PR值在线查询,直接读取Google官方数据; 2、小偷工具,无需维护数据; 3、DIV+CSS模板方便修改; 4、免费、开源程序 -Google PageRank (PageRan
Crawler_src_code
- 网页爬虫(也被称做蚂蚁或者蜘蛛)是一个自动抓取万维网中网页数据的程序.网页爬虫一般都是用于抓取大量的网页,为日后搜索引擎处理服务的.抓取的网页由一些专门的程序来建立索引(如:Lucene,DotLucene),加快搜索的速度.爬虫也可以作为链接检查器或者HTML代码校验器来提供一些服务.比较新的一种用法是用来检查E-mail地址,用来防止Trackback spam.-A web crawler (also known as a web spider or ant) is a program,
larbin-2.6.3
- larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。 latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网
禾丰网页数据抓取工具V1.0 绿色版
- 禾丰网页数据抓取工具V1.0 绿色版 网络爬虫(Wellhope web data scraping tool V1.0 green version)