搜索资源列表
SkypeClient
- 1、支持无限级分类,无限添加网站; 2、动态生成HTML网页文件; 3、动态生成静态搜索目录,大大减轻了服务器负担; 4、对每一个登录网站进行审核管理; 5、搜索关键词具有空格分别功能,例如:“电脑 游戏”搜索引擎会找出 关于“电脑”和“游戏”的网站; 6、方便使用的网页模板,随时做出您的个性化网页; 7、动态设置网站在搜索结果、分类目录里的排名排序; 8、可以设置登录的网站出现在多个不同分类目录上,而不需要多次登录-a support unlimited c
v6499_zgurlsearch_1_12
- zgurl.com搜索是集国内多家搜索引擎于一体,收录了百度(baidu.com)、中搜、一搜、google、yahoo、阿里巴巴、阿土伯、慧聪等国内搜索引擎公司和专业数据库。 可搜索网址、网页、新闻、MP3、图片、Falsh、购物、黄页(公司库)等内容。 解决了百度不允许框架其网页(用一般的框架加入百度的页面,百度会自动刷新父框架为百度当前页面)。 演示地址:http://www.zgurl.com/search.asp zgurlsearch 1.12版 修正了1.0版阿土伯交易网企业库的链
serach
- 搜索引擎 1.安装系统需要的环境。推荐:windows sever 2000 + .net 2.0 + ms sql 2000 + iis。 2.在iis中发布search虚拟目录。 3.执行蜘蛛程序中的lzsearch.exe 程序,在sql服务器d盘建立一个名为:greendb 的文件夹,用程序快速安装数据库,详见程序界面。用程序生产web.config文件,放置到search 目录中。 4.通过add.aspx 添加入口网址。 5.执行蜘蛛程序,第一次更新网站资料开始前
SearchEngine
- 1.这是一个简单的采用了Lucene的搜索引擎,本例子采用lucene+struts+ibatis的框架进行开发,使用的数据库是Oracle,搜索源是jpetstore的product表,大家在使用的时候请根据实际情况修改database.properties文件的配置。 2.本例子支持中文搜索,相关的源码包在cnSolution目录。
filesearch
- 仿操作系统的文件查找,利用遍历器对磁盘某个目录进行文件搜索-Find a document like the operating system, the use of traverse directories on a disk for a file search
sphiderchn
- PHP搜索引擎的源代码 1.安装前先打开../settings/database.php手动设置数据库连接,管理员帐号密码在../admin/auth.php中修改,默认为 admin/admin 2.上传完成后,请先运行http://你的域名/admin/install.php进行自动安装。 3.安装完后,记得删除掉../admin/目录下的install.php 和 auth_old.php 文件。 4.OK~到这里你就安装成功啦! -PHP source code of
SharpICTCLAS
- ICTCLAS分词的总体流程包括:1)初步分词;2)词性标注;3)人名、地名识别;4)重新分词;5)重新词性标注这五步。就第一步分词而言,又细分成:1)原子切分;2)找出原子之间所有可能的组词方案;3)N-最短路径中文词语粗分三步。 在所有内容中,词典库的读取是最基本的功能。ICTCLAS中词典存放在Data目录中,常用的词典包括coreDict.dct(词典库)、BigramDict.dct(词与词间的关联库)、nr.dct(人名库)、ns.dct(地名库)、tr.dct(翻译人名库
spider2006
- 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。 -C# spider.
python_sina_crawl
- 新浪微博的爬虫程序。程序运行方式:保存所有代码后,打开Main.py,修改LoginName为你的新浪微博帐号,PassWord为你的密码。运行Main.py,程序会在当前目录下生成CrawledPages文件夹,并保存所有爬取到的文件在这个文件夹中。-Sina microblogging reptiles. Program operation: save all the code, open Main.py, modify LoginName for your Sina Weibo accou
NWebCrawler
- 网络爬虫, * 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 * 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 * 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 * 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 * 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。-Web crawler
聚合搜索
- 1:无需shell,无需蜘蛛池,无需租用二级目录,仅仅需要一个老域名 2:内置资源接口,提权,养站,排名 3:合理SEO优化构造,病毒式繁殖,组合,让蜘蛛畅快爬取收录 4:配合主动实时推送,每天可以推送400万个网页,加速收录 5:是目前最有效,最稳定,操作最简单,最省钱,排名的霸屏程序。 6:所需资源,一个老域名,你自己的关键词,一个服务器 7:本程序无需mysql,使用文件缓存,动静结合加载。 8:针对百度搜索引擎做了代码优化。 9:根目录可以直接用顶级域名养站。 10:自