搜索资源列表
madengine.zip
- 根据特定URL地址读取所有页面自动建立索引文件的搜索程序
SQLET_spider
- 网络机器人又称为Spider程序,是一种专业的Bot程序。用于查找大量的Web页面。它从一个简单的Web页面上开始执行,然后通过其超链接在访问其他页面,如此反复理论上可以扫描互联网上的所有页面。-network robot also known as Spider procedures, is a professional bot procedures. Looking for a large number of Web pages. From a simple Web pages to beg
madengine
- 根据特定URL地址读取所有页面自动建立索引文件的搜索程序 -Serach app which can read all the special urls webpages and setup up index automatically
Followtop
- Follow me超级搜索引擎V6.1(完美版) 主要功能: 1.本程序整合google、百度、搜狗、中搜、搜搜等等近百个搜索引擎为一体. 2.可以搜索网页、音乐、影视、软件、图片、小说、新闻、论坛、游戏、Flash、地图、购物、商业特色搜索等10多个搜索主题. 3.占用CPU资源少,支持流量大. 4.本程序版面绝对精美,所有资料来原于各大搜索引擎,完全不用维护,只要改一下网站资料和放些广告就可以了. 5.最新增加默认搜索功能,可以让用户选择百度或google或百度
follow
- Follow me超级搜索引擎V6.1(无数据库版) 主要功能: 1.本程序整合google、百度、搜狗、中搜、搜搜等等近百个搜索引擎为一体. 2.可以搜索网页、音乐、影视、软件、图片、小说、新闻、论坛、游戏、Flash、地图、购物、商业特色搜索等10多个搜索主题. 3.占用CPU资源少,支持流量大. 4.本程序版面绝对精美,所有资料来原于各大搜索引擎,完全不用维护,只要改一下网站资料和放些广告就可以了. 5.最新增加默认搜索功能,可以让用户选择百度或google或
renew
- 文件扩展名更改程序的功能:在命令行中输入renew dir old new,应用程序的名字为renew.exe,后面的dir,old和new是三个命令行参数,dir代表一个全路径名,old和new代表文件扩展名,在路径为dir中搜索所有扩展名为old的文件,如果找到将扩展名改为new而文件名不变。在读入参数的过程中检验路径是否合法,若不合法则输出提示并退出,如果用户输入的参数不符合要求也输出提示并且退出程序;在修改文件扩展的过程中如果遇到重名的文件,提示用户是否覆盖,若选择覆盖则删除原文件,更改
spider_c
- c语言写的网页爬虫程序,给一个种子网址,深度搜索遇到的所有网址保存在一个文本文档中,-c language to write web crawler, to a seed URL, the depth of the search experience for all URLs stored in a text document,
ZeroCrawler
- 该程序用于抓取某一网页的所有链接,适合爬虫初学者使用-The procedure used to crawl all the links of a web page, suitable for reptiles beginners
crawler-1.0-sources
- 网络蜘蛛是通过网页的链接地址来寻找网页 网络蜘蛛 ,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。 ----这样看来,网络蜘蛛就是一个爬行程序,一个抓取网页的程序-internet crawler
python_sina_crawl
- 新浪微博的爬虫程序。程序运行方式:保存所有代码后,打开Main.py,修改LoginName为你的新浪微博帐号,PassWord为你的密码。运行Main.py,程序会在当前目录下生成CrawledPages文件夹,并保存所有爬取到的文件在这个文件夹中。-Sina microblogging reptiles. Program operation: save all the code, open Main.py, modify LoginName for your Sina Weibo accou