搜索资源列表
rec
- Java实现将movielens各种规模数据的划分为测试集和训练集-Split movielens dataset to trainset and test set
native-bayes-classifier
- 朴素贝叶斯算法的源代码实现,(含训练数据)-to achieve native bayes classifier
LapLDA
- 利用LapLDA进行初始化,预测出无标签数据XU的类别信息,这样所有的训练样本都有类别了。 为样本 的软类别标签,软类别标签中最大的问题对应其具体类别。 LapLDA可用基于原始数据的LLE-style reconstruction weights -LLE-style reconstruction weights
pmf
- 推荐系统 概率矩阵分解代码 内部已包含有数据集,已分为训练集与测试集-Recommended system probability matrix decomposition Code
PCA-AND-PNN
- 应用主成分分析对数据降维,将得到的数据用于概率神经网络训练,进行模式识别。对于一组新数据,先计算主成分得分,再输入训练好的概率神经网络,就会得到识别结果,即改组数据属于何种类别。-Principal component analysis of the data reduction, data will be obtained for the probabilistic neural network training, pattern recognition. For a new set of d
DeepLearning-master
- 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。[1] 深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。[1] 深度学习是机器
KNN
- 本例程是一个完整的学习KNN算法的工程,使用VS2010+C#编程,含训练数据及测试数据-This routine is a complete learning KNN algorithm works using VS2010+ C# programming, including training data and test data
KNN
- KNN近邻算法分类程序,包含训练数据和测试数据.-KNN classification procedures, including training and testing data.
bayes
- 首先对数据进行拆分,分为测试集与训练集,通过训练集进行贝叶斯网络的建模,最后利用建立的模型进行预测或分类任务的R语言代码-First, the data is split into a training set and test set, Bayesian network modeling through the training set, and finally the use of the model to predict or classify tasks R language code
plot_cv_predict
- 等渗的插图对生成的数据回归。等张回归发现引入近似函数的同时最小化均方误差的训练数据。-An illustration of the isotonic regression on generated data. The isotonic regression finds a non-decreasing approximation of a function while minimizing the mean squared error on the training data.
adaboost
- 基于adaboost算法训练异常数据,进行数据挖掘,利用matlab进行编写。 -Training algorithm based adaboost abnormal data, data mining, using matlab be written.
k_nn
- kNN的思想:计算待分类的数据点与训练集所有样本点,取距离最近的k个样本;统计这k个样本的类别数量;根据多数表决方案,取数量最多的那一类作为待测样本的类别。距离度量可采用Euclidean distance,Manhattan distance和cosine。-kNN The idea is simple: the training set and calculated data points to be classified all sample points taken the neare
code
- (神经网络)多个隐含层的多层感知器网络训练数据得到网络,并使用测试数据统计所设计多层感知器的平均识别正确率-Multi layer perceptron network training data with multiple hidden layers is obtained, and the average recognition accuracy of the multi-layer perceptron is designed by using the test data statisti
KNN_dating
- 使用knn算法预测约会是否会成功,附带多次约会的训练数据- U4F7F u7528knn u7B97 u6CD5 u9884 u6D4B u7EA6 u4F1A u662F u5426 u4F1A u6210 u529F
py脚本
- svm支持向量机,包括训练数据,训练代码和测试代码(SVM support vector machines, welcome to download, including the data set)
trazseer
- 基于BP神经网络的电机转子故障诊断的研究,采用trainbpx训练函数,()
tist_aux__statement
- 支持向量机,用于分类,含训练集与测试集,()
siecable
- BP 网络通过微积分中的链法则来计算偏导数,这里我给出训练 BP 网络的公 式,详细的推导过程请见参考文献()
knn
- 模式识别中的k近邻算法,经过测试,运行结果很好。 最小距离分类器 : 它将各类训练样本划分成若干子类,并在 每个子类中确定代表点 。测试样本的类别则以其与这些代表点距离最近作决策。该方法的缺点是所选择的代表点并不一定能很好地代表各类,其后果将使错误率增加。(The k nearest neighbor algorithm in pattern recognition has been tested and the result is very good. Minimum distance c
核主元分析(Kernel principal component analysis ,KPCA)在降维、特征提取以及故障检测中的应用
- 主要功能有: (1)训练数据和测试数据的非线性主元提取(降维、特征提取) (2)SPE和T2统计量及其控制限的计算 (3)故障检测 KPCA的建模过程(故障检测): (1)获取训练数据(工业过程数据需要进行标准化处理) (2)计算核矩阵 (3)核矩阵中心化 (4)特征值分解 (5)特征向量的标准化处理 (6)主元个数的选取 (7)计算非线性主成分(即降维结果或者特征提取结果) (8)SPE和T2统计量的控制限计算