搜索资源列表
minimize
- Conjugate Gradient Minimization在梯度下降算法中有着重要应用。可以解决一些一般方法不容易解决的问题
BPwnn
- 讨论了BP 小波神经网络在训练过程中减小误差函数时最优方向的确定和自适应调整学习率的方法。 首先论证了小波神经网络的数学基础,然后讨论了BP 小波神经网络的学习过程,重点讨论了减小误差函数最优方 向的确定方法,即如何保证步长方向与负梯度方向一致,由此得出了自适应调整学习率的简便方法。该方法具有 普遍性,有广泛的应用价值。仿真结果表明,采用最优梯度下降方向可以大幅度提高BP 小波神经网络的学习速 度。
bpnnet_154
- L-M算法。除了动量法(基于梯度下降的训练算法)外,学习率自适应调整策略是BP算法改进的另一种途径,它利用Levenberg-Marquardt优化方法,从而使得学习时间更短。其缺点是,对于复杂的问题,该方法需要很大的存储空间。 -L-M algorithm. In addition to momentum (based on the gradient descent algorithm for training), learning rate adaptive strategy is to i
Genetic Nonlinear Matlab
- 遗传算法虽然全局搜索能力较强,但是局部搜索能力较弱,一般只能搜索到函数优化问题的次优解,而不是最优解,特别是函数具有多个峰值时,遗传算法易陷入局部极小,不能找到真正的全局最优解。非线性规划因多采用梯度下降方法求解,而具有极强的局部搜索能力。因此,本源代码结合两种算法的优点,一方面采用遗传算法进行全局搜索,另一方面采用非线性规划进行局部搜索,以得到函数优化问题的全局最优解。实验证明,这种方法不仅能解决多峰函数寻优易陷入局部极小的问题,而且具有很高的迭代寻优效率,取得了满意的结果。-Global s
s4
- 基于遗传算法的作业排序方法 利用梯度下降法求解线性判别函数-Job sorting method based on genetic algorithm using the gradient descent method for solving linear discriminant function
BP_Differ_Train
- BP神经网络算法用来拟合加噪信号,并以动量梯度下降算法和减少内存的Levenberg-Marquardt算法两种训练方法进行该实例下的性能对比-BP neural network algorithm used to fit the noise signal, and to reduce the momentum gradient algorithm and memory Levenberg-Marquardt algorithm two training methods to compare t
tensorflow-cnn
- 基于TensorFlow的mnist数据集识别,使用CNN的方法,采用梯度下降学习(MNIST data set recognition based on TensorFlow, using CNN method, using gradient descent learning)
INFO_编程作业(1)
- 采用非监督学习方法 中的梯度下降法,实现简单分类,(Gradient descent method is used to realize simple classification)
Project1
- 多层神经网络,在训练过程中采用自适应学习率Adagrad方法。可以实现回归或分类问题。(The adaptive learning rate Adagrad method is adopted in the training process of the multilayer neural network. Regression or classification problems can be achieved.)