搜索资源列表
minimize
- Conjugate Gradient Minimization在梯度下降算法中有着重要应用。可以解决一些一般方法不容易解决的问题
BPwnn
- 讨论了BP 小波神经网络在训练过程中减小误差函数时最优方向的确定和自适应调整学习率的方法。 首先论证了小波神经网络的数学基础,然后讨论了BP 小波神经网络的学习过程,重点讨论了减小误差函数最优方 向的确定方法,即如何保证步长方向与负梯度方向一致,由此得出了自适应调整学习率的简便方法。该方法具有 普遍性,有广泛的应用价值。仿真结果表明,采用最优梯度下降方向可以大幅度提高BP 小波神经网络的学习速 度。
LMS
- 最小均方(LMS)自适应算法就是一中已期望响应和滤波输出信号之间误差的均方值最小为准的,依据输入信号在迭代过程中估计梯度矢量,并更新权系数以达到最优的自适应迭代算法。LMS算法是一种梯度最速下降方法,其显著的特点是它的简单性。这算法不需要计算相应的相关函数,也不需要进行矩阵运算。
Optimization
- 约束最优化方法--最速下降法(也叫梯度法),是人们用来求多个变量函数极值问题的最早的一种方法。-Constrained optimization methods- steepest descent method (also known as gradient method), is used for multiple variables function Extremum Problems earliest methods.
nonrigid_version7b
- 非刚性图像配准算例,包括最速梯度下降优化、二次样条、2D/3D配准、互信息最小化、3D仿射等多种配准算法。 非刚性配准是当前应用最多的配准方法,用于处理有较大位移的配准问题-Non-rigid image registration examples, including the steepest gradient descent optimization, quadratic spline, 2D/3D registration, mutual information minimizatio
opt_steep
- 最速下降法,沿梯度下降的方法寻找最优解的经典方法-Steepest descent method
TIDUXIAJ
- 多变量无约束问题的优化最优化方法之梯度下降法-Optimization of the gradient descent method
ganzhiqi
- 模式识别里的感知器算法,基于分类应用,校正方法是最优化技术中的梯度下降法。-Inside the sensor pattern recognition algorithm, based on classification applications, calibration method is the optimization of the gradient descent.
Genetic Nonlinear Matlab
- 遗传算法虽然全局搜索能力较强,但是局部搜索能力较弱,一般只能搜索到函数优化问题的次优解,而不是最优解,特别是函数具有多个峰值时,遗传算法易陷入局部极小,不能找到真正的全局最优解。非线性规划因多采用梯度下降方法求解,而具有极强的局部搜索能力。因此,本源代码结合两种算法的优点,一方面采用遗传算法进行全局搜索,另一方面采用非线性规划进行局部搜索,以得到函数优化问题的全局最优解。实验证明,这种方法不仅能解决多峰函数寻优易陷入局部极小的问题,而且具有很高的迭代寻优效率,取得了满意的结果。-Global s
ml-master
- 使用梯度下降方法基于MATLAB的大小根据区域预测的价格的房子-Using gradient descent method based on MATLAB according to the size of the area for prediction of the price of the house
神经网络极速学习方法研究
- 单隐藏层前馈神经网络(Single-hidden Layer Feedforward Neural Network, SLFN)已经在模式识别、自动控制及数据挖掘等领域取得了广泛的应用,但传统学习方法的速度远远不能满足实际的需要,成为制约其发展的主要瓶颈。产生这种情况的两个主要原因是:(1)传统的误差反向传播方法(back propagation,BP)主要基于梯度下降的思想,需要多次迭代;(2)网络的所有参数都需要在训练过程中迭代确定。因此算法的计算量和搜索空间很大。针对以上问题,借鉴ELM的
Bump-judgment
- 机器学习中用到的梯度下降方法,凹凸性判读资料-Gradient descent method used in machine learning, data interpretation uneven nature
最速下降法
- 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一,虽然现在已经不具有实用性,但是许多有效算法都是以它为基础进行改进和修正而得到的。最速下降法是用负梯度方向为搜索方向的,最速下降法越接近目标值,步长越小,前进越慢。(The gradient descent method is an optimization algorithm, also known as steepest descent. The steepest descent meth
求平均距离算法、水算法、梯度算法
- 使用matlab的分水岭算法对骨关节图像进行分割,基于梯度下降的方法进行优化(The MATLAB watershed algorithm is used to segment the bone and joint images, and the gradient descent method is used to optimize the segmentation)
Project1
- 多层神经网络,在训练过程中采用自适应学习率Adagrad方法。可以实现回归或分类问题。(The adaptive learning rate Adagrad method is adopted in the training process of the multilayer neural network. Regression or classification problems can be achieved.)
机器学习_梯度下降算法实现
- 机器学习_梯度下降算法实现——C++ 程序使用方法: 程序只包括一个源文件gradient.cpp 运行的时候,将train.dat和test.dat两个数据及gradient.cpp放在同个目录下. 利用以下命令行操作即可. g++ gradient.cpp -o gradient gradient 程序运行的结果会在命令行中打印出来 该程序10秒钟内可以运行结束.(Machine learning _ gradient descent algorithm)
基于backtracking和0.618的两种梯度下降直线搜索算法
- 本算法为凸优化中的常用优化算法:梯度下降算法。本程序由matlab编写,内含有注释,分别用非精确直线搜索和精确直线搜索两种方法实现了梯度下降算法。
最优化方法
- 使用各种不同的方法计算二元函数极值,如最速下降法,牛顿法,共轭梯度法,拟牛顿法,信赖域法等(Calculate binary function extremes using various methods, such as steepest descent, Newton's method, conjugate gradient method, quasi-Newton method, trust region method, etc.)
最速下降法求解方程组
- 最速下降法就是梯度下降法,可以用于求解最小二乘问题(线性和非线性都可以)。可以说是求解机器算法的最古老、最经典的模型,另一种常用的方法是最小二乘法。(The steepest descent method is the gradient descent method, which can be used to solve the least squares problem (both linear and non-linear). It can be said that it is the ol
code
- matlab实现四种最优化搜索方法 共轭梯度法 牛顿法 最速下降法 拟牛顿法 对一个十维函数的极值搜索(matlab optimal search)