搜索资源列表
conjugategrads
- 图像重建常常被转化为解非线性无约束极值问题, 通过范数极小化推导出共扼梯度法的 一般算法。通过对模拟数据和实际工件断层扫描数据进行图像重建, 估计了算法的有效性, 结果表明, 与最速下降法相比, 此算法更适用于不完全投影数据的图像重建, 在保证重建图像拟合度的同时, 大大提高了重建速度。-Image reconstruction has often been transformed into solving nonlinear unconstrained extremum problem,
lms_flp32
- 最陡下降法的梯度估计matlab小程序,对初学者有借鉴意义-Steepest gradient descent method is estimated matlab small procedures, there is reference for beginners
optical-folw
- 基于光流的各种梯度计算方法 用拟牛顿法求极小值点和最速下降梯度法matlab程序-Based on optical flow of all kinds of gradient calculation
10256987
- matlab最速下降法,MATLAB最速下降法(梯度法)程序。-matlab steepest descent method, MATLAB steepest descent method (gradient method) program.
SVM-study-for-the-news
- 基于梯度下降法的SVM的实现。适合初学者-Gradient descent method to achieve SVM. Suitable for the news.
usingTVSR
- 选用梯度下降法以及TV正则项,BTV正则项进行超分辨率图像重建-TV and BTV SR
cnn
- 卷积神经网络的实现代码,包括训练,测试,SGD随机梯度下降法等功能。-Convolution neural network implementation code, including training, testing, SGD stochastic gradient descent and other functions.
ruqning
- 最优化算法,有共轭梯度,牛顿法,黄金分割,最速下降法等()
pvlw
- 最优化的一系列算法,包括牛顿法,最速下降法,共轭梯度法等,()
Untitled2
- BP神经网络基本原理概述:这种网络模型利用误差反向传播训练算法模型,能够很好地解决多层网络中隐含层神经元连接权值系数的学习问题,它的特点是信号前向传播、误差反向传播,简称BP(Back Propagation)神经网络。BP学习算法的基本原理是梯度最快下降法,即通过调整权值使网络总误差最小,在信号前向传播阶段,输入信号经输入层处理再经隐含层处理最后传向输出层处理;在误差反向传播阶段,将输出层输出的信号值与期望输出信号值比较得到误差,若误差较大则把误差信号传回隐含层直至输入层,在各层神经元中使用