搜索资源列表
lowpower
- 从四个方面介绍了低压差线性稳压器的使用技巧-Introduced four low-dropout linear regulator of the use of skills
hanzitogbk
- 实现汉字的gbk码,ascii码转换和虚拟点阵显示,可自定义输入字体,12点阵输出数据-accomplish the transferation between gbk code .ascii and Chinese characters,with the user-defined font function and 12 dots dropout.
delta
- hspice model of a low-dropout regulator
XC6206P302MR_PDF_C9972_2012-11-17
- 3.0V稳压芯片,自身功耗小于1uA,线性度好,低压差(The XC6206 series are highly precise, low power consumption, high voltage, positive voltage regulators manufactured using CMOS and laser trimming technologies. The series provides large currents with a significantly small
Char-RNN-PyTorch-master
- # Char-RNN-PyTorch 使用字符级别的RNN进行文本生成,使用PyTorch框架。[Gluon实现] ## Requirements - PyTorch 0.2 - numpy ## Basic Usage 如果希望训练网络,使用如下的代码 ```bash python main.py \ --state train \ --txt './data/poetry.txt' \ # 训练用的txt文本 --batch 128 \ # batch_siz
DropOut深度网络
- 深度神经网络在测试时面对如此大的网络是很难克服过拟合问题的。 Dropout能够很好地解决这个问题。通过阻止特征检测器的共同作用来提高神经网络的性能。这种方法的关键步骤在于训练时随机丢失网络的节点单元包括与之连接的网络权值。在训练的时候,Dropout方法可以使得网络变得更为简单紧凑。在测试阶段,通过Dropout训练得到的网络能够更准确地预测网络的输出。这种方式有效的减少了网络的过拟合问题,并且比其他正则化的方法有了更明显的提升。 本文通过一个简单的实验来比较使用Dropout方法前后网络
dropout_and_minibatch
- 基于两层BP神经网络,加入dropout和softmax,输出层使用softmax,实现对手写字符库MNIST的识别,正确率达90%。(Based on the two level BP neural network, adding dropout and softmax, the output layer uses softmax to realize the recognition of handwritten character library MNIST, the accuracy ra