#Memcache学习总结

深度学习面试题09:一维卷积(Full卷积、Same卷积、Valid卷积、带深度的一维卷积)

一维卷积通常有三种类型:full卷积、same卷积和valid卷积,下面以一个长度为5的一维张量I和长度为3的一维张量K(卷积核)为例,介绍这三种卷积的计算过程  一维Full卷积Full卷积的计算过程是:K沿着I顺序移动,每移动到一个固定位置,对应位置的值相乘再求和,计算过程如下:将得到的值依次存...

深度学习面试题08:梯度消失与梯度爆炸

 以下图的全连接神经网络为例,来演示梯度爆炸和梯度消失:梯度消失在模型参数w都是(-1,1)之间的数的前提下,如果激活函数选择的是sigmod(x),那么他的导函数σ’(x)的值域为(0,0.25],即如下三项的范围都是(0,0.25] 那么w1的导数会有很多(0,0.25]范围的数累乘,就会造成w...

深度学习面试题07:sigmod交叉熵、softmax交叉熵

 sigmod交叉熵Sigmod交叉熵实际就是我们所说的对数损失,它是针对二分类任务的损失函数,在神经网络中,一般输出层只有一个结点。假设y为样本标签,_y为全连接网络的输出层的值,那么,这个对数损失定义为PS:这个是可以用极大似然估计推导出来的举例:y=0,_y=0.8,那此时的sigmod交叉熵为1.17...

深度学习面试题06:全连接神经网络正向传播与梯度反向传播

 链式法则类型一: 类型二: 类型三:     返回目录  逻辑回归的正、反向传播逻辑回归可以看做最简单的神经网络,他只有一个神经元,损失函数选择的是对数损失,他的正向传播过程如下图所示:逻辑回归可以看做最简单的神经网络...

深度学习面试题05:激活函数sigmod、tanh、ReLU、LeakyRelu、Relu6

 为什么要用激活函数在神经网络中,如果不对上一层结点的输出做非线性转换的话,再深的网络也是线性模型,只能把输入线性组合再输出(如下图),不能学习到复杂的映射关系,因此需要使用激活函数这个非线性函数做转换。 返回目录 sigmodSigmod激活函数和导函数分别为对应的图像分别为: ...

深度学习面试题04:随机梯度下降法、批量梯度下降法、小批量梯度下降

在《深度学习面试题03改进版梯度下降法Adagrad、RMSprop、Momentum、Adam》中讲到了多种改进的梯度下降公式。而这篇文章和03篇描述的不是一个事情,我们从一个例子说起,就知道改良的GD算法和本节介绍的GD算法的不同点了。一元线性回归模型举例:以房屋面积预测房屋价格假设函数可以设置为 返回目...

深度学习面试题03:改进版梯度下降法Adagrad、RMSprop、Momentum、Adam

发展历史 标准梯度下降法的缺陷如果学习率选的不恰当会出现以上情况 因此有一些自动调学习率的方法。一般来说,随着迭代次数的增加,学习率应该越来越小,因为迭代次数增加后,得到的解应该比较靠近最优解,所以要缩小步长η,那么有什么公式吗?比如:,但是这样做后,所有参数更新时仍都采用同一个学习率,即学习率不能...

深度学习面试题02:标准梯度下降法

 梯度下降是一种迭代式的最优化手段,在机器学习中一般用于求目标函数的极小值点,这个极小值点就是最优的模型内部参数。相比求解析解的手段,GD的通用性更强,所以受到广泛的使用。一元函数的梯度下降法比如求解f(x)=(x-1)2的最小值点梯度下降的公式为,上标表示第i轮的x值初始化点x(0) =4,学习率...

深度学习面试题01:导数、偏导数、方向导数、梯度的概念

 导数导数反映的是函数y=f(x)在某一点处沿x轴正方向的变化率。  比如y=x2,在x=1处的导数=2。 导数是通过极限来定义的,某一点的导数=tanψ,但是前提是△x趋近于0,此时tanψ=tanα=该点导数,公式如下:   返回目录 ...

【深度学习】关于Adam

版权声明:本文为博主原创文章,遵循CC4.0by-sa版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/weixin_31866177/article/details/88601294从SGD(SGD指mini-batchgradientdescent)和Adam两个方面说...
代码星球 代码星球·2021-02-12

深度学习中Dropout原理解析

版权声明:本文为博主原创文章,遵循CC4.0by-sa版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/program_developer/article/details/80737724本文同步更新在我的微信公众号里,地址:https://mp.weixin.qq.com...

深度学习基础(CNN详解以及训练过程1)

深度学习是一个框架,包含多个重要算法: ConvolutionalNeuralNetworks(CNN)卷积神经网络AutoEncoder自动编码器SparseCoding稀疏编码RestrictedBoltzmannMachine(RBM)限制波尔兹曼机DeepBeliefNetworks(DBN)深信度网...

<深度学习优化策略-3> 深度学习网络加速器Weight Normalization_WN

前面我们学习过深度学习中用于加速网络训练、提升网络泛化能力的两种策略:BatchNormalization(BatchNormalization)和LayerNormalization(LN)。今天讨论另一种与它们类似的策略:WeightNormalization(WeightNormalization)。Weight...

深度学习小记

近段时间,由于工作需要,一直在看深度学习的各种框架,主要是Caffe和Tensorflow。并且在可预见的未来,还会看更多不同的深度学习框架。最开始我是以软件工程师的角度去阅读这些框架的,说实话,Caffe的代码框架逻辑清晰相对好理解一点,而TensorFlow就比较麻烦了,里面内容太多,函数调用链非常长,且使用了大量...
代码星球 代码星球·2021-02-12

排序学习实践---ranknet方法

要: 1背景   随着移动互联网的崛起,越来越多的用户开始习惯于从手机完成吃、喝、玩、乐、衣、食、住、行等各个方面的需求。打开手机,点开手淘、美团等APP,商品玲玲满目,而让用户将所有商品一页页看完已经不现实,通常情况下用户也就查看前几页,如果找不到满意的商品则退出,从而造成流单...
首页上一页...4647484950...下一页尾页