#面试

深度学习面试题22:批量归一化在实践中的应用

假设已经训练好一个带有BN操作的卷积神经网络,但是在使用它预测时,往往每次只输入一个样本,那么经过该网络时,计算平均值和方差的意义就不大了,常采用的策略是计算训练阶段的平均值和方差的指数移动平均,然后在预测阶段使用它们作为BN操作时的平均值和方差。指数移动平均假设变量xt随时间t变化,按照以下规则定义其指数移动平均值假...

深度学习面试题21:批量归一化(Batch Normalization,BN)

 BN的由来BN是由Google于2015年提出,论文是《BatchNormalization_AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift》,这是一个深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层网络模型...

深度学习面试题20:GoogLeNet(Inception V1)

 简介2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构,而GoogLeNet则做了更加大胆的网络结构尝试,虽然深度只有2...

深度学习面试题19:1*1卷积核的作用

可以减少计算量,可以增加非线性判别能力举例假设有1个高为30、宽为40,深度为200的三维张量与55个高为5、宽为5、深度为200的卷积核same卷积,步长=1,则结果是高为30、宽为40、深度为55的三维张量,如图所示:该卷积过程的乘法计算量大约为5*5*200*30*40*55=330000000,这个计算量很大。...

深度学习面试题18:网中网结构(Network in Network)

网中网结构通过多个分支的运算(卷积或池化),将分支上的运算结果在深度上连接举例一个3*3*2的张量,与3个1*1*2的卷积核分别same卷积,步长=1,与2个2*2*2的卷积核分别same卷积,步长=1,与1个3*3*2的掩码最大值same池化,步长=1,将得到的这3个结果在深度方向上拼接GoogLeNet是基于类似网...

深度学习面试题17:VGGNet(1000类图像分类)

2014年,牛津大学计算机视觉组(VisualGeometryGroup)和GoogleDeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。VGGNet探索了卷积神经网络的深度与其性...

深度学习面试题16:小卷积核级联卷积VS大卷积核卷积

 感受野在卷积神经网络中,感受野(ReceptiveField)的定义是卷积神经网络每一层输出的特征图(featuremap)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如下图所示: 返回目录 多个小卷积核连续卷积和单个大卷积核卷积的作用相同...

深度学习面试题15:卷积核需要旋转180度

 在一些书籍和博客中所讲的卷积(一个卷积核和输入的对应位置相乘,然后累加)不是真正意义上的卷积。根据离散卷积的定义,卷积核是需要旋转180的。按照定义来说,一个输入和一个卷积核做卷积操作的流程是:①卷积核旋转180②对应位置相乘,然后累加举例下面这个图是常见的卷积运算图:中间的卷积核,其实是已经旋转过180度...

深度学习面试题14:Dropout(随机失活)

在训练过程中,Dropout会让输出中的每个值以概率keep_prob变为原来的1/keep_prob倍,以概率1-keep_prob变为0。也就是在每一轮的训练中让一些神经元随机失活,从而让每一个神经元都有机会得到更高效的学习,会让网络更加健壮,减小过拟合。在预测过程中,不再随机失活,也不在扩大神经元的输出。卷积层的...

深度学习面试题13:AlexNet(1000类图像分类)

第一个典型的CNN是LeNet5网络结构,但是第一个引起大家注意的网络却是AlexNet,AlexKrizhevsky其实是Hinton的学生,这个团队领导者是Hinton,于2012年发表论文。AlexNet有60million个参数和65000个神经元,五层卷积,三层全连接网络,最终的输出层是1000通道的soft...

深度学习面试题12:LeNet(手写数字识别)

LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。如今各大深度学习框架中所使用的LeNet都是简化改进过的LeNet-5(-5表示具有5个层),和原始的LeNet有些许不同,比如把激活函数改为了现在很常用的Re...

深度学习面试题11:池化(same池化、valid池化、带深度的池化)

池化(Pooling)操作与卷积类似,取输入张量的每个位置的矩形领域内的最大值或平均值作为该位置的输出。池化操作分为same池化和valid池化,同时还可以设置移动的步长Same最大值池化举例:4行4列的张量x和2行3列的掩码进行步长为1的same最大值池化,其过程如下池化的结果是 返回目录 多深度...

深度学习面试题10:二维卷积(Full卷积、Same卷积、Valid卷积、带深度的二维卷积)

二维卷积的原理和一维卷积类似,也有full卷积、same卷积和valid卷积。举例:3*3的二维张量x和2*2的二维张量K进行卷积二维Full卷积Full卷积的计算过程是:K沿着x从左到右,从上到下移动,每移动到一个固定位置,对应位置的值相乘再求和,计算过程如下: Full卷积的过程记为Cfull=x★K:&...

深度学习面试题09:一维卷积(Full卷积、Same卷积、Valid卷积、带深度的一维卷积)

一维卷积通常有三种类型:full卷积、same卷积和valid卷积,下面以一个长度为5的一维张量I和长度为3的一维张量K(卷积核)为例,介绍这三种卷积的计算过程  一维Full卷积Full卷积的计算过程是:K沿着I顺序移动,每移动到一个固定位置,对应位置的值相乘再求和,计算过程如下:将得到的值依次存...

深度学习面试题08:梯度消失与梯度爆炸

 以下图的全连接神经网络为例,来演示梯度爆炸和梯度消失:梯度消失在模型参数w都是(-1,1)之间的数的前提下,如果激活函数选择的是sigmod(x),那么他的导函数σ’(x)的值域为(0,0.25],即如下三项的范围都是(0,0.25] 那么w1的导数会有很多(0,0.25]范围的数累乘,就会造成w...
首页上一页...89101112...下一页尾页