#试题

百度2015校园招聘面试题回忆录(成功拿到offer)

盼望着,盼望着……今年终于轮到我找工作了,还深深记得去年跟在师兄后面各种打酱油的经历,当时觉得找工作好难啊,怎么面一个败一个,以后还能找到工作不?不过当时的失败也是理所当然的,那时候没有做任何准备(连进程间有几种通信方式这样老掉牙的题我都不知道),没有任何找工作的经验,甚至一个简单的自我介绍都吞吞吐吐的。经过一年时间的...

测试从业1到3年经验,常见面试题总结(二)

一、开发不认可你的bug怎么办? 1、可以先分析哪些类型的bug会出现这个情况,然后根据每种情况进行针对性说明,分别从bug本身、环境因素、人等方面回答,这样可以体现自己的分析能力和处事方式2、开发不认同的bug一般是:数据问题导致的bug、环境问题导致(偶发)、优化体验类的bug3、如果是应聘钢,也可以回答说出这个情...

测试从业1到3年经验,常见面试题总结(一)

1、给你一个APP,你该如何进行测试?  (1)功能测试-----主要测试APP的流程和业务要求是否达标(手动和自动化结合测试)  (2)性能测试------关注APP的性能参数:CPU、FPS、内存、耗电量、流量,同时关注APP的安装和启动耗时  (3)接口测试------关注数据的传送,数据的安全加密  (4)安全...

深度学习面试题29:GoogLeNet(Inception V3)

在《深度学习面试题20:GoogLeNet(InceptionV1)》和《深度学习面试题26:GoogLeNet(InceptionV2)》中对前两个Inception版本做了介绍,下面主要阐述V3版本的创新点使用非对称卷积分解大filtersInceptionV3中在网络较深的位置使用了非对称卷积,他的好处是在不降低...

深度学习面试题28:标签平滑(Label smoothing)

 产生背景假设选用softmax交叉熵训练一个三分类模型,某样本经过网络最后一层的输出为向量x=(1.0,5.0,4.0),对x进行softmax转换输出为:假设该样本y=[0,1,0],那损失loss:按softmax交叉熵优化时,针对这个样本而言,会让0.721越来越接近于1,因为这样会减少loss,但是...

深度学习面试题27:非对称卷积(Asymmetric Convolutions)

 产生背景之前在深度学习面试题16:小卷积核级联卷积VS大卷积核卷积中介绍过小卷积核的三个优势:①整合了三个非线性激活层,代替单一非线性激活层,增加了判别能力。②减少了网络参数。③减少了计算量在《RethinkingtheInceptionArchitectureforComputerVision》中作者还想...

深度学习面试题26:GoogLeNet(Inception V2)

 第一层卷积换为分离卷积 net=slim.separable_conv2d(inputs,depth(64),[7,7],depth_multiplier=depthwise_multiplier,stride=2,padding='SAME',weights_initializer=trunc_...

深度学习面试题25:分离卷积(separable卷积)

 举例分离卷积就是先在深度上分别卷积,然后再进行卷积,对应代码为:importtensorflowastf#[batch,in_height,in_width,in_channels]input=tf.reshape(tf.constant([2,5,3,3,8,2,6,1,1,2,5,4,7,9,2,3,-...

深度学习面试题24:在每个深度上分别卷积(depthwise卷积)

 举例如下张量x和卷积核K进行depthwise_conv2d卷积 结果为:depthwise_conv2d和conv2d的不同之处在于conv2d在每一深度上卷积,然后求和,depthwise_conv2d没有求和这一步,对应代码为:importtensorflowastf#[batch,in_h...

深度学习面试题23:批次张量和卷积核的简易定义方式

 直接定义的缺点在tensorflow中假设有一批输入为:其定义如下:tf.constant([[[[3,1,-3],[1,-1,7]],[[-2,2,-5],[2,7,3]]],[[[-1,3,1],[-3,-8,6]],[[4,6,8],[5,9,-5]]]],tf.float32)ViewCode这是一...

深度学习面试题22:批量归一化在实践中的应用

假设已经训练好一个带有BN操作的卷积神经网络,但是在使用它预测时,往往每次只输入一个样本,那么经过该网络时,计算平均值和方差的意义就不大了,常采用的策略是计算训练阶段的平均值和方差的指数移动平均,然后在预测阶段使用它们作为BN操作时的平均值和方差。指数移动平均假设变量xt随时间t变化,按照以下规则定义其指数移动平均值假...

深度学习面试题21:批量归一化(Batch Normalization,BN)

 BN的由来BN是由Google于2015年提出,论文是《BatchNormalization_AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift》,这是一个深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层网络模型...

深度学习面试题20:GoogLeNet(Inception V1)

 简介2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构,而GoogLeNet则做了更加大胆的网络结构尝试,虽然深度只有2...

深度学习面试题19:1*1卷积核的作用

可以减少计算量,可以增加非线性判别能力举例假设有1个高为30、宽为40,深度为200的三维张量与55个高为5、宽为5、深度为200的卷积核same卷积,步长=1,则结果是高为30、宽为40、深度为55的三维张量,如图所示:该卷积过程的乘法计算量大约为5*5*200*30*40*55=330000000,这个计算量很大。...

深度学习面试题18:网中网结构(Network in Network)

网中网结构通过多个分支的运算(卷积或池化),将分支上的运算结果在深度上连接举例一个3*3*2的张量,与3个1*1*2的卷积核分别same卷积,步长=1,与2个2*2*2的卷积核分别same卷积,步长=1,与1个3*3*2的掩码最大值same池化,步长=1,将得到的这3个结果在深度方向上拼接GoogLeNet是基于类似网...
首页上一页...45678...下一页尾页