#机器学习

深度 | 提升深度学习模型的表现,你需要这20个技巧(附论文)

2018-04-1519:53:45 JF_Ma 阅读数296更多分类专栏: 机器学习 深度|提升深度学习模型的表现,你需要这20个技巧(附论文) 2016-09-23机器之心选自machielearningmastery机器之心编译作者:JasonBrownlee参与...

基于搜索的贝叶斯网络结构学习算法-K2

2018-04-0519:34:18 ItsBlue 阅读数3172更多分类专栏: 贝叶斯网络 网络结构学习 版权声明:本文为博主原创文章,遵循 CC4.0BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.cs...

强化学习入门 第五讲 值函数逼近

2017年04月20日19:25:19 Bixiwen_liu 阅读数3855更多分类专栏: 深度学习 机器学习 转载自知乎专栏天津包子馅儿的知乎 前面已经讲了强化学习的基本方法:基于动态规划的方法,基于蒙特卡罗的方法和基于时间差分的方法。这些方法有一个基本的...

深度学习的这些坑你都遇到过吗?神经网络 11 大常见陷阱及应对方法

新智元 极市平台 2017-09-09本文经授权转自新智元来源:theorangeduck.com作者:DanielHolden编译:刘小芹,文强 如果你的神经网络不工作,该怎么办?作者在这里列出了建神经网络时所有可能做错的事情,以及他自己的解决经验。 忘记规范化数据忘记检查结果...

深度学习之卷积神经网络CNN及tensorflow代码实现示例

2017年05月01日13:28:21 cxmscb 阅读数151413更多分类专栏: 机器学习 深度学习 机器学习 版权声明:本文为博主原创文章,遵循 CC4.0BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https:...

如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?

作者:知乎用户链接:https://www.zhihu.com/question/326034346/answer/730051338来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。回顾一下围绕normalization的一些工作(由最新到最旧的BatchNorm):2019,Weight...

学习率变更策略

2019年04月02日16:29:21 急流勇进 阅读数203更多分类专栏: 技巧/经验/心得 如果让我投票给深度学习中,最不想调试,但又必须要小心调试的参数,毫无疑问会投给学习率,今天就来说说这个。01 项目背景我们选择了GHIM-10k数据集,这是一个图像检索数据集...
代码星球 ·2020-04-03

ReLeQ:一种自动强化学习的神经网络深度量化方法

  ReLeQ:一种自动强化学习的神经网络深度量化方法ReLeQ:AnAutomaticReinforcementLearningApproachforDeepQuantizationofNeuralNetworks量化作为压缩的一种重要手段被广泛应用,而位宽和准确率的矛盾也始终存在。目前解决的方法...

AI面试必备/深度学习100问1-50题答案解析

 2018年09月04日15:42:07 刀客123 阅读数2020更多分类专栏: 机器学习 转载:  https://blog.csdn.net/T7SFOKzorD1JAYMSFk4/article/details/809726581、梯度下降算...

数值优化(Numerical Optimization)学习系列-无梯度优化(Derivative-Free Optimization)

 2015年12月27日18:51:19 下一步 阅读数4357更多分类专栏: 数值优化 版权声明:本文为博主原创文章,遵循 CC4.0BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/fan...

数值优化(Numerical Optimization)学习系列-目录

置顶 2015年12月27日19:07:11 下一步 阅读数12291更多分类专栏: 数值优化 版权声明:本文为博主原创文章,遵循 CC4.0BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/...

深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

ycszenSemanticSegmentation/changqianyu.me1,652人赞同了该文章(标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。此处的SGD指mini-batchgradientdescent,关于bat...

Active Learning 主动学习

2015年09月30日14:49:29 qrlhl 阅读数21374 文章标签: 算法机器学习 更多分类专栏: 机器学习 版权声明:本文为博主原创文章,遵循 CC4.0BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接...
代码星球 ·2020-04-03

深度学习课程笔记(七):模仿学习(imitation learning)

 深度学习课程笔记(七):模仿学习(imitationlearning)2017.12.10      本文所涉及到的模仿学习,则是从给定的展示中进行学习。机器在这个过程中,也和环境进行交互,但是,并没有显示的得到reward。在某些任务上,也很难定义reward。如:自动驾驶,撞死一人,...

深度学习面试100题

2018.11.2216:40:49字数769阅读22321、梯度下降算法的正确步骤是什么?a.计算预测值和真实值之间的误差b.重复迭代,直至得到网络权重的最佳值c.把输入传入网络,得到输出值d.用随机值初始化权重和偏差e.对每一个产生误差的神经元,调整相应的(权重)值以减小误差 A.abcde &...
代码星球 ·2020-04-03
首页上一页...292293294295296...下一页尾页