为您找到搜索结果:4687个
吴裕雄--天生自然深度学习TensorBoard可视化:改造后的mnist_train
importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_dataINPUT_NODE=784OUTPUT_NODE=10LAYER1_NODE=500defget_weight_variable(shape,regularizer):weights=tf.get_variable("weights",shape,initializer=tf.truncated_normal_initializer(stddev=0.1))if(regularizer!=None):tf.add_to_collection('losses',regularizer(weights))returnweightsdefinference(input_tensor,regularizer):withtf.variable_scope('layer1'):weights=get_weight_variable([INPUT_NODE,LAYER1_NODE],regularizer)biases=tf.get_variable...
吴裕雄--天生自然深度学习TensorBoard可视化:命名空间
#1.不同的命名空间。importtensorflowastfwithtf.variable_scope("foo"):a=tf.get_variable("bar",[1])print(a.name)withtf.variable_scope("bar"):b=tf.get_variable("bar",[1])print(b.name)#2.tf.Variable和tf.get_variable的区别。withtf.name_scope("a"):a=tf.Variable([1])print(a.name)a=tf.get_variable("b",[1])print(a.name)#3.TensorBoard可以根据命名空间来整理可视化效果图上的节点。withtf.name_scope("input1"):input1=tf.constant([1.0,2.0,3.0],name="input2")withtf.name_scope("input2"):input2=tf.Variable(tf.random_uniform([3]),name="input2")output=...
吴裕雄--天生自然python Google深度学习框架:Tensorflow实现迁移学习
importglobimportos.pathimportnumpyasnpimporttensorflowastffromtensorflow.python.platformimportgfileimporttensorflow.contrib.slimasslim#加载通过TensorFlow-Slim定义好的inception_v3模型。importtensorflow.contrib.slim.python.slim.nets.inception_v3asinception_v3#处理好之后的数据文件。INPUT_DATA='../../datasets/flower_processed_data.npy'#保存训练好的模型的路径。TRAIN_FILE='train_dir/model'#谷歌提供的训练好的模型文件地址。因为GitHub无法保存大于100M的文件,所以#在运行时需要先自行从Google下载inception_v3.ckpt文件。CKPT_FILE='../../datasets/inception_v3.ckpt'...
吴裕雄--天生自然python Google深度学习框架:经典卷积神经网络模型
importtensorflowastfINPUT_NODE=784OUTPUT_NODE=10IMAGE_SIZE=28NUM_CHANNELS=1NUM_LABELS=10CONV1_DEEP=32CONV1_SIZE=5CONV2_DEEP=64CONV2_SIZE=5FC_SIZE=512definference(input_tensor,train,regularizer):withtf.variable_scope('layer1-conv1'):conv1_weights=tf.get_variable("weight",[CONV1_SIZE,CONV1_SIZE,NUM_CHANNELS,CONV1_DEEP],initializer=tf.truncated_normal_initializer(stddev=0.1))conv1_biases=tf.get_variable("bias",[CONV...
吴裕雄--天生自然python Google深度学习框架:MNIST数字识别问题
importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_dataINPUT_NODE=784#输入节点OUTPUT_NODE=10#输出节点LAYER1_NODE=500#隐藏层数BATCH_SIZE=100#每次batch打包的样本个数#模型相关的参数LEARNING_RATE_BASE=0.8LEARNING_RATE_DECAY=0.99REGULARAZTION_RATE=0.0001TRAINING_STEPS=5000MOVING_AVERAGE_DECAY=0.99definference(input_tensor,avg_class,weights1,biases1,weights2,biases2):#不使用滑动平均类ifavg_class==None:layer1=tf...
吴裕雄--天生自然python Google深度学习框架:Tensorflow基础应用
importtensorflowastfa=tf.constant([1.0,2.0],name="a")b=tf.constant([2.0,3.0],name="b")result=a+bprint(result) importtensorflowastfg1=tf.Graph()withg1.as_default():v=tf.get_variable("v",[1],initializer=tf.zeros_initializer())#设置初始值为0g2=tf.Graph()withg2.as_default():v=tf.get_variable("v",[1],initializer=tf.ones_initializer())#设...
【超分辨率】—基于深度学习的图像超分辨率最新进展与趋势
1、简介图像超分辨率是计算机视觉和图像处理领域一个非常重要的研究问题,在医疗图像分析、生物特征识别、视频监控与安全等实际场景中有着广泛的应用。随着深度学习技术的发展,基于深度学习的图像超分方法在多个测试任务上,取得了目前最优的性能和效果。本文介绍的一篇综述(DeepLearningforImageSuper-resolution:ASurvey)给出了一个统一的深度学习视角,来回顾最近的超分技术进展,主要包括三个方面:给出了综合性的基于深度学习的图像超分技术综述,包括问题设置、数据集、性能度量、一组基于深度学习的图像超分方法集合,特定领域的图像超分方法应用等等。为最近基于深度学习的图像超分算法提供了系统性、结构化的视角,并总结了高效图像超分解决方案中的优势与劣势。讨论了这个领域的挑战与开放问题,并总结了最近的新趋势与未来的发展方向。 2.1超分网络的升采样结构根据升采样(upsampling)在网络结构中的位置和使用方式,可以把超分网络结构设计分为四大类:前端升采样(pre-upsampling)超分网络、后端(post-upsampling)升采样超分网络、渐进...
深度学习之受限玻尔兹曼机
1、什么是受限玻尔兹曼机 玻尔兹曼机是一大类的神经网络模型,但是在实际应用中使用最多的则是受限玻尔兹曼机(RBM)。 受限玻尔兹曼机(RBM)是一个随机神经网络(即当网络的神经元节点被激活时会有随机行为,随机取值)。它包含一层可视层和一层隐藏层。在同一层的神经元之间是相互独立的,而在不同的网络层之间的神经元是相互连接的(双向连接)。在网络进行训练以及使用时信息会在两个方向上流动,而且两个方向上的权值是相同的。但是偏置值是不同的(偏置值的个数是和神经元的个数相同的),受限玻尔兹曼机的结构如下 上面一层神经元组成隐藏层(hiddenlayer),用h向量隐藏层神经元的值。下面一层的神经元组成可见层(visiblelayer),用v向量表示可见层神经元的值。连接权重可以用矩阵W表示。和DNN的区别是,RBM不区分前向和反向,可见层的状态可以作用于隐藏层,而隐藏层的状态也可以作用于可见层。隐藏层的偏倚系数是向量b,而可见层的偏倚系数是向量a。 常用的RBM一般是二值的,即不管是隐藏层还是可见层,它们的神经元的取值只为0或者1。 RBM模型结构的结构:主要...
深度学习原理:循环神经网络RNN和LSTM网络结构、结构变体(peephole,GRU)、前向传播公式以及TF实现简单解析
循环神经网络背景这里先不介绍了。本文暂时先记录RNN和LSTM的原理。首先RNN。RNN和LSTM都是参数复用的,然后每个时间步展开。RNN的cell比较简单,我们用Xt表示t时刻cell的输入,Ct表示t时刻cell的状态,ht表示t时刻的输出(输出和状态在RNN里是一样的)。那么其前向传播的公式也很简单:$h_t=C_t=[h_{t-1},X_t]*W+b$其中[,]表示concat。W和b分别为RNN的kernel和bias。然后LSTM,是RNN的升级版,加入了forget、input、output三个门,包含3个门,5对参数,两次更新。赋予了RNN选择性记忆的能力,一定程度解决了RNN中LongTermDependency(长期依赖)的问题。从左向右,三个sigmoid分别对应三个门:forget,input,output,后面用f,i,o代替。按从左至右顺序:首先是forgetgate:$f_t=sigma([h_{t-1},X_t]*W_f+b_f)$forgetgate用sigmoid函数激活,得到一个0~1的数,来决定$S_{t-1}$的“记忆&rdquo...
深度学习篇——Tensorflow-GPU配置
对于python3.5和3.6的童鞋们而言,安装tensorflow其实并不难,因为我们可以通过pip直接安装。不过,第一要求你安装的python是64位的,如下图所示,注意划黄色线的部分。python位数确定第二,通过pip安装的话,有一个缺点,那就是会造成cpu的算力不够,因为缺少两个C的库,不过没有影响的。如果你是一个完美主义者,那么就只能通过Bazel方式源码安装Tensorflow了。详细过程我之后会发布相关文章,可以留意一下☺。pip安装Tensorflow-gpu最新的Tensorflow-gpu使用的是cuda9.0.dll的内容,所以就要下载cuda9.0对应window或者linux或者mac的版本的安装文件了。(下载网站:https://developer.nvidia.com/cuda-90-download-archive)下载界面我的电脑是window10,所以就选择如图所示的选项。主要的提一点,就是最后的InstallerType这个选项,exe(network)是在线安装版,也就是你执行这个安装程序,需要联网。exe(local)是离线安装版,不过他文件...
深度学习之前馈神经网络(前向传播和误差反向传播)
这篇文章主要整理三部分内容,一是常见的三种神经网络结构:前馈神经网络、反馈神经网络和图网络;二是整理前馈神经网络中正向传播、误差反向传播和梯度下降的原理;三是梯度消失和梯度爆炸问题的原因及解决思路。一、神经网络结构目前比较常用的神经网络结构有如下三种:1、前馈神经网络前馈神经网络中,把每个神经元按接收信息的先后分为不同的组,每一组可以看做是一个神经层。每一层中的神经元接收前一层神经元的输出,并输出到下一层神经元。整个网络中的信息是朝着一个方向传播的,没有反向的信息传播(和误差反向传播不是一回事),可以用一个有向无环图来表示。前馈神经网络包括全连接前馈神经网络和卷积神经网络。前馈神经网络可以看做是一个函数,通过简单非线性函数的多次复合,实现输入空间到输出空间的复杂映射。2、反馈神经网络反馈神经网络中神经元不但可以接收其他神经元的信号,而且可以接收自己的反馈信号。和前馈神经网络相比,反馈神经网络中的神经元具有记忆功能,在不同时刻具有不同的状态。反馈神经网络中的信息传播可以是单向也可以是双向传播,因此可以用一个有向循环图或者无向图来表示。常见的反馈神经网络包括循环神经网络、Hopfield网...