#So

android上部署tensorflow

https://www.jianshu.com/p/ddeb0400452f按照这个博客就可以https://github.com/CrystalChen1017/TSFOnAndroid这个博客对应有一个github的仓库,里面有一个完整的demo,并且有编译好的jar和so文件如果自己去编译jarso文件,实在是太...
代码星球 ·2020-10-13

softmax_loss的归一化问题

cnn网络中,网络更新一次参数是根据loss反向传播来,这个loss是一个batch_size的图像前向传播得到的loss和除以batch_size大小得到的平均loss。softmax_loss前向传播中有这样一段代码:   loss/get_normalizer(normalizati...
代码星球 ·2020-10-13

softmax_loss.cu 和 softmax_loss.cpp源码

 1#include<algorithm>2#include<cfloat>3#include<vector>45#include"caffe/layers/softmax_loss_layer.hpp"6#include"caffe/util/math_functions...

softmax_loss

softmax_loss中的ignore_label是来自于losslayer,而不是softmax_loss的参数...
代码星球 ·2020-10-13

solver

slover中有type,用于优化算法的选择,有6种:StochasticGradientDescent(type:“SGD”),AdaDelta(type:“AdaDelta”),AdaptiveGradient(type:“AdaGrad”),Adam(type:“Adam”),Nesterov’sAccelera...
代码星球 ·2020-10-13

argsort argmax

argsort是将array排序并返回坐标值,默认是从小到大,添加负号-变成从大到小。这个函数并不改变原来的array。>>>a=np.array([1,5,3,1])>>>np.argsort(a)array([0,3,2,1])>>>np.argsort(-a)...
代码星球 ·2020-10-12

linux .h .so .a文件

在linux开发中,完全不使用第三方库的情况比较少见,通常都需要借助一个或多个函数库的支持才能完成相应功能。从程序员角度看,函数库实际上是一些头文件(.h)和库文件(.so或.a)的集合。linux下默认将头文件放到/usr/include/目录下,库文件放到/usr/lib/目录下。.so是动态库,.a是静态库...
代码星球 ·2020-10-12

softmax sigmoid

softmax和sigmoid实际上都是属于logisticregression,sigmoid是二分类的lr,拟合Bernoullidistribution(二项分布);0softmax是多分类的lr,拟合Multinomialdistribution(多项分布)。sigmoid函数可以很好地处理二分类问题:当概率值...
代码星球 ·2020-10-12

Softmax vs. Softmax-Loss: Numerical Stability

http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/softmax在LogisticRegression里起到的作用是将线性预测值转化为类别概率1.最大似然估计通常使用log-likelihoo...

sougou输入法无法正常输入汉字

删除~/.config目录下的SougouPYSogouPY.userssogou-qimpanel文件夹,然后重启搜狗输入法即可...

让Socket穿透Windows防火墙

原文地址:https://blog.csdn.net/zuishikonghuan/article/details/48030539创建了ServerSocket以后,并不是没事了,其实上,为了系统安全考虑,创建服务器套接字后,只是创建成功了,但是在数据包入站的时候呢,会被防火墙过滤,因此,我们就收不到来自网络的数据了...

激活函数Sigmoid、Tanh、ReLu、softplus、softmax

原文地址:https://www.cnblogs.com/nxf-rabbit75/p/9276412.html激活函数: 就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常见的激活函数包括Sigmoid、TanHyperbolic(tanh)、ReLu、softplus以及softmax...

softmax详解

原文地址:https://blog.csdn.net/bitcarmanlee/article/details/823208531.softmax初探在机器学习尤其是深度学习中,softmax是个非常常用而且比较重要的函数,尤其在多分类的场景中使用广泛。他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分...
代码星球 ·2020-10-11

Softmax

原文地址:http://blog.csdn.net/hungryof/article/details/50395062其实吧,一般在神经网络中用的最多的是sigmoid和tanh,当然也有用relu的。这是针对“是”和“否”的分类,但当进行多分类时,就要用到softmax。在logistic回归中,训练样本是:{(x(...
代码星球 ·2020-10-11
首页上一页...103104105106107...下一页尾页