#Learn

Python+Sklearn实现异常检测

很多应用场景都需要能够确定样本是否属于与现有的分布,或者应该被视为不同的分布。离群检测(Outlierdetection):训练数据包含离群值,这些离群值被定义为与其他观察值相差甚远的观察值。新奇检测(Noveltydetection):训练数据没有离群点,需要观察新的样本是否包含离群点。离群检测和新颖性检测都用于异常...

sklearn 中的Countvectorizer/TfidfVectorizer保留长度小于2的字符方法

在sklearn中的sklearn.feature_extraction.text.Countvectorizer()或者是sklearn.feature_extraction.text.TfidfVectorizer()中其在进行却分token的时候,会默认把长度<2的字符抛弃,例如下面的例子:x=['ilov...

scikit-learn主要模块和基本使用方法

从网上看到一篇总结的很不错的sklearn使用文档,备份勿忘。对于一些开始搞机器学习算法有害怕下手的小朋友,该如何快速入门,这让人挺挣扎的。在从事数据科学的人中,最常用的工具就是R和Python了,每个工具都有其利弊,但是Python在各方面都相对胜出一些,这是因为scikit-learn库实现了很多机器学习算法。我们...

mac上使用Xcode编译调试LearnOpenGL源代码的方法

1.下载LearnOpenGL源代码,地址:https://github.com/JoeyDeVries/LearnOpenGL2.打开Terminal窗口,输入以下命令  brewinstallcmakeassimpglmglfw  //使用Homebrew安装cmake、assimp、glm、glfw,注意:需要翻...

[sinatra] Just Do It: Learn Sinatra, Part One Darren Jones

geminstallsinatra--no-ri--no-rdoc#!/usr/bin/rubyrequire'sinatra'get'/'do"JustDoIt"endruby低于1.9,需要在文件开头加require'rubygems'rubybasic.rbOpenupyourbrowserandgoto&nbs...
代码星球 代码星球·2021-02-21

scikit-learn 和pandas 基于windows单机机器学习环境的搭建

    很多朋友想学习机器学习,却苦于环境的搭建,这里给出windows上scikit-learn研究开发环境的搭建步骤。    python有2.x和3.x的版本之分,但是很多好的机器学习python库都不支持3.x,因此,推荐安装2.7版本的python。当前最新的python是2.7.12.链接如下:    ht...

从Learning to Segment Every Thing说起

原文地址:https://arxiv.org/pdf/1711.10370.pdf这是何恺明老师发表于CVPR2018的一篇优秀paper。先简单回顾一下语义分割领域之前的工作那么什么是语义分割?语义分割其实就是对图片的每个像素都做分类。其中,较为重要的语义分割数据集有:VOC2012 以及 MSC...

Deep Learning系统实训之三:卷积神经网络

 边界填充(padding):卷积过程中,越靠近图片中间位置的像素点越容易被卷积计算多次,越靠近边缘的像素点被卷积计算的次数越少,填充就是为了使原来边缘像素点的位置变得相对靠近中部,而我们又不想让填充的数据影响到我们的计算结果,故填充值选择均用0来填充。池化层不需要参数、只是对特征图进行压缩操作,以减少计算量...

Deep Learning系统实训之二:梯度下降原理

基本概念理解:一个epoch:当前所有数据都跑(迭代)了一遍;    那么两个epoch,就是把所有数据跑了两遍,三个epoch就是把所有数据跑了三遍,以此类推。batch_size:每次迭代多少个数据;(batch_size称作批处理,它的作用可以理解为每次训练100个数据(在...

Deep Learning系统实训之一:深度学习基础知识

K-近邻与交叉验证1选取超参数的正确方法是:将原始训练集分为训练集和验证集,我们在验证集上尝试不同的超参数,最后保留表现最好的那个。2如果训练数据量不够,使用交叉验证法,它能帮助我们在选取最优超参数的时候减少噪音。3一旦找到最优的超参数,就让算法以该参数在测试集跑且只跑一次,并根据测试结果评价算法。4最近邻分类器能够在...

《MATLAB Deep Learning:With Machine Learning,Neural Networks and Artificial Intelligence》选记

一、TrainingofaSingle-LayerNeuralNetwork1DeltaRuleConsiderasingle-layerneuralnetwork,asshowninFigure 2-11.Inthe figure,diisthecorrectoutputoftheoutputno...

A brief introduction to weakly supervised learning(简要介绍弱监督学习)

by南大周志华摘要监督学习技术通过学习大量训练数据来构建预测模型,其中每个训练样本都有其对应的真值输出。尽管现有的技术已经取得了巨大的成功,但值得注意的是,由于数据标注过程的高成本,很多任务很难获得如全部真值标签这样的强监督信息。因此,能够使用弱监督的机器学习技术是可取的。本文综述了弱监督学习的一些研究进展,主要关注三...

(3)Deep Learning之神经网络和反向传播算法

在上一篇文章中,我们已经掌握了机器学习的基本套路,对模型、目标函数、优化算法这些概念有了一定程度的理解,而且已经会训练单个的感知器或者线性单元了。在这篇文章中,我们将把这些单独的单元按照一定的规则相互连接在一起形成神经网络,从而奇迹般的获得了强大的学习能力。我们还将介绍这种网络的训练算法:反向传播算法。最后,我们依然用...

论文笔记(6):Weakly-and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation

这篇文章的主要贡献点在于:1.实验证明仅仅利用图像整体的弱标签很难训练出很好的分割模型;2.可以利用boundingbox来进行训练,并且得到了较好的结果,这样可以代替用pixel-level训练中的groundtruth;3.当我们用少量的pixel-levelannotations和大量的图像整体的弱标签来进行半监...

论文笔记(5):Fully Convolutional Multi-Class Multiple Instance Learning

这篇论文主要介绍了如何使用图片级标注对像素级分割任务进行训练。想法很简单却达到了比较好的效果。文中所提到的loss比较有启发性。大体思路:首先同FCN一样,这个网络只有8层(5层VGG,3层全卷积)。不同的是由于图片只有image-level的标注,所以输出图像的清晰度无法保证,所以没有反卷积。图片的分辨率很低很低,但...
首页上一页12345...下一页尾页