5.2_k-means案例分析

  fromsklearn.metricsimportsilhouette_scorefromsklearn.clusterimportKMeansdefkmeans():"""手写数字聚类过程:return:None"""#加载数据ld=load_digits()print(ld.target[:20])#聚类km=KMeans(n_clusters=810)km.fit_transform(ld.data)print(km.labels_[:20])print(silhouette_score(ld.data,km.labels_))returnNoneif__name__=="__main__":kmeans()  ...
代码星球 代码星球·2020-11-27

4.5_岭回归案例分析

deflinearmodel():"""线性回归对波士顿数据集处理:return:None"""#1、加载数据集ld=load_boston()x_train,x_test,y_train,y_test=train_test_split(ld.data,ld.target,test_size=0.25)#2、标准化处理#特征值处理std_x=StandardScaler()x_train=std_x.fit_transform(x_train)x_test=std_x.transform(x_test)#目标值进行处理std_y=StandardScaler()y_train=std_y.fit_transform(y_train)y_test=std_y.transform(y_test)#3、估计器流程#LinearRegressionlr=LinearRegression()lr.fit(x_train,y_train)#print(lr.coef_)y_lr_predict=lr.predict(x_test)y_lr_predict=std_y.inverse_transfo...
代码星球 代码星球·2020-11-27

4.2_线性回归案例分析

使用scikit-learn中内置的回归模型对“美国波士顿房价”数据进行预测。对于一些比赛数据,可以从kaggle官网上获取,网址:https://www.kaggle.com/datasets1.美国波士顿地区房价数据描述fromsklearn.datasetsimportload_bostonboston=load_boston()printboston.DESCR 2.波士顿地区房价数据分割fromsklearn.cross_validationimporttrain_test_splitimportnumpyasnpX=boston.datay=boston.targetX_train,X_test,y_train,y_test=train_test_split(X,y,random_state=33,test_size=0.25) 3.训练与测试数据标准化处理fromsklearn.preprocessingimportStandardScalerss_X=StandardScaler()ss_y=StandardScaler()X_train=ss_X....
代码星球 代码星球·2020-11-27

3.5_逻辑回归案例分析

原始数据的下载地址为:https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/数据预处理importpandasaspdimportnumpyasnp#根据官方数据构建类别column_names=['Samplecodenumber','ClumpThickness','UniformityofCellSize','UniformityofCellShape','MarginalAdhesion','SingleEpithelialCellSize','BareNuclei','BlandChromatin','NormalNucleoli','Mitoses','Class'],data=pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/',names=column_names)#将?替换成标准缺失值表示data=data.replace...
代码星球 代码星球·2020-11-27

3.2_k-近邻算法案例分析

  本案例使用最著名的”鸢尾“数据集,该数据集曾经被Fisher用在经典论文中,目前作为教科书般的数据样本预存在Scikit-learn的工具包中。读入Iris数据集细节资料fromsklearn.datasetsimportload_iris#使用加载器读取数据并且存入变量irisiris=load_iris()#查验数据规模iris.data.shape#查看数据说明(这是一个好习惯)printiris.DESCR 通过上述代码对数据的查验以及数据本身的描述,我们了解到Iris数据集共有150朵鸢尾数据样本,并且均匀分布在3个不同的亚种;每个数据样本有总共4个不同的关于花瓣、花萼的形状特征所描述。由于没有制定的测试集合,因此按照惯例,我们需要对数据进行随即分割,25%的样本用于测试,其余75%的样本用于模型的训练。由于不清楚数据集的排列是否随机,可能会有按照类别去进行依次排列,这样训练样本的不均衡的,所以我们需要分割数据,已经默认有随机采样的功能。对Iris数据集进行分割fromsklearn.cross_validationimporttrain_t...
代码星球 代码星球·2020-11-27

多类图像识别案例

CIFAR-10数据集由10个类别的6000032x32彩色图像组成,每个类别有6000张图像。有50000个训练图像和10000个测试图像。数据集分为五个训练集和一个测试集,每个集有10000个图像。测试集包含来自每个类的正好1000个随机选择的图像。训练集的每个类别5000个图像。图像类别如下:可以去官网下载,https://www.cs.toronto.edu/~kriz/cifar.html里面有很多种版本我们下载CIFAR-10二进制版本。二进制版本格式二进制版本包含文件data_batch_1.bin,data_batch_2.bin,data_batch_4.bin,data_batch_5.bin以及test_batch.bin。这些文件的格式如下:<1xlabel><3072x像素>...<1xlabel><3072x像素> 第一个字节是第一个图像的标签,它是0-9范围内的数字。接下来的3072个字节是图像像素的值。前1024个字节是红色通道值,接下来是1024个绿色,最后1024个是蓝色。所以每个文件包含10...
代码星球 代码星球·2020-11-27

图像识别和卷积神经网路案例的实现

前面在MNIST上获得92%的准确性是不好的,对于CNN网络来说,我们同样使用Mnist数据集来做案例,这可以使我们的准确率提升很多。在感受输入通道时不是那么明显,因为是黑白图像的只有一个输入通道。那么在Tensorflow中,神经网络相关的操作都在tf.nn模块中,包含了卷积、池化和损失等相关操作。初始化卷积层权重为了创建这个模型,我们需要创建大量的权重和偏置项。这个模型中的权重在初始化时应该加入少量的噪声来打破对称性以及避免0梯度。由于我们使用的是ReLU神经元,因此比较好的做法是用一个较小的正数来初始化偏置项,以避免神经元节点输出恒为0的问题(deadneurons)。为了不在建立模型的时候反复做初始化操作,我们定义两个函数用于初始化。defweight_variable(shape):initial=tf.truncated_normal(shape,stddev=0.1)returntf.Variable(initial)defbias_variable(shape):initial=tf.constant(0.1,shape=shape)returntf.Variable(...

7_bootstap之综合案例

13.1、案例需求要求:页面顶部的三部分在PC屏幕上显示为一行,在移动设备屏幕上显示为一部分一行;导航条在大屏幕展示全部内容,在移动设备上需要将内容能够折叠/展开;用户名/密码/确认密码不能为空,密码需和确认密码一致,如果不符合,阻止注册操作,并将错误信息展示给用户看。  onsubmit13.2、需求分析13.3、案例实现<script>//密码和确认密码一致性校验//前提:密码和确认密码必须填写functioncheckPwdAndRepwd(f1,f2){if(f1&&f2){//密码和确认密码不为空,进行非空校验//1、密码和确认密码值拿到varpwd=document.getElementById("password").value;varrepwd=document.getElementById("repassword").value;varmsg=document.getElementById("repasswordMsg");vardiv=document.getElementById("repasswordDiv");//2、一致性判断if...
代码星球 代码星球·2020-11-27

Java爬虫

作为一位Java爬虫的初学者,分享一下自己的心得。所用到的jar包 org.codehaus.jettison.jarjsoup-1.7.3.jar个人认为爬虫的实现机制:获取Docume对象—>获取节点—>输出或者持久化 获取页面的图片地址获取Docume对象—>获取Img元素—>输出地址1packagecom.cn.basic;23importjava.io.IOException;4importorg.jsoup.Jsoup;5importorg.jsoup.nodes.Document;6importorg.jsoup.nodes.Element;7importorg.jsoup.select.Elements;89publicclassImageDemo1{1011publicstaticvoidGet_Url(StringhtmlUrl,Stringpath){1213try{14Documentdoc=Jsoup.connect(htmlUrl).get();1516Elementbody=doc.body();17Elemen...
代码星球 代码星球·2020-11-27

爬虫总结

总结及面试准备:一、"大数据时代",数据获取的方式:1.企业生产的用户数据:大型互联网公司有海量用户,所以他们积累数据有天然的优势。有数据意识的中小型企业,也开始积累的数据。2.数据管理咨询公司:通常这样的公司有很庞大的数据采集团队,一般会通过市场调研、问卷调查、固定的样本检测,和各行各业的公司进行合作、专家对话(数据积累很多年了,最后得出科研结果)来采集数据。3.政府/机构提供的公开数据:政府通过各地政府统计上报的数据进行合并;机构都是权威的第三方网站。4.第三方数据平台购买数据:通过各个数据交易平台来购买各行各业需要的数据,根据获取难度不同,价格也会不同。5.爬虫爬取数据:如果市场上没有我们需要的数据,或者价格太高不愿意买,那么就可以招/做一个爬虫工程师,从互联网上定向采集数据。二、什么是爬虫爬虫:就是抓取网页数据的程序。三、爬虫怎么抓取网页数据:网页三大特征:-1.网页都有自己唯一的URL(统一资源定位符)来进行定位-2.网页都使用HTML(超文本标记语言)来描述页面信息。-3.网页都使用HTTP/HTTPS(超文本传输协议)协议来传输HTML数据。爬虫的设计思路:-1.首先确...
代码星球 代码星球·2020-11-27

爬虫原理和数据抓取简介(一)

首先请问:都说现在是"大数据时代",那数据从何而来?企业产生的用户数据:百度指数、阿里指数、TBI腾讯浏览指数、新浪微博指数数据平台购买数据:数据堂、国云数据市场、贵阳大数据交易所政府/机构公开的数据:中华人民共和国国家统计局数据、世界银行公开数据、联合国数据、纳斯达克。数据管理咨询公司:麦肯锡、埃森哲、艾瑞咨询爬取网络数据:如果需要的数据市场上没有,或者不愿意购买,那么可以选择招/做一名爬虫工程师,自己动手丰衣足食。拉勾网Python爬虫职位百度百科:网络爬虫1.Python基础语法学习(基础知识)2.HTML页面的内容抓取(数据抓取)3.HTML页面的数据提取(数据清洗)4.Scrapy框架以及scrapy-redis分布式策略(第三方框架)6.爬虫(Spider)、反爬虫(Anti-Spider)、反反爬虫(Anti-Anti-Spider)之间的斗争....根据使用场景,网络爬虫可分为 通用爬虫 和 聚焦爬虫 两种.通用网络爬虫是捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是将互联网上的网页下载到本地...

python之Web服务器案例

在Web应用中,服务器把网页传给浏览器,实际上就是把网页的HTML代码发送给浏览器,让浏览器显示出来。而浏览器和服务器之间的传输协议是HTTP,所以:HTML是一种用来定义网页的文本,会HTML,就可以编写网页;HTTP是在网络上传输HTML的协议,用于浏览器和服务器的通信。Chrome浏览器提供了一套完整地调试工具,非常适合Web开发。安装好Chrome浏览器后,打开Chrome,在菜单中选择“视图”,“开发者”,“开发者工具”,就可以显示开发者工具:说明Elements显示网页的结构Network显示浏览器和服务器的通信我们点Network,确保第一个小红灯亮着,Chrome就会记录所有浏览器和服务器之间的通信:当我们在地址栏输入www.sina.com时,浏览器将显示新浪的首页。在这个过程中,浏览器都干了哪些事情呢?通过Network的记录,我们就可以知道。在Network中,找到www.sina.com那条记录,点击,右侧将显示RequestHeaders,点击右侧的viewsource,我们就可以看到浏览器发给新浪服务器的请求:2.1浏览器请求说明最主要的头两行分析如下,第一...
代码星球 代码星球·2020-11-26

【转发】PHP连接MSSQL数据库案例,PHPWAMP多个PHP版本连接SQL Server数据库

转发自:http://blog.csdn.net/lccee/article/details/54289076课前小知识普及:MSSQL和SQLServer是同一个软件,叫法不同而已,MSSQL全称是MicrosoftSQLServer,MSSQL是简写,有些人则喜欢直接叫SQLServer,我就比较喜欢这种叫法,有韵味、、、 最近有用户在使用PHPWAMP的时候,向我咨询一个问题,就是关于PHP如何连接MSSQL数据库。 平时我们搭建网站通常是PHP+Mysql数据库,不过在项目中,我们有时候必须要用到PHP+MSSQL数据库,那应该怎么办呢?本文案例采用的PHP集成环境是我最新发布的版本PHPWAMP8.1.8.8,不管你用的是其他集成环境,还是自己安装,操作方法都是一样的,不过我还是建议大家使用我的这款PHPWAMP,我所集成的组件全是完整版,完美无错省心省力,放在U盘随时使用(支持自定义PHP版本,多版本同时运行) 其实早前我就有打算将MSSQL整个数据库也绿化到PHP集成环境里面,不用安装直接使用。不过MSSQL数据库面对企业是收费的,所以我不敢...

Python网络爬虫精要

目的学习如何从互联网上获取数据。数据科学必须掌握的技能之一。本文所用到的第三方库如下:requests,parsel,seleniumrequests负责向网页发送HTTP请求并得到响应,parsel负责解析响应字符串,selenium负责JavaScript的渲染。网络爬虫是什么网络爬虫是一种按照一定的规则,自动地抓取网站信息的程序或者脚本。如何爬取网站信息写爬虫之前,我们必须确保能够爬取目标网站的信息。不过在此之前必须弄清以下三个问题:网站是否已经提供了api网站是静态的还是动态的网站是否有反爬的对策情形1:开放api的网站一个网站倘若开放了api,那你就可以直接GET到它的json数据。比如xkcd的about页就提供了api供你下载import requestsrequests.get('https://xkcd.com/614/info.0.json').json()那么如何判断一个网站是否开放api呢?有3种方法:在站内寻找api入口用搜索引擎搜索“某网站api”抓包。有的网站虽然用到了ajax(比如果壳网的瀑布流文章),但是通过抓包还是能够获取XHR里的json...
代码星球 代码星球·2020-11-22

33款可用来抓数据的开源爬虫软件工具

要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。爬虫,即网络爬虫,是一种自动获取网页内容的程序。是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。世界上已经成型的爬虫软件多达上百种,本文对较为知名及常见的开源爬虫软件进行梳理,按开发语言进行汇总。虽然搜索引擎也有爬虫,但本次我汇总的只是爬虫软件,而非...
首页上一页...7891011...下一页尾页