#SAS编程与数据挖掘商业案例

linux富规则的案例

使用firewall-cmd添加富规则:1.拒绝来自public区域中ip地址为192.168.0.11的所有流量firewall-cmd--permanent--zone=public--add-rich-rule='rulefamily=ipv4sourceaddress=192.168.0.11/32reject...
代码星球 代码星球·2020-08-09

Python四大主流网络编程框架

 目前的4种主流Python网络框架:Django、Tornado、Flask、Twisted。 ...

python网络编程之TCP通信实例

一.server.pyimportsockethost="localhost"port=10000s=socket.socket(socket.AF_INET,socket.SOCK_STREAM)s.bind((host,port))s.listen(5)while(1):sock,addr=s.accept()pr...

Python网络编程(Sockets)

 #!/usr/bin/python3#Thisisserver.pyfileimportsocket#createasocketobjectserversocket=socket.socket(socket.AF_INET,socket.SOCK_STREAM)#getlocalmachinenamehos...
代码星球 代码星球·2020-08-09

Python多线程编程

 thread模块#!/usr/bin/python3import_threadimporttime#Defineafunctionforthethreaddefprint_time(threadName,delay):count=0whilecount<5:time.sleep(delay)count...
代码星球 代码星球·2020-08-09

【Scala】利用Akka的actor编程模型,实现2个进程间的通信

文章目录步骤一、创建maven工程,导入jar包二、master进程代码开发三、worker进程代码开发四、控制台结果一、创建maven工程,导入jar包<properties><maven.compiler.source>1.8</maven.compiler.source><...

【Scala】Actor并发编程实现单机版wordCount

文章目录对单个文本文件进行单词计数对多个文本文件进行单词计数importscala.actors.Actorimportscala.io.Source//读取文件名称样例类caseclassSubmitTask(fileName:String)classActor2WordCountextendsActor{overr...

【Spark】Spark-shell案例——standAlone模式下读取HDFS上存放的文件

目录可以先用local模式读取一下步骤一、先将做测试的数据上传到HDFS二、开发scala代码standAlone模式查看HDFS上的文件步骤一、退出local模式,重新进入Spark-shell二、开发scala代码可以先用local模式读取一下步骤一、先将做测试的数据上传到HDFScd/export/servers...

【Spark】Spark-shell案例——单词计数统计

目录步骤一、准备本地文件以作测试二、通过--master启动本地模式三、开发scala单词统计代码步骤一、准备本地文件以作测试在第一台机器执行mkdir-p/export/servers/sparkdatascd/export/servers/sparkdatas/vimwordcount.txthellomehell...

【HBase】HBase与MapReduce的集成案例

目录需求步骤一、创建maven工程,导入jar包二、开发MapReduce程序三、运行结果HBase与MapReducer集成官方帮助文档:http://archive.cloudera.com/cdh5/cdh/5/hbase-1.2.0-cdh5.14.0/book.html需求在HBase先创建一张表myuser...

【Hadoop离线基础总结】MapReduce案例之自定义groupingComparator

求取Top1的数据需求求出每一个订单中成交金额最大的一笔交易订单id商品id成交金额Order_0000005Pdt_01222.8Order_0000005Pdt_0525.8Order_0000002Pdt_03322.8Order_0000002Pdt_04522.4Order_0000002Pdt_05822....

【Hadoop离线基础总结】MapReduce自定义InputFormat和OutputFormat案例

自定义InputFormat合并小文件需求无论hdfs还是mapreduce,存放小文件会占用元数据信息,白白浪费内存,实践中,又难免面临处理大量小文件的场景优化小文件的三种方式1.在数据采集的时候,就将小文件或小批数据合成大文件再上传HDFS2.在业务处理之前,在HDFS上使用mapreduce程序对小文件进行合并3...

【Hadoop离线基础总结】zookeeper的介绍以及集群环境搭建、网络编程和RPC的简单了解

ZooKeeper介绍概述ZooKeeper是一个分布式协调服务的开源框架,主要用来解决分布式集群中应用系统的一致性问题。例如怎样避免同时操作同一数据造成脏读的问题。ZooKeeper本质上是一个分布式的小文件存储系统(ZooKeeper上面的每个文件内容最好不要超过1M),提供基于类似文件系统的目录树方式的数据存储,...

【Hadoop离线基础总结】linux的shell编程

基本了解概述Shell是一个用C语言编写的程序,通过shell用户可以访问操作系统内核服务,它类似于DOS下的command和后来的cmd.exe。Shell既是一种命令,也是一种程序设计语言ShellScripts是一种为Shell编写的脚本程序。Shell编程一般指Shell脚本编程,不是指开发Shell自身She...

【Linux基础总结】Shell 基础编程

重启虚拟机遇到磁盘损坏如何解决Shell编程中变量的声明、引用及作用域Shell程序概述以文件形式存放批量的Linux命令集合,该文件能够被Shell解释执行,这种文件就是Shell脚本程序通常由一段Linux命令、Shell命令、控制语句及注释语句组成编写Shell脚本是纯文本文件,可以使用任何文本编辑器编写Shel...
首页上一页...5253545556...下一页尾页