51
Dev开发社区
首页
文章
问答
工具
搜索
登录
注册
#找不到文件
python 读空的json文件
读空的json文件,python2和python3的错误提示是不一样的python2:ValueError:NoJSONobjectcouldbedecodedpython3:json.decoder.JSONDecodeError:Expectingvalue:line1column1(char0)&nb...
代码星球
·
2020-08-09
python
空的
json
文件
python yaml文件读写
importyamlyaml_dict={"sss":"111","ddd":"222"}withopen("a.yaml","w")asf:yaml.safe_dump(yaml_dict,f,encoding='utf-8',allow_unicode=True)withopen("a.yaml")as...
代码星球
·
2020-08-09
python
yaml
文件
读写
python 匹配指定后缀的文件名
importglobx=glob.glob('*.py')print(x) ...
代码星球
·
2020-08-09
python
匹配
指定
后缀
文件名
python stat获取文件信息
importosstatinfo=os.stat('qqq.txt')print(statinfo,"")print(statinfo.st_mode)输出os.stat_result(st_mode=33206,st_ino=13510798882119213,st_dev=281749818,st_nl...
代码星球
·
2020-08-09
python
stat
获取
文件
信息
筛选出指定内容开头的文件名
importoswithos.scandir(r"C:UsersmacnameDesktop")asit:forentryinit:ifentry.name.startswith('Auto')andentry.is_file():print(entry.name) ...
代码星球
·
2020-08-09
选出
指定
内容
开头
文件名
过滤掉指定内容开头的文件名
importoswithos.scandir(r"C:UsersmacnameDesktop")asit:forentryinit:ifnotentry.name.startswith('Auto')andentry.is_file():print(entry.name) ...
代码星球
·
2020-08-09
滤掉
指定
内容
开头
文件名
匹配当前目录指定后缀的文件名
打印所有以.txt为结尾的文件名称importfnmatchimportosforfileinos.listdir('.'):iffnmatch.fnmatch(file,'*.txt'):print(file) ...
代码星球
·
2020-08-09
匹配
当前
目录
指定
后缀
json文件为空时读取会报错
simplejson.errors.JSONDecodeError:Expectingvalue:line1column1(char0)提示说是解码错误 可以用下面的方法判断json文件是否为空importjson#读取withopen('tmp.json','r')asf:data=f.read...
代码星球
·
2020-08-09
json
文件
空时
读取
报错
shell 清空指定大小的日志文件
#!/bin/bash#当/var/log/syslog大于68B时if![-f/var/log/syslog]thenecho"filenotexist!"exit1fiif[`ls-l/var/log/syslog|awk'{print$5}'`-gt$(68)]thencat/var/log/sysl...
代码星球
·
2020-08-09
shell
清空
指定
小的
日志
【Spark】通过创建DataFrame读取不同类型文件内容
文章目录读取文本文件第一种方法:通过RDD配合caseclass转换DataFrame步骤一、创建测试所需的文本文件二、在spark-shell中执行以下操作第二种方法:通过sparkSession构建DataFrame读取json文件读取parquet列式存储文件第一种方法:通过RDD配合caseclass转换Dat...
代码星球
·
2020-08-09
Spark
通过
创建
DataFrame
读取
【Spark】Spark-shell案例——standAlone模式下读取HDFS上存放的文件
目录可以先用local模式读取一下步骤一、先将做测试的数据上传到HDFS二、开发scala代码standAlone模式查看HDFS上的文件步骤一、退出local模式,重新进入Spark-shell二、开发scala代码可以先用local模式读取一下步骤一、先将做测试的数据上传到HDFScd/export/servers...
代码星球
·
2020-08-09
Spark
Spark-shell
案例
standAlone
模式
就没有我遇不到的报错!java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/filter/Filter
本来准备用HBase的Bulkload将HDFS的HFile文件导入到HBase的myuser2表中,用的是yarnjar的命令yarnjar/export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-server-1.2.0-cdh5.14.0.jarcompletebulkloa...
代码星球
·
2020-08-09
没有
我遇
不到
报错
java.lang.NoClassDefFoundError
【HBase】HBase与MapReduce集成——从HDFS的文件读取数据到HBase
目录需求步骤一、创建maven工程,导入jar包二、开发MapReduce程序三、结果需求将HDFS路径/hbase/input/user.txt文件的内容读取并写入到HBase表myuser2中首先在HDFS上准备些数据让我们用hdfsdfs-mkdir-p/hbase/inputcd/export/servers/...
代码星球
·
2020-08-09
HBase
MapReduce
集成
HDFS
文件
【Kafka】配置文件说明
目录server.propertiesproducer.propertiesconsumer.propertiesserver.properties#broker的全局唯一编号,不能重复broker.id=0#用来监听链接的端口,producer或consumer将在此端口建立连接port=9092#处理网络请求的线程...
代码星球
·
2020-08-09
Kafka
配置文件
说明
Day_14【IO流】扩展案例3_对文本文件中的字符串内容进行反转
分析以下需求,并用代码实现项目根路径下有text.txt文件,内容如下我爱黑马123456利用IO流的知识读取text.txt文件的内容反转后写入text.txt文件中654321马黑爱我思路1.创建集合对象用于存储读取到的每一行数据2.创建BufferedReader关联text.txt文件3.将读取到的每一行数据存...
代码星球
·
2020-08-08
Day
IO
扩展
案例
文本
首页
上一页
...
154
155
156
157
158
...
下一页
尾页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他