#flink

flink 处理实时数据的三重保障

window+watermark来处理乱序数据对于 TumblingEventTimeWindows window的元数据startTime,endTime 和程序启动时间无关,当你指定出window.size时,window的startTime,endTime就分配好了allowedLa...

flink 两个datastream实现left_join的两种方法

本文只是以left_join作为举例,right_join,full_join等是同理的,大家可以自行扩展 1.实验思路 1.提供两个流      nameStream:用户名称信息从9999端口获取   &n...

flink error Hadoop is not in the classpath/dependencies.

1.在$FLINK_HOME/lib下加Hadoop的jar包,官网可以下载 https://flink.apache.org/downloads.html2.mvn添加依赖:<dependency><groupId>org.apache.hadoop</groupId>&...
代码星球 ·2020-12-30

flink Could not create the DispatcherResourceManagerComponent

注意:start-scala-shell.sh只适用ApacheFlink1.11.2forScala2.11中scala_2.11.x系列,scala_2.12.x不支持Error:Couldnotfindorloadmainclassorg.apache.flink.api.scala.FlinkShell  &n...
代码星球 ·2020-12-30

flink yarn error 缺少hadoop 包

flinkversion: ApacheFlink1.11.2forScala2.12  后运行,各种jar包找不到yarn-session.sh-n1-jm1024m-tm1024m 查看官网:https://flink.apache.org/downloads.html可以知...

flink error: Exception in thread "main" java.lang.NoClassDefFoundError

idea运行时报错:Exceptioninthread"main"java.lang.NoClassDefFoundErrorCausedby:java.lang.ClassNotFoundException:org.apache.flink.api.java.ExecutionEnvironment但是开发时idea...

Flink简介及使用

一、Flink概述官网:https://flink.apache.org/mapreduce-->maxcomputeHBase-->部门quickBIDataVHive-->高德地图Storm-->Jstorm......2019年1月,阿里正式开源flink-->blinkApache...
代码星球 ·2020-12-18

flink详细介绍

Flink是一个分布式计算引擎MapReduceSparkStorm同时支持流计算和批处理和Spark不同,Flink是使用流的思想做批,Spark是采用做批的思想做流Flink的优势和Hadoop相比,Flink使用内存进行计算,速度明显更优和同样使用内存的Spark相比,Flink对于流的计算是实时的,延迟更低和同...
代码星球 ·2020-12-15

Flink 从 0 到 1 学习之(3) Data Source 介绍

前言DataSources是什么呢?就字面意思其实就可以知道:数据来源。Flink做为一款流式计算框架,它可用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时的处理些实时数据流,实时的产生数据流结果,只要数据源源不断的过来,Flink就能够一直计算下去,这个DataSources就是数据的来源地...

Flink 从 0 到 1 学习之(2) Flink 配置文件详解

前面文章我们已经知道Flink是什么东西了,安装好Flink后,我们再来看下安装路径下的配置文件吧。安装目录下主要有flink-conf.yaml配置、日志的配置文件、zk配置、FlinkSQLClient配置。基础配置123456789101112131415161718192021#jobManager的IP地址j...

Flink 从 0 到 1 学习之(1)Apache Flink 介绍

前言Flink是一种流式计算框架,为什么我会接触到Flink呢?因为我目前在负责的是监控平台的告警部分,负责采集到的监控数据会直接往kafka里塞,然后告警这边需要从kafkatopic里面实时读取到监控数据,并将读取到的监控数据做一些聚合/转换/计算等操作,然后将计算后的结果与告警规则的阈值进行比较,然后做出相应的告...
代码星球 ·2020-09-20

大数据集群运维(28) Kylin 配置使用 flink 构建 Cube

Kylinv3.1引入了Flinkcubeengine,在buildcube步骤中使用ApacheFlink代替MapReduce;您可以查看 KYLIN-3758 了解具体信息。当前的文档使用样例cube对如何尝试newengine进行了演示。您需要一个安装了Kylinv3.1.0及以上版本的Ha...

大数据集群运维(29)Zeppelin-在flink和spark集群的安装

该教程主要面向Zeppelin的入门者。不需要太多的关于Linux,git,或其它工具的基础知识。如果你按照这里的方法逐项执行,就可以将Zeppelin正常运行起来。安装Zeppelin为Flink/Spark集群模式本教程假定用户有一个新的机器环境(物理机或 virtual 均可,最小安装&nbs...

flink入门到实战(10)Apache Flink 介绍

前言Flink是一种流式计算框架,为什么我会接触到Flink呢?因为我目前在负责的是监控平台的告警部分,负责采集到的监控数据会直接往kafka里塞,然后告警这边需要从kafkatopic里面实时读取到监控数据,并将读取到的监控数据做一些聚合/转换/计算等操作,然后将计算后的结果与告警规则的阈值进行比较,然后做出相应的告...
首页上一页12345下一页尾页