#api使用

SublimeText3使用技巧总结

Ctrl+R:查找函数和变量Ctrl+P:查找当前工程下面的文件Ctrl+":":查找变量Ctrl+"g":输入行数跳转到指定行F12:查找定义Ctrl+F:在当前文件下查找Ctrl+Shift+F:在当前工程下查找,并会生成搜索结果页面,双击某个结果可以进入到定义.隐藏侧边栏, Ctrl+Shift+P,然...
代码星球 ·2021-02-24

ubuntu12.04下使用qemu模拟mips处理器安装debian

注:ubuntu是不支持mips处理器的,只能在x86下安装运行第一步、安装qemu/sudoapt-getinstallqemuqemu-system。执行 qemu-system-mips--version发现版本太低,因为后面需要更高版本的qemu。下载http://wiki.qemu-project....

开发函数计算的正确姿势——使用交互模式安装依赖

首先介绍下在本文出现的几个比较重要的概念:/函数计算(FunctionCompute): 函数计算是一个事件驱动的服务,通过函数计算,用户无需管理服务器等运行情况,只需编写代码并上传。函数计算准备计算资源,并以弹性伸缩的方式运行用户代码,而用户只需根据实际代码运行所消耗的资源进行付费。函数计算更多信息参考。F...

开发者说:如何使用插件降低上传文件部署服务的复杂度

“这里描述我们实际服务部署的时候频繁发生的两个常用场景。第一个场景,我们“办公网环境”想要在“准生产环境”下部署,需要做如下工作:打包、将文件上传到堡垒机上、scp将上传好的包裹传输到“准生产环境”的目标机器、ssh目标机器、restart重启服务。第二个场景是,我们可能随时的给“准生产环境”临时上传一些文件,但是仍然...

在 Flink 算子中使用多线程如何保证不丢数据?

笔者线上有一个Flink任务消费Kafka数据,将数据转换后,在Flink的Sink算子内部调用第三方api将数据上报到第三方的数据分析平台。这里使用批量同步api,即:每50条数据请求一次第三方接口,可以通过批量api来提高请求效率。由于调用的外网接口,所以每次调用api比较耗时。假如批次大小为50,且请求接口的平均...

Serverless 实战——使用 Rendertron 搭建 Headless Chrome 渲染解决方案

传统的Web页面,通常是服务端渲染的,而随着SPA(Single-PageApplication)尤其是React、Vue、Angular为代表的前端框架的流行,越来越多的WebApp使用的是客户端渲染。使用客户端渲染有着诸多优势,比如节省后端资源、局部刷新、前后端分离等等,但也带来了一些挑战,比如本文要解决的SEO问...

State Processor API:如何读取,写入和修改 Flink 应用程序的状态

过去无论您是在生产中使用,还是调研ApacheFlink,估计您总是会问这样一个问题:我该如何访问和更新Flink保存点(savepoint)中保存的state?不用再询问了,ApacheFlink1.9.0引入了状态处理器(StateProcessor)API,它是基于DataSetAPI的强大扩展,允许读取,写入和...

云原生生态周报 Vol. 12 | K8s 1.16 API 重大变更

1 K8s1.16将废弃一系列旧的API版本:影响面涉及NetworkPolicy、PodSecurityPolicy、DaemonSet,Deployment,StatefulSet,andReplicaSet和Ingress。请各位K8s用户和开发者关注。相关API都是进行了迁移如下:NetworkPol...

使用DataWorks调度DLA循环任务

DataWorks是阿里云上的一款热门产品,可以为用户提供大数据开发调度服务。它支持了DataLakeAnalytics(后文简称DLA)以后,DLA用户可以通过它进行定时任务调度,非常方便。本文将主要介绍如何使用DataWorks调度DLA的循环任务。场景使用DLA对历史数据按天做清洗。数据清洗的SQL是固定的,只是...

MaxCompute SQL 使用正则表达式选列

编辑MaxComputeSQL时,经常会需要在某个表N个列中指定一些列。若需要指定的列比较少,编写SQL时一个个输入既可。当遇到列多的时候,一个个输入就会非常费劲。本文将介绍如何在编写MaxComputeSQL时通过正则表达式表达列(column),从而提升编码效率。首先用一个简单的示例介绍正则表达式的使用方法:SEL...

只想着一直调用一直爽, 那API凭证泄漏风险如何破?

如今各家云厂商都通过给用户提供API调用的方式来实现一些自动化编排方面的需求。为了解决调用API过程中的通信加密和身份认证问题,大多数云厂商会使用同一套技术方案—基于非对称密钥算法的鉴权密钥对,这里的“密钥对”即API凭证,是云上用户调用云服务API、访问云上资源的唯一身份凭证。在信息安全领域有一个广为认可的假定,即所...

使用Data Lake Analytics读/写RDS数据

DataLakeAnalytics 作为云上数据处理的枢纽,最近加入了对于RDS(目前支持 MySQL , SQLServer ,Postgres 引擎)的支持,这篇教程带你玩转DLA的RDS支持。我们文章中会以 MySQL 的介绍为主,最...

使用Data Lake Analytics从OSS清洗数据到AnalyticDB

前提必须是同一阿里云region的DataLakeAnalytics(DLA)到AnalyticDB的才能进行清洗操作;开通并初始化了该region的DLA服务;开通并购买了AnalyticDB的实例,实例规模和数据清洗速度强相关,与AnalyticDB的实例资源规模基本成线性比例关系。整体执行流程示意图:步骤1:在A...

Data Lake Analytics中OSS LOCATION的使用说明

DataLakeAnalytic(后文简称DLA)可以帮助用户通过标准的SQL语句直接对存储在OSS、TableStore上的数据进行查询分析。在查询前,用户需要根据数据文件的格式和内容在DLA中创建一张表。DataLakeAnalytics+OSS数据文件格式处理大全 一文中介绍了如何定义表的SERDE和R...

如何使用Data Lake Analytics创建分区表

DataLakeAnalytics (后文简称DLA)提供了无服务化的大数据分析服务,帮助用户通过标准的SQL语句直接对存储在OSS、TableStore上的数据进行查询分析。在关系型数据库中,用户可以对大数据量的表进行分区,提高查询的性能。同样在DLA中,用户可以使用分区表将数据进行细化,达到缩短查询响应时...
首页上一页...1516171819...下一页尾页