Devlive 开源社区 本次搜索耗时 0.756 秒,为您找到 701 个相关结果.
  • 二进制方式

    组件安装 安装夜莺 部署集群 MySQL Redis 时序库 n9e-webapi n9e-server 首先我们来看下面的架构图,夜莺的服务端有两个模块:n9e-webapi 和 n9e-server,n9e-webapi 用于提供 API 给前端 JavaScript 使用,n9e-server 的职责是告警引擎和数据转发器。依赖的组件...
  • Storage

    7318 2024-07-01 《Apache Hudi 0.15.0》
    Does Hudi support cloud storage/object stores? What is the difference between copy-on-write (COW) vs merge-on-read (MOR) table types? How do I migrate my data to Hudi? How to co...
  • Architecture

    Kyuubi Architecture Introduction Architecture Overview Unified Interface Runtime Resource Resiliency High Availability & Load Balance Authentication & Authorization Conclusio...
  • Programming Paradigm

    Architecture Programming paradigm DataStream Flink Sql TableEnvironment StreamTableEnvironment RunTime Context StreamingContext TableContext StreamTableContext Life Cycle...
  • Project Configuration

    Why do I need to configure Terms Configuration file Deployment option property Basic parameters Memory parameters Configure Total Memory Checkpoint Watermark State backen...
  • GitHub 趋势日报 (2025年05月29日)

    📈 今日获星趋势图 🌈 语言分布图 🏆 今日热门项目 Top 6 📋 完整排行榜 🎯 分语言热门项目 ● C++" level="3">● C++ ● TypeScript" level="3">● TypeScript ● Swift" level="3">● Swift ● Rust" level="3">● Rust ● C" ...
  • 快速上手

    配置FLINK_HOME 配置Flink Cluster 服务器启动 flink Standalone Session 配置Flink Cluster 创建作业 主要参数 创建作业 保存作业 构建作业 启动作业 启动检查点设置 提交作业 查看作业状态 通过Apache StreamPark™看板查看 查看原生 flink web u...
  • 任务结构

    任务总体存储结构 各任务类型存储结构详解 Shell节点 SQL节点 PROCEDURE[存储过程]节点 SPARK节点 MapReduce(MR)节点 Python节点 Flink节点 HTTP节点 DataX节点 Sqoop节点 条件分支节点 子流程节点 依赖(DEPENDENT)节点 任务总体存储结构 在dolphin...
  • 1. Terminologies

    7093 2024-07-05 《Apache Kyuubi 1.9.1》
    Kyuubi JDBC Apache Hive Apache Thrift Server ServerSpace Engine EngineSpace Apache Spark Multi Tenancy High Availability / Load Balance Apache Zookeeper Apache Curator ...
  • Docker Demo

    7054 2024-06-28 《Apache Hudi 0.15.0》
    A Demo using Docker containers Prerequisites Setting up Docker Cluster Build Hudi Bringing up Demo Cluster Demo Step 1 : Publish the first batch to Kafka Step 2: Incrementall...