Devlive 开源社区 本次搜索耗时 0.631 秒,为您找到 1079 个相关结果.
  • 数据质量

    概述 任务类型介绍 注意事项 检查逻辑详解 任务操作指南 单表检查之空值检查 检查介绍 界面操作指南 单表检查之及时性检查 检查介绍 界面操作指南 单表检查之字段长度校验 检查介绍 界面操作指南 单表检查之唯一性校验 检查介绍 界面操作指南 单表检查之正则表达式校验 检查介绍 界面操作指南 单表检查之枚举值校验 检查介绍...
  • Storage

    5270 2024-07-01 《Apache Hudi 0.15.0》
    Does Hudi support cloud storage/object stores? What is the difference between copy-on-write (COW) vs merge-on-read (MOR) table types? How do I migrate my data to Hudi? How to co...
  • Architecture

    Kyuubi Architecture Introduction Architecture Overview Unified Interface Runtime Resource Resiliency High Availability & Load Balance Authentication & Authorization Conclusio...
  • 参数传递

    参数的引用 本地任务引用全局参数 上游任务传递给下游任务 任务样例 创建 SHELL 任务并设置参数 创建 SQL 任务并使用参数 保存工作流并设置全局参数 查看运行结果 Python 任务传递参数 SubProcess 任务传递参数 Kubernetes 任务传递参数 参数的引用 DolphinScheduler 提供参数间相互引...
  • DataX

    DATAX 节点 综述 创建任务 任务参数 任务样例 在 DolphinScheduler 中配置 DataX 环境 配置 DataX 任务节点 查看运行结果 注意事项: DATAX 节点 综述 DataX 任务类型,用于执行 DataX 程序。对于 DataX 节点,worker 会通过执行 ${DATAX_LAUNCHER} 来...
  • Basic Configurations

    5179 2024-07-01 《Apache Hudi 0.15.0》
    Hudi Table Config Hudi Table Basic Configs Spark Datasource Configs Read Options Write Options Flink Sql Configs Flink Options Write Client Configs Common Configurations Me...
  • Exploring Data in Superset

    5165 2024-05-25 《Apache Superset 4.0.1》
    Enabling Data Upload Functionality ​ Loading CSV Data ​ Table Visualization ​ Dashboard Basics ​ Pivot Table ​ Line Chart ​ Markup ​ Publishing Your Dashboard ​ Ann...
  • 编程模型

    架构 编程模型 DataStream Flink Sql TableEnvironment StreamTableEnvironment RunTime Context StreamingContext TableContext StreamTableContext 生命周期 生命周期之 — init 生命周期之 — config 生...
  • Spark

    SPARK节点 综述 创建任务 任务参数 任务样例 spark submit 执行 WordCount 程序 在 DolphinScheduler 中配置 Spark 环境 上传主程序包 配置 Spark 节点 spark sql 执行 DDL 和 DML 语句 注意事项: SPARK节点 综述 Spark 任务类型用于执行...
  • Docker Demo

    5038 2024-06-28 《Apache Hudi 0.15.0》
    A Demo using Docker containers Prerequisites Setting up Docker Cluster Build Hudi Bringing up Demo Cluster Demo Step 1 : Publish the first batch to Kafka Step 2: Incrementall...