Devlive 开源社区 本次搜索耗时 1.187 秒,为您找到 1058 个相关结果.
  • Kyuubi Hive JDBC Driver

    7010 2024-07-05 《Apache Kyuubi 1.9.1》
    Referencing the JDBC Driver Libraries Using the Driver in Java Code Maven sbt Gradle Using the Driver in a JDBC Application Registering the Driver Class Building the Connect...
  • What is Apache StreamPark™

    Apache StreamPark™ 🚀 What is Apache StreamPark™ Why Apache StreamPark™? 🎉 Features 🏳‍🌈 Architecture of Apache StreamPark™ 1️⃣ streampark-core 2️⃣ streampark-console Apache...
  • 软硬件环境建议配置

    Linux 操作系统版本要求 服务器建议配置 生产环境 网络要求 客户端 Web 浏览器要求 时钟同步 DolphinScheduler 作为一款开源分布式工作流任务调度系统,可以很好地部署和运行在 Intel 架构服务器及主流虚拟化环境下,并支持主流的Linux操作系统环境 Linux 操作系统版本要求 操作系统 版本 ...
  • 平台安装介绍

    目的和范围 目标受众 系统要求 硬件要求 软件要求 安装前准备 下载&&配置flink 引入MySQL依赖包 下载Apache StreamPark™ 安装 初始化系统数据 查看执行StreamPark元数据SQL文件 连接MySQL数据库 && 执行初始化脚本 查看执行结果 Apache StreamPark™配置 配置mysql...
  • Spark Quick Start

    6901 2024-06-28 《Apache Hudi 0.15.0》
    Setup Spark 3 Support Matrix Spark Shell/SQL Setup project Create Table Insert data Query data Update data Merging Data Delete data Time Travel Query Incremental query ...
  • AWS

    6854 2024-06-29 《Apache Iceberg 1.5.2》
    Enabling AWS Integration Spark Flink HTTP Client Configurations URL Connection HTTP Client Configurations Apache HTTP Client Configurations Run Iceberg on AWS Amazon Athena ...
  • 项目配置

    为什么需要配置 flink option property 基础参数 Memory参数 配置总内存 Table app sql 总结 配置在StreamPark 中是非常重要的概念,先说说为什么需要配置 为什么需要配置 开发DataStream 程序,大体流程都可以抽象为以下4步 StreamExecutionEnvironm...
  • Redis Connector

    Redis Write Dependency Writing Redis the Regular Way 1.Access to source 2. Write to redis Apache StreamPark™ Writes to Redis 1. Configure policy and connection information 2. ...
  • Replication

    6751 2024-06-22 《Apache Accumulo 2.x》
    Overview Configuration Site Configuration Instance Configuration Table Configuration Monitoring Work Assignment ReplicaSystems AccumuloReplicaSystem Other Configuration E...
  • Writing Tables

    6699 2024-07-01 《Apache Hudi 0.15.0》
    What are some ways to write a Hudi table? How is a Hudi writer job deployed? Can I implement my own logic for how input records are merged with record on storage? How do I delet...