Devlive 开源社区 本次搜索耗时 0.622 秒,为您找到 701 个相关结果.
  • AWS

    10045 2024-06-29 《Apache Iceberg 1.5.2》
    Enabling AWS Integration Spark Flink HTTP Client Configurations URL Connection HTTP Client Configurations Apache HTTP Client Configurations Run Iceberg on AWS Amazon Athena ...
  • GitHub 趋势日报 (2025年05月23日)

    📈 今日整体趋势 Top 10 📊 分语言趋势 Top 5 C++ Python Ruby Swift Dart Markdown PHP C Java Go C Kotlin JavaScript Shell Lua TypeScript MDX Vim Script PowerShell Dockerfile B...
  • What is Apache StreamPark™

    Apache StreamPark™ 🚀 What is Apache StreamPark™ Why Apache StreamPark™? 🎉 Features 🏳‍🌈 Architecture of Apache StreamPark™ 1️⃣ streampark-core 2️⃣ streampark-console Apache...
  • Kyuubi Hive JDBC Driver

    9888 2024-07-05 《Apache Kyuubi 1.9.1》
    Referencing the JDBC Driver Libraries Using the Driver in Java Code Maven sbt Gradle Using the Driver in a JDBC Application Registering the Driver Class Building the Connect...
  • Spark Quick Start

    9875 2024-06-28 《Apache Hudi 0.15.0》
    Setup Spark 3 Support Matrix Spark Shell/SQL Setup project Create Table Insert data Query data Update data Merging Data Delete data Time Travel Query Incremental query ...
  • 快速上手

    配置FLINK_HOME 配置Flink Cluster 服务器启动 flink Standalone Session 配置Flink Cluster 创建作业 主要参数 创建作业 保存作业 构建作业 启动作业 启动检查点设置 提交作业 查看作业状态 通过Apache StreamPark™看板查看 查看原生 flink web u...
  • 单机部署 (Standalone)

    PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可 JDK (1.8+):必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量 ZooKeeper (3.4.6+):必装 pstree or psmisc:Mac OS必装pstree,Fedora/Red/Hat/Ce...
  • GitHub 趋势日报 (2025年04月25日)

    GitHub 趋势日报 (2025年04月25日) 📈 今日整体趋势 Top 10 📊 分语言趋势 Top 5 Go C++ Java MDX C Ruby PHP JavaScript Dart Rust C Kotlin Shell Python TypeScript Vim Script Lua HTML Batc...
  • 二进制方式

    组件安装 安装夜莺 部署集群 MySQL Redis 时序库 n9e-webapi n9e-server 首先我们来看下面的架构图,夜莺的服务端有两个模块:n9e-webapi 和 n9e-server,n9e-webapi 用于提供 API 给前端 JavaScript 使用,n9e-server 的职责是告警引擎和数据转发器。依赖的组件...
  • Writing Tables

    9666 2024-07-01 《Apache Hudi 0.15.0》
    What are some ways to write a Hudi table? How is a Hudi writer job deployed? Can I implement my own logic for how input records are merged with record on storage? How do I delet...