Devlive 开源社区 本次搜索耗时 0.234 秒,为您找到 1878 个相关结果.
  • Deployment

    5067 2024-06-26 《Apache Amoro 0.6.1》
    System requirements Download the distribution Source code compilation Configuration Configure the service address Configure system database Configure high availability Config...
  • 任务结构

    Shell节点 SQL节点 PROCEDURE[存储过程]节点 SPARK节点 MapReduce(MR)节点 Python节点 Flink节点 HTTP节点 DataX节点 Sqoop节点 条件分支节点 子流程节点 依赖(DEPENDENT)节点 在dolphinscheduler中创建的所有任务都保存在t_ds_process...
  • Upgrading Accumulo

    5055 2024-06-22 《Apache Accumulo 2.x》
    Upgrading from 1.10 or 2.0 to 2.1 Create ZooKeeper snapshot (optional - but recommended) Rename master Properties, Config Files, and Script References Pre-Upgrade the property st...
  • DataGrip

    5054 2024-07-05 《Apache Kyuubi 1.9.1》
    What is DataGrip Preparation Get DataGrip And Install Get Kyuubi Started Configurations Start DataGrip Select Database Datasource Driver Generic JDBC Connection Settings I...
  • Getting Started

    5050 2024-07-05 《Apache Kyuubi 1.9.1》
    Requirements Installation Install Kyuubi Install Spark Configuration Start Kyuubi Operate Clients Open Connections Execute Statements Start Engines Close Connections Stop...
  • 告警通知

    webapi.conf server.conf 夜莺告警通知,内置支持邮件、钉钉机器人、企微机器人、飞书机器人多种方式作为发送通道,也支持调用自定义脚本和Webhook,给用户自定义发送通道的能力。相关配置在 webapi.conf 和 server.conf 中都有涉及。这里分别讲解。 webapi.conf [[ NotifyChannels ...
  • Elasticsearch Connector

    Dependency of elastic writing Write data to Elasticsearch based on the official Using Apache StreamPark™ writes to Elasticsearch 1. 配置策略和连接信息 2. 写入Elasticsearch Other configur...
  • 1. Kyuubi On Apache Kudu

    Kyuubi On Apache Kudu What is Apache Kudu Why Kyuubi on Kudu Kudu Integration with Apache Spark Kudu Integration with Kyuubi Install Kudu Spark Dependency Start Kyuubi Start B...
  • 快速开始

    5018 2024-05-08 《GitHub Cli 中文版》
    关于 GitHub CLI 先决条件 一些有用的命令 查看您的状态 查看存储库 克隆存储库 创建存储库 处理问题 处理拉取请求 使用代码空间 寻求帮助 自定义 GitHub CLI 进一步阅读 关于 GitHub CLI GitHub CLI 是一个开源工具,用于从计算机的命令行使用 GitHub。当您使用命令行工作时,您可以...
  • Hadoop 资源集成

    在 Flink on Kubernetes 上使用 Apache Hadoop 资源 1. Apache HDFS 1.1 添加 shade jar 1.2、添加 core-site.xml 和 hdfs-site.xml 2、Apache Hive i、添加 hive 相关的 jar 2.1. 添加 hive 的配置文件(hive-site.x...