Devlive 开源社区 本次搜索耗时 0.591 秒,为您找到 202 个相关结果.
  • Troubleshooting Tools

    824 2024-06-22 《Apache Accumulo 2.x》
    RFileInfo Encrypted Files GetManagerStats FindOfflineTablets RemoveEntriesForMissingFiles ChangeSecret (new in 2.1) DeleteZooInstance (new in 2.1) accumulo-util dump-zoo Re...
  • 启动参数

    启动参数 作用域 使用方式 任务样例 创建 Shell 任务 保存工作流,上线运行并设置启动参数 任务实例查看执行结果 修改启动参数,再次执行 任务实例查看执行结果 启动参数 作用域 启动参数是针对整个工作流 的所有任务节点都有效的参数,在工作流启动页面配置。 使用方式 启动参数配置方式如下:在启动前参数设置界面,点击“启动参数“...
  • 准备设置本地存储库

    步骤 RHEL/CentOS/Oracle/Amazon Linux: SLES: Debian/Ubuntu: 下一步 更多信息 在设置本地存储库之前,您必须满足某些要求。 选择集群中或可访问的运行受支持操作系统的现有服务器。 启用集群中所有主机对镜像服务器的网络访问。 确保镜像服务器安装了包管理器,例如 yum(适用于 RHEL、Cen...
  • 2. Deploy Kyuubi engines on Kubernetes

    Deploy Kyuubi engines on Kubernetes Requirements Configurations Master Docker Image Test Cluster ServiceAccount Volumes PodTemplateFile Other Deploy Kyuubi engin...
  • Architecture

    793 2024-07-05 《Apache Kyuubi 1.9.1》
    Introduction Architecture Overview Unified Interface Runtime Resource Resiliency High Availability & Load Balance Authentication & Authorization Conclusions Introduction K...
  • Flink on K8s

    Environments requirement Preparation for integration configuration for connecting Kubernetes configuration for coKubernetes RBAC Configuration for remote Docker service Job s...
  • Flink Getting Started

    783 2024-06-26 《Apache Amoro 0.6.1》
    Iceberg format Paimon format Mixed format Environment preparation Mixed-Hive format Frequently Asked Questions Iceberg format The Iceberg Format can be accessed using the C...
  • Config File Encryption And Decryption

    Introduction How to use How to implement user-defined encryption and decryption Introduction In most production environments, sensitive configuration items such as passwords a...
  • SSH

    RemoteShell 综述 创建任务 任务参数 任务样例 查看远程服务器(remote-server)的路径 注意事项 RemoteShell 综述 RemoteShell 任务类型,用于在远程服务器上执行命令。 创建任务 点击项目管理-项目名称-工作流定义,点击”创建工作流”按钮,进入 DAG 编辑页面。 工具栏中拖动 到画板...
  • Bootstrapping

    778 2024-06-30 《Apache Hudi 0.15.0》
    Approaches Use Hudi for new partitions alone Convert existing table to Hudi Using Hudi Streamer Using Spark Datasource Writer Using Spark SQL CALL Procedure Using Hudi CLI C...