Devlive 开源社区 本次搜索耗时 0.556 秒,为您找到 1079 个相关结果.
  • Hive

    Description Key features Options table_name [string] metastore_uri [string] hdfs_site_path [string] read_partitions [list] krb5_path [string] kerberos_principal [string] ke...
  • Setting Up a Local Repository with No Internet Access

    Prerequisites Steps More Information Prerequisites You must have completed the Getting Started Setting up a Local Repository procedure. - To finish setting up your local r...
  • MapReduce

    MapReduce(MR) 节点 综述 创建任务 任务参数 JAVA/SCALA 程序 Python 程序 任务样例 执行 WordCount 程序 在 DolphinScheduler 中配置 MapReduce 环境 上传主程序包 配置 MapReduce 节点 MapReduce(MR) 节点 综述 MapReduce(MR...
  • Get Started

    4273 2024-07-05 《Apache Kyuubi 1.9.1》
    Good First Issues Help Wanted Issues Code Contribution Programs Good First Issues Good First Issue is initiative to curate easy pickings for first-time contributors. It help...
  • SSO 集成

    背景介绍 SSO 登录工作流 如何启用SSO登录 注意事项 背景介绍 作为企业实践,在应用程序中应用单点登录 (SSO) 是很常见的,这样可以通过集中且安全的方式管理用户凭证。 基于 Streampark 使用 Apache Shiro 进行身份验证和授权的事实,我们将使用 Pac4j 框架来实现单点登录 (SSO) 支持功能。 Pac4j 是...
  • Conditions

    Conditions 节点 创建任务 任务参数 相关任务 任务样例 1、创建工作流 2、查看执行结果 注意事项 Conditions 节点 Conditions 是一个条件节点,根据上游任务运行状态,判断应该运行哪个下游任务。截止目前 Conditions 支持多个上游任务,但只支持两个下游任务。当上游任务数超过一个时,可以通过且 以及或...
  • Configuring MySQL for Ranger

    Prerequisites Steps RHEL/CentOS/Oracle/Aamazon Linux SLES Prerequisites When using MySQL, the storage engine used for the Ranger admin policy store tables MUST support transa...
  • Rabbitmq

    Description Key features Options host [string] port [int] virtual_host [string] username [string] password [string] url [string] queue_name [string] schema [Config] fields...
  • Developer Tools

    4255 2024-07-05 《Apache Kyuubi 1.9.1》
    Update Project Version Update Dependency List Format All Code Append descriptions of new configurations to settings.md Generative Tooling Usage Update Project Version buil...
  • AWS S3

    4248 2024-07-01 《Apache Hudi 0.15.0》
    AWS configs AWS Credentials AWS Libs AWS S3 Versioned Bucket In this page, we explain how to get your Hudi spark job to store into AWS S3. AWS configs There are two configur...