Devlive 开源社区 本次搜索耗时 0.560 秒,为您找到 1079 个相关结果.
  • Jira

    Description Key features Options url [String] email [String] api_token [String] method [String] params [Map] body [String] poll_interval_millis [int] retry [int] retry_ba...
  • SLES 12

    步骤 下一步 更多信息 在可以访问 Internet 的服务器主机上,使用命令行编辑器执行以下操作 步骤 在安装 Ambari 之前,您必须更新 ambari.repo 文件中的 username 和 password 。运行以下命令: vi /etc/zypp/repos.d/ambari.repo 例如,输出显示以下内容: [...
  • SSO 集成

    背景介绍 SSO 登录工作流 如何启用SSO登录 注意事项 背景介绍 作为企业实践,在应用程序中应用单点登录 (SSO) 是很常见的,这样可以通过集中且安全的方式管理用户凭证。 基于 Streampark 使用 Apache Shiro 进行身份验证和授权的事实,我们将使用 Pac4j 框架来实现单点登录 (SSO) 支持功能。 Pac4j 是...
  • Setting Up a Local Repository with No Internet Access

    Prerequisites Steps More Information Prerequisites You must have completed the Getting Started Setting up a Local Repository procedure. - To finish setting up your local r...
  • Get Started

    4355 2024-07-05 《Apache Kyuubi 1.9.1》
    Good First Issues Help Wanted Issues Code Contribution Programs Good First Issues Good First Issue is initiative to curate easy pickings for first-time contributors. It help...
  • Hive

    Description Key features Options table_name [string] metastore_uri [string] hdfs_site_path [string] read_partitions [list] krb5_path [string] kerberos_principal [string] ke...
  • MapReduce

    MapReduce(MR) 节点 综述 创建任务 任务参数 JAVA/SCALA 程序 Python 程序 任务样例 执行 WordCount 程序 在 DolphinScheduler 中配置 MapReduce 环境 上传主程序包 配置 MapReduce 节点 MapReduce(MR) 节点 综述 MapReduce(MR...
  • Hive

    4342 2025-03-13 《Apache Iceberg 1.8.1》
    Hive Iceberg supports reading and writing Iceberg tables through Hive by using a StorageHandler . Feature support The following features matrix illustrates the support for diff...
  • Conditions

    Conditions 节点 创建任务 任务参数 相关任务 任务样例 1、创建工作流 2、查看执行结果 注意事项 Conditions 节点 Conditions 是一个条件节点,根据上游任务运行状态,判断应该运行哪个下游任务。截止目前 Conditions 支持多个上游任务,但只支持两个下游任务。当上游任务数超过一个时,可以通过且 以及或...
  • AWS S3

    4337 2024-07-01 《Apache Hudi 0.15.0》
    AWS configs AWS Credentials AWS Libs AWS S3 Versioned Bucket In this page, we explain how to get your Hudi spark job to store into AWS S3. AWS configs There are two configur...