Devlive 开源社区 本次搜索耗时 0.080 秒,为您找到 2342 个相关结果.
  • Datasource SPI

    DolphinScheduler Datasource SPI 主要设计 如何使用数据源? 如何进行数据源插件开发? 未来计划 DolphinScheduler Datasource SPI 主要设计 如何使用数据源? 数据源中心默认支持POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、SQLSERVER数据源。...
  • 第三章:线程的基本操作

    学习目标 1. 线程启动(start)、休眠(sleep)、中断(interrupt) 1.1 线程启动(start) 1.2 线程休眠(sleep) 1.3 线程中断(interrupt) 2. 线程Join操作及其应用场景 2.1 Join操作的典型应用场景 3. 线程优先级的设置与影响 4. 守护线程(Daemon Thread)的应用...
  • Kubernetes

    Kubernetes 综述 创建任务 任务参数 任务样例 在 DolphinScheduler 中配置 kubernetes 集群环境 配置 kubernetes 任务节点 注意事项 Kubernetes 综述 kubernetes任务类型,用于在kubernetes上执行一个短时和批处理的任务。worker最终会通过使用kuberne...
  • Getting Started

    4691 2024-05-25 《Apache JDO 3.2.1》
    Using JDO requires several components that work together: a database that stores your data persistently an application that operates through the JDO layers on the database a JDO...
  • Multi-Volume Installations

    4687 2024-06-22 《Apache Accumulo 2.x》
    This is an advanced configuration setting for very large clusters under a lot of write pressure. The HDFS NameNode holds all of the metadata about the files in HDFS. For fast per...
  • LDAP Tutorial

    LDAP Introduction Why use LDAP? Configuring LDAP 1.Official website to download the binary installation package 2.Add LDAP configuration LDAP Introduction LDAP (Light Direct...
  • Redis

    Description Key features Options host [string] port [int] key [string] data_type [string] user [string] auth [string] db_num [int] mode [string] nodes [list] format [str...
  • SSO 集成

    背景介绍 SSO 登录工作流 如何启用SSO登录 注意事项 背景介绍 作为企业实践,在应用程序中应用单点登录 (SSO) 是很常见的,这样可以通过集中且安全的方式管理用户凭证。 基于 Streampark 使用 Apache Shiro 进行身份验证和授权的事实,我们将使用 Pac4j 框架来实现单点登录 (SSO) 支持功能。 Pac4j 是...
  • 数据推送

    OpenTSDB 协议 RemoteWrite 协议 推给客户端 在 采集器 章节可以看出,夜莺支持多种数据接收的接口(由 n9e-server 实现,推送数据就是推给 n9e-server 的 19000 端口),包括 OpenTSDB、Open-Falcon、RemoteWrite、Datadog 等协议。这节我们以 OpenTSDB 的数据接...
  • AWS S3

    4667 2024-07-01 《Apache Hudi 0.15.0》
    AWS configs AWS Credentials AWS Libs AWS S3 Versioned Bucket In this page, we explain how to get your Hudi spark job to store into AWS S3. AWS configs There are two configur...