Devlive 开源社区 本次搜索耗时 0.634 秒,为您找到 1079 个相关结果.
  • 为 HDF 服务安装数据库

    安装和配置MySQL 安装和配置 Postgres 使用 Oracle 数据库 安装 Schema Registry、SAM、Druid 和 Superset 时,您需要一个关系数据存储来存储元数据。您可以使用 MySQL、Postgres、Oracle 或 MariaDB。这些主题描述如何安装 MySQL、Postgres 和 Oracle 以及如...
  • Install Databases for HDF services

    Installing and Configuring MySQL Installing and Configuring Postgres Using an Oracle Database When installing Schema Registry, SAM, Druid, and Superset, you require a relationa...
  • LDAP 使用

    LDAP简介 为什么使用LDAP? 配置LDAP 1.官网下载二进制安装包 2.增加LDAP配置 LDAP简介 LDAP(Light Directory Access Portocol),它是基于X.500标准的轻量级目录访问协议。 目录是一个为查询、浏览和搜索而优化的数据库,它成树状结构组织数据,类似文件目录一样。 LDAP目录服务是由目...
  • External Link Management

    Background How to create the external link Where can see the external link Background In production practice, in order to manage the Flink job properly, there is always a need...
  • 安装选项

    步骤 下一步 更多信息 为了构建集群,集群安装向导会提示您提供有关如何设置集群的一般信息。您需要提供每台主机的 FQDN。该向导还需要访问您在设置无密码 SSH 时创建的私钥文件。使用主机名和密钥文件信息,向导可以定位、访问集群中的所有主机并与其安全地交互。 步骤 在 Target Hosts 中,输入主机名列表,每行一个。 您可以使用...
  • TCK

    2943 2024-05-25 《Apache JDO 3.2.1》
    Running the TCK Demonstrating Compliance In order to demonstrate compliance with the Java Data Objects specification, an implementation must pass all of the tests in the Technol...
  • Stored Procedure

    存储过程节点 任务参数 存储过程节点 根据选择的数据源,执行存储过程。 拖动工具栏中的PROCEDURE 任务节点到画板中,如下图所示: 前提:在该数据库里面创建存储过程,如: CREATE PROCEDURE dolphinscheduler . test ( in in1 INT , out out1 I...
  • Bytecode Enhancement

    2926 2024-05-25 《Apache JDO 3.2.1》
    JDO defines a byte-code enhancement process that provides for dirty detection of fields. Before a class is used at runtime it is compiled and then “enhanced” to implement the inte...
  • Start the Ambari Server

    Next Steps More Information Run the following command on the Ambari Server host: ambari - server start To check the Ambari Server processes: ambari - server status ...
  • Kafka Connect

    2922 2025-03-14 《Apache Iceberg 1.8.1》
    Kafka Connect Kafka Connect is a popular framework for moving data in and out of Kafka via connectors. There are many different connectors available, such as the S3 sink for writ...