Devlive 开源社区 本次搜索耗时 0.547 秒,为您找到 319 个相关结果.
  • Notion

    Description Key features Options url [String] password [String] version [String] method [String] params [Map] body [String] poll_interval_millis [int] retry [int] retry_b...
  • Maxcompute

    Description Key features Options accessId [string] accesskey [string] endpoint [string] project [string] table_name [string] partition_spec [string] split_row [int] common...
  • 3. Operations execution

    631 2024-06-19 《Redisson》
    3.1. Async way 3.2. Reactive way Redisson instances are fully thread-safe. Objects with synchronous/asynchronous methods could be reached via RedissonClient interface.Reactive...
  • Functions

    622 2024-05-25 《Lodash 2.4.2》
    _.after(n, func) Arguments Returns Example _.bind(func, [thisArg], [arg]) Arguments Returns Example _.bindAll(object, [methodName]) Arguments Returns Example _.bindKey(...
  • RocketMQ

    Support Apache RocketMQ Version Support These Engines Key Features Description Sink Options partition.key.fields [array] Task Example Fake to Rocketmq Simple Rocketmq To Roc...
  • Pulsar

    Support Those Engines Key features Description Supported DataSource Info Sink Options Parameter Interpretation client.service-url [String] admin.service-url [String] auth.pl...
  • Trino

    616 2024-06-26 《Apache Amoro 0.6.1》
    Iceberg format Paimon format Mixed format Install Support SQL statement Query Table Query BaseStore of Table Query ChangeStore of Table Trino and Amoro Type Mapping: Trino ...
  • 变量管理

    背景介绍 创建变量 在Flink SQL中引用变量 在Flink JAR作业的args中引用变量 背景介绍 在实际生产环境中,Flink作业一般很复杂,会依赖多个外部组件,例如,从Kafka中消费数据时要从HBase或Redis中去获取相关数据,然后将关联好的数据写入到外部组件,这样的情况下会导致如下问题: Flink作业想要关联这些组件,需...
  • 安装后切换到 Oracle 数据库

    关于此任务 条件 步骤 关于此任务 如果在执行初始 HDF 安装或升级后想要将 Oracle 数据库与 SAM 或架构注册表一起使用,则可以切换到 Oracle 数据库。支持 Oracle 数据库 12c 和 11g 第 2 版 条件 您已安装并配置了 Oracle 数据库。 步骤 登录 Ambari Server 并关闭 SAM ...
  • Reading Tables

    606 2024-07-01 《Apache Hudi 0.15.0》
    Does deleted records appear in Hudi’s incremental query results? How do I pass hudi configurations to my beeline Hive queries? Does Hudi guarantee consistent reads? How to think ...