Devlive 开源社区 本次搜索耗时 0.605 秒,为您找到 355 个相关结果.
  • Troubleshooting

    4365 2024-07-01 《Apache Hudi 0.15.0》
    Writing Tables org.apache.parquet.io.InvalidRecordException: Parquet/Avro schema mismatch: Avro field ‘col1’ not found java.lang.UnsupportedOperationException: org.apache.parquet....
  • 任务结构

    Shell节点 SQL节点 PROCEDURE[存储过程]节点 SPARK节点 MapReduce(MR)节点 Python节点 Flink节点 HTTP节点 DataX节点 Sqoop节点 条件分支节点 子流程节点 依赖(DEPENDENT)节点 在dolphinscheduler中创建的所有任务都保存在t_ds_process...
  • Creating GitHub CLI extensions

    4360 2024-05-07 《GitHub Cli》
    About GitHub CLI extensions Creating an interpreted extension with gh extension create Creating a precompiled extension in Go with gh extension create Creating a non-Go precom...
  • 创建 GitHub CLI 扩展

    4341 2024-05-08 《GitHub Cli 中文版》
    关于 GitHub CLI 扩展 使用 gh extension create 创建扩展 使用 gh extension create 在 Go 中创建预编译扩展 使用 gh extension create 创建非 Go 预编译扩展 手动创建扩展 编写解释型 GitHub CLI 扩展的技巧 处理参数和标志 非交互方式调用核心命令 以编...
  • 告警通知

    webapi.conf server.conf 夜莺告警通知,内置支持邮件、钉钉机器人、企微机器人、飞书机器人多种方式作为发送通道,也支持调用自定义脚本和Webhook,给用户自定义发送通道的能力。相关配置在 webapi.conf 和 server.conf 中都有涉及。这里分别讲解。 webapi.conf [[ NotifyChannels ...
  • CLI

    4297 2024-07-01 《Apache Hudi 0.15.0》
    Local set up Hudi CLI Bundle setup Using hudi-cli Inspecting Commits Drilling Down to a specific Commit FileSystem View Statistics Archived Commits Compactions Validate Com...
  • Translations & Localization

    4250 2024-06-03 《Docusaurus 1.14.7》
    Docusaurus Translation Configurations Translating Your Existing Docs Enabling Translations on Pages Gathering Strings to Translate Custom Translation Strings How Strings Get T...
  • MongoDB

    Support Those Engines Key Features Description Supported DataSource Info Data Type Mapping Source Options Tips How to Create a MongoDB Data Synchronization Jobs Parameter I...
  • Utility

    4222 2024-06-07 《Underscore.js 1.13.6》
    noConflict identity constant noop times random mixin iteratee uniqueId escape unescape result now template noConflict _.noConflict() source Give control of the...
  • Hadoop Resource Integration

    Using Apache Hadoop resource in Flink on Kubernetes 1. Apache HDFS 1.1 Add the shaded jar 1.2. add core-site.xml and hdfs-site.xml 2. Apache Hive 2.1. Add Hive-related jars 2...