Devlive 开源社区 本次搜索耗时 0.088 秒,为您找到 1442 个相关结果.
  • SageMaker

    SageMaker 节点 综述 创建任务 任务样例 环境配置 SageMaker 节点 综述 Amazon SageMaker 是一个云机器学习平台。 提供了完整的基础设施,工具和工作流来帮助用户可以创建、训练和发布机器学习模型。 Amazon SageMaker Model Building Pipelines 是一个可以直接使用Sa...
  • OssFile

    Support Those Engines Usage Dependency For Spark/Flink Engine For SeaTunnel Zeta Engine Key features Data Type Mapping Orc File Type Parquet File Type Options path [string]...
  • Ubuntu 16

    步骤 下一步 更多信息 在具有 Internet 访问权限的服务器主机上,使用命令行编辑器执行以下操作: 步骤 以 root 身份登录到您的主机。 将 Ambari 列表文件下载到安装主机上的目录。 wget - O / etc / apt / sources . list . d / ambari . list https ://...
  • Hive CLI

    Hive CLI 综述 Hive CLI任务 VS 连接Hive数据源的SQL任务 创建任务 任务参数 任务样例 Hive CLI任务样例 Hive CLI 综述 使用Hive Cli任务插件 创建Hive Cli 类型的任务执行SQL脚本语句或者SQL任务文件。 执行任务的worker会通过hive -e 命令执行hive SQL脚本语...
  • Creating your first interoperable table

    Pre-requisites Steps Initialize a pyspark shell Create dataset Running sync Conclusion Next steps Using OneTable to sync your source tables in different target format invo...
  • Conditions

    Conditions 节点 创建任务 任务参数 相关任务 任务样例 1、创建工作流 2、查看执行结果 注意事项 Conditions 节点 Conditions 是一个条件节点,根据上游任务运行状态,判断应该运行哪个下游任务。截止目前 Conditions 支持多个上游任务,但只支持两个下游任务。当上游任务数超过一个时,可以通过且 以及或...
  • SQL Server

    Support SQL Server Version Support Those Engines Using Dependency For Spark/Flink Engine For SeaTunnel Zeta Engine Key Features Description Supported DataSource Info Databa...
  • String

    1617 2024-06-14 《Lodash 3.10.1》
    _.camelCase([string=’’]) Arguments Returns Example _.capitalize([string=’’]) Arguments Returns Example _.deburr([string=’’]) Arguments Returns Example _.endsWith([strin...
  • SLES 12

    步骤 下一步 更多信息 在可以访问 Internet 的服务器主机上,使用命令行编辑器执行以下操作 步骤 在安装 Ambari 之前,您必须更新 ambari.repo 文件中的 username 和 password 。运行以下命令: vi /etc/zypp/repos.d/ambari.repo 例如,输出显示以下内容: [...
  • PersistenceManagerFactory

    1611 2024-05-25 《Apache JDO 3.2.1》
    Standard JDO Properties Any JDO-enabled application will require (at least) one PersistenceManagerFactory. Typically applications create one per datastore being utilised. A Persi...