合同范文工作计划范文工作总结范文合作方案范文日志日报范文工作报告范文年终总结范文申请书范文通知书范文请假单范文活动策划范文活动报道范文简历范文委托书范文授权书范文论文范文简报范文志愿书

大数据集成产品介绍范文(精选6篇)

发布时间:2022-11-20 12:20:05阅读量:268

大数据集成产品介绍范文 第一篇

在构建数据仓库的场景中,数据加载到数仓后,随后进行数据加工和数据应用,其中涉及的3类大数据产品如下:

数据集成:面向数据汇聚与交换

产品流程:配置数据源-->创建同步任务-->配置调度任务

核心任务:ETL、校验、补数、合并

数据加工:面向数据分析

产品流程:创建表-->编写加工逻辑(insert)-->配置调度任务

数据加工方式:离线计算、实时计算、机器学习等

任务调度:工作流编排

产品流程:创建任务节点-->配置节点依赖关系-->提交并执行

任务调度:任务执行、任务调度与运维

1)联系

数据集成和数据加工都是数据生命周期中的一环

数据集成任务和数据加工任务其实就是任务调度中的任务节点job,任务调度保证数据被顺序采集和加工出来

以用户画像分析为例,oss_数据同步和rds_数据同步两个节点是数据集成任务节点,ods_log_info_d、dws_user_info_all_d、rpy_user_info_d三个节点是数据加工任务节点,绘制各节点间的连线即工作流编排。

提交并执行画布中的流程节点,数据就会按照箭头方向执行各节点,产出最终结果。

2)区别

数据集成和数据加工虽然都是ETL,但是各自的重点并不相同

核心动作

数据集成核心动作是抽数(读、写、转换),也就是数据交换。转换动作也只是简单的数据清洗

数据加工的核心动作是计算逻辑/清洗等加工规则的编写。加工规则复杂

核心目标

数据集成的核心目标是保证数据被高效准确的迁移到目标端数据源

数据加工的核心目标是加工规则编写准确“翻译”业务需求

数据集成产品流程

离线集成与实时集成在实际运行中,的侧重点是不同的,对于离线集成,面对的是批数据,更多考虑大规模数据量的迁移效率问题,对于实时集成,面对的是流数据,更多考虑数据准确性问题。

大数据集成产品介绍范文 第二篇

离线集成分为全量和增量两种方式对大规模数据进行批量迁移,

全量迁移是将某些表的全部历史数据同步到目标数据源中(指定时间范围)

增量迁移,通常需要使用where子句(RDB)或者query子句(MongoDB)等增量配置参数,同时在结合调度参数(定时任务的重复周期:分钟、小时、天、周、月等)可实现增量迁移任意指定日期内的数据。

比如,想要实现每日数据的增量同步,各参数可配置为:

Where子句:配置为DS='${dateformat(yyyy-MM-dd,-1,DAY)}',

配置定时任务:重复周期为1天,每天的凌晨0点自动执行作业

增量迁移的数据可以对目标端数据源表中数据进行追加、覆盖和更新操作。

离线集成SQL实现逻辑如下:

- 完 -

大数据集成产品介绍范文 第三篇

我们主要采用基于日志的CDC方式来实现增量数据的实时同步,CDC即change data capture,捕获数据的变化。

实时集成通过读取源端数据库日志bin_log来捕获数据的变化情况(insert、update、delete),将其传输到kafka topic中,然后通过spark streaming对数据进行转换/清洗,写入到stg增量表中,最后将增量数据与全量数据合并到数仓ods表中。

由于数据库日志抽取一般是获取所有的数据记录的变更(增、删、改),落到目标表时,需要根据主键去重,并按照日志时间倒序排列获取最后状态的变化情况。

具体的实时集成任务执行逻辑及流程如下所示:

实时集成有以下特点:

故相较于离线集成,在数据同步链路上,实时集成会增加数据校验和数据合并两个动作。

大数据集成产品介绍范文 第四篇

数据同步致力于保证数据在不同数据源之间被高效准确地迁移。根据数据时效性要求和应用场景,数据同步可分为离线同步和实时同步:

1)离线同步

主要用于大批量数据的周期性迁移,对时效性要求不高,一般采用分布式批量数据同步方式,通过连接读取数据,读取数据过程中可以有全量、增量方式,经过统一处理后写入目标存储。

成熟的产品有:Sqoop、DataX、kettle等。

2)实时同步

针对数据时效性要求高的场景,其将源端数据的变化实时同步到目标端数据源中,保证源端数据与目标端数据实时保持一致,就可满足业务实时查询分析使用数据或实时计算等需求。

成熟的产品有:Canal、otter等。

在实际业务场景中,离线同步和实时同步搭配使用,为保证已有的数据表在目标端数据源中可用,会使用离线同步将该表的历史数据全量迁移到目标端数据源中,对于增量数据则通过实时集成来增量迁移。

大数据集成产品介绍范文 第五篇

在构建数据仓库的场景中,数据加载到数仓后,随后进行数据加工和数据应用,其中涉及的3类大数据产品如下:

1)数据集成:面向数据汇聚与交换

产品流程:配置数据源—创建同步任务—配置调度任务。

核心任务:ETL、校验、补数、合并。

2)数据加工:面向数据分析

产品流程:创建表—编写加工逻辑(insert)—配置调度任务。

数据加工方式:离线计算、实时计算、机器学习等。

3)任务调度:工作流编排

产品流程:创建任务节点—配置节点依赖关系—提交并执行。

任务调度:任务执行、任务调度与运维。

联系:

以用户画像分析为例,oss_数据同步和rds_数据同步两个节点是数据集成任务节点,ods_log_info_d、dws_user_info_all_d、rpy_user_info_d三个节点是数据加工任务节点,绘制各节点间的连线即工作流编排。

提交并执行画布中的流程节点,数据就会按照箭头方向执行各节点,产出最终结果。

区别:数据集成和数据加工都基于任务执行和调度实现,两者虽然都是ETL,但是各自关注的重点并不相同。

①核心动作

数据集成核心动作是抽数(读、写、转换),也就是数据交换,转换动作也只是简单的数据清洗。

数据加工的核心动作是计算逻辑/清洗等加工规则的编写,加工规则复杂。

②核心目标

数据集成的核心目标,是保证数据被高效准确地迁移到目标端数据源。

数据加工的核心目标,是加工规则编写准确“翻译”业务需求。

大数据集成产品介绍范文 第六篇

实时集成一般采用先全量在增量的方式来进行数据的迁移,即先将历史数据全量迁移到目标数据源,完成初始化动作,在进行增量数据的实时同步,这样保证目标端数据的可用性。当然也有不care历史数据的场景,此时就无需进行全量迁移的动作。

我们主要采用基于日志的CDC方式来实现增量数据的实时同步。CDC即change data capture,捕获数据的变化。实时集成通过读取源端数据库日志bin_log来捕获数据的变化情况(insert、update、delete),将其传输到kafka topic中,然后通过spark streaming对数据进行转换/清洗,写入到stg增量表中,最后将增量数据与全量数据合并到数仓ods表中。

具体的实时集成任务执行逻辑及流程如下所示:

实时集成有以下特点:

源端数据库产生一条记录,数据集成实时同步一条记录,

流数据在数据传输过程中可能会被丢失或延迟

故相较于离线集成,在数据同步链路上,实时集成会增加数据校验和数据合并两个动作。

数据校验主要校验源端和目标端的数据量,保证数据没有被丢失。具体校验逻辑如下:

数据合并则是由ods库base表和cdc目标库increment表组成,具体逻辑为:

将stg数据按主键去重,取最新一条,根据主键与ods数据表中的T+1数据合并

最新范文:

热门范文: