收藏 分享(赏)

《数据清洗基础与实践》课件第四章 基本技术与方法.pptx

上传人:bubibi 文档编号:22692446 上传时间:2024-06-27 格式:PPTX 页数:20 大小:6.78MB
下载 相关 举报
《数据清洗基础与实践》课件第四章 基本技术与方法.pptx_第1页
第1页 / 共20页
《数据清洗基础与实践》课件第四章 基本技术与方法.pptx_第2页
第2页 / 共20页
《数据清洗基础与实践》课件第四章 基本技术与方法.pptx_第3页
第3页 / 共20页
《数据清洗基础与实践》课件第四章 基本技术与方法.pptx_第4页
第4页 / 共20页
《数据清洗基础与实践》课件第四章 基本技术与方法.pptx_第5页
第5页 / 共20页
亲,该文档总共20页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基基本本技技术术与与方方法法主主 讲讲:X X X X X X目录C o n t e n tETLETL基础知识基础知识1数据清洗的技术途径数据清洗的技术途径2常用的常用的ETLETL工具工具3ETLETL子系统介绍子系统介绍4ETL入 门1ETL,全称为Extraction-Transformation-Loading,中文名为数据抽取、转换和加载。2ETL的主要功能是将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。3ETL也是一个长期的过程,只有不断地发现问题并解决问题,才能使E

2、TL运行效率更高,为项目后期开发提供准确的数据。企业每年产生海量的数据,这些数据,有的对企业非常重要,有的对企业没有用处。如何在海量数据中抽取出有用的数据?可以通过ETL来进行实现。ETL入 门“一切围绕需求”最终用户提交界面数据集成业务需求数据评估大ETL系统的最终步骤是将数据提交给最终用户,提交过程占据十分重要的位置,并对构成最终用户应用的数据结构和内容进行严格把关,确保其简单快捷。在数据进入数据仓库之前,需要将全部数据无缝集成到一起。数据集成可采用规模化的表格来实现,也就是在分离的数据库中建立公共维度实体,从而快速构建报表。业务需求是数据仓库最终用户的信息需求,它直接决定了数据源的选择。

3、在ETL设计时,需要考虑原始数据是否能解决用户的业务需求,同时,业务需求和数据源的内容是不断变化的,需要对ETL不断进行检验和讨论。数据评估是使用分析方法来检查数据,充分了解数据的内容、质量。设计好的数据评估方法能够处理海量数据。ETL入 门1、业务需求业务需求是数据仓库最终用户的信息需求,它直接决定了数据源的选择。在许多情况下,最初对于数据源的调查不一定完全反映数据的复杂性和局限性,所以在ETL设计时,需要考虑原始数据是否能解决用户的业务需求,同时,业务需求和数据源的内容是不断变化的,需要对ETL不断进行检验和讨论。对数据仓库典型的需求包括:数据源的归档备份以及随后的数据存储。任何造成数据修

4、改的交易记录的完整性证明。对分配和调整的规则进行完备的文档记录。数据备份的安全性证明,不论是在线还是离线进行。ETL入 门2数据评估数据评估是使用分析方法来检查数据,充分了解数据的内容、质量。设计好的数据评估方法能够处理海量数据。例如,企业的订单系统,能够很好地满足生产部门的需求。但是对于数据仓库来说,因为数据仓库使用的字段并不是以订单系统中的字段为中心,因此订单系统中的信息对于数据仓库的分析来讲是远远不够的。对于“脏”数据源需要进行操作处理,主要包括以下几个方面:完全清除某些输入字段;补入一些丢失的数据;自动替换掉某些错误数据值;在记录级别上进行人工干预;对数据进行完全规范化的表述。ETL入

5、 门3数据集成在数据进入数据仓库之前,需要将全部数据无缝集成到一起。数据集成可采用规模化的表格来实现,也就是在分离的数据库中建立公共维度实体,从而快速构建报表。在ELT系统中,数据集成是数据流程中一个独立的步骤,叫作规格化步骤。4.最终用户提交界面ETL系统的最终步骤是将数据提交给最终用户,提交过程占据十分重要的位置,并对构成最终用户应用的数据结构和内容进行严格把关,确保其简单快捷。将使用复杂、查询缓慢的数据直接交给最终用户是不负责的,经常犯的一个错误就是将完全规范化的数据模型直接交给用户,就不再过问。ETL基本构成ETL基本构成数据抽取数据转换数据加载ETL数据抽取1数据抽取所谓数据抽取,就

6、是从源端数据系统中抽取目标数据系统需要的数据。进行数据抽取的原则:一是要求准确性,即能够将数据源中的数据准确抽取到;二是不对源端数据系统的性能、响应时间等造成影响。数据抽取可分为全量抽取和增量抽取两种方式。(1)全量抽取全量抽取好比数据的迁移和复制,它是将源端数据表中的数据一次性全部从数据库中抽取出来,再进行下一步操作。(2)增量抽取增量抽取主要是在第一次全量抽取完毕后,需要对源端数据中新增或修改的数据进行抽取。增量抽取的关键是抽取自上次以来,数据表中已经变化的数据。ETL数据转换2数据转换数据转换就是将从数据源获取的数据按照业务需求,通过转换、清洗、拆分等,加工成目的数据源所需要的格式。数据

7、转换是ETL过程中最关键的步骤,它主要是对数据格式、数据类型等进行转换。它可以在数据抽取过程中进行,也可以通过ETL引擎进行转换。数据转换的原因非常多,主要包括以下3种:数据不完整,指数据库的数据信息缺失。这种转换需要对数据内容进行二次输入,以进行补全。数据格式错误,指数据超出数据范围。可通过定义完整性进行模式约束。数据不一致,即主表与子表的数据不能匹配。可通过业务主管部门确认后,再进行二次抽取。ETL数据加载3数据加载数据加载是ETL的最后一个步骤,即将数据从临时表或文件中,加载到指定的数据仓库中。一般来说,有直接SQL语句操作和利用装载工具进行加载两种方式,最佳装载方式取决于操作类型以及数

8、据的加载量。ETL技术选型ETL技术的选型,主要从成本、人员、案例和技术支持来衡量。目前流行的3种主要技术为Datastage、Powercenter和ETLAutomation。在Datastage和Powercenter中,ETL技术选型可以从对ETL流程的支持,对元数据的支持和对数据质量的支持来考虑,同时从兼顾维护的实用性、定制开发的支持等方面考虑。在ETL中,数据抽取过程多则上百,少则十几个,它们之间的依赖关系、出错控制及恢复的流程都是需要考虑的。E T L工 具多平台管理和调试功能集成性和开放性数据转换多种数据源管理元数据ETL功能E T L功 能评价ETL设计的好坏需要从多个不同的

9、角度来考虑,主要包括对多平台的支持、数据源格式的支持、数据的转换、数据的管理和调试、数据的集成和开放性以及对元数据的管理等方面。1、多平台业务数据量的飞速增长,对系统的可靠性提出了更高的要求。对于海量的数据抽取,往往要求在有限的时间内完成。所以,平台对ETL开发工具的支持成为衡量一个开发工具的重要指标。目前主流的平台包括Windows、Linux、IBMAIX、MacOS等。2、多种数据源开发工具对数据源的支持非常重要,不仅要考虑项目开发中各种不同类型的数据源,还要考虑数据源的接口类型。例如,在数据抽取时,使用原厂商自己的专用接口,还是通用接口,效率会大不一样。数据源包括Oracle、SQLS

10、erver、DB2、Sybase、MicrosoftExcel等。3、数据转换由于在业务系统中的数据,存在数据时间跨度大、数据量多而乱的特点,就会造成在数据业务系统中可能会有多种完全不同的存储格式,也有可能业务系统存储的数据需要进行计算才能够抽取,因此,ETL功能中必须要有对数据进行计算、合并、拆分等转换功能。E T L功 能4、具备管理和调试功能由于数据业务量的增大,对数据抽取的要求也越来越高,专业的ETL工具要求具有管理和调度的功能,主要包括抽取过程的备份和恢复、版本升级、版本管理、支持统一的管理平台等功能。5、集成性和开放性随着国内数据仓库技术的不断发展,大多数情况下一般项目只会用到ET

11、L工具的少数几个功能,开发商将ETL工具的主要功能模块集成到自己的系统中,这样可以减少用户的操作错误。这就要求ETL能够具有较好的集成性和开放性。6、管理元数据元数据是描述数据的数据,它是对业务数据本身及其运行环境的描述与定义,主要用于支持业务系统应用。元数据的主要表现是对对象的描述,即对数据库、表、列、主键等的描述。在当前信息化建设中,一些应用的异构性和分布性越来越普遍,使用统一的元数据成为重要的选择,合理的元数据可以打破以往信息化建设中的“信息孤岛”等问题。ETL开源工具1、PentahoKettleKettle是一款国外的开源ETL工具,纯Java编写,可以在Windows、Linux、

12、UNIX上运行,无须安装,数据抽取高效稳定。Kettle(中文译名:水壶),该项目的主程序员Matt希望把各种数据放到一个壶里,然后以一种指定的格式流出。Kettle将ETL流程编译为XML格式,学起来十分简单,PentahoDataIntegration(Kettle)使用Java(Swing)开发。Kettle作为编译器对以XML格式书写的流程进行编译。Kettle的JavaScript引擎(和Java引擎)可以深层地控制对数据的处理。2、OpenRefineOpenRefine最初叫作FreebaseGridworks,由一家名为Metaweb的公司开发,主要用于调试各种表格,以避免随着

13、时间的推移出现错误,这对于任何数据库来说都是一个很大的问题。后来,该软件被谷歌收购,更名为GoogleRefine,并发布了第2版。2012年10月,GoogleRefine被社区接管,并以OpenRefine为名进行了开源。ETL开源工具1、DataWranglerDataWrangler(中文译名:牧马人)是一款由斯坦福大学开发的在线数据清洗、数据重组软件,主要用于去除无效数据,将数据整理成用户需要的格式等。使用DataWrangler能节约用户花在数据整理上的时间,从而使其有更多的精力用于数据分析。2、HawkHawk是一种数据抓取和清洗工具,依据GPL协议开源,软件基于C#实现,其前端

14、界面使用WPF开发,支持插件扩展。能够灵活高效地采集网页、数据库、文件等来源的数据,并通过可视化拖曳操作,快速地进行生成、过滤、转换等数据操作,快速建立解决方案。非常适合作为网页爬虫和数据清洗工具。Hawk含义为“鹰”,形容能够高效、准确地抓取和清洗数据。ETL子 系 统1、抽取抽取类子系统中,主要包括数据分析系统、增量捕获系统和数据抽取系统。数据分析系统主要用来分析不同类型的数据源,包括数据源的格式、数据的类型、数据的内容等。数据增量捕获系统主要是捕获数据源中发生了改变的数据,在Kettle中可通过时间戳的方式来捕获数据的变化。数据抽取系统主要是从不同的数据源抽取数据,通过数据的过滤和排序,

15、数据格式的转换,迁移到ETL环境,进行数据暂存。2、清洗和更正数据清洗和更正数据子系统主要包括数据清洗系统、错误处理系统、审计维度系统、重复数据排查系统和数据一致性系统。数据清洗系统主要是根据系统业务需求对数据源中的数据进行清洗,提高数据的质量。通过清洗,可以找到错误的数据,并进行更正。在数据清洗系统中,数据业务人员、源系统开发人员、ELT开发人员都有义务来完成数据的清洗。ETL子 系 统3、数据发布数据发布类子系统主要是加载和更新数据仓库数据,包括数据缓慢变化维度处理系统、迟到维度处理系统、代理键生成系统等。这里主要讲述数据缓慢变化维度处理系统。数据缓慢变化维度处理系统是多维度数据仓库的基础,它保存了对事实表进行分析的信息。例如,如果业务系统修改了客户的信息,维度变更也会根据不同的规则变更数据仓库中的数据维度。变更方式可采用覆盖、增加新行、增加新列、增加小维度表、分离历史表等方式。4、管理ETL管理ETL系统主要是对ETL开发环境进行设置,包括备份系统、恢复和重新启动子系统、工作流监控系统、问题报告系统、版本控制系统等。Thanks谢谢您的聆听!谢谢您的聆听!

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 资格认证 > 计算职称

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:文库网官方知乎号:文库网

经营许可证编号: 粤ICP备2021046453号世界地图

文库网官网©版权所有2025营业执照举报