CN112000734A - 一种大数据处理方法和装置 - Google Patents

一种大数据处理方法和装置 Download PDF

Info

Publication number
CN112000734A
CN112000734A CN202010772447.6A CN202010772447A CN112000734A CN 112000734 A CN112000734 A CN 112000734A CN 202010772447 A CN202010772447 A CN 202010772447A CN 112000734 A CN112000734 A CN 112000734A
Authority
CN
China
Prior art keywords
spark
job
cluster
sql script
computing engine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010772447.6A
Other languages
English (en)
Inventor
洪毅清
吕文栋
钟文杰
蔡淑莲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Corp
Original Assignee
China Construction Bank Corp
CCB Finetech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Corp, CCB Finetech Co Ltd filed Critical China Construction Bank Corp
Priority to CN202010772447.6A priority Critical patent/CN112000734A/zh
Publication of CN112000734A publication Critical patent/CN112000734A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2455Query execution
    • G06F16/24553Query execution of query operations
    • G06F16/24558Binary matching operations
    • G06F16/2456Join operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种大数据处理方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:与计算引擎建立会话长连接;接收作业调度集群发送的SQL脚本;将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。该实施方式能够解决作业执行效率低的技术问题。

Description

一种大数据处理方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种大数据处理方法和装置。
背景技术
目前数据仓库的大数据处理,主要基于关系型数据库(如Oracle),或者并行计算数据库集群(如Teradata、GreenPlum)进行处理。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
现有基于关系型数据库、并行计算数据库的大数据处理,存在作业并发数不够、源数据存储容量有限、数据冗余度较高等不足,从而导致作业执行效率低。
发明内容
有鉴于此,本发明实施例提供一种大数据处理方法和装置,以解决作业执行效率低的技术问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种大数据处理方法,包括:
与计算引擎建立会话长连接;
接收作业调度集群发送的SQL脚本;
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
可选地,与计算引擎建立会话长连接,包括:
与Hadoop集群中的计算引擎建立会话长连接;
其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。
可选地,所述计算引擎为Spark分布式集群,所述Hadoop资源管理器为YARN。
可选地,与Hadoop集群中的计算引擎建立会话长连接,包括:
启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;
登录所述Spark分布式集群。
可选地,登录所述Spark分布式集群,包括:
调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
可选地,将所述SQL脚本提交至所述计算引擎,包括:
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;
接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
可选地,将所述SQL脚本提交至所述计算引擎之后,还包括:
接收所述计算引擎返回的已注销的临时表的表名;
清理httpSession中的临时表的表名。
可选地,接收作业调度集群发送的SQL脚本,包括:
接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
可选地,所述作业调度集群发送的SQL脚本采用如下方法得到:
将作业配置信息写入数据加工作业模板;
根据所述作用配置信息生成SQL脚本。
可选地,所述作业配置信息包括加工作业流基础信息、作业基本信息和参数基本信息。
可选地,所述加工作业流基础信息包括作业流组名、机构号、作业流启动方式、源应用、目标应用和应用模式名。
可选地,所述作业基本信息包括作业名、程序名、作业处理参数数组、作业类型和作业执行计划。
可选地,所述参数基本信息包括作业名、作业参数名、参数描述、参数关联的应用名。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,包括:
所述计算引擎对基于Hive构建的数据仓库的数据进行处理,将对数据的处理操作,转化为Hadoop体系的Hive和Spark的处理操作。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,还包括:
使用python脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库中。
可选地,所述方法应用于由部署有SparkWeb组件的服务器组成的集群。
另外,根据本发明实施例的另一个方面,提供了一种大数据处理装置,包括:
连接模块,用于与计算引擎建立会话长连接;
接收模块,用于接收作业调度集群发送的SQL脚本;
提交模块,用于将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
可选地,所述连接模块还用于:
与Hadoop集群中的计算引擎建立会话长连接;
其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。
可选地,所述计算引擎为Spark分布式集群,所述Hadoop资源管理器为YARN。
可选地,所述连接模块还用于:
启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;
登录所述Spark分布式集群。
可选地,所述连接模块还用于:
调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
可选地,所述提交模块还用于:
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;
接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
可选地,所述提交模块还用于:
将所述SQL脚本提交至所述计算引擎之后,接收所述计算引擎返回的已注销的临时表的表名;
清理httpSession中的临时表的表名。
可选地,所述接收模块还用于:
接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
可选地,所述作业调度集群发送的SQL脚本采用如下方法得到:
将作业配置信息写入数据加工作业模板;
根据所述作用配置信息生成SQL脚本。
可选地,所述作业配置信息包括加工作业流基础信息、作业基本信息和参数基本信息。
可选地,所述加工作业流基础信息包括作业流组名、机构号、作业流启动方式、源应用、目标应用和应用模式名。
可选地,所述作业基本信息包括作业名、程序名、作业处理参数数组、作业类型和作业执行计划。
可选地,所述参数基本信息包括作业名、作业参数名、参数描述、参数关联的应用名。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,包括:
所述计算引擎对基于Hive构建的数据仓库的数据进行处理,将对数据的处理操作,转化为Hadoop体系的Hive和Spark的处理操作。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,还包括:
使用python脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库中。
可选地,所述方法应用于由部署有SparkWeb组件的服务器组成的集群。
根据本发明实施例的另一个方面,还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,所述一个或多个处理器实现上述任一实施例所述的方法。
根据本发明实施例的另一个方面,还提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:因为采用与计算引擎建立会话长连接,接收作业调度集群发送的SQL脚本,将SQL脚本提交至计算引擎的技术手段,所以克服了现有技术中作业执行效率低的技术问题。本发明实施例基于Hive和Spark的大数据处理技术,核心部分为由部署有SparkWeb组件的服务器组成的集群;SparkWeb组件实现了对Spark前置服务的封装,用于构建一个spark-submit长连接连接池,并常驻在服务器中;数据处理程序基于yarn-cluster模式提交的带有具体计算逻辑的Spark SQL语句,会先进入spark-submit长连接池的队列,然后提交到Spark集群进行执行,以减少客户端频繁启停虚拟机及启停执行环境带来的额外开销,实现作业执行效率的提升。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的大数据处理方法的主要流程的示意图;
图2是根据本发明实施例的大数据集群的框架示意图;
图3是根据本发明一个可参考实施例的大数据处理方法的主要流程的示意图;
图4是根据本发明实施例的大数据处理装置的主要模块的示意图;
图5是本发明实施例可以应用于其中的示例性系统架构图;
图6是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本发明涉及的技术领域是基于Hive和Spark,实现数据仓库的大数据处理,以满足数据集成大规模用数的需求。数据集成是数据仓库进行数据处理的基础,它的设计原则为快速加载、快速交付使用、尽可能不改变源数据结构、尽可能少做业务处理。数据集成是当数据以文件的形式加载入数据仓库后,对临时表进行数据初步加工的过程,历史数据查询、多维数据加工等都依赖于数据集成的结果。
图1是根据本发明实施例的大数据处理方法的主要流程的示意图。作为本发明的一个实施例,如图1所示,所述大数据处理方法可以包括:
步骤101,与计算引擎建立会话长连接。
可选地,步骤101可以包括:与Hadoop集群中的计算引擎建立会话长连接;其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。如图2所示,所述方法应用于由部署有SparkWeb组件的服务器组成的集群(即SparkWeb服务器集群),在本发明的实施例中,所述SparkWeb服务器集群与Hadoop集群中的计算引擎建立会话长连接,以减少客户端频繁启停虚拟机以及启停执行环境带来的额外开销,实现作业执行效率的提升。可选地,所述计算引擎为Spark分布式集群,所述Hadoop资源管理器为YARN。
如图2所示,本发明实施例采用基于Hive和Spark的大数据处理技术,核心部分为SparkWeb服务器集群,同时还依赖于原有数据仓库的Spark集群、作业调度集群、配置数据库、共享存储等配套设施。
SparkWeb服务器集群是由多台部署有SparkWeb组件的服务器、共享存储组成,是一种存储与计算分离的部署形态,SparkWeb服务器接收到来自作业调度集群的作业分配后,会从配置数据库读取该作业对应的配置信息,然后加载数据处理算法程序、数据加工程序、数据装载程序,最后读取此次作业计算所需要的数据。
SparkWeb组件能够实现对Spark前置服务的封装,构建一个spark-submit长连接连接池,并常驻在服务器中。数据处理程序基于yarn-cluster模式提交的带有具体计算逻辑的Spark SQL语句,会先进入spark-submit长连接池的队列,然后提交到Spark集群进行执行,以减少客户端频繁启停JVM及启停执行环境带来的额外开销,实现作业执行效率的提升。
可选地,与Hadoop集群中的计算引擎建立会话长连接,包括:启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;登录所述Spark分布式集群。可选地,登录所述Spark分布式集群,包括:调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
SparkWeb服务器集群从作业调度集群获取到所需运行的作业的相关信息(作业名、作业ID等),然后从配置数据库获取相关的信息:(1)从配置数据库获取作业的详细信息,包括源系统名、数据库表名、机构号、加载类型、业务日期、批次号等信息;(2)从配置数据库获取表的DDL信息;(3)到配置数据库获取目标db_access_id的信息,得到目标数据库名称,并生成stage区表名及生成Hive外部表建表语句;(4)对于多机构的情况,需要按照机构字段进行分区,然后使用SparkHttp组件进行如下处理,将文件上传到hdfs指定目录中,执行建表语句。
SparkWeb服务器集群从配置数据库中获取作业的相关信息后进行下列操作:(1)启动程序加载配置文件,初始化sparkSession;(2)调用spark java客户端,调用登录接口,获取sparkSession,并返回服务器初始化Yarn_ApplicationId。
步骤102,接收作业调度集群发送的SQL脚本。
与计算引擎建立会话长连接之后,SparkWeb服务器集群接收作业调度集群发送的SQL脚本。可选地,步骤102可以包括:接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
可选地,所述作业调度集群发送的SQL脚本采用如下方法得到:将作业配置信息写入数据加工作业模板;根据所述作用配置信息生成SQL脚本。可选地,所述作业配置信息包括加工作业流基础信息、作业基本信息和参数基本信息。可选地,所述加工作业流基础信息包括作业流组名、机构号、作业流启动方式、源应用、目标应用和应用模式名。可选地,所述作业基本信息包括作业名、程序名、作业处理参数数组、作业类型和作业执行计划。可选地,所述参数基本信息包括作业名、作业参数名、参数描述、参数关联的应用名。
具体地,由应用开发人员填写数据加工作业模板,进行数据加工的加工作业流基础信息、作业基本信息和参数基本信息等作业配置,配置后,经作业配置组件解析后,生成作业配置信息并传给作业配置,这个信息用于作业调度。作业调度在适应条件下将作业交给作业运行组件,作业运行组件根据用户定义的算法之间的关系、过滤条件、业务规则等参数,调用数据加工组件进行数据的处理。数据加工组件在运行时,会根据用户在数据加工作业模板中定义的处理规则,调用相应的加工算法,生成动态SQL脚本。
步骤103,将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
本发明实施例通过Hive和Spark的技术组合,并构建一个Spark连接池,用于接收应用提交的Spark作业,在Spark集群转译成一个连接中的多个Spark作业,在Yarn的资源调度下,访问HDFS数据,对外呈现就像是一个SQL数据,实现对进入Hive的大数据进行增删改查等操作。
可选地,步骤103可以包括:将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,包括:所述计算引擎对基于Hive构建的数据仓库的数据进行处理,将对数据的处理操作,转化为Hadoop体系的Hive和Spark的处理操作。可选地,所述计算引擎根据所述SQL脚本进行大数据处理,还包括:使用python脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库中。Spark集群对基于Hive构建的数据仓库的数据进行处理,将原有传统数据库中对数据的update、delete等处理操作,转化为Hadoop体系的Hive和Spark的insert、insert overwrite等处理操作,同时可使用python等脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库里。
可选地,步骤103之后,还包括:接收所述计算引擎返回的已注销的临时表的表名;清理httpSession中的临时表的表名。
如图2所示,本发明实施例基于Hive和Spark的大数据处理技术,可简化大数据并行计算集群的管理:由于关系型数据库、并行计算数据库的集群规模限制,进行了分库分表操作,形成了多个子集群,数据一致性复杂、作业管理复杂。而单个Spark集群可达到1000台以上的集群规模,可简化大数据的并行计算管理。因此,本发明实施例能够提升大数据资源的利用率:通过搭建一个超大规模的Spark集群,可以无需搭建多个子集群,从而降低关系型数据库及并行计算数据库的分库分表导致的数据冗余度,提升资源利用率。
根据上面所述的各种实施例,可以看出本发明实施例通过与计算引擎建立会话长连接,接收作业调度集群发送的SQL脚本,将SQL脚本提交至计算引擎的技术手段,解决了现有技术中作业执行效率低的技术问题。本发明实施例基于Hive和Spark的大数据处理技术,核心部分为由部署有SparkWeb组件的服务器组成的集群;SparkWeb组件实现了对Spark前置服务的封装,用于构建一个spark-submit长连接连接池,并常驻在服务器中;数据处理程序基于yarn-cluster模式提交的带有具体计算逻辑的Spark SQL语句,会先进入spark-submit长连接池的队列,然后提交到Spark集群进行执行,以减少客户端频繁启停虚拟机及启停执行环境带来的额外开销,实现作业执行效率的提升。
图3是根据本发明一个可参考实施例的大数据处理方法的主要流程的示意图。作为本发明的又一个实施例,如图3所示,所述大数据处理方法可以包括:
步骤301,启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession。
步骤302,调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
步骤303,接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
步骤304,将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表。
步骤305,接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
步骤306,接收所述计算引擎返回的已注销的临时表的表名。
步骤307,清理httpSession中的临时表的表名。
另外,在本发明一个可参考实施例中大数据处理方法的具体实施内容,在上面所述大数据处理方法中已经详细说明了,故在此重复内容不再说明。
图4是根据本发明实施例的大数据处理装置的主要模块的示意图,如图4所示,所述大数据处理装置400包括连接模块401、接收模块402和提交模块403;其中,连接模块401用于与计算引擎建立会话长连接;接收模块402用于接收作业调度集群发送的SQL脚本;提交模块403用于将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
可选地,所述连接模块401还用于:
与Hadoop集群中的计算引擎建立会话长连接;
其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。
可选地,所述计算引擎为Spark分布式集群,所述Hadoop资源管理器为YARN。
可选地,所述连接模块401还用于:
启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;
登录所述Spark分布式集群。
可选地,所述连接模块401还用于:
调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
可选地,所述提交模块403还用于:
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;
接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
可选地,所述提交模块403还用于:
将所述SQL脚本提交至所述计算引擎之后,接收所述计算引擎返回的已注销的临时表的表名;
清理httpSession中的临时表的表名。
可选地,所述接收模块402还用于:
接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
可选地,所述作业调度集群发送的SQL脚本采用如下方法得到:
将作业配置信息写入数据加工作业模板;
根据所述作用配置信息生成SQL脚本。
可选地,所述作业配置信息包括加工作业流基础信息、作业基本信息和参数基本信息。
可选地,所述加工作业流基础信息包括作业流组名、机构号、作业流启动方式、源应用、目标应用和应用模式名。
可选地,所述作业基本信息包括作业名、程序名、作业处理参数数组、作业类型和作业执行计划。
可选地,所述参数基本信息包括作业名、作业参数名、参数描述、参数关联的应用名。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,包括:
所述计算引擎对基于Hive构建的数据仓库的数据进行处理,将对数据的处理操作,转化为Hadoop体系的Hive和Spark的处理操作。
可选地,所述计算引擎根据所述SQL脚本进行大数据处理,还包括:
使用python脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库中。
可选地,所述方法应用于由部署有SparkWeb组件的服务器组成的集群。
根据上面所述的各种实施例,可以看出本发明实施例通过与计算引擎建立会话长连接,接收作业调度集群发送的SQL脚本,将SQL脚本提交至计算引擎的技术手段,解决了现有技术中作业执行效率低的技术问题。本发明实施例基于Hive和Spark的大数据处理技术,核心部分为由部署有SparkWeb组件的服务器组成的集群;SparkWeb组件实现了对Spark前置服务的封装,用于构建一个spark-submit长连接连接池,并常驻在服务器中;数据处理程序基于yarn-cluster模式提交的带有具体计算逻辑的Spark SQL语句,会先进入spark-submit长连接池的队列,然后提交到Spark集群进行执行,以减少客户端频繁启停虚拟机及启停执行环境带来的额外开销,实现作业执行效率的提升。
需要说明的是,在本发明所述大数据处理装置的具体实施内容,在上面所述大数据处理方法中已经详细说明了,故在此重复内容不再说明。
图5示出了可以应用本发明实施例的大数据处理方法或大数据处理装置的示例性系统架构500。
如图5所示,系统架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备501、502、503通过网络504与服务器505交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备501、502、503可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的物品信息查询请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,本发明实施例所提供的大数据处理方法一般由服务器505执行,相应地,所述大数据处理装置一般设置在服务器505中。
应该理解,图5中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图6,其示出了适于用来实现本发明实施例的终端设备的计算机系统600的结构示意图。图6示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括连接模块、接收模块和提交模块,其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,该设备实现如下方法:与计算引擎建立会话长连接;接收作业调度集群发送的SQL脚本;将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
根据本发明实施例的技术方案,因为采用与计算引擎建立会话长连接,接收作业调度集群发送的SQL脚本,将SQL脚本提交至计算引擎的技术手段,所以克服了现有技术中作业执行效率低的技术问题。本发明实施例基于Hive和Spark的大数据处理技术,核心部分为由部署有SparkWeb组件的服务器组成的集群;SparkWeb组件实现了对Spark前置服务的封装,用于构建一个spark-submit长连接连接池,并常驻在服务器中;数据处理程序基于yarn-cluster模式提交的带有具体计算逻辑的Spark SQL语句,会先进入spark-submit长连接池的队列,然后提交到Spark集群进行执行,以减少客户端频繁启停虚拟机及启停执行环境带来的额外开销,实现作业执行效率的提升。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (22)

1.一种大数据处理方法,其特征在于,包括:
与计算引擎建立会话长连接;
接收作业调度集群发送的SQL脚本;
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
2.根据权利要求1所述的方法,其特征在于,与计算引擎建立会话长连接,包括:
与Hadoop集群中的计算引擎建立会话长连接;
其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。
3.根据权利要求2所述的方法,其特征在于,所述计算引擎为Spark分布式集群,所述Hadoop资源管理器为YARN。
4.根据权利要求3所述的方法,其特征在于,与Hadoop集群中的计算引擎建立会话长连接,包括:
启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;
登录所述Spark分布式集群。
5.根据权利要求1所述的方法,其特征在于,登录所述Spark分布式集群,包括:
调用Spark java客户端,调用登录接口,获取SparkSession,返回服务器初始化Yarn_ApplicationId。
6.根据权利要求1所述的方法,其特征在于,将所述SQL脚本提交至所述计算引擎,包括:
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;
接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
7.根据权利要求6所述的方法,其特征在于,还包括:
接收所述计算引擎返回的已注销的临时表的表名;
清理httpSession中的临时表的表名。
8.根据权利要求1所述的方法,其特征在于,接收作业调度集群发送的SQL脚本,包括:
接收作业调度集群发送的SQL脚本,将所述放入spark-submit长连接池的队列。
9.根据权利要求1所述的方法,其特征在于,所述作业调度集群发送的SQL脚本采用如下方法得到:
将作业配置信息写入数据加工作业模板;
根据所述作用配置信息生成SQL脚本。
10.根据权利要求9所述的方法,其特征在于,所述作业配置信息包括加工作业流基础信息、作业基本信息和参数基本信息。
11.根据权利要求10所述的方法,其特征在于,所述加工作业流基础信息包括作业流组名、机构号、作业流启动方式、源应用、目标应用和应用模式名。
12.根据权利要求10所述的方法,其特征在于,所述作业基本信息包括作业名、程序名、作业处理参数数组、作业类型和作业执行计划。
13.根据权利要求10所述的方法,其特征在于,所述参数基本信息包括作业名、作业参数名、参数描述、参数关联的应用名。
14.根据权利要求1所述的方法,其特征在于,所述计算引擎根据所述SQL脚本进行大数据处理,包括:
所述计算引擎对基于Hive构建的数据仓库的数据进行处理,将对数据的处理操作,转化为Hadoop体系的Hive和Spark的处理操作。
15.根据权利要求14所述的方法,其特征在于,所述计算引擎根据所述SQL脚本进行大数据处理,还包括:
使用python脚本语言将SQL处理逻辑封装成批处理脚本,用来处理更新、删除的操作,最终将数据存储落地在Hive数据仓库中。
16.根据权利要求1所述的方法,其特征在于,所述方法应用于由部署有SparkWeb组件的服务器组成的集群。
17.一种大数据处理装置,其特征在于,包括:
连接模块,用于与计算引擎建立会话长连接;
接收模块,用于接收作业调度集群发送的SQL脚本;
提交模块,用于将所述SQL脚本提交至所述计算引擎,以使所述计算引擎根据所述SQL脚本进行大数据处理。
18.根据权利要求17所述的装置,其特征在于,所述连接模块还用于:
与Hadoop集群中的计算引擎建立会话长连接;
其中,所述Hadoop集群包括计算引擎和Hadoop资源管理器。
19.根据权利要求18所述的装置,其特征在于,所述连接模块还用于:
启动程序加载配置文件,初始化SparkSession,以与所述Spark分布式集群建立SparkSession;
登录所述Spark分布式集群。
20.根据权利要求17所述的装置,其特征在于,所述提交模块还用于:
将所述SQL脚本提交至所述计算引擎,以使所述计算引擎注册临时表;
接收所述计算引擎返回的所述临时表的表名,将所述临时表的表名缓存到httpSession中。
21.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,所述一个或多个处理器实现如权利要求1-16中任一所述的方法。
22.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-16中任一所述的方法。
CN202010772447.6A 2020-08-04 2020-08-04 一种大数据处理方法和装置 Pending CN112000734A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010772447.6A CN112000734A (zh) 2020-08-04 2020-08-04 一种大数据处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010772447.6A CN112000734A (zh) 2020-08-04 2020-08-04 一种大数据处理方法和装置

Publications (1)

Publication Number Publication Date
CN112000734A true CN112000734A (zh) 2020-11-27

Family

ID=73462876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010772447.6A Pending CN112000734A (zh) 2020-08-04 2020-08-04 一种大数据处理方法和装置

Country Status (1)

Country Link
CN (1) CN112000734A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347126A (zh) * 2021-01-05 2021-02-09 平安科技(深圳)有限公司 大数据处理方法、装置、设备及介质
CN112751938A (zh) * 2020-12-30 2021-05-04 上海赋算通云计算科技有限公司 一种基于多集群作业的实时数据同步系统,实现方法以及存储介质
CN112860683A (zh) * 2021-03-31 2021-05-28 中国工商银行股份有限公司 数据集实时清理方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104580392A (zh) * 2014-12-18 2015-04-29 百度在线网络技术(北京)有限公司 一种用于维持长连接的方法、装置与设备
CN109388667A (zh) * 2017-08-14 2019-02-26 中兴通讯股份有限公司 组件化大数据处理方法、系统及计算机可读存储介质
CN110262881A (zh) * 2019-06-12 2019-09-20 深圳前海微众银行股份有限公司 一种Spark作业的提交方法及装置
CN111061756A (zh) * 2019-10-16 2020-04-24 智慧足迹数据科技有限公司 数据平台、数据处理方法及电子设备
US20200151170A1 (en) * 2018-11-14 2020-05-14 Baidu Online Network Technology (Beijing) Co., Ltd. Spark query method and system supporting trusted computing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104580392A (zh) * 2014-12-18 2015-04-29 百度在线网络技术(北京)有限公司 一种用于维持长连接的方法、装置与设备
CN109388667A (zh) * 2017-08-14 2019-02-26 中兴通讯股份有限公司 组件化大数据处理方法、系统及计算机可读存储介质
US20200151170A1 (en) * 2018-11-14 2020-05-14 Baidu Online Network Technology (Beijing) Co., Ltd. Spark query method and system supporting trusted computing
CN110262881A (zh) * 2019-06-12 2019-09-20 深圳前海微众银行股份有限公司 一种Spark作业的提交方法及装置
CN111061756A (zh) * 2019-10-16 2020-04-24 智慧足迹数据科技有限公司 数据平台、数据处理方法及电子设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112751938A (zh) * 2020-12-30 2021-05-04 上海赋算通云计算科技有限公司 一种基于多集群作业的实时数据同步系统,实现方法以及存储介质
CN112751938B (zh) * 2020-12-30 2023-04-07 上海赋算通云计算科技有限公司 一种基于多集群作业的实时数据同步系统,实现方法以及存储介质
CN112347126A (zh) * 2021-01-05 2021-02-09 平安科技(深圳)有限公司 大数据处理方法、装置、设备及介质
CN112860683A (zh) * 2021-03-31 2021-05-28 中国工商银行股份有限公司 数据集实时清理方法、装置及系统
CN112860683B (zh) * 2021-03-31 2024-02-02 中国工商银行股份有限公司 数据集实时清理方法、装置及系统

Similar Documents

Publication Publication Date Title
CN112000734A (zh) 一种大数据处理方法和装置
CN111478781B (zh) 一种消息广播的方法和装置
CN110555068A (zh) 数据导出方法和装置
CN112597126A (zh) 一种数据迁移方法和装置
CN112398669A (zh) 一种Hadoop部署方法和装置
US10866960B2 (en) Dynamic execution of ETL jobs without metadata repository
CN116775613A (zh) 一种数据迁移方法、装置、电子设备及计算机可读介质
CN110764769B (zh) 处理用户请求的方法和装置
CN112306695A (zh) 数据的处理方法、装置、电子设备及计算机存储介质
CN111767126A (zh) 分布式批量处理的系统和方法
CN110347654B (zh) 一种上线集群特性的方法和装置
CN111984686A (zh) 一种数据处理的方法和装置
CN113779122B (zh) 导出数据的方法和装置
CN114490050A (zh) 一种数据同步方法和装置
CN109213815B (zh) 控制执行次数的方法、装置、服务器终端以及可读介质
CN113626472A (zh) 一种处理订单数据的方法和装置
CN113760240A (zh) 一种生成数据模型的方法和装置
CN111984616A (zh) 一种更新共享文件的方法、装置和系统
CN113312053A (zh) 一种数据处理的方法和装置
CN113448652A (zh) 一种请求处理方法和装置
CN113127416A (zh) 数据查询方法和装置
CN112988806A (zh) 一种数据处理的方法及装置
CN112214500A (zh) 数据对比的方法、装置、电子设备和存储介质
CN111177183B (zh) 一种生成数据库访问语句的方法和装置
CN113760886B (zh) 提供数据服务的方法、装置、设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220921

Address after: 25 Financial Street, Xicheng District, Beijing 100033

Applicant after: CHINA CONSTRUCTION BANK Corp.

Address before: 25 Financial Street, Xicheng District, Beijing 100033

Applicant before: CHINA CONSTRUCTION BANK Corp.

Applicant before: Jianxin Financial Science and Technology Co.,Ltd.

TA01 Transfer of patent application right