CN116627892A - 一种数据近存储计算方法、装置和存储介质 - Google Patents
一种数据近存储计算方法、装置和存储介质 Download PDFInfo
- Publication number
- CN116627892A CN116627892A CN202310628006.2A CN202310628006A CN116627892A CN 116627892 A CN116627892 A CN 116627892A CN 202310628006 A CN202310628006 A CN 202310628006A CN 116627892 A CN116627892 A CN 116627892A
- Authority
- CN
- China
- Prior art keywords
- calculation
- acceleration
- data
- task
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 143
- 238000003860 storage Methods 0.000 title claims abstract description 65
- 230000001133 acceleration Effects 0.000 claims abstract description 153
- 238000000034 method Methods 0.000 claims abstract description 37
- 230000014509 gene expression Effects 0.000 claims description 70
- 238000001914 filtration Methods 0.000 claims description 62
- 238000004458 analytical method Methods 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 42
- 238000007726 management method Methods 0.000 claims description 27
- 230000005540 biological transmission Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 22
- 238000013461 design Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 9
- 230000000903 blocking effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 17
- 230000007704 transition Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7807—System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
- G06F15/7821—Tightly coupled to memory, e.g. computational memory, smart memory, processor in memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7807—System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
- G06F15/781—On-chip cache; Off-chip memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Data Mining & Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种数据近存储计算方法、装置和存储介质。计算方法包括:S1、接收用户发起的数据库操作请求任务;S2、CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;S3、硬件加速器接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元;S4、计算单元计算完成后将计算结果放入存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。本发明打破了使用硬件进行加速时根据需求的变化而不断更改硬件底层逻辑的模式,理论上可实现任意形式的数据库近存储加速计算。
Description
技术领域
本发明涉及数据处理技术领域,更具体地说,特别涉及一种数据近存储计算方法、装置和存储介质。
背景技术
随着数据库本身的蓬勃发展,数据库技术也同时成为了计算机科学的一个研究领域。数据库技术作为研究数据库的一个领域,其主要的研究方向就是对数据的存储、使用和管理方式。随着数据体量膨胀,中央处理器CPU采用的串行流水的指令执行的形式实现数据处理的性能与其时钟频率等相关联,不能满足大数据的计算性能需求。在不考虑通过集群或分布式的方式实现高性能的情况下,利用异构计算的方式来提高计算性能已经成为技术发展的趋势。由于CPU优点主要在于调度、管理等方面,与协处理器相比,计算能力不是其优势。对于协处理器而言,接受CPU的调度,拥有并行计算的结构基础,利用高并发计算能力可以提高系统的性能。
近存储技术近年来作为计算机领域效能提升手段而备受关注,其主要思想是通过缩短计算单元和存储单元的距离,从而缓解访存带宽瓶颈,提升数据的互连系数,有效提高受限于带宽的芯片算力。近存计算往往通过在计算芯片内部集成更多的存储单元,或者增加存储单元和计算单元的带宽,来降低数据搬移的开销。
目前现有的技术中,专利号为201811547889.X的发明公开了一种基于FPGA的国产平台数据库加速系统及方法,主机包括CPU、PCIe驱动、HOST程,FPGA板卡通过PCIe接口与CPU连接;PCIe驱动程序,用于建立CPU和FPGA间的数据传输通路;HOST程序,用于负责操作分析和分配,使CPU将计算密集型任务卸载给FPGA去执行;FPGA芯片,用于将CPU卸载给的计算密集型任务进行执行操作。专利号为201911205056.X的发明公开了一种数据查询方法、系统、异构计算加速平台及存储介质,该发明是通过FPGA进行数据库加速,与前述专利系统架构相似,通信方式采用了异构缓存一致性协议,进一步的提升了数据传输的效率,从而提高数据库整体的执行效率。另外,公开号为CN113312415A的发明专利公开了一种用于数据库操作的近存储器加速,这专利阐述的存储器数据库库加速器主要是在存储器中加入计算单元,将数据和计算单元之间的数据传输距离尽可能的缩短,从而提高内存数据库整体的性能。
现有的解决方案中,前两种类型的方案下,FPGA内的加速功能单元相对固定,只能针对特定数据库特定的应用进行加速,加速功能单元内的加速模块也是固定的,不利于推广以及功能移植,具有一定的局限性;第三种方法更多是讲述数据传输延时降低带来的性能提升,并没有提到关于计算任务如何卸载、整个数据库管理系统的集成、加速单元模块的设计与调度以及针对硬件实现数据库多样化操作的灵活应对的方法,在实际应用中依然存在实操性差,不利于推广的问题。为此,确有必要开发一种数据近存储计算方法、装置和存储介质。
发明内容
本发明的目的在于提供一种数据近存储计算方法、装置和存储介质,以克服现有技术所存在的缺陷。
为了达到上述目的,本发明采用的技术方案如下:
一种数据近存储计算方法,包括以下步骤:
S1、接收用户发起的数据库操作请求任务;
S2、CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;
S3、硬件加速器接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元;
S4、计算单元计算完成后将计算结果放入存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。
进一步地,所述步骤S2中CPU端将请求任务进行解析具体为:利用资源管理部件根据请求任务进行解析。
进一步地,所述步骤S4中的计算单元一次计算任务完成,释放资源模块或者传递给其他加速卡计算单元,等待下一次计算任务或者开始其他加速计算单元的计算。
本发明还提供一种数据近存储计算装置,包括:
Host端,在用户发起的数据库操作请求任务时,利用CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;
硬件加速器,在接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元,在计算单元计算完成后将计算结果放入共享存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。
进一步地,还包括PostgreSQL数据库、PostgreSQL-加速器Hook回调插件和PostgreSQL-加速器中间件,所述PostgreSQL-加速器Hook回调插件cvd用于通过回调函数将查询请求信息进行转换后通过PostgreSQL-加速器中间件发给硬件加速器进行加速处理,计算完成后PostgreSQL-加速器中间件返回满足过滤条件的元组信息返给回调函数,PostgreSQL数据库继续执行;
所述PostgreSQL-加速器中间件包括一到多个工作者线程,从任务队列中取出任务执行,工作者线程根据任务信息将页面数据、元组描述符、过滤条件写入到加速器的存储单元,完成数据拷贝后,向计算单元提交申请,开始数据块的DMA写入。
进一步地,所述加速器Hook回调插件的处理流程为:
对PostgreSQL数据库的任务进行重编码,生成硬件可识别可执行的指令码流,包括计算任务解析信息、表结构信息以及控制信息;
所述计算任务解析信息的编码中,PostgreSQL数据对用户查询子句进行词法、语法解析后,将运算的过程以链表+树的数据结构进行描述,节点包括算术运算节点、比较运算节点和逻辑运算节点,
所述算术运算节点位于树结构的最下层,输入为元组中的列字段、常量或其它算术节点的结果,输出计算结果供上层节点使用;
所述比较运算节点位于树结构的中间,输入为下层算术运算的结果或SQL语句中的常量,输出计算结果供上层逻辑节点使用;
所述逻辑运算节点位于树结构的最上层,输入为下一层比较运算的结果,输出为布尔值,根节点的布尔值,用于判断该元组是否满足过滤条件;
所述表结构信息的编码中仅提取其中长度和对齐信息编码为元组描述符,以用于对硬件加速器解析部件的控制;
所述控制信息的编码包括需进行加速任务的数据源文件路径、用户操作的类型、操作条件个数、需要解析字段的列索引,用于硬件加速器核函数参数的设置。
进一步地,所述PostgreSQL-加速器中间件中工作者线程采用将数据分块处理、使用乱序执行实现对数据分块流水处理以及使用多个工作者线程的优化方法。
进一步地,所述硬件加速器包括控制单元、存储单元和计算单元,所述计算单元为多个,每个计算单元绑定独立的HBM缓存端口,每个计算单元内采用采用硬件流水性能优化方式,包括读取部件、数据表解析部件、过滤部件、正则表达式部件和回写部件;
所述读取部件从HBM缓存中读取元组描述符、过滤条件的控制和数据信息,元组描述符用于描述一个表中各个字段的对齐信息与长度信息,过滤条件由SQL语句中的where子句重编码转换而来,用于描述过滤计算的参数信息,数据表读取,多通路分时传输,分发给行列解析部件;
所述解析部件根据配置模块中的元组描述符与页面数据,解析出页面中元组的位置与长度,元组中列字段的偏移与列长度,将解析的结果送入过滤部件;
所述过滤部件根据配置模块中的过滤条件,计算元组是否符合过滤条件,将满足过滤条件的元组在页面中的位置与长度送入结果回写部件,若有正则表达式查询则送入正则表达式部件,计算完成后将结果送入回写部件;
所述正则表达式部件根据配置模块中的正则表达式匹配条件,判断元组是否符合匹配条件,将满足条件的元组在页面中的位置与长度信息送入结果回写部件,正则表达式部件在流水线中是可选流水站,如果SQL语句中有正则表达式查询则执行正则表达式部件,计算完成后将结果送入回写部件,否则跳过;
所述回写部件接收过滤部件或正则表达式部件的计算结果并统计满足条件的元组个数,将数据写回HBM内存中,传回中间件,PostgreSQL-数据库继续执行。
进一步地,所述读取部件采用多通道设计,所述解析部件采用流水行列数据解析。
本发明还提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的数据近存储计算方法的步骤。
与现有技术相比,本发明的优点在于:本发明打破了使用硬件进行加速时根据需求的变化而不断更改硬件底层逻辑的模式,理论上可实现任意形式的查询语句或过滤条件。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明数据近存储计算装置的实现框图。
图2是本发明共享内存连接图
图3是本发明数据库API计算库结构图
图4是本发明中重编码指令码流结构示意图。
图5是本发明中数据分块后执行时序图。
图6是本发明中硬件计算卡中数据库表解析和过滤逻辑微体系结构图。
图7是本发明中板卡间通信模块结构图。
图8是加速单元CU流水线结构图。
图9是本发明中PostgreSQL页面存储结构。
图10是本发明中数据库表解析功能单元结构图。
图11是本发明中过滤计算功能单元结构图。
图12是本发明中正则表达式匹配器工作流程。
图13是本发明中正则三要素的关系图。
图14是本发明中token和state的全连接图。
图15是本发明中复杂表达式分割为3个子表达式的示意图。
具体实施方式
下面结合附图对本发明的优选实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
参阅图1所示,本实施例公开了一种数据近存储计算方法,创新性提出了一种单机多加速卡近存储计算解决方案,加速任务不再使用单一加速卡完成,而是采用面向数据库硬件加速库的模式,每块板卡完成一种特定加速功能,通过多个加速设备共同完成,包括以下步骤:
步骤S1、在Host端,当用户发起的数据库操作请求任务时执行步骤S2。
步骤S2、CPU端将请求任务进行解析,利用资源管理部件根据请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务。
步骤S3、硬件加速器接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元。
步骤S4、计算单元计算完成后将计算结果放入存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。一次计算任务完成,释放资源模块,等待下一次计算任务。
本实施例中,数据库管理系统运行的服务器或者主机端Host与配备数据库处理器的设备之前通过高速接口互联,该接口根据处理器与存储器接口的形态而可进行修改,若处理器以PCIe板卡设备形态进行适配,那么二者之间通过PCIe接口互联;若加速器以SSD或NVMe的形式,则通过相应的协议进行通信。
参阅图1所示,本发明还提供一种数据近存储计算装置,包括:
Host端,在用户发起的数据库操作请求任务时,利用CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;
硬件加速器,在接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元,在计算单元计算完成后将计算结果放入存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。
本发明提出了近存储计算加速库API层次化的设计方法,API平台包括应用解析层、设备管理层、设备驱动层以及硬件加速层,层次化的设计使得每一层相对独立,方便移植和调用。
本发明提出的API平台包括应用解析层,应用解析层的表信息管理以及元组解析主要是对数据库的任务进行重编码,生成硬件可识别可执行的指令码流,主要涉及计算任务解析信息、表结构信息以及控制信息。
本发明提出的API平台包括硬件管理层,硬件管理层的功能是接收来自应用层的加速任务请求,根据加速任务的类型和数据体量评估硬件加速平台的承载情况,进行资源的调度与协调。面向数据库加速场景特点,提出了设备管理层动态维护设备信息表的方法,实时更新硬件的使用状态,可以方便快捷将应用层的加速任务卸载至硬件加速卡。
本发明提出的API凭条包含设备驱动层,设备驱动层是完成加速卡的驱动工作,包括配置接口信息、数据传输启动配置等。
为了降低数据搬移带来的数据延时,本发明提出了一种多加速卡共享内存的网络传输模型,主机只需要将数据库数据搬移到共享内存,所有加速卡分时复用共享内存,共享内存与主机端内存统一编址,支持CPU缓存一致性。
为了降低数据主从模式的传输瓶颈问题,本发明提出了一种板卡间三维网络数据传输方法,避免了反复传输带来的性能损失和拥塞瓶颈。
本发明提出了一种面向近存储计算硬件加速库模式的拓扑结构,3D-Near拓扑结构,这种结构下,星形的中间节点是共享内存,正方体的八个节点是8块近存储计算卡。
本发明中的拓扑结构下,通过两两连接以及互联的路由结构,可以实现全节点的全连接,实现全网节点的互连互通。
本发明为了实现全节点的全连接,制定了一种通信协议,在该协议的指导下,可以完成路由算法的实现。
本发明中的加速卡节点,除了完成数据库卸载的加速任务,还具备路由器的功能,以转发其他节点的通信信息。
每个加速卡中的路由器模块包含3-8条虚通道、状态解析以及路由算法实现功能。
发明提出了一种固定的路由算法表,该算法表避开了与主机互连的节点1的转发功能,每个加速卡节点在进行任务转发时按照路由表所规划的路径即可,不需要实现路由算法,以减少逻辑资源的消耗。
本实施例还包括PostgreSQL数据库、PostgreSQL-加速器Hook回调插件和PostgreSQL-加速器中间件。
PostgreSQL-加速器Hook回调插件和PostgreSQL-加速器中间件和硬件加速器整体组成加速系统。
PostgreSQL-加速器Hook回调插件的设计如下:
以往的技术中,通过用户自定义函数UDF(User Define Function)的方式将硬件加速器的算子集成到样就导致对用户层的不透明以及无法兼容不同的硬件平台,通用性差。本发明利用PostgreSQL-加速器Hook回调插件,将将查询过程中所执行的代码逻辑进行重载,在不修改源码的情况下实现用户的自定义功能,进而实现对原生SQL语句的支持。该PostgreSQL-加速器Hook回调插件用于通过回调函数将查询请求信息进行转换后通过PostgreSQL-加速器中间件发给硬件加速器进行加速处理,计算完成后PostgreSQL-加速器中间件返回满足过滤条件的元组信息返给回调函数,PostgreSQL数据库继续执行。其具体的处理流程如图2所示,即加速器Hook回调插件的处理流程为:
对PostgreSQL数据库的任务进行重编码,生成硬件可识别可执行的指令码流,包括计算任务解析信息、表结构信息以及控制信息。
计算任务即SQL语句中具体的用户操作请求,包括读取、解析、过滤、连接、分组、排序、聚合以及正则表达式等。所述计算任务解析信息的编码中,PostgreSQL数据对用户查询子句进行词法、语法解析后,将运算的过程以链表+树的数据结构进行描述,节点包括算术运算节点、比较运算节点和逻辑运算节点,数据结构中三种运算节点的组织如下:
所述算术运算(加、减、乘、除)节点位于树结构的最下层,输入为元组中的列字段、常量或其它算术节点的结果,输出计算结果供上层节点使用。
所述比较运算(大小比较等)节点位于树结构的中间,输入为下层算术运算的结果或SQL语句中的常量,输出计算结果供上层逻辑节点使用。
所述逻辑运算(与、或)节点位于树结构的最上层,输入为下一层比较运算的结果,输出为布尔值,根节点的布尔值,用于判断该元组是否满足过滤条件。
表结构信息描述了表中各字段包含的属性信息,也就是数据库源数据中TupleDesc数据结构。该数据结构包含比较多的信息,本发明的表结构信息的编码中仅提取其中长度和对齐信息编码为元组描述符,以用于对硬件加速器解析部件的控制。
所述控制信息的编码包括需进行加速任务的数据源文件路径、用户操作的类型、操作条件个数、需要解析字段的列索引,用于硬件加速器核函数参数的设置。
PostgreSQL-加速器中间件进程中会将原始数据、解析过滤的结果,分块组织存放在存储器中,也就是离计算单元最近的存储器中。中间件进程完成一个数据块的处理后,会通过Socket向Hook发送处理完成信号,Hook进程根据消息中的地址信息进行访存,将符合查询条件的元组信息返回给Host,完成扫描节点的重载处理。
本发明为了灵活支持SQL语句,在硬件加速器中实现复杂的表达式计算,创新性的提出了一种实现方式:由软件对“链表+树”数据结构进行遍历,同时统计分析其中包含的算数运算、比较运算、逻辑运算节点个数以及依赖关系,并将节点按照深度降序排列,每一层生成可并行的多指令组,不同层的多指令组顺序执行,最后是完成逻辑的单指令组,指令全部完成后得到过滤结果。
所述PostgreSQL-加速器中间件的设计如下:
为了从整体上实现性能的提升,Host侧需要从数据传输、内存管理、消息同步等方面进行性能优化。本发明提出的PostgreSQL-加速器中间件程序通过数据分块、多线程等技术来提高整体性能。PostgreSQL-加速器中间件中有一到多个工作者线程,从任务队列中取出任务执行,工作者线程根据任务信息将页面数据、元组描述符、过滤条件写入到加速器的存储器,完成数据拷贝后,向计算单元(CU)提交申请,开始数据块的DMA写入。为优化中间件执行效率,工作者线程使用如下优化方法:
一是将数据分块处理,降低处理过滤结果的延迟。通常情况下,根据硬件加速器存储单元和计算单元的特性,将原本为每个计算单元分配的128MB的页面存储空间进行更小分块处理,可以尽早开启对数据的传输与计算操作,以降低数据传输等待的时间,从而提高传输效率,图3位数据分块后任务执行的时序图。
二是使用乱序执行实现对数据分块流水处理,提高带宽利用率。由于数据库中数据块有如下特点:数据块的DMA传输与硬件加速器计算没有相互依赖关系;计算单元之间的数据传输与计算操作没有相互依赖关系,因此可以采用乱序执行,使传输与计算流水执行,从而提升整体执行效率。
三是使用多个工作者线程,提高带宽降低拷贝延迟。异构系统的瓶颈是数据传输,总体性能会受限于总线访问速度,对于多CPU的体系架构,可配置多个工作者线程同时工作,提高有效吞吐率。工作者线程数量与CPU使用率、整体性能之间的关系。
所述硬件加速器包括控制单元、存储单元和计算单元,控制单元,用于加速任务队列的管理、调度和分配;存储单元,用于存储待操作的数据库源数据;加速单元,具体实现计算任务的模块,并行分布了多个正则表达式匹配器、查询器、过滤器以及其他扫描、Hash等运算模块。
以下对加速器的关键部件,计算单元进行重点描述。通常使用硬件专用加速器实现时,会将行数据解析与待加速的操作放在一个模块内顺序执行。以过滤操作为例,计算单元按字节读取行数据,遇到需要过滤的列字段时,执行过滤条件的判断,处理效率较低。本发明采用硬件流水性能优化方式,将数据的读取、解析、过滤、写回设计成四个功能模块,以流水方式执行,微体系结构如图4所示,包含多个计算单元(CU),为了减少计算单元并行执行时对内存的竞争,每个计算单元绑定独立的HBM缓存端口。
所述计算单元为多个,每个计算单元包括读取部件、解析部件、过滤部件和回写部件,所述读取部件从HBM缓存中读取元组描述符、过滤条件等控制和数据信息,元组描述符用于描述一个表中各个字段的对齐信息与长度信息,过滤条件由SQL语句中的where子句重编码转换而来,用于描述过滤计算的参数信息,数据表读取,多通路分时传输,分发给行列解析部件。所述解析部件根据配置模块中的元组描述符与页面数据,解析出页面中元组的位置与长度,元组中列字段的偏移与列长度,将解析的结果送入过滤部件。所述过滤部件根据配置模块中的过滤条件,计算元组是否符合过滤条件,将满足过滤条件的元组在页面中的位置与长度送入结果回写部件,若有正则表达式查询则送入正则表达式部件,计算完成后将结果送入回写部件。所述回写部件接收过滤部件或正则表达式部件的计算结果并统计满足条件的元组个数,将数据写回HBM内存中,传回中间件,PostgreSQL-数据库继续执行。
所述正则表达式部件根据配置模块中的正则表达式匹配条件,判断元组是否符合匹配条件,将满足条件的元组在页面中的位置与长度信息送入结果回写部件,正则表达式部件在流水线中是可选流水站,如果SQL语句中有正则表达式查询则执行正则表达式部件,计算完成后将结果送入回写部件,否则跳过。
本发明采用多通道并行数据读取,为了最大程度发挥硬件的并行优势,减少传输单元和执行单元的竞争,在多个并行计算单元间做了数据传输优化,读取部件采用多通道设计,支持2-16个HBM片内存储通道,保证数据的读写可以同时进行,即传输和计算可以同时运行,数据传输采用16MB、32MB或64MB的大小DMA传输,完成DMA操作后产生中断信号发给数据库和数据派发逻辑,并切换到其他通道读写数据。在加速逻辑中,页表大小为8KB,每个处理单元对应两个Page页RAM缓存,完成一个页的处理后,切换到另一个页处理,同时进行数据读取和处理,保证数据的有效吞吐率。
本发明采用定制化流水行列数据解析,PostgreSQL使用行存储模式存放每一行记录,在页面的固定偏移位置,使用:①页面行数字段,使用特定计算规则,记录页面中存放的元组个数。每插入一行新的记录,记录的原始数据会封装为元组,从页面的底部向顶部方向逐个存放;②元信息,从页面固定偏移开始,向底部方向逐个存放元组的元信息,元信息包含了该元组在页面中的行偏移(bit0-bit14)、行标记(bit15-bit16)和行长度(bit17-bit31),页面存储数据结构如图5所示。
元组中头部包含了原始数据的起始位置,从起始位置开始依次存放了各个列字段的数据。列字段有定长与变长两种类型,其存储方式有行内、行外、压缩、非压缩几种方式,本发明将主要研究常用的行内非压缩存储方式。
在表创建时,会生成元组描述符,用于描述元组中每个列字段的长度与对齐方式。元组描述符中attalign变量用于标记对应列字段的对齐方式,attlen变量用于标记对应列字段的长度。Page内包含的行数以及每行的长度是不确定的,对于变长数据,硬件中,比如FPGA中较难并行处理。本发明创新性的提出了在硬件中直接解析PostgreSQL原始数据帧,支持不定长数据的处理。以TPC-H Q6为例,FPGA解析一个完整元组需要30个时钟周期,有较好的加速效果。元组解析部件根据中间件配置的控制信息和页表包含的行地址/行偏移信息等,对元组中列字段进行解析,将解析后的数据存放行列指示信息存储器RAM中,RAM的地址是行号加列号、RAM中的内容是列数据的起始位置以及长度信息。根据这些信息,后续计算模块即可在Page数据存储器中读出不定长的数据。
本发明采用并行流水计算单元,根据加速任务的不同,调用的计算模块不同,根据不同硬件资源的情况,设计最大的规模运算单元,并反馈给软件,软件在进行码流设计时会根据硬件支持情况进行调整。
以过滤计算为例进行详细描述,过滤计算功能单元结构图如图6所示,中间件将过滤条件重编码的指令队列存入缓存中,硬件收到指令流数据后,首先解帧格式,从帧头中得到操作指令的个数,以操作指令的顺序为地址,按照各类算子的划分,把各类算子的配置信息存入RAM。
下面详细介绍正则表达式匹配器的详细设计单元,本发明提出的解决方案依赖于将正则表达式转换为非确定性有限状态自动机(NFA)的技术。使用NFA的好处是,多个状态可以同时处于活动状态,输入字符可以在恒定时间内触发许多不同的状态转换,这在软件中是不可能的。与大多数相关工作不同是,在数据库域中,正则表达式通常用于搜索文本,而不是对数据包内容进行匹配。自然文本通常包含较长的单词或句子,在匹配时即便使用NFA,也可能导致较高的状态计数,因为每个字符都转换为一个状态。在本发明中中,将字符匹配与NFA状态转换逻辑分开,并允许字符序列作为单个令牌进行匹配。字符的范围(例如[0-9])只是作为一种特殊字符,也可以是令牌的一部分。正则表达式匹配器内部的这种解耦直接定义了电路的两个合成时间参数:它可以识别的最大字符数和NFA可以包含的最大状态数。将正则表达式的特定实例部署到硬件的流程是:首先,使用Perl library2将正则表达式转换为NFA表示;然后,使用C++程序,从这个NFA中提取所有由令牌表示的字符序列,并将相应的状态压缩为单个状态;基于NFA的这种压缩形式和字符序列,设置驱动FPGA的配置。
正则表达式匹配器每个周期处理1个字节,为了获得更高的吞吐量,并行部署了多个匹配器,并使用512位宽的FIFO分发输入数据。输出在16位宽的FIFO中收集,以循环方式读取,并写入内存页。每个输出值都是一个16位无符号整数,如果匹配,则为匹配结束时的字节位置,否则为零。正则表达式匹配器的工作流程如图7所示。
本发明中提出硬件计算功能包含数据读取、数据库全表解析、投影、过滤。其中过滤包括比较,算术运算,正则表达式匹配等操作。数据库加速计算库还可以包括Group分组-聚合、排序、哈希计算、多表连接等其他操作。
本发明还提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如实施例所述的数据近存储计算方法的步骤。
本发明打破了使用硬件进行加速时根据需求的变化而不断更改硬件底层逻辑的模式,理论上可实现任意形式的查询语句或过滤条件。
本发明近存储计算加速库API层次化的设计方法如下:
本发明引入多块FPGA卡的协同工作的方法,并将每块加速卡实现的任务封装为API计算库,多块FPGA加速卡组成的API加速簇作为CPU的卸载库,根据数据库的加速需求设置相应的库模块,完成加速任务,提升数据库的整体性能,下面将详细介绍计算库API加速簇的具体设计方法。
数据库加速API平台自下而上分为硬件板卡层、设备驱动层、硬件管理层、加速应用解析层。平台内部从上到下完成调用加速操作并完成下层硬件加速卡的调用及管理。用户发出操作请求后,加速应用解析层首先根据任务的类型判断是否需要将任务卸载至硬件,若需要则将任务进行解析并编译为适合FPGA硬件执行的命令下发给硬件管理层,同时启动将数据库源数据传输到硬件加速平台的共享内存中;硬件管理层在接受到任务请求后,根据任务类型进行分配和调度,选择要使用的加速卡并启动加速卡执执行加速任务;设备启动层是软件与硬件之间的桥梁,负责将命令、数据等信息传输到硬件并对硬件进行相关的配置,以驱动板卡正常工作;被调用的硬件加速卡接收到任务请求后,从共享内存中读取源数据进行计算,计算完成后通知软件计算完成;计算完成的信息再层层反馈给加速应用解析层,继续判断是直接读取计算结果或启动其他类型计算任务,至此一次数据库操作计算完成,等待或执行下一次计算任务。加速库API平台的结构图如图3所示。
数据库加速API平台在本发明提出的方案中起到承上启下的作用,其对上层数据库应用提供数加速库应用程序编程接口,对下层多个加速卡进行任务分配、资源协调与调度以及加速任务的分配。从主机Host来看每个API是独立的计算卡,主机控制数据的输入和完成计算后的输出,主机通过统一地址编址的共享内存和板卡间数据传输,来协同各个API操作。
本发明将加速库平台分为三个层次,这种层次化的结构将各层进行分装,以实现信息的隔离,方便扩展和应用。下面对几个层级展开详细的描述。
应用解析层设计,应用层主要的功能是为上层数据库提供支持多种硬件加速的加速功能的API,如正则、过滤、排序、哈希、计算等操作。如果平台没有相关硬件实现对应的加速功能,则不提供相应的API,当用户有相关需求时,会通知数据库使用原有的CPU方式完成。在系统开始阶段,应用层向硬件管理层申请调用加速功能,如果申请成功,表示硬件加速层支持当前功能的加速,可以进行任务卸载,申请使用成功后,上层可调用对应的数据库加速IP核函数,实现用户需求的数据库模块硬件加速。除了特定的与数据库操作有关的加速任务库,还有一些通用库,比如数据库源数据的读取与传递、计算结果读取等接口供上层调用,已完成完整的计算任务的卸载与实现。
应用层的表信息管理以及元组解析主要是对数据库的任务进行重编码,生成硬件可识别可执行的指令码流,主要涉及计算任务解析信息、表结构信息以及控制信息。
计算任务指令编码,计算任务即数据库操作语句中具体的用户操作请求,包括读取、解析、过滤、连接、分组、排序、聚合以及正则表达式等。通常情况下,数据库管理软件对用户查询子句进行词法、语法解析后,将运算的过程以“链表+树”的数据结构进行描述,节点包括算术运算节点、比较运算节点和逻辑运算节点。数据结构中三种运算节点的组织如下:
1)算术运算(加、减、乘、除)节点,位于树结构的最下层,输入为元组中的列字段、常量或其它算术节点的结果,输出计算结果供上层节点使用;
2)比较运算(大小比较等)节点,位于树结构的中间,输入为下层算术运算的结果或SQL语句中的常量,输出计算结果供上层逻辑节点使用;
3)逻辑运算(与、或)节点,位于树结构的最上层。输入为下一层比较运算的结果,输出为布尔值。根节点的布尔值,用于判断该元组是否满足过滤条件。
表结构信息编码,表结构信息描述了表中各字段包含的属性信息,也就是数据库源数据中行数据结构。该数据结构包含比较多的信息,本发明根据实际需求仅提取其中长度和对齐信息编码为元组描述符,其用于对硬件加速器解析部件的控制。
控制信息编码,控制信息包括需进行加速任务的数据源文件路径、用户操作的类型、操作条件个数、需要解析字段的列索引,用于硬件加速器核函数参数的设置等。
应用层的主要功能就是理解用户的需求,将可使用硬件进行加速的任务进行解析,并将重组后的码流发给硬件管理层以启动相应的硬件加速任务。
硬件管理层设计,硬件管理层的主要工作是接收来自应用层的加速任务请求,根据加速任务的类型和数据体量评估硬件加速平台的承载情况,进行资源的调度与协调,合理将任务分配到不同的加速卡中,避免加速卡的空载或过载,完成硬件加速卡的管理、状态监测和任务分配的工作。硬件管理层需要动态维护硬件设备状态信息表,如表1所示。
表1硬件加速卡设备状态表
此外,硬件管理层还负责管理共享内存的使用,对于多卡同时工作的情况,数据库数据存在共享内存中,通过控制计算卡对共享内存的访问,完成计算数据的输入和结果的输出。
设备驱动层设计,设备驱动层的主要功能是驱动加速器接口,控制加速卡正常工作,主要通过PCIe或其他总线协议,通过控制总线配置加速卡的寄存器信息,如启动板卡工作、获取板卡信息、读取指令以及写入指令等。
面向数据库近存储计算的多加速卡共享内存的网络传输模型
为了提高实际数据中心中数据库管理系统的加速效果,本发明提出的方案中,每个加速卡使用专卡专用的方式,每块加速卡根据卡内的逻辑资源设计对应数据库的加速任务,并将计算资源根据加速任务的特点和资源的使用情况,进行资源最大化的设计,每块加速卡完成唯一的计算任务。硬件计算库不限于正则查询、Group分组-聚合、排序、哈希、多表连接、计算、过滤和全表扫描等功能。本发明以8块计算卡和数据库表解析、过滤和正则表达式查询为例进行加速库的设计说明。
多加速卡共享内存设计,本发明提出的拓扑结构如图1所示,通过CXL异构缓存一致性协议互连,硬件计算卡与DDR通过CXL Switch芯片进行数据通信;如果是FPGA加速卡,那么主机与其中一块加速卡连接,这块加速卡作为管理及仲裁者,负责转发从主机来的命令和数据,计算设备间遵循CXL异构缓存一致性协议进行互连,保证缓存的一致性和统一内存编址。
FGPA加速卡拓扑结构设计,本发明提出的API加速簇的最大特点是由一组加速卡完成全备的数据库加速任务,最大的挑战就是这组加速卡的互联互通方式,不仅决定了任务的串行执行方案同时也限制了加速的优化效果。本发明在充分考虑数据库的工作特性以及数据的流转方式的条件下,提出一种3D-Mesh加星状的拓扑结构,本发明称为3D-Near拓扑结构,下面将详细介绍这种结构的实现方式。
3D-Near拓扑结构,本发明提出的拓扑结构如图1所示,立方体的8个节点代表8块加速卡,中间的节点是共享内存。图中,主机与其中一个加速卡连接,这块加速卡A作为“中继站”,负责转发主机侧的加速请求并将加速任务分配给其他加速节点,同时负责将数据库的数据转存到共享内存中。该节点除了转发的功能也会承担一些相对消耗资源较少的加速任务。
中间的共享内存设计为星状的方式与所有的加速卡节点进行互联,主要是考虑到当加速任务是多节点并行进行时,数据只需要从数据库中传输一次到共享内存中,各个加速节点计算时分时复用共享内存的数据即可,不需要重复多次的进行耗时非常大的数据搬移操作。
加速卡之间采用正方体的连接方式,主要是考虑到当加速任务是多节点串行进行时,上一块加速卡的计算结果直接传递给下一个加速卡进行相应的加速任务,以此类推;当所有节点计算完成后,将结果写回共享内存,再通过中转加速卡A将最终的结果反馈给主机。对于不能直连的节点来说,通过路由的方式完成全节点的全连接,具体的路由表在5.3节中进行详细介绍。
硬件计算功能与互连设计,如前所示,加速集群的每个加速节点除了需要完成特定的加速任务外,还需要具有路由器的功能,负责转发节点间的互联消息,完成所有节点全连接,加速卡的逻辑功能如图7所示。
除了与主机相连的加速卡外,其他每个加速卡与另外三个加速卡互联,标记为加速卡x、加速卡y和加速卡z,需要通过路由器传输的信息包括由主机发来的控制信息(启动加速卡)以及中间计算的结果。路由器模块中的状态解析模块负责对从路由通道传输的信息进行解析,通过源节点和目的节点的地址信息判断当前数据是否需要转发,若不需要转发,则进一步进行解析,若需要转发,则根据目的节点的地址信息和路由表的信息,向下一个节点转发。
目的地是本地节点的情况下,根据协议解析继续接收到的信息是控制信息还是中间结果信息,若是控制信息,则根据控制指令,启动相应的加速模块,计算完成后将结果通过路由节点反馈给主机;若当前接受的信息是中间计算结果,则根据中间结果提供的数据所在位置信息,从DDR中读取数据,启动相应的加速模块,计算完成后将结果通过路由节点反馈给主机,当前计算完成,等待下次计算任务或者路由转发任务。
路由协议及路由算法实现,如前所述,在加速卡集群执行加速任务时,主机端设备管理层根据硬件加速卡的资源情况,分配加速任务以及路由协议到加速卡中。设备管理层根据实时维护和状态更新的设备信息表,将加速任务分配到指定加速卡中,在路由协议表中,源节点地址代表任务发起者,可以是主机节点也可以是其他数据卡节点;目的节点代表最终进行加速计算任务的加速卡;源数据来源代表待计算的数据是从共享内存中获取还是从上一个节点的计算机结果中获取;计算结果路径代表当前计算结果写回共享内存还是传递给下一个计算节点;路由表信息代表具体的路由信息,每个节点根据路由表信息进行任务和协议信息的转发和传递。路由协议的协议由图4的路由模块完成。
本发明的8个计算节点最远的跳数为3跳,对于非相邻的节点,选择路径方式为X轴→Y轴→Z轴的路由方式,为了减轻节点1的转存压力,在其他节点间互传时不经过节点1,从其他路径走,这也是选择这种拓扑结构的优势,以图三中的节点标号为例,路由信息表如表2所示:
表2路由信息表
源\目的节点 | 节点1 | 节点2 | 节点3 | 节点4 | 节点5 | 节点6 | 节点7 | 节点8 |
节点1 | ~ | 1→2 | 1→3 | 1→2→4 | 1→5 | 1→2→6 | 1→3→7 | 1→2→4→8 |
节点2 | 2→1 | ~ | 2→4→3 | 2→4 | 2→6→5 | 2→6 | 2→4→3→7 | 2→4→8 |
节点3 | 3→1 | 3→4→2 | ~ | 3→4 | 3→7→5 | 3→4→8→6 | 3→7 | 3→4→8 |
.. | .. | .. | .. | .. | .. | .. | .. | .. |
表2中给出了3个节点的路由信息,其他节点使用类似的方式即可。在使用中,为了简化逻辑的计算,会将路由表信息在通过通信协议下发给加速卡,加速卡通过解析协议内容获取路由信息,根据路由表信息项下一个节点直接发起转发请求即可。
数据库表解析模块,模块体系结构如图10所示,主要功能是将数据库关系表中的每行数据的每一列解析出来,输出包括页号、行号、列号、列起始地址、列长度和列数据等。数据流是1、从配置存储器中分别取出静态列属性个数和动态列属性个数,因为存在用户手动添加/删除列属性的情况,所以取两者之间的小值作为当前行包含的列属性个数N;兼容数据库存储结构,从行控制信息中获取到用户数据data的偏移量,取出用户数据data逐列进行解析;读取控制信息中的空值表示信息,若有空值列,使用空值向量信息,判断如果是空值继续下一列的解析,若不是空列,按照数据库存储结构,解析当前列属性。
1、从页头获取行指针,作为初始值传递给行列数据解析模块,生成行数据访存地址;2、行数据采用两个独立的RAM存储,分为高地址UP部分和低地址DOWN部分,处理数据的宽度是RAM_UP的数据宽度加上RAM_DOWN的数据宽度,滑动窗口的长度根据配置信息可以按照字节、字、双字、变长length等长度滑动,当窗口指针在低字节时,两个行数据RAM的访存地址相同,当窗口指针在高字节时,RAM_DOWN的访存地址加1,使整体的数据宽度向前滑动了一个RAM的数据宽度;3、取到行数据后,根据行的对齐模式,第二次形成访问行数据RAM的地址;4、数据访问完成后生成列数据Result和下一列的指针Tp_next,传递给模块起始位置,循环处理,直到这一行中的所有列解析完成,开始第二行的解析。
过滤计算功能模块,微体系结构如图11所示,主要功能是完成将SQL语句中的WHERE条件过滤操作,通过软硬件协同设计,设计表达式编译器,将表达式翻译成独立的指令码,指令码结构如图12所示,在芯片配置阶段将指令码流配置到该模块的指令码RAM和立即数RAM中,行列数据解析或多表连接完成后启动该模块,各模块间流水线化设计,满足条件即可运行启动。
正则表达式匹配功能模块,目前使用FPGA实现正则表达式的方案中,都是支持固定的正则表达式,逻辑设计好编译后将可执行文件下载至硬件运行,这种方式应用在正则表达式固定不变的场景下可以,但是对于数据库这种需要用户频繁操作更换正则表达式的情况下就非常不合适,每次需要重新设计逻辑重新编译下载,严重影响系统效率和用户体验。所以本发明提出一种可动态配置正则表达式的方案,每次通过寄存器将控制帧在线传递给FPGA,约定支持的最大字符数和最大状态数以及正则三要素的信息即可,具体实现过程描述如下:先通过软件将正则表达式转换为基于NFA的(Nondeterministic FiniteAutomata,非确定性有限状态自动机)状态转移关系,并将相关信息通过编码后发送给FPGA,FPGA根据相关的信息完成正则的匹配。
正则的三要素包括字符(token)、触发条件(trigger)和状态(state),Token代表正则表达式要过滤的字符,通过子帧中的这些字符建立字符搜索引擎,只有包含这些字符的表达式才有可能满足正则匹配,否则不匹配;Trigger代表字符与跳转状态之间的对应关系,在输入某个字符下,转态会跳转到哪个状态,这部分信息给到FPGA后,作为状态转移的条件,驱动有限状态机的正常跳转;State体现了状态之间的跳转,每个状态的跳转不仅仅取决于前一个状态,还与触发条件有关,这部分的配置信息体现状态间的跳转关系。三者间的关系通过一张表来进行表述,以正则表达式(a|b)*aba*b为例,其关系表如图13所示:
图13中,T1代表字符“a”,T2代表字符“b”,字符T1或T2的输入,会触发状态跳转到S0或S2,T1的输入会触发状态跳转到S1,T2的输入会触发状态跳转到S3,因此四个状态都是有效的;而对于某个有扇出的两个状态,到底会进入哪个状态与图中右半部分状态之间的转移图有关,通过上述的表,即可完成正则表达式的匹配功能。
由于硬件的特性,不能无限制的支持所有的正则表达式的所有情况,所以目前大部分的方案设计时会做一些限制,会限制输入字符的最大个数、跳转状态的最大个数。而为了发挥FPGA的并行性,硬件实现时会并行同时执行多个正则表达式的逻辑,为了尽可能多的支持正则表达式中的token和state,即保留其多样性,会将这个限制放的比较宽比较大,这样做势必会带来资源的浪费,对于大部分正则表达式来说肯定用不到所有的字符和状态,但是硬件在设计时必须按照所有的状态来进行设计以动态支持某一个场景下的所有正则表达式。所以为了避免资源的浪费,本发明提出一种基于“簇”的有效解决方案,每个簇包含一组小数量token和state,逐级的增加,直到某一个簇可以支持到最大的字符数和状态数,但是每一种簇都只有一个,这样就可以大大减少资源的消耗。下图14以四个token和state为一个簇、10个token和state为一个簇以及20个token和state为例进行说明:
图14中表示token和state的全连接,在逻辑设计时状态间是全连接的物理状态,但具体到每个正则表达式的实际连接,通过控制帧发送的相关信息进行选择,图中使用黑色实线表示,虚线代表未被选中的连接。
从上面的分析可以看出,当正则表达式包含的字符数以及状态很多时,需要维护的控制帧将会是非常庞大的一个表,在FPGA中也会消耗很大的资源,在硬件资源固定的情况下,其支持的正则的个数就会受到限制。为了支持更多的正则表达式,需要对设计方案进行优化设计,本发明提出了以下两种优化方式。
合并字符,对于关键因素之一的字符,其数量不仅影响逻辑设计时对应的比较器的个数,也直接影响了全连接边数呈指数级的增加。将固定的字符组合或者基本表达式作为一个字符来表示。比如字符串“text”可以为一个字符,“ab”也可以作为一个字符,这样处理后,状态之间的跳转会大大减少。
合并“簇”,如前所述,本发明为了最大限度节省资源,每个簇内包含的token和state的数量是不一样的,在匹配不同的正则表达式时可以根据实际进行配置选用不同规模的“簇”来实现正则匹配,当遇到一个比较复杂的正则表达时目前逻辑设计的“簇”的数量无法满足要求时,可以不用重新设计,而是通过合并“簇”的方式进行,通过将复杂的正则表达式分割成一个个小的表达式,每个表达式放到一个簇里面实现,随后将所有的结果串联起来,完成最终的匹配。通过这种方式可以完成大规模的正则匹配,而不需要重新修改逻辑,可大大提高整体的效率。实现过程如下图15所示:
虽然结合附图描述了本发明的实施方式,但是专利所有者可以在所附权利要求的范围之内做出各种变形或修改,只要不超过本发明的权利要求所描述的保护范围,都应当在本发明的保护范围之内。
Claims (10)
1.一种数据近存储计算方法,其特征在于,包括以下步骤:
S1、接收用户发起的数据库操作请求任务;
S2、CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;
S3、硬件加速器接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元;
S4、计算单元计算完成后将计算结果放入存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。
2.根据权利要求1所述的数据近存储计算方法,其特征在于,所述步骤S2中CPU端将请求任务进行解析具体为:利用资源管理部件根据请求任务进行解析。
3.根据权利要求1所述的数据近存储计算方法,其特征在于,所述步骤S4中的计算单元一次计算任务完成,释放资源模块或者传递给其他加速卡计算单元,等待下一次计算任务或者开始其他加速计算单元的计算。
4.一种数据近存储计算装置,其特征在于,包括:
Host端,在用户发起的数据库操作请求任务时,利用CPU端将请求任务进行解析,选择加速单元并进行卸载,通知加速处理器启动加速任务;
硬件加速器,在接受通知后,从硬件加速器中的存储单元中直接取数传输到计算单元,并根据计算任务链表,调用计算单元中的资源池的模块进行组合,搭建完成从主机端卸载计算任务的加速功能单元,在计算单元计算完成后将计算结果放入共享存储单元指定的地址,以中断的方式或查询方式通知CPU读取计算结果。
5.根据权利要求4所述的数据近存储计算装置,其特征在于,还包括PostgreSQL数据库、PostgreSQL-加速器Hook回调插件和PostgreSQL-加速器中间件,所述PostgreSQL-加速器Hook回调插件cvd用于通过回调函数将查询请求信息进行转换后通过PostgreSQL-加速器中间件发给硬件加速器进行加速处理,计算完成后PostgreSQL-加速器中间件返回满足过滤条件的元组信息返给回调函数,PostgreSQL数据库继续执行;
所述PostgreSQL-加速器中间件包括一到多个工作者线程,从任务队列中取出任务执行,工作者线程根据任务信息将页面数据、元组描述符、过滤条件写入到加速器的存储单元,完成数据拷贝后,向计算单元提交申请,开始数据块的DMA写入。
6.根据权利要求5所述的数据近存储计算装置,其特征在于,所述加速器Hook回调插件的处理流程为:
对PostgreSQL数据库的任务进行重编码,生成硬件可识别可执行的指令码流,包括计算任务解析信息、表结构信息以及控制信息;
所述计算任务解析信息的编码中,PostgreSQL数据对用户查询子句进行词法、语法解析后,将运算的过程以链表+树的数据结构进行描述,节点包括算术运算节点、比较运算节点和逻辑运算节点,
所述算术运算节点位于树结构的最下层,输入为元组中的列字段、常量或其它算术节点的结果,输出计算结果供上层节点使用;
所述比较运算节点位于树结构的中间,输入为下层算术运算的结果或SQL语句中的常量,输出计算结果供上层逻辑节点使用;
所述逻辑运算节点位于树结构的最上层,输入为下一层比较运算的结果,输出为布尔值,根节点的布尔值,用于判断该元组是否满足过滤条件;
所述表结构信息的编码中仅提取其中长度和对齐信息编码为元组描述符,以用于对硬件加速器解析部件的控制;
所述控制信息的编码包括需进行加速任务的数据源文件路径、用户操作的类型、操作条件个数、需要解析字段的列索引,用于硬件加速器核函数参数的设置。
7.根据权利要求5所述的数据近存储计算装置,其特征在于,所述PostgreSQL-加速器中间件中工作者线程采用将数据分块处理、使用乱序执行实现对数据分块流水处理以及使用多个工作者线程的优化方法。
8.根据权利要求4所述的数据近存储计算装置,其特征在于,所述硬件加速器包括控制单元、存储单元和计算单元,所述计算单元为多个,每个计算单元绑定独立的HBM缓存端口,每个计算单元内采用采用硬件流水性能优化方式,包括读取部件、数据表解析部件、过滤部件、正则表达式部件和回写部件;
所述读取部件从HBM缓存中读取元组描述符、过滤条件的控制和数据信息,元组描述符用于描述一个表中各个字段的对齐信息与长度信息,过滤条件由SQL语句中的where子句重编码转换而来,用于描述过滤计算的参数信息,数据表读取,多通路分时传输,分发给行列解析部件;
所述解析部件根据配置模块中的元组描述符与页面数据,解析出页面中元组的位置与长度,元组中列字段的偏移与列长度,将解析的结果送入过滤部件;
所述过滤部件根据配置模块中的过滤条件,计算元组是否符合过滤条件,将满足过滤条件的元组在页面中的位置与长度送入结果回写部件,若有正则表达式查询则送入正则表达式部件,计算完成后将结果送入回写部件;
所述正则表达式部件根据配置模块中的正则表达式匹配条件,判断元组是否符合匹配条件,将满足条件的元组在页面中的位置与长度信息送入结果回写部件,正则表达式部件在流水线中是可选流水站,如果SQL语句中有正则表达式查询则执行正则表达式部件,计算完成后将结果送入回写部件,否则跳过;
所述回写部件接收过滤部件或正则表达式部件的计算结果并统计满足条件的元组个数,将数据写回HBM内存中,传回中间件,PostgreSQL-数据库继续执行。
9.根据权利要求8所述的数据近存储计算装置,其特征在于,所述读取部件采用多通道设计,所述解析部件采用流水行列数据解析。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至3中任一项所述的数据近存储计算方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310628006.2A CN116627892B (zh) | 2023-05-31 | 2023-05-31 | 一种数据近存储计算方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310628006.2A CN116627892B (zh) | 2023-05-31 | 2023-05-31 | 一种数据近存储计算方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116627892A true CN116627892A (zh) | 2023-08-22 |
CN116627892B CN116627892B (zh) | 2024-05-07 |
Family
ID=87616812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310628006.2A Active CN116627892B (zh) | 2023-05-31 | 2023-05-31 | 一种数据近存储计算方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116627892B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117331945A (zh) * | 2023-10-31 | 2024-01-02 | 中科驭数(北京)科技有限公司 | 数据处理方法、装置、计算机存储介质及加速卡 |
CN117539912A (zh) * | 2023-11-23 | 2024-02-09 | 武汉软件工程职业学院(武汉开放大学) | 一种加速异构数据源访问的系统、方法及设备 |
CN118132567A (zh) * | 2024-05-08 | 2024-06-04 | 山东浪潮科学研究院有限公司 | 列式存储数据库的多流水线异构过滤加速方法、系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170123866A1 (en) * | 2008-05-15 | 2017-05-04 | Ip Reservoir, Llc | Method and System for Accelerated Stream Processing |
CN110959156A (zh) * | 2017-06-23 | 2020-04-03 | 赛灵思公司 | 到数据库加速器的并行计算卸载 |
US20210097047A1 (en) * | 2019-09-26 | 2021-04-01 | Fungible, Inc. | Data ingestion and storage by data processing unit having stream-processing hardware accelerators |
CN113312415A (zh) * | 2020-02-27 | 2021-08-27 | Sap欧洲公司 | 用于数据库操作的近存储器加速 |
CN113467905A (zh) * | 2021-06-10 | 2021-10-01 | 浪潮(北京)电子信息产业有限公司 | 一种任务处理方法及系统 |
CN115617878A (zh) * | 2022-11-17 | 2023-01-17 | 浪潮电子信息产业股份有限公司 | 一种数据查询方法、系统、装置、设备及计算机存储介质 |
CN115757477A (zh) * | 2022-10-28 | 2023-03-07 | 芯跳科技(广州)有限公司 | 数据库的查询处理方法、装置、设备及存储介质 |
WO2023060878A1 (zh) * | 2021-10-13 | 2023-04-20 | 苏州浪潮智能科技有限公司 | 一种数据查询方法、系统、异构加速平台及存储介质 |
US20230376475A1 (en) * | 2021-11-04 | 2023-11-23 | Tencent Technology (Shenzhen) Company Limited | Metadata management method, apparatus, and storage medium |
-
2023
- 2023-05-31 CN CN202310628006.2A patent/CN116627892B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170123866A1 (en) * | 2008-05-15 | 2017-05-04 | Ip Reservoir, Llc | Method and System for Accelerated Stream Processing |
CN110959156A (zh) * | 2017-06-23 | 2020-04-03 | 赛灵思公司 | 到数据库加速器的并行计算卸载 |
US20210097047A1 (en) * | 2019-09-26 | 2021-04-01 | Fungible, Inc. | Data ingestion and storage by data processing unit having stream-processing hardware accelerators |
CN113312415A (zh) * | 2020-02-27 | 2021-08-27 | Sap欧洲公司 | 用于数据库操作的近存储器加速 |
US20210271680A1 (en) * | 2020-02-27 | 2021-09-02 | Sap Se | Near-memory acceleration for database operations |
CN113467905A (zh) * | 2021-06-10 | 2021-10-01 | 浪潮(北京)电子信息产业有限公司 | 一种任务处理方法及系统 |
WO2023060878A1 (zh) * | 2021-10-13 | 2023-04-20 | 苏州浪潮智能科技有限公司 | 一种数据查询方法、系统、异构加速平台及存储介质 |
US20230376475A1 (en) * | 2021-11-04 | 2023-11-23 | Tencent Technology (Shenzhen) Company Limited | Metadata management method, apparatus, and storage medium |
CN115757477A (zh) * | 2022-10-28 | 2023-03-07 | 芯跳科技(广州)有限公司 | 数据库的查询处理方法、装置、设备及存储介质 |
CN115617878A (zh) * | 2022-11-17 | 2023-01-17 | 浪潮电子信息产业股份有限公司 | 一种数据查询方法、系统、装置、设备及计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
李仁刚 等: "面向数据库查询加速的异构体系结构设计与实现", 《计算机工程与科学》, no. 12, pages 2169 - 2178 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117331945A (zh) * | 2023-10-31 | 2024-01-02 | 中科驭数(北京)科技有限公司 | 数据处理方法、装置、计算机存储介质及加速卡 |
CN117539912A (zh) * | 2023-11-23 | 2024-02-09 | 武汉软件工程职业学院(武汉开放大学) | 一种加速异构数据源访问的系统、方法及设备 |
CN118132567A (zh) * | 2024-05-08 | 2024-06-04 | 山东浪潮科学研究院有限公司 | 列式存储数据库的多流水线异构过滤加速方法、系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116627892B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116627892B (zh) | 一种数据近存储计算方法、装置和存储介质 | |
US11681650B2 (en) | Execution engine for executing single assignment programs with affine dependencies | |
US9697262B2 (en) | Analytical data processing engine | |
Rahman et al. | Graphpulse: An event-driven hardware accelerator for asynchronous graph processing | |
US8171047B2 (en) | Query execution and optimization utilizing a combining network in a parallel computer system | |
US7647590B2 (en) | Parallel computing system using coordinator and master nodes for load balancing and distributing work | |
US9122513B2 (en) | Method and apparatus for efficient execution of concurrent processes on a multithreaded message passing system | |
US20080250227A1 (en) | General Purpose Multiprocessor Programming Apparatus And Method | |
US10268741B2 (en) | Multi-nodal compression techniques for an in-memory database | |
US20130185283A1 (en) | Query optimization in a parallel computer system with multiple networks | |
Chen et al. | Pipelined multi-gpu mapreduce for big-data processing | |
CN113312283A (zh) | 一种基于fpga加速的异构图学习系统 | |
CN114756629B (zh) | 基于sql的多源异构数据交互分析引擎及方法 | |
CN100462956C (zh) | 用于在计算系统上加载程序的方法和系统 | |
JP4511469B2 (ja) | 情報処理方法及び情報処理システム | |
CN116775041B (zh) | 基于流计算和rete算法的实时决策引擎实现方法 | |
JP4673299B2 (ja) | 情報処理方法及び情報処理システム | |
US8930345B2 (en) | Query optimization in a parallel computer system to reduce network traffic | |
JP6721911B2 (ja) | アフィン従属による単一割当プログラムを実行するための実行エンジン | |
Cicek et al. | Energy efficient boosting of GEMM accelerators for DNN via reuse | |
Werner et al. | Accelerated join evaluation in Semantic Web databases by using FPGAs | |
Chrysogelos | Efficient analytical query processing on cpu-gpu hardware platforms | |
JP4511464B2 (ja) | 情報処理システムおよび情報処理方法 | |
WO2005041066A1 (ja) | 分散メモリ型情報処理システム | |
Liu et al. | Integrating FPGA-based hardware acceleration with relational databases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |