CN114528106B - 雷达信号分选中利用gpu加速决策树训练的方法 - Google Patents
雷达信号分选中利用gpu加速决策树训练的方法 Download PDFInfo
- Publication number
- CN114528106B CN114528106B CN202210145779.0A CN202210145779A CN114528106B CN 114528106 B CN114528106 B CN 114528106B CN 202210145779 A CN202210145779 A CN 202210145779A CN 114528106 B CN114528106 B CN 114528106B
- Authority
- CN
- China
- Prior art keywords
- decision tree
- radar
- gpu
- training
- acceleration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003066 decision tree Methods 0.000 title claims abstract description 220
- 238000012549 training Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000001133 acceleration Effects 0.000 claims abstract description 110
- 230000015654 memory Effects 0.000 claims abstract description 67
- 230000006870 function Effects 0.000 claims abstract description 50
- 238000012360 testing method Methods 0.000 claims abstract description 33
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 23
- 238000005457 optimization Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 238000005192 partition Methods 0.000 claims description 12
- 238000013138 pruning Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 7
- 230000008520 organization Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 7
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000004088 simulation Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/544—Buffers; Shared memory; Pipes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供了一种雷达信号分选中利用GPU加速决策树训练的方法,解决了雷达信号分选中决策树训练时间过长,实时性差问题。包括以下步骤:获取雷达信号特征向量数据;配置决策树参数;配置GPU,训练加速决策树;测试加速决策树,验证分选准确率及加速比;将训练完成并优化后的整棵加速决策树模型送入雷达侦察设备中,进行雷达信号分选。本发明采用了多维度的雷达特征,得到更加完善的训练模型,提高雷达信号分选准确性;相比于现有并行决策树,本发明在GPU端采取合理的内存分配,线程调度,并对核函数进行指令优化,缩短运行时间,提高实时性;本发明基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植。
Description
技术领域
本发明属于雷达侦察信号处理技术领域,主要涉及利用CUDA架构加速决策树实现雷达信号分选,具体是一种雷达信号分选中利用GPU加速决策树训练的方法,主要用于缩短雷达信号分选中决策树算法的训练时间。
背景技术
雷达设备的大量应用,使得雷达侦察设备面临的电磁威胁环境信号密度达到数百万个数量级;同时,现代雷达为了提高其性能和抗干扰的需要,经常采用各种复杂的波形设计来最小化信号分选和识别中使用的信号特征规律性,再加上低截获概率(LPI)技术,这些都对雷达信号分选的准确性,可靠性,实时性提出了更高的要求。
GPU的单指令多数据流(Single Instruction Multiple Data,缩写为SIMD)处理模式可并行地对大规模数据进行同样的操作。由于市场驱动,GPU的发展速度大大超过了CPU的发展速度,近年发展的可编程功能为通用计算提供了高性价比运算平台,使得基于GPU的通用计算成为近年来研究热点之一;同时,CUDA所支持的语言是C/C++,所编写的程序在支持CUDA架构的GPU上以高性能运行。
决策树是一种树形结构,利用树形结构进行决策判定。相较于传统的雷达信号分选算法(CDIF,SDIF,PRI变换等),决策树采用了多维度雷达特征,这可以建立一个更加完善的分选模型,使雷达信号分选准确性得到提升。
电子科技大学的朱旦奇2017年在其硕士论文“基于CUDA平台的机器学习算法GPU并行化的研究与实现”中,针对SPRINT决策树中性能消耗模块进行CUDA加速。该论文中存在树节点寻找“最佳”分割属性时消耗过多内存空间、线程之间通信频繁、影响训练时间以及大数据量下,决策树的加速比是否可以得到有效提升等技术问题。
现有技术中,针对雷达侦察信号处理中大数据量情况,雷达信号分选中对决策树采用GPU并行处理;上述论文验证了并行决策树是可行的,但在决策树构建过程中,GPU端中线程通信会消耗过多时间,属性列表的创建、拆分会消耗过多内存,属性列表没有根据属性值优化排序以及训练过程没有程序指令优化;上述问题会导致决策树的训练时间过长,进而影响雷达信号分选的时间和实时性。
发明内容
本发明的目的是针对现有技术存在的问题和不足,提出一种缩短训练时间,提高实时性的雷达信号分选中利用GPU加速决策树训练的方法。
本发明是一种雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,包括有如下步骤:
步骤1,获取雷达信号特征数据:在CPU端首先从雷达侦察系统中获取雷达的信号特征向量数据,每个特征向量包含P个特征,分为雷达的训练集和测试集,训练集共有N条数据,测试集共有N1条数据,并初始化GPU端环境;
步骤2,配置决策树参数:在CPU端设置决策树的深度,基尼系数限定值参数;在GPU端根据训练集特征向量的个数和训练集数据精度开辟相应的显存,将雷达信号分选的训练集逐一拷贝到开辟好的GPU显存中;
步骤3,配置GPU,训练加速决策树:在GPU端使用一维线程索引分配CUDA线程的网格Grid和线程块Block的大小;在GPU端用雷达信号训练集训练决策树,在训练过程中循环迭代执行创建雷达分类的属性列表,寻找“最佳”分割属性和分割点,拆分雷达分类的属性列表,树节点生成操作,并对循环迭代操作中的核函数采用最佳线程调度,全局内存与共享内存合理运用,代码指令优化进行加速;在较短时间内生成加速决策树,并将加速决策树逐一传送至CPU内存中;
步骤4,测试加速决策树,验证分选准确率及加速比:将已读取的测试集数据依次输入到加速决策树中,验证雷达测试集信号分选准确率,若大于预定准确率,则保留整棵加速决策树,用于雷达信号分选;若小于预定准确率,则对加速决策树进行后剪枝优化操作,使其得到优化后的最优加速决策树,用于雷达信号分选;并验证加速决策树与原决策树的加速比;
步骤5,利用加速决策树进行雷达信号分选:在CPU端将训练完成的整棵加速决策树或优化后的最优加速决策树传送至雷达侦察设备中,利用加速决策树进行雷达信号分选。
本发明解决了现有技术中雷达信号分选中决策树训练时间过长的问题:
本发明与现有技术相比有以下优点:
采取多维度雷达特征:本发明相较于传统的雷达信号分选方法,加速决策树可以采用多维度的雷达特征,进而得到更加完善的训练模型,提高雷达信号分选的准确性。
相比现有并行决策树,进一步缩短加速决策树训练时间:本发明相较于雷达信号分选中串行决策树方法,对加速决策树中可以并行计算以及消耗时间过长的操作放在GPU端进行;本发明并对在GPU端运行的核函数采取合理的全局内存和共享内存的使用,根据数据量大小进行线程调度,减少线程通信时间,对所有的核函数进行指令优化。
易于扩展和移植:本发明基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植。
附图说明
图1是本发明的基于CUDA架构加速决策树训练的方法流程图;
图2是本发明的加速决策树树节点生成示意图;
图3是本发明的拆分属性列表示意图;
图4是本发明的加速决策树进行雷达信号分选混淆矩阵仿真图;
图5是本发明的优化后加速决策树与CPU串行决策树的加速比曲线。
具体实施方式
实施例1
下面将结合附图和实施例对本发明详细描述,对本发明实施例中的技术方案进行清楚、完整地描述。
现有技术中,雷达侦察信号处理领域利用决策树进行信号分选,在大规模数据量的情况下,决策树训练时间过长,不能满足现有需要,需要缩短决策树训练时间,提高雷达信号分选的实时性。
本发明是一种雷达信号分选中利用GPU加速决策树训练的方法,参见图1,图1是本发明基于CUDA架构加速决策树训练的方法流程图,包括有以下步骤:
步骤1,获取雷达的信号特征向量数据:获取雷达信号特征数据:在CPU端首先从雷达侦察系统中获取雷达的信号特征向量数据,每个特征向量包含P个雷达侦察信号特征,分为雷达的训练集和测试集,训练集共有N条数据,测试集共有N1条数据,并初始化GPU端环境;
步骤2,配置决策树参数:在CPU端设置决策树的深度D,基尼系数限定值参数Gini;在GPU端根据训练集特征向量的个数和训练集数据精度开辟相应的显存,将雷达信号分选的训练集逐一拷贝到开辟好的GPU显存中;加速决策树是在CPU端进行构造,将可以并行计算,运算量大且能缩短时间的步骤,如步骤3中的操作放在GPU端进行。
步骤3,配置GPU,训练加速决策树:在GPU端使用一维线程索引分配CUDA线程的网格Grid和线程块Block的大小;在GPU端用雷达信号训练集训练决策树,在训练过程中循环迭代执行创建雷达分类的属性列表,寻找“最佳”分割属性和分割点,拆分雷达分类的属性列表,树节点生成操作,并对循环迭代操作中的核函数采用最佳线程调度,全局内存与共享内存合理运用,代码指令优化进行加速;在较短时间内生成加速决策树,并将加速决策树逐一传送至CPU内存中;在寻找“最佳”分割点中的scan、reduce、compact操作,在拆分属性列表中的scan、partition操作,相较于在CPU中串行执行,在GPU端采用多线程技术,全局内存与共享内存的相互配合,可以大幅度缩小运算时间,进而提高加速决策树的训练速度。
步骤4,测试加速决策树,验证分选准确率及加速比:将步骤1中已读取的测试集数据依次输入到加速决策树中,验证雷达测试集信号分选准确率,若大于预定准确率,则保留整棵加速决策树,用于雷达信号分选;若小于预定准确率,则对加速决策树进行后剪枝优化操作,使其得到优化后的最优加速决策树,用于雷达信号分选;并验证加速决策树与原决策树的加速比。
步骤5,利用加速决策树进行雷达信号分选:在CPU端将训练完成的整棵加速决策树或优化后的最优加速决策树传送至雷达侦察设备中,利用加速决策树进行雷达信号分选。
本发明给出了一种雷达信号分选中利用GPU加速决策树训练方法的整体技术方案。
本发明的技术方案具体就是,结合现有的雷达信号分选中的决策树算法,依托CUDA平台,实行CPU+GPU的异构并行计算,来提高决策树的训练速度;整体包括CPU端执行的逻辑控制以及数据管理,具体包括设置决策树的深度D,基尼系数的限定参数Gini,数据集的读取拷贝,GPU线程层次的配置,开辟和释放存储单元,训练完成决策树的保存,以及核函数的调用;GPU端在训练决策树中,创建属性列表,计算基尼系数,寻找“最佳”分割点,拆分属性列表以及CUDA库函数的调用。
本发明利用GPU的并行计算能力以及CUDA架构编程,来保证在雷达信号分选中利用决策树算法训练大量雷达信号特征向量数据的实时性,且易于平台移植。
实施例2
雷达信号分选中利用GPU加速决策树训练的方法同实施例1,步骤2所述的配置决策树参数,包括有以下步骤:
2.1设置决策树参数:在CPU中设置决策树的深度D,基尼系数限定值Gini;设置决策树的深度防止决策树过渡生长,限定基尼系数是对属性列表的划分以及树节点是否还可以继续生成子节点的限制;对从雷达信号训练集中读取到的N×P维数据和N个雷达标签,使用cudaMalloc函数开辟相应的GPU显存空间。
2.2训练集数据拷贝,使用cudaMemcpyHostToDevice函数和cudaMemcpy函数,将N×P维的雷达的信号特征向量数据从CPU端拷贝至GPU端。
从雷达侦察设备中读取雷达信号的特征数据,本发明采用了网口、串口和USB多种方式,保证短距离,远距离传输速率和准确性,也是加速决策树训练的前提条件,以至于加速决策树可以顺利训练完成。
本发明的基于CUDA异构并行加速的决策树雷达信号分选实现方法中,雷达的信号特征向量数据集包含了各式各样的体制雷达,共N×P维数据,其中参数P代表了P-1维的特征向量以及1维的雷达类别标签。首先将N×P维雷达的信号特征向量数据集存储在CPU端,再开辟GPU显存空间,将雷达的信号特征向量数据集由CPU端拷贝到GPU端,同时根据雷达的信号特征向量数据集在GPU端开辟显存配置属性列表,采用一维索引方式分配CUDA线程模型;接着,在CPU端配置根节点,由CPU负责控制决策树的生成,在GPU端计算构造树节点所需要的参数,运行核函数,如划分属性列表,寻找“最佳”分割属性,计算基尼系数,属性值排序,前缀和计算等核函数。在GPU端生成的决策树,由内存拷贝函数拷贝至CPU端,在CPU端进行准确性测试。
实施例3
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-2,步骤3配置GPU,训练加速决策树,包括有以下步骤:
3.1初始化属性列表显存:根据步骤2读取的P个特征,使用cudaMalloc函数初始化决策树的属性列表显存,属性列表包括有属性值列表,类标签列表和划分值列表;本发明数据存储方式采用了GPU下的矩阵存储方式,利用矩阵存储方式,可以借助CUDA架构中特有的运算方式,加快数据存储,拆分的速度。
3.2创建属性列表:在GPU端,根据雷达训练数据集的大小,划分线程组织的网格Grid和线程块Block的大小,每一个线程完成一组雷达信号分选训练集属性列表的创建;并调用cudaThreadSynchronize函数保持线程块内线程同步;
3.3雷达训练集属性列表排序:调用Thrust库中的stable_sort_by_key函数,根据雷达训练集属性列表中的属性值对属性列表进行排序;
3.4生成加速决策树:主要包括初始化树根节点,在根节点处根据属性列表寻找分裂点,以及拆分属性列表,填充树节点,递归迭代直至生成加速决策树,并在生成加速决策树过程中对所有代码指令进行整体优化。
3.5保存加速决策树:调用cudaMemcpyDeviceToHost函数将步骤3.4生成的加速决策树数据从GPU端传送至CPU端,并且调用cudaFree函数清除GPU端显存。
上述步骤3.1至3.5:对训练加速决策的过程中可以并行计算以及消耗时间过长的操作都放在GPU端进行,同时对其做整体优化,其目的都是为了缩短训练时间;且上述操作在GPU端都是基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植;步骤3.5清理GPU端显存,方便加速决策树的再次训练。
实施例4
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-3,步骤3.4生成加速决策树,参见图2,图2是本发明加速决策树树节点生成示意图,包括有以下步骤:
3.4.1初始化树根节点:树节点保存有:左子树节点、右子树节点、叶子节点标记、树节点的基尼系数准则以及此树节点指向属性列表的指针;其中指向属性列表的指针是为了生成子节点时,利用GPU内存结构,不重复复制属性列表,节省内存空间。
3.4.2寻找分裂点:属性列表中的值是排序的,所以在给定索引处拆分属性值列表;在GPU端利用索引号、属性列表的大小和scan函数扫描类标签列表的最终索引,来提供足够的信息计算用于拆分每个值的Gini索引,寻找拆分的属性以及拆分的节点;进而执行compact操作删除重复的属性值,确保没有重复属性值进入决策树的不同侧;图2的加速决策树树节点生成示意图中,对于一组属性列表,系统在开始进行判断是否都属于叶子节点?若全部属于叶子节点,则分类结束,若不都属于叶子节点,则会寻找分裂点。
3.4.3拆分属性列表:在GPU端将属性列表中的属性值列表,类标签列表和划分值列表都一分为二,使左右子节点分别对应一份属性列表;根据属性列表的构造方式,在GPU端调用stable_partition函数进行分区,使进入左子树的值位于数组的开头,进入右子树的值位于数组的末尾;即可以在树节点中保存属性列表的指针指向左子树和右子树数据,不需要复制数据或者在每个节点处保留额外的索引列表;图2的加速决策树树节点生成示意图中,在寻找分裂点时,判断候选属性是否为空,若不为空,则可以继续进行拆分,在此就可以生成一个内部节点;若候选属性是空的,则可以生成一个叶子节点;叶子节点表示的是分类的结果,如果数据在分类时停止在该处迭代,则该数据将被划分为该叶子节点的类;当找到一个候选的拆分点时,则需要拆分属性列表并生成一个内部节点;内部节点包含分类规则,决定数据分类的路走向。
参见图3拆分属性列表示意图,将1节点分裂成2节点和3节点,1节点本身对应rf属性列表和type属性列表,根据步骤3.4.1,3.4.2和3.4.3中的操作将1节点进行分裂,同时将其对应的属性列表也进行分裂,1节点的rf属性列表拆分成2节点的rf属性列表1和3节点的rf属性列表2;1节点的type属性列表拆分成2节点的type属性列表1和3节点的type属性列表2;分裂完成后,2节点和3节点继续上述步骤执行操作,直至最后不再进行分裂,成为叶子节点。
本发明在步骤3.4.3和3.4.4中进行compact操作、scan操作和排序操作中对全局内存与共享内存都采取合理用时的方案,以及对循环迭代操作中的核函数采用最佳线程调度,使加速决策树整体训练时间更少。
本发明在线程调度,内存使用,避免共享内存bank冲突以及程序指令优化上,都对上述所有步骤进行了详细优化,使得优化后的加速决策树在缩短训练时间上更进一步,具体操作如下所示:
最佳线程调度:本发明在设置的线程块数量是32的整数倍,对于int型数据,线程块设置为256个线程;对于float型数据,线程块设置为128个线程;在并行归约操作中,第一次迭代,只有偶数线程被调度,在第二次迭代中,只有四分之一线程是活跃的,但是所有的线程仍然被调度。本发明通过重新组织每个线程的数组索引来强制ID相邻的线程执行最小值操作,解决线程束分化问题。
合并全局内存访问:GPU端在在全局内存中创建属性列表,本发明中GPU的每个线程束32个线程访问的是一个连续的内存空间,并使得线程束从对其内存地址开始,有利于吞吐量的最大化。
避免共享内存bank冲突:在并行前缀和计算中,一个线程束中的不同线程访问同一块内存会发生bank冲突,本发明在使用二叉树扫描前缀和时,将树的每一级内存访问之间的步幅加倍,同时使访问同一组的线程数加倍,利用补充地址使得线程找到对应bank,避免bank冲突。
程序指令优化:本发明在前缀和优化共享内存中,采用每个线程加载各个float4元素而不是两个float元素来处理每个线程的8个元素而不是2个;每个线程通过将来自共享内存的相应扫描元素添加到寻出在寄存器中每个部分和来构造两个float4值,最后将float4值写入全局内存。
3.4.4节点生成其子节点:拆分属性列表完成后,则生成此树节点;同时若左子节点为终端,则生成右子节点,进入步骤3.4.2;若右子节点为终端,则生成左子节点,进入步骤3.4.2;若左右子节点都不是终端,则同时分别进入步骤3.4.2;上述步骤不断循环迭代,直至生成加速决策树。
实施例5
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-4,步骤4测试加速决策树,验证分选准确率及加速比,包括有以下步骤:
4.1优化决策树:将步骤2中读取好的训练集N1×P维测试数据依次输入到加速决策树中,验证测试集信号分选准确率,若大于预定准确率,则保留整棵加速决策树;若小于预定准确率,则对加速决策树进行后剪枝优化操作。后剪枝是利用测试集自底向上地对加速决策树的非叶节点进行逐一考察,泛化性能更好。
对于一个具有k类别的数据集合,类别“i”到节点“t”的概率为:
ni(t)表示类别“i”到达节点“t”的样本数,n(t)表示到节点“t”的样本总条数,m表示先验概率对后验概率的Pi(t)的影响大小的参数。
当对到达t的测试数据进行分类时:
当m=k,Pai=1/k时,有:
其中,e(t)为错误样本数目,且e(t)=n(t)-ni(t)。
剪枝过程即:首先计算该节点的误差EER(t),然后计算该节点分支的误差EER(Tt),并带权值求和,其中权值取每个分支的测试样本比例,若EER(t)>EER(Tt),则保留该子树,否则,删掉该子树。
在加速决策树模型雷达信号分选准确率没有达到预定值的情况下,使用后剪枝操作,可以有效提高雷达信号分选准确率,扩展其泛化性能,使其在实际雷达信号分选中可以适应不同测试集,以及可以达到比较高的准确率。
4.2验证加速比:对加速决策树在不同数据量下做加速比性能验证,验证加速方案可行性,加速比公式如下:
式中:
Speed:并行化算法相对于串行算法的加速比。
Timecpu:在CPU上,串行算法运行时间。
Timegpu:在GPU上,并行算法运行时间。
经过步骤3.4程序优化以及步骤4.1后剪枝操作,加速决策树模型性能会有很大提升;加速决策树也是基于CUDA架构下完成,所以其最重要的性能指标就是验证其与CPU下串行决策树下的加速比;本发明在一定数据量下,有效地提高加速比,在后续的仿真说明中,也证实优化后的加速决策树模型具有很高的加速比,有效地提升了雷达信号分选的实时性。
实施例6
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-5,步骤5利用加速决策树进行雷达信号分选,包括有以下步骤:
5.1加速决策树保存至雷达侦察设备:将整棵加速决策树拷贝至雷达侦察设备中,使雷达侦察设备在较短时间内完成雷达信号分选。
5.2释放内存资源:在CPU端调用free函数,释放CPU端资源。
将加速决策树模型保存至雷达侦察设备中,针对雷达侦察设备中的雷达信号分选数据直接进行分选,也因为加速决策树是一种树形结构,根据雷达信号分选数据的P个特征,利用树形结构的深度搜索操作,可以迅速找到此雷达的信号特征向量数据的分类情况,完成信号分选,这也保证了雷达信号分选数据在大数据量下的实时性;最后清理CPU内存空间,保证下次进行加速决策树训练处于大数据量情况下,CPU有足够的内存空间来存储雷达训练集和测试集。
本发明属于雷达信号分选技术领域,提供一种雷达信号分选中利用GPU加速决策树训练的方法。该方法包括如下步骤:在CPU端从雷达侦察系统中获取雷达的信号分选数据,分为雷达训练集和雷达测试集,并设置决策树的深度,基尼系数限定值参数;在GPU端根据训练集维度和训练集数据精度开辟显存空间;划分核函数的线程组织,在GPU端执行训练决策树,循环迭代执行创建雷达分类的属性列表,寻找“最佳”分割属性和分割点,拆分雷达分类的属性列表,树节点生成操作;得到加速决策树,将加速决策树拷贝至CPU端,根据其分选准确率决定对其是否进行后剪枝优化操作;利用CUDA代码优化策略对训练加速决策树的核函数进行优化;绘制加速决策树的优化后的加速比曲线。本发明优化后的加速决策树在仿真条件下加速比达到170.1倍,能够很好的提高雷达信号分选的实时性,且基于CUDA软件体系和Visual Studio平台开发,便于扩展和移植。
下面将结合附图对本发明做进一步的描述,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例7
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-6,本发明的雷达信号分选中利用GPU加速决策树训练的方法流程图,如图1所示。具体的,包括以下步骤:
步骤1,在CPU中读取雷达训练数据集N×P,将其作为加速决策树的初始数据集并逐一拷贝到开辟好的GPU显存中。
具体的,步骤1中包括以下2个子步骤:
1.A,在CPU端设置决策树的最大深度D,划分准则基尼系数限定值Gini,并使用cudaMalloc函数为雷达训练集N×P开辟GPU显存空间。
1.B,使用cudaMemcpy函数和cudaMemcpyHostToDevice函数,将N维的雷达的信号特征向量数据和N个雷达标签从CPU端拷贝至GPU端。
步骤2,在GPU端使用一维线程索引分配CUDA线程的网格Grid和线程块Block的大小,在GPU端执行加速决策树中的核函数,输出训练完成的加速决策树,并且将数据逐一传送至CPU内存中。
具体的,步骤2中包括以下8个子步骤:
2.A,根据步骤1读取的P个特征,创建属性列表,使用cudaMalloc函数初始化属性列表的显存,属性列表包括属性值列表,类标签列表和划分值列表。
2.B,在GPU端,将显存中雷达训练数据的大小,划分线程组织的网格Grid和线程块Block的大小:
线程块:((N)+(threadsPerBlock)-1)/threadsPerBlock;
线程索引:idx=blockIdx.x*blockDim.x+threadIdx.x;
每一个线程完成一组属性列表的创建。调用cudaThreadSynchronize函数保持线程块内线程同步。
2.C,属性列表创建好后,调用Thrust库中的sort函数对属性列表中三个表根据属性值进行排序。
2.D,初始化树节点,树节点主要包括:左子树节点、右子树节点、叶子节点标记、该子节点的分裂准则以及属性列表的指针。
2.E,进入树节点的构造,GPU端根据属性列表的大小划分线程组织的网格Grid和线程块Block的大小:
线程块:((N)+(threadsPerBlock)-1)/threadsPerBlock;
线程索引:idx=blockIdx.x*blockDim.x+threadIdx.x;
每一个线程,寻找“最佳”分裂点,根据基尼系数划分准则,在属性列表中扫描属性列表,生成类直方图,利用类直方图的信息来计算基尼系数,选择基尼系数最小的点作为属性列表的拆分点。
假定集合T分成了T1和T2两个部分,每一部分分别包含了n1和n2条数据,那么集合T分割之后的基尼系数是:
加速决策树的树节点生成示意图如附图2所示。
对于一组属性列表,系统在开始进行判断是否都属于叶子节点?若全部属于叶子节点,则分类结束,若不都属于叶子节点,则会寻找分裂点,判断候选属性是否为空,若不为空,则可以继续进行拆分,在此就可以生成一个内部节点;若候选属性是空的,则可以生成一个叶子节点;叶子节点表示的是分类的结果,如果数据在分类时停止在该处迭代,则该数据将被划分为该叶子节点的类;当找到一个候选的拆分点时,则需要拆分属性列表并生成一个内部节点。内部节点包含分类规则,决定数据分类的路走向。
2.F,在GPU端拆分属性列表,根据属性列表的大小划分线程组织的网格Grid和线程块Block的大小:
线程块:((N)+(threadsPerBlock)-1)/threadsPerBlock;
线程索引:idx=blockIdx.x*blockDim.x+threadIdx.x;
由于每个树节点对应的属性列表构造方式是一样的,所以对其进行分区操作,将进入左子树的值位于数组的开头,进入右子树的值位于数组的末尾,即在树节点中保存指针来指向左子树和右子树的数据,不必复制数据或在每个节点上保留额外的索引列表,这样处理效果既节省内存空间又缩短时间;属性列表分割示意图如图3所示,将1节点对应的属性列表进行拆分,在树节点中保存指针指向左子树的数据和右子树的数据。
2.G,步骤2.A至2.F循环进行,直至该子节点保存的属性列表的大小为1,或者其最佳基尼系数达到设定值,那么停止子节点生长,该节点即为叶子节点。
步骤2.H,加速决策树训练,调用cudaMemcpyDeviceToHost函数将整棵加速决策树从GPU端传送至CPU端,并且调用cudaFree函数清除GPU端显存。
步骤3,将步骤1中已经读取的训练集数据进行加速决策树测试,验证雷达信号分选的准确性,验证完成后调用free函数清除CPU端资源。
步骤4,采用最佳线程调度,全局内存与共享内存合理运用,代码指令优化等策略,对第2,3步骤中加速决策树生成的核函数进行优化,计算优化后CUDA异构并行算法与CPU串行算法的加速比。
本发明基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植。
下面结合仿真实验对本发明的效果作进一步说明。
实施例8
雷达信号分选中利用GPU加速决策树训练的方法同实施例1-7,
仿真条件:
本发明的仿真参数如表1所示:
表1雷达信号参数表
仿真内容:
此项发明的实验要求只要在满足CUDA11.1的编程环境下即可顺利开展,计算机的软硬件环境配置如下:CPU是Intel(R)Core(TM)i5-7500处理器;GPU是NVIDIA GeForce GTX1050Ti;操作系统是Win10专业版64位;异构并行计算平台是CUDA11.1;CUDA编程平台Microsoft Visual Studio2017;算法串行验证平台是PyTorch;准确性验证平台是Matlab2021b。
图4是利用加速决策树进行雷达信号分选的混淆验证矩阵仿真图。
图5是优化后加速决策树与CPU串行决策树的加速比曲线。
仿真结果分析:
对表1雷达信号参数表中4种雷达,分别以相同数量创建雷达训练集,即是雷达1,雷达2,雷达3,雷达4分别以200个雷达的信号特征向量数据组成800维具有5个特征的雷达训练集,测试集则是在训练集中随意抽取20%生成,仿真结果即是图4利用加速决策树进行雷达信号分选的混淆验证矩阵仿真图。
图4验证了加速决策树的准确性,在雷达1至雷达4的数量都是200个的前提下,计算出混淆矩阵准确性是100%,说明加速决策树模型在CPU和GPU下的准确性是一致的,且性能优良。
根据本发明的仿真参数,分别组成A:数据量为2000(4×500)的雷达训练集;B:数据量为4000(4×1000)的雷达训练集;C:数据量为6000(4×1500)的雷达训练集;D:数据量为8000(4×2000)的雷达训练集;E:数据量为10000(4×2500)的雷达训练集;F:数据量为12000(4×3000)的雷达训练集。
对上述训练集A-F分别进行CPU串行决策树训练以及本发明的优化后的加速决策树训练,得到图5优化后加速决策树与CPU串行决策树的加速比曲线;从图5可以看出,当数据量在不断增加时,加速比也在不断提升,在本测试F中,达到170.1倍的加速,极大减少了决策树训练时间,提高雷达信号分选的实时性,本发明基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植。
综上所述:本发明属于雷达信号分选技术领域,提供一种雷达信号分选中利用GPU加速决策树训练的方法,解决了雷达信号分选中决策树训练时间过长,实时性差问题。该方法包括以下步骤:获取雷达的信号特征向量数据;配置决策树参数;配置GPU,训练加速决策树;测试加速决策树,验证分选准确率及加速比;将训练完成并优化后的整棵加速决策树模型送入雷达设备中,进行雷达信号分选。本发明相比于传统雷达信号分选算法,采用了多维度的雷达特征,可以得到更加完善的训练模型,提高雷达信号分选准确性;相比于现有并行决策树,本发明对在GPU端运行的核函数采取合理的全局内存和共享内存的使用,根据数据量大小进行线程调度减少线程通信时间,对所有的核函数进行指令优化,进一步缩短加速决策树训练时间,提高实时性;本发明基于CUDA体系和VS平台开发,利用C++语言进行模块化设计,易于扩展和移植。
Claims (6)
1.一种雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,包括有如下步骤:
步骤1,获取雷达信号特征数据:在CPU端首先从雷达侦察系统中获取雷达的信号特征向量数据,每个特征向量包含P个特征,分为雷达的训练集和测试集,训练集共有N条数据,测试集共有N1条数据,并初始化GPU端环境;
步骤2,配置决策树参数:在CPU端设置决策树的深度,基尼系数限定值参数;在GPU端根据训练集特征向量的个数和训练集数据精度开辟相应的显存,将雷达信号分选的训练集逐一拷贝到开辟好的GPU显存中;
步骤3,配置GPU,训练加速决策树:在GPU端使用一维线程索引分配CUDA线程的网格Grid和线程块Block的大小;在GPU端用雷达信号训练集训练决策树,在训练过程中循环迭代执行创建雷达分类的属性列表,寻找“最佳”分割属性和分割点,拆分雷达分类的属性列表,树节点生成操作,并对循环迭代操作中的核函数采用最佳线程调度,全局内存与共享内存合理运用,代码指令优化进行加速;在较短时间内生成加速决策树,并将加速决策树逐一传送至CPU内存中;
步骤4,测试加速决策树,验证分选准确率及加速比:将已读取的测试集数据依次输入到加速决策树中,验证雷达测试集信号分选准确率,若大于预定准确率,则保留整棵加速决策树,用于雷达信号分选;若小于预定准确率,则对加速决策树进行后剪枝优化操作,使其得到优化后的最优加速决策树,用于雷达信号分选;并验证加速决策树与原决策树的加速比;
步骤5,利用加速决策树进行雷达信号分选:在CPU端将训练完成的整棵加速决策树或优化后的最优加速决策树传送至雷达侦察设备中,利用加速决策树进行雷达信号分选。
2.根据权利要求1所述的雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,步骤2所述的配置决策树参数包括有以下步骤:
2.1设置决策树参数:在CPU中设置决策树的深度D、基尼系数限定值Gini;对从雷达信号训练集中读取到的N×P维数据和N个雷达标签,使用cudaMalloc函数开辟相应的GPU显存空间;
2.2训练集数据拷贝,使用cudaMemcpyHostToDevice函数和cudaMemcpy函数,将N×P维的雷达信号特征向量数据从CPU端拷贝至GPU端。
3.根据权利要求1所述的雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,步骤3配置GPU,训练加速决策树包括有以下步骤:
3.1初始化属性列表显存:根据步骤2读取的P个雷达特征,使用cudaMalloc函数初始化决策树的属性列表显存,属性列表包括有属性值列表,类标签列表和划分值列表;
3.2创建属性列表:在GPU端,根据雷达训练数据集的大小,划分线程组织的网格Grid和线程块Block的大小,每一个线程完成一组雷达信号分选训练集属性列表的创建;调用cudaThreadSynchronize函数保持线程块内线程同步;
3.3雷达训练集属性列表排序:调用Thrust库中的stable_sort_by_key函数根据雷达训练集属性列表中的属性值对属性列表进行排序;
3.4生成加速决策树:主要包括初始化树根节点,在根节点处根据属性列表寻找分裂点,以及拆分属性列表,填充树节点,递归迭代直至生成加速决策树,并在生成加速决策树过程中对所有代码指令都进行整体优化;
3.5保存加速决策树:调用cudaMemcpyDeviceToHost函数将步骤3.4生成的加速决策树数据从GPU端传送至CPU端,并且调用cudaFree函数清除GPU端显存。
4.根据权利要求3所述的雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,步骤3.4生成加速决策树包括有以下步骤:
3.4.1初始化树根节点:树节点主要包括:左子树节点、右子树节点、叶子节点标记、该子节点的分裂准则以及此树节点指向属性列表的指针;
3.4.2寻找分裂点:属性列表中的值是排序的,所以在给定索引处拆分属性值列表;在GPU端利用索引号、属性列表的大小和scan函数扫描类标签列表的最终索引,来提供足够的信息来计算用于拆分每个值的Gini索引;执行compact操作删除重复的属性值,确保没有重复属性值进入决策树的不同侧;
3.4.3拆分属性列表:在GPU端将属性列表中的属性值列表,类标签列表和划分值列表都一分为二,使左右子节点分别对应一份属性列表;根据属性列表的构造方式,在GPU端调用stable_partition函数进行分区,使进入左子树的值位于数组的开头,进入右子树的值位于数组的末尾;即可以在树节点中保存属性列表的指针指向左子树和右子树数据,不需要复制数据或者在每个节点处保留额外的索引列表;本发明在步骤3.4.3和3.4.4中进行compact操作、并行前缀和操作和排序操作中对全局内存与共享内存都采取用时更短的方案,以及对循环迭代操作中的核函数采用最佳线程调度,使加速决策树整体训练时间更少;
3.4.4节点生成其子节点:拆分属性列表完成后,则生成此树节点;若左子节点为终端,则生成右子节点,进入步骤3.4.2;若右子节点为终端,则生成左子节点,进入步骤3.4.2;若左右子节点都不是终端,则同时分别进入步骤3.4.2;上述步骤不断循环迭代,直至生成加速决策树。
5.根据权利要求1所述的雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,步骤4测试加速决策树,验证分选准确率及加速比包括有以下步骤:
4.1优化决策树:将步骤2中读取好的训练集N1×P维测试数据依次输入到加速决策树中,验证测试集信号分选准确率,若大于预定准确率,则保留整棵加速决策树;若小于预定准确率,则对加速决策树进行后剪枝优化操作。
4.2验证加速比:对加速决策树在不同数据量下做加速比性能验证,验证加速方案可行性。
6.根据权利要求1所述的雷达信号分选中利用GPU加速决策树训练的方法,其特征在于,步骤5利用加速决策树进行雷达信号分选包括有以下步骤:
5.1加速决策树保存至雷达侦察设备:将整棵加速决策树拷贝至雷达侦察设备中,使雷达侦察设备在较短时间内完成雷达信号分选。
5.2释放内存资源:在CPU端调用free函数,释放CPU端资源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210145779.0A CN114528106B (zh) | 2022-02-17 | 2022-02-17 | 雷达信号分选中利用gpu加速决策树训练的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210145779.0A CN114528106B (zh) | 2022-02-17 | 2022-02-17 | 雷达信号分选中利用gpu加速决策树训练的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114528106A CN114528106A (zh) | 2022-05-24 |
CN114528106B true CN114528106B (zh) | 2024-05-17 |
Family
ID=81621914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210145779.0A Active CN114528106B (zh) | 2022-02-17 | 2022-02-17 | 雷达信号分选中利用gpu加速决策树训练的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114528106B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804220A (zh) * | 2018-01-31 | 2018-11-13 | 中国地质大学(武汉) | 一种基于并行计算的卫星任务规划算法研究的方法 |
CN109491796A (zh) * | 2018-11-23 | 2019-03-19 | 西安电子科技大学 | 基于累积和并行化的机载雷达运动速度估计方法 |
CN111428108A (zh) * | 2020-03-25 | 2020-07-17 | 山东浪潮通软信息科技有限公司 | 一种基于深度学习的反爬虫方法、装置和介质 |
CN111814911A (zh) * | 2020-08-17 | 2020-10-23 | 安徽南瑞继远电网技术有限公司 | 一种基于容器化管理的电力ai训练平台及其训练方法 |
CN112380003A (zh) * | 2020-09-18 | 2021-02-19 | 北京大学 | 一种gpu处理器上的k-nn的高性能并行实现装置 |
CN112686342A (zh) * | 2021-03-12 | 2021-04-20 | 北京大学 | Svm模型的训练方法、装置、设备和计算机可读存储介质 |
WO2021197588A1 (en) * | 2020-03-31 | 2021-10-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Orchestration of virtualization technology and application implementation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11132565B2 (en) * | 2019-09-27 | 2021-09-28 | The Travelers Indemnity Company | Systems and methods for artificial intelligence (AI) driving analysis and incentives |
-
2022
- 2022-02-17 CN CN202210145779.0A patent/CN114528106B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804220A (zh) * | 2018-01-31 | 2018-11-13 | 中国地质大学(武汉) | 一种基于并行计算的卫星任务规划算法研究的方法 |
CN109491796A (zh) * | 2018-11-23 | 2019-03-19 | 西安电子科技大学 | 基于累积和并行化的机载雷达运动速度估计方法 |
CN111428108A (zh) * | 2020-03-25 | 2020-07-17 | 山东浪潮通软信息科技有限公司 | 一种基于深度学习的反爬虫方法、装置和介质 |
WO2021197588A1 (en) * | 2020-03-31 | 2021-10-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Orchestration of virtualization technology and application implementation |
CN111814911A (zh) * | 2020-08-17 | 2020-10-23 | 安徽南瑞继远电网技术有限公司 | 一种基于容器化管理的电力ai训练平台及其训练方法 |
CN112380003A (zh) * | 2020-09-18 | 2021-02-19 | 北京大学 | 一种gpu处理器上的k-nn的高性能并行实现装置 |
CN112686342A (zh) * | 2021-03-12 | 2021-04-20 | 北京大学 | Svm模型的训练方法、装置、设备和计算机可读存储介质 |
Non-Patent Citations (3)
Title |
---|
"A real-time unfocused SAR processor based on a portable CUDA GPU";Krzysztof Radecki;《2015 European Radar Conference (EuRAD)》;20151207;第173-176页 * |
"基于CUDA架构的雷达信号分选算法研究";张傲;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230715(2023年第07期);第I136-820页 * |
"面向异构众核平台的多任务流编程与性能优化技术研究";张鹏;《中国博士学位论文全文数据库 信息科技辑》;20220115(2022年第01期);第I137-24页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114528106A (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Davitkova et al. | The ML-Index: A Multidimensional, Learned Index for Point, Range, and Nearest-Neighbor Queries. | |
Pan et al. | Fast GPU-based locality sensitive hashing for k-nearest neighbor computation | |
Ilavarasan et al. | Low complexity performance effective task scheduling algorithm for heterogeneous computing environments | |
Groh et al. | Ggnn: Graph-based gpu nearest neighbor search | |
CN103559016A (zh) | 一种基于图形处理器并行计算的频繁子图挖掘方法 | |
EP4375844A1 (en) | Neural network on-chip mapping method and device based on tabu search algorithm | |
CN109144702A (zh) | 一种用于行列并行粗粒度可重构阵列多目标优化自动映射调度方法 | |
Gibbons et al. | Efficient low-contention parallel algorithms | |
CN113537497A (zh) | 基于动态抽样的梯度提升决策树模型构建优化方法 | |
CN110264392B (zh) | 一种基于多gpu的强连通图检测方法 | |
CN114528106B (zh) | 雷达信号分选中利用gpu加速决策树训练的方法 | |
Katriel et al. | Elementary graph algorithms in external memory | |
CN108108251A (zh) | 一种基于MPI并行化的参考点k近邻分类方法 | |
Bjornson et al. | The implementation and performance of hypercube Linda | |
KR102006283B1 (ko) | 패스트맵을 이용한 데이터셋의 m-트리 적재방법 | |
CN116627396A (zh) | 一种多面体模型嵌套循环变换动态求解加速方法 | |
Muja | Scalable nearest neighbour methods for high dimensional data | |
CN114356526B (zh) | 基于人工蜂群算法的多维函数优化加速方法 | |
CN117193988A (zh) | 一种晶圆级架构ai加速芯片的任务调度方法及介质 | |
WO2024000464A1 (zh) | 一种张量计算的分块策略生成方法及装置 | |
CN116893854A (zh) | 指令资源的冲突检测方法、装置、设备及存储介质 | |
Chimani et al. | Algorithm engineering: Concepts and practice | |
CN115691656A (zh) | 大型系统进化树的加速方法及装置 | |
Liu et al. | MR-DBIFOA: a parallel Density-based Clustering Algorithm by Using Improve Fruit Fly Optimization | |
CN117951315B (zh) | 一种代码依赖的检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |