CN110889439B - 一种图像特征提取方法、装置及电子设备和存储介质 - Google Patents

一种图像特征提取方法、装置及电子设备和存储介质 Download PDF

Info

Publication number
CN110889439B
CN110889439B CN201911088673.6A CN201911088673A CN110889439B CN 110889439 B CN110889439 B CN 110889439B CN 201911088673 A CN201911088673 A CN 201911088673A CN 110889439 B CN110889439 B CN 110889439B
Authority
CN
China
Prior art keywords
network layer
fpga
gpu
calculation
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911088673.6A
Other languages
English (en)
Other versions
CN110889439A (zh
Inventor
王丽
曹芳
郭振华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Electronic Information Industry Co Ltd
Original Assignee
Inspur Electronic Information Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inspur Electronic Information Industry Co Ltd filed Critical Inspur Electronic Information Industry Co Ltd
Priority to CN201911088673.6A priority Critical patent/CN110889439B/zh
Publication of CN110889439A publication Critical patent/CN110889439A/zh
Application granted granted Critical
Publication of CN110889439B publication Critical patent/CN110889439B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种图像特征提取方法、装置及一种电子设备和计算机可读存储介质,该方法包括:根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;利用所述训练完成的目标网络模型进行图像特征提取。本申请提供的图像特征提取方法在训练网络模型是采用GPU与FPGA的混合架构,能够提高网络层计算的资源利用率以及网络模型训练的能效比,进而提高图像特征提取效率。

Description

一种图像特征提取方法、装置及电子设备和存储介质
技术领域
本申请涉及计算机视觉领域技术领域,更具体地说,涉及一种图像特征提取方法、装置及一种电子设备和一种计算机可读存储介质。
背景技术
Resnet网络模型(深度残差卷积神经网络模型)可以用于在计算机视觉领域提取图像的特征。随着大数据、机器学习和人工智能在不同应用领域的发展,传统的计算架构已无法满足其对计算效能持续增长的迫切需求,基于CPU(中文全称:中央处理器,英文全称:central processing unit)+GPU(中文全称:图形处理器,英文全称:Graphics ProcessingUnit)集群的传统分布式计算架构在训练Resnet网络模型时存在能耗过高、扩展性较差、计算资源利用不足等问题,导致Resnet网络模型的训练效率较低。
因此,如何提高网络模型的训练效率是本领域人员需要解决的技术问题。
发明内容
本申请的目的在于提供一种图像特征提取方法、装置及一种电子设备和一种计算机可读存储介质,提高了网络模型的训练效率,进而提高了图像特征提取效率。
为实现上述目的,本申请提供了一种图像特征提取方法,包括:
根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;
根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
利用所述训练完成的目标网络模型进行图像特征提取。
其中,所述基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型,包括:
基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;
对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
其中,每个所述网络层的参数包括卷积核大小、输入图片大小、输出图片大小、输入通道数和输出通道数中的任一项或任一项的组合。
其中,所述GPU的基本信息包括所述GPU的型号;
所述FPGA的基本信息包括所述FPGA的DSP资源和编译频率。
其中,所述目标网络模型包括Resnet-50网络模型。
为实现上述目的,本申请提供了一种图像特征提取装置,包括:
第一计算模块,用于根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;其中,所述目标网络模型包括Resent-50网络模型;
第二计算模块,用于根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
分配模块,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
提取模块,用于利用所述训练完成的目标网络模型进行图像特征提取。
其中,所述分配模块包括:
确定单元,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;
优化单元,用于对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
计算模块,用于利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
其中,所述目标网络模型包括Resnet-50网络模型。
为实现上述目的,本申请提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述图像特征提取方法的步骤。
为实现上述目的,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述图像特征提取方法的步骤。
通过以上方案可知,本申请提供的一种图像特征提取方法,包括:根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;利用所述训练完成的目标网络模型进行图像特征提取。
本申请提供的图像特征提取方法,在训练网络模型是采用GPU与FPGA(中文全称:现场可编程逻辑门阵列,英文全称:Field Programmable Gate Array)的混合架构,根据网络层的计算量和GPU、FPGA设备的算力进行模型拆分,将不同的网络层划分到GPU和FPGA设备上进行计算,实现了网络模型的GPU+FPGA混合训练,能够提高网络层计算的资源利用率以及网络模型训练的能效比,进而提高图像特征提取效率。本申请还公开了一种图像特征提取装置及一种电子设备和一种计算机可读存储介质,同样能实现上述技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为根据一示例性实施例示出的一种图像特征提取方法的流程图;
图2为根据一示例性实施例示出的另一种图像特征提取方法的流程图;
图3为Resnet-50网络模型的训练系统的结构图;
图4为根据一示例性实施例示出的一种图像特征提取装置的结构图;
图5为根据一示例性实施例示出的一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例公开了一种图像特征提取方法,提高了网络模型的训练效率,进而提高了图像特征提取效率。
参见图1,根据一示例性实施例示出的一种图像特征提取方法的流程图,如图1所示,包括:
S101:根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;
本步骤中的目标网络模型可以包括Resnet-50网络模型或其他深度神经网络模型,在此不进行具体限定。在本步骤中,根据训练集的数据大小和网络模型中各网络层的参数计算出每个网络层的数据计算量,此处的参数可以包括卷积核大小、输入图片大小、输出图片大小、输入通道数和输出通道数等。
数据计算量为每个网络层前向和后向计算时的需要计算的总的运算数,以卷积层前向计算为例,Cin个通道上一次卷积计算:
加法运算:(K2-1)Cin,乘法运算:K2Cin,通道方向加法:Cin-1;
总的运算数:((K2-1)Cin)+K2Cin+(Cin-1)=2K2Cin-1
卷积总的数据计算量:(2K2Cin-1)(M2Cout)N,可简化为:2K2Cin(M2Cout)N。
其中,K为卷积核的大小,M为正向时输出图片的大小,N为Batch_size(批处理参数),Cin为输入通道数,Cout为输出通道数。
S102:根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
在本步骤中,根据GPU和FPGA的基本信息分别计算GPU和FPGA的算力,算力即为该设备每秒可以处理的浮点运算的数量,此处GPU的基本信息包括GPU的型号等,FPGA的基本信息包括FPGA的DSP资源和编译频率等。
S103:基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
在本步骤中,将网络层分配至GPU和FPGA中进行并行运算,即基于每个网络层的数据计算量、GPU的第一算力和FPGA的第二算力确定在GPU中计算的第一网络层和在FPGA中计算的第二网络层,使得GPU计算完成所有第一网络层的时间与FPGA计算完成所有第二网络层的时间大致相同。GPU与FPGA之间可以进行数据传输,以完成各网络层的计算。
优选的,本步骤包括:基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。在具体实施中,对第二网络层的前向和后向计算算法进行Opencl代码重写,并进行并行优化设计。所有网络层均计算完成后,得到训练完成的目标网络模型。
并行优化设计方法主要包括数据传输优化、存储访问优化、数据处理优化等,其中数据处理优化采用较多的是:多流水线、向量化、循环展开等方法。不同算法有其算法特点,一般会根据算法特点综合采用上述优化策略进行优化设计;
例如,在C++中的for循环语句:
for(int i=0;i<100;i++){
c[i]=a[i]*b[i];
}
上述c++语言代码在运算时是串行的,采用Opencl并行实现可以修改如下:
#define VEC 32//设定并行度
#pragma unroll VEC
for(int i=0;i<100;i++){
c[i]=a[i]*b[i];
}
该示例是将该循环采用32的并行度进行循环展开,即一个时钟周期同时进行32次运算。
存储访问优化:数据从主机端CPU传到FPGA板卡上是放置在DDR全局内存中的,在计算时,可以先读取数据到FPGA板卡的本地内存,然后利用本地内存的数据进行计算,计算完再写回全局内存,这样会降低数据访问延迟等。
S104:利用所述训练完成的目标网络模型进行图像特征提取。
在本步骤中,利用上述步骤训练完成的目标网络模型进行图像特征提取。
本申请实施例提供的图像特征提取方法,在训练网络模型是采用GPU与FPGA的混合架构,根据网络层的计算量和GPU、FPGA设备的算力进行模型拆分,将不同的网络层划分到GPU和FPGA设备上进行计算,实现了网络模型的GPU+FPGA混合训练,能够提高网络层计算的资源利用率以及网络模型训练的能效比,进而提高图像特征提取效率。
本申请实施例公开了一种图像特征提取方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
参见图2,根据一示例性实施例示出的另一种图像特征提取方法的流程图,如图2所示,包括:
S201:根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;
S202:根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
S203:基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络;
S204:对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
S205:利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
S206:利用所述训练完成的目标网络模型进行图像特征提取。
下面介绍本申请提供的一种应用实施例,如图3所示,Resnet-50网络模型的训练系统包括:理论计算量和设备算力分析模块、Resnet-50网络模型划分模块、FPGA内核程序实现优化模块和时序控制模块四个部分。理论计算量和设备算力分析模块主要完成了Resnet-50各网络层的计算量需求和GPU、FPGA板卡理论计算能力分析工作;Resnet-50网络模型划分模块针对理论计算量和算力分析模块的分析结果实现网络模型的模型划分;FPGA内核程序实现优化模块中实现经OpenCL并行优化设计后的Resnet-50网络网络层的前向和后向计算;时序控制模块控制Resnet-50网络模型训练的整个过程,实现数据在GPU和FPGA之间的流水控制。
Resnet-50网络模型的训练步骤包括:
步骤一:理论分析Resnet-50各网络层在训练过程中的计算量需求;
步骤二:理论分析GPU和FPGA计算设备的计算能力;
步骤三:根据步骤一和步骤二的理论分析结果,将Resnet-50网络模型进行手动的模型划分,将网络层指定分配到GPU或者FPGA设备上;
步骤四:对需要在FPGA设备上进行计算的网络层,进行Opencl编码实现,并对网络层的前向和后向计算过程进行Opencl并行优化设计;
步骤五:硬件编译优化好的网络层Opencl代码程序;
步骤六:启动Resnet-50训练过程,流水控制GPU和FPGA直接训练数据的传输过程,直到训练结束。
下面对本申请实施例提供的一种图像特征提取装置进行介绍,下文描述的一种图像特征提取装置与上文描述的一种图像特征提取方法可以相互参照。
参见图4,根据一示例性实施例示出的一种图像特征提取装置的结构图,如图4所示,包括:
第一计算模块401,用于根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;其中,所述目标网络模型包括Resent-50网络模型;
第二计算模块402,用于根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
分配模块403,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
提取模块404,用于利用所述训练完成的目标网络模型进行图像特征提取。
本申请实施例提供的图像特征提取装置,在训练网络模型是采用GPU与FPGA的混合架构,根据网络层的计算量和GPU、FPGA设备的算力进行模型拆分,将不同的网络层划分到GPU和FPGA设备上进行计算,实现了网络模型的GPU+FPGA混合训练,能够提高网络层计算的资源利用率以及网络模型训练的能效比,进而提高图像特征提取效率。
在上述实施例的基础上,作为一种优选实施方式,所述分配模块401包括:
确定单元,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;
优化单元,用于对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
计算模块,用于利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
在上述实施例的基础上,作为一种优选实施方式,所述目标网络模型包括Resnet-50网络模型。
在上述实施例的基础上,作为一种优选实施方式,每个所述网络层的参数包括卷积核大小、输入图片大小、输出图片大小、输入通道数和输出通道数中的任一项或任一项的组合。
在上述实施例的基础上,作为一种优选实施方式,所述GPU的基本信息包括所述GPU的型号;
所述FPGA的基本信息包括所述FPGA的DSP资源和编译频率。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请还提供了一种电子设备,参见图5,本申请实施例提供的一种电子设备500的结构图,如图5所示,可以包括处理器11和存储器12。该电子设备500还可以包括多媒体组件13,输入/输出(I/O)接口14,以及通信组件15中的一者或多者。
其中,处理器11用于控制该电子设备500的整体操作,以完成上述的图像特征提取方法中的全部或部分步骤。存储器12用于存储各种类型的数据以支持在该电子设备500的操作,这些数据例如可以包括用于在该电子设备500上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器12可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件13可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器12或通过通信组件15发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口14为处理器11和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件15用于该电子设备500与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件15可以包括:Wi-Fi模块,蓝牙模块,NFC模块。
在一示例性实施例中,电子设备500可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的图像特征提取方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述图像特征提取方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器12,上述程序指令可由电子设备500的处理器11执行以完成上述的图像特征提取方法。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (8)

1.一种图像特征提取方法,其特征在于,包括:
根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;
根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
利用所述训练完成的目标网络模型进行图像特征提取;
其中,所述基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型,包括:
基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;
对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
2.根据权利要求1所述图像特征提取方法,其特征在于,每个所述网络层的参数包括卷积核大小、输入图片大小、输出图片大小、输入通道数和输出通道数中的任一项或任一项的组合。
3.根据权利要求1所述图像特征提取方法,其特征在于,所述GPU的基本信息包括所述GPU的型号;
所述FPGA的基本信息包括所述FPGA的DSP资源和编译频率。
4.根据权利要求1所述图像特征提取方法,其特征在于,所述目标网络模型包括Resnet-50网络模型。
5.一种图像特征提取装置,其特征在于,包括:
第一计算模块,用于根据训练集的数据大小和目标网络模型中每个网络层的参数计算每个所述网络层的数据计算量;其中,所述目标网络模型包括Resent-50网络模型;
第二计算模块,用于根据GPU和FPGA的基本信息分别计算所述GPU的第一算力和所述FPGA的第二算力;
分配模块,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力将每个所述网络层分配至所述GPU或所述FPGA中进行计算,得到训练完成的目标网络模型;
提取模块,用于利用所述训练完成的目标网络模型进行图像特征提取;
其中,所述分配模块包括:
确定单元,用于基于每个所述网络层的数据计算量、所述第一算力和第二算力确定在所述GPU中计算的第一网络层和在所述FPGA中计算的第二网络层;
优化单元,用于对所述第二网络层的前向算法和后向算法进行Opencl代码重写和并行优化;
计算模块,用于利用所述GPU计算所述第一网络层,利用所述FPGA计算优化后的第二网络层,得到训练完成的目标网络模型。
6.根据权利要求5所述图像特征提取装置,其特征在于,所述目标网络模型包括Resnet-50网络模型。
7.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述图像特征提取方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述图像特征提取方法的步骤。
CN201911088673.6A 2019-11-08 2019-11-08 一种图像特征提取方法、装置及电子设备和存储介质 Active CN110889439B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911088673.6A CN110889439B (zh) 2019-11-08 2019-11-08 一种图像特征提取方法、装置及电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911088673.6A CN110889439B (zh) 2019-11-08 2019-11-08 一种图像特征提取方法、装置及电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN110889439A CN110889439A (zh) 2020-03-17
CN110889439B true CN110889439B (zh) 2022-06-17

Family

ID=69747165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911088673.6A Active CN110889439B (zh) 2019-11-08 2019-11-08 一种图像特征提取方法、装置及电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN110889439B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736986B (zh) * 2020-05-29 2023-06-23 浪潮(北京)电子信息产业有限公司 一种深度学习模型的fpga加速执行方法及相关装置
CN111752713B (zh) * 2020-06-28 2022-08-05 浪潮电子信息产业股份有限公司 模型并行训练任务负载均衡方法、装置、设备及存储介质
CN111859270B (zh) * 2020-07-14 2022-11-25 苏州浪潮智能科技有限公司 一种神经网络的卷积方法和装置
CN111860867B (zh) * 2020-07-24 2023-01-10 苏州浪潮智能科技有限公司 一种混合异构系统的模型训练方法、系统及相关装置
CN112783807B (zh) * 2020-12-31 2023-12-29 深圳大普微电子科技有限公司 一种模型计算方法及系统
CN112991850A (zh) * 2021-03-05 2021-06-18 江苏电子信息职业学院 一种双向选择式英语辅助教学系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084739A (zh) * 2019-03-28 2019-08-02 东南大学 一种基于cnn的画质增强算法的fpga并行加速系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018107371A1 (zh) * 2016-12-13 2018-06-21 上海联影医疗科技有限公司 图像搜索系统及方法
US10210594B2 (en) * 2017-03-03 2019-02-19 International Business Machines Corporation Deep learning via dynamic root solvers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084739A (zh) * 2019-03-28 2019-08-02 东南大学 一种基于cnn的画质增强算法的fpga并行加速系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Efficient parallel implementation of morphological operation on GPU and FPGA";Teng Li等;《Proceedings 2014 IEEE International Conference on Security, Pattern Analysis, and Cybernetics (SPAC)》;20141215;第430-435页 *
"人工智能研究的新前线:生成式对抗网络";林懿伦等;《自动化学报》;20180531;第44卷(第5期);第775-792页 *

Also Published As

Publication number Publication date
CN110889439A (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
CN110889439B (zh) 一种图像特征提取方法、装置及电子设备和存储介质
US10942716B1 (en) Dynamic computational acceleration using a heterogeneous hardware infrastructure
CN110058883B (zh) 一种基于opu的cnn加速方法及系统
US20200042856A1 (en) Scheduler for mapping neural networks onto an array of neural cores in an inference processing unit
US20230035451A1 (en) Resource usage prediction for deep learning model
CN103959238B (zh) 使用gpu/cpu体系结构的rsa的高效实现
JP2020537784A (ja) ニューラルネットワークアクセラレーションのための機械学習ランタイムライブラリ
KR20200069346A (ko) 대규모 병렬 소프트웨어로 정의된 하드웨어 시스템에서의 정적 블록 스케줄링
KR20140014090A (ko) 기민 통신 오퍼레이터
CN114598631B (zh) 面向神经网络计算的分布式数据路由的建模方法和装置
Phillips et al. A CUDA implementation of the High Performance Conjugate Gradient benchmark
CN110866610A (zh) 一种深度学习模型分布式运算的方法及装置
CN103838626A (zh) 一种处理串行任务的数据处理装置及方法
CN1853164B (zh) 用于开发dsp编译器构件块的组合方法
Maroosi et al. Parallel and distributed computing models on a graphics processing unit to accelerate simulation of membrane systems
CN107402905B (zh) 基于神经网络的计算方法及装置
US20200364056A1 (en) Facilitating data processing using simd reduction operations across simd lanes
Tang et al. Mapping of synchronous dataflow graphs on MPSoCs based on parallelism enhancement
US20240046081A1 (en) Data transfer for non-dot product computations on neural network inference circuit
CN111445016A (zh) 加速非线性数学计算的系统及方法
US11288046B2 (en) Methods and systems for program optimization utilizing intelligent space exploration
Poyraz et al. Application-specific I/O optimizations on petascale supercomputers
JP4158458B2 (ja) 情報処理装置、その情報処理方法
CN113760380A (zh) 网络模型的运行代码的确定方法、装置、设备及存储介质
JP2022546271A (ja) カーネルチューニングパラメータを予測するための方法及び装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant