CN111652059A - 基于计算鬼成像的目标识别模型构建、识别方法及装置 - Google Patents
基于计算鬼成像的目标识别模型构建、识别方法及装置 Download PDFInfo
- Publication number
- CN111652059A CN111652059A CN202010344210.8A CN202010344210A CN111652059A CN 111652059 A CN111652059 A CN 111652059A CN 202010344210 A CN202010344210 A CN 202010344210A CN 111652059 A CN111652059 A CN 111652059A
- Authority
- CN
- China
- Prior art keywords
- image
- light intensity
- matrix
- residual block
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于计算鬼成像的目标识别模型构建、识别方法及装置,通过设计了专用于鬼成像设备采集到的光强值的目标识别模型,双路神经网络充分考虑到了计算鬼成像数据的特点,将光强值和测量矩阵同时作为输入信息并且融合两路网络的输出要比单独输入光强信息准确率更高;实现了在计算鬼成像系统中对物体实现无成像步骤的识别,省去了成像计算的时间,完成快速目标识别;跳过了成像计算,与利用经典计算鬼成像方法先成像再识别的过程相比省去了成像计算的时间,实现了利用光强信息的快速目标识别,降低了系统的硬件需求。
Description
技术领域
本发明涉及目标识别方法,具体涉及一种基于计算鬼成像的目标识别模型构建、识别方法及装置。
背景技术
目标识别目前已在军事,交通,医疗等领域广泛应用,具体包括人脸识别,飞行物识别,车牌识别等。较为通用的一种方法是通过具有空间分辨能力的面阵探测器直接获取目标图像,再通过计算机视觉方法实现目标识别。而面阵探测器对光谱范围有所限制,同时需要在满采样率下工作,计算复杂度高,对硬件要求较高。
鬼成像作为一种间接成像方式,是利用光场的二阶乃至高阶关联性质重构出图像,其突出特性是能够“离物成像”:不同于普通成像中照明光场经成像物体后直接由面阵探测采集的方式,鬼成像将照明光场分为两路,一路经过物体后用没有空间分辨率的桶探测器收集,另一路直接由面阵探测器采集,两路测量结果再经关联计算重构出物体图像。计算鬼成像在鬼成像的基础上,将两路光变为一路光,其主要利用了空间光调制器SLM实现光场调制。
现有技术中基于鬼成像的目标识别方法需要对识别到的物体进行计算成像后才能进行识别,这样会增加识别时间,使得物体识别的实时性不高、识别效率不高。
发明内容
本发明的目的在于提供一种基于计算鬼成像的目标识别模型构建、识别方法及装置,用以解决现有技术中的基于计算鬼成像的目标识别方法存在的识别效率不高的问题。
为了实现上述任务,本发明采用以下技术方案:
一种基于计算鬼成像的目标识别模型构建方法,所述的方法按照以下步骤执行:
步骤1、采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;所述的第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
步骤2、对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
步骤3、将所述的模拟光强值集作为输入,将所述的标签集作为参考输出,训练神经网络;
所述的神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中所述的特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
所述的光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,所述的残差块网络包括依次串联的多个残差块组合,所述的残差块组合包括依次串联的第一残差块以及第二残差块;
所述的测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,所述的卷积块包括依次连接的多层卷积层;
获得目标识别模型。
可选地,所述的步骤2中对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,具体包括:
步骤2.1、获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,所述的第一矩阵包括R2列的列向量;R为正整数;
步骤2.2、将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
步骤2.3、将所述的第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
步骤2.4、获取步骤2.3获得的每幅第一图像对应的灰度矩阵与步骤2.2获得的R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
步骤2.5、计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
可选地,所述的第一残差块包括依次串联设置的第一全连接层、第二全连接层以及第一融合层;所述的第一融合层用于将第一残差块的输入与第二全连接层的输出进行叠加;所述的第一全连接层中神经元个数、第二全连接层中的神经元个数与第一残差块的输入维度相同;
所述的第二残差块包括依次串联设置的第三全连接层、第四全连接层以及第二融合层;所述的第二融合层用于将第二残差块的输入与第四全连接层的输出进行叠加;所述的第三全连接层中包括x+2y个神经元,所述的第四全连接层中包括y个神经元;其中x为第二残差块的输入维度,y为第二残差块的输出维度,x与y均为正整数。
一种基于计算鬼成像的目标识别方法,所述的方法按照以下步骤执行:
步骤A、利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
步骤B、将所述的测量光强值序列输入至权利要求1-3任一项权利要求所述的基于计算鬼成像的目标识别模型构建方法获得的目标识别模型中,获得识别结果。
一种基于计算鬼成像的目标识别模型构建装置,所述的装置包括图像采集模块、模拟光强处理模块以及模型建立模块;
所述的图像采集模块用于采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;所述的第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
所述的模拟光强处理模块用于对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
所述的模型建立模块用于将所述的模拟光强值集作为输入,将所述的标签集作为参考输出,训练神经网络;
所述的神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中所述的特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
所述的光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,所述的残差块网络包括依次串联的多个残差块组合,所述的残差块组合包括依次串联的第一残差块以及第二残差块;
所述的测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,所述的卷积块包括依次连接的多层卷积层;
获得目标识别模型。
可选地,所述的模拟光强处理模块包括矩阵构建子模块、矩阵重构子模块、灰度变换子模块、积矩阵获得子模块以及模拟光强值获得子模块;
所述的矩阵构建子模块用于获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,所述的第一矩阵包括R2列的列向量;R为正整数;
所述的矩阵重构子模块用于将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
所述的灰度变换子模块用于将所述的第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
所述的积矩阵获得子模块用于获取每幅第一图像对应的灰度矩阵与R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
所述的模拟光强值获得子模块用于计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
可选地,所述的第一残差块包括依次串联设置的第一全连接层、第二全连接层以及第一融合层;所述的第一融合层用于将第一残差块的输入与第二全连接层的输出进行叠加;所述的第一全连接层中神经元个数、第二全连接层中的神经元个数与第一残差块的输入维度相同;
所述的第二残差块包括依次串联设置的第三全连接层、第四全连接层以及第二融合层;所述的第二融合层用于将第二残差块的输入与第四全连接层的输出进行叠加;所述的第三全连接层中包括x+2y个神经元,所述的第四全连接层中包括y个神经元;其中x为第二残差块的输入维度,y为第二残差块的输出维度,x与y均为正整数。
一种基于计算鬼成像的目标识别装置,所述的装置包括数据采集模块以及如所述的基于计算鬼成像的目标识别模型构建装置获得的目标识别模型;
所述的数据采集模块用于利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
所述的目标识别模型用于对所述的测量光强值序列进行识别,获得识别结果。
本发明与现有技术相比具有以下技术效果:
1、本发明提供的基于计算鬼成像的目标识别模型构建方法及装置通过设计了专用于鬼成像设备采集到的光强值的目标识别模型,双路神经网络充分考虑到了计算鬼成像数据的特点,将光强值和测量矩阵同时作为输入信息并且融合两路网络的输出要比单独输入光强信息准确率更高;实现了在计算鬼成像系统中对物体实现无成像步骤的识别,省去了成像计算的时间,完成快速目标识别。
2、本发明提供的基于计算鬼成像的目标识别模型构建方法及装置通过设计了对图像进行模拟光强值处理的方法,利用了哈达玛矩阵对原始图像进行处理,模拟了实际操作中光场投射物体,探测器测量总光强的过程,由于哈达玛矩阵的正交性,每次对于图像的处理是没有冗余信息的;
3、本发明提供的计算鬼成像的目标识别方法及装置跳过了成像计算,与利用经典计算鬼成像方法先成像再识别的过程相比省去了成像计算的时间,实现了利用光强信息的快速目标识别,降低了系统的硬件需求。
附图说明
图1为本发明的一个实施例中提供的目标识别模型网络结构示意图;
图2为本发明的一个实施例中提供的第一残差块结构示意图;
图3为本发明的一个实施例中提供的第二残差块结构示意图;
图4为本发明提供的基于计算鬼成像的目标识别方法流程图;
图5为本发明的一个实施例中提供的计算鬼成像装置结构示意图;
图6为本发明的一个实施例中提供的第一图像集的示例图像;
图7为本发明的一个实施例中提供的待识别目标的图像。
图中标号代表:1-光源,2-透镜I,3-透镜II,4-空间光调制器,5-待测目标,6-透镜III,7-桶探测器。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。以便本领域的技术人员更好的理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
以下对本发明涉及的定义或概念内涵做以说明:
模拟光强处理:由于实际操作中,探测器的值是每次投射光场后的光强值,而在仿真实验中,数据集中一般只有原始图像,所以我们需要一种方法去模拟上述过程,因此需要对原始图像进行模拟光强处理,进行后续的实验。
哈达玛矩阵:是一种由+1和-1元素构成的且满足Hn*Hn T=nIn(Hn T是Hn的转置,I为单位方阵)n阶方阵Hn,主要性质包括其任意两行或两列是正交的,其阶数是2或4的倍数。
哈达玛积:为矩阵的一种计算,若A=(aij)和B=(bij)是两个同阶矩阵,若cij=aij*bij,则称矩阵C=(cij)是矩阵A和B的哈达玛积,即两个同阶矩阵对应位置元素相乘。
实施例一
在本实施例中公开了一种基于计算鬼成像的目标识别模型构建方法,方法按照以下步骤执行:
步骤1、采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
在本发明中,待识别目标图像的同类图像是指与待识别目标图像语义相同的图像,在本发明中语义相似是指属于同一大类的图像,包括植物、动物、生活用品等,例如生物学家将自然中很多目标都按照科属种等进行分类,比如植物是大类,那么它的子类就包含兰花、菊花、杨树等,因此兰花和菊花就属于语义相似类。
在本实施例中采集多幅第一图像的方法可以是手动拍照采集也可以是直接采用现有的图像数据库。例如Fashion MNIST数据集,这是一种包含了十类常见衣物图像的数据集,如图6所示,图像的尺寸均为28*28。
步骤2、对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
为了进一步地提高光强值模拟的准确性,便于后续实验,具体地,步骤2中对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,具体包括:
步骤2.1、获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,第一矩阵包括R2列的列向量;R为正整数;
步骤2.2、将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
步骤2.3、将第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
步骤2.4、获取步骤2.3获得的每幅第一图像对应的灰度矩阵与步骤2.2获得的R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
步骤2.5、计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
在本实施例中,利用哈达玛矩阵对训练图像进行处理得到模拟光强值作为训练数据和对应标签;
其中,首先生成R2阶哈达玛矩阵,将矩阵中的-1置0,得到只有1和0元素的矩阵,在本实施例中获得的第一矩阵为:
接着将第一矩阵的每一列重构为R×R的第二矩阵Ai,i=1,2,…,R2,总计R2个A;其中A表示第二矩阵,Ai表示第i个第二矩阵。
在本发明中R2为2或4的倍数。
在进行重构时,将第一矩阵的每一列填入初始值为空的R×R的矩阵中,顺序为从左至右,从上直下,重构过程在Matlab中完成,其函数为reshape函数,其操作为对原矩阵逐列扫描,变换后的矩阵逐列填充,若B=reshape(A,[3,2]),则
然后将第一图像进行灰度变换,得到每幅第一图像的灰度矩阵I,并将灰度矩阵尺寸重构为R×R;对于每幅第一图像,计算其灰度矩阵I和Ai的哈达玛积:
由此每幅第一图像会得到R2个哈达玛积矩阵,求哈达玛积矩阵的平均值,作为每幅第一图像对应的模拟光强值序列γ中的元素:
其中γi表示任一幅第一图像对应的第i个模拟光强值;其中i=1,2,…,R2,为任一幅第一图像对应的第i个哈达玛矩阵的第m,n个元素;也就是说,上式是用来求取任一第一图像对应的第i个哈达玛矩阵的平均值,任一第一图像的第i个平均值也就是任一第一图像的第i个模拟光强值,重复上述操作,直至获得任一第一图像的模拟光强值序列;重复上述操作,直至获得每幅第一图像的模拟光强值序列。
经过上述处理,第一图像集中所有第一图像转换为每幅第一图像对应的R2维的模拟光强值序列,将模拟光强值序列作为训练数据集。
本实施例提供的模拟光强值的方法利用了哈达玛矩阵对原始图像进行处理,模拟了实际操作中光场投射物体,探测器测量总光强的过程,由于哈达玛矩阵的正交性,每次对于图像的处理是没有冗余信息的;任意两次的第二矩阵的提取结果是不重复的,没有冗余,且完整覆盖了图像的所有像素点。
步骤3、将模拟光强值集作为输入,将标签集作为参考输出,训练神经网络;
神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,残差块网络包括依次串联的多个残差块组合,残差块组合包括依次串联的第一残差块以及第二残差块;
测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,卷积块包括依次连接的多层卷积层;
获得目标识别模型。
在本实施例中公开的神经网络是为了能够准确、快速地对模拟光强值进行训练而特殊设计的,这种双路神经网络充分考虑到了计算鬼成像数据的特点,将光强值和测量矩阵同时作为输入信息并且融合两路网络的输出要比单独输入光强信息准确率更高。
在本实施例中,如图1所示,网络主要包括光强特征提取和测量矩阵特征提取两个部分,以R=32为例,对于光强特征提取部分,第一个第一残差块是两层神经元个数为1024的全连接层,两层之间为ReLU激活函数;接下来是第一个第二残差块,包含了一个768个神经元的全连接层,一个512个神经元的全连接层和一个由1024到512的线性映射。依次往下是第二个第一残差块,包含两个512神经元的全连接层;第二个第二残差块,包含一个384个神经元的全连接层,一个512个神经元的全连接层和一个由512到256的线性映射;第三个第一残差块,包含两个256神经元的全连接层;第三个第二残差块,包含一个160个神经元的全连接层,一个64个神经元的全连接层和一个由256到64的线性映射;第四个第二残差块,包含一个37个神经元的全连接层,一个10个神经元的全连接层和一个由64到10的线性映射。上述任意残差块的输出在进入下一个残差块之前都要经过ReLU激活函数,任意块内两层之间也要经过ReLU激活函数。对于测量矩阵特征提取部分,主要包含了5个卷积层,两个全连接层和一个池化层。5个卷积层参数依次是1024个3*3的卷积核,512个5*5的卷积核,256个5*5的卷积核,128个3*3的卷积核,64个3*3的卷积核。池化层在第一个卷积层之后,参数为2*2的平均池化。两个全连接层在最后,参数分别为64和10个神经元。上述任意卷积层和第一个全连接的输出都要经过ReLU激活函数。将两个部分的输出送入融合层得到一个10个元素的向量,即分类层为10个神经元的全连接层。
可选地,第一残差块包括依次串联设置的第一全连接层、第二全连接层以及第一融合层;第一融合层用于将第一残差块的输入与第二全连接层的输出进行叠加;第一全连接层中神经元个数、第二全连接层中的神经元个数与第一残差块的输入维度相同;
第二残差块包括依次串联设置的第三全连接层、第四全连接层以及第二融合层;第二融合层用于将第二残差块的输入与第四全连接层的输出进行叠加;第三全连接层中包括个神经元,第四全连接层中包括y个神经元;其中x为第二残差块的输入维度,y为第二残差块的输出维度,x与y均为正整数。
在本实施例中,第一残差块包含两个参数一样的全连接层,第一层的输出要经过ReLU激活函数后进入第二层,第二层的输出与原输入相加作为第一残差块的输出;第二残差块包含两个全连接层和一个线性映射,若此块的输入维度为x,输出维度为y,则第一个全连接层神经元个数为(x+y)/2,第二个全连接层的神经元个数为y,同样的,第一层的输出要经过ReLU激活函数后进入第二层。由于输出维度与输入维度不一样不能直接相加,所以输入信息需要经过一个由x到y的线性映射后再与第二个全连接层的输出相加作为第二残差块的输出。
在本实施例中,由于光强信息包含了物体的特征信息,是主要信息,为了提高识别准确度,需要进一步加深网络,而深层网络往往会产生梯度爆炸/消失和过拟合等问题,引入残差结构后就能很好的保证深层网络的性能。这里主要使用了两种残差块,第一残差块的特点是,输入和输出维度相同,可以直接将原输入与第二层的输出相加(图2以实线表示)如果全部使用第一残差块,就无法将数据降维得到需要的结果,所以就需要在网络中用第二残差块对数据进行降维。对于第二残差块来说,若输入维度为x,输出维度为y,第一层的神经元个数设为(x+y)/2用于过渡,第二层个数就是输出维度y,由于输入输出维度不一样,不能与第一残差块一样直接相加,所以需要一个线性映射将输入的维度变得与输出一样后再相加(图3中以虚线表示)。
在本实施例中提供的基于计算鬼成像的目标识别模型构建方法通过设计了专用于鬼成像设备采集到的光强值的目标识别模型,双路神经网络充分考虑到了计算鬼成像数据的特点,将光强值和测量矩阵同时作为输入信息并且融合两路网络的输出要比单独输入光强信息准确率更高;实现了在计算鬼成像系统中对物体实现无成像步骤的识别,省去了成像计算的时间,完成快速目标识别。
实施例二
在本实施例中公开了一种基于计算鬼成像的目标识别方法,方法按照以下步骤执行:
步骤A、利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
步骤B、将测量光强值序列输入至实施例一中的基于计算鬼成像的目标识别模型构建方法获得的目标识别模型中,获得识别结果。
在本实施例中,计算鬼成像设备包括光源1、透镜Ⅰ2、透镜Ⅱ3、空间光调制器4,待测目标5、透镜Ⅲ6、桶探测器7和PC8。光源1发出的光经透镜Ⅰ2和透镜Ⅱ3后照射到由PC8控制的空间光调制器4上,空间光调制器4产生具有哈达玛积矩阵特征的散斑,照射到待测目标5上,反射光经透镜Ⅲ6汇聚后被桶探测器7接收;PC8得到桶探测器7测得的光强值后输入神经网络得到物体类别标签。
在发明中的待识别目标的图像与目标识别模型的训练图像为同类图像,例如在本实施例中待识别目标的图像如图7所示,利用鬼成像设备采集如图7所示的目标的测量光强值序列后,利用如图6所示的数据集采用实施例一的方法构建出的目标识别模型,获得识别结果为“鞋子”。
本发明提供的基于计算鬼成像的目标识别方法,在原理上跳过了成像计算,总体上与利用经典计算鬼成像方法先成像再识别的过程相比省去了成像计算的时间,实现了利用光强信息的快速目标识别,降低了系统的硬件需求。
本发明提供的基于计算鬼成像的目标识别方法,可以用于军事中隐形坦克隐形战机的识别,一般是通过机身上的特殊材料涂层吸收探测雷达的电磁波,实现隐身的效果。鬼成像系统由于其本身可以使用一些非常规光源如量子纠缠光源,常规的吸收电磁波的涂层会没有效果。在训练目标识别模型的过程中,需要待识别目标物体的图像,如隐形战机,隐形坦克进行仿真。利用鬼成像设备测得待识别的物体的特征信息,再输入预训练好的目标识别模型中获得识别结果。
实施例三
在本实施例中提供了一种基于计算鬼成像的目标识别模型构建装置,其特征在于,装置包括图像采集模块、模拟光强处理模块以及模型建立模块;
图像采集模块用于采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
模拟光强处理模块用于对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
模型建立模块用于将模拟光强值集作为输入,将标签集作为参考输出,训练神经网络;
神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,残差块网络包括依次串联的多个残差块组合,残差块组合包括依次串联的第一残差块以及第二残差块;
测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,卷积块包括依次连接的多层卷积层;
获得目标识别模型。
可选地,模拟光强处理模块包括矩阵构建子模块、矩阵重构子模块、灰度变换子模块、积矩阵获得子模块以及模拟光强值获得子模块;
矩阵构建子模块用于获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,第一矩阵包括R2列的列向量;R为正整数;
矩阵重构子模块用于将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
灰度变换子模块用于将第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
积矩阵获得子模块用于获取每幅第一图像对应的灰度矩阵与R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
模拟光强值获得子模块用于计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
可选地,第一残差块包括依次串联设置的第一全连接层、第二全连接层以及第一融合层;第一融合层用于将第一残差块的输入与第二全连接层的输出进行叠加;第一全连接层中神经元个数、第二全连接层中的神经元个数与第一残差块的输入维度相同;
第二残差块包括依次串联设置的第三全连接层、第四全连接层以及第二融合层;第二融合层用于将第二残差块的输入与第四全连接层的输出进行叠加;第三全连接层中包括个神经元,第四全连接层中包括y个神经元;其中x为第二残差块的输入维度,y为第二残差块的输出维度,x与y均为正整数。
实施例四
在本实施例中提供了一种基于计算鬼成像的目标识别装置,装置包括数据采集模块以及如实施例三中的基于计算鬼成像的目标识别模型构建装置获得的目标识别模型;
数据采集模块用于利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
目标识别模型用于对测量光强值序列进行识别,获得识别结果;其中待识别目标的图像与实施例三中的第一图像为同类图像。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法。
Claims (8)
1.一种基于计算鬼成像的目标识别模型构建方法,其特征在于,所述的方法按照以下步骤执行:
步骤1、采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;所述的第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
步骤2、对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
步骤3、将所述的模拟光强值集作为输入,将所述的标签集作为参考输出,训练神经网络;
所述的神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中所述的特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
所述的光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,所述的残差块网络包括依次串联的多个残差块组合,所述的残差块组合包括依次串联的第一残差块以及第二残差块;
所述的测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,所述的卷积块包括依次连接的多层卷积层;
获得目标识别模型。
2.如权利要求1所述的基于计算鬼成像的目标识别模型构建方法,其特征在于,所述的步骤2中对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,具体包括:
步骤2.1、获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,所述的第一矩阵包括R2列的列向量;R为正整数;
步骤2.2、将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
步骤2.3、将所述的第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
步骤2.4、获取步骤2.3获得的每幅第一图像对应的灰度矩阵与步骤2.2获得的R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
步骤2.5、计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
4.一种基于计算鬼成像的目标识别方法,其特征在于,所述的方法按照以下步骤执行:
步骤A、利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
步骤B、将所述的测量光强值序列输入至权利要求1-3任一项权利要求所述的基于计算鬼成像的目标识别模型构建方法获得的目标识别模型中,获得识别结果。
5.一种基于计算鬼成像的目标识别模型构建装置,其特征在于,所述的装置包括图像采集模块、模拟光强处理模块以及模型建立模块;
所述的图像采集模块用于采集多幅第一图像,获得第一图像集;获取第一图像集中每幅第一图像的标签,获得标签集;所述的第一图像中包括待识别的目标图像或待识别目标图像的同类图像;
所述的模拟光强处理模块用于对第一图像集中每幅第一图像进行模拟光强处理,获得每幅第一图像的模拟光强值序列,获得模拟光强值集;
所述的模型建立模块用于将所述的模拟光强值集作为输入,将所述的标签集作为参考输出,训练神经网络;
所述的神经网络包括依次串联的特征提取层、特征融合层以及分类层;
其中所述的特征提取层包括并联的光强特征提取网络以及测量矩阵特征提取网络;
所述的光强特征提取网络包括依次串联设置的残差块网络以及第二残差块,所述的残差块网络包括依次串联的多个残差块组合,所述的残差块组合包括依次串联的第一残差块以及第二残差块;
所述的测量矩阵特征提取网络包括依次串联的卷积层、池化层、卷积块以及全连接层,所述的卷积块包括依次连接的多层卷积层;
获得目标识别模型。
6.如权利要求5所述的基于计算鬼成像的目标识别模型构建装置,其特征在于,所述的模拟光强处理模块包括矩阵构建子模块、矩阵重构子模块、灰度变换子模块、积矩阵获得子模块以及模拟光强值获得子模块;
所述的矩阵构建子模块用于获得R2阶哈达玛矩阵,将所述哈达玛矩阵中的负值替换为0,获得第一矩阵,所述的第一矩阵包括R2列的列向量;R为正整数;
所述的矩阵重构子模块用于将所述第一矩阵中的每一列的列向量分别重构为R×R的矩阵中,获得R2个第二矩阵;
所述的灰度变换子模块用于将所述的第一图像集中每幅第一图像进行灰度变换,获得每幅第一图像对应的灰度矩阵;
所述的积矩阵获得子模块用于获取每幅第一图像对应的灰度矩阵与R2个第二矩阵的哈达玛积矩阵,获得每幅第一图像对应的R2个哈达玛积矩阵;
所述的模拟光强值获得子模块用于计算每幅第一图像对应的每个哈达玛积矩阵的平均值,获得每幅第一图像对应的R2个模拟光强值,获得每幅第一图像的模拟光强值序列。
8.一种基于计算鬼成像的目标识别装置,其特征在于,所述的装置包括数据采集模块以及如权利要求5-7任一项权利要求所述的基于计算鬼成像的目标识别模型构建装置获得的目标识别模型;
所述的数据采集模块用于利用计算鬼成像设备对待识别的目标进行R2次测量,获得R2个测量光强值,获得测量光强值序列,其中R为正整数;
所述的目标识别模型用于对所述的测量光强值序列进行识别,获得识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010344210.8A CN111652059B (zh) | 2020-04-27 | 2020-04-27 | 基于计算鬼成像的目标识别模型构建、识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010344210.8A CN111652059B (zh) | 2020-04-27 | 2020-04-27 | 基于计算鬼成像的目标识别模型构建、识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652059A true CN111652059A (zh) | 2020-09-11 |
CN111652059B CN111652059B (zh) | 2023-03-24 |
Family
ID=72346533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010344210.8A Active CN111652059B (zh) | 2020-04-27 | 2020-04-27 | 基于计算鬼成像的目标识别模型构建、识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111652059B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112615677A (zh) * | 2020-11-30 | 2021-04-06 | 华中科技大学 | 基于深度学习的非正交波分复用时域鬼成像方法和系统 |
CN112802145A (zh) * | 2021-01-27 | 2021-05-14 | 四川大学 | 一种基于深度学习的彩色计算鬼成像方法 |
CN112819910A (zh) * | 2021-01-08 | 2021-05-18 | 上海理工大学 | 基于双鬼注意力机制网络的高光谱图像重建方法 |
CN113240610A (zh) * | 2021-05-27 | 2021-08-10 | 清华大学深圳国际研究生院 | 一种基于仿人眼机制的双通道鬼成像重建方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921029A (zh) * | 2018-06-04 | 2018-11-30 | 浙江大学 | 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法 |
CN110646810A (zh) * | 2019-09-27 | 2020-01-03 | 北京理工大学 | 一种散斑优化压缩感知鬼成像方法及系统 |
WO2020037960A1 (zh) * | 2018-08-21 | 2020-02-27 | 深圳大学 | 一种sar目标识别方法、装置、计算机设备及存储介质 |
CN110929697A (zh) * | 2019-12-17 | 2020-03-27 | 中国人民解放军海军航空大学 | 一种基于残差结构的神经网络目标识别方法及系统 |
-
2020
- 2020-04-27 CN CN202010344210.8A patent/CN111652059B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921029A (zh) * | 2018-06-04 | 2018-11-30 | 浙江大学 | 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法 |
WO2020037960A1 (zh) * | 2018-08-21 | 2020-02-27 | 深圳大学 | 一种sar目标识别方法、装置、计算机设备及存储介质 |
CN110646810A (zh) * | 2019-09-27 | 2020-01-03 | 北京理工大学 | 一种散斑优化压缩感知鬼成像方法及系统 |
CN110929697A (zh) * | 2019-12-17 | 2020-03-27 | 中国人民解放军海军航空大学 | 一种基于残差结构的神经网络目标识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
曹飞等: "基于数字微镜器件的光子计数对应鬼成像", 《光学学报》 * |
赵群等: "基于二维DCT的鬼成像高效目标重构", 《吉林大学学报(信息科学版)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112615677A (zh) * | 2020-11-30 | 2021-04-06 | 华中科技大学 | 基于深度学习的非正交波分复用时域鬼成像方法和系统 |
CN112819910A (zh) * | 2021-01-08 | 2021-05-18 | 上海理工大学 | 基于双鬼注意力机制网络的高光谱图像重建方法 |
CN112819910B (zh) * | 2021-01-08 | 2022-12-27 | 上海理工大学 | 基于双鬼注意力机制网络的高光谱图像重建方法 |
CN112802145A (zh) * | 2021-01-27 | 2021-05-14 | 四川大学 | 一种基于深度学习的彩色计算鬼成像方法 |
CN113240610A (zh) * | 2021-05-27 | 2021-08-10 | 清华大学深圳国际研究生院 | 一种基于仿人眼机制的双通道鬼成像重建方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111652059B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652059B (zh) | 基于计算鬼成像的目标识别模型构建、识别方法及装置 | |
Zhang et al. | Towards high performance human keypoint detection | |
Sonka et al. | Image processing, analysis and machine vision | |
CN107997778A (zh) | 在计算机断层扫描血管造影术中基于深度学习的骨移除 | |
Wang et al. | Cross self-attention network for 3D point cloud | |
Sabih et al. | Utilizing explainable AI for quantization and pruning of deep neural networks | |
Chawan et al. | Distracted driver detection and classification | |
Zhang et al. | A separation–aggregation network for image denoising | |
Shinohara et al. | FWNet: semantic segmentation for full-waveform LiDAR data using deep learning | |
Zhou et al. | Deep multi-scale recurrent network for synthetic aperture radar images despeckling | |
de Souza Brito et al. | Combining max-pooling and wavelet pooling strategies for semantic image segmentation | |
Kulikajevas et al. | 3D object reconstruction from imperfect depth data using extended YOLOv3 network | |
Rao et al. | Plant disease detection using convolutional neural networks | |
Ayachi et al. | An edge implementation of a traffic sign detection system for Advanced driver Assistance Systems | |
Bock et al. | Gray-scale ALIAS | |
Hao et al. | Rare animal image recognition based on convolutional neural networks | |
Al-Barazanchi et al. | Performance evaluation of hybrid CNN for SIPPER plankton image calssification | |
Bhattacharjya et al. | A genetic algorithm for intelligent imaging from quantum-limited data | |
Geyer et al. | Deep-learning-based radiointerferometric imaging with GAN-aided training | |
Rao et al. | Classification of land cover usage from satellite images using deep learning algorithms | |
Sari et al. | The Effect of Batch Size and Epoch on Performance of ShuffleNet-CNN Architecture for Vegetation Density Classification | |
Pande et al. | Feedback convolution based autoencoder for dimensionality reduction in hyperspectral images | |
Tang et al. | An adaptive superpixels for vegetation detection on high resolution images based on MLP | |
Khanzadi et al. | Robust fuzzy rough set based dimensionality reduction for big multimedia data hashing and unsupervised generative learning | |
Vishwanathan | A novel deep learning method for object detection in multispectral images via pixel rearrangement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |