CN111695645A - 基于深度神经网络的未知手写体数字识别方法 - Google Patents

基于深度神经网络的未知手写体数字识别方法 Download PDF

Info

Publication number
CN111695645A
CN111695645A CN202010385802.4A CN202010385802A CN111695645A CN 111695645 A CN111695645 A CN 111695645A CN 202010385802 A CN202010385802 A CN 202010385802A CN 111695645 A CN111695645 A CN 111695645A
Authority
CN
China
Prior art keywords
handwritten
neural network
unknown
deep neural
fourier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010385802.4A
Other languages
English (en)
Other versions
CN111695645B (zh
Inventor
何行
赵生妹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202010385802.4A priority Critical patent/CN111695645B/zh
Publication of CN111695645A publication Critical patent/CN111695645A/zh
Application granted granted Critical
Publication of CN111695645B publication Critical patent/CN111695645B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • G06V30/245Font recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于深度神经网络的未知手写体数字识别方法,通过关联成像技术提取未知手写体数字的特征,包括首先设计一组傅立叶散斑照射在未知手写数字图像上,然后使用一个没有空间分辨率的桶探测器收集每次检测结果,并通过四步相移方法获得未知手写体数字的特征信息,然后将该特征信息输入至已设计的、且训练过的深度神经网络中进行识别,实现对未知的数字图像进行分类。仿真结果表明,该方案具有较好的识别性能,且能够在不恢复手写体数字图片前提下对其进行识别。本发明具有识别率高、识别时间短特点,具有非局域特性,且所设计的深度神经网络结构简单,因而具有巨大的应用前景。

Description

基于深度神经网络的未知手写体数字识别方法
技术领域
本发明涉及关联成像领域,尤其涉及一种基于深度神经网络的未知手写体数字识别方法。
背景技术
“鬼”成像(Ghost Imaging,GI),又称关联成像(Correlated Imaging),是近些年来量子光学领域的前沿和热点之一。关联成像采用两条光路,一支称为信号光路,指散斑通过物体后的光用一个无空间分辨能力的桶探测器接收;另一支称为参考光路,指散斑在传输一段距离后由具有空间分辨能力的探测器接收。最后对两条光路的探测结果进行二阶关联可以在参考光路得到物体的恢复图像。与传统的成像方式不同的是关联成像可以在不包含物体的光路上恢复出物体图像,这一特性称为非定域性。随着关联成像的发展,热光“鬼”成像、计算“鬼”成像等新型“鬼”成像技术被不断提出。与此同时,随着“鬼”成像性能的提高,各种基于“鬼”成像的应用也得以实现。大量研究表明,“鬼”成像可广泛应用在军事、加密、激光雷达等领域。上世纪80年代,前苏联学者D.N.Klyshko根据自发参量下转换光子对的纠缠行为,提出了量子关联成像方案。1995年,Pittman等人根据Klyshko的理论首次在实验上实现了量子关联成像。2002年,Bennink等人在实验上利用经典热光源实现了“鬼”成像,证明了利用热光同样可以实现“鬼”成像,在“鬼”成像领域引起了巨大的轰动。2008年,Jeffrey H.Shapiro等人理论上提出了计算“鬼”成像可以作为传统“鬼”成像的一种替代技术,2009年Bromberg等人在实验上实现了计算“鬼”成像,即单探测光路的“鬼”成像方案,其中旋转的毛玻璃由计算机控制的空间光调制器(SLM)替代。2010年,Ferri F基于热光“鬼”成像提出差分“鬼”成像方案,在成像时只传输物体的差分信息,降低了背景噪声对恢复图像质量的影响,从而提高了成像的质量。2015年,Zhang Z B等人提出了一种通过获取图像傅里叶频谱的方法来实现单像素成像,该方法大大提高了重建图像的质量。同时基于鬼成像的各种应用也被广泛的研究,例如2015年Liu F等人提出的梯度鬼成像,通过梯度鬼成像可以在不得到物体图像的情况下直接得到物体的边缘信息。
随着“鬼”成像的技术发展,如何用“鬼”成像技术解决实际问题成为“鬼”成像需要解决的问题。传统的手写体数字识别方法是通过提取手写体数字高维数特征集,并筛选出较低维的特征,然后通过神经网络训练得到手写数字的分类器。目前对于手写体数字的研究主要集中在两个方面。
一是研究用于数字识别的神经网络,不断改进网络结构,设计出最有效的数字识别网络,有多层全连接网络,遗传神经网络,多层分组网络等,其次是对算法的研究,最经典的是反向传播算法以及其他改进算法。
二是研究用于神经网络输入的手写体数字特征的提取,许多有效的特征被提取出来,例如:轮廓特征,对称特征,网格特征等等,并且提出了提取特征的方法,比如K-W法,直方图法,不确定选择法等,但是这些方法都必须是在获得手写体数字的情况下才能进行特征提取,对于未知的手写体数字,上述特征提取方法失效。
发明内容
本发明的目的是提供一种基于深度神经网络的未知手写体数字识别方法,将“鬼”成像技术应用于手写体数字识别的领域中,实现了未知的手写体数字识别,基于深度神经网络强大的学习能力,利用它能通过训练学习输入信息的特征,对信息进行分类或预测的特性,结合“鬼”成像技术能提取图像特征的特点,应用于未知手写体数字识别的领域中,实现了在不恢复数字图片的情况下的数字识别,改变了传统的需要获得整张数字图片信息进行识别的方法,只需对手写体数字图片使用关联成像技术照射正弦散斑获得四组相移的桶探测值,计算该桶探测值获得数字特征,输入至深度神经网络即可识别。结合关联成像技术和深度神经网络,用傅里叶频谱中心区域部分作为特征来识别手写体数字图片,减少了采样次数,以此来实现在不得到数字图片的情况下进行数字识别的方法。
本发明提供一种基于深度神经网络的未知手写体数字识别方法,所述方法包括以下步骤:
步骤一:以频谱中心为原点,选取频谱(fx,fy)(-h/2≤fx≤h/2,-v/2≤fy≤v/2),其中h为所取中心区域的宽度,v为所取中心区域的高度为频谱中心区域,根据选取的傅里叶频谱中心区域每个位置,设计一组傅里叶的正弦散斑(P0,Pπ/2,Pπ,P3π/2),其中每组有相差π/2相位的四幅散斑,因此,正弦散斑有M=h×v组正弦散斑的大小与手写体数字图片的大小相同,均为N×N,然后将设计好的散斑依次加载到数字微镜阵列设备上;
步骤二:将经过DMD调制后的正弦散斑照射到手写体数字图片上,透过光强经过透镜聚焦后都由一个无空间分辨的桶探测器接收,分别获得到四个相位相差π/2的桶探测器值Dφ(fx,fy),φ(0,π/2,π,3π/2);
步骤三:将傅里叶四步相移的正弦散斑照射到已知手写体数字图片上,通过关联成像系统,记录桶探测器值通过计算[D0(fx,fy)-Dπ(fx,fy)]+j·[Dπ/2(fx,fy)-D3π/2(fx,fy)]获取手写体数字图片对应(fx,fy)的频谱系数,从而获得手写体数字的特征信息;
步骤四:重复以上过程,当获得M个频谱系数后,将M频谱系数构成矢量且作为特征信息输入至一设计的深度神经网络中进行训练;
步骤五:不断重复步骤一至四,完成神经网络的训练;
步骤六:对于未知的手写体数字,根据步骤一至四,获得它傅里叶频谱中心区域的M个频谱系数,并输入至已训练好的神经网络中,获得它的数字类别,从而实现对未知手写体数字图片的识别。
进一步改进在于:所述步骤四中的深度神经网络包含一个输入层、三个隐藏层和一个输出层,层与层之间为全连接,且每一层的输出和输入之间存在一个线性关系和非线性的激活函数,为了防止出现过拟合,在全连接层加入了dropout函数,深度神经网络的输出层采用了softmax分类器实现对0~9十种手写体数字图片的分类识别,将概率值最大的神经元索引确认为神经网络对手写体数字图片的预测结果;同时为了使预测结果更接近真实值,在网络中引入了损失函数J,J沿着梯度下降方向优化,采用了Adam算法动态调整每个参数的学习率,以便获得更为准确的预测结果。
进一步改进在于:所述方法为了实现未知的手写体数字的识别,将关联成像的技术引入深度神经网络,在不成像的情况下就能对手写体数字进行识别。
进一步改进在于:所述步骤一中根据所选取的傅里叶频谱中心区域每个位置设计散斑的公式为Pφ(x,y;fx,fy)=a+c·cos(2πfxx+2πfxy+φ),其中Pφ(x,y,fx,fy)是一个与手写体数字图片大小相同的且相位为φ的正弦散斑;a表示平均图像强度,c是一个常量,φ表示相位,取值是φ(0,π/2,π,3π/2)。
本发明的有益效果:在手写体数字识别中,由于需要获取整张数字图片的信息,使得无法对未知的手写体数字进行识别。本发明不同于传统的手写体数字识别方法,将关联成像结合深度神经网络的概念引入手写体数字的分类中,利用图像低频信息从DCT矩阵设计出散斑,通过关联成像提取出手写体数字图片的特征,大幅度压缩它的特征信息放入深度神经网络训练,利用神经网络能对输入的信息进行分类的特性,对未知的手写体数字进行识别。
附图说明
图1是本发明的方法示意图。
图2是本发明的个别数字的识别结果和它真实值的比较。
具体实施方式
为了加深对本发明的理解,下面将结合实施例对本发明作进一步详述,该实施例仅用于解释本发明,并不构成对本发明保护范围的限定。如图1-2所示,本实施例考虑传统的手写体数字识别都需要获取整张数字图片的信息,无法在不得到数字图片的情况下对手写体数字识别,因此提出深度神经网络和关联成像技术结合的方法,通过照射傅里叶四步相移的正弦散斑提取出手写体数字图片的特征,将特征信息输入至深度神经网络进行识别,目的是实现对未知的手写体数字图片进行识别的方法。
图1给出了基于深度神经网络的未知手写体数字识别方法示意图。图中所使用的散斑为傅里叶四步相移散斑(P0,Pπ/2,Pπ,P3π/2)照射到物体后,桶探测器去接收物体透射(反射)的光强;物体的透射(反射)函数为T(x,y),获得各相位的光强值Dφ(fx,fy),通过计算频谱中心区域对应的值:[D0(fx,fy)-Dπ(fx,fy)]+j·[Dπ/2(fx,fy)-D3π/2(fx,fy)]获得手写体数字图片的特征,具体步骤如下:
步骤1:以频谱中心为原点,选取频谱(fx,fy)(-h/2≤fx≤h/2,-v/2≤fy≤v/2),其中h为所取中心区域的宽度,v为所取中心区域的高度为频谱中心区域。根据所选取的傅里叶频谱中心区域每个位置设计散斑:
Pφ(x,y;fx,fy)=a+c·cos(2πfxx+2πfxy+φ) (1)
其中Pφ(x,y,fx,fy)是一个与手写体数字图片大小相同的且相位为φ的正弦散斑;a表示平均图像强度,c是一个常量,φ表示相位,取值是φ(0,π/2,π,3π/2)。由傅里叶变换的性质可知,图像经过傅里叶变换,其低频信息压缩于傅里叶频域的中心区域,所以以频谱中心为原点,选取的频谱可表示为(fx,fy)(-h/2≤fx≤h/2,-v/2≤fy≤v/2),其中h为所取中心区域的宽度,v为所取中心区域的高度。所产生的各个相位的正弦散斑分别有M=h×v个,共有四组,且正弦散斑的大小与物体的大小相同,均为N×N。然后将设计好的散斑加载到数字微镜阵列(Digital Micromirror Device,DMD)上。
步骤2:将光源照射到数字微镜阵列(Digital Micromirror Device,DMD)上,经过DMD调制后光源形成关联成像使用的傅里叶四步相移的正弦散斑照射手写体数字图片,正弦散斑透过手写体数字图片后的光强经过透镜聚焦后都由一个无空间分辨能力的桶探测器接收,得到桶探测器的值为:
Dφ(fx,fy)=∫∫T(x,y)Pφ(x,y;fx,fy)dxdy (2)
其中,T(x,y)表示手写体数字图片,大小为N×N,Dφ(fx,fy)是Pφ(x,y,fx,fy)照射到手写体数字图片后,桶探测器接收的来自于手写体数字图片的光强值,分别获得到四个相位相差π/2的桶探测器值Dφ(fx,fy),φ(0,π/2,π,3π/2)。。
步骤3:将傅里叶四步相移的正弦散斑照射于手写体数字图片并且桶探测器接收了所有的光强值以后,可以通过计算不同相位的光强值获取手写体数字图片的傅里叶频谱系数,用公式表示为:
Figure BDA0002483847100000081
其中,j表示虚部,F表示傅里叶变换,根据(fx,fy)的取值范围可知,该手写体数字图片共有M=h×v个运算结果,并将其展开为大小为M×1的列向量B作为它的特征信息。
步骤4:重复以上过程,当获得M个频谱系数后,将M频谱系数构成矢量且作为特征信息输入至一设计的深度神经网络中进行训练。该深度神经网络包含一个输入层、三个隐藏层和一个输出层。层与层之间为全连接,且每一层的输出和输入之间存在一个线性关系和非线性的激活函数,且为防止出现过拟合,在全连接层加入了dropout函数。因为B包含了手写体数字图片的低频信息,具有手写体数字图片的特征,所以根据这些特征能够识别出其对应的数字类别。本实施例使用深度神经网络可以直接对测量值的向量进行识别,理论过程如下所示:
深度神经网络内部的神经网络层可以分为三类,输入层,隐藏层和输出层。层与层之间是全连接的,每一层的输出和输入之间存在一个线性关系,包含线性关系系数w和偏倚b,并且为增强神经网络的表达能力加入了非线性的正切函数σ(·),作为激活函数,因此对于深度神经网络的第l层的第j个神经元
Figure BDA0002483847100000082
可表示为:
Figure BDA0002483847100000083
其中l-1层包含M个神经元,
Figure BDA0002483847100000084
表示第l-1层第k个神经元
Figure BDA0002483847100000085
Figure BDA0002483847100000086
的权重,
Figure BDA0002483847100000087
表示到
Figure BDA0002483847100000088
的偏移。输出层采用了softmax分类器,输出概率值最大的神经元的索引即为神经网络对手写体数字图片的预测结果,的输出层一共有十个神经元,依次代表0~9十个数字,则第j个神经元输出值为:
Figure BDA0002483847100000091
监督学习过程中,有m个训练样本:{(x1,y1),(x2,y2),…,(xm,ym)},其中x为输入向量,维度为M,而yj为输出的分类结果,维度为10,希望通过训练使得输入新的xtest时,可以预测ytest,对于一个L层的神经网络,期望最小化下式:
Figure BDA0002483847100000092
为了最小化上式,开始用梯度下降法迭代求解每一层的权重w和偏移b。
Figure BDA0002483847100000093
其中,ε是学习率,可以自行设定,此处引入Adam算法优化器来不断调节ε以获得更好的识别率。然后根据自己输入的迭代次数,不断更新上式,使J(W,b,x,y)最小化,使神经网络的预测值aL不断逼近真实值,当输入新的xtest时,就可以利用已经更新好的W和b输出准确的预测。
通过上述理论过程,对未知的手写体数字的桶探测器值向量使用神经网络可以识别该数字,且通过理论推导可知,适当的调节迭代次数可以使得深度神经网络有更高的识别性能。因此通过深度学习对未知物体图像进行训练可以得到更准确的识别效果。
图2为基于深度神经网络的未知手写体数字识别方法的仿真结果图,本实施例对10000张MNIST数据集中用于测试的手写体数字图片进行了验证。具体的仿真过程如下:首先使用计算机根据所选傅里叶频谱中心区域的大小设计出傅里叶四步相移的正弦散斑,然后将这组散斑对MNIST数据集中的60000张用于训练的手写体数字图片进行照射,接下来使用透镜对物体透射的光进行会聚并使用没有任何空间分辨率的桶探测器去接收,然后根据各个相位的检测结果计算出手写体数字图片的特征信息,将这些手写体数字图片的特征信息和其对应的数字标签输入深度神经网络进行训练。将未知手写体数字图片的傅里叶四步相移桶探测值的运算结果输入至训练好的深度神经网络进行识别。在此仿真中物体图像的大小均为28×28,采用的深度神经网络方法是三层的深度神经网络,学习率为0.0001。
图2给出了在选取频谱中心区域大小为6×6,8×8,10×10,12×12,14×14,对应的采样率分别是4.59%,8.16%,12.76%,18.37%,25%的情况下,一万张手写体数字图片中0~9十类数字的识别结果,为了评判识别的效果,采用识别正确的手写体数字图片数量比上总识别数量获得的准确率作为评价标准。通过仿真结果可以看出,随着采样率的增高,手写体数字图片的识别准确率也越来越高。
从以上分析可以看出,采用基于深度神经网络的未知手写体数字识别方法后,通过计算手写体数字图片的傅里叶四步相移的测量值能有效的识别出未知的手写体数字图片,对各数字有较高的识别准确率,且随着采样率的增高,识别的效果也会越来越好。综合以上分析可知使用深度神经网络方法对未知手写体数字进行识别可以获得较高的识别准确率,可以作为对未知的手写体数字识别的方法。

Claims (4)

1.一种基于深度神经网络的未知手写体数字识别方法,其特征在于:所述方法包括以下步骤:
步骤一:以频谱中心为原点,选取频谱(fx,fy)(-h/2≤fx≤h/2,-v/2≤fy≤v/2),其中h为所取中心区域的宽度,v为所取中心区域的高度为频谱中心区域,根据选取的傅里叶频谱中心区域每个位置,设计一组傅里叶的正弦散斑(P0,Pπ/2,Pπ,P3π/2),其中每组有相差π/2相位的四幅散斑,因此,正弦散斑有M=h×v组正弦散斑的大小与手写体数字图片的大小相同,均为N×N,然后将设计好的散斑依次加载到数字微镜阵列设备上;
步骤二:将经过DMD调制后的正弦散斑照射到手写体数字图片上,透过光强经过透镜聚焦后都由一个无空间分辨的桶探测器接收,分别获得到四个相位相差π/2的桶探测器值Dφ(fx,fy),φ(0,π/2,π,3π/2);
步骤三:将傅里叶四步相移的正弦散斑照射到已知手写体数字图片上,通过关联成像系统,记录桶探测器值通过计算[D0(fx,fy)-Dπ(fx,fy)]+j·[Dπ/2(fx,fy)-D3π/2(fx,fy)]获取手写体数字图片对应(fx,fy)的频谱系数,从而获得手写体数字的特征信息;
步骤四:重复以上过程,当获得M个频谱系数后,将M频谱系数构成矢量且作为特征信息输入至一设计的深度神经网络中进行训练;
步骤五:不断重复步骤一至四,完成神经网络的训练;
步骤六:对于未知的手写体数字,根据步骤一至四,获得它傅里叶频谱中心区域的M个频谱系数,并输入至已训练好的神经网络中,获得它的数字类别,从而实现对未知手写体数字图片的识别。
2.如权利要求1所述的基于深度神经网络的未知手写体数字识别方法,其特征在于:所述步骤四中的深度神经网络包含一个输入层、三个隐藏层和一个输出层,层与层之间为全连接,且每一层的输出和输入之间存在一个线性关系和非线性的激活函数,为了防止出现过拟合,在全连接层加入了dropout函数,深度神经网络的输出层采用了softmax分类器实现对0~9十种手写体数字图片的分类识别,将概率值最大的神经元索引确认为神经网络对手写体数字图片的预测结果;同时为了使预测结果更接近真实值,在网络中引入了损失函数J,J沿着梯度下降方向优化,采用了Adam算法动态调整每个参数的学习率,以便获得更为准确的预测结果。
3.如权利要求1所述的基于深度神经网络的未知手写体数字识别方法,其特征在于:所述方法为了实现未知的手写体数字的识别,将关联成像的技术引入深度神经网络,在不成像的情况下就能对手写体数字进行识别。
4.如权利要求1所述的基于深度神经网络的未知手写体数字识别方法,其特征在于:所述步骤一中根据所选取的傅里叶频谱中心区域每个位置设计散斑的公式为Pφ(x,y;fx,fy)=a+c·cos(2πfxx+2πfxy+φ),其中Pφ(x,y,fx,fy)是一个与手写体数字图片大小相同的且相位为φ的正弦散斑;a表示平均图像强度,c是一个常量,φ表示相位,取值是φ(0,π/2,π,3π/2)。
CN202010385802.4A 2020-05-09 2020-05-09 基于深度神经网络的未知手写体数字识别方法 Active CN111695645B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010385802.4A CN111695645B (zh) 2020-05-09 2020-05-09 基于深度神经网络的未知手写体数字识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010385802.4A CN111695645B (zh) 2020-05-09 2020-05-09 基于深度神经网络的未知手写体数字识别方法

Publications (2)

Publication Number Publication Date
CN111695645A true CN111695645A (zh) 2020-09-22
CN111695645B CN111695645B (zh) 2022-08-02

Family

ID=72477478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010385802.4A Active CN111695645B (zh) 2020-05-09 2020-05-09 基于深度神经网络的未知手写体数字识别方法

Country Status (1)

Country Link
CN (1) CN111695645B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361367A (zh) * 2021-06-01 2021-09-07 中南大学 基于深度学习的地下目标电磁反演方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901190A (zh) * 2019-03-07 2019-06-18 南京邮电大学 基于线性回归的关联成像方法
CN110163274A (zh) * 2019-05-15 2019-08-23 南京邮电大学 一种基于鬼成像和线性判别分析的物体分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901190A (zh) * 2019-03-07 2019-06-18 南京邮电大学 基于线性回归的关联成像方法
CN110163274A (zh) * 2019-05-15 2019-08-23 南京邮电大学 一种基于鬼成像和线性判别分析的物体分类方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361367A (zh) * 2021-06-01 2021-09-07 中南大学 基于深度学习的地下目标电磁反演方法及系统
CN113361367B (zh) * 2021-06-01 2022-04-26 中南大学 基于深度学习的地下目标电磁反演方法及系统

Also Published As

Publication number Publication date
CN111695645B (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
CN107704877B (zh) 一种基于深度学习的图像隐私感知方法
Wang et al. Double JPEG compression forensics based on a convolutional neural network
Xing et al. Pan-sharpening via deep metric learning
Xiao et al. Onefi: One-shot recognition for unseen gesture via cots wifi
CN109035188B (zh) 一种基于目标特征驱动的智能图像融合方法
Chen et al. A robust moving object detection in multi-scenario big data for video surveillance
Jeong et al. Bihpf: Bilateral high-pass filters for robust deepfake detection
Abrahim et al. RETRACTED ARTICLE: Splicing image forgery identification based on artificial neural network approach and texture features
Shi et al. Sensor-independent hyperspectral target detection with semisupervised domain adaptive few-shot learning
Bahaadini et al. Direct: Deep discriminative embedding for clustering of ligo data
Xie et al. Trainable spectral difference learning with spatial starting for hyperspectral image denoising
Bose et al. In-situ recognition of hand gesture via Enhanced Xception based single-stage deep convolutional neural network
JP2020119154A (ja) 情報処理装置、情報処理方法、及びプログラム
CN110163274B (zh) 一种基于鬼成像和线性判别分析的物体分类方法
Thakur et al. Machine learning based saliency algorithm for image forgery classification and localization
CN111695645B (zh) 基于深度神经网络的未知手写体数字识别方法
Saealal et al. Three-Dimensional Convolutional Approaches for the Verification of Deepfake Videos: The Effect of Image Depth Size on Authentication Performance
Akbari et al. Hierarchical deep learning approach using fusion layer for Source Camera Model Identification based on video taken by smartphone
ALAMRI et al. Face recognition based on convolution neural network and scale invariant feature transform
He et al. Dynamic residual distillation network for face anti-spoofing with feature attention learning
Truong et al. Assessing learned features of Deep Learning applied to EEG
Ashraf et al. Attention 3D central difference convolutional dense network for hyperspectral image classification
Li et al. Intelligent terminal face spoofing detection algorithm based on deep belief network
Taghipour et al. Hyperspectral anomaly detection based on frequency analysis of repeated spatial patterns
Harrison Machine learning for radio frequency interference flagging

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant