CN115546848A - 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 - Google Patents

一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 Download PDF

Info

Publication number
CN115546848A
CN115546848A CN202211314356.3A CN202211314356A CN115546848A CN 115546848 A CN115546848 A CN 115546848A CN 202211314356 A CN202211314356 A CN 202211314356A CN 115546848 A CN115546848 A CN 115546848A
Authority
CN
China
Prior art keywords
palm print
data
training
generation network
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211314356.3A
Other languages
English (en)
Other versions
CN115546848B (zh
Inventor
朱旗
辛光南
周宇泽
郑楚杭
李胜荣
张道强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202211314356.3A priority Critical patent/CN115546848B/zh
Publication of CN115546848A publication Critical patent/CN115546848A/zh
Application granted granted Critical
Publication of CN115546848B publication Critical patent/CN115546848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,涉及生物识别技术领域,包括:将训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;将待用组输入至优化对抗生成网络计算质量分数;将升序后前k个质量分数对应的待用数据从待用组添加至训练组,得到对应的更新后训练组和更新后待用组,进而对训练组和待用组分别更新,判断待用组中待用数据的数量是否为零;若数量不为零,返回将训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;若数量为零,将训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。本发明补全了掌纹,提高了跨设备采集的掌纹的识别率。

Description

一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
技术领域
本发明涉及生物识别技术领域,特别是涉及一种用于跨设备掌纹识别的对抗生成网络训练方法、跨设备掌纹识别方法及系统。
背景技术
生物识别技术是指利用人体生物特征进行身份认证的一种技术。更具体一点,生物特征识别技术就是通过计算机与光学、声学、生物传感器和生物统计学原理等高科技手段密切结合,利用人体固有的生理特性和行为特征来进行个人身份的鉴定。生物识别技术被认为是最为方便与安全的识别技术。相较于传统的身份识别技术,生物特征识别具有唯一性、稳定性、方便性以及不易伪造和假冒等特点。生物识别技术应用越来越广泛,且较为成熟,在身份认证方面表现突出。全球众多厂商纷纷推出了基于生物特征识别技术的软硬件产品及行业解决方案,相关工程项目与应用方案在金融、电信、信息安全、生产制造、医疗卫生、电子政务、电子商务、军事等行业或领域得到广泛应用。
在生物特征中,掌纹图像便于采集,同时又包含了大量的特征,即使是由手机采集的低分辨率的掌纹图像也包含了可见的特征(如主线、皱纹、乳突纹、细节点和三角点等)及不可见的特征。相比于人脸识别,掌纹识别具有更高的稳定性和更良好的私密性,不易于伪造,且可以很好的区分双胞胎;相比于指纹识别,掌纹图像面积大,对分辨率要求低,不需要与采集设备进行接触;相比于视网膜、虹膜、静脉识别,掌纹图像采集设备造价低廉且更为方便;相比于步态、字迹、声音识别,掌纹识别稳定可靠,掌纹的形态主要由遗传基因控制,即使特殊原因导致表皮剥落,新生的纹路依然保持原有不变的结构。因此掌纹识别具有准确率高、用户易于接受、安全稳定性高等优点,拥有更为广泛的应用场合。
传统的生物识别技术中,采集生物特征的时候都需要用户在一定程度上进行配合,比如固定的角度、姿势、环境、与传感器进行接触等,降低了方便性。在需要与采集设备接触的情况下,更是牵扯到卫生问题。为了消除这些限制,研究了约束较少,甚至无约束的生物识别技术。通常来说,约束较少的生物识别技术拥有更短的数据获取时间、更好的可用性和更高的社会接受程度,进一步扩大了生物特征识别的应用场景。常见的非接触式生物识别技术有掌纹识别、人脸识别、指纹识别、虹膜识别、静脉识别、声音识别以及步态识别等。其中人脸识别、声音识别、步态识别的稳定性较低,易于伪造;指纹识别、虹膜识别、静脉识别对采集设备要求较高,不利于大面积推广。非接触式掌纹识别作为一种典型的无约束的生物识别技术,可以在手掌不接触传感器的情况下轻松地被智能手机采集到,在现实世界中具有广阔的应用前景,如智能移动设备的访问控制、基于智能移动终端的金融领域应用等。
在非接触式掌纹识别中,由于移除了接触式辅助定位装置,会由于采集时手掌发生的形变而对识别精度造成很大影响。没有辅助定位装置的约束,采集到的掌纹图像会存在各种各样的质量问题,如光照不均、掌纹形变、图像模糊等。而现有的基于接触式采集设备的识别算法,在这样的图像上无法取得令人满意的识别精度。
在实际应用中,掌纹识别系统往往会遇到两个问题。第一,训练数据存在缺失,如部分样本的数据丢失或因损毁导致不可用。第二,用于采集训练数据的设备往往与用于采集验证数据的设备是不同的。不同品牌手机摄像头的参数不同,也使得不同手机采集到的掌纹图像存在较大差异。因此不同手机采集来的掌纹数据,可以看作属于不同的域或模态。现有的掌纹识别方法在这种情况下往往并不能达到一个优秀的识别率。
发明内容
本发明的目的是提供一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,对于跨设备采集得到的掌纹进行补全,进而提高对于跨设备采集的掌纹的识别率。
为实现上述目的,本发明提供了如下方案:
本发明提供一种对抗生成网络训练方法,包括:
将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像;
将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块;
将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度;
对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组;
将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零;
若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
可选地,所述第一自注意力模块包括:
第一映射子模块,用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;
第二映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;
第三映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;
第一特征子模块,用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;
第二特征子模块,用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重,以得到输出特征映射;
自注意力子模块,用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。
可选地,所述自注意力子模块,具体包括:
根据公式
y=γO+x
确定目标向量序列;
其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
可选地,所述待用数据对应的质量分数的计算公式为:
Figure BDA0003908516680000041
Figure BDA0003908516680000042
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;
Figure BDA0003908516680000049
表示数学期望,x~pdata(x)表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,|| ||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性;
Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y)中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
可选地,所述自注意力循环对抗生成网络的损失函数包括:
Figure BDA0003908516680000043
其中,X表示训练组中的第一类数据,Y表示训练组中的第二类数据,且所述第一类数据与所述第二类数据为由不同设备采集得到的掌纹图像数据;G表示通过X生成Y的生成器;F表示通过Y生成X的生成器;DX表示判断掌纹图像数据是否属于X的判别器;DY表示判断掌纹图像数据是否属于Y的判别器;
Figure BDA0003908516680000044
表示损失函数,
Figure BDA0003908516680000045
表示自注意力循环对抗生成网络的损失函数,
Figure BDA0003908516680000046
表示对抗损失函数,
Figure BDA0003908516680000047
表示循环一致性损失函数;λ表示调节
Figure BDA0003908516680000048
权重的参数。
可选地,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;
所述残差模块包括依次连接的多个残差子模块;
所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
为达上述目的,本发明还提供了如下技术方案:
一种跨设备掌纹识别方法,包括:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
获取待识别掌纹图像;
若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
可选地,所述分类器为ResNet-50网络。
一种跨设备掌纹识别系统,包括:
掌纹识别模型构建模块,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
待识别图像获取模块,用于获取待识别掌纹图像;
掌纹识别模块,分别与所述掌纹识别模型构建模块和所述待识别图像获取模块连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,获取不同设备采集得到的掌纹图像,并分为训练组和待用组。利用训练组对自注意力循环对抗生成网络进行训练,利用待用组选取质量分数较低,即相对可靠的掌纹图像,并添加至训练组中进行训练,直至待用组中的所有数据均加入至模型训练,从而实现基于自步学习的模型训练,缓解非接触式掌纹图像的噪音和形变对数据补全工作和识别工作的影响。另外,自注意力循环对抗生成网络包括生成器和判别器,生成器中设置了自注意力模块,通过该自注意力模块的设置,能够使用较小的计算成本,捕捉长距离依赖;而生成器和判别器构成的对抗生成网络,能够对不同设备采集到的掌纹进行补全,其不需要成对的图像,就可以实现从源域到目标域的图像风格转换。即通过循环对抗生成网络,可充分利用不同设备采集到的掌纹图像,对缺失数据进行弥补,使得生成的缺失图像既可以保留掌纹本身的生物特征信息,又可以符合缺失的设备采集到的图像风格,为进一步的掌纹识别提供更全面的数据基础,进而提高跨设备采集的掌纹的识别率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明对抗生成网络训练方法的流程示意图;
图2为本发明对抗生成网络训练实例结构图;
图3为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图一;
图4为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图二;
图5为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图三;
图6为本发明第一自注意力模块的结构示意图;
图7为本发明跨设备掌纹识别方法的流程示意图;
图8为本发明跨设备掌纹识别系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
要知道,实际应用中图像采集设备多种多样,比如不同型号的手机摄像头。在采集掌纹图像进行训练的时候,很难保证所有的掌纹图像都来自同一个设备,更多的情况是一部分用户使用设备A采集,一部分使用设备B进行采集。这导致无论是用设备A采集到的掌纹图像,还是设备B采集到的图像都是不完整的,而两部分图像合起来又包含了所有用户的信息。
并且,不同设备采集到的图像风格也会不同,实际应用中无法将不同设备采集到的图像直接混合以后作为训练数据进行模型的训练,这样会导致掌纹识别准确率大幅下降。而两部分数据又分别缺少一部分用户数据,分开训练也无法实现理想的准确率。
而本发明所采用的循环对抗生成网络能够将两种设备或者多种设备拍摄得到的不同风格的图像进行转换。以两种设备为例,将设备A采集到的图像风格转换为设备B的风格,同时也将设备B采集到的图像的风格转换为设备A的风格。通过循环对抗生成网络将两个设备采集到的图像风格转换后,得到符合设备B风格的图像和符合设备A风格的图像,这样就可以直接与原本由设备A和设备B采集到的图像进行混合,从而达到数据补全的目的。
例:张三的掌纹由设备A采集,李四由设备B采集。直接使用两人采集到的图像训练的话识别率很低。现通过循环对抗生成网络,生成风格与设备A很像的李四的掌纹图像和风格与设备B很像的张三的图像。这样用由设备A采集到的张三的图像和生成的风格与设备A相似的李四的图像组成训练数据进行训练,模型的识别率就会大大提高。原本缺失的由设备A采集的李四的掌纹数据由循环对抗生成网络生成出来了。
为使本发明的目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本实施例提供一种对抗生成网络训练方法,包括:
步骤100,将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像。
对应图2中,训练组为
Figure BDA0003908516680000081
待用组为
Figure BDA0003908516680000082
训练组中数据的数量与待用组中数据的数量的比例可根据实际情况进行设置。
步骤200,将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块。所述判别器包括依次连接的多个卷积模块,具体的卷积模块的数量可根据需要进行设置,在本发明的一个具体实施例中,判别器包括三个依次连接的卷积模块。
其中,第一卷积模块输入的图像进行特征提取,降低网络参数,保证网络的稀疏性,防止过拟合。第一自注意力模块让模型不仅仅考虑某个像素点,而是让模型自己选择感受野,从而减少对外部信息的依赖,捕捉到更多数据内部相关性。残差模块实现对图像风格的转换,对比传统的U-net结构,采用残差模块能够保证网络结构的复杂度,并且避免出现梯度消失问题。反卷积模块将图像特征还原到目标图像尺寸。
具体地,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;所述残差模块包括依次连接的多个残差子模块;所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
图3、图4和图5均为自注意力循环对抗生成网络中损失函数计算的结构示意图,图3中,X通过生成器G生成数据分布与Y相似的数据,Y通过生成器F生成类似X的数据,两个判别器分别对生成的图像进行判断,判断是否符合目标数据集的数据分布。图4和图5是同一个过程的两个方向。图4是掌纹图像x由G生成的图像Y尖,再次通过F生成掌纹图像x尖,然后去计算x和x尖之间的差异损失。方向反过来就是图5。
基于图3、图4和图5可得所述自注意力循环对抗生成网络的损失函数包括:
Figure BDA0003908516680000091
其中,X表示训练组中的第一类数据,Y表示训练组中的第二类数据,且所述第一类数据与所述第二类数据为由不同设备采集得到的掌纹图像数据;G表示通过X生成Y的生成器;F表示通过Y生成X的生成器;DX表示判断掌纹图像数据是否属于X的判别器;DY表示判断掌纹图像数据是否属于Y的判别器;
Figure BDA0003908516680000094
表示损失函数,
Figure BDA0003908516680000093
表示自注意力循环对抗生成网络的损失函数,具体表示同一性损失;
Figure BDA0003908516680000096
表示对抗损失函数,对应图3中的部分损失函数;
Figure BDA0003908516680000095
表示循环一致性损失函数,对应图4和图5中的循环一致性损失函数(cycle-consistency loss);λ表示调节
Figure BDA0003908516680000092
权重的参数。循环一致性损失函数需要采用图4和图5两部分进行计算是因为计算cycle-consistency loss的数据流转是一个圈,一张图表现不出来,而两者合起来才是一个完整的cycle-consistencyloss。公式中
Figure BDA0003908516680000097
出现两次是因为图3中存在两个方向的损失,但是两个方向的损失的数学表达式不一样。
自注意力机制注是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。注意力机制来源于人类视觉注意力机制,简单来说是一种权重参数的分配机制,目标是协助模型捕捉重要信息。自我注意是一种特殊的注意机制,通过(key,query,value)的三元组提供了一种有效的捕捉全局上下文信息的建模方式,可以帮助实现点对点之间的对齐。
所述第一自注意力模块包括第一映射子模块、第二映射子模块、第三映射子模块、第一特征子模块、第二特征子模块和自注意力子模块。如图6所示,第一映射子模块用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;即将第一卷积模块输出的特征数据x映射至q空间,q(x)=Wqx,Wq表示q空间映射参数。第二映射子模块用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;即将第一卷积模块输出的特征数据映射至k空间,k(x)=Wkx,Wk表示k空间映射参数。第三映射子模块用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;即将第一卷积模块输出的特征数据映射至v空间,v(x)=Wvx,Wv表示v空间映射参数。
第一特征子模块用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;即A=softmax(qkT),A表示自注意力,即自注意力特征图;kT表示对映射到k空间的数据进行转置,qkT表示相乘,对应图6中圆圈里面一个乘号。第二特征子模块用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重Wf,以得到输出特征映射O;即O=f(Av),f(x)=Wfx。自注意力子模块用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。具体地,根据公式y=γO+x确定目标向量序列;其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
第二自注意力模块的结构与第一自注意力模块的结构完全相同,在此不再赘述。
步骤300,将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度,换而言之,质量分数用来衡量生成图像质量,以间接反映训练学习难易度。质量分数越高,图像质量越低,学习难度越高。本发明采用类似于循环对抗生成网络损失函数的方法(cycle-consistency loss结构)来计算生成图像的质量分数,待用数据对应的质量分数的计算公式为:
Figure BDA0003908516680000111
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;
Figure BDA0003908516680000113
表示数学期望,x~pdata(x)表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,|| ||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性。
同理可得,类似的针对Y的质量分数计算公式如下:
Figure BDA0003908516680000112
其中,Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y)中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
步骤400,对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组。具体地,添加至训练组的k个待用数据占待用组中所有待用数据的比例,是可根据实际情况进行设置的。
步骤500,将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零。
步骤600,若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
步骤700,若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
自步学习的核心是挑选容易学习的数据,逐步加入到训练过程中,而不是一开始就让所有数据都参与到训练中,以图2为例,图中每一横排都是一次迭代,每次迭代分为训练和排序两个步骤。每次迭代开始时,数据会被分为训练数据和剩余数据两组。具体过程如下:
第一次迭代:
在所有数据(样本集)中,随机选取部分数据作为训练组
Figure BDA0003908516680000121
剩下的数据作为待用组为
Figure BDA0003908516680000122
训练组
Figure BDA0003908516680000123
中数据的数量=样本集所有数据的量*rini。rini表示第一预设比例。
训练步骤:训练组
Figure BDA0003908516680000124
直接输入到自注意力循环对抗生成网络中进行训练,通过预设损失函数进行模型优化;损失函数收敛后训练结束。
排序步骤:将待用组
Figure BDA0003908516680000125
输入到训练完成的自注意力循环对抗生成网络中,计算每个生成图像的质量分数Score,然后按照从低到高进行排序。选取分数最低的k个数据。k=待用组
Figure BDA0003908516680000126
的数量*rk。rk表示第二预设比例。
第一次迭代结束。
第二次迭代:
将上次迭代所得k个数据从剩余数据中取出,添加到训练分组中,得到更新后训练组
Figure BDA0003908516680000127
更新后待用组为
Figure BDA0003908516680000128
重复第一次迭代中的训练和排序步骤。其中参数rk保持不变。
第n次迭代,即最后一次迭代,此时待用组中数据的数量为零:
重复上述步骤直到最后一次迭代,将所有数据都作为训练数据加入到训练过程中,直到损失收敛后训练结束,得到最优的模型,即最终对抗生成网络。
实施例二
如图7所示,本实施例提供一种跨设备掌纹识别方法,包括:
步骤10,获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像。
步骤20,将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由实施例一中所述的对抗生成网络训练方法得到的。
步骤30,利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;所述分类器为ResNet-50网络。
步骤40,利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型。
步骤50,获取待识别掌纹图像。
步骤60,若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别。
步骤70若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
具体算法如下:
算法1自步学习训练策略。
CALSCORE()返回质量分数。
RANK()按照质量分数进行排序。
TOP()返回得分最低的前k个图像。
Figure BDA0003908516680000131
实施例三
如图8所示,为了执行上述实施例二对应的方法,以实现相应的功能和技术效果,本实施例提供了一种跨设备掌纹识别系统,包括:
掌纹识别模型构建模块11,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由实施例一中所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型。
待识别图像获取模块21,用于获取待识别掌纹图像。
掌纹识别模块31,分别与所述掌纹识别模型构建模块11和所述待识别图像获取模块21连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
相对于现有技术,本发明还具有如下优点:
本发明利用循环对抗生成网络来实现不同设备间的数据互补,一个是利用自注意力模型对循环对抗生成网络进行优化。相对于传统的训练方法是将数据全部输入到上文所提模型中计算损失函数,然后通过反向传播优化网络中的参数。本发明提出了通过自步学习的思想进行模型的训练,即在剩余数据中挑选容易学习的数据,逐步将所有数据投入到训练过程中充分利用不同设备采集到的掌纹图像,对缺失数据进行弥补,使得生成的缺失图像既可以保留掌纹本身的生物特征信息,又可以符合缺失的设备采集到的图像风格,为进一步的掌纹识别提供更全面的数据基础,进而提高跨设备采集的掌纹的识别率。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种对抗生成网络训练方法,其特征在于,所述对抗生成网络训练方法包括:
将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像;
将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块;
将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度;
对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组;
将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零;
若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
2.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述第一自注意力模块包括:
第一映射子模块,用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;
第二映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;
第三映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;
第一特征子模块,用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;
第二特征子模块,用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重,以得到输出特征映射;
自注意力子模块,用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。
3.根据权利要求2所述的用于跨设备掌纹识别的对抗网络训练方法,其特征在于,所述自注意力子模块,具体包括:
根据公式
y=γO+x
确定目标向量序列;
其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
4.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述待用数据对应的质量分数的计算公式为:
Figure FDA0003908516670000021
Figure FDA0003908516670000022
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;
Figure FDA0003908516670000023
表示数学期望,x~pdata(x表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,||||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性;
Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
5.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述自注意力循环对抗生成网络的损失函数包括:
Figure FDA0003908516670000031
其中,X表示训练组中的第一类数据,Y表示训练组中的第二类数据,且所述第一类数据与所述第二类数据为由不同设备采集得到的掌纹图像数据;G表示通过X生成Y的生成器;F表示通过Y生成X的生成器;DX表示判断掌纹图像数据是否属于X的判别器;DY表示判断掌纹图像数据是否属于Y的判别器;
Figure FDA0003908516670000032
表示损失函数,
Figure FDA0003908516670000033
表示自注意力循环对抗生成网络的损失函数,
Figure FDA0003908516670000034
表示对抗损失函数,
Figure FDA0003908516670000035
表示循环一致性损失函数;λ表示调节
Figure FDA0003908516670000036
权重的参数。
6.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;
所述残差模块包括依次连接的多个残差子模块;
所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
7.一种跨设备掌纹识别方法,其特征在于,所述跨设备掌纹识别方法包括:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由权利要求1-6中任一项所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
获取待识别掌纹图像;
若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
8.根据权利要求7所述的跨设备掌纹识别方法,其特征在于,所述分类器为ResNet-50网络。
9.一种跨设备掌纹识别系统,其特征在于,所述跨设备掌纹识别系统包括:
掌纹识别模型构建模块,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由权利要求1-6中任一项所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
待识别图像获取模块,用于获取待识别掌纹图像;
掌纹识别模块,分别与所述掌纹识别模型构建模块和所述待识别图像获取模块连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
CN202211314356.3A 2022-10-26 2022-10-26 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 Active CN115546848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211314356.3A CN115546848B (zh) 2022-10-26 2022-10-26 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211314356.3A CN115546848B (zh) 2022-10-26 2022-10-26 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统

Publications (2)

Publication Number Publication Date
CN115546848A true CN115546848A (zh) 2022-12-30
CN115546848B CN115546848B (zh) 2024-02-02

Family

ID=84717741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211314356.3A Active CN115546848B (zh) 2022-10-26 2022-10-26 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统

Country Status (1)

Country Link
CN (1) CN115546848B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071787A (zh) * 2023-01-06 2023-05-05 南京航空航天大学 一种多光谱掌纹识别方法、系统、电子设备及介质

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685068A (zh) * 2018-12-27 2019-04-26 上海七牛信息技术有限公司 一种基于生成对抗神经网络的图像处理方法以及系统
US20190213474A1 (en) * 2018-01-09 2019-07-11 Adobe Inc. Frame selection based on a trained neural network
CN110751698A (zh) * 2019-09-27 2020-02-04 太原理工大学 一种基于混和网络模型的文本到图像的生成方法
CN111127587A (zh) * 2019-12-16 2020-05-08 杭州电子科技大学 一种基于对抗生成网络的无参考图像质量地图生成方法
WO2020168731A1 (zh) * 2019-02-19 2020-08-27 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation
WO2020248492A1 (zh) * 2019-06-14 2020-12-17 平安科技(深圳)有限公司 基于环形对抗生成网络的oct图像去噪方法及装置
WO2021012526A1 (zh) * 2019-07-22 2021-01-28 平安科技(深圳)有限公司 人脸识别模型的训练方法、人脸识别方法、装置、设备及存储介质
WO2021072870A1 (zh) * 2019-10-15 2021-04-22 平安科技(深圳)有限公司 基于对抗网络的指纹模型生成方法以及相关装置
KR20210048100A (ko) * 2019-10-23 2021-05-03 서울대학교산학협력단 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치
US20210209459A1 (en) * 2017-05-08 2021-07-08 Boe Technology Group Co., Ltd. Processing method and system for convolutional neural network, and storage medium
CN113221948A (zh) * 2021-04-13 2021-08-06 复旦大学 基于对抗生成网络和弱监督学习的数字切片图像分类方法
US20210358178A1 (en) * 2020-05-15 2021-11-18 Amazon Technologies, Inc. Iterative media object compression algorithm optimization using decoupled calibration of perceptual quality algorithms
CN113822895A (zh) * 2021-08-29 2021-12-21 陕西师范大学 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法
US20210398334A1 (en) * 2020-06-22 2021-12-23 Beijing Baidu Netcom Science And Technology Co., Ltd. Method for creating image editing model, and electronic device and storage medium thereof
CN114118345A (zh) * 2020-08-31 2022-03-01 北京三星通信技术研究有限公司 生成对抗网络的训练方法、数据分类方法及相关设备
US20220188978A1 (en) * 2020-12-10 2022-06-16 Shenzhen Institutes Of Advanced Technology Method and system for generating multi-task learning-type generative adversarial network for low-dose pet reconstruction
CN114863164A (zh) * 2022-04-02 2022-08-05 华中科技大学 一种面向小目标超分辨重建图像的目标识别模型构建方法
CN114936975A (zh) * 2022-05-23 2022-08-23 南昌逸勤科技有限公司 一种模型的训练方法、人脸识别方法、装置及介质
CN115082780A (zh) * 2022-05-25 2022-09-20 西北工业大学 基于增量式差异学习网络的多源异质影像变化检测方法
US20220318946A1 (en) * 2021-03-31 2022-10-06 University Of Electronic Science And Technology Of China Method for image shape transformation based on generative adversarial network
CN115170836A (zh) * 2022-07-29 2022-10-11 深圳大学 一种基于浅层纹理提取的跨域重识别方法及相关设备
CN115186814A (zh) * 2022-07-25 2022-10-14 南京慧尔视智能科技有限公司 对抗生成网络的训练方法、装置、电子设备和存储介质
US20230041233A1 (en) * 2020-10-09 2023-02-09 Tencent Technology (Shenzhen) Company Limited Image recognition method and apparatus, computing device, and computer-readable storage medium

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210209459A1 (en) * 2017-05-08 2021-07-08 Boe Technology Group Co., Ltd. Processing method and system for convolutional neural network, and storage medium
US20190213474A1 (en) * 2018-01-09 2019-07-11 Adobe Inc. Frame selection based on a trained neural network
CN109685068A (zh) * 2018-12-27 2019-04-26 上海七牛信息技术有限公司 一种基于生成对抗神经网络的图像处理方法以及系统
WO2020168731A1 (zh) * 2019-02-19 2020-08-27 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
WO2020248492A1 (zh) * 2019-06-14 2020-12-17 平安科技(深圳)有限公司 基于环形对抗生成网络的oct图像去噪方法及装置
WO2021012526A1 (zh) * 2019-07-22 2021-01-28 平安科技(深圳)有限公司 人脸识别模型的训练方法、人脸识别方法、装置、设备及存储介质
CN110751698A (zh) * 2019-09-27 2020-02-04 太原理工大学 一种基于混和网络模型的文本到图像的生成方法
WO2021072870A1 (zh) * 2019-10-15 2021-04-22 平安科技(深圳)有限公司 基于对抗网络的指纹模型生成方法以及相关装置
KR20210048100A (ko) * 2019-10-23 2021-05-03 서울대학교산학협력단 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치
CN111127587A (zh) * 2019-12-16 2020-05-08 杭州电子科技大学 一种基于对抗生成网络的无参考图像质量地图生成方法
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation
US20210358178A1 (en) * 2020-05-15 2021-11-18 Amazon Technologies, Inc. Iterative media object compression algorithm optimization using decoupled calibration of perceptual quality algorithms
US20210398334A1 (en) * 2020-06-22 2021-12-23 Beijing Baidu Netcom Science And Technology Co., Ltd. Method for creating image editing model, and electronic device and storage medium thereof
CN114118345A (zh) * 2020-08-31 2022-03-01 北京三星通信技术研究有限公司 生成对抗网络的训练方法、数据分类方法及相关设备
US20230041233A1 (en) * 2020-10-09 2023-02-09 Tencent Technology (Shenzhen) Company Limited Image recognition method and apparatus, computing device, and computer-readable storage medium
US20220188978A1 (en) * 2020-12-10 2022-06-16 Shenzhen Institutes Of Advanced Technology Method and system for generating multi-task learning-type generative adversarial network for low-dose pet reconstruction
US20220318946A1 (en) * 2021-03-31 2022-10-06 University Of Electronic Science And Technology Of China Method for image shape transformation based on generative adversarial network
CN113221948A (zh) * 2021-04-13 2021-08-06 复旦大学 基于对抗生成网络和弱监督学习的数字切片图像分类方法
CN113822895A (zh) * 2021-08-29 2021-12-21 陕西师范大学 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法
CN114863164A (zh) * 2022-04-02 2022-08-05 华中科技大学 一种面向小目标超分辨重建图像的目标识别模型构建方法
CN114936975A (zh) * 2022-05-23 2022-08-23 南昌逸勤科技有限公司 一种模型的训练方法、人脸识别方法、装置及介质
CN115082780A (zh) * 2022-05-25 2022-09-20 西北工业大学 基于增量式差异学习网络的多源异质影像变化检测方法
CN115186814A (zh) * 2022-07-25 2022-10-14 南京慧尔视智能科技有限公司 对抗生成网络的训练方法、装置、电子设备和存储介质
CN115170836A (zh) * 2022-07-29 2022-10-11 深圳大学 一种基于浅层纹理提取的跨域重识别方法及相关设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TAO ZHANG; ZHONGNIAN LI; QI ZHU; DAOQIANG ZHANG: "Improved Procedures for Training Primal Wasserstein GANs", 2021 IEEE RADAR CONFERENCE, pages 1 - 6 *
王禾扬,杨启明,朱旗: "基于深度卷积集成网络的视网膜多种疾病筛查和识别方法", 智能科学与技术学报, vol. 3, no. 03, pages 259 - 267 *
程艳,蔡壮, 吴刚, 罗品, 邹海锋: "结合自注意力特征过滤分类器和双分支GAN的面部表情识别", 模式识别与人工智能, vol. 35, no. 03, pages 243 - 253 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071787A (zh) * 2023-01-06 2023-05-05 南京航空航天大学 一种多光谱掌纹识别方法、系统、电子设备及介质
CN116071787B (zh) * 2023-01-06 2023-09-29 南京航空航天大学 一种多光谱掌纹识别方法、系统、电子设备及介质

Also Published As

Publication number Publication date
CN115546848B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
CN109902546A (zh) 人脸识别方法、装置及计算机可读介质
Wan et al. Dorsal hand vein recognition based on convolutional neural networks
CN108875459B (zh) 一种基于稀疏系数相似的加权稀疏表示人脸识别方法及系统
CN109034034A (zh) 一种基于强化学习算法优化卷积神经网络的静脉识别方法
CN111091075B (zh) 人脸识别方法、装置、电子设备及存储介质
CN107122725B (zh) 一种基于联合稀疏判别分析的人脸识别方法及其系统
CN104834905A (zh) 一种人脸图像识别仿真系统及方法
CN110458235B (zh) 一种视频中运动姿势相似度比对方法
CN110245621A (zh) 人脸识别装置及图像处理方法、特征提取模型、存储介质
AL-Allaf et al. Pattern recognition neural network for improving the performance of iris recognition system
CN111507184B (zh) 基于并联空洞卷积和身体结构约束的人体姿态检测方法
CN115995121A (zh) 一种基于attention模块的多模态的生物识别方法
CN114511901B (zh) 一种年龄分类辅助的跨年龄人脸识别算法
CN115546848B (zh) 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
CN109543637A (zh) 一种人脸识别方法、装置、设备以及可读存储介质
Li et al. Adaptive dropout method based on biological principles
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
Goel et al. Comparative analysis of various illumination normalization techniques for face recognition
CN112800882A (zh) 一种基于加权双流残差网络的口罩人脸姿态分类方法
Sun et al. Using backpropagation neural network for face recognition with 2D+ 3D hybrid information
CN102289679B (zh) 一种基于相关特征和非线性映射的固定视角人脸超分辨率识别方法
CN115937910A (zh) 一种基于小样本度量网络的掌纹图像识别方法
Thakare et al. A Novel End-To-End Approach For Offline Signature Verification System
CN117831138B (zh) 基于三阶知识蒸馏的多模态生物特征识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant