CN115546848A - 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 - Google Patents
一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 Download PDFInfo
- Publication number
- CN115546848A CN115546848A CN202211314356.3A CN202211314356A CN115546848A CN 115546848 A CN115546848 A CN 115546848A CN 202211314356 A CN202211314356 A CN 202211314356A CN 115546848 A CN115546848 A CN 115546848A
- Authority
- CN
- China
- Prior art keywords
- palm print
- data
- training
- generation network
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000001174 ascending effect Effects 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 27
- 238000005457 optimization Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 13
- 125000004122 cyclic group Chemical group 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 230000004083 survival effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000005021 gait Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 210000003462 vein Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,涉及生物识别技术领域,包括:将训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;将待用组输入至优化对抗生成网络计算质量分数;将升序后前k个质量分数对应的待用数据从待用组添加至训练组,得到对应的更新后训练组和更新后待用组,进而对训练组和待用组分别更新,判断待用组中待用数据的数量是否为零;若数量不为零,返回将训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;若数量为零,将训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。本发明补全了掌纹,提高了跨设备采集的掌纹的识别率。
Description
技术领域
本发明涉及生物识别技术领域,特别是涉及一种用于跨设备掌纹识别的对抗生成网络训练方法、跨设备掌纹识别方法及系统。
背景技术
生物识别技术是指利用人体生物特征进行身份认证的一种技术。更具体一点,生物特征识别技术就是通过计算机与光学、声学、生物传感器和生物统计学原理等高科技手段密切结合,利用人体固有的生理特性和行为特征来进行个人身份的鉴定。生物识别技术被认为是最为方便与安全的识别技术。相较于传统的身份识别技术,生物特征识别具有唯一性、稳定性、方便性以及不易伪造和假冒等特点。生物识别技术应用越来越广泛,且较为成熟,在身份认证方面表现突出。全球众多厂商纷纷推出了基于生物特征识别技术的软硬件产品及行业解决方案,相关工程项目与应用方案在金融、电信、信息安全、生产制造、医疗卫生、电子政务、电子商务、军事等行业或领域得到广泛应用。
在生物特征中,掌纹图像便于采集,同时又包含了大量的特征,即使是由手机采集的低分辨率的掌纹图像也包含了可见的特征(如主线、皱纹、乳突纹、细节点和三角点等)及不可见的特征。相比于人脸识别,掌纹识别具有更高的稳定性和更良好的私密性,不易于伪造,且可以很好的区分双胞胎;相比于指纹识别,掌纹图像面积大,对分辨率要求低,不需要与采集设备进行接触;相比于视网膜、虹膜、静脉识别,掌纹图像采集设备造价低廉且更为方便;相比于步态、字迹、声音识别,掌纹识别稳定可靠,掌纹的形态主要由遗传基因控制,即使特殊原因导致表皮剥落,新生的纹路依然保持原有不变的结构。因此掌纹识别具有准确率高、用户易于接受、安全稳定性高等优点,拥有更为广泛的应用场合。
传统的生物识别技术中,采集生物特征的时候都需要用户在一定程度上进行配合,比如固定的角度、姿势、环境、与传感器进行接触等,降低了方便性。在需要与采集设备接触的情况下,更是牵扯到卫生问题。为了消除这些限制,研究了约束较少,甚至无约束的生物识别技术。通常来说,约束较少的生物识别技术拥有更短的数据获取时间、更好的可用性和更高的社会接受程度,进一步扩大了生物特征识别的应用场景。常见的非接触式生物识别技术有掌纹识别、人脸识别、指纹识别、虹膜识别、静脉识别、声音识别以及步态识别等。其中人脸识别、声音识别、步态识别的稳定性较低,易于伪造;指纹识别、虹膜识别、静脉识别对采集设备要求较高,不利于大面积推广。非接触式掌纹识别作为一种典型的无约束的生物识别技术,可以在手掌不接触传感器的情况下轻松地被智能手机采集到,在现实世界中具有广阔的应用前景,如智能移动设备的访问控制、基于智能移动终端的金融领域应用等。
在非接触式掌纹识别中,由于移除了接触式辅助定位装置,会由于采集时手掌发生的形变而对识别精度造成很大影响。没有辅助定位装置的约束,采集到的掌纹图像会存在各种各样的质量问题,如光照不均、掌纹形变、图像模糊等。而现有的基于接触式采集设备的识别算法,在这样的图像上无法取得令人满意的识别精度。
在实际应用中,掌纹识别系统往往会遇到两个问题。第一,训练数据存在缺失,如部分样本的数据丢失或因损毁导致不可用。第二,用于采集训练数据的设备往往与用于采集验证数据的设备是不同的。不同品牌手机摄像头的参数不同,也使得不同手机采集到的掌纹图像存在较大差异。因此不同手机采集来的掌纹数据,可以看作属于不同的域或模态。现有的掌纹识别方法在这种情况下往往并不能达到一个优秀的识别率。
发明内容
本发明的目的是提供一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,对于跨设备采集得到的掌纹进行补全,进而提高对于跨设备采集的掌纹的识别率。
为实现上述目的,本发明提供了如下方案:
本发明提供一种对抗生成网络训练方法,包括:
将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像;
将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块;
将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度;
对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组;
将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零;
若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
可选地,所述第一自注意力模块包括:
第一映射子模块,用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;
第二映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;
第三映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;
第一特征子模块,用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;
第二特征子模块,用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重,以得到输出特征映射;
自注意力子模块,用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。
可选地,所述自注意力子模块,具体包括:
根据公式
y=γO+x
确定目标向量序列;
其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
可选地,所述待用数据对应的质量分数的计算公式为:
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;表示数学期望,x~pdata(x)表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,|| ||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性;
Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y)中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
可选地,所述自注意力循环对抗生成网络的损失函数包括:
其中,X表示训练组中的第一类数据,Y表示训练组中的第二类数据,且所述第一类数据与所述第二类数据为由不同设备采集得到的掌纹图像数据;G表示通过X生成Y的生成器;F表示通过Y生成X的生成器;DX表示判断掌纹图像数据是否属于X的判别器;DY表示判断掌纹图像数据是否属于Y的判别器;表示损失函数,表示自注意力循环对抗生成网络的损失函数,表示对抗损失函数,表示循环一致性损失函数;λ表示调节权重的参数。
可选地,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;
所述残差模块包括依次连接的多个残差子模块;
所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
为达上述目的,本发明还提供了如下技术方案:
一种跨设备掌纹识别方法,包括:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
获取待识别掌纹图像;
若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
可选地,所述分类器为ResNet-50网络。
一种跨设备掌纹识别系统,包括:
掌纹识别模型构建模块,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
待识别图像获取模块,用于获取待识别掌纹图像;
掌纹识别模块,分别与所述掌纹识别模型构建模块和所述待识别图像获取模块连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种对抗生成网络训练方法、跨设备掌纹识别方法及系统,获取不同设备采集得到的掌纹图像,并分为训练组和待用组。利用训练组对自注意力循环对抗生成网络进行训练,利用待用组选取质量分数较低,即相对可靠的掌纹图像,并添加至训练组中进行训练,直至待用组中的所有数据均加入至模型训练,从而实现基于自步学习的模型训练,缓解非接触式掌纹图像的噪音和形变对数据补全工作和识别工作的影响。另外,自注意力循环对抗生成网络包括生成器和判别器,生成器中设置了自注意力模块,通过该自注意力模块的设置,能够使用较小的计算成本,捕捉长距离依赖;而生成器和判别器构成的对抗生成网络,能够对不同设备采集到的掌纹进行补全,其不需要成对的图像,就可以实现从源域到目标域的图像风格转换。即通过循环对抗生成网络,可充分利用不同设备采集到的掌纹图像,对缺失数据进行弥补,使得生成的缺失图像既可以保留掌纹本身的生物特征信息,又可以符合缺失的设备采集到的图像风格,为进一步的掌纹识别提供更全面的数据基础,进而提高跨设备采集的掌纹的识别率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明对抗生成网络训练方法的流程示意图;
图2为本发明对抗生成网络训练实例结构图;
图3为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图一;
图4为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图二;
图5为本发明自注意力循环对抗生成网络中损失函数计算的结构示意图三;
图6为本发明第一自注意力模块的结构示意图;
图7为本发明跨设备掌纹识别方法的流程示意图;
图8为本发明跨设备掌纹识别系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
要知道,实际应用中图像采集设备多种多样,比如不同型号的手机摄像头。在采集掌纹图像进行训练的时候,很难保证所有的掌纹图像都来自同一个设备,更多的情况是一部分用户使用设备A采集,一部分使用设备B进行采集。这导致无论是用设备A采集到的掌纹图像,还是设备B采集到的图像都是不完整的,而两部分图像合起来又包含了所有用户的信息。
并且,不同设备采集到的图像风格也会不同,实际应用中无法将不同设备采集到的图像直接混合以后作为训练数据进行模型的训练,这样会导致掌纹识别准确率大幅下降。而两部分数据又分别缺少一部分用户数据,分开训练也无法实现理想的准确率。
而本发明所采用的循环对抗生成网络能够将两种设备或者多种设备拍摄得到的不同风格的图像进行转换。以两种设备为例,将设备A采集到的图像风格转换为设备B的风格,同时也将设备B采集到的图像的风格转换为设备A的风格。通过循环对抗生成网络将两个设备采集到的图像风格转换后,得到符合设备B风格的图像和符合设备A风格的图像,这样就可以直接与原本由设备A和设备B采集到的图像进行混合,从而达到数据补全的目的。
例:张三的掌纹由设备A采集,李四由设备B采集。直接使用两人采集到的图像训练的话识别率很低。现通过循环对抗生成网络,生成风格与设备A很像的李四的掌纹图像和风格与设备B很像的张三的图像。这样用由设备A采集到的张三的图像和生成的风格与设备A相似的李四的图像组成训练数据进行训练,模型的识别率就会大大提高。原本缺失的由设备A采集的李四的掌纹数据由循环对抗生成网络生成出来了。
为使本发明的目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本实施例提供一种对抗生成网络训练方法,包括:
步骤100,将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像。
步骤200,将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块。所述判别器包括依次连接的多个卷积模块,具体的卷积模块的数量可根据需要进行设置,在本发明的一个具体实施例中,判别器包括三个依次连接的卷积模块。
其中,第一卷积模块输入的图像进行特征提取,降低网络参数,保证网络的稀疏性,防止过拟合。第一自注意力模块让模型不仅仅考虑某个像素点,而是让模型自己选择感受野,从而减少对外部信息的依赖,捕捉到更多数据内部相关性。残差模块实现对图像风格的转换,对比传统的U-net结构,采用残差模块能够保证网络结构的复杂度,并且避免出现梯度消失问题。反卷积模块将图像特征还原到目标图像尺寸。
具体地,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;所述残差模块包括依次连接的多个残差子模块;所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
图3、图4和图5均为自注意力循环对抗生成网络中损失函数计算的结构示意图,图3中,X通过生成器G生成数据分布与Y相似的数据,Y通过生成器F生成类似X的数据,两个判别器分别对生成的图像进行判断,判断是否符合目标数据集的数据分布。图4和图5是同一个过程的两个方向。图4是掌纹图像x由G生成的图像Y尖,再次通过F生成掌纹图像x尖,然后去计算x和x尖之间的差异损失。方向反过来就是图5。
基于图3、图4和图5可得所述自注意力循环对抗生成网络的损失函数包括:
其中,X表示训练组中的第一类数据,Y表示训练组中的第二类数据,且所述第一类数据与所述第二类数据为由不同设备采集得到的掌纹图像数据;G表示通过X生成Y的生成器;F表示通过Y生成X的生成器;DX表示判断掌纹图像数据是否属于X的判别器;DY表示判断掌纹图像数据是否属于Y的判别器;表示损失函数,表示自注意力循环对抗生成网络的损失函数,具体表示同一性损失;表示对抗损失函数,对应图3中的部分损失函数;表示循环一致性损失函数,对应图4和图5中的循环一致性损失函数(cycle-consistency loss);λ表示调节权重的参数。循环一致性损失函数需要采用图4和图5两部分进行计算是因为计算cycle-consistency loss的数据流转是一个圈,一张图表现不出来,而两者合起来才是一个完整的cycle-consistencyloss。公式中出现两次是因为图3中存在两个方向的损失,但是两个方向的损失的数学表达式不一样。
自注意力机制注是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。注意力机制来源于人类视觉注意力机制,简单来说是一种权重参数的分配机制,目标是协助模型捕捉重要信息。自我注意是一种特殊的注意机制,通过(key,query,value)的三元组提供了一种有效的捕捉全局上下文信息的建模方式,可以帮助实现点对点之间的对齐。
所述第一自注意力模块包括第一映射子模块、第二映射子模块、第三映射子模块、第一特征子模块、第二特征子模块和自注意力子模块。如图6所示,第一映射子模块用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;即将第一卷积模块输出的特征数据x映射至q空间,q(x)=Wqx,Wq表示q空间映射参数。第二映射子模块用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;即将第一卷积模块输出的特征数据映射至k空间,k(x)=Wkx,Wk表示k空间映射参数。第三映射子模块用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;即将第一卷积模块输出的特征数据映射至v空间,v(x)=Wvx,Wv表示v空间映射参数。
第一特征子模块用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;即A=softmax(qkT),A表示自注意力,即自注意力特征图;kT表示对映射到k空间的数据进行转置,qkT表示相乘,对应图6中圆圈里面一个乘号。第二特征子模块用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重Wf,以得到输出特征映射O;即O=f(Av),f(x)=Wfx。自注意力子模块用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。具体地,根据公式y=γO+x确定目标向量序列;其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
第二自注意力模块的结构与第一自注意力模块的结构完全相同,在此不再赘述。
步骤300,将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度,换而言之,质量分数用来衡量生成图像质量,以间接反映训练学习难易度。质量分数越高,图像质量越低,学习难度越高。本发明采用类似于循环对抗生成网络损失函数的方法(cycle-consistency loss结构)来计算生成图像的质量分数,待用数据对应的质量分数的计算公式为:
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;表示数学期望,x~pdata(x)表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,|| ||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性。
同理可得,类似的针对Y的质量分数计算公式如下:
其中,Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y)中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
步骤400,对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组。具体地,添加至训练组的k个待用数据占待用组中所有待用数据的比例,是可根据实际情况进行设置的。
步骤500,将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零。
步骤600,若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
步骤700,若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
自步学习的核心是挑选容易学习的数据,逐步加入到训练过程中,而不是一开始就让所有数据都参与到训练中,以图2为例,图中每一横排都是一次迭代,每次迭代分为训练和排序两个步骤。每次迭代开始时,数据会被分为训练数据和剩余数据两组。具体过程如下:
第一次迭代:
第一次迭代结束。
第二次迭代:
第n次迭代,即最后一次迭代,此时待用组中数据的数量为零:
重复上述步骤直到最后一次迭代,将所有数据都作为训练数据加入到训练过程中,直到损失收敛后训练结束,得到最优的模型,即最终对抗生成网络。
实施例二
如图7所示,本实施例提供一种跨设备掌纹识别方法,包括:
步骤10,获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像。
步骤20,将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由实施例一中所述的对抗生成网络训练方法得到的。
步骤30,利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;所述分类器为ResNet-50网络。
步骤40,利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型。
步骤50,获取待识别掌纹图像。
步骤60,若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别。
步骤70若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
具体算法如下:
算法1自步学习训练策略。
CALSCORE()返回质量分数。
RANK()按照质量分数进行排序。
TOP()返回得分最低的前k个图像。
实施例三
如图8所示,为了执行上述实施例二对应的方法,以实现相应的功能和技术效果,本实施例提供了一种跨设备掌纹识别系统,包括:
掌纹识别模型构建模块11,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由实施例一中所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型。
待识别图像获取模块21,用于获取待识别掌纹图像。
掌纹识别模块31,分别与所述掌纹识别模型构建模块11和所述待识别图像获取模块21连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
相对于现有技术,本发明还具有如下优点:
本发明利用循环对抗生成网络来实现不同设备间的数据互补,一个是利用自注意力模型对循环对抗生成网络进行优化。相对于传统的训练方法是将数据全部输入到上文所提模型中计算损失函数,然后通过反向传播优化网络中的参数。本发明提出了通过自步学习的思想进行模型的训练,即在剩余数据中挑选容易学习的数据,逐步将所有数据投入到训练过程中充分利用不同设备采集到的掌纹图像,对缺失数据进行弥补,使得生成的缺失图像既可以保留掌纹本身的生物特征信息,又可以符合缺失的设备采集到的图像风格,为进一步的掌纹识别提供更全面的数据基础,进而提高跨设备采集的掌纹的识别率。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种对抗生成网络训练方法,其特征在于,所述对抗生成网络训练方法包括:
将样本集划分为训练组和待用组;所述样本集包括多张由不同设备采集得到的掌纹图像;
将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络;所述自注意力循环对抗生成网络包括生成器和判别器;所述生成器包括依次连接的第一卷积模块、第一自注意力模块、残差模块、第二自注意力模块和反卷积模块;
将所述待用组输入至所述优化对抗生成网络,以计算所述待用组中每个待用数据对应的质量分数;所述质量分数用于表征待用数据在所述优化对抗生成网络中的训练学习难易程度;
对多个所述质量分数进行升序,将升序后前k个质量分数对应的待用数据从所述待用组添加至所述训练组,以得到对应的更新后训练组和更新后待用组;
将所述训练组更新为所述更新后训练组,将所述待用组更新为所述更新后待用组,判断所述待用组中待用数据的数量是否为零;
若所述待用组中待用数据的数量不为零,则返回将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到优化对抗生成网络的步骤;
若所述待用组中待用数据的数量为零,则将所述训练组输入至自注意力循环对抗生成网络进行训练,以得到最终对抗生成网络。
2.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述第一自注意力模块包括:
第一映射子模块,用于对所述第一卷积模块输出的特征数据进行第一卷积映射,以得到键数据;
第二映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到查询数据;
第三映射子模块,用于对所述第一卷积模块输出的特征数据进行第二卷积映射,以得到值数据;
第一特征子模块,用于对所述键数据和所述查询数据进行第一点乘计算,然后对第一点乘结果进行归一处理,以得到自注意力特征图;
第二特征子模块,用于对所述值数据和所述自注意力特征图进行第二点乘计算,然后为第二点乘结果增加权重,以得到输出特征映射;
自注意力子模块,用于根据所述输出特征映射和所述第一卷积模块输出的特征数据确定目标向量序列。
3.根据权利要求2所述的用于跨设备掌纹识别的对抗网络训练方法,其特征在于,所述自注意力子模块,具体包括:
根据公式
y=γO+x
确定目标向量序列;
其中,y表示目标向量序列,γ表示预设可学习的变量,O表示输出特征映射,x表示第一卷积模块输出的特征数据。
4.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述待用数据对应的质量分数的计算公式为:
其中,Scorex表示第x生成图像的质量分数,所述第x生成图像为待用数据x输入至优化对抗生成网络后得到的生成图像;表示数学期望,x~pdata(x表示从数据分布pdata(x)中采样得到样本x,F表示优化对抗生成网络中的第一生成器,G表示优化对抗生成网络中的第二生成器,||||1表示1范数;||F(G(x))-x||1表示样本x通过生成器F生成与Y类似的x尖,再将x尖通过生成器G还原成的x与原始的样本x的相似性,||F(x)-x||1表示样本x通过生成器F生成的x与原始样本x的相似性;
Scorey表示第y生成图像的质量分数,所述第y生成图像为待用数据y输入至优化对抗生成网络后得到的生成图像;y~pdata(y)表示从数据分布pdata(y中采样得到样本y;||G(F(y))-y||1表示样本y通过生成器G生成与X类似的y尖,再将y尖通过生成器F还原成的y与原始的样本y的相似性,||G(y)-y||1表示样本y通过生成器G生成的y与原始样本y的相似性。
6.根据权利要求1所述的对抗生成网络训练方法,其特征在于,所述第一卷积模块包括依次连接的第一反射填充子模块、第一卷积子模块、第二卷积子模块和第三卷积子模块;
所述残差模块包括依次连接的多个残差子模块;
所述反卷积模块包括依次连接的第一反卷积子模块、第二反卷积子模块、第二反射填充子模块、第四卷积子模块和激活模块。
7.一种跨设备掌纹识别方法,其特征在于,所述跨设备掌纹识别方法包括:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由权利要求1-6中任一项所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
获取待识别掌纹图像;
若所述待识别掌纹图像为所述第一设备采集,则将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
若所述待识别掌纹图像为所述第二设备采集,则将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
8.根据权利要求7所述的跨设备掌纹识别方法,其特征在于,所述分类器为ResNet-50网络。
9.一种跨设备掌纹识别系统,其特征在于,所述跨设备掌纹识别系统包括:
掌纹识别模型构建模块,用于:
获取第一设备采集的第一掌纹图像和第二设备采集的第二掌纹图像;
将所述第一掌纹图像和所述第二掌纹图像分别输入至最终对抗生成网络,以得到对应的第三掌纹图像和第四掌纹图像;多个所述第一掌纹图像和对应的第三掌纹图像构成第一识别样本集,多个所述第二掌纹图像和对应的第四掌纹图像构成第二识别样本集;所述最终对抗生成网络是由权利要求1-6中任一项所述的对抗生成网络训练方法得到的;
利用所述第一识别样本集训练分类器,以得到第一掌纹识别模型;
利用所述第二识别样本集训练分类器,以得到第二掌纹识别模型;
待识别图像获取模块,用于获取待识别掌纹图像;
掌纹识别模块,分别与所述掌纹识别模型构建模块和所述待识别图像获取模块连接,用于:
当所述待识别掌纹图像为所述第一设备采集时,将所述待识别掌纹图像输入至所述第一掌纹识别模型进行掌纹识别;
当所述待识别掌纹图像为所述第二设备采集时,将所述待识别掌纹图像输入至所述第二掌纹识别模型进行掌纹识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211314356.3A CN115546848B (zh) | 2022-10-26 | 2022-10-26 | 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211314356.3A CN115546848B (zh) | 2022-10-26 | 2022-10-26 | 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115546848A true CN115546848A (zh) | 2022-12-30 |
CN115546848B CN115546848B (zh) | 2024-02-02 |
Family
ID=84717741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211314356.3A Active CN115546848B (zh) | 2022-10-26 | 2022-10-26 | 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546848B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071787A (zh) * | 2023-01-06 | 2023-05-05 | 南京航空航天大学 | 一种多光谱掌纹识别方法、系统、电子设备及介质 |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685068A (zh) * | 2018-12-27 | 2019-04-26 | 上海七牛信息技术有限公司 | 一种基于生成对抗神经网络的图像处理方法以及系统 |
US20190213474A1 (en) * | 2018-01-09 | 2019-07-11 | Adobe Inc. | Frame selection based on a trained neural network |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
CN111127587A (zh) * | 2019-12-16 | 2020-05-08 | 杭州电子科技大学 | 一种基于对抗生成网络的无参考图像质量地图生成方法 |
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
US10839269B1 (en) * | 2020-03-20 | 2020-11-17 | King Abdulaziz University | System for fast and accurate visual domain adaptation |
WO2020248492A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 基于环形对抗生成网络的oct图像去噪方法及装置 |
WO2021012526A1 (zh) * | 2019-07-22 | 2021-01-28 | 平安科技(深圳)有限公司 | 人脸识别模型的训练方法、人脸识别方法、装置、设备及存储介质 |
WO2021072870A1 (zh) * | 2019-10-15 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于对抗网络的指纹模型生成方法以及相关装置 |
KR20210048100A (ko) * | 2019-10-23 | 2021-05-03 | 서울대학교산학협력단 | 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치 |
US20210209459A1 (en) * | 2017-05-08 | 2021-07-08 | Boe Technology Group Co., Ltd. | Processing method and system for convolutional neural network, and storage medium |
CN113221948A (zh) * | 2021-04-13 | 2021-08-06 | 复旦大学 | 基于对抗生成网络和弱监督学习的数字切片图像分类方法 |
US20210358178A1 (en) * | 2020-05-15 | 2021-11-18 | Amazon Technologies, Inc. | Iterative media object compression algorithm optimization using decoupled calibration of perceptual quality algorithms |
CN113822895A (zh) * | 2021-08-29 | 2021-12-21 | 陕西师范大学 | 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法 |
US20210398334A1 (en) * | 2020-06-22 | 2021-12-23 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for creating image editing model, and electronic device and storage medium thereof |
CN114118345A (zh) * | 2020-08-31 | 2022-03-01 | 北京三星通信技术研究有限公司 | 生成对抗网络的训练方法、数据分类方法及相关设备 |
US20220188978A1 (en) * | 2020-12-10 | 2022-06-16 | Shenzhen Institutes Of Advanced Technology | Method and system for generating multi-task learning-type generative adversarial network for low-dose pet reconstruction |
CN114863164A (zh) * | 2022-04-02 | 2022-08-05 | 华中科技大学 | 一种面向小目标超分辨重建图像的目标识别模型构建方法 |
CN114936975A (zh) * | 2022-05-23 | 2022-08-23 | 南昌逸勤科技有限公司 | 一种模型的训练方法、人脸识别方法、装置及介质 |
CN115082780A (zh) * | 2022-05-25 | 2022-09-20 | 西北工业大学 | 基于增量式差异学习网络的多源异质影像变化检测方法 |
US20220318946A1 (en) * | 2021-03-31 | 2022-10-06 | University Of Electronic Science And Technology Of China | Method for image shape transformation based on generative adversarial network |
CN115170836A (zh) * | 2022-07-29 | 2022-10-11 | 深圳大学 | 一种基于浅层纹理提取的跨域重识别方法及相关设备 |
CN115186814A (zh) * | 2022-07-25 | 2022-10-14 | 南京慧尔视智能科技有限公司 | 对抗生成网络的训练方法、装置、电子设备和存储介质 |
US20230041233A1 (en) * | 2020-10-09 | 2023-02-09 | Tencent Technology (Shenzhen) Company Limited | Image recognition method and apparatus, computing device, and computer-readable storage medium |
-
2022
- 2022-10-26 CN CN202211314356.3A patent/CN115546848B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210209459A1 (en) * | 2017-05-08 | 2021-07-08 | Boe Technology Group Co., Ltd. | Processing method and system for convolutional neural network, and storage medium |
US20190213474A1 (en) * | 2018-01-09 | 2019-07-11 | Adobe Inc. | Frame selection based on a trained neural network |
CN109685068A (zh) * | 2018-12-27 | 2019-04-26 | 上海七牛信息技术有限公司 | 一种基于生成对抗神经网络的图像处理方法以及系统 |
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
WO2020248492A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 基于环形对抗生成网络的oct图像去噪方法及装置 |
WO2021012526A1 (zh) * | 2019-07-22 | 2021-01-28 | 平安科技(深圳)有限公司 | 人脸识别模型的训练方法、人脸识别方法、装置、设备及存储介质 |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
WO2021072870A1 (zh) * | 2019-10-15 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于对抗网络的指纹模型生成方法以及相关装置 |
KR20210048100A (ko) * | 2019-10-23 | 2021-05-03 | 서울대학교산학협력단 | 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치 |
CN111127587A (zh) * | 2019-12-16 | 2020-05-08 | 杭州电子科技大学 | 一种基于对抗生成网络的无参考图像质量地图生成方法 |
US10839269B1 (en) * | 2020-03-20 | 2020-11-17 | King Abdulaziz University | System for fast and accurate visual domain adaptation |
US20210358178A1 (en) * | 2020-05-15 | 2021-11-18 | Amazon Technologies, Inc. | Iterative media object compression algorithm optimization using decoupled calibration of perceptual quality algorithms |
US20210398334A1 (en) * | 2020-06-22 | 2021-12-23 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for creating image editing model, and electronic device and storage medium thereof |
CN114118345A (zh) * | 2020-08-31 | 2022-03-01 | 北京三星通信技术研究有限公司 | 生成对抗网络的训练方法、数据分类方法及相关设备 |
US20230041233A1 (en) * | 2020-10-09 | 2023-02-09 | Tencent Technology (Shenzhen) Company Limited | Image recognition method and apparatus, computing device, and computer-readable storage medium |
US20220188978A1 (en) * | 2020-12-10 | 2022-06-16 | Shenzhen Institutes Of Advanced Technology | Method and system for generating multi-task learning-type generative adversarial network for low-dose pet reconstruction |
US20220318946A1 (en) * | 2021-03-31 | 2022-10-06 | University Of Electronic Science And Technology Of China | Method for image shape transformation based on generative adversarial network |
CN113221948A (zh) * | 2021-04-13 | 2021-08-06 | 复旦大学 | 基于对抗生成网络和弱监督学习的数字切片图像分类方法 |
CN113822895A (zh) * | 2021-08-29 | 2021-12-21 | 陕西师范大学 | 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法 |
CN114863164A (zh) * | 2022-04-02 | 2022-08-05 | 华中科技大学 | 一种面向小目标超分辨重建图像的目标识别模型构建方法 |
CN114936975A (zh) * | 2022-05-23 | 2022-08-23 | 南昌逸勤科技有限公司 | 一种模型的训练方法、人脸识别方法、装置及介质 |
CN115082780A (zh) * | 2022-05-25 | 2022-09-20 | 西北工业大学 | 基于增量式差异学习网络的多源异质影像变化检测方法 |
CN115186814A (zh) * | 2022-07-25 | 2022-10-14 | 南京慧尔视智能科技有限公司 | 对抗生成网络的训练方法、装置、电子设备和存储介质 |
CN115170836A (zh) * | 2022-07-29 | 2022-10-11 | 深圳大学 | 一种基于浅层纹理提取的跨域重识别方法及相关设备 |
Non-Patent Citations (3)
Title |
---|
TAO ZHANG; ZHONGNIAN LI; QI ZHU; DAOQIANG ZHANG: "Improved Procedures for Training Primal Wasserstein GANs", 2021 IEEE RADAR CONFERENCE, pages 1 - 6 * |
王禾扬,杨启明,朱旗: "基于深度卷积集成网络的视网膜多种疾病筛查和识别方法", 智能科学与技术学报, vol. 3, no. 03, pages 259 - 267 * |
程艳,蔡壮, 吴刚, 罗品, 邹海锋: "结合自注意力特征过滤分类器和双分支GAN的面部表情识别", 模式识别与人工智能, vol. 35, no. 03, pages 243 - 253 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071787A (zh) * | 2023-01-06 | 2023-05-05 | 南京航空航天大学 | 一种多光谱掌纹识别方法、系统、电子设备及介质 |
CN116071787B (zh) * | 2023-01-06 | 2023-09-29 | 南京航空航天大学 | 一种多光谱掌纹识别方法、系统、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115546848B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902546A (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN106295694B (zh) | 一种迭代重约束组稀疏表示分类的人脸识别方法 | |
Wan et al. | Dorsal hand vein recognition based on convolutional neural networks | |
CN108875459B (zh) | 一种基于稀疏系数相似的加权稀疏表示人脸识别方法及系统 | |
CN109034034A (zh) | 一种基于强化学习算法优化卷积神经网络的静脉识别方法 | |
CN107122725B (zh) | 一种基于联合稀疏判别分析的人脸识别方法及其系统 | |
CN104834905A (zh) | 一种人脸图像识别仿真系统及方法 | |
AL-Allaf et al. | Pattern recognition neural network for improving the performance of iris recognition system | |
CN110245621A (zh) | 人脸识别装置及图像处理方法、特征提取模型、存储介质 | |
CN117238026B (zh) | 一种基于骨骼和图像特征的姿态重建交互行为理解方法 | |
CN112800882A (zh) | 一种基于加权双流残差网络的口罩人脸姿态分类方法 | |
Li et al. | A multi-cooperative deep convolutional neural network for spatiotemporal satellite image fusion | |
CN114511901B (zh) | 一种年龄分类辅助的跨年龄人脸识别算法 | |
CN115546848B (zh) | 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统 | |
Li et al. | Adaptive dropout method based on biological principles | |
Jadhav et al. | HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features | |
Hou et al. | A face detection algorithm based on two information flow block and retinal receptive field block | |
CN103942545A (zh) | 一种基于双向压缩数据空间维度缩减的人脸识别方法和装置 | |
Goel et al. | Comparative analysis of various illumination normalization techniques for face recognition | |
CN107330382A (zh) | 基于局部卷积特征联合表示的单样本人脸识别方法及装置 | |
CN116959073A (zh) | 一种方向自适应的多姿态点云人脸识别方法及系统 | |
Sun et al. | Using backpropagation neural network for face recognition with 2D+ 3D hybrid information | |
CN115937910A (zh) | 一种基于小样本度量网络的掌纹图像识别方法 | |
CN115588220A (zh) | 两阶段多尺度自适应的低分辨率人脸识别方法及应用 | |
CN114708654A (zh) | 一种将骨骼信息映射为图像的人物识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |