CN110321870B - 一种基于lstm的掌静脉识别方法 - Google Patents
一种基于lstm的掌静脉识别方法 Download PDFInfo
- Publication number
- CN110321870B CN110321870B CN201910623884.9A CN201910623884A CN110321870B CN 110321870 B CN110321870 B CN 110321870B CN 201910623884 A CN201910623884 A CN 201910623884A CN 110321870 B CN110321870 B CN 110321870B
- Authority
- CN
- China
- Prior art keywords
- palm vein
- lstm
- data
- cnn
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Abstract
本发明提供了一种基于LSTM的掌静脉识别方法,人工标注掌静脉图像数据进而训练出FCN模型。通过卷积神经网络(CNN)计算标注过的掌静脉图像数据的特征向量,进而通过LSTM训练出掌静脉识别模型。将待识别的用户掌静脉数据输入到掌静脉识别模型进行比对,比对结果大于一定阈值,则认证成功,否则认证失败。相比传统的特征点和基于纹理特征进行比对,基于LSTM‑CNN模型训练,针对时间、温度变化,无论效率、准确率都有大幅地提高。
Description
技术领域
本发明涉及图像处理与深度学习技术领域,具体涉及一种基于LSTM的掌静脉识别方法。
背景技术
传统的掌静脉识别受光线强弱、温度高低、位置等外部因素的影响,一次性识别成功率低。
当前的掌静脉识别算法主要是基于特征点和基于纹理特征进行比对,其中特征点主要是指静脉纹路中的一线显著的关键点,具有很强的辨识度,如端点、分叉点、交点等。对于这些特征点的提取普遍做法是采用SIFT、SURF等方法,这些方法一般在特征点数量较多时效果很好,但耗时也高,不适合在嵌入式设备中应用。此外,基于纹理特征的方法目前也较为普遍,如LBP特征、HOG特征等,这些方法对图像清晰度不再敏感,但其表达能力也很有限,不能应对多变的实际应用场景。
CN105474234A公开了一种掌静脉识别的方法,包括:获取用户的目标掌静脉图像;从所述用户的目标掌静脉图像中提取感兴趣区域ROI;获取所述ROI对应的特征数据,所述特征数据为经过二值化处理得到的;通过比对所述目标掌静脉图像对应的特征数据与已登记的原始掌静脉图像对应的特征数据,对所述用户的目标掌静脉图像进行识别,其中,所述已登记的原始掌静脉图像对应的特征数据为预先计算得到的。该方法作为基于特征点和基于纹理特征进行比对,一般在特征点数量较多时效果较好,但耗时高,不适合嵌入式设备中应用,也不能应对多变的实际应用场景,不具有自我学习能力。
CN106056041公开了一种对手掌静脉图像进行采集并识别的系统方法,现利用红外工业摄像头采集人手掌的静脉图像,再对原始图像进行归一化、二值化、中值滤波进行预处理得出具有一定特征的目标图像,接下来对图像通过多层卷积和池化等操作进行训练,最终得到合理的权矩阵。该方法没有人工进行静脉图像标注,原始的输入数据会随着数据量增大而产生较大的偏移;并且,针对因时间偏移而带来人手掌的静脉图像变化不能进行自动调整,即不具有记忆属性。
CN108615002公开了一种基于卷积神经网络的手掌静脉认证方法,该基于卷积神经网络的手掌静脉认证方法具体步骤如下:S1、根据训练样本集图像,对卷积神经网络进行训练,S2、用户注册图像输入到卷积网络模型生成特征向量,S3、输入待识别图像,S4、待识别特征向量与模板存储模块中的模板特征向量进行比对识别;S5、比对结果获得的概率值取最大值,最大概率值大于一定阈值,则认证成功,否则认证失败。该方法同样针对因时间偏移而带来人手掌的静脉图像变化不能进行自动调整,不具有记忆属性。
发明内容
本发明针对上述技术问题,提出了一种基于LSTM的掌静脉识别方法,在一定历史时间范围,对不同温度的掌静脉图像数据进行学习,从而生成不同的掌静脉数据识别模板。掌静脉设备识别时,不同温度下,与对应的图像描述模型进行比对,排除温度影响,从而提高掌静脉数据识别的效率、准确率。
为了实现本发明的目的,本发明采用的技术方案是:
基于LSTM的掌静脉识别方法,包括以下步骤:
S1.采集一段时间内的掌静脉图像数据和温度信息;
S2.对采集到的掌静脉图像数据进行人工标注,训练出基于掌静脉数据的FCN(全卷积网络)模型;
S3.利用人工标注后的掌静脉图像数据,建立多个不同温度下的LSTM-CNN模型;
S4.通过传感器获取用户注册掌静脉图像及温度信息,依据FCN模型获取用户注册掌静脉图像的位置信息,并读取掌静脉图像数据信息;
S5.基于用户注册掌静脉图像的数据信息作为输入,经多个不同温度的LSTM-CNN模型提取生成特征向量,并作为特征向量模板存储;
S6.通过传感器获取待识别掌静脉图像及温度信息,选择相应温度的LSTM-CNN模型提取待识别掌静脉的特征向量与特征向量模板进行比对,比对结果大于一定阈值,则认证成功,否则认证失败。
经过训练,LSTM-CNN中保存有多个不同温度下的特征向量模板,如果待识别掌静脉特征向量与对应温度的已有特征向量小于特定的阀值,即认为相同。
本发明所述S6步骤的比对方法为:
S61将待识别掌静脉数据在深度学习模型LSTM-CNN的Embedding层进行向量化并转换成向量A;
S62向量A传入深度学习模型LSTM-CNN的LSTM层一LSTM单元;
S63将LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
S64将第一DropOut层的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci;
S65将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出y′与特征向量模板yID一起计算产生损失值;当前计算的损失值与前m次损失值的平均值的差小于阈值,则认证成功,否则认证失败。
优选地,所述损失值Cost(y′,yID)=-yIDlog(y′)+(1-yID)log(1-y′)。
优选地,所述的阈值为0.5。
本发明所述S1步骤,采集-20~40摄氏度温度变化的掌静脉图像数据。
本发明的有益效果在于:
1、本发明方法采用LSTM-CNN模型训练,基于训练的掌静脉数据集,提取图像描述数据集中的CNN特征,通过二层、三层及多层LSTM-CNN模型进行训练,最终获得基于不同温度下的逐层多目标优化及多层概率融合的图像描述模型。相比传统的特征点和基于纹理特征进行比对,基于LSTM-CNN模型训练,针对时间、温度变化,无论效率、准确率都有大幅地提高。
2、相比传统的特征点和基于纹理特征进行比对,通过人工标注训练掌静脉切割的FCN模型,更好地识别掌静脉图像信息,从而更加高效地识别掌静脉图像信息。
3、相比传统的解决方案,LSTM-CNN具有历史记忆性、训练性,通过标注掌静脉数据的训练,可不断地优化特征向量;通过历史数据的训练,可随着时间数据的变化,特征向量体现时间的属性从而避免偏差过大。
附图说明
图1为本发明基于LSTM的掌静脉识别方法的流程示意图。
图2为单张掌静脉数据图片信息。
图3为基于掌静脉图片的FCN模型。
图4为训练并着色之后的掌静脉图像。
具体实施方式
为了更加清楚、详细地说明本发明的目的技术方案,下面通过相关实施例对本发明进行进一步描述。以下实施例仅为具体说明本发明的实施方法,并不限定本发明的保护范围。
实施例1
一种基于LSTM的掌静脉识别方法,人工标注掌静脉图像数据进而训练出FCN模型。通过卷积神经网络(CNN)计算标注过的掌静脉图像数据的特征向量,进而通过LSTM训练出掌静脉识别模型。将待识别的掌静脉数据输入到掌静脉识别模型与已注册的用户掌静脉数据进行比对,比对结果大于一定阈值,则认证成功,否则认证失败。具体流程示意图如图1所示,下面进行具体说明。
具体包括如下步骤:
S1.采集一段时间内的掌静脉图像数据和温度信息;
人的掌静脉信息会随着时间的推移而发生改变,而传统的识别方法都假定人的掌静脉信息是不变的。同时,外界温度的变化也会对掌静脉图像提取产生较大的影响。本发明针对不同时间(也意味着温度的差异性)进行训练,从而满足多种实际场景的需求。
S2.对采集到的掌静脉图像数据进行人工标注,训练出基于掌静脉数据的FCN(全卷积网络)模型;
后续采集的人掌静脉图像,通过FCN模型可快速、准确地读取人手掌静脉数据信息。
S3.利用人工标注后的掌静脉图像数据,建立多个不同温度下的LSTM-CNN模型;
S4.通过传感器获取用户注册掌静脉图像及温度信息,依据FCN模型获取用户注册掌静脉图像的位置信息,并读取掌静脉图像数据信息;
S5.基于用户注册掌静脉图像的数据信息作为输入,经多个不同温度的LSTM-CNN模型提取生成特征向量,并作为特征向量模板存储;
S6.通过传感器获取待识别掌静脉图像及温度信息,选择相应温度的LSTM-CNN模型与特征向量模板进行比对,比对结果大于一定阈值,则认证成功,否则认证失败。
本发明的图像采集,采用日本富士通公司的PalmSecure传感器,自动地实现掌静脉图像的读取功能;温度传感器为市面可采购的常规温度传感器。
在步骤S1中,在一个月时间内,人工模拟从-20~40摄氏度的温度变化,采集掌静脉图像数据和温度信息。共计12000张,10人的单张掌静脉数据图片,单张掌静脉数据图片如图2所示。
在步骤S2中,采用人工标注,实现不同温度下,用户掌静脉图像数据的标注工作,从而训练出基于掌静脉图片的FCN模型,见图3。
标注的是掌静脉形状信息,每个掌静脉形状信息,对应一个xml文件,xml文件中包含了用户掌静脉的位置信息。基于标注后的掌静脉图像数据,读取掌静脉数据中的特定位置的数据信息。标注目标物体,生成对应的xml文件,一张图像对应一个xml文件,xml文件主要内容是图像的路径以及图像中的目标在图像中的位置等信息。
深度学习图像分割(FCN)训练自己的模型分为以下三步:
1.采用开源软件labelme,为掌静脉的数据制作label;
2.将自己的数据分为训练集,验证集和测试集,分配比例为1:1:1;
3.编写自己的输入数据层并输入到FCN模型。
FCN模型建模参数:输入为384*384*3的手掌静脉图片,卷积网络层由1个卷积核为24*24的基础卷积层,步长(Stride)设为24,填充值(padding)为0。
经过训练并着色之后的掌静脉图像如图4所示。
在步骤S3中,利用人工标注后的掌静脉图像数据,按温度对数据进行分类,在-20~40摄氏度的范围内,每5摄氏度建立一个LSTM-CNN模型,从而建立12个不同温度下的LSTM-CNN模型;进行LSTM-CNN模型训练之前,将数据集划分为:
a)训练集:用于训练模型
b)验证集:每一次迭代训练完成后,测试一次该训练的效果
c)测试集:测试模型的检测准确性。
分配比例为1:1:1。
长短期记忆模型(LSTM)是一种特殊的RNN模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT,当时间比较长时,需要回传的残差会指数下降,导致网络权重更新缓慢,无法体现出RNN的长期记忆的效果,因此需要一个存储单元来存储记忆:
1)随机无放回的从该图像数据集合中选取一组图像数据,从该图像分组中抽取BatchSize个图像数据,每一个图像构成一数据w,该图像对应的标签集合为y;根据图像编号集合CharID将数据w转换为对应的编号,得到数据BatchData;根据标签编号集合LabelID将集合y中的标签转换为对应的编号,得到数据yID;
2)将步骤1)生成的多个数据BatchData及其对应的标签数据yID一起送入深度学习模型LSTM-CNN,训练该深度学习模型LSTM-CNN的参数,当深度学习模型产生的损失值满足设定条件或者达到最大迭代次数N为8,则终止深度学习模型的训练,得到训练后的深度学习模型LSTM-CNN;否则采用步骤1)的方法重新生成数据BatchData训练该深度学习模型LSTM-CNN;
3)将待预测的混合图像数据PreData转换成与该深度学习模型LSTM-CNN匹配的数据PreMData,并将其送入训练好的深度学习模型LSTM-CNN,得到图像结果OrgResult。
进一步的,该数据BatchData的长度为一固定长度maxLen 4096,当抽取到的数据长度l<maxLen时,将该句子后面补maxLen-l个0,得到BatchData;并将对应的数据yID后面补maxLen-l个0,得到数据yID;其中,maxLen等于该深度学习模型LSTM-CNN中的LSTM单元个数。
进一步的,产生该损失值的方法为:
21)将数据BatchData在深度学习模型LSTM-CNN的Embedding层进行向量化,将数据BatchData中的每个图像转换成一向量;
22)将各数据BatchData对应的向量传入深度学习模型LSTM-CNN的LSTM层,其中该数据BatchData中的每一图像对应的向量传入LSTM层的一LSTM单元;且第i-1个LSTM单元的输出结果输入第i个LSTM单元;
23)将每个LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
25)将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出y′与传入的数据yID一起计算产生损失值。
进一步的,所述损失值Cost(y′,yID)=-yID log(y′)+(1-yID)log(1-y′);其中y′表示数据BatchData经过该SoftMax层后的输出。
进一步的,所述步骤2)中,所述设定条件为:当前计算的损失值与前m次损失值的平均值的差小于阈值。
进一步的,使用Adam梯度下降算法训练该深度学习模型LSTM-CNN的参数。
26):如果深度学习模型产生的Cost(y′,yID)计算得到的损失值不再降低,或者达到最大迭代次数N(8),则终止深度学习模型的训练;否则跳到步骤1)。
其中,Costi′(y′,yID)表示前i次迭代时的损失值,Cost(y′,yID)表示当前迭代产生的损失值,这个公式表达的意思是如果当前的损失值与前M次损失值的平均值的差小于阈值θ,则认为不再降低。
在步骤S4中,通过传感器获取用户注册掌静脉图像及温度信息,依据FCN模型获取用户注册掌静脉图像的位置信息,并读取掌静脉图像数据信息;
在步骤S5中,基于用户注册掌静脉图像的数据信息作为输入,经12个不同温度的LSTM-CNN模型提取生成特征向量,并作为特征向量模板存储;
用户注册掌静脉图像A,得到经过FCN模型并处理后的用户掌静脉图像数据信息B。
将用户掌静脉图像数据信息B输入LSTM-CNN深度学习模型,从而获得识别特征向量值C,作为特征向量模板存储。
实施例2
本实施例在实施例1的基础上:
所述步骤S6的比对方法为:
S61将待识别掌静脉数据在深度学习模型LSTM-CNN的Embedding层进行向量化并转换成向量A;
S62向量A传入深度学习模型LSTM-CNN的LSTM层一LSTM单元;
S63将LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
S64将第一DropOut层的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci;
S65将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出特征向量y′与特征向量模板yID一起计算产生损失值;当前计算的损失值与前m次损失值的平均值的差小于阈值,则认证成功,否则认证失败。
基于待识别掌静脉图像和温度信息(20-25℃),选择相应温度段(20-25℃)的LSTM-CNN模型,并进行比对工作。若比对大于一定阈值,则认证成功,否则认证失败。
进一步的,所述损失值Cost(y′,yID)=-yID log(y′)+(1-yID)log(1-y′);其中y′表示数据BatchData经过该SoftMax层后的输出。
进一步的,将阈值设定为0.5,若当前计算的损失值与前m次损失值的平均值的差比对大于0.5,则认为待识别掌静脉特征向量与用户注册的掌静脉特征向量模板一致,则用户身份验证一致。
针对该场景,m设定为18。
本发明进行了80次比对验证,准确率为100%。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为发明的保护范围并不局限于这样的特别陈述和实施例。凡是根据上述描述做出各种可能的等同替换或改变,均被认为属于本发明的权利要求的保护范围。
Claims (4)
1.一种基于LSTM的掌静脉识别方法,其特征在于,包括以下步骤:
S1.采集一段时间内的掌静脉图像数据和温度信息;
S2.对采集到的掌静脉图像数据进行人工标注,训练出基于掌静脉数据的FCN模型;
S3.利用人工标注后的掌静脉图像数据,建立多个不同温度下的LSTM-CNN模型;
S4.通过传感器获取用户注册掌静脉图像,依据FCN模型获取用户注册掌静脉图像的位置信息,并读取掌静脉图像数据信息;
S5.基于用户注册掌静脉图像的数据信息作为输入,经多个不同温度的LSTM-CNN模型提取生成特征向量,并作为特征向量模板存储;
S6.通过传感器获取待识别掌静脉图像及温度信息,选择相应温度的LSTM-CNN模型提取待识别掌静脉的特征向量与特征向量模板进行比对,比对结果大于一定阈值,则认证成功,否则认证失败;
所述S6步骤的比对方法为:
S61将待识别掌静脉数据在深度学习模型LSTM-CNN的Embedding层进行向量化并转换成向量A;
S62向量A传入深度学习模型LSTM-CNN的LSTM层的LSTM单元;
S63将LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
S64将第一DropOut层的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci;
S65将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出y′与特征向量模板yID一起计算产生损失值;当前计算的损失值与前m次损失值的平均值的差小于阈值,则认证成功,否则认证失败。
2.根据权利要求1所述基于LSTM的掌静脉识别方法,其特征在于,所述损失值Cost(y′,yID)=-yIDlog(y′)+(1-yID)log(1-y′)。
3.根据权利要求1所述基于LSTM的掌静脉识别方法,其特征在于,所述的阈值为0.5。
4.根据权利要求1所述基于LSTM的掌静脉识别方法,其特征在于,所述S1步骤,采集-20~40摄氏度温度变化的掌静脉图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910623884.9A CN110321870B (zh) | 2019-07-11 | 2019-07-11 | 一种基于lstm的掌静脉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910623884.9A CN110321870B (zh) | 2019-07-11 | 2019-07-11 | 一种基于lstm的掌静脉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110321870A CN110321870A (zh) | 2019-10-11 |
CN110321870B true CN110321870B (zh) | 2023-01-03 |
Family
ID=68121839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910623884.9A Active CN110321870B (zh) | 2019-07-11 | 2019-07-11 | 一种基于lstm的掌静脉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321870B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062448A (zh) * | 2019-12-24 | 2020-04-24 | 北京知道创宇信息技术股份有限公司 | 设备类型的识别模型训练方法、设备类型识别方法和装置 |
CN111274924A (zh) * | 2020-01-17 | 2020-06-12 | 厦门中控智慧信息技术有限公司 | 一种掌静脉检测模型建模方法、掌静脉检测方法及装置 |
CN111436944B (zh) * | 2020-04-20 | 2021-09-28 | 电子科技大学 | 一种基于智能移动终端的跌倒检测方法 |
CN113420582B (zh) * | 2020-11-04 | 2023-09-05 | 中国银联股份有限公司 | 用于掌静脉识别的防伪检测方法及其系统 |
CN113361412B (zh) * | 2021-06-08 | 2022-03-01 | 西南科技大学 | 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法 |
CN114863499B (zh) * | 2022-06-30 | 2022-12-13 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN117315833A (zh) * | 2023-09-28 | 2023-12-29 | 杭州名光微电子科技有限公司 | 一种用于智能门锁的掌静脉识别模组及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663355A (zh) * | 2012-03-27 | 2012-09-12 | 天津理工大学 | 基于手背静脉与手形结合的识别系统与方法 |
CN109034016A (zh) * | 2018-07-12 | 2018-12-18 | 辽宁工业大学 | 一种普适性的基于s-cnn模型的手背静脉图像识别方法 |
CN109523013A (zh) * | 2018-10-15 | 2019-03-26 | 西北大学 | 一种基于浅层卷积神经网络的空气颗粒物污染程度估计方法 |
-
2019
- 2019-07-11 CN CN201910623884.9A patent/CN110321870B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663355A (zh) * | 2012-03-27 | 2012-09-12 | 天津理工大学 | 基于手背静脉与手形结合的识别系统与方法 |
CN109034016A (zh) * | 2018-07-12 | 2018-12-18 | 辽宁工业大学 | 一种普适性的基于s-cnn模型的手背静脉图像识别方法 |
CN109523013A (zh) * | 2018-10-15 | 2019-03-26 | 西北大学 | 一种基于浅层卷积神经网络的空气颗粒物污染程度估计方法 |
Non-Patent Citations (2)
Title |
---|
单幅近红外手掌图像掌静脉和掌纹多特征识别;李俊林等;《计算机工程与应用》;20180501;第156-164页 * |
基于小波分析和局部二值模式的掌纹识别方法;刘东霞等;《中国优秀硕士学位论文全文数据库》;20150315;I138-2195 * |
Also Published As
Publication number | Publication date |
---|---|
CN110321870A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321870B (zh) | 一种基于lstm的掌静脉识别方法 | |
KR102564857B1 (ko) | 데이터 인식 및 트레이닝 장치 및 방법 | |
CN110414432B (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
CN107506740B (zh) | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 | |
JP6754619B2 (ja) | 顔認識方法及び装置 | |
CN109543627B (zh) | 一种判断驾驶行为类别的方法、装置、及计算机设备 | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
KR102486699B1 (ko) | 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 | |
CN107480575B (zh) | 模型的训练方法、跨年龄人脸识别方法和对应的装置 | |
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
CN111523421B (zh) | 基于深度学习融合各种交互信息的多人行为检测方法及系统 | |
CN109766873B (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN109657595A (zh) | 基于堆叠沙漏网络的关键特征区域匹配人脸识别方法 | |
CN107871107A (zh) | 人脸认证方法和装置 | |
CN112183198A (zh) | 肢体骨架和头手部件轮廓融合的手势识别方法 | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
Gollapudi et al. | Deep learning for computer vision | |
CN110321871B (zh) | 一种基于lstm的掌静脉识别系统及方法 | |
CN112417947B (zh) | 关键点检测模型的优化及面部关键点的检测方法及装置 | |
KR20210067815A (ko) | 사용자의 건강 상태를 측정하기 위한 방법 및 이를 위한 장치 | |
CN111738074B (zh) | 基于弱监督学习的行人属性识别方法、系统及装置 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
Zhang et al. | Facial component-landmark detection with weakly-supervised lr-cnn |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |