CN108108674A - 一种基于关节点分析的行人再识别方法 - Google Patents
一种基于关节点分析的行人再识别方法 Download PDFInfo
- Publication number
- CN108108674A CN108108674A CN201711294921.3A CN201711294921A CN108108674A CN 108108674 A CN108108674 A CN 108108674A CN 201711294921 A CN201711294921 A CN 201711294921A CN 108108674 A CN108108674 A CN 108108674A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- artis
- convolutional neural
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于关节点分析的行人再识别方法。本发明先收集不同行人的图像集,用行人检测器定位行人位置并抠出行人图像,不同的行人图像赋予不同的标签;其次提取关节点的位置,将关节点的位置、行人标签与行人图像同时输入典型卷积神经网络模型;训练分类任务;然后反向传播调整关节点间及行人整体间权重关系,实现关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量融合;最后用融合后的特征计算待检索行人与行人检索集的相似度。本发明利用卷积神经网络学习行人图像的外观表示方法,特征判别能力较强,同时利用关节点信息对齐特定位置的特征,可以进一步提高对行人姿态变化的稳定性,提高再识别能力。
Description
技术领域
本发明属于视频监控技术领域,涉及一种基于关节点分析的行人再识别方法。
背景技术
行人再识别方法依赖行人外观特征对搜索集进行相似度排序,能够从视频或图像集中找到包含用户查找的行人的所有图像,查找过程不依赖于人脸信息,对行人侧身和背影等具有较大姿态变化和存在遮挡的情况同样适用。
本发明运用卷积神经网络实现特征提取步骤,卷积神经网络是目前研究和工业应用的热点,与传统的人工智能算法相比,如神经网络、支持向量机等,深度学习算法能大幅度提升图像分类的精度,在人脸识别应用领域已经超越肉眼识别的准确率。基于卷积神经网络的行人特征提取,可以提升行人再识别方法的准确度和速度。
运用卷积神经网络进行行人外观特征表示有很多种方法:《一种基于CNN和卷积LSTM网络的行人再识别方法》CN201610450898中,用一组CNN提取编码在帧中的空间信息,再利用卷积LSTM构成的编码-解码框架,得到帧级别的深度时空外观描述器,最后使用Fisher向量编码,使描述器可以描述视频级别的特征;《基于匹配卷积神经网络的行人再识别方法》CN201611147548中,构建五层匹配卷积神经网络实现行人特征提取,通过输入的三元组实现相似度排序。
基于深度卷积网络的行人特征表达方法可以普遍提高特征的判别能力,但是单纯的依赖暴力求解深度学习模型需要大量训练数据集,相同的数据集下深度学习的参数同样受到限制。
发明内容
本发明针对现有技术的不足,提供了一种基于关节点分析的行人再识别方法。
本发明解决技术问题所采取的技术方案为:
收集不同行人的图像集,用行人检测器定位行人位置并抠出行人图像,不同的行人图像赋予不同的标签。
利用关节点定位工具提取关节点的位置,将关节点的位置、行人标签与行人图像同时输入典型卷积神经网络模型。
将关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量串联,训练分类任务。
反向传播调整关节点间及行人整体间权重关系,实现关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量融合。
用融合后的特征计算待检索行人与行人检索集的相似度,按相似度进行排序得到行人再识别的结果。
进一步说,抠出行人图像后还对该图像进行旋转、缩放、色彩变换,增加样本的数量;并规范行人图像样本的尺寸。
进一步说,关节点的位置提取后进行扰动,从而来模拟关节点定位的误差。
本发明的有益效果:本发明利用卷积神经网络学习行人图像的外观表示方法,特征判别能力较常用的手工特征,如SIFT、HoG等要强,同时利用关节点信息对齐特定位置的特征,可以进一步提高算法对行人姿态变化的稳定性,提高再识别能力,同时可以降低训练数据集的数量,在相同训练数据集下可以训练更为复杂的深度学习网络。
附图说明
图1为特征表达学习流程图。
图2为以图搜图流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他的实施例,都属于本发明保护的范围。
本发明的主要技术构思:收集不同行人的图像集,用行人检测器定位行人位置并抠出行人图像,不同的行人图像赋予不同的标签,利用现有的关节点定位工具,如PoseMachine、OpenPose等,提取关节点的位置,关节点周围像素组成像素块,与图像同时输入典型卷积神经网络模型,如Inception、VGG、ResNet等网络模型,关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量串联,训练分类任务反向传播调整关节点间及行人整体间权重关系,实现关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量融合,用融合后的特征计算待检索行人与行人检索集的相似度,按相似度进行排序得到行人再识别的结果。
特征表达学习方案,见图1:
1. 首先利用常规的目标检测方法定位行人位置。
2. 运用OpenPose、PoseMachine等工具定位行人关节点。
3. 将行人区域图像进行合理的旋转、缩放、色彩变换等操作,增加样本的数量。
4. 规范行人图像样本的尺寸。
5. 扰动关节点的位置,模拟关节点定位的误差。
6. 在规范后的行人图像样本中根据关节点信息得到关节点的图像块。
7. 将行人图像打标签,不同行人的图像标签不同。
8. 将行人图像、行人标签、关节点位置输入典型的卷积神经网络,如Inception、VGG、ResNet。
9. 在卷积神经网络的输出层,根据关节点位置获取对应位置的局部特征,与行人图像的全局特征串联。
10. 添加全连接层,输入为关节点位置的局部特征与行人图像的全局特征串联的特征向量,输出为融合特征。
11. 在融合特征层上用Softmax层实现行人分类任务。
12. 反向传播该网络,得到行人图像和关节点图像块的特征表达卷积神经网络参数,及两者的融合参数。
基于卷积神经网络的行人再识别方案,见图2:
1. 利用利用常规的目标检测方法定位行人位置,并将行人区域单独抠出作为行人图像。
2. 规范行人图像样本的尺寸。
3. 运用OpenPose、PoseMachine等工具定位行人关节点。
4. 将行人图像、行人标签、关节点位置输入特征表达学习方案中使用的卷积神经网络。
5. 在卷积神经网络的输出层,根据关节点位置获取对应位置的局部特征,与行人图像的全局特征串联。
6. 将关节点位置的局部特征与行人图像的全局特征串联的特征向量输入特征表达学习方案中的全连接层,输出融合特征,该特征为本方法中行人特征的最终表示。
7. 依据融合特征计算待搜索行人和搜索集行人的相似度,按照相似度降序排列搜索集。
实施例:以视频侦查为例。
在特征表达学习过程中:(1)用行人检测方法定位行人位置,将行人区域图像进行10°范围内的旋转、0.2范围内的缩放、用PCA进行色彩变换,数据集扩展后进行训练;(2)将所有训练集图像规范至144x56;(3)运用OpenPose计算关节点位置,得到18个关节点;(4)对每个关节点±5%范围内扰动;(5)将行人图像、关节点位置输入Inception网络结构中,经过3个底层卷积层和6组Inception卷积组后,得到特征图大小为9x4;(6)在9x4的特征图上分支:MAX Pooling后生成1x1的特征图表示行人图像的特征,根据关节点位置ROI Pooling后得到1x1的特征图表示每个关节点的特征,串联行人图像的特征和每个关节点的特征,串联后特征图的通道数增加18倍;(7)增加全连接层,输入为关节点位置的局部特征与行人图像的全局特征串联的特征向量,输出为融合特征,输出融合特征的通道数设置与Inception网络结构的输出9x4的特征图通道数相同;(8)在融合特征后添加SoftMax分类层,用以分类不同的行人;(9)执行反向传播过程,迭代优化Inception网络结构和全卷积网络参数。
在基于关节点分析的行人再识别过程中:(1)用行人检测方法定位行人位置;(2)将所有训练集图像规范至144x56;(3)运用OpenPose计算关节点位置,得到18个关节点;(4)将行人图像、关节点位置输入Inception网络结构中,经过3个底层卷积层和6组Inception卷积组后,得到特征图大小为9x4;(5)在9x4的特征图上分支:MAX Pooling后生成1x1的特征图表示行人图像的特征,根据关节点位置ROI Pooling后得到1x1的特征图表示每个关节点的特征,串联行人图像的特征和每个关节点的特征;(6)将关节点位置的局部特征与行人图像的全局特征串联的特征向量输入全连接层,输出融合特征;(7)依据融合特征计算待搜索行人和搜索集行人的内积,排列搜索集。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。
Claims (3)
1.一种基于关节点分析的行人再识别方法,其特征在于:
收集不同行人的图像集,用行人检测器定位行人位置并抠出行人图像,不同的行人图像赋予不同的标签;
利用关节点定位工具提取关节点的位置,将关节点的位置、行人标签与行人图像同时输入典型卷积神经网络模型;
将关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量串联,训练分类任务;
反向传播调整关节点间及行人整体间权重关系,实现关节点图像块卷积神经网络特征向量与行人图像卷积神经网络特征向量融合;
用融合后的特征计算待检索行人与行人检索集的相似度,按相似度进行排序得到行人再识别的结果。
2.根据权利要求1所述的一种基于关节点分析的行人再识别方法,其特征在于:抠出行人图像后还对该图像进行旋转、缩放、色彩变换,增加样本的数量;并规范行人图像样本的尺寸。
3.根据权利要求1所述的一种基于关节点分析的行人再识别方法,其特征在于:关节点的位置提取后进行扰动,从而来模拟关节点定位的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711294921.3A CN108108674A (zh) | 2017-12-08 | 2017-12-08 | 一种基于关节点分析的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711294921.3A CN108108674A (zh) | 2017-12-08 | 2017-12-08 | 一种基于关节点分析的行人再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108108674A true CN108108674A (zh) | 2018-06-01 |
Family
ID=62209287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711294921.3A Pending CN108108674A (zh) | 2017-12-08 | 2017-12-08 | 一种基于关节点分析的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108108674A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101901A (zh) * | 2018-07-23 | 2018-12-28 | 北京旷视科技有限公司 | 人体动作识别及其神经网络生成方法、装置和电子设备 |
CN109271870A (zh) * | 2018-08-21 | 2019-01-25 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
CN110008857A (zh) * | 2019-03-21 | 2019-07-12 | 浙江工业大学 | 一种基于关节点的人体动作匹配评分方法 |
CN110119460A (zh) * | 2019-05-16 | 2019-08-13 | 广东三维家信息科技有限公司 | 图像检索方法、装置及电子设备 |
CN110210402A (zh) * | 2019-06-03 | 2019-09-06 | 北京卡路里信息技术有限公司 | 特征提取方法、装置、终端设备及存储介质 |
CN110390300A (zh) * | 2019-07-24 | 2019-10-29 | 北京洛必德科技有限公司 | 一种用于机器人的目标跟随方法和装置 |
CN110458046A (zh) * | 2019-07-23 | 2019-11-15 | 南京邮电大学 | 一种基于关节点提取的人体运动轨迹分析方法 |
CN110659585A (zh) * | 2019-08-31 | 2020-01-07 | 电子科技大学 | 一种基于交互属性监督的行人检测方法 |
CN111666800A (zh) * | 2019-12-23 | 2020-09-15 | 珠海大横琴科技发展有限公司 | 一种行人重识别模型训练方法及行人重识别方法 |
CN111783753A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
CN112434662A (zh) * | 2020-12-09 | 2021-03-02 | 安徽大学 | 一种基于多尺度卷积神经网络的茶叶病斑自动识别算法 |
CN112784636A (zh) * | 2019-11-07 | 2021-05-11 | 佳能株式会社 | 人脸图像分类方法、人脸图像分类装置和存储介质 |
WO2021109118A1 (en) * | 2019-12-06 | 2021-06-10 | Intel Corporation | Object re-identification using pose part based models |
CN112989911A (zh) * | 2020-12-10 | 2021-06-18 | 奥比中光科技集团股份有限公司 | 一种行人再识别方法及系统 |
CN114581953A (zh) * | 2022-03-14 | 2022-06-03 | 北京科技大学 | 一种基于关节点难例挖掘的人体姿态估计方法 |
US11715213B2 (en) | 2020-06-26 | 2023-08-01 | Intel Corporation | Apparatus and methods for determining multi-subject performance metrics in a three-dimensional space |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106096568A (zh) * | 2016-06-21 | 2016-11-09 | 同济大学 | 一种基于cnn和卷积lstm网络的行人再识别方法 |
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
-
2017
- 2017-12-08 CN CN201711294921.3A patent/CN108108674A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106096568A (zh) * | 2016-06-21 | 2016-11-09 | 同济大学 | 一种基于cnn和卷积lstm网络的行人再识别方法 |
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
Non-Patent Citations (3)
Title |
---|
CHI SU 等: "Pose-driven Deep Convolutional Model for Person Re-identification", 《ARXIV》 * |
TETSU MATSUKAWA 等: "Person Re-Identification Using CNN Features Learned from Combination of Attributes", 《ICPR 2016》 * |
王鑫 等: "基于流形学习的人体动作识别", 《中国图象图形学报》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101901B (zh) * | 2018-07-23 | 2020-10-27 | 北京旷视科技有限公司 | 人体动作识别及其神经网络生成方法、装置和电子设备 |
CN109101901A (zh) * | 2018-07-23 | 2018-12-28 | 北京旷视科技有限公司 | 人体动作识别及其神经网络生成方法、装置和电子设备 |
CN109271870A (zh) * | 2018-08-21 | 2019-01-25 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
CN109271870B (zh) * | 2018-08-21 | 2023-12-26 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
CN110008857A (zh) * | 2019-03-21 | 2019-07-12 | 浙江工业大学 | 一种基于关节点的人体动作匹配评分方法 |
CN110119460A (zh) * | 2019-05-16 | 2019-08-13 | 广东三维家信息科技有限公司 | 图像检索方法、装置及电子设备 |
CN110210402A (zh) * | 2019-06-03 | 2019-09-06 | 北京卡路里信息技术有限公司 | 特征提取方法、装置、终端设备及存储介质 |
CN110458046A (zh) * | 2019-07-23 | 2019-11-15 | 南京邮电大学 | 一种基于关节点提取的人体运动轨迹分析方法 |
CN110390300A (zh) * | 2019-07-24 | 2019-10-29 | 北京洛必德科技有限公司 | 一种用于机器人的目标跟随方法和装置 |
CN110659585B (zh) * | 2019-08-31 | 2022-03-15 | 电子科技大学 | 一种基于交互属性监督的行人检测方法 |
CN110659585A (zh) * | 2019-08-31 | 2020-01-07 | 电子科技大学 | 一种基于交互属性监督的行人检测方法 |
CN112784636A (zh) * | 2019-11-07 | 2021-05-11 | 佳能株式会社 | 人脸图像分类方法、人脸图像分类装置和存储介质 |
WO2021109118A1 (en) * | 2019-12-06 | 2021-06-10 | Intel Corporation | Object re-identification using pose part based models |
CN111666800A (zh) * | 2019-12-23 | 2020-09-15 | 珠海大横琴科技发展有限公司 | 一种行人重识别模型训练方法及行人重识别方法 |
US11715213B2 (en) | 2020-06-26 | 2023-08-01 | Intel Corporation | Apparatus and methods for determining multi-subject performance metrics in a three-dimensional space |
CN111783753A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
CN112434662A (zh) * | 2020-12-09 | 2021-03-02 | 安徽大学 | 一种基于多尺度卷积神经网络的茶叶病斑自动识别算法 |
CN112989911A (zh) * | 2020-12-10 | 2021-06-18 | 奥比中光科技集团股份有限公司 | 一种行人再识别方法及系统 |
CN114581953A (zh) * | 2022-03-14 | 2022-06-03 | 北京科技大学 | 一种基于关节点难例挖掘的人体姿态估计方法 |
CN114581953B (zh) * | 2022-03-14 | 2022-09-30 | 北京科技大学 | 一种基于关节点难例挖掘的人体姿态估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108108674A (zh) | 一种基于关节点分析的行人再识别方法 | |
CN107168527B (zh) | 基于区域卷积神经网络的第一视角手势识别与交互方法 | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN111783576B (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
CN108629338B (zh) | 一种基于lbp和卷积神经网络的人脸美丽预测方法 | |
Song et al. | Learning effective RGB-D representations for scene recognition | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN108256421A (zh) | 一种动态手势序列实时识别方法、系统及装置 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
CN103530619B (zh) | 基于rgb-d数据构成的少量训练样本的手势识别方法 | |
CN107506761A (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
CN107423760A (zh) | 基于预分割和回归的深度学习目标检测方法 | |
CN105574510A (zh) | 一种步态识别方法及装置 | |
CN106650690A (zh) | 基于深度卷积‑反卷积神经网络的夜视图像场景识别方法 | |
CN105205475A (zh) | 一种动态手势识别方法 | |
CN106909887A (zh) | 一种基于cnn和svm的动作识别方法 | |
CN105956560A (zh) | 一种基于池化多尺度深度卷积特征的车型识别方法 | |
CN109446985B (zh) | 基于矢量神经网络的多角度植物识别方法 | |
CN107527054B (zh) | 基于多视角融合的前景自动提取方法 | |
CN108280488A (zh) | 基于共享神经网络的可抓取物体识别方法 | |
CN109902585A (zh) | 一种基于图模型的手指三模态融合识别方法 | |
CN111062928A (zh) | 一种医学ct图像中病变的识别方法 | |
CN104063721A (zh) | 一种基于语义特征自动学习与筛选的人类行为识别方法 | |
CN110321870A (zh) | 一种基于lstm的掌静脉识别方法 | |
CN108009557A (zh) | 一种基于共享权重卷积网络的三维模型局部特征描述方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180601 |
|
RJ01 | Rejection of invention patent application after publication |