CN109711361A - 基于深度学习的智能座舱嵌入式指纹特征提取方法 - Google Patents
基于深度学习的智能座舱嵌入式指纹特征提取方法 Download PDFInfo
- Publication number
- CN109711361A CN109711361A CN201811630650.9A CN201811630650A CN109711361A CN 109711361 A CN109711361 A CN 109711361A CN 201811630650 A CN201811630650 A CN 201811630650A CN 109711361 A CN109711361 A CN 109711361A
- Authority
- CN
- China
- Prior art keywords
- feature
- fingerprint
- deep learning
- sample
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了基于深度学习的智能座舱嵌入式指纹特征提取方法,主要包括步骤如下:采集用户指纹、采用CNN网络提取指纹特征CNN_Features和采用Hand‑crafted方式得到局部特征综合ELF16、采用全连接的Fusion Layer方式进行特征组合、加权激活融合、多层网络迭代、计算交叉熵并判断是否最小、最后得到指纹融合特征。本发明提出的智能座舱用指纹识别身份鉴别,由于不同身份的人操控权限不同,比传统智能座舱的汽车操控具有更高的安全性,具有更高的目标区分度。
Description
技术领域
本发明涉及汽车技术领域,具体为基于深度学习的智能座舱嵌入式指纹特征提取方法。
背景技术
目前的智能座舱没有指纹识别区别身份的功能,多是具有多屏互动的娱乐系统、虚拟仪表盘、车身中控系统等功能,并没有分区不同身份的人该具有哪种操控权限,这在汽车的安全驾驶方面非常关键。
目前国际高端品牌汽车上有指纹开车门以及一键启动的功能,但是其指纹特征提取方法都是基于传统的编码查表或对像素点直接几何计算的指纹脊线端点和分叉点的特征提取方法,没有基于深度学习的指纹特征提取的方法。
发明内容
本发明的目的在于提供基于深度学习的智能座舱嵌入式指纹特征提取方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
本发明公开了基于深度学习的智能座舱嵌入式指纹特征提取方法,包括以下步骤:
(1)采集用户指纹,得到指纹图像数据的像素矩阵;
(2)指纹图像数据平滑消除噪声;
(3)对指纹图像数据采用CNN网络提取指纹特征CNN_Features;
(4)对指纹图像数据采用Hand-crafted方式得到局部特征综合ELF16,局部特征综合ELF16包括灰度直方图特征和纹理特征;
(5)将指纹特征CNN_Features和局部特征综合ELF16采用全连接的Fusion Layer方式进行特征组合,特征组合后的指纹融合特征为x:
x=[ratio1*ELF16,ratio2*CNN_Features];
式中:
ratio1——局部特征综合ELF16的梯度下降斜率,取初始值为0.4~0.6;
ratio2——指纹特征CNN_Features的梯度下降斜率,取初始值为0.9~1.2;
(6)加权激励融合计算:
h——激活函数;
--特征融合算法的权重,取初始值为0.8~1.0;
bFusion--特征融合算法的偏置,取初始值为0.08~0.1;
(7)多层网络迭代计算:
式中:
W(l)——第l层权重;
ΔW(l)——第l层权重变化量;
——第l层新迭代后权重;
b(l)——第l层偏置;
Δb(l)——第l层偏置的变化量;
——第l层新迭代后偏置;
α——充分选择的学习率;
m——样本个数;
λ——超参数,取值>0;
(8)计算交叉熵J:
式中:
J——交叉熵;
x——最后一层的单一输入向量;
j——最后一层的单一输出节点;
n——输出节点的数量;
——输出节点j的模型参数;
——输出节点k的模型参数;
pk——通过数据计算的估计概率;
logpk——估计概率的对数;
y——中间层网络输出节点;
p(y=jx;θ)——在中间层网络输出节点为j,最后一层单一输入为x,输出节点模型参数为θ时,通过数据计算的估计概率;
(9)如果交叉熵J不为最小,则从步骤(5)开始继续迭代,直到交叉熵J最小;
(10)结束,得到指纹融合特征。
优选的,所述步骤(3)中,CNN网络采用Global的特征卷积,通过构造一个三元组样本并采用随机梯度下降训练算法训练CNN网络,所述三元组样本的特征空间为具体步骤如下:
3.1输入训练采样指纹图像数据{Ii};
3.2输出权值网络参数{w};
3.3只要t<T,那么重复执行3.3.1~3.3.6的操作:
3.3.1t←t+1;
3.3.2通过前向传播网络计算三元组样本的特征空间
3.3.3通过反向传播网络计算三元组样本特征空间对权值网络参数的偏导数:和
3.3.4根据下面两式计算类内距离对权值网络参数的偏导数和类内距离与类间距离差对权值网络参数的偏导数
3.3.5根据下面3式计算损失函数对输出权值网络参数的偏导数
3.3.6更新权重网络参数
式中:
t--为此时刻;
t+1--为下一时刻;
t-1——上一时刻;
T--为迭代结束时刻;
--损失函数对输出权值网络参数的偏导数;
--为原样本;
--为正样本;
--为负样本;
i--为样本编号;
N——为样本个数;
h1(Ii,w)--为类内距离与类间距离差激活函数分段值;
h2(Ii,w)--为类内距离激活函数分段值;
λt——为损失函数对权值网络参数的偏导数的权重系数,λt的取值范围为0≤λt≤1;
T1——为类内距离与类间距离差的限制参数,T1的取值范围为0.5≤T1≤5.5;
T2——为类内距离的限制参数,T2的取值范围为0.5≤T1≤1.6。
优选的,所述三元组样本构造的距离函数包括类内距离与类间距离差、类内距离,所述三元组样本构造的距离函数满足以下约束:
式中:
——为类内距离与类间距离差;
——为类内距离;
w——权值网络参数;
——原样本的特征空间;
——正样本的特征空间;
——为负样本的特征空间。
优选的,所述损失函数的总损失:
式中:
L(I,w)——为总损失函数;
max——为最大值函数;
N——为样本个数;
β——为Balance参数。
优选的,所述Global的特征卷积生成4096D Feature。
优选的,所述步骤3.3.6中λt取值为0.3或0.8。
优选的,所述步骤3.3中T1取值为3、T2取值为1。
优选的,所述步骤(5)中ratio1的初始值为0.5,ratio2的初始值为1.05。
优选的,所述步骤(6)中的初始值取值为0.9。
优选的,所述步骤(6)中bFusion的初始值取值为0.09。
与现有技术相比,本发明的有益效果是:
在本发明基于深度学习的智能座舱嵌入式指纹特征提取方法,第一、本发明提出的智能座舱用指纹识别身份鉴别,由于不同身份的人操控权限不同,比传统智能座舱的汽车操控具有更高的安全性,第二、本发明基于Fusion Feature Net(FFN)的指纹特征提取方法与传统的指纹特征提取的方法相比较,具有更高的目标区分度。
附图说明
图1是基于深度学习的智能座舱嵌入式指纹特征提取方法原理图。
具体实施方式
本发明公开了基于深度学习的智能座舱嵌入式指纹特征提取方法,基于FusionFeature Net(FFN)的指纹特征提取步骤如下:
(1)采集用户指纹,得到指纹图像数据的像素矩阵;
(2)指纹图像数据平滑消除噪声;
(3)对指纹图像数据采用CNN网络提取指纹特征CNN_Features;
在本发明的一个示例中,CNN网络采用Global的特征卷积,生成4096D Feature(4096维的特征),通过构造一个三元组样本并采用随机梯度下降训练算法训练CNN网络,所述三元组样本的特征空间为具体步骤如下:
3.1输入训练采样指纹图像数据{Ii};
3.2输出权值网络参数{w};
3.3只要t<T,那么重复执行3.3.1~3.3.6的操作:
3.3.1t←t+1;
3.3.2通过前向传播网络计算三元组样本的特征空间
3.3.3通过反向传播网络计算三元组样本特征空间对权值网络参数的偏导数:和
3.3.4根据下面两式计算类内距离对权值网络参数的偏导数和类内距离与类间距离差对权值网络参数的偏导数
3.3.5根据下面3式计算损失函数对输出权值网络参数的偏导数
3.3.6更新权重网络参数
式中:
t--为此时刻;
t+1--为下一时刻;
t-1——上一时刻;
T--为迭代结束时刻;
--损失函数对输出权值网络参数的偏导数;
--为原样本;
--为正样本;
--为负样本;
i--为样本编号;
N——为样本个数;
h1(Ii,w)--为类内距离与类间距离差激活函数分段值;
h2(Ii,w)--为类内距离激活函数分段值;
λt——为损失函数对权值网络参数的偏导数的权重系数,λt的取值范围为0≤λt≤1,在本发明的一个示例中,λt取值为0.3或0.8能较好的度量CNN网络的输出的预测值;
T1——为类内距离与类间距离差的限制参数,T1的取值范围为0.5≤T1≤5.5,在本发明的一个示例中,T1的取值为3;
T2——为类内距离的限制参数,T2的取值范围为0.5≤T1≤1.6,在本发明的一个示例中,T2取值为1。
在本发明的一个示例中,所述三元组样本构造的距离函数包括类内距离与类间距离差、类内距离,所述三元组样本构造的距离函数满足以下约束:
式中:
——为类内距离与类间距离差;
——为类内距离;
w——权值网络参数;
——原样本的特征空间;
——正样本的特征空间;
——为负样本的特征空间。
在本发明的一个示例中,所述损失函数的总损失:
式中:
L(I,w)——为总损失函数;
max——为最大值函数;
N——为样本个数;
β——为Balance参数;
当满足约束条件时(dn<T1),max取值为常数,因此在进行随机梯度下降算法梯度计算时没有贡献,否则会根据该距离值沿梯度反方向进行修正。
(4)对指纹图像数据采用Hand-crafted方式得到局部特征综合ELF16,局部特征综合ELF16包括灰度直方图特征和纹理特征;
(5)将指纹特征CNN_Features和局部特征综合ELF16采用全连接的Fusion Layer方式进行特征组合,特征组合后的指纹融合特征为x:
x=[ratio1*ELF16,ratio2*CNN_Features];
式中:
ratio1——局部特征综合ELF16的梯度下降斜率,取初始值为0.4~0.6,在本发明的一个示例中,ratio1初始值为0.5;
ratio2——指纹特征CNN_Features的梯度下降斜率,取初始值为0.9~1.2,在本发明的一个示例中,ratio2初始值为1.05;
(6)加权激励融合计算:
式中:
h——激活函数;
--特征融合算法的权重,取初始值为0.8~1.0,在本发明的一个示例中,取初始值为0.9;
bFusion--特征融合算法的偏置,取初始值为0.08~0.1,在本发明的一个示例中,取初始值为0.09;
(7)多层网络迭代计算:
式中:
W(l)——第l层权重;
ΔW(l)——第l层权重变化量;
——第l层新迭代后权重;
b(l)——第l层偏置;
Δb(l)——第l层偏置的变化量;
——第l层新迭代后偏置;
α——充分选择的学习率;
m——样本个数;
λ——超参数,取值>0;
(8)计算交叉熵J:
式中:
J——交叉熵;
x——最后一层的单一输入向量;
j——最后一层的单一输出节点;
n——输出节点的数量;
——输出节点j的模型参数;
——输出节点k的模型参数;
pk——通过数据计算的估计概率;
logpk——估计概率的对数;
y——中间层网络输出节点;
p(y=j|x;θ)——在中间层网络输出节点为j,最后一层单一输入为x,输出
节点模型参数为θ时,通过数据计算的估计概率;
(9)如果交叉熵J不为最小,则从步骤(5)开始继续迭代,直到交叉熵J最小;在迭代过程中,自动调整ratio1、ratio2、和bFusion参数的初始参数值,对特征权值自动调优,直到损失函数最小;
(10)结束,得到指纹融合特征。
上述所有没有明确说明的变量和参数,均为手动特征(Hand-crafted)或CNN网络常用的变量和参数;涉及迭代过程的,第一次迭代的初始值除有明确说明外,均为手动特征(Hand-crafted)或CNN网络常用的处理方法;所有最小值判断方法均为神经网络常用判断方法。
通过手动特征(Hand-crafted)与CNN网络(卷积神经网络Convolutional NeuralNetwork)提取特征互补,并通过Fusion框架实现特征融合,将CNN特征和手动特征映射到统一的特征空间,实现比单纯的CNN或者单纯的手动特征更高的目标区分度。
第一、本发明提出的智能座舱用指纹识别身份鉴别,由于不同身份的人操控权限不同,比传统智能座舱的汽车操控具有更高的安全性,第二、本发明基于深度学习的指纹特征提取方法与传统的指纹特征提取的方法相比较,具有更高的目标区分度。
通过实验得到,采用本发明的特征提取效果要比传统的指纹识别算法要好,原因在于Buffer Layer&Fusion Layer的整合作用,对初始参数值和特征权值自动调优。
本发明的方法与传统的指纹识别算法识别性能对比如下:
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:具有以下步骤:
(1)采集用户指纹,得到指纹图像数据的像素矩阵;
(2)指纹图像数据平滑消除噪声;
(3)对指纹图像数据采用CNN网络提取指纹特征CNN_Features;
(4)对指纹图像数据采用Hand-crafted方式得到局部特征综合ELF16,局部特征综合ELF16包括灰度直方图特征和纹理特征;
(5)将指纹特征CNN_Features和局部特征综合ELF16采用全连接的Fusion Layer方式进行特征组合,特征组合后的指纹融合特征为x:
x=[ratio1*ELF16,ratio2*CNN_Features];
式中:
ratio1——局部特征综合ELF16的梯度下降斜率,取初始值为0.4~0.6;
ratio2——指纹特征CNN_Features的梯度下降斜率,取初始值为0.9~1.2;
(6)加权激励融合计算:
h——激活函数;
--特征融合算法的权重,取初始值为0.8~1.0;
bFusion--特征融合算法的偏置,取初始值为0.08~0.1;
(7)多层网络迭代计算:
式中:
W(l)——第l层权重;
ΔW(l)——第l层权重变化量;
——第l层新迭代后权重;
b(l)——第l层偏置;
Δb(l)——第l层偏置的变化量;
——第l层新迭代后偏置;
α——充分选择的学习率;
m——样本个数;
λ——超参数,取值>0;
(8)计算交叉熵J:
式中:
J——交叉熵;
x——最后一层的单一输入向量;
j——最后一层的单一输出节点;
n——输出节点的数量;
——输出节点j的模型参数;
——输出节点k的模型参数;
pk——通过数据计算的估计概率;
log pk——估计概率的对数;
y——中间层网络输出节点;
p(y=j|x;θ)——在中间层网络输出节点为j,最后一层单一输入为x,输出节点模型参数为θ时,通过数据计算的估计概率;
(9)如果交叉熵J不为最小,则从步骤(5)开始继续迭代,直到交叉熵J最小;
(10)结束,得到指纹融合特征。
2.根据权利要求1所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤(3)中,CNN网络采用Global的特征卷积,通过构造一个三元组样本并采用随机梯度下降训练算法训练CNN网络,所述三元组样本的特征空间为具体步骤如下:
3.1输入训练采样指纹图像数据{Ii};
3.2输出权值网络参数{w};
3.3只要t<T,那么重复执行3.3.1~3.3.6的操作:
3.3.1t←t+1;
3.3.2通过前向传播网络计算三元组样本的特征空间
3.3.3通过反向传播网络计算三元组样本特征空间对权值网络参数的偏导数:和
3.3.4根据下面两式计算类内距离对权值网络参数的偏导数和类内距离与类间距离差对权值网络参数的偏导数
3.3.5根据下面3式计算损失函数对输出权值网络参数的偏导数
3.3.6更新权重网络参数
式中:
t--为此时刻;
t+1--为下一时刻;
t-1——上一时刻;
T--为迭代结束时刻;
--损失函数对输出权值网络参数的偏导数;
--为原样本;
--为正样本;
--为负样本;
i--为样本编号;
N——为样本个数;
h1(Ii,w)--为类内距离与类间距离差激活函数分段值;
h2(Ii,w)--为类内距离激活函数分段值;
λt——为损失函数对权值网络参数的偏导数的权重系数,λt的取值范围为0≤λt≤1;
T1——为类内距离与类间距离差的限制参数,T1的取值范围为0.5≤T1≤5.5;
T2——为类内距离的限制参数,T2的取值范围为0.5≤T1≤1.6。
3.根据权利要求2所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述三元组样本构造的距离函数包括类内距离与类间距离差、类内距离,所述三元组样本构造的距离函数满足以下约束:
式中:
——为类内距离与类间距离差;
——为类内距离;
w——权值网络参数;
——原样本的特征空间;
——正样本的特征空间;
——为负样本的特征空间。
4.根据权利要求3所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述损失函数的总损失:
式中:
L(I,w)——为总损失函数;
max——为最大值函数;
N——为样本个数;
β——为Balance参数。
5.根据权利要求3所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述Global的特征卷积生成4096D Feature。
6.根据权利要求2所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤3.3.6中λt取值为0.3或0.8。
7.根据权利要求1所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤3.3中T1取值为3、T2取值为1。
8.根据权利要求1所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤(5)中ratio1的初始值为0.5,ratio2的初始值为1.05。
9.根据权利要求1所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤(6)中的初始值取值为0.9。
10.根据权利要求1所述的基于深度学习的智能座舱嵌入式指纹特征提取方法,其特征在于:所述步骤(6)中bFusion的初始值取值为0.09。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811630650.9A CN109711361A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的智能座舱嵌入式指纹特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811630650.9A CN109711361A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的智能座舱嵌入式指纹特征提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109711361A true CN109711361A (zh) | 2019-05-03 |
Family
ID=66259300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811630650.9A Pending CN109711361A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的智能座舱嵌入式指纹特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711361A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418191A (zh) * | 2021-01-21 | 2021-02-26 | 深圳阜时科技有限公司 | 指纹识别模型构建方法、存储介质及计算机设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050188213A1 (en) * | 2004-02-23 | 2005-08-25 | Xiaoshu Xu | System for personal identity verification |
CN102216941A (zh) * | 2008-08-19 | 2011-10-12 | 数字标记公司 | 用于内容处理的方法和系统 |
CN103646457A (zh) * | 2013-12-27 | 2014-03-19 | 重庆集诚汽车电子有限责任公司 | Peps系统的低频标定方法 |
US20180082304A1 (en) * | 2016-09-21 | 2018-03-22 | PINN Technologies | System for user identification and authentication |
CN108875907A (zh) * | 2018-04-23 | 2018-11-23 | 北方工业大学 | 一种基于深度学习的指纹识别方法和装置 |
-
2018
- 2018-12-29 CN CN201811630650.9A patent/CN109711361A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050188213A1 (en) * | 2004-02-23 | 2005-08-25 | Xiaoshu Xu | System for personal identity verification |
CN102216941A (zh) * | 2008-08-19 | 2011-10-12 | 数字标记公司 | 用于内容处理的方法和系统 |
CN103646457A (zh) * | 2013-12-27 | 2014-03-19 | 重庆集诚汽车电子有限责任公司 | Peps系统的低频标定方法 |
US20180082304A1 (en) * | 2016-09-21 | 2018-03-22 | PINN Technologies | System for user identification and authentication |
CN108875907A (zh) * | 2018-04-23 | 2018-11-23 | 北方工业大学 | 一种基于深度学习的指纹识别方法和装置 |
Non-Patent Citations (3)
Title |
---|
DE CHENG等: "Person Re-identification by Multi-Channel Parts-Based CNN with Improved Triplet Loss Function", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
SHANGXUAN WU等: "An Enhanced Deep Feature Representaion for person re-identification", 《2016 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION(WACV)》 * |
景晨凯等: "基于深度卷积神经网络的人脸识别技术综述", 《计算机应用与软件》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418191A (zh) * | 2021-01-21 | 2021-02-26 | 深圳阜时科技有限公司 | 指纹识别模型构建方法、存储介质及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106407986B (zh) | 一种基于深度模型的合成孔径雷达图像目标识别方法 | |
CN112308158B (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN107748895B (zh) | 基于dct-cnn模型的无人机着陆地貌图像分类方法 | |
CN104615983B (zh) | 基于递归神经网络和人体骨架运动序列的行为识别方法 | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN109344731B (zh) | 基于神经网络的轻量级的人脸识别方法 | |
CN105913087B (zh) | 基于最优池化卷积神经网络的物体识别方法 | |
CN108985317A (zh) | 一种基于可分离卷积和注意力机制的图像分类方法 | |
CN109902546A (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN108710831A (zh) | 一种基于机器视觉的小数据集人脸识别算法 | |
CN108711141A (zh) | 利用改进的生成式对抗网络的运动模糊图像盲复原方法 | |
CN109255340A (zh) | 一种融合多种改进vgg网络的人脸识别方法 | |
CN110300095A (zh) | 一种基于改进学习率的深度学习网络入侵检测方法 | |
CN109934158A (zh) | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 | |
CN111738058B (zh) | 基于生成对抗网络的针对生物模板保护的重构攻击方法 | |
US11625589B2 (en) | Residual semi-recurrent neural networks | |
WO2020168796A1 (zh) | 一种基于高维空间采样的数据增强方法 | |
CN112434608A (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN109740695A (zh) | 基于自适应全卷积注意力网络的图像识别方法 | |
CN114596622A (zh) | 基于对比知识驱动的虹膜与眼周对抗自适应融合识别方法 | |
CN112633234A (zh) | 人脸去眼镜模型训练、应用方法及其装置、设备和介质 | |
CN110363747A (zh) | 智能化异常细胞判断方法、装置及计算机可读存储介质 | |
CN115330620A (zh) | 一种基于循环生成对抗网络的图像去雾方法 | |
CN112084895A (zh) | 一种基于深度学习的行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190503 |
|
WD01 | Invention patent application deemed withdrawn after publication |