CN113553908A - 基于设备独有性感知的异质虹膜识别方法 - Google Patents

基于设备独有性感知的异质虹膜识别方法 Download PDF

Info

Publication number
CN113553908A
CN113553908A CN202110695676.7A CN202110695676A CN113553908A CN 113553908 A CN113553908 A CN 113553908A CN 202110695676 A CN202110695676 A CN 202110695676A CN 113553908 A CN113553908 A CN 113553908A
Authority
CN
China
Prior art keywords
nir
vis
image
visible light
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110695676.7A
Other languages
English (en)
Other versions
CN113553908B (zh
Inventor
孙哲南
卫建泽
王云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202110695676.7A priority Critical patent/CN113553908B/zh
Publication of CN113553908A publication Critical patent/CN113553908A/zh
Application granted granted Critical
Publication of CN113553908B publication Critical patent/CN113553908B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供基于设备独有性感知的异质虹膜识别方法,包括:在现有的基于共享特征提取网络方法的基础上了进行改进。提出了Gabor三叉戟网络来针对归一化后的异质虹膜图像进行特征提取。Gabor三叉戟网络利用Gabor函数作为先验知识来减弱光谱变化的影响,然后使用三叉戟网络中的残差分支来感知图像中的设备独有性信息,并以此为线索来调整基本分支输出结果的分布。为了进一步加强分布对齐效果,本发明还使用了高阶对齐损失、设备对抗损失和样本锚点损失三项在训练阶段加强分布对齐。此外,本发明提出了自适应优化算法来根据各项训练损失来动态调整损失权重,保证模型的收敛。

Description

基于设备独有性感知的异质虹膜识别方法
技术领域
本发明涉及图像处理领域,具体涉及基于设备独有性感知的异质虹膜识别方法。
背景技术
申请公布号CN106326874A公开了一种人眼图像中的虹膜识别方法,包括步骤:建立预设卷积神经网络;预先选择多个人眼图像,对所述多个人眼图像进行图像预处理;对预设卷积神经网络进行训练,直到使得所述预设卷积神经网络的模型收敛;将一对需进行虹膜识别的待测试人眼图像进行第二步所述图像预处理,获得对应的预设大小的待测试虹膜图像对;将所述待测试虹膜图像对分别以两通道的方式输入到已完成训练的预设卷积神经网络中,获得待测试虹膜图像对的相关性分数并判断是否类别相同。本发明还公开了一种人眼图像中的虹膜识别装置,本发明可对可控场景和非可控场景下采集的人眼图像中的虹膜进行及时、准确的识别,满足用户对虹膜识别的要求,能够提高用户的工作效率。
申请公布号CN106778631A公开了一种虹膜识别预处理过程中快速滤除伪造虹膜的异质虹膜分类器设计方法,此分类器的设计包括改进的伪造虹膜数据库的设计、基于MSE分析的虹膜图像评估、基于SNR分析的虹膜图像评估、边缘检测、基于改进的边缘锐度分析的虹膜图像评估流程。在虹膜识别领域创新性的采用了双边滤波、MSE分析以及SNR分析相结合的虹膜图像评估体系针对无关类别虹膜攻击、散焦虹膜图像、运动模糊虹膜图像、美瞳虹膜图像的灰度特征及噪声分布特征实现对其高效且稳定的滤除。进一步针对仿真度较高的合成虹膜的边缘锐度特征创新性的设计基于改进的边缘锐度分析的虹膜图像评估体系。最终实现虹膜识别预处理过程中伪造虹膜快速、稳定的滤除。
发明内容
有鉴于此,本发明提供一种基于设备独有性感知的异质虹膜识别方法,具体地,本发明是通过如下技术方案实现的:
S1:对虹膜图像I (s) raw进行预处理操作获得虹膜归一化图像I (s),其中s表示不同光照条件,当使用近红外光源s = nir,当使用可见光光源时s = vis
S2:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入两个参数不同的可学习Gabor层分别进行图像增强,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
S3:将所述近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor输入三叉戟网络模型进行分解,得到包含身份信息的基本元素和包含设备独有性的残差元素;身份信息的基本元素包括:近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);设备独有性的残差元素包括:近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)
S4:将近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)按照1:α的比例进行加权融合,得到近红外图像身份特征X (nir)
将可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)按照1:α的比例进行加权融合,得到可见光图像身份特征X (vis)
S5:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行距离度量,获得近红外图像和可见光图像之间的相似度分数sim(X (nir) , X (vis));
S6:应用近红外图像身份特征X (nir)和可见光图像身份特征X (vis)计算高阶对齐损失L align
Figure 928345DEST_PATH_IMAGE001
其中,1n:元素全为1、长度为n的列向量;
H n :大小为n×n的中心化矩阵,
Figure 642223DEST_PATH_IMAGE002
||•|| F :F范数;
S7:计算近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)的正交约束R (nir) o,记为第一交约束;
计算可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)的正交约束R (vis) o,记为第二交约束;
计算近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)的正交约束R c o,记为第三交约束;
S8:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)输入设备区分网络,设备区分网络是由两个结构相同但参数不同的分类器构成,两个分类器分别针对近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行身份判别,再应用两个分类器输出概率计算设备对抗损失L adv 和分类损失L SAN
S9:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)合并为特征矩阵X=[ X (nir) X (vis)];
根据特征矩阵X对应的身份标签Y,遍历全部身份标签Y将每个类别下的全部特征进行均值计算,得到类别中心矩阵C
度量特征矩阵X和类别中心矩阵C之间的距离,得到距离矩阵D(X, C);
基于特征矩阵X和距离矩阵D(X, C)计算样本的锚点损失L sa
S10:应用高阶对齐损失L align 、第一正交约束R (nir) o、第二正交约束R (vis) o、第三正交约束R c o、设备对抗损失L adv 、分类损失L SAN 和锚点损失L sa 构建三叉戟网络模型的训练损失L feat 和设备区分网络的训练损失L dis
保持设备区分网络参数不变,最小化训练损失L feat 实现三叉戟网络模型的训练;
保持三叉戟网络模型参数不变,最小化训练损失L dis 实现设备区分网络的训练。
优选地,进行图像增强的具体流程:
S21:基于可学习参数λ、γ、σψ,使用Gabor函数生成卷积核:
Figure DEST_PATH_IMAGE003
其中,
xy标明了像素在Gabor核函中的横向和纵向坐标;
h(x,y,n,λ,γ,σ,ψ)表明了是第n个方向的Gabor卷积核;
x θn 表示横向坐标顺时针旋转θ n 角度的坐标,为:x θn =xcosθ n + ysinθ n
y θn 表示纵向坐标顺时针旋转θ n 角度的坐标,为:y θn =-xsinθ n + ycosθ n
σ x σ y 表示在水平和垂直方向的方差,分别为σ x =σσ y =σ/γ
θ n 表示第
Figure DEST_PATH_IMAGE005
个滤波器的主方向,有
Figure 77752DEST_PATH_IMAGE006
S22:调整生成的Gabor卷积核尺寸为7*7;并将调整后的生成的Gabor卷积核设定为卷积层C0的卷积核,该卷积层的步长为1、并且无偏差;
S23:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入卷积层C0,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
优选地,三叉戟网络模型是由三个结构相同但参数不同的子网络构成,第一子网络为近红外图像和可见光图像所共享的基本元素分支,输出为所述近红外图像基本元素X b (nir)和可见光图像基本元素X b(vis);第二子网络为近红外图像独有的残差分支,输出为近红外图像残差元素X r(nir);第三子网络为可见光图像独有的残差分支,输出为可见光图像残差元素X r(vis)
优选地,第一交约束和第二交约束的具体公式为:
Figure DEST_PATH_IMAGE007
第三交约束的具体公式为:
Figure 535279DEST_PATH_IMAGE008
其中,
Tr[•]表示迹操作;
Var(•)表示方差计算操作;
ɛ是为了避免分母出现0的意外情况设定的极小值,设为ɛ=1×10-8
I n 表示大小为n×n的单位矩阵。
优选地,设备对抗损失L adv 的具体计算过程为:
Figure DEST_PATH_IMAGE009
其中,
Figure 880809DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE011
表示输入特征属于第c类别的概率;
X k (nir)X k (vis)则分别是X (nir ) X (vis)中第
Figure 31168DEST_PATH_IMAGE005
个样本的身份特征;
y kc (•)表示第k个样本是否属于第c类别,当其属于第c类时y kc (•)=1,否则为0;
KC分别标明了样本数和类别数。
优选地,分类损失L SAN 的具体计算过程为:
Figure 626097DEST_PATH_IMAGE012
优选地,锚点损失L sa 的具体计算过程为:
Figure DEST_PATH_IMAGE013
其中,
diag(•)表示对角化操作,将其中的方阵对角元素提取出来构成一个行向量;minr(•)为按行找到最小的数值;m为间隔参数。
优选地,设备区分网络的训练损失L dis =L SAN
优选地,三叉戟网络模型的训练损失L feat 具体的计算方法为:
Figure 418473DEST_PATH_IMAGE014
其中,
β 1β 2β 3β 4β 5权重参数。
优选地,参数β 1β 2β 3β 4β 5的计算方法为:
Figure DEST_PATH_IMAGE015
其中,
_term∈{1,2,3,4,5};
β_term t β_term t-1 为第t轮和第t-1轮训练的权重参数;
ϕ为更新动量;
Figure 884089DEST_PATH_IMAGE016
其中,
BL为锚点损失L sa
LT=[ L align , R (nir) o, R (vis) o, R c o, L adv ];
计算β 1时,应用L align
计算β 2时,应用R (nir)
计算β 3时,应用R (vis) o
计算β 4时,应用R c o
计算β 5时,应用L adv
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:
深入探究了异质虹膜识别中分布差异问题。该方法感知了异质虹膜图像中的设备独有性信息,并通过对这部分信息的建模来调整异质特征的分布形状,以实现更好的分布对齐。此外,本方法还设计了多个有力的对齐损失和更智能的训练策略保证了异质特征的身份可判别性,提升了模型在异质虹膜识别中的识别性能。
附图说明
图1为本发明实施例提供的基于设备独有性感知的异质虹膜识别方法的流程图;
图2为本发明实施例提供的可学习Gabor层结构示意图;
图3为本发明实施例提供的三叉戟网络结构示意图;
图4为本发明实施例提供的设备区分网络结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
如图1所示本申请实施例提供的基于设备独有性感知的异质虹膜识别方法,包括:
S1:对虹膜图像I (s) raw进行预处理操作获得虹膜归一化图像I (s),其中s表示不同光照条件,当使用近红外光源s = nir,当使用可见光光源时s = vis
S2:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入两个参数不同的可学习Gabor层分别进行图像增强,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
如图2所示,所述进行图像增强的具体流程:
S21:基于可学习参数λ、γ、σψ,使用Gabor函数生成卷积核:
Figure DEST_PATH_IMAGE017
其中,,
xy标明了像素在Gabor核函中的横向和纵向坐标;
h(x,y,n,λ,γ,σ,ψ)表明了是第n个方向的Gabor卷积核;
x θn 表示横向坐标顺时针旋转θ n 角度的坐标,为:x θn =xcosθ n + ysinθ n
y θn 表示纵向坐标顺时针旋转θ n 角度的坐标,为:y θn =-xsinθ n + ycosθ n
σ x σ y 表示在水平和垂直方向的方差,分别为σ x =σσ y =σ/γ
θ n 表示第
Figure 205349DEST_PATH_IMAGE005
个滤波器的主方向,有
Figure 225258DEST_PATH_IMAGE006
S22:调整生成的Gabor卷积核尺寸为7*7;并将调整后的生成的Gabor卷积核设定为卷积层C0的卷积核,该卷积层的步长为1、并且无偏差;
S23:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入卷积层C0,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
S3:将所述近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor输入三叉戟网络模型进行分解,得到包含身份信息的基本元素和包含设备独有性的残差元素;所述身份信息的基本元素包括:近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);所述设备独有性的残差元包括:近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)
如图3所示,所述三叉戟网络模型是由三个结构相同但参数不同的LightCNN9网络构成,第一子网络为近红外图像和可见光图像所共享的基本元素分支,输出为所述近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);第二子网络为近红外图像独有的残差分支,输出为近红外图像残差元素X r(nir);第三子网络为可见光图像独有的残差分支,输出为可见光图像残差元素X r(vis)
S4:将近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)按照1:α的比例进行加权融合,得到近红外图像身份特征X (nir)
Figure 759007DEST_PATH_IMAGE018
将可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)按照1:α的比例进行加权融合,得到可见光图像身份特征X (vis);所述α=0.5;
Figure 547972DEST_PATH_IMAGE019
S5:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行距离度量,获得近红外图像和可见光图像之间的相似度分数sim(X (nir) , X (vis));
Figure 774554DEST_PATH_IMAGE020
式中,‖•‖计算了向量的二范数,T表示转置操作;
S6:应用近红外图像身份特征X (nir)和可见光图像身份特征X (vis)计算高阶对齐损失L align
Figure 281758DEST_PATH_IMAGE021
其中,1n:元素全为1、长度为n的列向量;
H n :大小为n×n的中心化矩阵,
Figure 353620DEST_PATH_IMAGE022
||•|| F :F范数;
S7:计算近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)的正交约束R (nir) o,记为第一交约束;
Figure 262670DEST_PATH_IMAGE023
计算可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)的正交约束R (vis) o,记为第二交约束;
Figure 128995DEST_PATH_IMAGE024
计算近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)的正交约束R c o,记为第三交约束;
Figure 389075DEST_PATH_IMAGE025
其中,
Tr[•]表示迹操作;
Var(•)表示方差计算操作;
ɛ是为了避免分母出现0的意外情况设定的极小值,设为ɛ=1×10-8
I n 表示大小为n×n的单位矩阵;
S8:如图4所示,将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)输入设备区分网络,所述设备区分网络是由两个结构相同但参数不同的分类器构成,两个分类器分别针对近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行身份判别,再应用两个分类器输出概率计算设备对抗损失L adv
所述设备对抗损失L adv 的具体计算过程为:
Figure 999048DEST_PATH_IMAGE026
其中,
Figure 28183DEST_PATH_IMAGE010
Figure 65410DEST_PATH_IMAGE011
表示输入特征属于第c类别的概率;
X k (nir)X k (vis)则分别是X (nir ) X (vis)中第
Figure 78365DEST_PATH_IMAGE005
个样本的身份特征;
y kc (•)表示第k个样本是否属于第c类别,当其属于第c类时y kc (•)=1,否则为0;
KC分别标明了样本数和类别数;
分类损失L SAN
Figure 226449DEST_PATH_IMAGE027
S9:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)合并为特征矩阵X=[ X (nir) X (vis)];
根据特征矩阵X对应的身份标签Y,遍历全部身份标签Y将每个类别下的全部特征进行均值计算,得到类别中心矩阵C
度量特征矩阵X和类别中心矩阵C之间的距离,得到距离矩阵D(X, C);
基于特征矩阵X和距离矩阵D(X, C)计算样本的锚点损失L sa
所述锚点损失L sa 的具体计算过程为:
Figure 110092DEST_PATH_IMAGE028
其中,
diag(•)表示对角化操作,将其中的方阵对角元素提取出来构成一个行向量;minr(•)为按行找到最小的数值;m为间隔参数,本方法中设为1;
S10:应用高阶对齐损失L align 、第一正交约束R (nir) o、第二正交约束R (vis) o、第三正交约束R c o、设备对抗损失L adv 、分类损失L SAN 和锚点损失L sa 构建三叉戟网络模型的训练损失L feat
Figure 583799DEST_PATH_IMAGE029
其中,
β 1β 2β 3β 4β 5权重参数;
所述参数β 1β 2β 3β 4β 5的计算方法为:
Figure 349629DEST_PATH_IMAGE030
其中,
_term∈{1,2,3,4,5};
β_term t β_term t-1 为第t轮和第t-1轮训练的权重参数;
ϕ为更新动量,本发明设置为0.5;
Figure 301405DEST_PATH_IMAGE031
其中,
BL为锚点损失L sa
LT=[ L align , R (nir) o, R (vis) o, R c o, L adv ];
计算β 1时,应用L align
计算β 2时,应用R (nir)
计算β 3时,应用R (vis) o
计算β 4时,应用R c o
计算β 5时,应用L adv
设备区分网络的训练损失L dis :所述设备区分网络的训练损失L dis =L SAN
保持设备区分网络参数不变,最小化训练损失L feat 实现三叉戟网络模型的训练;
保持三叉戟网络模型参数不变,最小化训练损失L dis 实现设备区分网络的训练。
实施例
S1:对虹膜图像I (s) raw进行预处理操作获得虹膜归一化图像I (s)
进入PolyU跨光谱数据集官网(http://www4.comp.polyu.edu.hk/~biometrics/)下载PolyU跨光谱数据集。该数据集包括209个个体双眼的眼周图像,全部个体的左眼图像(共计209类6,270张)用于训练,为了保证模型训练,将身份信息一致的图像视为一对样本对(获得90,915对)做为训练数据,用于模型训练;全部个体的右眼图像(共计正样本12,279对,负样本1,275,946对)做测试数据,用于模型测试。使用开源的虹膜预处理项目TVMIRIS(https://www4.comp.
polyu.edu.hk/~csajaykr/tvmiris.htm)对训练数据和测试数据进行预处理(P1:F_pre)。
S2:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入两个参数不同的可学习Gabor层分别进行图像增强,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
如图2所示,所述进行图像增强的具体流程:
S21:基于可学习参数λ、γ、σψ,使用Gabor函数生成卷积核:
Figure 305133DEST_PATH_IMAGE017
其中,,
xy标明了像素在Gabor核函中的横向和纵向坐标;
h(x,y,n,λ,γ,σ,ψ)表明了是第n个方向的Gabor卷积核;
x θn 表示横向坐标顺时针旋转θ n 角度的坐标,为:x θn =xcosθ n + ysinθ n
y θn 表示纵向坐标顺时针旋转θ n 角度的坐标,为:y θn =-xsinθ n + ycosθ n
σ x σ y 表示在水平和垂直方向的方差,分别为σ x =σσ y =σ/γ
θ n 表示第
Figure 684162DEST_PATH_IMAGE005
个滤波器的主方向,有
Figure 140551DEST_PATH_IMAGE006
S22:调整生成的Gabor卷积核尺寸为7*7;并将调整后的生成的Gabor卷积核设定为卷积层C0的卷积核,该卷积层的步长为1、并且无偏差;
S23:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入卷积层C0,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
S3:将所述近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor输入三叉戟网络模型进行分解,得到包含身份信息的基本元素和包含设备独有性的残差元素;所述身份信息的基本元素包括:近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);所述设备独有性的残差元包括:近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)
如图3所示,所述三叉戟网络模型是由三个结构相同但参数不同的LightCNN9网络构成,第一子网络为近红外图像和可见光图像所共享的基本元素分支,输出为所述近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);第二子网络为近红外图像独有的残差分支,输出为近红外图像残差元素X r(nir);第三子网络为可见光图像独有的残差分支,输出为可见光图像残差元素X r(vis)
S4:将近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)按照1:α的比例进行加权融合,得到近红外图像身份特征X (nir)
Figure 896017DEST_PATH_IMAGE032
将可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)按照1:α的比例进行加权融合,得到可见光图像身份特征X (vis);所述α=0.5;
Figure 754252DEST_PATH_IMAGE033
S5:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行距离度量,获得近红外图像和可见光图像之间的相似度分数sim(X (nir) , X (vis));
Figure 569761DEST_PATH_IMAGE020
式中,‖•‖计算了向量的二范数,T表示转置操作;
S6:应用近红外图像身份特征X (nir)和可见光图像身份特征X (vis)计算高阶对齐损失L align
Figure 513446DEST_PATH_IMAGE021
其中,1n:元素全为1、长度为n的列向量;
H n :大小为n×n的中心化矩阵,
Figure 807024DEST_PATH_IMAGE022
||•|| F :F范数;
S8:如图4所示,将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)输入设备区分网络,所述设备区分网络是由两个结构相同但参数不同的分类器构成,具体结构为:利用两个全连接层来构建设备区分网络,两个全连接层均为输入256维、输出209维。该特征输入该网络的过程可以表述为:数据输入第一个全连接层,然后通过Softmax层输出可见光分类结果;数据输入第二个全连接层,然后通过Softmax层输出近红外分类结果。两个分类器分别针对近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行身份判别,再应用两个分类器输出概率计算设备对抗损失L adv
所述设备对抗损失L adv 的具体计算过程为:
Figure 519765DEST_PATH_IMAGE034
其中,
Figure 506176DEST_PATH_IMAGE010
Figure 140420DEST_PATH_IMAGE011
表示输入特征属于第c类别的概率;
X k (nir)X k (vis)则分别是X (nir ) X (vis)中第
Figure 237689DEST_PATH_IMAGE005
个样本的身份特征;
y kc (•)表示第k个样本是否属于第c类别,当其属于第c类时y kc (•)=1,否则为0;
KC分别标明了样本数和类别数;
分类损失L SAN
Figure 804936DEST_PATH_IMAGE035
S9:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)合并为特征矩阵X=[ X (nir) X (vis)];
根据特征矩阵X对应的身份标签Y,遍历全部身份标签Y将每个类别下的全部特征进行均值计算,得到类别中心矩阵C
度量特征矩阵X和类别中心矩阵C之间的距离,得到距离矩阵D(X, C);
基于特征矩阵X和距离矩阵D(X, C)计算样本的锚点损失L sa
所述锚点损失L sa 的具体计算过程为:
Figure 962248DEST_PATH_IMAGE028
其中,
diag(•)表示对角化操作,将其中的方阵对角元素提取出来构成一个行向量;minr(•)为按行找到最小的数值;m为间隔参数,本方法中设为1;
S10:应用高阶对齐损失L align 、第一正交约束R (nir) o、第二正交约束R (vis) o、第三正交约束R c o、设备对抗损失L adv 、分类损失L SAN 和锚点损失L sa 构建三叉戟网络模型的训练损失L feat
Figure 880525DEST_PATH_IMAGE029
其中,
β 1β 2β 3β 4β 5权重参数;
所述参数β 1β 2β 3β 4β 5的计算方法为:
Figure 515906DEST_PATH_IMAGE036
其中,
_term∈{1,2,3,4,5};
β_term t β_term t-1 为第t轮和第t-1轮训练的权重参数;
ϕ为更新动量,本发明设置为0.5;
Figure 203239DEST_PATH_IMAGE037
其中,
BL为锚点损失L sa
LT=[ L align , R (nir) o, R (vis) o, R c o, L adv ];
计算β 1时,应用L align
计算β 2时,应用R (nir)
计算β 3时,应用R (vis) o
计算β 4时,应用R c o
计算β 5时,应用L adv
设备区分网络的训练损失L dis :所述设备区分网络的训练损失L dis =L SAN
保持设备区分网络参数不变,最小化训练损失L feat 实现三叉戟网络模型的训练;
保持三叉戟网络模型参数不变,最小化训练损失L dis 实现设备区分网络的训练。
两部分损失均使用学习率为0.0001的Adam算法失交叉迭代,重复S2-S10,直到模型完全收敛。
S11:相似度计算:和可见光图像身份特征
选择测试图像中的任意一对图像I (nir)I (vis),将步骤S2中的训练图像替换为这两张测试图像,进行步骤S2- S4,获得融合后的近红外身份特征X (nir)和可见光身份特征X (vis)。按照下面的公式度量两者之间的距离,获得近红外和可见光图像之间的相似度分数:
Figure 531453DEST_PATH_IMAGE020
式中,‖•‖计算了向量的二范数,T表示转置操作;
sim(X (nir) , X (vis))度量了X (nir)X (vis)之间的相似度分数。依据该相似度判断图像对是否来自同一个人,若相似度得分越高则这两张图像属于同一个人的概率越大。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本说明书内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.基于设备独有性感知的异质虹膜识别方法,其特征在于,所述方法包括:
S1:对虹膜图像I (s) raw进行预处理操作获得虹膜归一化图像I (s),其中s表示不同光照条件,当使用近红外光源s = nir,当使用可见光光源时s = vis
S2:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入两个参数不同的可学习Gabor层分别进行图像增强,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
S3:将所述近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor输入三叉戟网络模型进行分解,得到包含身份信息的基本元素和包含设备独有性的残差元素;所述身份信息的基本元素包括:近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);所述设备独有性的残差元素包括:近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)
S4:将近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)按照1:α的比例进行加权融合,得到近红外图像身份特征X (nir)
将可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)按照1:α的比例进行加权融合,得到可见光图像身份特征X (vis)
S5:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行距离度量,获得近红外图像和可见光图像之间的相似度分数sim(X (nir) , X (vis));
S6:应用近红外图像身份特征X (nir)和可见光图像身份特征X (vis)计算高阶对齐损失L align
Figure 807491DEST_PATH_IMAGE001
其中,1n:元素全为1、长度为n的列向量;
H n :大小为n×n的中心化矩阵,
Figure 306605DEST_PATH_IMAGE002
||•|| F :F范数;
S7:计算近红外图像基本元素X b(nir)和近红外图像残差元素X r(nir)的正交约束R (nir) o,记为第一交约束;
计算可见光图像基本元素X b(vis)和可见光图像残差元素X r(vis)的正交约束R (vis) o,记为第二交约束;
计算近红外图像残差元素X r(nir)和可见光图像残差元素X r(vis)的正交约束R c o,记为第三交约束;
S8:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)输入设备区分网络,所述设备区分网络是由两个结构相同但参数不同的分类器构成,两个分类器分别针对近红外图像身份特征X (nir)和可见光图像身份特征X (vis)进行身份判别,再应用两个分类器输出概率计算设备对抗损失L adv 和分类损失L SAN
S9:将近红外图像身份特征X (nir)和可见光图像身份特征X (vis)合并为特征矩阵X=[ X (nir) X (vis)];
根据特征矩阵X对应的身份标签Y,遍历全部身份标签Y将每个类别下的全部特征进行均值计算,得到类别中心矩阵C
度量特征矩阵X和类别中心矩阵C之间的距离,得到距离矩阵D(X, C);
基于特征矩阵X和距离矩阵D(X, C)计算样本的锚点损失L sa
S10:应用高阶对齐损失L align 、第一正交约束R (nir) o、第二正交约束R (vis) o、第三正交约束R c o、设备对抗损失L adv 、分类损失L SAN 和锚点损失L sa 构建三叉戟网络模型的训练损失L feat 和设备区分网络的训练损失L dis
保持设备区分网络参数不变,最小化训练损失L feat 实现三叉戟网络模型的训练;
保持三叉戟网络模型参数不变,最小化训练损失L dis 实现设备区分网络的训练。
2.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述进行图像增强的具体流程:
S21:基于可学习参数λ、γ、σψ,使用Gabor函数生成卷积核:
Figure 933895DEST_PATH_IMAGE003
其中,
xy标明了像素在Gabor核函中的横向和纵向坐标;
h(x,y,n,λ,γ,σ,ψ)表明了是第n个方向的Gabor卷积核;
x θn 表示横向坐标顺时针旋转θ n 角度的坐标,为:x θn =xcosθ n + ysinθ n
y θn 表示纵向坐标顺时针旋转θ n 角度的坐标,为:y θn =-xsinθ n + ycosθ n
σ x σ y 表示在水平和垂直方向的方差,分别为σ x =σσ y =σ/γ
θ n 表示第
Figure 379920DEST_PATH_IMAGE005
个滤波器的主方向,有
Figure 41846DEST_PATH_IMAGE006
S22:调整生成的Gabor卷积核尺寸为7*7;并将调整后的生成的Gabor卷积核设定为卷积层C0的卷积核,该卷积层的步长为1、并且无偏差;
S23:将近红外归一化图像I (nir)和可见光归一化图像I (vis)分别送入卷积层C0,得到近红外增强图像I (nir) Gabor和可见光增强图像I (vis) Gabor
3.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述三叉戟网络模型是由三个结构相同但参数不同的子网络构成,第一子网络为近红外图像和可见光图像所共享的基本元素分支,输出为所述近红外图像基本元素X b(nir)和可见光图像基本元素X b(vis);第二子网络为近红外图像独有的残差分支,输出为近红外图像残差元素X r (nir);第三子网络为可见光图像独有的残差分支,输出为可见光图像残差元素X r(vis)
4.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述第一交约束和第二交约束的具体公式为:
Figure 711861DEST_PATH_IMAGE007
所述第三交约束的具体公式为:
Figure 29710DEST_PATH_IMAGE008
其中,
Tr[•]表示迹操作;
Var(•)表示方差计算操作;
ɛ是为了避免分母出现0的意外情况设定的极小值,设为ɛ=1×10-8
I n 表示大小为n×n的单位矩阵。
5.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述设备对抗损失L adv 的具体计算过程为:
Figure 810585DEST_PATH_IMAGE009
其中,
Figure 327017DEST_PATH_IMAGE010
Figure 433513DEST_PATH_IMAGE011
表示输入特征属于第c类别的概率;
X k (nir)X k (vis)则分别是X (nir ) X (vis)中第
Figure 35395DEST_PATH_IMAGE005
个样本的身份特征;
y kc (•)表示第k个样本是否属于第c类别,当其属于第c类时y kc (•)=1,否则为0;
KC分别标明了样本数和类别数。
6.根据权利要求5所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述分类损失L SAN 的具体计算过程为:
Figure 823223DEST_PATH_IMAGE012
7.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述锚点损失L sa 的具体计算过程为:
Figure 459741DEST_PATH_IMAGE013
其中,
diag(•)表示对角化操作,将其中的方阵对角元素提取出来构成一个行向量;minr(•)为按行找到最小的数值;m为间隔参数。
8.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述设备区分网络的训练损失L dis =L SAN
9.根据权利要求1所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述三叉戟网络模型的训练损失L feat 具体的计算方法为:
Figure 471559DEST_PATH_IMAGE014
其中,
β 1β 2β 3β 4β 5权重参数。
10.根据权利要求9所述的基于设备独有性感知的异质虹膜识别方法,其特征在于,所述参数β 1β 2β 3β 4β 5的计算方法为:
Figure 295158DEST_PATH_IMAGE015
其中,
_term∈{1,2,3,4,5};
β_term t β_term t-1 为第t轮和第t-1轮训练的权重参数;
ϕ为更新动量;
Figure 886677DEST_PATH_IMAGE016
其中,
BL为锚点损失L sa
LT=[ L align , R (nir) o, R (vis) o, R c o, L adv ];
计算β 1时,应用L align
计算β 2时,应用R (nir)
计算β 3时,应用R (vis) o
计算β 4时,应用R c o
计算β 5时,应用L adv
CN202110695676.7A 2021-06-23 2021-06-23 基于设备独有性感知的异质虹膜识别方法 Active CN113553908B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110695676.7A CN113553908B (zh) 2021-06-23 2021-06-23 基于设备独有性感知的异质虹膜识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110695676.7A CN113553908B (zh) 2021-06-23 2021-06-23 基于设备独有性感知的异质虹膜识别方法

Publications (2)

Publication Number Publication Date
CN113553908A true CN113553908A (zh) 2021-10-26
CN113553908B CN113553908B (zh) 2022-01-11

Family

ID=78102323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110695676.7A Active CN113553908B (zh) 2021-06-23 2021-06-23 基于设备独有性感知的异质虹膜识别方法

Country Status (1)

Country Link
CN (1) CN113553908B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863505A (zh) * 2022-03-07 2022-08-05 武汉纺织大学 一种基于三叉戟卷积神经网络的行人重识别方法
CN115209150A (zh) * 2022-09-16 2022-10-18 沐曦科技(成都)有限公司 一种视频编码参数获取方法、装置、网络模型及电子设备
CN117373103A (zh) * 2023-10-18 2024-01-09 北京极溯光学科技有限公司 一种图像特征提取方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093538A (zh) * 2006-06-19 2007-12-26 电子科技大学 一种基于小波变换过零表示的虹膜识别方法
CN101404060A (zh) * 2008-11-10 2009-04-08 北京航空航天大学 一种基于可见光与近红外Gabor信息融合的人脸识别方法
CN101894256A (zh) * 2010-07-02 2010-11-24 西安理工大学 基于奇对称2D Log-Gabor滤波器的虹膜识别方法
CN102521575A (zh) * 2011-12-16 2012-06-27 北京天诚盛业科技有限公司 基于多方向Gabor和Adaboost虹膜识别方法
CN103577813A (zh) * 2013-11-25 2014-02-12 中国科学院自动化研究所 用于异质虹膜识别的信息融合方法
CN103745242A (zh) * 2014-01-30 2014-04-23 中国科学院自动化研究所 一种跨设备生物特征识别方法
CN106778567A (zh) * 2016-12-05 2017-05-31 望墨科技(武汉)有限公司 一种通过神经网络来进行虹膜识别的方法
CN107408195A (zh) * 2015-12-29 2017-11-28 厦门中控智慧信息技术有限公司 一种虹膜识别方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093538A (zh) * 2006-06-19 2007-12-26 电子科技大学 一种基于小波变换过零表示的虹膜识别方法
CN101404060A (zh) * 2008-11-10 2009-04-08 北京航空航天大学 一种基于可见光与近红外Gabor信息融合的人脸识别方法
CN101894256A (zh) * 2010-07-02 2010-11-24 西安理工大学 基于奇对称2D Log-Gabor滤波器的虹膜识别方法
CN102521575A (zh) * 2011-12-16 2012-06-27 北京天诚盛业科技有限公司 基于多方向Gabor和Adaboost虹膜识别方法
CN103577813A (zh) * 2013-11-25 2014-02-12 中国科学院自动化研究所 用于异质虹膜识别的信息融合方法
CN103745242A (zh) * 2014-01-30 2014-04-23 中国科学院自动化研究所 一种跨设备生物特征识别方法
CN107408195A (zh) * 2015-12-29 2017-11-28 厦门中控智慧信息技术有限公司 一种虹膜识别方法及装置
CN106778567A (zh) * 2016-12-05 2017-05-31 望墨科技(武汉)有限公司 一种通过神经网络来进行虹膜识别的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIHU XIAO 等: "《Coupled Feature Selection for Cross-sensor Iris Recognition》", 《BIOMETRICS:THEORY,APPLICATION AND SYSTEM(BTAS),2013 IEEE SIXTH INTERNATIONAL CONFERENCE ON》 *
刘帅等: "《自适应优化Log-Gabor滤波器与动态径向基函数神经网络的虹膜识别》", 《吉林大学学报(理学版)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863505A (zh) * 2022-03-07 2022-08-05 武汉纺织大学 一种基于三叉戟卷积神经网络的行人重识别方法
CN114863505B (zh) * 2022-03-07 2024-04-16 武汉纺织大学 一种基于三叉戟卷积神经网络的行人重识别方法
CN115209150A (zh) * 2022-09-16 2022-10-18 沐曦科技(成都)有限公司 一种视频编码参数获取方法、装置、网络模型及电子设备
CN115209150B (zh) * 2022-09-16 2022-12-27 沐曦科技(成都)有限公司 一种视频编码参数获取方法、装置及电子设备
CN117373103A (zh) * 2023-10-18 2024-01-09 北京极溯光学科技有限公司 一种图像特征提取方法、装置、设备及存储介质
CN117373103B (zh) * 2023-10-18 2024-05-07 北京极溯光学科技有限公司 一种图像特征提取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113553908B (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
CN113553908B (zh) 基于设备独有性感知的异质虹膜识别方法
CN107194341B (zh) Maxout多卷积神经网络融合人脸识别方法和系统
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN109583322B (zh) 一种人脸识别深度网络训练方法和系统
CN109934195A (zh) 一种基于信息融合的反欺骗三维人脸识别方法
CN106096535B (zh) 一种基于双线性联合cnn的人脸验证方法
Martins et al. Automatic detection of surface defects on rolled steel using computer vision and artificial neural networks
CN105718889B (zh) 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
Chen et al. Fisher vector encoded deep convolutional features for unconstrained face verification
CN110837768B (zh) 一种面向珍稀动物保护的在线检测与识别方法
CN106355138A (zh) 基于深度学习和关键点特征提取的人脸识别方法
CN105335732B (zh) 基于分块及鉴别非负矩阵分解的有遮挡人脸识别方法
Obinata et al. Temporal extension module for skeleton-based action recognition
CN107145827A (zh) 基于自适应距离度量学习的跨摄像机行人再识别方法
CN103065158B (zh) 基于相对梯度的isa模型的行为识别方法
Wang et al. Head pose estimation with combined 2D SIFT and 3D HOG features
CN108509920A (zh) 基于CNN的多patch多通道联合特征选择学习的人脸识别方法
Raja et al. PCA based Iris Recognition using DWT
CN104966075B (zh) 一种基于二维判别特征的人脸识别方法与系统
CN104021384A (zh) 一种人脸识别方法及装置
Tangsuksant et al. American Sign Language recognition by using 3D geometric invariant feature and ANN classification
CN103902992A (zh) 人脸识别方法
CN113505810A (zh) 基于池化视觉Transformer杂草生长周期检测方法
CN108154186A (zh) 一种模式识别方法和装置
CN105868713B (zh) 一种基于核lda的并行特征融合人脸表情识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant