CN111986126B - 一种基于改进vgg16网络的多目标检测方法 - Google Patents

一种基于改进vgg16网络的多目标检测方法 Download PDF

Info

Publication number
CN111986126B
CN111986126B CN202010689421.5A CN202010689421A CN111986126B CN 111986126 B CN111986126 B CN 111986126B CN 202010689421 A CN202010689421 A CN 202010689421A CN 111986126 B CN111986126 B CN 111986126B
Authority
CN
China
Prior art keywords
layer
image
function
histogram
pooling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010689421.5A
Other languages
English (en)
Other versions
CN111986126A (zh
Inventor
张烨
樊一超
陈威慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010689421.5A priority Critical patent/CN111986126B/zh
Publication of CN111986126A publication Critical patent/CN111986126A/zh
Application granted granted Critical
Publication of CN111986126B publication Critical patent/CN111986126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于改进VGG16网络的多目标检测方法,包括:步骤一,样本图像增强处理;选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果;步骤二,构建特征提取模型,构建特征提取网络模型,由截断的VGGNet‑16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体;步骤三,设置特征提取模型相关函数;步骤四,对所提取的特征图上的目标进行定位;步骤五,目标定位和特征分类损失函数的设定。本发明能够在提高识别精度的同时加快识别效率,从而解决检测难、分类难的问题。

Description

一种基于改进VGG16网络的多目标检测方法
技术领域
本发明涉及一种基于改进VGG16网络的多目标检测方法。
背景技术
近几年随着计算机科学技术的飞速发展,基于计算机技术的图像处理、图像目标检测、等也获得了空前的快速发展,其中深度学习通过学习海量的数字图像特征,提取关键目标特征,在目标检测上已超过人类,给工业界带来了一个又一个惊喜。随着神经元网络的再度兴起,基于卷积神经元网络的视频图像法成为图像分割和识别的主流技术,采用模板匹配、边缘特征提取、梯度直方图等手段,实现对图像的精确识别。虽然基于神经网络的图像特征识别能够针对复杂场景的目标进行有效的特征识别,而且其效果远优于传统的方法,但也存在不足之处:(1)对噪声抗干扰性较弱;(2)通过使用Dropout方法解决了过拟合问题,改进了卷积神经网络模型和参数,但是精度却略有下降;(3)引入了可变型卷积与可分离卷积结构,提高了模型的泛化性,增强了网络模型特征提取能力,但对复杂场景的目标识别表现欠佳;(4)虽然目前提出的图像识别方法,能够直接预测图像像素分类信息,做到了目标物体的像素定位,但模型存在参数量大、效率慢、分割粗糙等问题。总之,传统的检测方法存在着操作繁琐、识别精度不高、识别效率慢等问题。
发明内容
为了克服现有技术的上述不足,本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。
本发明先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。
为实现上述目的,本发明采用以下技术方案:
一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
图像灰度直方图描述的是图像中具有该灰度级的像素点的个数。通常以横轴表示灰度级,以纵轴表示每一灰度级的像元数个数或该像元数占总像元数的比例值,以此做出的条形统计图即为灰度直方图。
每幅样本图像都可以做出灰度直方图,并且可以根据图像的直方图分布来确定图像质量,因此,本发明选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果,从而使图像中的缺陷更加明显,减少干扰因素的影响。
1.1)直方图均衡化
图像的直方图表现了图像的灰度分布情况,当直方图的灰度集中分布在低值区域时,图像的亮度较低;当直方图的灰度集中在高值区域时,图像亮度较高。当直方图集中在中值区域时,得到的是低对比度的图像;当直方图分布较为均匀且分布较广时,得到的是高对比度的图像。因此,可以采用使图像灰度级均匀分布的方法,来提高图像的对比度,使图像变得清晰。
直方图均衡化的具体操作步骤如下所示:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
Figure GDA0003529367230000021
其中,0≤r≤1,L为灰度级层次数。
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以可用概率密度函数来表示图像灰度级的分布。而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
Figure GDA0003529367230000022
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数。
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
Figure GDA0003529367230000023
其中,k为灰度级数。
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图。
1.2)直方图匹配
直方图匹配就是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法。该方法需要首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图。
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图。以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可。可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配。
直方图匹配的具体操作步骤如下所示:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
Figure GDA0003529367230000031
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数。
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z。
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果。
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入。
步骤二,构建特征提取模型;
本发明使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型。该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体。
本发明的特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3。其中,Conv5_3是最终的特征提取层。
设置每一层网络的卷积层和池化层的具体的参数。
卷积层的主要参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面。5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512。前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层。
池化层的主要参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面。本发明的池化方式选择最大池化方式。池化核的大小关系到提取的特征图尺寸,本发明将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3。最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息。
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络。其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图。
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数。第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层。另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层。加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2。
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数。为了有效缓解梯度消失的问题,本发明提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,那么在本发明构造的较深的网络模型中,其表现出来的泛化能力更好。
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数。对于多目标检测输出问题,本发明使用了多项式回归函数,即Softmax函数对输出层进行激活。
假设Softmax函数
Figure GDA0003529367230000045
的输入数据为C维度的向量z,则Softmax函数的数据也是一个C维度的向量y,其计算公式如下:
Figure GDA0003529367230000041
则对于给定的输入z,可以求得每个分类的概率t=c,for c=1...C,其总的概率方程表示为:
Figure GDA0003529367230000042
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率。
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,本发明均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
Figure GDA0003529367230000043
其中,kernelSize×Size表示设定的池化核,其边长为Size;
Figure GDA0003529367230000044
代表最大池化操作,即将池化核内部矩阵中最大值输出;r'和c'分别表示池化核核心在激活后的Active二维数据矩阵的横纵坐标值。
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度。
步骤四,对所提取的特征图上的目标进行定位;
通过上述特征提取网络模型,虽然能够对任意的目标进行判断,但在图像中目标往往融合在复杂的背景当中,盲目的识别会造成错误判断。为此,需要对目标位置进行更加精准定位用以解决错误判断的问题,则本发明设计了详细的定位方法:
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值。score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0。最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数。与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归。
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
Figure GDA0003529367230000051
其中,ti表示边框i的坐标信息,即中心点坐标和边框宽与高ti=(xi,yi,wi,hi),而
Figure GDA0003529367230000052
表示真实目标的位置信息,则
Figure GDA0003529367230000053
上式中,
Figure GDA0003529367230000054
函数计算公式为:
Figure GDA0003529367230000055
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,本发明采用了多分类Softmax损失函数。
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
Figure GDA0003529367230000061
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为l(θ|t,z)=P(t|z,θ),对于确定的θ,P(t|z,θ)则等价于P(t|z)。由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
Figure GDA0003529367230000062
最大化似然函数则表示为最小化它的负对数似然函数:
Figure GDA0003529367230000063
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tclog(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
Figure GDA0003529367230000064
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率。
随后,对交叉熵损失函数进行推导,
Figure GDA0003529367230000065
为:
Figure GDA0003529367230000066
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
本发明的优点是:
本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。因此,本发明能够在提高识别精度的同时加快识别效率,从而解决检测难、分类难的问题。该发明方法可以应用于制造业车间质检过程中缺陷检测,也可以应用于物流行业快递分拣技术邻域,具有一定的应用前景。
附图说明
图1a~图1b是用于图像增强处理的灰度直方图,其中,图1a是图像的灰度值,图1b是根据图1a做出的灰度直方图;
图2是直方图均衡化变换函数;
图3是本发明的所用的截断的VGGNet-16网络结构图;
图4是本发明的加强网络层结构图;
图5是本发明网络模型的稀疏表达能力分段函数;
图6是本发明设计的具体定位流程图。
具体实施方式
下面结合附图,进一步说明本发明的技术方案。
为了克服现有技术的上述不足,本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。
为实现上述目的,本发明采用以下技术方案:
一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
图像灰度直方图描述的是图像中具有该灰度级的像素点的个数。通常以横轴表示灰度级,以纵轴表示每一灰度级的像元数个数或该像元数占总像元数的比例值,以此做出的条形统计图即为灰度直方图。
每幅样本图像都可以做出灰度直方图,并且可以根据图像的直方图分布来确定图像质量,因此,本发明选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果,从而使图像中的缺陷更加明显,减少干扰因素的影响。
1.1)直方图均衡化
图像的直方图表现了图像的灰度分布情况,当直方图的灰度集中分布在低值区域时,图像的亮度较低;当直方图的灰度集中在高值区域时,图像亮度较高。当直方图集中在中值区域时,得到的是低对比度的图像;当直方图分布较为均匀且分布较广时,得到的是高对比度的图像。因此,可以采用使图像灰度级均匀分布的方法,来提高图像的对比度,使图像变得清晰。
直方图均衡化的具体操作步骤如下所示:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
Figure GDA0003529367230000071
其中,0≤r≤1,L为灰度级层次数。
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以可用概率密度函数来表示图像灰度级的分布。而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
Figure GDA0003529367230000081
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数。
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
Figure GDA0003529367230000082
其中,k为灰度级数。
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图。
1.2)直方图匹配
直方图匹配就是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法。该方法需要首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图。
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图。以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可。可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配。
直方图匹配的具体操作步骤如下所示:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
Figure GDA0003529367230000083
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数。
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z。
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果。
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入。
步骤二,构建特征提取模型;
本发明使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型。该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体。
本发明的特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3。其中,Conv5_3是最终的特征提取层。
设置每一层网络的卷积层和池化层的具体的参数。
卷积层的主要参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面。5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512。前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层。
池化层的主要参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面。本发明的池化方式选择最大池化方式。池化核的大小关系到提取的特征图尺寸,本发明将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3。最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息。
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络。其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图。
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数。第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层。另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层。加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2。
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数。为了有效缓解梯度消失的问题,本发明提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,那么在本发明构造的较深的网络模型中,其表现出来的泛化能力更好。
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数。对于多目标检测输出问题,本发明使用了多项式回归函数,即Softmax函数对输出层进行激活。
假设Softmax函数
Figure GDA0003529367230000105
的输入数据为C维度的向量z,则Softmax函数的数据也是一个C维度的向量y,其计算公式如下:
Figure GDA0003529367230000101
则对于给定的输入z,可以求得每个分类的概率t=c,for c=1…C,其总的概率方程表示为:
Figure GDA0003529367230000102
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率。
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,本发明均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
Figure GDA0003529367230000103
其中,kernelSize×Size表示设定的池化核,其边长为Size;
Figure GDA0003529367230000104
代表最大池化操作,即将池化核内部矩阵中最大值输出;r'和c'分别表示池化核核心在激活后的Active二维数据矩阵的横纵坐标值。
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度。
步骤四,对所提取的特征图上的目标进行定位;
通过上述特征提取网络模型,虽然能够对任意的目标进行判断,但在图像中目标往往融合在复杂的背景当中,盲目的识别会造成错误判断。为此,需要对目标位置进行更加精准定位用以解决错误判断的问题,则本发明设计了详细的定位方法:
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值。score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0。最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数。与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归。
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
Figure GDA0003529367230000111
其中,ti表示边框i的坐标信息,即中心点坐标和边框宽与高ti=(xi,yi,wi,hi),而
Figure GDA0003529367230000112
表示真实目标的位置信息,则
Figure GDA0003529367230000113
上式中,
Figure GDA0003529367230000114
函数计算公式为:
Figure GDA0003529367230000115
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,本发明采用了多分类Softmax损失函数。
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
Figure GDA0003529367230000116
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为l(θ|t,z)=P(t|z,θ),对于确定的θ,P(t|z,θ)则等价于P(t|z)。由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
Figure GDA0003529367230000117
最大化似然函数则表示为最小化它的负对数似然函数:
Figure GDA0003529367230000121
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tclog(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
Figure GDA0003529367230000122
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率。
随后,对交叉熵损失函数进行推导,
Figure GDA0003529367230000123
为:
Figure GDA0003529367230000124
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (1)

1.一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果;
1.1)直方图均衡化,具体包括:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
Figure FDA0003529367220000011
其中,0≤r≤1,L为灰度级层次数;
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以用概率密度函数来表示图像灰度级的分布;而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
Figure FDA0003529367220000012
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数;
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
Figure FDA0003529367220000013
其中,k为灰度级数;
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图;
1.2)直方图匹配;
直方图匹配是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法;首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图;
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图;以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可;可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配;
直方图匹配的具体操作步骤如下:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
Figure FDA0003529367220000021
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数;
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z;
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果;
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入;
步骤二,构建特征提取模型;
使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型;该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体;
特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3;其中,Conv5_3是最终的特征提取层;
设置每一层网络的卷积层和池化层的具体的参数;
卷积层的参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面;5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512;前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层;
池化层的参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面;池化方式选择最大池化方式;池化核的大小关系到提取的特征图尺寸,将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3;最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息;
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络;其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图;
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数;第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层;另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层;加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2;
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数;为了有效缓解梯度消失的问题,提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,在构造的较深的网络模型中,其表现出来的泛化能力更好;
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数;对于多目标检测输出问题,使用了多项式回归函数,即Softmax函数对输出层进行激活;
假设Softmax函数
Figure FDA0003529367220000031
的输入数据为C维度的向量z,则Softmax函数的数据也是一个C维度的向量y,其计算公式如下:
Figure FDA0003529367220000032
则对于给定的输入z,可以求得每个分类的概率t=c,for c=1...C,其总的概率方程表示为:
Figure FDA0003529367220000033
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率;
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
Figure FDA0003529367220000041
其中,kernelSize×Size表示设定的池化核,其边长为Size;
Figure FDA0003529367220000042
代表最大池化操作,即将池化核内部矩阵中最大值输出;r'和c'分别表示池化核核心在激活后的Active二维数据矩阵的横纵坐标值;
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度;
步骤四,对所提取的特征图上的目标进行定位;
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值;score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0;最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数;与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归;
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
Figure FDA0003529367220000051
其中,ti表示边框i的坐标信息,即中心点坐标和边框宽与高ti=(xi,yi,wi,hi),而
Figure FDA0003529367220000052
表示真实目标的位置信息,则
Figure FDA0003529367220000053
上式中,
Figure FDA0003529367220000054
函数计算公式为:
Figure FDA0003529367220000055
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,采用了多分类Softmax损失函数;
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
Figure FDA0003529367220000056
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为
Figure FDA00035293672200000512
对于确定的θ,P(t|z,θ)则等价于P(t|z);由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
Figure FDA0003529367220000057
最大化似然函数则表示为最小化它的负对数似然函数:
Figure FDA0003529367220000058
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tclog(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
Figure FDA0003529367220000059
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率;
随后,对交叉熵损失函数进行推导,
Figure FDA00035293672200000510
为:
Figure FDA00035293672200000511
Figure FDA0003529367220000061
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
CN202010689421.5A 2020-07-17 2020-07-17 一种基于改进vgg16网络的多目标检测方法 Active CN111986126B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010689421.5A CN111986126B (zh) 2020-07-17 2020-07-17 一种基于改进vgg16网络的多目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010689421.5A CN111986126B (zh) 2020-07-17 2020-07-17 一种基于改进vgg16网络的多目标检测方法

Publications (2)

Publication Number Publication Date
CN111986126A CN111986126A (zh) 2020-11-24
CN111986126B true CN111986126B (zh) 2022-05-24

Family

ID=73439206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010689421.5A Active CN111986126B (zh) 2020-07-17 2020-07-17 一种基于改进vgg16网络的多目标检测方法

Country Status (1)

Country Link
CN (1) CN111986126B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818797B (zh) * 2021-01-26 2024-03-01 厦门大学 一种面向在线考试答卷文档图像的一致性检测方法和存储设备
CN113807231B (zh) * 2021-09-14 2024-02-13 西安电子科技大学 基于unet下采样卷积神经网络的x光违禁物检测方法
CN114758058A (zh) * 2022-03-01 2022-07-15 深圳市小秤砣科技有限公司 3d模型评分方法、装置、设备及存储介质
CN115082446B (zh) * 2022-07-25 2022-11-22 南京航空航天大学 一种基于图像边界提取的飞机蒙皮铆钉的测量方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN110503112A (zh) * 2019-08-27 2019-11-26 电子科技大学 一种增强特征学习的小目标检测及识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108073864B (zh) * 2016-11-15 2021-03-09 北京市商汤科技开发有限公司 目标对象检测方法、装置及系统和神经网络结构
CN108399362B (zh) * 2018-01-24 2022-01-07 中山大学 一种快速行人检测方法及装置
CN110443778B (zh) * 2019-06-25 2021-10-15 浙江工业大学 一种检测工业品不规则缺陷的方法
CN110660040A (zh) * 2019-07-24 2020-01-07 浙江工业大学 一种基于深度学习的工业品不规则缺陷检测方法
CN110610210B (zh) * 2019-09-18 2022-03-25 电子科技大学 一种多目标检测方法
CN111126472B (zh) * 2019-12-18 2023-07-25 南京信息工程大学 一种基于ssd改进的目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN110503112A (zh) * 2019-08-27 2019-11-26 电子科技大学 一种增强特征学习的小目标检测及识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于FTVGG16卷积神经网络的鱼类识别方法;陈英义等;《农业机械学报》;20190228(第05期);第223-231页 *

Also Published As

Publication number Publication date
CN111986126A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN111986126B (zh) 一种基于改进vgg16网络的多目标检测方法
CN110136154B (zh) 基于全卷积网络与形态学处理的遥感图像语义分割方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
US20190228268A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN111191583B (zh) 基于卷积神经网络的空间目标识别系统及方法
CN111986125A (zh) 一种用于多目标任务实例分割的方法
CN111028217A (zh) 一种基于全卷积神经网络的图像裂缝分割方法
CN110322445B (zh) 基于最大化预测和标签间相关性损失函数的语义分割方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN112287941B (zh) 一种基于自动字符区域感知的车牌识别方法
CN110610143B (zh) 多任务联合训练的人群计数网络方法、系统、介质及终端
CN109993221B (zh) 一种图像分类方法及装置
CN111242026B (zh) 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN112381030B (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN113449784B (zh) 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN109872331A (zh) 一种基于深度学习的遥感图像数据自动识别分类方法
CN111860679B (zh) 一种基于YOLO v3改进算法的车辆检测方法
CN113159045A (zh) 一种结合图像预处理与卷积神经网络的验证码识别方法
CN114897782B (zh) 基于生成式对抗网络的胃癌病理切片图像分割预测方法
CN112837320A (zh) 一种基于并行空洞卷积的遥感影像语义分割方法
CN114972759A (zh) 基于分级轮廓代价函数的遥感图像语义分割方法
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
CN112819832A (zh) 基于激光点云的城市场景语义分割细粒度边界提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant