CN104408712B - 基于信息融合的隐马尔可夫显著区域检测方法 - Google Patents

基于信息融合的隐马尔可夫显著区域检测方法 Download PDF

Info

Publication number
CN104408712B
CN104408712B CN201410616754.XA CN201410616754A CN104408712B CN 104408712 B CN104408712 B CN 104408712B CN 201410616754 A CN201410616754 A CN 201410616754A CN 104408712 B CN104408712 B CN 104408712B
Authority
CN
China
Prior art keywords
image
channel
label
calculating
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410616754.XA
Other languages
English (en)
Other versions
CN104408712A (zh
Inventor
彭进业
李永恒
冯晓毅
谭歆
王志成
陈贵良
毛琥博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410616754.XA priority Critical patent/CN104408712B/zh
Publication of CN104408712A publication Critical patent/CN104408712A/zh
Application granted granted Critical
Publication of CN104408712B publication Critical patent/CN104408712B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于信息融合的隐马尔可夫显著区域检测方法,本发明可以应用于复杂背景下的目标区域检测和识别。技术特征在于:首先计算图像的三个颜色对比通道;然后,通过最大后验概率迭代计算各通道的最终标签图像;再用最大互信息的标签类得到各通道突出图;最后将3个通道中所有大于冗余信息的连通区域信息量相加并归一化,得到最终显著图。本发明在充分利用了图像先验信息同时保留了数据细节,解决了区域颜色信息丢失所带来的问题,能够迅速对焦于广泛的显著区域而不用提前进行训练。

Description

基于信息融合的隐马尔可夫显著区域检测方法
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于信息融合的隐马尔可夫显著区域检测方法。
背景技术
显著区域检测是从复杂的自然场景中检测出最能吸引观察者注意的图像区域,这些区域可以给人眼带来较强的刺激,使视觉系统能够用有效的方式来分配有限的感性资源。目前显著区域检测广泛的应用于自适应压缩和缩放,无监督图像分割,目标识别等众多图像处理领域。因此,研究显著区域检测方法有很重要的实用价值。
目前针对显著区域检测的一些主要方法:
SUN方法是Christopher Kanan等在“Robust Classification of Objects,Faces,and Flowers Using Natural Image Statistics”in CVPR 2010中提出的。其思路是从自然图像集合当中,用独立成分分析训练出一个基特征来模仿神经元的感受野,从而求解图像中的显著目标区域。该方法符合自上而下的视觉系统,其计算速度较快。然而,人眼能够迅速的从大量复杂背景中寻找出有用的目标,在很大程度上就是依赖于颜色信息。该方法在处理时只考虑灰度图像,忽略了图像的颜色信息,而这些在不同的像素位置上的颜色值反映的是真实场景的有关信息,这导致在不同颜色背景下计算出的显著值近似,影响了检测的效果。
四元数方法是Boris Schauerte等在“Quatemion-based Spectral SaliencyDetection for Eye Fixation Prediction”in ECCV 2012中提出的。其主要思想是将图像作为一个整体映射到四元数频谱,从四元数频谱的变化率出发给出一个通用显著区域检测模型。该方法从纯数学的角度考虑了区域显著性在四元数频谱的变化,检测出的区块较完整。然而,该方法缺乏对图像显著区域的先验知识利用,显著区域检测是为了理解,但是理想的检测结果需要理解后的结果作为先验知识,因而显著区域检测是一个病态问题,该方法忽略了对这种病态性问题的考虑,随着图像场景的复杂化,其检测准确性也急剧下降。
发明内容
本发明的目的是针对背景技术存在的缺陷,提出一种基于信息融合的隐马尔可夫显著区域检测方法,保留了图像的先验知识和颜色信息,可以从一个复杂的自然场景当中自动检测出显著区域,能够迅速对焦于广泛的显著区域而不用提前进行训练。
为实现上述目的,本发明的技术方案包括如下几个步骤:
步骤1)读取待检测图像Y,用RGB颜色空间转换为对比颜色空间方法,计算出三个对比颜色通道YRG,YBY,YI
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声。
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数。
步骤3)计算初始标签图中各类标签的均值与方差,作为初始参数。
步骤4)通过最大后验概率来计算新标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,为标签图像的第i个像素所在的标签类l的均值和方差,为参数集合。
4b)计算先验能量函数U(x),可以通过该式得到:它是基团集合C中所有基团的势函数Vc(x)的总和。其中,势函数Vc(x)为:x′i是点xi的邻域像素点。δ(xi,x′i)是邻域像素对的势函数参数,具有以下这种形式:
4c)重复步骤4a)-4b),更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合。
5b)执行t次迭代,计算标签类l的条件概率,方法为:
其中,的计算方法同步骤4b)中势函数的计算方法,是xi的邻域像素点。
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达。
5d)用最大后验概率P(t)(l|yi)重新估计参数,具体计算方法为:
步骤6)重复步骤4)-5),得到通道YRG的最终标签图像XRG
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6)。得到三个通道的最终标签图X={XRG,XBY,XI}。
步骤8)计算三通道突出图X*。方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图X*
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵。H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵。
步骤9)删除突出图中过小的连通区域。突出图X*由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中d为面积阈值,m·n为图像的尺寸。
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息。
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将三通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。
所述RGB颜色空间转换对比颜色空间方法,利用文章Color invariance中提出的颜色空间转换方法。
所述canny算法采用文章On regularized Laplacian zero crossings andother optimal edge integrators中的canny边缘检测算法。
所述k-means聚类算法采用文章A fast k-means implementation usingcoresets中的k-means聚类算法。
有益效果
本发明涉及一种基于信息融合的隐马尔可夫显著区域检测方法,使用基于贝叶斯框架的隐马尔可夫随机场结构,在充分利用了图像先验信息的同时又保留了数据细节,该结构能够克服显著目标检测的病态性问题。其能有效刻画图像的空间信息。对于包含的光谱变化率、纹理基元的排列以及图像表面局部的内在特征的复杂场景图像,用该结构来描述检测显著区域的先验分布非常恰当。
本发明还使用各颜色通道下基于随机场求出的标签图像与原始图像的互信息,来寻找每个颜色通道中最有代表性的目标区域。这些区域承载着代表该颜色背景下在原始图像中信息量最大的显著性目标。然后利用这些候选区域本身所包含的信息量来确定视觉系统真正在注意的是哪些区域,从而将多通道突出图融合成一幅显著图,解决了区域颜色信息丢失所带来的问题,能够迅速对焦于广泛的显著区域而不用提前进行训练。
附图说明
图1是本发明方法的工作原理流程图。
图2是本发明方法的实例操作流程图。
具体实施方式
现结合实施例、附图对本发明作进一步的描述:
用于实施的硬件环境是:Intel core 15-2400CPU、2GB内存、1GB显卡计算机,运行的软件环境是:Matlab 2012a、WindowsXP。使用数据库公开可下载的MSRA显著目标图像集进行实验,该数据库是由20000幅图像组成,被三个人进行显著区域标注。我们用Matlab软件实现了本发明提出的方法。
本发明的具体实施步骤如下:
步骤1)读取待检测图像Y,将RGB颜色空间转换为对比颜色空间,计算三个对比颜色通道YRG,YBY,YI,其中设置伽马矫正参数为2.4,用于移出RGB图像各分量的伽马非线性。
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG,设置边缘检测门限为0.75,得到的完全数据Z是值为0、1的逻辑图像。
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声,高斯标准差取值4。
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数,聚类个数取值3。
步骤3)计算初始标签图中3类标签的均值μ0与方差σ0,作为初始参数。
步骤4)通过最大后验概率来计算新标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,为标签图像的第i个像素所在的标签类l的均值和方差,为参数集合。这里依据观察数据yi之间相互独立,假设同一类图像标签的像素服从同一种分布,并用高斯分布来近似同一类图像标签区域像素的分布情况。
4b)计算先验能量函数U(x),可以通过该式得到:它是基团集合C中所有基团的势函数Vc(x)的总和。
其中,势函数Vc(x)为:x′i是点xi的4-邻域像素点。δ(xi,x′i)是邻域像素对的势函数参数,具有以下这种形式:设置4-邻域像素来表示基团C,即xi的标签值与4-邻域像素点x′i的标签值相等时势函数为0。
4c)重复步骤4a)-4b),迭代次数取10,更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计其参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合。
5b)计算第t次迭代时,标签类l的条件概率,方法为:
其中,的计算方法同步骤4b),Ni表示i的4-邻域,对应xi的4-邻域像素点。
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达。
5d)用最大后验概率P(t)(l|yi)重新估计参数,计算方法如下:
步骤6)重复步骤4)-5),迭代次数取10,得到通道YRG的最终标签图像XRG
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6)。得到三个通道的最终标签图X={XRG,XBY,XI}。
步骤8)计算三通道突出图X*。方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图:
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵。H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵。
步骤9)删除突出图X*中过小的连通区域。突出图X*由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中m·n为图像的尺寸,d为面积阈值,取值范围为[50,500]。
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息:I(Rk)=-logP(Rk),其中I(Rk)表示突出图X*所包含的第k个连通区域Rk的信息量。
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将3个通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。计算表达形式为:其中w·Imax是冗余信息参数,Imax是该通道下的所有连通区域中最大的信息值,w是冗余阈值,取值范围从0到1。
所述RGB颜色空间转换对比颜色空间方法,利用文章Color invariance中提出的颜色空间转换方法。
所述canny算法采用文章On regularized Laplacian zero crossings andother optimal edge integrators中的canny边缘检测算法。
所述k-means聚类算法采用文章A fast k-means implementation usingcoresets中的k-means聚类算法。

Claims (4)

1.一种基于信息融合的隐马尔可夫显著区域检测方法,其特征在于步骤如下:
步骤1)读取待检测图像Y,将RGB颜色空间转换为对比颜色空间,计算出三个对比颜色通道YRG,YBY,YI
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声;
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数;
步骤3)计算初始标签图中各类标签的均值与方差,作为初始参数;
步骤4)通过最大后验概率来计算新的标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,为标签图像的第i个像素所在的标签类l的均值和方差,为参数集合;
4b)计算先验能量函数U(x),所述先验能量函数U(x),可以由公式计算得到,它是基团集合C中所有基团的势函数Vc(x)的总和,其中,势函数Vc(x)为:x′i是点xi的邻域像素点,δ(xi,x′i)是邻域像素对的势函数参数,该参数具有以下这种形式:
4c)重复步骤4a)-4b),更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合;
5b)执行t次迭代,计算标签类l的条件概率,方法为:其中,的计算方法同步骤4b)中势函数的计算方法,是xi的邻域像素点;
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达;
5d)用最大后验概率P(t)(l|yi)重新估计参数,具体计算方法为:
μ l ( t + 1 ) = Σ i ∈ S P ( t ) ( l | y i ) y i Σ i ∈ S P ( t ) ( l | y i ) , ( σ l ( t + 1 ) ) 2 = Σ i ∈ S P ( t ) ( l | y i ) ( y i - μ l ) 2 Σ i ∈ S P ( t ) ( l | y i )
步骤6)重复步骤4)-5),得到通道YRG的最终标签图像XRG
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6),得到三个通道的最终标签图X={XRG,XBY,XI};
步骤8)计算三通道突出图X*,方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图X*
X * = m a x l [ H ( X l ) - H ( X l | Y ) ] = Σ i = 1 X l P ( X i ) l o g 1 P ( X i ) - Σ i = 1 X l Σ j = 1 Y P ( Y j ) P ( X i | Y j ) l o g 1 P ( X i | Y j )
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵,H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵;
步骤9)删除各通道突出图X*中过小的连通区域,突出图由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中d为面积阈值,m·n为图像的尺寸;
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息;
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将三通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。
2.根据权利要求1所述的一种基于信息融合的隐马尔可夫显著区域检测方法,其特征在于,RGB颜色空间转换对比颜色空间的具体方法为:利用公式计算对比颜色通道YRG,利用公式计算对比颜色通道YBY,利用公式计算对比颜色通道YI,其中R、G、B是待检测图像Y的RGB颜色空间的三个通道。
3.根据权利要求1所述的一种基于信息融合的隐马尔可夫显著区域检测方法,其特征在于,canny算法的具体实现方法为:先对通道图像进行高斯模糊,用一阶偏导的有限差分来计算通道图像的梯度大小,然后确定通道图像中像素点的梯度值在其8邻域内是否为局部最大值,将局部最大值点置为1,非局部最大值点置为0,然后选取高、低两个阈值,其中高阈值是最大梯度值的79%,低阈值是高阈值的一半,最后把通道图像中幅值大于高阈值的像素点保留下来,幅值在高、低两个阈值之间并且连接到一个大于高阈值的像素点时也被保留下来,余下的像素点置为0,保留下来的像素点即为通道图像的边缘响应。
4.根据权利要求1所述的一种基于信息融合的隐马尔可夫显著区域检测方法,其特征在于,k-means聚类算法的具体实现方法为:将图像中的像素点视为数据对象,从数据对象中任意选择c个对象作为初始聚类中心,然后根据每个聚类对象的均值,计算每个对象与这些聚类中心的距离,然后根据最小距离重新划分数据对象,重新计算每个有变化的聚类中心的均值,重复计算直到每个聚类不再发生变化为止,最后得到一个聚类数为c的二值图像。
CN201410616754.XA 2014-10-30 2014-10-30 基于信息融合的隐马尔可夫显著区域检测方法 Expired - Fee Related CN104408712B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410616754.XA CN104408712B (zh) 2014-10-30 2014-10-30 基于信息融合的隐马尔可夫显著区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410616754.XA CN104408712B (zh) 2014-10-30 2014-10-30 基于信息融合的隐马尔可夫显著区域检测方法

Publications (2)

Publication Number Publication Date
CN104408712A CN104408712A (zh) 2015-03-11
CN104408712B true CN104408712B (zh) 2017-05-24

Family

ID=52646341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410616754.XA Expired - Fee Related CN104408712B (zh) 2014-10-30 2014-10-30 基于信息融合的隐马尔可夫显著区域检测方法

Country Status (1)

Country Link
CN (1) CN104408712B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097569B (zh) * 2019-04-04 2020-12-22 北京航空航天大学 基于颜色马尔科夫链显著性模型的油罐目标检测方法
CN114092774B (zh) * 2021-11-22 2023-08-15 沈阳工业大学 基于信息流融合的rgb-t图像显著性检测系统及检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945378A (zh) * 2012-10-23 2013-02-27 西北工业大学 一种基于监督方法的遥感图像潜在目标区域检测方法
CN103106671A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于视觉注意机制的图像感兴趣区域检测方法
CN103106672A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于颜色特征的图像感兴趣区域检测方法
CN103810503A (zh) * 2013-12-26 2014-05-21 西北工业大学 一种基于深度学习的自然图像中显著区域的检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945378A (zh) * 2012-10-23 2013-02-27 西北工业大学 一种基于监督方法的遥感图像潜在目标区域检测方法
CN103106671A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于视觉注意机制的图像感兴趣区域检测方法
CN103106672A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于颜色特征的图像感兴趣区域检测方法
CN103810503A (zh) * 2013-12-26 2014-05-21 西北工业大学 一种基于深度学习的自然图像中显著区域的检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUN: A Bayesian framework for saliency using natural statistics;Lingyun Zhang et al.;《Journal of Vision (2008)》;20081231;第8卷(第7期);第1-20页 *
基于图像边缘和对比度的显著目标检测;邹强 等;《科学技术与工程》;20131221;第13卷(第34期);第1671-1815页 *

Also Published As

Publication number Publication date
CN104408712A (zh) 2015-03-11

Similar Documents

Publication Publication Date Title
Zhu et al. A fast single image haze removal algorithm using color attenuation prior
Braham et al. Deep background subtraction with scene-specific convolutional neural networks
EP3084682B1 (en) System and method for identifying faces in unconstrained media
CN107748873B (zh) 一种融合背景信息的多峰目标跟踪方法
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
CN108427921A (zh) 一种基于卷积神经网络的人脸识别方法
US20120219213A1 (en) Embedded Optical Flow Features
CN110443761B (zh) 一种基于多尺度聚合特征的单幅图像去雨方法
Fang et al. Efficient and robust fragments-based multiple kernels tracking
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
Liu et al. Two-stage underwater object detection network using swin transformer
CN109977834B (zh) 从深度图像中分割人手与交互物体的方法和装置
Jiang et al. Multi-feature tracking via adaptive weights
Gawande et al. SIRA: Scale illumination rotation affine invariant mask R-CNN for pedestrian detection
CN110930384A (zh) 基于密度信息的人群计数方法、装置、设备以及介质
CN106407978A (zh) 一种结合似物度的无约束视频中显著物体检测方法
Chen et al. Multi-lane detection and tracking using temporal-spatial model and particle filtering
Kim et al. AIBM: Accurate and instant background modeling for moving object detection
CN111539396A (zh) 一种基于yolov3的行人检测及步态识别的方法
Zhang et al. Planeseg: Building a plug-in for boosting planar region segmentation
Cho et al. Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation
CN113393385B (zh) 基于多尺度融合的无监督去雨方法、系统、装置及介质
CN106846377A (zh) 一种基于颜色属性和主动特征提取的目标跟踪算法
CN104408712B (zh) 基于信息融合的隐马尔可夫显著区域检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170524

Termination date: 20191030