CN104796690B - 一种基于人脑记忆模型的无参考视频质量评价方法 - Google Patents

一种基于人脑记忆模型的无参考视频质量评价方法 Download PDF

Info

Publication number
CN104796690B
CN104796690B CN201510185462.XA CN201510185462A CN104796690B CN 104796690 B CN104796690 B CN 104796690B CN 201510185462 A CN201510185462 A CN 201510185462A CN 104796690 B CN104796690 B CN 104796690B
Authority
CN
China
Prior art keywords
video
block
quality
macro block
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510185462.XA
Other languages
English (en)
Other versions
CN104796690A (zh
Inventor
林翔宇
张华熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201510185462.XA priority Critical patent/CN104796690B/zh
Publication of CN104796690A publication Critical patent/CN104796690A/zh
Application granted granted Critical
Publication of CN104796690B publication Critical patent/CN104796690B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于人脑记忆模型的无参考视频质量评价方法,包括:1)将一帧视频划分成宏块,根据每个宏块内像素的亮度值,计算宏块的复杂度;2)利用每个宏块的复杂度和量化系数,结合周围宏块的影响,得到宏块的质量评价值;3)基于人眼空间注意模型,结合整个视频的运动趋势,对不同位置的宏块赋予不同的权重,得到人眼注意力分布图;4)结合每个宏块的质量评价值和人眼注意力分布图,得到一帧视频的客观质量;5)以一个图像组为单位,结合人脑记忆模型,给出该段视频的客观质量。本发明方法简单,只需要待评价视频就能得到其客观质量,具有很高的灵活性,同时对各种不同的视频场景都能得到比较准确的评价结果,具有较好的普适性。

Description

一种基于人脑记忆模型的无参考视频质量评价方法
技术领域
本发明属于视频质量评价技术领域,具体涉及一种基于人脑记忆模型的无参考视频质量评价方法。
背景技术
随着计算机与网络通信技术的飞速发展,人们对获取多媒体信息的需求日益旺盛。近年来,与视频相关的应用涵盖各个领域,如视频会议、视频监控和移动电视等。在这些应用中,视频信息在到达接收者之前都需要经过压缩和传输,而这些过程往往会造成视频质量损失。为了获得更好的主观效果,有必要对视频质量作出评价,根据结果调整编码器和传输信道的参数。视频的最终受体是人类的眼睛,人眼观察被认为是最精确的评价视频质量的方法。然而,由于视频的信息量非常大,依靠人工观察的主观方法对视频质量进行评价需要消耗大量的人力和时间,不适合大规模实际应用。因此,如何根据人眼视觉系统特性建立视频质量评价模型,在此基础上由计算机自动完成视频的质量评价,成为一个非常有意义的课题。
视频客观质量评价方法(Video Objective QualityAssessment)是指通过设计数学模型对视频进行智能化分析,并按设定的尺度对视频进行自动评分的客观评价方法。根据对原始视频的依赖程度,视频客观质量评价方法可以分为全参考型、部分参考型和无参考型三类。由于全参考型和部分参考型评价方法都需要额外的带宽来传输原始视频及相关信息,其实用价值非常有限。相比之下,无参考质量评价方法不需要依赖任何与原始视频相关的信息,直接根据待评价视频的信息计算视频质量,具有更好的灵活性和适应性,以及更广泛的应用价值。特别是在与网络多媒体相关的视频应用中,无参考视频客观质量评价在服务器质量检测(Quality of Service,QoS)和终端质量体验(Quality of Experience,QoE)上面起到重要作用,根据视频质量评价反馈信息,视频服务器可以动态调整视频编码器参数和传输信道参数,以保证传输稳定性,提高接收端视频质量。另外,无参考视频客观质量评价可以取代人眼,公正地比较不同视频编解码器输出的视频质量,为视频接收端提供参考,做出最优选择。
现有的视频质量评价方法虽然取得了一定的效果,形成了一些比较成熟的模型,如基于PSNR(峰值信噪比)和基于SSIM(结构相似性)的两种视频质量评价模型,但这两种模型仍然存在一些问题,如:没有考虑人脑对视频关注度随着时间而变化的因素;忽视了视频内容特征对视频质量的影响;准确度还有待提高。
发明内容
针对现有技术所存在的上述技术问题,本发明提供了一种基于人脑记忆模型的无参考视频质量评价方法,既能够达到较高的准确度,又能适应各种不同视频场景,而且不需要原始视频作为参考,实现灵活有效的视频质量评价。
一种基于人脑记忆模型的无参考视频质量评价方法,包括如下步骤:
(1)将待评价视频每帧图像分割成若干个宏块,进而根据像素的亮度值计算出每个宏块的复杂度Cblock
(2)根据所述的复杂度计算宏块的质量评价值Qblock
(3)基于人眼空间注意模型结合整个视频的运动趋势,为宏块赋予权重wblock
(4)根据所述的质量评价值Qblock和权重wblock,计算每帧图像的客观质量Qframe
(5)根据每帧图像的客观质量Qframe结合人脑记忆模型,计算出待评价视频中每个图像组的客观质量QGOP,进而计算出整段待评价视频的客观质量Q。
所述的步骤(1)中根据以下算式计算宏块的复杂度Cblock
C block = 1 N Σ i = 1 N ( P i - P avg ) 2
其中:N为宏块内像素的总个数,Pi为宏块内第i个像素的亮度值,Pavg为宏块内像素的平均亮度值。
所述的步骤(2)中根据以下算式计算宏块的质量评价值Qblock
Q block = C block × q × R block R block = q q max
其中:q为宏块在进行视频压缩时所用到的量化系数,qmax为当前宏块及其周围八个宏块的量化系数最大值。
所述的步骤(3)中根据以下关系式为每个宏块赋予不同的权重:
w block = w 1 ( n < 0.2 ) w 2 ( n < 0.6 ) w 3 else n = l &times; 2 d 2 + h 2
其中:w1~w3均为给定的权重系数,d和h分别为图像的宽和高,l为宏块的中心像素至图像的中心像素之间的距离。
进一步地,所述的权重系数w1=0.8,w1=0.5,w3=0.2。
所述的步骤(4)中根据以下算式计算每帧图像的客观质量Qframe
Q frame = &Sigma; j = 1 M Q block ( j ) &times; w block ( j ) &Sigma; j = 1 M w block ( j )
其中:Qblock(j)和wblock(j)分别为图像中第j个宏块的质量评价值和权重,M为图像中宏块的总个数。
所述的步骤(5)中根据以下算式计算每个图像组的客观质量QGOP
Q GOP = &Sigma; t = 1 T Q frame ( t ) &times; w frame ( t ) &Sigma; t = 1 T w frame ( t ) w frame ( t ) = c - f ( t ) r &times; 1 &mu;
其中:Qframe(t)为图像组中第t帧图像的客观质量,T为图像组的帧数,f(t)为图像组中第t帧图像距离关键帧的帧间隔,r为编码帧率,μ为给定的人脑记忆残留时间系数,c为给定的记忆模型参数。
所述的步骤(5)中根据以下算式计算整段待评价视频的客观质量Q:
Q = a &times; &Sigma; k = 1 K Q GOP ( k ) &times; s ( k ) &Sigma; k = 1 K s ( k ) + b
其中:QGOP(k)为待评价视频中第k个图像组的客观质量,s(k)为待评价视频中第k个图像组的帧数,a和b均为给定的计算参数,K为待评价视频中图像组的个数。
所述的图像组为当前关键帧(包括在内)至下一关键帧之间所有图像组成的集合。
本发明方法的有益效果包括以下几点:
(1)只需要待评价视频就可以得到视频质量评价结果,具有很好的灵活性和适应性。
(2)评价结果准确度较高,符合人眼对视频的主观感知。
(3)对各种不同场景的视频都能得到比较准确的评价结果,具有较好的普适性。
附图说明
图1为图像中心点定位示意图。
图2为人脑记忆模型曲线图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明基于人脑记忆模型的无参考视频质量评价方法,包括以下步骤:
(1)将一帧视频划分16×16的宏块,根据每个宏块内像素的亮度值,计算该宏块的复杂度。
在视频压缩的过程中,量化是导致视频质量下降的最主要原因。但是,量化对视频中各个区域的影响程度是不一样的。一般来说,纹理较为复杂,内容较为丰富的区域,在相同的量化系数作用下,质量下降较多。因此,本发明将首先计算图像各个区域的复杂度,用来辅助分析该区域由于量化引起的质量下降程度。
在视频压缩中,量化是以16×16的宏块为基本单位进行,因此,本发明以相同大小的区域为单位,计算图像的复杂度。图像的纹理和细节是通过小范围内像素点之间亮度值的差异体现出来的,纹理简单,内容单一的区域,像素点之间的亮度值差异较小;而纹理复杂,内容多样的区域内,像素点之间的亮度值差异较大。因此,本发明通过计算每个宏块内像素点亮度值的均方差,来反映该宏块的复杂度Cblock
C block = 1 N &Sigma; ( P ( i , j ) - P avg ) 2
其中,P(i,j)为该宏块内像素点的亮度值,Pavg为该宏块内所有像素点的亮度平均值。
(2)利用每个宏块的复杂度和量化系数,结合周围宏块的影响,得到该宏块的质量评价值。
压缩视频引入的各种失真效应随着量化过程中使用的量化系数增大而变严重,而这些失真效应,是引起视频质量下降的最主要原因。因此,量化系数和视频质量之间存在直接的联系。实验数据表明,视频质量与量化系数呈近似反比关系,量化系数越大,视频质量越差,视频主观质量(DMOS)越大。但在实际情况中,人眼是将一个区域作为一个整体来观察的,而不仅仅观察独立一个宏块。因此,在评价一个宏块的客观质量时,需要将其周围其他宏块的影响考虑在内。一般来说,空间距离相近的宏块,图像内容也比较近似,因此其客观质量与量化系数直接相关。该区域内量化系数最大的宏块,其客观质量往往最差。人眼对一个区域内客观质量最差的部分是最敏感的,由于对比反差的原因,人眼对其他宏块的感受会随之改善。因此,在评价一个宏块的客观质量时,需要以周围宏块中质量最差,也就是量化系数最大的宏块为基准,做相应的修正。综合以上原理,本发明结合每个宏块的复杂度参数Cblock、量化系数和周围8个宏块的量化系数来反映该宏块的客观质量:
Qblock=Cblock×q×Rblock
其中,Qblock为为该宏块的客观质量,其值越大代表质量越差;q为该宏块进行视频压缩时用到的量化系数;Rblock为周围宏块的影响参数,计算方法为:
R block = q q max
其中,qmax为该宏块和周围8个宏块中量化系数的最大值。
(3)基于人眼空间注意模型,结合整个视频的运动趋势,对不同位置的宏块赋予不同的权重,得到人眼注意力分布图。
人眼在观察视频时,对各个部分的关注程度是不均衡的。研究结果表明,观察者的注意力一般集中在图像的中心,而随着与中心距离的增大,该区域获得的关注度随之下降。因此,可以用每个区域与图像中心间的距离来反映该区域在客观质量评价中的权重:
w block = w 1 ( n < 0.2 ) w 2 ( n < 0.6 ) w 3 else
其中,wblock为每个宏块的权重,wi为权重系数,n为每个宏块距离整幅图像中心点的距离系数,其计算方法为:
n = l &times; 2 w 2 + h 2
其中,w和h分别为图像的宽和高,l为每个宏块中心像素点和整幅图像中心像素点之间的距离,以像素点为单位。
在实际情况中,大多数视频的内容都是运动的,人眼的注意力也会随之转移。本发明统计一帧视频中所有宏块的平均运动矢量,得到图像内容的整体运动趋势,用来调整图像的中心像素点位置,如图1所示。其中mvx和mvy分别为水平和垂直方向平均运动矢量,p0为原来的中心像素点,p1为调整后的中心像素点。
(4)结合每个宏块的质量评价值和人眼注意力分布图,得到一帧视频的客观质量。
在得到每个宏块的客观质量及其权重后,整帧视频的客观质量Qframe的计算方法为:
Q frame = &Sigma; Q block &times; w block &Sigma; w block
其中,Qframe越大,代表视频质量越差。
(5)以一个GOP为单位,结合人脑记忆模型,给出该段GOP的客观质量。
人脑对视频的注意力,不仅仅受到视频内容的影响,同样也受到时间的应用。由于人的记忆力是有限的,人脑对事物的记忆会随着时间的流逝而变模糊,如图2所示。因此,观察者对不同时间段的关注程度也是不均衡的。研究表明,在每个GOP的开始,在I帧和P帧的交界处,由于I帧和P帧的清晰度差异较大,会出现一个明显的刷屏现象,很容易引起观察者的注意。而随着时间的推移,后续P帧的质量与趋于一致,帧与帧之间的差异非常细微,很难被观察者发现。因此,观察者的视频中的失真效应的注意力也会随着分散。结合视频的GOP间隔和人脑记忆模型,本发明给出每一帧在整个GOP中的权重wframe,其计算方法为:
w frame = c - f r &times; 1 T
其中,c为记忆模型参数,f为每一帧距离该GOP中关键帧的间隔,r为编码帧率,T为人脑记忆残留时间系数。在此基础上,得到整个GOP的客观质量:
Q GOP = &Sigma; Q frame &times; w frame &Sigma; w frame
最后,计算整段视频的客观质量Q:
Q = a &times; &Sigma; Q GOP &times; s &Sigma;s + b
其中,s为每个GOP中的帧数,a和b为常数,与DMOS一样,Q越小代表视频质量最好。本实施方式实际选用的参数为:w1=0.8,w2=0.5,w3=0.2,c=2.16,T=0.4,a=0.2,b=-30。
以下通过用40个JM压缩的常见视频场景的码流来验证本发明算法的效果,如下式所示,用多参数非线性方程对主客观评价结果进行拟合,使经过转换后的客观评价结果DMOSP与主观评价值DMOS的关系接近线性,方便对评价结果的准确性和单调性进行比较。
DMOS P = &beta; 2 + &beta; 1 - &beta; 2 1 + e - ( Q - &beta; 3 | &beta; 4 | )
最后,分别用Spearman相关系数和Pearson相关系数来衡量该方法的单调性和准确性,并与PSNR和SSIM方法作对比,如表1所示。Spearman系数和Pearson系数越大,说明该方法的单调性和准确性越好,即该方法的准确度越高。从这些结果可以看到,本发明的结果准确率要高于这两种视频质量评价方法。
表1
质量评价方法 Spearman相关系数 Pearson相关系数
PSNR 0.5432 0.5510
SSIM 0.6678 0.6812
本发明方法 0.7476 0.7887
上述的对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (2)

1.一种基于人脑记忆模型的无参考视频质量评价方法,包括如下步骤:
(1)将待评价视频每帧图像分割成若干个宏块,进而根据像素的亮度值通过以下算式计算出每个宏块的复杂度Cblock
C b l o c k = 1 N &Sigma; i = 1 N ( P i - P a v g ) 2
其中:N为宏块内像素的总个数,Pi为宏块内第i个像素的亮度值,Pavg为宏块内像素的平均亮度值;
(2)根据所述的复杂度通过以下算式计算宏块的质量评价值Qblock
Qblock=Cblock×q×Rblock
其中:q为宏块在进行视频压缩时所用到的量化系数,qmax为当前宏块及其周围八个宏块的量化系数最大值;
(3)基于人眼空间注意模型结合整个视频的运动趋势,根据以下关系式为宏块赋予权重wblock
w b l o c k = w 1 ( n < 0.2 ) w 2 ( n < 0.6 ) w 3 e l s e n = l &times; 2 d 2 + h 2
其中:w1~w3均为给定的权重系数,d和h分别为图像的宽和高,l为宏块的中心像素至图像的中心像素之间的距离;
(4)根据所述的质量评价值Qblock和权重wblock,通过以下算式计算每帧图像的客观质量Qframe
Q f r a m e = &Sigma; j = 1 M Q b l o c k ( j ) &times; w b l o c k ( j ) &Sigma; j = 1 M w b l o c k ( j )
其中:Qblock(j)和wblock(j)分别为图像中第j个宏块的质量评价值和权重,M为图像中宏块的总个数;
(5)根据每帧图像的客观质量Qframe结合人脑记忆模型,通过以下算式计算出待评价视频中每个图像组的客观质量QGOP
Q G O P = &Sigma; t = 1 T Q f r a m e ( t ) &times; w f r a m e ( t ) &Sigma; t = 1 T w f r a m e ( t ) w f r a m e ( t ) = c - f ( t ) r &times; 1 &mu;
其中:Qframe(t)为图像组中第t帧图像的客观质量,T为图像组的帧数,f(t)为图像组中第t帧图像距离关键帧的帧间隔,r为编码帧率,μ为给定的人脑记忆残留时间系数,c为给定的记忆模型参数;
进而根据以下算式计算出整段待评价视频的客观质量Q;
Q = a &times; &Sigma; k = 1 K Q G O P ( k ) &times; s ( k ) &Sigma; k = 1 K s ( k ) + b
其中:QGOP(k)为待评价视频中第k个图像组的客观质量,s(k)为待评价视频中第k个图像组的帧数,a和b均为给定的计算参数,K为待评价视频中图像组的个数。
2.根据权利要求1所述的无参考视频质量评价方法,其特征在于:所述的权重系数w1=0.8,w1=0.5,w3=0.2。
CN201510185462.XA 2015-04-17 2015-04-17 一种基于人脑记忆模型的无参考视频质量评价方法 Expired - Fee Related CN104796690B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510185462.XA CN104796690B (zh) 2015-04-17 2015-04-17 一种基于人脑记忆模型的无参考视频质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510185462.XA CN104796690B (zh) 2015-04-17 2015-04-17 一种基于人脑记忆模型的无参考视频质量评价方法

Publications (2)

Publication Number Publication Date
CN104796690A CN104796690A (zh) 2015-07-22
CN104796690B true CN104796690B (zh) 2017-01-25

Family

ID=53561168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510185462.XA Expired - Fee Related CN104796690B (zh) 2015-04-17 2015-04-17 一种基于人脑记忆模型的无参考视频质量评价方法

Country Status (1)

Country Link
CN (1) CN104796690B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105451016A (zh) * 2015-12-07 2016-03-30 天津大学 一种适用于视频监控系统的无参考视频质量评价方法
CN107888905B (zh) * 2017-10-27 2019-09-06 中国矿业大学 一种基于GoP显著性加权的视频质量评价方法
CN108881264B (zh) * 2018-07-03 2021-04-02 深圳市通立威科技有限公司 防卡顿视频传输与接收方法
CN109754390B (zh) * 2018-12-11 2023-04-07 西北大学 一种基于混合视觉特征的无参考图像质量评价方法
CN110363159A (zh) * 2019-07-17 2019-10-22 腾讯科技(深圳)有限公司 图像识别方法、装置、电子设备及计算机可读存储介质
CN111277899B (zh) * 2020-02-18 2021-06-22 福州大学 基于短期记忆和用户期望的视频质量评价方法
CN113724182A (zh) * 2020-05-21 2021-11-30 无锡科美达医疗科技有限公司 基于扩张卷积与注意力机制的无参考视频质量评价方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101621709A (zh) * 2009-08-10 2010-01-06 浙江大学 一种全参考型图像客观质量评价方法
WO2010004238A1 (en) * 2008-07-07 2010-01-14 British Telecommunications Public Limited Company Video quality measurement
CN102883179A (zh) * 2011-07-12 2013-01-16 中国科学院计算技术研究所 一种视频质量客观评价方法
CN103297801A (zh) * 2013-06-09 2013-09-11 浙江理工大学 一种针对视频会议的无参考视频质量评价方法
CN104243973A (zh) * 2014-08-28 2014-12-24 北京邮电大学 基于感兴趣区域的视频感知质量无参考客观评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004238A1 (en) * 2008-07-07 2010-01-14 British Telecommunications Public Limited Company Video quality measurement
CN101621709A (zh) * 2009-08-10 2010-01-06 浙江大学 一种全参考型图像客观质量评价方法
CN102883179A (zh) * 2011-07-12 2013-01-16 中国科学院计算技术研究所 一种视频质量客观评价方法
CN103297801A (zh) * 2013-06-09 2013-09-11 浙江理工大学 一种针对视频会议的无参考视频质量评价方法
CN104243973A (zh) * 2014-08-28 2014-12-24 北京邮电大学 基于感兴趣区域的视频感知质量无参考客观评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
无参考视频质量评价方法研究;林翔宇;《电子信息技术及仪器》;20131008;全文 *

Also Published As

Publication number Publication date
CN104796690A (zh) 2015-07-22

Similar Documents

Publication Publication Date Title
CN104796690B (zh) 一种基于人脑记忆模型的无参考视频质量评价方法
Zheng et al. Quality-of-experience assessment and its application to video services in LTE networks
CN103179405B (zh) 一种基于多级感兴趣区域的多视点视频编码方法
CN102970540B (zh) 基于关键帧码率-量化模型的多视点视频码率控制方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN102984541B (zh) 一种基于像素域失真度估计的视频质量评价方法
CN106412572B (zh) 一种基于运动特性的视频流编码质量评价方法
CN104023227B (zh) 一种基于空域和时域结构相似性的视频质量客观评价方法
CN104410860B (zh) 一种高清roi视频实时质量调节的方法
Moldovan et al. A novel methodology for mapping objective video quality metrics to the subjective MOS scale
CN108924554A (zh) 一种球形加权结构相似度的全景视频编码率失真优化方法
CN101404778A (zh) 综合的无参考视频质量评价方法
Kawano et al. Performance comparison of subjective assessment methods for 3D video quality
CN103297801A (zh) 一种针对视频会议的无参考视频质量评价方法
KR20130119328A (ko) 비디오 신호의 인코딩 또는 압축 중에 비디오 신호의 품질을 평가하는 방법 및 장치
CN104202594A (zh) 一种基于三维小波变换的视频质量评价方法
Xu et al. Consistent visual quality control in video coding
Konuk et al. A spatiotemporal no-reference video quality assessment model
Wang et al. A study on QoS/QoE correlation model in wireless-network
Anegekuh et al. Encoding and video content based HEVC video quality prediction
CN104010189B (zh) 一种基于色度共生矩阵加权的视频质量客观评价方法
Segura-Garcia et al. Performance evaluation of different techniques to estimate subjective quality in live video streaming applications over LTE-Advance mobile networks
CN101895787B (zh) 一种视频编码性能主观评价方法及系统
Wang et al. Quality assessment for MPEG-2 video streams using a neural network model
Tian et al. Motion activity based wireless video quality perceptual metric

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125

Termination date: 20170417

CF01 Termination of patent right due to non-payment of annual fee