CN104616324B - 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 - Google Patents

基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 Download PDF

Info

Publication number
CN104616324B
CN104616324B CN201510099974.4A CN201510099974A CN104616324B CN 104616324 B CN104616324 B CN 104616324B CN 201510099974 A CN201510099974 A CN 201510099974A CN 104616324 B CN104616324 B CN 104616324B
Authority
CN
China
Prior art keywords
template
metric
sample
point
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510099974.4A
Other languages
English (en)
Other versions
CN104616324A (zh
Inventor
王菡子
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201510099974.4A priority Critical patent/CN104616324B/zh
Publication of CN104616324A publication Critical patent/CN104616324A/zh
Application granted granted Critical
Publication of CN104616324B publication Critical patent/CN104616324B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

基于自适应表观模型和点‑集距离度量学习的目标跟踪方法,涉及计算机视觉技术。首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点‑集距离度量矩阵,并将该点‑集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点‑集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点‑集距离度量用来测量一个目标候选块与目标模板集之间的距离。具有很好的跟踪效果和鲁棒性。

Description

基于自适应表观模型和点-集距离度量学习的目标跟踪方法
技术领域
本发明涉及计算机视觉技术,具体是涉及一种基于自适应表观模型和点-集距离度量学习的目标跟踪方法。
背景技术
计算机视觉最初于上世纪60年代从数字图像领域分离开来,成为一个热门的研究方向,目前已广泛地应用于视频监控、人机交互、车辆导航、医疗诊断等诸多领域中。其中,目标跟踪是计算机视觉中的一项关键技术,同时它也是行为识别、目标理解等更高级视觉任务的基础。因此,对计算机视觉中的目标跟踪技术进行深入研究,不断提升跟踪的准确率和成功率,具有重要的理论意义和现实意义。目标跟踪近几年发展很快,许多鲁棒的算法被提出,这些算法在处理表观变化、遮挡和光照等方面有一定的效果。然而,以上诸多因素和重大表观变化等的影响,设计一个鲁棒的跟踪算法仍然是一个挑战性的任务。
一般地,目标跟踪算法可分成生成式和判别式两种。生成式算法在跟踪中是通过搜索与目标表观模型最相似的图像块进行目标定位。而判别式算法将跟踪看成一个二分类问题,在跟踪过程是通过学习一个分类器,将目标从相关的背景区域中区分开来。对于生成式跟踪算法,设计一个鲁棒的表观模型是关键,该表观模型对于因旋转、遮挡、光照和尺度等变化影响的表观变化应用较好的鲁棒性。目前,许多跟踪算法使用目标模板集建立目标表观模型。
距离度量学习作为一个有效的技术被成功地应用在目标跟踪中,在线学习的距离度量矩阵用来度量目标候选块与目标模板(集)之间的距离。然而,目前的这些跟踪算法通常是基于点-点距离度量学习方法。点-点距离度量方法一般不能直接测量一个目标候选块到目标模板集之间的距离。
最近,一些基于点-集距离度量算法被提出,并被应用在图像分类、人脸识别等任务中,具有较好的实验效果。在这些算法中,一个图像集被表示为一个仿射包或者凸包。
发明内容
本发明的目的在于提供基于自适应表观模型和点-集距离度量学习的目标跟踪方法。
本发明包括以下步骤:
1)输入视频序列的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重其中n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;利用粒子滤波框架,初始化m个粒子 每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤7),得到一个点-集距离度量矩阵M1
2)读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1),生成m个粒子(也就是目标候选块)
3)获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用稀疏编码字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图(Histograms of Sparse Codes,HSC),也就是该图像块的稀疏编码特征。
4)基于目标模板Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的观察概率
在这里,
在这里,LTL=Mt-1;并更新粒子的权重
5)结合粒子和粒子权重定位当前帧的目标位置
6)更新目标模板集得到当前的模板集Dt
7)根据当前帧的跟踪结果选取正、负学习样本S+、S-
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所用样本的集合,这里c=±1,+1表示正样本,-1表示负样本,表示所有类别为l(si)的样本中除了si以外的所用样本的集合;
使用以上选取的正、负样本,生成一组正样本对和一组负样本对
在这里正样本的类别表示为+1,负样本对表示为-1;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt
8)在粒子滤波框架下,根据粒子状态转换p(xt|xt-1)进行粒子传播和重采样;
9)不断重复步骤2)到步骤9)的过程,从而得到目标在每帧图像中状态
在步骤3)中,所述稀疏编码字典的每个元素为5×5的图像,字典中包含50个元素。
在步骤6)中,所述更新目标模板集得到当前的模板集Dt的具体方法可为:
(1)根据当前帧被估计的目标状态获取相应的图像块并提取对应的HSC特征yt
(2)计算目标系数向量通过以下公式:
在这里,LTL=Mt-1
(3)利用目标系数向量当前被估计的yt和目标模板集Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt←Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn]。
在步骤7)中,所述点-集距离度量矩阵更新方式为:
在上式中,μi +、μi -分别是Ci +和Ci -的权重,它们可以通过LIBSVM进行求解得到。
本发明首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点-集距离度量矩阵,并将该点-集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。
本发明根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点-集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点-集距离度量用来测量一个目标候选块与目标模板集之间的距离。本发明所涉及的跟踪方法具有很好的跟踪效果和鲁棒性。
具体实施方式
以下实施例对本发明的方法做详细说明,本实施例在本发明技术方案为前提下进行实施,给出了实施方式和具体操作过程,但本发明的保护范围不限于下述的实施例。
本发明实施例包括以下步骤:
S1.输入视频序列的的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重当n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;利用粒子滤波框架,初始化m个粒子 每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤S7),得到一个点-集距离度量矩阵M1
S101.输入视频序列的第一帧F1,手动选定被跟踪目标d1,然后在被选定的目标中心周围扰动几个像素,生成一组与被选定目标相同大小的图像块d2,…,dn,由这些图像块生成初始的目标模板集D1=[d1,d2,…,dn]。并给每个目标模板相应的权重当n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;
S102.利用粒子滤波框架,初始化m个粒子每个粒子的权重为
S103.选取正、负学习样本S+、S-,在这里,采用基于空间距离机制进行正、负样本的选取,也就是选取一些距离目标中心较近的图像块作为正样本,选取一些较远的图像块作为负样本。利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤S7),得到一个点-集距离度量矩阵M1
S2.读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1),生成m个粒子(也就是目标候选块)
S3.获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用该字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图(Histograms ofSparse Codes,HSC),也就是该图像块的稀疏编码特征。
S301.获取每个粒子对应的图像块,利用K-SVD算法学习一个稀疏编码字典;
S302.利用步骤S301所得到的稀疏编码字典,获取粒子对应的图像块中每个像素的稀疏编码,将得到的稀疏编码进行统计得到稀疏编码的直方图(即Histograms ofSparse Codes,HSC),从而得到图像块的HSC特征;
S303.在学习稀疏表示的过程中,稀疏字典的每个元素为5×5的图像,字典中包含50个元素;
S4.基于目标模板Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的
观察概率
在这里,
在这里,LTL=Mt-1;并更新粒子的权重
S5.结合粒子和粒子权重定位当前帧的目标位置
S6.更新目标模板集得到当前的模板集Dt
S601.根据当前帧被估计的目标状态获取相应的图像块并提取对应的HSC特征yt
S602.计算目标系数向量通过以下公式:
在这里,LTL=Mt-1
S603.利用目标系数向量当前被估计的yt和目标模板集Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt←Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn].
S7.根据当前帧的跟踪结果选取正、负学习样本S+、S-
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所用样本的集合,这里c=±1,+1表示正样本,-1表示负样本。表示所有类别为l(si)的样本中除了si以外的所用样本的集合。
使用以上选取的正、负样本,生成一组正样本对和一组负样本对
在这里正样本的类别表示为+1,负样本对表示为-1;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt
S701.基于当前帧的跟踪结果采用基于空间距离机制进行正、负样本的选取,选取一组正样本S+和一组负样本S-,使用表示一个样本向量,l(si)表示样本si的类别,c=±1,+1表示正样本,-1表示负样本;
S702.Sc表示样本类别为c的所用样本的集合,表示所有类别为l(si)的样本中除了si以外的所用样本的集合;使用以上选取的正、负样本,生成一组正样本对和一组负样本对在这里 正样本的类别表示为+1,负样本对表示为-1;
S703.在点-集距离度量学习过程中,正、负样本对和度量矩阵交替进行更新。点-集距离度量矩阵更新方式为:
在上式中,μi +、μi -分别是Ci +和Ci -的权重,它们可以通过LIBSVM进行求解得到。
S8.在粒子滤波框架下,根据粒子状态转换p(xt|xt-1)进行粒子传播和重采样。
S9.不断重复步骤S2到步骤S9的过程,从而得到目标在每帧图像中状态

Claims (4)

1.基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于包括以下步骤:
1)获得度量矩阵的方法为输入视频序列的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重其中i=1,2,…,n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重;利用粒子滤波框架,初始化m个粒子每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习,得到一个点-集距离度量矩阵M1
2)读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1)生成m个粒子
3)获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用稀疏编码字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图,也就是该图像块的稀疏编码特征;
4)基于目标模板字典Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的观察概率
p ( y t j | x t j ) ∝ exp { - σ ( d M t - 1 ( y t , D t - 1 ) ) } ,
d M t - 1 ( y t j , D t - 1 α ^ ) = ( y t j - D t - 1 α ^ ) T M t - 1 ( y t j - D t - 1 α ^ ) ,
α ^ = min α | | Ly t - LD t - 1 α | | 2 2 + λ | | α | | 2 2 , s . t . Σ i = 1 n α i = 1 ;
LTL=Mt-1,并更新粒子的权重yt为图像块HSC特征;
5)结合粒子和粒子权重定位当前帧的目标位置
6)更新目标模板字典得到当前的模板字典Dt
7)根据当前帧的目标位置选取正、负学习样本S+、S-
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所有样本的集合,这里c=±1,+1表示正样本,-1表示负样本,表示所有类别为l(si)的样本中除了si以外的所有样本的集合;
使用以上选取的正、负样本,生成一组正样本对和一组负样本对在这里 其中M为点-集距离度量矩阵,I为单位矩阵用于组成正则项;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt,从而实现点-集距离度量矩阵更新;
8)在粒子滤波框架下,根据运动模型p(xt|xt-1)进行粒子传播和重采样;
9)不断重复步骤2)到步骤9)的过程,从而得到目标在每帧图像中的目标位置
2.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤3)中,所述稀疏编码字典的每个元素为5×5的图像,字典中包含50个元素。
3.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤6)中,所述更新目标模板字典得到当前的模板字典Dt的具体方法为:
(1)根据当前帧被估计的目标位置获取相应的图像块并提取对应的HSC特征yt
(2)利用目标系数向量当前被估计的yt和目标模板字典Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt=Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn]。
4.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤7)中,所述点-集距离度量矩阵更新的方式为:
M = Σ i = 1 b ( μ i - C i - - μ i + C i + ) ,
在上式中, μi +、μi -分别是Ci +和Ci -的权重,通过LIBSVM进行求解得到。
CN201510099974.4A 2015-03-06 2015-03-06 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 Expired - Fee Related CN104616324B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510099974.4A CN104616324B (zh) 2015-03-06 2015-03-06 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510099974.4A CN104616324B (zh) 2015-03-06 2015-03-06 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104616324A CN104616324A (zh) 2015-05-13
CN104616324B true CN104616324B (zh) 2017-07-28

Family

ID=53150757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510099974.4A Expired - Fee Related CN104616324B (zh) 2015-03-06 2015-03-06 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104616324B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023024B (zh) * 2015-07-23 2017-09-22 湖北大学 一种基于正则化集合度量学习的遥感图像分类方法及系统
CN106599833B (zh) * 2016-12-12 2019-06-25 武汉科技大学 一种基于领域适应和流形距离度量的人脸识别方法
CN107341817B (zh) * 2017-06-16 2019-05-21 哈尔滨工业大学(威海) 基于在线度量学习的自适应视觉跟踪算法
CN107491761B (zh) * 2017-08-23 2020-04-03 哈尔滨工业大学(威海) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
CN108734151B (zh) * 2018-06-14 2020-04-14 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN109509180B (zh) * 2018-10-24 2021-12-10 东华大学 基于机器视觉的金属纽扣瑕疵检测方法
CN109934849B (zh) * 2019-03-08 2022-05-31 西北工业大学 基于轨迹度量学习的在线多目标跟踪方法
CN110135366B (zh) * 2019-05-20 2021-04-13 厦门大学 基于多尺度生成对抗网络的遮挡行人重识别方法
CN112085765B (zh) * 2020-09-15 2024-05-31 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750533A (zh) * 2012-07-05 2012-10-24 重庆大学 基于形态成份稀疏表示的红外小弱目标检测方法
CN103530894A (zh) * 2013-10-25 2014-01-22 合肥工业大学 一种基于多尺度块稀疏表示的视频目标追踪方法及其系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750533A (zh) * 2012-07-05 2012-10-24 重庆大学 基于形态成份稀疏表示的红外小弱目标检测方法
CN103530894A (zh) * 2013-10-25 2014-01-22 合肥工业大学 一种基于多尺度块稀疏表示的视频目标追踪方法及其系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Matting-Driven Online Learning of Hough Forests for Object Tracking;Tao Qin等;《21st International Conference On Pattern Recognition》;20121115;第2488-2491页 *
融合背景信息的分块稀疏表示跟踪算法;侯跃恩等;《华南理工大学学报(自然科学版)》;20130831;第41卷(第8期);第21-27页 *

Also Published As

Publication number Publication date
CN104616324A (zh) 2015-05-13

Similar Documents

Publication Publication Date Title
CN104616324B (zh) 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法
CN107203781B (zh) 一种基于显著性指导的端到端的弱监督目标检测方法
US9971958B2 (en) Method and system for generating multimodal digital images
CN103984959B (zh) 一种基于数据与任务驱动的图像分类方法
CN103544483B (zh) 一种基于局部稀疏表示的联合目标追踪方法及其系统
CN108399435B (zh) 一种基于动静特征的视频分类方法
CN109711262B (zh) 一种基于深度卷积神经网络的智能挖掘机行人检测方法
CN107481188A (zh) 一种图像超分辨率重构方法
CN108109162B (zh) 一种利用自适应特征融合的多尺度目标跟踪方法
CN106204646A (zh) 基于bp神经网络的多运动目标跟踪方法
CN104408405B (zh) 人脸表示和相似度计算方法
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
CN107369166A (zh) 一种基于多分辨率神经网络的目标跟踪方法及系统
CN104881029B (zh) 基于一点ransac和fast算法的移动机器人导航方法
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN106203350B (zh) 一种运动目标跨尺度跟踪方法和装置
CN101777184B (zh) 基于局部距离学习和排序队列的视觉目标跟踪方法
CN114170212A (zh) 一种基于ct影像中肺小结节假阳检测方法及系统
Ibrahem et al. Real-time weakly supervised object detection using center-of-features localization
Cao et al. Detection of microalgae objects based on the Improved YOLOv3 model
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN108009512A (zh) 一种基于卷积神经网络特征学习的人物再识别方法
CN104408748B (zh) 一种基于视频帧间低秩关联信息一致性的实时物体追踪方法
CN106127806A (zh) 一种基于深度玻尔兹曼机跨模式特征学习的rgb‑d目标跟踪方法
CN106530330A (zh) 基于低秩稀疏的视频目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170728