CN108398139B - 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 - Google Patents
一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 Download PDFInfo
- Publication number
- CN108398139B CN108398139B CN201810171534.9A CN201810171534A CN108398139B CN 108398139 B CN108398139 B CN 108398139B CN 201810171534 A CN201810171534 A CN 201810171534A CN 108398139 B CN108398139 B CN 108398139B
- Authority
- CN
- China
- Prior art keywords
- map
- image
- static
- point
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,属于移动机器人同步定位与地图构建技术领域。本发明同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。本发明对地图进行初始化,将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数以及一个用于标识该地图点为静态、动态或者未知的地图点属性。本发明克服了传统视觉里程计无法适应动态环境的缺点,结合鱼眼图像与深度图像的信息实现一种动态环境下的视觉里程计。
Description
技术领域
本发明涉及移动机器人同步定位与地图构建(SLAM)技术领域,尤其是适用于动态环境的基于鱼眼图像与深度图像的视觉里程计方法。
背景技术
定位技术是移动机器人实现各项复杂任务的技术基础。里程计便是一类简单有效的定位方法,目前主要的里程计方法有轮式里程计和视觉里程计等。轮式里程计通过安装在车轮上的编码器,对各个车轮的行驶距离进行采集,根据轮式机器人运动学模型解算出机器人相对于初始位置的位姿。显然这种方法只适用于平面运动的轮式移动机器人,无法应用于腿式、轮腿式、履带式等结构形式的移动机器人。另外,由于轮子打滑、传动误差等因素的影响,造成轮式里程计的累计误差增大。视觉里程计采用视觉传感器,利用特征匹配、摄影几何、最优化等技术估计机器人的位姿,可以实现三维空间六自由度的运动估计,且不受轮子打滑的影响。鉴于上述优点,视觉里程计已经在水下机器人、无人机、腿式机器人、野外轮式机器人等领域得到了广泛的应用。
自从美国学者Nister于2004年提出视觉里程计的概念以来,涌现出了大量的视觉里程计算法。但是,大部分主流算法均具有一个很强的假设:机器人的运行环境是静态不变的。然而,实际环境中充满了各种各样运动的物体,如办公室内行走的职员、公路上运动的车辆等。这些运动物体,阻碍了传统算法在实际环境中的应用。
视觉里程计采用的相机有单目、双目、多目、RGB-D相机等。相比之下,RGB-D相机不仅能够采集彩色图像,还能够提供每个像素的深度信息,可以有效减少算法的复杂性,提高运动估计的精度。但是,大部分RGB-D相机的视场范围小。当相机进行快速旋转时,由于帧间图像重叠率低和运动模糊等原因,极易发生运动估计失败。
发明内容
本发明的目的在于克服传统视觉里程计无法适应动态环境的缺点,结合鱼眼图像与深度图像的信息实现一种动态环境下的视觉里程计。
本发明所提出的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。
本发明所提出的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,首先对地图进行初始化,将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数si,初始化为0;每个地图点具有一个用于标识该地图点为静态、动态或者未知的地图点属性。
所述跟踪线程包括以下步骤:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,……。
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn;
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一图像帧Fn-1的特征集中指向静态地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法解算出图像帧Fn的初始位姿
其中,i=1,2,3,4……,表示匹配点对的个数,为图像帧Fn的位姿,为优化后的图像帧Fn的最优位姿。以步骤3得到的初始位姿为初值,利Levenberg-Marquardt方法得到图像帧Fn的最优位姿
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm,或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd,则将图像帧Fn构建为关键帧,并加入关键帧队列。
所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像Ifn中间大小w×h像素区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素区域外的特征点,利用极线搜索的方法在其他关键帧上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧KFo的鱼眼图像上,计算KFo上投影点的ORB描述子计算描述子与关键帧KFn对应特征的描述子的汉明距离,j=1,2,3,……,表示描述子个数。如果汉明距离少于阈值Thh,则静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,该地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc的关键帧;
步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化。
所述地图点滤波线程包括以下步骤:
步骤(III),如果步骤(II)中汉明距离小于阈值Thh,则地图点的静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,则地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态。
本发明的优点在于:
1.能够有效排除动态物体对视觉里程计的干扰,可在实际动态环境下运行。
2.相比于传统视觉里程计,在动态环境下的运动估计精度更高。
3.对快速运动、纯旋转等运动形式具有更强的稳健性。
4.利用鱼眼相机+深度相机的硬件配置方式,图像处理工作量小,效率高。
附图说明
图1为本发明的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法流程图。
图2为本发明所采用的地图中地图点的构成示意图。
具体实施方式
下面将结合附图对本发明做进一步的详细说明。
如图1所示,本发明同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。
本发明采用的相机为Intel Realsense ZR300,该相机同时提供鱼眼图像和深度图像,鱼眼图像和深度图像的大小均为640×480像素。
本发明提供的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,包括地图初始化、跟踪线程、地图构建线程和地图点滤波线程四个部分,其中三个线程并行运行。本发明将地图划分为关键帧和地图点两部分,如图2所示,每个地图点具有一个静态指数si,以及一个用于标识该地图点为静态、动态或者未知的地图点属性。
系统的运行依赖于地图,地图初始化具体步骤如下:
步骤1,同步采集鱼眼图像If1和深度图像Id1,构建成图像帧F1;
步骤2,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像If1中间大小w×h(如320×240像素)区域的图像提取ORB特征;
步骤3,对步骤2中提取到的每个ORB特征,在深度图Id1中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化所述的地图点的静态指数si=0,属性为静态。
所述跟踪线程的具体步骤如下:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,…;
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn;
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一帧Fn-1的特征集中指向属性为静态的地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法(常用方法有EPnP、P3P、UPnP等)解算出图像帧Fn的初始位姿
步骤4,将地图中所有的属性为静态的地图点投影到图像帧Fn,与图像帧Fn中的特征集kn进行匹配,形成3D静态地图点到2D图像特征ui之间的匹配点对集合{pw u},利用鱼眼相机投影模型π,构建优化方程:
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm(如100),或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd(如0.2m),则将图像帧Fn构建为关键帧,并加入关键帧队列。
所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,对鱼眼图像Ifn中间大小w×h(如320×240像素)区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素(如320×240像素)区域外的特征点,利用极线搜索的方法在其他关键帧(关键帧队列中除关键帧KFn以外的所有关键帧)上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧的鱼眼图像上获得投影点,计算所述投影点的ORB描述子计算每一个描述子与关键帧KFn对应特征的描述子的汉明距离,如果汉明距离少于阈值Thh(如30),则静态指数加1,否则静态指数减1。如果累加后的静态指数大于阈值Ths(如10),该地图点的属性变为静态,如果静态指数小于阈值Thdy(如-3),则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc(如20)的关键帧;
步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化。
所述地图点滤波线程包括以下步骤:
Claims (1)
1.一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,使用鱼眼图像和深度图像的信息;首先对地图进行初始化然后采用跟踪线程、地图构建线程和地图点滤波线程三个线程并行运行;
将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数si,以及一个用于标识该地图点为静态、动态或者未知的地图点属性,
步骤1,同步采集鱼眼图像If1和深度图像Id1,构建成图像帧F1;
步骤2,对鱼眼图像If1中间大小w×h区域的图像提取ORB特征;
步骤3,对步骤2中提取到的每个ORB特征,在深度图Id1中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化所述的地图点的静态指数si=0,属性为静态;
其特征在于:
所述跟踪线程包括以下步骤:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,……;
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn;
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一图像帧Fn-1的特征集中指向静态地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法解算出图像帧Fn的初始位姿
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm,或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd,则将图像帧Fn构建为关键帧,并加入关键帧队列;
所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像Ifn中间大小w×h像素区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素区域外的特征点,利用极线搜索的方法在其他关键帧上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧KFo的鱼眼图像上,计算KFo上投影点的ORB描述子计算描述子与关键帧KFn对应特征的描述子的汉明距离,j=1,2,3,……,表示描述子个数;如果汉明距离少于阈值Thh,则静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,该地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc的关键帧;
步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化;
所述地图点滤波线程包括以下步骤:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810171534.9A CN108398139B (zh) | 2018-03-01 | 2018-03-01 | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810171534.9A CN108398139B (zh) | 2018-03-01 | 2018-03-01 | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108398139A CN108398139A (zh) | 2018-08-14 |
CN108398139B true CN108398139B (zh) | 2021-07-16 |
Family
ID=63091414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810171534.9A Expired - Fee Related CN108398139B (zh) | 2018-03-01 | 2018-03-01 | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108398139B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145251B (zh) * | 2018-11-02 | 2024-01-02 | 深圳市优必选科技有限公司 | 一种机器人及其同步定位与建图方法和计算机存储设备 |
CN109682385A (zh) * | 2018-11-05 | 2019-04-26 | 天津大学 | 一种基于orb特征的即时定位与地图构建的方法 |
CN109509230B (zh) * | 2018-11-13 | 2020-06-23 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
CN111274847B (zh) * | 2018-12-04 | 2023-04-07 | 上海汽车集团股份有限公司 | 一种定位方法 |
CN109737950B (zh) * | 2019-01-28 | 2020-04-17 | 智真海洋科技(威海)有限公司 | 基于vio和动力学模型的水下机器人定位系统及方法 |
CN110108258B (zh) * | 2019-04-09 | 2021-06-08 | 南京航空航天大学 | 一种单目视觉里程计定位方法 |
CN110361005B (zh) * | 2019-06-26 | 2021-03-26 | 达闼机器人有限公司 | 定位方法、定位装置、可读存储介质及电子设备 |
CN111724439B (zh) * | 2019-11-29 | 2024-05-17 | 中国科学院上海微系统与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN113537171B (zh) * | 2021-09-16 | 2021-12-21 | 北京易航远智科技有限公司 | 一种slam地图的划分方法 |
CN114769021B (zh) * | 2022-04-24 | 2022-11-25 | 广东天太机器人有限公司 | 一种基于全角度模板识别的机器人喷涂系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202512438U (zh) * | 2012-02-19 | 2012-10-31 | 陶重犇 | 一种鱼眼摄像头的移动机器人slam平台 |
CN103646391A (zh) * | 2013-09-30 | 2014-03-19 | 浙江大学 | 一种针对动态变化场景的实时摄像机跟踪方法 |
CN105809687A (zh) * | 2016-03-08 | 2016-07-27 | 清华大学 | 一种基于图像中边沿点信息的单目视觉测程方法 |
CN105869136A (zh) * | 2015-01-22 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 一种基于多摄像机的协作式视觉slam方法 |
CN106534766A (zh) * | 2015-09-09 | 2017-03-22 | 广州市维安电子技术有限公司 | 一种使用ptz摄像机对目标进行自动跟踪的方法及装置 |
CN206100245U (zh) * | 2016-10-14 | 2017-04-12 | 成都通甲优博科技有限责任公司 | 360度全景深度摄像机 |
CN107154014A (zh) * | 2017-04-27 | 2017-09-12 | 上海大学 | 一种实时彩色及深度全景图像拼接方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140204083A1 (en) * | 2013-01-23 | 2014-07-24 | Brent Thomson | Systems and methods for real-time distortion processing |
-
2018
- 2018-03-01 CN CN201810171534.9A patent/CN108398139B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202512438U (zh) * | 2012-02-19 | 2012-10-31 | 陶重犇 | 一种鱼眼摄像头的移动机器人slam平台 |
CN103646391A (zh) * | 2013-09-30 | 2014-03-19 | 浙江大学 | 一种针对动态变化场景的实时摄像机跟踪方法 |
CN105869136A (zh) * | 2015-01-22 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 一种基于多摄像机的协作式视觉slam方法 |
CN106534766A (zh) * | 2015-09-09 | 2017-03-22 | 广州市维安电子技术有限公司 | 一种使用ptz摄像机对目标进行自动跟踪的方法及装置 |
CN105809687A (zh) * | 2016-03-08 | 2016-07-27 | 清华大学 | 一种基于图像中边沿点信息的单目视觉测程方法 |
CN206100245U (zh) * | 2016-10-14 | 2017-04-12 | 成都通甲优博科技有限责任公司 | 360度全景深度摄像机 |
CN107154014A (zh) * | 2017-04-27 | 2017-09-12 | 上海大学 | 一种实时彩色及深度全景图像拼接方法 |
Non-Patent Citations (3)
Title |
---|
3D omni-directional vision SLAM using a fisheye lens laser scanner(Article);Yun Won Choi 等;《Journal of Institute of Control, Robotics and Systems》;20151231;第21卷(第07期);第634-640页 * |
基于单目视觉的同时定位与地图构建方法综述;刘浩敏 等;《计算机辅助设计与图形学学报》;20160630;第28卷(第06期);第855-868页 * |
基于鱼眼镜头的双目立体视觉匹配算法 的研究;熊文莉;《中国优秀硕士学位论文全文数据库信息科技辑》;20180215;第I138-3846页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108398139A (zh) | 2018-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108398139B (zh) | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
Han et al. | Deepvio: Self-supervised deep learning of monocular visual inertial odometry using 3d geometric constraints | |
CN108520554B (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
CN108615246B (zh) | 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法 | |
CN111914715B (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
US11948310B2 (en) | Systems and methods for jointly training a machine-learning-based monocular optical flow, depth, and scene flow estimator | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
Jia et al. | A Survey of simultaneous localization and mapping for robot | |
Chen et al. | A full density stereo matching system based on the combination of CNNs and slanted-planes | |
CN113223045A (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN104240217B (zh) | 双目摄像头图像深度信息获取方法及装置 | |
CN111882602A (zh) | 基于orb特征点和gms匹配过滤器的视觉里程计实现方法 | |
Wang et al. | Joint unsupervised learning of optical flow and depth by watching stereo videos | |
CN116468786A (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
Tang et al. | Fmd stereo slam: Fusing mvg and direct formulation towards accurate and fast stereo slam | |
Lu et al. | An Unsupervised Approach for Simultaneous Visual Odometry and Single Image Depth Estimation | |
Lin et al. | Contour-SLAM: A robust object-level SLAM based on contour alignment | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
WO2022120988A1 (zh) | 基于混合2d卷积和伪3d卷积的立体匹配方法 | |
Liu et al. | Accurate real-time visual SLAM combining building models and GPS for mobile robot | |
Cigla et al. | Gaussian mixture models for temporal depth fusion | |
Sun et al. | A multisensor-based tightly coupled integrated navigation system | |
Zhao et al. | A review of visual SLAM for dynamic objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210716 |
|
CF01 | Termination of patent right due to non-payment of annual fee |