CN105938619A - 一种融合RGB和Depth信息的视觉里程计实现方法 - Google Patents

一种融合RGB和Depth信息的视觉里程计实现方法 Download PDF

Info

Publication number
CN105938619A
CN105938619A CN201610219378.XA CN201610219378A CN105938619A CN 105938619 A CN105938619 A CN 105938619A CN 201610219378 A CN201610219378 A CN 201610219378A CN 105938619 A CN105938619 A CN 105938619A
Authority
CN
China
Prior art keywords
rgb
image
depth
point
rgb image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610219378.XA
Other languages
English (en)
Inventor
缪燕子
许红盛
金慧杰
金鑫
卜淑萍
李晓东
周笛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201610219378.XA priority Critical patent/CN105938619A/zh
Publication of CN105938619A publication Critical patent/CN105938619A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种融合RGB和Depth信息的视觉里程计的实现方法。现有的视觉里程计方法都是基于单目和双目相机,只能得到环境的RGB信息,无法直接获取环境的三维信息,其适用的环境受到限制,且精度不高。基于RGB图像匹配的定位方法具有技术成熟、处理速度快的特点;基于Depth图像匹配的定位方法具有对环境变化鲁棒的特点。本发明结合两者优点,利用RGB‑D传感器同时获取场景的RGB和Depth信息,提出了一种融合RGB和Depth信息的视觉里程计的实现方法。本发明合理利用2D/3D两种模态的信息,突破视觉系统对光照条件的依赖,大大提高了里程计系统的精确性、鲁棒性和实用性,拓宽移动机器人的应用时间和空间。

Description

一种融合RGB和Depth信息的视觉里程计实现方法
技术领域
本发明属于移动机器人自主导航与定位领域,特别是涉及一种融合RGB和Depth信息的视觉里程计实现方法。
背景技术
里程计在机器人导航定位过程中有着至关重要的作用。视觉里程计是一种依靠视觉信息测算机器人运动距离和方向的方法,解决了驱动轮空转或打滑造成的累积误差以及惯导漂移造成的测量错误,依靠视觉输入信息,信息量大、结构简单、功耗小,无需场景及运动的先验信息,是传统方法的有效补充。
目前,视觉里程计主要依靠单目或双目相机得到的图像序列,通过特征提取、特征匹配与跟踪和运动估计得出机器人的运动参数。
单目视觉里程计是在假定路面平坦的情况下,通过标定得到路面上点的世界坐标与图像坐标之间的对应关系,然后将机器人运动前后得到的两帧图像中相同的点进行匹配,利用运动估计算法求得机器人运动参数。单目视觉里程计最大的局限在于只能处理位于一个平面上的场景点,无法精确得到场景的三维信息,因此当路面存在起伏或凸出的部分时算法会失效。
双目视觉里程计,又叫立体视觉里程计。通过配置多个相机,系统用三角测量的方法获得视野的景深信息,从而直接获得图像特征点对应的世界三维坐标。但是双目视觉里程计的设备结构复杂,安装不便,图像处理工作量大,价格昂贵。
单目和双目视觉里程计都是通过相机的标定,用三角测量法间接得到环境的三维信息,很难满足精度要求;且2D视觉传感器获得的环境颜色、纹理等信息易受到光照、天气、气候、季节等条件变化的影响,具有一定的局限性。
下面所述的专利文献1公开了基于RGB-D相机的视觉里程计方法。在该文献中示出了以下方法:RGB-D相机通过USB接口或(1394接口)与电脑主机相连,依靠RGB-D相机得到的对齐RGB-D图像序列,通过前后帧图像的特征提取、特征匹配与跟踪和运动估计得出车体的运动距离和方向。
专利文献1:中国专利“基于RGB-D相机的视觉里程计方法”,专利号201210151424.9。
通过采用上述的构成,可以获取精确的场景三维信息,运动估计结果精确可靠,但是当获取的RGB图像质量不高,存在色偏、模糊度或亮度异常时,其方法对图像的特征提取不准确,甚至提取不到特征点,从而影响特征匹配与运动估计的结果。
发明内容
本发明鉴于上述问题而提出,目的在于提供一种融合RGB和Depth信息的视觉里程计的 实现方法,将2D和3D图像匹配方法进行融合,用于解决现有视觉里程计存在的局限性问题。
本发明采用的技术方案步骤如下:
1)以时间T为周期,利用Kinect传感器采集环境信息,并输出有序列的RGB图像和Depth图像;
2)根据时间轴的先后顺序,依次选取RGB图像和Depth图像 将Depth图像转换为三维pcd格式的点云图像
3)对选取的RGB图像进行亮度、色偏和模糊度检测,判断其图像质量β。对亮度参数、色偏参数、模糊度参数进行计算,若亮度参数L=1,色偏参数C=1,模糊度参数F=1,则RGB图像质量好,β=1;否则RGB图像质量差,β=0。
4)根据步骤3)中的判断结果,对2D/3D两种模态的配准方法进行选择。若β=1,则利用RGB图像进行特征点提取和描述,并使用随机采样一致性算法进行粗配准;若β=0,则首先对点云图像进行多分辨率降采样来提高点云处理速度,然后进行特征点提取和描述,并使用采样一致性初始配准算法进行粗配准;
5)对步骤4)中得到的粗配准结果,使用迭代最近点算法进行进一步的精配准,得到更精确的配准结果,最终得到运动参数估计。
由于上述技术方案的应用,本发明与现有技术相比具有下列优点:
1)依靠视觉输入信息,不存在因编码器读数不准或惯导漂移等因素造成的误差;
2)由于本发明根据不同需求选用不同的前后帧匹配算法和刚体运动估计方法,合理利用2D/3D这两种模态的信息,突破视觉系统对光照条件的依赖,能够大大提高里程计系统的鲁棒性和实用性,拓宽移动机器人的应用时间和空间;
3)本发明可获取精确的场景三维信息,运动估计结果精确可靠。
附图说明
下面基于附图来详细描述本发明的实施方式,附图中:
附图1是本发明的工作流程图。
具体实施方式
下面结合附图及实施例对本发明作进一步详述:
如图1所示,一种融合RGB和Depth信息的视觉里程计的实现方法包括如下步骤:
1)以时间T为周期,使用Kinect传感器采集环境信息,并输出有序列的RGB图像和Depth 图像;
2)根据时间轴的先后顺序,依次选取RGB图像和Depth图像将Depth图像转换为三维pcd格式的点云图像
3)对选取的RGB图像进行亮度、色偏和模糊度检测,判断其图像质量β。对亮度参数、色偏参数、模糊度参数进行计算,若亮度参数L=1,色偏参数C=1,模糊度参数F=1,则RGB图像质量好,β=1;否则RGB图像质量差,β=0;
4)根据步骤3)中的判断结果,对2D/3D两种模态的配准方法进行选择。若β=1,则利用RGB图像进行特征点提取和描述,并使用随机采样一致性算法进行粗配准;若β=0,则首先对点云图像进行多分辨率降采样来提高点云处理速度,然后进行特征点提取和描述,并使用采样一致性初始配准算法进行粗配准;
5)对步骤4)中得到的粗配准结果,使用迭代最近点算法进行进一步的精配准,得到更精确的配准结果,最终得到运动参数估计。
以上所述步骤3)中,对RGB图像质量判断,包括如下步骤:
1)亮度检测:把RGB图像转换到灰度图像,计算图像在灰度图上的均值和方差。若亮度正常,则亮度参数L=1;
2)色偏检测:将RGB图像转变到CIE L*a*b*空间,其中L*表示图像亮度,a*表示图像红/绿分量,b*表示图像黄/蓝分量。计算图像在a*和b*分量上的均值和方差。若无色偏,则色偏参数C=1;
3)模糊度检测:计算RGB图像的梯度信息。若图像清晰,则模糊度参数F=1;
4)若L=1,C=1,F=1,则图像质量好,β=1;否则图像质量差,β=0。
以上所述步骤4)中,若β=1,则利用RGB图像进行粗配准,包括如下步骤:
1)对RGB图像进行特征点提取和描述,得到特征点集 以及特征点集对应的特征描述符
2)对于特征点集中的每一个特征点从特征点集中找到与特征点的特征描述符最相近的特征点。若特征点与特征点之间欧式距离小于阈值Thkey,则记录特征点与特征点为相匹配的一对特征点对,表示为否则,特征点集中没有与特征点相匹配的特征点;
3)将相匹配的所有特征点对从RGB图像中映射到点云图像中;
4)对得到的特征点对集合使用随机采样一致性算法进行筛选,获得较优的用于确定运动参数的三维对应点,得到粗配准的旋转矩阵R和平移矩阵T。
随机采样一致性算法步骤如下:
对特征点对集合进行多次随机抽样,每次从中随机选取n对特征点对,根据这n对特征点对及其对应的估计刚体的运动参数的方法算出两帧图像间的运动参数,即旋转矩阵R和平移向量T,其中n为正整数;
对于所有的特征点对,计算前帧图像中的特征点经过旋转矩阵R和平移向量T后的三维坐标:若该坐标与后帧图像中对应的特征点的欧氏距离小于阈值Thransac,则该特征点属于内样本点;若该坐标与后帧图像中对应的特征点的欧氏距离大于等于阈值Thransac,则该特征点属于外样本点;
经过m次随机取样试验后,选择内点数目最多的那次随机取样试验,其中m为正整数;将该次取样试验所取的特征点对,作为最终筛选的用于确定运动参数的三维点对;将该次取样试验所估计的运动参数,作为最终确定的运动参数。
若β=0,则利用点云图像进行粗配准,包括如下步骤:
1)为了提高点云处理速度并且能较好的保持图像原始特征,对点云图像进行多分辨率降采样。首先对分别进行栅格划分,得到栅格的中心点。然后计算所有中心点的曲率值,若曲率值大于等于阈值Thcur,则该栅格以分辨率r进行体素网格滤波;若曲率值小于阈值Thcur,则该栅格以分辨率2r进行体素网格滤波,最终得到降采样后的 点云
2)对点云图像进行特征点提取和描述,得到特征点集 以及特征点集对应的特征描述符
3)对得到的特征点对集合使用采样一致性初始配准算法进行配准,得到粗配准的旋转矩阵R和平移矩阵T。
采样一致性初始配准算法步骤如下:
从特征点集中选择s个样本点,其中s为正整数,同时确定它们的配对距离大于用户设定的最小值dmin
对s个样本点,在特征点集中分别找到满足相似度条件的点存入一个列表中。随机选择一些代表采样点的对应关系;
根据两个特征点集的对应关系计算刚体变换矩阵,并通过计算度量错误来评价转换矩阵的质量。度量错误可由Huber评价公式决定:
其中ei为第i组对应点在变换之后的距离差,te为给定阈值。
重复这三个步骤直至达到最佳度量错误结果。最后使用Levenberg-Marquardt算法进行非线性局部优化。
以上所述步骤5)中,使用迭代最近点算法进行精配准,包括如下步骤:
1)根据粗配准结果的距离均方误差fitnessscore,设置迭代最近点算法收敛判断条件TransformationEpsilon的参数。若fitnessscore<0.0001,则TransformationEpsilon=1e-6;若fitnessscore>=0.0001,则TransformationEpsilon=1e-5;
2)利用粗配准获得的旋转矩阵R和平移矩阵T,根据公式(2)将点云中的每个点pi的坐标(x,y,z)变换到点云所在的坐标系下得到点p'i(x',y',z'),将转换
得到的点云记为I′filter
p′i=pi×R+T (2)
对点云I′filter中的任一点p'i,计算改点与点云中的每个点之间的欧氏距离,选取点云中与其欧氏距离最小的点qi,这样便得到一组对应点对(pi,qi)。对点云I′D中的所有点进行以上操作,最终得到匹配点集;
3)利用该点集计算配准参数,计算使得误差函数(3)最小时的旋转矩阵Rn和平移矩阵Tn作为新的配准参数;
其中n为点对数目。
4)将新的配准参数用于点云I′filter中的任一点pi得到新的点集;
5)设定迭代次数阈值iter=100,重复迭代上述步骤。迭代结束即可得到精配准的配准结果,从而得到精确的运动参数。

Claims (4)

1.一种融合RGB和Depth信息的视觉里程计实现方法,其特征在于该方法包括的步骤为:
1)以时间T为周期,使用Kinect传感器采集环境信息,并输出有序列的RGB图像和Depth图像;
2)根据时间轴的先后顺序,依次选取RGB图像和Depth图像
将Depth图像转换为三维pcd格式的点云图像
3)对选取的RGB图像进行亮度、色偏和模糊度检测,判断其图像质量β。对亮度参数、色偏参数、模糊度参数进行计算,若亮度参数L=1,色偏参数C=1,模糊度参数F=1,则RGB图像质量好,β=1;否则RGB图像质量差,β=0。
4)根据步骤3)中的判断结果,对2D/3D两种模态的配准方法进行选择。若β=1,则利用RGB图像进行特征点提取和描述,并使用随机采样一致性算法进行粗配准;若β=0,则首先对点云图像进行多分辨率降采样来提高点云处理速度,然后进行特征点提取和描述,并使用采样一致性初始配准算法进行粗配准;
5)对步骤4)中得到的粗配准结果,使用迭代最近点算法进行进一步的精配准,得到更精确的配准结果,最终得到运动参数估计。
2.根据权利要求1所述的一种融合RGB和Depth信息的视觉里程计实现方法,其特征在于:所述步骤4)中,根据RGB图像质量的判断结果,选择合适的模态信息进行图像配准。若RGB图像质量高,则利用RGB图像进行配准;若RGB图像质量差,则利用Depth图像进行配准。
3.根据权利要求1所述的一种融合RGB和Depth信息的视觉里程计实现方法,其特征在于:所述步骤4)中,在点云图像配准之前,对点云图像进行多分辨率降采样。对点云图像分别进行栅格划分,得到栅格的中心点。然后计算所有中心点的曲率值,若曲率值大于等于阈值Thcur,则该栅格以分辨率r进行体素网格滤波;若曲率值小于阈值Thcur,则该栅格以分辨率2r进行体素网格滤波。
4.根据权利要求1所述的一种融合RGB和Depth信息的视觉里程计的设计方法,其特征在于:所述步骤5)中,根据粗配准结果的距离均方误差fitnessscore,设置迭代最近点算法收敛判断条件TransformationEpsilon的参数。若fitnessscore<0.0001,则TransformationEpsilon=1e-6;若fitnessscore>=0.0001,则TransformationEpsilon=1e-5。
CN201610219378.XA 2016-04-11 2016-04-11 一种融合RGB和Depth信息的视觉里程计实现方法 Pending CN105938619A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610219378.XA CN105938619A (zh) 2016-04-11 2016-04-11 一种融合RGB和Depth信息的视觉里程计实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610219378.XA CN105938619A (zh) 2016-04-11 2016-04-11 一种融合RGB和Depth信息的视觉里程计实现方法

Publications (1)

Publication Number Publication Date
CN105938619A true CN105938619A (zh) 2016-09-14

Family

ID=57151366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610219378.XA Pending CN105938619A (zh) 2016-04-11 2016-04-11 一种融合RGB和Depth信息的视觉里程计实现方法

Country Status (1)

Country Link
CN (1) CN105938619A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683125A (zh) * 2017-01-11 2017-05-17 中国矿业大学 一种基于2d/3d模态切换的rgb‑d图像配准方法
CN106887037A (zh) * 2017-01-23 2017-06-23 杭州蓝芯科技有限公司 一种基于gpu和深度相机的室内三维重建方法
CN107246868A (zh) * 2017-07-26 2017-10-13 上海舵敏智能科技有限公司 一种协同导航定位系统及导航定位方法
CN107806876A (zh) * 2017-09-29 2018-03-16 爱极智(苏州)机器人科技有限公司 一种基于orb算法的认知地图构建方法
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108564607A (zh) * 2018-04-08 2018-09-21 华中科技大学苏州脑空间信息研究院 三维脑图谱数据集空间校准方法及系统
CN108921895A (zh) * 2018-06-12 2018-11-30 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN108955718A (zh) * 2018-04-10 2018-12-07 中国科学院深圳先进技术研究院 一种视觉里程计及其定位方法、机器人以及存储介质
CN109323709A (zh) * 2017-07-31 2019-02-12 株式会社理光 视觉里程计方法、装置和计算机可读存储介质
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN109974743A (zh) * 2019-03-14 2019-07-05 中山大学 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853526A (zh) * 2010-06-04 2010-10-06 浙江工业大学 一种自适应密度的非均匀点云简化处理方法
US20140009583A1 (en) * 2012-07-03 2014-01-09 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and robot system
CN103559711A (zh) * 2013-11-05 2014-02-05 余洪山 基于三维视觉系统图像特征和三维信息的运动估计方法
CN104121902A (zh) * 2014-06-28 2014-10-29 福州大学 基于Xtion摄像机的室内机器人视觉里程计实现方法
US20150283700A1 (en) * 2014-04-02 2015-10-08 The Boeing Company Localization Within an Environment Using Sensor Fusion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853526A (zh) * 2010-06-04 2010-10-06 浙江工业大学 一种自适应密度的非均匀点云简化处理方法
US20140009583A1 (en) * 2012-07-03 2014-01-09 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and robot system
CN103559711A (zh) * 2013-11-05 2014-02-05 余洪山 基于三维视觉系统图像特征和三维信息的运动估计方法
US20150283700A1 (en) * 2014-04-02 2015-10-08 The Boeing Company Localization Within an Environment Using Sensor Fusion
CN104121902A (zh) * 2014-06-28 2014-10-29 福州大学 基于Xtion摄像机的室内机器人视觉里程计实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗堪: "基于复眼模型的视觉里程计方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN107967691B (zh) * 2016-10-20 2021-11-23 株式会社理光 一种视觉里程计算方法和装置
CN106683125A (zh) * 2017-01-11 2017-05-17 中国矿业大学 一种基于2d/3d模态切换的rgb‑d图像配准方法
CN106887037B (zh) * 2017-01-23 2019-12-17 杭州蓝芯科技有限公司 一种基于gpu和深度相机的室内三维重建方法
CN106887037A (zh) * 2017-01-23 2017-06-23 杭州蓝芯科技有限公司 一种基于gpu和深度相机的室内三维重建方法
CN107246868B (zh) * 2017-07-26 2021-11-02 上海舵敏智能科技有限公司 一种协同导航定位系统及导航定位方法
CN107246868A (zh) * 2017-07-26 2017-10-13 上海舵敏智能科技有限公司 一种协同导航定位系统及导航定位方法
CN109323709B (zh) * 2017-07-31 2022-04-08 株式会社理光 视觉里程计方法、装置和计算机可读存储介质
CN109323709A (zh) * 2017-07-31 2019-02-12 株式会社理光 视觉里程计方法、装置和计算机可读存储介质
CN107806876A (zh) * 2017-09-29 2018-03-16 爱极智(苏州)机器人科技有限公司 一种基于orb算法的认知地图构建方法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108564607B (zh) * 2018-04-08 2021-08-03 华中科技大学苏州脑空间信息研究院 三维脑图谱数据集空间校准方法及系统
CN108564607A (zh) * 2018-04-08 2018-09-21 华中科技大学苏州脑空间信息研究院 三维脑图谱数据集空间校准方法及系统
CN108955718A (zh) * 2018-04-10 2018-12-07 中国科学院深圳先进技术研究院 一种视觉里程计及其定位方法、机器人以及存储介质
CN108921895B (zh) * 2018-06-12 2021-03-02 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN108921895A (zh) * 2018-06-12 2018-11-30 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN109974743A (zh) * 2019-03-14 2019-07-05 中山大学 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计

Similar Documents

Publication Publication Date Title
CN105938619A (zh) 一种融合RGB和Depth信息的视觉里程计实现方法
Vogel et al. Piecewise rigid scene flow
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
CN110221603A (zh) 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN104318561B (zh) 基于双目立体视觉与光流融合的车辆运动信息检测方法
US11521311B1 (en) Collaborative disparity decomposition
CN108921895B (zh) 一种传感器相对位姿估计方法
CN102710951B (zh) 基于散斑结构光深度相机的多视点计算成像方法
CN104121902B (zh) 基于Xtion摄像机的室内机器人视觉里程计实现方法
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
Won et al. OmniSLAM: Omnidirectional localization and dense mapping for wide-baseline multi-camera systems
CN106683173A (zh) 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN102938142A (zh) 基于Kinect的室内LiDAR缺失数据填补方法
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN106056570A (zh) 路面坡度检测装置
CN102692236A (zh) 基于rgb-d相机的视觉里程计方法
CN110073362A (zh) 用于车道标记检测的系统及方法
CN104463108A (zh) 一种单目实时目标识别及位姿测量方法
CN104956404A (zh) 具有功率有效深度传感器使用的实时三维重建
CN106355197A (zh) 基于K‑means聚类算法的导航图像匹配过滤方法
CN103971404A (zh) 一种高性价比的3d实景复制装置
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN103903263B (zh) 一种基于Ladybug全景相机图像的360度全方位测距方法
CN105631852B (zh) 基于深度图像等高线的室内人体检测方法
CN110310331A (zh) 一种基于直线特征与点云特征结合的位姿估计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160914

WD01 Invention patent application deemed withdrawn after publication