CN110675341B - 一种单目光视觉引导的水下机器人与海底平台对接方法 - Google Patents
一种单目光视觉引导的水下机器人与海底平台对接方法 Download PDFInfo
- Publication number
- CN110675341B CN110675341B CN201910880410.2A CN201910880410A CN110675341B CN 110675341 B CN110675341 B CN 110675341B CN 201910880410 A CN201910880410 A CN 201910880410A CN 110675341 B CN110675341 B CN 110675341B
- Authority
- CN
- China
- Prior art keywords
- image
- light source
- underwater robot
- processing
- docking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 210000001503 joint Anatomy 0.000 title claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000011218 segmentation Effects 0.000 claims abstract description 18
- 230000009466 transformation Effects 0.000 claims abstract description 18
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000012937 correction Methods 0.000 claims abstract description 6
- 238000005260 corrosion Methods 0.000 claims abstract description 5
- 230000007797 corrosion Effects 0.000 claims abstract description 5
- 230000000877 morphologic effect Effects 0.000 claims abstract description 5
- 238000012216 screening Methods 0.000 claims abstract description 5
- 238000003032 molecular docking Methods 0.000 claims description 27
- 238000001914 filtration Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000009916 joint effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种单目光视觉引导的水下机器人与海底平台对接方法,通过使用标定过的相机采集海底平台的图像;对海底平台的图像进行标准化处理以及校正、高斯去噪处理、非线性灰度变换、形态学腐蚀、膨胀处理;对图像进行OTSU最佳全局阈值分割处理,筛选出疑似光源区域;进行聚类处理,并对每个聚类进行随机检测处理得到光源区域;对光源区域进行匹配得到平均视差,计算光源所在位置的坐标,并将其传递给控制系统,进行路径规划,继而进行对接动作;判断机器人是否对接成功。本发明有效地抑制了图像中的噪声,降低了计算的消耗;保证了对接的准确性;保证了对接过程的精准度。
Description
技术领域
本发明属于水下机器人领域,具体涉及一种单目光视觉引导的水下机器人与海底平台对接方法。
背景技术
随着海洋开发的不断深入,水下机器人在海底探测、海洋地貌观察以及海洋军事领域发挥着越来越重要的作用。通过与海底平台实现对接,水下机器人能够使用平台完成能源的补充、数据的交换等任务,从而提高水下机器人连续作业的时间以及航程。水下机器人进行水下对接的过程中,需要知道自身同对接装置之间的相对位置关系,对接的过程就是消除自身与对接装置之间位置和角度偏差的过程。为了实现与海底平台的对接,水下机器人首先通过声学引导到达基站上方后,之后需要通过光学引导为其提供准确的相对位置、姿态信息,从而实现与基站的准确对接。
发明内容
本发明的目的在于提供了一种单目光视觉引导的水下机器人与海底平台对接方法,通过声学引导以及光学引导,提高水下机器人与海底平台对接的精确度,从而解决目前对接准确度低、可靠性差的问题。
本发明的目的是这样实现的:
一种单目光视觉引导的水下机器人与海底平台对接方法,具体的实现步骤为:
步骤1.使用标定过的相机采集海底平台的图像;
步骤2.对海底平台的图像进行标准化处理以及校正;
步骤3.对图像进行高斯去噪处理;
步骤4.对图像进行非线性灰度变换;
步骤5.对图像进行形态学腐蚀、膨胀处理;
步骤6.对图像进行OTSU最佳全局阈值分割处理;
步骤7.根据分割出的图形的圆形度筛选出疑似光源区域;
步骤8.对疑似光源区域进行聚类处理,并对每个聚类进行随机检测处理得到光源区域;
步骤9.对光源区域进行匹配得到平均视差;
步骤10.由平均视差计算光源所在位置的坐标,并将其传递给控制系统;
步骤11.控制系统根据接收的坐标进行路径规划,继而进行对接动作;
步骤12.判断机器人是否对接成功,对接失败转到步骤2,对接成功则流程结束。
步骤2所述校正的方法为使用Bouguet算法对图像进行校正。
步骤3所述高斯降噪处理的具体内容为,采用滤波模板k1与校正之后的图像进行卷积操作处理,再将卷积处理之后的图像与模板k2进行卷积运算从而得到高斯降噪图像,其中k1与 k2是标准差为σ=0.75的高斯模板,k1=[0.25330.49340.2533],k2=k1 T,k2是模板k1的转置。
步骤4所述的非线性灰度变换的公式为
g'=2c·g-1
式中,g为变换前的灰度值,g'为变换后的灰度值,并且g,g'∈{1,2,3,....,255},c是变换时采用的抑制系数。
步骤6所述的OTSU最佳全局阈值分割处理的具体内容为,对于图像I(x,y),前景和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比例记为ω0,平均灰度为μ0;背景像素点数占整幅图像的比例为ω1,平均灰度为μ1;整幅图像的平均灰度记为μ,类间方差记为g;采用遍历的方法使得类间方差g最大的阈值T,即为所求阈值。
步骤7所述的疑似光源区域的筛选方式为,对于得到的分割结果图像,计算待选区域c1的面积以及周长E1,则目标区域的圆形度计算公式为:
其中,π为圆周率,并且将R大于阈值25且R在区间[0.8,1.5]的待选区域视为疑似光源区域。
步骤9所述的对光源区域进行匹配的具体内容为对光源区域进行Rank及Census变换,计算匹配点,将检测到的光源中的目标与特征库中保存的目标特征进行匹配。
步骤10所述的计算光源所在位置公式为
其中,Q为测量矩阵,光源区域中心(xn,yn),光源相对机器人的位置为(Xn,Yn,Zn),dn为平均视差。
本发明的有益效果在于:通过对采集到的平台图像进行中值滤波去噪达到平滑图像的目的,有效地抑制了图像中的噪声,降低了计算的消耗;采用了伽马变换以及自适应阈值分割提取了光源区域,并使用连通域检测以及特征匹配算法实现光源区域的匹配,保证了对接的准确性;通过计算出平台上光源相对于机器人的位置信息,保证了对接过程的精准度。
附图说明
图1为光视觉引导的水下机器人。
图2为光视觉引导的水下机器人的摄像机。
图3为LED灯情况布置图。
图4为引导光源经过去噪、增强阈值分割后的图像。
图5为基于单目光视觉引导的水下机器人与海底平台对接流程图。
具体实施方式
下面结合附图对本发明做进一步的描述:
实施例1
水下机器人在其艏部安装有模拟摄像机、嵌入式计算机、图像采集卡等设备,对接平台上放置有引导所需要的光源。
本发明的目的是提供一种基于单目光视觉引导的水下机器人与海底平台对接方法,该方法采用声学引导以及光学引导,提高水下机器人与海底平台对接的精确度,从而解决目前对接准确度低、可靠性差的问题。
结合图1-图3,在水下机器人艏部以及中部分别布置1号以及2号摄像机,在其密封的舱内搭载了嵌入式计算机、图像采集卡以及运动控制系统。1号摄像机布置在AUV艏部,视野中心线与水平面成45°角向下;2号摄像机布置在AUV中部,距离1号摄像机2m处,视野中心线竖直向下。在水下机器人距基站5m高度处,2号摄像机视野宽度约6m、向后可看 5m,1号摄像机视野最窄处宽度约6m,基本能覆盖AUV整个前方65°的范围。当引导系统发现第一个灯时,向规划系统报告发现LED灯,并给出该灯位置,引导AUV前往第一个灯处;发现第二个灯时,向规划系统报告发现第二个LED灯,判断AUV由哪个方向进入基站范围(左、左上、上、右上、右、右下、下、左下),给出定位目标相对位置;发现不共线的三个灯时,计算出准确的定位目标相对位置,并发送给规划系统。
结合图3,LED灯情况布置在图中已标注出,这种布置方法当摄像机中仅有两个LED灯时,两灯关系具有特殊性,保证了水下机器人由任意方向靠近基站当视野中出现两个LED灯时引导系统可计算出基站大致。LED灯需要基站提供24V直流供电,每个灯功率为20W。
结合图4,通过自适应阈值分割得到平台上的引导光源的二值图像。机器人进入对接平台附近时LED信标逐一进入摄像机视野:当视野中出现第一个LED信标时,引导系统对规划系统发出信号,引导机器人前往信标处;视野中存在两个LED信标时,引导系统通过计算信标的间距判定机器人所处位置的两种情况,并按大概率情况(由平台外部进入)估算目标位姿;当视野中存在三个不共线的LED信标时,可计算出机器人视野中心位置与目标首向、位置的偏差,向规划系统提供目标位置与姿态。
具体实施步骤如下:
第一步,利用张正友标定方法对相机进行视觉标定,用于标定的模板是黑白棋盘格形式,使用标定好的摄像机进行海底平台周围图像的采集,将采集的图像传递给光视觉处理计算机;
第二步,在光视觉计算机中对采集得到的图像进行标准化处理,并采用Bouguet算法进行校正;
第三步,对第二步得到图像进行高斯降噪处理,以此来减少部分噪声并降低计算消耗,主要是使用高斯滤波进行降噪处理。具体计算为:采用滤波模板k1与校正之后的图像进行卷积操作处理,再将卷积处理之后的图像与模板k2进行卷积运算从而得到高斯降噪图像,其中k1与k2是标准差为σ=0.75的高斯模板:
k1=[0.25330.49340.2533]
k2=k1 T
上式中k2是模板k1的转置;
第四步,对得到的高斯降噪图像进行非线性的灰度变换处理,以此来进一步减少图像中的噪声,公式如下:
g'=2c·g-1
式中,g与g'分别是变换前与变换后的灰度值,并且g,g'∈{1,2,3,....,255},c是变换时采用的抑制系数;
第五步,得到非线性变换的灰度图像之后,对其进行形态学腐蚀以及膨胀处理,以此减少图像中存在的噪点;
第六步,对图像使用OTSU最佳全局阈值分割处理:对于图像I(x,y),前景和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比例记为ω0,平均灰度为μ0;背景像素点数占整幅图像的比例为ω1,平均灰度为μ1;整幅图像的平均灰度记为μ,类间方差记为g。采用遍历的方法使得类间方差g最大的阈值T,即为所求阈值。得到图3所示分割结果;
第七步,对于得到的分割结果图像,计算白色区域c1和c2的面积s1与s2以及周长E1与E2,则白色区域的圆形度计算公式为:
其中,π为圆周率,并且将R大于阈值25且R在区间[0.8,1.5]的待选区域视为疑似光源区域;
第八步,对疑似光源区域进行K均值区域面积的聚类处理,K设为5,对每一个聚类进行随机抽样一致性算法进行区域的检测来得到光源区域;
第九步,对得到的光源区域进行Rank及Census变换以此计算匹配点,从而将检测到的光源与存在的进行匹配,利用如下公式计算光源所在位置坐标:
其中,Q为测量矩阵,光源区域中心(xn,yn),光源相对机器人的作为(Xn,Yn,Zn);
第十步,将计算得到的光源位置坐标传递给控制计算机,运动控制计算机根据光源的三维位置坐标,进行运动路径的规划;
第十一步,光视觉计算机根据运动控制计算机返回的对接状态做出下一步的动作,若对接成功,则结束,否则,返回第二步。
实施例2
本发明涉及一种基于单目光视觉引导的水下机器人与海底平台对接方法。本发明包括:使用标定过的相机采集海底对接平台图像;对采集的图像进行去噪、增强、分割处理;通过特征提取算法提取水下引导光源的特征;通过特征匹配寻找到水下对接平台位置;采用坐标变换计算出对接平台相对水下机器人的位置;最后,控制系统通过平台位置信息实现水下机器人与平台的对接。本发明通过光学引导的方式,采用自适应阈值分割、连通域检测、特征匹配,不但有效抑制了图像中的噪声,还降低了计算的消耗,提高了对接的精准度。
一种基于单目光视觉引导的水下机器人与海底平台对接方法,具体步骤为:
步骤1.使用标定过的相机采集海底平台的图像;
步骤2.对第一步采集到的图像进行标准化处理以及校正;
步骤3.对第二步得到的图像进行高斯去噪处理;
步骤4.对第三步得到的去噪图片进行非线性灰度变换;
步骤5.对第四步得到的灰度图片进行形态学腐蚀、膨胀处理;
步骤6.对第五步得到的图像进行OTSU最佳全局阈值分割处理;
步骤7.从第六步得到的图像中,根据分割出的图形的圆形度筛选出疑似光源区域;
步骤8.对第七步得到的疑似光源区域进行聚类处理以及随机检测处理得到光源区域;
步骤9.对第八步得到的光源区域进行匹配得到平均视差;
步骤10.由第九步得到平均视差计算光源所在位置的坐标,并将其传递给控制系统;
步骤11.控制系统根据接收的坐标进行路径规划,继而进行对接动作;
步骤12.判断机器人是否对接成功,若为否,则转到第二步,若对接成功,则流程结束。
Claims (8)
1.一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于,具体的实现步骤为:
步骤1.使用标定过的相机采集海底平台的图像;
步骤2.对海底平台的图像进行标准化处理以及校正;
步骤3.对图像进行高斯去噪处理;
步骤4.对图像进行非线性灰度变换;
步骤5.对图像进行形态学腐蚀、膨胀处理;
步骤6.对图像进行OTSU最佳全局阈值分割处理;
步骤7.根据分割出的图形的圆形度筛选出疑似光源区域;
步骤8.对疑似光源区域进行聚类处理,并对每个聚类进行随机检测处理得到光源区域;
步骤9.对光源区域进行匹配得到平均视差;
步骤10.由平均视差计算光源所在位置的坐标,并将其传递给控制系统;
步骤11.控制系统根据接收的坐标进行路径规划,继而进行对接动作;
步骤12.判断机器人是否对接成功,对接失败转到步骤2,对接成功则流程结束。
2.根据权利要求1所述的一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于:步骤2所述校正的方法为使用Bouguet算法对图像进行校正。
3.根据权利要求1所述的一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于:步骤3所述高斯降噪处理的具体内容为,采用滤波模板k1与校正之后的图像进行卷积操作处理,再将卷积处理之后的图像与模板k2进行卷积运算从而得到高斯降噪图像,其中k1与k2是标准差为σ=0.75的高斯模板,k1=[0.2533 0.4934 0.2533],k2=k1 T,k2是模板k1的转置。
4.根据权利要求1所述的一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于:步骤4所述的非线性灰度变换的公式为
g'=2c·g-1
式中,g为变换前的灰度值,g'为变换后的灰度值,并且g,g'∈{1,2,3,....,255},c是变换时采用的抑制系数。
5.根据权利要求1所述的一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于:步骤6所述的OTSU最佳全局阈值分割处理的具体内容为,对于图像I(x,y),前景和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比例记为ω0,平均灰度为μ0;背景像素点数占整幅图像的比例为ω1,平均灰度为μ1;整幅图像的平均灰度记为μ,类间方差记为g;采用遍历的方法使得类间方差g最大的阈值T,即为所求阈值。
7.根据权利要求1所述的一种单目光视觉引导的水下机器人与海底平台对接方法,其特征在于:步骤9所述的对光源区域进行匹配的具体内容为对光源区域进行Rank及Census变换,计算匹配点,将检测到的光源中的目标与特征库中保存的目标特征进行匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910880410.2A CN110675341B (zh) | 2019-09-18 | 2019-09-18 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910880410.2A CN110675341B (zh) | 2019-09-18 | 2019-09-18 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110675341A CN110675341A (zh) | 2020-01-10 |
CN110675341B true CN110675341B (zh) | 2022-11-15 |
Family
ID=69076782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910880410.2A Active CN110675341B (zh) | 2019-09-18 | 2019-09-18 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675341B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111596676B (zh) * | 2020-05-27 | 2021-09-03 | 中国科学院半导体研究所 | 水下贝塞尔光视觉导引方法 |
CN111572737B (zh) * | 2020-05-28 | 2022-04-12 | 大连海事大学 | 一种基于声学和光学引导的auv捕获引导方法 |
CN111951237B (zh) * | 2020-08-04 | 2021-06-08 | 上海微亿智造科技有限公司 | 外观视觉检测方法 |
CN113781399B (zh) * | 2021-08-13 | 2023-12-22 | 哈尔滨工程大学 | 一种auv在输水隧洞内运动的声学引导方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766312A (zh) * | 2015-03-27 | 2015-07-08 | 哈尔滨工程大学 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
CN110246151A (zh) * | 2019-06-03 | 2019-09-17 | 南京工程学院 | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI357582B (en) * | 2008-04-18 | 2012-02-01 | Univ Nat Taiwan | Image tracking system and method thereof |
-
2019
- 2019-09-18 CN CN201910880410.2A patent/CN110675341B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766312A (zh) * | 2015-03-27 | 2015-07-08 | 哈尔滨工程大学 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
CN110246151A (zh) * | 2019-06-03 | 2019-09-17 | 南京工程学院 | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
基于双目视觉的水下定位系统;陈元杰等;《机电工程》;20110520(第05期);全文 * |
基于靶标区域分割的双目定位系统研究与实现;刘远远等;《激光与光电子学进展》;20180510(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110675341A (zh) | 2020-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675341B (zh) | 一种单目光视觉引导的水下机器人与海底平台对接方法 | |
US8340400B2 (en) | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features | |
CN110807809B (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
WO2020253010A1 (zh) | 一种泊车定位中的停车场入口定位方法、装置及车载终端 | |
CN111311679B (zh) | 一种基于深度相机的自由漂浮目标位姿估计方法 | |
CN111028154B (zh) | 一种地形崎岖不平海底的侧扫声呐图像匹配拼接方法 | |
CN109363770B (zh) | 一种手术导航机器人标志点自动识别定位方法 | |
CN108303096A (zh) | 一种视觉辅助激光定位系统及方法 | |
CN112486207A (zh) | 一种基于视觉识别的无人机自主降落方法 | |
CN113624225B (zh) | 一种用于发动机定位销安装的位姿解算方法 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
Ren et al. | Two AUVs guidance method for self-reconfiguration mission based on monocular vision | |
CN115205286B (zh) | 爬塔机器人机械臂螺栓识别与定位方法、存储介质、终端 | |
CN112184765A (zh) | 一种基于视觉的水下航行器自主跟踪方法 | |
CN110533650A (zh) | 一种基于视觉的auv水下管道检测跟踪方法 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
CN113781523A (zh) | 一种足球检测跟踪方法及装置、电子设备、存储介质 | |
CN117710458A (zh) | 一种基于双目视觉的舰载机着舰过程相对位置测量方法及系统 | |
CN107765257A (zh) | 一种基于反射强度辅助外部校准的激光探测与测量方法 | |
CN116990824A (zh) | 集群侧扫系统的图形地理信息编码和融合方法 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
Shin et al. | A study on reliability enhancement for laser and camera calibration | |
CN111964681B (zh) | 一种巡检机器人的实时定位系统 | |
Gracias et al. | Application challenges of underwater vision | |
CN114202587A (zh) | 基于船载单目相机的视觉特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |