CN111950599A - 一种动态环境下融合边缘信息的稠密视觉里程计方法 - Google Patents
一种动态环境下融合边缘信息的稠密视觉里程计方法 Download PDFInfo
- Publication number
- CN111950599A CN111950599A CN202010698713.5A CN202010698713A CN111950599A CN 111950599 A CN111950599 A CN 111950599A CN 202010698713 A CN202010698713 A CN 202010698713A CN 111950599 A CN111950599 A CN 111950599A
- Authority
- CN
- China
- Prior art keywords
- representing
- formula
- residual error
- depth
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种动态环境下融合边缘信息的稠密视觉里程计方法,具体步骤为:首先,根据深度信息进行场景聚类,再基于光度信息与边缘信息的聚类构建出残差模型,并引入平均背景深度,加大前景残差。然后,将残差模型与非参数统计模型相结合,分离动态物体并得到聚类权重。最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度。在TUM数据集上进行实验,结果表明本文算法在动态环境下比现有算法有更高的精度与鲁棒性。
Description
技术领域
本发明属于视觉SLAM领域,特别是一种动态环境下融合边缘信息的稠密视觉里程计方法。
背景技术
视觉里程计(visual odometry)是一种利用视觉传感器信息对机器人或其他载体进行准确的位姿估计的方法,相比于使用激光传感器的方法,视觉信息更加丰富,可用于三维重建、物体识别、语义分割等。同时,因其成本低、体积小、精度高等优点,而广泛的应用于机器人自主导航、自动驾驶、增强现实等领域。
为了简化定位与建图问题,现阶段大部分视觉里程计都是假设相机处于静态环境或者图像信息的变化仅依赖于相机自身的运动。然而实际的环境中不可避免的存在动态物体,当动态物体在图像中所占比重较小时,一般可采用随机采样一致性(RANSAC)或鲁棒Huber函数等概率方法将动态部分当作噪声剔除掉。若动态物体在图像中占比较大时,则无法通过概率方法剔除,动态特征会影响到位姿估计,得到错误的位姿,最终导致定位与建图失败。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种能够在动态环境下实时且准确的进行机器人自主定位的稠密视觉里程计方法。
鉴于此,本发明采用的技术方案如下:一种动态环境下融合边缘信息的稠密视觉里程计方法,包括以下步骤:
S1,使用K-means聚类法,将图像分为N个集群。
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差。
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化。
S4,引入平均背景深度进行运动分割,基于S3构建引入平均背景深度的聚类残差模型。
S5,构建基于t分布的非参数统计模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差。
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
本发明的优点及有益效果如下:
本发明针对传统的视觉里程计方法在动态环境下鲁棒性和精度不高的问题,提出一种融合边缘信息的稠密视觉里程计方法。该算法将边缘信息加入到运动分割与位姿估计中,利用边缘信息对于光照变化以及图像模糊不敏感的优点,使得本发明在多种不同的环境下拥有更好的鲁棒性与更高的精度,同时对于几何纹理较少的环境,更多的采用光度结合深度信息来进行位姿估计,降低环境特征过少而导致的误差。另外,本发明通过引入平均背景深度,使距离背景较远的动态部分有更大的残差值,而距离背景较近的动态部分本身就有较大的残差,以此来扩大动、静部分残差差距而有利于正确的运动分割。通过边缘信息的融合使得算法在静态环境下以及富有挑战性的高动态环境下都能取得较好的结果,能够检测出距离相机较远的动态部分,在信息丢失、图像模糊等情况下也有更好的鲁棒性。
附图说明
图1是本发明方法的实现框架;
图2是非参数统计模型拟合实际实验残差图;
图3是对fr3/walking_xyz数据进行实验的相对平移误差图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
参见图1,本方法的主要步骤为:
S1,使用K-means聚类法,将图像分为N个集群。
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差。
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化以构建与动态物体有较高相关性的残差模型。
S4,引入平均背景深度来辅助算法进行运动分割,基于S3构建引入平均背景深度的聚类残差模型。
S5,构建基于t分布的非参数统计模型来拟合聚类残差模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差。
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
步骤S1的具体实施过程为:
采用K-means聚类法,通过计算每一个三维空间点距离集群中心点的距离,来确定该空间点属于哪一个集群。
步骤S2的具体实施过程为:
S21:将聚类后的当前帧Fc的灰度图坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,具体公式如下:
式中,和分别表示点i对应的光度误差与深度误差。为当前帧的第i个像素点。Ik和Zk表示关键帧的灰度图与深度图,Ic和Zc表示当前帧的灰度图与深度图。|·|Z表示三维坐标点的Z坐标值。Tkc表示从当前帧到关键帧的坐标变换矩阵。ξkc为当前帧到关键帧坐标变换的李代数。π-1为逆投影函数。ω为坐标变换函数。
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,具体公式如下:
步骤S3的具体实施过程为:
S31:将边缘对齐误差引入到光度及几何误差中构建融合边缘信息的残差模型,并在计算中通过去除每个集群的遮挡点从而降低遮挡的影响,具体公式如下:
式中,rn表示第n个集群的残差值。Sn表示第n个集群中所有深度有效的像素个数。On表示第n个集群中遮挡的像素个数。En表示第n个集群中所有深度有效的边缘点。为第n个群的平均深度。αI与αE分别表示光度误差与DT误差在残差模型中所占权重;表示边缘点i对应的DT误差;
S32:为了加强算法应对各种复杂环境的鲁棒性,构建权重αI与αE的公式如下:
式中,vc为相机运动速度。N为集群总数量。μ为由αI到αE的尺度系数。在边缘信息丰富(边缘点占比高)或相机运动速度较快时(容易产生模糊图像),αI有较大值。相反,αE较小时边缘信息影响较小。
S33:为了使得残差模型与动态物体有较高的相关性,将残差进行正则化,具体公式如下:
式中,E(rn)为非线性优化求解的最小误差。Gmn为聚类连通函数,为1表示m与n集群连通。λR与λT表示对非线性优化函数求解的权重。rn与rm分别表示第n个集群和第m个集群的残差值。rn,c-1表示上一帧中第n个集群的残差值,因为在时间上,物体都是趋于保持移动或静止的,通过求解最小问题来得到最佳rn,正则化后的残差与动态物体有较高的相关性。
步骤S4的具体实施过程为:
S41:动态物体一般都为独立的刚体且远离背景,通过扩大远离背景部分的集群残差,使得靠近背景的集群偏向于分割为静态部分,而远离背景的集群有更大几率被判定为动态部分。平均背景深度的引入有助于正确的运动分割,定义平均背景深度公式为:
S42:根据S41的公式构建引入平均背景深度后的残差模型为:
步骤S5的具体实施过程为:
S51:根据聚类残差分布的普遍特征,建立一个基于t分布的非参数统计模型,如图2所示,非参数统计模型能够较好地拟合实际实验残差的直方图:
σ=1.4826Median{|δn-μ|}
式中,wn为t分布的概率值。v0为t分布的自由度,它决定了分布曲线的陡峭程度。平均值μ决定分布中心所处位置。σ为统计方差,通过中位数绝对偏差估算得到;
S52:在各种复杂的场景下,采用固定阈值会使得分割效果不佳。因此,使用自适应阈值构建场景分割模型,残差高于自适应阈值的集群可判定为动态部分,而低于阈值的集群可作为静态部分或赋权部分加入到位姿估算中,具体公式如下:
步骤S6的具体实施过程为:
S61:采用Cauchy M-estimator模型,通过加权聚类残差来构建非线性优化函数,用以更准确的估计帧间运动,具体公式如下:
S62:采用边缘信息来评估跟踪质量,通过将先前跟踪过的N帧的边缘投影到当前帧,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
式中H(j)表示重叠数为j的点的数量,H(0)表示未重叠的点的数量。γj与γ0分别表示重叠数为j和0的点在跟踪质量评估中所占的权重。当边缘重叠的加权和小于非重叠的数量时,说明跟踪质量较差,此时将上一跟踪较好的帧更新为关键帧。
完成上述所有步骤之后,便可以得到当前帧最优位姿,并为下一次更新迭代做好了准备。
对TUM数据集的高动态环境fr3/walking_xyz数据进行实验,得到相对位姿误差(RPE)如图3所示,红色为本发明算法(为图中最下面的一条曲线),其他为现有算法,横坐标为数据帧,纵坐标为平移误差。实验表明本发明算法在动态环境下比现有算法有更低的相对位姿误差,本发明算法有更高的精度与鲁棒性。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (9)
1.一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:包括以下步骤:
S1,使用K-means聚类法,将图像分为N个集群;
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差;
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化;
S4,引入平均背景深度进行运动分割,基于S3构建引入平均背景深度的聚类残差模型;
S5,构建基于t分布的非参数统计模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差;
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
2.根据权利要求1所述一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:所述K-means聚类法,通过计算每一个三维空间点距离集群中心点的距离,来确定该空间点属于哪一个集群。
3.根据权利要求1所述一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:所述步骤S2具体包括:
S21:将聚类后的当前帧Fc的灰度图坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,计算光度及几何一致性误差,所述基于光度及几何一致性的残差模型具体公式如下:
式中,和分别表示点i对应的光度误差与深度误差,为当前帧的第i个像素点,Ik和Zk表示关键帧的灰度图与深度图,Ic和Zc表示当前帧的灰度图与深度图,|·|Z表示三维坐标点的Z坐标值,Tkc表示从当前帧到关键帧的坐标变换矩阵,ξkc为当前帧到关键帧坐标变换的李代数,π-1为逆投影函数,ω为坐标变换函数;
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,计算边缘对齐误差,所述基于边缘对齐的残差模型具体公式如下:
9.根据权利要求1所述一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:所述步骤S6具体包括:
S61:采用Cauchy M-estimator模型,通过加权聚类残差来构建非线性优化函数,具体公式如下:
S62:采用边缘信息来评估跟踪质量,通过将先前跟踪过的N帧的边缘投影到当前帧,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
式中H(j)表示重叠数为j的点的数量,H(0)表示未重叠的点的数量,γj与γ0分别表示重叠数为j和0的点在跟踪质量评估中所占的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010698713.5A CN111950599B (zh) | 2020-07-20 | 2020-07-20 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010698713.5A CN111950599B (zh) | 2020-07-20 | 2020-07-20 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111950599A true CN111950599A (zh) | 2020-11-17 |
CN111950599B CN111950599B (zh) | 2022-07-01 |
Family
ID=73341589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010698713.5A Active CN111950599B (zh) | 2020-07-20 | 2020-07-20 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111950599B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837243A (zh) * | 2021-09-03 | 2021-12-24 | 重庆邮电大学 | 基于边缘信息的rgb-d相机动态视觉里程计方法 |
CN116245899A (zh) * | 2022-12-29 | 2023-06-09 | 淮北矿业(集团)有限责任公司物业分公司 | 一种基于Canny边缘的动态视觉里程计方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180189327A1 (en) * | 2010-08-10 | 2018-07-05 | Navvis Gmbh | Visual localization method |
WO2018127329A1 (en) * | 2017-01-03 | 2018-07-12 | Connaught Electronics Ltd. | Visual odometry |
CN108986037A (zh) * | 2018-05-25 | 2018-12-11 | 重庆大学 | 基于半直接法的单目视觉里程计定位方法及定位系统 |
CN109272493A (zh) * | 2018-08-28 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
WO2019084804A1 (zh) * | 2017-10-31 | 2019-05-09 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
US20190146500A1 (en) * | 2017-10-30 | 2019-05-16 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110910447A (zh) * | 2019-10-31 | 2020-03-24 | 北京工业大学 | 一种基于动静态场景分离的视觉里程计方法 |
CN111028282A (zh) * | 2019-11-29 | 2020-04-17 | 浙江省北大信息技术高等研究院 | 一种无监督位姿与深度计算方法及系统 |
CN111311685A (zh) * | 2020-05-12 | 2020-06-19 | 中国人民解放军国防科技大学 | 一种基于imu/单目图像的运动场景重构无监督方法 |
-
2020
- 2020-07-20 CN CN202010698713.5A patent/CN111950599B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180189327A1 (en) * | 2010-08-10 | 2018-07-05 | Navvis Gmbh | Visual localization method |
WO2018127329A1 (en) * | 2017-01-03 | 2018-07-12 | Connaught Electronics Ltd. | Visual odometry |
US20190146500A1 (en) * | 2017-10-30 | 2019-05-16 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
WO2019084804A1 (zh) * | 2017-10-31 | 2019-05-09 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
CN108986037A (zh) * | 2018-05-25 | 2018-12-11 | 重庆大学 | 基于半直接法的单目视觉里程计定位方法及定位系统 |
CN109272493A (zh) * | 2018-08-28 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110910447A (zh) * | 2019-10-31 | 2020-03-24 | 北京工业大学 | 一种基于动静态场景分离的视觉里程计方法 |
CN111028282A (zh) * | 2019-11-29 | 2020-04-17 | 浙江省北大信息技术高等研究院 | 一种无监督位姿与深度计算方法及系统 |
CN111311685A (zh) * | 2020-05-12 | 2020-06-19 | 中国人民解放军国防科技大学 | 一种基于imu/单目图像的运动场景重构无监督方法 |
Non-Patent Citations (2)
Title |
---|
ARBAAZ KHAN,ET AL: "Multi modal pose fusion for monocular flight with unmanned aerial vehicles", 《2018 IEEE AEROSPACE CONFERENCE》 * |
翁一桢: "基于视觉里程计与惯导融合技术的四旋翼位姿估计", 《中国优秀硕士学位论文辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837243A (zh) * | 2021-09-03 | 2021-12-24 | 重庆邮电大学 | 基于边缘信息的rgb-d相机动态视觉里程计方法 |
CN113837243B (zh) * | 2021-09-03 | 2024-05-24 | 重庆邮电大学 | 基于边缘信息的rgb-d相机动态视觉里程计方法 |
CN116245899A (zh) * | 2022-12-29 | 2023-06-09 | 淮北矿业(集团)有限责任公司物业分公司 | 一种基于Canny边缘的动态视觉里程计方法 |
CN116245899B (zh) * | 2022-12-29 | 2024-03-26 | 淮北矿业(集团)有限责任公司物业分公司 | 一种基于Canny边缘的动态视觉里程计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111950599B (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN109387204B (zh) | 面向室内动态环境的移动机器人同步定位与构图方法 | |
WO2019153245A1 (en) | Systems and methods for deep localization and segmentation with 3d semantic map | |
CN109974743B (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 | |
CN112396595B (zh) | 一种动态环境下基于点线特征的语义slam方法 | |
CN109961506A (zh) | 一种融合改进Census图的局部场景三维重建方法 | |
CN102722697B (zh) | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
CN108399610A (zh) | 一种融合rgb图像信息的深度图像增强方法 | |
CN112465021B (zh) | 基于图像插帧法的位姿轨迹估计方法 | |
CN112381841A (zh) | 一种动态场景下基于gms特征匹配的语义slam方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN111950599B (zh) | 一种动态环境下融合边缘信息的稠密视觉里程计方法 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN117274515A (zh) | 基于ORB和NeRF映射的视觉SLAM方法及系统 | |
CN114612525A (zh) | 基于网格分割与双地图耦合的机器人rgb-d slam方法 | |
CN112686952A (zh) | 一种图像光流计算系统、方法及应用 | |
CN111160362B (zh) | 一种fast特征均匀化提取与帧间特征误匹配去除方法 | |
CN116879870A (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN112446885B (zh) | 一种动态环境下基于改进的语义光流法的slam方法 | |
CN115345934A (zh) | 一种基于坡度因子的激光定位与建图方法及系统 | |
KR101766823B1 (ko) | 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법 | |
CN116524026B (zh) | 一种基于频域和语义的动态视觉slam方法 | |
CN113837243B (zh) | 基于边缘信息的rgb-d相机动态视觉里程计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |