CN113792699B - 一种基于语义点云的对象级快速场景识别方法 - Google Patents

一种基于语义点云的对象级快速场景识别方法 Download PDF

Info

Publication number
CN113792699B
CN113792699B CN202111118882.8A CN202111118882A CN113792699B CN 113792699 B CN113792699 B CN 113792699B CN 202111118882 A CN202111118882 A CN 202111118882A CN 113792699 B CN113792699 B CN 113792699B
Authority
CN
China
Prior art keywords
main object
point cloud
semantic
descriptors
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111118882.8A
Other languages
English (en)
Other versions
CN113792699A (zh
Inventor
袁昊东
张煜东
范圣印
李雪
金凌鸽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yihang Yuanzhi Technology Co Ltd
Original Assignee
Beijing Yihang Yuanzhi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yihang Yuanzhi Technology Co Ltd filed Critical Beijing Yihang Yuanzhi Technology Co Ltd
Priority to CN202111118882.8A priority Critical patent/CN113792699B/zh
Publication of CN113792699A publication Critical patent/CN113792699A/zh
Application granted granted Critical
Publication of CN113792699B publication Critical patent/CN113792699B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Abstract

本发明公开了一种基于语义点云的对象级快速场景识别方法,其特点是,建图前确定主对象:通过语义分割网络对传感器采集的三维点云进行处理,根据语义点云的分布确定主对象;建图同时构建k维树结构,以主对象为极点,传感器与主对象的连线方向为极轴建立极坐标系,并构建描述子;场景识别时,计算历史帧和当前帧的相似度:在以按行求均值得到的列向量为节点构建的k维树结构中搜索与当前按行求均值得到的列向量相似的节点对应的描述子作为候选;计算当前帧的准确位姿:基于主对象在当前帧和匹配帧的观测位置计算出当前帧的准确位姿。本发明本以主对象为中心建立描述子,该不依赖观测位置的描述子,能解决两帧位置不重合时无法进行场景识别的问题。

Description

一种基于语义点云的对象级快速场景识别方法
技术领域
本发明属于机器人、自动驾驶领域,尤其涉及一种基于语义点云的对象级快速场景识别方法。
背景技术
SLAM同步定位与地图构建技术在自动驾驶、无人机、机器人、VR和AR等领域有着广泛应用。SLAM具体指的是:设备在未知环境下从一个未知位置开始移动,在移动过程中根据传感器收集到的数据和构建出的环境地图进行自身定位,并在自身定位的基础上构建增量式地图的过程。
在实际SLAM过程中,实现回环检测和重定位都需要用到SLAM系统中的场景识别技术。该场景识别技术需要前后两帧传感器数据,通过分析两帧传感器数据来识别出前后是否为同一场景。若为同一场景则需要计算出对应的前后两帧车辆之间的相对位姿,该相对位姿用以对建图过程中每个地图点的空间物理位置进行优化,此为完整的场景识别过程。
现有的SLAM系统中的场景识别技术会出现许多问题:该场景识别算法是以当前车辆的传感器为中心建立描述子Scan Context来进行的,当车辆经过同一场景两次时,由于两次的传感器位置有差异,导致描述子Scan Context不一样,使得系统无法识别为同一场景;除此之外,现有的场景识别算法无法计算出两次经过同一场景的相对位姿。
由于以上场景识别算法的缺陷,在同一个场景下,当前车辆与历史时刻的位置不重合时,系统无法识别为同一场景且无法计算相对位姿。
发明内容
本发明针对现有技术的不足,提出一种基于语义点云的对象级快速场景识别方法,目的在于解决现有回环检测算法和重定位算法对于在同一个场景下,车辆当前与历史时刻的两帧位置不重合时,系统无法检测到回环和无法重定位的问题。
本发明为解决其技术问题,提出以下技术方案:
一种基于语义点云的对象级快速场景识别方法,其特点是,包括以下步骤:
步骤一、建图前确定主对象:通过语义分割网络对传感器采集的三维点云进行处理,根据语义点云的分布确定主对象;
步骤二、建图同时构建k维树结构:以主对象为极点,传感器与主对象的连线方向为极轴建立极坐标系,并构建描述子Object Scan Context,生成按行求均值得到的列向量RingKey、以及按列求均值得到的行向量SectorKey,构建以按行求均值得到的列向量RingKey为节点构建的k维树结构;
步骤三、场景识别时,计算历史帧和当前帧的相似度:在以按行求均值得到的列向量RingKey为节点构建的k维树结构中搜索与当前按行求均值得到的列向量相似的节点对应的描述子Object Scan Context作为候选,旋转匹配描述子Object Scan Context,计算相似度;
步骤四、场景识别时,计算当前帧的准确位姿:根据历史帧描述子和当前帧描述子相似度大小确定场景是否识别成功,基于主对象在历史帧和当前帧的观测位置计算出当前帧与历史帧的相对位姿。
所述步骤一的建图以前,确定主对象,具体过程如下:
1)传感器收集环境空间信息输出3D点云,所述传感器包括所有能提供环境空间3D点云信息的传感器:激光雷达、结构光相机、毫米波雷达;
2)使用训练完成的RangeNet++网络处理3D点云,得到每一个扫描点的语义标签;使用广度优先搜索算法聚类出每个物体的具体点云范围,若某个物体的范围内带有其他标签的点的数量较多,则忽略该物体对应的语义,反之该物体对应的语义进入下一轮筛选;
3)动态物体和可移动的静态物体都会造成场景误识别和位姿计算错误,因此过滤掉动态物体、再过滤掉可移动的静态物体;
4)通过语义分布和语义方差确定主对象,具体为:
i、语义分布:以设备行驶的里程为横坐标、语义在不同里程段出现的次数为纵坐标,绘制一维多语义分布直方图,过滤掉不同里程段分布不均匀的语义、以及不同里程段出现次数差别较大的语义。
ii、语义方差:设当前语义在当前轨迹上对应n个描述子,将n个描述子对应的n个按列求均值得到的行向量分别求和得到一个集合{Si|i=1,2...n},计算该集合的方差,方差表示数据的离散状态,方差越大,代表n个主对象周围环境差异越大;每个语义在当前轨迹上都对应一个方差,挑选出方差最大的三个语义作为最终的主对象,最终选择的语义可以是一类或者多类。
所述步骤二的建图过程中,构建k维树结构,该k维树结构就是以每个主对象描述子Object Scan Context的Nr×1的列向量为节点构建的树结构:
具体过程如下:
1)将点云旋转,所述将点云旋转用于消除因车体姿态的原因使得点云和真实世界不对应造成的影响;旋转后的点云的姿态与真实世界的姿态一致,通过此步骤消除设备的姿态对描述子Object Scan Context的影响:假设在某一关键帧中,设备的3D位姿表示为(R,t),R为设备坐标系相对于世界坐标系的旋转变换矩阵,t为设备坐标系相对于世界坐标系的平移变换矩阵,点云用Pt表示,点云中的点用pi表示,首先将点云按以下公式旋转:
P′t:{p′i|p′i=R·pi,pi∈Pt} (1)
2)确定主对象的X-Y平面坐标:该主对象的X-Y平面坐标用于过滤掉距离主对象超过设定极坐标半径范围的扫描点,并且确定有效扫描点对应的所述栅格位置;若在此关键帧中检测到主对象,通过广度优先搜索算法聚类出该主对象包含的所有点,用高斯分布拟合,计算主对象分布的均值和方差,若方差大于预设值,则忽略该主对象;否则将该主对象附近的点投影到X-Y平面,以主对象点云包含的扫描点的均值对应的xy坐标为极点,以传感器中心到极点的方向为极轴,在X-Y平面建立极坐标系;
补充说明:
3)构建描述子Object Scan Context:以极坐标系为基础,考虑极径小于等于设定极坐标半径的范围,将设定极坐标半径划分为Nr等分,每等分称为Ring,将360度极角划分为Ns等分,每等分称为一个扇区,得到Nr*Ns个环扇形栅格;以极角的大小为横轴、以极径的大小为纵轴建立直角坐标系,对应的产生一个Nr×Ns个矩阵,矩阵中每个位置保存对应栅格内所有点的特征,该点的特征包括该点的z坐标即扫描点的高度,或者是扫描点的反射强度以及语义标签等;
4)将描述子Object Scan Context按行计算均值得到一个Nr×1的列向量,称为按行求均值得到的列向量RingKey;按列计算均值得到一个1×Ns的行向量,称为按列求均值得到的行向量SectorKey;构建以按行求均值得到的列向量RingKey为节点构建的k维树结构,以便场景识别时快速搜索候选描述子Object Scan Context;
所述步骤三的场景识别时计算相似度,具体过程如下:
1)搜索候选对象:当设备丢失定位需要重新确定自身位置或者设备回到历史经过的位置需要进行场景识别的时候,在建图过程中已完成构建的k维树结构中,搜索与当前按行求均值得到的列向量RingKey相似的节点对应的描述子Object Scan Context作为候选对象;
2)以行向量计算粗偏移量:遍历候选描述子Object Scan Context,并计算当前按列求均值得到的行向量SectorKey,用该行向量与当前候选描述子Object Scan Context对应的行向量对齐所需要的粗偏移量,所述对齐即为采用平移当前行向量的方法,计算公式如下:
上式表示使得最小对应的shift的取值,式中Sq表示候选描述子ObjectScan Context的按列求均值得到的行向量SectorKey,/>表示当前描述子Object ScanContext的按列求均值得到的行向量SectorKey向左偏移shift个单位,||S||表示向量S的二范数;
3)以偏移窗口计算精偏移量:在以shift为中心的一个偏移窗口内构建如下优化方程,计算出精偏移量和相似度。
(3)式表示使得最小对应的n的取值,n表示偏移单位;
(4)式表示n在[shift-k,shift+k]范围内变化时的最小值,式中shift为粗偏移量,[shift-k,shift+k]表示以shift为中心、以k为半径的偏移量窗口,设k=3,Iq表示候选描述子Object Scan Context,/>表示当前描述子Object Scan Context向左偏移n个单位,d表示两个描述子Object Scan Context的距离,计算公式如下:
式中,代表候选描述子Object Scan Context从左往右第j个列向量,/>代表当前描述子Object Scan Context向左平移n个单位与候选描述子对齐之后从左往右第j个列向量,||c||表示向量c的二范数;相似度计算公式如下,相似度取值范围为0到1,越接近1说明越相似,计算公式如下:
所述步骤四的场景识别时计算当前帧的准确位姿,具体过程如下:
1)若相似度小于阈值,则认为两个描述子Object Scan Context不同,将当前帧对应的按行求均值得到的列向量RingKey作为节点添加到以按行求均值得到的列向量RingKey为节点构建的k维树结构中;
2)若相似度大于阈值,则认为两个描述子Object Scan Context是同一个,结合主对象在当前帧和匹配帧中的观测位置推算出当前帧的位姿。
所述2)具体如下:假设主对象在历史帧的观测位置为(x1,y1),历史帧的位姿为(xo1,yo1o1),主对象在当前帧的观测位置为(x2,y2),推导出当前帧的位姿(xo2,yo2o2)的表达式如下:
xo2=xo1+x1cosθo1+y1sinθo1-x2cosθo2+y2sinθo2 (7)
yo2=yo1+x1sio1+y1cosθo1-x2sinθo2-y2cosθo2 (8)
式中γ为描述子Object Scan Context向左偏移n个单位对应的角度,n为精偏移量。
进一步可以推导出当前帧相对于历史帧的相对位姿为:
Δx=x1-x2cosΔθo+y2sinΔθo (11)
Δy=y1-x2sinΔθo-y2cosΔθo (12)
至此,场景识别结束。
本发明的优点效果
1、不同于其他以设备为中心建立描述子Scan Context的技术,本发明本以主对象为中心建立描述子Object Scan Context,这种不依赖观测位置的描述子Object ScanContext能解决现有技术两帧位置不重合时无法进行场景识别的问题。
2、本技术能在描述子Object Scan Context匹配完成后,快速准确地计算出当前帧的位姿作为重定位的结果或者提供给前端作为点云匹配的初值,或者计算出当前帧与历史帧的相对位姿作为后端的一个约束,提高整个SLAM系统的鲁棒性和定位建图的精度。
3、本技术提出的主对象是场景识别的基础,本技术使用的多种语义筛选方法能够快速有效地确定主对象,为场景识别提供保障。
附图说明
图1为本发明对象级快速场景识别方法主流程图;
图2为图1的S110处理步骤流程图;
图3为本发明语义点云分布直方图;
图4为图1的S120处理步骤流程图;
图5为本发明环扇形栅格矩阵示意图;
图6为图1的S130处理步骤流程图;
图7为图1的S140处理步骤流程图;
图8为本发明场景识别示意图;
具体实施方式
本发明设计原理
1、本发明场景识别的特点。本发明场景识别是基于当前车辆传感器以外的“主对象”实现的,该“主对象”就是当前车辆传感器以外的环境中的物体,如垃圾桶、路灯或树木,如对当前车辆传感器以外的路灯周围的场景进行识别、对当前车辆传感器以外的树木周围的场景进行识别。当在一帧3D点云中检测到主对象,场景识别方法就是对该3D点云中所包含的所有扫描点进行处理,具体处理方法是在主对象的固定范围内建立许多环扇形栅格,该矩阵也称作描述子Object Scan Context,每个主对象描述子Object Scan Context的栅格里面保存该栅格中所有扫描点的Z坐标的均值。每个主对象都有这样一个唯一对应的环扇形栅格矩阵,每个环扇形栅格矩阵中保存的Z值都唯一描述该主对象周围的场景。
2、本发明场景识别的原理。本发明场景识别是识别场景中各个扫描点的空间高度Z、而不是识别场景中各个扫描点的平面X、Y位置,当前场景中各个扫描点的空间高度Z与观测位置无关、或者与当前车辆距离扫描点的远近无关。无论当前车辆传感器距离主对象是远、是近、是偏左、还是偏右,无论当前车辆传感器“站在”相对主对象远一点位置、或“站在”相对主对象近一点位置、或者“站在”相对主对象偏左一点的位置、或者“站在”相对主对象偏右一点的位置,其计算出来的主对象场景中各个扫描点的高度都是一致的,利用这个原理,假设回环检测或重定位时,车辆经过同一场景两次时的传感器位置有差异、并且车辆的方向也会有差异,但车辆位置的差异只是造成激光雷达在水平面位置的移动、而非上下位置的移动,因此激光雷达当在水平面位置移动时计算场景中各个扫描点的Z值是相同的;车辆方向的差异只是造成激光雷达在水平面内从一个角度旋转到另一个角度、而非激光雷达在垂直平面上下角度的旋转,因此激光雷达在水平面内从一个角度旋转到另一个角度时计算场景中各个扫描点的Z值也是相同的。所以两次产生的描述子是相同的,不会误判为两个主对象而是同一个主对象。
3、本发明场景识别与回环检测和重定位的关系。所述回环检测就是车辆前后两次经过地图中同一场景时,分别以主对象为中心建立描述子Object Scan Context,使用本发明的场景识别技术确定两个描述子为同一个描述子并计算出两帧的相对位姿作为建图的一个约束,这种方法可以限制由于建图中匹配算法缺陷以及传感器不准确带来的累计误差。所述重定位就是车辆在定位信息如GPS信号突然消失时,车辆无法确定自身在地图中的位置,也就无法进行后续的规划、控制等自动驾驶行为,这时使用本发明的场景识别技术找到当前帧中描述子Object Scan Context在地图中的位置,从而确定车辆自身的位置。
4、本发明分为三个阶段四个步骤来实现基于语义点云的对象级快速场景识别方法。第一个阶段是建图以前:确定地图中的所有主对象,该主对象需要满足一定条件才能成为主对象:例如在不同的里程里面出现的次数均匀、在不同的里程里分布均匀。在城市道路环境通常主对象选择交通标识、红绿灯等,在园区通常主对象选择垃圾桶、路灯、树干等。第二个阶段是建图过程中:建图过程中要建立每个主对象的描述子Object Scan Context、也就是建立每个主对象的环扇形栅格矩阵,同时,为了快速检索每个主对象的环扇形栅格矩阵,对每个主对象的环扇形栅格矩阵进行简化、建立K维树结构,所述K维树结构就是把一个Nr*Ns的矩阵用Nr×1的列向量表示,当需要识别某个场景时,通过识别该描述子ObjectScan Context对应的Nr×1的列向量加快搜索速度,因为Nr×1就是对栅格中每一行的值求平均、最终得到该矩阵对应的一个列向量,当描述子Object Scan Context旋转时,该Nr×1的列向量是不变的。在数据库中给每个主对象保存对应三个数据:该主对象的描述子Object Scan Context、该描述子Object Scan Context的Nr×1的列向量、该描述子ObjectScan Context的1×Ns的行向量。第三个阶段是场景识别过程中:在这个阶段分为二步,第一步是计算当前帧和历史帧的相似度,第二步是计算当前帧和历史帧的相对位姿。本发明最终目的是通过计算相对位姿对当前帧的建图效果进行优化、或者丢失定位信息时快速找回车辆在地图中的位置。因此第三个阶段的第二步最终落实在计算当前帧和历史帧的相对位姿。在这之前首先判定是否在同一个场景中,只有在同一个场景中的相对位姿才是有效的,因此第三阶段的第一步是通过计算相似度判定是否在同一个场景中。所述当前帧可能会包含多个主对象,假如一个当前帧会包含垃圾桶、树木、路灯三个主对象,当主对象数量超过1个时,则回环检测每次扫描n个主对象,总的次数还是2次。
5、本发明的创造性:创造性在于采用了一种本领域技术人员不容易想到的“以主对象为中心替代以传感器为中心建立场景识别描述子”的方法。现有技术的场景识别方法虽然能快速检索出回环候选帧并计算两帧之间的相似度,但要求两帧坐标基本重合,无法识别位置相差一定距离的两帧的场景;其次,此类方法只能计算出当前帧相对匹配帧的旋转角度,无法计算两帧之间的x和y坐标的偏移,在实际使用时有一定局限性。
本发明和现有技术对比,具有以下创新点:1)区别于以传感器为中心的建立描述子Scan Context的方法,本技术以主对象为中心建立描述子Object Scan Context,无需设备当前帧与历史帧位置重合,只需要两者位置接近且能观测到场景中同样的一个或多个主对象即可,扩大了场景识别的适用范围,提供了方法的鲁棒性。2)本技术中当前帧与匹配帧通过旋转匹配输出旋转角度,结合匹配帧的位置以及主对象在两帧中的观测位置即可计算出当前帧的准确坐标,进一步推算出两帧之间的相对位姿变换(包含x和y方向的偏移)。3)本技术提出了主对象的概念,选择局部与其它物体区分度较高、在整个里程范围内均覆盖较好的物体作为主对象,并且排除周围环境差异小的物体,避免发生误匹配。
6、相关关键词解释:
Frame:帧,传感器的数据以帧的形式读取,每一帧为某一时刻下的一包完整的传感器数据,帧发送接收频率是由设备所使用的系统决定的;
Main Object:主对象,是本技术实现场景识别的基础,对场景中含有的众多语义按一定条件筛选的结果。
Object Scan Context:对象扫描内容,以Main Object为中心,对周围点云类别和分布进行表示的一种形式。
RingKey:将Object Scan Context按行求均值得到的列向量。
SectorKey:将Object Scan Context按列求均值得到的行向量。
KD-tree:以按行求均值得到的列向量为节点构建的k维树结构,可以加速候选Object Scan Context的搜索。
坐标系:本技术使用了直角坐标系和极坐标系,直角坐标系使用机器人操作系统中通用的坐标系定义,为笛卡尔直角坐标系右手系(向前为X轴,向上为Z轴,向左为Y轴),极坐标系定义从极轴开始逆时针旋转为极角的正方向。
位姿:本技术所述位姿为物体在2D空间的位置和姿态,位置为x方向和y方向的坐标,姿态为以x轴为正方向的方位角θ。
观测位置:以传感器中心为坐标原点、设备正方向为X轴、向左为Y轴建立直角坐标系,Main Object在坐标系中的位置称为观测位置。
关键帧:在SLAM算法建图阶段产生的,带有位姿的数据,可作为地图的数据存储方式。
基于以上原理,本发明设计了一种基于语义点云的对象级快速场景识别方法。一种基于语义点云的对象级快速场景识别方法,如图1所示,其特点是,包括以下步骤:
步骤一、建图前确定主对象Main Object:通过语义分割网络对传感器采集的三维点云进行处理,根据语义点云的分布确定主对象Main Object;
确定主对象Main Object的过程如图2所示,具体过程如下:
1)传感器收集环境空间信息输出3D点云,所述传感器包括所有能提供环境空间3D点云信息的传感器:激光雷达、结构光相机、毫米波雷达;
2)使用训练完成的RangeNet++网络处理3D点云,得到每一个扫描点的语义标签;使用广度优先搜索算法聚类出每个物体的具体点云范围,若某个物体的范围内带有其他标签的点的数量较多,则忽略该物体对应的语义,反之该物体对应的语义进入下一轮筛选;
3)动态物体和可移动的静态物体都会造成场景误识别和位姿计算错误,因此过滤掉动态物体、再过滤掉可移动的静态物体;
补充说明:动态物体例如机动车、非机动车、行人等;可移动的静态物体,例如锥桶、路障、水马等。
4)通过语义分布和语义方差确定主对象,具体为:
i、语义分布:以设备行驶的里程为横坐标、语义在不同里程段出现的次数为纵坐标,绘制一维多语义分布直方图,过滤掉不同里程段分布不均匀的语义、以及不同里程段出现次数差别较大的语义。
补充说明:
确定主对象的第一个条件是语义分布均匀,语义分布均匀的目的是在设备行驶的每个里程都布设主对象,在设备行驶的每个里程都布设主对象才能在设备行驶的每个里程都能够进行场景识别。
确定最终主对象Main Object的过程如图3所示,只有语义2适合作为MainObject;语义1在不同里程段出现次数差别较大;语义3整体出现次数少;语义4在200m到250m之间没有出现。经过以上两步筛选,若剩下的可选择语义仍较多,则计算同一语义对应的多个Object Scan Context差异性,根据差异性选择Main Object,筛选方式如下。假设某一语义对应有n个Object Scan Context,将所有对应的SectorKey分别求和得到一个集合{Si|i=1,2...n},计算该集合的方差作为该语义的差异性。每个语义都对应一个方差,挑选出方差最大的三个语义作为最终的Main Object,最终选择的语义可以是一类或者多类,比如在城市道路环境通常选择交通标识、红绿灯等,在园区通常选择垃圾桶、路灯、树干等。
ii、语义方差:设当前语义在当前轨迹上对应n个描述子,将n个描述子对应的n个按列求均值得到的行向量分别求和得到一个集合{Si|i=1,2...n},计算该集合的方差,方差表示数据的离散状态,方差越大,代表n个主对象周围环境差异越大;每个语义在当前轨迹上都对应一个方差,挑选出方差最大的三个语义作为最终的主对象,最终选择的语义可以是一类或者多类。
补充说明:
确定主对象的第二个条件是语义方差。语义方差越大,代表n个主对象周围环境差异越大,所述n个主对象周围环境差异大,不是将n个主对象之间相比,而是将n个主对象周围环境相比,也就是n个主对象各自周围场景相比,假设当前轨迹上有3个垃圾桶,如果3个垃圾桶各自场景中比较相似,也就是语义方差不大,则“垃圾桶”不适合当做主对象,如果3个垃圾桶各自场景中扫描点的高度相差很大,也就是语义方差大,则“垃圾桶”适合当做主对象。
步骤二、建图时构建k维树结构:以主对象Main Object为极点,传感器与主对象Main Object的连线方向为极轴建立极坐标系,并构建描述子Object Scan Context,生成按行求均值得到的列向量RingKey以及按列求均值得到的行向量SectorKey,构建以按行求均值得到的列向量RingKey为节点的k维树结构KD-tree;
所述步骤二的建图过程中,构建k维树结构,该k维树结构就是以每个主对象MainObject描述子Object Scan Context的Nr×1的列向量为节点的树结构:
构建k维树结构如图4所示,具体过程如下:
1)将点云旋转,所述将点云旋转用于消除因车体姿态的原因使得点云和真实世界不对应造成的影响;旋转后的点云的姿态与真实世界的姿态一致,通过此步骤消除设备的姿态对描述子Object Scan Context的影响:假设在某一关键帧中,设备的3D位姿表示为(R,t),R为设备坐标系相对于世界坐标系的旋转变换矩阵,t为设备坐标系相对于世界坐标系的平移变换矩阵,点云用Pt表示,点云中的点用pi表示,首先将点云按以下公式旋转:
P′t:{p′i|p′i=R·pi,pi∈Pt} (1)
补充说明:
此处的点云旋转,是指传感器设备在上下坡或者车辆倾斜、颠簸等过程中,设备的姿态发生变化,通过点云旋转消除设备的姿态对描述子的影响。
2)确定主对象Main Object的X-Y平面坐标:该主对象Main Object的X-Y平面坐标用于过滤掉距离主对象Main Object超过设定极坐标半径范围的扫描点,并且确定有效扫描点对应的所述栅格位置;若在此关键帧中检测到主对象Main Object,通过广度优先搜索算法聚类出该主对象Main Object包含的所有点,用高斯分布拟合,计算主对象MainObject分布的均值和方差,若方差大于预设值,则忽略该主对象Main Object;否则将该主对象Main Object附近的点投影到X-Y平面,以主对象Main Object点云包含的扫描点的均值对应的xy坐标为极点,以传感器中心到极点的方向为极轴,在X-Y平面建立极坐标系;
补充说明:
所述设定极坐标半径范围,例如极径小于等于80米的范围,将80米极径划分为Nr等分,本实施例中取Nr=20,每等分称为Ring,将360度极角划分为Ns等分,本实施例中取Ns=60,每等分称为Sector,得到1200个环扇形栅格。
补充说明:
所述方差预设值应使主对象对应扫描点的xy坐标处于一固定小范围内,目的是避免观测位置不同造成主对象xy坐标计算不准确。预设值需要根据具体情况具体设定,确定预设值之后,系统会忽略xy坐标分布分散的主对象,仅考虑xy坐标分布集中的对象。
3)构建描述子Object Scan Context:以极坐标系为基础,考虑极径小于等于设定极坐标半径的范围,将设定极坐标半径划分为Nr等分,每等分称为Ring,将360度极角划分为Ns等分;设定极坐标角度范围为Ns,每等分称为一个扇区,得到Nr×Ns个环扇形栅格;以极角的大小为横轴、以极径的大小为纵轴建立直角坐标系,对应的产生一个Nr×Ns个矩阵,矩阵中每个环扇形栅格保存对应平面栅格内所有点的特征,该点的特征包括该点的z坐标,或者是对应平面栅格内所有点的z坐标的均值;
补充说明:
如图5所示,右图的横坐标代表角度0-2π,如果取Ns=60,则横坐标每个格子代表6°;纵坐标代表极径,设极径=80米的范围,当Nr=20的时候,则纵坐标每个格子代表4米。当Ns=60时,图5左图按照每6°一份共分为60份,当Nr=20的时候,图5左图每个环的宽度为4米,共有20个环。
4)将描述子Object Scan Context,按行计算均值得到一个Nr×1的列向量,称为按行求均值得到的列向量RingKey;按列计算均值得到一个1×Ns的行向量,称为按列求均值得到的行向量SectorKey;构建以按行求均值得到的列向量RingKey为节点构建的k维树结构KD-tree,以便场景识别时快速搜索候选描述子Object Scan Context;
步骤三、场景识别时,计算历史帧和当前帧的相似度:在以按列求均值得到的行向量SectorKey为节点构建的k维树结构中搜索与当前按行求均值得到的列向量RingKey相似的节点对应的描述子Object Scan Context作为候选,旋转匹配描述子Object ScanContext,计算相似度:
补充说明:
步骤三是在完成步骤一和步骤二的基础上进行场景识别,场景识别是用当前描述子和历史描述子进行径向对比:具体为检测到当前激光雷达扫描得到的3D点云中存在主对象时,按照上述方法生成描述子Object Scan Context,计算当前描述子按行求均值得到的列向量和按列求均值得到的行向量,在k维树结构中搜索出与当前按行求均值得到的列向量相似的列向量对应的描述子Object Scan Context,并用当前描述子和历史描述子作相似度的对比,对比的方法是先通过按列求均值得到的行向量计算粗偏移量、再根据整个描述子在粗偏移量的一定范围内计算精偏移量,然后基于精偏移量计算历史描述子和当前描述子的距离距离越小,相似度越大。
步骤三计算相似度的过程如图6所示,具体过程如下:
1)搜索候选对象:当设备丢失定位需要重新确定自身位置或者设备回到历史经过的位置需要进行场景识别的时候,在建图过程中已完成构建的k维树结构中,搜索与当前按行求均值得到的列向量RingKey相似的节点对应的描述子Object Scan Context作为候选对象;
2)以行向量计算粗偏移量:遍历候选描述子Object Scan Context,并计算当前按列求均值得到的行向量SectorKey,用该行向量与当前候选描述子Object Scan Context对应的行向量对齐所需要的粗偏移量,所述对齐即为采用平移当前行向量的方法,计算公式如下:
上式表示使得最小对应的shift的取值,式中Sq表示候选描述子ObjectScan Context的按列求均值得到的行向量SectorKey,/>表示当前描述子Object ScanContext的按列求均值得到的行向量SectorKey向左偏移shift个单位,||S||表示向量S的二范数;
3)以偏移窗口计算精偏移量:在以shift为中心的一个偏移窗口内构建如下优化方程,计算出精偏移量和相似度。
(3)式表示使得最小对应的n的取值,n表示偏移单位;
(4)式表示n在[shift-k,shift+k]范围内变化时的最小值,式中shift为粗偏移量,[shift-k,shift+k]表示以shift为中心、以k为半径的偏移量窗口,设k=3,Iq表示候选描述子Object Scan Context,/>表示当前描述子Object Scan Context向左偏移n个单位,d表示两个描述子Object Scan Context的距离,计算公式如下:
式中,代表候选描述子Object Scan Context从左往右第j个列向量,/>代表当前描述子Object Scan Context向左平移n个单位与候选描述子对齐之后从左往右第j个列向量,||c||表示向量c的二范数;相似度计算公式如下,相似度取值范围为0到1,越接近1说明越相似,计算公式如下:
步骤四、场景识别时,计算当前帧的准确位姿:根据历史帧和当前帧相似度大小确定场景是否识别成功,基于主对象Main Object在当前帧和匹配帧的观测位置计算出当前帧的准确位姿。
所述计算当前帧的准确位姿如图7所示,具体过程如下:
1)若相似度小于阈值,则认为两个描述子Object Scan Context不同,将当前帧对应的按行求均值得到的列向量RingKey作为节点添加到以按行求均值得到的列向量RingKey为节点构建的k维树结构KD-tree中;
补充说明:
本实施例设置阈值为0.8,如果小于这个阈值,则认为两个描述子Object ScanContext不同,将当前帧对应的按行求均值得到的列向量RingKey作为新的节点添加到KD-tree中。
2)若相似度大于阈值,则认为两个描述子Object Scan Context是同一个,结合主对象Main Object在当前帧和匹配帧中的观测位置推算出当前帧的位姿。
所述推算出当前帧的位姿如图8所示,具体过程如下:
假设主对象Main Object在历史帧的观测位置为(χ1,y1),历史帧的位姿为(xo1,yo1o1),主对象Main Object在当前帧的观测位置为(x2,y2),推导出当前帧的位姿(xo2,yo2o2)的表达式如下:
xo2=xo1+x1cosθo1-y1sinθo1-x2cosθo2+y2sinθo2 (7)
yo2=yo1+x1 sin θo1+y1cos θo1-x2 sin θo2-y2cos θo2 (8)
式中γ为描述子Object Scan Context向左偏移n个单位对应的角度,n为精偏移量。
进一步可以推导出当前帧相对于历史帧的相对位姿为:
Δx=x1-x2cosΔθo+y2sinΔθo (11)
Δy=y1-x2sinΔθo-y2cosΔθo (12)
至此,场景识别结束。
补充说明:
如图8所示,在俯视场景中有两个车道(一个车道是竖直的,另一个是倾斜的)和一个主对象(用星号表示)。
第一次车辆是在竖直车道上行驶,对主对象有一个观测,这时以ρ1为极轴方向建立极坐标系和环扇形栅格描述子,每个栅格中保存了所有扫描点的Z坐标,所以车辆距离主对象远近不会影响描述子的建立。
第二次车辆在倾斜车道上行驶,对主对象有一个新的观测,这时以ρ2为极轴方向建立极坐标系和和环扇形栅格描述子。每个栅格中同样保存了所有扫描点的Z坐标,所以车辆距离主对象远近不会影响描述子的建立。
可以看出,这两个描述子唯一的不同就是极轴的方向不同,也就是矩阵需要通过向左偏移一定单位才能够匹配上,相当于描述子旋转匹配。
匹配对应的偏移的单位数能算出ρ1和ρ2之间的夹角,再结合主对象在两帧中的位置(车辆距离主对象远近在这一步用上了),就能算出两帧车辆的相对位姿。
以上所述并非是对本发明的限制,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明实质范围的前提下,还可以做出若干变化、改型、添加或替换,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于语义点云的对象级快速场景识别方法,其特征在于,包括以下步骤:
步骤一、建图前确定主对象:通过语义分割网络对传感器采集的三维点云进行处理,根据语义点云的分布确定主对象;
步骤二、建图同时构建k维树结构:以主对象为极点,传感器与主对象的连线方向为极轴建立极坐标系,并构建描述子,生成按行求均值得到的列向量、以及按列求均值得到的行向量,构建以按行求均值得到的列向量为节点构建的k维树结构;
步骤三、场景识别时,计算历史帧和当前帧的相似度:在以按行求均值得到的列向量为节点构建的k维树结构中搜索与当前按行求均值得到的列向量相似的节点对应的描述子作为候选,旋转匹配描述子,计算相似度:
式中,D为两个描述子对应列向量余弦距离的平均值;
步骤四、场景识别时,计算当前帧的准确位姿:根据历史帧和当前帧相似度大小确定场景是否识别成功,基于主对象在当前帧和匹配帧的观测位置计算出当前帧的准确位姿;
所述步骤三的场景识别时计算相似度,具体过程如下:
1)搜索候选对象:当设备丢失定位需要重新确定自身位置或者设备回到历史经过的位置需要进行回环检测的时候,在建图过程中已完成构建的k维树结构中,搜索与当前按行求均值得到的列向量相似的节点对应的描述子作为候选对象;
2)以行向量计算粗偏移量:遍历候选描述子,并计算当前描述子按列求均值得到的行向量,用该行向量与当前候选描述子对应的行向量对齐所需要的粗偏移量,所述对齐即为采用平移当前行向量的方法,计算公式如下:
上式表示使得最小对应的shift的取值,式中Sq表示候选描述子的按列求均值得到的行向量,Ns为按列求均值得到的行向量的列数;/>表示当前描述子的按列求均值得到的行向量向左偏移shift个单位,||S||表示向量S的二范数;
3)以偏移窗口计算精偏移量:在以shift为中心的一个偏移窗口内构建如下优化方程,计算出精偏移量和相似度;
(3)式表示使得最小对应的n的取值,n表示偏移单位;
(4)式表示n在[shift-k,shift+k]范围内变化时的最小值,式中shift为粗偏移量,[shift-k,shift+k]表示以shift为中心、以k为半径的偏移量窗口,设k=3,Iq表示候选描述子,/>表示当前描述子向左偏移n个单位,d表示两个描述子的距离,计算公式如下:
式中,代表候选描述子Object Scan Context从左往右第j个列向量,/>代表当前描述子Object Scan Context向左平移n个单位与候选描述子对齐之后从左往右第j个列向量,||c||表示向量c的二范数;相似度计算公式如下,相似度取值范围为0到1,越接近1说明越相似,计算公式如下:
式中,Iq表示候选描述子,表示当前描述子向左偏移n个单位。
2.根据权利要求1所述一种基于语义点云的对象级快速场景识别方法,其特征在于:所述步骤一的建图以前,确定主对象,具体过程如下:
1)传感器收集环境空间信息输出3D点云,所述传感器包括所有能提供环境空间3D点云信息的传感器:激光雷达、结构光相机、毫米波雷达;
2)使用训练完成的RangeNet++网络处理3D点云,得到每一个扫描点的语义标签;使用广度优先搜索算法聚类出每个物体的具体点云范围,若某个物体的范围内带有其他标签的点的数量较多,则忽略该物体对应的语义,反之该物体对应的语义进入下一轮筛选;
3)动态物体和可移动的静态物体都会造成场景误识别和位姿计算错误,因此过滤掉动态物体、再过滤掉可移动的静态物体;
4)通过语义分布和语义方差确定主对象,具体为:
i、语义分布:以设备行驶的里程为横坐标、语义在不同里程段出现的次数为纵坐标,绘制一维多语义分布直方图,过滤掉不同里程段分布不均匀的语义、以及不同里程段出现次数差别较大的语义;
ii、语义方差:设当前语义在当前轨迹上对应n个描述子,将n个描述子对应的n个按列求均值得到的行向量分别求和得到一个集合(Si|i=1,2...n},计算该集合的方差,方差表示数据的离散状态,方差越大,代表n个主对象周围环境差异越大;每个语义在当前轨迹上都对应一个方差,挑选出方差最大的三个语义作为最终的主对象,最终选择的语义是一类或者多类。
3.根据权利要求1所述一种基于语义点云的对象级快速场景识别方法,其特征在于:所述步骤二的建图过程中,构建k维树结构,该k维树结构就是每个主对象描述子的Nr×1的列向量、以及1×Ns的行向量:
具体过程如下:
1)将点云旋转,所述将点云旋转用于消除因车体姿态的原因使得点云和真实世界不对应造成的影响;旋转后的点云的姿态与真实世界的姿态一致,通过此步骤消除设备的姿态对描述子的影响:假设在某一关键帧中,设备的3D位姿表示为(R,t),R为设备坐标系相对于世界坐标系的旋转变换矩阵,t为设备坐标系相对于世界坐标系的平移变换矩阵,点云用Pt表示,点云中的点用pi表示,首先将点云按以下公式旋转:
P′t:{p′i|p′i=R·pi,pi∈Pt} (1)
2)确定主对象的X-Y平面坐标:该主对象的X-Y平面坐标用于过滤掉距离主对象超过设定极坐标半径范围的扫描点,并且确定有效扫描点对应的栅格位置;若在此关键帧中检测到主对象,通过BFS算法聚类出该主对象包含的所有点,用高斯分布拟合,计算主对象分布的均值和方差,若方差大于预设值,则忽略该主对象;否则将该主对象附近的点投影到X-Y平面,以主对象点云包含的扫描点的均值对应的xy坐标为极点,以传感器中心到极点的方向为极轴,在X-Y平面建立极坐标系;所述方差预设值应使主对象对应扫描点处于一固定小范围内,目的是避免观测位置不同造成主对象xy坐标计算不准确;
3)构建描述子:以极坐标系为基础,考虑极径小于等于设定极坐标半径的范围,将设定极坐标半径划分为Nr等分,每等分称为Ring,将360度极角划分为Ns等分;设定极坐标角度范围为Ns,每等分称为一个扇区,得到Nr*Ns个环扇形栅格;以极角的大小为横轴、以极径的大小为纵轴建立直角坐标系,对应的产生一个Nr×Ns的矩阵,矩阵中每个环扇形栅格保存对应平面栅格内所有点的特征,该点的特征包括该点的z坐标,或者是对应平面栅格内所有点的z坐标的均值;
4)将描述子按行计算均值得到一个Nr×1的列向量,称为按行求均值得到的列向量;按列计算均值得到一个1×Ns的行向量,称为按列求均值得到的行向量;构建以按行求均值得到的列向量为节点构建的k维树结构,以便场景识别时快速搜索候选描述子。
4.根据权利要求1所述一种基于语义点云的对象级快速场景识别方法,其特征在于:所述步骤四的场景识别时计算当前帧的准确位姿,具体过程如下:
1)若相似度小于阈值,则认为两个描述子不同,将当前帧对应的按行求均值得到的列向量作为节点添加到以按行求均值得到的列向量为节点构建的k维树结构中;
2)若相似度大于阈值,则认为两个描述子是同一个,结合主对象在当前帧和匹配帧中的观测位置推算出当前帧的位姿。
5.根据权利要求4所述一种基于语义点云的对象级快速场景识别方法,其特征在于:所述2)具体如下:假设主对象在历史帧的观测位置为(x1,y1),历史帧的位姿为(xo1,yo1,θo1),主对象在当前帧的观测位置为(x2,y2),推导出当前帧的位姿(xo2,yo2,θo2)的表达式如下:
xo2=xo1+x1cosθo1-y1sinθo1-x2cosθo2+y2sinθo2 (7)
yo2=yo1+x1sinθo1+y1cosθo1-x2sinθo2-y2cosθo2 (8)
式中,θo1表示历史帧在世界坐标系下的偏航角,θo2表示当前帧在世界坐标系下的偏航角,γ为描述子向左偏移n个单位对应的角度,n为精偏移量;
进一步推导出当前帧相对于历史帧的相对位姿为:
Δx=x1-x2cosΔθo+y2sinΔθo (11)
Δy=y1-x2sinΔθo-y2cosΔθo (12)
至此,场景识别结束。
CN202111118882.8A 2021-09-24 2021-09-24 一种基于语义点云的对象级快速场景识别方法 Active CN113792699B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111118882.8A CN113792699B (zh) 2021-09-24 2021-09-24 一种基于语义点云的对象级快速场景识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111118882.8A CN113792699B (zh) 2021-09-24 2021-09-24 一种基于语义点云的对象级快速场景识别方法

Publications (2)

Publication Number Publication Date
CN113792699A CN113792699A (zh) 2021-12-14
CN113792699B true CN113792699B (zh) 2024-03-12

Family

ID=78879314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111118882.8A Active CN113792699B (zh) 2021-09-24 2021-09-24 一种基于语义点云的对象级快速场景识别方法

Country Status (1)

Country Link
CN (1) CN113792699B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442101B (zh) * 2022-01-28 2023-11-14 南京慧尔视智能科技有限公司 基于成像毫米波雷达的车辆导航方法、装置、设备及介质
CN114627365B (zh) * 2022-03-24 2023-01-31 北京易航远智科技有限公司 场景重识别方法、装置、电子设备及存储介质
CN114418555B (zh) * 2022-03-28 2022-06-07 四川高速公路建设开发集团有限公司 应用于智能建设的项目信息管理方法及管理系统
CN115630185B (zh) * 2022-09-23 2024-02-02 深圳市云洲创新科技有限公司 一种重定位方法、水面航行器及存储介质
CN115661255B (zh) * 2022-12-15 2023-04-28 中国科学技术大学 一种激光slam回环检测与校正方法
CN116721222B (zh) * 2023-08-10 2023-10-31 清华大学 大范围光场语义驱动智能表征与实时重建方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132897A (zh) * 2020-09-17 2020-12-25 中国人民解放军陆军工程大学 一种基于深度学习之语义分割的视觉slam方法
WO2021018690A1 (en) * 2019-07-31 2021-02-04 Continental Automotive Gmbh Method for determining an environmental model of a scene
CN112509053A (zh) * 2021-02-07 2021-03-16 深圳市智绘科技有限公司 机器人位姿的获取方法、装置及电子设备
WO2021072710A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 移动物体的点云融合方法、系统及计算机存储介质
CN112767485A (zh) * 2021-01-26 2021-05-07 哈尔滨工业大学(深圳) 一种基于静态语义信息的点云地图创建与场景辨识方法
CN112784873A (zh) * 2020-12-25 2021-05-11 华为技术有限公司 一种语义地图的构建方法及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11222475B2 (en) * 2020-01-22 2022-01-11 Procore Technologies, Inc. Computer systems and methods for navigating building information models in an augmented environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021018690A1 (en) * 2019-07-31 2021-02-04 Continental Automotive Gmbh Method for determining an environmental model of a scene
WO2021072710A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 移动物体的点云融合方法、系统及计算机存储介质
CN112132897A (zh) * 2020-09-17 2020-12-25 中国人民解放军陆军工程大学 一种基于深度学习之语义分割的视觉slam方法
CN112784873A (zh) * 2020-12-25 2021-05-11 华为技术有限公司 一种语义地图的构建方法及设备
CN112767485A (zh) * 2021-01-26 2021-05-07 哈尔滨工业大学(深圳) 一种基于静态语义信息的点云地图创建与场景辨识方法
CN112509053A (zh) * 2021-02-07 2021-03-16 深圳市智绘科技有限公司 机器人位姿的获取方法、装置及电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Intensity scan context :coding intensity and geometry relations for loop closure detection;Han wang et al.;ICRA;全文 *
Scan context:egocentric spatial descriptor for place recognition within 3D point cloud map;Giseop Kim et al.;IROS;全文 *
基于ORB关键帧匹配算法的机器人SLAM实现;艾青林;余杰;胡克用;陈琦;;机电工程(05);全文 *
基于关键帧的点云建图方法;胡向勇;洪程智;吴世全;;热带地貌(01);全文 *

Also Published As

Publication number Publication date
CN113792699A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN113792699B (zh) 一种基于语义点云的对象级快速场景识别方法
Wang et al. Intensity scan context: Coding intensity and geometry relations for loop closure detection
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN106842231B (zh) 一种道路边界检测及跟踪方法
Schlichting et al. Localization using automotive laser scanners and local pattern matching
Linegar et al. Made to measure: Bespoke landmarks for 24-hour, all-weather localisation with a camera
CN108171131B (zh) 基于改进MeanShift的Lidar点云数据道路标识线提取方法
Ma et al. Generation of horizontally curved driving lines in HD maps using mobile laser scanning point clouds
CN109631855A (zh) 基于orb-slam的高精度车辆定位方法
CN111882612A (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
Steinhauser et al. Motion segmentation and scene classification from 3D LIDAR data
CN114419152B (zh) 一种基于多维度点云特征的目标检测与跟踪方法及系统
CN112667837A (zh) 图像数据自动标注方法及装置
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
Wang et al. Automatic road extraction from mobile laser scanning data
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN111856507B (zh) 一种环境感测实现方法、智能移动设备和存储介质
Zhang et al. Background filtering and vehicle detection with roadside lidar based on point association
WO2021021862A1 (en) Mapping and localization system for autonomous vehicles
CN113936198A (zh) 低线束激光雷达与相机融合方法、存储介质及装置
CN114088099A (zh) 基于已知地图的语义重定位方法、装置、电子设备及介质
Yang et al. Using mobile laser scanning data for features extraction of high accuracy driving maps
Gálai et al. Crossmodal point cloud registration in the Hough space for mobile laser scanning data
Li et al. Visual map-based localization for intelligent vehicles from multi-view site matching
Sun et al. Obstacle Detection of Intelligent Vehicle Based on Fusion of Lidar and Machine Vision.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant