CN113379748A - 一种点云全景分割方法和装置 - Google Patents
一种点云全景分割方法和装置 Download PDFInfo
- Publication number
- CN113379748A CN113379748A CN202010159113.1A CN202010159113A CN113379748A CN 113379748 A CN113379748 A CN 113379748A CN 202010159113 A CN202010159113 A CN 202010159113A CN 113379748 A CN113379748 A CN 113379748A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- segmentation
- video frame
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 111
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013507 mapping Methods 0.000 claims abstract description 69
- 238000004590 computer program Methods 0.000 claims description 9
- 238000009499 grossing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Abstract
本发明提供一种点云全景分割方法和装置,包括:点云建图步骤,将所采集的点云投影到世界坐标系下,以获取建图点云;以及视频帧关联步骤,将所述建图点云中的每个点云点投影到可投影的视频帧中;全景分割步骤,对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。本发明提供借助例如激光雷达、相机和/或组合惯导在建图的同时完成点云全景分割,提供了具有时空一致性的点云全景分割方法。
Description
技术领域
本发明涉及电子技术领域,具体涉及一种多传感器融合建图下的大规模点云全景分割方法和装置。
背景技术
一般而言,点云是指三维空间坐标系下的点集合,可由激光雷达向目标发射激光束获取,也可对建模仿真物体进行稀释点抽取获取。每个点云点可带有空间位置、强度、颜色和时间等信息。
点云全景分割可以应用在自动驾驶、室内仿真、高精地图制作和增强现实等行业中。全景分割的目的是给每个街景点云点标识语义属性,并对属于前景物体的点云点进行编号。对语义点云进行实例感知可辅助自动驾驶的智能导航,对室内语义点云进行网格化可构建虚拟室内环境,对语义点云进行矢量化处理可制作高精地图,对语义点云进行属性提取可叠加到增强现实环境中。全景分割(Panonic segmentation)的概念最先由脸书人工智能中心与海德堡大学提出[2019 CVPR Panoptic segmentation],并应用在图像分割中。该任务融合了场景解析(Scene parsing)和实例分割(Instance segmentation)两个子任务,其中,图像场景解析是预测每个像素点的语义类别,实例分割是预测每个实例物体包含的像素区域。全景分割的具体步骤如图5(a)-5(d)所示。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
为了对点云进行全景分割,首先对视频帧进行全景分割,然后将视频分割结果传递到点云中。例如,采用图像全景分割方法2019 CVPR An End-to-End Network forPanoptic Segmentation对每个视频帧单独进行全景分割,图6为该方法的网络结构。如图6所示,提取视频帧中的语义概率 (semantic segmentation score map:object andstuff)和最后的标识结果 (Panoptic segmentation prediction:ids)并联合为输出结果。因此,输出结果包括概率形式的语义分割和编号形式的实例分割,即每个像素点i的输出结果为{fs(li)∈[0,1],fz(zi)∈{0,...,N}},fs(li)为像素点属于标识li(例如树木、车辆和行人等)的概率,fz(zi)为像素点是编号标识ID(例如,第几个行人)。需要说明的是,如果像素最大标识概率是背景(stuff),那么fz(zi)没有意义。
但是,很明显,上述图像全景分割存在时间不一致的问题。即由于视频帧独立解析的,而这些解析过程没有任何时序关系,所以相邻帧下相同物体的语义编号不一致。
发明内容
有鉴于此,本发明实施例提供一种具有时空一致性的点云全景分割方法和装置,能够完成大规模点云的全景分割,同时避免分割导致的时空不一致问题。
为实现上述目的,根据本发明实施例的第一方面,提供了一种点云全景分割的方法,包括:点云建图步骤,将所采集的点云投影到世界坐标系下,以获取建图点云;视频帧关联步骤,将所述建图点云中的每个点云点投影到可投影的视频帧中;以及全景分割步骤,对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
根据本发明实施例的第二方面,提供根据第一方面所述的点云全景分割方法,其中,在所述点云建图步骤中,通过激光雷达来采集点云。
根据本发明实施例的第三方面,提供根据第一方面所述的点云全景分割方法,其中,在所述点云建图步骤中,通过激光雷达以及组合惯导来采集点云。
根据本发明实施例的第四方面,提供根据第一方面所述的点云全景分割方法,其中,所述视频帧关联步骤包括:针对所述建图点云中的每个点云点,获取该点云点的所述可投影的视频帧的集合;通过将各个点云点投影到其可投影的视频帧的集合中的各个视频帧中,获取所述建图点云中的每个点云点与所述可投影的视频帧的投影关系。
根据本发明实施例的第五方面,提供根据第一方面所述的点云全景分割方法,其中,所述全景分割步骤包括:针对所述可投影的视频帧进行每个点云点的语义分割,以获取每个所述点云点的语义标识概率;以及对每个点云点的经过语义分割获取的语义标识概率进行统一编号。
根据本发明实施例的第六方面,提供根据第五方面所述的点云全景分割方法,其中在对每个所述点云点进行语义分割时,采用局部空间平滑来优化每个所述点云点的语义标识概率。
根据本发明实施例的第七方面,提供根据第五方面所述的点云全景分割方法,其中,根据层次聚类法来完成所述每个点云点的语义标识概率的聚类,将经过层次聚类后属于同一类的点云点进行统一编号。
根据本发明实施例的第八方面,提供一种点云全景分割的装置,其特征在于,点云建图模块,其将所采集的点云投影到世界坐标系下,以获取建图点云;视频帧关联模块,其将所述建图点云中的每个点云点投影到可投影的视频帧中;以及全景分割模块,其对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
根据本发明实施例的第九方面,提供根据第八方面所述的点云全景分割的装置,其中,所述视频帧关联模块针对所述建图点云中的每个点云点,获取该点云点的所述可投影的视频帧的集合,然后,通过将各个点云点投影到其可投影的视频帧的集合中的各个视频帧中,获取所述建图点云中的每个点云点与所述可投影的视频帧的投影关系,并且其中所述全景分割模块针对所述可投影的视频帧进行每个点云点的语义分割,以获取每个所述点云点的语义标识概率,然后对每个点云点的经过语义分割获取的语义标识概率进行统一编号。
根据本发明实施例的第十方面,提供一种点云全景分割电子设备,其特征在于,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面至第七方面中任一所述的方法。
根据本发明实施例的第十一方面,提供一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如第一方面至第七方面中任一所述的方法。
上述发明中的一个实施例具有如下优点或有益效果。
因为采用多传感器融合建图下的大规模点云全景分割方法,借助例如激光雷达、相机和组合惯导在建图的同时完成点云全景分割,提供了具有时空一致性的点云全景分割方法。
根据本发明的点云全景分割方法,将每个场景点独立投影到多个视频帧下,用多个视频帧的全景分割联合对点云点进行语义标识和编号,从而避免了单一视图传递的误解析,保证了空间一致性。其次,大规模点云是由单帧点云沿着时间序列独立投影构建的,同样,视频帧也是沿着该时间序列顺序拍摄的,每个构建好的点云点也是沿着时间轴独立进行全景分割,保证了相邻点云点之间的时间一致性。此外,为了进一步避免分割误差,本发明最后将点云全景分割描述为一个概率最大化问题,由一个全局优化进行平滑优化。
本发明适用于多传感器融合建图构建的点云,同时适用于室内场景和室外街景,在获取过程同步实现全景分割,有助于后期的各种开发应用。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的点云全景分割的方法的主要流程的示意图;
图2是根据本发明实施例的点云全景分割的装置的主要模块的示意图;
图3是根据本发明实施例的测绘建图下的多传感器转换关系的示意图;
图4(a)-4(c)是根据本发明实施例的建图点云在某时刻采集的视频帧下的投影效果的示意图,其中,图4(a)示出视频帧,图4(b)示意性示出建图点云(图中的角度仅为示意,与实际角度有差别),图4(c)示意性示出建图点云在视频帧下的投影点(激光雷达获取的掩码形式的投影);
图5(a)-5(d)示出图像语义分割、实例分割和全景分割的示意图,其中图5(a)示出输入图像的示意图,图5(b)示出场景解析的示意图,图5(c)示出实例分割的示意图,图5(d)全景分割图的示意图;
图6示出图像全景分割方法(2019 CVPR An End-to-End Network for PanopticSegmentation))的网络结构示意图;
图7是本发明实施例可以应用于其中的示例性系统架构图;
图8是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明实施例的点云全景分割的方法的主要流程的示意图,如图1所示,
步骤S101:点云建图步骤,将所采集的点云投影到世界坐标系下,以获取建图点云;
步骤S102:视频帧关联步骤,将所述建图点云中的每个点云点投影到可投影的视频帧中;
步骤S103:全景分割步骤,对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
图2是根据本发明实施例的点云全景分割的装置(200)的主要模块的示意图,如图2所示,
模块201为点云建图模块,其将所采集的点云投影到世界坐标系下,以获取建图点云;
模块202为视频帧关联模块,其将所述建图点云中的每个点云点投影到可投影的视频帧中;
模块203为全景分割模块,其对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
下面对具体实施步骤进行详细阐述。
1.点云建图步骤(S101)
多传感器融合下的点云建图是通过在车载系统中搭载激光雷达,并且可选地搭载组合惯导,然后采用测绘建图或者SLAM建图获取行驶位姿和建图点云。其中,如果采用测绘建图需要在车载系统中搭载组合惯导,如果采用SLAM建图只需要搭载激光雷达即可。
下面以测绘建图为例进行方案阐述。图3所示为测绘建图中多传感器的转换关系。测绘建图是在统一的世界坐标系下,通过激光雷达和/或组合惯导之间的时空位置关系,将激光雷达采集到的点云投影到世界坐标系下,由此获得建图点云。
在每个时刻tI,组合惯导捕获一个该组合惯导在世界坐标下的位姿,可以认为这是世界坐标系到组合惯导坐标系的位姿转换矩阵MW→I(tI)(组合惯导直接获取世界坐标下的位姿,并未经过转换,此处只是用一个位姿转换矩阵符号来表示组合惯导直接获取的位姿)。通过时间同步,假设组合惯导、激光雷达采集数据没有时间偏差,即同一时刻下tI=tL。如图3所示,在车载系统中每个传感器具有自己的局部坐标系,它们之间的位置关系可以通过标定获取。待标定的参数包括:激光雷达到相机的位姿转换矩阵ML→C;组合惯导到激光雷达的位姿转换矩阵MI→L。其中每个位姿包括旋转矩阵和平移向量,即M=[R,T]。ML→C可通过方法[2012 AAAI Automatic Targetless Extrinsic Calibration of a 3D Lidar andCamera by Maximizing Mutual Information]采集自然场景下的激光点云和图像进行自动标定。MI→L可以通过[2013 COTA A Calibration Method for Misalignment Angle ofVehicle-Mounted IMU]在一定条件下进行自动标定。点云建图是将每个时刻下激光雷达采集的点云投影到世界坐标系下,即:
PW_3d=MI→W(tI)ML→IPL_3d,Pw_3d是点云建图后的点云点在世界坐标下的位置。
在SLAM建图下没有组合惯导,而是通过SLAM算法构建一个虚拟世界坐标下,同时获取每个时刻激光雷达在该虚拟世界坐标下的位置转换矩阵MW→L(tL)。
2.视频帧关联步骤(S102)
针对建图点云中的每个点云点,将每个点云点投影到可投影的视频帧中。主要包括两个步骤,具体如下所述。
步骤一:针对建图点云中的每个点云点j,获取该点云点可投影的视频帧的集合。
其中,获取方式包括而不限于下面策略:
1)构建以该点云点位置Pw_3d(j)为中心、半径为R1(例如R1=50米)的范围区域;
2)与上文类似地,通过时间同步,假设组合惯导、激光雷达和相机采集数据没有时间偏差,即同一时刻下tI=tL=tc。同时,待标定的参数还包括相机内参矩阵KC。KC可通过方法[2000 PAMI A Fle7ible New Technique for Camera Calibration]采集一组黑白棋盘格图像进行自动标定。
在测绘建图下计算时刻tC相机拍摄的视频帧在世界坐标系下的位姿为MW→C(tC)=ML→CMI→LMW→I(tC),在SLAM建图下计算时刻tC拍摄的视频帧在世界坐标系下的位姿为MW→C(tC)=ML→CMW→L(tC),从该位姿中抽取位置信息TW→C(tC),其中位姿矩阵是一个4x4的矩阵,其中左上角的3x3矩阵为旋转矩阵,右边的1x3的矩阵即为位置信息,即
3)如果视频帧的位置信息TW→C(tC)落于所述范围区域内,则再次计算该点云点在视频帧下的投影像素点,如果投影点也在视频帧的视域范围之内,则将标记该视频帧为可投影的。通常地,针对每个点云点j,定义其可投影的视频帧的集合为VCj。
步骤二:获取建图点云中每个点云点和可投影的视频帧的投影关系。
通过将各个点云点投影到其可投影的视频帧的集合中的各个视频帧中,获取所述建图点云中的每个点云点与所述可投影的视频帧的投影关系。
具体地,获取每个时刻相机采集视频帧的位姿,从而将世界坐标系下的点云点投影到视频帧中,建立起建图点云点和视频帧中的像素点的对应关系。
在本发明中,将点云建图后的点云点投影到时刻tC所采集的视频帧,投影像素点位置为:PC_2d(tC)=KCML→CMI→LMW→I(tC)PW_3d,图4(a)-4(b)所示为建图后的建图点云在某视频帧下的投影示意结果。
3.全景分割步骤(S103)
在通过多传感器融合的点云建图获取每个点云点在任一时刻所采集视频帧下的投影像素点之后,通过计算完成建图点云的全景分割,使得同一个物体相关的点云点语义编号一致。主要包括两个步骤,具体如下所述。
步骤一:针对可投影的视频帧进行每个点云点的语义分割,以获取每个所述点云点的语义标识概率。
初始定义点云点的语义标识概率为:
其中wC(k,j)为权重,wC(k,j)=exp(-||TW→C(k)-P3d(j)||2/βC),proj(k,j)为点云点j在视频帧k 下的投影点,βC为固定经验参数。从该定义可以看出,本方法用加权求和方式来计算每个点云点的语义标识,该权重定义重复利用了采集视频帧的相机位姿和点云点的距离,即距离点云点越近拍摄时刻采集的视频帧的权重更大,这也从一定程度上避免了相机透视投影存在的远小近大问题。
然后,采用局部空间平滑来优化点云的语义标识概率。针对每个点云点j,获取落在以该点云点位置Pw_3d(j)为中心、半径为R2(例如R2=0.5米) 的范围内的邻域点云点集合。通常地,定义这些邻域点云点集合为VPj。根据邻域点云点的初始标识概率来更新点云点的语义标识为:
其中,wP(k,j)为权重,将其定义为wP(k,j)=exp(-||P3d(k)-P3d(j)||2/βP),βP为固定经验参数。从该定义可以看出,本方法用加权求和方式来更新每个点云点的语义标识,该权重定义重复利用了领域点云点和目标点云点的距离,即距离目标点云点近的领域点云点的权重更大,这一定程度上避免了局部噪点标识。
步骤二:对每个点云点的经过语义分割获得的语义标识概率进行统一编号。
经过建图点云中的点云点投影,每个点云点j在可投影视频帧的集合 VCj下有一个投影点编号集合,定义为VCPj={Frk_Lbk|Frk∈VCj},其中Frk为视频帧编号,Lbk为在该视频帧下的物体编号。
随后,根据层次聚类法来完成建图点云点的聚类,同时将聚为一簇的点云点统一编号。层次聚类法是一种自下而上的聚类算法,首先将每个点云点视为一个单一的簇,然后计算所有簇之间的距离,排序并选取最小距离的点云来合并簇,直到所有的簇聚合满足一定条件。在本发明中,定义点云点的语义标识为最大语义标识概率,然后对属于同一个语义标识的点云集合单独聚类,对语义标识为背景的点云点不进行层次聚类。
定义两个点云簇i,j的距离为:
dist(i,j)=λ1distPos(i,j)+λ2distSet(i,j)+λ3distNum(i,j)。其中,distPos(i,j)为两个点云簇的位置距离,定义为distPos(i,j)=exp(-||Pos(i)-Pos(j)||2/βPos), Pos(·)为点云簇中的质心位置,获取方式包括而不限于计算点云坐标的均值;distSet(i,j)为两个点云簇的语义标识距离,定义为:
distSet(i,j)=Inset(i,j)/Union(i,j),Inset(i,j)为两个点云簇投影点编号集合VCPi,VCPj的交集,Union(i,j)为VCPi,VCPj的并集;distNum(i,j)为两个点云簇中点云个数定义的距离(“点云个数定义的距离”即为点云个数的差异),定义为distNum(i,j)=exp(-min(Num(i),Num(j))/βNum,Num(·)为点云个数;λ1,λ2,λ3为权重,βPos,βNum为固定参数。从该定义可以看出,优先将距离相近、语义标识概率一致、点云数较少点云簇进行合并。在层次聚类中当距离dist(i,j)大于给定阈值T则停止聚类,同时将经过层次聚类后属于同一类的点云点进行统一编号。此处的“阈值”是使用者设定的,一般是实验获得的经验值。
层次聚类的一个缺陷是需要进行距离排序,因此效率较低。为了提高效率,也可以采用一些策略进行提速,例如标记位置距离大于给定阈值的点云簇距离为无穷大,或者先根据位置距离进行聚类再进行上述层次聚类等等。
图7示出了可以应用本发明实施例的点云全景分割方法或点云全景分割装置的示例性系统架构700。
如图7所示,系统架构700可以包括终端设备701、702、703,网络704 和服务器705。网络704用以在终端设备701、702、703和服务器705之间提供通信链路的介质。网络704可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备701、702、703通过网络704与服务器705交互,以接收或发送消息等。终端设备701、702、703上可以安装有各种通讯客户端应用,例如地图类应用、导航类应用、行车记录应用等(仅为示例)。
终端设备701、702、703可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器705可以是提供各种服务的服务器,例如对用户利用终端设备 701、702、703所采集的数据提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对采集的数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,本发明实施例所提供的点云全景分割方法一般由服务器705执行,相应地,点云全景分割装置一般设置于服务器705中。
应该理解,图7中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图8,其示出了适于用来实现本发明实施例的终端设备的计算机系统800的结构示意图。图8示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802 以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810 上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811 被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括发送模块、获取单元、确定单元和第一处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,发送单元还可以被描述为“向所连接的服务端发送图片获取请求的单元”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:点云建图步骤,将所采集的点云投影到世界坐标系下,以获取建图点云;以及视频帧关联步骤,将所述建图点云中的每个点云点投影到可投影的视频帧中;全景分割步骤,对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
根据本发明实施例的技术方案,因为采用多传感器融合建图下的大规模点云全景分割方法,借助例如激光雷达、相机和组合惯导在建图的同时完成点云全景分割,提供了具有时空一致性的点云全景分割方法。
根据本发明的点云全景分割方法,避免了单一视图传递的误解析,保证了空间一致性,保证了相邻点云点之间的时间一致性,进一步避免了分割误差。
本发明适用于多传感器融合建图构建的点云,同时适用于室内场景和室外街景,在获取过程同步实现全景分割,有助于后期的各种开发应用。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (11)
1.一种点云全景分割的方法,包括:
点云建图步骤,将所采集的点云投影到世界坐标系下,以获取建图点云;
视频帧关联步骤,将所述建图点云中的每个点云点投影到可投影的视频帧中;以及
全景分割步骤,对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
2.根据权利要求1所述的点云全景分割的方法,其中
在所述点云建图步骤中,通过激光雷达来采集点云。
3.根据权利要求1所述的点云全景分割的方法,其中
在所述点云建图步骤中,通过激光雷达以及组合惯导来采集点云。
4.根据权利要求1所述的点云全景分割的方法,其中所述视频帧关联步骤包括:
针对所述建图点云中的每个点云点,获取该点云点的所述可投影的视频帧的集合;以及
通过将各个点云点投影到其可投影的视频帧的集合中的各个视频帧中,获取所述建图点云中的每个点云点与所述可投影的视频帧的投影关系。
5.根据权利要求1所述的点云全景分割的方法,其中所述全景分割步骤包括:
针对所述可投影的视频帧进行每个点云点的语义分割,以获取每个所述点云点的语义标识概率;以及
对每个点云点的经过语义分割获取的语义标识概率进行统一编号。
6.根据权利要求5所述的点云全景分割的方法,其中
在对每个所述点云点进行语义分割时,采用局部空间平滑来优化每个所述点云点的语义标识概率。
7.根据权利要求5所述的点云全景分割的方法,其中
根据层次聚类法来完成所述每个点云点的语义标识概率的聚类,将经过层次聚类后属于同一类的点云点进行统一编号。
8.一种点云全景分割的装置,其特征在于,包括:
点云建图模块,其将所采集的点云投影到世界坐标系下,以获取建图点云;
视频帧关联模块,其将所述建图点云中的每个点云点投影到可投影的视频帧中;以及
全景分割模块,其对所述可投影的视频帧进行全景分割,以对每个点云点的语义标识概率进行统一编号。
9.根据权利要求8所述的点云全景分割的装置,其中
所述视频帧关联模块针对所述建图点云中的每个点云点,获取该点云点的所述可投影的视频帧的集合,然后,通过将各个点云点投影到其可投影的视频帧的集合中的各个视频帧中,获取所述建图点云中的每个点云点与所述可投影的视频帧的投影关系,并且
其中所述全景分割模块针对所述可投影的视频帧进行每个点云点的语义分割,以获取每个所述点云点的语义标识概率,然后对每个点云点的经过语义分割获取的语义标识概率进行统一编号。
10.一种点云全景分割电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010159113.1A CN113379748B (zh) | 2020-03-09 | 2020-03-09 | 一种点云全景分割方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010159113.1A CN113379748B (zh) | 2020-03-09 | 2020-03-09 | 一种点云全景分割方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113379748A true CN113379748A (zh) | 2021-09-10 |
CN113379748B CN113379748B (zh) | 2024-03-01 |
Family
ID=77568564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010159113.1A Active CN113379748B (zh) | 2020-03-09 | 2020-03-09 | 一种点云全景分割方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113379748B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114327872A (zh) * | 2021-12-14 | 2022-04-12 | 特赞(上海)信息科技有限公司 | 多媒体异步处理方法及装置 |
CN115100652A (zh) * | 2022-08-02 | 2022-09-23 | 北京卫星信息工程研究所 | 基于高分遥感图像的电子地图自动化生成方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN106780509A (zh) * | 2016-12-01 | 2017-05-31 | 山东交通学院 | 融合多维特征的建筑物点云层次聚类分割方法 |
CN108053420A (zh) * | 2018-01-05 | 2018-05-18 | 昆明理工大学 | 一种基于有限时空分辨率类无关属性动态场景的分割方法 |
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN109214987A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 |
US20190043203A1 (en) * | 2018-01-12 | 2019-02-07 | Intel Corporation | Method and system of recurrent semantic segmentation for image processing |
CN109544456A (zh) * | 2018-11-26 | 2019-03-29 | 湖南科技大学 | 基于二维图像和三维点云数据融合的全景环境感知方法 |
CN109740487A (zh) * | 2018-12-27 | 2019-05-10 | 广州文远知行科技有限公司 | 点云标注方法、装置、计算机设备和存储介质 |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN110009029A (zh) * | 2019-03-28 | 2019-07-12 | 北京智行者科技有限公司 | 基于点云分割的特征匹配方法 |
US20190224847A1 (en) * | 2018-01-23 | 2019-07-25 | Toyota Jidosha Kabushiki Kaisha | Motion trajectory generation apparatus |
CN110197215A (zh) * | 2019-05-22 | 2019-09-03 | 深圳市牧月科技有限公司 | 一种自主驾驶的地面感知点云语义分割方法 |
US20190287254A1 (en) * | 2018-03-16 | 2019-09-19 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
CN110598743A (zh) * | 2019-08-12 | 2019-12-20 | 北京三快在线科技有限公司 | 一种目标对象的标注方法和装置 |
-
2020
- 2020-03-09 CN CN202010159113.1A patent/CN113379748B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN106780509A (zh) * | 2016-12-01 | 2017-05-31 | 山东交通学院 | 融合多维特征的建筑物点云层次聚类分割方法 |
CN109214987A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 |
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN108053420A (zh) * | 2018-01-05 | 2018-05-18 | 昆明理工大学 | 一种基于有限时空分辨率类无关属性动态场景的分割方法 |
US20190043203A1 (en) * | 2018-01-12 | 2019-02-07 | Intel Corporation | Method and system of recurrent semantic segmentation for image processing |
US20190224847A1 (en) * | 2018-01-23 | 2019-07-25 | Toyota Jidosha Kabushiki Kaisha | Motion trajectory generation apparatus |
US20190287254A1 (en) * | 2018-03-16 | 2019-09-19 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN109544456A (zh) * | 2018-11-26 | 2019-03-29 | 湖南科技大学 | 基于二维图像和三维点云数据融合的全景环境感知方法 |
CN109740487A (zh) * | 2018-12-27 | 2019-05-10 | 广州文远知行科技有限公司 | 点云标注方法、装置、计算机设备和存储介质 |
CN110009029A (zh) * | 2019-03-28 | 2019-07-12 | 北京智行者科技有限公司 | 基于点云分割的特征匹配方法 |
CN110197215A (zh) * | 2019-05-22 | 2019-09-03 | 深圳市牧月科技有限公司 | 一种自主驾驶的地面感知点云语义分割方法 |
CN110598743A (zh) * | 2019-08-12 | 2019-12-20 | 北京三快在线科技有限公司 | 一种目标对象的标注方法和装置 |
Non-Patent Citations (3)
Title |
---|
FLORENT GUIOTTE等: "Semantic Segmentation of LiDAR Points Clouds: Rasterization Beyond Digital Elevation Models", IEEE, pages 2016 - 2019 * |
曾碧;黄文;: "一种融合多特征聚类集成的室内点云分割方法", 计算机工程, no. 03, pages 286 - 291 * |
马进全;李玉忠;穆文龙;: "基于空间相似聚类的点云数据分割方法研究与实验", 地理信息世界, no. 02, pages 134 - 138 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114327872A (zh) * | 2021-12-14 | 2022-04-12 | 特赞(上海)信息科技有限公司 | 多媒体异步处理方法及装置 |
CN115100652A (zh) * | 2022-08-02 | 2022-09-23 | 北京卫星信息工程研究所 | 基于高分遥感图像的电子地图自动化生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113379748B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11816907B2 (en) | Systems and methods for extracting information about objects from scene information | |
US11145073B2 (en) | Computer vision systems and methods for detecting and modeling features of structures in images | |
Pintore et al. | State‐of‐the‐art in automatic 3D reconstruction of structured indoor environments | |
CN108734120A (zh) | 标注图像的方法、装置、设备和计算机可读存储介质 | |
CN109242913A (zh) | 采集器相对参数的标定方法、装置、设备和介质 | |
US20190019324A1 (en) | Method and apparatus for generating an abstract texture for a building facade or model | |
WO2021027692A1 (zh) | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 | |
CN110914870B (zh) | 图像网络的注释生成 | |
CN115953535A (zh) | 三维重建方法、装置、计算设备和存储介质 | |
Takacs et al. | 3D mobile augmented reality in urban scenes | |
CN113379748B (zh) | 一种点云全景分割方法和装置 | |
WO2023093085A1 (zh) | 重建物体表面的方法、装置、计算机存储介质和计算机程序产品 | |
CN114511661A (zh) | 图像渲染方法、装置、电子设备及存储介质 | |
CN112053440A (zh) | 单体化模型的确定方法及通信装置 | |
Corral-Soto et al. | 3D town: the automatic urban awareness project | |
Adreani et al. | A photorealistic 3D city modeling framework for smart city digital twin | |
Chen et al. | Semantic segmentation and data fusion of microsoft bing 3d cities and small uav-based photogrammetric data | |
CN113932796A (zh) | 高精地图车道线生成方法、装置和电子设备 | |
Sharma et al. | Navigation in AR based on digital replicas | |
CN115546422A (zh) | 一种建筑物的三维模型构建方法、系统和电子设备 | |
Hu et al. | 3D map reconstruction using a monocular camera for smart cities | |
Porzi et al. | An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone | |
CN117197361B (zh) | 实景三维数据库构建方法、电子设备和计算机可读介质 | |
SHI et al. | Local Scenario Perception and Web AR Navigation | |
Liang et al. | Semantic map construction based on LIDAR and vision fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |