CN108230379A - 用于融合点云数据的方法和装置 - Google Patents

用于融合点云数据的方法和装置 Download PDF

Info

Publication number
CN108230379A
CN108230379A CN201711483869.6A CN201711483869A CN108230379A CN 108230379 A CN108230379 A CN 108230379A CN 201711483869 A CN201711483869 A CN 201711483869A CN 108230379 A CN108230379 A CN 108230379A
Authority
CN
China
Prior art keywords
point cloud
cloud data
image
transfer matrix
frame point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711483869.6A
Other languages
English (en)
Other versions
CN108230379B (zh
Inventor
周旺
闫淼
湛逸飞
段雄
马常杰
郎咸朋
金永刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201711483869.6A priority Critical patent/CN108230379B/zh
Publication of CN108230379A publication Critical patent/CN108230379A/zh
Priority to KR1020180130694A priority patent/KR102125958B1/ko
Priority to US16/232,721 priority patent/US10789771B2/en
Priority to JP2018247572A priority patent/JP6812404B2/ja
Priority to EP18248200.0A priority patent/EP3506203A1/en
Application granted granted Critical
Publication of CN108230379B publication Critical patent/CN108230379B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

根据本公开的示例实施例,提供了一种用于融合点云数据的方法、装置和计算机可读存储介质。该方法包括:获取第一图像和第二图像,该第一图像和第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;基于该第一图像和第二图像,确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵;以及基于该点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。

Description

用于融合点云数据的方法和装置
技术领域
本公开的实施例主要涉及融合点云数据的方法和装置,并且更具体地,涉及用于高精度地图的融合点云数据的方法和装置。
背景技术
点云融合技术对于场景的三维重建至关重要。特别是在高精度地图的三维模型构建过程中,点云融合是决定三维模型构建成功与否的最关键的技术之一。融合点云数据的技术通常会将采集实体从各个不同视角测得的点云数据进行位姿定位,以便统一到一个全局坐标系下,并经过数据融合使之能够便于后续的场景三维重建。
传统的融合点云数据的方案一般包括提取点云特征、进行点云匹配、以及实现点云融合几个主要步骤。但是,对于一些特殊情况,例如在隧道这样的非结构化的场景中,无法提取充足的点云特征,同时缺失位置信息(例如不存在GPS信息),因此,无法对于所获取的点云数据进行位姿定位,从而难以成功地进行点云融合,进而无法有效地基于点云融合进一步实现场景的三维重建。
发明内容
根据本公开的示例实施例,提供了一种用于融合点云数据的方法和装置,使得即使在非结构化场景以及位置信号或惯导信号的质量欠佳的环境中,依然能够成功地进行点云融合。
在本公开的第一方面中,提供了一种用于融合点云数据的方法。该方法包括:获取第一图像和第二图像,该第一图像和该第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;基于该第一图像和该第二图像,确定该第一帧点云数据与该第二帧点云数据之间的点云转移矩阵;以及基于该点云转移矩阵,对该第一帧点云数据与该第二帧点云数据进行融合。
在本公开的第二方面中,提供了一种用于融合点云数据的装置。该装置包括:获取图像模块,用于获取第一图像和第二图像,该第一图像和该第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;图像点云转移矩阵确定模块,用于基于该第一图像和该第二图像,确定该第一帧点云数据与该第二帧点云数据之间的点云转移矩阵;以及点云融合模块,基于该点云转移矩阵,对该第一帧点云数据与该第二帧点云数据进行融合。
在本公开的第三方面中,提供了一种设备,该设备包括:一个或多个处理器;以及存储装置,用于存储一个或多个程序,当该一个或多个程序被该一个或多个处理器执行,使得该一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图;
图2示出了根据本公开的一些实施例的融合点云数据的方法200的流程图;
图3示出了根据本公开实施例的基于图像辅助融合点云数据处理过程300的示意图;
图4示出了根据本公开实施例的基于惯导辅助的融合点云数据处理过程400的示意图;
图5示出了根据本公开实施例的基于点云匹配的融合点云数据处理过程500的示意图;
图6示出了根据本公开实施例的用于融合点云数据的方法600的流程图;
图7示出了基于本公开实施例的融合点云数据的方法所构建的隧道的三维模型效果图
图8示出了根据本公开实施例的用于融合点云数据的装置700的示意性框图;
图9示出了可以用来实施本公开的实施例的示例设备900的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如本文所使用的,术语“场景”可以是运动的、也可以是静止,可以是室内的、也可以是室外的。术语“采集实体”可以但不限于是驾驶系统。驾驶系统可以包括自动驾驶系统和/或非自动驾驶系统。在下文中,以采集车为例来讨论本公开的实施例,然而应当理解,本公开的方案也可以被类似地应用于其他类型的采集实体。
如以上提及的,现有的融合点云数据的方案包括:直接基于激光雷达的点云特征匹配的方式进行点云融合、应用昂贵的惯性测量单元(IMU)或全球定位系统(GPS)进行点云融合、以及直接利用kinect相机进行点云融合等等。经研究表明,上述方案都存在明显的弊端。
具体而言,对于传统的直接基于点云特征匹配的融合方式,由于丰富的点云特征只有在结构化环境中才容易获取,而在非结构化环境中(比如高速公路),其点云特征很少,因此容易造成邻近几帧点云数据无法依赖于点云特征进行匹配,进而难以成功进行点云数据定位,从而无法成功地进行点云融合。
传统的基于IMU、GPS的点云融合方式虽然在多数情况都能取得很好的点云融合效果,但是对于一些存在遮挡的特殊场景(例如城市中高楼林立、树木繁茂的环境),GPS信号的质量欠佳,甚至在有些场景(例如隧道和建筑物内),会出现没有GPS信号的情况。在上述GPS信号的质量不好的场景中,会使得输出的位姿结果不准确,进而导致点云融合失败。
对于传统的直接利用kinect相机图像的点云融合方式,由于kinect相机采集的点云数据稀疏并且精度不够,因此融合效果不佳。
由此可见,当所采集的位置信号质量欠佳并且处于非结构化环境中时,无论是依赖于IMU,还是应用点云匹配来求解两帧点云数据的位姿,都无法满足高精度点云融合的需要。
根据本公开的实施例,提出了一种融合点云数据的方案。根据该方案,当位置信号或惯导信号的质量较差并且所处场景为非结构化环境时,基于所获取针对场景的前后采集时刻的图像的特征匹配,解算出相关联时刻所采集的前后帧点云数据之间的转移矩阵(以下称为“点云转移矩阵”),进而对该前后帧点云数据进行点云融合。具体而言,在位置信号或惯导信号质量不佳的情况下,利用相机所采集的图像中的比较清晰的纹理特征或颜色特征,可以进行图像的特征匹配。由此,可以确定前后两幅图像之间的转移矩阵(以下称为“图像转移矩阵”),进而可以确定相关联的前后两帧点云数据之间的点云转移矩阵,然后进行点云融合。通过采用上述基于图像辅助的点云融合方案,使得即便在诸如隧道等位置信号质量欠佳以及非结构化环境时,也能成功地完成点云融合。以此方式,有效避免了点云融合失败,提高了成功处理的概率。
所提供的融合点云数据的方案还包括,当位置信号、惯导信号的质量高于预定值或者所处场景为结构化环境时,分别基于惯导信号来确定前后帧点云数据的点云转移矩阵,或者直接基于前后帧点云数据的特征匹配来确定前后帧点云数据的点云转移矩阵,然后进行点云融合。通过采用上述方案,可以实现在位置信号的质量得以恢复以及重新回到结构化环境时,采用惯导辅助点云融合或者采用直接基于点云匹配的融合方式,使得既能在位置信号和环境满足预定条件的情况下充分利用惯导和激光雷达的高精度测量数据来确定点云数据的位姿,以便提高点云融合的效果。
以下将参照附图来具体描述本公开的实施例。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。在该示例环境100中,由计算设备120融合点云数据,进而实现场景的三维重建。
在本公开的实施例中,用于采集点云数据的采集实体可以是具有点云采集能力的任何实体,例如,移动设备、交通工具等。同时,采集实体也可以是集成或者承载了具有点云采集能力的设备的各种实体。应当理解,采集实体可以采取诸如有线或者无线数据传输等任何数据传输形式将点云数据传送给计算设备120。这种传送无需是实时传送。无论在何时或者以何种形式将点云数据传送给计算设备120均不会影响计算设备120对点云数据的后续处理。在图1的实施例中,采集实体被示例为采集车110。应当理解,这仅仅是为了说明的目的,而无意进行任何限制。
计算设备120可以基于所获得的多帧点云数据进行点云融合,计算设备120可以设置在采集车110上,也可以设置在车外并且通过无线通信的方式与采集车110进行信号交互。
采集车110上分别设置有激光雷达102、立体相机104、惯导测量单元106和GPS信号接收装置108。激光雷达102用于按照一定的采集频率采集场景130的点云数据,例如在一些实施例中,激光雷达102的采集频率为10Hz,即每秒采集10帧点云数据。立体相机104用于以一定频率(例如8Hz)采集场景130的立体图像。惯性测量单元106用于测量采集车110三轴姿态角(或角速率)以及加速度。惯性测量单元106一般包含了三个单轴的加速度计和三个单轴的陀螺,其输出信号的频率例如是20Hz-50Hz。GPS信号接收装置108用于接收全球定位系统卫星信号并确定采集车110的空间位置。在一些实施例中,激光雷达102、立体相机104和惯导测量单元106三者采用相对固定的方式设置在采集车110上,因此上述三种传感器两两之间的转移矩阵(以下也称为“位姿转移矩阵”)可以预先设定。如果获得其中任一传感器在某一时刻的位姿,都可以经由两两之间的位姿转移矩阵而求解出另外两个传感器在相关联时刻的对应位姿。在一些实施例中,在采集车110开始采集之前,可以预先标定激光雷达102、立体相机104和惯导测量单元106在世界坐标系中的初始位置。例如立体相机104到激光雷达102的位姿转移矩阵为Tc-l(该位姿转移矩阵Tc-l可以预先由人工标定,也可以经由测试过程确定)。与某帧激光雷达对应的相机的位姿例如为Pcam,则可以确定激光雷达在相关联时刻的位姿为Plidar=Tc-l·Pcam。在一些实施例中,可以采用GPS接收装置和惯导测量单元紧耦合的组合惯导设备,例如SPAN-CPT组合导航定位系统,来代替分离的GPS接收装置和惯导测量单元。
激光雷达102、立体相机104、惯导测量单元106和GPS信号接收装置108所采集或输出的信号可以经由有线、无线的方式提供给计算设备120。计算设备120的计算结果,例如点云融合结果或基于点云融合的三维场景或高精度地图可以存储在存储设备122中。
场景130可以是建筑物内(例如地下车库),也可以是任何开放的空间,例如高速公路、城市街区、立交桥和隧道等等,图1示出的是隧道。
图2示出了根据本公开的一些实施例的融合点云数据的方法200的流程图。方法200可以由计算设备120来实现。图3示出了根据本公开实施例的基于图像辅助融合点云数据处理过程300的示意图。为了清楚起见,以下将结合图3具体介绍方法200的内容。在202,计算设备获取第一图像302和第二图像304,第一图像302和第二图像304分别与针对同一场景130所采集的第一帧点云数据和第二帧点云数据相关联。在一些实施例中,该相关联是例如是第一图像302和第二图像304的采集时刻与第一帧点云数据和第二帧点云数据的采集时刻最为接近。藉此,可以基于第一图像302和第二图像304采集时刻的相机位姿来计算第一帧点云数据和第二帧点云数据的采集时刻的位姿306和308。
在一些实施例中,该获取第一图像和第二图像包括:获取与第一帧点云数据和第二帧点云数据相关联的信息,该信息包括定位信号、惯导信号和历史点云数据匹配质量中的至少一项;以及响应于该信息不满足预定条件,获取第一图像和该第二图像。在一些实施例中,如果所获取的定位信号质量低于第一阈值和/或惯导信号的质量低于第二阈值质量,并且历史点云数据的匹配质量低于第三阈值质量,则获取第一图像和第二图像。
在一些实施例中,所获取的定位信号和/或惯导信号的质量低于第一阈值质量例如包括,如果GPS信号的质量标识低于一设定值,则认为该GPS信号的质量欠佳,相应的测量位置信息不够准确,进而无法基于GPS信号和惯导信号所求解的第一帧点云数据和第二帧点云数据的位姿来进行有效的点云融合。在一些实施例中,例如采用SPAN-CPT组合导航定位系统,其中Q值是用于表征GPS信号质量的标识,其是融合了所接收卫星信号的数量、信号强度、信噪比等一些影响GPS信号的因素,解算出来的一个值。该值可以取1至6,每个值表示不同的GPS信号质量等级。例如,该值为1表示GPS信号最好,该值为6表示GPS信号最差。例如在室内、峡谷、森林和隧道等场景,GPS信号会受到遮挡和衰弱,此时,Q值低于预先设定的第一阈值,例如2。在一些实施例中,将Q取值为1或2,可以获得较为理想的点云融合效果。
在一些实施例中,历史点云数据的融合质量低于第三阈值质量例如包括:事先获取两帧点云数据提取一些特征,例如是角点、具有特殊曲率的特征,然后基于所提取特征在两帧点云数据之间进行匹配,根据匹配质量进行评估,当点云数据的匹配质量低于预先设定的第三阈值质量,则确定为历史点云数据匹配质量不满足于定条件,换言之,此时确定为所在的场景为非结构化场景。在一些实施例中,例如在两帧点云数据中各提取一些平面特征,计算一帧上的平面上多点到另一帧中平面的距离,对该距离进行累加,当该距离累加值低于设定值时,认为两帧点云数据的匹配质量符合要求。可以基于前后帧点云数据的匹配纠结点云转移矩阵。例如,在隧道中,由于隧道中没有足够的点云特征,因此容易造成点云数据的匹配质量欠佳,进而导致,此种情况下,不适用直接基于两帧点云数据之间的特征匹配来求解点云转移矩阵。
在204,计算设备120基于第一图像302和第二图像304,确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵。在一些实施例中,首先确定第一图像302和第二图像304之间的图像转移矩阵;然后获取图像与点云数据之间的位姿转移矩阵;再基于图像转移矩阵和位姿转移矩阵,来确定该点云转移矩阵。
在一些实施例中,上文所提及的确定第一图像302和第二图像304之间的图像转移矩阵包括提取该第一图像和第二图像中的匹配的特征,该特征例如是纹理特征、颜色特征或边缘特征;以及基于该匹配的特征,确定该图像转移矩阵。在一些实施例中,利用ICP算法对第一图像302与第二图像304的特征匹配,具体而言,首先确立对应点集,然后根据对应点集确立点云间的坐标变换矩阵。然后迭代以上两步,直至误差函数满足预先设定的精度要求为止。
关于上文提及的确定点云转移矩阵,在一些实施例中,例如已知相机的初始位姿为Pcam1,经第一图像302与第二图像304特征匹配之后,得出第一图像到第二图像的图像转移矩阵为Tc1-c2,则可以推算出采集第二图像时刻相机的位姿为Pcam2=Tc1-c2·Pcam1。在一些实施例中,立体相机的采集图像的频率例如是8Hz,激光雷达的采集频率例如是10Hz。在获知第一图像302与第二图像304的对应位姿及其采集时刻的前提下,根据采集时刻之间的关系,进行线性差值运算,以及基于图像与点云数据之间的位姿转移矩阵,能够确定在第一图像到第二图像采集时刻中的进行采集的第一帧点云数据的位姿320。以次类推,能够获得第二帧点云数据的位姿322,一直到第M帧点云数据的位姿324,其中M为自然数。
关于上文提及的位姿转移矩阵的获取,在一些实施例中,可以人为预先标定,如前文所述;也可以在测试过程中确定。例如,确定被设置于采集实体上的用于获取点云数据的激光雷达的位置和用于获取图像的相机的位置;以及基于该激光雷达的位置和该相机的位置,来确定该位姿转移矩阵。
在206,基于点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。在一些实施例中,如上文所述,在获得第一帧点云数据的位姿320到第M帧点云数据的位姿324之后,或者获得每两帧相邻点云数据的点云转移矩阵之后,将第一帧点云数据330、第二帧点云数据332,直到第M帧点云数据334,按照各帧点云数据位姿,放在同一坐标系下进行点云数据配准,然后将点云数据融合拼接到一起。
在一些实施例中,可以通过多种方式来基于点云转移矩阵对一帧点云数据与二帧点云数据进行融合。例如,可以确定第一帧点云数据和第二帧点云数据在世界坐标系中的点云帧位姿。然后,基于第一帧点云数据和第二帧点云数据中的点在点云数据局部坐标系中的位置以及点云帧位姿,确定该点在世界坐标系中的点位姿,并且基于点位姿进行所述融合。具体而言,基于每帧点云数据的点是在雷达的局部坐标系下的位置,基于每帧点云数据在世界坐标系中的点云帧位姿,将每帧点云数据上的点从激光雷达的局部坐标系转移到世界坐标系下,从而实现点云的融合。在一些实施例中,通过将采集车110在场景130中运动过程中所采集的每一帧点云数据与场景130的局部三维场景的模型拼接、融合,直到构建出场景130的整个三维模型,以便用于高清地图。
通过采用上述融合点云数据的方法200,即基于所获取针对场景的前后采集时刻的图像的特征匹配,解算出相关联时刻所采集的前后帧点云数据之间的点云转移矩阵或点云数据的位姿数据,进而对该前后帧点云数据进行点云融合。进而实现即便在位置信号或惯导信号质量不好并且所处场景为非结构化环境的情况下,依然能够成功地进行点云融合。
在一些实施例中,如果定位信号、惯导信号或历史点云数据匹配质量满足预定条件,例如,定位信号或惯导信号质量较佳,或者历史点云数据匹配质量较好,则可以基于该惯导信号或者基于第一帧点云数据与第二帧点云数据的匹配,来确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵。然后,可以基于该点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。
可选地,在一些实施例中,还可以基于该惯导信号和点云转移矩阵,来更新对应时刻相机的位姿数据。
在一些实施例中,如图4所示,图4示出了根据本公开实施例的基于惯导辅助的融合点云数据处理过程400的示意图。其中,当GPS信号和惯导信号的质量很好,例如大于第四阈值质量,则可以直接利用惯导信号来确定第一帧点云数据422与第二帧点云数据424的各自位姿412和414或二者之间的点云转移矩阵(未示出),进而进行点云融合。在一些实施例中,惯导设备的输出信号的频率例如是50Hz,激光雷达的采集频率例如是10Hz。在获知第一帧点云数据422的采集时刻的前提下,进一步获取在该采集时刻之前的最近惯导信号输出时刻的位姿数据以及输出信号的时刻例如是第一位置数据402,在第一帧点云数据422的采集时刻之后的最近惯导信号输出时刻的位置数据以及输出信号的时刻例如是第二位置数据404。根据激光雷达的采集时刻与惯导信号输出时刻之间的关系,进行线性差值运算,以及基于惯导信号与点云数据之间的位姿转移矩阵,可以确定第一帧点云数据的位姿412。以次类推,能够获得第二帧点云数据的位姿414,一直到第M帧点云数据的位姿416。然后基于所获得的点云数据的位姿为对第一帧点云数据422直至第M帧点云数据426进行融合。
在一些实施例中,可以直接基于激光雷达所采集的多帧点云数据中的前后帧点云数据进行匹配以便计算点云转移矩阵。如图5所示,图5示出了根据本公开实施例的基于点云匹配的融合点云数据处理过程500的示意图。其中,当GPS信号和惯导信号的质量欠佳,但是历史点云数据匹配质量满足预定条件,即处于结构化场景中,可以直接基于激光雷达502所采集的前后帧点云数据的匹配,例如经由第一帧点云数据506与第二帧点云数据508的特征匹配,来确定第一、二帧点云数据之间的点云转移矩阵512,以此类推,进而依次确定第M-1帧到第M帧点云数据之间的点云转移矩阵514,基于上述点云转移矩阵对第1帧到第M帧点云数据进行点云融合,其中,M为自然数。通过采用上述方式,使得当采集车110离开隧道等依赖于图像辅助点云融合的环境后,响应于位置信号质量的恢复,及时切换到依赖于惯导数据和激光点云数据这些高精度的位姿数据辅助进行点云融合,以便提高融合的精度与效果。
图6示出了根据本公开实施例的用于融合点云数据的方法600的流程图。如图6所示,在602,获取定位信号、惯导信号和历史点云数据匹配质量。在604,判断定位信号是否低于第一阈值质量和/或惯导信号的质量低于第二阈值质量并且历史点云数据的匹配质量低于第三阈值质量;在606,如是,则获取第一图像和第二图像。在608,基于纹理和/或颜色特征对第一图像与第二图像进行特征匹配,确定第一图像和第二图像之间的图像转移矩阵。在610,获取图像与点云数据之间的位姿转移矩阵。在612,基于图像转移矩阵和位姿转移矩阵,经由线性差值运算来确定相关联的两帧点云数据之间的点云转移矩阵。在614,基于点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。在620,判断定位信号质量是否高于第四阈值质量;在622,响应于定位信号质量是否高于第四阈值质量,基于惯导信号,来确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵,其中第四阈值质量高于第一阈值质量;以及在624,利用点云转移矩阵更新相机位姿,在626,基于所确定的点云转移矩阵对第一帧与第二帧点云数据进行融合。在630,判定定位信号是否高于第一阈值并且历史点云数据的匹配质量高于第三阈值质量;在632,如是,基于第一帧点云数据与第二帧点云数据的匹配,来确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵。在634,利用点云转移矩阵更新相机位姿;以及在636,基于所确定的点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。
通过采用上述方法600,使得在位置信号质量(例如GPS信号)质量很好地时候,基于惯导数据精确定位每帧点云数据的位姿,进而实现高精度的点云融合;同时在GPS信号质量一般,但处于结构化的场景时,直接基于前后帧点云数据之间的特征匹配确定点云转移矩阵,进而避免“GPS信号或惯导信号质量一般”对点云融合效果造成的影响;另外,当GPS信号质量较差并且处于非结构化场景时,基于前后帧图像之间的特征匹配确定对应帧点云数据的点云转移矩阵或位姿,从而使得在GPS信号质量欠佳、甚至不存在GPS信号的情况下,以及处于点云特征不明显的非结构化场景下,依然能够成功地进行点云融合。
图7示出了基于本公开实施例的融合点云数据的方法所构建的隧道的三维模型效果图。从三维模型的融合效果可以看出,即使在隧道的环境下,点云数据成功地被融合。
图8示出了根据本公开实施例的用于融合点云数据的装置700的示意性框图。如图7所示,装置700包括:获取图像模块702,用于获取第一图像和第二图像,该第一图像和第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;图像点云转移矩阵确定模块704,用于基于第一图像和第二图像,确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵;以及点云融合模块706,基于点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。
在一些实施例中,获取图像模块包括:获取关联信号模块,被配置为获取与第一帧点云数据和第二帧点云数据相关联的信息,信息包括定位信号、惯导信号和历史点云数据匹配质量中的至少一项;以及条件模块,被配置为响应于信息不满足预定条件,获取第一图像和第二图像。
在一些实施例中,条件模块包括:阈值模块,被配置为响应于定位信号的质量低于第一阈值质量或者惯导信号的质量低于第二阈值质量,以及历史点云数据匹配质量低于第三阈值质量,来获取第一图像和第二图像。
在一些实施例中,装置700还包括:惯导或点云匹配条件模块,被配置为响应于信息满足预定条件,基于以下至少一项:惯导信号,以及第一帧点云数据与第二帧点云数据的匹配,来确定第一帧点云数据与第二帧点云数据之间的点云转移矩阵;以及点云数据融合模块,被配置为基于点云转移矩阵,对第一帧点云数据与第二帧点云数据进行融合。
在一些实施例中,转移矩阵确定模块包括:图像转移矩阵确定模块,被配置为确定第一图像和第二图像之间的图像转移矩阵;获取位姿转移矩阵模块,被配置为获取图像与点云数据之间的位姿转移矩阵;以及点云转移矩阵确定模块,被配置为基于图像转移矩阵和位姿转移矩阵,确定点云转移矩阵。
在一些实施例中,图像转移矩阵确定模块包括:特征提取模块,被配置为提取第一图像和第二图像中的匹配的特征;以及图像转移矩阵模块,被配置为基于匹配的特征,确定图像转移矩阵。
在一些实施例中,获取位姿转移矩阵模块包括:位置确定模块,被配置为确定被设置于采集实体上的用于获取点云数据的激光雷达的位置和用于获取图像的相机的位置;以及位姿转移矩阵确定模块,被配置为基于激光雷达的位置和相机的位置,确定位姿转移矩阵。
在一些实施例中,点云融合模块包括:点云帧位姿确定模块,被配置为确定第一帧点云数据和第二帧点云数据在世界坐标系中的点云帧位姿;点位姿确定模块,被配置为基于第一帧点云数据和第二帧点云数据中的点在点云数据局部坐标系中的位置,以及点云帧位姿,确定点在世界坐标系中的点位姿;以及融合模块,被配置为基于点位姿进行融合。
图9示出了可以用来实施本公开的实施例的示例设备900的示意性框图。设备900可以用于实现图1的计算设备120。如图所示,设备900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的计算机程序指令或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序指令,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元901执行上文所描述的各个方法和处理,例如方法200和/或600,过程300、400和/或过程500。例如,在一些实施例中,方法200和600、过程300、400和500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由CPU 901执行时,可以执行上文描述的方法200和600、过程300、400和500的一个或多个步骤。备选地,在其他实施例中,CPU 901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200和600以及过程300、400和500。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (18)

1.一种用于融合点云数据的方法,包括:
获取第一图像和第二图像,所述第一图像和所述第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;
基于所述第一图像和所述第二图像,确定所述第一帧点云数据与所述第二帧点云数据之间的点云转移矩阵;以及
基于所述点云转移矩阵,对所述第一帧点云数据与所述第二帧点云数据进行融合。
2.根据权利要求1所述的方法,其中获取所述第一图像和所述第二图像包括:
获取与所述第一帧点云数据和所述第二帧点云数据相关联的信息,所述信息包括定位信号、惯导信号和历史点云数据匹配质量中的至少一项;以及
响应于所述信息不满足预定条件,获取所述第一图像和所述第二图像。
3.根据权利要求2所述的方法,其中响应于确定所述信息不满足预定条件,获取所述第一图像和所述第二图像包括:
响应于所述定位信号的质量低于第一阈值质量或者所述惯导信号的质量低于第二阈值质量,以及历史点云数据匹配质量低于第三阈值质量,来获取所述第一图像和所述第二图像。
4.根据权利要求2所述的方法,还包括:
响应于所述信息满足预定条件,基于以下至少一项:
所述惯导信号,以及
所述第一帧点云数据与所述第二帧点云数据的匹配,
来确定所述第一帧点云数据与所述第二帧点云数据之间的点云转移矩阵;以及
基于所述点云转移矩阵,对所述第一帧点云数据与所述第二帧点云数据进行融合。
5.根据权利要求1所述的方法,其中确定所述第一帧点云数据与所述第二帧点云数据之间的点云转移矩阵包括:
确定所述第一图像和所述第二图像之间的图像转移矩阵;
获取图像与点云数据之间的位姿转移矩阵;以及
基于所述图像转移矩阵和所述位姿转移矩阵,确定所述点云转移矩阵。
6.根据权利要求5所述的方法,其中确定所述第一图像和所述第二图像之间的图像转移矩阵包括:
提取所述第一图像和所述第二图像中的匹配的特征;以及
基于所述匹配的特征,确定所述图像转移矩阵。
7.根据权利要求5所述的方法,其中获取所述位姿转移矩阵包括:
确定被设置于采集实体上的用于获取点云数据的激光雷达的位置和用于获取图像的相机的位置;以及
基于所述激光雷达的位置和所述相机的位置,确定所述位姿转移矩阵。
8.根据权利要求1所述的方法,其中基于所述点云转移矩阵对所述第一帧点云数据与所述第二帧点云数据进行融合包括:
确定所述第一帧点云数据和所述第二帧点云数据在世界坐标系中的点云帧位姿;
基于所述第一帧点云数据和所述第二帧点云数据中的点在点云数据局部坐标系中的位置,以及所述点云帧位姿,确定所述点在世界坐标系中的点位姿;以及
基于所述点位姿进行所述融合。
9.一种用于融合点云数据的装置,包括:
获取图像模块,被配置为获取第一图像和第二图像,所述第一图像和所述第二图像分别与针对同一场景所采集的第一帧点云数据和第二帧点云数据相关联;
转移矩阵确定模块,被配置为基于所述第一图像和所述第二图像,确定所述第一帧点云数据与所述第二帧点云数据之间的点云转移矩阵;以及
点云融合模块,被配置为基于所述点云转移矩阵,对所述第一帧点云数据与所述第二帧点云数据进行融合。
10.根据权利要求9所述的装置,其中所述获取图像模块包括:
获取关联信号模块,被配置为获取与所述第一帧点云数据和所述第二帧点云数据相关联的信息,所述信息包括定位信号、惯导信号和历史点云数据匹配质量中的至少一项;以及
条件模块,被配置为响应于所述信息不满足预定条件,获取所述第一图像和所述第二图像。
11.根据权利要求10所述的装置,其中所述条件模块包括:
阈值模块,被配置为响应于所述定位信号的质量低于第一阈值质量或者所述惯导信号的质量低于第二阈值质量,以及历史点云数据匹配质量低于第三阈值质量,来获取所述第一图像和所述第二图像。
12.根据权利要求9所述的装置,还包括:
惯导或点云匹配条件模块,被配置为响应于所述信息满足预定条件,基于以下至少一项:
所述惯导信号,以及
所述第一帧点云数据与所述第二帧点云数据的匹配,
来确定所述第一帧点云数据与所述第二帧点云数据之间的点云转移矩阵;以及
点云数据融合模块,被配置为基于所述点云转移矩阵,对所述第一帧点云数据与所述第二帧点云数据进行融合。
13.根据权利要求9所述的装置,其中所述转移矩阵确定模块包括:
图像转移矩阵确定模块,被配置为确定所述第一图像和所述第二图像之间的图像转移矩阵;
获取位姿转移矩阵模块,被配置为获取图像与点云数据之间的位姿转移矩阵;以及
点云转移矩阵确定模块,被配置为基于所述图像转移矩阵和所述位姿转移矩阵,确定所述点云转移矩阵。
14.根据权利要求13所述的装置,其中所述图像转移矩阵确定模块包括:
特征提取模块,被配置为提取所述第一图像和所述第二图像中的匹配的特征;以及
图像转移矩阵模块,被配置为基于所述匹配的特征,确定所述图像转移矩阵。
15.根据权利要求13所述的装置,其中所述获取位姿转移矩阵模块包括:
位置确定模块,被配置为确定被设置于采集实体上的用于获取点云数据的激光雷达的位置和用于获取图像的相机的位置;以及
位姿转移矩阵确定模块,被配置为基于所述激光雷达的位置和所述相机的位置,确定所述位姿转移矩阵。
16.根据权利要求9所述的装置,其中所述点云融合模块包括:
点云帧位姿确定模块,被配置为确定所述第一帧点云数据和所述第二帧点云数据在世界坐标系中的点云帧位姿;
点位姿确定模块,被配置为基于所述第一帧点云数据和所述第二帧点云数据中的点在点云数据局部坐标系中的位置,以及所述点云帧位姿,确定所述点在世界坐标系中的点位姿;以及
融合模块,被配置为基于所述点位姿进行所述融合。
17.一种设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
CN201711483869.6A 2017-12-29 2017-12-29 用于融合点云数据的方法和装置 Active CN108230379B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201711483869.6A CN108230379B (zh) 2017-12-29 2017-12-29 用于融合点云数据的方法和装置
KR1020180130694A KR102125958B1 (ko) 2017-12-29 2018-10-30 포인트 클라우드 데이터를 융합하기 위한 방법 및 장치
US16/232,721 US10789771B2 (en) 2017-12-29 2018-12-26 Method and apparatus for fusing point cloud data
JP2018247572A JP6812404B2 (ja) 2017-12-29 2018-12-28 点群データを融合させるための方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
EP18248200.0A EP3506203A1 (en) 2017-12-29 2018-12-28 Method and apparatus for fusing point cloud data technical field

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711483869.6A CN108230379B (zh) 2017-12-29 2017-12-29 用于融合点云数据的方法和装置

Publications (2)

Publication Number Publication Date
CN108230379A true CN108230379A (zh) 2018-06-29
CN108230379B CN108230379B (zh) 2020-12-04

Family

ID=62647167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711483869.6A Active CN108230379B (zh) 2017-12-29 2017-12-29 用于融合点云数据的方法和装置

Country Status (5)

Country Link
US (1) US10789771B2 (zh)
EP (1) EP3506203A1 (zh)
JP (1) JP6812404B2 (zh)
KR (1) KR102125958B1 (zh)
CN (1) CN108230379B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108847121A (zh) * 2018-07-04 2018-11-20 深圳地平线机器人科技有限公司 构建高精度地图的方法和装置
CN108921947A (zh) * 2018-07-23 2018-11-30 百度在线网络技术(北京)有限公司 生成电子地图的方法、装置、设备、存储介质以及采集实体
CN109581324A (zh) * 2018-10-31 2019-04-05 歌尔股份有限公司 异常帧数据的处理方法及装置
CN109598670A (zh) * 2018-11-14 2019-04-09 广州广电研究院有限公司 地图信息采集的内存管理方法、装置、存储介质和系统
CN109613543A (zh) * 2018-12-06 2019-04-12 深圳前海达闼云端智能科技有限公司 激光点云数据的修正方法、装置、存储介质和电子设备
CN109839112A (zh) * 2019-03-11 2019-06-04 中南大学 地下作业设备定位方法、装置、系统及存储介质
CN109859613A (zh) * 2019-01-18 2019-06-07 驭势(上海)汽车科技有限公司 一种基于投影坐标系的高精地图制作方法及车载设备
CN109870706A (zh) * 2019-01-31 2019-06-11 深兰科技(上海)有限公司 一种路面标识的检测方法、装置、设备及介质
CN109901138A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN110018491A (zh) * 2019-04-16 2019-07-16 广州大学 激光扫描方法、装置及激光雷达
CN110146865A (zh) * 2019-05-31 2019-08-20 阿里巴巴集团控股有限公司 用于雷达图像的目标识别方法及装置
CN110163047A (zh) * 2018-07-05 2019-08-23 腾讯大地通途(北京)科技有限公司 一种检测车道线的方法及装置
CN110196441A (zh) * 2019-04-26 2019-09-03 深圳前海达闼云端智能科技有限公司 终端的定位方法、装置、存储介质与设备
CN110673115A (zh) * 2019-09-25 2020-01-10 杭州飞步科技有限公司 雷达与组合导航系统的联合标定方法、装置、设备及介质
CN111220992A (zh) * 2018-11-26 2020-06-02 长沙智能驾驶研究院有限公司 雷达数据融合方法、装置及系统
CN111311742A (zh) * 2020-03-27 2020-06-19 北京百度网讯科技有限公司 三维重建方法、三维重建装置和电子设备
CN111339394A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于获取信息的方法及装置
CN111540015A (zh) * 2020-04-27 2020-08-14 深圳南方德尔汽车电子有限公司 基于点云匹配的位姿计算方法、装置、计算机设备及存储介质
CN111681163A (zh) * 2020-04-23 2020-09-18 北京三快在线科技有限公司 构建点云地图的方法、装置、电子设备和存储介质
CN111724472A (zh) * 2019-03-19 2020-09-29 北京四维图新科技股份有限公司 地图要素空间位置的确定方法和装置
WO2020232709A1 (en) * 2019-05-23 2020-11-26 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for evaluating quality of a point cloud map
CN112051591A (zh) * 2020-08-31 2020-12-08 广州文远知行科技有限公司 一种激光雷达与惯性测量单元的检测方法及相关装置
WO2021056438A1 (zh) * 2019-09-27 2021-04-01 深圳市大疆创新科技有限公司 点云数据处理方法及其装置、激光雷达、可移动平台
CN112767458A (zh) * 2020-11-13 2021-05-07 武汉中海庭数据技术有限公司 激光点云与图像的配准的方法及系统
WO2021114984A1 (zh) * 2019-12-09 2021-06-17 苏州宝时得电动工具有限公司 一种地图数据发送、显示方法、装置、设备及存储介质
CN113362383A (zh) * 2020-03-02 2021-09-07 华为技术有限公司 点云与图像融合方法及装置
CN113950703A (zh) * 2020-05-15 2022-01-18 百度时代网络技术(北京)有限公司 具有用于点云融合的探测器
WO2022133770A1 (zh) * 2020-12-23 2022-06-30 深圳元戎启行科技有限公司 点云法向量的生成方法、装置、计算机设备和存储介质
WO2022227096A1 (zh) * 2021-04-30 2022-11-03 深圳市大疆创新科技有限公司 点云数据的处理方法、设备及存储介质

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109540142B (zh) * 2018-11-27 2021-04-06 达闼科技(北京)有限公司 一种机器人定位导航的方法、装置、计算设备
CN110322553B (zh) * 2019-07-10 2024-04-02 广州建通测绘地理信息技术股份有限公司 激光雷达点云混合现实场景实施放样的方法和系统
KR20210015516A (ko) * 2019-08-02 2021-02-10 네이버랩스 주식회사 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
CN110361010B (zh) * 2019-08-13 2022-11-22 中山大学 一种基于占据栅格地图且结合imu的移动机器人定位方法
CN112393720B (zh) * 2019-08-15 2023-05-30 纳恩博(北京)科技有限公司 目标设备的定位方法及装置、存储介质、电子装置
CN114503044B (zh) * 2019-09-30 2024-08-20 北京航迹科技有限公司 用于在3d点云中自动标记对象的系统和方法
CN112749594B (zh) * 2019-10-31 2022-04-22 浙江商汤科技开发有限公司 信息补全方法、车道线识别方法、智能行驶方法及相关产品
CN110827202A (zh) * 2019-11-07 2020-02-21 上海眼控科技股份有限公司 目标检测方法、装置、计算机设备和存储介质
CN110991526B (zh) * 2019-11-29 2023-11-28 上海有个机器人有限公司 一种非迭代式点云匹配方法、介质、终端和装置
CN111145267B (zh) * 2019-12-25 2023-09-05 重庆自行者科技有限公司 基于imu辅助的360度全景视图多相机标定方法
CN111060888B (zh) * 2019-12-31 2023-04-07 芜湖哈特机器人产业技术研究院有限公司 一种融合icp和似然域模型的移动机器人重定位方法
CN111340834B (zh) * 2020-03-10 2023-05-12 山东大学 基于激光雷达和双目相机数据融合的衬板装配系统及方法
CN111462176B (zh) * 2020-03-13 2024-04-05 深圳市人工智能与机器人研究院 一种目标追踪方法、目标追踪装置及终端设备
CN111311743B (zh) * 2020-03-27 2023-04-07 北京百度网讯科技有限公司 三维重建精度测试方法、测试装置和电子设备
CN111709988B (zh) * 2020-04-28 2024-01-23 上海高仙自动化科技发展有限公司 一种物体的特征信息的确定方法、装置、电子设备及存储介质
CN111553985B (zh) * 2020-04-30 2023-06-13 四川大学 邻图配对式的欧式三维重建方法及装置
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质
CN113763231B (zh) * 2020-06-08 2024-02-09 北京京东乾石科技有限公司 模型生成方法、图像透视图确定方法、装置、设备及介质
CN111833717B (zh) 2020-07-20 2022-04-15 阿波罗智联(北京)科技有限公司 用于定位交通工具的方法、装置、设备和存储介质
CN111999752B (zh) * 2020-08-25 2024-03-26 阿波罗智能技术(北京)有限公司 确定道路信息数据的方法、装置和计算机存储介质
CN112000130B (zh) * 2020-09-07 2023-04-25 哈尔滨工业大学 一种无人机的多机协同高精度建图定位系统
CN113362444B (zh) * 2021-05-21 2023-06-16 北京百度网讯科技有限公司 点云数据的生成方法、装置、电子设备及存储介质
KR102451797B1 (ko) * 2021-06-01 2022-10-12 씨드로닉스(주) 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템
CN113447923A (zh) * 2021-06-29 2021-09-28 上海高德威智能交通系统有限公司 目标检测方法、装置、系统、电子设备及存储介质
CN113920258A (zh) * 2021-09-26 2022-01-11 北京三快在线科技有限公司 地图生成方法、装置、介质及电子设备
CN114659514B (zh) * 2022-03-21 2024-05-31 东南大学 一种基于体素化精配准的LiDAR-IMU-GNSS融合定位方法
US20240163702A1 (en) * 2022-11-10 2024-05-16 Qualcomm Incorporated Heterogeneous point cloud reporting in cellular systems
KR102618951B1 (ko) * 2023-06-20 2023-12-29 주식회사 모빌테크 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102003938A (zh) * 2010-10-11 2011-04-06 中国人民解放军信息工程大学 大型高温锻件热态在位检测方法
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
CN103711050A (zh) * 2013-12-31 2014-04-09 中交第二公路勘察设计研究院有限公司 一种激光雷达道路改扩建勘测设计方法
CN105513128A (zh) * 2016-01-13 2016-04-20 中国空气动力研究与发展中心低速空气动力研究所 基于Kinect的三维数据融合处理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
JP5593177B2 (ja) 2010-09-14 2014-09-17 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
US9129435B2 (en) * 2012-12-04 2015-09-08 Fuji Xerox Co., Ltd. Method for creating 3-D models by stitching multiple partial 3-D models
US9086481B1 (en) * 2013-01-18 2015-07-21 Google Inc. Methods and systems for estimating vehicle speed
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9286538B1 (en) * 2014-05-01 2016-03-15 Hrl Laboratories, Llc Adaptive 3D to 2D projection for different height slices and extraction of robust morphological features for 3D object recognition
JP2016004486A (ja) 2014-06-18 2016-01-12 株式会社リコー 情報処理装置、情報処理プログラム、および情報処理システム
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102003938A (zh) * 2010-10-11 2011-04-06 中国人民解放军信息工程大学 大型高温锻件热态在位检测方法
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
CN103711050A (zh) * 2013-12-31 2014-04-09 中交第二公路勘察设计研究院有限公司 一种激光雷达道路改扩建勘测设计方法
CN105513128A (zh) * 2016-01-13 2016-04-20 中国空气动力研究与发展中心低速空气动力研究所 基于Kinect的三维数据融合处理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NIKHIL NAIKAL等: "Image Augmented Laser Scan Matchign for Indoor Dead Reckoning", 《THE 2009 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
STEPHEN D. FOX等: "An approach to stereo-point cloud registration using image homographies", 《INTELLIGENT ROBOTS AND COMPUTER VISION XXIX:ALGORITHMS AND TECHNIQUES,SPIE,1000 20TH ST》 *
YASHAR BALAZADEGAN SARVROOD等: "Visual-LiDAR Odometry Aided by Reduced IMU", 《ISPRSINTERNATIONAL JOURNAL OF GEO-INFORMATION》 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108847121A (zh) * 2018-07-04 2018-11-20 深圳地平线机器人科技有限公司 构建高精度地图的方法和装置
CN110163047A (zh) * 2018-07-05 2019-08-23 腾讯大地通途(北京)科技有限公司 一种检测车道线的方法及装置
CN108921947B (zh) * 2018-07-23 2022-06-21 百度在线网络技术(北京)有限公司 生成电子地图的方法、装置、设备、存储介质以及采集实体
CN108921947A (zh) * 2018-07-23 2018-11-30 百度在线网络技术(北京)有限公司 生成电子地图的方法、装置、设备、存储介质以及采集实体
CN109581324A (zh) * 2018-10-31 2019-04-05 歌尔股份有限公司 异常帧数据的处理方法及装置
CN109598670A (zh) * 2018-11-14 2019-04-09 广州广电研究院有限公司 地图信息采集的内存管理方法、装置、存储介质和系统
CN111220992B (zh) * 2018-11-26 2022-05-20 长沙智能驾驶研究院有限公司 雷达数据融合方法、装置及系统
CN111220992A (zh) * 2018-11-26 2020-06-02 长沙智能驾驶研究院有限公司 雷达数据融合方法、装置及系统
CN109613543A (zh) * 2018-12-06 2019-04-12 深圳前海达闼云端智能科技有限公司 激光点云数据的修正方法、装置、存储介质和电子设备
CN109901138A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN109901138B (zh) * 2018-12-28 2023-07-04 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN109859613A (zh) * 2019-01-18 2019-06-07 驭势(上海)汽车科技有限公司 一种基于投影坐标系的高精地图制作方法及车载设备
CN109870706A (zh) * 2019-01-31 2019-06-11 深兰科技(上海)有限公司 一种路面标识的检测方法、装置、设备及介质
CN109839112B (zh) * 2019-03-11 2023-04-07 中南大学 地下作业设备定位方法、装置、系统及存储介质
CN109839112A (zh) * 2019-03-11 2019-06-04 中南大学 地下作业设备定位方法、装置、系统及存储介质
CN111724472B (zh) * 2019-03-19 2024-07-02 北京四维图新科技股份有限公司 地图要素空间位置的确定方法和装置
CN111724472A (zh) * 2019-03-19 2020-09-29 北京四维图新科技股份有限公司 地图要素空间位置的确定方法和装置
CN110018491A (zh) * 2019-04-16 2019-07-16 广州大学 激光扫描方法、装置及激光雷达
CN110018491B (zh) * 2019-04-16 2021-06-22 广州大学 激光扫描方法、装置及激光雷达
CN110196441A (zh) * 2019-04-26 2019-09-03 深圳前海达闼云端智能科技有限公司 终端的定位方法、装置、存储介质与设备
WO2020232709A1 (en) * 2019-05-23 2020-11-26 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for evaluating quality of a point cloud map
CN113874681B (zh) * 2019-05-23 2024-06-18 北京嘀嘀无限科技发展有限公司 点云地图质量的评估方法和系统
CN113874681A (zh) * 2019-05-23 2021-12-31 北京嘀嘀无限科技发展有限公司 点云地图质量的评估方法和系统
CN110146865A (zh) * 2019-05-31 2019-08-20 阿里巴巴集团控股有限公司 用于雷达图像的目标识别方法及装置
CN110673115B (zh) * 2019-09-25 2021-11-23 杭州飞步科技有限公司 雷达与组合导航系统的联合标定方法、装置、设备及介质
CN110673115A (zh) * 2019-09-25 2020-01-10 杭州飞步科技有限公司 雷达与组合导航系统的联合标定方法、装置、设备及介质
WO2021056438A1 (zh) * 2019-09-27 2021-04-01 深圳市大疆创新科技有限公司 点云数据处理方法及其装置、激光雷达、可移动平台
WO2021114984A1 (zh) * 2019-12-09 2021-06-17 苏州宝时得电动工具有限公司 一种地图数据发送、显示方法、装置、设备及存储介质
CN111339394A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于获取信息的方法及装置
CN111339394B (zh) * 2020-02-19 2023-08-22 北京百度网讯科技有限公司 用于获取信息的方法及装置
CN113362383A (zh) * 2020-03-02 2021-09-07 华为技术有限公司 点云与图像融合方法及装置
CN111311742A (zh) * 2020-03-27 2020-06-19 北京百度网讯科技有限公司 三维重建方法、三维重建装置和电子设备
CN111681163A (zh) * 2020-04-23 2020-09-18 北京三快在线科技有限公司 构建点云地图的方法、装置、电子设备和存储介质
CN111540015A (zh) * 2020-04-27 2020-08-14 深圳南方德尔汽车电子有限公司 基于点云匹配的位姿计算方法、装置、计算机设备及存储介质
CN113950703A (zh) * 2020-05-15 2022-01-18 百度时代网络技术(北京)有限公司 具有用于点云融合的探测器
CN113950703B (zh) * 2020-05-15 2024-06-21 百度时代网络技术(北京)有限公司 确定外参矩阵是否准确的方法、装置及数据处理系统
CN112051591B (zh) * 2020-08-31 2022-11-29 广州文远知行科技有限公司 一种激光雷达与惯性测量单元的检测方法及相关装置
CN112051591A (zh) * 2020-08-31 2020-12-08 广州文远知行科技有限公司 一种激光雷达与惯性测量单元的检测方法及相关装置
CN112767458B (zh) * 2020-11-13 2022-07-29 武汉中海庭数据技术有限公司 激光点云与图像的配准的方法及系统
CN112767458A (zh) * 2020-11-13 2021-05-07 武汉中海庭数据技术有限公司 激光点云与图像的配准的方法及系统
WO2022133770A1 (zh) * 2020-12-23 2022-06-30 深圳元戎启行科技有限公司 点云法向量的生成方法、装置、计算机设备和存储介质
CN116097305A (zh) * 2020-12-23 2023-05-09 深圳元戎启行科技有限公司 点云法向量的生成方法、装置、计算机设备和存储介质
WO2022227096A1 (zh) * 2021-04-30 2022-11-03 深圳市大疆创新科技有限公司 点云数据的处理方法、设备及存储介质

Also Published As

Publication number Publication date
CN108230379B (zh) 2020-12-04
US20190206123A1 (en) 2019-07-04
KR102125958B1 (ko) 2020-06-24
JP6812404B2 (ja) 2021-01-13
KR20190082068A (ko) 2019-07-09
US10789771B2 (en) 2020-09-29
EP3506203A1 (en) 2019-07-03
JP2019145089A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
CN108230379A (zh) 用于融合点云数据的方法和装置
KR102273559B1 (ko) 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체
CN109931945B (zh) Ar导航方法、装置、设备和存储介质
CN106461402B (zh) 用于确定相对于数字地图的位置的方法及系统
JP5435306B2 (ja) 画像処理システム及び位置測位システム
CN103377476B (zh) 使用三维地理弧的多模型数据的图像配准
JP5057184B2 (ja) 画像処理システム及び車両制御システム
CN106296814B (zh) 公路养护检测与可视化交互方法和系统
EP2458336A1 (en) Method and system for reporting errors in a geographic database
JP6950832B2 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN108051836A (zh) 一种定位方法、装置、服务器及系统
JP4610425B2 (ja) 地図情報更新方法及びナビゲーション装置
CN115344655A (zh) 地物要素的变化发现方法、装置及存储介质
CN113284239B (zh) 一种关于智慧城市的电子沙盘制作方法及装置
CN115409910A (zh) 一种语义地图构建方法、视觉定位方法及相关设备
CN108195359A (zh) 空间数据的采集方法及系统
KR100221401B1 (ko) 위성항법장치를 이용한 컴퓨터 수치지도상에의 동영상의 지원방법과 디스플레이방법 및 그 동영상의 지원시스템
CN111833253B (zh) 兴趣点空间拓扑构建方法和装置、计算机系统和介质
JP5177579B2 (ja) 画像処理システム及び位置測位システム
CN114419180A (zh) 重构高精地图的方法、装置和电子设备
JP2005056186A (ja) 交通状況観測システム
Jonas et al. IMAGO: Image-guided navigation for visually impaired people
US20240142239A1 (en) Method, device, system and computer readable storage medium for locating vehicles
CN111724472B (zh) 地图要素空间位置的确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant