CN108198145B - 用于点云数据修复的方法和装置 - Google Patents

用于点云数据修复的方法和装置 Download PDF

Info

Publication number
CN108198145B
CN108198145B CN201711480175.7A CN201711480175A CN108198145B CN 108198145 B CN108198145 B CN 108198145B CN 201711480175 A CN201711480175 A CN 201711480175A CN 108198145 B CN108198145 B CN 108198145B
Authority
CN
China
Prior art keywords
point cloud
cloud data
image
data frame
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711480175.7A
Other languages
English (en)
Other versions
CN108198145A (zh
Inventor
闫淼
湛逸飞
周旺
段雄
朗咸朋
马常杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201711480175.7A priority Critical patent/CN108198145B/zh
Publication of CN108198145A publication Critical patent/CN108198145A/zh
Priority to KR1020180130585A priority patent/KR102126724B1/ko
Priority to US16/232,797 priority patent/US10970864B2/en
Priority to EP18248062.4A priority patent/EP3506161A1/en
Priority to JP2018247307A priority patent/JP6745328B2/ja
Application granted granted Critical
Publication of CN108198145B publication Critical patent/CN108198145B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请涉及用于点云数据修复的方法和装置。生成点云数据修复模型的方法包括:获得与第一点云数据帧相关联的至少一个2D图像;根据2D图像中物体的属性将第一点云数据帧划分成至少一个点云数据集合;针对每个点云数据集合:从2D图像中确定与第一点云数据帧的匹配图像,匹配图像为数据采集位置和/或时间上与第一点云数据帧匹配;根据第一点云数据帧和与之相关联的至少一个第二点云数据帧,确定匹配图像中像素点的3D位置数据;以及将匹配图像中对应像素点的2D位置和3D位置数据作为训练模型的训练输入和输出数据,通过深度学习网络生成用于该点云数据集合所对应物体的点云数据修复模型。利用构建的模型可实现点云数据的修复,由此提高准确性和普适性。

Description

用于点云数据修复的方法和装置
技术领域
本公开的实施例涉及点云数据处理领域,并且更具体地涉及用于点云数据修复的方法和装置。
背景技术
点云数据(Point Cloud)被广泛用于各种行业中的三维(3D)重建应用中。点云数据是描述3D场景的3D坐标系中的点数据的集合。通常,点云数据中的点数据表征物体的外表面。根据激光测量或摄影测量原理可以采集到物体表面的每个采样点的空间坐标,从而得到点数据的集合,称之为“点云数据”。
然而,由于采集中的遮挡或远距离,点云数据会出现空洞或过于稀疏,进而不利于目标物体的提取和分割。因此,点云数据的修复成为亟待解决的热点问题之一。
发明内容
根据本公开的示例实施例,提供了一种用于点云数据修复的方案。
在本公开的第一方面中,提供了一种用于生成点云数据修复模型的方法。该方法包括:获得与第一点云数据帧相关联的至少一个二维(2D)图像;根据所述2D图像中物体的属性将所述第一点云数据帧划分成至少一个点云数据集合;以及针对每一个点云数据集合:从所述至少一个2D图像中确定与所述第一点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述第一点云数据帧匹配;根据所述第一点云数据帧以及与所述第一点云数据帧相关联的至少一个第二点云数据帧,确定所述匹配图像中的像素点的3D位置数据;以及将所述匹配图像中对应像素点的2D位置数据和3D位置数据作为训练模型的训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型。
在本公开的第二方面中,提供了一种用于点云数据修复的方法。该方法包括:获得与待修复的点云数据帧相关联的至少一个2D图像;根据所述2D图像中物体的属性将所述待修复的点云数据帧划分成至少一个点云数据集合;以及针对每一个点云数据集合:在所述至少一个2D图像中确定与所述待修复的点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述待修复的点云数据帧匹配;以及基于所述匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对该点云数据集合中的点云数据进行修复。
在本公开的第三方面中,提供了一种用于生成点云数据修复模型的装置。该装置包括:图像获得模块,被配置为获得与第一点云数据帧相关联的至少一个2D图像;点云划分模块,被配置为根据所述2D图像中物体的属性将所述第一点云数据帧划分成至少一个点云数据集合;图像确定模块,被配置为针对每一个点云数据集合,从所述至少一个2D图像中确定与所述第一点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述第一点云数据帧匹配;位置确定模块,被配置为针对每一个点云数据集合,根据所述第一点云数据帧以及与所述第一点云数据帧相关联的至少一个第二点云数据帧,确定所述匹配图像中的像素点的3D位置数据;以及模型生成模块,被配置为针对每一个点云数据集合,将所述匹配图像中对应像素点的2D位置数据和3D位置数据作为训练模型的训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型。
在本公开的第四方面中,提供了一种用于点云数据修复的装置。该装置包括:图像获得模块,被配置为获得与待修复的点云数据帧相关联的至少一个2D图像;点云划分模块,被配置为根据所述2D图像中物体的属性将所述待修复的点云数据帧划分成至少一个点云数据集合;图像确定模块,被配置为针对每一个点云数据集合,在所述至少一个2D图像中确定与所述待修复的点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述待修复的点云数据帧匹配;以及点云修复模块,被配置为针对每一个点云数据集合,基于所述匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对该点云数据集合中的点云数据进行修复。
在本公开的第五方面中,提供了一种设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第六方面中,提供了一种设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据本公开的第二方面的方法。
在本公开的第七方面中,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
在本公开的第八方面中,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第二方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开实施例可以在其中实施的示例环境的示意图;
图2示出了根据本公开实施例的用于生成点云数据修复模型的方法的流程图;
图3示出了根据本公开实施例的用于划分点云数据的方法的流程图;
图4示出了根据本公开实施例的用于确定匹配图像中的像素点的3D位置数据的方法的流程图;
图5示出了根据本公开实施例的用于点云数据修复的方法的流程图;
图6示出了根据本公开实施例的用于生成点云数据修复模型的装置的示意框图;
图7示出了根据本公开的实施例的用于点云数据修复的装置的示意框图;以及
图8示出了可以实施本公开实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如前面提及的,由于采集中的遮挡或远距离,点云数据会出现空洞或过于稀疏,进而不利于目标物体的提取和分割。在已知的传统方案中,通常基于点云数据本身进行一定范围内的线性插值来实现点云数据的修复。在一些技术中,根据2D图像与点云数据的关系,将2D图像中的像素点的2D坐标通过几何关系估算出像素点的3D位置。然而,在这些已有技术中,都是采用直接在点云数据上进行拟合、插值等方法,无法确保准确性和普适性。
本公开实施例的基本构思在于,借助于针对同一场景的海量的图像数据和点云数据,通过训练深度学习网络来生成点云数据修复模型,并且利用点云数据修复模型来实现点云数据的修复。由于通过建模方式来实现点云数据修复,因此保证了方法的普适性。另外,由于利用了海量数据,提高了点云数据修复的准确性。根据本公开的实施例,可以针对同一场景中的不同物体属性来分别构建模型,从而针对点云数据中对应不同物体属性的各个部分分别进行修复。由此可以进一步提高点云数据修复的准确性。
如本文所使用的,术语“模型”可以从训练数据中学习到相应的输入与输出之间的关联,从而在训练完成后可以针对给定的输入,生成对应的输出。应当理解,“模型”也可以被称为“神经网络”、“学习模型”、“学习网络”或“深度学习网络”,等等。
以下将参照附图来具体描述本公开的实施例。
图1示出了本公开的实施例可以在其中实施的示例环境100的示意图。在该示例环境100中,由采集作业车110通过安装在其上的数据采集装置111针对各种场景获取海量的场景数据112。在本公开的实施例中,场景数据112可以包括针对同一场景的点云数据和图像数据二者。在本公开的实施例中,场景数据112还可以包括点云数据和图像数据的采集位置和/或时间信息。
作为示例,在某些实施例中,数据采集装置111例如可以包括诸如光探测和测距(LIDAR)系统、立体摄像机系统、移动激光成像系统等的传感器系统,用于获取针对场景的点云数据。例如,点云数据可以包括3D坐标(XYZ)、激光反射强度和/或颜色信息(RGB)等。在本公开的实施例中,数据采集装置111例如还可以包括诸如照相机、摄像机之类的图像获取单元,用于获取针对场景的图像数据。例如,图像数据可以包括2D坐标(XY)、灰度值等。
如图1所示,场景数据112在获取后可以被存储至存储装置120,以用于后续由计算设备130处理或使用。在本公开的实施例中,存储装置120可以是采集作业车110的本地存储装置或可由其访问的外部存储装置。在其它实施例中,存储装置120可以是计算设备130的本地存储装置或可由其访问的外部存储装置。
在本公开的实施例中,计算设备130可以基于场景数据112来构建点云数据修复模型131。在本公开的实施例中,计算设备130也可以基于构建的点云数据修复模型131对场景数据112中的点云数据进行修复。在其它实施例中,计算设备130也可以基于修复的点云数据重建3D场景。
应理解到,上述环境100仅为示例说明,本公开的实施例并不限于上述应用环境,而是可以用于点云数据处理或修复的任何环境,例如深度相机空洞的填补、制造行业中利用激光雷达对零件的检测等等。下面结合图2至图5详细描述根据本公开实施例的用于点云数据修复的方案的示例性实施。
图2示出了根据本公开实施例的用于生成点云数据修复模型的方法200的流程图。该方法200可以在例如图1中的计算设备130处实施,从而构建点云数据修复模型131。在本公开的实施例中,点云数据是逐帧处理的。
如图2所示,在框205,获得与待处理的点云数据帧相关联的至少一个2D图像。为了描述方便,在本文中也可将该点云数据帧称为“第一点云数据帧”。如上所述,计算设备130可以从场景数据112中获取第一点云数据帧和在采集位置和/或时间上与点云数据帧相关联的图像数据。在此方面的示例实施例将在下文结合图3的框310进行详细描述。
在框210,根据在框205处获得的至少一个2D图像中物体的属性,将第一点云数据帧划分成至少一个点云数据集合。根据本公开的实施例,至少一个2D图像可以是在数据采集位置和/或时间上与该点云数据帧相关联。
例如,在一个实施例中,一个或多个2D图像可以是采集位置在点云数据帧的采集位置的预定距离内的2D图像的集合。备选地或附加地,在某些实施例中,一个或多个2D图像可以是采集时间在围绕第一点云数据帧的采集时间的预定时段内的2D图像的集合。
根据本公开的实施例,计算设备130可以基于对应图像中的物体的不同属性(例如地面、建筑物、动物、人物等),将第一点云数据帧中的点云数据划分成一个或多个点云数据集合,使得每个点云数据集合对应于不同的物体。由此,可以利用一个或多个2D图像赋值一帧点云数据中各点的物体属性。
下面结合图3更详细地描述框210的示例性实施。图3示出了根据本公开实施例的用于划分点云数据的方法300的流程图。该方法300同样可以在例如图1的计算设备130处实施。
如图所示,在框310,获取与第一点云数据帧相关联的至少一个2D图像。如上所述,计算设备130可以从场景数据112中获取第一点云数据帧和在采集位置和/或时间上与该第一点云数据帧相关联的图像数据。
考虑一个示例,例如当前待处理的第一点云数据帧是今天10:00采集的,由于图像和点云数据是同时采集的,所以通过时间戳可以选择例如9:50到10:10之间的图像,作为与第一点云数据帧相关联的图像。在另一个示例中,例如第一点云数据帧的世界坐标下的采集位置是(100,100,3),可以选择与之距离例如在100米范围内的所有采集位置处的图像,作为与第一点云数据帧相关联的图像。应理解到,可以通过本领域已知或未来开发的任意合适方式来获取与第一点云数据帧相关联的图像。
在框320,对至少一个2D图像进行语义分割以确定至少一个2D图像中的像素点所对应的物体。在本公开的实施例中,可以通过本领域已知或未来开发的任意合适的图像语义分割技术来执行该步骤,为避免混淆本公开的思想,这里不再对此进行赘述。通过语义分割,可以区分至少一个2D图像中的各个物体(例如,地面、建筑物、动物、人物等等)对应的像素范围,进而可以确定至少一个2D图像中的各个像素点所对应的物体。
在框330,将第一点云数据帧中的点云数据映射到至少一个2D图像的坐标空间中。这涉及从3D到2D的坐标转换,由此可以得到点云数据与像素点之间的对应关系。应理解到,可以通过本领域已知或未来开发的任意合适方式来实现该映射。在本公开的一个实施例中,可以将点云数据先转换到图像坐标,然后将图像坐标转换到像素坐标。在一个示例中,例如,采集作业车110通过LIDAR获取点云数据并通过相机获取图像数据。通过测量LIDAR和相机的相对位置关系来得到LIDAR和相机的旋转矩阵[R,T]。将点云数据转换到以相机为原点的坐标系下,即
[R,T]*P_lidar=P_camera (1)
其中P_lidar是在LIDAR的坐标系下的点,P_camera是在相机的坐标系下的点。然后将在相机为原点的点云数据映射到图像坐标中,即
X_film=fx*X/Z–x_center;Y_film=fy*Y/Z–y_center (2)
其中X_film为点云数据在图像中的X方向上的位置(像素级),fx为X方向上的焦距,x_center为图像中心点的X方向上的位置(像素级),Y_film为点云数据在图像中的Y方向上的位置(像素级),fy为Y方向上的焦距,y_center为图像中心点的Y方向上的位置(像素级)。然后将图像坐标转换到像素坐标。由此可以得到点云数据与像素点之间的对应关系。
在框340,基于像素点所对应的物体和所述映射,对第一点云数据帧中的点云数据进行聚集,以形成至少一个点云数据集合。根据本公开的实施例,可以基于在框320确定的各个像素点所对应的物体信息,以及在框330得到的点云数据中的点与像素点的对应关系,对点云数据中的各点赋予相应的物体属性,从而基于物体属性对点云数据进行聚类,并形成相应的点云数据集合。
上述结合图3描述的对点云数据的划分是为了后续能够基于不同的物体属性对相应的点云数据分别进行修复。通过基于对点云数据的划分并针对划分后的点云数据分别执行修复,可以提高点云数据修复的准确性,同时也可以提高点云数据修复的效率。应理解到,上述图3的方法仅为示例,本公开实施例并不限于此,而是也可以采用其它合适方式对点云数据进行划分以针对划分后的点云数据分别执行修复。
返回图2,在框220,从至少一个2D图像中确定与所述第一点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述第一点云数据帧匹配。根据本公开的实施例,计算设备130可以从上述至少一个2D图像中找出采集位置和/或时间与第一点云数据帧一致或接近一致的图像作为第一点云数据帧的匹配图像。
在框230,根据第一点云数据帧和与第一点云数据帧相关联的至少一个参考点云数据帧,确定匹配图像中的像素点的3D位置数据。为便于描述,在本文中,参考点云数据帧也可称为“第二点云数据帧”。
根据本公开的实施例,计算设备130可以获取第一点云数据帧之前和/或之后的一个或多个帧作为参考点云数据帧,即,第二点云数据帧。根据本公开的实施例,可以通过多帧点云数据将一个图像中所有的像素点都还原到3D空间中,从而得到像素点与点云数据的一一对应关系。
下面结合图4更详细地描述框230的示例性实施。图4示出了根据本公开实施例的用于确定匹配图像中的像素点的3D位置数据的方法400的流程图。该方法400同样可以在例如图1的计算设备130处实施。
如图4所示,在框410,获取与第一点云数据帧相邻的一个或多个第二点云数据帧。根据本公开的实施例,可以根据需要确定第二点云数据帧的数量,以便能从中确定匹配图像中的每个像素点对应的点云数据,也就是,确定像素点的3D位置数据。
在框420,将第一点云数据帧和第二点云数据帧中的点云数据映射到匹配图像的坐标空间中。这同样涉及从3D到2D的坐标转换,由此可以得到点云数据与像素点之间的对应关系。框420的操作可以通过类似于在框330描述的操作来实施,这里不再赘述。
在框430,基于在框420处执行的映射,确定匹配图像中的像素点的3D位置数据。根据本公开的实施例,基于在框420处的映射,可以得到点云数据与像素点之间的对应关系,从而可以确定出匹配图像中的所有像素点对应的点云数据,即3D位置数据。
在结合图4描述的方法中,可以基于多帧点云数据确定出一张匹配图像中的所有像素点的3D位置数据的真值,这旨在于为后续模型的训练提供相应的训练输出数据。应理解到,上述图4的方法仅为示例,本公开实施例并不限于此,而是也可以采用其它合适方式来确定像素点的3D位置数据的真值以作为模型训练的训练输出数据。
返回图2,在框240,针对点云数据集合中的每一个,分别以匹配图像中的对应像素点的2D位置数据和3D位置数据作为训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型。
根据本公开的实施例,计算设备130可以将对应于同一物体的点云数据集合中的点云数据和匹配图像中对应同一物体的像素点的2D位置数据作为深度学习网络的输入层,将对应同一物体的像素点的3D位置数据作为深度学习网络的输出层,由此训练并生成用于点云数据集合所对应的物体的点云数据修复模型。也就是说,点云数据修复模型是特定于图像中物体的,而不是仅仅特定于整个图像的。这样是有益的,例如能够更准确地训练点云修复模型,使其更具有针对性,并且精度得以提高。
根据本公开的实施例,可以通过本领域已知或未来开发的任意合适的深度学习网络来实现模型的构建。例如,卷积神经网络、循环神经网络、深度神经网络等等。目前主流的深度学习网络层包括输入层、卷积层、池化层(max pooling)、全连接层、输出层等等。可以根据具体的需要来组合这些层,并对每个层给予一些初始值,然后通过训练集的真值修改这些初始值,由此得到的预测准确率结果越来越高。输出层会给出预测值。在训练模式中,会比较预测值和真值之间的差来调整网络中的值。
根据本公开的实施例,可以针对不同物体对应的点云数据,训练对应的深度学习网络来修复对应物体的点云数据。与利用同一个网络修复所有的点云数据相比,准确率更高。
至此结合图2至图4描述了根据本公开实施例的生成点云数据修复模型的过程。下面图5描述根据本公开实施例的使用点云数据修复模型的过程。图5示出了根据公开实施例的用于点云数据修复的方法500的流程图。该方法500可以在例如图1的计算设备130处实施。将会理解,上文描述的方法200可以被视作点云数据恢复模型的训练过程,而下面将要描述的方法500是该模型的使用过程。
如图5所示,在框505,获得与待修复的点云数据帧相关联的至少一个2D图像。该步骤的处理类似于在框205的处理,其它细节可参见前面结合框205的描述。
在框510,根据在框505获得的至少一个2D图像中物体的属性将待修复的点云数据帧划分成至少一个点云数据集合。根据本公开的实施例,计算设备130可以获取与待修复的点云数据帧在采集位置和/或时间上相关联的一个或多个2D图像,并基于待修复的点云数据帧中的点数据所对应的2D图像中物体的属性,将点云数据帧划分成至少一个点云数据集合,以便于后续针对不同物体属性分别执行修复。该步骤的处理类似于在框210的处理,其它细节可参见前面结合框210的描述。
在框520,从至少一个2D图像中确定与所述待修复的点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述待修复的点云数据帧匹配。根据本公开的实施例,计算设备130可以从上述至少一个2D图像中找出采集位置和/或时间与点云数据帧一致或接近一致的图像作为点云数据帧的匹配图像。该步骤的处理类似于在220的处理。
在框530,针对点云数据集合中的每一个,基于匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对点云数据集合中的点云数据进行修复。与模型建立时的训练输入数据类似,在本公开的实施例中,将对应同一物体属性的点云数据集合中的点云数据以及匹配图像中的对应同一物体属性的像素点的2D位置数据作为点云数据修复模型的输入数据。相应地,点云数据修复模型的输出数据即为修复后的对应同一物体属性的点云数据,即匹配图像中的对应同一物体属性的所有像素点的3D位置数据。所谓修复可以是指点云数据中的点数据的填补。
根据本公开的实施例,通过利用海量数据进行建模的方式实现点云数据的修复,确保了方法的准确性和普适性。此外,在本公开的实施例中,可以针对不同物体对应的点云数据,通过预先训练的对应物体的点云数据修复模型来修复对应物体的点云数据。与利用同一个模型修复所有的点云数据相比,准确率更高。
本公开实施例还提供了用于实现上述方法或过程的相应装置。图6示出了根据本公开实施例的用于生成点云数据修复模型的装置600的示意性框图。该装置600可以在例如图1的计算设备130处实施。如图6所示,装置600可以包括图像获得模块605、点云划分模块610、图像确定模块620、位置确定模块630和模型生成模块640。
根据本公开的实施例,图像获得模块605可以被配置为获得与第一点云数据帧相关联的至少一个2D图像。图像获得模块605的操作类似于在图2的框205的操作,其细节不再赘述。
根据本公开的实施例,点云划分模块610可以被配置为基于2D图像中物体的属性将第一点云数据帧划分成至少一个点云数据集合。点云划分模块640的操作类似于在图2的框210的操作,其细节不再赘述。
在本公开的实施例中,点云划分模块610可以包括(图中未示出):语义分割单元,被配置为对至少一个2D图像进行语义分割以确定至少一个2D图像中的像素点所对应的物体;第一映射单元,被配置为将第一点云数据帧中的点云数据映射到至少一个2D图像的坐标空间中;以及数据聚集单元,被配置为基于像素点所对应的物体和所述映射对第一点云数据帧中的点云数据进行聚集,以形成至少一个点云数据集合。这些单元的操作类似于前面参照图3描述的操作,其细节不再赘述。
根据本公开的实施例,图像确定模块620可以被配置为从至少一个2D图像中确定与第一点云数据帧在数据采集位置和/或时间上的匹配图像。图像确定模块620的操作类似于在图2的框220的操作,这里不再赘述。
根据本公开的实施例,位置确定模块630可以被配置为基于第一点云数据帧和与第一点云数据帧相关联的至少一个参考点云数据帧(在本文也称为第二点云数据帧),确定匹配图像中的像素点的3D位置数据。位置确定模块630的操作类似于在图2的框230的操作,其细节不再赘述。
在本公开的实施例中,位置确定模块630可以包括(图中未示出):数据获取单元,被配置为获取与第一点云数据帧相邻的一个或多个点云数据帧作为参考点云数据帧;第二映射单元,被配置为将第一点云数据帧和第二点云数据帧中的点云数据映射到匹配图像的坐标空间中;以及位置确定单元,被配置为基于所述映射,确定匹配图像中的像素点的3D位置数据。这些单元的操作类似于前面参照图4描述的操作,其细节不再赘述。
根据本公开的实施例,模型生成模块640可以被配置为针对点云数据集合中的每一个,分别以匹配图像中的对应像素点的2D位置数据和3D位置数据作为训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型。模型生成模块640的操作类似于在图2的框240的操作,其细节不再赘述。
图7示出了根据本公开实施例的用于点云数据修复的装置700的示意性框图。该装置700同样可以在例如图1的计算设备130处实施。如图7所示,装置700可以包括图像获得模块705、点云划分模块710、图像确定模块720和点云修复模块730。
根据本公开的实施例,图像获得模块705可以被配置为获得与待修复的点云数据帧相关联的至少一个2D图像。图像获得模块705的操作类似于在图5的框505的操作,其细节不再赘述。
根据本公开的实施例,点云划分模块710可以被配置为基于2D图像中物体的属性,将待修复的点云数据帧划分成至少一个点云数据集合。点云划分模块710的操作类似于在图5的框510的操作,其细节不再赘述。
在本公开的实施例中,点云划分模块710可以包括(图中未示出):语义分割单元,被配置为对至少一个2D图像进行语义分割以确定至少一个2D图像中的像素点所对应的物体;第一映射单元,被配置为将待修复的点云数据帧中的点云数据映射到至少一个2D图像的坐标空间中;以及数据聚集单元,被配置为基于像素点所对应的物体和所述映射对待修复的点云数据帧中的点云数据进行聚集,以形成至少一个点云数据集合。这些单元的操作类似于结合图3描述的操作,其细节不再赘述。
根据本公开的实施例,图像确定模块720可以被配置为从所述至少一个2D图像中确定与所述待修复的点云数据帧在数据采集位置和/或时间上的匹配图像。图像确定模块720的操作类似于在图5的框520的操作,这里不再赘述。
根据本公开的实施例,点云修复模块730可以被配置为针对点云数据集合中的每一个,基于匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对点云数据集合中的点云数据进行修复。点云修复模块730的操作类似于在图5的框530的操作,这里不再赘述。
应当理解,装置600和装置700中记载的每个单元分别与参考图2和图5描述的方法200和500中的每个步骤相对应。并且,装置600和装置700及其中包含的单元的操作和特征都对应于上文结合图2至图5描述的操作和特征,并且具有同样的效果,具体细节不再赘述。
装置600和装置700中所包括的单元可以利用各种方式来实现,包括软件、硬件、固件或其任意组合。在一个实施例中,一个或多个单元可以使用软件和/或固件来实现,例如存储在存储介质上的机器可执行指令。除了机器可执行指令之外或者作为替代,装置600和装置700中的部分或者全部单元可以至少部分地由一个或多个硬件逻辑组件来实现。作为示例而非限制,可以使用的示范类型的硬件逻辑组件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD),等等。
图6和图7中所示的这些单元可以部分或者全部地实现为硬件模块、软件模块、固件模块或者其任意组合。特别地,在某些实施例中,上文描述的流程、方法或过程可以由存储系统或与存储系统对应的主机或独立于存储系统的其它计算设备中的硬件来实现。
图8示出了可以用来实施本公开实施例的示例性计算设备800的示意性框图。设备800可以用于实现图1的计算设备130。如图所示,设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的计算机程序指令或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序指令,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元801执行上文所描述的各个方法和处理,例如方法200和/或方法500。例如,在一些实施例中,方法200和/或方法500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM803并由CPU 801执行时,可以执行上文描述的方法200和/或方法500的一个或多个步骤。备选地,在其他实施例中,CPU 801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200和/或方法500。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (16)

1.一种用于生成点云数据修复模型的方法,包括:
获得与第一点云数据帧相关联的至少一个二维(2D)图像;
根据所述2D图像中物体的属性将所述第一点云数据帧划分成至少一个点云数据集合;以及
针对每一个点云数据集合:
从所述至少一个2D图像中确定与所述第一点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述第一点云数据帧匹配;
根据所述第一点云数据帧以及与所述第一点云数据帧相关联的至少一个第二点云数据帧,确定所述匹配图像中的像素点的三维(3D)位置数据;以及
将所述匹配图像中对应像素点的2D位置数据和3D位置数据作为训练模型的训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型,
其中确定所述匹配图像中的像素点的3D位置数据包括:
获取与所述第一点云数据帧相邻的一个或多个点云数据帧,作为所述第二点云数据帧;
将所述第一点云数据帧和所述第二点云数据帧中的点云数据映射到所述匹配图像的坐标空间中;以及
基于所述映射,确定所述匹配图像中的像素点的3D位置数据。
2.根据权利要求1所述的方法,其中所述划分包括:
对所述至少一个2D图像进行语义分割以确定所述至少一个2D图像中的像素点所对应的物体;
将所述第一点云数据帧中的点云数据映射到所述至少一个2D图像的坐标空间中;以及
基于所述像素点所对应的物体和所述映射对所述第一点云数据帧中的点云数据进行聚集,以形成所述至少一个点云数据集合。
3.根据权利要求1或2所述的方法,其中所述至少一个2D图像在数据采集位置和/或时间上与所述第一点云数据帧相关联。
4.一种用于点云数据修复的方法,包括:
获得与待修复的点云数据帧相关联的至少一个二维(2D)图像;
根据所述2D图像中物体的属性将所述待修复的点云数据帧划分成至少一个点云数据集合;以及
针对每一个点云数据集合:
在所述至少一个2D图像中确定与所述待修复的点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述待修复的点云数据帧匹配;以及
基于所述匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对该点云数据集合中的点云数据进行修复,所述点云数据修复模型是根据权利要求1所述的方法生成的。
5.根据权利要求4所述的方法,其中所述划分包括:
对所述至少一个2D图像进行语义分割以确定所述至少一个2D图像中的像素点所对应的物体;
将所述待修复的点云数据帧中的点云数据映射到所述至少一个2D图像的坐标空间中;以及
基于所述像素点所对应的物体和所述映射对所述待修复的点云数据帧中的点云数据进行聚集,以形成所述至少一个点云数据集合。
6.根据权利要求4或5所述的方法,其中所述至少一个2D图像在数据采集位置和/或时间上与所述待修复的点云数据帧相关联。
7.一种用于生成点云数据修复模型的装置,包括:
图像获得模块,被配置为获得与第一点云数据帧相关联的至少一个二维(2D)图像;
点云划分模块,被配置为根据所述2D图像中物体的属性将所述第一点云数据帧划分成至少一个点云数据集合;
图像确定模块,被配置为针对每一个点云数据集合,从所述至少一个2D图像中确定与所述第一点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述第一点云数据帧匹配;
位置确定模块,被配置为针对每一个点云数据集合,根据所述第一点云数据帧以及与所述第一点云数据帧相关联的至少一个第二点云数据帧,确定所述匹配图像中的像素点的三维(3D)位置数据;以及
模型生成模块,被配置为针对每一个点云数据集合,将所述匹配图像中对应像素点的2D位置数据和3D位置数据作为训练模型的训练输入数据和训练输出数据,通过深度学习网络生成用于该点云数据集合所对应的物体的点云数据修复模型,
其中所述位置确定模块包括:
数据获取单元,被配置为获取与所述第一点云数据帧相邻的一个或多个点云数据帧,作为所述第二点云数据帧;
第二映射单元,被配置为将所述第一点云数据帧和所述第二点云数据帧中的点云数据映射到所述匹配图像的坐标空间中;以及
位置确定单元,被配置为基于所述映射,确定所述匹配图像中的像素点的3D位置数据。
8.根据权利要求7所述的装置,其中所述点云划分模块包括:
语义分割单元,被配置为对所述至少一个2D图像进行语义分割以确定所述至少一个2D图像中的像素点所对应的物体;
第一映射单元,被配置为将所述第一点云数据帧中的点云数据映射到所述至少一个2D图像的坐标空间中;以及
数据聚集单元,被配置为基于所述像素点所对应的物体和所述映射对所述第一点云数据帧中的点云数据进行聚集,以形成所述至少一个点云数据集合。
9.根据权利要求7或8所述的装置,其中所述至少一个2D图像在数据采集位置和/或时间上与所述第一点云数据帧相关联。
10.一种用于点云数据修复的装置,包括:
图像获得模块,被配置为获得与待修复的点云数据帧相关联的至少一个二维(2D)图像;
点云划分模块,被配置为根据所述2D图像中物体的属性将所述待修复的点云数据帧划分成至少一个点云数据集合;
图像确定模块,被配置为针对每一个点云数据集合,在所述至少一个2D图像中确定与所述待修复的点云数据帧的匹配图像,所述匹配图像为数据采集位置和/或时间上与所述待修复的点云数据帧匹配;以及
点云修复模块,被配置为针对每一个点云数据集合,基于所述匹配图像中的对应像素点的2D位置数据,分别通过用于该点云数据集合所对应的物体的点云数据修复模型,对该点云数据集合中的点云数据进行修复,所述点云数据修复模型是由根据权利要求7所述的装置生成的。
11.根据权利要求10所述的装置,其中所述点云划分模块包括:
语义分割单元,被配置为对所述至少一个2D图像进行语义分割以确定所述至少一个2D图像中的像素点所对应的物体;
第一映射单元,被配置为将所述待修复的点云数据帧中的点云数据映射到所述至少一个2D图像的坐标空间中;以及
数据聚集单元,被配置为基于所述像素点所对应的物体和所述映射对所述待修复的点云数据帧中的点云数据进行聚集,以形成所述至少一个点云数据集合。
12.根据权利要求10或11所述的装置,其中所述至少一个2D图像在数据采集位置和/或时间上与所述待修复的点云数据帧相关联。
13.一种设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-3中任一项所述的方法。
14.一种设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求4-6中任一项所述的方法。
15.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-3中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求4-6中任一项所述的方法。
CN201711480175.7A 2017-12-29 2017-12-29 用于点云数据修复的方法和装置 Active CN108198145B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201711480175.7A CN108198145B (zh) 2017-12-29 2017-12-29 用于点云数据修复的方法和装置
KR1020180130585A KR102126724B1 (ko) 2017-12-29 2018-10-30 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치
US16/232,797 US10970864B2 (en) 2017-12-29 2018-12-26 Method and apparatus for recovering point cloud data
EP18248062.4A EP3506161A1 (en) 2017-12-29 2018-12-27 Method and apparatus for recovering point cloud data
JP2018247307A JP6745328B2 (ja) 2017-12-29 2018-12-28 点群データを復旧するための方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711480175.7A CN108198145B (zh) 2017-12-29 2017-12-29 用于点云数据修复的方法和装置

Publications (2)

Publication Number Publication Date
CN108198145A CN108198145A (zh) 2018-06-22
CN108198145B true CN108198145B (zh) 2020-08-28

Family

ID=62586701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711480175.7A Active CN108198145B (zh) 2017-12-29 2017-12-29 用于点云数据修复的方法和装置

Country Status (5)

Country Link
US (1) US10970864B2 (zh)
EP (1) EP3506161A1 (zh)
JP (1) JP6745328B2 (zh)
KR (1) KR102126724B1 (zh)
CN (1) CN108198145B (zh)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201704373D0 (en) * 2017-03-20 2017-05-03 Rolls-Royce Ltd Surface defect detection
KR102061408B1 (ko) * 2017-03-24 2019-12-31 (주)제이엘케이인스펙션 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법
CN109191553B (zh) * 2018-08-29 2023-07-25 百度在线网络技术(北京)有限公司 点云渲染方法、装置、终端及存储介质
US20200153885A1 (en) * 2018-10-01 2020-05-14 Lg Electronics Inc. Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data
US10915793B2 (en) * 2018-11-08 2021-02-09 Huawei Technologies Co., Ltd. Method and system for converting point cloud data for use with 2D convolutional neural networks
CN109493407B (zh) * 2018-11-19 2022-03-25 腾讯科技(深圳)有限公司 实现激光点云稠密化的方法、装置及计算机设备
CN111368852A (zh) * 2018-12-26 2020-07-03 沈阳新松机器人自动化股份有限公司 基于深度学习的物品识别预分拣系统、方法及机器人
CN109859114B (zh) * 2018-12-27 2020-10-16 北京大学 基于局域平滑性和非局域相似性的三维点云修复方法
CN111626288B (zh) * 2019-02-28 2023-12-01 深圳市速腾聚创科技有限公司 数据处理方法、装置、计算机设备和存储介质
GB2582266B (en) 2019-03-05 2022-11-30 Geoslam Ltd Three-dimensional dataset and two-dimensional image localisation
WO2020183691A1 (ja) * 2019-03-14 2020-09-17 日本電気株式会社 情報提示方法、情報提示装置及びプログラム
US11159811B2 (en) * 2019-03-15 2021-10-26 Tencent America LLC Partitioning of coded point cloud data
CN111935642B (zh) * 2019-05-13 2022-10-21 北京地平线机器人技术研发有限公司 一种可移动设备的定位方法及装置
CN110148099B (zh) * 2019-05-29 2021-09-10 北京百度网讯科技有限公司 投影关系的修正方法及装置、电子设备、计算机可读介质
GB2584469B (en) * 2019-06-05 2023-10-18 Sony Interactive Entertainment Inc Digital model repair system and method
US11195064B2 (en) * 2019-07-11 2021-12-07 Waymo Llc Cross-modal sensor data alignment
CN112445929B (zh) * 2019-08-30 2022-05-17 浙江商汤科技开发有限公司 视觉定位方法及相关装置
JP6819758B1 (ja) * 2019-09-30 2021-01-27 ダイキン工業株式会社 点群データ同一性推定装置及び点群データ同一性推定システム
WO2021067935A1 (en) * 2019-10-04 2021-04-08 Waymo Llc Spatio-temporal embeddings
CN110827202A (zh) * 2019-11-07 2020-02-21 上海眼控科技股份有限公司 目标检测方法、装置、计算机设备和存储介质
CN110852949B (zh) * 2019-11-07 2020-11-24 上海眼控科技股份有限公司 点云数据补全方法、装置、计算机设备和存储介质
WO2021093718A1 (zh) * 2019-11-15 2021-05-20 北京金山云网络技术有限公司 视频处理方法、视频修复方法、装置及设备
CN111079545A (zh) * 2019-11-21 2020-04-28 上海工程技术大学 一种基于图像修复的三维目标检测方法和系统
CN113316801A (zh) * 2019-12-09 2021-08-27 深圳市大疆创新科技有限公司 点云孔洞填充方法、装置和存储介质
CN111191582B (zh) * 2019-12-27 2022-11-01 深圳市越疆科技有限公司 三维目标检测方法、检测装置、终端设备及计算机可读存储介质
CN111223101B (zh) * 2020-01-17 2023-08-11 湖南视比特机器人有限公司 点云处理方法、点云处理系统和存储介质
CN111325780B (zh) * 2020-02-17 2021-07-27 天目爱视(北京)科技有限公司 一种基于图像筛选的3d模型快速构建方法
CN111401194B (zh) * 2020-03-10 2023-09-22 北京百度网讯科技有限公司 用于自动驾驶车辆的数据处理方法和装置
CN111402332B (zh) * 2020-03-10 2023-08-18 兰剑智能科技股份有限公司 基于slam的agv复合建图与导航定位方法及系统
CN111402308B (zh) * 2020-03-17 2023-08-04 阿波罗智能技术(北京)有限公司 障碍物速度的确定方法、装置、设备和介质
CN111414953B (zh) * 2020-03-17 2023-04-18 集美大学 点云分类方法和装置
CN111667563B (zh) * 2020-06-19 2023-04-07 抖音视界有限公司 图像处理方法、装置、设备和存储介质
CN111722245B (zh) * 2020-06-22 2023-03-10 阿波罗智能技术(北京)有限公司 定位方法、定位装置和电子设备
CN112150595A (zh) * 2020-09-21 2020-12-29 广东博智林机器人有限公司 一种点云数据处理方法、装置、设备及介质
CN112530027A (zh) * 2020-12-11 2021-03-19 北京奇艺世纪科技有限公司 一种三维点云修复方法、装置及电子设备
CN112835007B (zh) * 2021-01-07 2023-04-18 北京百度网讯科技有限公司 点云数据转换方法、装置、电子设备和存储介质
CN112945205B (zh) * 2021-01-27 2022-09-23 西北核技术研究所 一种超快多幅二维图像探测方法及装置
CN112785611B (zh) * 2021-01-29 2021-10-12 昆明理工大学 一种3d点云弱监督语义分割方法及系统
CN112967219B (zh) * 2021-03-17 2023-12-05 复旦大学附属华山医院 基于深度学习网络的二阶段牙体点云补全方法及系统
CN113424220B (zh) * 2021-03-30 2024-03-01 商汤国际私人有限公司 生成点云补全网络及点云数据的处理
CN113557528B (zh) * 2021-03-30 2023-11-28 商汤国际私人有限公司 生成点云补全网络及点云数据处理方法、装置和系统
CN113128405B (zh) * 2021-04-20 2022-11-22 北京航空航天大学 一种结合语义分割与点云处理的植物识别与模型构建方法
KR102313918B1 (ko) * 2021-05-14 2021-10-18 주식회사 인피닉 3d 데이터와 2d 이미지의 동기화 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN113281780B (zh) * 2021-05-27 2024-04-30 北京地平线信息技术有限公司 对图像数据进行标注的方法、装置及电子设备
TW202305740A (zh) 2021-06-17 2023-02-01 日商新唐科技日本股份有限公司 物體檢測裝置、物體檢測方法及程式
CN113658195B (zh) * 2021-08-16 2024-03-19 金地(集团)股份有限公司 图像分割方法、装置及电子设备
CN113674421B (zh) * 2021-08-25 2023-10-13 北京百度网讯科技有限公司 3d目标检测方法、模型训练方法、相关装置及电子设备
CN114333418B (zh) * 2021-12-30 2022-11-01 深兰人工智能(深圳)有限公司 用于自动驾驶的数据处理方法及相关装置
CN117274116B (zh) * 2023-11-22 2024-03-05 广州中望龙腾软件股份有限公司 点云修补方法、装置、存储介质及计算机设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4978615B2 (ja) * 2008-11-27 2012-07-18 三菱電機株式会社 対象特定装置
JP5620200B2 (ja) * 2010-09-06 2014-11-05 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
CN103236043B (zh) * 2013-04-28 2015-10-28 北京农业信息技术研究中心 一种植物器官点云修复方法
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法
US20160159011A1 (en) * 2014-12-04 2016-06-09 Caterpillar Inc. Vision System for Selective Tridimensional Repair Using Additive Manufacturing
US9618459B2 (en) * 2015-05-18 2017-04-11 Flightware, Inc. Systems and methods for automated composite layup quality assurance
CN105405162B (zh) * 2015-10-16 2017-12-05 北京师范大学 基于局部结构和方向感知的树点云三维重建方法
US9984499B1 (en) * 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
EP3179407B1 (en) * 2015-12-07 2022-07-13 Dassault Systèmes Recognition of a 3d modeled object from a 2d image
US11060853B2 (en) * 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
US20180136332A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system to annotate objects and determine distances to objects in an image
GB2559157A (en) * 2017-01-27 2018-08-01 Ucl Business Plc Apparatus, method and system for alignment of 3D datasets
US10726558B2 (en) * 2017-02-27 2020-07-28 Dolphin AI, Inc. Machine learning-based image recognition of weather damage
CN116567265A (zh) * 2017-08-22 2023-08-08 松下电器(美国)知识产权公司 图像编码方法、图像解码方法及非暂态计算机可读介质
MX2020001888A (es) * 2017-08-22 2020-03-24 Panasonic Ip Corp America Codificador de imagenes, decodificador de imagenes, metodo de codificacion de imagenes y metodo de decodificacion de imagenes.
US10699135B2 (en) * 2017-11-20 2020-06-30 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RESEARCH ON THE INCOMPLETE POINT CLOUD DATA REPAIRING OF THE LARGE-SCALE SCENE BUILDINGS;Yongqiang Li等;《IEEE》;20161103;第6726-6729页 *
基于径向基函数神经网络的机载LiDAR点云空洞填补方法;蔡香玉等;《南京师范大学学报(工程技术版)》;20170930;第17卷(第3期);第57-62页 *

Also Published As

Publication number Publication date
JP2019149149A (ja) 2019-09-05
JP6745328B2 (ja) 2020-08-26
US10970864B2 (en) 2021-04-06
EP3506161A1 (en) 2019-07-03
CN108198145A (zh) 2018-06-22
KR102126724B1 (ko) 2020-06-25
KR20190082066A (ko) 2019-07-09
US20190206071A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
CN108198145B (zh) 用于点云数据修复的方法和装置
CN109285220B (zh) 一种三维场景地图的生成方法、装置、设备及存储介质
US11182917B2 (en) Stereo camera depth determination using hardware accelerator
CN110264416B (zh) 稀疏点云分割方法及装置
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
CN111080784B (zh) 一种基于地面图像纹理的地面三维重建方法和装置
CN110992366A (zh) 一种图像语义分割方法、装置及存储介质
CN114217665A (zh) 一种相机和激光雷达时间同步方法、装置及存储介质
CN113421217A (zh) 可行驶区域检测方法和装置
CN116543361A (zh) 车辆的多模态融合感知方法、装置、车辆及存储介质
Nguyen et al. ROI-based LiDAR sampling algorithm in on-road environment for autonomous driving
CN114663598A (zh) 三维建模方法、装置和存储介质
CN114494383A (zh) 基于Richard-Lucy迭代的光场深度估计方法
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN115620264B (zh) 车辆定位方法、装置、电子设备和计算机可读介质
CN115880448B (zh) 基于双目成像的三维测量方法及装置
CN115239899B (zh) 位姿图生成方法、高精地图生成方法和装置
CN113487741B (zh) 稠密三维地图更新方法及装置
Tu et al. Method of Using RealSense Camera to Estimate the Depth Map of Any Monocular Camera
CN109376653B (zh) 用于定位车辆的方法、装置、设备和介质
CN113870412A (zh) 一种航空场景图像的处理方法、装置以及电子设备
CN115829898B (zh) 数据处理方法、装置、电子设备、介质以及自动驾驶车辆
CN114495042B (zh) 目标检测方法和装置
CN114612544B (zh) 图像处理方法、装置、设备和存储介质
CN116740313A (zh) 三维激光点云vr显示方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant