CN109544700A - 基于神经网络的点云数据的处理方法、装置和设备 - Google Patents

基于神经网络的点云数据的处理方法、装置和设备 Download PDF

Info

Publication number
CN109544700A
CN109544700A CN201811190592.2A CN201811190592A CN109544700A CN 109544700 A CN109544700 A CN 109544700A CN 201811190592 A CN201811190592 A CN 201811190592A CN 109544700 A CN109544700 A CN 109544700A
Authority
CN
China
Prior art keywords
point
set data
point set
data
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811190592.2A
Other languages
English (en)
Inventor
黄惠
尹康学
张皓
丹尼尔·科恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201811190592.2A priority Critical patent/CN109544700A/zh
Priority to US16/487,319 priority patent/US11270519B2/en
Priority to PCT/CN2018/117126 priority patent/WO2020073444A1/zh
Publication of CN109544700A publication Critical patent/CN109544700A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于神经网络的点云数据的处理方法、装置和设备。该方法包括:获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。本申请提供的点云数据的处理方法可以实现点云的形状转换。

Description

基于神经网络的点云数据的处理方法、装置和设备
技术领域
本发明涉及人神经网络领域,尤其涉及一种基于神经网络的点云数据的处理方法、装置和设备。
背景技术
点云数据是指扫描资料以点的形式记录,每一个点包含有三维坐标,有些可能含有位置信息、颜色信息或反射强度信息。而由点云数据集合形成的点云作为一种基本的形状表达形式,具有简洁、灵活,易获取等优点,因而在图像变换领域具有独特的优势及应用。近几年来,许多学者对点云进行了广泛而深入的研究。
目前,将神经网络应用于点云数据的处理工作有PointNet和PointNet++等,这两个工作均是通过提取点云中每个点的特征,使点云聚集从而转换成点云的局部特征或全局特征,根据点云的局部特征或全局特征实现点云的分类、分割。
但是,上述点云数据的处理方法不能实现点云的形状转换。
发明内容
基于此,有必要针对上述技术问题,提供一种能够实现点云的形状转换的基于神经网络的点云数据的处理方法、装置和设备。
第一方面,一种基于神经网络的点云数据的处理方法,所述方法包括:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
第二方面,一种基于神经网络的点云数据的处理装置,所述装置包括:
第一获取模块,用于获取第一点集数据和第二点集数据;所述第一点集数据和第二点集数据为采用点云对目标物体的不同形状进行描述得到的数据;
处理模块,用于采用预设的神经网络算法的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数和特征传播层参数;
第二获取模块,用于根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
第三获取模块,用于根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
第三方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
本申请提供的基于神经网络的点云数据的处理方法,包括:获取第一点集数据和第二点集数据;第一点集数据和第二点集数据用于表示目标物体外表面的点数据集合;采用预设的神经网络的结构参数,对第一点集数据进行处理,得到第一点集数据中每个点的多尺度特征;结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;根据多尺度特征和预设噪声,获取第一点集数据中每个点的第一位移向量;根据第一位移向量、第一点集数据和第二点集数据获取目标点集数据;由于第一位移向量为第一点集数据中各点对应的位移向量,因此,根据第一位移向量、第一点集数据和第二点集数据获取到的目标点集数据中的各点,与第一点集数据中的个各点存在位移上的变换关系,且不同位移的点形成的点集数据对应的点云的形状不同,所以,本申请提出的对点云数据的处理方法可以实现点云的形状转换。
附图说明
图1为一个实施例提供的应用场景示意图;
图2为一个实施例提供的一种基于神经网络的点云数据的处理方法的流程图;
图3为图2实施例中的S104的一种实现方式的流程图;
图4为一个实施例提供的一种基于神经网络的点云数据的处理方法的流程图;
图5为图3实施例中的S203的一种实现方式的流程图;
图6为一个实施例提供的一种基于神经网络的点云数据的处理方法的流程图;
图7为一个实施例提供的一种基于神经网络的点云数据的处理装置的流程图;
图8为一个实施例提供的一种基于神经网络的点云数据的处理装置的流程图;
图9为一个实施例提供的计算机设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的基于神经网络的点云数据的处理方法,可以适用于如图1所示的神经网络系统。该系统包括神经网络分支1和神经网络分支2,神经网络分支1和神经网络分支2各包括集合抽象层、特征传播层、全连接层和加法器。其中,集合抽象层用于获取输入的数据集对应的点特征;特征传播层用于输出数据集中每个点的多尺度特征;全连接层用于将数据集中的每个点的多尺度特征与噪声向量进行处理,输出数据集中的每个点对应的位移向量;加法运算器用于将数据集与该数据集中的每个点对应的位移向量进行加法运算,输出预测数据集。可选地,神经网络系统还可以包括几何损失计算项、正规交叉损失计算项,几何损失计算项用于计算两个数据集之间的几何差异;正规交叉损失计算项用于计算两个位移向量之间的平行度。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为一个实施例提供的一种基于神经网络的点云数据的处理方法的流程图。本实施例涉及的是利用神经网络算法对点云数据进行处理,以实现两个目标物体的几何形状能够相互转换的过程。该方法的执行主体为计算机设备,如图2所示,该方法包括以下步骤:
S101、获取第一点集数据和第二点集数据;第一点集数据和第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
其中,第一点集数据和第二点集数据均可以包括点云数据,该点云数据是指在三维坐标系统中的一组向量的集合,这些向量通常以(x,y,z)三维坐标的形式表示,主要用来代表目标物体的外表面形状。例如,第一点集数据可以是一个飞机模型的骨架形状下的表面点集数据,则相应的第二点集数据就可以是该飞机模型的完整形状下的表面点集数据;第一点集数据还可以是一个飞机模型的二维轮廓形状下的表面点集数据,则相应的第二点集数据就可以是该飞机模型的三维轮廓形状下的表面点集数据。
在本实施例中,第一点集数据和第二点集数据均可以通过3D扫描设备扫描目标物体产生,这些扫描设备可以自动的采集目标物体表面上的点的信息,然后将这些点的信息以某种数据文件的形式输出,形成第一点集数据或第二点集数据。再将第一点集数据或第二点集数据传输给与这些扫描设备连接的计算机设备,从而使计算机设备能够获取到这些扫描设备输出的第一点集数据或第二点集数据。例如,激光雷达、立体摄像头、越渡时间相机等扫描设备均可以实现对目标物体表面的点的信息的采集,再将采集到的第一点集数据或者第二点集数据传输到计算机设备中,以使计算机设备能够进行下一步的第一点集数据或者第二点集数据的处理。
可选地,计算机设备也可以从网络上直接下载,或者从数据库中获取,得到与一个目标物体相应的第一点集数据或者第二点集数据。计算机设备获取第一点集数据或者第二点集数据的方式,可以根据实际情况确定,本实施例对此不做限制。
S102、采用预设的神经网络的结构参数,对第一点集数据进行处理,得到第一点集数据中每个点的多尺度特征;结构参数包括集合抽象层参数、特征传播层参数和全连接层参数。
在本实施例中,该预设的神经网络的结构中可以包括多种层结构,如图1中所示,该预设的神经网络的结构中可以包括集合抽象层、特征传播层、以及全连接层等,且各层相互连接,每一层级均预先设置不同的参数,不同的参数用于对第一点集数据进行不同的处理。可选地,集合抽象层用于根据输入的第一点集数据或者第二点集数据,输出与第一点集数据中的各点对应的点特征,或者输出与第二点集数据中的各点对应的点特征;特征传播层用于根据与之连接的集合抽象层输出的各点特征,输出每个点的多尺度特征;全连接层用于根据与之连接的特征传播层输出的每个点的多尺度特征,输出每个点对应的位移向量。
在本实施例中,将第一点集数据输入到预设的神经网络的结构中,该神经网络的结构中的集合抽象层对该第一点集数据进行处理,可以得到该第一点集数据中的各点对应的点特征,再将该点特征输入到神经网络的结构中的特征传播层,特征传播层对该第一点集数据中的各点特征进行处理,可以得到第一点集数据中的每个点的多尺度特征。
S103、根据多尺度特征和预设噪声,获取第一点集数据中每个点的第一位移向量。
其中,预设噪声可以包括随机噪声、高斯噪声、或高斯白噪声等中的至少一种噪声,预设噪声的选择可以根据实际情况确定,对此本实施例不做限制。第一位移向量用于表示第一点集数据中的各点在某一方向上的位移变化量。
本实施例中,当计算机设备对第一点集数据进行处理,得到第一点集数据中的每个点的多尺度特征时,可以将该多尺度特征和预设噪声,这两种数据都输入到预设的神经网络中,通过该神经网络中的全连接层对该多尺度特征和预设噪声进行处理,输出得到第一点集数据中的每个点的第一位移向量。
S104、根据第一位移向量、第一点集数据和第二点集数据获取目标点集数据。
其中,目标点集数据用于表示目标物体表面的点集数据经过形状变换后的点集数据。例如,目标物体的骨架形状对应的点集数据,经过形状变换后,形成该目标物体的完整形状对应的点集数据,则该点集数据为目标点集数据。
在本实施例中,当计算机设备对第一点集数据进行处理,获取到该第一点集数据中的每个点对应的第一位移向量时,可以进一步的将第一点集数据中的每个点的向量与每个点对应的第一位移向量进行加法运算或加权运算等,得到运算结果,将该运算结果和第二点集数据进行比较分析等处理,得到目标点集数据。可选地,也可以采用预设的损失计算方法,计算运算结果和第二点集数据之间的差异值,进而根据该差异值得到目标点集数据。
上述实施例中,计算机设备获取第一点集数据和第二点集数据;第一点集数据和第二点集数据用于表示目标物体外表面的点数据集合;采用预设的神经网络的结构参数,对第一点集数据进行处理,得到第一点集数据中每个点的多尺度特征;结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;根据多尺度特征和预设噪声,获取第一点集数据中每个点的第一位移向量;根据第一位移向量、第一点集数据和第二点集数据获取目标点集数据;由于第一位移向量为第一点集数据中各点对应的位移向量,因此,根据第一位移向量、第一点集数据和第二点集数据获取到的目标点集数据中的各点,与第一点集数据中的个各点存在位移上的变换关系,且不同位移的点形成的点集数据对应的点云的形状不同,所以,本申请提出的对点云数据的处理方法可以实现点云的形状转换。
图3为图2实施例中的S104的一种实现方式的流程图,本实施例涉及的是计算机设备获取目标点集数据的具体过程,如图3所示,步骤S104“根据位移向量、第一点集数据和第二点集数据获取目标点集数据”,包括以下步骤:
S201、根据第一位移向量和第一点集数据,获取第一预测点集数据。
本实施例中,当计算机设备获取到第一点集数据中的每个点对应的第一位移向量时,可以将第一点集数据中的每个点的向量与每个点对应的第一位移向量进行加法运算,得到第一预测点集数据。
S202、根据预设的几何损失计算方法,获取第二点集数据和第一预测点集数据之间的几何损失;几何损失用于衡量第一预测点集数据和第二点集数据在几何形状上的差异。
本实施例中,预设的几何损失计算方法可以包括各种损失函数,而各种损失函数均可以用于计算第二点集数据和第一预测点集数据之间的几何损失,以使计算机设备可以根据该几何损失的值来判断第一预测点集数据与第二点集数据在几何形状上是否存在差异,且存在多大的差异,是否需要对第一预测点集数据进一步的处理。
S203、根据几何损失确定目标点集数据。
本实施例中,当计算机设备计算得到第二点集数据和第一预测点集数据之间的几何损失时,可以根据该几何损失的值来调整预设的神经网络的结构参数,返回执行S102步骤以及之后的步骤,就可以进一步的确定目标点集数据。
上述实施例中,计算机设备根据位移向量和第一点集数据,获取第一预测点集数据;根据预设的几何损失计算方法,获取第二点集数据和第一预测点集数据之间的几何损失;几何损失用于衡量第一预测点集数据和第二点集数据在几何形状上的差异;根据几何损失确定目标点集数据。在该方法中,由于几何损失用于衡量第一预测点集数据和第二点集数据在几何形状上的差异,而根据该差异确定目标点集数据,可以使目标点集数据的精度较高。
可选地,在其中一个实施例中,如图4所示,S202“根据预设的几何损失计算方法获取第二点集数据和第一点集数据之间的几何损失”,包括以下步骤:
S301、根据形状匹配损失函数、第二点集数据和第一预测点集数据,计算形状匹配损失值。
本实施例中,可选地,预设的几何损失计算方法可以包括形状匹配损失函数。形状匹配损失函数用于衡量第一预测点集数据与第二点集数据之间的匹配程度;匹配程度可以用形状匹配损失值表示,形状匹配损失值越大,表示匹配程度越低,即第一预测点集数据与第二点集数据越不匹配;形状匹配损失值越小,表示匹配程度越高,即第一预测点集数据与第二点集数据越匹配。将第一预测点集数据和第二点集数据作为变量代入到形状匹配损失函数中,可以计算得到形状匹配损失值。
可选地,在其中一个实施例中,所述形状匹配损失函数可以包括如下表达式(1):
上式中,Y表示所述第二点集数据,表示第一预测点集数据,p表示第二点集数据中的点,q表示第一预测点集数据中的点,d(p,q)表示p点到q点之间的欧式距离,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值。
S302、根据密度损失函数、第二点集数据和第一预测点集数据,计算密度损失值。
本实施例中,可选地,预设的几何损失计算方法可以包括密度损失函数。密度损失函数用于度量第一预测点集数据与第二点集数据之间的局部点密度的差异。密度的差异可以用密度差异损失值表示,密度差异损失值越大,表示第一预测点集数据与第二点集数据之间的局部点密度的差异越大;密度差异损失值越小,表示第一预测点集数据与第二点集数据之间的局部点密度的差异越小。将第一预测点集数据和第二点集数据作为变量代入到密度损失函数中,可以计算得到密度差异损失值。
可选地,在其中一个实施例中,所述密度损失函数可以包括如下表达式(2):
上式中,Ni(Y,p)表示第i个离Y点集中的点p最近的点,表示第i个离点集中的点p最近的点,k表示离Y点集中的点p最近的点的个数或者离点集中的点p最近的点的个数。d(p,Ni(Y,p))表示p点和Y点集中离p点最近的点之间的欧式距离;表示p点和点集中离p点最近的点之间的欧式距离;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值。
S303、根据形状匹配损失值和密度损失值,确定几何损失。
本事实例中,预设的几何损失计算方法可以包括形状匹配损失函数和密度损失函数中的一种损失函数或者两种损失函数。可选地,当预设的几何损失计算方法只包括形状匹配损失函数时,计算机设备可以根据形状匹配损失值确定几何损失,几何损失可以用上述关系式(1)表达。可选地,当预设的几何损失计算方法只包括密度损失函数时,计算机设备可以根据密度损失值确定几何损失,几何损失可以用上述关系式(2)表达。
可选地,当预设的几何损失计算方法包括形状匹配损失函数和密度损失函数时,几何损失可以用如下关系式(3)或其变形式表达:
上式中,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值,LX→Y(D)表示第一点集数据X转换到第二点集数据Y时的几何损失的值。D表示训练集,λ表示默认参数,一般取1,其它参数同上。
图5为图3实施例中的S203的一种实现方式的流程图,在上述实施例的基础上,如图5所示,步骤S203“根据几何损失确定目标点集数据”,包括以下步骤:
S401、若几何损失小于预设阈值,则确定第一预测点集数据为目标点集数据。
本实施例中,预设阈值可以由用户自定义设置,作为判断第一预测点集数据是否能够满足用户的预期结果的评价指标。可选地,若计算机设备计算得到的几何损失小于预设阈值,则可以判断与该几何损失对应的第一预测点集数据符合用户的预期结果,则进一步的将第一预测点集数据确定为目标点集数据。
S402、若几何损失不小于预设阈值,则调整结构参数,并返回执行采用调整后的结构参数,对第一点集数据进行处理,得到第一点集数据中每个点的多尺度特征的步骤。
可选地,若几何损失不小于预设阈值,则可以判断与该几何损失对应的第一预测点集数据不符合用户的预期结果,需要进一步的处理,该处理过程可以包括调整预设的神经网络的结构参数,再根据调整后的结构参数返回前述的步骤S102,并开始执行步骤S102以及其之后的步骤,直到计算机设备计算得到第二点集数据和第一预测点集数据之间的几何损失小于预设阈值为止,则确定第一预测点集数据为目标点集数据。
上述实施例中,若几何损失小于预设阈值,则确定第一预测点集数据为目标点集数据;若几何损失不小于预设阈值,则调整结构参数,并返回执行采用调整后的结构参数,对第一点集数据进行处理,得到第一点集数据中每个点的多尺度特征的步骤。由于该过程是一个迭代计算几何损失,使几何损失小于预设阈值,从而确定第一预测点集数据的过程,因此,由该过程确定出的第一预测点集数据的精度较高。
图6为一个实施例提供的一种基于神经网络的点云数据的处理方法的流程图。该实施例涉及到的是在前述步骤S103“根据多尺度特征和预设噪声,获取第一点集数据中每个点的第一位移向量”之后,对第一位移向量进行处理的过程。如图6所示,该方法包括以下步骤:
S501、根据预设的交叉正规化计算方法,获取第一位移向量和第二位移向量之间的正规化损失;第二位移向量为第二点集数据每个点的位移向量;正规化损失用于衡量第一位移向量和第二位移向量之间的平行度。
本实施例中,预设的交叉正规化计算方法用于计算第一位移向量和第二位移向量之间的正规化损失,以使计算机设备可以根据该正规化损失的值来判断第一位移向量与第二位移向量是否平行,且存在多大的平行度差异,是否需要对第一位移向量与第二位移向量进行进一步的处理。例如,正规化损失的值越大,第一位移向量和第二位移向量之间的平行度越低,正规化损失的值越小,第一位移向量和第二位移向量之间的平行度越高。
可选地,在其中一个实施例中,所述预设的交叉正规化计算方法可以包括一个损失函数,该损失函数可以采用以下关系式(4)或其变形关系式表达:
上式中,IX(p)表示X点集中的p点对应的第一位移向量,IY(q)表示Y点集中q点对应的第二位移向量,Lreg(X,Y)表示第一位移向量与第二位移向量之间的正规化损失值,d([p,p+IX(p)],[q+IY(q),q])表示向量[p,p+IX(p)]与[q+IY(q),q]之间的欧氏距离。
S502、根据正规化损失更新第一位移向量,获得第三位移向量。
本实施例中,当计算机设备计算得到第一位移向量与第二位移向量之间的正规化损失时,可以根据该正规化损失的值来调整预设的神经网络的结构参数,从S102步骤开始执行,从而更新第一位移向量,获得第三位移向量。
S503、则根据第一位移向量、第一点集数据和第二点集数据获取目标点集数据,包括:根据第三位移向量、第一点集数据和第二点集数据获取目标点集数据。
本实施例中,当计算机设备根据第一点集数据获取到第一位移向量,和第二点集数据获取到第二位移向量时,计算第一位移向量和第二位移向量之间的正规化损失,再根据得到的该正规化损失衡量第一位移向量和第二位移向量之间的平行度。若平行度较高,则更新第一位移向量,获取第三位移向量,然后根据第三位移向量、第一点集数据和第二点集数据获取目标点集数据;若平行度较低,则调整预设的神经网络的结构参数,再根据调整后的结构参数返回前述的步骤S102,并开始执行步骤S102以及其之后的步骤,直到计算机设备计算得到的第一位移向量和第二位移向量之间的平行度能够满足用户的需求为止。
上述实施例中,根据预设的交叉正规化计算方法,获取第一位移向量和第二位移向量之间的正规化损失;第二位移向量为第二点集数据每个点的位移向量;所述正规化损失用于衡量所述第一位移向量和所述第二位移向量之间的平行性;根据正规化损失更新第一位移向量,获得第三位移向量;根据第三位移向量、第一点集数据和第二点集数据获取目标点集数据。由于第三位移是更新后的第一位移向量,所以第三位移向量的精度较高,则根据第三位移向量、第一点集数据和第二点集数据确定的目标点集数据精度较高。
需要说明的是,当计算机设备计算得到几何损失项、正规交叉损失项时,本实施例还可以包括:根据几何损失项和正规交叉损失项,计算得到预设的神经网络的总网络损失,该总网络损失用于衡量利用预设的神经网络对第一点集数据和第二点集数据进行处理时,第一点集数据的转换精度和第二点集数据的转换精度。当计算机设备获取到总网络损失时,会根据该总网络损失调整预设的神经网络的结构参数,进而得到精度较高的第一预测点集数据或精度较高的第二预测点集数据。
可选地,当在如图1所示的应用场景下,上述总网络损失可以用如下关系式(5)或者其变形关系式表达:
上式中,Lloss表示总网络损失,LX→Y(D)表示神经网络分支1的几何损失,LY→X(D)表示神经网络分支2的几何损失,Lreg(X,Y)表示正规化损失,μ表示平衡参数,其默认值为0.1。
应该理解的是,虽然图2-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行。
图7为一个实施例提供的基于神经网络的点云数据的处理装置的结构示意图,如图7所示,所述装置包括:第一获取模块11、处理模块12、第二获取模块13和第四获取模块14,其中:
第一获取模块11,用于获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合;
处理模块12,用于采用预设的神经网络算法的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数和特征传播层参数;
第二获取模块13,用于根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
第三获取模块14,用于根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在其中一个实施例中,如图8所示,在图7所述的基于神经网络的点云数据的处理装置基础上,所述第三获取模块14包括:
第一获取单元140,用于根据所述第一位移向量和所述第一点集数据,获取第一预测点集数据;
第二获取单元141,用于根据预设的几何损失计算方法,获取所述第二点集数据和所述第一预测点集数据之间的几何损失;所述几何损失用于衡量所述第一预测点集数据和所述第二点集数据在几何形状上的差异;
确定单元142,用于根据所述几何损失确定所述目标点集数据。
在其中一个实施例中,所述确定单元142具体用于若所述几何损失小于预设阈值,则确定第一预测点集数据为所述目标点集数据;若所述几何损失不小于预设阈值,则调整所述结构参数,并返回执行采用调整后的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征的步骤。
在其中一个实施例中,所述第二获取单元141具体用于根据形状匹配损失函数、所述第二点集数据和所述第一预测点集数据,计算形状匹配损失值;根据密度损失函数、所述第二点集数据和所述第一预测点集数据,计算密度损失值;根据所述形状匹配损失值和所述密度损失值,确定所述几何损失。
在其中一个实施例中,所述形状匹配损失函数包括:
其中,Y表示所述第二点集数据,表示第一预测点集数据,p表示第二点集数据中的点,q表示第一预测点集数据中的点,d(p,q)表示p点到q点之间的欧式距离,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值。
所述密度损失函数包括:
其中,Ni(Y,p)表示第i个离Y点集中的点p最近的点,表示第i个离点集中的点p最近的点,k表示离Y点集中的点p最近的点的个数或者离点集中的点p最近的点的个数。d(p,Ni(Y,p))表示p点和Y点集中离p点最近的点之间的欧式距离;表示p点和点集中离p点最近的点之间的欧式距离;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值。
在其中一个实施例中,在图7所示的装置的基础上,如图8所示,所述装置还包括:
第四获取模块15,用于根据预设的交叉正规化计算方法,获取所述第一位移向量和第二位移向量之间的正规化损失;所述第二位移向量为所述第二点集数据每个点的位移向量;所述正规化损失用于衡量所述第一位移向量和所述第二位移向量之间的平行性;
第五获取模块16,用于根据所述正规化损失更新第一位移向量,获得第三位移向量;
第六获取模块17,用于根据所述第三位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在其中一个实施例中,所述交叉正规化计算方法包括:
其中,IX(p)表示X点集中的p点对应的第一位移向量,IY(q)表示Y点集中q点对应的第二位移向量,Lreg(X,Y)表示第一位移向量与第二位移向量之间的正规化损失值,d([p,p+IX(p)],[q+IY(q),q])表示向量[p,p+IX(p)]与[q+IY(q),q]之间的欧氏距离。
关于基于神经网络的点云数据的处理装置的具体限定可以参见上文中对于基于神经网络的点云数据的处理方法的限定,在此不再赘述。上述基于神经网络的点云数据的处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。该计算机程序被处理器执行时以实现一种基于神经网络的点云数据的处理方法。。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据所述第一位移向量和所述第一点集数据,获取第一预测点集数据;根据预设的几何损失计算方法,获取所述第二点集数据和所述第一预测点集数据之间的几何损失;所述几何损失用于衡量所述第一预测点集数据和所述第二点集数据在几何形状上的差异;根据所述几何损失确定所述目标点集数据。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:若所述几何损失小于预设阈值,则确定第一预测点集数据为所述目标点集数据;若所述几何损失不小于预设阈值,则调整所述结构参数,并返回执行采用调整后的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征的步骤。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据形状匹配损失函数、所述第二点集数据和所述第一预测点集数据,计算形状匹配损失值;根据密度损失函数、所述第二点集数据和所述第一预测点集数据,计算密度损失值;根据所述形状匹配损失值和所述密度损失值,确定所述几何损失。
在一个实施例中,处理器执行计算机程序时还实现:所述形状匹配损失函数包括:
其中,Y表示所述第二点集数据,表示第一预测点集数据,p表示第二点集数据中的点,q表示第一预测点集数据中的点,d(p,q)表示p点到q点之间的欧式距离,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值。
所述密度损失函数包括:
其中,Ni(Y,p)表示第i个离Y点集中的点p最近的点,表示第i个离点集中的点p最近的点,k表示离Y点集中的点p最近的点的个数或者离点集中的点p最近的点的个数。d(p,Ni(Y,p))表示p点和Y点集中离p点最近的点之间的欧式距离;表示p点和点集中离p点最近的点之间的欧式距离;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据预设的交叉正规化计算方法,获取所述第一位移向量和第二位移向量之间的正规化损失;所述第二位移向量为所述第二点集数据每个点的位移向量;所述正规化损失用于衡量所述第一位移向量和所述第二位移向量之间的平行性;根据所述正规化损失更新第一位移向量,获得第三位移向量;则根据所述第三位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在一个实施例中,处理器执行计算机程序时还实现:所述交叉正规化计算方法包括:
其中,IX(p)表示X点集中的p点对应的第一位移向量,IY(q)表示Y点集中q点对应的第二位移向量,Lreg(X,Y)表示第一位移向量与第二位移向量之间的正规化损失值,d([p,p+IX(p)],[q+IY(q),q])表示向量[p,p+IX(p)]与[q+IY(q),q]之间的欧氏距离。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时还实现以下步骤:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合。
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据所述第一位移向量和所述第一点集数据,获取第一预测点集数据;根据预设的几何损失计算方法,获取所述第二点集数据和所述第一预测点集数据之间的几何损失;所述几何损失用于衡量所述第一预测点集数据和所述第二点集数据在几何形状上的差异;根据所述几何损失确定所述目标点集数据。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:若所述几何损失小于预设阈值,则确定第一预测点集数据为所述目标点集数据;若所述几何损失不小于预设阈值,则调整所述结构参数,并返回执行采用调整后的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征的步骤。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据形状匹配损失函数、所述第二点集数据和所述第一预测点集数据,计算形状匹配损失值;根据密度损失函数、所述第二点集数据和所述第一预测点集数据,计算密度损失值;根据所述形状匹配损失值和所述密度损失值,确定所述几何损失。
在一个实施例中,计算机程序被处理器执行时还实现:所述形状匹配损失函数包括:
其中,Y表示所述第二点集数据,表示第一预测点集数据,p表示第二点集数据中的点,q表示第一预测点集数据中的点,d(p,q)表示p点到q点之间的欧式距离,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值。
所述密度损失函数包括:
其中,Ni(Y,p)表示第i个离Y点集中的点p最近的点,表示第i个离点集中的点p最近的点,k表示离Y点集中的点p最近的点的个数或者离点集中的点p最近的点的个数。d(p,Ni(Y,p))表示p点和Y点集中离p点最近的点之间的欧式距离;表示p点和点集中离p点最近的点之间的欧式距离;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据预设的交叉正规化计算方法,获取所述第一位移向量和第二位移向量之间的正规化损失;所述第二位移向量为所述第二点集数据每个点的位移向量;所述正规化损失用于衡量所述第一位移向量和所述第二位移向量之间的平行性;根据所述正规化损失更新第一位移向量,获得第三位移向量;则根据所述第三位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
在一个实施例中,计算机程序被处理器执行时还实现:所述交叉正规化计算方法包括:
其中,IX(p)表示X点集中的p点对应的第一位移向量,IY(q)表示Y点集中q点对应的第二位移向量,Lreg(X,Y)表示第一位移向量与第二位移向量之间的正规化损失值,d([p,p+IX(p)],[q+IY(q),q])表示向量[p,p+IX(p)]与[q+IY(q),q]之间的欧氏距离。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双倍数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于神经网络的点云数据的处理方法,其特征在于,包括:
获取第一点集数据和第二点集数据;所述第一点集数据和所述第二点集数据分别表示目标物体在不同形状下外表面的点数据集合;
采用预设的神经网络的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数、特征传播层参数和全连接层参数;
根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据,包括:
根据所述第一位移向量和所述第一点集数据,获取第一预测点集数据;
根据预设的几何损失计算方法,获取所述第二点集数据和所述第一预测点集数据之间的几何损失;所述几何损失用于衡量所述第一预测点集数据和所述第二点集数据在几何形状上的差异;
根据所述几何损失确定所述目标点集数据。
3.根据权利要求2所述的方法,其特征在于,根据所述几何损失确定所述目标点集数据,包括:
若所述几何损失小于预设阈值,则确定第一预测点集数据为所述目标点集数据;
若所述几何损失不小于预设阈值,则调整所述结构参数,并返回执行采用调整后的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征的步骤。
4.根据权利要求2或3所述的方法,其特征在于,所述根据预设的几何损失计算方法,获取所述第二点集数据和所述第一点集数据之间的几何损失,包括:
根据形状匹配损失函数、所述第二点集数据和所述第一预测点集数据,计算形状匹配损失值;
根据密度损失函数、所述第二点集数据和所述第一预测点集数据,计算密度损失值;
根据所述形状匹配损失值和所述密度损失值,确定所述几何损失。
5.根据权利要求4所述的方法,所述形状匹配损失函数包括:
其中,Y表示所述第二点集数据,表示第一预测点集数据,p表示第二点集数据中的点,q表示第一预测点集数据中的点,d(p,q)表示p点到q点之间的欧式距离,表示第一预测点集数据与第二点集数据Y之间的几何损失对应的形状匹配损失值;
所述密度损失函数包括:
其中,Ni(Y,p)表示第i个离Y点集中的点p最近的点,表示第i个离点集中的点p最近的点,k表示离Y点集中的点p最近的点的个数或者离点集中的点p最近的点的个数,d(p,Ni(Y,p))表示p点和Y点集中离p点最近的点之间的欧式距离;表示p点和点集中离p点最近的点之间的欧式距离;表示第一预测点集数据与第二点集数据Y之间的几何损失对应的密度损失值。
6.根据权利要求1所述的方法,其特征在于,所述根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的位移向量之后,还包括:
根据预设的交叉正规化计算方法,获取所述第一位移向量和第二位移向量之间的正规化损失;所述第二位移向量为所述第二点集数据每个点的位移向量;所述正规化损失用于衡量所述第一位移向量和所述第二位移向量之间的平行性;
根据所述正规化损失更新第一位移向量,获得第三位移向量;
则所述根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据,包括:
根据所述第三位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
7.根据权利要求6所述的方法,其特征在于,所述交叉正规化计算方法包括:
其中,IX(p)表示X点集中的p点对应的第一位移向量,IY(q)表示Y点集中q点对应的第二位移向量,Lreg(X,Y)表示第一位移向量与第二位移向量之间的正规化损失值,d([p,p+IX(p)],[q+IY(q),q])表示向量[p,p+IX(p)]与[q+IY(q),q]之间的欧氏距离。
8.一种基于神经网络的点云数据的处理装置,其特征在于,所述装置包括:
第一获取模块,用于获取第一点集数据和第二点集数据;所述第一点集数据和第二点集数据为采用点云对目标物体的不同形状进行描述得到的数据;
处理模块,用于采用预设的神经网络算法的结构参数,对所述第一点集数据进行处理,得到所述第一点集数据中每个点的多尺度特征;所述结构参数包括集合抽象层参数和特征传播层参数;
第二获取模块,用于根据所述多尺度特征和预设噪声,获取所述第一点集数据中每个点的第一位移向量;
第三获取模块,用于根据所述第一位移向量、所述第一点集数据和所述第二点集数据获取目标点集数据。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201811190592.2A 2018-10-12 2018-10-12 基于神经网络的点云数据的处理方法、装置和设备 Pending CN109544700A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811190592.2A CN109544700A (zh) 2018-10-12 2018-10-12 基于神经网络的点云数据的处理方法、装置和设备
US16/487,319 US11270519B2 (en) 2018-10-12 2018-11-23 Method of processing point cloud data based on neural network
PCT/CN2018/117126 WO2020073444A1 (zh) 2018-10-12 2018-11-23 基于神经网络的点云数据的处理方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811190592.2A CN109544700A (zh) 2018-10-12 2018-10-12 基于神经网络的点云数据的处理方法、装置和设备

Publications (1)

Publication Number Publication Date
CN109544700A true CN109544700A (zh) 2019-03-29

Family

ID=65843753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811190592.2A Pending CN109544700A (zh) 2018-10-12 2018-10-12 基于神经网络的点云数据的处理方法、装置和设备

Country Status (3)

Country Link
US (1) US11270519B2 (zh)
CN (1) CN109544700A (zh)
WO (1) WO2020073444A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428855A (zh) * 2020-02-25 2020-07-17 北京理工大学 一种端到端的点云深度学习网络模型和训练方法
CN111461194A (zh) * 2020-03-27 2020-07-28 广州小鹏汽车科技有限公司 点云处理方法及装置、行驶控制方法、电子装置和车辆
CN113205531A (zh) * 2021-04-30 2021-08-03 北京云圣智能科技有限责任公司 三维点云分割方法、装置及服务器
CN114048845A (zh) * 2022-01-14 2022-02-15 深圳大学 点云修复方法、装置、计算机设备和存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544700A (zh) * 2018-10-12 2019-03-29 深圳大学 基于神经网络的点云数据的处理方法、装置和设备
US11295517B2 (en) * 2019-11-15 2022-04-05 Waymo Llc Generating realistic point clouds

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001620A1 (en) * 2002-06-26 2004-01-01 Moore Ronald W. Apparatus and method for point cloud assembly
US20150154795A1 (en) * 2012-05-23 2015-06-04 Google Inc. Creating a mesh from a sparse structure-from-motion point cloud using co-visibility of points
US20150206003A1 (en) * 2009-05-11 2015-07-23 Universitat Zu Lubeck Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
US20170161945A1 (en) * 2015-12-04 2017-06-08 Autodesk, Inc. Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans
CN108230329A (zh) * 2017-12-18 2018-06-29 孙颖 基于多尺度卷积神经网络的语义分割方法
CN108596961A (zh) * 2018-04-17 2018-09-28 浙江工业大学 基于三维卷积神经网络的点云配准方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809118A (zh) 2016-03-03 2016-07-27 重庆中科云丛科技有限公司 三维目标识别方法及装置
CN107292234B (zh) * 2017-05-17 2020-06-30 南京邮电大学 一种基于信息边缘和多模态特征的室内场景布局估计方法
CN109544700A (zh) * 2018-10-12 2019-03-29 深圳大学 基于神经网络的点云数据的处理方法、装置和设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001620A1 (en) * 2002-06-26 2004-01-01 Moore Ronald W. Apparatus and method for point cloud assembly
US20150206003A1 (en) * 2009-05-11 2015-07-23 Universitat Zu Lubeck Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
US20150154795A1 (en) * 2012-05-23 2015-06-04 Google Inc. Creating a mesh from a sparse structure-from-motion point cloud using co-visibility of points
US20170161945A1 (en) * 2015-12-04 2017-06-08 Autodesk, Inc. Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans
CN108230329A (zh) * 2017-12-18 2018-06-29 孙颖 基于多尺度卷积神经网络的语义分割方法
CN108596961A (zh) * 2018-04-17 2018-09-28 浙江工业大学 基于三维卷积神经网络的点云配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HUANG HUI ET AL.: "P2P-NET:Bidirectional Point Displacement Net for Shape Transform", 《ARXIV》 *
QI ET AL.: "PointNet++:Deep hierarchical feature learning on point sets ina metric space", 《NIPS》 *
XINGHAO CHEN ET AL.: "SHPR-Net: Deep Semantic Hand Pose Regression From Point Clouds", 《IEEE》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428855A (zh) * 2020-02-25 2020-07-17 北京理工大学 一种端到端的点云深度学习网络模型和训练方法
CN111428855B (zh) * 2020-02-25 2023-11-14 北京理工大学 一种端到端的点云深度学习网络模型和训练方法
CN111461194A (zh) * 2020-03-27 2020-07-28 广州小鹏汽车科技有限公司 点云处理方法及装置、行驶控制方法、电子装置和车辆
CN111461194B (zh) * 2020-03-27 2024-03-12 广州小鹏汽车科技有限公司 点云处理方法及装置、行驶控制方法、电子装置和车辆
CN113205531A (zh) * 2021-04-30 2021-08-03 北京云圣智能科技有限责任公司 三维点云分割方法、装置及服务器
CN113205531B (zh) * 2021-04-30 2024-03-08 北京云圣智能科技有限责任公司 三维点云分割方法、装置及服务器
CN114048845A (zh) * 2022-01-14 2022-02-15 深圳大学 点云修复方法、装置、计算机设备和存储介质
CN114048845B (zh) * 2022-01-14 2022-06-03 深圳大学 点云修复方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
WO2020073444A1 (zh) 2020-04-16
US20210366203A1 (en) 2021-11-25
US11270519B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
CN109544700A (zh) 基于神经网络的点云数据的处理方法、装置和设备
CN110473254A (zh) 一种基于深度神经网络的位姿估计方法及装置
CN102113012B (zh) 手指形状推定装置、手指形状的推定方法及程序
US11443639B2 (en) Methods of generating a unmanned aerial vehicle migration trajectory, electronic devices and storage mediums
CN111179419A (zh) 三维关键点预测及深度学习模型训练方法、装置及设备
CN109977466A (zh) 一种三维扫描视点规划方法、装置及计算机可读存储介质
CN111983620B (zh) 一种面向水下机器人搜寻探摸的目标定位方法
CN111401151B (zh) 一种精确的三维手部姿态估计方法
CN110008835B (zh) 视线预测方法、装置、系统和可读存储介质
CN106022631A (zh) 一种指标权重分析方法
CN117422884A (zh) 三维目标检测方法、系统、电子设备及存储介质
KR20240055137A (ko) 라인 레이저 디바이스의 시스템 캘리브레이션 방법 및 장치
Bureick et al. Fast converging elitist genetic algorithm for knot adjustment in B-spline curve approximation
CN108803659A (zh) 基于魔方模型的多窗口启发式三维空间路径规划方法
EP4040375A1 (en) Method for performing simultaneous localization and mapping and device using same
Jiang et al. Relevant integrals of NURBS and its application in hull line element design
Yuan et al. Accurate covariance estimation for pose data from iterative closest point algorithm
CN103606189A (zh) 一种面向非刚体三维重建的轨迹基选择方法
CN115294280A (zh) 三维重建方法、装置、设备、存储介质和程序产品
CN110728222B (zh) 一种用于机械臂抓取系统中目标物体的位姿估计方法
CN114550203A (zh) 关节关键点的三维坐标的确定方法及其相关设备
CN114066986A (zh) 三维坐标的确定方法、装置、电子设备及存储介质
CN106651950A (zh) 一种基于二次曲线透视投影不变性的单相机位姿估计方法
CN108648236A (zh) 一种用于坐标测量的间接方法及控制系统
CN110211230A (zh) 空间规划模型集成方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190329