CN117078912A - 一种基于深度学习的激光点云与图像对齐方法和装置 - Google Patents
一种基于深度学习的激光点云与图像对齐方法和装置 Download PDFInfo
- Publication number
- CN117078912A CN117078912A CN202310845155.4A CN202310845155A CN117078912A CN 117078912 A CN117078912 A CN 117078912A CN 202310845155 A CN202310845155 A CN 202310845155A CN 117078912 A CN117078912 A CN 117078912A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- image
- tetrahedron
- cloud data
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 28
- 238000004088 simulation Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000012795 verification Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012958 reprocessing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 5
- 230000004927 fusion Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的激光点云与图像对齐方法,包括通过激光雷达和摄像机进行数据采集,得到激光点云数据和2D图像;将预处理后的点云数据进行三角形网格划分,得到点云数据的三维网格模型;确定激光雷达传感器和多功能摄像机的相对位置关系,在三维网格模型中构建虚拟摄像机,拍摄与摄像机同位置同角度的2D模拟图像;利用CNN卷积神经网络将摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像进行对齐,生成相互映射的对齐图像。本发明提出方法实现了对点云的高效、准确的分析和处理,获得更精准激光点云与图像的对齐关系。
Description
技术领域
本发明涉及图像对齐领域,尤其涉及一种基于深度学习的激光点云与图像对齐方法和装置。
背景技术
激光视觉融合技术是一种将激光扫描和计算机视觉相结合的技术,旨在实现更准确、高效的三维感知和识别。它结合了激光扫描的精确测距和计算机视觉的图像处理能力,可以在实时或离线情况下获取场景的三维信息,并将其与视觉图像进行融合。
在激光视觉融合技术中,激光扫描器通常用于测量场景中的物体位置和形状。它通过发射激光束并测量其返回时间来计算物体与扫描仪之间的距离,从而得到场景的三维点云数据。这些点云数据提供了物体的准确空间位置和形状信息。
计算机视觉部分负责从传感器(如相机)捕获的图像中提取特征并进行分析。通过使用计算机视觉算法,可以检测和识别物体,提取出它们的特征,例如颜色、纹理、形状等。
激光视觉融合技术的关键在于将激光扫描数据和计算机视觉数据进行有效融合。这可以通过将激光点云数据与图像进行对准和配准来实现。通过将激光点云数据映射到图像坐标系中,可以将点云的准确空间位置与图像中的像素相对应,从而实现点云和图像的融合。这可以通过在激光扫描器和相机之间进行标定来实现。标定过程中会获取两者之间的转换矩阵,以便将激光扫描数据映射到相机图像坐标系中。
然而,激光扫描器和相机之间的标定却难以实现,在实际的工程应用中往往会有一定误差,误差的矫正通过纯数学手段难以实现。
发明内容
为了解决上述问题,本发明提供了一种基于深度学习的激光点云与图像对齐方法,包括以下步骤:
S1、通过激光雷达和摄像机进行数据采集,得到激光点云数据和2D图像,并对激光点云数据进行预处理;
S2、将预处理后的点云数据进行三角形网格划分,得到点云数据的三维网格模型;
S3、确定激光雷达传感器和多功能摄像机的相对位置关系,在所述三维网格模型中构建虚拟摄像机,拍摄与摄像机同位置同角度的2D模拟图像;
S4、利用CNN卷积神经网络将摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像进行对齐,生成相互映射的对齐图像。
进一步地,步骤S1中,对激光点云数据进行预处理包括:去噪、滤波、去离群点、特征提取。
进一步地,所述特征提取具体为:
(1)确认点云数据的标签或类别信息,将点云数据进行再处理,再处理包括:归一化、中心化、缩放;
(2)将再处理后的点云数据输入到PointNet网络中进行编码,PointNet通过多层感知机和对称函数来提取点云的全局特征表示,多层感知机对每个点的特征进行处理,对称函数将每个点的特征合并为整个点云的全局特征;
(3)将点云的全局特征输入到PointNet网络的输出层中进行预测或分类,预测点云的标签或类别;
(4)人为标注点云数据进行分类并贴标签,作为真实标签,将人为标注点云数据划分为测试集和验证集,使用测试集进行PointNet网络训练,使用交叉熵损失函数度量预测PointNet网络结果与真实标签之间的差异,并使用反向传播算法和梯度下降算法调整PointNet网络的权重参数,使网络能够学习到更准确的点云特征,使用验证集对训练好的PointNet模型进行评估。
进一步地,步骤S2具体为:
S21、读入预处理后的点云数据的所有点,选取前四个不共面的点构成第一个四面体;
S22、取新的点,判断该点的空间位置,若该点在所有已有四面体的外部,则执行步骤S23;若该点在已有的某个四面体A2内部,则执行步骤S24;若该点落在已有四面体的某个三角形表面B3内,则执行步骤S25;若该点落在已有的四面体的某个边C4上,则执行步骤S26;若和已有的四面体某个顶点重合,则丢掉该点,重新执行步骤S22;
S23、找到离该点最近的已有四面体的某个三角形表面B1,以该点和三角形表面B1的三个顶点构建新的四面体,转到步骤S27;
S24、将四面体A2分裂成为四个新的四面体,其中,以该点分别与四面体A2四个面的顶点构建新的四面体,形成4个新的四面体,转到步骤S27;
S25、该点与三角形表面B3三个顶点相连,将三角形表面B3分为3个新的三角形面,3个新的三角形面的顶点分别与三角形表面B3所在的四面体另一个顶点相连,三角形表面B3所在的四面体均形成3个新的四面体,转到步骤S27;
S26、将该点与边C4所在的四面体的所有顶点相连,边C4所在的四面体均形成2个新的四面体,转到步骤S27;
S27、使用Lawson算法检查是否有不符合,“空球准则”的四面体的存在,若有,则加以调整,转到步骤S28;
S28、如果所有点都已加入,则算法结束,否则转到步骤S22。
进一步地,步骤S4具体为:
S41、获取有对应关系的一对摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像,并对这对图像进行预处理,包括图像的归一化、大小调整、通道调整,得到待对齐图像;
S42、将S41中的待对齐图像输入到卷积神经网络中,进行特征提取并生成待对齐图像的标签;
S43、使用生成的标签作为监督信号,使用待对齐图像作为训练集,通过反向传播算法和优化算法训练卷积神经网络,调整卷积神经网络的权重参数;
S44、使用人为对齐的待对齐图像作为验证集对训练后的卷积神经网络进行验证,根据验证集的表现,调整卷积神经网络的超参数、网络结构;
S45、将待对齐图像输入到验证好的卷积神经网络中,获取网络输出的对齐结果。
本发明还提出一种基于深度学习的激光点云与图像对齐装置,包括:
处理器;
存储器,其上存储有可在所述处理器上运行的计算机程序;
其中,所述计算机程序被所述处理器执行时实现一种基于深度学习的激光点云与图像对齐方法。
本发明提供的技术方案带来的有益效果是:
本发明提出一种基于深度学习的激光点云与图像对齐方法,该方法通过PointNet点云处理网络进行点云数据预处理,充分利用点云的原始信息和全局特征表示,实现了对点云的高效、准确的分析和处理。通过CNN卷积神经网络来校准虚拟摄像机拍摄的2D模拟图像与多功能摄像机拍摄的2D图像之间的对齐关系,自适应矫正设备误差,获得更精准的对齐关系。
附图说明
图1是本发明实施例一种基于深度学习的激光点云与图像对齐方法的流程图;
图2是本发明实施例一种基于深度学习的激光点云与图像对齐方法的流程框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。
本发明实施例的一种基于深度学习的激光点云与图像对齐方法的流程图如图1,本发明实施例一种基于深度学习的激光点云与图像对齐方法的流程框图如图2,具体包括以下步骤:
S1、通过激光雷达和摄像机进行数据采集,得到激光点云数据和2D图像,并对激光点云数据进行预处理。对激光点云数据进行预处理包括:去噪、滤波、去离群点、特征提取。
通过使用点云处理网络(PointNet)自动学习点云数据的特征表示,来提高预处理的效果,具体为:
(1)获取点云数据的标签或类别信息,将点云数据进行再处理以满足PointNet的输入要求,再处理包括归一化、中心化、缩放等操作,以使点云在相同的尺度范围内,并保持均匀分布。
(2)将再处理后的点云数据输入到PointNet网络中进行编码,PointNet通过多层感知机和对称函数来提取点云的全局特征表示,多层感知机对每个点的特征进行处理,对称函数将每个点的特征合并为整个点云的全局特征。可以使用多个MLP层来逐渐提取更高级别的特征,以捕捉点云数据中的不同层次的信息。
(3)将点云的全局特征输入到PointNet网络的输出层中进行预测或分类,预测点云的标签或类别;
(4)人为标注点云数据进行分类并贴标签,作为真实标签,将人为标注点云数据划分为测试集和验证集,使用测试集进行PointNet网络训练,使用交叉熵损失函数度量预测PointNet网络结果与真实标签之间的差异,并使用反向传播算法和梯度下降算法调整PointNet网络的权重参数,使网络能够学习到更准确的点云特征。使用验证集对训练好的PointNet模型进行评估。计算模型在预测和分类任务上的准确性、精确度、召回率等指标,以评估模型的性能。
S2、将预处理后的点云数据进行三角形网格划分,得到点云数据的三维网格模型。
具体为:
S21、读入预处理后的点云数据的所有点,选取前四个不共面的点构成第一个四面体,四面体有4个三角形面构成。
S22、取新的点,判断该点的空间位置,若该点在所有已有四面体的外部,则执行步骤S23;若该点在已有的某个四面体A2内部,则执行步骤S24;若该点落在已有四面体的某个三角形表面B3内,则执行步骤S25;若该点落在已有的四面体的某个边C4上,则执行步骤S26;若和已有的四面体某个顶点重合,则丢掉该点,重新执行步骤S22;
S23、找到离该点最近的已有四面体的某个三角形表面B1,以该点和三角形表面B1的三个顶点构建新的四面体,转到步骤S27;
S24、将四面体A2分裂成为四个新的四面体,其中,以该点分别与四面体A2四个面的顶点构建新的四面体,形成4个新的四面体,转到步骤S27;
S25、该点与三角形表面B3三个顶点相连,将三角形表面B3分为3个新的三角形面,3个新的三角形面的顶点分别与三角形表面B3所在的四面体另一个顶点相连,三角形表面B3所在的四面体均形成3个新的四面体,转到步骤S27;
S26、将该点与边C4所在的四面体的所有顶点相连,边C4所在的四面体均形成2个新的四面体,转到步骤S27;
S27、使用Lawson算法检查是否有不符合,“空球准则”的四面体的存在,若有,则加以调整,转到步骤S28;
S28、如果所有点都已加入,则算法结束,否则转到步骤S22。
S3、确定激光雷达和摄像机的相对位置关系,在所述三维网格模型中构建虚拟摄像机,拍摄与摄像机同位置同角度的2D模拟图像。
构建虚拟摄像机需要保证虚拟摄像机在三维模型中的位置、拍摄角度和摄像机一致,同时焦距、光圈、快门速度、感光度等等拍摄参数保持相同。
S4、利用CNN卷积神经网络将摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像进行对齐,生成相互映射的对齐图像。
具体为:
S41、获取有对应关系的一对摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像,并对这对图像进行预处理,包括图像的归一化、大小调整、通道调整,得到待对齐图像。
S42、将S41中的待对齐图像输入到卷积神经网络中,进行特征提取并生成待对齐图像的标签。
S43、使用生成的标签作为监督信号,使用待对齐图像作为训练集,通过反向传播算法和优化算法训练卷积神经网络,调整卷积神经网络的权重参数,使网络能够学习到对齐图像的准确变换或对齐结果。
S44、使用人为对齐的待对齐图像作为验证集对训练后的卷积神经网络进行验证,监控模型的性能,根据验证集的表现,调整卷积神经网络的超参数、网络结构,以提高模型的性能和泛化能力。
S45、将待对齐图像输入到验证好的卷积神经网络中,获取网络输出的对齐结果。
实施例中还包括一种基于深度学习的激光点云与图像对齐装置,包括:
处理器;
存储器,其上存储有可在处理器上运行的计算机程序;
其中,计算机程序被处理器执行时实现一种基于深度学习的激光点云与图像对齐方法。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种基于深度学习的激光点云与图像对齐方法,其特征在于,包括以下步骤:
S1、通过激光雷达和摄像机进行数据采集,得到激光点云数据和2D图像,并对激光点云数据进行预处理;
S2、将预处理后的点云数据进行三角形网格划分,得到点云数据的三维网格模型;
S3、确定激光雷达和摄像机的相对位置关系,在所述三维网格模型中构建虚拟摄像机,拍摄与摄像机同位置同角度的2D模拟图像;
S4、利用CNN卷积神经网络将摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像进行对齐,生成相互映射的对齐图像。
2.根据权利要求1所述的一种基于深度学习的激光点云与图像对齐方法,其特征在于,步骤S1中,对激光点云数据进行预处理包括:去噪、滤波、去离群点、特征提取。
3.根据权利要求2所述的一种基于深度学习的激光点云与图像对齐方法,其特征在于,所述特征提取具体为:
(1)确认点云数据的标签或类别信息,将点云数据进行再处理,再处理包括:归一化、中心化、缩放;
(2)将再处理后的点云数据输入到PointNet网络中进行编码,PointNet通过多层感知机和对称函数来提取点云的全局特征表示,多层感知机对每个点的特征进行处理,对称函数将每个点的特征合并为整个点云的全局特征;
(3)将点云的全局特征输入到PointNet网络的输出层中进行预测或分类,预测点云的标签或类别;
(4)人为标注点云数据进行分类并贴标签,作为真实标签,将人为标注点云数据划分为测试集和验证集,使用测试集进行PointNet网络训练,使用交叉熵损失函数度量预测PointNet网络结果与真实标签之间的差异,并使用反向传播算法和梯度下降算法调整PointNet网络的权重参数,使网络能够学习到更准确的点云特征,使用验证集对训练好的PointNet模型进行评估。
4.根据权利要求3所述的一种基于深度学习的激光点云与图像对齐方法,其特征在于,使用验证集对训练好的PointNet模型进行评估的评估指标包括:训练好的PointNet模型在预测和分类任务上的准确性、精确度、召回率。
5.根据权利要求1所述的一种基于深度学习的激光点云与图像对齐方法,其特征在于,步骤S2具体为:
S21、读入预处理后的点云数据的所有点,选取前四个不共面的点构成第一个四面体;
S22、取新的点,判断该点的空间位置,若该点在所有已有四面体的外部,则执行步骤S23;若该点在已有的某个四面体A2内部,则执行步骤S24;若该点落在已有四面体的某个三角形表面B3内,则执行步骤S25;若该点落在已有的四面体的某个边C4上,则执行步骤S26;若和已有的四面体某个顶点重合,则丢掉该点,重新执行步骤S22;
S23、找到离该点最近的已有四面体的某个三角形表面B1,以该点和三角形表面B1的三个顶点构建新的四面体,转到步骤S27;
S24、将四面体A2分裂成为四个新的四面体,其中,以该点分别与四面体A2四个面的顶点构建新的四面体,形成4个新的四面体,转到步骤S27;
S25、该点与三角形表面B3三个顶点相连,将三角形表面B3分为3个新的三角形面,3个新的三角形面的顶点分别与三角形表面B3所在的四面体另一个顶点相连,三角形表面B3所在的四面体均形成3个新的四面体,转到步骤S27;
S26、将该点与边C4所在的四面体的所有顶点相连,边C4所在的四面体均形成2个新的四面体,转到步骤S27;
S27、使用Lawson算法检查是否有不符合,“空球准则”的四面体的存在,若有,则加以调整,转到步骤S28;
S28、如果所有点都已加入,则算法结束,否则转到步骤S22。
6.根据权利要求1所述的一种基于深度学习的激光点云与图像对齐方法,其特征在于,步骤S4具体为:
S41、获取有对应关系的一对摄像机拍摄的2D图像与虚拟摄像机拍摄的2D模拟图像,并对这对图像进行预处理,包括图像的归一化、大小调整、通道调整,得到待对齐图像;
S42、将S41中的待对齐图像输入到卷积神经网络中,进行特征提取并生成待对齐图像的标签;
S43、使用生成的标签作为监督信号,使用待对齐图像作为训练集,通过反向传播算法和优化算法训练卷积神经网络,调整卷积神经网络的权重参数;
S44、使用人为对齐的待对齐图像作为验证集对训练后的卷积神经网络进行验证,根据验证集的表现,调整卷积神经网络的超参数、网络结构;
S45、将待对齐图像输入到验证好的卷积神经网络中,获取网络输出的对齐结果。
7.一种基于深度学习的激光点云与图像对齐装置,其特征在于,所述装置包括:
处理器;
存储器,其上存储有可在所述处理器上运行的计算机程序;
其中,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的一种基于深度学习的激光点云与图像对齐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310845155.4A CN117078912A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的激光点云与图像对齐方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310845155.4A CN117078912A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的激光点云与图像对齐方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117078912A true CN117078912A (zh) | 2023-11-17 |
Family
ID=88712349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310845155.4A Pending CN117078912A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的激光点云与图像对齐方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117078912A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210050365A (ko) * | 2019-10-28 | 2021-05-07 | 에스케이텔레콤 주식회사 | 영상 정합 장치 및 방법 |
CN114494725A (zh) * | 2022-01-19 | 2022-05-13 | 华雁智能科技(集团)股份有限公司 | 一种电力线模型的建立方法和建立装置 |
CN115131414A (zh) * | 2022-06-22 | 2022-09-30 | 西安电子科技大学 | 基于深度学习的无人机图像对齐方法、电子设备和存储介质 |
CN115327568A (zh) * | 2022-07-19 | 2022-11-11 | 哈尔滨工程大学 | 基于PointNet网络的无人机集群实时目标识别方法、系统和地图构建方法 |
CN115620064A (zh) * | 2022-10-26 | 2023-01-17 | 山东大学 | 一种基于卷积神经网络的点云下采样分类方法及系统 |
CN116258835A (zh) * | 2023-05-04 | 2023-06-13 | 武汉大学 | 基于深度学习的点云数据三维重建方法和系统 |
-
2023
- 2023-07-10 CN CN202310845155.4A patent/CN117078912A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210050365A (ko) * | 2019-10-28 | 2021-05-07 | 에스케이텔레콤 주식회사 | 영상 정합 장치 및 방법 |
CN114494725A (zh) * | 2022-01-19 | 2022-05-13 | 华雁智能科技(集团)股份有限公司 | 一种电力线模型的建立方法和建立装置 |
CN115131414A (zh) * | 2022-06-22 | 2022-09-30 | 西安电子科技大学 | 基于深度学习的无人机图像对齐方法、电子设备和存储介质 |
CN115327568A (zh) * | 2022-07-19 | 2022-11-11 | 哈尔滨工程大学 | 基于PointNet网络的无人机集群实时目标识别方法、系统和地图构建方法 |
CN115620064A (zh) * | 2022-10-26 | 2023-01-17 | 山东大学 | 一种基于卷积神经网络的点云下采样分类方法及系统 |
CN116258835A (zh) * | 2023-05-04 | 2023-06-13 | 武汉大学 | 基于深度学习的点云数据三维重建方法和系统 |
Non-Patent Citations (2)
Title |
---|
袁方等: "一种基于三维Delaunay三角化的曲面重建算法", 《计算机技术与发展》, vol. 21, no. 10, 31 October 2011 (2011-10-31), pages 13 - 18 * |
邸慧军等: "《无人驾驶车辆目标检测与运动跟踪》", 30 April 2021, pages: 155 - 158 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855587B2 (ja) | 視点から距離情報を取得するための装置及び方法 | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
Wu et al. | Passive measurement method of tree diameter at breast height using a smartphone | |
CN110689577B (zh) | 单相机环境中主动式刚体的位姿定位方法及相关设备 | |
CN112017243B (zh) | 一种介质能见度识别方法 | |
CN112562005A (zh) | 一种空间标定方法和系统 | |
CN111739099B (zh) | 预防跌落方法、装置及电子设备 | |
CN115049821A (zh) | 一种基于多传感器融合的三维环境目标检测方法 | |
CN115797408A (zh) | 融合多视角图像和三维点云的目标跟踪方法及装置 | |
CN114611635B (zh) | 一种对象的识别方法、装置、存储介质及电子装置 | |
CN110851978B (zh) | 一种基于可见性的摄像机位置优化方法 | |
Sun et al. | High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm | |
CN113160416A (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
CN112699748A (zh) | 基于yolo及rgb图像的人车距离估计方法 | |
KR102445865B1 (ko) | 영상기반 토목 구조물 실시간 변위 계측 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체 | |
CN115717865A (zh) | 环形结构全场变形测量方法 | |
CN117078912A (zh) | 一种基于深度学习的激光点云与图像对齐方法和装置 | |
CN113792645A (zh) | 一种融合图像和激光雷达的ai眼球 | |
Heide et al. | UCSR: registration and fusion of cross-source 2D and 3D sensor data in unstructured environments | |
US20090304263A1 (en) | Method for classifying an object using a stereo camera | |
CN113724333A (zh) | 一种雷达设备的空间标定方法和系统 | |
CN116704138B (zh) | 倾斜摄影三维模型的建立方法及装置 | |
Katai-Urban et al. | Reconstructing atmospheric cloud particles from multiple fisheye cameras | |
CN112014393B (zh) | 一种基于目标视觉效果的介质能见度识别方法 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |