CN110781937B - 一种基于全局视角的点云特征提取方法 - Google Patents
一种基于全局视角的点云特征提取方法 Download PDFInfo
- Publication number
- CN110781937B CN110781937B CN201910984287.9A CN201910984287A CN110781937B CN 110781937 B CN110781937 B CN 110781937B CN 201910984287 A CN201910984287 A CN 201910984287A CN 110781937 B CN110781937 B CN 110781937B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- dimensional
- grid
- area
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于全局视角的点云特征提取方法,该方法先获取点云模型中原始三维点云坐标点,并结合主成分分析法,获得三个特征向量;将每个原始三维点云坐标点投影到三个特征向量,获得三个投影值,并结合刚体变换方法,获得每个原始三维点云坐标点对应的投影坐标;将全部投影坐标划分成三个二维平面,并将每个二维平面划分成N个网格区域;根据每个网格区域内的深度因子、面积因子、坐标面积因子,获得每个网格区域的特征数值,并结合N个网格区域,获得每个二维平面的特征数值;根据每个二维平面的特征数值,提取点云模型的总特征。采用本发明技术方案不用时刻受到不同扫描视角的影响而导致点云特征提取的精确度低,同时降低了时间复杂度。
Description
技术领域
本发明涉及三维点云数据处理领域,尤其涉及一种基于全局视角的点云特征提取方法。
背景技术
目前主要采用激光三维扫描仪将现实世界中的物体转换成点云模型,根据点云模型中的三维点云数据实现模型重构,进而在虚拟世界中创建与现实世界物体相同的数字模型。但是,激光三维扫描仪采集到的三维点云数据相对较多,能够从大量的三维点云数据中精确的提取点云特征显得尤为重要。
现有技术中,通常采用视点特征直方图描述子(VFH)的方法进行点云模型局部特征的提取。VFH方法根据全部估计法线方向之间的相互作用,来捕获点云模型表面的变化情况,从而实现点云模型几何特征的提取。然而,目前VFH方法通常用于点云模型局部特征提取,受点云扫描视点的影响大,相同形状的点云模型在不同扫描视角下,点云提取出来的特征存在差异,进而使得点云特征提取的精确度低。同时,VFH方法对点云特征的提取,首先需要估计每个点所在 K临近点区域内的法向量,其次计算每个点与临近点之间的特征向量和与一个视点方向相关的特征分量,因此VFH方法处理点云数据的过程中时间复杂度高,若成倍增大点云的密度,其时间复杂度成倍增加。
发明内容
本发明实施例提供了一种基于全局视角的点云特征提取方法,不用时刻受到不同扫描视角的影响而导致点云特征提取的精确度低,同时降低了时间复杂度。
为了解决上述技术问题,本发明实施例提供了一种基于全局视角的点云特征提取方法,包括:
获取点云模型中原始三维点云数据,其中,所述原始三维点云数据包括D 个原始三维点云坐标点,D为大于1的整数;
根据所述D个原始三维点云坐标点,结合主成分分析法,获得三个特征向量,其中,所述三个特征向量相互正交;
将每个所述原始三维点云坐标点分别一一投影到所述三个特征向量,获得三个投影值,并结合预设的刚体变换方法对所述三个投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标;
将全部所述投影坐标划分成三个二维平面,并分别将每个所述二维平面划分成N*N个网格区域,其中,N为大于1的整数;
根据每个网格区域内的深度因子、面积因子、坐标面积因子,获得每个网格区域的特征数值,并结合所述N*N个网格区域,获得每个二维平面的特征数值;
根据所述每个二维平面的特征数值,提取所述点云模型的总特征。
作为优选方案,所述根据所述D个原始三维点云坐标点,结合主成分分析法,获得三个特征向量,具体为:
将所述D个原始三维点云坐标点的每个维度去均值,获得D*3矩阵数据;
计算所述矩阵数据的的协方差矩阵,获得D*D协方差矩阵;
根据主成分分析方法,将所述协方差矩阵的特征值按大小排序,并同时计算出与所述协方差矩阵的特征值对应的特征向量,获得第一主成分特征向量、第二主成分特征向量和第三主成分特征向量。
作为优选方案,所述将每个所述原始三维点云坐标点分别一一投影到所述三个特征向量,获得三个投影值,并结合预设的刚体变换方法对所述三个投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标,具体为:
将每个所述原始三维点云坐标点分别一一投影到所述第一主成分特征向量、所述第二主成分特征向量和所述第三主成分特征向量,获得第一投影值、第二投影值、第三投影值;
根据刚体变换方法对所述第一投影值、所述第二投影值、所述第三投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标。
作为优选方案,所述每个网格区域内点云的深度因子,计算方法如下:
深度因子deepOcc=(ave–MinXa)/(MaxXa–MinXa),其中ave表示每个网格区域内点云的平均深度,MinXa表示每个网格区域内的最小投影值,MaxXa 表示每个网格区域内的最大投影值。
作为优选方案,所述每个网格区域内的面积因子,计算方法如下:
面积因子Occ=cloudArea/blockArea,其中cloudArea表示每个网格区域内点云所占的面积,blockArea表示为网格面积。
作为优选方案,所述每个网格区域的坐标面积因子,计算方法如下:
计算每个网格区域对应的二维平面的面积;
计算所述每个网格区域对应的二维平面的面积占三个二维平面的面积之和的比值,获得每个网格区域的面积坐标因子。
作为优选方案,所述每个网格区域的特征数值,计算方法如下:
areaFea=Occ*deepOcc*axisOcc,其中Occ表示每个网格区域内的面积因子,deepOcc表示每个网格区域内点云的深度因子,axisOcc表示每个网格区域的坐标面积因子。
作为优选方案,所述根据所述每个网格区域的特征数值,结合所述N*N个网格区域,获得每个二维平面的特征数值,计算方法如下:
每个二维平面的特征数值=N*N*每个网格区域的特征数值。
实施本发明实施例,具有如下有益效果:
本发明公开了一种基于全局视角的点云特征提取方法,该方法先获取点云模型中原始三维点云坐标点,并结合主成分分析法,获得三个特征向量;将每个原始三维点云坐标点投影到三个特征向量,获得三个投影值,并结合刚体变换方法,获得每个原始三维点云坐标点对应的投影坐标;将全部投影坐标划分成三个二维平面,并将每个二维平面划分成N个网格区域;根据每个网格区域内的深度因子、面积因子、坐标面积因子,获得每个网格区域的特征数值,并结合N个网格区域,获得每个二维平面的特征数值;根据每个二维平面的特征数值,提取点云模型的总特征。相比于现有技术采用VFH方法进行点云模型特征点的提取,本发明技术方案不用时刻受到不同扫描视角的影响而导致点云特征提取的精确度低,而是通过全局视角进行点云模型特征点的提取,进一步提高了点云特征提取的精确度,同时还能够降低时间复杂度。
进一步地,本发明在计算每个网格区域的特征数值时,加入了深度因子、深度因子和坐标面积因子,从不同角度对点云特征进行分析,能够有效的提高点云特征提取的精确度。
进一步地,本发明将全部投影坐标划分成三个二维平面,并将二维平面划分成若干个网格区域,最后通过全部网格区域的特征数值来获取全部的点云特征,能够有效提高点云特征的提取精度。
附图说明
图1是本发明提供的基于全局视角的点云特征提取方法的一种实施例的流程示意图;
图2是本发明与VFH方法的识别率的效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明提供的基于全局视角的点云特征提取方法的一种实施例的流程示意图。如图1所述,该构建方法包括步骤101至步骤106,各步骤具体如下:
步骤101:获取点云模型中原始三维点云数据,其中,原始三维点云数据包括D个原始三维点云坐标点,D为大于1的整数。
步骤102:根据D个原始三维点云坐标点,结合主成分分析法,获得三个特征向量,其中,三个特征向量相互正交。
在本实施例中,步骤102具体为:将D个原始三维点云坐标点的每个维度去均值,获得D*3矩阵数据;计算矩阵数据的的协方差矩阵,获得D*D协方差矩阵;根据主成分分析方法,将协方差矩阵的特征值按大小排序,并同时计算出与协方差矩阵的特征值对应的特征向量,获得第一主成分特征向量、第二主成分特征向量和第三主成分特征向量。
在本实施例中,结合主成分分析法,找出原始三维点云数据方差变化最大的三个相互正交的方向。原始三维点云数据中方差最大的方向为第一主成分特征向量;与第一主成分特征向量正交的平面中方差最大的方向为第二主成分特征向量;与第一主成分特征向量、第二主成分特征向量正交的平面中方差最大的方向为第三主成分特征向量。
在本实施例中根据主成分分析方法获得三个相互正交的特征向量,目的在于将原始三维点云数据中方差最大的方向统一在同一个坐标轴上,实现数据的降维,从而进行原始三维点云数据的全面分析,有效提高了点云特征提取的精确性,同时能够有效减少了处理点云数据的时间。
步骤103:将每个原始三维点云坐标点分别一一投影到三个特征向量,获得三个投影值,并结合预设的刚体变换方法对三个投影值进行处理,依次获得每个原始三维点云坐标点对应的投影坐标。
在本实施例中,步骤103具体为:将每个原始三维点云数据分别一一投影到第一主成分特征向量、第二主成分特征向量和第三主成分特征向量,获得第一投影值、第二投影值、第三投影值;根据刚体变换方法对第一投影值、第二投影值、第三投影值进行处理,依次获得每个原始三维点云坐标点对应的投影坐标。
譬如,首先将每个原始三维点云数据分别一一投影到第一主成分特征向量、第二主成分特征向量和第三主成分特征向量,获得第一投影值X1、第二投影值 X2、第三投影值X3,且三个投影值都是1*D的矩阵数据。其次应用刚体变换方法,将第一投影值X1、第二投影值X2、第三投影值X3组成投影坐标。
步骤104:将全部投影坐标划分成三个二维平面,并分别将每个二维平面划分成N*N个网格区域,其中,N为大于1的整数。
譬如,第一主成分特征向量方向上的二维平面由第二投影值X2、第三投影值X3组成;第二主成分特征向量方向上的二维平面由第一投影值X1、第三投影值X3组成;第三主成分特征向量方向上的二维平面由第一投影值X1、第二投影值X2组成。
在本实施例中,每个二维平面的划分个数可以不相同,每个二维平面划分 N*N个网格区域,N为大于1的整数。
步骤105:根据每个网格区域内的深度因子、面积因子、坐标面积因子,获得每个网格区域的特征数值,并结合N*N个网格区域,获得每个二维平面的特征数值。
在本实施例中,每个网格区域内的深度因子计算方法如下:
深度因子deepOcc=(ave–MinXa)/(MaxXa–MinXa),其中ave表示每个网格区域内点云的平均深度,MinXa表示每个网格区域内的最小值投影值,MaxXa表示每个网格区域内的最大值投影值。
譬如,第三主成分特征向量方向上的二维平面由第一投影值X1、第二投影值X2组成,那么第三主成分特征向量方向上的二维平面的中的网格区域内的点云深度由第三投影值X3决定。获取网格区域内的所有原始三维点云坐标点,找出最大的第三投影值MaxX3和最小的第三投影值MinX3,算出该网格区域内的点云平均深度ave=MaxX3-MinX3,因此,该网格区域内点云的深度因子deepOcc =(ave–MinX3)/(MaxX3–MinX3)。
在本实施例中,获取每个网格区域的特征数值中加入了深度因子的计算,能够有效提取三视图相同而内部结构不同的点云模型的特征,进一步提高了点云特征提取的精度。
在本实施例中,每个网格区域内的面积因子计算方法如下:
面积因子Occ=cloudArea/blockArea,其中cloudArea表示每个网格区域内点云所占的面积,blockArea表示为网格面积。
譬如,第三主成分特征向量方向上的二维平面由第一投影值X1、第二投影值X2组成,并将每个二维平面划分N*N个网格区域。采用微积分的原理计算每个网格区域内点云所占的面积,当二维平面划分的网格区域足够小,且该区域原始三维点云坐标点的密度足够大,找出每个网格区域内的最大值投影值和最小投影值,可以直接求出该区域原始三维点云坐标点的最大边界坐标(maxX1, maxX2)和最小边界坐标(minX1,minX2),则cloudArea=(maxX1–mixX1)* (maxX2-minX2)。
譬如,第三主成分特征向量方向上的二维平面由第一投影值X1、第二投影值X2组成,且第三主成分特征向量方向上的二维平面要划分N*N个网格区域,找出第三主成分特征向量方向上的二维平面中第一投影值的最大值maxx1、第一投影值的最小值minx1、第二投影值的最大值maxx2、第二投影值的最小值minx2,则该网格区域的长和宽分别是(maxx1–minx1)/N,(maxx2–minx2)/N,则blockArea=(maxx1–minx1)*(maxx2–minx2)/N2。
在本实施例中,三个二维平面划分的网格区域的个数可以不相同,例如,用户输入数据为(N1,N2,N3),则第一主成分特征向量方向上的二维平面分割成N1*N1个网格区域,第二主成分特征向量方向上的二维平面分割成N2*N2,第三主成分特征向量方向上的二维平面分割成N3*N3;此时,只需要将后续步骤中的公式进行相应的调整,也能实现本发明所述的基于全局视角的点云特征提取方法。
在本实施例中,每个网格区域内的面积因子的计算方法,具体为:计算每个网格区域对应的二维平面的面积;计算每个网格区域对应的二维平面的面积占三个二维平面的面积之和的比值,获得每个网格区域的面积坐标因子。
譬如,在第三主成分特征向量方向上由第一投影值X1和第二投影值X2组成的二维平面,找出第三主成分特征向量方向上的二维平面中第一投影值的最大值maxx1、第一投影值的最小值minx1、第二投影值的最大值maxx2、第二投影值的最小值minx2,所以该方向上的二维平面面积axisArea= (maxx1–minx1)*(maxx2–minx2)。依次计算出三个二维平面的面积,在第三主成分特征向量方向的二维平面面积占三个二维平面面积之和的比例为第三主成分特征向量方向的二维平面的权重,该权重为坐标面积因子axisOcc;其中,同一个二维平面上的网格区域的坐标面积因子均相同。
在本实施例中,计算每个网格区域的特征数值时加入了坐标面积因子的计算,能够有效解决二维平面分割网格区域导致的拉伸问题。
在本实施例中,每个网格区域的特征数值计算方法如下:
areaFea=Occ*deepOcc*axisOcc,其中Occ表示每个网格区域内的面积因子,deepOcc表示每个网格区域内点云的深度因子,axisOcc表示每个网格区域的坐标面积因子。
在本实施例中,根据计算获取的每个网格区域的特征数值,结合N*N个网格区域,获得每个二维平面的特征数值,每个二维平面的特征数值=N*N*每个网格区域的特征数值。
步骤106:根据每个二维平面的特征数值,提取点云模型的总特征。
在本实施例中,将三个二维平面的特征数值相加,提取点云模型的总特征。
由上可见,应用本实施例技术方案,计算每个网格区域的特征数值中加入了深度因子的计算,能够有效提取三视图相同而内部结构不同的点云模型的特征;加入了面积因子、坐标面积因子的计算,能够从不同角度进行点云特征的提取,从而提高了点云特征提取的精度。相比于现有技术通过VFH的方法进行点云模型局部特征的提取,本发明技术方案的点云特征提取不受点云扫描视点影响,从而能够准确提取点云的特征信息,进而提高了点云特征提取的精确度,同时还能够降低时间复杂度。
参见图2,图2是本发明与VFH方法的识别率效果图。如图2所示,是本发明与VFH方法提取的点云特征在支持向量机(SVM)的计算的识别率效果图,其中虚线是利用VFH方法提取点云特征的识别率结果,实线是本发明提取点云特征的识别率结果。其中,横坐标是样本类别,纵坐标是正确率。共有9744个训练样本,其中每一类的训练样本为1392个;共有4200个测试样本,其中每一类的测试样本为600个。
VFH整体识别率为83.26%,其中1-7类别的点云样本的正确率分别是: 98.50%,53.00%,100%,63.83%,89.33%,99.83%,78.33%。
本发明整体识别率为94.31%,其中1-7类别的点云样本的正确率分别是:95.33%,99.00%,100%,83.00%,91.83%,94.33%,96.67%。
由上可见,本发明整体的识别率比VFH方法的识别率高,因此本发明技术方案提取到点云特征的数据更加客观,更具有参考价值。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory, ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (4)
1.一种基于全局视角的点云特征提取方法,其特征在于,包括:
获取点云模型中原始三维点云数据,其中,所述原始三维点云数据包括D个原始三维点云坐标点,D为大于1的整数;
根据所述D个原始三维点云坐标点,结合主成分分析法,获得三个特征向量,其中,所述三个特征向量相互正交;
将每个所述原始三维点云坐标点分别一一投影到所述三个特征向量,获得三个投影值,并结合预设的刚体变换方法对所述三个投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标;
将全部所述投影坐标划分成三个二维平面,并分别将每个所述二维平面划分成N*N个网格区域,其中,N为大于1的整数;
根据每个网格区域内的深度因子、面积因子、坐标面积因子,获得每个网格区域的特征数值,并结合所述N*N个网格区域,获得每个二维平面的特征数值;
所述每个网格区域内点云的深度因子deepOcc=(ave–MinXa)/(MaxXa–MinXa),其中ave表示每个网格区域内点云的平均深度,MinXa表示每个网格区域内的最小投影值,MaxXa表示每个网格区域内的最大投影值;
所述每个网格区域内的面积因子Occ=cloudArea/blockArea,其中cloudArea表示每个网格区域内点云所占的面积,blockArea表示为网格面积;
所述每个网格区域的坐标面积因子的计算方法如下:计算每个网格区域对应的二维平面的面积;计算所述每个网格区域对应的二维平面的面积占三个二维平面的面积之和的比值,获得每个网格区域的面积坐标因子;
所述每个网格区域的特征数值areaFea=Occ*deepOcc*axisOcc,其中Occ表示每个网格区域内的面积因子,deepOcc表示每个网格区域内点云的深度因子,axisOcc表示每个网格区域的坐标面积因子;
根据所述每个二维平面的特征数值,提取所述点云模型的总特征。
2.如权利要求1所述的基于全局视角的点云特征提取方法,其特征在于,所述根据所述D个原始三维点云坐标点,结合主成分分析法,获得三个特征向量,具体为:
将所述D个原始三维点云坐标点的每个维度去均值,获得D*3矩阵数据;
计算所述矩阵数据的的协方差矩阵,获得D*D协方差矩阵;
根据主成分分析方法,将所述协方差矩阵的特征值按大小排序,并同时计算出与所述协方差矩阵的特征值对应的特征向量,获得第一主成分特征向量、第二主成分特征向量和第三主成分特征向量。
3.如权利要求2所述的基于全局视角的点云特征提取方法,其特征在于,所述将每个所述原始三维点云坐标点分别一一投影到所述三个特征向量,获得三个投影值,并结合预设的刚体变换方法对所述三个投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标,具体为:
将每个所述原始三维点云坐标点分别一一投影到所述第一主成分特征向量、所述第二主成分特征向量和所述第三主成分特征向量,获得第一投影值、第二投影值、第三投影值;
根据刚体变换方法对所述第一投影值、所述第二投影值、所述第三投影值进行处理,依次获得每个所述原始三维点云坐标点对应的投影坐标。
4.如权利要求1所述的基于全局视角的点云特征提取方法,其特征在于,所述根据所述每个网格区域的特征数值,结合所述N*N个网格区域,获得每个二维平面的特征数值,计算方法如下:
每个二维平面的特征数值=N*N*每个网格区域的特征数值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984287.9A CN110781937B (zh) | 2019-10-16 | 2019-10-16 | 一种基于全局视角的点云特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984287.9A CN110781937B (zh) | 2019-10-16 | 2019-10-16 | 一种基于全局视角的点云特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781937A CN110781937A (zh) | 2020-02-11 |
CN110781937B true CN110781937B (zh) | 2022-05-17 |
Family
ID=69385753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910984287.9A Active CN110781937B (zh) | 2019-10-16 | 2019-10-16 | 一种基于全局视角的点云特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781937B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111683257B (zh) * | 2020-04-30 | 2022-04-26 | 中山大学 | 一种基于邻近点投影分布特征的点云快速投影方法 |
CN112001261A (zh) * | 2020-07-28 | 2020-11-27 | 哈尔滨工业大学(深圳) | 基于toldi描述符的3d特征提取方法、系统及介质 |
CN112381932A (zh) * | 2020-11-24 | 2021-02-19 | 光沦科技(深圳)有限公司 | 基于上下文感知的三维点云模型处理方法及装置 |
CN115290650B (zh) * | 2022-09-29 | 2023-01-17 | 南京航空航天大学 | 基于点云的复材壁板孔特征的检测方法及其系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876744A (zh) * | 2018-06-27 | 2018-11-23 | 大连理工大学 | 一种基于区域分割的大尺度点云噪声去噪方法 |
CN110060331A (zh) * | 2019-03-14 | 2019-07-26 | 杭州电子科技大学 | 一种基于全卷积神经网络的单目相机室外三维重建方法 |
CN110274602A (zh) * | 2018-03-15 | 2019-09-24 | 奥孛睿斯有限责任公司 | 室内地图自动构建方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10451405B2 (en) * | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10558843B2 (en) * | 2018-01-10 | 2020-02-11 | Trax Technology Solutions Pte Ltd. | Using price in visual product recognition |
-
2019
- 2019-10-16 CN CN201910984287.9A patent/CN110781937B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110274602A (zh) * | 2018-03-15 | 2019-09-24 | 奥孛睿斯有限责任公司 | 室内地图自动构建方法及系统 |
CN108876744A (zh) * | 2018-06-27 | 2018-11-23 | 大连理工大学 | 一种基于区域分割的大尺度点云噪声去噪方法 |
CN110060331A (zh) * | 2019-03-14 | 2019-07-26 | 杭州电子科技大学 | 一种基于全卷积神经网络的单目相机室外三维重建方法 |
Non-Patent Citations (2)
Title |
---|
GAL: Geometric Adversarial Loss for Single-View 3D-Object Reconstruction;Li Jiang 等;《ECCV》;20181231;第1-15页 * |
多视角三维激光点云全局优化整体配准算法;李彩林 等;《测绘学报》;20150228;第183-189页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110781937A (zh) | 2020-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781937B (zh) | 一种基于全局视角的点云特征提取方法 | |
CN110675487B (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
CN107742102B (zh) | 一种基于深度传感器的手势识别方法 | |
CN109544568A (zh) | 目标图像分割方法、装置及设备 | |
CN111523414A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
JP6539303B2 (ja) | 3d医用画像中の対象物を分割するための3d対象物の変換 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
Cheng et al. | Building boundary extraction from high resolution imagery and lidar data | |
CN109034131A (zh) | 一种半自动人脸关键点标注方法及存储介质 | |
WO2017070923A1 (zh) | 一种人脸识别方法和装置 | |
Limper et al. | Mesh Saliency Analysis via Local Curvature Entropy. | |
US20090116731A1 (en) | Method and system for detection of concha and intertragal notch point in 3D undetailed ear impressions | |
CN105139013B (zh) | 一种融合形状特征和兴趣点的物体识别方法 | |
CN106683105B (zh) | 图像分割方法及图像分割装置 | |
CN109785283B (zh) | 一种用于织物分割的纹理特征匹配方法及装置 | |
CN111259788A (zh) | 头颈拐点的检测方法、装置以及计算机设备 | |
CN113159103B (zh) | 图像匹配方法、装置、电子设备以及存储介质 | |
CN106033613B (zh) | 目标跟踪方法及装置 | |
CN117671031A (zh) | 双目相机标定方法、装置、设备及存储介质 | |
CN116051540B (zh) | 基于点云模型的互感器接线端子定位位姿获取方法及系统 | |
CN108615041B (zh) | 一种角点检测方法 | |
CN109978043A (zh) | 一种目标检测方法及装置 | |
JP6725310B2 (ja) | 画像処理装置及びプログラム | |
JP7182528B2 (ja) | マシンビジョン用の画像データを処理するための方法及び装置 | |
CN106652048B (zh) | 基于3d-susan算子的三维模型感兴趣点提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |