CN103247045A - 一种从多视图中得到人造场景主方向及图像边缘的方法 - Google Patents

一种从多视图中得到人造场景主方向及图像边缘的方法 Download PDF

Info

Publication number
CN103247045A
CN103247045A CN2013101351960A CN201310135196A CN103247045A CN 103247045 A CN103247045 A CN 103247045A CN 2013101351960 A CN2013101351960 A CN 2013101351960A CN 201310135196 A CN201310135196 A CN 201310135196A CN 103247045 A CN103247045 A CN 103247045A
Authority
CN
China
Prior art keywords
point
image
principal direction
cloud
artificial scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101351960A
Other languages
English (en)
Other versions
CN103247045B (zh
Inventor
毛润超
杨杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201310135196.0A priority Critical patent/CN103247045B/zh
Publication of CN103247045A publication Critical patent/CN103247045A/zh
Application granted granted Critical
Publication of CN103247045B publication Critical patent/CN103247045B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种从多视图中得到人造场景主方向及图像边缘的方法,该方法从多幅人造场景图像中求取其三个相互正交的主方向并在图像中找到与之对应的边缘的,步骤为:对图像采集特征点,通过特征点进行标定和点云的重建;从领域中计算点云法向并通过投票的方式确定三个主方向;然后在图像中确定消影点;最后结合双边滤波提取边缘。本发明可以精确地恢复人造场景中常见的结构信息,并在图像中完整而准确地予以表现。

Description

一种从多视图中得到人造场景主方向及图像边缘的方法
技术领域
本发明属于计算机视觉和计算机图形学领域,具体涉及三维稠密点云重建,图像边缘提取以及大规模优化领域。
背景技术
在计算机视觉领域,三维重建长期以来都是其中的核心问题,并在近年来取得了极大的进展。三维重建作为一个综合性极强的工程问题,涉及了计算机视觉和图形学领域的各个主要研究方向,包括计算几何、特征提取、特征匹配、正则化、表面重建和纹理映射等等方面,其本身也被广泛地运用在地质地貌研究、三维地图、虚拟现实、文物保护、医学诊断、自动导航、增强现实等重要的领域。
常用的三维重建方法可以分为主动式和被动式两种。主动式的三维重建主要通过某种特性已知的方式对目标进行投影,根据接收到信息与发射出信息之间的关系来计算深度,主要包括激光扫描、激光雷达、扫描线等方法。这类方法的缺陷在于设备昂贵且受空间约束很大,准确度与其利用的介质直接相关。被动式的三维重建则是通过普通的相机在不同的位置对目标进行采样,通过得到的二维图像进行重建。这类方法的适用性很强,且成本很低。除此之外,图像本身所包含的的颜色信息对于得到三维模型后的纹理映射过程也非常重要,这可以使最终的模型拥有更好的视觉效果。而主动式的重建方法则往往需要额外地拍摄照片并与模型配准,这一过程的效率很低而且往往包含误差,导致模型失真。
可是,由于直接获得的是二维信息,被动式的多视图重建过程难以避免地会遇到很强的歧义和不确定性。为了解决这些不确定性,各种先验通过归一化或优化的方式引入三维重建当中,最常见的就是表面光滑性约束。对于人造场景而言,这种约束导致的表面往往过于复杂,而在边缘和角点处又往往过于平滑,因此需要更强的约束。Manhattan-World是在场景重建中常用的约束方式,它假定了目标由三类朝向相互正交的平面构成。大多数的建筑都符合这样的约束,而少数满足条件的平面也可以通过更细小的平面的组合来拟合,故也保证了模型的通用性。而在这一约束框架下,图像消影点的识别是最关键的一个步骤。
图像的消影点对应了三维中的一族平行线,这些平行线的投影均经过其对应的消影点。在图像中识别消影点就意味着识别了三维空间中目标的三个主方向,这样就可以将重建的复杂度降低到一维,为更进一步的重建算法提供了强有力的约束。
消影点辨识最常用的方法是Hough变换和RANSAC(随机抽样一致性算法)来进行。其中基于Hough变换的方法受离散化程度的影响较大,同时很难加上正交的约束,因为三个主方向往往是依次生成的;而基于RANSAC的方法无法从理论上保证结果的最优性,且由于包含随机过程,其结果不是确定性的。除了上述两种方法之外,穷举和EM(Expectation&Maximization)方法也被运用在消影点辨识中,但是两种方法都受初始情况的影响很大,容易陷于局部极小。
辨识了消影点后,则需要辨识与消影点相一致的直线特征,这些直线包括了三维中各平面的相交线,可以形成这些平面的边缘,为模型提供简洁而准确的描述,因此非常重要。受点云重建精度和密度的约束,在三维空间中寻找这些直线是非常困难的,因此一般还是需要在图像上求取,在寻找其间的对应关系从而反投影到三维空间中确定其确切的位置。常用的边缘提取算法(包括Hough变换)无法保证结果满足消影点的约束,因此必须在其后进行进一步的筛选和裁剪,这就会导致边缘在连续性和直线性两方面难以兼备,即当筛选较为严格时只能保留很多间断的短边缘,而当筛选较为宽松时又无法保证边缘为与消影点一致的直线。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种更加准确的从多视图中得到人造场景主方向及图像边缘的方法。
为实现上述目的,本发明采用的技术方案:本发明仅依靠多幅普通图像通过标定和重建得到三维点云,对点云进行法向量的计算,在此基础上通过投票机制和均值漂移计算三个相互正交的主方向,然后将主方向投影到图像上形成消影点,最后结合双边滤波、局部Hough变换等技术提取出与主方向平行的直线边缘。
本发明提供一种从多视图中得到人造场景主方向及图像边缘的方法,包括如下步骤:
第一步,使用相机在不同的位置、不同的角度对场景进行拍照,获得真实场景的二维图像序列;
第二步,使用SIFT算法对第一步图像进行特征提取及匹配;
第三步,通过光束平差法(Bundle Adjustment)同时进行相机定标以及匹配特征的三维重建,生成稀疏点云;
第四步,使用PMVS(基于图像块的多视图重建)算法,从稀疏点云开始,反复进行扩散和滤波。其中扩散从已确定的点开始,在其附近寻找与各图像相匹配的三维点,滤波则对扩散后的点进行检验,去除不符合可见性约束、图像一致性约束的点去除。最终的结果为较为稠密的点云;
第五步,在点云中通过对一个合适的临域大小内进行主成分分析(PCA)计算每个点的法向量;
所述第五步中,临域的大小与点云的平均密度成正比,平均密度的定义为每个点与其最近点之间的距离的平均值,将点云放入Kd树的数据结构中,对包含在每个临域中的点计算协方差矩阵后定义对应于最小特征值的特征向量为临域中心点的法向。
第六步,在空间上定义若干均匀分布的向量,以法向量投票的方式确定三个相互正交的主方向,并投影到图像中确定消影点;
所述第六步中的投票机制通过与事先定义的在单位球上均匀分布的单位向量计算点乘来进行,已知法向与单位向量的夹角小于一阈值时即计数加一;完成计数后,选取基数最大的三个正交方向为主方向,最后在三个方向上使用窗高斯核进行若干次均值漂移。
第七步,对图像进行多次双边滤波简化,然后以Canny算子提取其边缘;
所述第七步中通过若干次双边滤波,在保留图像边缘的同时使边缘两边的部分尽量平滑;随后用一般的Canny算子即完整地找出图像的边缘(连通)并予以准确的定位(单像素宽度)。
第八步,边缘点通过简化的局部Hough变换确定其是否与消影点匹配,最后连接相一致的点形成与主方向平行的线段。
所述第八步中对之前得到的每个边缘像素点,在其临域中采用Hough变换,但直线的方向仅为三个主方向投影,然后通过阈值来判断该点是否属于与某主方向平行的直线,这一步可以采用并行计算;最后将所有满足阈值要求的点分类并连成所需要的直线。
本发明的主要优点有:主方向的获取非常精确,不会陷于局部最小且满足正交性约束;图像边缘与消影点一致,且能够保证其直线特性和连通性。该发明不需要人工干预,只需要事先确定若干参数,且结果对于参数的鲁棒性很好,能在很大的范围内保证结果的稳定。
本发明为基于Manhattan-World假设的三维重建提供了准确的方向定位以及边缘信息。
与现有技术相比,本发明具有如下的有益效果:
本发明的消影点辨识利用了点云重建的特性,利用投票机制来避免局部极小,同时通过均值漂移算法自然地包含了主方向的正交性约束。而在边缘提取阶段,用双边滤波弱化了噪声对于结果的影响并增强了弱边缘,局部Hough变换和Canny算子保证了边缘为直线并与三个消影点一致。在获得图像边缘后,有很多基于边缘或图像一致性的方法可以在此基础上构造三维模型,而这些方法对于边缘的完整性和准确性都有很高的要求,本发明相对于已有方法而言,可以显著地提高这些指标。
附图说明
通过阅读参照以下附图对该算法所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为输入的普通图像集。
图2为从输入图像中得到的稠密点云示意图。
图3-图4为本发明的结果示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。本实施例中没有详细说明的部分均可以采用现有技术实现。
本实施例提供一种从多视图中得到人造场景主方向及图像边缘的方法,包括如下步骤:
第一步,使用相机在不同的位置、不同的角度对场景进行拍照,获得真实场景的二维图像序列;本实施例中得到的如图1所示的普通图像集;
根据计算几何的理论,需要在不同的角度和不同的位置进行拍摄以获取目标对象的图像序列;此外需要保证每个关键点(边缘点、角点等)至少出现在三个或以上的视图中。
第二步,使用SIFT算法对图像进行特征提取及匹配;
第三步,通过光束平差法(Bundle Adjustment)同时进行相机定标以及匹配特征的三维重建,生成稀疏点云;
第四步,使用PMVS算法,从稀疏点云开始,反复进行扩散和滤波。其中扩散从已确定的点开始,在其附近寻找与各图像相匹配的三维点,滤波则对扩散后的点进行检验,去除不符合可见性约束、图像一致性约束的点去除。最终的结果为较为稠密的点云;如图2所示;
由于图像一致性的约束,确定性较好的表面(纹理明显、光照一致)会产生较多的三维点,反之则较少,对于平整的表面,每个三维点与其临域内的点是近似共面的。
第五步,在点云中通过对一个合适的临域大小内进行主成分分析(PCA)计算每个点的法向量;
临域的大小与点云的平均密度成正比,平均密度的定义为每个点与其最近点之间距离的平均值,为了加速计算,将点云放入Kd树的数据结构中方便查找最近邻;对包含在每个临域中的点计算协方差矩阵后定义对应于最小特征值的特征向量为临域中心点的法向。
第六步,在空间上定义若干均匀分布的向量,以法向量投票的方式确定三个相互正交的主方向,并投影到图像中确定消影点;
投票机制通过与事先定义的在单位球上均匀分布的单位向量计算点乘来进行,已知法向与单位向量的夹角小于一阈值时即计数加一;完成计数后,选取基数最大的三个正交方向为主方向。最后在三个方向上使用窗高斯核进行若干次均值漂移使结果更加准确。
为了使结果满足正交性的约束,先选择三个正交而与当前主方向最接近的方向为初值,选择球壳坐标下与其接近的法向计算均值作为旋转向量进行均值漂移以更新初值,当迭代稳定后,三个方向作为最终的主方向。
第七步,对图像进行多次双边滤波简化,然后以Canny算子提取其边缘;
对图像进行双边滤波后,图像的边缘将得以保留,而其他的孤立噪点会得到抑制。多次的双边滤波迭代会使边缘两边的部分变得非常平滑。在此基础上的Canny算子可以将弱边界的阈值降低以得到更多的边缘而不会受到灰度均匀变化或噪声的影响。
第八步,边缘点通过简化的局部Hough变换确定其是否与消影点匹配,最后连接相一致的点形成与主方向平行的线段。
对第七步中得到的每个边缘像素点,在其临域中运用Hough变换(注意只对边缘点进行计数),但直线的方向仅为三个主方向投影,然后通过阈值来判断该点是否属于与某主方向平行的直线。如果有较大部分的边缘点与该点所形成的向量指向某个消影点,则认为该点位于与消影点一致的直线上,这一步可以采用并行计算。最后将所有满足阈值要求的点分类并连成直线即可,一般情况下,对边缘点判断后聚类得到的结果已经基本满足了连通性的要求,因此连线的过程只需要弥补较小的间断,以防止错误的连接。
如图3和图4所示,本方法成功地检测出了图像中与主方向一致的直线边缘,即使是一些梯度信息非常弱的边缘也可以成功地发现。这些边缘信息结合点云对于三维建模提供了充足的约束,因而有着极其重要的意义。
本发明可以精确地恢复人造场景中常见的结构信息,并在图像中完整而准确地予以表现。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (6)

1.一种从多视图中得到人造场景主方向及图像边缘的方法,其特征在于,包括如下步骤:
第一步,使用相机在不同的位置、不同的角度对场景进行拍照,获得真实场景的二维图像序列;
第二步,使用SIFT算法对图像进行特征提取及匹配;
第三步,通过光束平差法同时进行相机定标以及匹配特征的三维重建,生成稀疏点云;
第四步,使用PMVS算法,从稀疏点云开始,反复进行扩散和滤波,其中扩散从已确定的点开始,在其附近寻找与各图像相匹配的三维点,滤波则对扩散后的点进行检验,去除不符合可见性约束、图像一致性约束的点去除,最终的结果为较为稠密的点云;
第五步,在点云中通过对一个临域内进行主成分分析计算每个点的法向量;
第六步,在空间上定义若干均匀分布的向量,以法向量投票的方式确定三个相互正交的主方向,并投影到图像中确定消影点;
第七步,对图像进行多次双边滤波简化,然后以Canny算子提取其边缘;
第八步,边缘点通过简化的局部Hough变换确定其是否与消影点匹配,最后连接相一致的点形成与主方向平行的线段。
2.根据权利要求1所述的从多视图中得到人造场景主方向及图像边缘的方法,其特征在于:第一步中,需在不同的角度和不同的位置进行拍摄以获取目标对象的图像序列,保证每个关键点至少出现在三个或以上的视图中,所述关键点包括边缘点、角点。
3.根据权利要求1所述的从多视图中得到人造场景主方向及图像边缘的方法,其特征在于:所述第五步中,临域的大小与点云的平均密度成正比,平均密度的定义为每个点与其最近点之间的距离的平均值,将点云放入Kd树的数据结构中,对包含在每个临域中的点计算协方差矩阵后定义对应于最小特征值的特征向量为临域中心点的法向。
4.根据权利要求1所述的从多视图中得到人造场景主方向及图像边缘的方法,其特征在于:所述第六步中的投票机制通过与事先定义的在单位球上均匀分布的单位向量计算点乘来进行,已知法向与单位向量的夹角小于一阈值时即计数加一;完成计数后,选取基数最大的三个正交方向为主方向,最后在三个方向上使用窗高斯核进行若干次均值漂移。
5.根据权利要求1所述的从多视图中得到人造场景主方向及图像边缘的方法,其特征在于:所述第七步中通过若干次双边滤波,在保留图像边缘的同时使边缘两边的部分尽量平滑;随后用一般的Canny算子即完整地找出图像的边缘并予以准确的定位。
6.根据权利要求1所述的从多视图中得到人造场景主方向及图像边缘的方法,其特征在于:所述第八步中对之前得到的每个边缘像素点,在其临域中采用Hough变换,但直线的方向仅为三个主方向投影,然后通过阈值来判断该点是否属于与某主方向平行的直线,这一步采用并行计算;最后将所有满足阈值要求的点分类并连成所需要的直线。
CN201310135196.0A 2013-04-18 2013-04-18 一种从多视图中得到人造场景主方向及图像边缘的方法 Active CN103247045B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310135196.0A CN103247045B (zh) 2013-04-18 2013-04-18 一种从多视图中得到人造场景主方向及图像边缘的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310135196.0A CN103247045B (zh) 2013-04-18 2013-04-18 一种从多视图中得到人造场景主方向及图像边缘的方法

Publications (2)

Publication Number Publication Date
CN103247045A true CN103247045A (zh) 2013-08-14
CN103247045B CN103247045B (zh) 2015-12-23

Family

ID=48926550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310135196.0A Active CN103247045B (zh) 2013-04-18 2013-04-18 一种从多视图中得到人造场景主方向及图像边缘的方法

Country Status (1)

Country Link
CN (1) CN103247045B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063860A (zh) * 2014-06-12 2014-09-24 北京建筑大学 一种激光点云边缘精细化的方法
CN104930980A (zh) * 2014-03-20 2015-09-23 株式会社东芝 提取设备和方法
CN106683173A (zh) * 2016-12-22 2017-05-17 西安电子科技大学 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN106973569A (zh) * 2014-05-13 2017-07-21 Pcp虚拟现实股份有限公司 生成和回放虚拟现实多媒体的方法、系统和装置
CN107292956A (zh) * 2017-07-12 2017-10-24 杭州电子科技大学 一种基于曼哈顿假设的场景重建方法
CN108446596A (zh) * 2018-02-14 2018-08-24 天目爱视(北京)科技有限公司 基于可见光相机矩阵的虹膜3d四维数据采集系统及方法
CN108470150A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种基于可见光相机的生物特征四维数据采集方法及装置
CN108470186A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种图像特征点的匹配方法及装置
CN108492330A (zh) * 2018-02-14 2018-09-04 天目爱视(北京)科技有限公司 一种多目视觉深度计算方法及装置
CN108537236A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种多相机数据识别控制系统
CN108701220A (zh) * 2016-02-05 2018-10-23 索尼公司 用于处理多模态图像的系统和方法
CN109146963A (zh) * 2017-06-13 2019-01-04 南京鑫和汇通电子科技有限公司 一种基于快速特征匹配的图像位置偏移检测方法
CN109544577A (zh) * 2018-11-27 2019-03-29 辽宁工程技术大学 一种基于边缘点编组的改进直线提取方法
CN109643373A (zh) * 2016-06-30 2019-04-16 奇跃公司 估计3d空间中的姿态
CN110019627A (zh) * 2017-12-25 2019-07-16 北京京东尚科信息技术有限公司 识别交通导流线的方法及其系统、计算机系统
CN110047133A (zh) * 2019-04-16 2019-07-23 重庆大学 一种面向点云数据的列车边界提取方法
CN111028341A (zh) * 2019-12-12 2020-04-17 天目爱视(北京)科技有限公司 一种三维模型生成方法
CN111563457A (zh) * 2019-12-31 2020-08-21 成都理工大学 一种无人驾驶汽车的道路场景分割方法
CN113064162A (zh) * 2021-04-02 2021-07-02 中国科学院空天信息创新研究院 应用于机场跑道异物检测雷达系统的检测方法、装置
CN113804118A (zh) * 2021-08-16 2021-12-17 长江水利委员会长江科学院 一种基于三维激光点云几何特征的建筑物变形监测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021017A (zh) * 2012-12-04 2013-04-03 上海交通大学 基于gpu加速的三维场景重建方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021017A (zh) * 2012-12-04 2013-04-03 上海交通大学 基于gpu加速的三维场景重建方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
于艳: "《基于单幅图像目标定位及三维重建的研究》", 《中国优秀硕士学位论文全文数据库》 *
刘倩等: "《基于三维点云模型的特征线提取算法》", 《计算机应用研究》 *
周俊: "《城市大比例尺航空影像建筑物提取技术的研究》", 《中国优秀硕士学位论文全文数据库》 *
唐亮等: "《从航空影像中自动提取高层建筑物》", 《计算机学报》 *
王丽: "《面向建筑物重建的摄像机自标定方法研究》", 《中国优秀硕士学位论文全文数据库》 *
谢兴灿: "《城市航空影像中建筑物信息的自动提取方法研究》", 《中国优秀硕士学位论文全文数据库》 *
钱江: "《网格分割算法和相关技术研究》", 《中国博士学位论文全文数据库》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104930980A (zh) * 2014-03-20 2015-09-23 株式会社东芝 提取设备和方法
CN106973569A (zh) * 2014-05-13 2017-07-21 Pcp虚拟现实股份有限公司 生成和回放虚拟现实多媒体的方法、系统和装置
CN104063860A (zh) * 2014-06-12 2014-09-24 北京建筑大学 一种激光点云边缘精细化的方法
CN108701220A (zh) * 2016-02-05 2018-10-23 索尼公司 用于处理多模态图像的系统和方法
US11765339B2 (en) 2016-06-30 2023-09-19 Magic Leap, Inc. Estimating pose in 3D space
CN109643373A (zh) * 2016-06-30 2019-04-16 奇跃公司 估计3d空间中的姿态
CN106683173A (zh) * 2016-12-22 2017-05-17 西安电子科技大学 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN106683173B (zh) * 2016-12-22 2019-09-13 西安电子科技大学 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN109146963B (zh) * 2017-06-13 2020-07-07 南京鑫和汇通电子科技有限公司 一种基于快速特征匹配的图像位置偏移检测方法
CN109146963A (zh) * 2017-06-13 2019-01-04 南京鑫和汇通电子科技有限公司 一种基于快速特征匹配的图像位置偏移检测方法
CN107292956A (zh) * 2017-07-12 2017-10-24 杭州电子科技大学 一种基于曼哈顿假设的场景重建方法
CN107292956B (zh) * 2017-07-12 2020-09-22 杭州电子科技大学 一种基于曼哈顿假设的场景重建方法
CN110019627A (zh) * 2017-12-25 2019-07-16 北京京东尚科信息技术有限公司 识别交通导流线的方法及其系统、计算机系统
CN108470150A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种基于可见光相机的生物特征四维数据采集方法及装置
CN108492330A (zh) * 2018-02-14 2018-09-04 天目爱视(北京)科技有限公司 一种多目视觉深度计算方法及装置
CN108470186A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种图像特征点的匹配方法及装置
CN108446596A (zh) * 2018-02-14 2018-08-24 天目爱视(北京)科技有限公司 基于可见光相机矩阵的虹膜3d四维数据采集系统及方法
CN108537236A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种多相机数据识别控制系统
CN109544577A (zh) * 2018-11-27 2019-03-29 辽宁工程技术大学 一种基于边缘点编组的改进直线提取方法
CN109544577B (zh) * 2018-11-27 2022-10-14 辽宁工程技术大学 一种基于边缘点编组的改进直线提取方法
CN110047133A (zh) * 2019-04-16 2019-07-23 重庆大学 一种面向点云数据的列车边界提取方法
CN111028341A (zh) * 2019-12-12 2020-04-17 天目爱视(北京)科技有限公司 一种三维模型生成方法
CN111563457A (zh) * 2019-12-31 2020-08-21 成都理工大学 一种无人驾驶汽车的道路场景分割方法
CN113064162A (zh) * 2021-04-02 2021-07-02 中国科学院空天信息创新研究院 应用于机场跑道异物检测雷达系统的检测方法、装置
CN113064162B (zh) * 2021-04-02 2023-03-14 中国科学院空天信息创新研究院 应用于机场跑道异物检测雷达系统的检测方法、装置
CN113804118A (zh) * 2021-08-16 2021-12-17 长江水利委员会长江科学院 一种基于三维激光点云几何特征的建筑物变形监测方法

Also Published As

Publication number Publication date
CN103247045B (zh) 2015-12-23

Similar Documents

Publication Publication Date Title
CN103247045B (zh) 一种从多视图中得到人造场景主方向及图像边缘的方法
Chen et al. A methodology for automated segmentation and reconstruction of urban 3-D buildings from ALS point clouds
CN102804231B (zh) 三维场景的分段平面重建
Lafarge et al. Creating large-scale city models from 3D-point clouds: a robust approach with hybrid representation
Chauve et al. Robust piecewise-planar 3D reconstruction and completion from large-scale unstructured point data
US7983474B2 (en) Geospatial modeling system and related method using multiple sources of geographic information
US9942535B2 (en) Method for 3D scene structure modeling and camera registration from single image
EP2249311B1 (en) Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
Boulch et al. Piecewise‐planar 3D reconstruction with edge and corner regularization
US20140327674A1 (en) Scene reconstruction from high spatio-angular resolution light fields
Wang et al. Window detection from mobile LiDAR data
CN104350525A (zh) 组合用于三维建模的窄基线和宽基线立体
CN111126116A (zh) 无人船河道垃圾识别方法及系统
Demantké et al. Streamed vertical rectangle detection in terrestrial laser scans for facade database production
Hofer et al. Line-based 3D reconstruction of wiry objects
CN116402976A (zh) 三维目标检测模型训练方法及装置
Palma et al. Detection of geometric temporal changes in point clouds
CN105096314A (zh) 基于二值网格模板的结构光动态场景深度获取方法
Zhang et al. Automatic terrain extraction using multiple image pair and back matching
CN116051980B (zh) 基于倾斜摄影的建筑识别方法、系统、电子设备及介质
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
CN107808160B (zh) 三维建筑物提取方法和装置
CN114187404A (zh) 一种用于近海域高分辨率的三维重建方法和系统
CN117557617B (zh) 一种基于平面先验优化的多视密集匹配方法、系统及设备
Cobzas et al. Planar patch extraction with noisy depth data

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant