CN109903379A - 一种基于点云优化采样的三维重建方法 - Google Patents
一种基于点云优化采样的三维重建方法 Download PDFInfo
- Publication number
- CN109903379A CN109903379A CN201910162498.4A CN201910162498A CN109903379A CN 109903379 A CN109903379 A CN 109903379A CN 201910162498 A CN201910162498 A CN 201910162498A CN 109903379 A CN109903379 A CN 109903379A
- Authority
- CN
- China
- Prior art keywords
- cloud
- dimensional
- point
- point cloud
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了一种基于点云优化采样的三维重建方法,属于计算机视觉领域,解决的问题是稠密点云在三维重建过程中,在保证主要的纹理特征情况下,重建速度较慢的问题,该方法主要利用mean shift算法对多个已校正的图像进行区域分割,然后通过改进的双向DP算法,依次对相邻图像分割后的相同区域进行立体匹配求取视差图,接着利用双边滤波消除视差图的干扰噪声,得到多个稠密深度点云图,再通过自适应随机采样获得主要纹理特征,剔除平滑区域,最后计算每个点云的深度值估计,根据估计值排序提取主要的点云。本发明提出的方法可以在较快的计算速度下获得更为明显的纹理特征,在自然场景三维重建中有着广阔的应用前景。
Description
技术领域
本发明涉及计算机视觉图形学领域,更具体地,涉及一种基于点云优化采样的三维重建方法。
背景技术
在视觉三维重建中,立体匹配是其核心环节,可分为局域匹配算法和全局匹配算法。由于全局匹配算法用到了全局约束的条件,对图像的局部区域并不模糊,因此三维重建中常用到全局立体匹配算法,常用的全局立体匹配算法有图割(GC),置信传播,动态规划(DP)等。传统的动态规划算法利用全局能量最小值求解,将一个大的决策问题划分若干子问题,从而得到最优视差图。基于传统动态规划的立体匹配算法是是基于极线约束,通过依次寻找每条极线上匹配点对的最小代价路径的动态寻优方法求解全局能量最小化,得到匹配视差图。但这样匹配方法是全局搜索,在很多有明显区别的区域进行搜索会浪费大量的计算时间,导致整体重建的速度过慢,而且传统的动态规划算法是极线约束,很容易出现条纹现象,影响视差图的效果。
利用视差图和相机参数计算得到多帧的点云图后,由于每一帧的点云数量都较为庞大,且每帧点云图中包含若干的平滑区域,这些平滑区域并没有重建目标的纹理特征,属于冗余的信息。若直接利用深度图进行重建,冗余信息会增加较大的计算量而导致重建的速度过慢。同时,在传统的多视图融合中,常采用求交集的方法,即只保留相邻的两帧中若存在相同三维坐标的点云,但相邻图像间往往存在大量重叠区域,不仅导致最终得到大量冗余的坐标,计算机量过大,重建速度过慢,还会包含大量没有去除的噪点,导致重建精度下降。
因此,如何解决基于传统动态规划全局立体匹配计算代价过大,得到的视差图存在条纹问题,如何在保证必要纹理信息情况下剔除点云重建过程中过多冗余的信息,是三维重建领域中一个热点问题。提出了一种基于点云优化采样的三维重建方法,对三维重建领域的研究有很大的意义。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于点云优化采样的三维重建方法,其目的在于解决基于传统动态规划的全局立体匹配算法中计算代价较大、匹配得到的视差图中存在条纹的问题,同时解决重建过程中如何剔除平滑区域保留主要的纹理信息、如何在多视图融合过程中只保留准确必要的点云信息的问题。
为实现上述目的,本发明提供一种基于点云优化采样的三维重建方法,所述方法具体包括:
(1)利用多个已标定参数的相机获得检测目标不同角度的图像,图像之间保证一定的角度和位移,并对原图像进行畸变校正;
(2)利用mean shift算法对所有校正后的图像进行区域分割,并对分割后的区域进行标号;
(3)通过改进的双向DP算法,依次对相邻图像同标号的区域进行立体匹配求取视差图;
(4)利用双边滤波消除视差图的干扰噪声;
(5)通过自适应随机采样获得主要纹理特征,剔除平滑区域的点云;
(6)计算每个点云的深度值估计,根据估计值排序提取主要的点云。
2、进一步地,所述的步骤3中通过改进的双向DP算法,依次对相邻图像同标号的区域进行立体匹配求取视差图方法具体为:
(31)提取出相邻两图像同区域,即为视差寻优的范围;
(32)定义全局能量函数,通过全程寻优求得一个最佳视差值d*,即为
d*=arg minE(d);
(33)从行方向上动态寻优,获得原始视差图,并保存;
(34)动态更新数据项,通过在原始视差图作为一个初始结果,然后对这个视差图的数据项给予一个更新,其他数据项在此过程中保持不变
上式中为能量函数的数据项,k为非负整数;
(35)得到数据项更新后,在列方向上以同样的方式进行寻优;
(36)各个分割区域求得视差图后,再拼接得到稠密的深度图。
3、进一步地,所述的步骤5通过自适应随机采样获得主要纹理特征,剔除平滑区域的点云的具体方法为:
(51)从步骤4得到的点云图中随机选取某个像素点为该像素点的深度值,根据公式
对其反向映射至三维空间中,并根据其法向得到切平面
(52)以为圆心向外扩张,扩张半径r每次迭代一个像素大小,并计算扩张范围内的每个像素xi′的三维坐标P(xi′);
(53)计算当前扩张范围内每个像素xi′到切平面的距离di,设定阈值大小为td,若di≤td,则可认为该像素点位于平滑区域内,剔除该点;
(54)当扩张半径r大于最大扩张半径rmax或扩张范围内一定比例pi的点云被剔除后,停止扩张,其中rmax和pi为可调参数;
(55)接着再随机选择某个像素点重复以上步骤,直到当前三维点云图中所有采样点被采样完成。
4、进一步地,所述的步骤6计算每个点云的深度值估计,根据估计值排序提取主要的点云的具体方法为:
(61)根据公式计算每个点云的深度估计值,即估计值越大,误差值越小,可信度越高
为邻近两帧的深度值估计,表示当前像素点投影第i′帧的投影点;
(62)对当前帧k的点云按照估计值大小从高到低排序,并设定置信度阈值εd,从估计值最小的点开始计算,若则剔除该点,继续计算直到停止,并将剩余的点云存入序列Sk中,接着对下一帧点云图作同样的计算,直到所有深度图都计算结束,得到序列集S={Sk|k=1,…,n};
(63)选择其中第k帧深度图开始,对该图上所有的三维点映射到第k+1帧上得比较两点的估计值,将估计值较大点的三维坐标替换估计值较小的三维坐标,以此类推,直到所有深度图完成;
(64)将所有深度图的三维采样点求交集,得到最后的三维点云图。
与现有技术相比,本发明所构思的以上技术方案与现有技术相比,具有以下技术特征及有益效果:
(1)本发明方法考虑到基于传统动态规划立体匹配算法中受极线约束,容易产生条纹的现象,采用的双向DP算法可以在行列方向同时对寻优路径进行约束,可以有效避免条纹现象,同时考虑到计算代价较大的问题,采用mean shift进行图像分割,以上算法分别在已分割区域内进行,能有效缩短寻优范围,提高计算速度;
(2)本发明方法考虑到在重建过程中存在较多平滑区域,这些冗余信息会增加计算代价,采用的自适应随机采样方法能够在每一帧点云图里自适应的剔除平滑区域的采样点,保留主要的纹理信息,从而能在不影响精度的前提下提高计算速度;
(3)本发明方法考虑到在多点云图融合中,传统的求交集的方法会保留冗余和不准确的信息,采用了深度值估计的方法,可以在融合过程中剔除冗余信息和点云图中存留的噪点。
附图说明
图1为本发明方法的流程示意图;
图2为本发明方法自适应随机采样的方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图对本发明的具体实施方式进一步的说明,但不是对本发明方法的限定。
本发明方法最大贡献在于通过改进的双向DP算法、自适应采样、深度值估计排序等方法形成一套高效的三维重建流程,在提取出主要纹理特征的同时,明显的减少了冗余信息,明显提高了重建的速度,在三维重建领域中有较大的意义。
本发明方法的流程可以分为三个子模块,对多相机同时采集到的图像进行畸变校正、对校正后的图像进行立体匹配求取视差图,多帧视差图在融合过程中剔除冗余的信息。
如图1所示,本发明方法流程具体如下:
(1)以不同的摄像机保持不同的角度对同一目标进行拍摄,保证图像间有一定的距离和角度;
(2)利用相机标定的参数(假定已完成相机参数的标定),对每张图像进行畸变校正,得到校正后的原始图象集Q,Q={Qi|i=1,2,…,n};
(3)通过mean shift算法对原始图像集Q进行图片分割,通过图像平滑、合并相似区域、兼并小区域来去消除相似的纹理,同时保留边缘差异较大的特征,最后得到特征不同的区域,并对不同区域进行标号;
(4)通过改进的双向DP算法,依次对相邻图像的同标号区域进行立体匹配,具体步骤如下:
(4.1)提取出相邻两图像同标号区域,即为视差寻优的范围;
(4.2)定义全局能量函数,通过全程寻优求得一个最佳视差值d*,即为
d*=arg minE(d);
(4.3)从行方向上动态寻优,获得原始视差图,并保存;
(4.4)动态更新数据项,通过在原始视差图作为一个初始结果,然后对这个视差图的数据项给予一个更新,其他数据项在此过程中保持不变
上式中为能量函数的数据项,k为3;
(4.5)得到数据项更新后,在列方向上以同样的方式进行寻优;
(4.6)各个分割区域求得视差图后,再拼接得到稠密的深度图;
(5)利用双边滤波消除视差图的干扰噪声;
(6)通过自适应随机采样获得主要纹理特征,剔除平滑区域的点云,此算法的示意图如图2所示,每个方格代表着一个像素点,具体步骤如下:
(6.1)从步骤5得到的点云图中随机选取某个像素点即图2中的阴影点Di(xi)为该像素点的深度值,根据公式
对其反向映射至三维空间中,并根据其法向得到切平面
(6.2)以为圆心向外扩张,扩张半径r每次迭代一个像素大小,并计算扩张范围内的每个像素xi′的三维坐标P(xi′);
(6.3)计算当前扩张范围内每个像素xi′到切平面的距离di,即图2中方格内的数字,设定阈值大小为5,若di≤5,则可认为该像素点位于平滑区域内,剔除该点;
(6.4)当扩张半径r大于最大扩张半径4或扩张范围内80%的像素点均被剔除后,停止扩张,即剩余像素点为需要的纹理信息;
(6.5)接着再随机选择某个像素点重复以上步骤,直到当前深度图上所有像素点均被采样完成。
(7)计算每个点云的深度值估计,根据估计值排序提取主要的点云,具体步骤如下:
(7.1)根据公式计算每个点云的深度估计值,即估计值越大,误差值越小,可信度越高
为邻近两帧的深度值估计,表示当前像素点投影第i′帧的投影点;
(7.2)对当前帧k的点云按照估计值大小从高到低排序,并设定置信度阈值εd,从估计值最小的点开始计算,若则剔除该点,继续计算直到停止,并将剩余的点云存入序列Sk中,接着对下一帧点云图作同样的计算,直到所有深度图都计算结束,得到序列集S={Sk|k=1,…,n};
(7.3)选择其中第k帧深度图开始,对该图上所有的三维点映射到第k+1帧上得比较两点的估计值,将估计值较大点的三维坐标替换估计值较小的三维坐标,以此类推,直到所有深度图完成。
(7.4)将所有深度图的三维采样点求交集,得到最后的三维点云图。
(8)将生成的点云导入openGL,生成三维模型。
Claims (4)
1.一种基于点云优化采样的三维重建方法,其特征在于,所述方法包括以下步骤:
(1)利用多个已标定参数的相机获得检测目标不同角度的图像,图像之间保证一定的角度和位移,并对原图像进行畸变校正;
(2)利用mean shift算法对所有校正后的图像进行区域分割,并对分割后的区域进行标号;
(3)通过改进的双向DP算法,依次对相邻图像同标号的区域进行立体匹配求取视差图;
(4)利用双边滤波消除视差图的干扰噪声;
(5)通过自适应随机采样获得主要纹理特征,剔除平滑区域的点云;
(6)计算每个点云的深度值估计,根据估计值排序提取主要的点云。
2.根据权利要求1所述的一种基于点云优化采样的三维重建方法,其特征在于,所述的步骤3中通过改进的双向DP算法,依次对相邻图像同标号的区域进行立体匹配求取视差图方法具体为:
(31)提取出相邻两图像同标号区域,即为视差寻优的范围;
(32)定义全局能量函数,通过全程寻优求得一个最佳视差值d*,即为:d*=arg minE(d);
(33)从行方向上动态寻优,获得原始视差图,并保存;
(34)动态更新数据项,通过在原始视差图作为一个初始结果,然后对这个视差图的数据项给予一个更新,其他数据项在此过程中保持不变
上式中为能量函数的数据项,k为非负整数;
(35)得到数据项更新后,在列方向上以同样的方式进行寻优;
(36)各个分割区域求得视差图后,再拼接得到稠密的深度图。
3.根据权利要求1所述的一种基于点云优化采样的三维重建方法,其特征在于,所述的步骤5通过自适应随机采样获得主要纹理特征,剔除平滑区域的点云的步骤为:
(51)从步骤4得到的点云图中随机选取某个像素点Di(xi)为该像素点的深度值,根据公式
对其反向映射至三维空间中,并根据其法向得到切平面
(52)以为圆心向外扩张,扩张半径r每次迭代一个像素大小,并计算扩张范围内的每个像素xi′的三维坐标P(xi′);
(53)计算当前扩张范围内每个像素到切平面的距离di,设定阈值大小为td,若di≤td,则可认为该像素点位于平滑区域内,剔除该点;
(54)当扩张半径r大于最大扩张半径rmax或扩张范围内一定比例pi的点云被剔除后,停止扩张,其中rmax和pi为可调参数;
(55)接着再随机选择某个像素点重复以上步骤,直到当前三维点云图中所有采样点被采样完成。
4.根据权利要求1所述的一种基于点云优化采样的三维重建方法,其特征在于,所述的步骤6计算每个点云的深度值估计,根据估计值排序提取主要的点云的步骤为:
(61)根据公式计算每个点云的深度估计值,即估计值越大,误差值越小,可信度越高
为邻近两帧的深度值估计,表示当前像素点投影第i′帧的投影点;
(62)对当前帧k的点云按照估计值大小从高到低排序,并设定置信度阈值εd,从估计值最小的点开始计算,若则剔除该点,继续计算直到停止,并将剩余的点云存入序列Sk中,接着对下一帧点云图作同样的计算,直到点云图都计算结束,得到序列集S={Sk|k=1,…,n};
(63)选择其中第k帧深度图开始,对该图上所有的三维点映射到第k+1帧上得比较两点的估计值,将估计值较大点的三维坐标替换估计值较小的三维坐标,以此类推,直到所有深度图完成;
(64)将所有深度图的三维采样点求交集,得到最后的三维点云图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910162498.4A CN109903379A (zh) | 2019-03-05 | 2019-03-05 | 一种基于点云优化采样的三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910162498.4A CN109903379A (zh) | 2019-03-05 | 2019-03-05 | 一种基于点云优化采样的三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109903379A true CN109903379A (zh) | 2019-06-18 |
Family
ID=66946384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910162498.4A Pending CN109903379A (zh) | 2019-03-05 | 2019-03-05 | 一种基于点云优化采样的三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109903379A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458952A (zh) * | 2019-08-19 | 2019-11-15 | 江苏濠汉信息技术有限公司 | 一种基于三目视觉的三维重建方法和装置 |
CN110874851A (zh) * | 2019-10-25 | 2020-03-10 | 深圳奥比中光科技有限公司 | 重建人体三维模型的方法、装置、系统和可读存储介质 |
CN112232143A (zh) * | 2020-09-27 | 2021-01-15 | 广州云从人工智能技术有限公司 | 一种人脸点云优化方法、装置、机器可读介质及设备 |
WO2021035627A1 (zh) * | 2019-08-29 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 获取深度图的方法、装置及计算机存储介质 |
CN113066173A (zh) * | 2021-04-21 | 2021-07-02 | 国家基础地理信息中心 | 三维模型构建方法、装置和电子设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2213102A1 (en) * | 2007-11-09 | 2010-08-04 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
CN101976455A (zh) * | 2010-10-08 | 2011-02-16 | 东南大学 | 一种基于立体匹配的彩色图像三维重建方法 |
CN102819843A (zh) * | 2012-08-08 | 2012-12-12 | 天津大学 | 基于边界控制置信传播的立体图像视差估计方法 |
CN103411562A (zh) * | 2013-08-22 | 2013-11-27 | 电子科技大学 | 一种基于动态规划和均值漂移的结构光光条中心提取方法 |
CN103942810A (zh) * | 2014-05-12 | 2014-07-23 | 福州大学 | 一种基于改进双向动态规划的立体匹配方法 |
CN105374067A (zh) * | 2015-10-10 | 2016-03-02 | 长安大学 | 一种基于pal相机的三维重建方法及其重建系统 |
CN105513064A (zh) * | 2015-12-03 | 2016-04-20 | 浙江万里学院 | 一种基于图像分割和自适应权重的立体匹配方法 |
CN106228605A (zh) * | 2016-07-29 | 2016-12-14 | 东南大学 | 一种基于动态规划的立体匹配三维重建方法 |
CN107301664A (zh) * | 2017-05-25 | 2017-10-27 | 天津大学 | 基于相似性测度函数的改进局部立体匹配方法 |
GB201806949D0 (en) * | 2018-04-27 | 2018-06-13 | Canon Kk | 3D Skeleton reconstruction from images using matching 2D skeletons |
CN108629809A (zh) * | 2018-04-26 | 2018-10-09 | 浙江大学 | 一种精确高效的立体匹配方法 |
CN108830895A (zh) * | 2018-06-28 | 2018-11-16 | 西安交通大学 | 一种立体匹配中基于分割的局部扩张移动方法 |
CN109147038A (zh) * | 2018-08-21 | 2019-01-04 | 北京工业大学 | 基于三维点云处理的管道三维建模方法 |
CN109255833A (zh) * | 2018-09-30 | 2019-01-22 | 宁波工程学院 | 基于语义先验和渐进式优化宽基线致密三维场景重建方法 |
CN109345582A (zh) * | 2018-08-14 | 2019-02-15 | 西安电子科技大学 | 基于优化的置信传播算法和稀疏表示的深度图像获取方法 |
-
2019
- 2019-03-05 CN CN201910162498.4A patent/CN109903379A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2213102A1 (en) * | 2007-11-09 | 2010-08-04 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
CN101976455A (zh) * | 2010-10-08 | 2011-02-16 | 东南大学 | 一种基于立体匹配的彩色图像三维重建方法 |
CN102819843A (zh) * | 2012-08-08 | 2012-12-12 | 天津大学 | 基于边界控制置信传播的立体图像视差估计方法 |
CN103411562A (zh) * | 2013-08-22 | 2013-11-27 | 电子科技大学 | 一种基于动态规划和均值漂移的结构光光条中心提取方法 |
CN103942810A (zh) * | 2014-05-12 | 2014-07-23 | 福州大学 | 一种基于改进双向动态规划的立体匹配方法 |
CN105374067A (zh) * | 2015-10-10 | 2016-03-02 | 长安大学 | 一种基于pal相机的三维重建方法及其重建系统 |
CN105513064A (zh) * | 2015-12-03 | 2016-04-20 | 浙江万里学院 | 一种基于图像分割和自适应权重的立体匹配方法 |
CN106228605A (zh) * | 2016-07-29 | 2016-12-14 | 东南大学 | 一种基于动态规划的立体匹配三维重建方法 |
CN107301664A (zh) * | 2017-05-25 | 2017-10-27 | 天津大学 | 基于相似性测度函数的改进局部立体匹配方法 |
CN108629809A (zh) * | 2018-04-26 | 2018-10-09 | 浙江大学 | 一种精确高效的立体匹配方法 |
GB201806949D0 (en) * | 2018-04-27 | 2018-06-13 | Canon Kk | 3D Skeleton reconstruction from images using matching 2D skeletons |
CN108830895A (zh) * | 2018-06-28 | 2018-11-16 | 西安交通大学 | 一种立体匹配中基于分割的局部扩张移动方法 |
CN109345582A (zh) * | 2018-08-14 | 2019-02-15 | 西安电子科技大学 | 基于优化的置信传播算法和稀疏表示的深度图像获取方法 |
CN109147038A (zh) * | 2018-08-21 | 2019-01-04 | 北京工业大学 | 基于三维点云处理的管道三维建模方法 |
CN109255833A (zh) * | 2018-09-30 | 2019-01-22 | 宁波工程学院 | 基于语义先验和渐进式优化宽基线致密三维场景重建方法 |
Non-Patent Citations (1)
Title |
---|
刘洋: "宽视角图像拼接关键技术研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458952A (zh) * | 2019-08-19 | 2019-11-15 | 江苏濠汉信息技术有限公司 | 一种基于三目视觉的三维重建方法和装置 |
WO2021035627A1 (zh) * | 2019-08-29 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 获取深度图的方法、装置及计算机存储介质 |
CN110874851A (zh) * | 2019-10-25 | 2020-03-10 | 深圳奥比中光科技有限公司 | 重建人体三维模型的方法、装置、系统和可读存储介质 |
WO2021077721A1 (zh) * | 2019-10-25 | 2021-04-29 | 深圳奥比中光科技有限公司 | 重建人体三维模型的方法、装置、系统和可读存储介质 |
CN112232143A (zh) * | 2020-09-27 | 2021-01-15 | 广州云从人工智能技术有限公司 | 一种人脸点云优化方法、装置、机器可读介质及设备 |
CN113066173A (zh) * | 2021-04-21 | 2021-07-02 | 国家基础地理信息中心 | 三维模型构建方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903379A (zh) | 一种基于点云优化采样的三维重建方法 | |
CN102930530B (zh) | 一种双视点图像的立体匹配方法 | |
CN101447076B (zh) | 一种web图像中感兴趣区域的分割方法 | |
CN105654501B (zh) | 基于模糊阈值的自适应图像分割方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN104850850A (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN111899295B (zh) | 一种基于深度学习的单目场景深度预测方法 | |
CN106651897B (zh) | 一种基于超像素分割的视差修正方法 | |
CN109087323A (zh) | 一种基于精细cad模型的图像车辆三维姿态估计方法 | |
CN106056598A (zh) | 基于线段检测和图像分割融合的卫星高分图像建筑物轮廓提取方法 | |
CN107103610B (zh) | 立体测绘卫星影像匹配可疑区域自动检测方法 | |
CN102903111B (zh) | 基于图像分割的大面积低纹理区立体匹配算法 | |
CN108629809B (zh) | 一种精确高效的立体匹配方法 | |
CN105469408A (zh) | 一种sar图像建筑群分割方法 | |
CN104282000A (zh) | 一种基于旋转及尺度变换的图像修复方法 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
Stentoumis et al. | A local adaptive approach for dense stereo matching in architectural scene reconstruction | |
CN113887624A (zh) | 一种基于双目视觉的改进特征立体匹配方法 | |
CN115861247A (zh) | 一种高分辨率遥感影像轮廓多级正则化方法、系统及应用 | |
CN113409332B (zh) | 一种基于三维点云的建筑物平面分割方法 | |
CN117115359B (zh) | 一种基于深度图融合的多视图电网三维空间数据重建方法 | |
Rothermel et al. | Fast and robust generation of semantic urban terrain models from UAV video streams | |
CN107578419A (zh) | 一种基于一致性轮廓提取的立体图像分割方法 | |
CN113077504B (zh) | 基于多粒度特征匹配大场景深度图生成方法 | |
Li et al. | A Bayesian approach to uncertainty-based depth map super resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190618 |
|
WD01 | Invention patent application deemed withdrawn after publication |