CN110097623A - 一种非同源图像数据信息融合处理方法及系统 - Google Patents
一种非同源图像数据信息融合处理方法及系统 Download PDFInfo
- Publication number
- CN110097623A CN110097623A CN201910364733.6A CN201910364733A CN110097623A CN 110097623 A CN110097623 A CN 110097623A CN 201910364733 A CN201910364733 A CN 201910364733A CN 110097623 A CN110097623 A CN 110097623A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- multiframe
- data
- frame
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000005267 amalgamation Methods 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 238000001914 filtration Methods 0.000 claims abstract description 15
- 238000011084 recovery Methods 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000009434 installation Methods 0.000 claims description 7
- 241001269238 Data Species 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000002844 melting Methods 0.000 claims 2
- 230000008018 melting Effects 0.000 claims 2
- 238000007499 fusion processing Methods 0.000 claims 1
- 238000007689 inspection Methods 0.000 abstract description 7
- 238000012876 topography Methods 0.000 abstract 1
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
一种非同源图像数据信息融合处理方法及系统,包括:基于图像的三维恢复、三维点云数据滤波和多帧点云数据匹配及融合。本发明通过对不同图像源的立体图像对进行匹配、滤波等处理,将多源信息转化为多个同类型的高精度三维点云数据,进一步通过准确、高效的多元数据融合,实现大范围高精度的三维地形恢复,适用于巡视探测器的高可靠三维场景重建。
Description
技术领域
本发明涉及多图像源数据信息融合方法及系统,适用于基于光学敏感器的巡视探测器大范围高精度三维场景重建。
背景技术
在未知复杂的地形环境下,对于配备光学敏感器进行探测任务的巡视探测器来说,由于相机视场视场范围有限,仅依靠单一敏感器进行单次成像所获取的环境信息量过少,无法对巡视器周围地形建立足够的认知,从而无法实现大范围高精度三维场景的重建,进而影响对巡视器进行安全有效的导航规划控制。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种非同源图像数据信息融合处理方法及系统,通过对多种图像源、多次成像所获取的环境信息进行准确、高效的多元数据融合,实现大范围高精度的三维场景重建,具有广泛的适用性。
本发明采用的技术方案为:
一种非同源图像数据信息融合处理方法,实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
(2)对所述单帧三维点云数据进行数据滤波;
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
所述图像匹配算法采用Semi-global匹配算法,采用单指令多数据流方式进行加速。
所述步骤(2)中对所述单帧三维点云数据进行数据滤波,具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
所述步骤(4)进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合。
根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc;
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
所述步骤(4.2)多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
一种根据所述非同源图像数据信息融合处理方法实现的信息融合处理系统,包括:
三维恢复模块:通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
数据滤波模块:对所述单帧三维点云数据进行数据滤波;针对相同的场景,通过多个图像源多次成像获取图像,得到多帧滤波后的三维点云数据;
数据融合模块:进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
三维恢复模块进行三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
数据融合模块进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc;
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
本发明与现有技术相比的优点在于:
(1)本发明通过将不同源图像转化为同类型的高精度三维点云数据,消除了不同源图像的差异性,同时对多种噪声进行了有效抑制和滤除,从而提高了多帧数据融合的准确性。
(2)本发明提出的图像匹配算法可以实现匹配速度接近实时,并且该算法得到视差数据更为平滑,噪声更少,提高了单帧图像三维恢复的精度。
附图说明
图1为本发明的非同源图像数据信息融合处理流程图;
图2为本发明的单帧三维点云数据示例,其中,图2a为单帧导航相机点云数据,图2b为单帧避障相机点云数据;
图3为本发明的单帧三维点云数据滤波结果示例;
图4为本发明的多帧三维点云数据融合结果示例。
具体实施方式
如图1所示,本发明提出了一种非同源图像数据信息融合处理方法,实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;图像源包括相机、雷达等能够成像的设备。
所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
所述图像匹配算法采用半全局(Semi-global)匹配算法,采用单指令多数据流方式进行加速,可以使算法实现速度接近实时,并且该算法得到视差数据更为平滑,噪声较少,重构出的三维点效果明显优于其他匹配算法。
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算单帧三维点云数据,得到相应场景的三维信息,具体为:
根据双目立体视觉成像原理,利用图像匹配得到的视差数据,计算出相机图像中像素点对应的在相机坐标系下的三维坐标(xc,yc,zc),根据相机在巡视探测器的安装位置和相机相对于巡视探测器的姿态,将三维坐标(xc,yc,zc)转换到本体坐标系下,求得(xb,yb,zb);结合巡视探测器当前的姿态信息,将三维坐标(xb,yb,zb)转换到水平投影坐标系下,求得(xr,yr,zr),从而得到巡视探测器周围场景的三维信息。
(2)对所述单帧三维点云数据进行数据滤波。
由于受到光照条件、相机成像参数等因素的影响,从步骤(1)得到的单帧三维点云数据不可避免的会含有噪声点,尤其对于信噪比较低的图像,噪声点的比例会相对较大,因此为了保证多帧点云数据匹配和融合的准确性,在进行后续处理前必须对单帧三维点云数据进行滤波;
具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述,有效降低了计算的复杂度,减少计算时间;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc;
多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行基于迭代最近点算法的点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
以嫦娥四号巡视探测器为例,对一种非同源图像数据信息融合处理方法的具体实现如下:
利用巡视器配备的导航相机和避障相机对巡视器周围的地形进行多次成像,其中,导航相机由于安装在巡视器桅杆上,通过桅杆运动,导航相机可以以不同角度对巡视器周围不同方向的地形进行远距离大范围成像,避障相机固连在巡视器底板,可以对巡视器前方进行近距离成像,以弥补导航相机的视场盲区。
令巡视器的导航相机从-40°到40°以20°的角度间隔,从左侧向右侧进行序列成像,得到5对导航相机图像。同时,令避障相机成像,得到1对避障相机图像。
(1)基于图像的三维恢复
(1.1)根据导航相机和避障相机的内外参数,对每次成像获得的左右两幅图像进行极线校正;
(1.2)利用图像匹配算法对校正后的图像对进行匹配,并得到左右图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息;
对5对导航相机图像和1对避障相机图像分别经过上述处理,可以得到相应的单帧三维点云数据,如图2a和2b所示分别为导航相机以0°角度拍摄得到的三维点云数据,以及避障相机拍摄得到的三维点云数据;
(2)三维点云数据滤波
由于受到光照条件、相机成像参数等因素的影响,从图2可以看出,步骤(1)得到的单帧三维点云数据不可避免的会含有噪声点,尤其是导航相机点云数据,噪声点的比例相对较大,因此为了保证多帧点云数据匹配和融合的准确性,在进行后续处理前必须对单帧三维点云数据进行滤波;
如图3所示为单帧导航相机点云数据滤波结果,可以看出,通过滤波处理,图2(a)中的噪声点基本上被完全滤除。
(3)多帧点云数据匹配
对5对导航相机图像和1对避障相机图像,经过步骤(1)和步骤(2)的处理,可以得到多帧高精度三维点云数据,通过对多帧点云数据进行点配准计算,求得多帧点云数据两两之间的相对旋转矩阵(记为R)和平移矩阵(记为T),从而完成多帧点云数据的匹配;
(4)多帧点云数据融合
经过步骤(3)得到的多帧点云数据的相对位置和姿态信息,经过坐标变化将多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合;
如图4所示为5帧导航相机点云数据和1帧避障相机点云数据经过匹配融合的结果,融合后的数据覆盖了约18m×26m的地形范围,在此大范围高精度的三维场景中进行巡视器导航规划,有利于得到更为安全可靠的规划结果。
Claims (10)
1.一种非同源图像数据信息融合处理方法,其特征在于实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
(2)对所述单帧三维点云数据进行数据滤波;
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
2.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
3.根据权利要求2所述的非同源图像数据信息融合处理方法,其特征在于:所述图像匹配算法采用Semi-global匹配算法,采用单指令多数据流方式进行加速。
4.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(2)中对所述单帧三维点云数据进行数据滤波,具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
5.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(4)进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合。
6.根据权利要求5所述的非同源图像数据信息融合处理方法,其特征在于:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc;
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
7.根据权利要求6所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(4.2)多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
8.一种根据权利要求1~7中任一项所述非同源图像数据信息融合处理方法实现的信息融合处理系统,其特征在于包括:
三维恢复模块:通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
数据滤波模块:对所述单帧三维点云数据进行数据滤波;针对相同的场景,通过多个图像源多次成像获取图像,得到多帧滤波后的三维点云数据;
数据融合模块:进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
9.根据权利要求8所述的信息融合处理系统,其特征在于:三维恢复模块进行三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
10.根据权利要求8所述的信息融合处理系统,其特征在于:数据融合模块进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc;
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910364733.6A CN110097623A (zh) | 2019-04-30 | 2019-04-30 | 一种非同源图像数据信息融合处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910364733.6A CN110097623A (zh) | 2019-04-30 | 2019-04-30 | 一种非同源图像数据信息融合处理方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110097623A true CN110097623A (zh) | 2019-08-06 |
Family
ID=67446753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910364733.6A Pending CN110097623A (zh) | 2019-04-30 | 2019-04-30 | 一种非同源图像数据信息融合处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097623A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260785A (zh) * | 2020-03-20 | 2020-06-09 | 陕西地矿物化探队有限公司 | 基于变场源张量的矿集区三维地质建模方法及系统 |
CN112651266A (zh) * | 2019-10-11 | 2021-04-13 | 北京百度网讯科技有限公司 | 行人检测方法和装置 |
CN112649794A (zh) * | 2019-10-12 | 2021-04-13 | 北京京东乾石科技有限公司 | 地面滤波方法及装置 |
CN113610906A (zh) * | 2021-08-06 | 2021-11-05 | 山西大学 | 一种基于融合图像引导的多视差图像序列配准方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456038A (zh) * | 2013-08-19 | 2013-12-18 | 华中科技大学 | 一种井下环境三维场景重建方法 |
CN107945220A (zh) * | 2017-11-30 | 2018-04-20 | 华中科技大学 | 一种基于双目视觉的重建方法 |
-
2019
- 2019-04-30 CN CN201910364733.6A patent/CN110097623A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456038A (zh) * | 2013-08-19 | 2013-12-18 | 华中科技大学 | 一种井下环境三维场景重建方法 |
CN107945220A (zh) * | 2017-11-30 | 2018-04-20 | 华中科技大学 | 一种基于双目视觉的重建方法 |
Non-Patent Citations (3)
Title |
---|
李立春等: "基于成像的天体探测三维建模与可视化系统实现" * |
杨阳;: "基于双目感知的立体视觉集成" * |
牛晓静;王美丽;何东健;: "一种聚类与滤波融合的点云去噪平滑方法" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651266A (zh) * | 2019-10-11 | 2021-04-13 | 北京百度网讯科技有限公司 | 行人检测方法和装置 |
CN112649794A (zh) * | 2019-10-12 | 2021-04-13 | 北京京东乾石科技有限公司 | 地面滤波方法及装置 |
CN111260785A (zh) * | 2020-03-20 | 2020-06-09 | 陕西地矿物化探队有限公司 | 基于变场源张量的矿集区三维地质建模方法及系统 |
CN111260785B (zh) * | 2020-03-20 | 2023-08-11 | 中国地质科学院 | 基于变场源张量的矿集区三维地质建模方法及系统 |
CN113610906A (zh) * | 2021-08-06 | 2021-11-05 | 山西大学 | 一种基于融合图像引导的多视差图像序列配准方法 |
CN113610906B (zh) * | 2021-08-06 | 2023-07-18 | 山西大学 | 一种基于融合图像引导的多视差图像序列配准方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097623A (zh) | 一种非同源图像数据信息融合处理方法及系统 | |
US11100706B2 (en) | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and generation method for generating three-dimensional model | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN106643669B (zh) | 一种多镜头多探测器航空相机单中心投影转换方法 | |
US10706564B2 (en) | Systems, methods, and media for determining object motion in three dimensions from light field image data | |
CN109919911A (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN110363838A (zh) | 基于多球面相机模型的大视野图像三维重构优化方法 | |
CN108917753A (zh) | 基于从运动恢复结构的飞行器位置确定方法 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
Gadasin et al. | Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems | |
Wang et al. | Three-dimensional underwater environment reconstruction with graph optimization using acoustic camera | |
Tsaregorodtsev et al. | Extrinsic camera calibration with semantic segmentation | |
CN117456124B (zh) | 一种基于背靠背双目鱼眼相机的稠密slam的方法 | |
CN117434294A (zh) | 一种用于无人机的多孔径纯视觉光流测速方法 | |
JP7170230B2 (ja) | 三次元再構成方法及び三次元再構成装置 | |
CN116503553A (zh) | 一种基于双目视觉和扩散模型的三维重建方法及装置 | |
CN116630556A (zh) | 基于空中地图数据重构地图的方法、系统及存储介质 | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测系统及方法 | |
CN114638858B (zh) | 一种基于车载双相机系统的运动目标位置与速度估计方法 | |
CN113538579B (zh) | 基于无人机地图与地面双目信息的移动机器人定位方法 | |
CN116151320A (zh) | 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置 | |
Zhao et al. | An ORB-SLAM3 autonomous positioning and orientation approach using 360-degree panoramic video | |
Feng et al. | Research on Calibration Method of Multi-camera System without Overlapping Fields of View Based on SLAM | |
Agrawal et al. | RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190806 |