CN110097623A - 一种非同源图像数据信息融合处理方法及系统 - Google Patents

一种非同源图像数据信息融合处理方法及系统 Download PDF

Info

Publication number
CN110097623A
CN110097623A CN201910364733.6A CN201910364733A CN110097623A CN 110097623 A CN110097623 A CN 110097623A CN 201910364733 A CN201910364733 A CN 201910364733A CN 110097623 A CN110097623 A CN 110097623A
Authority
CN
China
Prior art keywords
point cloud
multiframe
data
frame
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910364733.6A
Other languages
English (en)
Inventor
刘祥
邢琰
段文杰
滕宝毅
王勇
毛晓艳
贾永
丁泳鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Control Engineering
Original Assignee
Beijing Institute of Control Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Control Engineering filed Critical Beijing Institute of Control Engineering
Priority to CN201910364733.6A priority Critical patent/CN110097623A/zh
Publication of CN110097623A publication Critical patent/CN110097623A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

一种非同源图像数据信息融合处理方法及系统,包括:基于图像的三维恢复、三维点云数据滤波和多帧点云数据匹配及融合。本发明通过对不同图像源的立体图像对进行匹配、滤波等处理,将多源信息转化为多个同类型的高精度三维点云数据,进一步通过准确、高效的多元数据融合,实现大范围高精度的三维地形恢复,适用于巡视探测器的高可靠三维场景重建。

Description

一种非同源图像数据信息融合处理方法及系统
技术领域
本发明涉及多图像源数据信息融合方法及系统,适用于基于光学敏感器的巡视探测器大范围高精度三维场景重建。
背景技术
在未知复杂的地形环境下,对于配备光学敏感器进行探测任务的巡视探测器来说,由于相机视场视场范围有限,仅依靠单一敏感器进行单次成像所获取的环境信息量过少,无法对巡视器周围地形建立足够的认知,从而无法实现大范围高精度三维场景的重建,进而影响对巡视器进行安全有效的导航规划控制。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种非同源图像数据信息融合处理方法及系统,通过对多种图像源、多次成像所获取的环境信息进行准确、高效的多元数据融合,实现大范围高精度的三维场景重建,具有广泛的适用性。
本发明采用的技术方案为:
一种非同源图像数据信息融合处理方法,实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
(2)对所述单帧三维点云数据进行数据滤波;
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
所述图像匹配算法采用Semi-global匹配算法,采用单指令多数据流方式进行加速。
所述步骤(2)中对所述单帧三维点云数据进行数据滤波,具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
所述步骤(4)进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合。
根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
所述步骤(4.2)多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
一种根据所述非同源图像数据信息融合处理方法实现的信息融合处理系统,包括:
三维恢复模块:通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
数据滤波模块:对所述单帧三维点云数据进行数据滤波;针对相同的场景,通过多个图像源多次成像获取图像,得到多帧滤波后的三维点云数据;
数据融合模块:进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
三维恢复模块进行三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
数据融合模块进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
本发明与现有技术相比的优点在于:
(1)本发明通过将不同源图像转化为同类型的高精度三维点云数据,消除了不同源图像的差异性,同时对多种噪声进行了有效抑制和滤除,从而提高了多帧数据融合的准确性。
(2)本发明提出的图像匹配算法可以实现匹配速度接近实时,并且该算法得到视差数据更为平滑,噪声更少,提高了单帧图像三维恢复的精度。
附图说明
图1为本发明的非同源图像数据信息融合处理流程图;
图2为本发明的单帧三维点云数据示例,其中,图2a为单帧导航相机点云数据,图2b为单帧避障相机点云数据;
图3为本发明的单帧三维点云数据滤波结果示例;
图4为本发明的多帧三维点云数据融合结果示例。
具体实施方式
如图1所示,本发明提出了一种非同源图像数据信息融合处理方法,实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;图像源包括相机、雷达等能够成像的设备。
所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
所述图像匹配算法采用半全局(Semi-global)匹配算法,采用单指令多数据流方式进行加速,可以使算法实现速度接近实时,并且该算法得到视差数据更为平滑,噪声较少,重构出的三维点效果明显优于其他匹配算法。
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算单帧三维点云数据,得到相应场景的三维信息,具体为:
根据双目立体视觉成像原理,利用图像匹配得到的视差数据,计算出相机图像中像素点对应的在相机坐标系下的三维坐标(xc,yc,zc),根据相机在巡视探测器的安装位置和相机相对于巡视探测器的姿态,将三维坐标(xc,yc,zc)转换到本体坐标系下,求得(xb,yb,zb);结合巡视探测器当前的姿态信息,将三维坐标(xb,yb,zb)转换到水平投影坐标系下,求得(xr,yr,zr),从而得到巡视探测器周围场景的三维信息。
(2)对所述单帧三维点云数据进行数据滤波。
由于受到光照条件、相机成像参数等因素的影响,从步骤(1)得到的单帧三维点云数据不可避免的会含有噪声点,尤其对于信噪比较低的图像,噪声点的比例会相对较大,因此为了保证多帧点云数据匹配和融合的准确性,在进行后续处理前必须对单帧三维点云数据进行滤波;
具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述,有效降低了计算的复杂度,减少计算时间;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc
多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行基于迭代最近点算法的点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
以嫦娥四号巡视探测器为例,对一种非同源图像数据信息融合处理方法的具体实现如下:
利用巡视器配备的导航相机和避障相机对巡视器周围的地形进行多次成像,其中,导航相机由于安装在巡视器桅杆上,通过桅杆运动,导航相机可以以不同角度对巡视器周围不同方向的地形进行远距离大范围成像,避障相机固连在巡视器底板,可以对巡视器前方进行近距离成像,以弥补导航相机的视场盲区。
令巡视器的导航相机从-40°到40°以20°的角度间隔,从左侧向右侧进行序列成像,得到5对导航相机图像。同时,令避障相机成像,得到1对避障相机图像。
(1)基于图像的三维恢复
(1.1)根据导航相机和避障相机的内外参数,对每次成像获得的左右两幅图像进行极线校正;
(1.2)利用图像匹配算法对校正后的图像对进行匹配,并得到左右图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息;
对5对导航相机图像和1对避障相机图像分别经过上述处理,可以得到相应的单帧三维点云数据,如图2a和2b所示分别为导航相机以0°角度拍摄得到的三维点云数据,以及避障相机拍摄得到的三维点云数据;
(2)三维点云数据滤波
由于受到光照条件、相机成像参数等因素的影响,从图2可以看出,步骤(1)得到的单帧三维点云数据不可避免的会含有噪声点,尤其是导航相机点云数据,噪声点的比例相对较大,因此为了保证多帧点云数据匹配和融合的准确性,在进行后续处理前必须对单帧三维点云数据进行滤波;
如图3所示为单帧导航相机点云数据滤波结果,可以看出,通过滤波处理,图2(a)中的噪声点基本上被完全滤除。
(3)多帧点云数据匹配
对5对导航相机图像和1对避障相机图像,经过步骤(1)和步骤(2)的处理,可以得到多帧高精度三维点云数据,通过对多帧点云数据进行点配准计算,求得多帧点云数据两两之间的相对旋转矩阵(记为R)和平移矩阵(记为T),从而完成多帧点云数据的匹配;
(4)多帧点云数据融合
经过步骤(3)得到的多帧点云数据的相对位置和姿态信息,经过坐标变化将多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合;
如图4所示为5帧导航相机点云数据和1帧避障相机点云数据经过匹配融合的结果,融合后的数据覆盖了约18m×26m的地形范围,在此大范围高精度的三维场景中进行巡视器导航规划,有利于得到更为安全可靠的规划结果。

Claims (10)

1.一种非同源图像数据信息融合处理方法,其特征在于实现步骤如下:
(1)通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
(2)对所述单帧三维点云数据进行数据滤波;
(3)针对与步骤(1)相同的场景,通过多个图像源多次成像获取图像,均经过步骤(1)和步骤(2)的处理,得到多帧滤波后的三维点云数据;
(4)进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
2.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
3.根据权利要求2所述的非同源图像数据信息融合处理方法,其特征在于:所述图像匹配算法采用Semi-global匹配算法,采用单指令多数据流方式进行加速。
4.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(2)中对所述单帧三维点云数据进行数据滤波,具体为:
(2.1)采用KD-Tree的数据结构形式对所述单帧三维点云数据进行描述;
(2.2)根据噪声点产生的机制不同,将步骤(2.1)描述之后的三维点云数据中包含的噪声点分为由错误匹配产生的外点以及重建后的随机噪声两类,分别利用基于点云局部密度的方法和双边带滤波方法,对外点和随机噪声进行滤除。
5.根据权利要求1所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(4)进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合。
6.根据权利要求5所述的非同源图像数据信息融合处理方法,其特征在于:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
7.根据权利要求6所述的非同源图像数据信息融合处理方法,其特征在于:所述步骤(4.2)多帧点云匹配方法具体为:通过对多帧滤波后的三维点云数据进行点配准计算,求得多帧滤波后的三维点云数据两两之间的相对旋转矩阵R和平移矩阵T,从而完成多帧点云数据的匹配。
8.一种根据权利要求1~7中任一项所述非同源图像数据信息融合处理方法实现的信息融合处理系统,其特征在于包括:
三维恢复模块:通过两个独立图像源对同一场景成像,得到两幅原始图像,针对所述两幅原始图像,进行三维恢复,得到单帧三维点云数据;
数据滤波模块:对所述单帧三维点云数据进行数据滤波;针对相同的场景,通过多个图像源多次成像获取图像,得到多帧滤波后的三维点云数据;
数据融合模块:进行多帧点云数据融合,从而完成非同源图像数据信息融合处理。
9.根据权利要求8所述的信息融合处理系统,其特征在于:三维恢复模块进行三维恢复,是指根据两幅原始图像中对应像素点的坐标,恢复出真实场景的三维信息,主要实现步骤如下:
(1.1)根据相机的内参数和外参数,对两幅原始图像进行极线校正;
(1.2)利用图像匹配算法对极线校正后的图像对进行匹配,并得到两幅图像的视差数据;
(1.3)根据视差数据,结合相机安装及成像时的姿态,计算场景三维信息,得到相应的单帧三维点云数据。
10.根据权利要求8所述的信息融合处理系统,其特征在于:数据融合模块进行多帧点云数据融合,是指:根据匹配后的多帧点云数据的相对位置和姿态信息,经过坐标变化将匹配后的多帧点云数据统一到同一个基准坐标系下,从而完成多帧点云数据的融合,具体为:
(4.1)如果当前帧是第一帧,则将其坐标系作为基准坐标系,同时复制给多帧数据,并且记录当前位姿,即基准旋转矩阵和基准平移矩阵
(4.2)如果当前帧非第一帧,则采用多帧点云匹配方法计算当前帧相对前一帧的位姿变化,得到相对旋转矩阵Rc和相对平移矩阵Tc
(4.3)计算当前帧相对第一帧直接的位姿变化,并将其赋值给历史位姿,计算方法如下:
(4.4)将当前帧转换到基准坐标系下,并与历史帧进行合并;
(4.5)根据步骤(4.2)~(4.4)对所有多帧点云数据进行处理,完成多帧点云数据的融合。
CN201910364733.6A 2019-04-30 2019-04-30 一种非同源图像数据信息融合处理方法及系统 Pending CN110097623A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910364733.6A CN110097623A (zh) 2019-04-30 2019-04-30 一种非同源图像数据信息融合处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910364733.6A CN110097623A (zh) 2019-04-30 2019-04-30 一种非同源图像数据信息融合处理方法及系统

Publications (1)

Publication Number Publication Date
CN110097623A true CN110097623A (zh) 2019-08-06

Family

ID=67446753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910364733.6A Pending CN110097623A (zh) 2019-04-30 2019-04-30 一种非同源图像数据信息融合处理方法及系统

Country Status (1)

Country Link
CN (1) CN110097623A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260785A (zh) * 2020-03-20 2020-06-09 陕西地矿物化探队有限公司 基于变场源张量的矿集区三维地质建模方法及系统
CN112651266A (zh) * 2019-10-11 2021-04-13 北京百度网讯科技有限公司 行人检测方法和装置
CN113610906A (zh) * 2021-08-06 2021-11-05 山西大学 一种基于融合图像引导的多视差图像序列配准方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456038A (zh) * 2013-08-19 2013-12-18 华中科技大学 一种井下环境三维场景重建方法
CN107945220A (zh) * 2017-11-30 2018-04-20 华中科技大学 一种基于双目视觉的重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456038A (zh) * 2013-08-19 2013-12-18 华中科技大学 一种井下环境三维场景重建方法
CN107945220A (zh) * 2017-11-30 2018-04-20 华中科技大学 一种基于双目视觉的重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李立春等: "基于成像的天体探测三维建模与可视化系统实现" *
杨阳;: "基于双目感知的立体视觉集成" *
牛晓静;王美丽;何东健;: "一种聚类与滤波融合的点云去噪平滑方法" *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651266A (zh) * 2019-10-11 2021-04-13 北京百度网讯科技有限公司 行人检测方法和装置
CN111260785A (zh) * 2020-03-20 2020-06-09 陕西地矿物化探队有限公司 基于变场源张量的矿集区三维地质建模方法及系统
CN111260785B (zh) * 2020-03-20 2023-08-11 中国地质科学院 基于变场源张量的矿集区三维地质建模方法及系统
CN113610906A (zh) * 2021-08-06 2021-11-05 山西大学 一种基于融合图像引导的多视差图像序列配准方法
CN113610906B (zh) * 2021-08-06 2023-07-18 山西大学 一种基于融合图像引导的多视差图像序列配准方法

Similar Documents

Publication Publication Date Title
US11100706B2 (en) Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and generation method for generating three-dimensional model
Teller et al. Calibrated, registered images of an extended urban area
Zhang et al. Integrated 3D scene flow and structure recovery from multiview image sequences
CN106643669B (zh) 一种多镜头多探测器航空相机单中心投影转换方法
CN110097623A (zh) 一种非同源图像数据信息融合处理方法及系统
US10706564B2 (en) Systems, methods, and media for determining object motion in three dimensions from light field image data
CN104537707A (zh) 像方型立体视觉在线移动实时测量系统
CN110363838A (zh) 基于多球面相机模型的大视野图像三维重构优化方法
CN108917753A (zh) 基于从运动恢复结构的飞行器位置确定方法
CN115035235A (zh) 三维重建方法及装置
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
Huang et al. 360vo: Visual odometry using a single 360 camera
Wang et al. Three-dimensional underwater environment reconstruction with graph optimization using acoustic camera
Tsaregorodtsev et al. Extrinsic camera calibration with semantic segmentation
Wang et al. A study on camera array and its applications
JP7170230B2 (ja) 三次元再構成方法及び三次元再構成装置
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测系统及方法
CN113538579B (zh) 基于无人机地图与地面双目信息的移动机器人定位方法
Zhao et al. An ORB-SLAM3 Autonomous Positioning and Orientation Approach using 360-degree Panoramic Video
Feng et al. Research on Calibration Method of Multi-camera System without Overlapping Fields of View Based on SLAM
JP5409451B2 (ja) 3次元変化検出装置
Köser et al. Robustly removing deep sea lighting effects for visual mapping of abyssal plains
Negahdaripour et al. Integrated system for robust 6-dof positioning utilizing new closed-form visual motion estimation methods in planar terrains
CN117456124B (zh) 一种基于背靠背双目鱼眼相机的稠密slam的方法
Groom et al. On Depth Error from Spherical Camera Calibration within Omnidirectional Stereo Vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190806