CN113489964B - 一种基于三目视觉的场景深度信息获取系统 - Google Patents

一种基于三目视觉的场景深度信息获取系统 Download PDF

Info

Publication number
CN113489964B
CN113489964B CN202110800510.7A CN202110800510A CN113489964B CN 113489964 B CN113489964 B CN 113489964B CN 202110800510 A CN202110800510 A CN 202110800510A CN 113489964 B CN113489964 B CN 113489964B
Authority
CN
China
Prior art keywords
image
point
camera
gunlock
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110800510.7A
Other languages
English (en)
Other versions
CN113489964A (zh
Inventor
姜柯
李爱华
苏延召
蔡艳平
王涛
韩德帅
冯国彦
李庆辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rocket Force University of Engineering of PLA
Original Assignee
Rocket Force University of Engineering of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rocket Force University of Engineering of PLA filed Critical Rocket Force University of Engineering of PLA
Priority to CN202110800510.7A priority Critical patent/CN113489964B/zh
Publication of CN113489964A publication Critical patent/CN113489964A/zh
Application granted granted Critical
Publication of CN113489964B publication Critical patent/CN113489964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于三目视觉的场景深度信息获取系统,包括三目视觉模块、虚拟枪机双目视觉标定模块以及场景深度信息获取模块,本发明提出了一种通过移动枪机构建虚拟双目视觉系统的方法来提前估计得到场景深度信息,并以目标的接地点的深度约束来估计其空间位置,达到唯一确定PTZ控制参数的目的。

Description

一种基于三目视觉的场景深度信息获取系统
技术领域
本发明涉及场景深度信息获取系统,具体涉及一种基于三目视觉的场景深度信息获取系统。
背景技术
在一些军事或民用设施的重点要害部位,如机场场坪、油库、化工厂等,人们对智能视频监控的性能有着更高的要求。
现有技术中通常采用双目视觉的方法进行目标跟踪,采用枪机或全向摄像机结合PTZ球机实现的双目视觉系统,先使用枪机或全向摄像机检测运动目标,再用PTZ球机实现跟踪和放大抓拍。
现有技术中PTZ球机的主动跟踪的关键在于由运动目标的状态信息获取PTZ控制参数,在现有技术中由于场景深度(运动目标真实的空间位置)无法唯一确定,给PTZ球机跟踪控制参数计算带来了不确定性。
综上所述,现有的基于双目视觉的场景深度信息获取系统存在场景深度估计不准确的问题。
发明内容
本发明的目的在于提供一种基于三目视觉的场景深度信息获取系统,用以解决现有技术中的基于双目视觉的场景深度信息获取系统存在场景深度估计不准确的问题。
为了实现上述任务,本发明采用以下技术方案:
一种三目视觉的场景深度信息获取系统,所述的系统包括三目视觉模块、虚拟枪机双目视觉标定模块以及场景深度信息获取模块;
所述的三目视觉模块用于采集包含有运动目标的图像,所述的三目视觉模块包括一个枪机和一对PTZ球机,所述的枪机和PTZ球机安装在滑轨上,所述的滑轨平行于水平面设置,所述的枪机沿着所述的滑轨在所述的一对PTZ球机中间移动;所述的PTZ球机零位时的光轴与枪机的朝向相同;一对PTZ球机的参数相同;
所述的虚拟枪机双目视觉标定模块存储有第一计算机程序,所述的第一计算机程序在被处理器执行时实现以下步骤:
步骤A、保持标定板位置固定,控制枪机移动至第一抓拍点上,拍摄一副含有标定板的图像,获得第一标定板图像PA
步骤B、控制所述的枪机固定在第一抓拍点上,拍摄含有运动目标的图像,获得第一枪机图像;
步骤C、控制枪机移动至第二抓拍点后拍摄含有运动目标的图像,获得第二枪机图像;
步骤D、控制枪机固定在所述的第二抓拍点上,拍摄一副含有标定板的图像,获得第二标定板图像PB,,所述的标定板在拍摄获得第二标定板图像PB与拍摄获得第一标定板图像PA时均在所述枪机(3)的视场中部;
步骤E、利用所述的第一标定板图像PA与第二标定板图像PB进行标定,获得所述枪机的旋转向量RAB以及平移向量tAB
所述的场景深度信息获取模块用于获得枪机图像中任一点的深度信息;
所述的场景深度信息获取模块中存储有第二计算机程序,所述的第二计算机程序在被处理器执行时实现以下步骤:
步骤a、根据所述的枪机的旋转向量RAB以及平移向量tAB,采用立体校正算法对第一枪机图像与第二枪机图像进行立体校正,获得重投影转换矩阵Q和枪机的旋转矩阵R;获得采集第一枪机图像时枪机的第一内参矩阵KA和第一投影矩阵PA
其中
Figure BDA0003164531150000031
步骤b、采用式I将第一枪机图像的T点图像坐标(uA,vA)映射至摄像机坐标中,获得T点第一摄像机坐标(x′A,y′A);
Figure BDA0003164531150000032
步骤c、利用旋转矩阵R对第一枪机图像进行旋转变换,采用式II获得枪机坐标系的T点第一观测坐标(xA,yA);
Figure BDA0003164531150000033
步骤d、利用所述的重投影转换矩阵Q对第一枪机图像与第二枪机图像进行重投影后,利用立体匹配算法,获得视差图;
步骤e、采用式III获得T点在视差图的图像坐标(u′A,v′A);
Figure BDA0003164531150000041
步骤f、根据所述的T点在视差图的图像坐标(u′A,v′A),获得图像中T点的深度信息。
进一步地,所述的步骤a中的立体校正算法为Bouguet立体校正算法。
进一步地,步骤E中采用张正友标定算法进行标定。
本发明与现有技术相比具有以下技术效果:
1、本发明提供的基于三目视觉的场景深度信息获取系统,提出了一种通过移动枪机构建虚拟双目视觉系统的方法来提前估计得到场景深度信息,并以目标的接地点的深度约束来估计其空间位置,达到唯一确定PTZ控制参数的目的。
2、本发明提供的基于三目视觉的场景深度信息获取系统,实现虚拟双目视觉系统下的场景深度获取,并获得了实时图像和视差图的坐标对应关系,提高了场景深度获取的准确性。
附图说明
图1为本发明提供的三目视觉模块的结构示意图;
图2为本发明的一个实施例中提供的枪机在滑轨上的移动路径示意图;
图3为本发明的一个实施例中提供的平行双目视觉系统示意图。
图中的标号代表:1-滑轨,2-PTZ球机,3-枪机,A-A点,B-B点,T-T点。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。以便本领域的技术人员更好的理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
以下对本发明涉及的定义或概念内涵做以说明:
枪机:枪机是监控类摄像机中一种。枪机外观长方体,前面是C/CS镜头接口。
PTZ球机:Pan-Tilt-Zoom球机,在安防监控应用中是Pan/Tilt/Zoom的简写,代表云台全方位(左右/上下)移动及镜头变倍、变焦控制的球型监控摄像机。
实施例一
在本实施例中公开了一种三目视觉的场景深度信息获取系统,系统包括三目视觉模块、虚拟枪机双目视觉标定模块以及场景深度信息获取模块;
在本实施例中,借助图像中坐标点的深度信息,可以为图像坐标系下的点恢复其对应的空间点三维信息。如果知道了运动目标的三维信息,则可以通过摄像机相互位置关系得到其在各PTZ球机2坐标系中的位置,为PTZ球机2跟踪创造条件。因此,本发明提出了一种虚拟双目视觉系统,以获得场景深度信息。
所述的三目视觉模块用于采集包含有运动目标的图像,所述的三目视觉模块包括一个枪机3和一对PTZ球机2,所述的枪机3和PTZ球机2安装在滑轨1上,滑轨1平行于水平面设置,所述的枪机3沿着所述的滑轨1在所述的一对PTZ球机2中间移动;所述的PTZ球机2零位时的光轴与枪机3的朝向相同;一对PTZ球机2的参数相同;
本文利用枪机内部参数恒定的特性,如图1所示,通过将其固定在导轨1上的两个不同位置来实现虚拟的双目视觉系统,并同时得到两个位置的标定模板图像以及场景图像。图2为枪机3在导轨1上的移动路径示意图。B位置枪机相对于A位置枪机之间的位置关系用旋转向量rAB和平移向量tAB描述。
所述的虚拟枪机双目视觉标定模块存储有第一计算机程序,所述的第一计算机程序在被处理器执行时实现以下步骤:
步骤A、保持标定板位置固定,控制枪机3移动至第一抓拍点A上,拍摄一副含有标定板的图像,获得第一标定板图像PA
步骤B、控制所述的枪机3固定在第一抓拍点A上,拍摄含有运动目标的图像,获得第一枪机图像;
步骤C、控制枪机3移动至第二抓拍点B后拍摄含有运动目标的图像,获得第二枪机图像;
步骤D、控制枪机3固定在所述的第二抓拍点B上,拍摄一副含有标定板的图像,获得第二标定板图像PB,,所述的标定板在拍摄获得第二标定板图像PB与拍摄获得第一标定板图像PA时均在所述枪机3的视场中部;
步骤E、利用所述的第一标定板图像PA与第二标定板图像PB进行标定,获得所述枪机3的旋转向量RAB以及平移向量tAB
为了简化操作,减少误差,本发明采用如下四步操作来实现标定和场景图像的抓拍:
(1)将枪机固定于B点,抓拍一幅场景图像SB,并保存;
(2)保持枪机位置不变,并将一张标定模板固定放置于枪机视野中部稍偏左(保证枪机移至A点后,模板仍能位于枪机的视场中部),抓拍一幅标定模板图像PB
(3)保持标定模板位置不变,将枪机移至A点并可靠固定(作为最终的工作位置),抓拍第二幅标定模板图像PA
(4)移走标定模板,抓拍第二幅场景图像SA
不同于通常意义上的双目视觉系统,本发明提供的双目系统中的双目实为位于两不同位置的同一摄像机,故其内部参数完全一致且精确已知,因而仅需标定它们之间的相互位置关系。因此,仅使用两张标定模板图像也能取得较好的标定结果,得到足够精度的rAB和tAB。此处,标定使用GML MatLab Camera Calibration Toolbox工具箱。
可选地,步骤E中采用张正友标定算法进行标定。
在本实施中对枪机3进行了标定,标定得到是经罗德里格斯变换后的的旋转向量rAB和平移向量tAB,标定结果为:
Figure BDA0003164531150000071
需要说明的是,rAB向量的所有元素值以及tAB中的ty和tz分量理论上应全为0,而实际得到的向量元素并不为0而是三个较小的数值,这说明移动过程中产生了微小的偏差。它们的值越小,在立体校正时对图像的投影修正越少,最终获取的场景深度信息精度越高。
所述的场景深度信息获取模块中存储有第二计算机程序,所述的第二计算机程序在被处理器执行时实现以下步骤:
步骤a、根据所述的枪机3的旋转向量RAB以及平移向量tAB,采用立体校正算法对第一枪机图像与第二枪机图像进行立体校正,获得重投影转换矩阵Q和枪机的旋转矩阵R;获得采集第一枪机图像时枪机3的第一内参矩阵KA和第一投影矩阵PA
其中
Figure BDA0003164531150000081
在本发明中,如图2、3所示,由于A点位置的摄像机与B点摄像机为同一个摄像机,也就是双目摄像机中的两个摄像机完全相同,因此内参矩阵、投影矩阵等也完全相同,因此无需多次计算,仅采用左摄像机即可获得视差图。或者采用同样地方法对B点位置的摄像机(双目中的右相机),获得第二内参矩阵KB和第二投影矩阵PB,也可仅采用右摄像机获得视差图。
因此,A点或B点获得的第一内参矩阵KA或第二内参矩阵KB,第一投影矩阵PA或第二投影矩阵PB如下:
Figure BDA0003164531150000091
可选地,所述的步骤a中的立体校正算法为Bouguet立体校正算法。
在本实施例中,得到RAB和tAB以后,利用Bouguet立体校正算法对场景图像SA和SB进行立体校正,得到校正所需的投影矩阵(由于事先已经完成畸变校正,因此该校正时不考虑畸变参数,畸变向量所有元素值为0)。对两幅图像进行重投影就可完成图像的行对齐操作,再通过立体匹配算法即可得到视差图。
在本实施例中,校正后的左右摄像机矩阵KA和KB,与投影矩阵PA和PB如下式,其中A点位置上的枪机3为双目相机中的左相机,B点位置上的枪机3为双目相机中的右相机:
Figure BDA0003164531150000092
Figure BDA0003164531150000093
(其中,αA=αB=0,αA与αB均是像素畸变比例,由于生产工艺的改进,目前市场上的摄像机该参数都可以认为是0)。
投影矩阵可通过将齐次坐标中的3D点转换至齐次坐标系下的2D点,可得屏幕坐标为(x/w,y/w)。如果给定屏幕坐标和摄像机内参矩阵数矩阵,则可将二维点进行重投影得到三维坐标,重投影矩阵Q如下:。
Figure BDA0003164531150000101
式中除cx′外的所有参数都来自于第一枪机图像,cx′是主点在第二枪机图像上的x坐标。如果主光线在无穷远处相交,那么cx′=cx,并且右下角的项为0。
给定一个二维齐次坐标和对应的视差d,则可用下式将此点投影到三维坐标系中,得到其空间坐标(X/W,Y/W,Z/W),该坐标包含了空间点的深度信息。
Figure BDA0003164531150000102
通过上述Bouguet校正算法,可以得到重投影所需的各转换矩阵,如下式,实现图像对的立体校正,虚拟出一个如图3所示的平行双目立体视觉系统,为后续的沿极线的匹配搜索和深度求取打下基础。
在本实施例中,由于在立体匹配过程,算法需要对两幅图像进行极线校正,因此得到的场景视差图和枪机实时图像之间的图像坐标并非一一对应,而是存在一个映射转换关系。在本发明中视A点位置摄像机为双目中的左摄像机,设摄像机内参矩阵为KQJ,畸变向量为dQJ,Bouguet立体校正算法得到第一旋转矩阵RA和第一投影矩阵PA。枪机图像已经提前完成畸变校正,故此处的dQJ用全0填充。
步骤b、采用式I将第一枪机图像的T点图像坐标(uA,vA)映射至摄像机坐标中,获得T点第一摄像机坐标(x′A,y′A);
Figure BDA0003164531150000111
在本实施例中,获得T点第一摄像机坐标(x′A,y′A)和T点第二摄像机坐标(x′B,y′B)如下式:
Figure BDA0003164531150000112
步骤c、利用旋转矩阵R对第一枪机图像进行旋转变换,采用式II获得枪机坐标系的T点第一观测坐标(xA,yA);
Figure BDA0003164531150000113
在本实施例中,获得枪机坐标系的T点第一观测坐标(xA,yA)和T点第二观测坐标(xB,yB):
Figure BDA0003164531150000121
Figure BDA0003164531150000122
步骤d、利用所述的重投影转换矩阵Q对第一枪机图像与第二枪机图像进行重投影后,利用立体匹配算法,获得视差图;
步骤e、采用式III获得T点在视差图的图像坐标(u′A,v′A);
Figure BDA0003164531150000123
在本实施例中,获得T点在视差图的图像坐标(u′A,v′A)和(u′B,v′B):
Figure BDA0003164531150000124
Figure BDA0003164531150000125
步骤f、根据所述的T点在视差图的图像坐标(u′A,v′A),获得图像中T点的深度信息。
在本实施例中,可以根据视差图的图像坐标(u′A,v′A)或(u′B,v′B),获得图像中T点的深度信息,给定一个二维齐次坐标和对应的视差d,则可用
Figure BDA0003164531150000131
将此点投影到三维坐标系中,得到其空间坐标(X/W,Y/W,Z/W),该坐标包含了空间点的深度信息。
在本实施例中,利用上述过程,就可以得到当前视频图像中任一像素点与视差图的坐标对应映射。对于映射后坐标存在小数的情况,可以使用二次线性插值算法得到插值后视差值,就可利用式得到该点的空间坐标值。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法。

Claims (2)

1.一种三目视觉的场景深度信息获取系统,其特征在于,所述的系统包括三目视觉模块、虚拟枪机双目视觉标定模块以及场景深度信息获取模块;
所述的三目视觉模块用于采集包含有运动目标的图像,所述的三目视觉模块包括一个枪机(3)和一对PTZ球机(2),所述的枪机(3)和PTZ球机(2)安装在滑轨(1)上,所述的滑轨(1)平行于水平面设置,所述的枪机(3)沿着所述的滑轨(1)在所述的一对PTZ球机(2)中间移动;所述的PTZ球机(2)零位时的光轴与枪机(3)的朝向相同;所述的一对PTZ球机(2)的参数相同;
所述的虚拟枪机双目视觉标定模块存储有第一计算机程序,所述的第一计算机程序在被处理器执行时实现以下步骤:
步骤A、保持标定板位置固定,控制枪机(3)移动至第一抓拍点上,拍摄一副含有标定板的图像,获得第一标定板图像PA
步骤B、控制所述的枪机(3)固定在第一抓拍点上,拍摄含有运动目标的图像,获得第一枪机图像;
步骤C、控制枪机(3)移动至第二抓拍点后拍摄含有运动目标的图像,获得第二枪机图像;
步骤D、控制枪机(3)固定在所述的第二抓拍点上,拍摄一副含有标定板的图像,获得第二标定板图像PB,所述的标定板在拍摄获得第二标定板图像PB与拍摄获得第一标定板图像PA时均在所述枪机(3)的视场中部;
步骤E、利用所述的第一标定板图像PA与第二标定板图像PB进行标定,获得所述枪机(3)的旋转向量RAB以及平移向量tAB
所述的场景深度信息获取模块用于获得枪机图像中任一点的深度信息;
所述的场景深度信息获取模块中存储有第二计算机程序,所述的第二计算机程序在被处理器执行时实现以下步骤:
步骤a、根据所述的枪机(3)的旋转向量RAB以及平移向量tAB,采用立体校正算法对第一枪机图像与第二枪机图像进行立体校正,获得重投影转换矩阵Q和枪机的旋转矩阵R;获得采集第一枪机图像时枪机(3)的第一内参矩阵KA和第一投影矩阵PA
其中
Figure FDA0003854952890000021
步骤b、采用式I将第一枪机图像的T点图像坐标(uA,vA)映射至摄像机坐标中,获得T点第一摄像机坐标(x′A,y′A);
Figure FDA0003854952890000022
步骤c、利用旋转矩阵R对第一枪机图像进行旋转变换,采用式II获得枪机坐标系的T点第一观测坐标(xA,yA);
Figure FDA0003854952890000031
步骤d、利用所述的重投影转换矩阵Q对第一枪机图像与第二枪机图像进行重投影后,利用立体匹配算法,获得视差图;
步骤e、采用式III获得T点在视差图的图像坐标(u′A,v′A);
Figure FDA0003854952890000032
步骤f、根据所述的T点在视差图的图像坐标(u′A,v′A),获得图像中T点的深度信息;
所述的步骤a中的立体校正算法为Bouguet立体校正算法。
2.如权利要求1所述的三目视觉的场景深度信息获取系统,其特征在于,步骤E中采用张正友标定算法进行标定。
CN202110800510.7A 2021-07-15 2021-07-15 一种基于三目视觉的场景深度信息获取系统 Active CN113489964B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110800510.7A CN113489964B (zh) 2021-07-15 2021-07-15 一种基于三目视觉的场景深度信息获取系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110800510.7A CN113489964B (zh) 2021-07-15 2021-07-15 一种基于三目视觉的场景深度信息获取系统

Publications (2)

Publication Number Publication Date
CN113489964A CN113489964A (zh) 2021-10-08
CN113489964B true CN113489964B (zh) 2022-11-15

Family

ID=77939692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110800510.7A Active CN113489964B (zh) 2021-07-15 2021-07-15 一种基于三目视觉的场景深度信息获取系统

Country Status (1)

Country Link
CN (1) CN113489964B (zh)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354257A (ja) * 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
CN100553347C (zh) * 2006-10-26 2009-10-21 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法
CN103337094B (zh) * 2013-06-14 2016-05-18 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN109961401B (zh) * 2017-12-14 2022-10-04 西安全志科技有限公司 一种双目相机的图像校正方法和存储介质
CN108416812B (zh) * 2018-03-20 2020-03-10 中国电子科技集团公司第五十四研究所 一种单摄像机镜像双目视觉系统的标定方法
CN109961485A (zh) * 2019-03-05 2019-07-02 南京理工大学 一种基于单目视觉进行目标定位的方法
CN110415278B (zh) * 2019-07-30 2020-04-17 中国人民解放军火箭军工程大学 直线移动ptz相机辅助双目ptz视觉系统的主从跟踪方法
CN110910431B (zh) * 2019-10-15 2024-01-23 西安理工大学 一种基于单目相机多视点三维点集恢复方法
CN110969666B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 双目相机深度标定方法、装置、系统和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Multiresolution and Wide-Scope Depth Estimation Using a Dual-PTZ-Camera System;Dingrui Wan等;《IEEE Transactions on Image Processing》;20090210;全文 *
一种基于双目PTZ相机的主从跟踪方法;崔智高等;《电子与信息学报》;20130430;全文 *

Also Published As

Publication number Publication date
CN113489964A (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
EP2913796B1 (en) Method of generating panorama views on a mobile mapping system
US8593524B2 (en) Calibrating a camera system
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
CN113487683B (zh) 一种基于三目视觉的目标跟踪系统
CN111192235B (zh) 一种基于单目视觉模型和透视变换的图像测量方法
US20130176392A1 (en) Method And System For Determining Camera Parameters From A Long Range Gradient Based On Alignment Differences In Non-Point Image Landmarks
GB2372659A (en) A method of rectifying a stereoscopic image
CN112686877B (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
CN112288826B (zh) 双目相机的标定方法、装置及终端
CN110827392B (zh) 单目图像三维重建方法、系统及装置
CN113534737B (zh) 一种基于多目视觉的ptz球机控制参数获取系统
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
WO2019045722A1 (en) METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR 3D CARTOGRAPHY ESTIMATION AND 3D IMAGE POSES
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
CN113763480A (zh) 一种多镜头全景摄像机组合标定方法
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
CN113489964B (zh) 一种基于三目视觉的场景深度信息获取系统
JP7033294B2 (ja) 撮像システム、撮像方法
CN111429571A (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN113470118B (zh) 一种基于三目视觉的目标尺寸估计系统
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
KR20150119770A (ko) 카메라를 사용한 3차원 좌표 측정 장치 및 방법
Thangarajah et al. Vision-based registration for augmented reality-a short survey
Zeng et al. A 3D passive optical localization system based on binocular infrared cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant