CN110288659A - 一种基于双目视觉的深度成像及信息获取方法 - Google Patents
一种基于双目视觉的深度成像及信息获取方法 Download PDFInfo
- Publication number
- CN110288659A CN110288659A CN201910447821.2A CN201910447821A CN110288659A CN 110288659 A CN110288659 A CN 110288659A CN 201910447821 A CN201910447821 A CN 201910447821A CN 110288659 A CN110288659 A CN 110288659A
- Authority
- CN
- China
- Prior art keywords
- parallax
- point
- pixel
- information
- dimentional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于双目视觉的深度成像及信息获取方法,该方法通过畸变校正和极线校正对双目摄像头拍摄的图像进行空间校准,构造基于校准后图像对的二维视差标签集合,每次选取不同的标签组合作为源汇点构造网络图并设计边权值,采用最大流算法迭代求取网络的最小割集,根据设计的标签更新策略完成像素点的二维视差标签分配,迭代终止时可以得到比较稠密的视差图,结合三角测距原理计算得到场景的深度信息,通过采集关键点的深度信息进一步优化计算结果,结合GPS数据和摄像头架设的高度、角度信息,场景中任一目标的位置及物理尺度信息均可被获取。
Description
技术领域
本发明属深度成像领域,尤其涉及一种基于双目视觉的深度成像方法及信息获取方法。
背景技术
深度成像是利用成像设备提取场景深度信息,并将深度信息表示为深度图像的技术。该技术可以与目标检测、目标识别、图像分割等技术结合,应用于智能视频监控、无人驾驶汽车、智能交通、安防及机器人自动控制等领域。在实际场景中,可用于在地铁、车站、广场、商场、公园等重要场所及人流密集区域的行人检测。本发明创新性的提出了二维视差存在下的双目深度成像方法,结合智能三维立体监控摄像头,优化了深度信息的获取及修正方法,获得了目标的物理尺度信息及世界位置信息,是对监控手段的智能化升级,也是智慧城市的重要体现所在。
国内外很多大学和科研机构也均对深度成像技术进行过研究,并取得了一定的研究成果。传统深度成像技术包括激光深度成像、双目视觉深度成像和雷达深度成像技术,其中,激光深度成像设备造价较高,且易受光照影响,雷达成像设备虽然可以获得大视场的深度信息,但是,雷达信号只对强散射点有不错的效果,相较这两种成像技术,双目深度成像技术具有成本低,易实现,适用场景更加广泛的优势。双目深度成像技术的核心是立体匹配算法,立体匹配算法可根据匹配基元不同分为两类:一类是以SGBM算法为代表的局部立体匹配算法,另一类是以alpha-beta swap算法为代表的全局立体匹配算法。由于全局立体匹配算法融入了多种先验知识,最终的算法结果相较局部立体匹配算法来说更有优势。但是,在实际数据获取及相机标定中,由于存在系统误差,一对待匹配图像不仅有横向视差,还存在纵向视差,传统的alpha-beta swap算法在算法设计中仅考虑了横向视差存在的情况,因而无法满足实际系统的应用需要;由于视差值一般为整数,损失了部分系统精度,所以计算出的深度信息还不够准确,进一步影响了目标物理尺度信息和世界位置信息的准确计算获取。
发明内容
为了克服上述缺陷,进一步提高双目深度成像的精度,对传统立体匹配算法设计中融入二维视差的考虑,获取较为准确的视差值,采用测量修正法进一步优化根据视差值计算出的深度信息,结合摄像机架设高度、角度信息及GPS信息,获得目标的物理尺度及世界位置信息。
本发明的目的是提供一种基于双目视觉的深度成像及信息获取方法,可以克服现有双目深度成像算法难以适应二维视差存在的问题,提高算法本身的视差计算能力,通过构造二维视差存在下的网络图、权值及标签更新策略,计算出较为准确的视差值,结合摄像头架设角度、高度信息和GPS数据,实现场景内目标的物理尺度计算和世界位置信息获取。
为达到上述目的,本发明的技术解决方案是:
一种基于双目视觉的深度成像及信息获取方法,步骤包括:
1)采用棋盘格标定板进行双目相机标定,根据标定结果进行图像畸变校正和极线校正,得到空间校准后的图像对。
2)设定合适的二维视差取值范围,根据二维视差的不同取值,设置对应的二维视差标签,构成二维视差标签集合;设置最大流监测值,初始化为无穷大;
3)选取一对不同的二维视差标签作为源点和汇点构造无向网络图,如图1所示,根据视差标签和图像对的像素信息设计t-link边的权值,根据相邻像素点的像素信息设计n-link边的权值;
4)执行最大流算法求取网络的最大流和最小割,读取最大流监测值,判断当前最大流与最大流监测值相比是否下降;
如果判别为否,各像素点视差标签不变,最大流监测值也不变;
如果判别为是,更新当前最大流为最大流监测值,保留最小割结果,进入步骤5)
5)根据最小割结果,依据视差标签更新策略,将源点集合内像素点的二维视差标签更新为汇点的二维视差标签,将汇点集合内像素点的二维视差标签更新为源点的二维视差标签,判断是否遍历完所有的视差标签组合构造网络图并执行最大流算法;
如果判别为否,进入步骤3);
如果判别为是,保留当前所有视差标签的分配结果,进入步骤6);
6)根据二维视差标签与二维视差之间的对应关系,得到所有像素点的二维视差值和视差图像;根据三角测距原理,计算场景所有像素点对应的深度信息;
7)采集关键点的深度信息,结合计算出的关键点深度信息,根据检测值与计算值之间的差异,得到深度信息修正值,补偿由于视差精度不足引起的系统误差,进一步得到更为准确的全局深度信息;
8)采集相机架设角度和高度信息,结合场景中目标的深度信息,进一步输出场景内目标的相关物理尺度信息;结合GPS数据,输出目标的世界位置信息。
上述方法中,根据二维视差标签集合的构造方式,在选择一对二维视差标签组合执行最大流算法时,采用升序或降序的标签选取方式,保证选取的视差标签组合不重复。若视差范围较大,可通过降低图像分辨率,减小视差范围,降低视差标签数目,减少算法迭代次数,再根据降低图像分辨率的比例,计算真实视差,优化视差计算速度。
上述方法中,边权值设计时采用截断函数防止过大的权值出现,保证算法可以更好的优化,减少计算出的视差图中的噪声区域,提高图像中视差连续区域的平滑性。截断函数中的阈值U,经实验分析,当初始图像像素被灰度归一化为0~1后,U=0.0784有最佳优化效果,当初始图像仅被灰度化后,U=20有最佳优化效果。
上述方法中,每次执行最大流算法都可以收敛到当前视差标签组合下的局部最优解,最大流算法获得的最小割分割结果与最大后验概率估计的结果一致,当所有视差标签组合执行完最大流算法时,算法收敛到局部最优解,同时生成了较为稠密的视差图。
上述方法中,由于视差值是根据像素坐标计算得到,一般为整数,损失了部分精度,因此采用LED单点测距仪对关键点测量深度信息,与根据关键点处视差值计算出的深度信息求差值,得到深度信息修正值,优化图像中所有像素点的深度信息。
上述方法中,根据修正后的深度信息、摄像头架设角度、高度信息,可通过构造图3所示的物理尺度计算模型,根据三角测距原理进一步计算得到目标的物理尺度信息,如高度、宽度等。
与现有技术相比,本发明可实现场景的深度成像,并对深度信息修正,结合部分架设信息,能获得目标的物理尺度信息,结合GPS数据,能获得目标的世界位置信息了,适用于开放或封闭区域的深度成像,应用范围广泛,有利于目标检测中目标的相关属性信息获取。
附图说明:
图1为含边权值的无向网络图
图2为二维视差下的相机成像模型
图3为物理尺度计算模型
图4为基于双目视觉的深度成像及信息获取方法流程图
图5为基于双目视觉的深度成像及信息获取方法中的深度成像示意图。
图6为基于双目视觉的深度成像及信息获取方法中的深度成像效果说明图。
具体实施方式:
下面结合附图与具体实施方式对本技术方案进一步说明如下:
如图4所示,描述了基于双目视觉的深度成像及信息获取方法流程,首先进行彩色图像采集,获取某一监控区域的彩色图像,设定合适的二维视差范围,初始化最大流监测值,根据标签集合设定规则,构建二维视差标签集合,迭代选取一对二维视差标签组合构造网络图,并进行边权值的设计,再执行最大流算法优化,计算网络最大流和最小割结果,判断最大流相较最大流监测值是否有所下降。如果判别为否,不执行最大流监测值更新和标签更新。如果判断为是,更新最大流监测值为当前最大流,根据最小割结果执行标签更新策略。然后判断是否遍历完所有视差标签组合,如果判别为否,选择不同的二维视差标签重新构造网络图并优化。如果判别为是,生成视差图结果。根据三角测距原理和视差结果计算每个像素点对应的全局深度信息,结合采集到的关键点深度信息,计算得到深度信息修正值,完成全局深度信息修正。利用摄像头架设信息和GPS信息,输出目标物理尺度信息和目标世界位置信息。
具体到本例中,步骤包括:
1)采用棋盘格标定板进行双目相机标定,根据标定结果进行图像畸变校正和极线校正,得到空间校准后的图像对。
2)设定合适的二维视差取值范围,根据二维视差的不同取值,设置对应的二维视差标签,构成二维视差标签集合;设置最大流监测值,初始化为无穷大;
3)选取一对不同的二维视差标签作为源点和汇点构造无向网络图(如图1所示),根据视差标签和图像对的像素信息设计t-link边的权值,根据相邻像素点的像素信息设计n-link边的权值;
4)执行最大流算法求取网络的最大流和最小割,读取最大流监测值,判断当前最大流与最大流监测值相比是否下降;
如果判别为否,各像素点视差标签不变,最大流监测值也不变;
如果判别为是,更新当前最大流为最大流监测值,保留最小割结果,进入步骤5)
5)根据最小割结果,依据视差标签更新策略,将源点集合内像素点的二维视差标签更新为汇点的二维视差标签,将汇点集合内像素点的二维视差标签更新为源点的二维视差标签,判断是否遍历完所有的视差标签组合构造网络图并执行最大流算法;
如果判别为否,进入步骤3);
如果判别为是,保留当前所有视差标签的分配结果,进入步骤6);
6)根据二维视差标签与二维视差之间的对应关系,得到所有像素点的二维视差值和视差图像;根据三角测距原理,计算场景所有像素点对应的深度信息;
7)采集关键点的深度信息,结合计算出的关键点深度信息,根据检测值与计算值之间的差异,得到深度信息修正值,补偿由于视差精度不足引起的系统误差,进一步得到更为准确的全局深度信息;
8)采集相机架设角度和高度信息,结合场景中目标的深度信息,进一步输出场景内目标的相关物理尺度信息;结合GPS数据,获得目标的世界位置信息。
所述步骤2)中,根据设定好的二维视差范围,设计对应不同纵向和横向视差组合的二维视差标签集合,例如:设定好的纵向视差l∈[l1,lm],横向视差d∈[d1,dn],其中m,n为正整数,则二维视差标签集合可被设计为F={u1,u2,…,um×n]。
所述步骤3)中,给定一组初始标签f,P={Pm|m∈F},其中Pm={p∈P|fp=m}表示视差标签被分配为m的像素点集合。
像素点其中且fp∈{u1,u2},如图1所示,与u1和u2相连的边是t-link边,分别记作和对于像素对且{p,q}∈N,{p,q}之间被一条边相连,这种连接相邻像素点的边是n-link边,记作e{p,q}。
以Dp表示像素点p处的视差标签fp与观测到的真实数据的符合程度,fp所含的纵向视差为lp,fp所含的横向视差为dp,Vp,q表示相邻像素对p,q之间的光滑程度,则:
其中,px表示像素点p的横坐标,py为其纵坐标。I’px+lp,py+dp表示与像素点p形成纵向视差为lp、横向视差为dp的像素点处的强度。;
无向网络图中与p相连的t-link边权值设计分为两种:
第一种,对于边,权值设计为
第二种,对于边,权值设计为
其中,fp∈{u1,u2},Np表示与p相邻的像素点集合。;
无向网络图中一对相邻像素点p,q之间相连的n-link边权值设计为:
Vp,q(l2,l2,d1,d2)。
所述步骤5)中,根据最小割结果得到分别属于源点和汇点集合的像素点集,像素点的二维视差标签更新策略如下:
其中,S为最小割结果中的源点集,T为最小割结果中的汇点集;若fp被更新为u1,则p处纵向视差更新为l1,横向视差更新为d1。
所述步骤6)中,三角测距原理如下:
用双目相机采集图像进行立体匹配时,如图2所示,OCL和OCR表示两个水平放置的相机,选择OCL作为世界坐标系的原点建立世界坐标系为xcOCLyczc,其中xc轴与成像平面坐标系的x轴平行,yc轴与成像平面坐标系的y轴平行,zc轴为左相机的光轴,在相机标定校准十分准确的情况下,场景内同一点P在左右图像各自的图像坐标系内只有横坐标有差异,则P的坐标根据其在左图成像点PL和右图成像点PR坐标值、相机的焦距f、两个相机的基线距b,由△PPLPR和△POCLOCR相似,通过三角几何关系原理得:
其中:Y=YL=YR。
若视差d已知,将XL=XR+d代入上面公式计算得:
由此将视差d与场景内P点的三维坐标相联系,场景中P点的深度D也可通过几何关系进行计算:
所述步骤7)中,根据LED单点测距仪器采集到的关键点深度信息Dmes,对计算出的关键点深度信息D计算差异,得到深度信息的修正值ε,进一步修正图像内所有像素点的深度信息,公式如下:
ε=Dmes-D
Dglobal=Dcal+ε
其中,Dglobal为图像内所有像素点的修正后深度信息矩阵,Dcal为通过立体匹配算法计算出的视差进一步计算得到深度信息矩阵。
所述步骤8)中,构造计算目标物理尺度的模型如图3所示,由相机成像原理可知,C点与E点对应的图像坐标是一致的,同理D点与F点对应的图像坐标是一致的,则对于图3中的目标,高度计算方式如下:
其中,h为目标高度,H为相机假设高度,θ为架设相机与竖直方向的夹角,α为相机竖直广角,DAE为修正后的E点深度值,lMN为图像分辨率中的图像高度信息,lME为E点在图像坐标系中的纵坐标。
对于中的目标宽度计算方式如下:
其中,WEF为目标宽度,DAF为修正后的F点深度值,lMF为F点在图像坐标系中的纵坐标。
如图5为基于双目视觉的深度成像及信息获取方法中的深度成像示意图。深度成像过程以图示形式表示,步骤为:1采集彩色图像,2对彩色图像灰度化或者灰度归一化,3根据设定的视差范围构建视差标签结合,4选取视差标签组合构造网络图,5最大流算法优化构造的网络图,6对最大流结果进行判断是否在下降,7根据最小割结果完成视差标签更新,8迭代终止时,输出视差图,即深度图像。
如图6为本发明在含有二维视差的数据集上可以得到目标良好的深度信息,并且在仅含一维视差的数据集上,本发明仍能保持较好的性能。
现有技术中,二维视差标签是指在双目立体匹配中,根据实际中出现的二维视差(横向视差和纵向视差),不同的二维视差值被定义为相应的二维视差标签,将视差计算问题转化为标签分配的问题,构造基于二维视差标签的网络图,采用最大流算法求解网络最小割集,根据标签更新策略分配每个像素点的视差标签,再根据二维视差标签与二维视差值之间的对应关系,可得到每个像素点的视差信息。
Claims (6)
1.一种基于双目视觉的深度成像及信息获取方法,其特征是步骤包括:
a)进行彩色图像采集,获取某一监控区域的彩色图像,设定合适的二维视差范围,初始化最大流监测值;
b)根据标签集合设定规则,构建二维视差标签集合;
c)迭代选取一对二维视差标签组合;
d)构造网络图,并进行边权值的设计;
e)执行最大流算法优化,计算网络最大流和最小割结果,判断最大流相较最大流监测值是否有所下降:
如果判别为否,不执行最大流监测值更新和标签更新,直接进入步骤f);
如果判断为是,更新最大流监测值为当前最大流,根据最小割结果执行标签更新策略,然后进入步骤f);
f)判断是否遍历完所有视差标签组合:
如果判别为否,则进入步骤b);
如果判别为是,则生成视差图,然后进入步骤g);
g)根据三角测距原理和视差结果计算每个像素点对应的全局深度信息;再结合采集到的关键点深度信息,计算得到深度信息修正值,完成全局深度信息修正;
利用摄像头架设信息和GPS信息,分别输出目标物理尺度信息和目标世界位置信息。
2.根据权利要求1所述的方法,其特征是,
所述步骤a)和b)中,采用双目相机采集彩色图像;
采用棋盘格标定板进行双目相机标定,根据标定结果进行图像畸变校正和极线校正,得到空间校准后的图像对;
设定合适的二维视差取值范围,根据二维视差的不同取值,设置对应的二维视差标签,构成二维视差标签集合;设置最大流监测值,初始化为无穷大;
所述步骤c)和d)中,选取一对不同的二维视差标签作为源点和汇点构造无向网络图,根据视差标签和图像对的像素信息设计t-link边的权值,根据相邻像素点的像素信息设计n-link边的权值;
所述步骤e)中,执行最大流算法求取网络的最大流和最小割,读取最大流监测值,判断当前最大流与最大流监测值相比是否下降;
如果判别为否,各像素点视差标签不变,最大流监测值也不变;
如果判别为是,更新最大流监测值为当前最大流,保留最小割结果;
所述步骤f)中,根据最小割结果,依据视差标签更新策略,将源点集合内像素点的二维视差标签更新为汇点的二维视差标签,将汇点集合内像素点的二维视差标签更新为源点的二维视差标签,判断是否遍历完所有的视差标签组合构造网络图并执行最大流算法;
如果判别为否,进入步骤b);
如果判别为是,保留当前所有视差标签的分配结果,进入步骤g);
所述步骤g)中,根据二维视差标签与二维视差之间的对应关系,得到所有像素点的二维视差值和视差图像;根据三角测距原理,计算场景所有像素点对应的深度信息;
采集关键点的深度信息,结合计算出的关键点深度信息,根据检测值与计算值之间的差异,得到深度信息修正值,补偿由于视差精度不足引起的系统误差,进一步得到更为准确的全局深度信息;
采集相机架设角度和高度信息,结合场景中目标的深度信息,进一步输出场景内目标的相关物理尺度信息;结合GPS数据,获得目标的世界位置信息。
3.根据权利要求2所述的方法,其特征是所述步骤b)中,根据预设的二维视差范围,设计对应不同纵向和横向视差组合的二维视差标签集合;其中,预设的纵向视差l∈[l1,lm],横向视差d∈[d1,dn],m,n为正整数,则二维视差标签集合被设计为F={u1,u2,…,um×n},其中,um×n为二维视差标签;
所述步骤c)中,给定一组初始标签f,P={Pm|m∈F},其中Pm={p∈P|fp=m}表示视差标签被分配为m的像素点集合;
无向网络图中像素点其中且fp∈{u1,u2},与二维视差标签u1和u2相连的边是t-link边,分别记作和对于像素对且{p,q}∈N,N表示相邻像素点的集合,{p,q}之间被一条边相连,这种连接相邻像素点的边是n-link边,记作e{p,q};
以Dp表示像素点p处的视差标签fp与观测到的真实数据的符合程度,fp所含的纵向视差为lp,fp所含的横向视差为dp,Vp,q表示相邻像素对p、q之间的光滑程度,则:
其中,Ip表示基准图中像素点p处的强度,px表示像素点p的横坐标,py为其纵坐标;I’px+lp,py+dp表示与像素点p形成纵向视差为lp、横向视差为dp的待匹配图像中该处像素点的强度;U为一常量。
所述步骤d)中,无向网络图中与p相连的t-link边权值设计分为两种:
第一种,对于边,权值设计为
第二种,对于边,权值设计为
其中,fp∈{u1,u2},Np表示与p相邻的像素点集合;
无向网络图中一对相邻像素点p,q之间相连的n-link边权值设计为:
Vp,q(l1,l2,d1,d2);
所述步骤e)中,根据最小割结果得到分别属于源点和汇点集合的像素点集,像素点的二维视差标签更新策略如下:
其中,S为最小割结果中的源点集,T为最小割结果中的汇点集;若fp被更新为u1,则p处纵向视差更新为l1,横向视差更新为d1。
4.根据权利要求2所述的方法,其特征是所述步骤g)中,三角测距方法如下:
用双目相机采集图像进行立体匹配时,OCL和OCR表示两个水平放置的相机,选择OCL作为原点来建立世界坐标系为xcOCLyczc;其中xc轴与成像平面坐标系的x轴平行,yc轴与成像平面坐标系的y轴平行,zc轴为左相机的光轴;
在相机标定校准准确的情况下,场景内同一点P在左右图像各自的图像坐标系内只有横坐标有差异,则点P的坐标根据其在左图成像点PL和右图成像点PR坐标值、相机的焦距f、两个相机的基线距b,由△PPLPR和△POCLOCR相似,通过三角几何关系原理得:
其中:Y=YL=YR;点左图成像点PL坐标为(XL,YL),右图成像点PR坐标为(XR,YR);
若视差d已知,将XL=XR+d代入上面公式计算得:
由此将视差d与场景内P点的三维坐标相联系,场景中P点的深度D可通过几何关系进行计算:
其中,f为相机焦距。
5.根据权利要求4所述的方法,其特征是所述步骤g)中,根据LED单点测距仪器采集到的关键点深度信息Dmes,对计算出的关键点深度信息D计算差异,得到深度信息的修正值ε,进一步修正图像内所有像素点的深度信息,公式如下:
ε=Dmes-D
Dglobal=Dcal+ε
其中,Dglobal为图像内所有像素点的修正后深度信息矩阵,Dcal为通过立体匹配算法计算出的视差进一步计算得到深度信息矩阵。
6.根据权利要求2所述的方法,其特征是所述步骤g)中,构造计算目标物理尺度的模型,相机位于A点;由相机成像原理可知,C点与E点对应的图像坐标是一致的,同理D点与F点对应的图像坐标是一致的,则对于模型中的目标高度计算方式如下:
其中,h为目标高度,H为相机架设高度,θ为架设相机与竖直方向的夹角,α为相机竖直广角,DAE为修正后的E点深度值,lMN为图像分辨率中的图像高度信息,lME为E点在图像坐标系中的纵坐标;
对于模型中的目标宽度计算方式如下:
其中,WEF为目标宽度,DAF为修正后的F点深度值,lMF为F点在图像坐标系中的纵坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447821.2A CN110288659B (zh) | 2019-05-27 | 2019-05-27 | 一种基于双目视觉的深度成像及信息获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447821.2A CN110288659B (zh) | 2019-05-27 | 2019-05-27 | 一种基于双目视觉的深度成像及信息获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110288659A true CN110288659A (zh) | 2019-09-27 |
CN110288659B CN110288659B (zh) | 2021-07-13 |
Family
ID=68002602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910447821.2A Active CN110288659B (zh) | 2019-05-27 | 2019-05-27 | 一种基于双目视觉的深度成像及信息获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110288659B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110838148A (zh) * | 2019-11-11 | 2020-02-25 | 杭州凌像科技有限公司 | 一种双目相机自标定方法 |
CN111260720A (zh) * | 2020-01-13 | 2020-06-09 | 浙江大学 | 一种基于深度学习方法的目标高度测定系统 |
CN111260713A (zh) * | 2020-02-13 | 2020-06-09 | 青岛联合创智科技有限公司 | 一种基于图像的深度计算方法 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111612731A (zh) * | 2020-04-01 | 2020-09-01 | 中国科学院上海微系统与信息技术研究所 | 基于双目显微视觉的测量方法、装置、系统及介质 |
CN113674336A (zh) * | 2021-07-27 | 2021-11-19 | 浙江大华技术股份有限公司 | 货架空置信息确定方法、计算机设备及存储装置 |
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
CN114785987A (zh) * | 2022-04-11 | 2022-07-22 | 一汽解放汽车有限公司 | 智能监控系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850850A (zh) * | 2015-04-05 | 2015-08-19 | 中国传媒大学 | 一种结合形状和颜色的双目立体视觉图像特征提取方法 |
CN105046696A (zh) * | 2015-07-06 | 2015-11-11 | 湖南优象科技有限公司 | 一种基于深度平面约束图割优化的图像匹配方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
US20170142392A1 (en) * | 2015-11-13 | 2017-05-18 | Craig Peterson | 3d system including additional 2d to 3d conversion |
CN107895386A (zh) * | 2017-11-14 | 2018-04-10 | 中国航空工业集团公司西安飞机设计研究所 | 一种多平台联合目标自主识别方法 |
CN108629812A (zh) * | 2018-04-11 | 2018-10-09 | 深圳市逗映科技有限公司 | 一种基于双目相机的测距方法 |
CN108830860A (zh) * | 2018-04-13 | 2018-11-16 | 西安电子科技大学 | 一种基于rgb-d约束的双目图像目标分割方法和装置 |
CN109523528A (zh) * | 2018-11-12 | 2019-03-26 | 西安交通大学 | 一种基于无人机双目视觉sgc算法的输电线路提取方法 |
-
2019
- 2019-05-27 CN CN201910447821.2A patent/CN110288659B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850850A (zh) * | 2015-04-05 | 2015-08-19 | 中国传媒大学 | 一种结合形状和颜色的双目立体视觉图像特征提取方法 |
CN105046696A (zh) * | 2015-07-06 | 2015-11-11 | 湖南优象科技有限公司 | 一种基于深度平面约束图割优化的图像匹配方法 |
US20170142392A1 (en) * | 2015-11-13 | 2017-05-18 | Craig Peterson | 3d system including additional 2d to 3d conversion |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN107895386A (zh) * | 2017-11-14 | 2018-04-10 | 中国航空工业集团公司西安飞机设计研究所 | 一种多平台联合目标自主识别方法 |
CN108629812A (zh) * | 2018-04-11 | 2018-10-09 | 深圳市逗映科技有限公司 | 一种基于双目相机的测距方法 |
CN108830860A (zh) * | 2018-04-13 | 2018-11-16 | 西安电子科技大学 | 一种基于rgb-d约束的双目图像目标分割方法和装置 |
CN109523528A (zh) * | 2018-11-12 | 2019-03-26 | 西安交通大学 | 一种基于无人机双目视觉sgc算法的输电线路提取方法 |
Non-Patent Citations (2)
Title |
---|
YURI BOYKOV 等: "Fast Approximate Energy Minimization via Graph Cuts", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
张令涛 等: "一种基于图割的改进立体匹配算法", 《机器人》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110838148A (zh) * | 2019-11-11 | 2020-02-25 | 杭州凌像科技有限公司 | 一种双目相机自标定方法 |
CN110838148B (zh) * | 2019-11-11 | 2023-05-05 | 杭州凌像科技有限公司 | 一种双目相机自标定方法 |
CN111260720A (zh) * | 2020-01-13 | 2020-06-09 | 浙江大学 | 一种基于深度学习方法的目标高度测定系统 |
CN111260713A (zh) * | 2020-02-13 | 2020-06-09 | 青岛联合创智科技有限公司 | 一种基于图像的深度计算方法 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111402309B (zh) * | 2020-03-05 | 2023-11-03 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111612731A (zh) * | 2020-04-01 | 2020-09-01 | 中国科学院上海微系统与信息技术研究所 | 基于双目显微视觉的测量方法、装置、系统及介质 |
CN111612731B (zh) * | 2020-04-01 | 2021-04-02 | 中国科学院上海微系统与信息技术研究所 | 基于双目显微视觉的测量方法、装置、系统及介质 |
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
CN113674336A (zh) * | 2021-07-27 | 2021-11-19 | 浙江大华技术股份有限公司 | 货架空置信息确定方法、计算机设备及存储装置 |
CN114785987A (zh) * | 2022-04-11 | 2022-07-22 | 一汽解放汽车有限公司 | 智能监控系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110288659B (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288659A (zh) | 一种基于双目视觉的深度成像及信息获取方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN106296693B (zh) | 基于3d点云fpfh特征实时三维空间定位方法 | |
CN104197928B (zh) | 多摄像机协同的无人机检测、定位及跟踪方法 | |
CN103868460B (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
CN103971404B (zh) | 一种高性价比的3d实景复制装置 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN103198524A (zh) | 一种大规模室外场景三维重建方法 | |
CN109523595A (zh) | 一种建筑工程直线棱角间距视觉测量方法 | |
CN103278138A (zh) | 一种复杂结构薄部件三维位置及姿态的测量方法 | |
WO2024114119A1 (zh) | 一种基于双目相机引导的传感器融合方法 | |
CN108805910A (zh) | 多目车载记录仪、目标检测方法、智能驾驶系统及汽车 | |
CN117036641A (zh) | 一种基于双目视觉的公路场景三维重建与缺陷检测方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
Song et al. | Combining stereo and time-of-flight images with application to automatic plant phenotyping | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN113345084B (zh) | 三维建模系统及三维建模方法 | |
CN113744315B (zh) | 一种基于双目视觉的半直接视觉里程计 | |
CN114463303B (zh) | 一种基于双目相机和激光雷达融合的道路目标检测方法 | |
CN108362205A (zh) | 基于条纹投影的空间测距方法 | |
CN109292099A (zh) | 一种无人机着陆判断方法、装置、设备及存储介质 | |
CN101765019A (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |