CN110148169B - 一种基于ptz云台相机的车辆目标三维信息获取方法 - Google Patents
一种基于ptz云台相机的车辆目标三维信息获取方法 Download PDFInfo
- Publication number
- CN110148169B CN110148169B CN201910208210.2A CN201910208210A CN110148169B CN 110148169 B CN110148169 B CN 110148169B CN 201910208210 A CN201910208210 A CN 201910208210A CN 110148169 B CN110148169 B CN 110148169B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- vehicle target
- point
- image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
Abstract
本发明公开了一种基于PTZ云台相机的车辆目标三维信息获取方法,在视频帧中通过深度学习的方法对车辆目标进行识别,获取车辆目标的三维包络基准点在图像坐标系下的坐标,根据坐标信息结合地平线的约束绘制出最贴合车辆目标的三维包络框,再利用标定结果计算出车辆目标的三维尺寸信息,完成车辆目标的三维信息获取。本发明可适应不同的道路交通场景,利用云台摄像机提取场景中大量车辆目标完成三维信息获取的过程。方法实现简单,通用性好,可以应用于各种道路场景下的三维信息获取,并且结果较为准确。
Description
技术领域
本发明属于智能交通技术领域,具体涉及一种基于PTZ云台相机的车辆目标三维信息获取方法。
背景技术
车辆三维信息主要是指车辆的整体形状、尺寸和空间位置,以及各部分的局部细节信息等,以往的获取方法主要有接触测量和图像雷达等,这些方法在技术上比较成熟,但是在检测速度、精度等方面有诸多缺陷。近年来,随着电子技术和计算机技术的迅猛发展,车辆三维信息的获取大多都是基于计算机视觉理论,识别出图像上的二维特征点进而恢复出它们的三维空间位置,并对这些信息进行描述和理解,进一步得到车辆的大小尺寸、形状等感兴趣的三维信息。要实现上述功能,目标检测和摄像机标定是必不可少的两个步骤,通过目标检测可以确定车辆在图像上的具体位置,再通过标定确定三维世界坐标和二维图像坐标之间的转换关系,就可以获取车辆的三维信息。
在计算机视觉领域,传统的目标检测方法有混合高斯背景建模法,该方法实时性较好,但是对于车辆之间相互遮挡或者车辆目标与背景颜色相似等情况时很容易造成误检测,而且不能很好地处理快速的光照变化和阴影问题。
发明内容
针对现有技术中的缺陷和不足,本发明提供了一种基于PTZ云台相机的车辆目标三维信息获取方法,克服现有车辆目标三维信息获取方法的通用性不强以及目标检测不准等缺陷。
为达到上述目的,本发明采取如下的技术方案:
本发明提供一种基于PTZ云台相机的车辆目标三维信息获取方法,该方法包括如下步骤:
步骤1,PTZ云台摄像机模型和坐标系的建立:
步骤1.1,建立世界坐标系、摄像机坐标系、图像坐标系和摄像机模型,其中将摄像机模型简化为针孔模型;
步骤1.2,将摄像机拍摄的图像中任意一点的世界坐标转换到图像坐标系中,得到世界坐标系的点与图像坐标系的点的投影关系;
步骤2,地平线的识别及标定结果的计算:
步骤2.1,将图像坐标系中多条平行直线的交点转换为钻石空间中折线组的交点;
步骤2.2,将钻石空间中折线组的交点变换到图像坐标系中,求得图像坐标系的消失点坐标;
步骤2.3,根据步骤2.2得到两个互相垂直的消失点坐标以确定地平线,并且计算标定结果;
步骤3,车辆目标的检测:
使用深度学习的方法对车辆目标进行检测,获取车辆目标三维包络基准点在图像坐标系下的坐标;
步骤4,车辆目标三维包络框的绘制及三维尺寸信息的计算:
步骤4.1,根据步骤3中的车辆目标三维包络基准点信息与步骤2.3中的地平线约束,绘制车辆目标三维包络框;
步骤4.2,根据步骤4.1中绘制的三维包络框和步骤2.3中的标定结果计算车辆目标的三维尺寸信息。
本发明还包括如下技术特征:
可选地,所述的步骤1.2中,将摄像机拍摄的图像中任意一点的世界坐标转换到图像坐标系中,得到世界坐标系的点与图像坐标系的点的投影关系,包括:
世界坐标系中的坐标:x=[x y z 1]T,图像坐标系中的坐标:p=[αu αv α]T,α≠0;其中x,y,z为世界坐标系中的坐标在x,y,z三个轴上的值,u,v为世界坐标系中的坐标在图像坐标系中对应u,v两个轴上的值,α为图像坐标系中坐标的一个分量;
从世界坐标系到图像坐标系的投影方程为:
p=KRTx
其中K,R,T分别代表内参矩阵,旋转矩阵和平移矩阵;将K,R,T代入到投影方程中可得到展开的投影模型;设图像中任意一点的世界坐标为(x,y,z),则世界坐标系的点与图像坐标系的点的投影关系为:
可选地,所述的步骤2.1中,钻石空间的方法是将无穷的图像域变换到有限的菱形域的一种方法;有限的菱形域形状似钻石,因此称之为钻石空间;将图像坐标系中多条平行直线的交点转换为钻石空间中折线组的交点,包括:
假设图像坐标系中的直线方程为:ax+by+c=0,其在钻石空间映射为折线组,映射关系如下:
其中,a,b,c为直线一般方程的三个参数,三个参数均为常数,sgn为符号函数,下标o表示为图像坐标系。
可选地,所述的步骤2.2中,将钻石空间中折线组的交点变换到图像坐标系中,求得图像坐标系的消失点坐标,包括:
用钻石空间的方法将无穷的图像域变换到有限的菱形域中,建立起图像空间和钻石空间的映射关系,d代表钻石空间y半轴长度,D代表钻石空间x半轴长度;利用钻石空间中点[x,y,w]d和图像空间中点[x,y,w]o互相转换的变换公式可以完成映射:
[x,y,w]o→[-dDw,-dx,sgn(xy)x+y+sgn(y)dw]d
[x,y,w]d→[Dy,sgn(x)dx+sgn(y)Dy-dDw,x]o
其中,w为图像坐标系中坐标的一个分量,下标o为图像坐标系,下标d为钻石空间;将钻石空间中折线组的交点根据上述的变换公式变换到图像空间中,即求得准确的消失点坐标。
可选地,所述的步骤2.3中,根据步骤2.2得到两个互相垂直的消失点坐标以确定地平线,并且计算标定结果,包括:
(1)确定地平线:
y=Kh·x+bh (5)
其中bh=v0-Kh·u0;
(2)计算标定结果:
(2-1)相机高度h已知的情况:
y轴与路面延伸方向夹角为θ,可知世界坐标系中路面延伸方向无穷远点坐标为x0=[-tanθ 1 0 0]T,垂直方向无穷远点坐标为x1=[1 tanθ 0 0]T,由消失点原理可知,(u0,v0)及(u1,v1)为x0与x1在图像空间中的投影;将坐标代入(1)、(2)式中化简可得以下结果:
令v1=v0,对上述公式进行变换,可得到f,φ及θ的表达式:
结合(6)、(7)、(8)式由两个互垂直消失点坐标可以求得f,φ,θ,由于h已知,因此完成标定过程;
(2-2)相机高度h未知的情况:
设道路虚线标识的物理长度为l,虚线端点物理纵坐标及像素坐标分别设为:yb和yf,vb和vf;道路物理宽度为w,与图像坐标系横坐标截距像素长度为δ;
由(3)式令z=0可以反算出物理坐标y的表示形式:
物理坐标y与对应像素横坐标u无关,因此对于道路任意位置与道路方向平行的虚线l,可建立等式关系:yb=yf+lcosθ;用两种方式将yf表达出来进行联立,求解出h:
其中为计算方便引入中间变量τ=(vf-v0)(vb-v0)/(vf-vb);
由上述推导可知虚线标识l可以间接表示相机高度h,结合(6)、(7)、(8)式由两个互垂直消失点坐标可以求得f,φ,θ,所有未知参数f,φ,θ及h都已求解,因此完成标定过程。
所述的步骤3中,车辆目标三维包络基准点在图像坐标系下的坐标是车辆目标左下角或者右下角在图像坐标系下的坐标;
通过深度学习的方法可以获取车辆目标在图像坐标系中的中心点坐标(x,y)、宽度w、高度h和类别信息,在此基础上可以计算出车辆目标检测出的二维框的四个角点坐标分别为P2d_0=(x-w/2,y+h/2),P2d_1=(x+w/2,y+h/2),P2d_2=(x+w/2,y-h/2),P2d_3=(x-w/2,y-h/2)。
所述步骤4.1包括如下过程:
车辆目标的三维包络框模型顶点序号为0到7,序号0即车辆目标的三维包络基准点,根据车辆目标的类型,确定车辆目标初始的物理三维尺寸length,width,height,分别设定0到7号点在世界坐标系下对应的坐标,记为:PWi=(pwxi,pwyi),i=0,1,…,7,通过步骤1中的式(1)(2)可以计算出它们在图像坐标系下对应的坐标,记为:PIj=(pixj,piyj),j=0,1,…,7。
地平线的约束如下:
y=KHj·x+BHj (11)
y=KVj·x+BVj (12)
其中BHj=v0-KHj·u0,BVj=v1-KVj·u1,j=0,1,…,7;
首先对0到7号点的图像坐标判断是否满足地平线的约束,如满足则不需要调整坐标,如不满足则需要使用(11)(12)式对坐标进行调整,将调整后的所有坐标点以车辆目标左下角为原点在视频帧图像中绘制出12条边,进而完成对车辆目标最贴合三维包络框的绘制。
所述步骤4.2包括如下过程:
车辆目标三维包络的基准点选取为车辆目标二维框在图像坐标系下的左下角点,即Ptarget=P2d_0,因此车辆目标二维框在图像坐标系下的对角线长度为由公式(3)(4)可以计算出基准点在世界坐标系下的坐标:PW0=(pwx0,pwy0,0),由地平线约束再额外再选取三维框对应的1,3,7点,对应的世界坐标为:PW1=(pwx0+width,pwy0,0),PW3=(pwx0,pwy0+length,0),PW7=(pwx0,pwy0+length,height),通过公式(1)(2)可以将这三个点的世界坐标转换为图像坐标,根据地平线的约束公式(6)(7)对图像坐标进行调整,调整后的图像坐标分别为PIx1=(pix1,piy1),PIx3=(pix3,piy3),PIx7=(pix7,piy7),由此可以计算出车辆目标三维框在图像坐标系下的对角线长度为
车辆三维信息识别等价于获取车辆三维信息X=(length,width,height),length代表车长,width代表车宽,height代表车高。构造公式:
将上述公式记为代价函数,设同一车辆目标在视频帧中出现的次数为N,表示每一组车辆目标条件下由待估计参数X表示的二维框与三维框对角线长度的归一化误差,表示求出使得公式(10)最小的待估计参数X的值。初始值X0=(length0,width0,height0)为利用车辆目标的类别根据国家标准设置的车辆的初始三维信息。
本发明与现有技术相比,有益的技术效果是:
本发明的方法实现简单,可以应用于各种道路场景下的车辆目标三维信息获取,保证道路云监控环境下的通用性,满足智能交通监控系统中准确获取交通参数的需求。使用深度学习的方法对车辆目标进行检测的方法,因为其稳定性和精度都很高,具有较为广泛的应用。
附图说明
图1为本发明提供的车辆三维信息获取方法流程图;
图2为本发明中摄像机模型的坐标系的示意图;其中,(a)为摄像机模型的世界坐标系的侧视图,(b)为摄像机模型的相机坐标系的俯视图;
图3为本发明中标定条件在坐标系下的表示示意图;其中,(a)为标定条件在世界坐标系下的表示示意图,(b)为标定条件在图像坐标系下的表示示意图;
图4为本发明中图像空间和钻石空间的映射关系图;
图5为本发明实施例所采用的交通场景原始视频图像;
图6为本发明实施例所采用的交通场景地平线示意图;
图7为本发明实施例中在原始图像中进行车辆目标检测的图像;
图8为本发明实施例在原始图像中进行车辆目标三维包络的图像;
图9为本发明车辆目标二维与三维框模型图。
具体实施方式
以下对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
本发明利用深度学习的方法对车辆目标进行识别,同时利用地平线的约束和相机标定的结果,进行车辆目标三维信息的获取。采用基于两个消失点的方法进行标定,在实际道路场景中,由两个消失点的条件确定地平线,作为获取车辆三维尺寸信息的约束,这些参数在道路环境中很容易获取,这充分保证了此方法在此场景下的通用性。
如图1至图9所示,本发明公开了一种基于PTZ云台相机的车辆目标三维信息获取方法,详细步骤如下:
步骤1,摄像机模型和坐标系的建立
步骤1.1,建立世界坐标系O-XYZ、相机坐标系O-XCYCZC、图像坐标系O-UV和摄像机模型;
摄像机模型简化为针孔模型,并且主点与图像中心重合,成像平面与光轴垂直,内参数只有焦距是未确定的,观测路面为平直的。如图2(a)和(b)所示为道路场景下摄像机空间模型的示意图。为方便后续分析,设相机焦距为f,相机原点距离地面高度为h,相机俯仰角为φ,相机偏转角(相机光轴在路平面投影与道路延伸方向的夹角)为θ,由于相机自旋角可以通过简单的图像旋转进行表示,并且对于标定结果无影响,因此不予考虑。
设所建坐标系均为右手系。建立世界坐标系,坐标系包含x,y,z轴,原点位于相机在路面的投影点,z轴垂直于地面方向向上,图2的(a)侧视图中可以看出,x轴指向纸内,用表示,y轴垂直于xoz平面,图2的(b)俯视图中可以看出,z轴指向纸外,用⊙表示;建立相机坐标系,坐标系包含xc,yc,zc,原点位于相机所处位置,xc轴与世界坐标系下的x轴平行,zc轴正向沿着相机的光轴指向地面,yc轴垂直于xcozc平面指向地面。图中的主点为r点,为zc轴延伸至与地面的交点,根据图2中的角度关系,r点在世界坐标系下的坐标为(0,hcotφ,0);建立图像坐标系,以r点为原点,水平向右为u轴,垂直向下为v轴。所述的图像坐标系为图像平面坐标系。
步骤1.2,将相机拍摄的图像中任意一点的世界坐标转换到图像坐标系中,得到世界坐标系的点与图像坐标系的点的投影关系;
世界坐标系中的坐标:x=[x y z 1]T,图像坐标系中的坐标:p=[αu αv α]T,α≠0。其中x,y,z为世界坐标系中的坐标在x,y,z三个轴上的值,u,v为世界坐标系中的坐标在图像坐标系中对应u,v两个轴上的值,α为图像坐标系中坐标的一个分量。从世界坐标系到图像坐标系的投影方程为:
p=KRTx
其中K,R,T分别代表内参矩阵,旋转矩阵和平移矩阵。
将K,R,T代入到投影方程中可得到展开的投影模型。
设图像上任意一点的世界坐标为(x,y,z),可以把空间点与图像点(世界坐标系的点与图像坐标系的点)的投影关系简化,世界坐标系的点与图像坐标系的点的投影关系为:
步骤2,地平线的识别及标定结果的计算
步骤2.1,将图像坐标系中多条平行直线的交点转换为钻石空间中折线组的交点;
本方案中,图像坐标系中的直线有几个交点,转换到钻石空间(出处:RealProjective Plane Mapping for Detection of Orthogonal Vanishing Points)中对应的也是相同数量的交点。
假设图像坐标系中的直线方程为:ax+by+c=0,其在钻石空间映射为折线组,映射关系如下:
其中,a,b,c为直线一般方程的三个参数,三个参数均为常数,sgn为符号函数,下标o表示为图像坐标系。
将图像空间中存在直线映射到钻石空间是为了将图像坐标系下的无穷直线转换到钻石空间中的有限折线,从而求取消失点。
步骤2.2,将钻石空间中折线组的交点变换到图像坐标系中,求得图像坐标系的消失点坐标;
为了求取准确的消失点坐标,采用钻石空间的方法将无穷的图像域变换到有限的菱形域中,建立起图像空间和钻石空间的映射关系。如图4所示,d代表钻石空间y半轴长度,D代表钻石空间x半轴长度,原图像域中无穷的空间被映射到了有穷的菱形区域内,图4中的虚线表示分布在图像域四个象限的无穷远点,以及不同的坐标轴在钻石空间对应的映射关系。则通过钻石空间中点[x,y,w]d和图像空间中点[x,y,w]o互相转换的变换公式可以完成映射:
[x,y,w]o→[-dDw,-dx,sgn(xy)x+y+sgn(y)dw]d
[x,y,w]d→[Dy,sgn(x)dx+sgn(y)Dy-dDw,x]o
其中,w为图像坐标系中坐标的一个分量,下标o为图像坐标系,下标d为钻石空间。
类似霍夫变换中的投票原则,图像空间中多条平行直线的交点在钻石空间中变为折线组的交点,将钻石空间中折线组的交点根据上述的变换公式变换到图像空间中,即求得准确的消失点坐标。
步骤2.3,根据步骤2.2得到两个互垂直的消失点坐标以确定地平线,并且计算标定结果。
确定地平线:如图6所示,由两个互垂直的消失点坐标(u0,v0)和(u1,v1),可求得地平线的斜率Kh,进而得到地平线的点斜式方程:
y=Kh·x+bh (5)
其中bh=v0-Kh·u0。
相机标定:
相机高度h已知的情况:将世界坐标系中路面延伸方向无穷远点坐标和垂直方向无穷远点坐标代入步骤1的式1和式2中,得到f,φ及θ的表达式,完成标定。
相机高度h未知的情况:引入道路物理线段长度l的两个端点的世界坐标的y轴坐标yb,yf,通过f,φ及θ的表达式计算出相机高度h与长度l的表达式,完成标定。
步骤3,车辆目标的检测
如图7所示,采用深度学习的方法,读取预训练的模型对视频帧中的车辆目标进行检测,获取车辆目标在图像坐标系中的中心点坐标(x,y)、宽度w、高度h和类别信息,在此基础上可以计算出车辆目标检测出的二维框的四个角点坐标分别为P2d_0=(x-w/2,y+h/2),P2d_1=(x+w/2,y+h/2),P2d_2=(x+w/2,y-h/2),P2d_3=(x-w/2,y-h/2),并且将这些信息显示在视频帧上并保存至XML文件中便于后续三维包络框的绘制。
步骤4,车辆目标最贴合三维包络框的绘制及三维尺寸信息的计算
步骤4.1,根据步骤3中的车辆目标三维包络基准点信息与步骤2.3中的地平线约束绘制车辆三维包络框;
如图9所示,车辆目标的三维包络框模型顶点序号为0到7,序号0即车辆目标的三维包络基准点。根据图7中检测出来的车辆目标的类型(Car/Truck),确定车辆目标初始的物理三维尺寸length,width,height,分别设定0到7号点在世界坐标系下对应的坐标,记为:PWi=(pwxi,pwyi),i=0,1,…,7,通过步骤1中的式(1)(2)可以计算出它们在图像坐标系下对应的坐标,记为:PIj=(pixj,piyj),j=0,1,…,7。
地平线的约束如下:
y=KHj·x+BHj (11)
y=KVj·x+BVj (12)
其中BHj=v0-KHj·u0,BVj=v1-KVj·u1,j=0,1,…,7;
首先对0到7号点的图像坐标判断是否满足地平线的约束,如满足则不需要调整坐标,如不满足则需要使用(11)(12)式对坐标进行调整,将调整后的所有坐标点以车辆目标左下角为原点在视频帧图像中绘制出12条边,进而完成对车辆目标最贴合三维包络框的绘制。
步骤4.2,根据步骤4.1中绘制的最贴合三维包络框和步骤2.3中的标定结果计算车辆目标的三维尺寸信息;
如图9所示,为车辆目标二维与三维框模型图,车辆目标三维包络的基准点选取为车辆目标二维框在图像坐标系下的左下角点,即Ptarget=P2d_0,因此车辆目标二维框在图像坐标系下的对角线长度为 由公式(3)(4)可以计算出基准点在世界坐标系下的坐标:PW0=(pwx0,pwy0,0),由地平线约束再额外再选取三维框对应的1,3,7点,对应的世界坐标为:PW1=(pwx0+width,pwy0,0),PW3=(pwx0,pwy0+length,0),PW7=(pwx0,pwy0+length,height),通过公式(1)(2)可以将这三个点的世界坐标转换为图像坐标,根据地平线的约束公式(6)(7)对图像坐标进行调整,调整后的图像坐标分别为PIx1=(pix1,piy1),PIx3=(pix3,piy3),PIx7=(pix7,piy7),由此可以计算出车辆目标三维框在图像坐标系下的对角线长度为
车辆三维信息识别等价于获取车辆三维信息X=(length,width,height),length代表车长,width代表车宽,height代表车高。构造公式:
将上述公式记为代价函数,设同一车辆目标在视频帧中出现的次数为N,表示每一组车辆目标条件下由待估计参数X表示的二维框与三维框对角线长度的归一化误差,表示求出使得公式(10)最小的待估计参数X的值。初始值X0=(length0,width0,height0)为利用车辆目标的类别根据国家标准设置的车辆的初始三维信息。
为了验证本发明所提出方法的有效性,本发明的一个实施例采用了以图5所示的实际道路交通场景图像,在此实际交通场景中识别出两个互垂直的消失点、地平线,如图6所示,并且对摄像机进行了标定。在此基础上,通过深度学习的方法对车辆目标进行检测,获取车辆目标的三维包络基准点在图像坐标系中的坐标,如图7所示,结合地平线的约束和标定结果绘制出车辆目标的最贴合三维包络框,进而计算出车辆目标的三维尺寸信息。
实验结果表明,通过本方法识别出的地平线和车辆目标,结合标定条件,能够完成车辆目标三维信息获取。获取的三维信息如表1所示。实验结果说明本方法完全能够满足道路交通场景下车辆目标三维信息获取的精度要求,该实验在一定程度上证明了本发明所提出方法的有效性。
表1基于互垂直消失点检测地平线和车辆目标的车辆目标三维信息获取结果
Claims (8)
1.一种基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,该方法包括如下步骤:
步骤1,PTZ云台摄像机模型和坐标系的建立:
步骤1.1,建立世界坐标系、摄像机坐标系、图像坐标系和摄像机模型,其中将摄像机模型简化为针孔模型;
步骤1.2,将摄像机拍摄的图像中任意一点的世界坐标转换到图像坐标系中,得到世界坐标系的点与图像坐标系的点的投影关系;
步骤2,地平线的识别及标定结果的计算:
步骤2.1,将图像坐标系中多条平行直线的交点转换为钻石空间中折线组的交点;
步骤2.2,将钻石空间中折线组的交点变换到图像坐标系中,求得图像坐标系的消失点坐标;
步骤2.3,根据步骤2.2得到两个互相垂直的消失点坐标以确定地平线,并且计算标定结果;
步骤3,车辆目标的检测:
使用深度学习的方法对车辆目标进行检测,获取车辆目标三维包络基准点在图像坐标系下的坐标;
步骤4,车辆目标三维包络框的绘制及三维尺寸信息的计算:
步骤4.1,根据步骤3中的车辆目标三维包络基准点信息与步骤2.3中的地平线约束,绘制车辆目标三维包络框;
步骤4.2,根据步骤4.1中绘制的三维包络框和步骤2.3中的标定结果计算车辆目标的三维尺寸信息。
2.如权利要求1所述的基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,所述的步骤1.2中,将摄像机拍摄的图像中任意一点的世界坐标转换到图像坐标系中,得到世界坐标系的点与图像坐标系的点的投影关系,包括:
世界坐标系中的坐标:x=[x y z 1]T,图像坐标系中的坐标:p=[αu αv α]T,α≠0;其中x,y,z为世界坐标系中的坐标在x,y,z三个轴上的值,u,v为世界坐标系中的坐标在图像坐标系中对应u,v两个轴上的值,α为图像坐标系中坐标的一个分量;
从世界坐标系到图像坐标系的投影方程为:
p=KRTx
其中K,R,T分别代表内参矩阵,旋转矩阵和平移矩阵;将K,R,T代入到投影方程中可得到展开的投影模型;设图像中任意一点的世界坐标为(x,y,z),则世界坐标系的点与图像坐标系的点的投影关系为:
4.如权利要求1所述的基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,所述的步骤2.2中,将钻石空间中折线组的交点变换到图像坐标系中,求得图像坐标系的消失点坐标,包括:
用钻石空间的方法将无穷的图像域变换到有限的菱形域中,建立起图像空间和钻石空间的映射关系,d代表钻石空间y半轴长度,D代表钻石空间x半轴长度;利用钻石空间中点[x,y,w]d和图像空间中点[x,y,w]o互相转换的变换公式可以完成映射:
[x,y,w]o→[-dDw,-dx,sgn(xy)x+y+sgn(y)dw]d
[x,y,w]d→[Dy,sgn(x)dx+sgn(y)Dy-dDw,x]o
其中,w为图像坐标系中坐标的一个分量,下标o为图像坐标系,下标d为钻石空间;将钻石空间中折线组的交点根据上述的变换公式变换到图像空间中,即求得准确的消失点坐标。
5.如权利要求1所述的基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,所述的步骤2.3中,根据步骤2.2得到两个互相垂直的消失点坐标以确定地平线,并且计算标定结果,包括:
(1)确定地平线:
y=Kh·x+bh (5)
其中bh=v0-Kh·u0;
(2)计算标定结果:
(2-1)相机高度h已知的情况:
y轴与路面延伸方向夹角为θ,可知世界坐标系中路面延伸方向无穷远点坐标为x0=[-tanθ 1 0 0]T,垂直方向无穷远点坐标为x1=[1 tanθ 0 0]T,由消失点原理可知,(u0,v0)及(u1,v1)为x0与x1在图像空间中的投影;将坐标代入(1)、(2)式中化简可得以下结果:
令v1=v0,对上述公式进行变换,可得到f,φ及θ的表达式:
结合(6)、(7)、(8)式由两个互垂直消失点坐标可以求得f,φ,θ,由于h已知,因此完成标定过程;
(2-2)相机高度h未知的情况:
设道路虚线标识的物理长度为l,虚线端点物理纵坐标及像素坐标分别设为:yb和yf,vb和vf;道路物理宽度为w,与图像坐标系横坐标截距像素长度为δ;
由(3)式令z=0可以反算出物理坐标y的表示形式:
物理坐标y与对应像素横坐标u无关,因此对于道路任意位置与道路方向平行的虚线l,可建立等式关系:yb=yf+lcosθ;用两种方式将yf表达出来进行联立,求解出h:
其中为计算方便引入中间变量τ=(vf-v0)(vb-v0)/(vf-vb);
由上述推导可知虚线标识l可以间接表示相机高度h,结合(6)、(7)、(8)式由两个互垂直消失点坐标可以求得f,φ,θ,所有未知参数f,φ,θ及h都已求解,因此完成标定过程。
7.如权利要求2所述的基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,所述步骤4.1包括如下过程:
车辆目标的三维包络框模型顶点序号为0到7,序号0即车辆目标的三维包络基准点,根据车辆目标的类型,确定车辆目标初始的物理三维尺寸length,width,height,分别设定0到7号点在世界坐标系下对应的坐标,记为:PWi=(pwxi,pwyi),i=0,1,…,7,通过步骤1中的式(1)(2)可以计算出它们在图像坐标系下对应的坐标,记为:PIj=(pixj,piyj),j=0,1,…,7;
地平线的约束如下:
y=KHj·x+BHj (11)
y=KVj·x+BVj (12)
其中BHj=v0-KHj·u0,BVj=v1-KVj·u1,j=0,1,…,7;
首先对0到7号点的图像坐标判断是否满足地平线的约束,如满足则不需要调整坐标,如不满足则需要使用(11)(12)式对坐标进行调整,将调整后的所有坐标点以车辆三维包络基准点为原点在视频帧图像中绘制出12条边,进而完成对车辆目标最贴合三维包络框的绘制。
8.如权利要求7所述的基于PTZ云台相机的车辆目标三维信息获取方法,其特征在于,所述步骤4.2包括如下过程:
车辆目标三维包络的基准点选取为车辆目标二维框在图像坐标系下的左下角点,即Ptarget=P2d_0,因此车辆目标二维框在图像坐标系下的对角线长度为由公式(3)(4)可以计算出基准点在世界坐标系下的坐标:PW0=(pwx0,pwy0,0),由地平线约束再额外再选取三维框对应的1,3,7点,对应的世界坐标为:PW1=(pwx0+width,pwy0,0),PW3=(pwx0,pwy0+length,0),PW7=(pwx0,pwy0+length,height),通过公式(1)(2)可以将这三个点的世界坐标转换为图像坐标,根据地平线的约束公式(6)(7)对图像坐标进行调整,调整后的图像坐标分别为PIx1=(pix1,piy1),PIx3=(pix3,piy3),Pix7=(pix7,piy7),由此可以计算出车辆目标三维框在图像坐标系下的对角线长度为
车辆三维信息识别等价于获取车辆三维信息X=(length,width,height),length代表车长,width代表车宽,height代表车高;构造公式:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910208210.2A CN110148169B (zh) | 2019-03-19 | 2019-03-19 | 一种基于ptz云台相机的车辆目标三维信息获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910208210.2A CN110148169B (zh) | 2019-03-19 | 2019-03-19 | 一种基于ptz云台相机的车辆目标三维信息获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110148169A CN110148169A (zh) | 2019-08-20 |
CN110148169B true CN110148169B (zh) | 2022-09-27 |
Family
ID=67589437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910208210.2A Active CN110148169B (zh) | 2019-03-19 | 2019-03-19 | 一种基于ptz云台相机的车辆目标三维信息获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110148169B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555407B (zh) * | 2019-09-02 | 2022-03-08 | 东风汽车有限公司 | 路面车辆空间识别方法及电子设备 |
CN110706288A (zh) * | 2019-10-10 | 2020-01-17 | 上海眼控科技股份有限公司 | 目标检测的方法、装置、设备及可读存储介质 |
CN110991232B (zh) * | 2019-10-28 | 2024-02-13 | 纵目科技(上海)股份有限公司 | 一种车辆位置修正方法及系统、存储介质及终端 |
CN111008557A (zh) * | 2019-10-30 | 2020-04-14 | 长安大学 | 一种基于几何约束的车辆细粒度识别方法 |
CN110930365B (zh) * | 2019-10-30 | 2023-11-03 | 长安大学 | 一种交通场景下的正交消失点检测方法 |
CN111340873B (zh) * | 2020-02-28 | 2023-05-23 | 广东工业大学 | 一种多视角图像的物体最小外包络尺寸测算方法 |
CN113168716A (zh) * | 2020-03-19 | 2021-07-23 | 深圳市大疆创新科技有限公司 | 对象解算、绕点飞行方法及设备 |
CN111476798B (zh) * | 2020-03-20 | 2023-05-16 | 上海遨遥人工智能科技有限公司 | 一种基于轮廓约束的车辆空间形态识别方法及系统 |
CN113470110A (zh) * | 2020-03-30 | 2021-10-01 | 北京四维图新科技股份有限公司 | 测距方法和装置 |
CN113591518B (zh) * | 2020-04-30 | 2023-11-03 | 华为技术有限公司 | 一种图像的处理方法、网络的训练方法以及相关设备 |
CN111627048B (zh) * | 2020-05-19 | 2022-07-01 | 浙江大学 | 多摄像机的协同目标搜索方法 |
CN112097732A (zh) * | 2020-08-04 | 2020-12-18 | 北京中科慧眼科技有限公司 | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 |
CN114333199B (zh) * | 2020-09-30 | 2024-03-26 | 中国电子科技集团公司第五十四研究所 | 一种报警方法、设备及系统、芯片 |
CN112738457A (zh) * | 2020-12-03 | 2021-04-30 | 桂林长海发展有限责任公司 | 一种目标探测方法、装置及存储介质 |
CN113487677B (zh) * | 2021-06-07 | 2024-04-12 | 电子科技大学长三角研究院(衢州) | 一种基于任意分布式配置的多ptz相机的室外中远距场景标定方法 |
CN113470118B (zh) * | 2021-07-15 | 2023-12-05 | 中国人民解放军火箭军工程大学 | 一种基于三目视觉的目标尺寸估计系统 |
CN115100290B (zh) * | 2022-06-20 | 2023-03-21 | 苏州天准软件有限公司 | 交通场景下的单目视觉定位方法及装置、设备、存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009076182A1 (en) * | 2007-12-13 | 2009-06-18 | Clemson University | Vision based real time traffic monitoring |
CN101727671A (zh) * | 2009-12-01 | 2010-06-09 | 湖南大学 | 基于路面共线三点及其平行线的单摄像机标定方法 |
CN103578115A (zh) * | 2012-07-31 | 2014-02-12 | 电装It研究所 | 移动体识别系统以及移动体识别方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
-
2019
- 2019-03-19 CN CN201910208210.2A patent/CN110148169B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009076182A1 (en) * | 2007-12-13 | 2009-06-18 | Clemson University | Vision based real time traffic monitoring |
CN101727671A (zh) * | 2009-12-01 | 2010-06-09 | 湖南大学 | 基于路面共线三点及其平行线的单摄像机标定方法 |
CN103578115A (zh) * | 2012-07-31 | 2014-02-12 | 电装It研究所 | 移动体识别系统以及移动体识别方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
Non-Patent Citations (2)
Title |
---|
基于单目序列图像的车辆三维信息的获取;徐晓娟等;《电子设计工程》;20150305(第05期);全文 * |
基于机器视觉的车辆距离测量系统设计;唐玲等;《实验室研究与探索》;20160315(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110148169A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110148169B (zh) | 一种基于ptz云台相机的车辆目标三维信息获取方法 | |
CN111311689B (zh) | 一种激光雷达与相机相对外参的标定方法及系统 | |
CN109685855B (zh) | 一种道路云监控平台下的摄像机标定优化方法 | |
CN110842940A (zh) | 一种建筑测量机器人多传感器融合三维建模方法及系统 | |
CN112037159B (zh) | 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 | |
CN110031829B (zh) | 一种基于单目视觉的目标精准测距方法 | |
CN112902874B (zh) | 图像采集装置及方法、图像处理方法及装置、图像处理系统 | |
CN110779491A (zh) | 一种水平面上目标测距的方法、装置、设备及存储介质 | |
CN111932627B (zh) | 一种标识物绘制方法及系统 | |
CN108362205A (zh) | 基于条纹投影的空间测距方法 | |
CN112489106A (zh) | 基于视频的车辆尺寸测量方法、装置、终端及存储介质 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
CN110930365B (zh) | 一种交通场景下的正交消失点检测方法 | |
CN112446915A (zh) | 一种基于图像组的建图方法及装置 | |
CN107941241B (zh) | 一种用于航空摄影测量质量评价的分辨率板及其使用方法 | |
CN111476798B (zh) | 一种基于轮廓约束的车辆空间形态识别方法及系统 | |
CN114119682A (zh) | 一种激光点云和图像配准方法及配准系统 | |
CN111382591A (zh) | 一种双目相机测距校正方法及车载设备 | |
CN111380503B (zh) | 一种采用激光辅助标定的单目相机测距方法 | |
CN111008557A (zh) | 一种基于几何约束的车辆细粒度识别方法 | |
CN113129363A (zh) | 一种基于特征物体和透视变换的图像距离信息提取方法 | |
CN111968182A (zh) | 一种双目相机非线性模型参数的标定方法 | |
CN112330740A (zh) | 一种基于单目视频的伪双目动态测距方法 | |
CN117152361B (zh) | 一种基于注意力机制的遥感影像能见度估计方法 | |
Geng et al. | Detection algorithm of video image distance based on rectangular pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221121 Address after: 710043 Room 20502, Floor 5, Building 2, No. 18, Changying North Road, Xincheng District, Xi'an, Shaanxi Patentee after: Xi'an Aoxiang Electromechanical Technology Co.,Ltd. Address before: 710064 No. 126 central section of South Ring Road, Yanta District, Xi'an, Shaanxi Patentee before: CHANG'AN University |
|
TR01 | Transfer of patent right |