CN102609983B - 一种基于图像及立体视觉的闪电三维图像重建方法 - Google Patents

一种基于图像及立体视觉的闪电三维图像重建方法 Download PDF

Info

Publication number
CN102609983B
CN102609983B CN201210019857.9A CN201210019857A CN102609983B CN 102609983 B CN102609983 B CN 102609983B CN 201210019857 A CN201210019857 A CN 201210019857A CN 102609983 B CN102609983 B CN 102609983B
Authority
CN
China
Prior art keywords
lightning
image
point
curve
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210019857.9A
Other languages
English (en)
Other versions
CN102609983A (zh
Inventor
刘陈
刘辉龙
刘德明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201210019857.9A priority Critical patent/CN102609983B/zh
Publication of CN102609983A publication Critical patent/CN102609983A/zh
Application granted granted Critical
Publication of CN102609983B publication Critical patent/CN102609983B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提出一种基于图像及立体视觉的闪电三维图像重建方法,通过对多个站点、同一时刻获得的闪电图像进行处理得到闪电的三维空间信息。该方法具体包括:通过对相距较远的复数个相机进行同一世界坐标系下的标定,得到相机的内参数矩阵和外参数矩阵;对于多个站点获取闪电图像,采用改进的K均值聚类法从图像中提取闪电部分,采用闪电灰度梯度特征进一步提取闪电轮廓;利用极线约束和闪电轮廓曲线斜率互相关进行图像匹配;利用双目立体视觉测量数学模型计算闪电匹配点的空间坐标,完成闪电图像的三维图像重建,为研究闪电的产生、发展过程提供支持。

Description

一种基于图像及立体视觉的闪电三维图像重建方法
技术领域
本发明涉及一种基于图像及立体视觉的闪电三维图像重建方法,适用于对空间中的自由曲线状物体进行空间定位并进行三维重建。
背景技术
雷电产生巨大的破坏作用,而且目前人类还无法控制和阻止它的产生。雷电灾害被联合国有关部门列为“最严重的十种自然灾害之一”。
雷电探测设备主要是利用闪电回击辐射的声、光、电磁场特性来遥测闪电回击放电参数,因此在探测技术上,雷电监测定位方法可分为声学法、光学法和电磁场法。地基和空基雷电探测的目的是确定雷电的空间发生位置及主要特征参数,为雷电定位和预测提供数据,并不能提供雷电物理基础研究所需要的雷电产生、发展过程信息。自然雷电的发生具有很大的随机性和瞬时性,只有通过加深对雷电放电时空演变特征、复杂形态的认识,才能揭示闪电放电的发生发展过程。
目前雷电定位主要采用VLF和LF进行云闪及地闪的定位,用于监测闪电发生的区域,难以获得闪电的发生、发展过程。
发明内容
本发明要解决的是提供一种一整套的基于图像及立体视觉的闪电三维图像重建方法,可通过同一时刻不同地点获得的多幅闪电图像获取闪电的三维空间信息,为研究闪电的产生、发展过程提供信息。
本发明的技术构思在于如何实现相距较远的两台或多台摄像机的完整标定方法,从背景复杂的图像中分割出闪电部分,和如何实现对这些摄像机拍摄的闪电图片的匹配,并且利用立体视觉系统计算出空间点的坐标,以实现三维立体定位。
为了达到上述发明目的,本发明提供了完整的解决方案,包括以下步骤:
S1:对两台或多台相机进行远距离的统一世界坐标系的标定,求出每台相机的内参数矩阵和每台相机相对于世界坐标系的旋转矩阵和平移矩阵;
S2:用两台或多台相机同时拍下天空中闪电的图像;
S3:去除图像中背景信息,得到闪电部分,对闪电部分的双轮廓抽取出只包含一个像素的中心曲线,作为最终的轮廓曲线;
S4:对闪电轮廓利用极线约束和斜率互相关进行图像匹配;
S5:利用双目立体视觉测量数学模型求出空间三维点的坐标。
所述相机标定包括,将靶标铅直放置于相机前方,以其中一台相机所在地建立世界坐标系,其它相机所在地放置靶标的位置建立相应的伪世界坐标系;世界坐标系和伪世界坐标系均以水平面为基准,且其X轴、Y轴、Z轴的朝向完全相同。
所述闪电轮廓抽取包括,对图像灰度用K均值聚类法将图像分割成1,2,..,n层图像,第n层为闪电的部分;同时对传统的K均值聚类法进行改进:考虑第n-1层中每个点对聚类贡献的权重,设定权重阈值,取出权重大于阈值的点;第n-1层图像中,图像矩阵(i,j)处的点的权重d(i,j)的定义如下:
d ( i , j ) = 1 I ( i , j ) - C n - 1
其中,Cn-1为第n-1层聚类中心的灰度值,I(i,j)为图像矩阵(i,j)处的灰度值。
所述闪电轮廓抽取还包括:利用差分算子计算图像的横向梯f1(i,j)和纵向梯度f2(i,j);在每一行中,对单独这一行的所有的像素的梯度值构成的离散序列求出其中梯度为极值的像素;若这一行中两个极值像素点满足下列条件:列号小的像素是极大值,列号大的像素是极小值,并且两个像素之间没有其他极值点;则这两个极值像素点之间的所有像素均为闪电点;在每一列中,对单独这一列的所有的像素的梯度构成的离散序列求出其中梯度为极值的像素;若这一列中两个极值像素点满足下列条件:行号小的像素是极大值,行号大的像素是极小值,并且两个像素之间没有其他极值点;则这两个极值像素点之间的所有像素均为闪电点;对得到的闪电部分,抽取出闪电部分的双轮廓中心曲线,得到每幅图像中用轮廓曲线序列点E(m,k)表示的点;
E(m,k)表示图像中第m条闪电分支轮廓曲线上的第k个顺序点,El(m,k)、Er(m,k)分别表示左、右图像上的点;用XE(m,k)表示这个点在像素坐标系下的横坐标,用YE(m,k)表示这个点在像素坐标系下的纵坐标,BE(m,k)表示这个点的灰度;
横向梯f1(i,j)和纵向梯f2(i,j)的计算公式如下:
f1(i,j)=I(i,j)-I(i,j-1)
f2(i,j)=I(i,j)-I(i-1,j)
其中I(i,j)为图像矩阵(i,j)位置处的像素灰度值。
所述的步骤S4还包括:
S4-1:获取极线约束方程:多台摄像机是两两分为一组,每一组中的相机分别称作左相机和右相机,左相机拍摄的图像称为左图像,右相机拍摄到的图像称为右图像;对左图像中得到的闪电的边缘曲线上的每一点利用基本矩阵F求出其在右图像上的极线方程;
记待匹配象素点dl为左图像矩阵(i,j)位置处的点在像素坐标系下的齐次坐标,dl=[j,i,1]’,记Q为这个点在右图像上对应的极线方程,则Q的表达式如下:
Q=F·dl
得到的Q是一个包含三个元素的列向量;
图像像素坐标系下,Q可表示y=ax+b的形式,记Q(i)(i=1,2,3)代表Q的第i个元素,则:
a=-Q(1)/Q(2)
b=-Q(3)/Q(2)
若极线垂直于x轴,则应把Q表示为x=c的形式:
c=-Q(3)/Q(1)
S4-2:对右图像极线约束得到候选匹配点;将左图像中待匹配闪电点Pl0表示成如权利4所描述的轮廓曲线序列点的形式,Pl0=El(m,k);在右图像中极线与闪电轮廓曲线相交得到至少一个交点,与右图像第n条闪电分支相交于点Prn,将交点表示成轮廓曲线序列点的形式Prn=Er(n,g);经过极线约束后,候选匹配点为Prn所在的曲线上以Prn为中心的总数目为h的点序列Er(n,g+i)(-(h-1)/2<i<(h-1)/2);
S4-3:获得最终匹配点:为了建立Pl0和如S4-2中所述的候选匹配点的匹配关系,将以Pl0为中心的的邻域曲线与以候选匹配点为中心的领域曲线进行相似度比较,相似度是根据斜率互相关方式计算,所有候选匹配点中邻域曲线与Pl0的邻域曲线相似度最大的点Prmax,且相似度满足阈值要求的点就是最终匹配点;左图像上的点El(p,a)的领域曲线和和右图像上的点Er(q,b)的领域曲线相似度的计算公式如下:
cc = Σ i = - ( w - 1 ) / 2 ( w - 1 ) / 2 [ I ( X E l ( p , a + i ) , YE l ( p , a + i ) ) - T ( XE r ( q , b + i ) , YE r ( q , b + i ) ) ] 2
其中I(x,y)为左图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率,I(XEl(p,a+i),YEl(p,a+i))的计算公式如下:
I(XEl(p,a+i),YEl(p,a+i))=(YEl(p,a+i)-YEl(p,a+i1))/(XEl(p,a+i)-XEl(p,a+i-1))
T(x,y)为右图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率。
本发明通过同一时刻不同地点获得的多幅闪电图像获取闪电的三维空间信息,重构闪电的三维图像,为研究闪电的产生、发展过程提供支持。
附图说明
下面结合附图和具体实施方式对本发明的技术方案作进一步具体说明。
图1是基于立体视觉的闪电三维信息采样示意图。
图2为像素坐标系和图像坐标系的说明图。
图3为闪电轮廓曲线抽取流程图。
图4为闪电点匹配示意图。
图5为闪电点匹配流程图。
具体实施方式
本发明具体实时方式包括以下步骤:
S1:对两台或多台相机进行远距离的统一世界坐标系的标定,求出每台相机的内参数矩阵和每台相机相对于世界坐标系的旋转矩阵和平移矩阵;
S2:用两台或多台相机同时拍下天空中闪电的图像;
S3:去除图像中背景信息,得到闪电部分,对闪电部分的双轮廓抽取出只包含一个像素的中心曲线,作为最终的轮廓曲线;
S4:对闪电轮廓利用极线约束和斜率互相关进行图像匹配;
S5:利用双目立体视觉测量数学模型求出空间三维点的坐标。
其中所述步骤S1包括:
S1-1:为了节约靶标的成本,在其中一台相机所在地将黑白方格的靶标铅直放置于相机前方,并且把在此靶标上建立一个三维坐标系,靶标平面的平面坐标系的两个坐标轴作为三维坐标系其中两个坐标轴,垂直于靶标平面的直线作为第三个坐标轴,然后把这个三维坐标系竖直平移到水平面上,作为公共的世界坐标系;在其他的相机所在地都建立一个伪世界坐标系,这些伪世界坐标系的位置就是稍后我们放置靶标的位置。世界坐标系和伪世界坐标系均以水平面为基准,且其X轴、Y轴、Z轴的朝向完全相同。
S1-2:测量出世界坐标系和伪世界坐标系的水平距离,测量出黑白靶标中心点在世界坐标系和各伪世界坐标系下的三维坐标。
S1-3:每一台相机拍摄数量大于或等于3的靶标的照片,拍摄的时候靶标不动,每拍一幅照片,相机移动一次,但是相机不能只作平移运动,而应该有远近和拍摄角度的变化。
S1-4:对得到的n幅图像求出其黑白相间的角点在各自图像坐标系下的坐标。
S1-5:对每一台相机而言,由S1-2中测得的靶标的黑白相间的角点的三维坐标和S1-4中得到的n幅图像中黑白相间的角点在各自图像坐标系下的坐标求出内参数矩阵,并且求出每一次相机的位置相机坐标系相对于世界坐标系下的旋转矩阵和平移矩阵,这里我们取相机最后一次位置时的旋转矩阵和平移矩阵,并且我们就此固定下相机的位置。
其中所述步骤S3包括:
S3-1:对图像作灰度阈值预处理,灰度阈值结合分割闪电图像的需要,设为120;用K均值聚类法把预处理后的图像分割成1,2,..,n层图像,第n层为闪电的部分;同时对传统的K均值聚类法进行改进:考虑第n-1层中每个点对聚类的贡献的权重,设定权重阈值,取出权重大于阈值的点。最后得到包含一部分无法去掉的背景和闪电部分的图像。第n-1层图像中,图像矩阵(i,j)处的点的权重d(i,j)的定义如下:
d ( i , j ) = 1 I ( i , j ) - C n - 1
其中,Cn-1为第n-1层聚类中心的灰度值,I(i,j)为图像矩阵(i,j)处的灰度值。
S3-2:对S3-1中得到的图像作如下处理:对权利3中所述得到的图像作如下处理:利用差分算子计算图像的横向梯f1(i,j)和纵向梯度f2(i,j)。在每一行中,单独这一行的所有的像素的梯度值构成的离散序列求出其中梯度为极值的像素,若这一行中的两个极值像素点满足下列条件:列号小的像素是极大值,列号大的像素是极小值,并且两个像素之间没有其他极值点。则这两个极值像素点之间的所有像素均为闪电点。在每一列中,单独这一列的所有的像素的梯度构成的离散序列求出其中梯度为极值的像素,若这一列中两个极值像素点满足下列条件:行号小的像素是极大值,行号大的像素是极小值,并且两个像素之间没有其他极值点。则这两个极值像素点之间的所有像素均为闪电点。记下所有满足条件的极值像素点对的位置信息,用于提取闪电部分双轮廓曲线的中心轮廓曲线。
横向梯f1(i,j)和纵向梯f2(i,j)的计算公式如下:
f1(i,j)=I(i,j)-I(i,j-1)
f2(i,j)=I(i,j)-I(i-1,j)
其中I(i,j)为图像矩阵(i,j)位置处的像素灰度值。
S3-3:建立一个轮廓曲线图像矩阵,矩阵初始时元素全为0。对S3-2中所描述的满足条件的一对极值像素点:若这对像素的行数相同,记这对像素的所在行数为i,这对像素所在的列数分别为lj,rj,则把轮廓曲线图像(i,(lj+rj)/2)处的像素赋值为255;若这对像素的列数相同,记像素段的所在列数为j,这对像素所在行数分别为ui,di,则把轮廓曲线图像矩阵中((ui+di)/2,j)处的像素赋值为255。最后,得到的轮廓曲线图像矩阵中的元素值不为0的所有点构成的曲线就是闪电部分的双轮廓曲线的中心曲线。
S3-4:将中心轮廓曲线上的点表示成轮廓曲线序列点的形式:第m条闪电分支轮廓曲线上第k个顺序点为E(m,k)。用XE(m,k)表示这个点在像素坐标系下的横坐标,用YE(m,k)表示这个点在像素坐标系下的纵坐标,像素坐标系的说明如图2所示。El(m,k)表示左图像上的点,Er(m,k)表示右图像上的点。XEl(m,k)、YEl(m,k)分别为El(m,k)在像素坐标系下的横坐标、纵坐标。XEr(m,k)、YEr(m,k)分别为Er(m,k)在像素坐标系下的横坐标、纵坐标。
其中所述步骤S4包括:
S4-1:对左相机(多台摄像机也是两两分为一组,每一组中的相机分别称作左相机和右相机,以后不再赘述)拍摄的左图像(与此相对右图像就是右相机拍摄到的图像)中得到的闪电的边缘曲线上的每一点利用基本矩阵F求出其在右图像上的极线方程。
记待匹配象素点dl为左图像矩阵(i,j)位置处的点在像素坐标系下的齐次坐标,dl=[j,i,1]’,记Q为这个点在右图像上对应的极线方程,则Q的表达式如下:
Q=F×dl
得到的Q是一个包含三个元素的列向量。
图像像素坐标系下,Q可表示y=ax+b的形式,记Q(i)(i=1,2,3)代表Q的第i个元素,则:
a=-Q(1)/Q(2)
b=-Q(3)/Q(2)
若极线垂直于x轴,则应把Q表示为x=c的形式:
c=-Q(3)/Q(1)
S4-2:对右图像极线约束得到候选匹配点。将左图像中待匹配闪电点Pl0表示成如步骤S3-4所描述的轮廓曲线序列点的形式,Pl0=El(m,k)。在右图像中极线与闪电轮廓曲线相交得到至少一个交点,与右图像第n条闪电分支相交于点Prn,将交点表示成轮廓曲线序列点的形式Prn=Er(n,g)。经过极线约束后,候选匹配点为Prn所在的曲线上以Prn为中心的总数目为h的点序列Er(n,g+i)(-(h-1)/2<i<(h-1/2)。
S4-3:最终匹配点。为了建立Pl0和如S4-2中所述的候选匹配点的匹配关系,将以Pl0为中心的的邻域曲线与以候选匹配点为中心的邻域曲线进行相似度比较,相似度是根据斜率互相关方式计算,所有候选匹配点中邻域曲线与Pl0的邻域曲线相似度最大的点Prmax就是最终匹配点。左图像上的点El(p,a)的领域曲线和右图像上的点Er(q,b)的领域曲线相似度的计算公式如下:
CC = Σ i = - ( w - 1 ) / 2 ( w - 1 ) / 2 [ I ( X E l ( p , a + i ) , YE l ( p , a + i ) ) - T ( XE r ( q , b + i ) , YEr ( q , b + i ) ) ] 2
其中I(x,y)为左图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率,I(XEl(p,a+i),YEl(p,a+i))的计算公式如下:
I(XEl(p,a+i),YEl(p,a+i))=(YEl(p,a+i)-YEl(p,a+i-1))/(XEl(p,a+i)-XEl(p,a+i-1))
T(x,y)为右图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率。
S4-1中的基本矩阵F包括由两台相机组成的立体视觉测量系统的所有参数,即两个相机内部参数Al、Ar和视觉系统的结构参数R、T,其中R、T分别是两台相机以其中一台为参考的旋转矩阵和平移矩阵。如果pl和pr为对应图像点,则满足pr’*F*pl=0,并且Qr=F*pl为对应于pl的极线,Ql=F*pr为对应于pr的极线。基本矩阵可以表示为:
F = A r - T * S * R * A l - 1
其中S为反对称矩阵,记T=[tx,ty,tz]T,则S的表达式如下:
S = [ T ] × = 0 - t z t y t z 0 - t x - t y t x 0
S4-3中提出的基于极线约束和区域匹配的匹配方法提高了匹配的精度,减小了误匹配的可能,S4-3提出的基于斜率互相关方式的特征匹配的方法是结合闪电匹配的具体情况而提出的方法,比基于其他的特征的匹配方法提高了匹配精度,有效地减少了虚假匹配。
其中所述步骤S5包括:
S5-1:对左右相机拍摄到的闪电图像的点的坐标分别用相应的相机的部分内参数从像素坐标系变换到图像坐标系。变换方法如下:
u v 1 = 1 / dX 0 u 0 0 1 / dY v 0 0 0 1 X Y 1
其中,(u,v)表示以像素为单位的图像坐标系的坐标,(X,Y)表示以mm为单位的图像坐标系的坐标,在X,Y坐标系中,原点O定义在相机光轴与图像平面的交点,该点一般位于图像中心处,但由于某些原因,也会有偏离,若O在u,v坐标系中坐标为(u0,v0),每一个像素在X轴与Y轴方向上的物理尺寸为dX,dY。
S5-2:由相机透视变换模型,用左相机的另外一部分内参数(相机有效焦距f1)列出空间三维点在左相机坐标系下的坐标[z,y,z]’变换到左相机拍摄到的闪电照片在左图像坐标系下的坐标[Xl,Yl]’的方程,记为方程①;同理对右相机列出空间三维点在右相机坐标系下的坐标[xr,yr,zr]’变换到右相机拍摄到的闪电照片在右图像坐标系下的坐标[Xr,Yr]’的方程,记为方程②。
S l X l Y l 1 = f l 0 0 0 f l 0 0 0 1 x y z
S r X r Y r 1 = f r 0 0 0 f r 0 0 0 1 x r y r z r
其中fl、fr分别为左右相机的有效焦距。
S5-3:由左右相机相对于世界坐标系的旋转矩阵和平移矩阵求出以其中一台相机为参考,这里以左相机为参考,两台相机之间的旋转矩阵和平移矩阵,记为Mlr=[R T],R,T的表达式如下:
R = R r * R l - 1
T = T r - R r * R l - 1 * T l
其中,Rl、Tl为左相机坐标系相对于世界坐标系的旋转矩阵和平移矩阵,Rr、Tr为右相机坐标系相对于世界坐标系的旋转矩阵和平移矩阵。
S5-4:如步骤S5-3所述,用Mlr列出空间三维点坐标点在左相机坐标系下的坐标[x,y,z,1]’变换到右相机坐标系的坐标[xr,yr,zr]’,记为方程③。
x r y r z r = M lr x y z z
S5-5:联立方程①、②、③,解出用闪电点用左右图像坐标系下的二维坐标和左右相机的内外参数表示的坐标,此坐标是在左相机坐标系下的三维点的坐标。
S5-6:将步骤S5-5得到的闪电点在左相机坐标系下的坐标,用左相机坐标系相对于世界坐标系的旋转矩阵和平移矩阵,求出空间三维点在世界坐标系下的空间坐标。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (3)

1.一种基于多幅图像及立体视觉的闪电三维图像重建方法,其特征在于,所述方法包括以下步骤: 
S1:复数个相机标定:靶标位置固定,改变相机相对于靶标的距离及拍摄角度,确定相机内外参数; 
S2:闪电图像获取:获取不同位置、同一时刻的多幅闪电图像; 
S3:闪电轮廓抽取:去除图像中背景信息,抽取闪电部分,对闪电部分的双轮廓抽取出其中心曲线作为最终的轮廓曲线;包括:利用差分算子计算图像的横向梯度f1(i,j)和纵向梯度f2(i,j);在每一行中,对单独这一行的所有的像素的梯度值构成的离散序列求出其中梯度为极值的像素;若这一行中两个极值像素点满足下列条件:列号小的像素是极大值,列号大的像素是极小值,并且两个像素之间没有其他极值点;则这两个极值像素点之间的所有像素均为闪电点;在每一列中,对单独这一列的所有的像素的梯度构成的离散序列求出其中梯度为极值的像素;若这一列中两个极值像素点满足下列条件:行号小的像素是极大值,行号大的像素是极小值,并且两个像素之间没有其他极值点;则这两个极值像素点之间的所有像素均为闪电点;对得到的闪电部分,抽取出闪电部分的双轮廓中心曲线,得到每幅图像中用轮廓曲线序列点E(m,k)表示的点; 
E(m,k)表示图像中第m条闪电分支轮廓曲线上的第k个顺序点,El(m,k)、Er(m,k)分别表示左、右图像上的点;用XE(m,k)表示这个点在像素坐标系下的横坐标,用YE(m,k)表示这个点在像素坐标系下的纵坐标,BE(m,k)表示这个点的灰度; 
横向梯度f1(i,j)和纵向梯度f2(i,j)的计算公式如下: 
f1(i,j)=I(i,j)-I(i,j-1) 
f2(i,j)=I(i,j)-I(i-1,j) 
其中I(i,j)为图像矩阵(i,j)位置处的像素灰度值; 
S4:闪电匹配:以其中一幅图像中的闪电点作为待匹配点在另一幅图 像中进行极线约束得到候选匹配点,然后利用闪电曲线斜率互相关进行最终匹配;包括: 
S4-1:获取极线约束方程:多台摄像机是两两分为一组,每一组中的相机分别称作左相机和右相机,左相机拍摄的图像称为左图像,右相机拍摄到的图像称为右图像;对左图像中得到的闪电的边缘曲线上的每一点利用基本矩阵F求出其在右图像上的极线方程; 
记待匹配像 素点dl为左图像矩阵(i,j)位置处的点在像素坐标系下的齐次坐标,dl=[j,i,1]’,记Q为这个点在右图像上对应的极线方程,则Q的表达式如下: 
Q=F·dl
得到的Q是一个包含三个元素的列向量; 
图像像素坐标系下,Q可表示y=ax+b的形式,记Q(i)(i=1,2,3)代表Q的第i个元素,则: 
a=-Q(1)/Q(2) 
b=-Q(3)/Q(2) 
若极线垂直于x轴,则应把Q表示为x=c的形式: 
c=-Q(3)/Q(1) 
S4-2:对右图像极线约束得到候选匹配点;将左图像中待匹配闪电点Pl0表示成轮廓曲线序列点的形式,Pl0=El(m,k);在右图像中极线与闪电轮廓曲线相交得到至少一个交点,与右图像第n条闪电分支相交于点Prn,将交点表示成轮廓曲线序列点的形式Prn=Er(n,g);经过极线约束后,候选匹配点为Prn所在的曲线上以Prn为中心的总数目为h的点序列Er(n,g+i)(-(h-1)/2<i<(h-1)/2); 
S4-3:获得最终匹配点:为了建立Pl0和如S4-2中所述的候选匹配点的匹配关系,将以Pl0为中心的邻域曲线与以候选匹配点为中心的邻 域曲线进行相似度比较,相似度是根据斜率互相关方式计算,所有候选匹配点中 邻域曲线与Pl0的邻域曲线相似度最大的点Prmax,且相似度满足阈值要求的点就是最终匹配点;左图像上的点El(p,a)的邻 域曲线和右图像上的点Er(q,b)的邻 域曲线相似度的计算公式如下: 
Figure FDA0000457843020000031
其中I(x,y)为左图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率,w为候选匹配点的数量; 
I(XEl(p,a+i),YEl(p,a+i))的计算公式如下: 
I(XEl(p,a+i),YEl(p,a+i))=(YEl(p,a+i)-YEl(p,a+i-1))/(XEl(p,a+i)-XEl(p,a+i-1)) 
T(x,y)为右图像在像素坐标系下坐标为(x,y)的点与曲线上的前一像素点相连得到的直线在像素坐标系中的斜率 ;
S5:匹配点空间定位:根据立体视觉数学模型计算出空间点在世界坐标系下的坐标,完成闪电三维重建。 
2.根据权利要求1所述的基于多幅图像及立体视觉的闪电三维图像重建方法,其特征在于,所述相机标定包括,将靶标铅直放置于相机前方,以其中一台相机所在地建立世界坐标系,其它相机所在地放置靶标的位置建立相应的伪世界坐标系;世界坐标系和伪世界坐标系均以水平面为基准,且其X轴、Y轴、Z轴的朝向完全相同。 
3.根据权利要求1或2所述的基于多幅图像及立体视觉的闪电三维图像重建方法,其特征在于,所述闪电轮廓抽取包括,对图像灰度用K均值聚类法将图像分割成1,2, …,n层图像,第n层为闪电的部分;同时对传统的K均值聚类法进行改进:考虑第n-1层中每个点对聚类贡献的权重,设定权重阈值,取出权重大于阈值的点;第n-1层图像中,图像矩阵(i,j)处的点的权重d(i,j)的定义如下: 
Figure FDA0000457843020000041
其中,Cn-1为第n-1层聚类中心的灰度值,I(i,j)为图像矩阵(i,j)处的灰度值。 
CN201210019857.9A 2012-01-20 2012-01-20 一种基于图像及立体视觉的闪电三维图像重建方法 Expired - Fee Related CN102609983B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210019857.9A CN102609983B (zh) 2012-01-20 2012-01-20 一种基于图像及立体视觉的闪电三维图像重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210019857.9A CN102609983B (zh) 2012-01-20 2012-01-20 一种基于图像及立体视觉的闪电三维图像重建方法

Publications (2)

Publication Number Publication Date
CN102609983A CN102609983A (zh) 2012-07-25
CN102609983B true CN102609983B (zh) 2014-07-09

Family

ID=46527324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210019857.9A Expired - Fee Related CN102609983B (zh) 2012-01-20 2012-01-20 一种基于图像及立体视觉的闪电三维图像重建方法

Country Status (1)

Country Link
CN (1) CN102609983B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838097A (zh) * 2021-09-29 2021-12-24 成都新潮传媒集团有限公司 摄像机镜头角度偏离检测方法、装置及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575447A (zh) * 2014-06-06 2017-04-19 塔塔咨询服务公司 构建3d结构
CN105044800B (zh) * 2015-05-29 2017-12-19 中国人民解放军理工大学 一种基于光学观测的雷电定位装置及方法
CN106296698B (zh) * 2016-08-15 2019-03-29 成都通甲优博科技有限责任公司 一种基于立体视觉的闪电三维定位方法
CN106998430B (zh) * 2017-04-28 2020-07-21 北京瑞盖科技股份有限公司 基于多相机的360度视频回放方法
CN108694713B (zh) * 2018-04-19 2022-07-05 北京控制工程研究所 一种基于立体视觉的星箭对接环局部环段识别与测量方法
CN111462244B (zh) * 2019-01-22 2024-02-06 上海欧菲智能车联科技有限公司 车载环视系统在线标定方法、系统及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830809A (ja) * 1994-07-15 1996-02-02 Sanyo Electric Co Ltd 3次元造形データ生成装置
EP0901105A1 (en) * 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
CN101383054A (zh) * 2008-10-17 2009-03-11 北京大学 一种基于图像与扫描数据的混合三维重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830809A (ja) * 1994-07-15 1996-02-02 Sanyo Electric Co Ltd 3次元造形データ生成装置
EP0901105A1 (en) * 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
CN101383054A (zh) * 2008-10-17 2009-03-11 北京大学 一种基于图像与扫描数据的混合三维重建方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838097A (zh) * 2021-09-29 2021-12-24 成都新潮传媒集团有限公司 摄像机镜头角度偏离检测方法、装置及存储介质
CN113838097B (zh) * 2021-09-29 2024-01-09 成都新潮传媒集团有限公司 摄像机镜头角度偏离检测方法、装置及存储介质

Also Published As

Publication number Publication date
CN102609983A (zh) 2012-07-25

Similar Documents

Publication Publication Date Title
CN102609983B (zh) 一种基于图像及立体视觉的闪电三维图像重建方法
CN110705448B (zh) 一种人体检测方法及装置
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
CN104504671B (zh) 一种用于立体显示的虚实融合图像生成方法
CN104036488B (zh) 一种基于双目视觉的人体姿态动作研究方法
CN106097436B (zh) 一种大场景对象的三维重建方法
CN103606151B (zh) 基于影像点云的大范围虚拟地理场景自动构建方法
CN108921926A (zh) 一种基于单张图像的端到端三维人脸重建方法
CN105608421B (zh) 一种人体动作的识别方法及装置
CN106651926A (zh) 一种基于区域配准的深度点云三维重建方法
CN107397658B (zh) 一种多尺度全卷积网络及视觉导盲方法和装置
CN104484033A (zh) 基于bim的虚拟现实展示方法和系统
CN108280858B (zh) 多视图重建中的一种线性全局相机运动参数估计方法
Wang Landscape design of coastal area based on virtual reality technology and intelligent algorithm
CN104599284A (zh) 基于多视角手机自拍图像的三维人脸重建方法
CN108537865A (zh) 一种基于视觉三维重建的古建筑模型生成方法和装置
CN106683163B (zh) 一种视频监控的成像方法及系统
CN103942820A (zh) 一种多角度仿真三维地图的方法及装置
CN105261064A (zh) 基于计算机立体视觉的三维文物重建系统及其方法
CN108961385A (zh) 一种slam构图方法及装置
CN106570900A (zh) 一种立体图像重定位方法
Mao et al. Elevation estimation-driven building 3d reconstruction from single-view remote sensing imagery
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN104463962A (zh) 基于gps信息视频的三维场景重建方法
CN110009740A (zh) 基于运动恢复结构的地质露头快速三维重建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140709

Termination date: 20150120

EXPY Termination of patent right or utility model