CN104809720B - 基于小交叉视场的两相机目标关联方法 - Google Patents

基于小交叉视场的两相机目标关联方法 Download PDF

Info

Publication number
CN104809720B
CN104809720B CN201510164303.1A CN201510164303A CN104809720B CN 104809720 B CN104809720 B CN 104809720B CN 201510164303 A CN201510164303 A CN 201510164303A CN 104809720 B CN104809720 B CN 104809720B
Authority
CN
China
Prior art keywords
camera
target
image
image sequence
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510164303.1A
Other languages
English (en)
Other versions
CN104809720A (zh
Inventor
薛松
潘泉
赵春晖
张夷斋
黄诚
席庆彪
田利民
古家德
刘流
潘利源
胡亮
吕鑫
魏妍妍
张金凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510164303.1A priority Critical patent/CN104809720B/zh
Publication of CN104809720A publication Critical patent/CN104809720A/zh
Application granted granted Critical
Publication of CN104809720B publication Critical patent/CN104809720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开了一种基于小交叉视场的两相机目标关联方法,包括以下步骤:步骤1、对相机C1和相机C2进行标定;步骤2、用相机C1和相机C2对运动目标进行图像序列获取,并对图像序列进行校正;步骤3、用混合高斯模型从校正后图像序列中分割出运动目标图像;步骤4、采用相似度计算方法将模板与源图像匹配,分别得到目标在源图像中匹配的区域,对比两匹配区域即可得到两目标为同一目标,完成目标关联。利用两相机间的小交叉视场,即在目标通过两相机视场时,有一个或者多个采样时刻的两图像序列中同时有目标的全部或者部分信息,保证两相机间的数据传递和较大的探测视场,有效解决目标丢失、突然出现、大机动变化、噪声干扰等情况下的目标跟踪问题。

Description

基于小交叉视场的两相机目标关联方法
技术领域
本发明属于光学探测技术领域,涉及一种基于小交叉视场的两相机目标关联方法。
背景技术
在多相机阵列光学探测系统中,相机间的数据关联是整个光学系统目标连续检测跟踪的核心,研究高精度、鲁棒目标关联方法是提高光学阵列探测系统目标跟踪效果的重要手段。在现有的方法中都会加入真实路况信息或者目标形状等几何相关性约束,采用连续标签的方式记录目标,有一定的应用局限性。一般情况下,多相机间目标关联是通过相机间覆盖较大重叠区域,在重叠区域进行模板匹配进行目标关联,会导致探测区域变小,系统利用率降低,计算复杂度高。
发明内容
本发明的目的是提供一种基于小交叉视场的两相机目标关联方法,以解决现有技术中存在的目标丢失、突然出现、大机动变化、噪声干扰等情况下的目标错误关联问题。
本发明所采用的技术方案是,基于小交叉视场的两相机目标关联方法,包括以下步骤:
步骤1、对相机C1和相机C2进行标定;
步骤2、用相机C1和相机C2对运动目标进行图像序列获取,并对图像序列进行校正;
步骤3、利用混合高斯模型从校正后图像序列中分割出运动目标图像序列;
步骤4、设运动目标出现在交叉视场时为t时刻,将t时刻相机C1获取的图像J1t作为源图像,再将相机C1和相机C2在t时刻的运动目标图像O1t和O2t分别作为模板,采用相似度计算方法将模板与源图像匹配,分别得到目标O1t和O2t在源图像J1t中匹配的区域,对比两匹配区域即可得到两目标O1t和O2t为同一目标,完成目标关联。
进一步的,步骤1的具体方法为:将相机C1和相机C2分别固定在万向节上,同时保证相机C1和相机C2的交叉视场分别达到各自全视场的10%~20%,再将标定板以平移或旋转的方式运动,以便获得标定板各个位姿下的图像,通过以检测标定板的角点坐标作为空间点真值,并将其重投影到成像平面进行优化标定得到相机C1和相机C2的内外参数。
进一步的,步骤2中图像序列获取的具体方法为:将相机C1和相机C2均采用10帧以上的帧速率分别拍摄移动目标,并分别获得该移动目标的两组图像序列J1和J2以及目标移出后的两组背景图序列B1和B2
进一步的,步骤2中图像序列校正的具体方法为:利用opencv自带函数对获得的图像序列J1和J2以及背景图序列B1和B2分别进行水平校正,然后得到水平校正后两相机的投影矩阵为:
通过分别对图像序列和背景序列中二维坐标点齐次化后左乘投影矩阵P1和P2,得到两相机校正后的图像序列J1'和J2'和校正后的背景图序列B1'和B2';其中,f为两个相机的焦距,x1,x2分别为相机C1和相机C2的平移向量的垂直 分量,y为两相机平移向量的水平分量,Tx为两相机间的水平偏移,c为常量。
进一步的,步骤3的具体方法为:分别从背景图序列B1'和B2'中各选取5帧图像进行训练,然后利用混合高斯模型,从校正后的图像序列J1'和J2'中分割出前景图,前景图即运动目标,再利用形态学图像处理中的开运算、消除噪声和误差、避免噪声干扰的方法得到运动目标区域,将运动目标区域以为的其他区域的像素值全部置为0,并将运动区域使用矩形切割方式,最终从图像序列J1'和J2'中分割出运动目标序列O1和O2
进一步的,步骤4中相似度计算方法为将模板和图像相乘,
即:
其中,R(x,y)表示模板与整幅图像相乘后的结果,值越大匹配越好,T(x′,y′)表示模板在(x′,y′)处的像素值,I(x+x′,y+y′)表示源图像在(x+x′,y+y′)处的像素值。
本发明的有益效果是,利用两相机间的小交叉视场,在目标通过两相机视场时,有一个或者多个采样时刻的两图像序列中同时有目标的全部或者部分信息,既保证两相机间的数据传递,又能保证较大的探测视场,可以有效解决目标丢失、突然出现、大机动变化、噪声干扰等情况下的目标跟踪问题。
附图说明
图1为本发明基于小交叉视场的两相机目标关联方法的两相机安装和成像视场示意图;
图2为本发明基于小交叉视场的两相机目标关联方法中分割出的目标O1的示意图;
图3为本发明基于小交叉视场的两相机目标关联方法的分割出的目标O2的示意图;
图4为本发明基于小交叉视场的两相机目标关联方法中以目标O1t为模板在源图像J1t中的匹配结果图;
图5为本发明基于小交叉视场的两相机目标关联方法中以目标O2t为模板在源图像J1t中的匹配结果图。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
本发明提供了一种基于小交叉视场的两相机目标关联方法,小交叉视场,即同时保证相机C1和相机C2的交叉视场分别达到各自全视场的10%~20%,具体按照以下步骤实施:
1、两相机标定:
针对小交叉视场两相机目标关联的问题,首先建立两相机图像序列采集系统,预期相机布置和成像视场如图1所示,将相机C1和相机C2分别固定在万向节上,再将标定板以平移或旋转的方式运动,以便获得标定板在各个位姿下的图像,以检测标定板的角点坐标作为空间点真值,并将其重投影到成像平面进行优化标定得到相机C1和相机C2的内外参数,为第二步的图像校正和第三步的目标分割提供必要的相机参数。
2、图像校正:
2.1图像序列获取:
保证步骤1中两相机位姿不变,将相机C1和相机C2均采用10帧以上的帧速率同时拍摄移动目标,并分别获得该移动目标的两组图像序列J1和J2以及目标移出后的两组背景图序列B1和B2
2.2图像序列校正:
对手动安装的相机,不可避免地带来不同相机间视场的变形,所以必须通过图像序列校正。利用opencv自带函数对步骤2.1中获得的图像序列J1和J2以及 背景图序列B1和B2分别进行水平校正,然后得到水平校正后两相机的投影矩阵为:
通过分别对图像序列和背景序列中二维坐标点齐次化后左乘投影矩阵P1和P2,得到两相机校正后的图像序列J1'和J2'和校正后的背景图序列B1'和B2'。其中,f为两个相机的焦距,x1,x2分别为相机C1,C2的平移向量的垂直分量,y为两相机平移向量的水平分量,Tx为两相机间的水平偏移,c为常量。
3、利用混合高斯模型分割运动目标:
分别从背景图序列B1'和B2'中各选取5帧图像进行训练,然后利用混合高斯模型,从校正后的图像序列J1'和J2'中分割出前景图,前景图即运动目标,再利用形态学图像处理中的开运算、消除噪声和误差、避免噪声干扰的方法得到运动目标区域,将运动目标区域以为的其他区域的像素值全部置为0,并将运动区域使用矩形切割方式,最终从图像序列J1'和J2'中分割出运动目标O1和O2,运动目标O1和O2分别如图2和图3所示。
混合高斯模型中,场景的每个像素的值可以建立由K个高斯模型组成的高斯混合模型,K一般来说是由内存和计算能力决定,一般来说3-5都是可以的,
其中ωi,t是第i个高斯分布在时刻t的权值,μi,t是指第i个高斯分布在时刻t的平均值,Σi,t指的是协方差,η是高斯概率密度函数,
另外,为了计算考虑,协方差被近似于
对于某一像素的新的像素值Xt,与当前已存在K个高斯分布作比对,直到配对成功。而配对成功的定义是:一个像素值在该分布的2.5倍标准差范围内。这就决定了对于每个像素、每个分布都有自己特定的阈值。如果没有任何一个分布能够与当前像素值Xt配对,则新建一个以Xt为均值,初始方差足够大的高斯分布,替代掉当前K个分布中可能性最小的。之后,K个分布在时刻t的权值用以下公式进行更新:ωk,t=(1-α)ωk,t-1+α(Mk,t)
α就是学习参数,它定义了分布权值变化的速度。Mk,t对于配对成功的分布取值为1,其它则为0。在这次更新之后,对全部K个分布的权值做归一化处理。除此之外,对于配对成功的分布,我们还必须更新它们的均值与方差,更新公式如下:
μt=(1-ρ)μt-1+ρXt
其中ρ定义为:ρ=αη(Xtkk),对于那些没有匹配成功的分布,均值和方差不作任何处理。
在新建和更新每个像素的混合高斯模型后,我们进行背景的评估,前B个分布就被选择成为背景模型,B的定义如下:
T指的是背景模型所占用的最小比例,可见,当T较小的时候,实际上近似于单一高斯模型,而T较大时每个像素都可以接受多个区间的像素值。
4、模板匹配:
模板匹配是一种用于在源图像S中寻找定位给定目标图像T(即模板图像)的技术。通过某些相似度准则来衡量两个图像块之间的相似度。如果源图像S与模板图像T大小(高和宽)一致,则直接使用相似度计算公式对这两个图像进行相似度计算。如果源图像S的大小大于模板图像T,则在S中匹配T时,需要滑动匹配窗口(即模板图像的大小),计算模板图像与该窗口对应的图像区域之间的相似度。对整张S图像滑动完后,得到多个匹配结果。这里,有两种方式获取匹配结果。一种是返回所有匹配结果中的最佳匹配结果(最小值或最大值,依相似度计算方式而定)。另一种,是设定一个阈值,大于或小于该阈值的匹配结果都认为是有效的匹配。
本发明中设运动目标出现在交叉视场时为t时刻,将t时刻相机C1获取的图像J1t作为源图像,再将相机C1和相机C2在t时刻的运动目标图像O1t和O2t分别作为模板,采用模板和图像间的相乘操作作为相似度计算方法,结果越大表示匹配程度越高。
即:
其中,R(x,y)表示模板与整幅图像相乘后的结果,值越大匹配越好,T(x′,y′)表示模板在(x′,y′)处的像素值,I(x+x′,y+y′)表示源图像在(x+x′,y+y′)处的像素值。 对t时刻运动目标图像O1t和O2t在同一幅源图像J1t中做匹配,分别得到目标O1t和O2t在源图像J1t中匹配的区域,匹配的区域分别如图4和图5所示,对比两匹配区域即可得到两目标为同一目标,完成目标关联。
一般情况下,多相机间目标关联是通过相机间覆盖较大重叠区域,在重叠区域进行模板匹配进行目标关联,会导致探测区域变小,系统利用率降低,计算复杂度高。本发明的方法中,两相机视场仅具有10%~20%交叉视场,设置该较小的交叉视场,可以扩大相机的探测范围,间接的提高相机的利用率和计算效率,通过模板匹配保证目标在两相机视场交接过程中的连续性,避免目标丢失,大机动变化以及突然出现,使得匹配结果更直观,准确消除评估方法带来的误差。

Claims (5)

1.基于小交叉视场的两相机目标关联方法,其特征在于,包括以下步骤:
步骤1、对相机C1和相机C2进行标定;
步骤2、用相机C1和相机C2对运动目标进行图像序列获取,并对图像序列进行校正;
其中,步骤1的具体方法为:将相机C1和相机C2分别固定在万向节上,同时保证相机C1和相机C2的交叉视场分别达到各自全视场的10%~20%,再将标定板以平移或旋转的方式运动,以便获得标定板各个位姿下的图像,通过以检测标定板的角点坐标作为空间点真值,并将其重投影到成像平面进行优化标定得到相机C1和相机C2的内外参数;
步骤3、利用混合高斯模型从校正后图像序列中分割出运动目标图像序列;
步骤4、设运动目标出现在交叉视场时为t时刻,将t时刻相机C1获取的图像J1t作为源图像,再将相机C1和相机C2在t时刻的运动目标图像O1t和O2t分别作为模板,采用相似度计算方法将模板与源图像匹配,分别得到目标O1t和O2t在源图像J1t中匹配的区域,对比两匹配区域即可得到两目标O1t和O2t为同一目标,完成目标关联。
2.如权利要求1所述的基于小交叉视场的两相机目标关联方法,其特征在于,所述的步骤2中图像序列获取的具体方法为:将相机C1和相机C2均采用10帧以上的帧速率分别拍摄移动目标,并分别获得该移动目标的两组图像序列J1和J2以及目标移出后的两组背景图序列B1和B2
3.如权利要求2所述的基于小交叉视场的两相机目标关联方法,其特征在于,所述的步骤2中图像序列校正的具体方法为:利用opencv自带函数对获得的图像序列J1和J2以及背景图序列B1和B2分别进行水平校正,然后得到水平校正后两相机的投影矩阵为:
P 1 = f 0 cx 1 0 0 f c y 0 0 0 1 0 - - - ( 1 ) ,
P 2 = f 0 cx 2 T x * f 0 f c y 0 0 0 1 0 - - - ( 2 ) ;
通过分别对图像序列和背景序列中二维坐标点齐次化后左乘投影矩阵P1和P2,得到两相机校正后的图像序列J1'和J2'和校正后的背景图序列B1'和B2';其中,f为两个相机的焦距,x1,x2分别为相机C1和相机C2的平移向量的垂直分量,y为两相机平移向量的水平分量,Tx为两相机间的水平偏移,c为常量。
4.如权利要求3所述的基于小交叉视场的两相机目标关联方法,其特征在于,所述的步骤3的具体方法为:分别从背景图序列B1'和B2'中各选取5帧图像进行训练,然后利用混合高斯模型,从校正后的图像序列J1'和J2'中分割出前景图,前景图即运动目标,再利用形态学图像处理中的开运算、消除噪声和误差、避免噪声干扰的方法得到运动目标区域,将运动目标区域以为的其他区域的像素值全部置为0,并将运动区域使用矩形切割方式,最终从图像序列J1'和J2'中分割出运动目标序列O1和O2
5.如权利要求4所述的基于小交叉视场的两相机目标关联方法,其特征在于,所述的步骤4中相似度计算方法为将模板和图像相乘,
即:
其中,R(x,y)表示模板与整幅图像相乘后的结果,值越大匹配越好,T(x′,y′)表示模板在(x′,y′)处的像素值,I(x+x′,y+y′)表示源图像在(x+x′,y+y′)处的像素值。
CN201510164303.1A 2015-04-08 2015-04-08 基于小交叉视场的两相机目标关联方法 Active CN104809720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510164303.1A CN104809720B (zh) 2015-04-08 2015-04-08 基于小交叉视场的两相机目标关联方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510164303.1A CN104809720B (zh) 2015-04-08 2015-04-08 基于小交叉视场的两相机目标关联方法

Publications (2)

Publication Number Publication Date
CN104809720A CN104809720A (zh) 2015-07-29
CN104809720B true CN104809720B (zh) 2017-07-14

Family

ID=53694524

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510164303.1A Active CN104809720B (zh) 2015-04-08 2015-04-08 基于小交叉视场的两相机目标关联方法

Country Status (1)

Country Link
CN (1) CN104809720B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107966147B (zh) * 2016-10-20 2021-02-05 北京自动化控制设备研究所 一种大机动情况下景象匹配的方法
JP7399099B2 (ja) 2018-03-26 2023-12-15 サイティバ・スウェーデン・アクチボラグ バイオプロセス流れシステム
CN112565690B (zh) * 2020-11-27 2022-09-30 杭州鲁尔物联科技有限公司 一种隧道收敛监测方法及装置
CN114359594B (zh) * 2022-03-17 2022-08-19 杭州觅睿科技股份有限公司 一种场景匹配方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101621634A (zh) * 2009-07-24 2010-01-06 北京工业大学 动态前景分离的大幅面视频拼接方法
CN101751679A (zh) * 2009-12-24 2010-06-23 北京中星微电子有限公司 运动目标的分类方法和检测方法及其装置
CN103914854A (zh) * 2014-03-24 2014-07-09 河海大学 一种图像序列目标关联及轨迹生成方法
CN104268851A (zh) * 2014-09-05 2015-01-07 浙江捷尚视觉科技股份有限公司 一种基于深度信息的atm自助营业厅行为分析方法
CN104391294A (zh) * 2014-11-27 2015-03-04 中国船舶重工集团公司第七二四研究所 一种基于连通域特征和模板匹配的雷达点迹关联方法
CN104463842A (zh) * 2014-10-23 2015-03-25 燕山大学 一种基于运动视觉的车祸过程重现方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8149154B2 (en) * 2009-05-19 2012-04-03 Raytheon Company System, method, and software for performing dual hysteresis target association

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101621634A (zh) * 2009-07-24 2010-01-06 北京工业大学 动态前景分离的大幅面视频拼接方法
CN101751679A (zh) * 2009-12-24 2010-06-23 北京中星微电子有限公司 运动目标的分类方法和检测方法及其装置
CN103914854A (zh) * 2014-03-24 2014-07-09 河海大学 一种图像序列目标关联及轨迹生成方法
CN104268851A (zh) * 2014-09-05 2015-01-07 浙江捷尚视觉科技股份有限公司 一种基于深度信息的atm自助营业厅行为分析方法
CN104463842A (zh) * 2014-10-23 2015-03-25 燕山大学 一种基于运动视觉的车祸过程重现方法
CN104391294A (zh) * 2014-11-27 2015-03-04 中国船舶重工集团公司第七二四研究所 一种基于连通域特征和模板匹配的雷达点迹关联方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
构造多相机全景视图实现有重叠区域的目标跟踪;邓颖娜 等;《西安理工大学学报》;20090630;第25卷(第2期);第1.1节第1段、第1.2节第3段、第4.2节第1段 *

Also Published As

Publication number Publication date
CN104809720A (zh) 2015-07-29

Similar Documents

Publication Publication Date Title
CN108986136B (zh) 一种基于语义分割的双目场景流确定方法及系统
EP3028252B1 (en) Rolling sequential bundle adjustment
CN103325112B (zh) 动态场景中运动目标快速检测方法
US11568516B2 (en) Depth-based image stitching for handling parallax
CN106548173B (zh) 一种基于分级匹配策略的改进无人机三维信息获取方法
EP3825954A1 (en) Photographing method and device and unmanned aerial vehicle
CN107274337B (zh) 一种基于改进光流的图像拼接方法
KR20170102521A (ko) 이미지 처리 방법 및 장치
CN108171715B (zh) 一种图像分割方法及装置
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN104484868B (zh) 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
CN104809720B (zh) 基于小交叉视场的两相机目标关联方法
EP2917874A1 (en) Cloud feature detection
US20150199572A1 (en) Object tracking using occluding contours
CN103514441A (zh) 基于移动平台的人脸特征点定位跟踪方法
Aeschliman et al. Tracking vehicles through shadows and occlusions in wide-area aerial video
CN113686314B (zh) 船载摄像头的单目水面目标分割及单目测距方法
CN107240120A (zh) 视频中运动目标的跟踪方法及装置
CN108596947B (zh) 一种适用于rgb-d相机的快速目标跟踪方法
Wan et al. Drone image stitching using local mesh-based bundle adjustment and shape-preserving transform
CN106780309A (zh) 一种合成孔径雷达图像拼接方法
CN104156933A (zh) 一种基于光流场的图像配准方法
CN104104911A (zh) 全景图像生成过程中的时间戳消除和重置方法及系统
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
CN109961393A (zh) 基于插值和迭代优化算法的亚像素配准与拼接技术

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant