CN105719317A - 基于相机阵列合成孔径成像的遮挡背景估计方法 - Google Patents

基于相机阵列合成孔径成像的遮挡背景估计方法 Download PDF

Info

Publication number
CN105719317A
CN105719317A CN201610043867.4A CN201610043867A CN105719317A CN 105719317 A CN105719317 A CN 105719317A CN 201610043867 A CN201610043867 A CN 201610043867A CN 105719317 A CN105719317 A CN 105719317A
Authority
CN
China
Prior art keywords
pixel
formula
camera
background
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610043867.4A
Other languages
English (en)
Other versions
CN105719317B (zh
Inventor
裴炤
张艳宁
陈希达
马苗
孙莉
张秀伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201610043867.4A priority Critical patent/CN105719317B/zh
Publication of CN105719317A publication Critical patent/CN105719317A/zh
Application granted granted Critical
Publication of CN105719317B publication Critical patent/CN105719317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于相机阵列合成孔径成像的遮挡背景估计方法,用于解决现有背景估计方法精度差的技术问题。技术方案是充分利用多视角信息,通过相机阵列合成孔径成像聚焦任意不同深度的能力,将聚焦平面移置背景平面,解决利用SIFT方法匹配时不同深度像素点对匹配结果的影响问题,最后利用Graph cuts结合像素标记方法,实现前景与遮挡像素点标记,进而去除遮挡。本发明通过相机阵列合成孔径成像聚焦任意不同深度,将聚焦平面移置背景平面;充分利用相机阵列多视角信息的优势,从不同视角的图像片段选取适当的像素值进行计算,实现了前景与遮挡像素点标记,能够去除遮挡,同时提高了背景估计的精度。

Description

基于相机阵列合成孔径成像的遮挡背景估计方法
技术领域
本发明涉及一种背景估计方法,特别是涉及一种基于相机阵列合成孔径成像的遮挡背景估计方法。
背景技术
文献“BackgroundEstimationUsingGraphCutsandInpainting,GraphicsInterfaceGI2008,p97–103,2010”公开了一种利用非时间序列的背景估计方法。该方法首先选定某一个相机视角作为参考视角,通过尺度不变的特征提取方法对各个视角获得的图像数据进行特征提取,然后依据特征提取结果,根据背景像素在各个视角中出现的频次最多这一假设,利用Graphcuts对背景像素值进行标记,获得背景估计结果。然而,该方法利用SIFT对不同视角相机拍摄结果进行特征提取,提取的特征并不能保证位于同一深度,因此将会影响该方法后续背景像素标记的精度,当提取特征位于不同深度时,该方法精度将大大降低。
发明内容
为了克服现有背景估计方法精度差的不足,本发明提供一种基于相机阵列合成孔径成像的遮挡背景估计方法。该方法充分利用多视角信息,通过相机阵列合成孔径成像聚焦任意不同深度的能力,将聚焦平面移置背景平面,解决利用SIFT方法匹配时不同深度像素点对匹配结果的影响问题,最后利用Graphcuts结合像素标记方法,实现前景与遮挡像素点标记,进而去除遮挡,提高背景估计精度。
本发明解决其技术问题所采用的技术方案是:一种基于相机阵列合成孔径成像的遮挡背景估计方法,其特点是包括以下步骤:
步骤一、定义相机Cr为具有N个相机的相机阵列的参考相机,πr为参考平面,πb表示背景深度为b的焦平面,其中b∈R.定义Wkr为相机阵列中不同视角图像投影至πr的图像。应用公式(1)求得Wkr
Wkr=Hk·gk,(1)
式中,gk表示相机Ck采集的图像序列中的一帧图像,Hk,k=1,…,N.表示从gk到参考相机Cr在平面πr上的投影矩阵。当聚焦于背景平面πb时,计算出该平面与参考相机Cr的相对深度d
d=(b-r)·b.(2)
式中,r表示参考平面πr的深度,πb表示背景深度为b的焦平面,其中b∈R.
再应用公式(3)求得深度b处视差Δp
Δp=ΔX·d.(3)
式中,ΔX表示相机间相对位置,深度范围表示为R=[0,s]。
根据以上结果并应用公式(4)求得相机Ck投影至深度b的投影图像Wkb的像素。
Wkb(m)=Wkr(m+Δp).(4)
式中,m为图像中任意像素。
步骤二、设L={1,…,k,…,N}为标签集,其中k对应相机Ck视角的投影图像。令fm为像素m的标记,其中fm∈L。将背景透视估计问题等同于标记问题并利用能量最小化来方法解决。寻找最优背景将通过计算最小代价的标记fm获得。应用公式(5)定义能量函数
E(f)=Ed+Es.(5)
式中,E(f)为能量函数,Ed为数据项,Es为平滑项。数据项包括稳定项和预测项,应用公式(6)定义数据项
Ed=∑m∈βDm(fm),(6)
其中
D m ( f m ) = D m s | ( f m ) + D m p ( f m ) . - - - ( 7 )
Dm(fm)包括用来度量像素m分配标签fm的代价。其中表示稳定项,表示预测项。
步骤三、稳定项基于色彩相似性应用公式(8)进行定义
D m s ( f m ) = Σ k = 1 N ] | W f m b ( m ) - W k b | ( m ) | . - - - ( 8 )
式中,表示相机投影至深度b的投影图像中的像素m。
判断像素m是否为稳定像素
&delta; ( m ) = { 1 i f | W k b ( m ) - W r b ( m ) | < t H &ForAll; k = 1 , ... N , k &NotEqual; r 0 o t h e r w i s e , - - - ( 9 )
式中,是用来标识稳定区域的稳定性标记,表示该区域不会被遮挡。稳定区域由背景像素组成,这些像素非常相似且在该区域多次出现。另一方面,不稳定区域对应于N幅投影图像中具有遮挡和发生巨大变化的像素。若像素m属于稳定区域,则m被设置为Wrb(m),否则m为0,表示其为不稳定像素。tH表示一个阈值。
步骤四、基于不稳定像素对预测项应用公式(10)进行定义
其中
以及
| &Theta; | = { | W ^ | i f t h e n u m b e r o f s t a b l e p i x e l s i n s i d e W ^ < 50 % | W | o t h e r w i s e . - - - ( 13 )
式中,Wγ(m)表示利用图像修补技术对像素m进行预测得到的像素值。表示用来估计预测像素值的采样像素集。表示以像素m为中心的窗口,用来检查不稳定像素,|Θ|为窗口大小。|m-m′|表示m和m′之间的距离。对于每一个像素m,当其被标记为不稳定时,则放置一个以m为中心,大小为的窗口。当稳定像素的数量小于窗口中像素数量的50%,则该窗口需被设置为|W|。预测像素值由该窗口内所有稳定像素加权平均计算得到。
步骤五、基于色彩相似性使用欧几里得范数对平滑项进行计算,应用公式(14)进行定义,
Es=∑m,n∈WWm,n(fm,fm),(14)
其中
V m , n ( f m , f m ) = | W f m ( m ) - W f n ( n ) | 2 + | W f n ( m ) - W f n ( n ) | 2 2 . - - - ( 15 )
式中,m,n是临近像素,若匹配度较高,则平滑项小;反之,平滑项大。
步骤六、使用图割方法对能量函数进行优化,最终获得一个清晰背景的透视区域。
本发明的有益效果是:该方法充分利用多视角信息,通过相机阵列合成孔径成像聚焦任意不同深度的能力,将聚焦平面移置背景平面,解决利用SIFT方法匹配时不同深度像素点对匹配结果的影响问题,最后利用Graphcuts结合像素标记方法,实现前景与遮挡像素点标记,进而去除遮挡。本发明通过相机阵列合成孔径成像聚焦任意不同深度,将聚焦平面移置背景平面;充分利用相机阵列多视角信息的优势,从不同视角的图像片段选取适当的像素值进行计算,实现了前景与遮挡像素点标记,能够去除遮挡,同时提高了背景估计的精度。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于相机阵列合成孔径成像的遮挡背景估计方法具体步骤如下:
非聚焦区域的估计方法为利用相机阵列从不同视角同时捕获的信息来重建背景,通过图像片段从不同视角选取适当的像素值。
1、投影图像至背景深度。
设N为相机阵列在某一时刻或时间间隔内采集的图像个数,定义相机Cr为参考相机,πr为参考平面。Wkr为相机阵列中不同视角图像投影至πr的图像。Wkr可应用公式(1)得到:
Wkr=Hk·gk,(1)
其中,gk表示相机Ck采集的图像序列中的一帧图像,Hk,k=1,…,N.表示从gk到参考相机Cr在平面πr上的投影矩阵。令ΔX表示相机间相对位置,深度范围表示为R=[0,s].πb表示背景深度为b的焦平面,其中b∈R.当聚焦于背景平面πb时,该平面与参考相机的相对深度d可应用公式(2)求得
d=(b-r)·b.(2)
式中,r表示参考平面πr的深度。
应用公式(3)可得深度b处的视差Δp
Δp=ΔX·d.(3)
根据以上结果并应用公式(4)将所有不同视角采集的N幅图像聚焦至背景深度b的平面Pb
Wkb(m)=Wkr(m+Δp).(4)
其中Wkb为相机Ck投影至深度b的投影图像。
2、定义能量函数
设L={1,…,k,…,N}为标签集,其中k对应相机Ck视角的投影图像。令fm为像素m的标记,其中fm∈L。可将非聚焦区域的估计问题等同于标记问题并利用能量最小化来方法解决。寻找最优背景将通过计算最小代价的标记fm获得。能量函数公式包含一个数据项和一个平滑项,并通过图割进行优化,应用公式(5)进行定义
E(f)=Ed+Es.(5)
其中
Ed=∑m∈βDm(fm),(6)
以及
式中,E(f)为能量函数,Ed为数据项,Es为平滑项。Dm(fm)包括用来度量像素m分配标签fm的代价。表示稳定项,表示预测项。
3、计算数据项中的稳定项
在变换后的图像Wkb,k=1...N中,背景像素会比其它区域像素出现次数更多,因此稳定项可利用色彩相似性进行定义,应用公式(8)计算。
D m s ( f m ) = &Sigma; k = 1 N | W f m b ( m ) - W k b ( m ) | . - - - ( 8 )
其中,表示相机投影至深度b的投影图像中的像素m。
使用公式(9)判断像素m是否为稳定像素,
式中,是用来标识稳定区域的稳定性标记,表示该区域不会被遮挡。稳定区域由背景像素组成,这些像素非常相似且在该区域多次出现。另一方面,不稳定区域对应于N幅投影图像中具有遮挡和发生巨大变化的像素。若像素m属于稳定区域,则m被设置为Wrb(m),否则m为0,表示其为不稳定像素。tH表示一个阈值,若Wrb(m)=0,将其值设置为15,若为其他情况,将其值设置为Wrb(m)×0.2。
4、计算数据项中的不稳定项
基于不稳定像素应用公式(10)对预测项进行定义:
其中
以及
| &Theta; | = { | W ^ | i f t h e n u m b e r o f s t a b l e p i x e l s i n s i d e W ^ < 50 % | W | o t h e r w i s e . - - - ( 13 )
式中,Wγ(m)表示利用图像修补技术对像素m进行预测得到的像素值。表示用来估计预测像素值的采样像素集。表示以像素m为中心的窗口,用来检查不稳定像素,|Θ|为窗口大小,其取值为100×100像素的默认窗口尺寸或选择参考图像尺寸|W|。|m-m′|表示m和m′之间的距离。对于每一个像素m,当其被标记为不稳定时,则放置一个以m为中心,大小为的窗口。当稳定像素的数量小于窗口中像素数量的50%,则该窗口需被设置为|W|。预测像素值由该窗口内所有稳定像素加权平均计算得到。
5、计算平滑项
在同一物体中,色彩相似的临近像素具有密切联系,反之亦然。因此平滑项可利用色彩相似性进行计算,使用欧几里得范数求得。应用公式(14)定义平滑项:
Es=∑m,n∈WVm,n(fm,fm),(14)
其中
V m , n ( f m , f m ) = | W f m ( m ) - W f n ( n ) | 2 + | W f n ( m ) - W f n ( n ) | 2 2 . - - - ( 15 )
式中,m,n是临近像素,若匹配度较高,则平滑项将会较小;反之,平滑项将会较大。
使用上述估计模型,可获得一个清晰的背景的透视区域。

Claims (1)

1.一种基于相机阵列合成孔径成像的遮挡背景估计方法,其特征在于包括以下步骤:
步骤一、定义相机Cr为具有N个相机的相机阵列的参考相机,πr为参考平面,πb表示背景深度为b的焦平面,其中b∈R.定义Wkr为相机阵列中不同视角图像投影至πr的图像。应用公式(1)求得Wkr
Wkr=Hk·gk,(1)
式中,gk表示相机Ck采集的图像序列中的一帧图像,Hk,k=1,…,N.表示从gk到参考相机Cr在平面πr上的投影矩阵;当聚焦于背景平面πb时,计算出该平面与参考相机Cr的相对深度d
d=(b-r)·b.(2)
式中,r表示参考平面πr的深度,πb表示背景深度为b的焦平面,其中b∈R.
再应用公式(3)求得深度b处的视差Δp
Δp=ΔX·d.(3)
式中,ΔX表示相机间相对位置,深度范围表示为R=[0,s]。
根据以上结果并应用公式(4)求得相机Ck投影至深度b的投影图像Wkb的像素;
Wkb(m)=Wkr(m+Δp).(4)
式中,m为图像中任意像素;
步骤二、设L={1,…,k,…,N}为标签集,其中k对应相机Ck视角的投影图像;令fm为像素m的标记,其中fm∈L;将背景透视估计问题等同于标记问题并利用能量最小化来方法解决;寻找最优背景将通过计算最小代价的标记fm获得;应用公式(5)定义能量函数
E(f)=Ed+Es.(5)
式中,E(f)为能量函数,Ed为数据项,Es为平滑项;数据项包括稳定项和预测项,应用公式(6)定义数据项
Ed=Σm∈βDm(fm),(6)
其中
D m ( f m ) = D m s ( f m ) + D m p ( f m ) . - - - ( 7 )
Dm(fm)包括用来度量像素m分配标签fm的代价;其中表示稳定项,表示预测项;
步骤三、稳定项基于色彩相似性应用公式(8)进行定义
D m s ( f m ) = &Sigma; k = 1 N | W f m b ( m ) - W k b ( m ) | . - - - ( 8 )
式中,表示相机投影至深度b的投影图像中的像素m;
判断像素m是否为稳定像素
&delta; ~ ( m ) = 1 i f | W k b ( m ) - W r b ( m ) | < t H &ForAll; k = 1 , ... N , k &NotEqual; r 0 o t h e r w i s e , - - - ( 9 )
式中,是用来标识稳定区域的稳定性标记,表示该区域不会被遮挡;稳定区域由背景像素组成,这些像素非常相似且在该区域多次出现;另一方面,不稳定区域对应于N幅投影图像中具有遮挡和发生巨大变化的像素;若像素m属于稳定区域,则m被设置为Wrb(m),否则m为0,表示其为不稳定像素;tH表示一个阈值;
步骤四、基于不稳定像素对预测项应用公式(10)进行定义
D m p ( f m ) = 0 i f &delta; ~ ( m ) > 0 | W f m b ( m ) - W &gamma; ( m ) | i f &delta; ~ ( m ) = 0 , - - - ( 10 )
其中
W &gamma; ( m ) = &Sigma; m &prime; &Element; S ~ W r b ( m &prime; ) &times; &delta; ~ ( m &prime; ) &times; ( 1 - | m - m &prime; | | &Theta; | ) &Sigma; m &prime; &Element; S ~ ( 1 - | m - m &prime; | | &Theta; | ) , - - - ( 11 )
以及
| &Theta; | = | W ^ | i f t h e n u m b e r o f s t a b l e p i x e l s i n s i d e W ^ < 50 % | W | o t h e r w i s e . - - - ( 13 )
式中,Wγ(m)表示利用图像修补技术对像素m进行预测得到的像素值;表示用来估计预测像素值的采样像素集;表示以像素m为中心的窗口,用来检查不稳定像素,|Θ|为窗口大小;|m-m′|表示m和m′之间的距离;对于每一个像素m,当其被标记为不稳定时,则放置一个以m为中心,大小为的窗口;当稳定像素的数量小于窗口中像素数量的50%,则该窗口需被设置为|W|;预测像素值由该窗口内所有稳定像素加权平均计算得到;
步骤五、基于色彩相似性使用欧几里得范数对平滑项进行计算,应用公式(14)进行定义,
Es=Σm,n∈WVm,n(fm,fm),(14)
其中
V m , n ( f m , f m ) = | | W f m ( m ) - W f n ( n ) | | 2 + | | W f n ( m ) - W f n ( n ) | | 2 2 . - - - ( 15 )
式中,m,n是临近像素,若匹配度较高,则平滑项小;反之,平滑项大;
步骤六、使用图割方法对能量函数进行优化,最终获得一个清晰背景的透视区域。
CN201610043867.4A 2016-01-22 2016-01-22 基于相机阵列合成孔径成像的遮挡背景估计方法 Active CN105719317B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610043867.4A CN105719317B (zh) 2016-01-22 2016-01-22 基于相机阵列合成孔径成像的遮挡背景估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610043867.4A CN105719317B (zh) 2016-01-22 2016-01-22 基于相机阵列合成孔径成像的遮挡背景估计方法

Publications (2)

Publication Number Publication Date
CN105719317A true CN105719317A (zh) 2016-06-29
CN105719317B CN105719317B (zh) 2018-08-31

Family

ID=56153764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610043867.4A Active CN105719317B (zh) 2016-01-22 2016-01-22 基于相机阵列合成孔径成像的遮挡背景估计方法

Country Status (1)

Country Link
CN (1) CN105719317B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法
WO2019201355A1 (en) * 2018-04-17 2019-10-24 Shanghaitech University Light field system occlusion removal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103440641A (zh) * 2013-07-29 2013-12-11 西北工业大学 基于最优相机选择的遮挡目标透视成像方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103440641A (zh) * 2013-07-29 2013-12-11 西北工业大学 基于最优相机选择的遮挡目标透视成像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAO PEI ET AL: "A Novel Method for Detecting Occluded Object by Multiple Camera Arrays", 《FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY (FSKD), 2012 9TH INTERNATIONAL CONFERENCE ON》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法
CN107403423B (zh) * 2017-08-02 2019-12-03 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法
CN108427961B (zh) * 2018-02-11 2020-05-29 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法
WO2019201355A1 (en) * 2018-04-17 2019-10-24 Shanghaitech University Light field system occlusion removal
CN112470189A (zh) * 2018-04-17 2021-03-09 上海科技大学 光场系统的遮挡消除
US11398019B2 (en) 2018-04-17 2022-07-26 Shanghaitech University Light field system occlusion removal
CN112470189B (zh) * 2018-04-17 2024-03-29 上海科技大学 光场系统的遮挡消除

Also Published As

Publication number Publication date
CN105719317B (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
Li et al. Stereo r-cnn based 3d object detection for autonomous driving
CN101563933B (zh) 复杂性自适应二维到三维视频序列转换
EP2915333B1 (en) Depth map generation from a monoscopic image based on combined depth cues
Guttmann et al. Semi-automatic stereo extraction from video footage
CN102006425B (zh) 一种基于多摄像机的视频实时拼接方法
CN104850850B (zh) 一种结合形状和颜色的双目立体视觉图像特征提取方法
CN104574375A (zh) 结合彩色和深度信息的图像显著性检测方法
CN107862698A (zh) 基于k均值聚类的光场前景分割方法及装置
CN104966289B (zh) 一种基于4d光场的深度估计方法
US20120183202A1 (en) Methods and Systems for 2D to 3D Conversion from a Portrait Image
CN102609950B (zh) 一种二维视频深度图的生成方法
US20130266208A1 (en) Image processing apparatus and method
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN102932605A (zh) 一种视觉感知网络中摄像机的组合选择方法
CN103942751A (zh) 一种视频关键帧提取方法
CN104598744A (zh) 一种基于光场的深度估计方法
CN103458261A (zh) 一种基于立体视觉的视频场景变化检测方法
CN101739683B (zh) 基于图分割和多线索融合的单幅图深度估计方法及其系统
CN106341676A (zh) 基于超像素的深度图像预处理和深度空洞填充方法
CN105719317A (zh) 基于相机阵列合成孔径成像的遮挡背景估计方法
CN103198475A (zh) 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
CN107909079A (zh) 一种协同显著性检测方法
CN106257537A (zh) 一种基于光场信息的空间深度提取方法
CN104036481A (zh) 一种基于深度信息提取的多聚焦图像融合方法
CN105809673A (zh) 基于surf算法和合并最大相似区域的视频前景分割方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant