JP4722923B2 - コンピュータビジョンによりシーンをモデル化する方法 - Google Patents

コンピュータビジョンによりシーンをモデル化する方法 Download PDF

Info

Publication number
JP4722923B2
JP4722923B2 JP2007524102A JP2007524102A JP4722923B2 JP 4722923 B2 JP4722923 B2 JP 4722923B2 JP 2007524102 A JP2007524102 A JP 2007524102A JP 2007524102 A JP2007524102 A JP 2007524102A JP 4722923 B2 JP4722923 B2 JP 4722923B2
Authority
JP
Japan
Prior art keywords
shadow
pixel
background
model
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007524102A
Other languages
English (en)
Other versions
JP2008544334A (ja
Inventor
ポリクリ、ファティー・エム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008544334A publication Critical patent/JP2008544334A/ja
Application granted granted Critical
Publication of JP4722923B2 publication Critical patent/JP4722923B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Description

本発明は、包括的にはコンピュータビジョンに関し、特にキャストシャドウのモデル化及びキャストシャドウの除去に関する。
陰影は多くのコンピュータビジョンアプリケーションにおいて難しい問題を提起する。画像中の陰影は、シーンの背景における光源から遮られた領域に対応する。陰影は物体の形状及び色を歪め、物体の検出及び追跡を難しくする。2つのタイプの陰影が定義される。影は光源に対して物体の背後にあり、陰は物体そのものの遮蔽によるものである。
したがって、物体が落とす影は除去されなければならないが、物体そのものの照明されない部分である陰は、完全な物体の輪郭が得られるように保持されるべきである。
画像中に陰影が存在することを示す手掛かりはいくつかある。例えば、陰影領域内の画素のルミナンスは基準となる背景と比べて低下する。陰影領域は、一般的な観察条件においてその下にある表面のテクスチャを保持する。したがって、強度の低下率は近傍画素間で滑らかに変化する。
さらに、ほとんどの陰影領域には強いエッジがない(H.T. Chen、H.H. Lin、T.L. Liu著「動的なグラフマッチングを用いた複数物体の追跡(Multi-object tracking using dynamical graph matching)」(CVPR, 2001))。空間的に、移動するキャストシャドウ領域は物体に隣接するはずである。
ほとんどの従来技術の陰影除去方法は、陰影画素のクロミナンスは背景と同じであるがルミナンスは低下するという仮定に基づく。一方法は、差分のルミナンスの歪み及びクロミナンスの量に応じて画素を4つのカテゴリーのうちの1つに分類する(T. Horprasert、D. Harwood、及びL. Davis著「リアルタイムでロバストな背景差分及び陰影検出のための統計的手法(A statistical approach for real-time robust background subtraction and shadow detection)」(Proc. of IEEE ICCV Frame-rate Workshop, 1999))。同様の方法は、フォンシェーディングに基づくカラーモデルを組み込むことによって上記基準を検証する(J. Stauder、R. Mech、及びJ. Ostermann著「物体の分割のための移動するキャストシャドウの検出(Detection of moving cast shadows for object segmentation)」(IEEE Transactions on Multimedia, vol. 1, 1999))。別の方法は、統計モデルに従って画素を分類する(I. Mikic、P. Cosman、G. Kogut、及びM. Trivedi著「交通シーンにおける移動する陰影及び物体の検出(Moving shadow and object detection in traffic scenes)」(ICPR, vol. 1, pp. 321-324, 2000))。
変化する照明下での色の変化がフォン・クリース(von Kries)則により説明されている。各カラーチャネルはほぼ単一の全体的な乗算係数で乗算される。
いくつかの方法は、背景に落ちる影の色相は大きく変化しないため、色空間をマッピングし直す(R. Cucchiara、C. Grana、M. Piccardi、及びA. Prati著「色情報及び動き情報を利用することによるビデオストリームにおける物体、陰影及びゴーストの検出(Detecting objects, shadows and ghosts in video streams by exploiting color and motion information)」(Proc. of IEEE CIAP, 2001))。
別の方法は、3つの帯域から成るカラー画像から不変画像を回復する(G.D. Finlayson、M. Drew、及びC. Lu著「エントロピー最小化による固有画像(Intrinsic images by entropy minimization)」(ECCV, 2004))。この方法は、ランバート反射率、ほぼプランクの照明、及び十分に狭帯域のカメラセンサの仮定に基づいて固有反射率画像を求める。
同様の方法もまた照明不変画像を利用する(H. Jiang、M. Drew著「ビデオにおける陰影に強い追跡(Shadow resistant tracking in video)」(ICME, 2003))。照明がほぼプランクである場合、照明色が変化するにつれて、いずれか1つの表面の(R/G)値及び(B/G)値の対数−対数プロットが直線を形成する。したがって、照明の変化は線形変換となる。ほぼ不変な照明空間を最初に用いて色空間を変換する。この色空間は、等エネルギー白色照明下のマット表面の場合に限るが、陰影及び強度の変化に対してほぼ不変である(T. Gevers及びA.W. Smeulders著「色に基づく物体認識(Color-based object recognition)」(Patt. Rec., vol. 32, pp. 453-464, 1999))。
他の方法は画像分割を行う。例えば、潜在的な陰影領域を小領域に分割することができる(O. Javed及びM. Shah著「自動監視のための追跡及び物体分類(Tracking and object classification for automated surveillance)」(ECCV, 2002))。各陰影候補部分及びそれぞれの背景に関して、勾配を相関させる。相関が閾値よりも高い場合、その候補部分はキャストシャドウであると見なされ、そのキャストシャドウは前景領域から除去される。
明らかに、1つの欠点は、全ての画像が、直接照明された画素及び陰影になった画素の両方に対応する統計的に有意な量の物体表面を含むわけではないことである。さらに、アンブラ(umbra:暗影部)領域の照明色が太陽光と常に同じであるとは限らない。
一方法は、明るさの尺度を用いて陰影を除去する(I. Sato及びK. Ikeuchi著「陰影中の明るさに基づく照明分布(Illumination distribution from brightness in shadows)」(ICCV (2), pp. 875-882, 1999))。この画像は、密度の同じいくつかの領域に分割される。陰影領域は、明るさ及び色に基づいて判定される。この方法は、最大値フィルタ及び最小値フィルタの後に平滑化演算子を適用して画像の大域的な明るさを得ることによって拡張することができる。この大域的な明るさから、陰影密度を求めることができる(M. Baba及びN. Asada著「実写画像からの陰影除去(Shadow removal from a real picture)」(SIGGRAPH Conference on Sketches and Applications, 2003))。
別の方法は画像を2段階で分割する(E. Salvador、A. Cavallaro、及びT. Ebrahimi著「不変カラーモデルを用いた陰影の識別及び分類(Shadow identification and classification using invariant color models)」(ICASSP, 2001))。第1段階は、フレームシーケンスの各フレームにおいて移動するキャストシャドウを抽出する。第2段階は、抽出した影を後続フレームにおいて追跡する。明らかに、分割に基づく手法は本質的に、分割の不正確さにより劣化する。
幾何学的方法は、陰影が楕円形状であると仮定する。背景中の対応画素より低い強度を有する陰影の楕円内にある前景画素はいずれも、閾値により、陰影画素として分類される(T. Zhao、R. Nevatia著「複雑な状況における複数人物の追跡(Tracking multiple humans in complex situations)」(PAMI, vol. 26, no. 9, 2004))。
残念ながら、上記の方法の仮定は概して正当化が難しい。ルミナンスベースの基準に基づく検出は、前景物体の画素が背景よりも暗く、基準となる背景に対して均一な利得を有する場合に機能しない。色空間の変換は、背景色が灰色である場合に不十分である。幾何学的な陰影モデルは視点及び物体形状に大きく依存する。いくつかの事前に定義されたパラメータを用いて様々な条件にわたって正確に陰影を除去することは不可能である。上記の方法のもう1つの限界は、異なるタイプの陰影(例えば弱い周囲光源による薄い陰影、または強いスポットライトによる濃い陰影)に適応しないことである。
一つの観測として、キャストシャドウは色の「大きな」変化をもたらす。言い換えれば、物体による画素の色の変化は、物体が様々な色を有し得るため、キャストシャドウによる色の変化と比べて高い分散を有する。画素に関して、キャストシャドウは同一の背景色の変化を生じる。しかし、物体色が異なれば物体の動きにより生じる色の変化は異なり、物体色は異なるのが普通である。
方法は、物体領域に対する陰影領域の統計的割合を利用することによりビデオ中のキャストシャドウをモデル化する。陰影は、多変量ガウス分布を用いてモデル化される。
弱分類器が後の処理のための前置フィルタとして適用される。陰影モデルが量子化された色空間上に射影され、陰影フロー関数が更新される。陰影領域と物体領域とを区別するために陰影フロー、背景モデル、及び現フレームが用いられる。
利点として、本方法は、陰影を推定するために色空間の変換を必要としない。この問題は、RGB色空間、及び空間を張るために直交軸が用いられる他のデカルト空間(すなわちCMY、YUV等)において解かれる。したがって、他の計算コストの高い射影変換を適用する必要はない。
本方法はまた、データ駆動型であり、変化する陰影条件に自動的に適応する。
本方法の精度は、事前に設定された閾値により制限されない。さらに、本モデルは、物体の3Dモデルまたはフレームシーケンスにおけるキャストシャドウの追跡を前提としない。
方法は、シーンに関して取得された監視ビデオ等のビデオからキャストシャドウを含むシーンをモデル化する。本方法は、多変量ガウス分布を用いてシーン中の背景及び陰影を経時的にモデル化することによりキャストシャドウの特性をビデオから自動的に学習する適応的な陰影フロー方法であり、データ駆動型となっている。
本発明はまた、モデルを更新する方法を提供する。本方法はいくつかの利点を有する。本方法は、色空間の変換を必要としない。本発明では、RGB色空間で問題を提起し、直交軸により張られる他のデカルト色空間(CMYK、YUV、YCbCr等)でも同じ解析を行うことができる。
このデータ駆動型の方法は、変化する陰影条件に陰影モデルを動的に適応させる。言い換えれば、本発明の方法の精度は、従来技術の方法の主な欠点である事前に設定された閾値による制限を受けない。本方法の精度は、ビデオの処理されるフレームの数が多くなるほど高まる。さらに、本モデルは、シーン中の物体の3Dモデルまたはフレームシーケンスにおけるキャストシャドウの追跡を前提としない。
図1は、本発明の一実施の形態によるキャストシャドウをモデル化する方法100を示す。モデルは、キャストシャドウを検出及び除去するために用いることができる。本発明の別の実施の形態では、物体領域も推定される。
カメラ102によりシーン103に関してビデオ101を取得する。一組の背景モデル201、背景陰影マップ202、及び一組の陰影モデル203を、より詳細に後述するように、そのシーンに関して初期化する。次に、ビデオのフレーム110毎及び各フレーム中の画素毎に、以下のステップを行う。
再帰的なベイズプロセスにより、背景モデル201及び背景陰影マップ202を更新する(200)。背景モデルを用いて、第1レベルの前景検出(300)を行う。画素を前景画素(C)、陰影画素(S)、または未知の画素(U)のいずれかとして弱く分類する(400)(下記を参照のこと)。陰影画素のみを用いて陰影モデル203を、より詳細に後述するベイズ手順も用いて更新する(500)。
陰影画素を用いて陰影フローを得る(600)。この陰影フローを用いて弱分類器を精緻化する(700)ことができる。また陰影フローを用いて、背景陰影マップ202を更新すると共に、移動するキャストシャドウ領域204を推定する(800)ことができる。また移動するキャストシャドウ領域を用いて、物体領域205を推定する(900)ことができる。
再帰的なデータ駆動型の方法100は、ビデオ101中で観測される陰影により生じる色の変化を多変量ガウス分布に関してモデル化する。この方法は、ビデオが移動物体、ハンドジェスチャ等による陰影を含み得るビデオ監視アプリケーション、娯楽アプリケーション、及び双方向アプリケーションに特に有用である。そのような陰影を除去することが望ましい。
一組のモデルを、ビデオ101の各フレーム110中の各画素における陰影の変化に対して適応的に訓練する。これらのモデルは、ビデオのフレーム(画像)毎に更新する。したがって、照明条件が陰影の特性により変化する場合、それらの変化する照明条件に対してモデルを動的に適応させる。
画素の一組の陰影モデル203は、その画素が弱分類器400により陰影画素としてラベル付けされる場合にのみ更新する。分類器は後の処理のための前置フィルタとしての役目を果たす。
データ駆動型の方法100は、一組の陰影モデルを入力ビデオ101に再帰的に適応させる。言い換えれば、本方法の精度は、従来技術の方法の主な欠点である事前に設定された閾値による制限を受けない。本方法100の精度は、ビデオ101の処理されるフレーム110の数が多くなるほど高まる。
さらに、方法100はキャストシャドウの追跡を必要としない。また、本方法は、従来技術のように特別な色空間を必要としない。その代わりに、問題はRGB色空間において提起される。本方法はまた、他のデカルト空間においても機能し得る。本方法は、シーン103中の物体の3Dモデルを必要としない。
キャストシャドウの学習
時刻tにおける画像シーケンス(ビデオ)101中の各現フレーム110(画像)はIt(px,y)であり、ここで、px,yは画像中の位置x,yにある画素を表す。
二組のモデル、すなわち、一組の背景モデルB (p)201と、一組の陰影モデルS (x)203とを訓練し、ここで、nは背景モデルの数であり、mは陰影モデルの数である。
方法の操作はRGB色空間において行う。最初に、シーンの静止部分の基準モデルまたは背景モデルを推定する。これは、ビデオ中の1番目のフレーム、またはシーンに関して他の手段により取得された画像から行うことができる。
各現フレーム110を一組の背景モデル201と比較して、画像中の変化した領域を求める。これらの変化した領域は、物体及び移動するキャストシャドウを含み得る。背景差分を用いて、比較的静的なシーン中の移動物体を区別すると共に、第1レベルの検出(300)を行って可能性のある前景画素を見付ける。
後述するように、本発明では、各画素を多変量ガウス分布の複数の層として定義する。本発明では、1つの「層」をモデル信頼度スコアに対する全ての画素の一組の順序付けされたモデルとして定義する。各層は画素の異なる外観に対応する。
これらの層のうち最も一貫性のあるものを背景と見なす。前景画素を見付けるために、各現フレーム110の画素を、一組の背景モデル201を形成する背景層と比較する。
次に、前景画素の色の変化及び空間的変化を評価する弱分類器400を適用する。この弱い陰影分類器は、後述のように、背景色に対して様々な可能性のある色を定義し、局所的一貫性を用いて画素の分類ラベルを反復的に更新する。
画素pが前景画素として検出され、その画素の色が、弱分類器400により求められる所定の範囲内にある場合、その画素pの一組の陰影モデルS (p)203を更新する。
図2は、一次元の背景モデル201及び陰影モデル203の更新を示す。図2において、横軸210は正規化された暗−明範囲[0,1]における画素強度を示し、線220は背景(上)を前景(下)と分離する前景判定閾値である。背景モデルは、最も信頼度の高い背景モデル230を含む。現画素211がより暗く、陰影画素として分類される場合、陰影モデル203が更新される。画素212がより明るい場合、陰影モデルは更新されない。
再帰的なベイズ更新手続きは、モデル毎に信頼度スコアを求める。本発明では、画素毎に最も信頼度の高い陰影モデルS (p)を求める。この最も信頼度の高い陰影モデルS (p)を最も信頼度の高い背景モデルB (p)と比較し、視差ベクトル(disparity vector)
(x,μ)−B (p,μ)
を求める。ここで、μはモデルの平均である。
本発明では、視差ベクトルを量子化された色空間に射影する。この色空間において、各ビンは背景における色値を表す。
色は同じであるが視差は異なる複数の画素が背景中に存在し得るため、複数の視差ベクトルを各ビンに割り当てることができる。
陰影フロー
(RGB)色空間に関して図4に示すように、モデルの信頼度により重み付けされた視差ベクトルを集約し、各ビンcの平均F(c,μ)及び分散F(c,σ)を求めて陰影フローF(c)を得る。異なる陰影タイプ及び異なる背景の陰影フローベクトル401は異なる。
前景における陰影画素を見付けるために、陰影フローF(c)を陰影画像
SI(p)=F(B (p),μ)
に、背景画像を用いて逆射影する。最後に、現前景画素と陰影画像とを比較し、陰影色分散F(c,σ)を用いて陰影画素を求める。
図5は、(RGB)色空間の1つの陰影ビンを対応する陰影フローベクトル501、前景画素の1つのカラービンに対応する現画像の色変化ベクトル502、及び背景として分類される画素の色変化ベクトル503と共に示す。陰影フローを用いて前景推定の品質を判定することも可能である。
弱い陰影分類器
弱い陰影分類器400は、各画素を評価し、その画素が陰影画素または前景物体の一部である可能性があるかどうかを判定する。ここで、分類に関する最終決定は行わない。したがって、分類は弱い。その代わりに、本発明では、以下のステップにおいて多変量陰影モデルを更新するために用いられる画素を選択する。他のタイプの分類器、例えば弱い明るさ分類器を用いることもできることに留意すべきである。弱い明るさ分類器を用いる場合、シーン中のハイライトされた、すなわち明るい領域を検出することが可能になる。これにより、照明の変化の検出が可能になる。
前景画素を分類するために、本発明では、画素の色とモデル201中の信頼度のある背景層の平均値との間のマハラノビス距離を測定する。背景の全ての信頼度のある層の99%信頼区間外の画素は前景画素として分類される。
まず、色の変動を評価することによって、画素が陰影画素である可能性があるかどうかを判定する。陰影は輝度を低下させ彩度を変化させるが、色相には影響を与えないものと仮定する。
背景色ベクトルへの色ベクトルの射影により、輝度の変化hが得られる。
Figure 0004722923
ここで、φは背景B (p)とI(p)との間の角度である。本発明では、輝度比をr=|I(p)|/hとして定義する。B (p)と白色(1,1,1)との間の第2の角度φを求める。したがって、本発明では陰影を、図3に示すような、(RGB)色空間における背景色ベクトルBを中心とする円錐301として定義する。
可能性のある前景画素毎に、以下の試験を適用し、その画素が以下の条件を両方とも満たす場合にはその画素を陰影画素として分類する。
Figure 0004722923
ここで、φは最大角度間隔であり、r<rは最大の許容される暗さ及び明るさを判定する。本発明はまた、色の変動が背景色値を上限としない場合に、φ<min(φ)として角度を上記式における最大間隔に制限する。
上記の条件を満たす画素のみが可能性のある陰影画素として分類される。
第2段階では、陰影画素を、その局所近傍を評価することによって精緻化する。隣接する陰影画素の照明比が異なる場合、それらの画素は未知のものとなる。
特定の画素の周囲に配置される所定サイズの「窓」内で、前景画素C、陰影画素S、及び未知の画素Uの数がカウントされて局所的一貫性が求められ、画素を弱く分類するために以下の規則が反復的に適用される。
(C>U)∧(C>S)→Cであり、
(S>U)∧(S>C)→Sであり、
それ以外の場合、Uである。
全てのカラービンのフローベクトルを集約した後、αブレンディングを用いて弱分類器400の上記パラメータを精緻化する。
陰影画素を選択した後、後述するベイズ更新プロセス500を用いて一組の多変量陰影モデル203を更新する。本発明では、背景モデル同じ更新機構を用いる。本発明では、モデルをノイズまたは前景画素により変形させないが、滑らかな強度の変化には適応させる。埋め込み信頼度スコアが、用いられる層数を決め、不要な層を避ける。
ベイズプロセスを用いて、層の平均及び分散ではなく、平均及び分散の確率分布を推定する。これらのパラメータに関する統計情報はガウス分布関数から抽出することができる。
ベイズ更新
本発明では、ガウス分布の「混合」の代わりに、各画素を多変量ガウス分布の複数の「競合」層として定義する(Tuzel他により2005年5月20日付で出願された「ベイズ推定による低フレームレートのビデオのモデル化(Modeling Low Frame Rate Video with Bayesian Estimation)」と題する米国特許出願第11/133,894号(さらなる詳細に関しては参照により本明細書中に援用される)を参照のこと)。各層は画素の様々な外観に対応する。
本発明による更新プロセスは、モデルの多峰性を維持する。更新毎に、現観測値により多くて1つの層が更新される。これにより、層間の重複を確実に最小限にする。
本発明ではまた、画素毎にいくつの層が必要であるかを求め、それらの層を、前景分割段階中にのみ用いる。画素の色履歴の平均μ及び分散Σは未知であり、正規分布のランダム変数としてモデル化される。
再帰的なベイズ推定を行うために、結合事前密度(joint prior density)p(μ,Σ)は結合事後密度(joint posterior density)p(μ,Σ|X)と同じ形状を有する。分散を条件として、結合事前密度は次のように表すことができる。
Figure 0004722923
上記条件は、逆ウィシャート分布を共分散に仮定し、この共分散を条件として、多変量正規分布を平均に仮定する場合に実現される。逆ウィシャート分布は、スケーリングされた逆χ分布の多変量一般化である。
パラメータ化すると、
Figure 0004722923
Figure 0004722923
となり、ここで、vt−1及びΛt−1は逆ウィシャート分布の自由度及びスケール行列であり、θt−1は前の平均であり、κt−1は以前の測定値の数である。
これらの仮定により、結合事前密度は正規逆ウィシャート(θ,Λ/κ;v,Λ)となり、パラメータは以下に従って更新される。
Figure 0004722923
ここで、
Figure 0004722923
は新たなサンプルの平均であり、nは、モデルの更新に用いられるサンプルの数である。更新がフレーム毎に行われる場合、nは1となる。
平均及び共分散の周辺事後分布の期待値を時刻tにおける本発明のモデルパラメータとして用いる。周辺事後平均の期待値、すなわち、多変量t分布の期待値は、
Figure 0004722923
となり、周辺事後共分散の期待値、すなわち、逆ウィシャート分布の期待値は、
Figure 0004722923
となる。
層の信頼度は、1をμ|Xの共分散の行列式で割った値
Figure 0004722923
に等しい。
周辺事後平均がより大きな分散を有する場合、本発明のモデルの信頼度は低くなる。スケール行列Σ及び自由度vを有する多変量t分布の分散は、v>2の場合に(v/(v−2))Σに等しい。1つの層に対して1つの多変量ガウス分布を用いる代わりに、各カラーチャネルに対応する3つの一変量ガウス分布を用いることも可能である。この場合、一変量ガウス分布毎に、スケーリングされた逆χ分布を分散に仮定し、この分散を条件として、一変量正規分布を平均に仮定する。
画素毎にk個の層を用いて本発明のシステムを初期化する。通常、本発明では、背景モデル及び陰影モデルの両方に3つ〜5つの層を選択する。非常に動的なシーンにはより多い数の層を用いることができる。
各画素の新たなサンプルに関して、モデルのパラメータを更新する。本発明の更新プロセスは、本発明のモデルにおける最も信頼度の高い層から開始する。サンプルが現モデルの99%信頼区間内にある場合、そのモデルのパラメータが式6〜8に従って更新される。
信頼度の低いモデルを有するモデルは更新されない。デプリーション(depletion)機構を用いて過去の観測値の影響を最小化することができる。デプリーションは、不適合モデルの以前の観測値の数パラメータを低減することによって行われる。現サンプルが信頼区間内にない場合、以前の測定値の数パラメータk=k−1−nを更新し、次に信頼度の高い層の更新を続ける。
本発明では、kを初期値である10未満にはしない。どのモデルも更新されない場合、最も信頼度の低い層を削除し、新たな層を現サンプルにより初期化する。
本発明の信頼度スコアは、各画素に必要な層数を求める上で非常に効果的である。本発明では、モデルパラメータを5つの層により推定するが、本発明の信頼度スコアは、方法が有効となるために必要な層数を明らかに示す。重要な層と重要でない層との間には大きなギャップがある。
本発明を好ましい実施の形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行ってもよいことが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更を全て網羅することである。
キャストシャドウをモデル化する方法のフロー図である。 一次元の背景モデル及び陰影モデルの更新の図である。 画素の対応する背景色の周囲の弱い陰影を表す円錐ボリュームの図である。 陰影フローベクトルの概略図である。 対応する陰影フローベクトル及び現画像の色変化ベクトルを有する単一の陰影ビンの概略図である。

Claims (15)

  1. コンピュータビジョンによりシーンをモデル化する方法であって、
    シーンのビデオを取得することであって、前記ビデオのフレーム毎に、
    各画素に関して一組の背景モデルを更新すること、
    各画素に関して一組の陰影モデルを更新すること、
    各背景色に関して前記一組の陰影モデルから一組の陰影フローベクトルを更新すること、及び
    各画素に関して前記一組の陰影フローベクトルを用いて背景陰影マップを更新することによって、前記ビデオ中の陰影を検出すること
    を含
    前記陰影フローベクトルは、陰影のない画像を陰影付きの画像に変換するための情報であって、
    各背景モデル及び各陰影モデル中の前記画素を複数の層により表現することをさらに含み、各層は複数のガウス分布を含み、各ガウス分布は平均及び共分散を含み、該共分散は逆ウィシャート分布であり、前記更新は、再帰的なベイズ推定プロセスに従って行われ、
    各画素に関して各モデルの信頼度スコアを求めること、
    各画素に関して最も信頼度の高い陰影モデルを最も信頼度の高い背景モデルと比較することによって、視差ベクトルを求めること、
    前記視差ベクトルを、複数のビンを含む量子化された色空間中に射影することであって、各ビンは前記シーンの背景における色値を表し、各ビンに関して前記射影された視差ベクトルを集約することによって、各ビンにおいて前記陰影フローベクトルを見付けること
    をさらに含む、
    コンピュータビジョンによりシーンをモデル化する方法。
  2. 各画素を前景画素、陰影画素または未知の画素として弱分類器により分類することをさらに含み、前記陰影画素のみに関して前記一組の陰影モデルを更新することをさらに含む、請求項1に記載の方法。
  3. 前記一組の陰影モデルから一組の陰影フローベクトルを得ることをさらに含む、請求項に記載の方法。
  4. 前記一組の陰影フローベクトルに従って前記分類を精緻化することをさらに含む、請求項に記載の方法。
  5. 前記一組の陰影フローベクトルに従って前記背景陰影マップを更新することをさらに含む、請求項に記載の方法。
  6. 前記一組の背景モデル及び前記一組の陰影モデルを用いて物体領域を推定することをさらに含む、請求項1に記載の方法。
  7. 前記一組の背景モデル及び前記背景陰影マップを用いて物体領域を推定することをさらに含む、請求項1に記載の方法。
  8. 前記フレーム中の前記画素の色の変化を前記背景陰影マップ中の対応する画素と比較することによって、移動するキャストシャドウ領域を推定することをさらに含む、請求項1に記載の方法。
  9. 前記ビデオは監視ビデオである、請求項1に記載の方法。
  10. 前記ビデオを固定カメラにより取得することをさらに含む、請求項1に記載の方法。
  11. 前記ビデオは娯楽ビデオである、請求項1に記載の方法。
  12. 前記ビデオは双方向ビデオである、請求項1に記載の方法。
  13. 前記射影された視差ベクトルを前記モデルの前記信頼度スコアにより重み付けすることをさらに含む、請求項に記載の方法。
  14. 前記分類は、弱い明るさ分類器を用いて前記シーン中の照明の変化を検出する、請求項に記載の方法。
  15. 前記一組の陰影フローベクトルの平均により前記弱分類器の最大の暗さ閾値及び最大の明るさ閾値を求めることをさらに含む、請求項に記載の方法。
JP2007524102A 2005-06-27 2006-06-16 コンピュータビジョンによりシーンをモデル化する方法 Expired - Fee Related JP4722923B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/167,611 2005-06-27
US11/167,611 US7574043B2 (en) 2005-06-27 2005-06-27 Method for modeling cast shadows in videos
PCT/JP2006/312561 WO2007000938A2 (en) 2005-06-27 2006-06-16 Method for modeling a scene

Publications (2)

Publication Number Publication Date
JP2008544334A JP2008544334A (ja) 2008-12-04
JP4722923B2 true JP4722923B2 (ja) 2011-07-13

Family

ID=37056497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007524102A Expired - Fee Related JP4722923B2 (ja) 2005-06-27 2006-06-16 コンピュータビジョンによりシーンをモデル化する方法

Country Status (3)

Country Link
US (1) US7574043B2 (ja)
JP (1) JP4722923B2 (ja)
WO (1) WO2007000938A2 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
EP2255339A1 (en) * 2008-03-10 2010-12-01 Koninklijke Philips Electronics N.V. Method and apparatus for modifying a digital image
DK2260646T3 (en) * 2008-03-28 2019-04-23 On Net Surveillance Systems Inc METHOD AND SYSTEMS FOR VIDEO COLLECTION AND ANALYSIS THEREOF
TWI368185B (en) * 2008-11-06 2012-07-11 Ind Tech Res Inst Method for detecting shadow of object
IL196161A (en) * 2008-12-24 2015-03-31 Rafael Advanced Defense Sys Download shadows from images within a video signal
CN102576412B (zh) * 2009-01-13 2014-11-05 华为技术有限公司 图像处理以为图像中的对象进行分类的方法和系统
TWI376648B (en) * 2009-02-25 2012-11-11 Micro Star Int Co Ltd Method and device for keeping image background by multiple gauss models
FR2944132A1 (fr) 2009-04-01 2010-10-08 Commissariat Energie Atomique Structure de stockage optique d'informations et procede d'optimisation de realisation de cette structure.
FR2944629B1 (fr) * 2009-04-17 2017-01-20 Univ De Tech De Troyes Systeme et procede de localisation de cible par un reseau de cameras
US8547457B2 (en) * 2009-06-22 2013-10-01 Empire Technology Development Llc Camera flash mitigation
JP2011076214A (ja) * 2009-09-29 2011-04-14 Alps Electric Co Ltd 障害物検出装置
JP5537121B2 (ja) * 2009-10-30 2014-07-02 キヤノン株式会社 画像処理装置およびその制御方法
CN101777186B (zh) * 2010-01-13 2011-12-14 西安理工大学 一种多模态自动更新替换的背景建模方法
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
AU2010238543B2 (en) * 2010-10-29 2013-10-31 Canon Kabushiki Kaisha Method for video object detection
US9514566B2 (en) 2012-05-04 2016-12-06 Sunfish Studio, Llc Image-generated system using beta distribution to provide accurate shadow mapping
US9213781B1 (en) 2012-09-19 2015-12-15 Placemeter LLC System and method for processing image data
US9905010B2 (en) 2013-06-18 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Image position determination device and image position determination method for reducing an image of a closed eye person
US9774548B2 (en) 2013-12-18 2017-09-26 Personify, Inc. Integrating user personas with chat sessions
US9386303B2 (en) 2013-12-31 2016-07-05 Personify, Inc. Transmitting video and sharing content via a network using multiple encoding techniques
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
US9414016B2 (en) 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
WO2015122161A1 (ja) 2014-02-14 2015-08-20 日本電気株式会社 映像解析システム
WO2015171355A1 (en) * 2014-05-08 2015-11-12 Tandent Vision Science, Inc. A method for identifying color-based vectors for analysis of frames of a video
EP3149909A4 (en) 2014-05-30 2018-03-07 Placemeter Inc. System and method for activity monitoring using video data
CN103971347A (zh) * 2014-06-04 2014-08-06 深圳市赛为智能股份有限公司 视频图像中阴影的处理方法及装置
US10043078B2 (en) 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
WO2016171878A1 (en) * 2015-04-21 2016-10-27 Placemeter, Inc. Virtual turnstile counter system and method
US11334751B2 (en) 2015-04-21 2022-05-17 Placemeter Inc. Systems and methods for processing video data for activity monitoring
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US10244224B2 (en) 2015-05-26 2019-03-26 Personify, Inc. Methods and systems for classifying pixels as foreground using both short-range depth data and long-range depth data
US11138442B2 (en) 2015-06-01 2021-10-05 Placemeter, Inc. Robust, adaptive and efficient object detection, classification and tracking
US9607397B2 (en) 2015-09-01 2017-03-28 Personify, Inc. Methods and systems for generating a user-hair-color model
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
US9881207B1 (en) 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
US10438072B2 (en) 2017-02-27 2019-10-08 Echelon Corporation Video data background tracking and subtraction with multiple layers of stationary foreground and background regions
US10181192B1 (en) * 2017-06-30 2019-01-15 Canon Kabushiki Kaisha Background modelling of sport videos
TWI689893B (zh) * 2018-12-25 2020-04-01 瑞昱半導體股份有限公司 背景模型更新的方法與相關裝置
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225340A (ja) * 1992-02-10 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体像の抽出処理方法
JP2006331416A (ja) * 2005-05-20 2006-12-07 Mitsubishi Electric Research Laboratories Inc シーンをモデル化する方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1099899A (en) * 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6999620B1 (en) * 2001-12-10 2006-02-14 Hewlett-Packard Development Company, L.P. Segmenting video input using high-level feedback
WO2005036456A2 (en) * 2003-05-12 2005-04-21 Princeton University Method and apparatus for foreground segmentation of video sequences

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225340A (ja) * 1992-02-10 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体像の抽出処理方法
JP2006331416A (ja) * 2005-05-20 2006-12-07 Mitsubishi Electric Research Laboratories Inc シーンをモデル化する方法

Also Published As

Publication number Publication date
WO2007000938A2 (en) 2007-01-04
JP2008544334A (ja) 2008-12-04
WO2007000938A3 (en) 2007-07-12
US7574043B2 (en) 2009-08-11
US20060290780A1 (en) 2006-12-28

Similar Documents

Publication Publication Date Title
JP4722923B2 (ja) コンピュータビジョンによりシーンをモデル化する方法
Porikli et al. Shadow flow: A recursive method to learn moving cast shadows
Salvador et al. Cast shadow segmentation using invariant color features
Joze et al. The role of bright pixels in illumination estimation
Martel-Brisson et al. Learning and removing cast shadows through a multidistribution approach
Soriano et al. Adaptive skin color modeling using the skin locus for selecting training pixels
Zarit et al. Comparison of five color models in skin pixel classification
US7254268B2 (en) Object extraction
JP4746050B2 (ja) ビデオデータを処理するための方法及びシステム
US20110268359A1 (en) Foreground/Background Segmentation in Digital Images
Martel-Brisson et al. Kernel-based learning of cast shadows from a physical model of light sources and surfaces for low-level segmentation
Benedek et al. Study on color space selection for detecting cast shadows in video surveillance
Russell et al. An evaluation of moving shadow detection techniques
EP2380111A1 (en) Method for speeding up face detection
CN108921857A (zh) 一种面向监视场景的视频图像焦点区域分割方法
Russell et al. Moving shadow detection based on spatial-temporal constancy
Madsen et al. Shadow detection in dynamic scenes using dense stereo information and an outdoor illumination model
Nallaperumal et al. An analysis of suitable color space for visually plausible shadow-free scene reconstruction from single image
Riaz et al. Visibility restoration using generalized haze-lines
Vincent et al. Shadow detection: A review of various approaches to enhance image quality
Nandini et al. A survey of the existing shadow detection techniques
Hardas et al. Moving Object Detection for Video Surveillance using Different Color Spaces
Withagen et al. Shadow detection using a physical basis
Das et al. A survey on shadow detection and removal in images
Gawde et al. Lightweight and robust shadow removal for foreground detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees