JP2008523454A - 背景領域および前景領域をモデリングする方法 - Google Patents

背景領域および前景領域をモデリングする方法 Download PDF

Info

Publication number
JP2008523454A
JP2008523454A JP2006523478A JP2006523478A JP2008523454A JP 2008523454 A JP2008523454 A JP 2008523454A JP 2006523478 A JP2006523478 A JP 2006523478A JP 2006523478 A JP2006523478 A JP 2006523478A JP 2008523454 A JP2008523454 A JP 2008523454A
Authority
JP
Japan
Prior art keywords
image
foreground
background
scene
unique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006523478A
Other languages
English (en)
Other versions
JP4708343B2 (ja
Inventor
ポリクリ、ファティー・エム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008523454A publication Critical patent/JP2008523454A/ja
Application granted granted Critical
Publication of JP4708343B2 publication Critical patent/JP4708343B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Abstract

動的なシーンについて画像の時間シーケンスが取得される。フィルタを用いて空間勾配が求められる。フィルタの出力が疎であることを利用して、固有背景画像が、メディアンフィルタリングされた勾配として生成される。次に、固有背景画像で元の画像シーケンスが除算されて、固有前景画像が得られる。固有前景画像は、閾値処理されて、検出マスクが得られる。

Description

本発明は、包括的には画像処理に関し、特に、画像シーケンスにおける前景の検出に関する。
前景の検出
多くのコンピュータビジョン用途、例えば、監視用途、追跡用途、および認識用途において、必要となる最初のステップは、シーン中の前景物体を検出することである。通常、これは、図1Aに示すような背景減算方法100によって行われる。シーンについて取得された入力画像シーケンス110が処理されて、背景画像130が生成される(120)。次に、この背景画像が画像110から減算されて(140)、前景画像150が得られる。
従来技術の前景検出方法は、シーンの構成に関して厳密な仮定を行うか、急激な照明変化に対処することができないか、または、計算が複雑で時間がかかるかのいずれかである。
従来技術の前景検出方法は、通常、単層方法または多層方法として分類することができる。単層方法は、過去の観測に基づいて単一の動的モデルを作成する。
単層の背景画像を構築する最も単純な方法は、画素輝度の平均または分散を測定することである。輝度は、(RGB)チャネル毎に測定して、色の変化を特徴付けることができる。次に、輝度を閾値として用いて、前景領域を検出することができる。しかし、このような平均化操作は、通常、真の背景でも真の前景でもない「ゴースト」領域を生じる。
1つの方法は、ガウス関数およびアルファブレンディングにより背景画素の統計分布をモデリングする(C. R. Wren、A. Azarbayejani、T. J. Darrell、およびA. P. Pentland)著「Pfinder: Real-time tracking of the human body」(PAMI, 19(7), pp. 780-785, July 1997))。背景画像Bが現画像Iに従って、事前に設定されたブレンディングの重みαを用いて、次のように更新される。
=(1−α)Bt−1+αI
ブレンディングの重みαは、背景が現画像とブレンドされるべき速度を調節する。この平均化方法は、ブレンディングの重みの選択に大きく影響を受ける。αの値によっては、前景物体が背景に組み込まれてしまうか、または照明変化に適応しない。
代替的な「投票」方法は、出現の頻度に基づいて輝度値を選択する。この「投票」手法は、平均化に勝る利点を有する。投票手法は、背景をぼかさず、急激な照明変化を許容する。投票手法の主な欠点は、その計算の複雑度である。量子化を適用して、候補値の数および演算の回数を減らすことができる。しかし、量子化は、前景を背景と分離する能力を低下させる。
背景検出には、カルマンフィルタを用いることもできる(K. Karmann)、A. Brand著「Time-varying image processing and moving object recognition」(Elsevier Science Publish., 1990)、C. Ridder、O. Munkelt、およびH. Kirchner著「Adaptive background estimation and foreground detection using Kalman filtering」(Proc. ICAM, 1995)、並びにK. Toyama、J. Krumm、B. Brumitt、B. Meyers著「Wallflower: Principles and Practice of Background Maintenance」(Proc. of Int'l Conf. on Computer Vision, pp. 255-261, 1999))。データ部分空間に直接作用するカルマンフィルタの1バージョンが、J. ZhongおよびS. Sclaroff著「Segmenting foreground objects from a dynamic, textured background via a robust Kalman filter」(Proc. of IEEE Int'l Conf. on Computer Vision, pp. 44-50, 2003)に記載されている。
同様の自己回帰モデルが、動的なシーンの特性を取得する(A. Monnet、A. Mittal、N. Pragios、およびV. Ramesh著「Background modeling and subtraction of dynamic scenes」(Proc. of IEEE Int'l Conf. on Computer Vision, pp. 1305-1312, 2003))。
カルマンフィルタは、線形確率差分方程式、例えば,背景の輝度に従う離散時間過程の状態の最適推定値を提供する。遷移行列、プロセスノイズ共分散、および測定ノイズ共分散等の、カルマンフィルタの様々なパラメータは、時間ステップ毎に変化する可能性がある。より大きな共分散値を用いることによって、背景は、より速く照明変化に適応する。しかし、フィルタは、ノイズおよびシーン中の物体の影響をより受けやすくなる。カルマンフィルタのもう1つの欠点は、多モード分布、すなわち、動く葉若しくは草、または水面の波を区別できないことである。カルマンフィルタが発揮する性能は、大きな非線形性がある場合に低い。
別の方法は、画像中の背景をガウス分布関数の混合によりモデリングする(C. StaufferおよびW. Grimson著「Adaptive background mixture models for real-time tracking」(Proc. of IEEE Int'l Conf. on Computer Vision and Pattern Recognition, 1999))。全ての画素の値を1つの特定タイプの分布として明示的にモデリングするのではなく、背景は、多モードの背景をサポートするガウス分布関数の画素毎の混合によってモデリングされる。混合における各ガウス関数の持続性および分散に基づいて、背景領域に対応するガウスモデルを求める。背景分布に当てはまらない画素値は、それらを十分な一貫性のある裏付け証拠により背景に含めるガウスモデルが見つかるまで、前景とみなされる。この方法は、学習定数、および背景が占めるべき画素の割合を制御するパラメータを含む。ガウス混合方法は、多数の関連方法の基礎である(O. Javed、K. Shafique、およびM. Shah著「A hierarchical approach to robust background subtraction using color and gradient information」(MVC, pp. 22-27, 2002))。
混合方法は、照明変化に適応可能であり、ゴースト効果を生じない。さらに、混合方法は、多モードの背景に対処することができる。しかし、混合方法の性能は、シーンが動的であり、時間的に非静的な特性を示す場合に低下する。混合モデルベースの解決策のもう1つの欠点は、背景モデルを構築し更新する計算負荷である。混合において多数のモデルがある場合、そのような方法は、実用的には計算要求が大きくなり過ぎる。
ノンパラメトリック方法は、特定の画素における濃度のモデリングにガウシアンカーネルを用いる(A. Elgammal、D. Harwood、およびL. Davis著「Non-parametric model for background subtraction」(Proc. of European Conf. on Computer Vision, pp. II:751767, 2000))。
別の方法は、動的特性のモデリングにオプティカルフローを統合する(A. MittalおよびN. Paragios著「Motion-Based background subtraction using adaptive kernel density estimation」(Proc. Int'l Conf. on Computer Vision and Pattern Recognition, 2004))。
統計的な方法は、色特徴、グローバル特徴および動的特徴を用いて、物体検出を向上させることができる(C. JiangおよびM. O. Ward著「Shadow identification」(Proc. of IEEE Int'l Conf. on Computer Vision and Pattern Recognition, pp. 606-612, 1992)、並びにStauder、R. Mech、およびJ. Ostermann著「Detection of moving cast shadows for object segmentation」(IEEE Transactions on Multimedia, vol. 1, no. 1, pp. 65-76, March 1999))。
したがって、従来技術の前景検出方法を改良することが望ましい。
固有画像
1つのシーン解釈によれば、あらゆる画像は、シーンの複数の特性の積である。すると、「固有」画像は、シーン中の複数の特性のうちの1つを反映する画像の分解となる(H. G. BarrowおよびJ. M. Tenenbaum著「Recovering intrinsic scene characteristics from images」(Computer Vision Systems, Academic Press, pp. 3-26, 1978))。
あるシーンの入力画像Iを反射率画像Rと照明画像Lに分解したものは、次のような積として表すことができる。
=R・L (1)
反射率画像Rは、シーンの反射値を含み、照明画像Lは、照明強度を含む。反射率画像Rがシーンの表面反射特性を示す一方で、照明画像Lは、シーン中の入射照明の分布を表すため、この表現は、入力画像において取得されるシーンの反射特性および照明特性を解析および操作する上で有用となる。
従来技術では、固有画像は、照明、および画像のテクスチャに見ることのできる反射率等の、シーンの1枚の画像中の空間特性を扱い、シーンそのものにおける前景物体の時間的な進展は扱わない。
図1Bに示すように、1つの分解方法は、最尤値を推定して、固定位置から照明条件を大きく変化させて取得された入力画像シーケンス101から反射率画像102および照明画像103を生成する(Y. Weiss著「Deriving intrinsic images from image sequences」(Proc. of IEEE Int'l Conf. on Computer Vision, pp. 68-75, Jul., 2001))。照明画像では右(R)および左(L)からの照明をはっきりと見ることができることに留意されたい。
この方法は、画像シーケンスから様々な反射率画像および対応する照明画像を導出すべく拡張されてきた(Y. Matsushita、K. Nishino、K. Ikeuchi、およびS. Masao著「Illumination normalization with time-dependent intrinsic images for video surveillance」(Proc. of IEEE Int'l Conf. on Computer Vision and Pattern Recognition, 2004))。Matsushita他は、照明変化を捕捉する照明固有空間も記載している。この方法では、シーンは、静的であり、検出される唯一のものは、照明条件等の、シーンの外的要因の変化である。前景物体の動きは、考慮されない。
別の方法は、1枚のカラー画像から、反射率画像に似た、照明が一様の画像を回復する(G. D. Finlayson、S. D. HordleyおよびM. S. Drew著「Removing Shadows from Images」(Proc. of European Conf. on Computer Vision Vol. 4, pp. 823-836, 2002))。Finlayson他は、入力画像が影の付いていない表面と、それらの表面に落ちる影との両方を含むものと仮定する。Finlayson他は、色分布のエントロピーを最小化することによって、対数色度空間における「不変方向」の角度を計算する。
別の方法は、複数の手掛かりを用いて、1枚の画像から陰影画像および反射率画像を回復する(M. Tappen、W. Freeman、E. Adelson著「Recovering Shading and Reflectance from a single image」(NIPS, 2002))。Tappen他は、色情報と、グレースケールパターンを認識するように訓練された分類器との両方を用いる。各固有画像は、陰影または表面反射率の変化に起因するものとして分類される。なお、この方法も、また、シーン中の前景物体の動きを考慮しない。
別の決定論的方法は、グレーレベル、並びに局所的特徴および静的特徴を用いる(M. Kilger著「A shadow handler in a video-based real-time traffic monitoring system」(Proc. of IEEE Workshop on Applications of Computer Vision, pp. 11-18, 1992)、並びにD. Koller、K. Danilidis)、およびH. Nagel著「Model-based object tracking in monocular image sequences of road traffic scenes」(Int'l Journal of Computer Vision, vol. 10, pp. 257-281, 1993))。
概して、従来技術の固有画像は、シーン中の前景物体の動きを考慮しない。したがって、シーンそのものにおける動きの変化を反映する改良された固有画像を提供することが望ましい。
さらに、改良された固有画像を用いて前景検出を向上させることが望ましい。
従来の背景減算による前景検出の代わりに、本発明では、動的なシーンの画像を時間的に変化する固有背景画像と固有前景画像に分解する。これらの固有画像の積は、シーンを特徴付ける。
シーンについて画像の時間シーケンスが取得される。フィルタを用いて空間勾配が求められる。フィルタ出力が疎であることを利用して、固有背景画像が、メディアンフィルタリングされた勾配として生成される。次に、固有背景画像によって元の画像シーケンスが除算されて、固有前景画像が得られる。
本発明は、また、固有前景画像を閾値処理して検出マスクを得るためのロバストな方法も提供する。本発明は、また、静止ラインおよび移動ラインを検出することもできる。
本方法は、計算効率が高く、照明変化が急激で大きい場合にも有効である。
固有背景画像
図2に示すように、本発明は、画像中の前景領域を検出するための方法200を提供する。前景領域は、通常、シーン中の移動物体を表す。あるシーンについて取得された入力画像シーケンス210を処理して、固有背景画像230を生成する(300)。入力画像210の各々を、固有背景画像で割り(240)、固有前景画像シーケンス250を得る。好ましい実施の形態において、固有の背景画像は、シーケンス210中の各現画像が処理される毎に更新される。
本発明は、シーンを前景特性と背景特性の積、すなわち、
=B・F (2)
として特徴付ける。ここで、背景画像B230は、比較的静的であり、前景画像F250は、シーンの動的特性、すなわち移動物体を特徴付ける。背景画像は、変化し得るが、前景画像よりも遥かに長い時間スケールで変化することに留意すべきである。したがって、本発明によれば、入力画像を固有背景画像で割る(240)ことによって、固有前景画像F=I/Bを求める。
この定義は、背景特性および前景特性を加法的な推定、すなわち、I=B+Fとして表し、前景画像をF=I−Bとする従来技術とは著しい対照をなすことに留意されたい。
実世界のシーンにおいて、静的特性および動的特性は、時間的に変化するが、「静的」特性の変化は、動的特性よりも実質的に遅い。例えば、「静的な」屋外シーンにおいて、建物の影の移動は、比較的遅く、屋内シーンにおいて、荷物は、放置されたままであれば、最終的に背景に組み込まれる。
したがって、単一の時間的に不変な静止画像が背景を表し得るという概念は、誤りである。時間的に不変の背景画像B(x,y)は、移動物体のない静止シーンをそれなりに記述するが、推定前景画像F(x,y,t)は、特に、グローバル照明が変化する場合、かなり多量のテクスチャおよび影を含む傾向がある。したがって、反射率画像が照明画像に対して時間的に不変であると暗示的に仮定するWeissによる方法とは異なり、本発明では、時間的に変化する固有画像を用いる。すなわち、背景画像と前景画像の両方が時間的に更新される。
図3に詳細に示すように、本発明は、シーンについてN枚の入力画像のシーケンス210{It−N,・・・,It−1,I}を取得する。画像211は、現入力画像である。画像が取得されるレートは、シーン中の移動物体の速度に依存することができる。連続する画像中の移動物体の外観の重なりが最小化されれば、物体の導出される統計値が背景画像230に混入する可能性は低くなる。
したがって、画像のサポート集合は{It−kN,・・・,It−k,I}であり、ここで、kは、サンプリング周期である。より長いサンプリング周期を選択しても構わないが、物体が高速で移動するシーンには、短いサンプリング周期が用いられる。いずれにせよ、サンプリング周期kは、重要な決定ではない。また、画像は、時間的に、シーン中の平均の動きに応じて様々なレートで取得することができることにも留意されたい。
次に、各入力画像I210の輝度値の対数(log)を求める(310)。これにより、「log」画像311および312が生成され、ここで、log画像312は、現入力画像211のものである。
次に、空間微分フィルタs320をlog画像i311および312に適用して、

に従って輝度勾配を求める。
ここで、「」は、畳み込みを表す。微分フィルタは、s=[1 −1]、S=[1 −1]とすることができる。
微分フィルタを用いる代わりに、fline=[−1 2 −1]の形のライン検出器を用いることもできる。このフィルタの出力も疎である。このフィルタは、形状抽出に必要不可欠なシーン中の静止エッジおよび移動エッジを捕捉することができる。
フィルタ出力は、ラプラシアン分布であり、空間的かつ時間的に独立しているため、フィルタリングされた背景画像の最尤推定値b(ハット)tnは、次式によって与えられるメディアン画像330である。
Figure 2008523454
なお、メディアン画像330は、以前のn枚のlog入力画像311および現log入力画像312の「窓」にわたってフィルタリングを行った結果である。新たな各入力画像を更新することによって、固有背景画像は、常に適切なものとなる。これは、微分フィルタ320を自然シーンの画像に適用する場合、フィルタ出力は、疎になる傾向があることの直接的な結果である。
次に、推定のフィルタリングされた背景画像b(ハット)tnを用いることによって、次式に従って固有前景画像ftn250を求める。
Figure 2008523454
ここで、次の一次連立方程式を解くことによって、メディアン画像330を「逆」フィルタリングする。
Figure 2008523454
ここで、s 340は、sの逆フィルタであり、フィルタg350は、次のフーリエ式を満たすフィルタである。
Figure 2008523454
フィルタg350は、入力画像シーケンス210とは独立しており、事前に決めておくことができる。
引き続き対数領域において、固有背景画像のlogであるフィルタ350の出力351を現画像のlog310から減算する。log領域において、これは、除算240に対応する。
次に、B=ebt、F=eftに従って逆対数361および362を適用することによって、最終的な固有前景画像250および固有背景画像230を得る。
マスク画像Mを用いることもできる。マスク画像Mは、現固有背景画像と現固有前景画像の差分の輝度統計値
(x,y)=B(x,y)−F(x,y)
に基づいて、現入力画像I中の前景画素を表す。
この差分の分布は、ガウス関数によって近似することができる。したがって、分布の平均μおよび分散σ を求め、95%というパーセンタイル値を閾値τ=2.5σとして割り当てる。マスク画像Mは、次式によって与えられる。
Figure 2008523454
図4は、交通シーンの入力画像401のシーケンスについて、本発明による、対応する固有背景画像402、固有前景画像403、およびマスク画像404を示す。マスク画像が移動車両を追跡することは明らかである。シーンは、遠方にある動く茂みおよび雲、並びに車両の下にある広範な影を含む。前景画像402は正確であり、これらのアーチファクトを含まないことに留意されたい。マスク画像404では、広範な影が除去されていることも分かる。
図5は、ゴルフシーンの入力画像501、対応する固有背景画像502、固有前景画像503、およびマスク画像504を示す。このシーンでは、空の色の変化および影がより際立つ。本発明による方法は、入力画像を背景画像と前景画像に正確に分解する。
発明の効果
本発明は、固定カメラによって取得された入力画像シーケンスから移動物体等の前景領域を検出する。従来技術の加法的な背景/前景のシナリオとは対照的に、本発明では、シーケンスを時間的に変化する乗法的な固有背景画像と固有前景画像との積に分解する。本方法にはいくつかの利点がある。積は、和よりも利得が高く、よって本発明は、急激で大きな照明変化にさほど影響を受けない。本発明は、モデルベースではないため、モデルの当てはめが不要である。本方法は、計算効率が高く、リアルタイムシステムに実装することができる。本方法は、パラメータの微調整を必要としない。本発明は、また、シーンの静的エッジマップを推定することができる。最も重要なこととして、乗法的な背景/前景の特徴付けは、従来技術の加法的なシナリオよりも高い性能を発揮する。
本発明を好適な実施の形態の例として説明してきたが、本発明の精神および範囲内で様々な他の適応および変更を行ってもよいことを理解すべきである。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入るこのような変形および変更をすべて網羅することである。
シーンの前景を検出するための従来技術の方法を示す図である。 従来技術の固有画像を示す図である。 本発明によるシーンの前景を検出するための方法を示す図である。 図2の方法の詳細なステップを示す図である。 本発明による道路シーンの固有画像を示す図である。 本発明によるゴルフシーンの固有画像を示す図である。

Claims (10)

  1. シーンの入力画像シーケンスから該シーンの背景領域および前景領域をモデリングする方法であって、
    シーンについて取得された入力画像シーケンスから固有背景画像を生成することと、および
    固有前景画像シーケンスを得るために、各入力画像を前記固有背景画像で割ることと
    を含むシーンの入力画像シーケンスから該シーンの背景領域および前景領域をモデリングする方法。
  2. 各入力画像を処理する毎に前記固有背景画像を更新することをさらに含む請求項1に記載の方法。
  3. 前記入力画像のサンプリング周期は、時間とともに変化する請求項1に記載の方法。
  4. 前記入力画像のサンプリング周期は、前記シーン中の移動物体の関数として変化する請求項1に記載の方法。
  5. 各入力画像を対数画像に変換することと、
    各対数画像にフィルタを適用することと、
    フィルタリングされた対数画像の時間窓からメディアン画像を求めることと、
    前記メディアン画像を逆フィルタリングすることと、
    対数前景画像を得るために、現在の対数画像から前記メディアン画像を減算することと、
    前記固有前景画像を得るために、前記対数前景画像に逆対数を適用することおよびと
    前記固有背景画像を得るために、前記メディアン画像に前記逆対数を適用することと
    をさらに含む請求項1に記載の方法。
  6. 前記フィルタは、空間微分フィルタである請求項5に記載の方法。
  7. 前記フィルタは、ライン検出器である請求項5に記載の方法。
  8. 前記固有前景画像中の移動物体を検出することとおよび
    前記移動物体に対するマスク画像を生成することと
    をさらに含む請求項1に記載の方法。
  9. 前記マスク画像は、前記固有背景画像と前記固有前景画像との差分の輝度統計値に基づく請求項8に記載の方法。
  10. ライン検出器を用いて前記固有背景画像からラインおよびシルエットを検出することをさらに含む請求項1に記載の方法。
JP2006523478A 2004-12-15 2005-12-09 背景領域および前景領域をモデリングする方法 Expired - Fee Related JP4708343B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/012,996 2004-12-15
US11/012,996 US7359552B2 (en) 2004-12-15 2004-12-15 Foreground detection using intrinsic images
PCT/JP2005/023101 WO2006064895A1 (en) 2004-12-15 2005-12-09 Method for modeling background and foreground regions

Publications (2)

Publication Number Publication Date
JP2008523454A true JP2008523454A (ja) 2008-07-03
JP4708343B2 JP4708343B2 (ja) 2011-06-22

Family

ID=36021715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006523478A Expired - Fee Related JP4708343B2 (ja) 2004-12-15 2005-12-09 背景領域および前景領域をモデリングする方法

Country Status (6)

Country Link
US (1) US7359552B2 (ja)
EP (1) EP1697901B1 (ja)
JP (1) JP4708343B2 (ja)
CN (1) CN1918604B (ja)
DE (1) DE602005011097D1 (ja)
WO (1) WO2006064895A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012050185A1 (ja) * 2010-10-14 2012-04-19 シャープ株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2014048970A (ja) * 2012-08-31 2014-03-17 Secom Co Ltd 対象物検出装置
WO2017043332A1 (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940998B2 (en) 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US20060210159A1 (en) * 2005-03-15 2006-09-21 Yea-Shuan Huang Foreground extraction approach by using color and local structure information
WO2006115676A2 (en) * 2005-03-30 2006-11-02 Cernium Corporation Video ghost detection by outline
US7751639B1 (en) * 2005-04-20 2010-07-06 University Of East Anglia Obtaining intrinsic images
US7822224B2 (en) 2005-06-22 2010-10-26 Cernium Corporation Terrain map summary elements
CN101426080B (zh) * 2007-10-29 2012-10-17 三星电子株式会社 监控系统中检测并抑制相机移动产生的影响的设备和方法
EP2061004A1 (en) * 2007-11-14 2009-05-20 Sony Corporation Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
KR101348596B1 (ko) * 2008-01-22 2014-01-08 삼성전자주식회사 임장감 생성 장치 및 방법
US8571261B2 (en) * 2009-04-22 2013-10-29 Checkvideo Llc System and method for motion detection in a surveillance video
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
TWI407776B (zh) * 2009-06-30 2013-09-01 Silicon Integrated Sys Corp 影像產生裝置、靜態文字偵測裝置及相關方法
US9563815B2 (en) * 2009-09-15 2017-02-07 Tandent Vision Science, Inc. Method and system for processing an image received from a remote source
TWI413024B (zh) * 2009-11-19 2013-10-21 Ind Tech Res Inst 物件偵測方法及系統
CN102110297B (zh) * 2011-03-02 2012-10-10 无锡慧眼电子科技有限公司 一种基于累积光流和双背景滤波的移动物体的探测方法
CN102129692A (zh) * 2011-03-31 2011-07-20 中国民用航空总局第二研究所 一种双门限场面运动目标检测方法及其系统
US9424652B2 (en) 2011-06-30 2016-08-23 University Of Florida Research Foundation, Inc. Adaptive background estimation
US20130308856A1 (en) * 2012-01-12 2013-11-21 Google Inc. Background Detection As An Optimization For Gesture Recognition
US8929592B2 (en) * 2012-03-13 2015-01-06 Mitsubishi Electric Research Laboratories, Inc. Camera-based 3D climate control
JP5662962B2 (ja) * 2012-04-19 2015-02-04 富士フイルム株式会社 画像処理装置、方法及びプログラム
US9256959B1 (en) * 2013-08-29 2016-02-09 Marvell International Ltd. Systems and methods for color lens shading correction
DK3018483T3 (en) * 2014-11-07 2018-11-12 Photrack Ag METHOD AND SYSTEM FOR DETERMINING THE SPEED AND LEVEL OF A MOVING FLUID SURFACE
US9418426B1 (en) 2015-01-27 2016-08-16 Xerox Corporation Model-less background estimation for foreground detection in video sequences
JP6524497B2 (ja) * 2015-03-31 2019-06-05 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
WO2016165064A1 (zh) * 2015-04-14 2016-10-20 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
WO2018133101A1 (zh) * 2017-01-23 2018-07-26 富士通株式会社 图像前景检测装置及方法、电子设备
CN109151376B (zh) * 2017-06-27 2021-09-28 南京东大智能化系统有限公司 一种智能视频分析监控方法
CN107909070A (zh) * 2017-11-24 2018-04-13 天津英田视讯科技有限公司 一种道路积水检测的方法
CN113139953B (zh) * 2021-05-10 2022-11-04 宁波永新光学股份有限公司 检测识别图像中的颗粒污染物的方法及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329482A (ja) * 1989-06-26 1991-02-07 Toshiba Corp 移動物体検出装置
JP2001175959A (ja) * 1999-09-30 2001-06-29 Hitachi Kokusai Electric Inc 侵入物体検出方法及び侵入物体検出装置
JP2001209808A (ja) * 2000-01-26 2001-08-03 Nec Corp 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
JP2002329206A (ja) * 2001-04-27 2002-11-15 Matsushita Electric Works Ltd 画像処理方法
JP2003173435A (ja) * 2001-12-06 2003-06-20 Tietech Co Ltd 移動体検出方法及び移動体検出装置
JP2004208209A (ja) * 2002-12-26 2004-07-22 Mitsubishi Electric Corp 移動体監視装置および移動体監視方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698682A (en) * 1986-03-05 1987-10-06 Rca Corporation Video apparatus and method for producing the illusion of motion from a sequence of still images
IL141589A (en) 1998-09-10 2005-11-20 Ecchandes Inc Optical counting device using edge analysis
US6661918B1 (en) * 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
DE19958553A1 (de) * 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
US7221794B1 (en) * 2000-12-18 2007-05-22 Sportsvision, Inc. Foreground detection
JP4106874B2 (ja) * 2001-02-05 2008-06-25 ソニー株式会社 画像処理装置および方法、並びに記録媒体
KR100904340B1 (ko) * 2001-06-15 2009-06-23 소니 가부시끼 가이샤 화상 처리 장치 및 방법과 촬상 장치
CN1184796C (zh) * 2001-07-26 2005-01-12 佳能株式会社 图象处理方法和设备以及图象处理系统
WO2003036557A1 (en) * 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
TW577227B (en) * 2002-04-23 2004-02-21 Ind Tech Res Inst Method and apparatus for removing background of visual content
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US7177483B2 (en) * 2002-08-29 2007-02-13 Palo Alto Research Center Incorporated. System and method for enhancement of document images
US7359547B2 (en) * 2002-09-20 2008-04-15 Nippon Telegraph And Telephone Corporation Pseudo three dimensional image generating apparatus
DE10250781B4 (de) * 2002-10-30 2007-07-26 Orga Systems Gmbh Verfahren und Vorrichtung zur automatischen Segmentierung eines Vordergrundobjektes in einem Bild
US7139433B2 (en) * 2003-03-13 2006-11-21 Sharp Laboratories Of America, Inc. Compound image compression method and apparatus
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7574043B2 (en) * 2005-06-27 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Method for modeling cast shadows in videos
US20070076982A1 (en) * 2005-09-30 2007-04-05 Petrescu Doina I System and method for video stabilization
JP2007180808A (ja) * 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329482A (ja) * 1989-06-26 1991-02-07 Toshiba Corp 移動物体検出装置
JP2001175959A (ja) * 1999-09-30 2001-06-29 Hitachi Kokusai Electric Inc 侵入物体検出方法及び侵入物体検出装置
JP2001209808A (ja) * 2000-01-26 2001-08-03 Nec Corp 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
JP2002329206A (ja) * 2001-04-27 2002-11-15 Matsushita Electric Works Ltd 画像処理方法
JP2003173435A (ja) * 2001-12-06 2003-06-20 Tietech Co Ltd 移動体検出方法及び移動体検出装置
JP2004208209A (ja) * 2002-12-26 2004-07-22 Mitsubishi Electric Corp 移動体監視装置および移動体監視方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012050185A1 (ja) * 2010-10-14 2012-04-19 シャープ株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2012085233A (ja) * 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
JP2014048970A (ja) * 2012-08-31 2014-03-17 Secom Co Ltd 対象物検出装置
WO2017043332A1 (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
US11398041B2 (en) 2015-09-10 2022-07-26 Sony Corporation Image processing apparatus and method

Also Published As

Publication number Publication date
EP1697901A1 (en) 2006-09-06
EP1697901B1 (en) 2008-11-19
US20060126933A1 (en) 2006-06-15
DE602005011097D1 (de) 2009-01-02
CN1918604B (zh) 2011-01-26
JP4708343B2 (ja) 2011-06-22
CN1918604A (zh) 2007-02-21
WO2006064895A1 (en) 2006-06-22
US7359552B2 (en) 2008-04-15

Similar Documents

Publication Publication Date Title
JP4708343B2 (ja) 背景領域および前景領域をモデリングする方法
CN109584204B (zh) 一种图像噪声强度估计方法、存储介质、处理及识别装置
CN107256225B (zh) 一种基于视频分析的热度图生成方法及装置
US9258531B2 (en) System and method for video-quality enhancement
Choi et al. Robust moving object detection against fast illumination change
EP1766581A1 (en) Method for detecting desired objects in a highly dynamic environment by a monitoring system
CN103369209A (zh) 视频降噪装置及方法
Chen et al. Spatiotemporal background subtraction using minimum spanning tree and optical flow
Porikli Multiplicative background-foreground estimation under uncontrolled illumination using intrinsic images
Devi et al. A survey on different background subtraction method for moving object detection
Tanaka et al. Non-parametric background and shadow modeling for object detection
Lai et al. Robust background extraction scheme using histogram-wise for real-time tracking in urban traffic video
Taha et al. Moving shadow removal for multi-objects tracking in outdoor environments
Huang et al. Tracking camouflaged objects with weighted region consolidation
CN106485713B (zh) 视频前景检测方法
Li et al. GMM-based efficient foreground detection with adaptive region update
JP6618438B2 (ja) 前景領域抽出装置、方法、及びプログラム
Chiu et al. Moving/motionless foreground object detection using fast statistical background updating
Frejlichowski et al. The removal of false detections from foreground regions extracted using adaptive background modelling for a visual surveillance system
Nandini et al. A survey of the existing shadow detection techniques
Zhu et al. A novel rain detection and removal approach using guided filtering and formation modeling
Davarpanah et al. Using multi-scale filtering to initialize a background extraction model
Kumar et al. Foreground background segmentation using temporal and spatial markov processes
An et al. Motion estimation with histogram distribution for visual surveillance
Cuevas et al. Versatile bayesian classifier for moving object detection by non-parametric background-foreground modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110316

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees