JP4668921B2 - 画像中のオブジェクト検出 - Google Patents

画像中のオブジェクト検出 Download PDF

Info

Publication number
JP4668921B2
JP4668921B2 JP2006538930A JP2006538930A JP4668921B2 JP 4668921 B2 JP4668921 B2 JP 4668921B2 JP 2006538930 A JP2006538930 A JP 2006538930A JP 2006538930 A JP2006538930 A JP 2006538930A JP 4668921 B2 JP4668921 B2 JP 4668921B2
Authority
JP
Japan
Prior art keywords
foreground
segmented
picture elements
segmentation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006538930A
Other languages
English (en)
Other versions
JP2007510993A (ja
Inventor
シュ、リ−クゥン
ランダバソ、ホセ−ルイス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Publication of JP2007510993A publication Critical patent/JP2007510993A/ja
Application granted granted Critical
Publication of JP4668921B2 publication Critical patent/JP4668921B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像の中のオブジェクトを検出するための方法とシステムに関し、より詳細には、それらのオブジェクトの照明の影及びハイライトを考慮に入れて移動するオブジェクトを検出する方法とシステムに関するが、これらに限定されない。
ある場面のビデオ画像の中の人や車等の移動するオブジェクトの自動的な検出は多くの研究者の目標であり、自動化された分類アプリケーション又はトラッキングアプリケーションの提供の前触れである。加えて、自動オブジェクト検出システムはそれ自体、監視アプリケーションと検出アプリケーションにとって有効である。フォアグラウンド又は関心のある移動するオブジェクトバックグラウンドの場面を表現する画像の中のピクチャエレメント(ピクセル)とを区別する実際のステップは当技術分野において概して公知であり、ここでは「セグメンテーション」として知られている。
オブジェクトの自動検出に関係する当技術分野において公知の問題の1つは、照明条件の変化をどのようにして補償するのか、特に実際のオブジェクトと、そのオブジェクトが投げかけるあるいは含む可能性がある影又はハイライトを、どのようにして見分けるのかである。特にオブジェクト分類システム又はトラッキングシステムの中では、それが検出されたオブジェクトであり、その影ではないと無理なく確信する必要性は以後のマッチングステップにとって重要であるため、影とハイライトにより引き起こされるセグメント化されたピクセルを検出し、削除する技法が当技術分野において提案されてきた。
さらに詳細には、「人の集団を追跡調査すること(Tracking Groups of People)」、コンピュータビジョンと画像の理解、80、42−56、2000の中でMcKennaらは、(オブジェクトの移動に比較して低速であると仮定される)照明の変化を考慮に入れるためにバックグラウンド画像を再帰的に適応する適応バックグラウンド画像が利用される、ピクセルセグメンテーション技法を説明している。次にカラーチャネルバックグラウンド除去技法が実行され、任意の特定の入力画像について、入力画像ピクセルのRGBチャネルが適応バックグラウンドと比較され、それぞれの入力とバックグラウンドR値、G値又はB値の論理的な比較の結果に応じて、ピクセルは「フォアグラウンド」又は「バックグラウンド」のどちらかとして設定される。「フォアグラウンド」ピクセルのマップは、以後、追加の処理のために使用されるマスクを構成する。
それが色差バックグラウンド除去技法を使用して生成されたために、フォアグラウンドピクセルのマスクは、オブジェクトの影及び/又はハイライトを表すピクセルを含んでいる。したがって、McKennaらは、ピクセルの傾きとクロミナンス情報を使用して影が検出される第2のピクセルセグメンテーション技法も説明する。さらに詳細には、及びHorprasetらの「リアルタイムのロバストなバックグラウンド除去技法及び陰影検出のための統計的な手法(A Statistical Approach for Real−time Robust Background Subtraction and Shadow Detection)」、IEEE ICCV’99 FRAME_RATEワークショップに説明されているように、影の中にあるピクセルの色度が、それが影の中にないときにその同じピクセルの色度と大きく異ならないという点で、色の恒常性特性を示していることが公知である。代わりに、唯一の変化はピクセルの輝度にある。したがって、バックグラウンドと比較して大きな輝度の変化があるが、大きな色度の変化はない任意のピクセルが影によって引き起こされてきたと仮定する点で、McKennaらによって、この色の恒常性は第1の弁別器として使用されている。
しかしながら、McKennaらは、黒のズボンが灰色の小道を横切るとき等、フォアグラウンドオブジェクトがバックグラウンドと同じ色度であるときに、前記色の恒常性の弁別器が失敗することにも留意する。したがって、McKennaらは、入力ピクセルが影のピクセルである場合には、そのテクスチャ情報はそのバックグラウンド値から大きく変化したはずがないことに基づいて、入力画像とバックグラウンド画像のピクセル傾き情報を、その間で比較を実行するために使用することも説明している。したがって、ピクセルは、色度又は傾きのどちらかの情報がその分類をサポートする場合にフォアグラウンドとしてフラグを立てられる。
McKennaらは前記技法を使用してピクセルセグメンテーションを実行した後に、連結されたオブジェクトを識別するために連結成分分析を実行する。彼らは、色度と傾きの弁別のために、連結されたオブジェクトが、連結されたピクセルの境界内に全体的に位置し、フォアグラウンドとしてセグメント化されたはずであるピクセルが誤ってバックグラウンドとしてセグメント化され、したがって連結されたオブジェクトの一部ではないという点で、ピクセルが「穴」を含むことがあることに留意する。これを矯正するために、連結オブジェクトの穴の一部である各「バックグラウンド」ピクセルが、RGB除去からのマスクが、それがフォアグラウンドであることを示す場合にフォアグラウンドに設定されるという点で、前述されたRGB除去方法により生じる「マスク」が参照される。このようにして連結オブジェクトの中の穴は削除されてよく、影を考慮に入れるフォアグラウンドとバックグラウンドのセグメンテーションが実行されてよい。
McKennaらによって説明されている色の恒常性の技法と傾きの技法が、フォアグラウンド−バックグラウンドピクセルセグメンテーションのために影を識別するときに有効である一方、McKennaらによって説明されている前記技法は、セグメンテーションのための「穴」を考慮に入れる前に実行される連結成分分析のために実際の状況で使用されるときに、いくつかの問題を呈する。例えば、セグメンテーションのための「穴」が実際に重複し、完全にオブジェクトを二分する場合には、連結成分分析は2つのブロブを単一のオブジェクトとしてではなく、代わりに2つの別個のオブジェクトとして認識するであろう。結果として、重複する「穴」はそのようなものとして認識されないため、RGB除去マスクを参照して塗りつぶすことができない。逆に、連結成分分析が実行されるまで「穴」自体は識別されないため、塗りつぶされる。この逆理の結果は、いくつかの状況では、現実にはただ1つのオブジェクトが存在する場合に、2つのより小さな連結オブジェクトが識別される可能性があるという点である。
第1の態様において、本発明は、ピクチャエレメントから構成されている入力画像の中でオブジェクトを検出するための画像処理方法を提供し、前記方法は、
a)第1のセグメンテーション技法を使用して画像バックグラウンドを形成するそれらのピクチャエレメントから、前記入力画像の中のフォアグラウンドオブジェクトを表現するピクチャエレメントをセグメント化することであって、フォアグラウンドとしてセグメント化された前記ピクチャエレメントが、前記オブジェクトの影又はハイライトを表現するエレメントを含むことと、
b)影及び/又はハイライトを検出するように適応された少なくとも1つの他のセグメンテーション技法を使用して、前記フォアグラウンドオブジェクトを表現するピクチャエレメントから、オブジェクトの影又はハイライトの特性を有するピクチャエレメントをセグメント化することと、
を備え、前記方法は、
c)すでにフォアグラウンドとしてセグメント化されているピクチャエレメントに、周囲のピクチャエレメントをフォアグラウントとしてセグメント化することと、
d)ステップa)の後にフォアグラウンドとしてセグメント化されなかったピクチャエレメントが、フォアグラウンドとしてセグメント化されるであろう、又はセグメントされるまでステップc)を繰り返すことと、
e)フォアグラウンドとしてセグメント化された隣接するピクチャエレメントのグループをオブジェクトとして検出することと、
の各ステップをさらに備えることにより、特徴付けられる。
連結成分分析等を使用してあらゆるオブジェクトの検出の前に、追加のセグメント化ステップc)を実行することにより、影除去処理のために生じたオブジェクトを表す隣接するセグメント化されたピクセルのグループの中の穴、交差点等のあらゆるアーチファクトは、除去により補償できる。実際には、セグメント化ステップc)は、ブロブが(交差点の場合には)1つのブロブに融合され直す、あるいはブロブ内のあらゆる穴がオブジェクト検出ステップの前に塗りつぶされるように、影除去動作の後に残るスケルトンブロブを「成長させる」形態学的な拡張演算である。したがって、本発明の全体的な効果は、オブジェクト検出ステップが実行されるときに、場面の中のオブジェクトごとに単一のオブジェクトが検出されるが、オブジェクトの中のあらゆる影又はハイライトはオブジェクト検出に影響を及ぼさないことを確実にすることである。したがって、本発明のオブジェクト検出技法は、影を引き起こす照明の変化に対して強い(robust)。
本発明の好ましい実施形態では、セグメント化ステップa)は好ましくは以下を備える。
フォアグラウンドとしてセグメント化されなければならない、入力画像のピクチャエレメントごとに、周囲のピクチャエレメントに関係する確率モデルとのピクチャエレメントの比較によってフォアグラウンドセグメンテーションを確証し、モデルの少なくとも半分が、ピクチャエレメントがフォアグラウンドであることを示す場合に、前記フォアグラウンドセグメンテーションが確認されることである。これは、入力画像の中の雑音によって、又は不安定であるカメラ等の画像捕捉手段によって引き起こされることのある、ピクセルの「偽のフォアグラウンド」セグメンテーションを防止するのに役立つ。
第2の態様から、本発明は、コンピュータシステム上での実行時に、プログラム又はプログラムの組によってコンピュータシステムが第1の態様の方法を実行させるように構成される、1つのコンピュータプログラム又はプログラムの組も提供する。さらに、追加の態様から、第3の態様に従って1つのコンピュータプログラム又はプログラムの組を記憶する、コンピュータ読み取り可能記憶媒体も提供される。コンピュータ読み取り可能記憶媒体は、限定されない例として、磁気ディスク、DVD、ソリッドステートメモリ、光ディスク、光磁気ディスク等のいずれか等の当技術分野において公知の任意の適切なデータ記憶装置又は媒体であってよい。
第4の態様から、本発明は、ピクチャエレメントから構成されている入力画像の中でオブジェクトを検出するための画像処理システムも提供し、前記システムは、
処理される入力画像を受信し、以下の
a)一般的なバックグラウンド画像との入力画像の差異を検出するように適応されている第1のセグメンテーション技法を使用して、入力画像の中のフォアグラウンド又は移動するオブジェクトを表すピクチャエレメントを、画像バックグラウンドを形成するそれらのピクチャエレメントからセグメント化し、フォアグラウンドとしてセグメント化されたピクチャエレメントが、オブジェクトの影又はハイライトを表すエレメントを含む、
b)影及び/又はハイライトを検出するように適応される少なくとも1つの他のセグメンテーション技法を使用して、フォアグラウンドオブジェクトを表すそれらのピクチャエレメントから、オブジェクトの影又はハイライトの特徴を有するピクチャエレメントをセグメント化する、
画像処理演算をそれに適用するように構成された、画像処理手段を備え、以下の、
c)ステップa)の後にフォアグラウンドとしてセグメント化されなかったピクチャエレメントが、フォアグラウンドとしてセグメントされるであろう、又はセグメント化されるまでフォアグラウンドとしてすでにセグメント化されたそれらのピクチャエレメントに、周囲のピクチャエレメントをフォアグラウンドとして繰り返しセグメント化する、
d)フォアグラウンドとしてセグメント化されていた隣接するピクチャエレメントのグループをオブジェクトとして検出する、
演算をさらに適用することにより、特徴付けられている。
第4の態様の中では、第1の態様に関して前述されたのと同じ利点と同じ追加の特徴と利点が得られる。
本発明の実施形態は、連結されたオブジェクトを識別するために連結成分分析を実行する前に影の処理のためにセグメンテーションで残された「穴」を考慮する、改善されたピクセルセグメンテーション技法を提供することによって、前述された従来の技術をよりよいものにする。これは、あらゆるセグメント化されたブロブ(「ブロブ」は隣接するセグメント化されたピクセルの集合である)の境界のために「マスク」を与えるために当技術分野において公知であるようなフォアグラウンドセグメンテーション技法を適用し、入力画像の中で影とハイライトを識別するためにMcKennaらによって説明された技法に類似する影処理技法を適用することにより、達成される。またMcKennaらによって言及されたように、影処理は「スケルトン」のセグメント化されたブロブを残す結果となり、ブロブはバックグラウンド除去から得られるブロブに比較して穴を含み、サイズが縮小される、あるいは二分されていることもある。連結オブジェクトを検出するためにブロブに連結成分分析を適用する前に、形態学的な拡張演算がその中のピクセルを拡張するためにスケルトンブロブに適用され、前記拡張演算は、再構築されたブロブがバックグラウンド除去から得られる(再構築される1つ又は複数のブロブとして画像内で実質的に同じ位置に位置する)対応するブロブのマスクのそれぞれの境界に接するまで、スケルトンブロブを再構築するために繰り返し適用される。形態学的な拡張演算を使用してブロブを「成長させる」ことによって、影処理から得られる「スケルトン」ブロブの中のあらゆる穴又は交差点は、オブジェクトとしてブロブを識別するために連結成分分析が実行される前に、再構築されたブロブを示すために概して埋めることができる。影は一般的には特定の方向に沿った元のオブジェクト形状の拡張された領域であるため、さらにバックグラウンド除去ステップからのそれぞれのブロブマスクが触れられる、又は単に重複されるまでだけに任意のブロブに拡張演算を条件付で実行することによって、再構築されたブロブには影が含まれないことが保証できる。
本発明の追加の特徴及び利点は、例証としてのみ提示されているその実施形態の以下の説明から、及び添付図面を参照することにより明らかになるであろう。
本発明の実施形態は、図、及び示されている実施形態の動作の例に関してここで説明される。
図1は、本発明の実施形態を提供する例のシステムアーキテクチャを描いている。さらに詳細には、本発明は概して入力画像の中でオブジェクトを検出するための画像処理技法に関するため、本発明は主にコンピュータ上で実行されるソフトウェアとして具現化されている。したがって、本発明のシステムアーキテクチャは、当技術分野において周知であるように汎用コンピュータ16を備える。コンピュータ16には、コンピュータによって生成される出力画像がユーザに表示されるディスプレイ20が備えられ、キーボード、マウス等の多様なユーザ入力装置18がさらに備えられている。汎用コンピュータ16には、プログラムとデータが記憶される、ハードディスク、メモリ、光ディスク等のデータ記憶媒体22も備えられている。
さらに詳細には、データ記憶媒体22上には、適応バックグラウンド画像に対応する記憶されているデータ24、入力画像に対応するデータ28、及び画像データ、本発明の動作中に中間記憶装置として使用されるセグメンテーションマップ等の作業データに対応するデータ30が記憶されている。さらに、データ記憶媒体22上には、制御プログラム31、バックグラウンド適応プログラム32、フォアグラウンドセグメンテーションプログラム36、連結成分プログラム26、影検出プログラム34及びブロブ再構築プログラム38等のプログラムの形を取る、実行可能なプログラムコードが記憶されている。これらのプログラムのそれぞれの動作は順に後述される。
コンピュータ16は、カメラ等の画像キャプチャ装置12から画像を受信するように構成されている。画像キャプチャ装置12はコンピュータ16に直接的に接続されてよい、あるいは代わりに、インターネット等のネットワーク14を介してコンピュータ16に論理的に接続されてよい。画像キャプチャ装置12は、オブジェクトが検出されなければならない場面の連続ビデオ画像を提供するように構成され、前記ビデオ画像は、特定の輝度特性とクロミナンス特性を有するために特定の値を取るピクチャエレメント(ピクセル)から構成されている。画像キャプチャ装置12から出力されるピクセルのために使用されるカラーモデルは、RGB、YUV等、当技術分野において公知のいずれかであってよい。
作動中、汎用コンピュータ16はネットワークを介して、又は直接的に画像キャプチャ装置12から画像を受信し、その中のオブジェクトを検出するために受信された入力画像を処理するように、データ記憶媒体22に記憶されている多様なプログラムを実行する。本実施形態の動作のさらに詳細な説明は、図2を参照してここで行われる。
図2は、本発明の実施形態の動作の流れ図を描いている。ステップ2.2で開始し、ここでは汎用コンピュータ16は、ネットワーク14を介して又は直接的にのどちらかで画像キャプチャ装置12からの画像から、本発明を使用して分析される入力画像を受信する。次に本発明の実施形態は、その中の関心のあるフォアグラウンドオブジェクトを検出するために受信された入力画像のコンテンツを分析するために作動する。この実施形態の中では、「フォアグラウンド」オブジェクトは移動しているオブジェクト、又は関心のある他のオブジェクトとして解釈されている。フォアグラウンドオブジェクトを検出するプロセスは、フォアグラウンドオブジェクトを表すピクセルを、画像の中の場面のバックグラウンドを表すピクセルから効果的にセグメント化(つまり、区別)してから、それらをオブジェクトとして特徴付けるためにセグメント化されたフォアグラウンド画像に対して連結成分分析を実行することに依存している。
汎用コンピュータは、制御プログラム31の制御下で受信された画像を処理するために動作する。つまり、制御プログラム31は受信された入力画像に適用される処理の順序を制御し、そのそれぞれの処理動作を順に実行するために他のプログラムを実行し、入力データをそれらに渡し、適宜にそれらから処理されたデータを受け取る。これを鑑みて、いったん入力画像が受信されると実行される第1の処理は、バックグラウンド場面に属していないそれらの画像のセグメンテーションを実行することである。本実施形態の中では、「リアルタイムトラッキングを使用する活動の学習パターン(Learning Patterns of Activity Using Real Time Tracking)」、IEEEパターン分析とマシンインテリジェンスに関する報告書、22(8)、2000年8月の中でStauffer及びGrimsonにより提案された、適応バックグラウンド除去方法が採用された。ここでは、Kガウス分布の混合物が、経時的に撮像された場面で、各ピクセル位置で色の変化をモデル化するために使用される。それぞれの入信フレームでガウス分布は更新され、次にどのピクセルがバックグラウンドプロセスの結果生じる可能性が高いのかを判断するために使用される。このモデルにより、風の中で揺らめく木や旗等の瞬間的な変動ではないが、ゆっくりとした照明と場面の変化を経験する背景場面の適切な表現が可能になる。
前記を鑑みて、本実施形態の中では、ステップ2.4でフォアグラウンドピクセルが、StaufferとGrimsonの技法を使用して入力画像28からセグメント化され、ステップ2.6で、適応バックグラウンド画像24が受信された入力画像を考慮に入れるために更新され、前記更新された画像はデータ記憶媒体22に記憶される。ステップ2.4を行うための必要な手順の完全な詳細は、StaufferとGrimson、同書、第3.1項と第3.2項に説明されている。ステップ2.6に関して、バックグラウンドピクセルは以下のように得られる。バックグラウンド画像の中のピクセルカラーは、それらがステップ2.4でバックグラウンドとして分類される場合に、入信画像のピクセルカラーの形態をとる。入信ピクセルがフォアグラウンドとして分類された場合には、最低の分散に最大の重みがあるガウス分布の平均(ピクセルの中の最もありそうなバックグラウンドカラー)が、バックグラウンドピクセルカラーとして選ばれる。その結果、更新されたバックグラウンド画像は入信フレームごとに得ることができる。実施形態の中では、ともに制御プログラム28の制御下で、セグメンテーションステップ2.4はフォアグラウンドセグメンテーションプログラム36によって実行され、バックグラウンド適応ステップ2.6はバックグラウンド適応プログラム32により実行される。ここに示されている例の画像を生成するために使用される、入力画像のシーケンスからの例のバックグラウンド画像が図5に示されている。丸で囲まれたオブジェクトによって影が投げかけられた例の入力画像が図6に示されている。
ステップ2.4で実行されるセグメンテーションの結果は、図7に描かれている例の入力画像について、図8に示されているようにセグメント化されたピクセルのマップが得られるということである。しかしながら、このようにして得られたフォアグラウンドピクセルは、バックグラウンドの中、又は揺れるカメラからの雑音のために偽の検出を免れていない。したがって、ステップ2.8では、この問題を緩和するために偽フォアグラウンドピクセル抑制手順が導入される。ここでは、ピクセルが最初に、ステップ2.6で実行されるセグメンテーションによってフォアグラウンドピクセルとして分類されると、その8個の連結された隣接するピクセルモデルが調べられる。これらのモデルの大部分が、このピクセルに適用されるときに、それがバックグラウンドピクセルであることに合意するのであれば、それは偽の検出と見なされ、フォアグラウンドセグメンテーションから削除される。この「偽のフォアグラウンド」試験は、StaufferとGrimsonの技法を使用してステップ2.4でセグメント化された、あらゆるピクセルに適用されるため、これらのピクセルのそれぞれについてフォアグラウンドとしてセグメンテーションが確証される。
「偽のフォアグラウンド」の確証に続き、例えば図8に図示されるようなセグメント化されたピクセルのマップが、後にプロセスでセグメント化されたピクセルの「マスク」として使用するために、ステップ2.10で記憶される。このセグメント化されたピクセルのマップは、データ記憶媒体22の作業データ領域30に記憶される。
いったんフォアグラウンドピクセルが識別されると、追加の検出技法が、これらのフォアグラウンドピクセルのいくつかが、投げかけられた影又はハイライトである可能性がある領域に対応するかどうかを解明するために、適用される。Horprasertらの「リアルタイムのロバストなバックグラウンド除去及び陰影検出のための統計的な手法(A Statistical Approach for Real time Robust Background Subtraction and Shadow Detection)」、ICCV’99 FRAME RATEワークショップの第4.2項説明されるように、ピクセルは、それがバックグラウンド画像の中の同じピクセルの色度に類似する色度であるが、より低い明度を有する場合に、影のピクセルと見なすことができる、あるいはそれがバックグラウンド画像の中の対応するピクセルに類似する色度であるが、より高い明度を有する場合にハイライトピクセルと見なすことができる。この影のピクセルとハイライトピクセルの特性は、入力画像の中の影ピクセル又はハイライトピクセルの色度がバックグラウンド画像の中の対応するピクセルに類似する、又は同一であり、唯一の差異は入力画像ピクセルの輝度にあるという点で、「色の恒常性」と呼ばれている。したがって、ステップ2.12で影及び/又はハイライトを検出する上での第1のステップとして、色の歪み(「CD」)と明度の歪み(「BD」)が、それぞれのフォアグラウンドピクセルとステップ2.6で記憶された適応バックグラウンド画像の対応するピクセルとの間で、Horprasertらによって説明されるように、またここで図3に示されるように計算されて、考えられる影が検出される。さらに詳細には、ステップ2.12では、色の歪みと明度の歪みについてアグレッシブな閾値が使用され、特に以下の論理条件が適用される。
IF CD<10 THEN
IF 0.5 < BD < 1.0−>影
IF 1.0 < BD < 1.25−>ハイライト
さもなければ、フォアグラウンド
本発明の他の実施形態では、閾値は前記に指定されたものと異なる可能性がある。つまり閾値の正確な値は、任意の特定のインプリメンテーションの校正によって検出されるべきである。
前記の論理的な条件により、影ピクセル又はハイライトピクセルのどちらかとして識別されるそれらのセグメント化されたピクセルは、次にフォアグラウンドセグメンテーションマップからの除去のために印を付けられる。本実施形態では、前記ステップが、制御プログラム28の制御下で影検出プログラム34によって実行されることに留意されたい。
前記の色の恒常性試験は影を検出する上では効果的であるが、関心のあるオブジェクトが推測される影の色に類似する色を有する場合には、前記手順が効果的ではなかったことが観察された。これを補正するために、セグメント化されたピクセルの領域の傾き/テクスチャを比較する第2のプロセスも、前記に参照されたMcKennaらにより彼らの論文「人の集団を追跡調査すること(Tracking Groups of People)」の第3.2項に説明されている方法に類似した方法で使用される。さらに詳細には、本発明の実施形態の中のステップ2.14では、影検出プログラム34は、本セグメンテーションマップに従ってセグメント化済みと印されている入力画像のそれらのピクセルの空間傾きを計算するために動作してから、計算された傾きを、McKennaらによって彼らの論文の第3.2項に説明されるように適応背景から、それぞれの対応するピクセル相応して計算された傾きと比較する。適応バックグラウンドに類似する傾きを有することが判明している、入力画像のセグメント化されたピクセルは、次にフォアグラウンドセグメンテーションマップからの除去の候補として印を付けられる。
ステップ2.12とステップ2.14の動作の結果は、影ピクセルとハイライトピクセルの両方ともセグメンテーションマップからの除去のために印を付けられているが、この段階ではセグメント化されたピクセルは、まだセグメンテーションマップから除去されていないということである。したがって、ステップ2.16では、影検出プログラム34が、影ピクセル又はハイライトピクセルの候補であるとして、ステップ2.12と2.14両方で識別されたそれらのピクセルを識別し、セグメンテーションマップからそれらのピクセルを除去する。結果として、バックグラウンドと色と傾きの両方の類似性を示したそれらのピクセルは影又はハイライトして検出され、オブジェクトセグメンテーションから除去される。
余談として、好ましい実施形態の中ではピクセルは、それが両方のステップ2.12と2.14によって潜在的な影/ハイライトピクセルとして印を付けられていた場合、ステップ2.16でセグメンテーションから除去されるにすぎないが、代替実施形態ではこれは当てはまる必要がなく、ピクセルは、ステップ2.12と2.14で実行される試験の一方又は他方のどちらか、あるいは両方が、ピクセルを影/ハイライトピクセルであると示す場合に、セグメンテーションから除去されてよい。この結果、両方の試験が満たされなければならない好ましい実施形態においてより、なおさらに多くのピクセルが影/ハイライトピクセルとして識別され、フォアグラウンドセグメンテーションから除去される。
主要な実施形態に戻ると、(論理条件のために選ばれる閾値のために)影除去技法のアグレッシブな適用のために、関心のあるオブジェクトを適切に表現する多くのセグメント化されたピクセルも、セグメンテーションマップから除去されたことも判明するであろう。ステップ2.12から2.16の適用により作成される例のセグメンテーションマップは、図9に示されており、ステップの実行の前のセグメンテーションマップを描いている対応する図8と比較すると、関心のあるオブジェクトを表すセグメント化されたピクセルがはるかに削減され、オブジェクトを表すセグメント化されたピクセルのグループの中の、及びグループの穴と交差点の両方を示している。しかしながら、図8では非常に目立つ影のピクセルを表すセグメント化されたピクセルが、図9内で完全に除去されていることにも留意されたい。
しかしながら、図9から分かるように、ステップ2.16で記憶されたセグメント化されたピクセルのマップは、その中に誤ってセグメント化されたピクセルのスペックル(speckle)を含んでいるため、ステップ2.17では、セグメンテーションマップ上でのスペックル雑音除去が、隔離された雑音のあるフォアグラウンドピクセルを抑制するために実行される。このスペックル雑音除去技法は、式1に示されるような形態学的な演算子を使用して実行され、
Figure 0004668921
ここではNは図4に示されている構造化要素である。図4から、Nが原点の4連結された(four−connected)近傍系を備える3×3の構造化要素であるが、原点が含まれていないことが分かる。さらに、方程式1の項
Figure 0004668921
がMのピクセルに4連結された、つまり隣であるすべてのピクセルを識別する。したがって
Figure 0004668921
はMの中にあり、やはり4連結された近傍系を有するすべてのピクセルを識別し、したがってこれらの点は、隔離された点を除きM内のすべての点に対応する。このスペックルフィルタリングステップの結果生じる、スペックルのないセグメンテーションマップは、次に記憶媒体22の作業データ領域30に記憶される。
オブジェクトを検出するための連結成分分析が、影除去に続き図9のブロブで実行されなければならない場合には、ピクセルのグループ内の多様な穴と交差点のために、多様な誤りのオブジェクトが検出されるであろう。したがって、本発明の実施形態は、ピクセルのセグメント化されたブロブの中の多様な穴と交差点が除去され、これが、現在セグメント化されているピクセルに周囲のピクセルをセグメント化するために、セグメンテーションマップの中のセグメント化されたピクセルに形態学的な拡張演算を繰り返し適用することによって、ステップ2.18で実行されることを与える。この形態学的な拡張演算は、セグメント化されたブロブがステップ2.4(つまり図8)でセグメンテーションから生じたセグメント化されたピクセルの対応するそれぞれのブロブの境界に触れる又は単に重複するまで、繰り返し実行され、その結果、前記拡張演算は停止される。これの効果は、セグメント化されたピクセルのブロブの中のあらゆる穴又は交差点を埋めるために、影除去プロセス後に残されたセグメント化されたブロブを「成長させる」ことである。
さらに具体的には、ステップ2.18では、(要素の各ブロックが「1」に設定されている)9×9ブロック構造化要素を使用する拡張演算が、フォアグラウンドピクセルとしてすでにセグメント化されているピクセルに周囲のピクセルをセグメント化するために、ブロブ再構築プログラム38によって、図9に対応するセグメンテーションマップのフォアグラウンドセグメント化ピクセルで実行される。次に、ステップ2.20では、このようにして得られたセグメンテーションマップの中のセグメント化されたブロブの領域は、ステップ2.4のセグメンテーションステップ、つまりStaufferとGrimsonのセグメンテーションから得られたセグメンテーションマップである、記憶されているマスクの中のセグメント化されたブロブと比較される。ステップ2.22では、形態学的な拡張の結果として得られたセグメント化されたブロブのいずれかが、マスクセグメンテーションマップのセグメント化されたブロブに触れるのか、あるいは重複するのかを判断するための評価が実行される。この評価が、マスクセグメンテーションブロブの接触又は重複がないと判断すると、処理は再び実行される形態学的な拡張ステップ2.18にループで戻る。ステップ2.18、2.20、及び2.22を備えるループは、ステップ2.22の評価が正を戻すまで繰り返し実行され、その場合ループはそれから終了する。したがって、正式には、セグメンテーションマップ内のセグメント化されたブロブは式2に従って再構築される。
Figure 0004668921
ここでは、Mはステップ2.3のセグメンテーションから得られるマスク画像であり、
Figure 0004668921
はS.2.12から2.16の影/ハイライト除去ステップ後のセグメント化されたピクセルであり、SEはサイズが通常オブジェクトのサイズに依存する構造化要素である。前述されたように、9×9正方形要素が我々のすべての試験でうまくいくことが証明されたが、拡張を生じさせる他のサイズの構造化要素が使用されてよい。この形態学的な拡張ステップの根底にある考えは、影が除去されたブロブは誤った影除去に対して強い少なくとも多くの点を維持するという点である。これらの強い点は、それらがステップ2.4のセグメンテーションから得られる元のブロブ内のシルエットの一部を形成する限り、近接する点の再構築を先導するために適している。
いったん処理ループが終了すると、ブロブ再構築プログラム38によって出力される結果として生じるセグメンテーションマップは、図9に比較されるときに、セグメント化されたピクセルブロブが再構築され、その中のあらゆる穴と交差点が削除されたことが分かる図10に示される例に似ているはずである。さらに、図10の再構築されたセグメント化されたピクセルブロブが、セグメンテーションの中のあらゆる実質的な影ピクセルを含まないことも分かる。したがって、図10でこのようにして取得されたセグメント化されたピクセルブロブは、それぞれ検出されたオブジェクトの中に1つのオブジェクトに属すると推定されるすべてのピクセルをリンクするために、伝統的な8接続性連結成分分析アルゴリズムへの入力として使用できる。このようにして、ステップ2.24では、連結成分分析がセグメンテーションマップ内に含まれているセグメント化されたブロブからオブジェクトを検出するために、連結成分プログラム26によって処理ループから得られるセグメンテーションマップで実行される。次に検出されたオブジェクトを識別するデータが記憶媒体22の作業データ領域30内に記憶され、以後、オブジェクト分類アプリケーション、オブジェクトトラッキングアプリケーション等に対する入力として使用されてよい。代わりに、本発明の実施形態は、オブジェクトを検出し、ディスプレイ20で前記オブジェクトをユーザに表示するためだけに、単独で使用されてよい。
他の態様では、例えばコンピュータ16が、出力装置に、オブジェクトの検出の音声又は視覚による表示をユーザに与えさせる等、1つ又は複数のオブジェクトが入力画像の中で検出されると追加のアクションが実行されてよい。したがって、本発明の実施形態は監視アプリケーション等での使用に特に適している。
文脈上明らかに他の意味に解すべきではない場合、説明全体及び請求項では、ワード「備える」「備えている」等は、排他的又は包括的な意味と対照的に含めた意味で、つまり「含むがこれに限定されない」と解釈されなければならない。
本発明の実施形態によるシステムの概略ブロック図である。 本発明の実施形態により実行されるステップを描く流れ図である。 本発明の実施形態で使用される色の恒常性の原理を描くベクトル図である。 本発明の実施形態で使用される形態学的な演算子のマップである。 本発明の実施形態で使用される例の適用されたバックグラウンド画像である。 本発明の実施形態に対する入力として使用されてよい、強調表示された影のある例の入力画像である。 例の中で本発明の実施形態に対する入力として使用されている例のビデオ画像である。 実施形態の中で図7に適用される第1のセグメンテーション技法によって生成されるセグメンテーションマスク画像である。 実施形態による影とハイライトの除去の結果生じるセグメンテーションマップである。 本発明の形態学的な拡張演算が適用された後の、図7の画像に対応するセグメンテーションマップである。

Claims (6)

  1. 入力画像の中でオブジェクトを検出するための画像処理方法であって、前記方法はデータプロセッサを有するコンピュータで実行され、前記画像は複数のピクチャエレメントから構成され、該方法は、
    a)第1のセグメンテーション技法を使用して画像バックグラウンドを形成する前記複数のピクチャエレメントから、前記入力画像の中でフォアグラウンドオブジェクトを表現する複数のピクチャエレメントをセグメント化するステップであって、フォアグラウンドとしてセグメント化された前記複数のピクチャエレメントが、前記オブジェクトの影又はハイライトを表現する複数のエレメントを含むステップと、
    b)前記フォアグラウンドオブジェクトを表す前記セグメント化された複数のピクチャエレメントの位置を含むセグメンテーションマスクをデータメモリに記憶するステップと、
    c)影又はハイライトを検出するように構成された少なくとも1つの他のセグメンテーション技法を使用して、オブジェクトの影又はハイライトの前記特徴を有する複数のピクチャエレメントを、前記フォアグラウンドオブジェクトを表現する前記複数のピクチャエレメントからセグメント化するステップと、
    d)フォアグラウンドとしてすでにセグメント化されている前記複数のピクチャエレメントの周囲のピクチャエレメントを、形態学的な拡張演算を実行してフォアグラウンドとしてセグメント化するステップと、
    e)ステップd)でフォアグラウンドとしてセグメント化された前記周囲のピクチャエレメントを前記記憶されたセグメンテーションマスクと比較するステップと、
    f)ステップe)での比較結果により、前記セグメント化された周囲のピクチャエレメントが前記記憶されたセグメンテーションマスクのフォアグラウンドオブジェクトの境界にタッチしないと判断される場合には、ステップd)とe)を繰り返すステップと、
    g)前記比較結果により、前記セグメント化された周囲のピクチャエレメントが前記記憶されたセグメンテーションマスクのフォアグラウンドオブジェクトの境界にタッチすると判断される場合には、フォアグラウンドとしてセグメント化された隣接するピクチャエレメントのグループをオブジェクトとして検出するステップと、
    を含む画像処理方法。
  2. 前記セグメント化ステップa)は、
    フォアグラウンドとしてセグメント化されなければならない入力画像のピクチャエレメントごとに、周囲のピクチャエレメントに関係する確率モデルと前記ピクチャエレメントとを比較することにより前記フォアグラウンドセグメンテーションを確証するステップを含み、前記確率モデルの少なくとも半分が、前記ピクチャエレメントがフォアグラウンドであることを示すと、前記フォアグラウンドセグメンテーションが確認される、請求項1に記載の画像処理方法。
  3. コンピュータによって実行されるときに、それらが請求項1または2に記載の前記方法を実行するために前記コンピュータを制御するように構成された、コンピュータプログラム
  4. 請求項3に記載のコンピュータプログラムを記憶する、コンピュータ読み取り可能記憶媒体。
  5. 入力画像の中でオブジェクトを検出するための画像処理システムであって、前記画像は複数のピクチャエレメントから構成され、該システムは、
    データメモリと、
    処理される入力画像を受信する画像プロセッサと、を有し、
    前記画像プロッセサは、以下の動作、
    a)一般的なバックグラウンド画像との前記入力画像の差異を検出するように構成された第1のセグメンテーション技法を使用して、前記入力画像の中のフォアグラウンド又は移動するオブジェクトを表現する複数のピクチャエレメントを、前記画像バックグラウンドを形成する前記複数のピクチャエレメントからセグメント化し、フォアグラウンドとしてセグメント化された前記複数のピクチャエレメントが、前記オブジェクトの影又はハイライトを表現するエレメントを含み、
    b)前記フォアグラウンドオブジェクトを表す前記セグメント化された複数のピクチャエレメントの位置を含むセグメンテーションマスクをデータメモリに記憶し、
    c)影又はハイライトを検出するように構成された少なくとも1つの他のセグメンテーション技術を使用して、オブジェクトの影又はハイライトの特徴を有する複数のピクチャエレメントを、前記フォアグラウンドオブジェクトを表現する前記複数のピクチャエレメントからセグメント化し、
    d)フォアグラウンドとしてすでにセグメント化されている前記複数のピクチャエレメントの周囲の複数のピクチャエレメントを、形態学的な拡張演算を実行してフォアグラウンドとして繰り返しセグメント化し、
    e)ステップd)でフォアグラウンドとしてセグメント化された前記周囲のピクチャエレメントを前記記憶されたセグメンテーションマスクと比較し、
    f)ステップe)の比較結果により、前記セグメント化された周囲のピクチャエレメントが前記記憶されたセグメンテーションマスクのフォアグラウンドオブジェクトの境界にタッチすると判断される場合には、形態学的な拡張演算を中止し、
    g)フォアグラウンドとしてセグメントされたことがある隣接するピクチャエレメントのグループをオブジェクトとして検出する、
    動作を実行する、画像処理システム。
  6. 前記画像プロセッサは、前記セグメンテーションa)の結果としてフォアグラウンドとして既にセグメント化された前記入力画像のピクチャエレメントごとに、周囲のピクチャエレメントに関係する確率モデルと前記ピクチャエレメントとを比較することにより前記フォアグラウンドセグメンテーションを確証するようにさらに構成されていて、
    前記フォアグラウンドセグメンテーションは、前記確率モデルの少なくとも半分が前記ピクチャエレメントがフォアグラウンドであることを示す場合に確認される、請求項5に記載の画像処理システム。
JP2006538930A 2003-11-12 2004-11-08 画像中のオブジェクト検出 Expired - Fee Related JP4668921B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0326374.6A GB0326374D0 (en) 2003-11-12 2003-11-12 Object detection in images
PCT/GB2004/004685 WO2005048191A2 (en) 2003-11-12 2004-11-08 Object detection in images

Publications (2)

Publication Number Publication Date
JP2007510993A JP2007510993A (ja) 2007-04-26
JP4668921B2 true JP4668921B2 (ja) 2011-04-13

Family

ID=29726402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006538930A Expired - Fee Related JP4668921B2 (ja) 2003-11-12 2004-11-08 画像中のオブジェクト検出

Country Status (9)

Country Link
US (1) US7742650B2 (ja)
EP (1) EP1683105B1 (ja)
JP (1) JP4668921B2 (ja)
CN (1) CN1875378B (ja)
AT (1) ATE357030T1 (ja)
CA (1) CA2543871A1 (ja)
DE (1) DE602004005358T2 (ja)
GB (1) GB0326374D0 (ja)
WO (1) WO2005048191A2 (ja)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8913830B2 (en) * 2005-01-18 2014-12-16 Siemens Aktiengesellschaft Multilevel image segmentation
GB0510792D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Assisted selections with automatic indication of blending areas
US8126268B2 (en) * 2005-12-30 2012-02-28 Telecom Italia S.P.A. Edge-guided morphological closing in segmentation of video sequences
US8379957B2 (en) * 2006-01-12 2013-02-19 Siemens Corporation System and method for segmentation of anatomical structures in MRI volumes using graph cuts
JP4187011B2 (ja) * 2006-06-01 2008-11-26 ソニー株式会社 情報処理システム、情報処理装置および方法、並びにプログラム
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
CN101399968B (zh) 2007-09-29 2012-07-18 三星电子株式会社 单色监视相机中阴影和高光检测方法
US8280106B2 (en) * 2007-09-29 2012-10-02 Samsung Electronics Co., Ltd. Shadow and highlight detection system and method of the same in surveillance camera and recording medium thereof
JP2009098925A (ja) * 2007-10-17 2009-05-07 Sony Corp 画像処理装置、画像処理方法、および、プログラム
CN101482968B (zh) * 2008-01-07 2013-01-23 日电(中国)有限公司 图像处理方法和设备
US8265380B1 (en) * 2008-08-14 2012-09-11 Adobe Systems Incorporated Reuse of image processing information
JP2010092199A (ja) * 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
TWI413024B (zh) * 2009-11-19 2013-10-21 Ind Tech Res Inst 物件偵測方法及系統
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
US9036861B2 (en) * 2010-04-22 2015-05-19 The University Of North Carolina At Charlotte Method and system for remotely inspecting bridges and other structures
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
CN102446346A (zh) * 2010-09-30 2012-05-09 北京中电兴发科技有限公司 快速去除运动图像阴影的方法
AU2010241260B2 (en) * 2010-10-29 2013-12-19 Canon Kabushiki Kaisha Foreground background separation in a scene with unstable textures
TR201101980A1 (tr) * 2011-03-01 2012-09-21 Ulusoy İlkay Bir nesne temelli bölütleme yöntemi.
US9916662B2 (en) * 2015-03-17 2018-03-13 Lyrical Labs Video Compression Technology, LLC Foreground detection using fractal dimensional measures
WO2013032441A1 (en) * 2011-08-30 2013-03-07 Hewlett-Packard Development Company, L.P. Inserting an object into an image
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US8855375B2 (en) 2012-01-12 2014-10-07 Kofax, Inc. Systems and methods for mobile image capture and processing
US9711126B2 (en) 2012-03-22 2017-07-18 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for simulating sound propagation in large scenes using equivalent sources
JP6056319B2 (ja) * 2012-09-21 2017-01-11 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
US9846707B2 (en) 2013-01-31 2017-12-19 Bluebeam, Inc. Method for color and size based pre-filtering for visual object searching of documents
US20140240477A1 (en) * 2013-02-26 2014-08-28 Qualcomm Incorporated Multi-spectral imaging system for shadow detection and attenuation
US9213896B2 (en) * 2013-03-05 2015-12-15 Mitsubishi Electric Research Laboratories, Inc. Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US10140511B2 (en) 2013-03-13 2018-11-27 Kofax, Inc. Building classification and extraction models based on electronic forms
US9235890B2 (en) * 2013-03-15 2016-01-12 Yahoo! Inc. Identifying regions characterized by labeled measurements
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
US9560439B2 (en) 2013-07-01 2017-01-31 The University of North Carolina at Chapel Hills Methods, systems, and computer readable media for source and listener directivity for interactive wave-based sound propagation
WO2015073920A1 (en) 2013-11-15 2015-05-21 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US9414016B2 (en) 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
CN103971135A (zh) * 2014-05-05 2014-08-06 中国民航大学 基于头肩深度信息特征的人体目标检测方法
US10679407B2 (en) 2014-06-27 2020-06-09 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for modeling interactive diffuse reflections and higher-order diffraction in virtual environment scenes
US9977644B2 (en) 2014-07-29 2018-05-22 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for conducting interactive sound propagation and rendering for a plurality of sound sources in a virtual environment scene
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
US10242285B2 (en) * 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US9607397B2 (en) 2015-09-01 2017-03-28 Personify, Inc. Methods and systems for generating a user-hair-color model
US10742961B2 (en) 2015-09-02 2020-08-11 Industrial Technology Research Institute Depth sensing apparatus with self-calibration and self-calibration method thereof
CN106488204B (zh) * 2015-09-02 2018-06-15 财团法人工业技术研究院 具备自身校准的深度摄影装置以及自身校准方法
JP7139243B2 (ja) * 2015-09-16 2022-09-20 サーモ エレクトロン サイエンティフィック インストルメンツ リミテッド ライアビリティ カンパニー 画像分析システム及び方法
US20170083790A1 (en) * 2015-09-23 2017-03-23 Behavioral Recognition Systems, Inc. Detected object tracker for a video analytics system
CN106611406B (zh) * 2015-10-27 2019-08-16 富士通株式会社 图像校正方法和图像校正设备
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
CN107662872B (zh) * 2016-07-29 2021-03-12 奥的斯电梯公司 乘客运输机的监测系统及其监测方法
US9881207B1 (en) 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
US10248744B2 (en) 2017-02-16 2019-04-02 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for acoustic classification and optimization for multi-modal rendering of real-world scenes
IT201700021559A1 (it) 2017-02-27 2018-08-27 St Microelectronics Srl Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti
DE102017113799A1 (de) * 2017-06-22 2018-12-27 Connaught Electronics Ltd. Fahrassistenz für eine einspurige Straße
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN108154491B (zh) * 2018-01-26 2021-04-23 上海觉感视觉科技有限公司 一种图像反光消除方法
CN108416354A (zh) * 2018-03-09 2018-08-17 国电南瑞科技股份有限公司 基于直升机巡检输电线路的杆塔编号提取方法
US10504282B2 (en) 2018-03-21 2019-12-10 Zoox, Inc. Generating maps without shadows using geometry
WO2019182782A1 (en) * 2018-03-21 2019-09-26 Zoox, Inc. Generating maps without shadows
US10699477B2 (en) 2018-03-21 2020-06-30 Zoox, Inc. Generating maps without shadows
CN108957530B (zh) * 2018-05-23 2019-08-23 电子科技大学 一种基于地震相干体切片的裂缝自动检测方法
US11048973B1 (en) 2018-07-31 2021-06-29 Objectvideo Labs, Llc Action classification using aggregated background subtraction images
US10740901B2 (en) * 2018-12-17 2020-08-11 Nvidia Corporation Encoder regularization of a segmentation model
US11093749B2 (en) 2018-12-20 2021-08-17 L'oreal Analysis and feedback system for personal care routines
EP3809314A1 (en) 2019-10-15 2021-04-21 Bentley Systems, Incorporated 3d object detection from calibrated 2d images background
CN110782409B (zh) * 2019-10-21 2023-05-09 太原理工大学 一种去除多运动物体阴影的方法
CN111161268B (zh) * 2019-12-12 2024-04-30 科大讯飞股份有限公司 图像处理方法、装置、电子设备及计算机存储介质
US11222426B2 (en) * 2020-06-02 2022-01-11 Cape Analytics, Inc. Method for property feature segmentation
CN116569207A (zh) * 2020-12-12 2023-08-08 三星电子株式会社 用于管理图像的伪影的方法和电子装置
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
DE102021103537A1 (de) 2021-02-16 2022-08-18 Gestigon Gmbh Verfahren und Vorrichtung zur Rekonstruktion von Segmenten des Vordergrunds eines Bildes
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62279480A (ja) * 1986-05-28 1987-12-04 Kubota Ltd 果実認識装置
JPH0335399A (ja) * 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置
JPH11238138A (ja) * 1997-08-22 1999-08-31 Fujitsu Ltd 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体
JP2000148984A (ja) * 1998-11-16 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法およびパターン認識プログラムを記録した記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5201011A (en) * 1991-11-19 1993-04-06 Xerox Corporation Method and apparatus for image hand markup detection using morphological techniques
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US20030199739A1 (en) 2001-12-17 2003-10-23 Gordon Tim H. Printing device for personal medical monitors
CN1139898C (zh) * 2002-03-25 2004-02-25 北京工业大学 基于k-均值聚类及信息融合的角膜病灶图像分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62279480A (ja) * 1986-05-28 1987-12-04 Kubota Ltd 果実認識装置
JPH0335399A (ja) * 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置
JPH11238138A (ja) * 1997-08-22 1999-08-31 Fujitsu Ltd 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体
JP2000148984A (ja) * 1998-11-16 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法およびパターン認識プログラムを記録した記録媒体

Also Published As

Publication number Publication date
DE602004005358T2 (de) 2007-08-23
CN1875378A (zh) 2006-12-06
US20070036432A1 (en) 2007-02-15
DE602004005358D1 (de) 2007-04-26
EP1683105B1 (en) 2007-03-14
CN1875378B (zh) 2010-05-05
US7742650B2 (en) 2010-06-22
EP1683105A2 (en) 2006-07-26
WO2005048191A2 (en) 2005-05-26
CA2543871A1 (en) 2005-05-26
JP2007510993A (ja) 2007-04-26
WO2005048191A3 (en) 2005-07-07
ATE357030T1 (de) 2007-04-15
GB0326374D0 (en) 2003-12-17

Similar Documents

Publication Publication Date Title
JP4668921B2 (ja) 画像中のオブジェクト検出
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
JP4741650B2 (ja) ビデオシーケンスにおけるオブジェクト追跡の方法
KR102153607B1 (ko) 영상에서의 전경 검출 장치 및 방법
KR101891225B1 (ko) 배경 모델을 업데이트하기 위한 방법 및 장치
JP2018524732A (ja) 半自動画像セグメンテーション
KR101130963B1 (ko) 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법
TWI668669B (zh) 物件追蹤系統及方法
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
Vosters et al. Background subtraction under sudden illumination changes
CN112417955B (zh) 巡检视频流处理方法及装置
CN106934819A (zh) 一种提高图像中运动物体检测精度的方法
CN113538500B (zh) 图像分割方法、装置、电子设备和存储介质
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
Russell et al. Vehicle detection based on color analysis
WO2020095644A1 (ja) 変状検出装置、変状検出方法、及びコンピュータ読み取り可能な記録媒体
Karim Construction of a robust background model for moving object detection in video sequence
Yang et al. A modified method of vehicle extraction based on background subtraction
Malavika et al. Moving object detection and velocity estimation using MATLAB
JP6618438B2 (ja) 前景領域抽出装置、方法、及びプログラム
Humphreys et al. Multiple object tracking using a neural cost function
WO2018223370A1 (zh) 一种基于时空约束的视频显著性检测方法及系统
KR20150055481A (ko) 영상 내 그림자 화소 제거를 위한 배경 기반 방법
Jia et al. Real-time vehicle detection and tracking system in street scenarios
Teixeira et al. Cascaded change detection for foreground segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100823

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4668921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

LAPS Cancellation because of no payment of annual fees
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350