JP2019067369A - 画像処理装置および方法並びに監視システム - Google Patents

画像処理装置および方法並びに監視システム Download PDF

Info

Publication number
JP2019067369A
JP2019067369A JP2018141611A JP2018141611A JP2019067369A JP 2019067369 A JP2019067369 A JP 2019067369A JP 2018141611 A JP2018141611 A JP 2018141611A JP 2018141611 A JP2018141611 A JP 2018141611A JP 2019067369 A JP2019067369 A JP 2019067369A
Authority
JP
Japan
Prior art keywords
visual element
image
background
similarity
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018141611A
Other languages
English (en)
Other versions
JP6598943B2 (ja
Inventor
ヤン チン
Qin Yang
ヤン チン
チン ソクイ
Tsewei Chen
チン ソクイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019067369A publication Critical patent/JP2019067369A/ja
Application granted granted Critical
Publication of JP6598943B2 publication Critical patent/JP6598943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】動画のある画像において背景が動きを含む場合や、低い確度のグラフ分割アルゴリズムを用いて前景検出に用いる場合であっても、前景の誤検出を効果的に取り除き、前景検出の確度を高めることができる画像処理装置および方法並びに監視システムを提供する。【解決手段】画像処理装置において、入力された動画からの現在画像と背景モデルとを取得するよう構成され、背景モデルが背景画像と視覚要素の前景/背景分類情報とを含む取得部と、現在画像の視覚要素と背景モデルの視覚要素との間の第1類似度を決定するよう構成された類似度決定部と、現在画像、背景モデルの背景画像と第1類似度にしたがって、現在画像の視覚要素を前景または背景として分類するよう構成された分類部とを備える。背景モデルの視覚要素は、その分類情報が背景であり、現在画像の視覚要素の対応部分に隣接する視覚要素から構成する。【選択図】図2

Description

本発明は画像処理に関し、特に例えば前景検出および監視に関する。
画像処理において、ある側面では、画像(例えば、動画のなかのひとつの画像)は一般に、その画像の外観に寄与する視覚的特性であるところの視覚要素からなる。ここで、例えば、ひとつの視覚要素はひとつのピクセルであってもよく、ピクセルのグループを表す離散コサイン変換(DCT)ブロックであってもよく、または同様の属性(例えば、同様のテクスチャ、同様の色、同様の輝度)を備えるピクセルのグループを表すスーパーピクセルであってもよい。他の側面では、特に前景検出において、一般に既存の背景差分技術を用いることで、動画の現在画像の視覚要素を「前景」または「背景」として分類することができ、これは現在画像より前の所定の持続期間内の動画の画像に基づいて得られる背景画像と比較することで行われる。ここで、「前景」は、動画に撮られたシーンに表れる一時的なオブジェクトを指す。そのような一時的なオブジェクトは、例えば、移動する人や移動する車を含んでもよい。シーンの残りの部分は「背景」とされる。
しかしながら、ある状況では、前景の誤検出が生じる。例えば、ある状況では、水面の波や風に揺れる葉は実際は背景であるが、背景画像の対応する視覚要素と比べることにより現在画像中のそのような水面の波や葉の視覚要素がある変化を有する場合には、前景として誤検出されるであろう。例えば、他の状況では、低い確度のグラフ分割アルゴリズムを用いてスーパーピクセル(すなわち、視覚要素)を得る場合、現在画像から得られる視覚要素が現在画像の前の画像から得られた対応する視覚要素と定値を維持することができない場合があり、したがって、背景画像の対応する視覚要素と比べることにより現在画像の視覚要素がある変化を有するであろう。これはまた、前景の誤検出を生じさせるであろう。
したがって、上述の前景の誤検出をできる限り取り除くために、「Moving Objects Detection and Segmentation Based on Background Subtraction and Image Over-Segmentation」(Yun-fang Zhu, <Journal of Software> VOL 6, NO 7, 7月, 2011)に例示的な技術が開示されている。現在画像のひとつの視覚要素について、この例示的な技術は、当該視覚要素の背景信頼度にしたがって、当該視覚要素を前景または背景として検出する。より具体的には、当該視覚要素の背景信頼度がしきい値より大きい場合、当該視覚要素は背景として検出されるであろう。ここで、当該視覚要素の背景信頼度は、第1の数と第2の数との比である。第1の数は、現在画像中の視覚要素のうち、当該視覚要素に隣接し、かつ、当該視覚要素と同じ色を有する視覚要素の数を表す。第2の数は、現在画像中の視覚要素のうち、当該視覚要素に隣接し、かつ、前景として検出された視覚要素の数を表す。
しかしながら、検出対象のある視覚要素に隣接する視覚要素のグループが前景として誤検出された場合、上述の第1の数および上述の第2の数の両方が大きくなり、これは、検出対象の当該視覚要素の背景信頼度を小さくし、しきい値よりも小さくするであろう。したがって、上述の前景の誤検出をできる限り取り除くことはできず、前景検出をできる限り改善することができない。
したがって、従来技術の説明の上記記載に照らし、本開示は、上述の課題のうちの少なくともひとつを解決することを目的とする。
本発明のある態様によると、以下を備える画像処理装置が提供される。入力された動画からの現在画像と背景モデルとを取得するよう構成された取得部であって、前記背景モデルが背景画像と視覚要素の分類情報とを含み、前記視覚要素の前記分類情報が前景および背景を含む、取得部と、現在画像の視覚要素と背景モデルの視覚要素との間の第1類似度を決定するよう構成された類似度決定部と、前記現在画像と、前記背景モデルの前記背景画像と、前記類似度決定部によって決定された前記第1類似度と、にしたがって、前記現在画像の前記視覚要素を前記前景または前記背景として分類するよう構成された分類部と、前記背景モデルの前記視覚要素がその分類情報が前記背景である前記視覚要素であり、前記背景モデルの前記視覚要素が前記現在画像の当該視覚要素の前記対応部分に隣接する前記視覚要素である。
前記背景モデルの前記背景画像が前記現在画像の少なくともひとつの以前の画像にしたがって取得される。前記背景モデルの前記視覚要素の前記分類情報が、前記現在画像の少なくともひとつの以前の画像における前記前景または前記背景として分類された前記視覚要素にしたがって取得される。
本発明を利用すると、前景検出の確度を高めることができる。
本発明のさらなる特徴および利点は、図面を参照した以下の説明から明らかになるであろう。
添付の図面は本明細書に組み入れられ本明細書の一部を形成する。添付の図面は本発明の実施の形態を説明し、詳細な説明と共に本発明の原理を説明する役割を有する。
本発明の実施の形態に係る技術を実装可能なハードウエア構成を模式的に示すブロック図である。 本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図3Aから3Hは、現在画像の前の画像の視覚要素の前景/背景分類結果と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 本発明の実施の形態に係る画像処理のフローチャートを模式的に示す。 図5Aから5Bは、現在画像と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 図5Aから5Bは、現在画像と、本発明に係る背景モデルの視覚要素の前景/背景分類情報と、を模式的に示す。 本発明に係る図2に示される分類部230のサブユニットを模式的に示す。 本発明に係る図4に示されるステップS430のフローチャートを模式的に示す。 本発明に係る例示的な監視器の構成を示す。
本発明の例示的な実施の形態が、以下に、図面を参照して詳述されるであろう。以下の記載は単に説明のためのものであって例示的なものであり、本発明、その応用および利用を限定することを意図するものでは決してない。実施の形態における部材およびステップの相対的な配置構成や数式や数値は、そうでないと特記されていない限り、本発明の範囲を限定しない。加えて、当業者に知られている技術、方法およびデバイスは詳述されず、それらは適宜、本明細書の一部であることが意図されている。
図面において、同様の参照番号および文字は同様のアイテムを指し、したがって、ある図面においてあるアイテムが定義されると、以降の図面でそれを議論する必要はない。
一般に、動画で撮られたシーンにおいて、現実のオブジェクト(すなわち、前景)が動画に突然現われたり消えたりすることはあり得ない。すなわち、現実のオブジェクトは動画内に動線(moving trajectory)を有するであろう。したがって、動画の現在画像内のある視覚要素が背景である場合、一般に、当該視覚要素の対応部分に隣接する、現在画像の少なくともひとつ前の画像内の視覚要素もまた背景であろう。したがって、本発明者らは、前景検出において、動画の現在画像内のある視覚要素について、現在画像の前の画像において背景として分類された視覚要素であって現在画像の前の画像内の当該視覚要素の対応部分に隣接する視覚要素、を当該視覚要素を前景または背景として分類するための判定基準と見なしうることを見出した。
したがって、本発明において、動画の現在画像内のある視覚要素について、当該視覚要素と前の画像における対応する視覚要素との間の差分(すなわち、変化)を除いて、当該視覚要素と、前の画像において背景として分類された視覚要素であって前の画像において当該視覚要素の対応部分に隣接する視覚要素と、の間の類似性をも考慮に入れるであろう。例えば、当該視覚要素が、前の画像において背景として分類された視覚要素であって前の画像において当該視覚要素の対応部分に隣接する視覚要素と似ている、例えばこれらの視覚要素のテクスチャ/色/輝度が似ている、場合、当該視覚要素が背景である蓋然性は高い。
したがって、本発明によると、動画のある画像において背景が動き(例えば、水面の波や風に揺れる葉)を含む場合であっても、また、低い確度のグラフ分割アルゴリズムを用いて前景検出に用いる視覚要素を取得する場合であっても、以前の処理で取得された前景/背景分類結果を後の処理の基準として用いるので、前景の誤検出を効果的に取り除くことができる。したがって、前景検出の確度を高めることができる。
(ハードウエア構成)
まず、図1を参照して、以下に説明される技術を実装可能なハードウエア構成を説明する。
ハードウエア構成100は、例えば、中央演算ユニット(CPU)110と、ランダムアクセスメモリ(RAM)120と、リードオンリメモリ(ROM)130と、ハードディスク140と、入力デバイス150と、出力デバイス160と、ネットワークインタフェース170と、システムバス180と、を備える。さらに、ある実施の形態では、ハードウエア構成100は、タブレットコンピュータやラップトップやデスクトップや他の適切な電子デバイスなどのコンピュータによって実装されうる。他の実装では、ハードウエア構成100は、デジタルカメラやビデオカメラやネットワークカメラや他の適切な電子デバイスなどの監視器によって実装されうる。ここで、ハードウエア構成100が監視器によって実装される場合、ハードウエア構成100はさらに例えば光学システム190を含む。
ある実装では、本発明に係る画像処理はハードウエアまたはファームウエアによって構成され、ハードウエア構成100のモジュールや部材として機能する。例えば、図2を参照して以下に詳述されるであろう画像処理装置200は、ハードウエア構成100のモジュールまたは部材として機能する。他の実装では、本発明に係る画像処理は、ROM130またはハードディスク140に保持され、CPU110によって実行されるソフトウエアによって構成される。例えば、図4を参照して以下に詳述されるであろう手順400は、ROM130またはハードディスク140に保持されるプログラムとして機能する。
CPU110は任意の適切なプログラム可能制御デバイス(例えば、プロセッサ)であり、ROM130やハードディスク140(例えば、メモリ)に保持される各種アプリケーションプログラムを実行することにより、後述されるような各種機能を実行することができる。RAM120はプログラムやROM130またはハードディスク140からロードされたデータを一時的に保持するために用いられ、また、CPU110が各種手順、例えば図4を参照して以下に詳述されるであろう技術の実行、や他の利用可能な機能を実行するときのスペースとして用いられる。ハードディスク140は、オペレーティングシステム(OS)、種々のアプリケーション、制御プログラム、動画や動画の各画像の処理結果および/または所定のデータ(例えば、しきい値(TH))などの多くの種類の情報を保持する。
ある実装では、入力デバイス150は、ユーザがハードウエア構成100とやりとりすることを可能とするために用いられる。ある例では、ユーザは入力デバイス150を通じて画像/動画/データを入力することができる。他の例では、ユーザは入力デバイス150を通じて本発明の対応する処理をトリガすることができる。さらに、入力デバイス150は、ボタンやキーパッドやタッチスクリーンなど、様々な形態をとることができる。別の実装では、入力デバイス150は、デジタルカメラ、ビデオカメラおよび/またはネットワークカメラなどの専用電子デバイスから出力された画像/動画を受けるために用いられる。加えて、ハードウエア構成100が監視器によって実装される場合、ハードウエア構成100の光学システム190は監視場所の画像/動画を直接取得するであろう。
ある実装では、出力デバイス160は、ユーザに処理結果(例えば、前景)を表示するために用いられる。また、出力デバイス160は、陰極線管(CRT)や液晶ディスプレイなど、様々な形態をとることができる。別の実装では、出力デバイス160は、ユーザに警告を与えるか否かなどの監視解析などの後続の処理へと処理結果を出力するために用いられる。
ネットワークインタフェース170は、ハードウエア構成100をネットワークに接続するためのインタフェースを提供する。例えば、ハードウエア構成100は、ネットワークインタフェース170を介して、ネットワークを介して接続された他の電子デバイスとのデータ通信を行うことができる。あるいはまた、ハードウエア構成100が無線データ通信を行えるように、無線インタフェースを設けてもよい。システムバス180は、CPU110、RAM120、ROM130、ハードディスク140、入力デバイス150、出力デバイス160、およびネットワークインタフェース170等へとまたはそれらからまたはそれらの間でデータを互いに移送するためのデータ移送経路を提供してもよい。バスと称されるが、システムバス180はある特定のデータ移送技術に限定されるわけではない。
上述のハードウエア構成100は単なる例であって、本発明やそのアプリケーションやその利用を限定する意図は全くない。また、簡単化のため、図1にはただひとつのハードウエア構成が示される。しかしながら、複数のハードウエア構成を必要に応じて用いてもよい。
(画像処理)
次に、図2から図7を参照して、本発明に係る画像処理を説明する。
図2は、本発明の実施の形態に係る画像処理装置200の構成を示すブロック図である。ここで、図2に示されるブロックの全てまたはいくつかは、専用ハードウエアによって実装されてもよい。図2に示されるように、画像処理装置200は取得部210と類似度決定部220と分類部230とを備える。
加えて、図2に示されるストレージデバイス240は、動画と、動画の各画像についての処理結果(すなわち、視覚要素の前景/背景分類結果)と、を保持する。例えば、図1に示されるように、動画はユーザによって入力され、または専用電子デバイス(例えば、カメラ)から出力され、または光学システムによって取得される。あるいはまた、動画および処理結果は、異なるストレージデバイスに保持されうる。ある実装では、ストレージデバイス240は、図1に示されるROM130またはハードディスク140である。別の実装では、ストレージデバイス240は、ネットワーク(不図示)を介して画像処理装置200と接続されているサーバまたは外部ストレージデバイスである。
まず、ある実装では、例えば、図1に示されるハードウエア構成100がコンピュータによって実装される場合、入力デバイス150は専用電子デバイス(例えば、カメラ)から出力されたかまたはユーザによって入力された動画を受ける。次に、入力デバイス150は、システムバス180を介して、受信した動画を画像処理装置200に移送する。別の実装では、例えば、ハードウエア構成100が監視器によって実装される場合、画像処理装置200は光学システム190によって取得された動画を直接受ける。
そして、図2に示されるように、ある態様では、取得部210は受信した動画(すなわち、入力された動画)から現在画像を取得する。例えば、現在画像はt番目の画像であり、ここで、tは自然数であって2≦t≦Tであり、Tは入力された動画の画像の総数である。他の態様では、取得部210はストレージデバイス240から背景モデルを取得する。ここで、背景モデルは、背景画像と、視覚要素の分類情報と、を有する。ここで、視覚要素の分類情報は、前景および背景を備える。以後、「視覚要素の分類情報」は「視覚要素の前景/背景分類情報」とみなされる。
背景モデルの背景画像がt番目の現在画像の少なくともひとつの以前の画像にしたがって取得される。すなわち、背景画像は、t番目の画像より前の所定の持続期間内の動画の少なくともひとつの画像にしたがって得られ、所定の持続期間は限定されず、実験統計および/または経験に基づいて設定される。ある例では、背景画像はt番目の画像の前の画像の平均画像である。他の例では、背景画像はt番目の画像の前の画像のうちのいずれかである。他の例では、背景画像は、例えばガウシアンモデルに基づいて各ピクセルについて生成されたモデルにしたがって適時取得される。しかしながら、それに限定される必要はないことは容易に分かるであろう。
背景モデルの視覚要素の前景/背景分類情報が、t番目の画像の少なくともひとつの以前の画像において前景または背景として分類された視覚要素にしたがって取得される。ある例では、t番目の画像の以前の画像内の視覚要素の前景/背景分類結果を平均することによって、視覚要素の前景/背景分類情報が得られる。他の例では、視覚要素の前景/背景分類情報は、t番目の画像の以前の画像のうちのいずれかの視覚要素の前景/背景分類結果である。他の例では、視覚要素の前景/背景分類情報は、例えばガウシアンモデルに基づいて各視覚要素について生成されたモデルにしたがって適時取得される。しかしながら、それに限定される必要はないことは容易に分かるであろう。
例えば、視覚要素はスーパーピクセルであるとする。また、背景モデルの視覚要素の前景/背景分類情報はt番目の画像の前三つの画像における視覚要素の前景/背景分類結果にしたがって得られるとする。ここで、t番目の画像の前三つの画像は、例えば、図3Aに示される(t−3)番目の画像と、図3Bに示される(t−2)番目の画像と、図3Cに示される(t−1)番目の画像と、である。図3Aから図3Cに示される画像内のひとつのブロックはひとつの視覚要素を表し、各ブロック内の「B」や「F」は、この視覚要素が「背景」や「前景」に分類されることを表し、したがって、平均化動作が実行された場合、背景モデルの視覚要素の得られる前景/背景分類情報は例えば図3Dに示される。同様に、例えば、視覚要素がDCTブロックである場合、図3Eから図3Gはt番目の画像の前三つの画像を示し、図3Hは、平均化動作が実行された場合の、背景モデルの視覚要素の得られる前景/背景分類情報を示す。加えて、視覚要素がピクセルである場合、背景モデルの視覚要素の前景/背景分類情報は同じように得られうる。
加えて、t番目の画像の前の画像のうちのひとつが背景モデルにおける背景画像として選択あれた場合、かつ、t番目の画像の前の画像のうちのひとつの視覚要素の前景/背景分類結果が背景モデルにおける視覚要素の前景/背景分類情報として選択された場合、これら二つの前の画像は同じ画像であるか、または異なる画像でありうる。
図2に戻ると、取得部210がt番目の画像および背景モデルを取得した後、類似度決定部220は第1類似度を決定し、第1類似度は、t番目の画像の視覚要素と背景モデルの視覚要素との間の類似度である。背景モデルの視覚要素がその分類情報が背景である視覚要素であり、背景モデルの視覚要素がt番目の画像の視覚要素の対応部分に隣接する視覚要素である。t番目の画像の視覚要素のうちのいずれかについて、当該視覚要素の対応部分が、背景モデルにおけるその位置がt番目の画像における当該視覚要素の位置と同じである部分である。t番目の画像の視覚要素のうちのいずれかについて、当該視覚要素に対応する第1類似度が大きいほど、当該視覚要素が背景である蓋然性は高い。
そして、分類部230は、現在画像と、背景モデルの背景画像と、決定された第1類似度と、にしたがって、t番目の画像の視覚要素を前景または背景として分類する。
最後に、t番目の画像の視覚要素が分類部230によって分類された後、ある態様では、分類部230は、t番目の画像の視覚要素の前景/背景分類結果をストレージデバイス240へと移送する。その結果、ストレージデバイス240に保持される対応する情報が更新され、次の画像(例えば、(t+1)番目の画像)のために用いられるであろう背景モデルは更新された情報にしたがって取得されうる。別の態様では、分類部230は、t番目の画像の視覚要素の前景/背景分類結果を、図1に示される出力デバイス160へ、システムバス180を介して、移送する。これは、t番目の画像の前景をユーザに表示するため、または、t番目の画像の前景を監視分析などの後続の処理に出力するためである。
加えて、一般に、前景検出において黙認的に、入力された動画の1番目の画像の視覚要素が背景とみなされるであろう。
図4に示されるフローチャート400は、図2に示される画像処理装置200の対応する手順である。
図4に示されるように、取得ステップS410において、取得部210は入力動画からt番目の画像を取得し、かつ、ストレージデバイス240から背景画像と、視覚要素の前景/背景分類情報と、を含む背景モデルを取得する。ここで、2≦t≦Tである。
類似度決定ステップS420において、類似度決定部220はt番目の画像の視覚要素に対応する第1類似度を決定する。
例えば、図5Aに示されるt番目の画像をとり、図5Bに示される背景モデルにおける視覚要素の前景/背景分類情報をとり、視覚要素がスーパーピクセルであり、t番目の画像の視覚要素510をとると、類似度決定部220は、以下のように、視覚要素510に対応する第1類似度を決定する。t番目の画像の視覚要素510について、例えば、視覚要素510の対応部分は図5Bに示される視覚要素520であり、その分類情報が背景モデルの背景である視覚要素であって、背景モデルの視覚要素520に隣接する視覚要素は、図5Bに示される視覚要素530−580である。
したがって、まず、視覚要素530−580のそれぞれについて、例えば視覚要素530をとると、類似度決定部220は、視覚要素510と視覚要素530との間の類似度を、これら二つの視覚要素の特性値にしたがって、決定する。例えば、これら二つの視覚要素の特性値の間の差の絶対値が対応する類似度として扱われる。それに限定される必要はないことは容易に分かるであろう。ある画像のある視覚要素の特性値は、この画像の当該視覚要素のチャネル特徴にしたがって決定されうる。例えば、画像がYCbCr色空間のものである場合、ある視覚要素は、Y(輝度)チャネル特徴と、Cb(青)チャネル特徴と、Cr(赤)チャネル特徴と、を含む。画像がRGB色空間のものである場合、ある視覚要素は、赤チャネル特徴と、緑チャネル特徴と、青チャネル特徴と、を含む。したがって、視覚要素510の特性値はt番目の画像のチャネル特徴にしたがって決定される。視覚要素530の特性値はt番目の画像の前の画像の視覚要素の特性値にしたがって決定され、前の画像におけるこれらの視覚要素の位置は視覚要素530の位置と同じであり、これらの視覚要素の前景/背景分類結果は視覚要素530の前景/背景分類情報を決定するために用いられる。
そして、類似度決定部220が視覚要素510と視覚要素530との間の類似度(例えば、Sim1と見なされる)、視覚要素510と視覚要素540との間の類似度(例えば、Sim2と見なされる)、…、視覚要素510と視覚要素580との間の類似度(例えば、Sim6と見なされる)を決定した後、類似度決定部220は視覚要素510に対応する第1類似度を、決定された類似度(すなわち、Sim1、Sim2、…、Sim6)にしたがって決定する。ある例では、Sim1からSim6の平均値を、視覚要素510に対応する第1類似度として決定する。別の例では、Sim1からSim6のうち値が最大である類似度を、視覚要素510に対応する第1類似度として決定する。しかしながら、それに限定される必要はないことは容易に分かるであろう。
図4に戻り、分類ステップS430において、分類部230は、t番目の画像と、背景モデルの背景画像と、ステップS420で決定された第1類似度と、にしたがって、t番目の画像の視覚要素を前景または背景として分類する。ある実装では、分類部230は、ステップS420で決定された第1類似度にしたがい調整された第2類似度にしたがって、t番目の画像の視覚要素を前景または背景として分類する。第2類似度は、t番目の画像の視覚要素と背景画像の対応する視覚要素との間の類似度である。以下、t番目の画像の視覚要素と背景画像の対応する視覚要素との間の類似度(すなわち、第2類似度)は、「t番目の画像の視覚要素と背景画像の対応する視覚要素との間の視覚距離」と見なされる。t番目の画像の視覚要素のいずれかについて、対応する視覚距離が大きいほど、当該視覚要素と背景画像の対応する視覚要素との間に含まれる差(すなわち、変化)がより多くなる、すなわち、当該視覚要素が前景である蓋然性がより高い。
より具体的には、分類部230は、図6および図7を参照して、t番目の画像の視覚要素を前景または背景として分類する。ある態様では、図6に示されるように、分類部230は計算部231と調整部232と決定部233とを備える。他の態様では、図7に示されるように、図6に示される対応するユニットは、以下の対応する動作を実行する。
ステップS431では、t番目の画像の視覚要素のそれぞれについて、計算部231は、当該視覚要素と背景画像の対応する視覚要素との間の視覚距離を算出する。対応する視覚要素は、背景モデルにおけるその位置がt番目の画像における当該視覚要素の位置と同じである視覚要素である。ある実装では、当該視覚要素と背景画像の対応する視覚要素との間の視覚距離は、これら二つの視覚要素の特性値にしたがって算出される。例えば、これら二つの視覚要素の特性値の間の差の絶対値が対応する視覚距離として扱われる。しかしながら、それに限定される必要はないことは容易に分かるであろう。
ステップS432において、調整部232は、図4に示される類似度決定ステップS420で決定された第1類似度にしたがって、S431で算出された視覚距離を調整する。
ある実装では、t番目の画像の視覚要素のそれぞれは処理部分と見なされてもよい。したがって、t番目の画像の視覚要素のそれぞれについて、調整部232は、所定の第1しきい値(例えば、TH1)と、類似度決定ステップS420において決定された当該視覚要素に対応する第1類似度と、にしたがって、ステップS431において算出された対応する視覚距離を調整する。上述の通り、t番目の画像の視覚要素のうちのいずれかについて、当該視覚要素に対応する第1類似度が大きいほど、当該視覚要素が背景である蓋然性は高い。また、t番目の画像の視覚要素のうちのいずれかについて、対応する視覚距離が大きいほど、当該視覚要素が前景である蓋然性は高い。したがって、例えば、当該視覚要素に対応する第1類似度がTH1よりも大きく、したがって当該視覚要素が背景である蓋然性が高いことを意味する場合、調整部232は、ある値を減算することにより、または、[0、1]の間の係数を乗算することにより、または、対応する視覚距離を直接0に設定することにより、対応する視覚距離を減じる。言い換えると、t番目の画像の視覚要素のそれぞれについて、調整部232は以下のように対応する視覚距離を調整する。
Figure 2019067369
別の実装では、確度を高めるために、t番目の画像の視覚要素のグループのそれぞれは処理部分と見なされてもよい。t番目の画像内のグループは、ユーザによる設定や視覚要素をクラスタ化することによる決定など任意の態様で決定されうる。したがって、t番目の画像内のグループのそれぞれの視覚要素について、調整部232は、所定の第2しきい値(例えば、TH2)と、当該グループの可能度と、にしたがって、ステップS431において算出された対応する視覚距離を調整する。当該グループに対する可能度は、当該グループの視覚要素を背景として分類する蓋然性を表す。例えば、t番目の画像内のあるグループをとると、調整部232は以下のように対応する視覚距離を調整する。
まず、当該グループの視覚要素のそれぞれについて、調整部232は、当該視覚要素の可能度を、類似度決定ステップS420において決定された当該視覚要素に対応する第1類似度にしたがって、例えばガウス分布やベイジアン分布を用いることにより、決定する。当該視覚要素に対する可能度は、当該視覚要素を背景として分類する蓋然性を表す。
次いで、調整部232は、当該グループに対する可能度を、当該グループ内の視覚要素に対する可能度にしたがって、数値計算を用いることで、決定する。例えば、当該グループに対する可能度は、当該グループ内の視覚要素に対する可能度の積である。
そして、当該グループに対する可能度が大きいほど、当該グループ内の視覚要素が背景である蓋然性は高い。したがって、例えば、当該グループに対する可能度がTH2よりも大きく、したがって当該グループ内の視覚要素が背景である蓋然性が高いことを意味する場合、当該グループ内の視覚要素のそれぞれについて、調整部232は、ある値を減算することにより、または、[0、1]の間の係数を乗算することにより、または、対応する視覚距離を直接0に設定することにより、ステップS431において算出された対応する視覚距離を減じる。言い換えると、当該グループの視覚要素のそれぞれについて、調整部232は以下のように対応する視覚距離を調整する。
Figure 2019067369
図7に戻り、ステップS433において、決定部233は、所定のしきい値(例えば、TH3)と、ステップS432から得られた調整された視覚距離と、にしたがって、t番目の画像の視覚要素を前景または背景として決定する。例えば、t番目の画像のある視覚要素をとると、ステップS432において調整された対応する視覚距離がTH3よりも大きい場合、決定部233は当該視覚要素を前景として決定する。そうでなければ、当該視覚要素は背景として決定されるであろう。
図4に戻り、t番目の画像の視覚要素が分類ステップS430において分類部230によって分類された後、ある態様では、分類部230はt番目の画像の視覚要素の前景/背景分類結果を、図2に示されるストレージデバイス240へ、または図1に示される出力デバイス160へ、移送する。別の態様では、ステップS440において、画像処理装置200は入力された動画内の画像の全てが処理されたか否かを判定する。すなわち、tがTより大きいか否かが判定される。そうでなければ、ステップS450において、画像処理装置200はt=t+1と設定し、上述のステップS410−S440を繰り返す。そうでなければ、図4に示される手順は終了する。
本発明によると、以前の処理で取得された前景/背景分類結果を後の処理の基準として用いるので、前景の誤検出を効果的に取り除くことができる。したがって、前景検出の確度を高めることができる。
(監視システム)
上述の通り、本発明はコンピュータ(例えば、タブレットコンピュータ、ラップトップまたはデスクトップ)によって実装されてもよいし、監視器(例えば、デジタルカメラ、ビデオカメラまたはネットワークカメラ)によって実装されてもよい。例えば本発明がネットワークカメラによって実装されたとすると、ネットワークカメラが本発明の対応する処理をトリガした後、ネットワークカメラは、ユーザに警告を与えるか否かなどの監視解析などの後続の処理へと対応処理結果(すなわち、前景)を出力することができる。したがって、本発明の例示的アプリケーションとして、図8を参照して次に、例示的な監視器(例えば、ネットワークカメラ)が説明される。図8は、本発明に係る例示的な監視器800の構成を示す。図8に示されるように、監視器800は、光学システム810と、上述の画像処理装置200と、を備える。
加えて、図8に示されるストレージデバイス820は、撮られた動画と、撮られた動画の各画像についての処理結果(すなわち、視覚要素の前景/背景分類結果)と、を保持する。ある実装では、ストレージデバイス820は、監視器800の内部ストレージデバイスである。別の実装では、ストレージデバイス820は、ネットワーク(不図示)を介して監視器800と接続されているサーバまたは外部ストレージデバイスである。
図8に示されるように、まず、光学システム810は監視場所(例えば、駐車禁止エリア)の動画を連続的に取得し、撮られた動画をストレージデバイス820に格納する。
そして、画像処理装置200は、図2から図7を参照して、撮られた動画の画像における視覚要素を前景または背景として分類し、視覚要素の前景/背景分類結果をストレージデバイス820に格納する。
例えば、監視器800が検出された前景をプロセッサに出力し、該プロセッサが監視解析を実行するために用いられる場合、監視場所が駐車禁止エリアであり、予め設定された警告ルールが駐車禁止エリアに車や他のオブジェクトが駐車された場合にユーザに警告するものであるとすると、駐車禁止エリアは背景であり、駐車禁止エリアに現われる車または他のオブジェクトは前景である。したがって、監視器800は、駐車禁止エリアの動画を連続的に取得し、図8を参照して撮られた動画に対して前景検出を実行する。そして、車が検出されると、監視器800は、その車をプロセッサに出力し、その結果プロセッサはユーザに警告を与えることができる。上述の通り、駐車禁止エリアに木があり、葉が所定の周期で風に揺れる場合、監視器800は揺れる葉を前景として誤検出することはないであろう。したがって、プロセッサはユーザに誤った警告を与えることはないであろう。
上述のユニットの全ては本開示で説明される処理を実装するための例示および/または好適なモジュールである。これらのユニットは、ハードウエアユニット(フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ、特定用途向け集積回路など)および/またはソフトウエアモジュール(コンピュータ可読プログラムなど)であってもよい。上では網羅的に種々のステップを実装するためのユニットを説明したわけではない。しかしながら、所定の処理を実行するステップがある場合には、同じ処理を実装するための対応する機能モジュールまたはユニット(ハードウエアおよび/またはソフトウエアにより実装される)が存在してもよい。説明されたステップの組み合わせおよびこれらのステップに対応するユニットは、それらを構成要素とする技術的解が完全で適用可能である限り、本発明の開示に含まれる。
本発明の方法および装置はいろいろなやり方で実施可能である。例えば、本発明の方法および装置は、ソフトウエア、ハードウエア、ファームウエア、またはそれらの任意の組み合わせを通じて実施可能である。方法のステップの上述の順番は単に説明を意図したものであって、本発明の方法のステップは、そうでないと特記されていない限り、上述の特定の順番に限定されない。加えて、ある実施の形態では、本発明はまた、本発明に係る方法を実装するための機械可読インストラクションを含む、記録媒体に記録されたプログラムとして実現されてもよい。したがって、本発明はまた、本発明に係る方法を実装するためのプログラムを保持する記録媒体をカバーする。
本発明の特定の実施の形態が例と共に詳述されたが、上述の例は単に説明を意図したものであって、本発明の範囲を限定するものではないことは、当業者に理解されるべきである。本発明の範囲および精神から逸脱することなく、上述の実施の形態を変形できることは、当業者に理解されるべきである。本発明の範囲は添付の請求項によって定義される。

Claims (12)

  1. 入力された動画からの現在画像と背景モデルとを取得するよう構成された取得部であって、前記背景モデルが背景画像と視覚要素の分類情報とを含み、前記視覚要素の前記分類情報が前景および背景を含む、取得部と、
    前記現在画像の視覚要素と前記背景モデルの前記視覚要素との間の第1類似度を決定するよう構成された類似度決定部であって、前記背景モデルの前記視覚要素がその分類情報が前記背景である前記視覚要素であり、前記背景モデルの前記視覚要素が前記現在画像の前記視覚要素の対応部分に隣接する前記視覚要素である、類似度決定部と、
    前記現在画像と、前記背景モデルの前記背景画像と、前記類似度決定部によって決定された前記第1類似度と、にしたがって、前記現在画像の前記視覚要素を前記前景または前記背景として分類するよう構成された分類部と、を備える画像処理装置。
  2. 前記背景モデルの前記背景画像が前記現在画像の少なくともひとつの以前の画像にしたがって取得され、
    前記背景モデルの前記視覚要素の前記分類情報が、前記現在画像の少なくともひとつの以前の画像における前記前景または前記背景として分類された前記視覚要素にしたがって取得される請求項1に記載の画像処理装置。
  3. 前記現在画像の前記視覚要素のうちのいずれかについて、前記類似度決定部が、当該視覚要素と前記背景モデルの前記視覚要素の一部との間の類似度を決定することによって、当該視覚要素に対応する前記第1類似度を決定し、
    前記背景モデルの前記視覚要素の前記一部がその分類情報が前記背景である前記視覚要素であり、前記背景モデルの前記視覚要素の前記一部が前記現在画像の当該視覚要素の前記対応部分に隣接する前記視覚要素である請求項1に記載の画像処理装置。
  4. 前記現在画像の前記視覚要素のうちのいずれかについて、当該視覚要素の前記対応部分が、前記背景モデルにおけるその位置が前記現在画像における当該視覚要素の位置と同じである部分である請求項3に記載の画像処理装置。
  5. 前記分類部が、前記類似度決定部によって決定された前記第1類似度にしたがって調整された第2類似度にしたがって、前記現在画像の前記視覚要素を前記前景または前記背景として分類し、
    前記第2類似度が、前記現在画像の前記視覚要素と前記背景画像の対応する視覚要素との間の類似度である請求項1に記載の画像処理装置。
  6. 前記分類部は、
    前記現在画像の前記視覚要素のそれぞれについて、当該視覚要素に対応する前記第2類似度を算出するよう構成された計算部と、
    前記類似度決定部によって決定された前記第1類似度にしたがって、前記計算部によって算出された前記第2類似度を調整するよう構成された調整部と、
    前記調整部によって調整された前記第2類似度にしたがって、前記現在画像の前記視覚要素を前記前景または前記背景として決定するよう構成された決定部と、を含む請求項5に記載の画像処理装置。
  7. 前記現在画像の前記視覚要素のそれぞれについて、前記調整部が、所定の第1しきい値と、前記類似度決定部によって決定された当該視覚要素に対応する前記第1類似度と、にしたがって、前記計算部によって算出された当該視覚要素に対応する前記第2類似度を調整する請求項6に記載の画像処理装置。
  8. 前記現在画像内の各グループ内の前記視覚要素について、前記調整部が、所定の第2しきい値と、このグループについての可能度と、にしたがって、前記計算部によって算出された当該グループの前記視覚要素に対応する前記第2類似度を調整し、
    当該グループに対する前記可能度は、当該グループの前記視覚要素を前記背景として分類する蓋然性を表す請求項6に記載の画像処理装置。
  9. 前記現在画像内の各グループ内の前記視覚要素について、当該グループに対する前記可能度が当該グループの前記視覚要素の可能度にしたがって決定され、
    当該グループの前記視覚要素のそれぞれについて、当該視覚要素の前記可能度が前記類似度決定部によって決定された当該視覚要素に対応する前記第1類似度にしたがって決定される請求項8に記載の画像処理装置。
  10. 入力された動画からの現在画像と背景モデルとを取得する取得ステップであって、前記背景モデルが背景画像と視覚要素の分類情報とを含み、前記視覚要素の前記分類情報が前景および背景を含む、取得ステップと、
    前記現在画像の視覚要素と前記背景モデルの前記視覚要素との間の第1類似度を決定する類似度決定ステップであって、前記背景モデルの前記視覚要素がその分類情報が前記背景である前記視覚要素であり、前記背景モデルの前記視覚要素が前記現在画像の前記視覚要素の対応部分に隣接する前記視覚要素である、類似度決定ステップと、
    前記現在画像と、前記背景モデルの前記背景画像と、前記類似度決定ステップによって決定された前記第1類似度と、にしたがって、前記現在画像の前記視覚要素を前記前景または前記背景として分類する分類ステップと、を含む画像処理方法。
  11. 前記分類ステップにおいて、前記類似度決定ステップによって決定された前記第1類似度によって調整された第2類似度にしたがって、前記現在画像の前記視覚要素が前記前景または前記背景として分類され、
    前記第2類似度が、前記現在画像の前記視覚要素と前記背景画像の対応する視覚要素との間の類似度である請求項10に記載の画像処理方法。
  12. 動画を取得するよう構成された取得デバイスと、
    請求項1から9のいずれか一項に記載の画像処理装置であって、取得された前記動画の画像の視覚要素を前景または背景として分類するよう構成された画像処理装置と、
    取得された前記動画と、前記画像処理装置によって決定された処理結果と、を保持するよう構成されたストレージデバイスと、備える監視システム。
JP2018141611A 2017-09-30 2018-07-27 画像処理装置および方法並びに監視システム Active JP6598943B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710915056.3A CN109598741A (zh) 2017-09-30 2017-09-30 图像处理装置和方法及监控系统
CN201710915056.3 2017-09-30

Publications (2)

Publication Number Publication Date
JP2019067369A true JP2019067369A (ja) 2019-04-25
JP6598943B2 JP6598943B2 (ja) 2019-10-30

Family

ID=65897834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141611A Active JP6598943B2 (ja) 2017-09-30 2018-07-27 画像処理装置および方法並びに監視システム

Country Status (3)

Country Link
US (1) US11354808B2 (ja)
JP (1) JP6598943B2 (ja)
CN (1) CN109598741A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197816A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2017033559A (ja) * 2015-07-31 2017-02-09 富士通株式会社 放置物の検出装置、方法及びシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102714034B (zh) * 2009-10-15 2014-06-04 华为技术有限公司 信号处理的方法、装置和系统
AU2010238543B2 (en) * 2010-10-29 2013-10-31 Canon Kabushiki Kaisha Method for video object detection
AU2010241260B2 (en) * 2010-10-29 2013-12-19 Canon Kabushiki Kaisha Foreground background separation in a scene with unstable textures
AU2011203219B2 (en) * 2011-06-30 2013-08-29 Canon Kabushiki Kaisha Mode removal for improved multi-modal background subtraction
KR101299237B1 (ko) * 2011-11-23 2013-08-22 서울대학교산학협력단 팬틸트줌 카메라를 이용한 물체 탐지 장치 및 방법
AU2011265429B2 (en) * 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
US9317908B2 (en) * 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
US9275289B2 (en) * 2014-03-27 2016-03-01 Xerox Corporation Feature- and classifier-based vehicle headlight/shadow removal in video
US9483838B2 (en) * 2014-04-24 2016-11-01 Xerox Corporation Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification
CN105205830A (zh) * 2014-06-17 2015-12-30 佳能株式会社 用于更新场景模型和视频监视的方法和设备
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
US9471844B2 (en) * 2014-10-29 2016-10-18 Behavioral Recognition Systems, Inc. Dynamic absorption window for foreground background detector
US9349054B1 (en) * 2014-10-29 2016-05-24 Behavioral Recognition Systems, Inc. Foreground detector for video analytics system
AU2014271236A1 (en) * 2014-12-02 2016-06-16 Canon Kabushiki Kaisha Video segmentation method
AU2014280948A1 (en) * 2014-12-24 2016-07-14 Canon Kabushiki Kaisha Video segmentation method
CN106611417B (zh) * 2015-10-20 2020-03-31 佳能株式会社 将视觉元素分类为前景或背景的方法及装置
CN109598276A (zh) * 2017-09-30 2019-04-09 佳能株式会社 图像处理装置和方法及监控系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197816A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2017033559A (ja) * 2015-07-31 2017-02-09 富士通株式会社 放置物の検出装置、方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
笠原 優也、外2名: ""superpixelを用いた背景の変動に頑健な移動物体領域抽出手法"", 第79回(平成29年)全国大会講演論文集(2) 人工知能と認知科学, JPN6019032997, 16 March 2017 (2017-03-16), JP, pages 271 - 272, ISSN: 0004105594 *

Also Published As

Publication number Publication date
CN109598741A (zh) 2019-04-09
JP6598943B2 (ja) 2019-10-30
US20190102887A1 (en) 2019-04-04
US11354808B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
US9158985B2 (en) Method and apparatus for processing image of scene of interest
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
Yun et al. Scene conditional background update for moving object detection in a moving camera
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
US10445590B2 (en) Image processing apparatus and method and monitoring system
JP5360052B2 (ja) 物体検出装置
Lee et al. Low-complexity background subtraction based on spatial similarity
US10121251B2 (en) Method for controlling tracking using a color model, corresponding apparatus and non-transitory program storage device
Xu et al. A robust background initialization algorithm with superpixel motion detection
WO2023103298A1 (zh) 遮挡检测方法及装置、电子设备、存储介质及计算机程序产品
CN110874853A (zh) 目标运动的确定方法、装置、设备及存储介质
Cheng et al. A background model re-initialization method based on sudden luminance change detection
KR20160037480A (ko) 지능형 영상 분석을 위한 관심 영역 설정 방법 및 이에 따른 영상 분석 장치
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
JP6598952B2 (ja) 画像処理装置及び方法及び監視システム
CN104933688B (zh) 一种数据处理方法及电子设备
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
JP6598943B2 (ja) 画像処理装置および方法並びに監視システム
CN112752110B (zh) 视频呈现方法及装置、计算设备、存储介质
JP2018147046A (ja) 顔検出装置およびその制御方法
CN112085002A (zh) 人像分割方法、装置、存储介质及电子设备
CN111311603A (zh) 用于输出目标物体数目信息的方法和装置
Jahandide et al. A hybrid motion and appearance prediction model for robust visual object tracking
CN110300253B (zh) 图像处理装置和方法及存储指令的存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R151 Written notification of patent or utility model registration

Ref document number: 6598943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151