JP5704863B2 - 画像処理装置、画像処理方法及び記憶媒体 - Google Patents

画像処理装置、画像処理方法及び記憶媒体 Download PDF

Info

Publication number
JP5704863B2
JP5704863B2 JP2010189741A JP2010189741A JP5704863B2 JP 5704863 B2 JP5704863 B2 JP 5704863B2 JP 2010189741 A JP2010189741 A JP 2010189741A JP 2010189741 A JP2010189741 A JP 2010189741A JP 5704863 B2 JP5704863 B2 JP 5704863B2
Authority
JP
Japan
Prior art keywords
model
image processing
difference
appearance information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010189741A
Other languages
English (en)
Other versions
JP2012048477A5 (ja
JP2012048477A (ja
Inventor
東條 洋
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010189741A priority Critical patent/JP5704863B2/ja
Priority to US13/212,619 priority patent/US8818096B2/en
Publication of JP2012048477A publication Critical patent/JP2012048477A/ja
Publication of JP2012048477A5 publication Critical patent/JP2012048477A5/ja
Application granted granted Critical
Publication of JP5704863B2 publication Critical patent/JP5704863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法及び記憶媒体に関し、特に、移動物体等を検出するために用いて好適な技術に関する。
カメラで撮影した画像から物体を検出する次のような技術が開示されている。まず、背景差分法によって移動物体を検出する方法がある。背景差分法では、固定したカメラにおいて、予め、被写体がいない背景の画像を撮影し、その特徴量を基準モデルとして記憶する。その後、カメラから入力された画像中の特徴量と基準モデル中の特徴量との差分を求め、異なる領域を前景(移動物体)として検出する。そして、背景差分では、背景の変化に対応していくために、しばらく出現しなかった特徴は基準モデルから削除する(忘却する)処理が行われる。これにより、精度よく前景領域の検出を可能としている。
また、画像から顔や人などの特定の被写体を検出する方法もある。この方法では、所定の大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対し被写体であるか否かの2クラス判別を行う。この判別には、アダブーストを使って多くの弱判別器を有効に組み合わせて判別器を構成し、判別精度を向上させる。また、この判別器を直列に繋ぎ、カスケード型の検出器を構成するようにしている。弱判別器はHaarタイプの矩形特徴量で構成されている。そして、カスケード型の検出器は、まず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去する。そして、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って被写体かどうかの判別を行う。
ここで、例えば、特許文献1には、背景差分によって求めた移動物体領域についてのみ、被写体(人物)かどうかの認識を行う技術が開示されている。一般的に、被写体検出は検出ウィンドウを画像中で走査し、毎回、複数の判別器を適用するために処理コストが非常に高くなる。従って、特許文献1に開示された技術のように、背景差分で検知された移動物体領域に対してのみ、被写体検出を行うことにより、画像内の全領域に対して行うよりも、全体の処理コストを削減することができる。
特開2002−74371号公報
しかしながら、例えば待合室のような場所で、被写体として人物を検出する場合には以下の音大が生じる。このような場所では、人物はしばしば所定時間停止した後に動き出すといった動作を行う。図16は、このようなケースを示したフレーム画像101〜103と、このときの従来の背景差分の検知結果104〜106とを示す図である。また、107は人物であり、108及び109は、前景として検出された領域を示している。なお、時間は、左から右に流れているものとする。
図16において、人物107が停止している間(フレーム画像101〜102)に、所定の時間が経過すると人物107で隠れていた背景の特徴量が基準モデルから忘却されてしまう。そして、人物107が移動すると、人物に対応する領域108だけでなく、再び現れた背景も、基準モデルとの間に差分が生じるため新規の前景の領域109として検知されてしまう。
特許文献1に開示された技術のように、背景差分によって被写体検出探索範囲の絞り込みを行っても、このような事象が起こるたびに、前景領域は広くなってしまう。つまり、被写体検出の探索範囲の絞り込みを適切に行うことができず、結果として、高速な被写体の検知ができなくなってしまう。
本発明は前述の問題点に鑑み、安定して高速な被写体を検知できるようにすることを目的としている。
本発明の画像処理装置は、映像データの部分領域ごとに複数の状態のそれぞれに対する背景を表すモデルの特徴量とその出現情報とを記憶するモデル記憶手段と、入力された映像データの特徴量と前記モデルの特徴量との差分を部分領域ごとに算出する算出手段と、前記差分に基づいて前記入力された映像データと類似する部分領域のモデルの出現情報を更新する第1の更新手段と、前記差分に基づいて前景か背景かを判定する判定手段と、前記前景と判定された領域から被写体領域を検出する検出手段と、前記被写体領域に対応する部分領域のモデルの出現情報を更新する第2の更新手段と、前記部分領域ごとにある状態に対する前記モデルの出現情報が所定の基準を満たせば、当該モデルの特徴量とその出現情報とを前記モデル記憶手段から削除する第3の更新手段とを備えたことを特徴とする。
本発明によれば、人などの被写体が立ち止まって、再び動き出すようなパターンの行動をするような場合であっても、背景差分の基準モデルの精度が保たれ、誤検知が生じなくなる。従って、被写体検知の探索範囲が無意味な領域まで広がることがなくなるため、安定して高速な被写体を検知することができる。
画像処理装置の機能構成例を示すブロック図である。 画像処理装置のハードウェア構成例を示すブロック図である。 画像処理装置のハードウェア構成の他の例を示すブロック図である。 画像処理装置の処理手順の一例を示すフローチャートである。 被写体領域情報の一例を示す図である。 図4のステップS402の詳細な手順の一例を示すフローチャートである。 基準モデルの詳細な構成の一例を示す図である。 最小差分値情報の一例を示す図である。 図4のステップS403の詳細な手順の一例を示すフローチャートである。 アクティブ状態情報の一例を示す図である。 図4のステップS404の詳細な手順の一例を示すフローチャートである。 前景フラグを追加したアクティブ状態情報の一例を示す図である。 前景領域情報の一例を示す図である。 図4のステップS405の詳細な手順の一例を示すフローチャートである。 図4のステップS407の詳細な手順の一例を示すフローチャートである。 フレーム画像とこの時の従来の背景差分の検知結果とを示す図である。
(第1の実施形態)
図2は、本実施形態における画像処理装置のハードウェア構成例を示すブロック図である。
図2において、CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。ROM202は、不揮発性メモリであり、プログラムやその他の制御に必要なプログラムやデータを格納する。RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果などの一時的なデータを記憶する。
2次記憶装置204は、ハードディスクドライブやフラッシュメモリーなどの書き換え可能な記憶装置であり、画像情報や画像処理プログラムや、各種設定内容などを記憶する。これらの情報はRAM203に転送してCPU201がプログラムの実行およびデータを利用する。画像入力装置205は、デジタルビデオカメラやネットワークカメラ、赤外線カメラなどであり、画像データを入力するものである。入力装置206は、キーボードやマウスなどであり、ユーザからの入力を可能とするものである。
表示装置207は、ブラウン管CRTや液晶ディスプレイなどであり、ユーザに対して処理結果などを表示するものである。ネットワークI/F208は、インターネットやイントラネットなどのネットワークと接続を行うモデムやLANなどである。バス209は、これらを接続して相互にデータの入出力を行う。本実施形態の画像処理装置はオペレーティングシステムの上で動作するアプリケーションとして実装されている。
図1は本実施形態に係る画像処理装置の機能構成例を示すブロック図である。
図1において、301は映像入力部であり、画像入力装置205により構成され、映像データ(画像データ)を入力するものである。302は特徴量抽出部であり、映像より特徴量を抽出するものである。
303は差分算出部であり、後述する基準モデル記憶部304より読み出した基準モデルと入力映像との差分を求めるものである。304は基準モデル記憶部であり、RAM203や2次記憶装置204により構成され、映像内の各位置の状態を画像特徴量で代表させた基準モデルとして記憶するものである。なお、この基準モデルの詳細については後述する。305は第1基準モデル更新部であり、差分算出部303の算出結果に基づいて、基準モデル記憶部304に記憶している基準モデルを更新するものである。
306は前景背景判定部であり、第1基準モデル更新部305の結果に基づいて、入力映像中の各位置が前景であるか背景であるかを判定するものである。307は被写体検出部であり、映像入力部301で入力映像の中で、前景背景判定部306にて前景と判定された領域から、特定の被写体(本実施形態では人体)の領域を検出するものである。308は第2基準モデル更新部であり、被写体検出部307の結果に基づいて、基準モデル記憶部304に記憶されている基準モデルの更新を行うものである。309は第3基準モデル更新部であり、基準モデル中の所定時間以上出現していない状態を削除するものである。
次に、本実施形態の処理の大まかな流れについて図4を用いて説明する。図4は、本実施形態に係る画像処理装置による処理手順の一例を示すフローチャートである。
まず、映像入力部301において撮像などにより映像を入力し、所定時間ごとにフレーム画像を得る(ステップS401)。次に、特徴量抽出部302において、フレーム画像から特徴量を抽出し、差分算出部303において、基準モデル記憶部304より基準モデル中の過去の特徴量を読み出して、フレーム画像中の特徴量との差分を算出する(ステップS402)。なお、このステップS402の処理の詳細については後述する。
次に、第1基準モデル更新部305において、差分算出部303の結果に基づいて、フレーム画像に近い状態を求め、基準モデル記憶部304中の基準モデルを更新する(ステップS403)。なお、ステップS403の詳細については後述する。次に、前景背景判定部306において、映像中の領域を前景領域と背景領域とに分ける(ステップS404)。なお、ステップS404の詳細については後述する。
次に、被写体検出部307において、前景背景判定部306によって求められた前景領域に対して、被写体検出を行う(ステップS405)。なお、ステップS405の詳細については後述する。次に、検出された被写体領域を被写体領域情報として出力する(ステップS406)。図5は、被写体領域情報の一例を示す図であり、被写体領域の個数と、各被写体の外接矩形の座標とから構成される。出力された被写体領域は、表示装置207で入力された映像に矩形として重ね描きされて表示するなどの用途に使用される。
次に、第2基準モデル更新部308と第3基準モデル更新部309において、それぞれ被写体検出部307の検知結果、基準モデル中の出現回数(出現時間情報)を基に、基準モデルの更新を行う(ステップS407)。なお、ステップS407の詳細については後述する。次に、電源OFFなどによるユーザからの終了指示の判定を行う(ステップS408)。そして、終了指示が行われるまで、ステップS401〜S407の処理を繰り返す。
図6は、図4のステップS402の差分算出処理の詳細な手順の一例を示すフローチャートである。
まず、フレーム画像より各位置の状態を表す値として、画像特徴量を取得する(ステップS601)。画像特徴量の例としては、輝度、色、エッジなどが挙げられるが、特にこれらに限定されるものではない。また、画素ごとの特徴量であっても、部分領域ごとの特徴量であってもどのサイズでもよい。部分領域ごとの特徴量の例としては、8×8画素ブロック内の画素の平均輝度やDCT係数などがあげられる。DCT係数とは、離散コサイン変換(Discrete Cosine Transform)した結果である。フレーム画像がJPEG形式で圧縮符号化されている場合は、既に画像圧縮時に特徴量抽出されているのと同じことになる。従ってこの場合は、JPEG形式のフレーム画像よりDCT係数を直接取り出し、これを特徴量として使用するようにしてもよい。本実施例では、画素ごとの輝度であるとする。なお、フレーム画像の左上の画素を開始点とし、以降、左より右へ、行ごとに下へ移動しながら以降の処理を行うものとする。
次に、基準モデル記憶部304に記憶されている基準モデルより、注目している位置の画素の特徴量を取得する(ステップS602)。ここで、基準モデル記憶部304に記憶されている基準モデルについて、図7を用いて説明する。基準モデルは、フレーム画像中の各位置の状態を、画像特徴量で現したものである。基準モデルは基準モデル管理情報と位置毎基準モデル情報との2つの部分から構成されている。
基準モデル管理情報は、位置情報と各位置における位置毎基準モデル情報へのポインタとから構成される。位置情報はフレーム画像の画素の位置をXY座標で示した値であってもいいし、8×8画素のブロックの位置を、左上から右へ、行ごとに順に振った番号であってもよい。なお、本実施形態では、フレーム画像の画素の位置をXY座標で示した値であるものとする。
位置毎基準モデル情報は、各位置に対応する状態を複数保持する。これは照明の変化や新たな静止物体(花瓶など)の出現などにより時間と共に変化する背景に対応するためである。各状態には、状態の番号、状態を代表する画像特徴量、作成時刻、出現回数、及びアクティブフラグが保持されている。作成時刻とは、その状態が始めて基準モデル内に作成された時刻であり、時間やフレーム番号で表現される。出現回数は、その状態が作成されてから現在までに、入力映像中に類似した状態が出現した回数である。アクティブフラグとは、その状態が現在のフレーム画像に出現した状態と類似していることを示すフラグである。
そして、フレーム画像内で同じ位置における複数の状態は、基準モデル管理情報のポインタで参照された先に、連続して格納される。図7の例では、位置(X1,Y1)は、1200番地に状態番号1の状態が、続いて、1201番地に状態番号2の状態が格納されている。従って、注目する位置に対応する全ての状態を読み出すためには、次のようにすればよい。基準モデル管理情報から注目する位置とその次の位置のポインタを参照し、注目位置のアドレスから次の位置の一つ手前のアドレスの前までを読み出せばよい。
以上のようにステップS602では、基準モデル管理情報より注目している位置の位置毎基準モデル情報へのポインタを参照し、1つの状態の特徴量を取得する。初めての位置であれば、状態番号1の特徴量(図7の例では100)を取得することになる。
次に、前述の基準モデル記憶部304から取得した特徴量と、フレーム画像中の同じ位置の特徴量との差分を算出する(ステップS603)。差分の算出方法として、ここでは2つの特徴量の差の絶対値を用いるが、特にこれに限定されるものではなく、例えば、差を2乗した値であってもよい。そして、フレーム画像内の位置と関連付けて差分値をRAM203に一時記憶する。
次に、注目する位置で差分を算出していない状態が存在するかどうかについて、基準モデル管理情報にある注目する次の位置のポインタに書かれているアドレスまで読み出したかどうかにより判定する(ステップS604)。この判定の結果、差分を算出していない状態が存在する場合は、位置毎基準モデル情報を読み出すアドレスをインクリメントして、次の状態を読み出す(ステップS605)。そして、ステップS602及びS603の処理を繰り返す。
一方、差分を算出していない状態が存在しない場合は、次に、注目する位置について、フレーム画像と基準モデル中の全ての状態との差分値の中から、最小の値を求める(ステップS606)。このときの最小差分値と対応する状態番号、フレーム画像内の位置を関連付けて最小差分値情報としてRAM203に一時記憶する。なお、図8には、最小差分値情報の一例を示す。
次に、フレーム画像中の全ての画素(位置)について、処理を行ったかどうかを判定し(ステップS607)、行っていなければ次の画素へ処理を進め(ステップS608)、ステップS601からS606までの処理を繰り返す。一方、すべての画素について処理が行われた場合は処理を終了する。なお、画像処理の開始時は基準モデルが記憶されていないので、差分算出の値として、最大値などを設定しておく。これらは全て、後述するように新規の状態と判定されることになる。
図9は、ステップS403における基準モデルの第1の更新処理の詳細な手順の一例を示すフローチャートである。
まず、ステップS402の差分差出処理の結果である最小差分値を、フレーム画像の左上の画素を開始点とし、以降、左より右へ、行ごとに下へ移動しながら順に一つずつRAM203に一時記憶された最小差分値情報より取得する(ステップS901)。
次に、注目する位置における最小差分値と閾値Aとを比較する(ステップS902)。この比較の結果、差分値の方が小さい場合は、基準モデルに記憶されている状態に類似していると判定でき、ステップS903に進む。逆に差分値の方が大きい場合は、基準モデルに記憶されているどの状態とも違い、新しい状態であると判定でき、ステップS905に進む。
ステップS903においては、最小差分値情報中の状態番号を参照してその状態のアクティブフラグをONに設定する。そして、出現回数をインクリメントする(ステップS904)。なお、出現回数はフレーム画像内の位置に関連付けてアクティブ状態情報(図10がその一例である)としてRAM203に一時記憶される。図10には、アクティブ状態情報の一例を示す。
一方、ステップS905においては、フレーム画像の特徴量を追加する。次に、現在時刻を本状態の基準モデル内に作成した時刻として追加する(ステップS906)。なお、本実施形態では現在のフレーム番号を用いるが、もちろん、何時何分何秒といった通常の時刻表現を用いても構わない。そして、出現回数は新しく出現した状態であるので1とする(ステップS907)。なお、ステップS904と同様に出現回数はフレーム画像内の位置に関連付けてアクティブ状態情報としてRAM203に一時記憶される。そして、アクティブフラグをONに設定する(ステップS908)。
次に、フレーム画像中の全ての画素(位置)について、処理を行ったかどうかを判定し(ステップS909)、行っていなければ次の画素へ処理を進め(ステップS910)、ステップS901からS908までの処理を繰り返す。一方、すべての画素について処理が行われた場合は処理を終了する。なお、前述したように、画像処理の開始時は、差分値が最大値に設定されているので、全て新規の状態と判定され、全て基準モデルに追加される。
図11は、図4のステップS404の前景背景判定処理の詳細な手順の一例を示すフローチャートである。
まず、ステップS403の第1の更新処理の結果であるアクティブな状態を、フレーム画像の左上の画素を開始点として、RAM203中のアクティブ状態情報より取得する(ステップS1101)。なお、以降、左より右へ、行ごとに下へ移動しながら順に一つずつ同様に処理する。
次に、アクティブな状態の出現回数が所定の閾値よりも多いかどうかを判定する(ステップS1102)。この判定の結果、閾値よりも少なければ前景と判定され、前景であることを示す前景フラグをONにして、アクティブ状態情報に追加する(ステップS1103)。また、閾値よりも多い場合は背景と判定され、前景フラグをOFFにしてアクティブ状態情報に追加する(ステップS1104)。図12には、前景フラグを追加したアクティブ状態情報の一例を示している。
次に、フレーム画像中の全ての画素(位置)について、処理を行ったかどうかを判定し(ステップS1105)、全ての画素について処理を行っていない場合は次の画素へ処理を進め(ステップS1107)る。そして、ステップS1101〜S1104までの処理を繰り返す。一方、全ての画素について、処理が終わるとそれぞれの画素が前景であるか背景であるかの判別が終了することになり、次のステップS1106に進む。
次に、RAM203中のアクティブ状態情報を参照して、隣り合う画素が共に前景と判定された画素同士を一つの領域とみなし(領域統合)、領域ごとに外接矩形をとり、前景領域情報を作成する(ステップS1106)。前景領域情報は、前景領域の個数と、各前景領域の外接矩形の左上の点の座標(x1、y1)と右下の点の座標(x2、y2)から構成される。なお、図13には、前景領域情報の一例を示している。
図14は、図4のステップS405の前景領域からの被写体検出処理の詳細な手順の一例を示すフローチャートである。
まず、映像入力部301よりフレーム画像を取得する(ステップS1401)。次に、ステップS404の前景背景判定処理の結果である前景領域情報から1つの前景領域の外接矩形の座標を取得する(ステップS1402)。
次に、前景領域に対してのみ検出ウィンドウを走査し、被写体の検出を行う(ステップS1403)。そして、検出された被写体の領域情報として、被写体の外接矩形の座標を、被写体領域情報として作成する。次に、前景領域情報に含まれる全ての前景領域について、処理を行ったかどうかを判定し(ステップS1404)、行っていなければ次の前景領域へ処理を進め(ステップS1405)、ステップS1402〜S1403までの処理を繰り返す。
図15は、図4のステップS407の基準モデルの第2、第3の更新処理の詳細な手順の一例を示すフローチャートである。なお、本処理では画素毎に基準モデルの第2の更新処理と第3の更新処理とを連続して行う。
まず、ステップS405の前景領域からの被写体検出処理の結果である、RAM203中の被写体領域情報を取得する(ステップS1501)。
次に、フレーム画像の左上の画素を開始点とし、以降、左より右へ、行ごとに下へ移動しながら順に、被写体領域情報から被写体領域内であるかどうかの判定を行う(ステップS1502)。この判定の結果、被写体領域外である場合は、後述するステップS1503をスキップし、ステップS1504に進む。一方、被写体領域内である場合は、基準モデルを参照し、基準モデル中の非アクティブ状態の出現回数をインクリメントする(ステップS1503)。これは、人体によって背景に相当する状態が隠れているだけであると考えられ、出現しているものと見なすためである。ここでもし、非アクティブ状態が複数ある場合は、最も出現回数の多い、すなわち長く出現している状態を、背景に相当するものとして選択し、その出現回数をインクリメントする。ここまでの処理が基準モデルの第2の更新処理である。
次に、アクティブでない状態の削除予定時刻を、出現回数の値を基に算出する(ステップS1504)。削除予定時刻は次式で算出される。
削除予定時刻=状態の作成時刻 + α×出現回数 ・・・ 式(1)
ここでαは所定の係数である。出現回数に応じて、状態の削除予定時刻を決めるのは、より少ない出現回数しかもたない状態は、一時的なものと見なせるためである。この意図を反映するものであれば、削除予定時刻の算出式は式(1)に限定されるものではない。
次に、現在時刻が既に削除予定時刻となっているかどうかを判定する(ステップS1505)。この判定の結果、削除予定時刻になっている場合は、対応する状態を、基準モデルから削除する(ステップS1506)。一方、削除予定時刻になっていない場合は、ステップS1506をスキップする。ここまでの処理が基準モデルの第3の更新処理である。
次に、注目する位置で非アクティブ状態全てについて行ったか否かを、基準モデル管理情報にある注目する次の位置のポインタに書かれているアドレスまでの状態のうち、アクティブフラグがOFFのものが存在するか否かにより判定する(ステップS1507)。この判定の結果、処理を行っていない非アクティブ状態が存在する場合は、アクティブフラグがOFFの次の状態を読み出す(ステップS1508)。そして、ステップS1504からS1506までの処理を繰り返す。
一方、ステップS1508の判定の結果、全ての非アクティブ状態について処理を行った場合は、フレーム画像中の全画素について、ステップS1502〜S1506の第2の基準モデル更新処理を行ったかどうかを判定する(ステップS1509)。この判定の結果、全画素について行っていない場合は、次の画素へ処理を進め(ステップS1510)、ステップS1502からステップS1508の処理を繰り返す。一方、全画素について処理を行った場合は、処理を終了する。
なお、ステップS1503において、出現回数をインクリメントすることによって、人体により隠れている背景の状態を出現していると見なしたが、式(1)から明らかなように作成時刻を遅らせることによっても同様な効果を得ることが可能である。また、消去禁止フラグを設けるようにしてもよい。この場合、ステップS1503で、該当する状態の消去を禁止するフラグをONにしておき、消去禁止フラグがONのときは、ステップS1506が実行されないように、その前に条件判定を追加する。そして、ステップS1502で、被写体領域内でなかったときに、消去禁止フラグがONであった場合に、この消去禁止フラグをOFFにする。これは、背景が人体に隠されなくなったので、通常の状態と同様に削除の判定をするためである。
また、基準モデルの第2の更新処理によって、基準モデル中の出現回数が適切に保たれる。これにより、基準モデルの第3の更新処理によって、基準モデルの状態の削除も適切に行われることになる。すなわち、人体に隠れているだけの背景に相当する基準モデルの状態を削除してしまうことによる、基準モデルの精度の劣化を防ぐことができる。
以上のように本実施形態によれば、人などの被写体が立ち止まって、再び動き出すようなパターンの行動をするような場合であっても、背景差分の基準モデルの精度が保たれ、誤検知が生じなくなる。従って、被写体検知の探索範囲が無意味な領域まで広がることがなくなるため、安定して高速な被写体を検知することができる。
(第2の実施形態)
図3は、本実施形態における画像処理装置のハード構成例を示すブロック図である。なお、第1の実施形態と共通する部分には図2と同じ番号を付与している。ブロック構成としてはプログラムを記録したDVDまたはCDのような光ディスク1611、外部記憶入出力装置1610を追加しているところが第1の実施形態と異なる。この構成では、プログラムを記録した光ディスク1611を外部記憶入出力装置1610に挿入すると、CPU201は記録媒体からプログラムを読み取って、RAM203に展開することにより、第1の実施形態と同様の処理を実現することができる。
(その他の実施形態)
また、図2において、各装置はバス209によって接続されているが、一部の装置をネットワークI/F208により接続して構成してもよい。例えば、画像入力装置205をネットワークI/F208により接続して画像を入力するように構成してもよい。また、特徴量抽出部302から第3基準モデル更新部309までの全てを集積回路チップに納め、画像入力装置205と一体化させる。そして、図5に示した被写体領域情報を、LANケーブルなどを介して、PCで受信するようにしてもよい。或いは、前景背景判定部306までと第2基準モデル更新部308と第3基準モデル更新部309とを集積回路チップに納めて画像入力装置205と一体化させ、被写体検出部307をPC上に構成する。そして、LANケーブルを介してフレーム画像と、図13に示した前景領域情報と図5に示した被写体領域情報とをやりとりするようにしてもよい。
さらに、第1の実施形態では、被写体検出部307は人体を検出するものとして説明したが、もちろんこれに限定されるものではなく、特定の被写体を検出するものであればよい。例えば、車両や動物などであってもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
305 第1基準モデル更新部、306 前景背景判定部、308 第2基準モデル更新部、309 第3基準モデル更新部

Claims (8)

  1. 映像データの部分領域ごとに複数の状態のそれぞれに対する背景を表すモデルの特徴量とその出現情報とを記憶するモデル記憶手段と、
    入力された映像データの特徴量と前記モデルの特徴量との差分を部分領域ごとに算出する算出手段と、
    前記差分に基づいて前記入力された映像データと類似する部分領域のモデルの出現情報を更新する第1の更新手段と、
    前記差分に基づいて前景か背景かを判定する判定手段と、
    前記前景と判定された領域から被写体領域を検出する検出手段と、
    前記被写体領域に対応する部分領域のモデルの出現情報を更新する第2の更新手段と、
    前記部分領域ごとにある状態に対する前記モデルの出現情報が所定の基準を満たせば、当該モデルの特徴量とその出現情報とを前記モデル記憶手段から削除する第3の更新手段とを備えたことを特徴とする画像処理装置。
  2. 前記第3の更新手段は、前記出現情報に基づいて、出現が少ないある状態に対する部分領域のデータを前記モデル記憶手段から削除することを特徴とする請求項1記載の画像処理装置。
  3. 前記第1または第2の更新手段は、前記出現情報として出現回数を更新することを特徴とする請求項2記載の画像処理装置。
  4. 前記第3の更新手段は、各部分領域の各状態に対するデータを前記出現回数に応じた時間の経過後に前記モデル記憶手段から削除することを特徴とする請求項3記載の画像処理装置。
  5. 前記算出手段は、部分領域ごとに前記複数の状態のモデルの特徴量のうち前記入力された映像データの特徴量との差分が最も小さい状態のモデルの特徴量との差分を算出することを特徴とする請求項記載の画像処理装置。
  6. 前記部分領域は被写体より大きいサイズであることを特徴とする請求項1記載の画像処理装置。
  7. 映像データの部分領域ごとに複数の状態のそれぞれに対する背景を表すモデルの特徴量とその出現情報とを記憶するモデル記憶部を参照して、入力された映像データの特徴量と前記モデルの特徴量との差分を部分領域ごとに算出する算出工程と、
    前記差分に基づいて前記入力された映像データと類似する部分領域のモデルの出現情報を更新する第1の更新工程と、
    前記差分に基づいて前景か背景かを判定する判定工程と、
    前記前景と判定された領域から被写体領域を検出する検出工程と、
    前記被写体領域に対応する部分領域のモデルの出現情報を更新する第2の更新工程と、
    前記部分領域ごとにある状態に対する前記モデルの出現情報が所定の基準を満たせば、当該モデルの特徴量とその出現情報とを前記モデル記憶部から削除する第3の更新工程とを備えたことを特徴とする画像処理方法。
  8. 請求項記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2010189741A 2010-08-26 2010-08-26 画像処理装置、画像処理方法及び記憶媒体 Active JP5704863B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010189741A JP5704863B2 (ja) 2010-08-26 2010-08-26 画像処理装置、画像処理方法及び記憶媒体
US13/212,619 US8818096B2 (en) 2010-08-26 2011-08-18 Apparatus and method for detecting subject from image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010189741A JP5704863B2 (ja) 2010-08-26 2010-08-26 画像処理装置、画像処理方法及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2012048477A JP2012048477A (ja) 2012-03-08
JP2012048477A5 JP2012048477A5 (ja) 2013-10-10
JP5704863B2 true JP5704863B2 (ja) 2015-04-22

Family

ID=45697327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010189741A Active JP5704863B2 (ja) 2010-08-26 2010-08-26 画像処理装置、画像処理方法及び記憶媒体

Country Status (2)

Country Link
US (1) US8818096B2 (ja)
JP (1) JP5704863B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
JP6378483B2 (ja) * 2013-12-27 2018-08-22 株式会社メガチップス 検出装置、検出対象物の検出方法及び制御プログラム
CN103826102B (zh) * 2014-02-24 2018-03-30 深圳市华宝电子科技有限公司 一种运动目标的识别方法、装置
EP3246874B1 (en) * 2016-05-16 2018-03-14 Axis AB Method and apparatus for updating a background model used for background subtraction of an image
CN107920269A (zh) * 2017-11-23 2018-04-17 乐蜜有限公司 视频生成方法、装置和电子设备
EP3811328A4 (en) 2018-06-14 2021-09-29 Shanghai United Imaging Healthcare Co., Ltd. IMAGE PROCESSING METHODS AND SYSTEMS
US11195002B2 (en) * 2018-08-22 2021-12-07 Ideal Industries Lighting Llc Method and system for image based occupancy detection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538112B2 (ja) * 2000-03-21 2004-06-14 日本電信電話株式会社 遠隔監視方法、装置、および遠隔監視プログラムを記録した記録媒体
JP3571628B2 (ja) 2000-08-31 2004-09-29 三菱電機株式会社 画像処理装置
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
US8041116B2 (en) * 2007-09-27 2011-10-18 Behavioral Recognition Systems, Inc. Identifying stale background pixels in a video analysis system
JP2010003177A (ja) * 2008-06-20 2010-01-07 Secom Co Ltd 画像処理装置
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images

Also Published As

Publication number Publication date
US8818096B2 (en) 2014-08-26
US20120051593A1 (en) 2012-03-01
JP2012048477A (ja) 2012-03-08

Similar Documents

Publication Publication Date Title
JP5704863B2 (ja) 画像処理装置、画像処理方法及び記憶媒体
US9554030B2 (en) Mobile device image acquisition using objects of interest recognition
WO2018028583A1 (zh) 字幕提取方法及装置、存储介质
US10187546B2 (en) Method and device for correcting document image captured by image pick-up device
JP5210318B2 (ja) 画像処理装置、方法、および記憶媒体
WO2013031096A1 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
KR102356448B1 (ko) 이미지 합성 방법 및 그 전자 장치
JP2003051983A (ja) オブジェクトをトラッキングするための方法および装置
WO2014044158A1 (zh) 一种图像中的目标物体识别方法及装置
JP2007041866A (ja) 情報処理装置及び情報処理方法並びにプログラム
US10762372B2 (en) Image processing apparatus and control method therefor
WO2019062631A1 (zh) 一种局部动态影像生成方法及装置
WO2017197882A1 (zh) 一种视频播放方法及装置
US20190066734A1 (en) Image processing apparatus, image processing method, and storage medium
JP6203188B2 (ja) 類似画像検索装置
US20180300579A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9202286B2 (en) Image processing apparatus, computer-readable medium storing an image processing program, and image processing method
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
CN108780576B (zh) 使用对象边界框的视频片段中的重影去除的系统和方法
JP2009123150A (ja) 対象物検出装置及び方法、対象物検出システム、プログラム
JP5850188B2 (ja) 画像表示システム
US9196068B2 (en) Projector system, and method for drawings
US9826163B2 (en) Image processing apparatus, control method, and recording medium
JP2023540272A (ja) ピクチャ処理方法、装置、デバイス及び記憶媒体
JP2012104053A (ja) 背景差分処理装置、背景差分処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150224

R151 Written notification of patent or utility model registration

Ref document number: 5704863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151