JP5719141B2 - 情報処理装置、その処理方法及びプログラム - Google Patents

情報処理装置、その処理方法及びプログラム Download PDF

Info

Publication number
JP5719141B2
JP5719141B2 JP2010242651A JP2010242651A JP5719141B2 JP 5719141 B2 JP5719141 B2 JP 5719141B2 JP 2010242651 A JP2010242651 A JP 2010242651A JP 2010242651 A JP2010242651 A JP 2010242651A JP 5719141 B2 JP5719141 B2 JP 5719141B2
Authority
JP
Japan
Prior art keywords
feature amount
image feature
background model
image
update
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010242651A
Other languages
English (en)
Other versions
JP2012094068A (ja
JP2012094068A5 (ja
Inventor
東條 洋
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010242651A priority Critical patent/JP5719141B2/ja
Priority to US13/270,708 priority patent/US8942478B2/en
Publication of JP2012094068A publication Critical patent/JP2012094068A/ja
Publication of JP2012094068A5 publication Critical patent/JP2012094068A5/ja
Application granted granted Critical
Publication of JP5719141B2 publication Critical patent/JP5719141B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。
撮像装置(例えば、カメラ)で撮像した画像から背景差分法によって物体を検出する技術が知られている。背景差分法においては、固定したカメラにより被写体がいない背景の画像を撮像し、背景画像として予め記憶しておく。その後、カメラから入力された画像と、当該予め記憶された背景画像との差分を求め、その結果に基づいて物体の領域を検出する。
ここで、背景は、時間とともに変化する場合がある。例えば、照明変化によって背景の明るさが変化する。この場合、撮像された画像と記憶されている背景画像との間で差分が生じてしまい、背景領域を物体として誤検出してしまう可能性がある。
背景変化による誤検出を避けるためには、背景画像を入力画像に基づいて更新する手法が挙げられる。ここで、入力画像中に物体が含まれていると、当該物体も背景画像に影響を与えることになる。これを避けるため、特許文献1には、検出された物体領域を背景更新の対象領域から除外する技術が開示されている。
特開2002−99909号公報
しかし、一連の画像内において、背景に色や明るさが類似した物体が通過する場合、当該物体と背景との間で十分な差が生じないため、このような場合には、背景に類似した物体を正確に検出できない。そのため、特許文献1の手法では、背景に類似している物体も背景画像の更新に反映されてしまい、結果として、背景画像がもとの背景から変化してしまう。この場合、物体通過後の背景領域を物体として誤検出してしまう。
本発明は、上記課題に鑑みてなされたものであり、複数の周波数成分を有する画像特徴量を保持する背景モデルを用いて対象物体の検出を行なうとともに、当該複数の周波数成分毎に異なる更新度合いで背景モデルを更新するようにした技術を提供する。
上記課題を解決するため、本発明の一態様による情報処理装置は、画像を取得する画像取得手段と、前記画像取得手段により取得された画像の部分領域毎に、所定の変換を施して複数の周波数成分を含む画像特徴量を取得する特徴量取得手段と、画像特徴量を前記部分領域毎に保持する背景モデルにおける画像特徴量と前記特徴量取得手段により取得された画像特徴量とを前記部分領域毎に比較する比較手段と、前記比較手段による比較結果に基づいて、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルに保持された画像特徴量に含まれる複数の周波数成分を各周波数成分に応じた度合いで更新する更新手段と、前記背景モデルを用いて前記部分領域毎に検出対象となる対象物体が存在する領域を検出する検出手段とを具備することを特徴とする。
本発明によれば、複数の周波数成分を有する画像特徴量を保持する背景モデルを用いて対象物体の検出を行なうとともに、当該複数の周波数成分毎に異なる更新度合いで背景モデルを更新する。
本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図。 図1に示すCPU11及び記憶部14等で実現される機能的な構成の一例を示す図。 図1に示す情報処理装置10における全体的な処理の流れの一例を示すフローチャート。 図3のS102に示す差分算出処理の一例を示すフローチャート。 (a)は背景モデルの一例を示す図であり、(b)は最小差分値情報の一例を示す図。 図3のS103に示す背景モデル更新処理の一例を示すフローチャート。 図3のS104に示す前景背景判定処理の一例を示すフローチャート。 (a)は前景背景判定用情報の一例を示す図であり、(b)は前景位置情報の一例を示す図であり、(c)は前景領域情報の一例を示す図。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図である。
情報処理装置10は、所定時間毎にフレーム画像を入力し、背景モデルを用いて当該フレーム画像内から検出対象となる対象物体を検出する。ここで、情報処理装置10は、本実施形態に係わる背景モデル更新処理を実施する。これにより、一連の画像内において背景に類似した部分を持つ物体が通過した場合や、一連の画像内において照明変化が生じている場合であっても、フレーム画像内から対象物体を正確に検出する。
情報処理装置10は、CPU11と、ROM12と、RAM13と、記憶部14と、画像入力部15と、入力部16と、表示部17と、通信部18とを具備して構成される。なお、これら各構成は、バス19を介して通信可能に接続されている。
CPU(Central Processing Unit)11は、バス19を介して、各構成部における動作を統括制御する。ROM(Read Only Memory)12は、各種プログラム等を格納する不揮発性メモリである。なお、ROM12は、書き込み可能に構成されていても良い。RAM(Random Access Memory)13は、各種データ(例えば、フレーム画像)が一時的に格納される揮発性メモリである。RAM13は、例えば、CPU11により各種処理が実施される際には、ワーク領域として利用される。
記憶部14は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、DVD−RAM(Digital Versatile Disk Random Access Memory)等で実現され、各種情報を記憶する。記憶部14には、例えば、画像特徴量やプログラムなどが記憶される。
画像入力部15は、例えば、撮像装置(デジタルビデオカメラ、ネットワークカメラ、赤外線カメラ等)で実現され、所定時間毎にフレーム画像を装置内に入力する。通信部18は、例えば、ネットワークI/FやUSB等で実現され、他の装置と通信し各種データを授受する。
入力部16は、例えば、キーボードやマウス、又はタッチパネル等で実現され、ユーザからの指示を装置内に入力する。表示部17は、例えば、液晶パネル等で実現され、各種画面をユーザに向けて表示する。以上が、情報処理装置10におけるハードウェア構成の一例についての説明である。なお、図1に示すハードウェア構成は、あくまで一例であり、必ずしもこのような構成で実現される必要はない。例えば、画像入力部15に相当する構成が情報処理装置10の外部に設けられても良い。この場合、情報処理装置10へのフレーム画像の入力は、例えば、記憶媒体(例えば、USBメモリ)や通信部18を介して行なえば良い。
次に、図2を用いて、図1に示すCPU11及び記憶部14等で実現される機能的な構成の一例について説明する。
情報処理装置10は、その機能的な構成として、入力画像取得部21と、特徴量取得部22と、比較部23と、背景モデル記憶部24と、背景モデル更新部25と、対象物体検出部26とを具備して構成される。
入力画像取得部21は、画像入力部15により装置内に入力されたフレーム画像を所定時間毎に取得する。
特徴量取得部22は、入力画像取得部21により取得されたフレーム画像内における複数の部分領域から画像特徴量を取得する。ここで、本実施形態においては、画像特徴量の一例として、部分領域毎(8×8画素ブロック)に算出したDCT係数を用いる。DCT係数は、離散コサイン変換(Discrete Cosine Transform)を行なうことにより得られる。
ここで、本実施形態に係わる画像特徴量には、DCT係数のうち輝度Y成分の3番目の係数までが使用される。より具体的には、画像特徴量として、DC成分を示す係数1つと、AC成分を示す係数2つとが用いられる。そのため、特徴量取得部22により取得される画像特徴量は、空間周波数の異なる複数の特徴量が含まれる。
なお、フレーム画像がJPEG形式で圧縮符号化されていれば、画像圧縮時に画像特徴量が抽出されていることになるため、このような場合には、JPEG形式のフレーム画像からDCT係数を直接取り出し、これを画像特徴量として使用する。
比較部23は、フレーム画像内における注目領域(処理対象となる部分領域)の画像特徴量と、背景モデルにおける当該注目領域に対応する領域の画像特徴量とを比較し、その差分を算出する。
背景モデル記憶部24は、RAM13や記憶部14等で実現され、背景モデルを記憶する。背景モデルの詳細については後述するが、背景モデルには、フレーム画像内の各位置(部分領域)の状態が画像特徴量として規定される。
背景モデル更新部25は、比較部23による比較結果に基づいて、背景モデル記憶部24に記憶された背景モデルを更新する機能を有し、第1の背景モデル更新部31と、第2の背景モデル更新部32とを具備して構成される。本実施形態においては、第1の背景モデル更新部31は、交流成分(AC成分)の画像特徴量に対して背景モデル更新処理を実施し、第2の背景モデル更新部32は、直流成分(DC成分)の画像特徴量に対して背景モデル更新処理を実施する。すなわち、第1の背景モデル更新部31及び第2の背景モデル更新部32においては、それぞれ背景モデル内における各位置の画像特徴量内の異なる成分を更新する。
対象物体検出部26は、背景モデル記憶部24に格納された背景モデルを用いて、フレーム画像内における部分領域各々について前景(対象物体)であるか背景(対象物体以外)であるかを判定し、対象物体が存在する部分領域を検出する。
以上が、図1に示すCPU11及び記憶部14等で実現される機能的な構成の一例についての説明である。背景モデル記憶部24以外の機能構成は、例えば、CPU11が、RAM13等をワーク領域としてROM12や記憶部14等に記憶されたプログラムを読み出し実行することにより実現される。なお、その一部又は全てが集積回路チップとして実現されても構わない。また、背景モデル記憶部24に相当する構成は、情報処理装置10の外部に設けられても良い。
次に、図3を用いて、図1に示す情報処理装置10における全体的な処理の流れの一例について説明する。
情報処理装置10は、まず、画像入力部15において、撮像などを実施し、所定時間毎にフレーム画像を装置内に入力するとともに、入力画像取得部21において、当該フレーム画像を取得する(S101)。情報処理装置10は、特徴量取得部22において、取得したフレーム画像から画像特徴量を算出する。そして、比較部23において、当該算出した画像特徴量と、背景モデル記憶部24に格納された背景モデル内の画像特徴量との差分を算出する(S102)。
次に、情報処理装置10は、第1の背景モデル更新部31において、AC成分を対象とする第1の背景更新処理を実施し、背景モデル記憶部24に格納された背景モデルの更新を行なう。また、情報処理装置10は、第2の背景モデル更新部32において、DC成分を対象とする第2の背景更新処理を実施し、背景モデル記憶部24に格納された背景モデルの更新を行なう(S103)。
背景モデルの更新が済むと、情報処理装置10は、対象物体検出部26において、S101で取得したフレーム画像に対して、背景領域とそうでない領域(すなわち、前景領域)との判定を行なう。この前景領域が対象物体が存在する領域となる。そして、背景領域以外の領域(前景領域=対象物体の領域)を出力する(S104)。これにより、情報処理装置10は、表示部17において、例えば、入力されたフレーム画像内における前景領域に、例えば、その前景領域を囲む矩形枠等を重ね合わせて表示する。
その後、ユーザからの終了指示(例えば、電源オフ)があれば(S105でYES)、この処理は終了し、終了指示がなければ(S105でNO)、情報処理装置10は、再度、S101の処理に戻る。
次に、図4を用いて、図3のS102に示す差分算出処理の詳細について説明する。
この処理では、情報処理装置10は、まず、特徴量取得部22において、フレーム画像内における注目領域(処理対象となる部分領域)の画像特徴量を取得する(S201)。次に、情報処理装置10は、比較部23において、背景モデル記憶部24に記憶されている背景モデルから注目領域に対応する領域の画像特徴量を取得する(S202)。
ここで、図5(a)を用いて、背景モデル記憶部24に記憶されている背景モデルについて説明する。
背景モデルには、フレーム画像内における部分領域各々に対応して画像特徴量が規定される。この画像特徴量は、状態別に規定される。背景モデルは、背景モデル管理情報と、背景モデル情報との大きく2つ要素から構成される。
背景モデル管理情報には、位置情報とポインタとが含まれる。位置情報は、フレーム画像内における部分領域(8×8画素のブロック)の位置を示す。この場合、フレーム画像内の左上から右下へ、順番に割り当てられた番号で示される。例えば、640×480画素の画像であれば、1〜4800の番号が各ブロックに対して割り当てられている。
背景モデル情報は、部分領域各々に対応してその状態を複数保持する。なお、部分領域各々に対応して複数の状態を保持するのは、新たな静止物体(例えば、花瓶など)の出現などに応じて変化する背景に対応するためである。各状態には、状態を識別するための状態番号と、その状態を代表する画像特徴量と、その状態が始めて背景モデル内に作成された作成時刻(時刻情報)とが保持されている。なお、本実施形態においては、作成時刻としてフレーム番号を用いているが、作成時刻は、勿論、何時何分何秒といった時刻表現を用いて示されても良い。
ここで、フレーム画像内における同一の位置(部分領域)に対する複数の状態は、背景モデル管理情報のポインタの参照先に連続して格納されている。図5(a)に示す一例では、ブロック番号1については、1200番地及び1201番地にその状態が格納されている。具体的には、1200番地には、ブロック番号1に対する状態番号1の状態が格納されており、1201番地には、ブロック番号1に対する状態番号2の状態が格納されている。従って、注目領域に対応する全ての状態を読み出すには、注目領域とその次の部分領域のポインタを背景モデル管理情報から取得し、当該注目領域のアドレスから次の部分領域の一つ手前のアドレスの前までの値を取得すれば良い。
S202の説明に戻り、情報処理装置10は、比較部23において、背景モデル管理情報より注目領域の背景モデル情報へのポインタを参照し、いずれかの状態に対応する画像特徴量を取得する。
情報処理装置10は、比較部23において、フレーム画像内における注目領域の画像特徴量と、背景モデルにおける当該注目領域に対応する領域の画像特徴量とを比較し、その差分を算出する(S203)。そして、当該差分値をフレーム画像内における位置と関連付けて、例えば、RAM13等に記憶する。差分の算出方法としては、例えば、フレーム画像から取得した画像特徴量と背景モデルから取得した画像特徴量とにおける各DCT係数の差分の絶対値を求め、その総和を差分値とする手法を用いれば良い。なお、この手法に限られず、例えば、各差分値を2乗した値の総和を差分値としても良い。
続いて、情報処理装置10は、現在の注目領域において差分値を未算出の状態が存在するか否かを判定する。この判定は、背景モデル管理情報内において注目領域の次の部分領域に対するポインタを読み出したか否かに基づいて行なわれる。
判定の結果、未算出の状態があれば(S204でNO)、情報処理装置10は、背景モデルから次の状態の画像特徴量を取得し(S205)、上述したS202〜S204の処理を繰り返し実施する。
一方、現在の注目領域における全ての状態の画像特徴量を取得済みであれば(S204でYES)、情報処理装置10は、比較部23において、現在の注目領域に対して算出した全ての差分値の中から最小の値を選択する(S206)。そして、当該最小の差分値と、それに対応する状態番号と、フレーム画像内の位置(部分領域)とを関連付けた情報を最小差分値情報としてRAM13に記憶する。最小差分値情報は、例えば、図5(b)に示す形式でRAM13に記憶される。
次に、情報処理装置10は、比較部23において、フレーム画像内の全ての部分領域に対して上述した処理を実施したか否かを判定する。実施済みであれば(S207でYES)、この処理を終了し、実施済みでなければ(S207でNO)、次の部分領域に対して上述した処理を再度実施する(S208)。より具体的には、フレーム画像の左上の部分領域を開始点とし、以降、左から右へ、行毎に下へ移動しながら、フレーム画像内の全ての部分領域に対して上述した処理を実施する。
なお、情報処理装置10において初めて処理を行なう時には、適正な値が保持された背景モデルが記憶されていない。この場合、全ての部分領域に対応して所定値(例えば、最大値)が設定されたダミーの背景モデルを用いて処理すれば良い。
次に、図6を用いて、図3のS103に示す背景モデル更新処理(第1の背景モデル更新処理及び第2の背景モデル更新処理)の詳細について説明する。
この処理が開始すると、情報処理装置10は、背景モデル更新部25において、まず、差分算出処理(図3に示すS102)の結果である最小差分値(最小差分値情報)を取得する。
続いて、情報処理装置10は、背景モデル更新部25において、注目領域における最小差分値と第1の閾値とを比較する。第1の閾値は、注目領域が背景モデルに類似しているか否かの判定基準としての役割を果たす。
ここで、差分値が第1の閾値以下であれば(S302でYES)、情報処理装置10は、注目領域が背景モデルとして保持されている該当の状態と類似していると判定する。そのため、情報処理装置10は、背景モデル更新部25において、図5(b)に示す最小差分値情報内の状態番号を参照し、該当する状態の画像特徴量を更新する。
この処理の詳細については後述するが、情報処理装置10は、第1の背景モデル更新部31において、注目領域における該当の状態のDCT係数のAC成分を更新する(S303)。また、情報処理装置10は、第2の背景モデル更新部32において、注目領域における該当の状態のDCT係数のDC成分を更新する(S304)。その後、情報処理装置10は、当該更新した状態に関連付けて予め登録されている作成時刻を取得し(S305)、当該作成時刻と、注目領域の位置とを関連付けた前景背景判定用情報をRAM13に記憶する(S308)。前景背景判定用情報は、図8(a)に示すように、位置情報と作成時刻とが関連付けられた情報であり、図3のS104に示す前景背景判定処理で使用される。
一方、S302の判定において、差分値が第1の閾値を越えていると判定された場合(S302でNO)、情報処理装置10は、注目領域が背景モデルとして保持されている該当の状態と類似していないため、新たな状態であると判定する。そのため、情報処理装置10は、背景モデル更新部25において、注目領域における画像特徴量を新たな状態の画像特徴量として背景モデルへ登録する(S306)。また、現在時刻を作成時刻として当該登録した画像特徴量に関連付けて登録する(S307)。その後、情報処理装置10は、作成時刻と、注目領域の位置とを関連付けた前景背景判定用情報をRAM13に記憶する(S308)。
前景背景判定用情報のRAM13への格納が済むと、情報処理装置10は、フレーム画像内の全ての部分領域に対して上述した処理を実施したか否かを判定する。実施済みであれば(S309でYES)、この処理を終了し、実施済みでなければ(S309でNO)、次の部分領域に対して上述した処理を再度実施する(S310)。より具体的には、フレーム画像内の左上の部分領域を開始点とし、以降、左から右へ、行毎に下へ移動しながら、フレーム画像内の全ての部分領域に対して上述した処理を実施する。
なお、上述した通り、情報処理装置10において初めて処理を行なう時には、全ての部分領域に対応して所定値(例えば、最大値)が設定されたダミーの背景モデルを用いて上述した処理を行なえば良い。この場合、図6のS302の判定において、新規の状態と判定され、全ての画像特徴量が背景モデルに追加されることになる。
次に、図6のS303及びS304に示す背景モデルの更新処理の具体例について説明する。
上述した通り、本実施形態においては、一連の画像内において背景に類似した部分を持つ物体が通過した場合や、一連の画像内において照明変化が生じている場合であっても、対象物体の検出を可能とする背景モデルを実現することを目的としている。
ここで、一連の画像内において照明変化が生じる場合、輝度のみ又は色味のみが変化する。そのため、DCT係数でいえば、DC成分は変化するが、AC成分は変化しない。一方、一連の画像内において背景に類似した部分を持つ物体が通過している場合、当該物体は背景に類似しているため、DCT係数でいえば、DC成分はあまり変化しないが、物体には輪郭があるため、AC成分は変化する。
これを踏まえると、DC成分の変化は、照明変化に起因する可能性が高く、背景モデルの更新に積極的に利用すべきである。一方、AC成分の変化は、背景に類似した物体が通過している可能性が高いため、背景モデルの更新には積極的に利用すべきではない。そのため、AC成分よりもDC成分の背景更新の度合いを大きくすれば、上述した2つの状況に対応した背景モデルの更新を実現できる。
ここで、画像特徴量の各周波数成分に応じて背景更新の度合いを変更させる方法として3通りの例を挙げて説明する。
第1の背景更新方法では、画像特徴量の成分毎に重みを異ならせて背景モデルの更新を行なう。第1の背景モデル更新部31及び第2の背景モデル更新部32において更新処理時に使用する式を以下に示す。
μAC,t=(1−α)・μAC,t−1+α・IAC,t・・・(1)
μDC,t=(1−β)・μDC,t−1+β・IDC,t・・・(2)
ここでは、現在のフレーム画像を「t」とし、1つ前のフレーム画像を「t−1」としている。「μAC,t−1」は、更新前のAC成分の値であり、「μDC,t−1」は、更新前のDC成分の値であり、「μAC,t」は、更新後のAC成分の値であり、「μDC,t」は、更新後のDC成分の値である。「IAC,t」は、フレーム画像のAC成分の値であり、「IDC,t」は、フレーム画像のDC成分の値である。α及びβは、0から1までの値を持つ重みであり、大きな値であるほど、更新後の値は入力値(入力されたフレーム画像)に近くなる。すなわち、入力値が背景モデルへ反映される割合が高くなる。そのため、α<βとし、AC成分よりもDC成分の入力値の重みが大きくなるようにする。
第1の背景更新方法の場合、第1の背景モデル更新部31では、式(1)に従ってAC成分の更新を行なうとともに、第2の背景モデル更新部31では、式(2)に従ってDC成分の更新を行なう。
次に、第2の背景更新方法について説明する。第2の背景更新方法では、画像特徴量の成分毎に更新量の上限値を異ならせて背景モデルの更新を行なう。第1の背景モデル更新部31及び第2の背景モデル更新部32において更新処理時に使用する式を以下に示す。
μAC,t=min(max(μ’,μAC,t−1−δAC),μAC,t−1+δAC)・・・(3)
μDC,t=min(max(μ’,μDC,t−1−δDC),μDC,t−1+δDC)・・・(4)
μ’=(1−α)・μk,t−1+α・Ik,t ; k={AC,DC}・・・(5)
式(5)は、式(1)及び式(2)と比較して、AC成分、DC成分ともに同じαが係数として使用されている。式(3)の「δAC」は、AC成分の更新1回当たりの更新量の上限値であり、「δDC」は、DC成分の更新1回当たりの更新量の上限値である。この場合、「δAC」<「δDC」とし、AC成分よりもDC成分の背景の更新量の上限値が大きくなるようにする。
第2の背景更新方法の場合、第1の背景モデル更新部31では、式(3)に従ってAC成分の更新を行なうとともに、第2の背景モデル更新部31では、式(4)に従ってDC成分の更新を行なう。
次に、第3の背景更新方法について説明する。第3の背景更新方法では、画像特徴量の成分毎に更新の頻度を異ならせて背景モデルの更新を行なう。第3の背景更新方法では、第1の背景モデル更新部31及び第2の背景モデル更新部32において更新が必要となった回数(図6のS302でYESとなった回数)を、各部分領域の各状態単位で記憶する。更新必要回数が所定の回数(NAC、NDC)に達した場合、以下の式(6)に従って更新を行なう。
μk,t=(1−α)・μk,t−1+α・Ik,t ; k={AC,DC}・・・(6)
この場合、「NAC」>「NDC」とし、AC成分の背景更新頻度よりもDC成分の背景更新頻度が高くなるようにする。
第3の背景更新方法の場合、第1の背景モデル更新部31における更新必要回数がNACに達したときに、式(6)、k=ACに従ってAC成分の更新を行なう。また、第2の背景モデル更新部31では、更新必要回数が「NDC」に達したときに、式(6)、k=DCに従ってDC成分の更新を行なう。
なお、本実施形態においては、第1の背景更新方法に従って背景モデルを更新する場合について説明する。すなわち、第1の背景モデル更新部31では、式(1)に従ってAC成分の更新を行ない(図6のS303)。次に、第2の背景モデル更新部31では、式(2)に従ってDC成分の更新を行なう(図6のS304)。
次に、図7を用いて、図3のS104に示す前景背景判定処理の詳細について説明する。
この処理が開始すると、情報処理装置10は、対象物体検出部26において、まず、図6のS308の処理でRAM13に記憶した前景背景判定用情報(図8(a))を取得するとともに、注目領域に対応する作成時刻及び位置情報を取得する(S401)。
次に、情報処理装置10は、対象物体検出部26において、現在時刻からS401の処理で取得した作成時刻を減算し、その減算後の値と第2の閾値とを比較する。ここで、減算後の値は、該当の状態が、一連のフレーム画像内に初めて現れてから現在までの時間を表している。そのため、この減算後の値(時間)が十分に大きければ、当該注目領域が背景であると見なす。すなわち、第2の閾値は、背景であるか前景であるかの判定基準としての役割を果たす。
判定の結果、減算後の値が第2の閾値を越えていれば(S402でYES)、対象物体検出部26は、注目領域を背景であると判定し、S401の処理で取得した位置情報に前景フラグ(オフ)を関連付けて前景位置情報としてRAM13に記憶する(S403)。前景位置情報は、図8(b)に示すように、位置情報と前景フラグとが関連付けられた情報である。なお、前景フラグは、注目領域が前景(対象物体)であるか否かを示す情報であり、前景であれば、前景フラグ(オン)が設定され、前景でなければ(すなわち、背景)、前景フラグ(オフ)が設定される。
S402の判定の結果、減算後の値が第2の閾値以下であれば(S402でNO)、対象物体検出部26は、注目領域を前景であると判定する(S405)。そして、S401の処理で取得した位置情報に前景フラグ(オン)を関連付けて前景位置情報としてRAM13に記憶する(S406)。
前景位置情報のRAM13への格納が済むと、情報処理装置10は、フレーム画像内の全ての部分領域に対して上述した処理を実施したか否かを判定する。実施済みでなければ(S407でNO)、次の部分領域に対して上述した処理を再度実施する(S408)。より具体的には、フレーム画像内の左上の部分領域)を開始点とし、以降、左から右へ、行毎に下へ移動しながら、フレーム画像内の全ての部分領域に対して上述した処理を実施する。
ここで、全ての部分領域に対して上述した処理を実施済みであれば(S407でYES)、情報処理装置10は、対象物体検出部26において、前景位置情報に基づいてフレーム画像における各部の領域を統合した後(S409)、この処理を終了する。具体的には、前景位置情報(図8(b))を参照して、隣り合う部分領域同士がともに前景であれば、当該部分領域同士を一つの領域とみなして(領域統合)、当該領域の外接矩形を導出し、前景領域情報を作成する。前景領域情報には、図8(c)に示すように、前景領域の個数と、各前景領域の外接矩形の左上の座標(x1−1、y1−1)と右下の座標(x1−2、y1−2)とから構成される。
なお、領域統合処理は、必須の処理ではなく、前景位置情報(図8(b))をそのまま出力するようにしても構わない。前景位置情報を出力するか、前景領域情報を出力するかは、例えば、動作設定等に応じて決めれば良い。

以上説明したように本実施形態によれば、複数の周波数成分を有する画像特徴量を保持する背景モデルを用いて対象物体の検出を行なうとともに、当該複数の周波数成分毎に異なる更新度合いで背景モデルを更新する。より具体的には、画像特徴量のうち、AC成分よりもDC成分の背景更新の度合いを大きくして背景モデルの更新を行なう。
これにより、一連の画像内において背景に類似した画像特徴量を有する物体が通過している場合や、一連の画像内において照明変化が生じている場合であっても、従来の構成よりも、対象物体を正確に検出できる。
以上が本発明の代表的な実施形態の例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
(変形実施形態1)
例えば、上述した説明では、部分領域(8×8画素のブロック)毎に画像特徴量を取得する場合について説明したが、これに限られず、部分領域は、これ未満の大きさであっても良いし、これより大きくても良い。例えば、部分領域を1×1のブロックで構成する、すなわち、画素単位に画像特徴量が取得されても良い。この場合、例えば、各画素の輝度値及びエッジを画像特徴量として使用する手法が知られている。エッジ特徴を抽出する方法としては、画素毎に周囲の画素を含めた範囲に対して、微分フィルタを用いて演算を行なう方法が知られている。微分フィルタの例としては、Prewittフィルタ、Sobelフィルタ、などがある。このように本実施形態によれば、照明変化によって大きくなる特徴量と、物体の通過によって変化が大きくなる特徴量とに分けることができるのであれば、部分領域の大きさは特に問わない。
(変形実施形態2)
また、上述した説明では、背景モデル(図5参照)には、1つの部分領域に対して複数の状態が保持されていたが、これに限られず、背景モデルは、1つの状態のみを持つように構成されていても良い。
(変形実施形態3)
また、上述した説明では、前景背景判定処理(図7参照)において、その状態がフレーム画像内に初めて現れてから現在までの時間に基づいて前景であるか背景であるかを判定していたが、これ以外の方法で前景であるか背景であるかの判定を行なっても良い。例えば、比較部23により算出された差分値が所定の閾値を越えていれば、全て前景と判定するようにしても良い。
(変形実施形態4)
また、上述した説明では、背景モデル(図5参照)には、全ての部分領域についての状態が保持されており、前景と判定された状態も保持されているが、これに限られない。例えば、比較部23により算出された差分値が所定の閾値を越えていれば前景と判定し、そうでなければ背景と判定する。そして、背景と判定された部分領域の画像特徴量のみを背景モデルとして保持するようにしても良い。すなわち、対象物体検出部26の判定結果に基づいて、背景のみについて背景モデルの更新処理を行なうように構成しても良い。
(変形実施形態5)
また、上述した説明では、画像特徴量の成分毎に背景更新の度合いを変更させる方法として3通りの例を挙げて説明したが、これに限られない。複数の背景モデル更新部によって、物体の通過によって影響を受ける画像特徴量(本実施形態ではAC成分)と、照明変化で影響を受ける画像特徴量(本実施形態ではDC成分)とに対する更新の度合いを異ならせることができれば良く、その手法は特に問わない。
(変形実施形態6)
また、上述した説明では、画像特徴量としてDCT係数の輝度Y成分の3番目の係数までを用いる場合について説明したが、これに限られない。画像特徴量として、例えば、色の成分(色差)Cr、Cbが追加で使用されても良いし、全てのDCT係数が使用されても良い。
(変形実施形態7)
また、上述した説明では、第1の背景モデル更新部31と第2の背景モデル更新部32との2つの背景モデル更新部を設ける場合について説明したが、これに限られず、3以上の背景モデル更新部が設けられても良い。例えば、照明変化による色の変化をも考慮する場合は、DCT係数のCr成分及びCb成分も画像特徴量として扱う必要がある。この場合、輝度及び色によるCr成分及びCb成分の変化は、必ずしも同じではなく、それぞれで更新の度合いを異ならせる必要がある。
(変形実施形態8)
また、上述した説明では、第1の背景モデル更新部31によりAC成分を更新し、第2の背景モデル更新部32によりDC成分を更新する場合について説明したが、これに限られない。例えば、第1の背景モデル更新部31においては、一連の画像内において背景に類似した物体が通過することに起因して当該一連の画像内で変化する周波数成分に対して更新処理を行なえれば良い。例えば、全てのAC成分のうち、高周波のAC成分のみを更新するように構成しても良い。
また、第2の背景モデル更新部32においては、一連の画像内において照明変化が生じていることに起因して当該一連の画像内で変化する周波数成分に対して更新処理を行なえれば良く、例えば、DC成分に加えて低周波のAC成分をも更新するようしても良い。
すなわち、第1の背景モデル更新部31により所定の周波数よりも高い周波数成分を更新し、第2の背景モデル更新部32により所定の周波数以下となる周波数成分を更新するように構成しても良い。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 画像を取得する画像取得手段と、
    前記画像取得手段により取得された画像の部分領域毎に、所定の変換を施して複数の周波数成分を含む画像特徴量を取得する特徴量取得手段と、
    画像特徴量を前記部分領域毎に保持する背景モデルにおける画像特徴量と前記特徴量取得手段により取得された画像特徴量とを前記部分領域毎に比較する比較手段と、
    前記比較手段による比較結果に基づいて、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルに保持された画像特徴量に含まれる複数の周波数成分を各周波数成分に応じた度合いで更新する更新手段と、
    前記背景モデルを用いて前記部分領域毎に検出対象となる対象物体が存在する領域を検出する検出手段と
    を具備することを特徴とする情報処理装置。
  2. 前記複数の周波数成分は、交流成分と直流成分とを含み、
    前記更新手段は、前記複数の周波数成分のうち交流成分よりも直流成分に対する更新の度合いの方が大きい
    ことを特徴とする請求項記載の情報処理装置。
  3. 前記更新手段は、前記複数の周波数成分のうち、所定の周波数より高い周波数成分に対するより、所定の周波数以下となる周波数成分に対する更新の度合いの方が大きい
    ことを特徴とする請求項記載の情報処理装置。
  4. 前記更新手段は、前記特徴量取得手段により取得された画像特徴量の複数の周波数成分に対してそれぞれ異なる重み付けを行なって前記背景モデルを更新する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記更新手段は、前記特徴量取得手段により取得された画像特徴量の複数の周波数成分のそれぞれを更新する更新量の上限値を異ならせて前記背景モデルを更新する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記更新手段は、前記特徴量取得手段により取得された画像特徴量の複数の周波数成分のそれぞれに対して行なう更新の頻度を異ならせて前記背景モデルを更新する
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記背景モデルは、複数の状態の画像特徴量を前記部分領域毎に保持しており、
    前記比較手段は、前記背景モデルにおける各状態の画像特徴量と前記特徴量取得手段により取得された画像特徴量とを前記部分領域毎に比較し、当該比較結果に基づいて、前記部分領域毎に前記背景モデルにおける1つの状態の画像特徴量を選択し、
    前記更新手段は、前記特徴量取得手段により取得された画像特徴量を用いて、前記部分領域毎に前記背景モデルにおいて選択された1つの状態の画像特徴量の複数の周波数成分を各周波数成分に応じた度合いで更新し、
    前記検出手段は、前記において選択された1つの状態の画像特徴量を用いて前記部分領域毎に検出対象となる対象物体が存在する領域を検出する
    ことを特徴とする請求項1記載の情報処理装置。
  8. 前記比較手段は、前記部分領域毎に、前記比較結果において差分値が最小となる状態の画像特徴量を選択し、
    前記更新手段は、前記差分値が所定の閾値を越えていれば、前記特徴量取得手段により取得された画像特徴量を新規の画像特徴量として前記背景モデルにおける該当の部分領域に登録し、前記差分値が所定の閾値以下であれば、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルにおける該当の部分領域の画像特徴量を更新し、
    前記検出手段は、前記差分値が所定の閾値を越えている部分領域を前記対象物体が存在する領域として検出する
    ことを特徴とする請求項記載の情報処理装置。
  9. 前記比較手段は、前記部分領域毎に、前記比較結果において差分値が最小となる状態の画像特徴量を選択し、
    前記更新手段は、前記差分値が所定の閾値を越えていれば、前記特徴量取得手段により取得された画像特徴量を新規の状態の画像特徴量として時刻情報に関連付けて前記背景モデルにおける該当の部分領域に登録し、前記差分値が所定の閾値以下であれば、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルにおける該当の部分領域の選択された状態の画像特徴量を更新し、
    前記検出手段は、現在時刻と、前記更新手段により登録又は更新された画像特徴量に関連付けられた時刻情報との差が所定の閾値以下であれば、該当の部分領域を前記対象物体が存在する領域として検出する
    ことを特徴とする請求項記載の情報処理装置。
  10. 情報処理装置における処理方法であって、
    画像取得手段が、画像を取得する工程と、
    特徴量取得手段が、前記画像取得手段により取得された画像の部分領域毎に、所定の変換を施して複数の周波数成分を含む画像特徴量を取得する工程と、
    比較手段が、画像特徴量を前記部分領域毎に保持する背景モデルにおける画像特徴量と前記特徴量取得手段により取得された画像特徴量とを前記部分領域毎に比較する工程と、
    更新手段が、前記比較手段による比較結果に基づいて、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルに保持された画像特徴量に含まれる複数の周波数成分を各周波数成分に応じた度合いで更新する工程と、
    検出手段が、前記背景モデルを用いて前記部分領域毎に検出対象となる対象物体が存在する領域を検出する工程と
    を含むことを特徴とする情報処理装置の処理方法。
  11. コンピュータを、
    画像を取得する画像取得手段、
    前記画像取得手段により取得された画像の部分領域毎に、所定の変換を施して複数の周波数成分を含む画像特徴量を取得する特徴量取得手段、
    画像特徴量を前記部分領域毎に保持する背景モデルにおける画像特徴量と前記特徴量取得手段により取得された画像特徴量とを前記部分領域毎に比較する比較手段、
    前記比較手段による比較結果に基づいて、前記特徴量取得手段により取得された画像特徴量を用いて前記背景モデルに保持された画像特徴量に含まれる複数の周波数成分を各周波数成分に応じた度合いで更新する更新手段、
    前記背景モデルを用いて前記部分領域毎に検出対象となる対象物体が存在する領域を検出する検出手段
    として機能させるためのプログラム。
JP2010242651A 2010-10-28 2010-10-28 情報処理装置、その処理方法及びプログラム Active JP5719141B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010242651A JP5719141B2 (ja) 2010-10-28 2010-10-28 情報処理装置、その処理方法及びプログラム
US13/270,708 US8942478B2 (en) 2010-10-28 2011-10-11 Information processing apparatus, processing method therefor, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010242651A JP5719141B2 (ja) 2010-10-28 2010-10-28 情報処理装置、その処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2012094068A JP2012094068A (ja) 2012-05-17
JP2012094068A5 JP2012094068A5 (ja) 2013-12-12
JP5719141B2 true JP5719141B2 (ja) 2015-05-13

Family

ID=45996845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010242651A Active JP5719141B2 (ja) 2010-10-28 2010-10-28 情報処理装置、その処理方法及びプログラム

Country Status (2)

Country Link
US (1) US8942478B2 (ja)
JP (1) JP5719141B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950628B2 (ja) * 2012-03-07 2016-07-13 株式会社日立国際電気 物体検知装置、物体検知方法及びプログラム
CN104183127B (zh) * 2013-05-21 2017-02-22 北大方正集团有限公司 交通监控视频检测方法和装置
JP6372282B2 (ja) * 2014-09-26 2018-08-15 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP6602009B2 (ja) 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US9946951B2 (en) * 2015-08-12 2018-04-17 International Business Machines Corporation Self-optimized object detection using online detector selection
JP7106282B2 (ja) * 2018-01-30 2022-07-26 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN113409350B (zh) * 2021-06-29 2022-05-31 广东工业大学 一种视频前景和背景分离方法及其相关装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136525B1 (en) * 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
JP2002099909A (ja) 2000-09-25 2002-04-05 Hitachi Kokusai Electric Inc 侵入物体検出画像処理方法及び装置
US6625310B2 (en) * 2001-03-23 2003-09-23 Diamondback Vision, Inc. Video segmentation using statistical pixel modeling
US7418134B2 (en) * 2003-05-12 2008-08-26 Princeton University Method and apparatus for foreground segmentation of video sequences
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
US7403661B2 (en) * 2004-02-12 2008-07-22 Xerox Corporation Systems and methods for generating high compression image data files having multiple foreground planes
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
US8159536B2 (en) * 2004-06-14 2012-04-17 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
US20060153448A1 (en) * 2005-01-13 2006-07-13 International Business Machines Corporation System and method for adaptively separating foreground from arbitrary background in presentations
AU2006252252B2 (en) * 2006-12-22 2009-10-01 Canon Kabushiki Kaisha Image processing method and apparatus
TW200834459A (en) * 2007-02-05 2008-08-16 Huper Lab Co Ltd Video object segmentation method applied for rainy situations
JP5115556B2 (ja) * 2007-07-05 2013-01-09 日本電気株式会社 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム
JP2009048240A (ja) * 2007-08-13 2009-03-05 Tokyo Institute Of Technology 動画像における移動物体の検出方法、検出装置、監視方法および監視システム
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
US8041116B2 (en) * 2007-09-27 2011-10-18 Behavioral Recognition Systems, Inc. Identifying stale background pixels in a video analysis system
JP5213627B2 (ja) * 2008-10-07 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
RU2484531C2 (ru) * 2009-01-22 2013-06-10 Государственное научное учреждение центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики (ЦНИИ РТК) Устройство обработки видеоинформации системы охранной сигнализации

Also Published As

Publication number Publication date
US8942478B2 (en) 2015-01-27
JP2012094068A (ja) 2012-05-17
US20120106849A1 (en) 2012-05-03

Similar Documents

Publication Publication Date Title
JP5719141B2 (ja) 情報処理装置、その処理方法及びプログラム
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
CN106412720B (zh) 视频水印去除的方法和装置
JP4692632B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
JP6547386B2 (ja) 画像処理装置及び方法
JP6024658B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP2008527525A (ja) グラフィカルなオブジェクトを検出するための方法及び電子装置
JP2008225838A (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
WO2014044158A1 (zh) 一种图像中的目标物体识别方法及装置
CN110083740B (zh) 视频指纹提取及视频检索方法、装置、终端及存储介质
US8818096B2 (en) Apparatus and method for detecting subject from image
JP5849206B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6577397B2 (ja) 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム
CN111028176A (zh) 指纹图像处理方法、装置、电子设备及计算机可读介质
CN111177813B (zh) 图元识别的方法、装置和电子系统
JP5006479B1 (ja) 動き画像領域判定装置またはその方法
KR20180117619A (ko) 컴퓨팅 장치를 이용한 객체 관리 및 시각화
WO2019181072A1 (ja) 画像処理方法、コンピュータプログラムおよび記録媒体
JP2008046608A (ja) ビデオウィンドウ検出器
JP5899475B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6082312B2 (ja) テンプレート画像候補領域決定装置、テンプレート画像候補領域決定方法、及びプログラム
JP6354497B2 (ja) 表示領域特定装置、表示領域特定方法、及びプログラム
KR20150060032A (ko) 움직임 검출 시스템 및 방법
JP2010224592A (ja) オブジェクト抽出装置及び方法
JP2013225731A (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150320