JP2005004799A - 物体抽出装置 - Google Patents

物体抽出装置 Download PDF

Info

Publication number
JP2005004799A
JP2005004799A JP2004273818A JP2004273818A JP2005004799A JP 2005004799 A JP2005004799 A JP 2005004799A JP 2004273818 A JP2004273818 A JP 2004273818A JP 2004273818 A JP2004273818 A JP 2004273818A JP 2005004799 A JP2005004799 A JP 2005004799A
Authority
JP
Japan
Prior art keywords
frame
image
block
background
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004273818A
Other languages
English (en)
Other versions
JP3930504B2 (ja
Inventor
Yoko Sanbonsugi
陽子 三本杉
Toshiaki Watanabe
敏明 渡邊
Takashi Ida
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004273818A priority Critical patent/JP3930504B2/ja
Publication of JP2005004799A publication Critical patent/JP2005004799A/ja
Application granted granted Critical
Publication of JP3930504B2 publication Critical patent/JP3930504B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】目的の物体以外の周囲の余分な動きに影響されずに、動画像から目的の物体を精度良く抽出/追跡する。
【解決手段】時間的に連続な3つのフレームf(i−1),f(i),f(i+1)それぞれには、物体を囲む長方形R(i−1),R(i),R(i+1)が設定される。現フレームf(i)と第1参照フレームf(i−1)との間のフレーム間差分、および現フレームf(i)と第2参照フレームf(i+1)との間のフレーム間差分により、差分画像fd(i−1,i)、fd(i,i+1)が得られる。多角形Rd(i−1,i)=R(i−1) or R(i)と多角形Rd(i,i+1)=R(i) or R(i+1)について、それぞれ背景領域が決定され、残りの領域が物体領域候補として選ばれる。これら物体領域候補の交わりを取ることにより、現フレームf(i)の物体領域O(i)が抽出できる。
【選択図】 図8

Description

本発明は画像の物体抽出装置に関し、特に入力動画像から目的とする物体の位置を検出して動物体の追跡/抽出を行う物体抽出装置に関する。
従来より、動画像中の物体を追跡/抽出するためのアルゴリズムが考えられている。これは、様々な物体と背景が混在する画像からある物体だけを抽出するための技術である。この技術は、動画像の加工や編集に有用であり、例えば、動画像から抽出した人物を別の背景に合成することなどができる。
物体抽出に使用される方法としては、時空間画像領域分割(越後、飯作、「ビデオモザイクのための時空間画像領域分割」、1997年電子情報通信学会情報・システムソサイエティ大会、D−12−81、p.273、1997年9月)を利用した領域分割技術が知られている。
この時空間画像領域分割を用いた領域分割方法では、動画像の1フレーム内のカラーテクスチャによる小領域の分割を行ない、フレーム間の動きの関係を使ってその領域を併合する。フレーム内の画像を分割する際には、初期分割を与える必要があり、それによって分割結果が大きく左右されるという問題がある。そこで、これを逆に利用して、この時空間画像領域分割を用いた領域分割法では、別のフレームで初期分割を変えて、結果的に異なる分割結果を得て、フレーム間の動きで矛盾する分割を併合するという手法をとっている。
しかし、この手法を動画像中の物体の追跡および抽出にそのまま適用すると、動きベクトルが、目的とする動物体以外の余分な動きに影響されてしまい、信頼度が十分でないことが多く、誤った併合を行なう点が問題となる。
また、特開平8−241414号公報には、複数の動物体検出装置を併用した動物体検出・追跡装置が開示されている。この従来の動物体検出・追跡装置は、例えば監視カメラを用いた監視システムなどに用いられるものであり、入力動画像から動物体を検出してその追跡を行う。この動物体検出・追跡装置においては、入力動画像は、画像分割部、フレーム間差分型動物体検出部、背景差分型動物体検出部、動物体追跡部にそれぞれ入力される。画像分割部では、入力動画像が予め定められた大きさのブロックに分割される。分割結果は、フレーム間差分型動物体検出部、および背景差分型動物体検出部にそれぞれ送られる。フレーム間差分型動物体検出部では、分割結果毎に、フレーム間差分を用いて入力動画像中の動物体が検出される。この場合、フレーム間差分を取る際のフレーム間隔は、動物体の移動速度に影響されずにその動物体を検出できるようにするために、背景差分型動物体検出部の検出結果に基づいて設定される。背景差分型動物体検出部では、これまでに入力された動画像を用いて分割結果毎に作成した背景画像と動物体との差分を取ることにより、動物体が検出される。統合処理部では、フレーム間差分型動物体検出部および背景差分型動物体検出部それぞれの検出結果が統合されて、動物体の動き情報が抽出される。各フレームで物体を抽出した後、動物体追跡部では、フレーム間において対応する動物体同士の対応付けが行われる。
この構成においては、フレーム間差分のみならず、背景差分をも用いて動物体の検出を行っているため、フレーム間差分だけを用いる場合に比べ検出精度は高くなる。しかし、入力動画像全体を対象としてその画像の中から動きのある物体をフレーム間差分および背景差分によって検出する仕組みであるため、フレーム間差分および背景差分それぞれの検出結果は、目的とする動物体以外の余分な動きに影響されてしまい、背景に複雑な動きがある画像ではうまく目的とする動物体を抽出・追跡できないという問題がある。
また、別の物体抽出技術としては、複数のフレームを用いてまず背景画像を生成し、その背景画像と入力画像の画素値の差分が大きい領域を物体として抽出する方法も知られている。
この背景画像を用いる物体抽出の既存の技術一例が、例えば、特開平8−55222号公報の「移動物体検出装置および背景抽出装置ならびに放置物体検出装置」に開示されている。
現処理フレームの画像信号は、1フレーム分の画像を蓄えるフレームメモリ、第1の動き検出手段、第2の動き検出手段、スイッチに入力される。フレームメモリからは、1フレーム前の画像信号が読み出され、第1の動き検出手段に入力される。一方、背景画像を保持するために用意されたフレームメモリからは、その時点までに生成されている背景画像信号が読み出され、第2の動き検出手段と、スイッチに入力される。第1の動き検出手段と第2の動き検出手段では、各々入力される2つの画像信号の差分値などを用いて物体領域および物体領域が抽出され、いずれも論理演算回路に送られる。論理演算回路では、入力される2つの画像の論理積がとられ、それが最終的な物体領域として出力される。また、物体領域は、スイッチにも送られる。スイッチでは、物体領域によって、物体領域に属する画素については、背景画素信号が選択され、逆に、物体領域に属さない画素については、現処理フレームの画像信号が選択され、上書き信号としてフレームメモリに送られ、フレームメモリの画素値が上書きされる。
この手法では、特開平8−55222号公報に示されている様に、処理が進行するにつれて、次第に背景画像が正しくなっていき、やがては、物体が正しく抽出されるようになる。しかし、動画像シーケンスの初めの部分においては背景画像に物体が混入しているために、物体の抽出精度が悪い。また、物体の動きが小さい場合には、いつまでたっても、その物体の画像が背景画像の中に残り、抽出精度は高くならない。
上述したように、従来の物体抽出/追跡方法では、入力動画像全体を対象としてその画像の中から動きのある物体を検出する仕組みであるため、目的とする動物体以外の余分な動きに影響を受けてしまい、目的の動物体を精度良く抽出・追跡することができないという問題があった。
また、背景画像を用いる物体抽出法では、動画像シーケンスの初めの部分において抽出精度が悪く、また、物体の動きが小さい場合には、いつまでも背景画像が完成しないために抽出精度が良くならないという問題点があった。
本発明は、目的の物体以外の周囲の余分な動きに影響を受けずにその物体の抽出/追跡を精度良く行うことが可能な動画像の物体抽出装置を提供することを目的とする。
また、本発明は、背景画像を精度良く決定できるようにして、物体の動きの大小によらずに、且つ動画像シーケンスの初めの部分も最後の部分と同様に高い抽出精度が得られる物体抽出装置を提供することを目的とする。
本発明は、物体抽出対象となる現フレームと、この現フレームに対し時間的に異なる第1の参照フレームとの差分に基づいて、前記現フレームと前記第1の参照フレームに共通の第1の背景領域を決定し、前記現フレームと、この現フレームに対し時間的に異なる第2の参照フレームとの差分に基づいて、前記現フレームと前記第2の参照フレームに共通の第2の背景領域を決定する背景領域決定手段と、前記現フレームの図形内画像の中で、前記第1の背景領域と前記第2の背景領域のどちらにも属さない領域を、物体領域として抽出する手段と、静止している物体領域を検出する物体静止検出手段とを具備する物体抽出装置を提供する。
この物体抽出装置においては、物体抽出対象の現フレーム毎に二つの参照フレームが用意され、その現フレームと第1の参照フレームとの間の第1の差分画像により、現フレームと第1の参照フレームとで共通に用いられている第1の共通背景領域が決定され、また現フレームと第2の参照フレームとの間の第2の差分画像により、現フレームと第2の参照フレームとで共通に用いられている第2の共通背景領域が決定される。第1および第2のどちらの差分画像にも現フレーム上の物体領域が共通に含まれているため、第1の共通背景領域と第2の共通背景領域のどちらにも属さない領域の中で、現フレームの図形内画像に含まれる領域を検出することにより、現フレーム上の物体領域が抽出される。この物体領域が静止物体に相当する場合には、前の物体領域と現物体領域とに差分が存在しないとき静止物体領域が検出される。
このようにして、時間的に異なる参照フレームに基づいて決定された複数の共通背景領域にいずれにも属さない領域を抽出対象物体と決定して物体の追跡を行うことにより、目的の物体以外の周囲の余分な動きに影響を受けずに、目的の物体を精度良く抽出・追跡することが可能となる。
また、前記第1および第2の各参照フレームと前記現フレームとの間で背景の動きが相対的に零となるように、前記各参照フレームまたは現フレームの背景の動きを補正する背景補正手段をさらに具備することが好ましい。この背景補正手段を図形設定手段の入力段、あるいは背景領域決定手段の入力段のいずれかに設けることにより、例えばカメラをパンした時などのように背景映像が連続するフレーム間で徐々に変化するような場合であってもそれらフレーム間で背景映像を擬似的に一定にすることができる。よって、現フレームと第1または第2の参照フレームとの差分を取ることによって、それらフレーム間で背景を相殺することが可能となり、背景変化に影響されない共通背景領域検出処理および物体領域抽出処理を行うことができる。背景補正手段は動き補償処理によって実現できる。
また、前記背景領域決定手段は、前記現フレームと前記第1または第2の参照フレームとの差分画像の中で、前記現フレームの図形内画像または前記第1または第2の参照フレームの図形内画像に属する領域の輪郭線近傍における各画素の差分値を検出する手段と、前記輪郭線近傍の各画素の差分値を用いて、前記共通の背景領域と判定すべき差分値を決定する手段とを具備し、この決定された差分値を背景/物体領域判定のためのしきい値として使用して、前記差分画像から前記共通の背景領域を決定するように構成することが好ましい。このように輪郭線近傍における各画素の差分値に着目することにより、差分画像全体を調べることなく、容易にしきい値を決定することが可能となる。
また、前記図形設定手段は、前記参照フレームの図形内画像を複数のブロックに分割する手段と、複数のブロックそれぞれについて、前記入力フレームとの誤差が最小となる前記入力フレーム上の領域を探索する手段と、探索された複数の領域を囲む図形を前記入力フレームに設定する手段とから構成することが好ましい。これにより、初期設定された図形の形状や大きさによらず、対象となる入力フレームに最適な新たな図形を設定することが可能となる。
また、本発明は、既に物体領域を抽出したフレームから、物体抽出対象となる現フレーム上の物体の位置または形状を予測する予測手段と、この予測手段によって予測された現フレーム上の物体の位置または形状に基づいて、前記背景領域決定手段によって使用すべき前記第1および第2の参照フレームを選択する手段とをさらに具備する。
このように、使用すべき参照フレームとして適切なフレームを選択することにより、常に良好な抽出結果を得ることが可能となる。
ここで、Oi ,Oj ,Ocurrをそれぞれ参照フレームfi ,fj 及び抽出対象の現フレームfcurrの物体とすると、正しく物体の形状を抽出するための最適な参照フレームfi ,fj とは、
(Oi∩Oj )⊆ Ocurr
を満たすフレーム、つまり、Oi ,Ojの交わり部分がOcurr内に属するようなフレームfi ,fjである。
また、本発明は、互いに異なる方法によって物体抽出を行う複数の物体抽出手段を設け、これら物体抽出手段を選択的に切替ながら物体抽出を行うことを特徴とする。この場合、現フレームと、この現フレームとは時間的にずれた少なくとも2つの参照フレームそれぞれの差分を用いて物体抽出を行う第1の物体抽出手段と、フレーム間予測を使用して既に物体抽出が行われたフレームから現フレームの物体領域を予測することにより物体抽出を行う第2の物体抽出手段とを組み合わせて使用することが望ましい。これにより、物体が部分的に静止していて参照フレームとの差分が検出できないときでも、フレーム間予測を用いた物体抽出手段によってそれを補うことが可能となる。
また、複数の物体抽出手段を設けた場合には、物体抽出対象となる現フレームから、その少なくとも一部の領域についての画像の特徴量を抽出する手段をさらに具備し、前記抽出された特徴量に基づいて、前記複数の物体抽出手段を切り替えることが好ましい。
例えば、背景の動きがあるかどうか予めわかるならば、その性質を使った方がよい。背景の動きがある場合は、背景動き補償を行なうが、完全に補償できるとは限らない。複雑な動きをするフレームではほとんど補償できないこともある。このようなフレームは、背景動き補償の補償誤差量によって予め選別できるので、参照フレーム候補にしないなどの工夫が可能である。しかし、背景の動きがない場合は、この処理は不必要である。別の物体が動いていると、誤った背景動き補償を行なったり、参照フレーム候補から外れたりして参照フレーム選択条件に最適なフレームであっても選ばれず、抽出精度が落ちることがあるからである。また、一つの画像中にも多様な性質が混在していることがある。物体の動きやテクスチャも部分的に異なり、同じ追跡・抽出方法及び装置やパラメータではうまく抽出できないことがある。従って、ユーザが画像中の特殊な性質を持つ一部を指定したり、画像中の違いを自動的に特徴量として検出し、その特徴量に基づいて、例えばフレーム内のブロック単位などで部分的に追跡・抽出方法を切替えて抽出したり、パラメータを変更した方がよい。
このようにして、画像の特徴量に基づいて、複数の物体抽出手段を切替えれば、様々な画像中の物体の形状を精度良く抽出することが可能になる。
また、現フレームと、この現フレームと時間的にずれた少なくとも2つの参照フレームとの差分を用いた第1の物体抽出手段と、フレーム間予測を使用した第2の物体抽出手段とを組み合わせて使用する場合には、第2の物体抽出手段による予測誤差が所定の範囲内であるときは、第2の物体抽出手段による抽出結果が物体領域として使用され、予測誤差が所定の範囲を越えたときは第1の物体抽出手段による抽出結果が物体領域として使用されるように、予測誤差量に基づいて、フレーム内のブロック単位で第1および第2の物体抽出手段を選択的に切り替えて使用することが望ましい。
また、第2の物体抽出手段は、参照フレームと物体抽出対象となる現フレームとの間のフレーム間隔が所定フレーム以上あくように入力フレーム順とは異なる順序でフレーム間予測を行うことを特徴とする。これにより、入力フレーム順でフレーム間予測を順次行う場合に比べフレーム間の動き量が大きくなるため、予測精度を向上でき、結果的に抽出精度を高めることが可能となる。
すなわち、フレームの間隔によっては動きが小さ過ぎたり、複雑過ぎて、フレーム間予測による形状予測手法では対応できないことがある。従って、例えば形状予測の誤差が閾値以下にならない場合は、予測に用いる抽出済みフレームとの間隔をあけることにより、予測精度が上がり、結果的に抽出精度が向上する。また、背景に動きがある場合は、参照フレーム候補は抽出フレームとの背景動きを求め補償するが、背景の動きがフレームの間隔によっては小さ過ぎたり複雑過ぎたりして、背景動き補償が精度良くできない場合がある。この場合もフレーム間隔をあけることによって動き補償精度を上げることができる。このようにして抽出フレームの順序を適応的に制御すれば、より確実に物体の形状を抽出することが可能になる。
また、本発明は、動画像データと、その動画像データを構成する複数フレーム内の所定フレーム上における物体領域を表すシェイプデータとを入力し、そのシェイプデータを用いて前記動画像データから物体領域を抽出する物体抽出装置において、前記動画像データが記録されている記憶装置から前記動画像データを読み出し、前記シェイプデータを動き補償することにより、前記読み出した動画像データを構成する各フレーム毎にシェイプデータを生成する手段と、前記生成されたシェイプデータによって決定される各フレームの背景領域の画像データを背景メモリ上に逐次上書きすることによって、前記動画像データの背景画像を生成する手段と、前記動画像データが記録されている記憶装置から前記動画像データを再度読み出し、前記読み出した動画像データを構成する各フレーム毎に前記背景メモリ上に蓄積されている背景画像の対応する画素との差分を求め、差分の絶対値が所定のしきい値よりも大きい画素を物体領域として決定する手段とを具備する。
この物体抽出装置においては、記憶装置からの動画像データを読み出す1回目のスキャン処理にて、背景画像が背景メモリ上に生成される。次いで、2回目のスキャン処理が行われ、1回目のスキャンで完成された背景画像を用いた物体領域の抽出が行われる。このようにして、動画像データが記憶装置に蓄積されていることを利用して動画像データを2回スキャンすることにより、動画像シーケンスの最初から十分に高い精度で物体領域を抽出することが可能となる。
また、本発明は、前記各フレームのシェイプデータによって決定される物体領域と、前記背景画像との差分の絶対値に基づいて決定される物体領域のいずれかを物体抽出結果として選択的に出力する手段をさらに具備する。画像によっては、1スキャン目で得たシェイプデータによって決定される物体領域の方が、2スキャン目で、背景画像との差分を利用して得た物体領域よりも抽出精度が高い場合がある。したがって、1スキャン目で得た物体領域と2スキャン目で得た物体領域とを選択的に出力できるようにすることにより、さらに抽出精度の向上を図ることが可能となる。
また、本発明は、動画像データと、この動画像データを構成する複数のフレーム内の所定フレーム上の物体領域を表すシェイプデータとを入力し、前記シェイプデータが与えられたフレームあるいは既にシェイプデータを求めたフレームを参照フレームとして使用することにより、前記各フレームのシェイプデータを逐次求めていく物体抽出装置であって、現処理フレームをブロックに分割する手段と、前記ブロック毎に、画像データの図柄が相似であり、且つ面積が現処理ブロックよりも大きい相似ブロックを前記参照フレームから探索する手段と、前記参照フレームから相似ブロックのシェイプデータを切り出して縮小したものを、前記現処理フレームの各ブロックに貼り付ける手段と、前記貼り付けられたシェイプデータを現処理フレームのシェイプデータとして出力する手段とを具備する。
この物体抽出装置においては、物体抽出対象の現フレームの各ブロック毎に、画像データ(テクスチャ)の図柄が相似であり、且つ面積が現処理ブロックよりも大きい相似ブロックの探索処理と、探索された相似ブロックのシェイプデータを切り出して縮小したものを現処理フレームのブロックに貼り付ける処理とが行われる。このように現処理ブロックよりも大きい相似ブロックのシェイプデータを縮小して張り付けることにより、シェイプデータで与えられる物体領域の輪郭線がずれていてもそれを正しい位置に補正することが可能となる。したがって、例えばユーザがマウスなどで最初のフレーム上の物体領域の輪郭を大まかになぞったものをシェイプデータとして与えるだけで、以降の入力フレーム全てにおいて物体領域を高い精度で抽出することが可能となる。
また、本発明は、画像データと、その画像の物体領域を表すシェイプデータを入力し、そのシェイプデータを用いて前記画像データから物体領域を抽出する物体抽出装置において、前記シェイプデータの輪郭部分にブロックを設定し、各ブロック毎に、前記画像データの図柄が相似であり、且つ前記ブロックよりも大きい相似ブロックを同じ画像の中から探索する手段と、前記各ブロックのシェイプデータを各々の前記相似ブロックのシェイプデータを縮小したもので置き換える手段と、前記置き換えを所定の回数だけ繰り返す手段と、前記置き換えを繰り返されたシェイプデータを補正されたシェイプデータとして出力する手段とを具備する。
このようにフレーム内のブロックマッチングによって、相似ブックを用いた置き換え処理を行うことにより、シェイプデータによって与えられる輪郭線を正しい位置に補正することが可能となる。また、フレーム内のブロックマッチングであるので相似ブックの探索および置き換えを同一ブロックについて繰り返し行うことができ、これにより補正精度をさらに高めることが可能となる。
本発明によれば、目的とする物体を囲む図形を用いてその物体を追跡することにより、目的の物体以外の周囲の余分な動きに影響を受けずに、目的の物体を精度良く抽出・追跡することが可能となる。
また、入力画像によらずに高い抽出精度を得ることが可能となる。さらに、動画シーケンスの初めの部分も最後の部分と同様に高い抽出精度が得られる。また、物体の動きが小さかったり、全く動かない場合でも正しく抽出される。
図1には、本発明の第1実施形態に係る動画像の物体追跡/抽出装置の全体の構成が示されている。この物体追跡/抽出装置は、入力動画像信号から目的とする物体の動きを追跡するためのものであり、初期図形設定部1と、物体追跡・抽出部2とから構成されている。初期図形設定部1は、外部からの初期図形設定指示信号a0に基づいて、追跡/抽出対象となる目的の物体を囲むような図形を入力動画像信号a1に対して初期設定するために使用され、初期図形設定指示信号a0によって例えば長方形、円、楕円などの任意の形状の図形が目的の物体を囲むように入力動画像信号a1の初期フレーム上に設定される。初期図形設定指示信号a0の入力方法としては、例えば入力動画像信号a1を表示する画面上に利用者がペンやマウスなどのポインティングデバイスを用いて図形そのものを直接書き込んだり、あるいはそれらポインティングデバイスを用いて入力する図形の位置や大きさを指定するなどの手法を用いることができる。これにより、目的の物体が現れる初期フレーム画像上において、追跡/抽出対象となる物体を外部から容易に指示することが可能となる。
また、ユーザによる図形入力ではなく、図形の初期設定は、通常のフレーム画像を解析する処理によって例えば人や動物の顔、体の輪郭などを検出し、それを囲むように図形を自動設定することによっても実現できる。
物体追跡・抽出部2は、初期図形設定部1で設定された図形内に含まれる図形内画像を基準として物体の追跡および抽出を行う。この場合、動物体の追跡・抽出処理では、図形で指定された物体に着目してその物体の動きが追跡される。従って、目的とする動物体以外の周囲の余分な動きに影響を受けずに目的とする動物体の抽出/追跡を行える。
図2には、物体追跡・抽出部2の好ましい構成の一例が示されている。
この物体追跡・抽出部は、図示のように、メモリ(M)11,14、図形設定部11、背景領域決定部12、および物体抽出部13から構成されている。
図形設定部11は、これまでに入力および図形設定した任意のフレームを参照フレームとして使用しながら入力フレームに対して順次図形を設定するために使用される。この図形設定部11は、現フレーム画像101、参照フレームの図形内画像およびその位置103と、参照フレームの物体抽出結果106を入力し、現フレームの任意の図形で囲まれた領域内を表す画像102を出力する。すなわち、図形設定部11による図形設定処理では、参照フレームの図形内画像103と現フレーム画像101との相関に基づいて、参照フレームの図形内画像103との誤差が最小となる現フレーム画像上の領域が探索され、その領域を囲むような図形が現フレーム画像101に対して設定される。設定する図形は、長方形、円、楕円、エッジで囲まれた領域、など、何でも良い。以下では、簡単のために長方形の場合について述べる。また、図形設定部11の具体的な構成については、図5を参照して後述する。なお、物体を囲む図形を用いない場合は、図形内画像は全画像とし、位置を入出力する必要がない。
メモリ10には、これまでに入力および図形設定されたフレームが少なくとも3つ程度保持される。保持される情報は、図形設定されたフレームの画像、設定された図形の位置や形状、図形内の画像などである。また、入力フレームの画像全体ではなく、その図形内画像だけを保持するようにしても良い。
背景領域決定部12は、物体抽出対象の現フレーム毎にその現フレームとは時間的に異なるフレームの中の少なくとも二つの任意のフレームを参照フレームとして使用し、各参照フレーム毎に現フレームとの差分を取ることによってそれら各参照フレームと現フレーム間の共通の背景領域を決定する。この背景領域決定部12は、メモリ10で保持された、現フレームの任意の図形内画像およびその位置102と、少なくとも2つのフレームの任意の図形内画像およびその位置103と、該少なくとも2つのフレームの物体抽出結果106を入力し、現フレームと該少なくとも2つのフレームそれぞれの図形内画像との共通の背景領域104を出力する。すなわち、参照フレームとして第1および第2の2つのフレームを使用する場合には、現フレームと第1の参照フレームとの間のフレーム間差分を取ることなどによって得られた第1の差分画像により、現フレームと第1の参照フレームのどちらにおいても背景領域として用いられている共通の第1の背景領域が決定されると共に、現フレームと第2の参照フレームとの間のフレーム間差分を取ることなどによって得られた第2の差分画像により、現フレームと第2の参照フレームのどちらにおいても背景領域として用いられている共通の第2の背景領域が決定されることになる。この背景領域決定部12の具体的な構成は、図4を参照して後述する。また、背景メモリを使って、共通の背景を得る手法もある。
なお、物体を囲む図形を用いない場合は、図形内画像は全画像とし、位置を入出力する必要がない。
物体抽出部13は、背景領域決定部12にて決定された共通の背景領域を用いて現フレームの図形内画像から物体領域のみを抽出するために使用され、該現フレームと少なくとも2つのフレームそれぞれとの共通の背景領域104を入力し、現フレームの物体抽出結果106を出力する。第1および第2の差分画像のどちらにも現フレーム上の物体領域が共通に含まれているため、第1の共通背景領域と第2の共通背景領域のどちらにも属さない領域の中で、現フレームの図形内画像に含まれる領域を検出することにより、現フレーム上の物体領域が抽出される。これは、共通の背景領域以外の領域が物体領域の候補となることを利用している。つまり、第1の差分画像上においては第1の共通背景領域以外の領域が物体領域候補となり、第2の差分画像上においては第2の共通背景領域以外の領域が物体領域候補となるので、2つの物体領域候補の重複する領域を、現フレームの物体領域と判定することができる。物体抽出結果106としては、物体領域の位置や形状を示す情報を使用することができる。また、その情報を用いて実際に現フレームから物体領域の画像を取り出すようにしても良い。
メモリ14は、少なくとも2つの物体抽出結果を保持し、既に抽出されている結果をフイードバックして抽出精度をあげるために用いられる。
ここで、図8を参照して、本実施形態で用いられる物体抽出・追跡処理の方法について説明する。
ここでは、時間的に連続する3つのフレームf(i−1),f(i),f(i+1)を用いて、現フレームf(i)から物体を抽出する場合を例示して説明する。
まず、前述の図形設定部11によって図形設定処理が行われる。3つのフレームf(i−1),f(i),f(i+1)についてもそれぞれ任意の参照フレームを使用することにより図形設定処理が行われ、そのフレーム上の物体を囲むように長方形R(i−1),R(i),R(i+1)が設定される。なお、長方形の図形R(i−1),R(i),R(i+1)は位置および形状の情報であり、画像として存在するものではない。
次に、背景領域決定部12にて共通背景領域が決定される。
この場合、まず、現フレームf(i)と第1の参照フレームf(i−1)との間のフレーム間差分が取られ、第1の差分画像fd(i−1,i)が求められる。同様にして、現フレームf(i)と第2の参照フレームf(i+1)との間のフレーム間差分も取られ、第2の差分画像fd(i,i+1)が求められる。
第1の差分画像fd(i−1,i)を得ることにより、現フレームf(i)と第1の参照フレームf(i−1)とで共通の画素値を持つ部分については画素値が相殺されるためその画素の差分値は零となる。したがって、フレームf(i−1)とf(i)の背景がほぼ同様であれば、基本的には、第1の差分画像fd(i−1,i)には、長方形R(i−1)の図形内画像と、長方形R(i)の図形内画像とのORに相当する画像が残ることになる。この残存画像を囲む図形は、図示のように、多角形Rd(i−1,i)=R(i−1) OR R(i)となる。現フレームf(i)と第1の参照フレームf(i−1)の共通の背景領域は、多角形Rd(i−1,i)内の実際の物体領域(ここでは、2つの丸を一部重ねた結果得られる8の字の形状をした領域)以外の全領域となる。
また、第2の差分画像fd(i,i+1)についても、長方形R(i)の図形内画像と、長方形R(i+1)の図形内画像とのORに相当する画像が残ることになる。この残存画像を囲む図形は、図示のように、多角形Rd(i,i+1)=R(i) OR R(i+1)となる。現フレームf(i)と第2の参照フレームf(i+1)の共通の背景領域は、多角形Rd(i,i+1)内の実際の物体領域(ここでは、2つの丸を一部重ねた結果得られる8の字の形状をしたもの)以外の全領域となる。
この後、第1の差分画像fd(i−1,i)から現フレームf(i)と第1の参照フレームf(i−1)の共通の背景領域を決定する処理が行われる。
共通背景領域・物体領域の判定のためのしきい値となる差分値が必要になる。これは、ユーザーが与えてもよいし、画像のノイズや性質を検出して自動設定してもよい。その場合、一画面で一つのしきい値でなくとも、画像中の部分的な性質に応じて部分的に決定してもよい。画像の性質は、エッジの強さや差分画素の分散などが考えれれる。また、物体を追跡する図形を用いて求めることもできる。
この場合、共通背景領域/物体領域の判定のためのしきい値となる差分値が求められ、しきい値以下の差分値を持つ画素の領域が共通背景領域として決定される。このしきい値は、第1の差分画像fd(i−1,i)の多角形Rd(i−1,i)の外側の一ライン、つまり多角形Rd(i−1,i)の輪郭線上に沿った各画素の差分値のヒストグラムを用いて決定することができる。ヒストグラムの横軸は画素値(差分値)、縦軸はその差分値を持つ画素数である。たとえば、画素数が多角形Rd(i−1,i)からなる枠線上に存在する全画素数の半分となるような差分値が、前述のしきい値として決定される。このようにしきい値を決定することにより、第1の差分画像fd(i−1,i)全体にわたって画素値の分布を調べることなく、容易にしきい値を決定することが可能となる。
次に、このしきい値を用いて、第1の差分画像fd(i−1,i)の多角形Rd(i−1,i)内における共通背景領域が決定される。共通背景領域以外の領域はオクルージョンを含んだ物体領域となる。これにより、多角形Rd(i−1,i)内の領域は背景領域と物体領域に2分され、背景領域の画素値が“0”、物体領域の画素値が“1”の2値画像に変換される。
第2の差分画像fd(i,i+1)についても、同様にして、現フレームf(i)と第2の参照フレームf(i+1)の共通の背景領域を決定する処理が行われ、多角形Rd(i,i+1)内の領域が画素値“0”の背景領域と、画素値“1”の物体領域に変換される。
この後、物体抽出部13による物体抽出力が行われる。
ここでは、第1および第2の差分画像との間で、多角形Rd(i−1,i)内の2値画像と多角形Rd(i,i+1)内の2値画像とのAND処理を画素毎に行う演算処理が行われ、これによってオクルージヨン入りの物体の交わりが求められ、現フレームf(i)上の物体O(i)が抽出される。
なお、ここでは、フレーム差分画像内の物体領域以外の他の全ての領域を共通背景領域として求める場合について説明したが、各フレームから図形内画像だけを取り出し、フレーム上での各図形内画像の位置を考慮してそれら図形内画像同士の差分演算を行うようにしてもよく、この場合には、図形外の背景領域を意識することなく、多角形Rd(i−1,i)内、および多角形Rd(i,i+1)内の共通背景領域だけが決定されることになる。
このように、本実施形態では、
1)現フレームとこの現フレームに対し時間的に異なる第1および第2の少なくとも2つの参照フレームそれぞれとの差分画像を求めることにより、現フレームと第1参照フレーム間の図形内画像のORと、現フレームと第2参照フレーム間の図形内画像のORとを求め、
2)それら図形内画像のOR処理により得られた差分画像をAND処理し、これによって、現フレームの図形内画像から目的の物体領域を抽出するという、図形内画像に着目したORAND法による物体抽出が行われる。
また、現フレームと2つの参照フレームとの時間関係は前述の例に限らず、例えば、現フレームf(i)に対して時間的に先行する2つのフレームf(i−m),f(i−n)を参照フレームとして使用したり、時間的に連続する2つのフレームf(i+m),f(i+n)を参照フレームとして使用することも可能である。
例えば、図8において、フレームf(i−1),f(i)を参照フレームとして使用し、これら参照フレームそれぞれとフレームf(i+1)との差分を取って、それら差分画像に対して同様の処理を行えば、フレームf(i+1)から物体を抽出することができる。
図3には、物体追跡・抽出部2の第2の構成例が示されている。
図2の構成との主な違いは、背景動き削除部21が設けられている点である。この背景動き削除部21は、各参照フレームと現フレームとの間で背景の動きが相対的に零となるように背景の動きを補正するために使用される。
以下、図3の装置について、具体的に説明する。
背景動き削除部21は、現フレーム201と時間的にずれた少なくとも2つのフレームの任意の図形内画像およびその位置206を入力し、時間的にずれた少なくとも2つのフレームの背景の動きを削除した画像202を出力する。この背景動き削除部21の具体的な構成例については、図6で後述する。
図形設定部22は、図2の図形設定部11に対応し、現フレーム201と、該背景の動きを削除した少なくとも2つの画像202と、画像202の物休抽出結果206を入力し、現フレームおよび該少なくとも2つの画像202の、任意の図形に囲まれた領域内を表す画像203を出力する。
メモリ26は、任意の図形内画像とその位置を保持する。
背景領域決定部23は、図2の背景領域決定部12に対応し、該任意の図形内画像およびその位置203と、画像202の物体抽出結果206を入力し、現フレームと該少なくとも2つの画像202との共通の背景領域204を出力する。物体抽出部24は、図2の物体抽出部13に対応し、該現フレームと少なくとも2つの画像との共通の背景領域204を入力し、現フレームの物体抽出結果205を出力する。メモリ25は、少なくとも2つの物体抽出結果を保持する。これは、図2のメモリ14に相当する。
このように背景動き削除部21を設けることにより、例えばカメラをパンした時などのように背景映像が連続するフレーム間で徐々に変化するような場合であってもそれらフレーム間で背景映像を擬似的に一定にすることができる。よって、現フレームと参照フレームとの差分を取った時に、それらフレーム間で背景を相殺することが可能となり、背景変化に影響されない共通背景領域検出処理および物体領域抽出処理を行うことができる。
なお、背景動き削除部21を背景領域決定部23の入力段に設け、これにより参照フレームの背景の動きを現フレームに合わせて削除するようにしても良い。
図4(a)には、背景領域決定部12(または23)の具体的な構成利一例が示されている。
変化量検出部31は、現フレームと前述の第1および第2の参照フレームとの差分を取るために使用され、現フレームと、時間的にずれたフレームの任意の図形内画像およびその位置302と、時間的にずれたフレームの物体抽出結果301を入力し、現フレームと時間的にずれたフレームの任意の図形内画像間の変化量303を出力する。変化量は、例えば、フレーム間の輝度差分や色の変化、オプティカルフロー、などを用いることができる。時間的にずれたフレームの物体抽出結果を使えば、フレーム間で物体が変化しない場合でも物体は抽出できる。例えば、変化量をフレーム間差分とすると、物体に属するフレーム間差分ゼロの部分は、物体が静止しているということなので、時間的にずれたフレームの物体抽出結果と同じになる。
代表領域決定部32では、現フレームの任意の図形内画像およびその位置302を入力し、任意の図形内画像の背景を代表領域304として出力する。代表領域は、任意の図形内で最も背景が多いと予想される領域を選ぶ。例えば、図8で説明した差分画像上の図形の輪郭線などのように、図形内の最も外側に帯状の領域を設定する。図形は物体を囲むように設定されるので、背景となる可能性が高い。
背景変化量決定部33では、代表領域304と、該変化量303を入力し、背景を判定する変化量305を出力する。背景変化量の決定は、図8で説明したように代表領域の差分値の変化量のヒストグラムをとり、例えば、全体の両素数の半分(過半数)以上の画素数に相当する変化量、つまり差分値をもつ領域を背景領域と決定する。
代表領域の背景決定部34では、背景の変化量305を入力し、代表領域の背景306を判定し、出力する。代表領域の背景領域の決定は、先に決定した背景変化量かどうかで判定する。背景領域決定部35では、変化量303と、背景判定のしきい値305と、代表領域の背景306を入力し、代表領域以外の領域の背景307を出力する。代表領域以外の背景領域の決定は、代表領域から成長法で行う。例えば、決定済みの画素と図形の内部方向に隣接する未決定画素が、背景変化量と一致すれば、背景と決定する。背景と隣接しない画素や、背景変化量と一致しない画素は、背景以外と判定される。また、単純に先に決定した背景変化量かどうかで判定してもよい。このようにして、差分画像上の図形の輪郭線から内周に向かって絞り込みを行うことにより、図形内画像の中でどこまでが背景領域であるかを決定することができる。
また、逆に、図形の輪郭線から外側に向かって図形からはみ出した物体領域を検出する。例えば、背景以外と決定された画素と図形の外側方向に隣接売る未決定画素が、背景変化量と一致しなければ、背景以外と決定する。背景以外の画素と隣接しない画素や背景変化量と一致する画素は背景と判定される。このようにして差分画像上の図形の輪郭線から外側に向かって広げることにより、図形外の画像のどこまでが背景外領域であるかを決定することができる。この場合は、図形外でも変化量を求める必要があるので、任意の図形を数画素太くして充分物体がはみ出さない図形を新たに設定して、その内部で変化量を求めるか、単純にフレーム全体で変化量を求めてもよい。また、図形内部だけ変化量を求めておき、図形外部の判定の時に随時変化量を求めながら上記処理を行ってもよい。当然、物体が図形をはみ出さない場合は、例えば、輪郭線上に背景以外の画素がない場合は、図形外部の処理を行う必要がない。
ところで、現フレームと参照フレームとの間で物体または物体の一部が静止している場合、現フレームと参照フレームとの差分が検出されず、物体の形状が正しく抽出されない場合がある。そこで、既に抽出されている参照フレームを使って現フレームの物体を検出する方法を図4(b)を参照して説明する。
図4(b)は、静止物体領域検出部37を備えた背景領域決定部12(または23)を示している。これによると、変化量検出部31は現フレームの図形内画像及びその位置と、時間的にずれた少なくとも2つのフレームの任意の図形内画像及びその位置311を入力とし、現フレームと参照フレームの図形内画像の変化量313を検出する。
形状予測部36は、現フレームの図形内画像及びその位置と、時間的にずれた少なくとも2つのフレームの任意の図形内画像及びその位置311と、既に抽出されたフレームの画像及び物体形状317とを入力とし、現フレームと時間的にずれたフレームのうち未だ物体が抽出されていないフレームについては物体の形状312を予測し、出力する。
静止物体領域決定部37は予測した物体形状312と、参照フレームと現フレームとの変化量313と、既に抽出されたフレームの物体形状317を入力とし、少なくとも2つのフレームから現フレームに対して静止している物体領域314を決定する。
背景領域決定部35は少なくとも2つのフレームに関する、現フレームに対して静止している物体領域314と、参照フレームと現フレームとの変化量313とを入力とし、少なくとも2つのフレームと現フレームとのそれぞれの共通の背景領域316を決定し、出力する。
まず、参照フレームの物体が抽出されている場合は、現フレームで参照フレームとのフレーム間差分がゼロの領域について、参照フレームでは同じ位置の領域が物体の一部であれば、現フレームでのその領域は静止した物体の一部として抽出できる。逆に、その領域が参照フレームでは、背景の一部であれば、現フレームでのその領域は背景となる。
しかし、参照フレームの物体が未だ抽出されていない場合、静止した物体または物体の一部は上記方法では抽出できない。その場合、既に物体が抽出されている他のフレームを用いて、未だ抽出されていない参照フレームの物体形状を予測して、物体の一部であるかどうかを判定することができる。予測の方法は、画像の符号化でよく用いられるブロックマッチング法やアフェイン変換法などを用いる。
一例として、図13で示すようなブロックマッチング法が考えられる。このようにして物体の形状が予測されれば、フレーム間差分が検出されない領域について静止した物体の一部か、背景かを判定することが可能となる。
物体を囲む図形を用いない場合は、図形内画像は全画像とし、位置を入出力する必要がない。この形状予測は、参照フレームを選択する場合の形状予測と同じものを使うことができる。また、別の物体抽出法と切り換える実施例では、別の物体抽出法で得た物体形状を用いることができる。
図5には、図形設定部11(または22)の具体的な構成の一例が示されている。
分割部41では、現フレームと時間的にずれたフレームの任意の図形内画像とその位置402を入力し、分割された該画像403を出力する。任意の図形内画像の分割は、2等分、4等分、でもよいし、エッジを検出し、エッジにそった分割をおこなってもよい。以下、簡単に、2等分とし、分割された図形は、ブロックと呼ぶことにする。動き検出部42では、該分割された任意の図形内画像とその位置403と、現フレームの任意の図形内画像とその位置401を入力し、該分割された画像の動きと誤差404を出力する。ここでは、ブロックが現フレームに対応する位置を、誤差が最小になるよう探索し、動きと誤差を求める。分割判定部43では、該動きと誤差404と、時間的にずれたフレームの物体抽出結果407を入力し、時間的にずれたフレームの任意の図形内画像を分割するか否かの判定結果406と、分割しない場合、動き405を出力する。ここでは、時間的にずれたフレームの物体抽出結果が分割されたブロック内に含まれていなければ、そのブロックは図形内から削除する。そうでなけれは、求めた誤差から、誤差が閾値以上であれば、更に分割し、動きを求め直す。そうでなければ、ブロックの動きを決定する。図形決定部44は、動き405を入力とし、現フレームの図形内画像とその位置407を出力する。ここでは、図形決定部44は、各ブロックの、現フレームへの位置対応を求め、対応した位置のブロックを全て含むように、新しい図形を決定する。新しい図形は、全ブロックの結びつきも良く、全てのブロックを含むような長方形や円でもよい。
このようにして、参照フレームの図形内画像を複数のブロックに分割し、複数のブロックそれぞれについて現フレームとの誤差が最小となる領域を探索し、そして探索された複数の領域を囲む図形を現フレームに設定することにより、初期設定された図形の形状や大きさによらず、図形設定対象となる入力フレームに対して最適な形状の新たな図形を設定することが可能となる。
なお、図形設定に用いる参照フレームは既に図形が設定されていて且つ現フレームと時間的にずれたフレームであればよく、通常の符号化技術で前方向予測と後方向予測とが使用されていることと同様、現フレームよりも時間的に後のフレームを図形設定のための参照フレームとして用いることも可能である。
図6には、背景動き削除部21の具体的な構成の一例が示されている。
代表背景領域設定部51は、時間的にずれた任意の図形内画像とその位置501を入力とし、代表背景領域503を出力する。代表背景領域とは、任意の図形内のグローバルな動き、つまり図形内における背景の動きを代表して表す領域で、例えば、任意の図形を長方形にした場合、図7に示すような、長方形を囲む数画素幅の帯状の枠領域を設定する。また、図形内の外側の数画素を使っても良い。動き検出部52では、現フレーム502と、該代表背景領域503を入力し、動き504を出力する。先の例を用いると、長方形周囲の帯状の枠領域の現フレームに対する動きを検出する。枠領域をーつの領域として検出しても良い。また、図7のように、複数のブロックに分割して動きを求め、各々の平均動きを出力しても良いし、最も多い動きを出力しても良い。
動き補償部53では、該時間的にずれたフレーム501と、該動き504を入力とし、動き補償画像505を出力する。先に求めた動きを使って、時間的にずれたフレームの動きを現フレームに合わせて削除する。動き補償は、ブロックマッチング動き補償またはアフィン変換を使った動き補償でもよい。
なお、動き削除は、図形内の背景に対してのみならず、フレーム全体に対して行うようにしても良い。
以上のように、本実施形態においては、(1)物体の輪郭ではなく、その物体を大まかに囲む図形を用いて物体を追跡していくこと、(2)現フレームに任意の図形を設定し、現フレームと少なくとも2つのフレームそれぞれの図形内画像との共通の背景領域を決定し、現フレームの物体を抽出すること、(3)該時間的にずれた少なくとも2つのフレームの背景の動きを削除すること、(4)任意の図形内画像間の変化量を検出し、代表領域を決定し、現フレームと少なくとも2つのフレームの図形内画像とその位置の、背景に対応する変化量を決定し、変化量と代表領域との関係から背景かどうかを判定すること、(5)図形内画像を分割し、任意の図形内画像又は分割された図形内画像の一部の動きを検出し、任意の図形内画像又は分割された図形内画像の一部を分割するか否かを判定し、現フレームの任意の図形内画像と位置を決定すること、(6)背景を代表する領域を設定し、背景の動きを検出し、該時間的にずれたフレームの背景の動きを削除した画像を作ることにより、目的の物体以外の周囲の余分な動きに影響を受けずに、且つ比較的簡単な処理で、目的の物体を精度良く抽出・追跡することが可能となる。
また、本実施形態の物体抽出・追跡処理の手順はソフトウェア制御によって実現することもできる。この場合でも、基本的な手順は全く同じであり、図形の初期設定を行った後に、入力フレームに対して順次図形設定処理を行い、この図形設定処理と並行してあるいは図形設定処理完了後に、背景領域決定処理、物体抽出処理を行えばよい。
次に、本発明の第2実施形態を説明する。
前述の第1実施形態では、ORAND法による一つの物体抽出手段のみを備えていたが、入力画像によってはその手段だけでは十分な抽出性能が得られないこともある。また、第1実施形態のORAND法では、物体抽出対象となる現フレームと、この現フレームに対し時間的に異なる第1の参照フレームとの差分に基づいて共通の背景を設定し、また別の現フレームと時間的に異なる第2の参照フレームとの差分に基づいて共通の背景を設定している。しかし、この第1及び第2の参照フレームの選択方法は特に与えられていない。第1及び第2の参照フレームの選択によっては、物体の抽出結果に大きな差が生まれ、良好な結果を得られないことがあり得る。
そこで、本第2実施形態では、入力画像によらずに物体を高精度に抽出できるように第1実施形態を改良している。
まず、図9のブロック図を用いて、第2実施形態に係る物体追跡/抽出装置の第1の構成例について説明をする。
以下では、第1実施形態の物体追跡/抽出部2に対応する構成のみについて説明する。
図形設定部60は、図2で説明した第1実施形態の図形設定部11と同じものであり、フレーム画像601と、初期フレームまたは既に他の入力フレームに対して設定した図形602とを入力とし、フレーム画像601に図形を設定して出力する。スイッチ部SW61は、既に行われた物体抽出の結果605を入力とし、それに基づいて、使用すべき物体抽出部を切り替えるための信号604を出力する。
物体追跡・抽出部62は、図示のように第1乃至第Kの複数の物体追跡・抽出部から構成されている。これら物体追跡・抽出部はそれぞれ異なる手法で物体抽出を行う。物体追跡・抽出部62の中には、第1実施形態で説明したORAND法を用いるものが少なくとも含まれている。また、別の方法による物体追跡・抽出部としては、例えばブロックマッチングによる形状予測法を用いたものや、アフィン変換による物体形状予測などを使用することができる。これら形状予測では、既に物体抽出されたフレームと現フレームとのフレーム間予測により現フレーム上の物体領域の位置または形状が予測され、その予測結果に基づいて現フレームの図形内画像603から物体領域が抽出される。
ブロックマッチングによる形状予測の一例を図13に示す。現フレームの図形内画像は図示のように同じ大きさのブロックに分割される。各ブロック毎に絵柄(テクスチャ)が最も類似したブロックが、既に物体の形状及び位置が抽出されている参照フレームから探索される。この参照フレームについては、物体領域を表すシェイプデータが既に生成されている。シェイプデータは、物体領域に属する画素の画素値を“255”、それ以外の画素値を“0”で表したものである。この探索されたブロックに対応するシェイプデータが、現フレームの対応するブロック位置に張り付けられる。このようなテクスチャの探索およびシェイプデータの張り付け処理を現フレームの図形内画像を構成する全ブロックについて行うことにより、現フレームの図形内画像は、物体領域と背景領域を区別するシェイプデータによって埋められる。よって、このシェイプデータを用いることにより、物体領域に対応する画像(テクスチャ)を抽出することができる。
スイッチ部SW61は、例えば第1の物体追跡抽出部と同様の操作を行ない、抽出精度が良い場合は第1の物体追跡抽部を選ぶよう切り替え、そうでない場合は別の物体追跡抽出部を選ぶよう切り替える。例えば、第1の物体追跡抽出部が、ブロックマッチングによる物体形状予測手段であるとすれば、マッチング誤差の大きさによって物体追跡抽出部の切り替えを制御すればよい。また、アフィン変換による物体形状予測であれば、アフィン変換係数の推定誤差の大きさによって物体追跡抽出部を切り替えることができる。スイッチ部SW61での切替の単位は、フレーム単位ではなく、フレーム内の小領域、例えばブロック毎や、輝度や色に基づいて分割した領域毎である。これにより、使用する物体抽出法をよりきめ細かに選択することが出来、抽出精度を高めることができる。
図10には、第2実施形態に係る動画像物体追跡/抽出装置の第2の例が示されている。
図形設定部70は図2で説明した第1実施形態の図形設定部11と同じものであり、画像701と、初期フレームまたは既に他の入力フレームに対して設定した図形702とを入力し、フレーム画像701に図形を設定して出力する。
第2の物体追跡・抽出部71は、ブロックマッチング法やアフィン変換などの形状予測によって物体領域を抽出するために使用され、図形設定部70から出力される現フレームの図形内画像703と、既に抽出されている別の参照フレーム上の物体の形状及び位置707を入力とし、現フレームの図形内画像703から物体の形状及び位置を予測する。
参照フレーム選択部72は、第2の物体追跡・抽出部71によって予測された現フレームの物体の予測形状及び位置704と、既に抽出されている物体の形状及び位置707とを入力し、少なくとも2つの参照フレームを選択する。ここで、参照フレームの選択方法について説明する。
i ,Oj ,Ocurrは各々フレームi,j及び抽出中のフレームcurrの物体とする。2つの時間的に異なる参照フレームfi ,fj との差分di ,dj を取って、これら差分をAND処理して現フレームfcurrの物体を抽出すると、抽出したい物体Ocurr以外に、物体Oi ,Oj の重なり部分が時間的に異なるフレームのAND処理により抽出される。勿論、Oi ∩ Oj =φ、つまり物体Oi ,Oj の重なり部分が存在せず、物体Oi ,Oj の重なりが空集合となる場合には問題ない。
しかし物体Oi ,Oj の重なり部分が存在し(Oi ∩ Oj ≠φ)、かつ、この重なり部分が抽出したい物体の外部に存在する場合は、Ocurrと、Oi ∩ Oj の二つが抽出結果として残る。
この場合、図14(a)のように、Ocurrの背景領域(Ocurr ̄)と、物体Oi と、Oj との全ての共通領域が存在しない場合{Ocurr ∩ (Oi ∩ Oj )=φ}であれば、問題はない。しかし、図14(b)のように、Ocurrの背景領域(Ocurr ̄)と、物体Oi と、Ojとの全ての共通領域が存在する場合{Ocurr ̄ ∩ (Oi ∩ Oj )≠φ}は、Ocurrが斜線で示すような誤った形状で抽出される。
従って、正しく物体の形状を抽出する最適な参照フレームfi ,fj とは、
(Oi ∩ Oj )∩ Ocurr …(1)
を満たすフレーム、つまり、Oi ,Ojの重なり部分がcurr内に属するようなフレームfi ,fjである(図14(a))。
また、2つ以上の参照フレームを選ぶ場合は、
(Oi ∩ Oj ∩…∩Ok )∩ Ocurr …(2)
となる。
したがって、物体抽出対象となる現フレーム上の物体の位置または形状の予測結果に基づいて、(1)式または(2)式を満足するような参照フレームを選択することにより、確実に物体の形状を抽出することが可能になる。
第1の物体追跡・抽出部73では、参照フレーム選択部72で選択された少なくとも2つの参照フレーム705と、現画像701を入力し、ORAND法により物体を抽出してその形状及び位置706を出力する。
メモリ74には、抽出された物体形状及び位置706が保持されている。
図11には、第2実施形態に係る物体追跡/抽出装置の第3の構成例が示されている。
この物体追跡/抽出装置は、図示のように、図形設定部80、第2の物体追跡・抽出部81、スイッチ部SW82、および第1の物体抽出部83から構成されている。図形設定部80、第2の物体追跡・抽出部81、および第1の物体抽出部83は、それぞれ図10の図形設定部70、第2の物体追跡・抽出部71、および第1の物体抽出部73に対応している。本例では、スイッチ部SW82によって、第2の物体追跡・抽出部81の抽出結果と第1の物体抽出部83の抽出結果が選択的に使用される。
すなわち、図形設定部80では、画像801と初期図形の形状及び位置802を入力し、図形の形状及び位置803を出力する。第2の物体追跡・抽出部81では、図形の形状及び位置803と、既に抽出されている物体の形状及び位置806を入力し、未だ抽出されていない物体の予測形状及び位置804を予測し、出力する。スイッチ部SW82では、第2の物体抽出部で予測された物体の形状及び位置804を入力し、第1の物体追跡・抽出部を行なうかどうかを切り替える信号805を出力する。物体追跡・抽出部83では、既に抽出されている物体の形状及び位置806と、未だ抽出されていない物体の予測形状及び位置804を入力し、物体の形状及び位置805を決定し、出力する。
スイッチ部SW82での切替の単位は、上記で述べた例と同様にブロック毎に切り替えても良いし、輝度や色に基づいて分割した領域毎に切り替えても良い。切替を判断する方法として、例えば物体予測したときの予測誤差を用いることができる。すなわち、フレーム間予測を用いて物体抽出を行う第2の物体追跡・抽出部81における予測誤差が所定のしきい値以下の場合には、第2の物体追跡・抽出部81によって得られた予測形状が抽出結果として使用されるようにスイッチ部SW82による切替が行われ、第2の物体追跡・抽出部81における予測誤差が所定のしきい値を越えた場合には、第1の物体追跡・抽出部83によってORAND法にて物体抽出が行われるようにスイッチ部SW82による切替が行われ、その抽出結果が外部に出力される。
図15は、予測の単位となるブロック毎にマッチング誤差に基づいて、使用する抽出部を切り替えた場合の抽出結果の例を示している。
ここで、網目で示した領域は第2の物体追跡・抽出部81による予測で得られた物体形状であり、斜線で示した領域は第1の物体追跡・抽出部83によって得られた物体形状である。
図12には、本第2実施形態に係る動画像物体追跡/抽出装置の第4の構成例が示されている。
この物体追跡/抽出装置は、図11の構成に加え、図10の参照フレーム選択部を追加したものである。
図形設定部90では、画像901と初期図形の形状及び位置902を入力し、図形の形状及び位置903を出力する。第2の物体追跡・抽出部91では、図形の形状及び位置903と、既に抽出されている物体の形状及び位置908を入力し、未だ抽出されていない物体の予測形状及び位置904を予測し、出力する。スイッチ部SW92は、その予測した物体の形状及び位置904を入力とし、予測物体の精度が良いか否かを判断し、第2の物体抽出部で抽出された物体の出力を切り替える信号905を出力する。参照フレーム選択部93は、未だ抽出されていない物体の予測形状及び位置904と既に抽出されている物体の形状及び位置908を入力とし、少なくとも2つの参照フレームの物体または予測物体の形状及び位置906を選択し、出力する。物体追跡・抽出部94は、現画像901と、少なくとも2つの参照フレームの物体又は予測物体の形状及び位置906を入力とし、物体を抽出して、その形状及び位置907を出力する。メモリ95は、抽出した物体の形状及び位置907と、その予測した物体の形状及び位置904いずれかを保持する。
以下、図16を参照して、本例における物体追跡/抽出方法の手順を説明する。
(ステップS1)
参照フレームの候補としては、現フレームと時間的にずれたフレームが予め設定される。これは現フレーム以外の全てのフレームでも良いし、現フレーム前後の数フレームと限定してもよい。例えば、初期フレームと、現フレームより前3フレーム、現フレームより後1フレームの合計5フレームに限定する。ただし、前フレームが3フレームない場合はその分後のフレームの候補を増やし、後フレームが1フレームない場合はその分前4フレームを候補とする。
(ステップS2)
まず、ユーザが初期フレームに抽出したい物体を書こむ図形を例えば長方形で設定する。以降のフレームの図形は初期設定の図形をブロックに分割し、マッチングを取って対応する位置にブロックを張り付ける。全ての張り付けたブロックを含むように新たに長方形を設定することで物体を追跡する。全ての参照フレーム候補に物体追跡の図形を設定する。物体が抽出される度にそれを使って先のフレームの物体追跡図形を求め直すほうが抽出エラーを防ぐことができる。また、ユーザは初期フレームの物体形状を入力する。
以下、抽出するフレームは現フレームとし、現フレームより前のフレームは物体が既に抽出されており、先のフレームは抽出されていないとする。
(ステップS3)
参照フレーム候補の図形の周辺に適当な領域を設定し、現フレームとの背景の動きを検出して参照フレームの図形内の背景を削除する。背景の動きを検出する方法として、図形の周囲数画素の幅の領域を設定し、この領域を現フレームに対してマッチングを取り、マッチング誤差が最小となる動きベクトルを背景の動きとする。
(ステップS4)
背景動き削除時の動きベクトル検出誤差が大きい参照フレームは候補から外すことにより、背景動き削除が適当でない場合の抽出エラーを防ぐことができる。また、参照フレーム候補が減った場合、新たに参照フレーム候補を選び直してもよい。新たに付け加えた参照フレーム候補の図形設定や背景動き削除が行なわれていない場合は、新たに図形設定および背景動き削除を行なう必要がある。
(ステップS5)
次に、未だ物体が抽出されていない現フレームと、現フレームより先の参照フレームの候補の物体形状を予測する。現フレーム又は先の参照フレームの候補に設定された長方形を例えばブロックに分割して既に物体が抽出されているフレーム(前のフレーム)とマッチングを取り、対応する物体形状を張り付けて物体形状を予測する。物体が抽出される度にそれを使って先のフレームの物体予測をやり直すほうが抽出エラーを防ぐことができる。
(ステップS6)
この時、予測誤差が小さいブロックは、予測した形状を抽出結果としてそのまま出力する。また物体形状の予測をブロック単位で処理を行なうとマッチング誤差によりブロック歪みが生じる場合があるので、それを消去するようなフィルターをかけ、全体の物体形状を滑らかにしてもよい。
物体追跡及び物体形状予測の時に行なう長方形の分割は、固定ブロックサイズで行なっても良いし、マッチング閾値によって階層的ブロックマッチングによって行なっても良い。
予測誤差が大きいブロックについては、以下の処理を行う。
(ステップS7)
参照フレームの候補から仮の参照フレームを設定し、各々の組合せについて、式(1)又は式(2)を満たす参照フレームのセットを選ぶ。全参照フレーム候補のどの組合せも式(1)又は式(2)を満たさなかった場合、Oi ∩j 内の画素数が最小のものを選ぶのがよい。また、背景動き削除時の動きベクトル検出誤差がなるべく小さいフレームを選ぶように、参照フレーム候補の組合せを考慮するほうがよい。具体的には、式(1)又は式(2)による条件が同じ参照フレームセットがあるばあい、背景動き削除時の動きベクトル検出誤差が小さい方を選ぶ、などの方法がある。以下、参照フレームは2フレーム選択されたとする。
(ステップS8)
参照フレームが選択されると、現フレームとのフレーム間差分を求め、設定された図形内のフレーム間差分に注目する。設定された図形の外側1ライン画素の差分の絶対値のヒストグラムを求め、多く現れる差分の絶対値を背景領域の差分値とし、設定された図形外側の1ライン画素の背景画素を決定する。設定された図形外側の1ライン画素の背景画素から内側に向けて、隣接する背景領域の差分値をもつ画素を背景画素と決定し、背景画素でないと判定されるまで順次続ける。この背景画素は、現フレームと一つの参照フレームとの共通の背景領域となる。この時、ノイズの影響で背景領域とそれ以外の部分の境界が不自然であることがあるので、境界を滑らかにするフィルターや、余分やノイズ領域を削除するフィルターをかけてもよい。
(ステップS9)
各々の参照フレームに対して共通の背景領域が求まると、二つの共通背景領域に含まれない領域を検出し、それを物体領域として抽出する。先に予測した物体の形状を用いない部分について、ここでの結果を出力し、物体全体の形状を出力する。
共通の背景から求めた形状を用いる部分と先に予測した物体形状を用いる部分の整合性が取れない場合、最後にフィルターをかけて出力結果を見ために良いものにできる。
以上説明したように、本第2実施形態によれば、入力画像によらずに物体を精度良く抽出できる。又は、物体抽出に適した参照フレームを選択することができる。
次に、本発明の第3実施形態を説明する。
まず、図17のブロック図を用いて、第3実施形態に係る物体追跡/抽出装置の第1の例を説明をする。
ここでは、物体抽出対象となる現フレームから、その少なくとも一部の領域についての画像の特徴量を抽出し、その特徴量に基づいて複数の物体抽出手段を切り替える構成が採用されている。
すなわち、本物体追跡/抽出装置は、図示のように、図形設定部110、特徴量抽出部111、スイッチ部SW112、複数の物体追跡・抽出部113、およびメモリ114から構成されている。図形設定部110、スイッチ部SW112、複数の物体追跡・抽出部113は、それぞれ第2実施形態で説明した図9の図形設定部60、スイッチ部SW61、および複数の物体追跡・抽出部62と同じであり、特徴量抽出部111によって抽出された現フレームの画像の特徴量に基づいて、使用する物体追跡・抽出部の切替が行われる点が異なっている。
図形設定部110は、抽出フレーム1101と、ユーザ設定による初期図形1102と、既に抽出されたフレームの抽出結果1106を入力とし、抽出フレームに図形を設定してその図形を出力する。図形は長方形、円、楕円、など幾何図形でもよいし、ユーザが物体形状を図形設定部110に入力してもよい。その場合、図形は精密な形状でなくても、大まかな形状でもよい。特徴量検出部111は、図形が設定された抽出フレーム1103と、既に抽出されたフレームの抽出結果1106とを入力とし、特徴量1104を出力する。スイッチ部SW112は、特徴量1104と、既に抽出されたフレームの抽出結果1106とを入力とし、図形が設定された抽出フレーム1103の物体追跡・抽出部への入力を制御する。
スイッチ部SW112は、画像全体に対して特徴量を得た場合は、画像の性質を検出し、画像に対して適当な物体追跡・抽出部への入力の制御に用いることができる。図形内部は適当な大きさに分割され、特徴量は各分割図形毎に与えても良い。特徴量は分散や輝度勾配、エッジ強度などであり、この場合は、これらを自動的に算出することができる。また、人間が視覚的に認知した物体の性質がユーザによってスイッチ部W112に与えられてもよい。例えば、目的とする物体が人物であれば、エッジが不鮮明な髪の毛を指定して抽出時のパラメータが特別に選ばれ、前処理にエッジ補正してから抽出されてもよい。
特徴量は、設定された図形内部(物体及びその周辺)に関してだけでなく、図形外部(背景部)に関する特徴量でも良い。
複数(第1〜k)の物体追跡・抽出部113の各々では、図形が設定された抽出フレーム1103と、既に抽出されたフレームの抽出結果1106とを入力とし、物体を追跡・抽出した結果1105を出力する。
複数の物体追跡・抽出部113は、ORAND法を使用して物体を抽出するもの、クロマキーを使用して物体を抽出するもの、ブロックマッチングやアフィン変換によって物体を抽出するものなどを含む。
なお、実施形態1では、設定された図形の周囲の画素値のフレーム間差分のヒストグラムを用いて、背景画素が決定されているが、単純に、フレーム間差分が閾値以下の画素が背景画素と決定されても良い。また、実施形態1では、設定された図形から図形内部に向かって背景画素(差分値が一定値以下)が決定されているが、図形から図形外部へ向けて物体画素(差分値が一定値以上)も決定されても良いし、任意の操作順でもよい。
メモリ114は、物体を追跡・抽出した結果1105を入力とし、それを保持する。
以下、画像の性質を示す特徴量によって、追跡/抽出方法を切替えると、よりよい抽出結果が得られる理由について説明する。
例えば、背景の動きがあるかどうか予め分かるならば、その性質を使った方がよい。背景の動きがある場合は、背景動き補償が行なわれるが、完全に補償できるかわからない。複雑な動きをするフレームではほとんど動き補償できない。このようなフレームは、背景動き補償の補償誤差で予め分かるので、参照フレーム候補にしないなど工夫が可能である。しかし、背景の動きがない場合は、この処理は不必要である。別の物体が動いていると、誤った背景動き補償が行なわれたり、そのフレームは参照フレーム候補から外れたりして参照フレーム選択条件に最適なフレームであっても選ばれず、抽出精度が落ちることがある。
また、一つの画像中にも多様な性質が混在している。物体の動きやテクスチャも部分的に異なり、同じ追跡・抽出方法及び装置やパラメータではうまく物体が抽出できないことがある。従って、ユーザが画像中の特殊な性質を持つ一部を指定したり、画像中の違いを自動的に特徴量として検出して、部分的に追跡・抽出方法を切替えて物体を抽出したり、パラメータを変更した方がよい。
このようにして、複数の物体の追跡・抽出手段を切替えれば、様々な画像中の物体の形状を精度良く抽出することが可能になる。
次に、図18のブロック図を用いて、第3実施形態に係る動画像物体追跡/抽出装置の第2の構成例について説明する。
図形設定部120は、抽出フレーム1201と、ユーザ設定による初期図形1202と、既に抽出されたフレームの抽出結果1207を入力とし、抽出フレームに図形を設定して出力する。第2の物体追跡・抽出部121は、ブロックマッチング法やアフィン変換などの形状予測によって物体領域を抽出するために使用され、図形が設定された抽出フレーム1203と、既に抽出されたフレームの抽出結果1207を入力とし、物体の追跡・抽出結果1204を出力する。
特徴量抽出部122は、物体の追跡・抽出結果1204を入力とし、物体の特徴量1205をスイッチ部SW123に出力する。スイッチ部SW123は、物体の特徴量1205を入力として、第一の物体追跡・抽出部への物体の追跡・抽出結果1204の入力を制御する。例えば、第2の物体追跡・抽出部121でブロックマッチング法により物体形状が追跡・抽出された場合、特徴量をマッチング誤差として、このマッチング誤差が小さい部分は第2の物体追跡・抽出部121による予測形状の抽出結果として出力される。また他の特徴量として、ブロック毎に輝度勾配や分散、テクスチャの複雑さを表すパラメータ(フラクタル次元など)がある。輝度勾配を用いた場合、輝度勾配がほとんどないブロックに対しては、ORAND法による第1の物体追跡・抽出部124の結果が使用されるように第一の物体追跡・抽出部への入力が制御される。またエッジ検出をして、エッジの有無や強度を特徴量とした場合、エッジのない所、弱い所では第1の物体追跡・抽出部124の結果が使用されるように第一の物体追跡・抽出部への入力が制御される。このように、画像の一部分であるブロック単位や領域単位で、切替の制御が変えられる。切替の閾値を大きくしたり小さくしたりすることで、適応的な制御ができる。
第1の物体追跡・抽出部124は、抽出フレーム1201と、物体の追跡・抽出結果1204と、既に抽出されたフレームの抽出結果1207を入力とし、抽出フレームの追跡・抽出結果1206をメモリ125に出力する。
メモリ125は、抽出フレームの追跡・抽出結果1206を入力とし、保持する。
次に、図19のブロック図を用いて、本第3実施形態に係る物体追跡/抽出装置の第3の構成例をする。
この物体追跡/抽出装置は、図18の構成に加え、第2実施形態で説明した参照フレーム選択部を追加したものである。すなわち、この物体追跡/抽出装置は、図示のように、図形設定部130、第2の物体追跡・抽出部131、特徴量抽出部132、スイッチ部SW133、参照フレーム選択部134、第1の物体追跡・抽出部135、およびメモリ136から構成されている。
図形設定部130では、抽出フレーム1301と、ユーザ設定による初期図形1302と、既に抽出されたフレームの抽出結果1308を入力とし、抽出フレームに図形を設定して出力する。第2の物体追跡・抽出部131は、ブロックマッチング法やアフィン変換などの形状予測によって物体領域を抽出するためのものであり、図形を設定された抽出フレーム1303と、既に抽出されたフレームの抽出結果1308を入力とし、物体の追跡・抽出結果1304を出力する。
特徴量抽出部132は、物体の追跡・抽出結果1304を入力とし、物体の特徴量1305を出力する。スイッチ部SW133は、物体の特徴量1305を入力とし、第1の物体追跡・抽出部135への物体の追跡・抽出結果1304の入力を制御する。
参照フレーム選択部134は、第1の物体追跡・抽出部135への物体の追跡・抽出結果1304と、既に抽出されたフレームの抽出結果1308を入力とし、参照フレーム1306を出力する。
物体の特徴の一例として、動きの複雑さがある。第2の物体追跡・抽出部131でブロックマッチング法により物体を追跡・抽出する場合、マッチング誤差が大きい部分に対して、第1の物体抽出結果が出力される。部分的に複雑な動きがあると、その部分はマッチング誤差が大きくなり、第1の物体追跡・抽出部135で抽出されることになる。従って、このマッチング誤差を特徴量として第1の物体追跡・抽出部135で用いる参照フレームの選択方法が切替えられる。具体的には物体形状全体ではなく、第1の物体追跡・抽出部135で抽出する部分だけについて第2実施形態で説明した式(1)または(2)の選択条件を満たすように参照フレームの選択方法を選ぶのがよい。
背景の特徴量の例は、1)背景が静止している画像である、2)ズームがある、3)パーンがあるという情報等である。この特徴量はユーザが入力しても良いし、カメラから得たパラメータが特徴量として入力されても良い。背景の特徴量としては、背景の動きベクトル、背景動き補正画像の精度、背景の輝度分布、テクスチャ、エッジなどがある。例えば背景動き補正画像の精度を背景動き補正画像と補正前画像との差分平均を特徴量として、参照フレーム選択方法が制御できる。制御例としては、差分平均が非常に多い場合、そのフレームは参照フレームの候補にしなかったり、そのフレームの選択順位を下げてフレームを選んだりできる。背景が静止している場合や、背景動き補正がすべてのフレームについて完全であると差分がゼロとなる。参照フレーム選択法は、第2実施形態と同じ方法を用いることができる。
第1の物体追跡・抽出部135は、抽出フレーム1301と、参照フレーム1306と、既に抽出されたフレームの抽出結果1308を入力とし、ORAND法により抽出フレームの追跡・抽出結果1307をメモリ135に出力する。メモリ135は、抽出フレームの追跡・抽出結果1307を入力し、保持する。
次に、図22を用いて、先に挙げた例のうち、第2の物体追跡・抽出部からの出力から特徴量を得て、それによって複数の参照フレーム選択部を切替える例を第4の構成例として説明する。
図形設定部160は、抽出フレーム1601と、ユーザが設定した初期図形1602と、既に物体が抽出されたフレーム1608を入力とし、設定図形1603を出力する。第2の物体追跡・抽出部161は、ブロックマッチング法やアフィン変換などの形状予測によって物体領域を抽出するために使用され、設定図形1603と、既に物体が抽出されたフレーム1608を入力とし、物体追跡・抽出結果1604を出力する。特徴量検出部163は、物体追跡・抽出結果1604を入力とし、特徴量1605をスイッチ部SW164に出力する。スイッチ部SW164は、特徴量1605を入力し、参照フレーム選択部への物体追跡・抽出結果1604の入力を制御する。
複数の参照フレーム選択部165は、物体追跡・抽出結果1604と、既に物体が抽出されたフレーム1608を入力とし、少なくとも2つの参照フレーム1606を出力する。
第1の物体追跡・抽出部166は、ORAND法により物体抽出を行うために使用され、参照フレーム1696と、抽出フレーム1601を入力とし、物体の追跡・抽出結果1607をメモリ167に出力する。メモリ167は、物体の追跡・抽出結果1607を入力とし、保持する。
次に、ブロック図23を用いて、先に述べた例のうち、背景の情報を得て、背景動き補正の誤差によって複数の参照フレーム選択部の入力を制御する例について説明する。
図形設定部170は、抽出フレーム1701と、ユーザが設定した初期図形1702と、既に物体が抽出されたフレーム1710を入力とし、設定図形1703を出力する。第2の物体追跡・抽出部171は、設定図形1703と、既に物体が抽出されたフレーム1710を入力とし、物体の追跡・抽出結果1704を出力する。スイッチ部SW172では、ユーザが指定した背景の情報1705を入力し、背景動き補正部173への抽出フレーム1701の入力を制御する。
背景動き補正部173は、抽出フレーム1701と、既に物体が抽出されたフレーム1710を入力とし、背景動きを補正したフレーム1706を出力する。
背景特徴量検出部174は、抽出フレーム1701と、背景動きを補正したフレーム1706を入力とし、背景の特徴量1707をスイッチ部SW175へ出力する。このスイッチ部SW175は、背景の特徴量1707を受け、参照フレーム選択部176への物体の追跡・抽出結果1704の入力を制御する。参照フレーム選択部176は、物体の追跡・抽出結果1704と、既に物体が抽出されたフレーム1710を入力し、少なくとも2つの参照フレーム1708を出力する。
第1の物体追跡・抽出部177は、少なくとも2つの参照フレーム1708と、抽出フレーム1701を入力とし、物体の追跡・抽出結果1709をメモリ178に出力する。メモリ178は、物体の追跡・抽出結果1709を受け、保持する。
次に、図20のブロック図を用いて、本第3実施形態に係る物体追跡/抽出装置の第5の構成例を説明する。
抽出フレーム出力制御部140は、画像1401と抽出するフレームの順序1405を入力とし、抽出フレーム1402を出力する。フレーム順序制御部141は、ユーザが与えたフレーム順序に関する情報1405を入力とし、フレーム順序1406を出力する。物体追跡・抽出装置142は、動画像信号から目的とする物体の抽出/追跡を行なう物体追跡/抽出方法及び装置であり、抽出フレーム1402を入力とし、追跡・抽出結果1403を追跡・抽出結果出力制御部143に出力する。追跡・抽出結果出力制御部143は、追跡・抽出結果1403と、フレーム順序1406を入力とし、フレーム順序を画像1401の順序に並び変えて出力する。
フレームの順序は、ユーザが与えても良いし、物体の動きに応じて適応的に決定しても良い。物体の動きが検出しやすいフレーム間隔が決定され、物体が抽出される。すなわち、参照フレームと物体抽出対象となる現フレームとの間のフレーム間隔が少なくとも2フレーム以上となるように入力フレーム順とは異なる順序で物体抽出処理が行われるようにフレーム順の制御が行われる。これにより、入力フレーム順にフレーム間予測による形状予測や、ORAND演算を行う場合に比べ、予測精度を向上でき、結果的に抽出精度を高めることが可能となる。ORAND法の場合には適切な参照フレームを選択することによって抽出精度を高めることが可能となるため、ブロックマッチングなどによるフレーム間予測による形状予測法について特に効果がある。
すなわち、フレームの間隔によっては動きが小さ過ぎたり、複雑過ぎて、フレーム間予測による形状予測手法では対応できないことがある。従って、例えば形状予測の誤差が閾値以下にならない場合は、予測に用いる抽出済みフレームとの間隔をあけることにより、予測精度が上がり、結果的に抽出精度が向上する。また、背景に動きがある場合は、参照フレーム候補は抽出フレームとの背景動きを求め補償するが、背景の動きがフレームの間隔によっては小さ過ぎたり複雑過ぎたりして、背景動き補償が精度良くできない場合がある。この場合もフレーム間隔をあけることによって動き補償精度を上げることができる。このようにして抽出フレームの順序を適応的に制御すれば、より確実に物体の形状を抽出することが可能になる。
次に、図21のブロック図を用いて、本第3実施形態に係る物体追跡/抽出装置の第6の例を説明をする。
抽出フレーム出力制御部150は、画像1501と抽出するフレームの順序1505を入力とし、抽出フレーム1502を出力する。フレーム順序制御部151は、ユーザが与えたフレーム順序に関する情報1505を入力とし、フレーム順序1506を出力する。すなわち、フレーム順序制御部151は、フレーム間隔が与えられ、フレームの抽出順序を決定する。複数の物体追跡/抽出装置152は、動画像信号から目的とする物体の抽出/追跡を行なう物体追跡/抽出方法及び装置であり、フレーム順序1506にしたがって抽出フレーム1502の入力が制御され、追跡・抽出結果1503を出力する。追跡・抽出結果出力制御部153は、追跡・抽出結果1503と、フレーム順序1506を入力とし、それを画像1501の順序に並び変えて出力する。
飛ばされた間のフレームは、既に抽出されたフレームから内挿しても良いし、参照フレーム候補の選び方を変えて同じアルゴリズムで抽出しても良い。
ここで、図25を用いて、図21の物体の追跡/抽出装置の処理の例について説明する。
図25で、斜線で示すフレームは2フレーム間隔開けて先に抽出するフレームである。飛ばされたフレームは第2の物体追跡・抽出装置によって抽出される。図25のように両脇のフレームが抽出された後に、両脇のフレームの抽出結果から内挿して物体形状を求めてもよい。また、閾値などのパラメータを変えたり、これら両脇のフレームを参照フレーム候補に加えて、両脇のフレームと同じ方法で抽出してもよい。
次に、図24のブロック図を用いて、物体追跡・抽出装置の他の構成例を説明する。
スイッチ部SW182は、ユーザが指定した背景の情報1805を入力とし、背景動き補正部183への抽出フレーム1801の入力を制御する。背景動き
補正部183は、抽出フレーム1801と、既に物体が抽出されたフレーム1811を入力とし、背景動きを補正したフレーム1806を出力する。背景特徴量検出部184は、抽出フレーム1801と、背景動きを補正したフレーム1806を入力とし、背景の特徴量1807を出力する。スイッチ部SW187は、背景の特徴量1807を入力とし、参照フレーム選択部188への物体の追跡・抽出結果1804の入力を制御する。図形設定部180は、抽出フレーム1801と既に物体が抽出されたフレーム1811並びにユーザが設定した初期図形1802を入力とし、図形を設定した抽出フレーム1803を出力する。第二の物体追跡・抽出部185は、図形を設定した抽出フレーム1803と既に物体が抽出されたフレーム1811を入力とし、物体追跡・抽出結果1804を出力する。特徴量検出部185は、物体追跡・抽出結果1804を入力とし、特徴量1808を出力する。スイッチ部SW186は、特徴量1808を入力とし、参照フレーム選択部への物体追跡・抽出結果1804の入力を制御する。参照フレーム選択部188は、物体追跡・抽出結果1804と、既に物体が抽出されたフレーム1811を入力とし、少なくとも2つの参照フレーム1809を出力する。
第一の物体追跡・抽出部189は、少なくとも2つの参照フレーム1809と、抽出フレーム1801を入力とし、物体の追跡・抽出結果1810をメモリ190に出力する。メモリ190は、物体の追跡・抽出結果1810を保持する。
処理の流れは以下のようになる。
ユーザが初期フレームにおいて抽出したい物体を大まかに囲む。以降のフレームの長方形は既に抽出された物体を囲む長方形を上下左右に数画素広げて設定する。この長方形をブロックに分割し、抽出済みのフレームとマッチングを取って対応する位置に抽出済み物体の形状を張り付ける。この処理によって得られた物体形状(予測物体形状)が大まかな物体を表す。予測の精度がある閾値以下にならない場合、別のフレームから予測を直してより予測精度を上げるように処理しても良い。
予測精度が良い場合、この予測形状全部又は一部をそのまま抽出結果として出力する。この方法は、物体を追跡しつつ、物体も抽出できる。
物体追跡及び物体形状予測の時に行なうブロック化は、長方形を固定ブロックサイズで分割しても良いし、マッチング閾値によって階層的ブロックマッチングによって行なっても良い。フレームを固定のサイズで分割し、物体を含むブロックだけを用いても良い。
予測が悪い場合を考えて、物体予測形状を数画素分拡張して、予測エラーによる凹凸や穴が修正される。この方法で全ての参照フレーム候補に予測物体形状が設定される。物体が抽出される度にその物体を使って先のフレームの物体追跡図形が求め直されそれにより抽出エラーが防がれる。この追跡図形が物体を囲むように設定された追跡図形とする。
以下、抽出フレームより前のフレームについては物体が既に抽出されており、先のフレームについては物体が抽出されていないものとする。
参照フレームの候補は、一定間隔おきに抽出するフレームに対して時間的に一定間隔毎にずれた前後5フレームとする。参照フレームの候補は、例えば、初期フレームと現フレームより前3フレーム、現フレームより後1フレーム、の合計5フレームのように限定する。ただし、前フレームが3フレームない場合はその分後のフレームの候補を増やし、後フレームが1フレームない場合はその分前4フレームを候補とする。
参照フレーム候補の物体の周辺に適当な領域が設定され、この領域と現フレームとの背景の動きが検出され、これにより参照フレームの図形内の背景が削除される。背景の動きを検出する方法として、物体を除いた全領域で現フレームに対してマッチングを取り、マッチング誤差が最小となる動きベクトルが背景の動きと判定される。
背景動き削除時の動きベクトル検出誤差が大きい参照フレームは候補から外すことにより、背景動き削除が適当でない場合の抽出エラーを防ぐことができる。また、参照フレーム候補が減った場合、新たに参照フレーム候補を選び直してもよい。新たに付け加えた参照フレーム候補の図形設定や背景動き削除が行なわれていない場合は、新たに図形設定や背景動き削除を行なう必要がある。
予め背景の動きがないと分かる場合は、この処理は行なわない。
参照フレームの候補から仮の参照フレームを設定し、これらフレームの組合せについて、第2実施形態の式(1)又は式(2)を満たす参照フレームのセットを選ぶ。全参照フレーム候補のどの組合せも式(1)又は式(2)を満たさなかった場合、Oi ∩j 内の画素数が最小のフレームを選ぶのがよい。
また、背景動き削除時の動きベクトル検出誤差がなるべく小さいフレームを選ぶように、参照フレーム候補の組合せを考慮するほうがよい。具体的には、式(1)又は式(2)による条件が同じ参照フレームセットがある場合、背景動き削除時の動きベクトル検出誤差が小さい方のフレームを選ぶなどの方法がある。背景の動きがない場合は、フレーム間差分が十分検出できるフレームを優先的に選ぶようにできる。
また、物体予測の精度がよく、物体の一部をそのまま出力する場合、物体予測結果を抽出結果としない領域のみを対象に、式(1)又は式(2)による条件を満たすフレームを選ぶ。
以下、2参照フレームが選択されたときの処理を説明する。
参照フレームが選択されると、抽出フレームとのフレーム間差分を求め、設定された図形内のフレーム間差分に注目する。
設定された閾値でフレーム間差分を2値化する。2値化に用いる閾値は画像に対して一定でもよいし、背景動き補償の精度に応じてフレーム毎に変えても良い。制御例としては、背景動き補償の精度が悪ければ、背景に余分な差分が多く発生しているので、2値化の閾値を大きくする例などがある。また、物体の部分的な輝度勾配やテクスチャ、エッジ強度に応じて変えても良い。この制御例として、輝度勾配が少ない領域や、エッジ強度が小さい領域のように比較的平坦な領域は2値化の閾値を小さくする。更に、ユーザが物体の性質から閾値を与えても良い。
物体追跡図形の外側の画素について、隣接する背景領域の差分値を持つ画素を背景画素と決定する。また、同時に物体追跡図形の内側の画素についても、隣接する背景領域の差分値をもたない画素を背景画素でない、と決定する。
フレーム間差分は、物体の静止領域では検出できない。従って、予測に用いたフレームとのフレーム間差分がゼロで、かつ予測に用いたフレームでは物体内部の画素である場合は、静止領域画素として背景画素に加えない。
この背景画素は、現フレームと一つの参照フレームとの共通の背景領域となる。この時、ノイズの影響で背景領域とそれ以外の部分の境界が不自然であることがあるので、画像信号に境界を滑らかにするフィルターや、余分なノイズ領域を削除するフィルターをかけてもよい。
各々の参照フレームに対して共通の背景領域が求まると、二つの共通背景領域に含まれない領域が検出され、それが物体領域として抽出される。先に予測した物体の形状を用いない部分に対しては抽出結果が出力され、物体全体の形状が抽出される。共通の背景から求めた形状を用いる部分と先に予測した物体形状を用いる部分の整合性が取れない場合、最後にフィルターをかけて得た出力結果は見ために良いものにできる。
最後に抽出順が入力フレームの順序に置き換えて抽出された物体領域が出力する。
本発明のような物体の形状を抽出する方法及び装置は、現在標準化が固まりつつあるMPEG−4のオブジェクト符号化の入力手段として用いることができる。このMPEG−4と物体抽出の応用例として、物体形状をウインドウ形式とする表示システムがある。このような表示システムは、多地点会議システムに有効である。限られた大きさのディスプレイにテキスト資料と、各地点で会議に参加する人物を四角いウインドウで表示するよりも、図26のように人物は人物の形状で表示することにより、省スペース化できる。MPEG−4の機能を使えば、発言中の人物だけを大きくしたり、発言していない人物を半透明にしたりでき、システムの使用感がよくなる。
以上説明したように、本第3実施形態によれば、画像の性質に応じて方法及び装置で物体を選ぶことによって、不必要な処理を省き、安定な抽出精度が得られる。また、時間順という制約を外すことによって物体の動きによらずに十分な抽出精度が得ることができる。
また、本第3実施形態は、第1実施形態及び第2実施形態の性能を改善するものであり、第1実施形態及び第2実施形態の各構成と第3実施形態で説明した構成とを適宜組み合わせて使用することもできる。
図27には、本発明の第4実施形態に係る物体抽出装置の第1の構成例が示されている。
外部のカメラで撮像されたり、ビデオテープ、ビデオディスクなどの蓄積媒体から読み出されたりした後に、本物体抽出装置に入力されるテクスチャ画像221は、記録装置222、スイッチ部223、動き補償による物体抽出回路224に入力される。記録装置222は、入力されたテクスチャ画像221を保持するものである。例えば、パソコンなどで用いられているハードディスク、光磁気ディスクなどである。記録装置222は後にテクスチャ画像221を再び用いるために必要であり、テクスチャ画像221が外部の蓄積媒体に記録されていた画像である場合は、記録装置222を別に用意する必要はなく、その蓄積媒体が記録装置222として用いられる。この際は、記録装置222にテクスチャ画像221を入力しなおす必要はない。テクスチャ画像は、例えば、各画素の輝度(Y)を0〜255の値で表した画素をラスタ順序(画像の左上の画素から右方向へ、上のラインから下のラインへの順序)で並べて形成され、一般に画像信号と呼ばれている。後に述べるシェイプ画像と区別するために、ここではテクスチャ画像と呼ぶことにする。テクスチャ画像としては、輝度以外にも、色差(U,Vなど)、色(R,G,Bなど)が用いられても良い。
一方、最初のフレームにおいて、操作者が抽出したい物体を別途抽出しておいたシェイプ画像225が、動き補償による物体抽出回路224に入力される。シェイプ画像は、例えば、物体に属する画素の画素値を“255”、それ以外の画素の画素値を“0”で表した画素をテクスチャ画像と同様にラスタ順序で並べて生成される。
ここで、最初のフレームのシェイプ画像25を生成する実施例を図34などを用いて詳しく説明する。
図34では、省略しているが、背景や前景にも図柄があり、そのうちで、家の形をした物体226を抽出したいとする。操作者は、モニタに表示された画像227に対して、物体226の輪郭をマウスやペンでなぞる。その輪郭線の内側の画素に“255”、外側の画素に“0”を代入して得た画像をシェイプ画像とする。操作者が細心の注意をはらって輪郭線を描けば、このシェイプ画像の精度は高いものになるが、ある程度精度が低い場合でも、以下の方法を用いれば、精度を上げることができる。
図35には、操作者によって描かれた線228と、物体226の輪郭線229が示されている。この段階では、輪郭線229の正しい位置はもちろん抽出されていないが、線228との位置関係を表すために輪郭線229が示している。
まず、輪郭線228を含むようにブロックが設定される。具体的には、画面をラスタ順でスキャンし、輪郭線228があった時、つまり、輪郭線228のシェイプ画像において、隣接する画素値に差があった時、その画素を中心にして所定のサイズのブロックを設ける。この際、既に設定したブロックと今回のブロックが重なる場合には、今回のブロック設定は行わずに、スキャンを進めるようにすると、図36のように互いに重なりがなく、なおかつ接するようにブロックが設定できる。しかし、これだけでは、部分230,231,232がブロックに入っていない。そこで、もう一度スキャンを行い、ブロックに含まれない輪郭線があった時、やはり、その画素を中心にしてブロックが設けられる。但し、2度目のスキャンの時には、今回のブロックが既に設定したブロックと重なる部分があっても、中心とする画素が既に設定したブロックに含まれない限り、今回のブロックの設定を行う。図37において斜線で示すブロック233,234,235,236が2スキャン目で設定されたブロックである。ブロックサイズは、固定にしてもよいが、輪郭線228によって囲まれる画素数が多い場合には大きく、その画素数が少ない場合には小さく、輪郭線228の凸凹が少ない場合には大きく、凸凹が多い場合には小さく、あるいは、画像の図柄が平坦な場合には大きく、図柄が細かい場合には小さく、設定してもよい。
画面の端では、普通にブロックを設定すると画面からはみだしてしまうことがある。そういう場合は、そのブロックだけ、画面からはみ出さないようにブロックの端を切って長方形のブロックにする。この場合は相似ブロックも長方形とする。
以上がシェイプ画像におけるブロックの設定方法である。
次に、ブロック毎に、その相似なブロックをテクスチャ画像を用いて探索する。ここで、相似とは、ブロックサイズが異なるブロック同士で、一方のブロックサイズを他方と同じになるように、拡大あるいは縮小した時に、対応する画素の画素値がほぼ等しくなることをいう。例えば、図38のブロック237に対しては、ブロック238が、テクスチャ画像の図柄が相似になる。同様に、ブロック239に対しては、ブロック240が、ブロック241に対してはブロック242が、相似である。本実施形態では、相似ブロックは、輪郭線上に設定したブロックよりも大きくする。また、相似ブロックは、画面全体を探索するのではなく、例えば、図39に示す様に、ブロック243の近くのブロック244,245,246,247を四隅とするある一定の範囲内で探索すれば十分である。図39は各ブロックの中心を起点におき、ブロック243の起点を用いて、ブロック244,245,246,247の起点を所定の画素幅だけ、上下方向と左右方向に動かした場合である。起点をブロックの左上角においた場合を図40に示す。
探索範囲内でも、一部が画面からはみ出す相似ブロックは、探索の対象から外すのであるが、ブロックが画面の端にあると、探索範囲にある全ての相似ブロックが探索の対象から外れてしまうことがある。そういう場合には、画面の端のブロックについては、探索範囲を画面の内側にずらして対応する。
相似ブロックの探索は、多段階探索を行うと、演算量を少なくできる。多段階探索とは、例えば1画素や半画素ずつ起点をずらしながら、探索範囲全体を探索するのではなく、初めに、とびとびの位置の起点で誤差を調べる。次に、その中で誤差が小さかった起点の周囲だけを少し細かく起点を動かして誤差を調べるということを繰り返しながら、相似ブロックの位置をしぼりこんでいく方法である。
相似ブロックの探索において、相似ブロックの縮小処理を毎回行うと、処理時間が多く必要である。そこで、予め画像全体を縮小したものを生成し、別のメモリに保持しておけば、相似ブロックに対応する部分のデータをそのメモリから読み出すだけで済む。
図38では3つのブロック237,239,241についてだけ、相似ブロックを示しているが、実際には、図37で示した全てのブロックに対して相似ブロックを求める。以上が相似ブロックの探索方法である。相似ブロックの探索はシェイプ画像ではなく、テクスチャ画像を用いることが肝要である。画面内で相似ブロックをブロックに写像する一次変換を考えた時に、テクスチャ画像の輪郭線は、この一次変換において不変である。
次に、各ブロックとその相似ブロックの位置関係を用いて、シェイプ画像の輪郭がテクスチャ画像の輪郭に合うように補正する方法を説明する。
図41において、輪郭線228が操作者によって描かれた線である。この線が、正しい輪郭線229に近づけばよい。そのために、シェイプ画像の相似ブロック238の部分を読み出し、それをブロック237と同じサイズに縮小したもので、シェイプ画像のブロック237の部分を置き換える。この操作には、輪郭線を、相似ブロックからブロックへの一次変換の不動点を含む不変集合に近づける性質があるので、輪郭線228は輪郭線229に近づく。相似ブロックの一辺がブロックの一辺の2倍の長さの時、1回の置き換えで、輪郭線228と正しい輪郭線229の隔たりは概して、1/2になる。この置き換えを全てのブロックに対して1回行った結果が図42の輪郭線248である。このブロックの置き換えを繰り返せば輪郭線248は、正しい輪郭線にさらに近づき、やがて、図43に示すように、正しい輪郭線に一致する。実際には、2本の輪郭線のずれが画素間距離よりも小さい状態は意味がないので適当な回数で置き換えを終了する。本手法は、シェイプ画像で設定したN×N画素のブロックにテクスチャ画像での輪郭線が含まれる時に有効なのであるが、その場合、シェイプ画像の輪郭線とテクスチャ画像の輪郭線の距離は最大でおよそN/2である。相似ブロックの一辺の長さが、ブロックの一辺の長さのA倍とした時、1回の置き換えにつき、2本の輪郭線の距離は1/Aになるのであるから、この距離が1画素よりも短くなることを式で表すと、置き換え回数をxとして、
(N/2)×(1/A)^x<1
となる。ここで^はべき乗を表し、上式では(1/A)をx回乗ずるという意味である。上式から、
x>log(2/N)/log(1/A)
となる。例えばN=8,A=2の時は、
x>2
であり、置き換え回数は3回で十分である。
この物体抽出装置のブロック図を図30に示す。まず、操作者によって入力されるシェイプ画像249が、シェイプメモリ250に記録される。シェイプメモリ250においては、図36,37を用いて前述した様にブロックが設定される。一方、テクスチャ画像251は、テクスチャメモリ252に記録される。テクスチャメモリ252からは、シェイプメモリ250から送られる、ブロックの位置情報253を参照して、ブロックのテクスチャ画像254が探索回路255に送られる。同時に、図39や図40を用いて説明した様に相似ブロックの候補もテクスチャメモリ252から、探索回路255に送られる。探索回路255では、相似ブロックの各候補を縮小した後に、ブロックとの誤差を計算し、その誤差が最小となったものを相似ブロックとして決定する。誤差としては輝度値の差分の絶対値和や、それに色差の差分の絶対値和を加えたものなどが考えられる。輝度だけに比べて、色差も用いると、演算量は多くなるが、物体の輪郭において輝度の段差が小さくても、色差の段差が大きい場合に正しく相似ブロックを決定できるので精度が向上する。相似ブロックの位置の情報256は縮小変換回路257に送られる。縮小変換回路257には、シェイプメモリ250から、相似ブロックのシェイプ画像258も送られる。縮小変換回路257では、相似ブロックのシェイプ画像が縮小され、その縮小された相似ブロックは輪郭線が補正されたシェイプ画像259として、シェイプメモリ250に返され、対応するブロックのシェイプ画像が上書きされる。このシェイプメモリ250の置き換えが所定の回数に達した時は、補正されたシェイプ画像259は外部に出力される。シェイプメモリ250の書き換えは、ブロック毎に逐次上書きしても良いし、メモリを2画面分用意して、一方から他方へ、初めに画面全体のシェイプ画像をコピーした後に、輪郭部分のブロックは相似ブロックを縮小したもので置き換えるようにしても良い。
この物体抽出方法を図48のフローチャートを参照して説明する。
(フレーム内の縮小ブロックマッチングによる物体抽出方法)
ステップS31では、シェイプデータの輪郭部分にブロックが設定される。ステップS32では、現処理ブロックと画像データの図柄が相似である相似ブロックが同じ画像データから見つけられる。ステップS33では、現処理ブロックのシェイプデータを相似ブロックのシェイプデータが縮小したデータで置き換えられる。
ステップS34で処理済みブロック数が所定の数に達したらステップ35に進む、そうでない場合は次のブロックに処理対象を進めてステップ32に戻る。
ステップS35では置き換えの繰り返し回数が所定の数に達したらステップ36に進む、そうでない場合は、置き換えられたシェイプデータを処理対象としてステップ31に戻る。ステップS36では、置き換えを繰り返されたシェイプデータが物体領域として出力される。
この方法はブロックのエッジと相似ブロックのエッジが合った場合に効果がある。従って、ブロックに複数のエッジがある場合には、エッジが正しく合わないことがあるので、そういうブロックについては置き換えをせずに入力されたままのエッジを保持する。具体的には、ブロックのシェイプ画像を左右方向と上下方向に各ラインをスキャンし、1つのラインで“0”から“255”へ、あるいは“255”から“0”に変化する点が2つ以上あるラインが所定の数以上あるブロックは置き換えをしない。また、物体と背景の境界であっても部分によっては、輝度などが平坦な場合がある。このような場合もエッジ補正の効果が期待できないのでテクスチャ画像の分散が所定値以下のブロックについても置き換えをせずに、入力されたままのエッジを保持する。
相似ブロックの誤差が所定値よりも小さくならない場合、縮小をあきらめ、同じサイズで相似ブロックを求めても良い。この際、自分とはなるべく重ならないように相似ブロックを選ぶ。縮小を行わないブロックだけでは、エッジが補正される効果はないが、縮小を行うことによってエッジが補正されたブロックから、その補正されたエッジをコピーすることで、縮小を行わないブロックについても、間接的にエッジが補正される。
図48に示したフローチャートは相似ブロックを見つけた直後にシェイプ画像の置き換えを行う例であったが、全ブロックの相似ブロックの位置情報を保持するようにすることで、初めに、相似ブロックの探索を全ブロックについて行い、次に、シェイプ画像の置き換えを全ブロックについて行う方法を図50のフローチャートを参照して説明する。
この例では、1回の相似ブロックの探索に対してシェイプ画像の置き換えが複数回反復できる。
ステップS41では、シェイプデータの輪郭部分にブロックが設定される。ステッブS42では、現処理ブロックと画像データの図柄が相似である相似ブロックが同じ画像データ内から見つけられる。ステップS43では、全てのブロックについて相似ブロックを見つける処理が終わったとき、つまり、処理済みブロック数が所定の数に達したときにはステップS44に進む。そうでない場合はステップS42に戻る。ステップS44では、現処理ブロックのシェイプデータを相似ブロックのシェイプデータを縮小したもので置き換える。
ステップS45では、全てのブロックについて置き換える処理が終わったとき、つまり、処理済みブロック数が所定の数に違したときにはステップS46に進む。そうでない場合はステップS44に戻る。ステップS46では全ブロックの置き換え回数が所定の回数に達した場合はS47に進む。そうでない場合はS44に戻る。ステップS47では、置き換え変換を繰り返されたシェイプデータが物体領域として出力される。
次にエッジ補正の精度を上げることができるブロックの設定方法を説明する。
前述したようにシェイブ画像の輪郭線の周囲にブロックを設定する方法では、図51(a)に示されるように、正しい輪郭線301の一部がブロックに含まれなくなることがある。ここで、シェイプ画像の輪郭線302は太い線で示してある。仮に輪郭線の右下側が物体で左上側が背景だとすると、本当は背景である部分303は物体と誤って設定されているにもかかわらず、ブロックに含まれないために修正される可能性がない。このようにブロックと正しい輪郭線の間に隙間があると、正しく補正されない。
ブロックと正しい輪郭線の隙間を小さくするには、図51(b)に示したようにブロックをある程度重なり合わせる方法がある。こうすると、ブロックの数が増えるので、演算量は増加するが隙間304は小さくなる。従って抽出の精度は向上する。しかし、この例では、まだ隙間は完全にはなくならない。
隙間を小さくするには、図51(c)に示したようにブロックサイズを大きくすることも有効である。この例では、前述したブロックの重ねあわせを併用した。これにより、この例では隙間が完全になくなる。
このように、輪郭線の補正可能な範囲を広げるにはブロックサイズを大きくすることが有効である。しかし、ブロックサイズが大きすぎると、ブロックに含まれる輪郭線の形状が複雑になり、相似ブロツクが見つかりにくくなる。その例が図52に示されている。
図52(a)では、斜線の部分305が物体領域、白色の部分306が背景領域を表す。与えられたシェイプ画像の輪郭線307は黒線で示されている。このように、シェイプ画像の輪郭線307は正しい輪郭線と大きく隔たっており、また、正しい輪郭線には凹凸がある。これに対して、前に説明した方法とは異なる方法でブロックを配置した結果が図52(b)に示されている。ここでは、まず、互いに重ならず、かつ、隙間がないような矩形ブロックで画像が分割される。ブロック毎にテクスチャ画像での分散が計算され、分散が所定値よりも小さいブロックはその設定を解消した。従って図52(b)では、分散が所定値以上のブロックだけが残っている。これらのブロック毎に相似ブロックを求めるのであるが、例えばブロック308の近くにこれを縦横2倍にした図柄は存在しないし、他の多くのブロックについても同様である。従って、誤差最小な部分を相似ブロックとして選択はするものの、その位置関係を用いてシェィブ画像の置き換え変換を反復しても図52(c)に示す通り正しい輪郭線には合致しない。ただ、図52(a)のシェイプ画像の輪郭線307と比較して、エッジ補正後の図52(c)のシェイプ画像の輪郭線309は、テクスチャ画像の輪郭線の大まかな凹凸(左と右に山があってその間に谷があるという程度のもの)は反映されている。この例で仮にブロックサィズを小さくすると、この大まかな補正さえされなくなってしまう。
このように、補正の範囲を広げるためにブロックサイズを大きくすると、ブロックに含まれる輪郭線の形状が複雑になり、相似ブロックが見つかりにくくなることがある。その結果エッジの補正が大まかにしかされなくなる。このような場合には、ブロックのサイズを初めは大きなサイズでエッジ補正を行い、その結果に対して、再度ブロックサイズを小さくしてエッジ補正を行うと、補正の精度が向上する。図52(c)に対して、ブロックサイズを縦横1/2にして補正を再度行い、さらに1/4にして補正を行クた結果が図52(d)に示される。このように、ブロックサイズを次第に小さくしながら補正を繰り返せば補正の精度を向上できる。
ブロックサイズを次第に小さくする方法を図53のフローチャートを参照して説明する。
ステップS51ではブロックサイズb=Aと設定する。ステップS52では、図48または図50に示したエッジ補正と同様なエッジ補正を行う。ステップS53では、bを観察し、bがZ(<A)より小さくなると、この処理は終了する。bがz以上の場合にはステップS54に進む。ステップS54でブロックサイズbを半分にしてS52に進む。
以上、ブロックサイズを初めは大きめにし、次第に小さくしながら補正を繰り返すことで補正の精度を向上する例を示した。
図54(a)に、ブロックを45度傾けることで、ブロックと正しい輪郭線の間に隙間をできにくくする例が示されている。このように、輪郭線が斜めの場合にはブロックサイズを図51(c)ほど大きくしなくても、ブロックを傾ければ正しい輪郭線を覆うことができる。また、この例では、ブロックの重なりを無くしても図54(b)のように正しい輪郭線を覆える。このように、シェイプ画像の輪郭線と同じ向きにブロックの辺を傾けることで、ブロックと正しい輪郭線の間に隙間を生じにくくすることができる。具体的には、アルフア画像の輪郭線の傾きを検知しそれが水平か垂直に近い場合にはブロツクの向きは図51(c)のようにし、そうでない場合にはブロックの傾きは図54(b)のようにする。水平や垂直に近いという判断はしきい値との比較で行う。
以上が、最初のフレームの物体抽出処理である。これは、必ずしも動画像の最初のフレームだけではなく、静止画像一般に用いることができる手法である。なお、置き換えを1回行ったシェイプ画像に対して、ブロックを設定しなおし、その相似ブロックを求めなおして、2回目の置き換えを行うというように、置き換えの度にブロック設定と相似ブロックの探索を行えば、演算量は増えるが、より補正の効果が得られる。
また、相似ブロックはブロックのなるべく近い部分から選ばれるのが好ましいので、相似ブロックを探す範囲をブロックサイズによって切り換えるとよい。即ち、ブロックサイズが大きい場合には、相似ブロックを探す範囲を広くし、ブロックサイズが小さい場合には、相似ブロックを探す範囲を狭くする。
また、本手法では、シェイプデータの置き換えの過程で、シェイプデータに小さい穴や、孤立した小領域が誤差として出現することがある。そこで、ステップS34,S35,S36,S45,S46,S47,S53の前などで、シェイプデータから、小さい穴や、孤立した小領域を除くことにより、補正の精度を向上することができる。小さい穴や、孤立した小領域を除くには、例えば、画像解析ハンドブック(高木、下田監修、東京大学出版会、初版1991年1月)575〜576頁に記載されている膨張と収縮を組み合わせた処理や、677頁に記載された多数決フィルタなどを用いる。
また、ブロックは図49に示すように、より簡易的に設定しても良い。すなわち、画面を単純にブロック分割し、そのうちブロック2200など、輪郭線228を含むブロックについてのみ、相似ブロックの探索や置き換えの処理を行う。
また、与えられるテクスチャ画像が予めフラクタル符号化(特公平08−329255号公報「画像の領域分割方法及び装置」)によって圧縮されているのであれば、その圧縮データに、各ブロックの相似ブロックの情報が含まれている。従って、輪郭線228を含むブロックの相似ブロックとしては、圧縮データを流用すれば、改めて相似ブロックを探索する必要はない。
図27に戻り、動画から物体を抽出する物体抽出装置の説明を続ける。
動き補償による物体抽出回路242では、テクスチャ画像221から検出される動きベクトルを用いながら、最初のフレームのシェイプ画像25を元にして、2フレーム目以降のフレームのシェイプ画像260を生成する。
図29に動き補償による物体抽出回路224の例が示される。最初のフレームのシェイプ画像225が、シェイプメモリ261に記録される。シェイプメモリ261においては、図45のフレーム262に示した様に、画面全体にブロックが設定される。一方、テクスチャ画像221は、動き推定回路264に送られ、また、テクスチャメモリ263に記録される。テクスチャメモリ263からは、1フレーム前のテクスチャ画像265が動き推定回路264に送られる。動き推定回路264では、現処理フレームのブロック毎に、1フレーム前のフレーム内から誤差が最小となる参照ブロックを見つける。図45に、ブロック267と、1フレーム前のフレーム266から選ばれた参照ブロック268の例が示される。ここで、誤差が所定のしきい値よりも小さくなるのであれば、参照ブロックはブロックよりも大きくする。ブロック269と縦横2倍の大きさの参照ブロック70の例も図45に示す。
図29に戻り、参照ブロックの位置の情報271は動き補償回路272に送られる。動き補償回路272には、シェイプメモリ261から、参照ブロックのシェイプ画像273も送られる。動き補償回路272では、参照ブロックの大きさがブロックと同じ場合は、そのまま、参照ブロックの大きさがブロックよりも大きい場合は、参照ブロックのシェイプ画像が縮小され、その参照ブロックのシェイプ画像は現処理フレームのシェイプ画像260として出力される。また、次のフレームに備えて、現処理フレームのシェイプ画像260はシェイプメモリ261に送られて、画面全体のシェイプ画像が上書きされる。
参照ブロックがブロックよりも大きい場合、先に図41,42を用いて説明したのと同様に、輪郭線が正しい位置からずれていた場合に補正する効果がある。従って、与えられる最初のフレームのシェイプ画像に続く、動画シーケンスの全てのフレームにおいて、物体が高い精度で抽出される。従来手法のように、動画シーケンスの最初の方や、物体の動きが小さい時に、精度が悪いという不具合はない。
フレーム間の動き補償による物体抽出を図47のフローチャートを参照して説明する。
ステップS21で現処理フレームがブロックに分割される。ステップS22では現処理ブロックと画像データの図柄が相似であり、かつ、現処理ブロックよりも大きい参照ブロックを各フレームあるいは、既にシェイプデータを求めたフレーム内から見つける。ステップS23では参照ブロックのシェイプデータを切り出して縮小したサブブロックを現処理ブロックに貼り付ける。
ステップS24では処理済みブロック数が所定の数に達したらステップ25に進む、そうでない場合は次のブロックに処理対象を進めてステップ22に戻る。ステップS25では貼り合わされたシェイプデータを物体領域として出力する。
ここで、各フレームとは、本実施例では最初のフレームであり、予めシェイプ画像が与えられるフレームのことである。また、参照ブロックは必ずしも1フレーム前のフレームでなくても、ここで述べたように、既にシェイプ画像が求まっているフレームならよい。
以上が動き補償を用いた物体抽出の説明である。物体抽出回路224としては、以上で説明した方法の他に、先に出願した、特開平10−001847「動画像の物体追跡/抽出装置」にあるフレーム間差分画像を用いる方法などもある。
図27に戻り、動画から物体を抽出する物体抽出装置の実施例の説明を続ける。
シェイプ画像260はスイッチ部223とスイッチ部281に送られる。スイッチ部223では、シェイプ画像260が“0”(背景)の時には、テクスチャ画像221が、背景メモリ274に送られ、記録される。シェイプ画像260が“255”(物体)の時には、テクスチャ画像221は、背景メモリ274には送られない。これをいくつかのフレームに対して行い、そのシェイプ画像260がある程度正確であれば、物体を含まない、背景部分だけの画像が、背景メモリ274に生成される。
次に、記録装置222から、テクスチャ画像275が再度最初のフレームから順に読み出され、あるいは、操作者が指定する物体を抽出したいフレームだけが読み出され差分回路276に入力される。同時に、背景メモリ274から、背景画像277が読み出され、差分回路276に入力される。差分回路276では、テクスチャ画像275と背景画像277の、互いに画面内で同じ位置にある画素同士の差分値278が求められ、背景画像を用いた物体抽出回路279に入力される。物体抽出回路279では、シェイプ画像280が生成されるのであるが、これは、差分値278の絶対値が予め定めるしきい値よりも大きい画素は、物体に属するとして画素値を“255”とし、そうでない画素は、背景に属するとして画素値“0”とすることで生成される。テクスチャ画像として、輝度だけでなく、色差や色も用いる場合は、各信号の差分の絶対値の和をしきい値と比較して物体か背景かが決定される。あるいは、輝度や色差毎に別々にしきい値を定めて、輝度、色差のいずれかにおいて、差分の絶対値がそのしきい値よりも大きい場合に物体、そうでない場合に背景とが判定される。このようにして生成されたシェイプ画像280がスイッチ部281に送られる。また、操作者によって決定される選択信号282が外部からスイッチ部281に入力され、この選択信号282によって、シェイプ画像260とシェイプ画像280のうちのいずれかが選択され、シェイプ画像283として外部に出力される。操作者は、シェイプ画像260とシェイプ画像280を各々、ディスプレイなどに表示し、正確な方を選択する。あるいは、シェイプ画像260が生成された段階でそれを表示し、その精度が満足するものでなかった場合に、シェイプ画像280を生成し、シェイプ画像260の精度が満足するものであった場合には、シェイプ画像280を生成せずに、シェイプ画像260をシェイプ画像283として外部に出力するようにすれば、処理時間を節約できる。選択は、フレーム毎に行ってもよいし、動画像シーケンス毎に行ってもよい。
図27の物体抽出装置に対応する物体抽出方法を図46のフローチャートを参照して説明する。
(背景画像を用いる物体抽出方法)
ステップS11では与えられる各フレームにおけるシェイプデータを動き補償することにより各フレームのシェイプデータが生成される。ステップS12ではシェイプデータによって決定される背景領域の画像データが背景画像としてメモリに記憶される。
ステップS13では処理済みフレーム数が所定の数に達したらステップ14に進む、そうでない場合は次のフレームに処理対象を進めてステップ11に戻る。ステップS14では画像データと背景画像との差分の絶対値が大きい画素を物体領域とし、そうでない画素を背景領域とする。
本実施形態においては、例えば撮像するカメラに動きがあると背景が動く。この場合は、前のフレームからの背景全体の動き(グローバル動きベクトル)を検出し、1スキャン目ではグローバル動きベクトルの分だけ前のフレームからずらして背景メモリに記録し、2スキャン目では、グローバル動きベクトルの分だけ前のフレームからずらした部分を背景メモリから読み出す。1スキャン目で検出したグローバル動きベクトルをメモりに記録しておき、2スキャン目では、それを読み出して用いれば、グローバル動きベクトルを求める時間を節約できる。また、カメラが固定していることなどから、背景が静止していることが既知の場合は、操作者がスイッチを切り替えることなどによって、グローバル動きベクトルの検出を行わないようにして、グローバル動きベクトルは常にゼロにするようにすれば、処理時間はさらに節約できる。グローバル動きベクトルを半画素精度で求める時は、背景メモリは、入力される画像の縦横とも2倍の画素密度とする。すなわち、入力画像の画素値は1画素おきに背景メモリに書き込まれる。例えば次のフレームでは背景が横方向に0.5画素動いていた場合には、先に書き込まれた画素の間にやはり1画素おきに画素値が書き込まれる。このようにすると、1スキャン目が終了した時点で、背景画像に一度も書き込まれない画素ができることがある。その場合は、周囲の書き込まれた画素から内挿してその隙間を埋める。
また、半画素の動きベクトルを用いる/用いないに関わらず、動画シーケンス全体を通じて、一度も背景領域にならない部分は、1スキャン目を終わっても背景メモリに画素値が代入されない。このような未定義の部分は、2スキャン目では、常に物体と判定する。これは、特に未定義の部分を記録するためのメモリを用意して、未定義か否かをいちいち判定しなくても、背景に希にしか出てこないと予想される画素値(Y,U,V)=(0,0,0)などで、予め背景メモリを初期化してから1スキャン目を開始すればよい。未定義の画素にはこの初期画素値が残るので2スキャン目では、自動的に物体と判定される。
これまでの説明では、背景メモリを生成する時に、既に背景の画素値が代入されている画素についても、背景領域であれば、画素値が上書きされている。この場合、動画シーケンスの最初の方でも最後の方にでも背景である部分には、動画シーケンスの最後の方の背景の画素値が背景メモリに記録される。動画シーケンスの最初と最後でそういった背景が全く同じ画素値ならば問題はないが、カメラが非常にゆっくりと動いたり、背景の明るさが少しずつ変化するなどして、画素値がフレーム間で微少に変動する場合には、動画シーケンスの最初の方の背景と最後の方の背景とでは、画素値の差が大きくなるので、この背景メモリを用いると、動画シーケンスの最初の方のフレームで背景部分も物体と誤検出されてしまう。そこで、その前までのフレームでは、一度も背景領域にはならずに、現処理フレームで初めて背景領域となった画素についてのみ背景メモリへの書き込みを行い、既に背景の画素値が代入されている画素の上書きはしないようにすれば、背景メモリには動画シーケンスの最初の方の背景が記録されるので、正しく物体が抽出される。そして、2スキャン目にも、その物体抽出結果に応じて、現処理フレームの背景領域を背景メモリに上書きするようにすれば、現処理フレームの直前のフレームの背景と現処理フレームの背景という相関の高い背景同士を比較することになり、その部分が物体と誤検出されにくくなる。2スキャン目の上書きは、背景に微少な変動がある場合に有効なので、操作者が背景の動きは無しという意味にスイッチを切り替えるなどした場合は、上書きは行わない。このスイッチは、先のグローバル動きベクトルを行うか行わないかを切り替えるスイッチと共通でも構わない。
1スキャン目は背景画像を生成するのが目的であるから、必ずしも全てのフレームを用いる必要はない。1フレームおき、2フレームおきなどとフレームを間引いても、ほぼ同じ背景画像が得られ、処理時間は短くなる。
背景領域のうち、フレーム間差分がしきい値以下の画素だけを背景メモリに記録するようにすれば、画面に入り込んでくる他の物体が背景メモリに記録されずに済む。また、1スキャン目の物体領域が実際よりも物体側に誤検出された場合、物体の画素値が背景メモリに記録されてしまう。そこで、背景領域でも物体領域に近い画素は背景メモリに入力しないようにする。
観光地で撮影した画像などで、前景の人などを除いた背景画像だけが必要な場合は、背景メモリに記録された背景画像を外部に出力する。
以上が本実施形態の第1の構成例の説明である。本例によれば、動画シーケンスの初めの部分も最後の部分と同様に高い抽出精度が得られる。また、物体の動きが小さかったり、全く動かない場合でも正しく抽出される。
次に、図28を用いて、生成されたシェイプ画像280を修正する例を説明する。シェイプ画像280が生成されるまでは、図27と同じなので説明を省略する。
シェイプ画像280は、背景パレットを用いるエッジ補正回路284に入力される。また、テクスチャ画像275が、背景パレットによるエッジ補正回路284と縮小ブロックマッチングによるエッジ補正回路285に入力される。エッジ補正回路284の詳細なブロック図を図31に示す。
図31において、シェイプ画像280は、補正回路286に入力され、同じフレームのテクスチャ画像275は比較回路287に入力される。背景パレットを保持するメモリ288からは、背景色289が読み出され、比較回路287に入力される。ここで、背景パレットは、背景部分に存在する輝度(Y)と色差(U,V)の組すなわちベクトルの集まり、
(Y1,U1,V1)
(Y2,U2,V2)
(Y3,U3,V3)
……………………
のことで、予め用意される。具体的には、背景パレットは、最初のフレームにおいて、背景領域に属する画素のY,U,Vの組を集めたものである。ここで、例えばY,U,Vが各々256通りの値をとるとすると、その組み合わせは膨大な数になり、背景の(Y,U,V)の組み合わせ数も多くなり、後に説明する処理の演算量が多くなってしまうので、所定のステップサイズでY,U,Vの値を各々量子化することにより、組み合わせ数を抑制できる。これは、量子化をしない場合は異なるベクトル値だったもの同士が、量子化により同じベクトル値になる場合があるからである。
比較回路287では、テクスチャ画像275の各画素のY,U,Vが量子化され、そのベクトルがメモリ288から順次送られてくる背景パレットに登録されているベクトル、すなわち背景色289のいずれかと一致するかどうかが調べられる。画素毎に、その画素の色が背景色かどうかの比較結果290が、比較回路287から補正回路286へ送られる。補正回路286では、シェイプ画像280のある画素の画素値が“255”(物体)であるにもかかわらず、比較結果290が背景色であった場合に、その画素の画素値を“0”(背景)に置き換えて、補正されたシェイプ画像291として出力する。この処理により、シェイプ画像280において物体領域が背景領域にはみ出して誤抽出されていた場合に、その背景領域を正しく分離できる。ただ、背景と物体に共通の色があり、背景パレットに物体の色も混じって登録されていると、物体のその色の部分もが背景と判定されてしまう。そこで、最初のフレームでは、先に説明したパレットを背景の仮のパレットとしておき、同様の方法で最初のフレームの物体のパレットも作る。次に、背景の仮のパレットの中で物体のパレットにも含まれる色については、背景の仮のパレットから除き、残ったものを背景パレットとする。これにより、物体の一部が背景になってしまう不具合を回避できる。
また、最初のフレームで与えられるシェイプ画像に誤差がある場合を考慮し、シェイプ画像のエッジの近傍の画素は、パレットの生成に用いないようにしても良い。また、各ベクトルの出現頻度を数え、頻度が所定値以下のベクトルはパレットに登録しないようにしても良い。量子化ステップサイズを小さくしすぎると、処理時間が多くなったり、背景色に非常に似た色でもベクトル値がわずかに異なるために背景と判定されなかったりし、逆に量子化ステップサイズを大きくしすぎると、背景と物体に共通するベクトルばかりになってしまう。そこで、最初のフレームに対して、いくつかの量子化ステップサイズを試し、与えられるシェイプ画像の様に背景色と物体色が分離される量子化ステップサイズが選ばれる。
また、途中から新しい色が背景や物体に現れることがあるので、途中のフレームで背景パレットを作りなおしても良い。
図28に戻り、シェイプ画像291は、エッジ補正回路285に入力される。エッジ補正回路285は、先に説明した図30の回路において、シェイプ画像249をシェイプ画像291、テクスチャ画像251をテクスチャ画像275とする回路と同じであるので、説明は省略するが、シェイプ画像のエッジがテクスチャ画像のエッジに合うようにシェイプ画像の補正を行う。補正されたシェイプ画像292はスイッチ部281に送られる。スイッチ部281からは、シェイプ画像292とシェイプ画像260のうちから選択されたシェイプ画像293が出力される。
本例では、エッジ補正回路を物体抽出回路279の後段に設けたが、物体抽出回路224の後段に設ければ、シェイプ画像260の精度を向上できる。
また、エッジ補正によって、抽出精度がかえって悪化する場合も希にある。そういう時に、悪化したシェイプ画像292が出力されてしまわないように、図28において、シェイプ画像280やシェイプ画像291もスイッチ部281に入力すれば、エッジ補正を行わないシェイプ画像280や、背景パレットによるエッジ補正だけを施したシェイプ画像291を選択することも可能となる。
図44は、背景パレットに登録された背景色の画素をクロスハッチで示しており、先に図30や図29を用いて説明した相似ブロックの探索の時に、図44の情報を用いると、輪郭抽出の精度をさらに高めることができる。背景に図柄がある場合に、物体と背景のエッジではなく、背景の図柄のエッジに沿うように相似ブロックが選ばれてしまうことがある。このような場合、ブロックと相似ブロックを縮小したブロックとの誤差を求める時に、対応画素がいずれも背景色同士の時は、その画素の誤差は、計算に含めないようにすると、背景の図柄のエッジがずれていても、誤差が発生せず、従って、物体と背景のエッジが合うように相似ブロックが正しく選択される。
図32は、本実施形態の物体抽出装置294を組み込んだ画像合成装置の例である。テクスチャ画像295はスイッチ部296と物体抽出装置294に入力され、最初のフレームのシェイプ画像2100は物体抽出装置294に入力される。物体抽出装置294は、図27や図28で構成されており、各フレームのシェイプ画像297が生成され、スイッチ部296に送られる。一方、記録回路298には、予め合成用背景画像299が保持されており、現処理フレームの背景画像299が記録回路298から読み出され、スイッチ部296に送られる。スイッチ部296では、シェイプ画像の画素値が“255”(物体)の画素ではテクスチャ画像295が選択されて合成画像2101として出力され、シェイプ画像の画素値が“0”(背景)の画素では、背景画像299が選択されて合成画像2101として出力される。これにより、背景画像299の前景にテクスチャ画像295内の物体を合成した画像が生成される。
図33はエッジ補正を行う別の例を示す。図33のように設定されたブロックのうちの一つが、図33のブロック2102であるとする。輪郭線を境界にして、ブロックは物体領域と背景領域に分けられている。この輪郭を左右方向にずらして得られたブロックが2103,2104,2105,2106である。それぞれずらす幅と向きが異なる。文献:福井「領域間の分離度に基づく物体輪郭抽出」(電子情報通信学会論文誌、D−II、Vol.J80−D−II、No.6、pp.1406−1414、1997年6月)の1408ページに記述されている分離度を各々の輪郭線について求め、ブロック2102〜2106のうちで分離度が最も高い輪郭線を採用する。これにより、シェイプ画像の輪郭がテクスチャ画像のエッジに合う。
以上述べてきたように、本第4実施形態によれば、動画シーケンスの初めの部分も最後の部分と同様に高い抽出精度が得られる。また、物体の動きが小さかったり、全く動かない場合でも正しく抽出される。さらに、現処理ブロックよりも大きい相似ブロックのシェイプデータを縮小して張り付けることにより、シェイプデータで与えられる物体領域の輪郭線がずれていてもそれを正しい位置に補正することが可能となり、物体領域の輪郭を大まかになぞったものをシェイプデータとして与えるだけで、以降の入力フレーム全てにおいて物体領域を高い精度で抽出することが可能となる。
なお、以上の第1乃至第4実施形態は適宜組み合わせて利用することもできる。また、第1乃至第4実施形態の物体抽出方法の手順はすべてソフトウェアによって実現することもでき、この場合には、その手順を実行するコンピュータプログラムを記録媒体を介して通常のコンピュータに導入するだけで、第1乃至第4実施形態と同様の効果を得ることができる。
本発明の第1実施形態に係る動画像の物体追跡/抽出装置の基本構成を示すブロック図。 同実施形態の物体追跡/抽出装置の第1の構成例を示すブロック図。 同実施形態の物体追跡/抽出装置の第2の構成例を示すブロック図。 同実施形態の物体追跡/抽出装置に設けられた背景領域決定部の具体的な構成の一例を示すブロック図。 同実施形態の物体追跡/抽出装置に設けられた図形設定部の具体的な構成の一例を示すブロック図。 同実施形態の物体追跡/抽出装置に設けられた背景動き削除部の具体的な構成の一例を示すブロック図。 同実施形態の物体追跡/抽出装置に設けられた背景動き削除部で使用される代表背景領域の一例を示す図。 同実施形態の物体追跡/抽出装置の動作を説明するための図。 本発明の第2実施形態に係る第1の動画像物体追跡/抽出装置を表すブロック図。 同第2実施形態に係る第2の動画像物体追跡/抽出装置を表すブロック図。 同第2実施形態に係る第3の動画像の物体追跡/抽出装置を表すブロック図。 同第2実施形態に係る第4の動画像の物体追跡/抽出装置を表すブロック図。 同第2実施形態の物体追跡/抽出装置で用いられる物体予測の方法を説明するための図。 同第2実施形態の物体追跡/抽出装置で用いられる参照フレーム選択方法を説明するための図。 同第2実施形態の物体追跡/抽出装置において第1の物体追跡/抽出部と第2の物体抽出部を切り替えて物体を抽出した結果の例を表す図。 同第2実施形態の物体追跡/抽出装置を用いた動画像の物体追跡/抽出処理の流れを説明する図。 本発明の第3実施形態に係る第1の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る第2の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る第3の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る第5の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る第6の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る第4の動画像物体追跡/抽出装置を表すブロック図。 同第3実施形態に係る動画像物体追跡/抽出装置の他の構成例を表すブロック図。 同第3実施形態に係る動画像物体追跡/抽出装置のさらに他の構成例を表すブロック図。 同第3実施形態に係る動画像物体追跡/抽出装置に適用されるフレーム順序制御による抽出フレーム順の例を説明する図。 同第3実施形態に係る動画像物体追跡/抽出装置の応用例を表す図。 本発明の第4実施形態に係る物体抽出装置を示すブロック図。 同第4実施形態に係る物体抽出装置にエッジ補正処理を適用した場合の構成例を示すブロック図。 同第4実施形態に係る物体抽出装置に適用される動き補償部の構成例を示すブロック図。 同第4実施形態に係る物体抽出装置に適用される縮小ブロックマッチングによる物体抽出部の構成例を示すブロック図。 同第4実施形態に係る物体抽出装置で使用される背景パレットによるエッジ補正回路を示す図。 同第4実施形態に係る物体抽出装置に適用される画像合成装置を示す図。 同第4実施形態に係る物体抽出装置で使用される分離度を用いたエッジ補正の原理を説明する図。 同第4実施形態に係る物体抽出装置で処理される処理画像全体を示す図。 同第4実施形態で用いられる操作者によって描かれた輪郭線を示す図。 同第4実施形態で用いられるブロック設定(1スキャン目)の様子を示す図。 同第4実施形態で用いられるブロック設定(2スキャン目)の様子を示す図。 同第4実施形態で用いられる相似ブロックを説明するための図。 同第4実施形態で用いられる相似ブロックの探索範囲を説明するための図。 同第4実施形態で用いられる相似ブロックの探索範囲の別の例を説明するための図。 同第4実施形態で用いられるシェイプ画像の置き換え変換前の様子を示す図。 同第4実施形態で用いられるシェイプ画像の置き換え変換後の様子を示す図。 同第4実施形態において抽出された輪郭線を示す図。 同第4実施形態において抽出された背景色の部分を表す図。 同第4実施形態で使用される動き補償を説明するための図。 同第4実施形態で使用される背景画像を用いた物体抽出方法のフローチャート。 同第4実施形態で使用される動き補償による物体抽出方法のフローチャート。 同第4実施形態で使用されるフレーム内の縮小ブロックマッチングによる物体抽出方法のフローチャート。 同第4実施形態で用いられるブロック設定の他の例を示す図。 エッジ補正を説明するためのフローチャート図。 ブロック設定の例を示す図。 物体領域の輪郭線を探索する過程を示す図。 ブロックサイズを次第に小さくする方法を説明するフローチャート図 ブロック設定の他の例を示す図。
符号の説明
1…初期図形設定部、2…物体追跡・抽出部、11…図形設定部、12…背景領域決定部、13…物体抽出部、21…背景動き削除部、22…図形設定部、23…背景領域決定部、24…物体抽出部、31…変化量検出部、32…代表領域決定部、33…背景変化量決定部、34…代表領域の背景決定部、35…背景領域決定部、36…形状予測部、37…静止物体領域決定部、41…分離部、42…動き検出部、43…分割判定部、44…図形決定部、51…背景代表領域設定部、52…動き検出部、53…動き補償部、61…図形設定部、62…複数の物体追跡・抽出部、70…図形設定部、71…第2の物体追跡・抽出部、72…参照フレーム選択部、73…第1の物体追跡・抽出部、111…特徴量抽出部、141…フレーム順序制御部、224…物体抽出部、279…物体抽出部、284…エッジ補正部、285…エッジ補正部

Claims (5)

  1. 動画像データと、この動画像データを構成する複数のフレーム内の所定フレーム上の物体領域を表すシェイプデータとを入力とする画像入力手段と、
    現処理フレームを複数のブロックに分割する手段と、
    前記ブロック毎に、画像データの図柄が相似であり、且つ面積が現処理ブロックよりも大きい相似ブロックを前記参照フレームから探索する手段と、
    前記参照フレームから相似ブロックのシェイプデータを切り出して縮小したシェイプデータを、前記現処理フレームの各ブロックに貼り付ける手段と、
    前記貼り付けられたシェイプデータを現処理フレームのシェイプデータとして出力する手段と、
    により構成される物体抽出装置。
  2. 画像データと、その画像の物体領域を表すシェイプデータを入力とする画像入力手段と、
    前記シェイプデータの輪郭部分にブロックを設定し、各ブロック毎に、前記画像データの図柄が相似であり、且つ前記ブロックよりも大きい相似ブロックを同じ画像の中から探索する手段と、
    前記各ブロックのシェイプデータを各々の前記相似ブロックのシェイプデータを縮小したシェイプデータで置き換える手段と、
    前記置き換えを所定の回数だけ繰り返す手段と、
    前記置き換えを繰り返されたシェイプデータを補正されたシェイプデータとして出力する手段と、
    により構成される物体抽出装置。
  3. 前記相似ブロックの探索と所定の回数のシェイプデータの置き換えを複数回行う反復手段を有し、その反復の始めより終わりの方がブロックサイズを小さくすることを特徴とする請求項2に記載の物体抽出装置。
  4. 画像データと、画像内の物体領域を表すシェイプデータを入力とし、前記シェイプデータの輪郭部分にブロックを設定する第1のステップと、
    各ブロック毎に前記画像データの図柄が相似であり、かつ、前記ブロックよりも大きい相似ブロックを同じ画像の中から見つける第2のステップと、
    前記各ブロックのシェイプデータを各々の前記相似ブロックのシェイプデータを縮小したシェイプデータで置き換える第3のステップとから成り、
    前記第3のステップを所定の回数繰り返すことにより、シェイプデータの輪郭線を前記物体の輪郭線に一致させる物体抽出方法。
  5. 前記第1のステップ、第2のステップ、第3のステップの繰り返しを複数回行い、その反復の始めよりも終わりの方がブロックサイズを小さくすることを特徴とする請求項4に記載の物体抽出方法。
JP2004273818A 1998-01-07 2004-09-21 物体抽出装置 Expired - Fee Related JP3930504B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004273818A JP3930504B2 (ja) 1998-01-07 2004-09-21 物体抽出装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP184798 1998-01-07
JP19206198 1998-07-07
JP2004273818A JP3930504B2 (ja) 1998-01-07 2004-09-21 物体抽出装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP00189199A Division JP3612227B2 (ja) 1998-01-07 1999-01-07 物体抽出装置

Publications (2)

Publication Number Publication Date
JP2005004799A true JP2005004799A (ja) 2005-01-06
JP3930504B2 JP3930504B2 (ja) 2007-06-13

Family

ID=34108423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004273818A Expired - Fee Related JP3930504B2 (ja) 1998-01-07 2004-09-21 物体抽出装置

Country Status (1)

Country Link
JP (1) JP3930504B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195341A (ja) * 2005-01-17 2006-07-27 Fujinon Corp オートフォーカスシステム
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP2006255217A (ja) * 2005-03-18 2006-09-28 Hitachi Medical Corp X線画像診断装置
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2009510541A (ja) * 2005-09-29 2009-03-12 パナソニック株式会社 オブジェクト追跡方法及びオブジェクト追跡装置
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
JP2011199765A (ja) * 2010-03-23 2011-10-06 Fujifilm Corp 撮像装置およびその制御方法
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
WO2013088657A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
KR20170008505A (ko) * 2015-07-14 2017-01-24 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
WO2018154654A1 (ja) * 2017-02-22 2018-08-30 三菱電機株式会社 動体検出装置および動体検出プログラム
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
CN111860326A (zh) * 2020-07-20 2020-10-30 杭州品茗安控信息技术股份有限公司 一种建筑工地物品移动检测方法、装置、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6024952B2 (ja) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP5962916B2 (ja) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JPH09185720A (ja) * 1995-12-28 1997-07-15 Canon Inc 画像抽出装置
JPH09331519A (ja) * 1996-06-12 1997-12-22 Matsushita Electric Ind Co Ltd 自動監視装置
JPH09330416A (ja) * 1996-06-11 1997-12-22 Matsushita Electric Ind Co Ltd 移動体検出方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JPH09185720A (ja) * 1995-12-28 1997-07-15 Canon Inc 画像抽出装置
JPH09330416A (ja) * 1996-06-11 1997-12-22 Matsushita Electric Ind Co Ltd 移動体検出方法および装置
JPH09331519A (ja) * 1996-06-12 1997-12-22 Matsushita Electric Ind Co Ltd 自動監視装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
JP2006195341A (ja) * 2005-01-17 2006-07-27 Fujinon Corp オートフォーカスシステム
JP4568916B2 (ja) * 2005-01-17 2010-10-27 富士フイルム株式会社 オートフォーカスシステム
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP4699056B2 (ja) * 2005-03-15 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP2006255217A (ja) * 2005-03-18 2006-09-28 Hitachi Medical Corp X線画像診断装置
JP4679190B2 (ja) * 2005-03-18 2011-04-27 株式会社日立メディコ X線画像診断装置
JP2009510541A (ja) * 2005-09-29 2009-03-12 パナソニック株式会社 オブジェクト追跡方法及びオブジェクト追跡装置
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP4682820B2 (ja) * 2005-11-25 2011-05-11 ソニー株式会社 オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US9117282B2 (en) 2006-05-03 2015-08-25 Fotonation Limited Foreground / background separation in digital images
US8363908B2 (en) 2006-05-03 2013-01-29 DigitalOptics Corporation Europe Limited Foreground / background separation in digital images
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
JP2011199765A (ja) * 2010-03-23 2011-10-06 Fujifilm Corp 撮像装置およびその制御方法
WO2013088657A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
KR20170008505A (ko) * 2015-07-14 2017-01-24 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
KR101711964B1 (ko) * 2015-07-14 2017-03-13 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
WO2018154654A1 (ja) * 2017-02-22 2018-08-30 三菱電機株式会社 動体検出装置および動体検出プログラム
JPWO2018154654A1 (ja) * 2017-02-22 2019-06-27 三菱電機株式会社 動体検出装置および動体検出プログラム
CN111860326A (zh) * 2020-07-20 2020-10-30 杭州品茗安控信息技术股份有限公司 一种建筑工地物品移动检测方法、装置、设备及存储介质
CN111860326B (zh) * 2020-07-20 2023-09-26 品茗科技股份有限公司 一种建筑工地物品移动检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP3930504B2 (ja) 2007-06-13

Similar Documents

Publication Publication Date Title
JP3612227B2 (ja) 物体抽出装置
US6335985B1 (en) Object extraction apparatus
JP3930504B2 (ja) 物体抽出装置
JP4666706B2 (ja) 動画像リアルタイム変換方法、キーフレーム選択方法、及び動画像変換システム
US6259828B1 (en) Sprite-based video coding system with automatic segmentation integrated into coding and sprite building processes
JP4181473B2 (ja) 映像オブジェクト軌跡合成装置、その方法及びそのプログラム
KR100306948B1 (ko) 모자이크식이미지처리시스템및이미지처리방법
US7577312B2 (en) Image sequence enhancement system and method
US6731285B2 (en) System and method for providing high performance image magnification in a web browser
KR101106419B1 (ko) 화상 처리 장치 및 방법, 및 기록 매체
JP3889233B2 (ja) 画像符号化方法と装置および画像復号方法と装置
US11758082B2 (en) System for automatic video reframing
KR101134668B1 (ko) 화상 생성 방법, 장치 및 그 프로그램과 프로그램을 기록한 기록매체
US5907626A (en) Method for object tracking and mosaicing in an image sequence using a two-dimensional mesh
EP1519589A2 (en) Object tracking in vector images
US20020181741A1 (en) Spatiotemporal locator processing method and apparatus
US7227557B2 (en) Method, system and record medium for generating wide-area high-resolution image
JP4462922B2 (ja) 動画像検索情報生成装置、動画像要約情報生成装置、および要約情報生成方法
JP2009081734A (ja) 画像処理装置、方法およびプログラム
KR20000064847A (ko) 이미지 분할 및 대상 트랙킹 방법, 및 대응 시스템
JP2000149046A (ja) 曲線生成装置及び方法、プログラムを格納した記録媒体、並びに対応点設定方法
CN115546027B (zh) 图像缝合线确定方法、装置以及存储介质
El-Alfy et al. Multi-scale video cropping
JP4241562B2 (ja) 画像圧縮装置
JP2004355665A (ja) 物体抽出装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140316

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees