JP4564634B2 - 画像処理方法及び装置並びに記憶媒体 - Google Patents

画像処理方法及び装置並びに記憶媒体 Download PDF

Info

Publication number
JP4564634B2
JP4564634B2 JP2000245560A JP2000245560A JP4564634B2 JP 4564634 B2 JP4564634 B2 JP 4564634B2 JP 2000245560 A JP2000245560 A JP 2000245560A JP 2000245560 A JP2000245560 A JP 2000245560A JP 4564634 B2 JP4564634 B2 JP 4564634B2
Authority
JP
Japan
Prior art keywords
frame
contour
initial
convergence
initial contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000245560A
Other languages
English (en)
Other versions
JP2002056393A (ja
JP2002056393A5 (ja
Inventor
修 糸川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000245560A priority Critical patent/JP4564634B2/ja
Priority to US09/928,333 priority patent/US6810079B2/en
Publication of JP2002056393A publication Critical patent/JP2002056393A/ja
Publication of JP2002056393A5 publication Critical patent/JP2002056393A5/ja
Application granted granted Critical
Publication of JP4564634B2 publication Critical patent/JP4564634B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法及び装置並びに記憶媒体に関し、より具体的には、動画像におけるオブジェクトを抽出する画像処理方法及び装置、並びにその方法を実行するプログラムフトウエアを記憶する記憶媒体に関する。
【0002】
【従来の技術】
近年、動画像をオブジェクトという構成要素の合成からなると把握し、そのオブジェクトを単位として圧縮符号化する方式が検討され、現在、MPEG−4として標準化作業が進行中である。オブジェクトは任意の形状を取り得るので、形状情報を表すシェイプと呼ばれるデータと、画像の内容を表すテクスチャと呼ばれるデータの組合わせで表現される。
【0003】
オブジェクトの生成方法として、スタジオセット等を用いたクロマキー分離法、コンピュータ・グラフィックス(CG)により目的のオブジェクトを生成する方法、及び自然画から抽出する方法などが知られている。
【0004】
クロマキー法は、スタジオにブルーバックと呼ばれる均一な青色の背景を用意し、撮影画像からブルーの部分を切り取ることにより、対象のオブジェクトを抽出する方法である。
【0005】
コンピュータ・グラフィックス(CG)では、初めから任意形状の画像を生成できるので、特に抽出処理を考える必要はない。アニメーション画像の場合は、1つ1つのセル画を各オブジェクトと見なせば、CGと同様に処理できる。
【0006】
自然画からオブジェクトを抽出する場合、スネークスと呼ばれる動的輪郭モデルのエネルギー最小化がよく知られている(たとえば、 Michael Kass,Andrew Witkin,and Demetri Terzopoulos,”Snakes: Active Contour Models”, International Journal of Computer Vision, Vol.1, No.3,pp.321−331, 1988)。
【0007】
スネークスは、輪郭線が抽出されたときに最小となるエネルギー関数を定義し、適当な初期値からその極小解を反復計算により求めるものである。エネルギー関数は、エッジ点を通る制約の外部エネルギーと滑らかさの制約である内部エネルギーの線形和で定義される。
【0008】
スネークスを適用するには、抽出対象の輪郭を初期輪郭として大まかに指定しておく必要がある。動画像の場合、各フレーム毎に初期輪郭の設定が必要となるが、前のフレームの抽出結果を現フレームの初期値とすることで、自動化が可能となる。フレーム間で対応する輪郭線を求める技術は、トラッキングと呼ばれている。
【0009】
【発明が解決しようとする課題】
これらの抽出方法は、いずれも困難な問題点を含んでいる。すなわち、クロマキー法は、背景色が均一である必要があり、精度の高い抽出を目指すと、大掛かりなスタジオセットが必要となる。また、オブジェクト対象が背景色を含んでいる場合に、対象を正しく抽出できないので、対象の色が制約される。
【0010】
コンピュータ・グラフィックス及びアニメーションでは、抽出処理は必要ないが、ビデオカメラで撮影したような自然画に対応できないという致命的な欠点を有している。
【0011】
自然画からオブジェクトを抽出する方法は、画像内容に対する制約が低く、汎用性が高いという利点がある反面、初期輪郭をある程度、正確に指定する必要があるという欠点がある。これは、動的輪郭モデルの極小解が初期輪郭の影響を大きく受けることによる。つまり、初期輪郭が実際のオブジェクトの輪郭から離れていると、演算の収束結果が実際のオブジェクトの輪郭と一致しなくなる。初期輪郭設定は、ユーザがマウス等のGUI(グラフィカル・ユーザ・インターフェース)を用いて設定する方法が一般的である。マニュアル操作による初期輪郭設定は操作性が悪く、再現性のある初期輪郭設定は困難である。輪郭の形状が複雑になるほど、ユーザの負担は大きくなる。
【0012】
この課題を解決するには、初期輪郭を自動で生成すればよい。初期輪郭を自動抽出するには、フレーム内の色及びテクスチャの情報に加え、フレーム間の動き情報を用いるのが効果的である。しかし、動き情報を利用するには、抽出対象と背景との間の相対的な動きを検出できなければならない。
【0013】
図38を用いて、この問題をより詳しく説明する。図38は、動画シーケンスにおける各フレームのオブジェクトの動きを説明する模式図である。F1〜F6は時間的に連続するフレームであり、フレームF1がスタートフレーム、フレームF6がエンドフレームであるとする。スタートフレームF1とその次のフレームF2とは、被写体及び背景共に移動していない画面内の構成が全く同じで状態になっている。この場合、両フレームから動き量を検出しようとしても背景の動きとオブジェクトの動きが同じである。このときには、オブジェクトを抽出できない。背景及びオブジェクトが共に静止している状態で、カメラをパンしたときにも同じ結果になる。
【0014】
参照フレームを隣接フレームでなく、フレームF4のような、時間的に離れたフレームとすれば、オブジェクトと背景の間の相対的な動きを検出できる可能性が高まる。しかし、この場合、背景同士の対応及びオブジェクト同士の対応が難しくなり、サーチ範囲を拡げなければ、背景同士及びオブジェクト同士の対応を採りにくくなる。これは、時間間隔が開くと、形状変化が大きくなる可能性が高いからである。従って、スタートフレームから動きを求めて初期輪郭を設定する方法は、汎用性が低く、その後のトラッキングでも良好な結果を得ることは困難である。また、スタートフレームから動きを求めて初期輪郭を設定する方法では、必ずしも良好な抽出結果が得られるとは限らない。
【0015】
常に良好な結果を得るためには、背景とオブジェクトの相対的な動きを容易に検出できるフレームを見つけ、そのフレームを基準として前後方向にトラッキングするのが有効である。この基準フレームを一連のシーケンスの中から見つける作業は、ユーザにとって大きな負担となる。
【0016】
本発明は、このような問題点に鑑み、ユーザ操作の負担が少なく、より正確にオブジェクトを抽出できる画像処理方法及び装置並びに記憶媒体を提示することを目的とする。
【0017】
【課題を解決するための手段】
本発明に係る画像処理方法は、画像処理装置によって実行される画像処理方法であって、輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、画像選択手段において当該生成された各フレームの初期輪郭の中から特定のフレームの初期輪郭を選択するステップと、輪郭収束手段において当該選択されたフレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、当該輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップとを有し、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0018】
本発明に係る画像処理方法は、画像処理装置によって実行される画像処理方法であって、輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、輪郭収束手段において当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、画像選択手段において当該収束された各フレームの輪郭の中から特定のフレームを選択するステップと、当該選択されたフレームの輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップとを有し、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0019】
本発明に係る画像処理方法は、画像処理装置によって実行される画像処理方法であって、輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、輪郭収束手段において当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、当該各フレームの輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップと、画像選択手段において当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択するステップとを有し、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0021】
本発明に係る記憶媒体には、上述の画像処理方法を実行するプログラムソフトウエアが格納される。
【0022】
本発明に係る画像処理装置は、複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、当該生成された各フレームの初期輪郭の中から特定のフレームの初期輪郭を選択する選択手段と、当該初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段とを有し、当該初期輪郭生成手段は、当該輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0023】
本発明に係る画像処理装置は、複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段と、当該収束された各フレームの輪郭の中から特定のフレームを選択する選択手段とを有し、当該初期輪郭生成手段は、当該選択されたフレームの輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0024】
本発明に係る画像処理装置は、複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段と、当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択する選択手段とを有し、当該初期輪郭生成手段は、当該各フレームの輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ、前記選択手段は当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択し、当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする。
【0026】
【実施例】
以下、図面を参照して、本発明の実施例を詳細に説明する。
【0027】
図1は、本発明の第1実施例の概略構成ブロック図を示す。画像入力装置10は、ビデオカメラ及び画像再生装置などからなり、動画像信号をメモリ12に入力する。メモリ12は、画像入力装置10から入力する動画像データを数フレーム分、一時記憶する。動き検出装置14は、メモリ12に記憶される複数のフレームの画像データから、注目フレーム上での各部の動き量を検出する。ブロック分類装置16は、動き検出装置14の検出結果に従い、注目フレーム上の各ブロックを背景部分とオブジェクト部分に分類する。輪郭設定装置18は、ブロック分類装置16の分類結果に従い、背景部分とオブジェクト部分の境界に初期輪郭を設定する。
【0028】
輪郭収束装置20は、輪郭設定装置18で設定される初期輪郭を、オブジェクトの実際の輪郭に沿うように収束する。収束した結果は、メモリ12を介して輪郭表示装置22に転送され、表示される。ユーザは、輪郭収束結果が満足すべきものでない場合、画像選択装置24により注目フレームを変更して輪郭収束装置20による輪郭収束をやり直す。
【0029】
他方、輪郭収束結果が満足できるものである場合、注目フレームを基準フレームとする。基準フレームが決定すると、輪郭設定装置18が、基準フレームの収束結果を隣接フレームの初期輪郭として設定し、輪郭収束装置20が、隣接フレームで輪郭を収束する。この処理を、基準フレームからエンドフレームに向かう方向と、スタートフレームに向かう方向の両方向で実行する。最終的に全てのフレームでオブジェクトの輪郭が求められる。画像出力装置26は、このようにして得られた結果を、輪郭線データ又は、オブジェクトの内外を示すマスクデータとして出力する。
【0030】
図2は、本実施例の動作フローチャートを示す。全フレームの中から初期輪郭を設定するフレームを選択する(S1)。選択したフレームに対して自動処理で初期輪郭を設定し(S2)、実際の輪郭に収束させる(S3)。輪郭の収束には、動的輪郭モデルを用いる。収束結果に満足できなければ(S4)、初期輪郭設定フレームを別のフレームに変更して、初期輪郭設定と輪郭の収束を繰り返す(S2,S3)。初期輪郭設定フレームを同じままで、輪郭の収束条件を変更しても良い。
【0031】
輪郭の収束結果が満足できる場合(S4)、初期輪郭設定フレームを基準フレームとして、エンドフレームまでのトラッキングを実行する(S6)。その後、基準フレームからスタートフレームまでのトラッキングを実行する(S8)。これにより、スタートフレームからエンドフレームまでの全フレームでオブジェクトが抽出されたことになる。勿論、基準フレームからスタートフレームまでのトラッキングを実行した後に、基準フレームからエンドフレームまでのトラッキングを実行しても、結果は同じである。
【0032】
図3は、図2の自動初期輪郭設定(S2)の詳細なフローチャートを示す。図4乃至図9は、フレームとその処理例を示す。図4は自動初期輪郭設定の対象フレーム例を示し、図5は、図4に示すフレームの次のフレームを示す。図6乃至図9は、自動初期輪郭設定の処理途中を示す模式図である。
【0033】
対象フレーム(図4)を図6に示すように所定サイズのブロックに分割し(S11)、各ブロックの動き量を算出する(S12)。これは、一般に、ブロックのパターンマッチングとして知られている方法により、各ブロックが次のフレーム(図5)どの位置に対応しているかを求め、各ブロック毎に画面上の同じ位置からどれだけずれているかを動きベクトルとして求める処理である。マッチングの評価関数は、例えば、ブロック間の差分二乗和又は差分絶対値和などである。
【0034】
全てのブロックに対し動きベクトルが求まると、動きベクトルの値に応じて各ブロックを分類する(S13)。図4及び図5に示す例では、背景が画面に向かって左方向に動き、オブジェクトは相対的に右方向に動いている。近似した値の動きベクトルを持つブロックを集めると、一番多いブロックとして、左方向に動く背景ブロックを抽出でき、次に多いブロックとして、右方向に動くオブジェクトのブロックを抽出できる。
【0035】
ただし、ブロックが背景部分とオブジェクト部分の両方を含んでいる場合、次のフレームから対応する領域を求めることができないので、背景ブロックともオブジェクトのブロックとも異なる値をとる可能性がある。このようなブロックを、本実施例では、オブジェクトのブロックと背景のブロックの間の境界ブロックであると考える。境界ブロックに関しては、再度、ブロック分割を行ない、より小さい大きさのブロックで背景部分、オブジェクト部分又は境界部分の何れであるかを分類する。境界部分の再分割回数は1回でも、2回以上でも良い。勿論、回数が多くなればなるほど、精度が良くなるが処理負担が増す。
【0036】
図7は、最初のブロック分割に対するオブジェクトのブロックと境界ブロックを示す。図8は、図7に示す例での境界ブロックを再度ブロック分割し分類した後のオブジェクトのブロックと境界ブロックを示す。
【0037】
ブロック分類が完了したら(S13)、オブジェクトのブロック及び境界ブロックと背景ブロックとの間に輪郭線(初期輪郭)を設定する(S14)。図9は、設定した初期輪郭とオブジェクトの輪郭とを重ねて示す。初期輪郭は、必ずしも背景ブロックと接する境界そのものに設定される必要はなく、境界ブロックの中心又はブロックの境界線上の中点を直線又はスプライン曲線でつないだものであってもよい。
【0038】
設定した初期輪郭を実際のオブジェクトの輪郭へ収束させるには、スネークスと呼ばれる動的輪郭モデルを利用する。一般にスネークスは、画像平面(x,y)上で、媒介変数で表現される輪郭(閉曲線)
v(s)=(x(s),y(s))
但し、0≦s≦1
を、下記式(1)で定義されるエネルギー関数を最小化するように変形し、エネルギーの極小状態としてその形状が決まる輪郭抽出モデルである。
【0039】
【数1】
Figure 0004564634
但し、Eintは内部エネルギー、Eimageは画像エネルギー、Econは外部エネルギーである。Econは、スネークスに外部から強制的に力を働かせる場合に用いられる。外部エネルギーは、必要に応じて用いればよい。
【0040】
Eintには、多くの場合に、輪郭の滑らかさを表す式(2)に示すEsplineが用いられる。v’(s),v”(s)はそれぞれ、v(s)の1次微分及び2次微分である。α及びβは重み係数であり、一般的にはsの関数であるが、ここでは、定数とする。Esplineの最小化により、スネークスは滑らかに収縮する力を受ける。
【0041】
Eimageには、画像の輝度I(v(s))を用いて定義される式(3)に示すEedgeがよく用いられる。Eedgeは、輝度勾配の大きさを表す。スネークスは、Eedgeの最小化によりエッジに引き寄せられる力を受ける。γは画像エネルギーに対する重み係数である。
【0042】
ここまでの処理で、初期輪郭設定フレームに対するマスクデータが得られたことになる。
【0043】
図10は、初期輪郭設定フレームからエンドフレームまでのトラッキング(S6)の詳細なフローチャートを示す。初期輪郭設定フレームの時間的に次のフレームを現フレームとする(S21)。時間的に前のフレームの輪郭を現フレームにコピーし(S22)、このコピーした輪郭を初期輪郭として、S3と同様に、オブジェクトの境界に輪郭を収束させる(S23)。輪郭が収束した後、現フレームがエンドフレームか否かを判定する(S24)。現フレームがエンドフレームでなければ(S24)、時間的に次のフレームを現フレームとし(S21)、以降の処理(S22,S23)を繰り返す。現フレームがエンドフレームの場合(S24)、エンドフレームまでのトラッキングを終了したことになる。
【0044】
図11は、初期輪郭設定フレームからスタートフレームまでのトラッキング(S8)の詳細なフローチャートを示す。初期輪郭設定フレームの時間的に前のフレームを現フレームとする(S31)。時間的に次のフレームの輪郭を現フレームにコピーし(S32)、このコピーした輪郭を初期輪郭として、S3と同様に、オブジェクトの境界に輪郭を収束させる(S33)。輪郭が収束した後、現フレームがスタートフレームか否かを判定する(S34)。現フレームがスタートフレームでなければ(S34)、時間的に前のフレームを現フレームとし(S31)、以降の処理(S32,S33)を繰り返す。現フレームがスタートフレームの場合(S34)、スタートフレームまでのトラッキングを終了したことになる。
【0045】
図12は、図38に示すような画像データに対して本実施例により得られたマスクデータ例を示す。フレームF13が初期輪郭設定フレームであるとすると、エンドフレームまでのトラッキングでフレームF14〜F16のマスクデータが得られ、スタートフレームまでのトラッキングでフレームF11,F12のマスクデータが得られる。
【0046】
図13は、本実施例の第2の動作フローチャートを示す。ここでは、スタートフレームから処理を開始する。すなわち、スタートフレームを現フレームとして、S2と同様の内容の自動初期輪郭設定を実行する(S41)。エンドフレームの直前に到達するまで(S42)、時間的に次のフレームに対し順次、自動初期輪郭設定を実行する(S43,S41)。
【0047】
エンドフレームの直前のフレームまで自動初期輪郭設定を実行したら(S42)、自動初期輪郭設定を実行した各フレームの結果を比較し、初期輪郭がオブジェクトの境界にもっとも近いフレームを初期輪郭設定フレーム(基準フレーム)として選択する(S44)。選択した初期輪郭設定フレーム(基準フレーム)において、S3と同様の処理により初期輪郭をオブジェクトの境界に収束させる(S45)。
【0048】
初期輪郭設定フレームからエンドフレームまでのトラッキングを実行し(S46)、現フレームを初期輪郭設定フレームに戻して(S47)、スタートフレームまでのトラッキングを実行する(S48)。スタートフレームまでのトラッキングをエンドフレームまでのトラッキングの前に実行しても良いことは明らかである。
【0049】
図14は、本実施例の第3の動作フローチャートを示す。ここでも、スタートフレームから処理を開始する。図14では、一旦、各フレームで初期輪郭をオブジェクトの輪郭に収束させ、その結果を見て初期輪郭設定フレーム(基準フレーム)を決定し、エンドフレームまでのトラッキング及びスタートフレームまでのトラッキングを実行する。
【0050】
スタートフレームを現フレームとして、S2と同様の内容の自動初期輪郭設定を実行し(S51)、S3と同様に初期輪郭をオブジェクトの境界に収束させる(S52)。エンドフレームの直前に到達するまで(S54)、時間的に次のフレームに対し順次、自動初期輪郭設定と輪郭の収束を実行する(S53,S51,S52)。
【0051】
エンドフレームの直前のフレームまで自動初期輪郭設定及び輪郭の収束を実行したら(S54)、各フレームの輪郭収束結果を比較し、初期輪郭がオブジェクトの境界にもっとも良く収束しているフレームを初期輪郭設定フレーム(基準フレーム)として選択する(S55)。選択した初期輪郭設定フレーム(基準フレーム)からエンドフレームまでのトラッキングを実行し(S56)、現フレームを初期輪郭設定フレームに戻して(S57)、スタートフレームまでのトラッキングを実行する(S58)。スタートフレームまでのトラッキングをエンドフレームまでのトラッキングの前に実行しても良いことは明らかである。
【0052】
図15は、本実施例の第4の動作フローチャートを示す。ここでも、スタートフレームから処理を開始する。現フレームに対し、図3に示す内容と同じ自動初期輪郭設定を実行し(S61)、S3と同様の処理で初期輪郭をオブジェクトの境界に収束させる(S62)。エンドフレームまでのトラッキングを実行し(S63)、その後、いったん現フレームを初期輪郭設定フレームに戻し(S64)、初期輪郭設定フレームからスタートフレームまでのトラッキングを実行する(S65)。1回目では、初期輪郭設定フレームがスタートフレームであるので、S65は実際には実行されない。ここまでの処理で、スタートフレームを初期輪郭設定フレームとした場合で、全フレームのオブジェクトを抽出できたことになり、その全フレームのオブジェクト抽出結果をメモリに一時保存する(S66)。
【0053】
初期輪郭設定フレームがエンドフレームの直前のフレームになるまで、時間的に次のフレームを現フレームとして(S68)、S61〜S66を繰り返す。すなわち、スタートフレームからエンドフレームの直前のフレームまでの各フレームに対して自動初期輪郭設定した場合の、各フレームのオブジェクトの境界を抽出できたことになる。このシーケンス数は、フレーム数−1である。図38に示す例では、フレーム数が6であるので、全フレームのオブジェクト抽出結果が5つ得られることになる。
【0054】
メモリに一時保存した抽出結果から最適なものを選択し、それを最終的な抽出結果とする(S69)。
【0055】
図16は、本発明の第2実施例の概略構成ブロック図を示す。画像入力装置30は、ビデオカメラ及び画像再生装置などからなり、動画像信号をメモリ32に入力する。メモリ32は、画像入力装置30から入力する動画像データを数フレーム分、一時記憶する。動き検出装置34は、メモリ32に記憶される複数のフレームの画像データから、注目フレーム上での各部の動き量を検出する。ブロック分類装置36は、動き検出装置34の検出結果に従い、注目フレーム上の各ブロックを背景部分とオブジェクト部分に分類する。
【0056】
類似度(又は一致度)検出装置38は、ブロック分類装置36で分類されたブロックの類似性をフレーム間で判定し、画像選択装置40が類似度の高いフレームを選択し、そのフレームを初期輪郭設定フレームとする。
【0057】
輪郭設定装置42は、画像選択装置40で選択された初期輪郭設定フレームに対し、ブロック分類装置36の分類結果を利用して、背景部分とオブジェクト部分の境界に初期輪郭を設定する。輪郭収束装置44は、輪郭設定装置42で設定される初期輪郭を、オブジェクトの実際の輪郭に沿うように収束する。
【0058】
収束結果は、メモリ32を介して輪郭設定装置42に転送され、次に処理すべきフレームの初期輪郭となる。輪郭収束装置44は、このフレームに対して先と同様に初期輪郭をオブジェクトの実際の輪郭に収束する。この処理を初期輪郭設定フレームからエンドフレームまでと、初期輪郭設定フレームからスタートフレームまでの両方向で行うことで、最終的に全フレームにおける輪郭が得られる。
【0059】
輪郭表示装置46は、これらの経過及び結果を表示する。これにより、ユーザは、途中経過及び最終結果を画面上で確認できる。画像出力装置48は、このようにして得られた結果を、輪郭線データ又は、オブジェクトの内外を示すマスクデータとして出力する。
【0060】
図17は、図16に示す実施例の動作フローチャートを示す。全フレームの中から初期輪郭を設定するフレームを自動選択する(S71)。選択されたフレームに対して自動処理で初期輪郭を設定し(S72)、実際の輪郭に収束させる(S73)。輪郭の収束には、動的輪郭モデルを用いる。輪郭が収束し、オブジェクトの形状に合致すると、フレーム内の処理は完了し、次にフレーム間の処理に移行する。
【0061】
初期輪郭設定フレームを基準フレームとして、エンドフレームまでのトラッキングを実行する(S74)。その後、現フレームを基準フレームに戻して(S75)、スタートフレームまでのトラッキングを実行する(S76)。これにより、スタートフレームからエンドフレームまでの全フレームでオブジェクトが抽出されたことになる。勿論、基準フレームからスタートフレームまでのトラッキングを実行した後に、基準フレームからエンドフレームまでのトラッキングを実行しても、結果は同じである。
【0062】
図18は、初期輪郭設定フレームの自動選択(S71)の詳細なフローチャートを示す。スタートフレームを現フレームとして、処理を開始する。先ず、現フレームをブロックに分割し(S81)、各ブロックの動き量を算出する(S82)。これは、一般に、ブロックのパターンマッチングとして知られている方法により、各ブロックが次のフレーム(図5)どの位置に対応しているかを求め、各ブロック毎に画面上の同じ位置からどれだけずれているかを動きベクトルとして求める処理である。マッチングの評価関数は、例えば、ブロック間の差分二乗和又は差分絶対値和などである。
【0063】
全てのブロックに対し動きベクトルが求まると、動きベクトルの値に応じて各ブロックを分類する(S83)。分類結果からこのフレームの特徴量を求め、保存する(S84)。分類方法及び特徴量の算出方法は後で詳しく説明する。
【0064】
1番目のフレームの特徴量が求められたら、2番目のフレーム、3番目のフレームというように(S86)、全フレームの処理が終わるまで(S85)、以上の処理(S81〜S84)を繰り返す。
【0065】
全フレームの処理が終わったら(S85)、各フレームから特徴量の類似するフレームを検出する(S87)。最も類似度の高いフレームを選び、それを初期輪郭設定フレームとする(S88)。
【0066】
自動初期輪郭設定(S72)と輪郭の収束(S73)を詳しく説明する。初期輪郭を自動で設定する最も簡単な方法は、オブジェクトに分類されたブロックの境界を初期輪郭とするものである。この場合、初期輪郭の精度は、ブロックの大きさに依存する。設定した初期輪郭から実際のオブジェクトの輪郭への収束には、図1に示す実施例で説明したように、スネークスと呼ばれる動的輪郭モデルを利用できる。
【0067】
図19は、初期輪郭設定フレームからエンドフレームまでのトラッキング(S74)の詳細なフローチャートを示す。初期輪郭設定フレームの時間的に次のフレームを現フレームとする(S91)。時間的に前のフレームの輪郭を現フレームにコピーし(S92)、このコピーした輪郭を初期輪郭として、S3,S73と同様に、オブジェクトの境界に輪郭を収束させる(S93)。輪郭が収束した後、現フレームがエンドフレームか否かを判定する(S94)。現フレームがエンドフレームでなければ(S94)、時間的に次のフレームを現フレームとし(S91)、以降の処理(S92,S93)を繰り返す。現フレームがエンドフレームの場合(S94)、エンドフレームまでのトラッキングを終了したことになる。
【0068】
図20は、初期輪郭設定フレームからスタートフレームまでのトラッキング(S76)の詳細なフローチャートを示す。初期輪郭設定フレームの時間的に前のフレームを現フレームとする(S101)。時間的に次のフレームの輪郭を現フレームにコピーし(S102)、このコピーした輪郭を初期輪郭として、S3,S73と同様に、オブジェクトの境界に輪郭を収束させる(S103)。輪郭が収束した後、現フレームがスタートフレームか否かを判定する(S104)。現フレームがスタートフレームでなければ(S104)、時間的に前のフレームを現フレームとし(S101)、以降の処理(S102,S103)を繰り返す。
現フレームがスタートフレームの場合(S104)、スタートフレームまでのトラッキングを終了したことになる。
【0069】
次に、各フレームの特徴量を説明する。特徴量として、例えば、動きベクトルのヒストグラム及びブロック分類結果のヒストグラムなどが考えられる。図21に示す動作シーケンスと、図22に示すフローチャートを参照して、処理手順を説明する。図21で、処理対象は5フレームF21〜F25であり、F21がスタートフレーム、F25がエンドフレームである。
【0070】
フレームF21を図23に示すようにブロックに分割する(S111)。図23では、1フレームを7×5個のブロックに分割している。これら各ブロックの動き量を検出する(S112)。フレームF22を参照フレームにすると、フレームF21との間に相対的な動きがないので、全て一様な動きベクトル、即ち動き量ゼロのベクトルが検出される。図24は、検出された動き量の分布図を示す。斜線のブロックは動き量ゼロのブロックを示す。
【0071】
次に動きベクトルを分類する(S113)。フレームF21では、全てのブロックが動き量0であるので、オブジェクトブロックを検出できなかったものとし、全てを背景ブロックとする。オブジェクトブロックの数(ここではゼロ)をこのフレームの特徴量として保存する(S114)。
【0072】
図25は、S113,S114の処理の詳細なフローチャートを示す。動きベクトルを発生頻度毎に分類する(S121)。背景となるブロックを決定し(S122)、オブジェクトとなるブロックを決定する(S123)。例えば、ブロック数が一番多いものを背景とし、二番目をオブジェクトとする。又は、ブロックの存在する位置又は分散により、背景とオブジェクトを決定しても良い。背景とオブジェクトの2種類にのみ分類する場合、総ブロック数からの引き算で一方から他方を求めても同じ結果となる。オブジェクトブロックの数をこのフレームの特徴量として保存する(S124)。
【0073】
次のフレームF21を現フレームとして(S116)、ブロックに分割し(S111)、動き量を算出して(S112)、各ブロックを分類する(S113)。
【0074】
フレームF22は、フレームF21と同じであるので、ブロック分割の様子は図23と同じである。但し、動きベクトルを求める際に参照するフレームはフレームF23となるので、相対的な動きが生じる。すなわち、背景部分では動きゼロのベクトルが検出され、オブジェクト部分では画面に向かって右方向に動いたところとマッチングする。ブロックの中にオブジェクトの一部と背景の一部の両方が含まれている場合には、参照するフレームにまったく同じブロックは存在しない。
【0075】
マッチングの評価関数に閾値を設け、一致度の低いブロックを除外した場合、図26に示すように、背景ブロック、オブジェクトブロック及び、背景とオブジェクトの両方を含む境界ブロックが求められる。図26で、斜線のブロックが背景ブロック、白抜きのブロックが境界ブロックであり、交差斜線のブロックがオブジェクトブロックである。このとき、背景ブロック数は19、オブジェクトブロック数は5、境界ブロック数は11である。
【0076】
マッチングの評価に制限を加えない場合、2種類の動きに集約される。図27はその分類結果の模式図を示す。斜線のブロックが背景ブロック、交差斜線のブロックがオブジェクトブロックである。この場合には、境界ブロックも背景ブロックかオブジェクトブロックの何れかに分類される。図27に示す例では、背景ブロック数は29、オブジェクトブロック数は6となる。
【0077】
フレームF22の特徴量としてオブジェクトブロック数6を保存する(S114)。
【0078】
各フレームF21〜F25のオブジェクトブロック数を各フレームの特徴量として保存したら(S115)、ブロック数の一致度を判定する(S117)。例えば、各フレームF21〜F25のオブジェクトブロック数を比較し、ブロック数が同じフレームを求める。図21に示す例では、フレームF22,F23間の動き量が大きく、フレームF23,F24間の動き量も同様に大きいので、オブジェクトブロックと見做されるブロック数は近い値をとる。フレームF24,F25間では動き量が少ないので、ブロックの分離精度が下がり、オブジェクトブロックと見做されるブロック数が小さくなる可能性が高い。これらのことから、フレームF22のブロック分離精度が高いと判定される。この判定結果に従い、フレームF22を初期輪郭設定フレームとする(S118)。
【0079】
この後、図17に示す自動初期輪郭設定(S72)及び輪郭の収束(S73)と続く。輪郭の収束(S73)が終了した時点で、フレームF22から、図28にフレームF32で示すマスクデータが得られる。エンドフレームまでのトラッキング(S74)で、フレームF33〜F35に示すマスクデータが得られ、スタートフレームまでのトラッキング(S76)でフレームF31に示すマスクデータが得られる。以上により、全てのフレームのマスクデータが求められたことになる。
【0080】
図25では、特徴量としてオブジェクトブロック数を保存したが、背景ブロック数を特徴量としてもよい。また、背景ブロック数とオブジェクトブロック数の比率を求め、それを特徴量としてもよい。図29は、背景ブロック数とオブジェクトブロック数の比率を特徴量とする場合の、S113及びS114の部分に対応する動作フローチャートを示す。
【0081】
各ブロックの動きベクトルの発生頻度を求め(S131)、背景ブロックを決定し(S132)、オブジェクトブロックを決定する(S133)。ブロック数が1番多いものを背景とし、2番目をオブジェクトとする方法が簡便である。3番目以降のベクトルについては、ベクトルの距離計算により1番目と2番目の何れのベクトルに近いかを計算し、その結果により分類すればよい。
【0082】
背景ブロックとオブジェクトブロックの数をカウントし(S134,S135)、その比率を保存する(S136)。これにより、近似するブロック比率を有するフレーム同士は、ブロックの分離精度が高いと考えられる。
【0083】
図30は、ブロックの面積を特徴量とする動作フローチャートを示す。特徴量としてブロックの面積の情報を保存し(S144)、フレーム間で面積の情報を比較して一致度を判定すること(S147)を除いて、基本的に、図22と同じである。
【0084】
図31は、S144の詳細なフローチャートを示す。各ブロックの動きベクトルの発生頻度を求め(S151)、背景ブロックを決定し(S152)、オブジェクトブロックを決定する(S153)。境界ブロックの再分割と(S154)、再分割で得られるブロックの分類(S155)を、境界ブロックの分類が終了するまで繰り返す(S156)。図32は、図26に示す境界ブロック(白抜きのブロック)を2×2のブロックに分割し、各ブロックを背景ブロック又はオブジェクトブロックに再分類した結果を示す。この再分類では、動きベクトルを再計算してもよいし、既に求められている背景の動きベクトルとオブジェクトの動きベクトルを当てはめ、どちらがより確からしいかで評価してもよい。
【0085】
図27に示す例のように、分類上、境界ブロックを求めない場合、オブジェクトブロックと背景ブロックに接しているブロックを境界ブロックとすることもできる。図33は、図27に示すブロック分割における境界ブロックの再分割結果を示す。
【0086】
図34は、再分割を2段階行った場合の分割結果を示す。再分割の回数を増やすことで、実際のオブジェクトの面積に近づけることができることは明らかである。
【0087】
境界ブロックの分類が終了したら(S156)、オブジェクトブロックの面積を計算し、計算結果をそのフレームの特徴量として保存する(S157)。
【0088】
面積の一致度判定(S147)では、各フレームのオブジェクトの面積を比較し、値の近いものを求める。相対的な動き量が大きい場合、ブロックの分離度が高まるので、オブジェクトの面積を正確に求めやすい。相対的な動き量が小さい場合、ブロックの分離度が悪く、正しいオブジェクトの面積は求めにくい。従って、分離度の悪いフレームでは、オブジェクトの面積がばらつき、分離度のよいフレームでは、オブジェクトの面積は近似した値になる。
【0089】
図21に示す例では、フレームF22とフレームF23の間の動き量が大きく、フレームF23とフレームF24の間の動き量も同様に大きいので、この2フレームF22,F23のオブジェクトの面積は近い値になる可能性が高い。これらのことから、フレームF22のブロック分離精度が高いと判断されると、フレームF22が初期輪郭設定フレームに決定される(S148)。初期フレームを決定した後、自動初期輪郭設定(S72)及び輪郭の収束(S73)と続く。
【0090】
なお、ブロックの再分割を行わない場合、オブジェクトブロックの面積は、(オブジェクトブロックの数)×(オブジェクトブロックの画素数)となる。オブジェクトブロックの画素数は一定であるので、図25に示すように単純にオブジェクトブロックの数をカウントするだけの場合と等価となる。
【0091】
初期フレームが設定された時点で、その初期フレーム(ここではフレームF22)のマスクデータ(ここでは、フレームF32)が得られている。従って、エンドフレームまでのトラッキング(S74)でフレームF33〜F35のマスクデータ得られ、スタートフレームまでのトラッキング(S76)でフレームF31のマスクデータが得られる。トラッキングの詳細は、先に説明した通りである。以上により、全てのマスクデータが求められたことになる。
【0092】
図35は、オブジェクトの形状方法を特徴量とする動作フローチャートを示す。特徴量としてオブジェクトの形状情報を保存し(S164)、フレーム間で形状情報を比較して一致度を判定すること(S167)を除いて、基本的に、図22と同じである。
【0093】
図36は、S164の詳細なフローチャートを示す。各ブロックの動きベクトルの発生頻度を求め(S171)、オブジェクトブロックを決定し(S172)、背景ブロックを決定する(S173)。境界ブロックの再分割と(S174)、再分割で得られるブロックの分類(S175)を、境界ブロックの分類が終了するまで繰り返す(S176)。
【0094】
境界ブロックの分類が終了すると(S176)、オブジェクトブロックと背景ブロックの境界に初期輪郭を自動設定し(S177)、その初期輪郭を実際のオブジェクトの輪郭に収束させる(S178)。これらの処理(S177,S178)は、それぞれ、図17のステップS72,S73の処理と同じである。
【0095】
図37を参照して、具体的に説明する。図37(a)は、図32に示すオブジェクト近辺のブロックを示す。図37(b)は、図32(a)に示すオブジェクトブロックの境界に初期輪郭を設定した状態であり、破線が初期輪郭を示す。初期輪郭は必ずしも、背景ブロックと接した境界そのものに設定される必要はなく、ブロックの境界線上の中点を直線又はスプライン曲線でつないで設定してもよい。図37(c)は、初期輪郭がオブジェクトの実際の輪郭に収束していく過程を示す。図37(d)は、最終的に収束した結果であり、オブジェクトの実際の輪郭と収束結果が一致している。図37に示す例では、オブジェクトの面積を、図30で説明した方法よりも正確に求めることができるので、この方法で得たオブジェクトの面積を特徴量としてもよい。
【0096】
輪郭線を特徴量として保存するには、幾つかの方法が考えられる。周囲長を特徴量とするのが最も簡単な例の一つである。周上の任意の2点間の距離の内、最大の長さを求めたり、外接する楕円の内、面積最小なものを求めてもよい。複雑な例としては、フーリエ記述子による表現がある。これは、演算負荷が大きい。
しかし、相似変換に対して不変な照合を行うことが可能になるので、形状の一致度判定(S167)の処理で、シーケンスがズームしているような場合にも対応できる。
【0097】
全フレームの形状情報を保存すると(S165)、各フレーム間で形状の一致度を判定する(S167)。すなわち、各フレームの形状情報に関する値を比較し、値の近いものを求める。相対的な動き量が大きい場合、ブロックの分離度が高まるので、オブジェクトの形状を正確に求めやすい。相対的な動き量が小さい場合、ブロックの分離度が悪く、オブジェクトの正しい形状を求めにくい。従って、分離度の悪いフレームでは、オブジェクトの形状がばらつき、分離度のよいフレームでは、オブジェクトの形状は近似したものになる。
【0098】
図21に示す例では、フレームF22とフレームF23の間の動き量が大きく、フレームF23とフレームF24の間の動き量も同様に大きいので、この2フレームF22,F23のオブジェクトの形状は近似する可能性が高い。これらのことから、フレームF22のブロック分離精度が高いと判断されると、フレームF22が初期輪郭設定フレームに決定される(S148)。このフレームの輪郭は既に求められているので、図28のフレームF32のマスクデータは既に求められていることになる。この後、エンドフレームまでのトラッキング(S74)でフレームF33〜F35のマスクデータ得られ、スタートフレームまでのトラッキング(S76)でフレームF31のマスクデータが得られる。トラッキングの詳細は、先に説明した通りである。以上により、全てのマスクデータが求められたことになる。
【0099】
本発明は、複数の機器で実現される場合と、一つの機器で実現される場合のどちらの場合にも適用されうる。
【0100】
また、上述した実施例の機能を実現するように各種のデバイスを動作させるべく当該各種デバイスと接続された装置又はシステム内のコンピュータに、上記実施例の機能を実現するためのソフトウアのプログラムコードを供給し、その装置又はシステムのコンピュータ(CPU又はMPU)を格納されたプログラムに従って動作させ、前記各種デバイスを動作させることによって実施したものも、本願発明の範囲に含まれる。
【0101】
この場合、前記ソフトウエアのプログラムコード自体が、前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えば、かかるプログラムコードを格納した記憶媒体は、本発明を構成する。かかるプログラムコードを格納する記憶媒体としては、例えば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード及びROM等を用いることが出来る。
【0102】
また、コンピュータが供給されたプログラムコードを実行することにより、前述の実施例の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)又は他のアプリケーションソフトウエア等と共同して上述の実施例の機能が実現される場合にも、かかるプログラムコードが本出願に係る発明の実施例に含まれることは言うまでもない。
【0103】
更には、供給されたプログラムコードが、コンピュータの機能拡張ボード又はコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいて、その機能拡張ボード又は機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施例の機能が実現される場合も、本出願に係る発明に含まれることは言うまでもない。
【0104】
【発明の効果】
以上の説明から容易に理解できるように、本発明によれば、動画から任意のフレームを選択し、そこから輪郭を自動抽出し、前後フレームへの自動トラッキングを行うことにより、簡易で高い精度の抽出結果を得ることができる。複数のフレームの初期輪郭の中から任意のフレームを選択することにより、収束とトラッキングの結果を容易に予測できる。複数のフレームの輪郭収束結果の中から任意のフレームを選択することにより、トラッキング結果の予測が容易となる。複数のフレームに対し、輪郭の自動抽出及び前後フレームへの自動トラッキングを行った結果を保持することで、抽出結果の中から最適なものを選択できる。
【0105】
ブロック数、面積情報又は形状情報を特徴量とすることで、簡易な方法で初期輪郭設定フレームを自動選択できる。そのフレームから輪郭の自動抽出及び前後フレームへの自動トラッキングを行うことにより、全自動のオブジェクト抽出が可能となる。
【図面の簡単な説明】
【図1】 本発明の第1実施例の概略構成ブロック図である。
【図2】 図1に示す実施例の動作フローチャートである。
【図3】 図2の自動初期輪郭設定(S2)の詳細なフローチャートである。
【図4】 自動初期輪郭設定の対象フレーム例である。
【図5】 図4に示すフレームの次のフレームである。
【図6】 自動初期輪郭設定の処理途中を示す模式図である。
【図7】 最初のブロック分割に対するオブジェクトのブロックと境界ブロックを示す。
【図8】 図7に示す例での境界ブロックを再度ブロック分割し分類した後のオブジェクトのブロックと境界ブロックを示す。
【図9】 自動初期輪郭設定の処理途中を示す模式図である。
【図10】 初期輪郭設定フレームからエンドフレームまでのトラッキング(S6)の詳細なフローチャートである。
【図11】 初期輪郭設定フレームからスタートフレームまでのトラッキング(S8)の詳細なフローチャートである。
【図12】 図38に示すような画像データに対して図1に示す実施例により得られたマスクデータ例である。
【図13】 図1に示す実施例の第2の動作フローチャートである。
【図14】 図1に示す実施例の第3の動作フローチャートである。
【図15】 図1に示す実施例の第4の動作フローチャートである。
【図16】 本発明の第2実施例の概略構成ブロック図である。
【図17】 図16に示す実施例の動作フローチャートである。
【図18】 初期輪郭設定フレームの自動選択(S71)の詳細なフローチャートである。
【図19】 初期輪郭設定フレームからエンドフレームまでのトラッキング(S74)の詳細なフローチャートである。
【図20】 初期輪郭設定フレームからスタートフレームまでのトラッキング(S76)の詳細なフローチャートである。
【図21】 動作シーケンス例である。
【図22】 図16に示す実施例の、より具体的な動作フローチャートである。
【図23】 ブロック分割例である。
【図24】 図23に示す分割ブロックに対して検出された動き量の分布図である。
【図25】 S113,S114の処理の詳細なフローチャートである。
【図26】 背景ブロック、オブジェクトブロック及び境界ブロックのブロック分類例である。
【図27】 背景ブロック及びオブジェクトブロックのブロック分類例である。
【図28】 マスクデータ例である。
【図29】 背景ブロック数とオブジェクトブロック数の比率を特徴量とする場合の、S113及びS114の部分に対応する動作フローチャートである。
【図30】 ブロックの面積を特徴量とする動作フローチャートである。
【図31】 S144の詳細なフローチャートである。
【図32】 図26に示す境界ブロックをブロック分割し、再分類した結果である。
【図33】 図27に示すブロック分割における境界ブロックの再分割結果である。
【図34】 再分割を2段階行った場合の分割結果である。
【図35】 オブジェクトの形状方法を特徴量とする動作フローチャートである。
【図36】 S164の詳細なフローチャートである。
【図37】 輪郭の収束過程例である。
【図38】 動画シーケンスにおける各フレームのオブジェクトの動きを説明する模式図である。
【符号の説明】
10:画像入力装置
12:メモリ
14:動き検出装置
16:ブロック分類装置
18:輪郭設定装置
20:輪郭収束装置
22:輪郭表示装置
24:画像選択装置
30:画像入力装置
32:メモリ
34:動き検出装置
36:ブロック分類装置
38:類似度(又は一致度)検出装置
40:画像選択装置
42:輪郭設定装置
44:輪郭収束装置
46:輪郭表示装置
48:画像出力装置

Claims (7)

  1. 画像処理装置によって実行される画像処理方法であって、
    輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、
    画像選択手段において当該生成された各フレームの初期輪郭の中から特定のフレームの初期輪郭を選択するステップと、
    輪郭収束手段において当該選択されたフレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、
    当該輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップ
    とを有し、
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする画像処理方法。
  2. 画像処理装置によって実行される画像処理方法であって、
    輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、
    輪郭収束手段において当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、
    画像選択手段において当該収束された各フレームの輪郭の中から特定のフレームを選択するステップと、
    当該選択されたフレームの輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップ
    とを有し、
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする画像処理方法。
  3. 画像処理装置によって実行される画像処理方法であって、
    輪郭設定手段において複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成するステップと、
    輪郭収束手段において当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させるステップと、
    当該各フレームの輪郭収束の結果に基づいて、当該輪郭設定手段において他のフレームに対して当該抽出対象の初期輪郭を設定し、その設定された初期輪郭に基づいて、当該輪郭収束手段において当該抽出対象の輪郭に収束させるステップと、
    画像選択手段において当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択するステップ
    とを有し、
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できることを特徴とする画像処理方法。
  4. 請求項1〜のいずれか1項に記載された画像処理方法を実行するためのプログラムソフトウエアが記憶されていることを特徴とする記憶媒体。
  5. 複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、
    当該生成された各フレームの初期輪郭の中から特定のフレームの初期輪郭を選択する選択手段と、
    当該初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段
    とを有し、
    当該初期輪郭生成手段は、当該輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できる
    ことを特徴とする画像処理装置。
  6. 複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、
    当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段と、
    当該収束された各フレームの輪郭の中から特定のフレームを選択する選択手段
    とを有し、
    当該初期輪郭生成手段は、当該選択されたフレームの輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できる
    ことを特徴とする画像処理装置。
  7. 複数フレームにより構成される動画像データの各フレームに対して初期輪郭を生成する初期輪郭生成手段と、
    当該各フレームの初期輪郭を当該抽出対象の輪郭に収束させる輪郭収束手段と、
    当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択する選択手段
    とを有し、
    当該初期輪郭生成手段は、当該各フレームの輪郭収束の結果に基づいて他のフレームに対して当該抽出対象の初期輪郭を設定し、当該輪郭収束手段は当該輪郭収束手段により当該設定された初期輪郭を当該抽出対象の輪郭に収束させ、前記選択手段は当該各フレームの輪郭収束の結果に基づいた当該他のフレームの収束結果の中から特定の結果を選択し、
    当該他のフレーム当該選択したフレームよりも時間的に前及び後のフレームを設定できる
    ことを特徴とする画像処理装置。
JP2000245560A 2000-08-14 2000-08-14 画像処理方法及び装置並びに記憶媒体 Expired - Fee Related JP4564634B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000245560A JP4564634B2 (ja) 2000-08-14 2000-08-14 画像処理方法及び装置並びに記憶媒体
US09/928,333 US6810079B2 (en) 2000-08-14 2001-08-14 Image processing apparatus, image processing method, and computer-readable storage medium storing thereon program for executing image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000245560A JP4564634B2 (ja) 2000-08-14 2000-08-14 画像処理方法及び装置並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2002056393A JP2002056393A (ja) 2002-02-20
JP2002056393A5 JP2002056393A5 (ja) 2007-09-20
JP4564634B2 true JP4564634B2 (ja) 2010-10-20

Family

ID=18736059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000245560A Expired - Fee Related JP4564634B2 (ja) 2000-08-14 2000-08-14 画像処理方法及び装置並びに記憶媒体

Country Status (2)

Country Link
US (1) US6810079B2 (ja)
JP (1) JP4564634B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4407985B2 (ja) * 1999-09-02 2010-02-03 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
JP3241028B2 (ja) * 1999-12-22 2001-12-25 日本電気株式会社 画像撮像装置及びその画像撮像方法
JP4392548B2 (ja) * 2002-05-30 2010-01-06 富士フイルム株式会社 動画画像プリント装置、方法及びプログラム
JP4244593B2 (ja) * 2002-08-13 2009-03-25 ソニー株式会社 オブジェクト抽出装置、オブジェクト抽出方法および画像表示装置
JP3947973B2 (ja) 2003-02-14 2007-07-25 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP2005339288A (ja) * 2004-05-27 2005-12-08 Toshiba Corp 画像処理装置及びその方法
JP2008506201A (ja) * 2004-07-09 2008-02-28 本田技研工業株式会社 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション
KR100604223B1 (ko) 2004-10-22 2006-07-28 호서대학교 산학협력단 움직임 객체를 추출하는 방법 및 그 시스템
JP2007133685A (ja) * 2005-11-10 2007-05-31 Toshiba Corp 移動体輪郭抽出装置および方法
WO2007063819A1 (ja) * 2005-11-29 2007-06-07 Pioneer Corporation 記録装置、再生装置、記録方法、記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP5087963B2 (ja) * 2007-03-20 2012-12-05 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法および再生情報生成プログラム
EP2141926A4 (en) * 2007-04-27 2010-08-11 Honda Motor Co Ltd VEHICLE PERIPHERAL MONITORING DEVICE, VEHICLE PERIPHERAL MONITORING PROGRAM, AND VEHICLE PERIPHERAL MONITORING METHOD
JP5083841B2 (ja) * 2007-04-27 2012-11-28 本田技研工業株式会社 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP4756660B2 (ja) * 2008-03-14 2011-08-24 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
TWI386030B (zh) * 2008-06-11 2013-02-11 Vatics Inc 一種混合式連結元件標籤演算法
JP2011040993A (ja) * 2009-08-11 2011-02-24 Nikon Corp 被写体追尾プログラム、およびカメラ
US8582906B2 (en) * 2010-03-03 2013-11-12 Aod Technology Marketing, Llc Image data compression and decompression
WO2011122200A1 (ja) 2010-03-29 2011-10-06 ソニー株式会社 データ処理装置およびデータ処理方法、画像処理装置および方法、並びに、プログラム
KR101710624B1 (ko) 2010-07-27 2017-02-27 삼성전자주식회사 객체의 모션 벡터를 이용하여 자동 촬영 기능을 수행하는 디지털 영상 촬영 방법, 디지털 영상 촬영 장치 및 상기 방법을 기록한 기록 매체
US9256802B2 (en) * 2010-11-26 2016-02-09 Nec Corporation Object or shape information representation method
US9451253B2 (en) * 2012-04-24 2016-09-20 Lyrical Labs Video Compression Technology, LLC Macroblock partitioning and motion estimation using object analysis for video compression
JP6429466B2 (ja) * 2013-11-19 2018-11-28 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9792491B1 (en) * 2014-03-19 2017-10-17 Amazon Technologies, Inc. Approaches for object tracking
US20220207282A1 (en) * 2020-12-28 2022-06-30 Fortinet, Inc. Extracting regions of interest for object detection acceleration in surveillance systems

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512443A (ja) * 1991-07-05 1993-01-22 Nippon Telegr & Teleph Corp <Ntt> 動物体の輪郭追跡方法
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
JPH08206117A (ja) * 1994-05-27 1996-08-13 Fujitsu Ltd 超音波診断装置
JPH11213156A (ja) * 1998-01-29 1999-08-06 Canon Inc 画像処理装置および方法、記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560281B1 (en) * 1998-02-24 2003-05-06 Xerox Corporation Method and apparatus for generating a condensed version of a video sequence including desired affordances
US6546117B1 (en) * 1999-06-10 2003-04-08 University Of Washington Video object segmentation using active contour modelling with global relaxation
JP4392886B2 (ja) * 1999-01-22 2010-01-06 キヤノン株式会社 画像抽出方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512443A (ja) * 1991-07-05 1993-01-22 Nippon Telegr & Teleph Corp <Ntt> 動物体の輪郭追跡方法
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
JPH08206117A (ja) * 1994-05-27 1996-08-13 Fujitsu Ltd 超音波診断装置
JPH11213156A (ja) * 1998-01-29 1999-08-06 Canon Inc 画像処理装置および方法、記録媒体

Also Published As

Publication number Publication date
JP2002056393A (ja) 2002-02-20
US6810079B2 (en) 2004-10-26
US20020080425A1 (en) 2002-06-27

Similar Documents

Publication Publication Date Title
JP4564634B2 (ja) 画像処理方法及び装置並びに記憶媒体
US6975755B1 (en) Image processing method and apparatus
Bai et al. Video snapcut: robust video object cutout using localized classifiers
JP4234381B2 (ja) 顔の特徴を位置確認するための方法及びコンピュータープログラム製品
JP6631179B2 (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
Wang et al. Integrating color and shape-texture features for adaptive real-time object tracking
Rother et al. " GrabCut" interactive foreground extraction using iterated graph cuts
US20070147700A1 (en) Method and apparatus for editing images using contour-extracting algorithm
US20120321134A1 (en) Face tracking method and device
Lee et al. Visual tracking by partition-based histogram backprojection and maximum support criteria
US8929599B2 (en) Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
CN101290681B (zh) 视频目标跟踪方法、装置及自动视频跟踪系统
JP2000215319A (ja) 画像抽出方法及び装置並びに記憶媒体
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
JP2006318474A (ja) 画像シーケンス内のオブジェクトを追跡するための方法及び装置
JP4407985B2 (ja) 画像処理方法及び装置並びに記憶媒体
Lu et al. Coherent parametric contours for interactive video object segmentation
KR20170015299A (ko) 배경 추적을 통한 오브젝트 추적 및 분할을 위한 방법 및 장치
Koh et al. CDTS: Collaborative detection, tracking, and segmentation for online multiple object segmentation in videos
Chung et al. Video object extraction via MRF-based contour tracking
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
Vezhnevets et al. Automatic extraction of frontal facial features
Marques et al. Human face segmentation and tracking using connected operators and partition projection
JPH11110542A (ja) パターン抽出方法および装置、そのプログラムを記録した媒体
Destrempes et al. Localization of shapes using statistical models and stochastic optimization

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees