JPH08335268A - 領域抽出方法 - Google Patents

領域抽出方法

Info

Publication number
JPH08335268A
JPH08335268A JP7164792A JP16479295A JPH08335268A JP H08335268 A JPH08335268 A JP H08335268A JP 7164792 A JP7164792 A JP 7164792A JP 16479295 A JP16479295 A JP 16479295A JP H08335268 A JPH08335268 A JP H08335268A
Authority
JP
Japan
Prior art keywords
contour
current frame
gradient
estimated
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7164792A
Other languages
English (en)
Other versions
JP3716455B2 (ja
Inventor
Tomoo Mitsunaga
知生 光永
Migaku Yokoyama
琢 横山
Takushi Totsuka
卓志 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP16479295A priority Critical patent/JP3716455B2/ja
Publication of JPH08335268A publication Critical patent/JPH08335268A/ja
Application granted granted Critical
Publication of JP3716455B2 publication Critical patent/JP3716455B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【構成】 時間的な前後関係を有する前、現フレームの
画像It 、It-1 、及び対象物輪郭Bt-1 が動きベクト
ル推定処理部11に送られ、前−現フレーム間で輪郭の
動きベクトルを推定することによって、現フレーム上で
輪郭の推定位置である推定輪郭Be を求める。この推定
輪郭Be は、輪郭候補領域決定処理部12に送られ、推
定輪郭Be の周囲の画素を含む輪郭が存在する可能性の
ある領域である輪郭候補領域を現フレーム上で決定す
る。グラディエント計算処理部13では、この決定され
た輪郭候補領域において濃度値のグラディエントベクト
ル場を求め、曲線生成処理部14により、グラディエン
トベクトル場中のベクトルの大きさが大きいところを通
過するように閉曲線を生成し、その軌跡を現フレームに
おける対象物輪郭とする。 【効果】 対象物の輪郭の追従性がよく、処理後の修正
も容易である。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像処理のための例え
ば動画像中の物体領域を抽出する領域抽出方法に関し、
特に、画像合成を行うときに必要な対象物の領域を指定
するマスク画像を作成する作業に利用できる領域抽出方
法に関する。
【0002】
【従来の技術】物体領域抽出処理技術として、動画像の
なかから、対象物の領域を抽出しようとする従来技術と
しては以下のようなものがある。
【0003】先ず、動的輪郭モデルを用いるものとし
て、文献「スネイクス:動的輪郭モデル」、“SNAKES :
Active Contour models”Kass M., Witikin A., Terzo
poulos D., Proc.1st ICCV, pp.259-268, 1987 に記載
される、スネイクス(snakes)と呼ばれる動的輪郭モデ
ルは、画像中の輪郭に収束するように移動するコントロ
ールポイントを、拘束条件によって鎖状に連結したもの
である。
【0004】この動的輪郭モデルをフレーム間の輪郭追
跡に応用したものに、以下の文献がある。 文献(a) 「領域分割に基づく複雑物体の自動切り出し」
栄藤稔,白井良明, NICOGRAPH'92論文集, pp.8-17, 199
2、対応特許文献:特開平5−61977号公報「領域
抽出装置」 文献(b) 「弾性輪郭モデルとエネルギー最小化原理によ
る輪郭追跡手法」上田修功、間瀬健二、末永康仁, 信学
誌, Vol.J-75-D-II, No.1,pp.111-120,1992 、対応特許
文献:特開平5−12433号公報「動物体の輪郭追跡
方法」 これらの文献に記載された技術は、前フレームの輪郭位
置を初期値として、現フレームにおいて動的輪郭モデル
を収束させ対象物輪郭を得ようとするものである。一般
に、この手法は以下の特徴をもつ。
【0005】動的輪郭モデルは、複数のコントロールポ
イントをスプライン曲線などを用いて連結したもので、
常に滑らかな輪郭が得られる。動的輪郭モデルの収束は
コントロールポイントを少しずつ動かしながら、モデル
のもつ評価関数の更新を行うという反復処理を行う。
【0006】次に、動きベクトル推定を行うものとし
て、前−現フレーム間での輪郭の動きベクトルを推定す
ることによって、現フレームの輪郭位置を決める方法
が、次の文献により提案されている。
【0007】文献(c) 「映像のための動ベクトル検出法
に関する一検討」八木伸行、田中勝行、榎並和雅、テレ
ビジョン学会誌、Vol.45, No.10,pp.1221-1229, 1991 文献(d) 特開平4−117079号公報「画像処理シス
テム」 これらの文献に記載される技術は、前-現フレーム間に
おいてブロックマッチングを行うことによって動きベク
トルを求めるものである。ブロックマッチングとは、前
画像中の注目する画素を含むブロックに、もっとも類似
したブロックを現画像中から探査する方法である。一般
に、ブロックマッチングを用いる方法は、前−現フレー
ム間で物体の動きの方向を調べるので、以前の動きとは
異なった場合においても追随性がよい、という特徴があ
る。
【0008】また、文献(e) 「動画像合成のための対象
物の抽出とはめ込み法」井上誠喜、小山広毅、テレビジ
ョン学会誌, Vol.47, No.7, pp.999-1005, 1993, に記
載される技術は、前−現フレーム間で直接動きベクトル
を求めずに、前フレームまでの、輪郭の動きをもとにし
た予測ベクトルを用いる。この文献(e) によれば、本来
インターレース画像のフィールド単位の処理であるが、
本明細書中では、原理説明の目的上、フレーム単位とし
て説明する。ブロックマッチング法より大まかな予測に
なってしまうので、輪郭の軌跡だけの追跡は行わず、輪
郭が存在する可能性がある、ある太さをもった領域の動
き予測を行い、その領域中ではエッジ検出等で詳細に輪
郭抽出を行うという手法をとる。
【0009】
【発明が解決しようとする課題】ところで、上述した従
来の物体領域抽出処理技術には、以下に挙げるような、
フレーム間追跡の問題や、輪郭軌跡の生成の問題があっ
た。
【0010】先ず、フレーム間追跡の問題として、上記
文献(a),(b) の従来技術で用いられている動的輪郭モデ
ル(いわゆるsnakes)の収束は、初期値により大きく左
右される。例えば、物体位置が大きく変化した場合には
収束が悪く、しばしば誤った局所解に陥る危険がある。
上記動的輪郭モデルに弾性的な拘束条件を加えることに
よって、物体位置の大きな変化に追随できるような改良
も上記文献(b) に提案されているが、そのかわり、輪郭
形状の変形に対する柔軟性が失われるという問題があ
る。
【0011】上記文献(e) の従来技術のような前フレー
ムまでの輪郭の動きから予測ベクトルを求める追跡方法
では、現フレームにおいて動きの方向が急激に変化した
場合に対応できないという問題がある。
【0012】一方、上記文献(c),(d) に示す従来技術で
用いられているブロックマッチングは前−現フレームの
動きを直接調べるので、動きの変化には強い。しかし、
ブロックマッチングの方法自体に、輪郭領域ではエラー
が多いという欠点があり、従来からのブロックマッチン
グをそのまま用いるだけでは十分な正確さがえられなか
った。
【0013】次に、輪郭軌跡の生成の問題について述べ
る。動きベクトル推定を行う方法では、動きベクトルが
得られたあとに、現フレーム上の輪郭を軌跡として得る
処理方法が軌跡の詳細さと精度を決める。上記文献(c),
(d) に示す従来技術では、動きベクトル、または動きベ
クトルに基づいて得られた変形パラメータに従って、対
象物領域を移動・変形させる。この方法は、大局的な変
形にのみ対応し、微細な変形、特に輪郭形状においては
対応できない。
【0014】上記文献(e) の従来技術では、動きベクト
ルによる追跡の後、輪郭領域におけるエッジ検出を行
い、詳細に輪郭位置を決定する。輪郭の軌跡は画素点の
並びとして得られるため、処理後の修正が行いにくいと
いう欠点がある。また、この従来技術によるエッジ検出
方法では注目する対象物の輪郭と、それ以外の画像濃度
勾配が選択できないために、画像によっては輪郭を正確
に抽出できない問題があった。
【0015】上記動的輪郭モデル(いわゆるsnakes)を
用いる従来技術は、輪郭を追跡した結果がそのまま輪郭
曲線として得られる。輪郭モデルをパラメトリックな曲
線で記述するので、処理後の修正は容易である。誤って
検出された箇所を局所的になおすばかりでなく、画像を
拡大・縮小したときにマスク画像もあわせて拡大・縮小
したりする必要があるなど、修正の容易さは領域抽出と
画像合成においては重要な用件である。
【0016】本発明は、このような実情に鑑みてなされ
たものであり、上記従来の領域抽出方法の問題点を解決
し、フレーム間の輪郭の追従性能を向上し、輪郭の修正
を容易化し、輪郭形状の正確さを向上し、良好な領域抽
出結果を得ることができるような領域抽出方法の提供を
目的とする。
【0017】
【課題を解決するための手段】本発明に係る領域抽出方
法は、上記の課題を解決するために、入力動画像の前フ
レームでの対象物輪郭の軌跡が与えられたときに、前−
現フレーム間で輪郭の動きベクトルを推定することによ
って、現フレーム上で輪郭の推定位置である推定輪郭を
求め、この推定輪郭の周囲の画素を含む輪郭が存在する
可能性のある領域である輪郭候補領域を現フレーム上で
決定し、この輪郭候補領域において濃度値のグラディエ
ントベクトル場を求め、このグラディエントベクトル場
中のベクトルの大きさが大きいところを通過するように
閉曲線を生成し、その軌跡を現フレームにおける対象物
輪郭としている。
【0018】ここで、上記動きベクトルを推定する工程
では、与えられた上記対象物輪郭の軌跡上の特徴点を抽
出し、抽出した特徴点の動きベクトルを推定するに際し
て、比較する2ブロック間の誤差評価に対象物領域画素
の残差に重みづけするような誤差評価関数を用いた階層
的ブロックマッチングを用いて計算し、その各階層の結
果の動きベクトルに対して平滑化処理を行うことが挙げ
られる。
【0019】また、上記輪郭候補領域を決定する工程で
は、前フレームの輪郭上のブロックと、それに対応する
現フレームの推定輪郭上のブロックとの間の平均2乗誤
差を対象物色と背景色との差で規格化した値を求め、そ
の値を用いて、現フレームの推定輪郭の周囲に形成する
輪郭候補領域の太さを調節することが挙げられる。
【0020】上記グラディエントを計算する工程では、
現フレームの推定輪郭に対し特徴点抽出を行い、現フレ
ームの推定輪郭上の特徴点位置に従って輪郭候補領域を
小領域に分割し、その小領域ごとに現フレームにおける
輪郭の方向を推定し、その方向の勾配にのみ反応するよ
うなエッジ検出を行うことによって、輪郭候補領域のグ
ラディエントベクトル場を得ることが挙げられる。ある
いは、現フレームの推定輪郭に対し特徴点抽出を行い、
現フレームの推定輪郭上の特徴点位置に従って輪郭候補
領域を小領域に分割し、その小領域ごとに現フレームに
おける輪郭の色変化を推定し、その色変化の勾配にのみ
反応するようなエッジ検出を行うことによって、輪郭候
補領域のグラディエントベクトル場を得ることが挙げら
れる。
【0021】さらに、上記曲線の生成工程では、現フレ
ームの輪郭領域のグラディエントベクトル場に対して、
現フレームの推定輪郭に対し特徴点抽出を行い、現フレ
ームの推定輪郭上の特徴点位置に従って輪郭候補領域を
小領域に分割し、その小領域ごとに輪郭が通過する点を
抽出し、グラディエントベクトル場ベクトルの大きさが
大きいところを通過するように生成した3次スプライン
曲線で前記通過点を連結することが挙げられる。
【0022】
【作用】前フレームでの対象物輪郭の動きベクトルを推
定し、現フレームで輪郭が存在する可能性がある領域を
判定し、その領域内の濃度勾配が急峻なところを通過す
る3次スプライン閉曲線を得、それを現フレームの対象
物輪郭とする処理を順次フレームで行うことによって、
動画像の各フレームにおいて対象物を抽出することがで
きる。
【0023】
【実施例】本発明に係る領域抽出方法は、前フレームで
の対象物輪郭の軌跡が与えられたときに、前−現フレー
ム間で輪郭の動きベクトルを推定することによって、現
フレーム上で輪郭の推定位置、すなわち推定輪郭を求
め、推定輪郭の周囲の画素を含む輪郭が存在する可能性
のある領域、すなわち輪郭候補領域を現フレーム上で決
定し、輪郭候補領域において濃度値のグラディエントベ
クトル場を求め、そのグラディエントベクトル場中のベ
クトルの大きさが大きいところを通過するように閉曲線
を生成し、その軌跡を現フレームにおける対象物輪郭と
する処理を行う。これによって、前−現フレーム間で輪
郭が大きく移動した時や、その動きの方向が急激に変化
した場合にも追従できる。また、各フレームの輪郭はパ
ラメトリックな曲線で記述されるので、処理後の修正を
容易にすることが出来る。
【0024】以下、本発明に係る好ましい実施例につい
て、全体の構成、各部の詳細、効果の順に説明する。
【0025】図1は、本発明の一実施例としての動画像
内の物体の領域抽出方法の処理の全体を示す図である。
本実施例は、対象物を含む連続した画像Iから対象物輪
郭Bを各フレームにおいてパラメトリックに表現された
閉曲線として獲得するものである。
【0026】このような物体領域抽出処理を行うための
画像処理装置の概略構成の一例を図2に示す。
【0027】この図2において、画像処理装置は、本実
施例の物体領域抽出に必要なあらゆる演算を行うための
CPU(中央演算処理装置)21と、画像I、輪郭Bあ
るいは処理中間結果等を保持するための外部記憶手段2
2と、画像を作成したり、軌跡を入力するためのマウ
ス、タブレットペンなどの入力手段23と、画像を表示
するためのディスプレイなどの表示手段24とを有して
いる。これらのCPU21、外部記憶手段22、入力手
段23、表示手段24間でのデータの送受は、バスライ
ン25を介して行われる。
【0028】再び図1に戻って、この図1は、上記図2
の画像処理装置の主としてCPU21により実行される
物体領域抽出処理の、1フレームの処理を示している。
本実施例は、各フレームにおいて、前フレーム画像I
t-1 、現フレーム画像It 、前フレームにおいて既に獲
得された対象物輪郭Bt-1 を入力とし、現フレームの対
象物輪郭Bt を出力とする。まず第1に、動きベクトル
推定処理部11において、現フレームにおける対象物輪
郭の位置を、前−現フレーム間での前フレーム対象物輪
郭Bt-1 の動きベクトル推定により得、これを推定輪郭
e とする処理を行う。第2に、輪郭候補領域決定処理
部12により、上記推定輪郭Be の周囲に、対象物輪郭
が存在する可能性がある範囲を判定し、輪郭候補領域A
とする処理を行う。第3に、グラディエント計算処理部
13により、上記輪郭候補領域Aにおいて、対象物輪郭
の正確な位置を知るために、グラディエントベクトル場
Gを求める処理を行う。第4に、曲線生成処理部14に
より、対象物輪郭位置を正確に通過するよう、グラディ
エントベクトル場Gのベクトルの大きさが大きいところ
を通過するような閉曲線を求める処理を行う。求めた閉
曲線を現フレームの対象物輪郭Bt とする。得られた対
象物輪郭Bt は、遅延処理部15を介して、次回の処理
において前フレームの対象物輪郭Bt-1 として用いら
れ、以後同様に処理を進める。
【0029】なお、第1フレームに関しては本実施例と
は別の方法で対象物輪郭を与える必要がある。その方法
としては、画像をディスプレイ等に表示し、適当なグラ
フィックユーザインターフェイス(GUI)によって輪
郭上の点をマニュアルで指定することによって、スプラ
イン曲線を発生させる曲線エディタの技術が既に公知と
なっているので利用可能である。
【0030】また、本発明の実施例の最終的な目的とし
て、対象物領域であることを輝度の濃淡で示すマスク画
像を各フレームで得ることがある。そのマスク画像は、
対象物輪郭が閉曲線で得られれば、その内外判定、画素
の塗りつぶしアルゴリズム等公知の技術を用いることに
より生成することができるので、本実施例からマスク画
像Im が得られるものとして説明する。したがって、以
後の処理の説明において、対象物領域の画素であるかど
うかの判別は、対象物輪郭あるいは推定輪郭が得られれ
ば判定できるものする。なお、内外判定、塗りつぶしア
ルゴリズムに関する文献としては、「コンピュータディ
スプレイによる図形処理工学」山口富士夫、日刊工業新
聞社,1981 や、「コンピュータグラフィックス原理と実
習、第2版」“Computer Graphics Principles and pra
ctice 2nd ed.”Foley, vanDam,Feiner, Hughes, ADDIS
ON-WESLWEY PUBLISHING,1990 等がある。
【0031】ここで、データ形式等について説明する。
以降の説明において、各データは以下の形式をもつもの
である。
【0032】先ず、「曲線」とは、対象物輪郭、推定輪
郭等は連続した3次スプラインセグメントによる閉曲線
とする。1つの3次スプラインセグメントは4つのコン
トロールポイントによって記述され、その複数のセット
で曲線を記述する連続したスプラインセグメントとは、
1つ前のp3と次のp0が共通なセグメントの並びである。
また、閉曲線は最終のセグメントのp3と最初のセグメン
トのp0が共通な曲線である。すなわち、セグメント数を
Kとすると、 (p00,p01,p02,p03),(p10,p11,p12,p13),(p20,p21,p22,p23),... ...,(pK-10,pK-11,pK-12,pK-13) pi+10 = pi3 pK-13 = p00 次に、「特徴点」について説明すると、本実施例におい
て、輪郭上の特徴点は輪郭上の位置と画像上の位置の2
つの位置情報をもつデータである。輪郭上の位置とは、
輪郭の始点p00 からの軌跡にそった長さである。
【0033】次に、「輪郭候補領域」について説明す
る。本実施例において、輪郭候補領域Aは該当する画素
位置Aolのリストである。 A={Ao0,Ao1,...} または、輪郭候補領域Aはさらに分割した小領域Ak
リストである。 A={A0,A1,...} 小領域Ak は推定輪郭に沿った順に並んでいる。小領域
k は該当する画素位置Aklのリストである。 A={Ak0,Ak1,...} 次に、その他の表記については、説明のため、以下のよ
うに表記する。 画像Iの位置(i,j)の画素値:I[i,j] 画像Iの輪郭候補領域画素位置Aklの画素値:I
[Akl] ブロック、グラディエントベクトル場の要素も同様に表
記する。
【0034】次に、各部の詳細について説明する。先
ず、図1の動きベクトル推定処理部11について説明す
る。
【0035】現フレームにおける対象物輪郭の位置を、
前−現フレーム間での前フレーム対象物輪郭Bt-1 の動
きベクトル推定により得、これを推定輪郭Be とする処
理を行う。本発明の実施例では、輪郭領域での動きベク
トル推定の精度を向上させるために、次のような動きベ
クトル推定方法を採用している。
【0036】先ず、動きベクトル推定方法の第1の具体
例としては、画像小領域の動きベクトル推定手段である
ブロックマッチングにおいて、従来は、比較する第1の
画像I1 中のブロックと、第2の画像I2 中のブロック
の画素ごとの誤差の平均を誤差評価としていたものを、
図3に示すように、第1の画像I1 中画素の重要度を示
す第3の画像I3 を与え、第3の画像による重みつき誤
差評価で行う技術を挙げることができる。
【0037】すなわち、図3において、マッチング演算
処理部31は、動きベクトルを求めようとする対象物を
含む第1、第2の画像I1,I2 と、第1の画像I1 の対
象物領域を濃淡値で示す第3の画像I3 と、第1の画像
1 の対象物の輪郭部に適当個配置されたテンプレート
と、第2の画像I2 にテンプレートと対応して配置され
た探査範囲とを入力とし、テンプレートともっとも一致
する第2の画像I2 上のマッチング位置を出力とする。
また動きベクトル演算処理部32は、テンプレートの位
置と、マッチング演算処理部31からのマッチング位置
とを入力とし、テンプレートの動きベクトルを出力とす
る。
【0038】これによって、従来ブロックマッチングで
は物体境界領域で、ブロックが複数の物体を含み、動き
ベクトルが一意に決定できないという問題を解決するも
のである。
【0039】次に動きベクトル推定方法の第2の具体例
について説明する。これは、画像小領域の動きベクトル
推定手段であるブロックマッチング処理において、従来
のブロックマッチングでは、輪郭上の動きベクトルは本
来輪郭に沿って滑らかに連続するべきであるのに、一般
に、輪郭に沿って一様な画像パターンとなりやすいとい
う原因によって、動きベクトルを誤りやすかった問題
を、図4に示すように、与えられた輪郭上の動きベクト
ルの推定を階層的探査で行い、各階層間でベクトル場の
平滑化処理による動きベクトルの修正を行うことによ
り、滑らかに連続する動きベクトルを得ることを実現す
る技術である。
【0040】すなわち、図4において、動きベクトルを
求めようとする対象物を含む第1、第2の画像I1,I2
は、階層化処理部41、42によりそれぞれ階層化され
る。この階層化処理は、原画像を最下層として、例えば
2×2の画像の平均を1つ上の層の画素としていくこと
によって、階層画像をつくることができる。階層化され
た各層の画像は、ブロックマッチング処理部43、4
4、45、・・・、46により、最上層の画像から、1
つ上の階層の結果を用いて順にブロックマッチングを行
っていく。
【0041】この図4の構成は、さらにブロックリスト
生成処理部47および平滑化処理部48、49、・・・
を有している。ブロックリスト生成処理部47は、入力
された対象物輪郭情報から、追跡する輪郭上にブロック
を配置する。また、平滑化処理部48、49、・・・
は、動きベクトル場の平滑化を行う。
【0042】次に動きベクトル推定方法の第3の具体例
を、図5を参照しながら説明する。これは、画像小領域
の動きベクトル推定手段であるブロックマッチングによ
って対象物輪郭を追跡する技術において、従来では、輪
郭上のあらゆる点で動きベクトル推定を行うと処理量が
膨大であり、また輪郭上の点は必ずしも動きベクトル推
定が正確に得られない、という問題を、図5に示すよう
に、輪郭上の特徴点を抽出する手段を備え、その特徴点
に対して動きベクトル推定を行うことによって、少数の
動きベクトル推定でも高い信頼度をもって輪郭を追跡で
きることを実現する技術である。
【0043】この図5において、動きベクトル推定処理
部51には、動きベクトルを求めようとする対象物を含
む第1、第2の画像I1,I2 と、特徴点抽出処理部52
からのテンプレートリスト及び探査範囲リストが供給さ
れている。特徴点抽出処理部52は、与えられた対象物
輪郭情報と、上記第1の画像I1 とから、特徴点を抽出
し、探査するブロックリストを生成する。動きベクトル
推定処理部51は、生成されたブロックリストの動きベ
クトル場を推定する処理を行う。
【0044】次に、図6は、上記動きベクトル推定方法
の第1〜第3の具体例を組み合わせて成る動きベクトル
推定方法の第4の具体例を示している。すなわち、輪郭
部の動きベクトル推定処理に効果的な上記第1〜第3の
3つの技術の組み合わせ方法を与えるものである。上記
第1〜第3の技術は、それぞれ輪郭部の動きベクトル推
定の精度向上について異なる効果をあげるものである。
【0045】この図6において、階層化処理部61、6
2は上記図4の階層化処理部41、42に相当するもの
であり、前フレーム画像It-1 と前フレーム輪郭Bt-1
とから、上記図5と共に説明した動きベクトル推定方法
の第3の具体例の技術を用いて、特徴点抽出処理部64
により輪郭Bt-1 上の特徴点を抽出し、その特徴点の動
きベクトルを推定するために、各特徴点位置にブロック
を配置する。
【0046】上記図4と共に説明した動きベクトル推定
方法の第2の具体例の階層的ブロックマッチングによる
探査を行うために、前フレーム画像It-1 、現フレーム
画像It 、そして前フレーム輪郭Bt-1 から得られる前
フレームマスク画像Imt-1の階層画像を作成する。ブロ
ックマッチング処理部43、44、45、・・・、46
により、最上層から最下層まで、階層的ブロックマッチ
ングを行う。このとき、各階層のブロックマッチングの
誤差評価方法を、マスク画像Imt-1を用いて上記図3と
共に説明した動きベクトル推定方法の第1の具体例の技
術による誤差評価を行う。また、各階層間において、平
滑化処理部48、49、・・・により、上記図4と共に
説明した動きベクトル推定方法の第2の具体例の技術に
よる平滑化処理を行う。
【0047】動きベクトル推定によって、得られた特徴
点の推定移動先(以下、推定輪郭上の特徴点とよぶ)
を、補間処理部65における曲線補間処理によって各特
徴点を通過するように連結する。与えられた各特徴点を
通過するような補間曲線の生成方法は前記文献「コンピ
ュータグラフィックス原理と実習、第2版」“Computer
Graphics Principles and practice 2nd ed.”Foley, v
anDam, Feiner,Hughes,ADDISON-WESLWEY PUBLISHING,19
90に記載のCatmull-Rom spline等がある。また、各点間
を直線で連結し推定輪郭としても構わない。
【0048】本具体例は、上記動きベクトル推定方法の
第1〜第3の具体例で示した3つの技術の組み合わせる
ことにより、それぞれの効果によってさらに良い結果を
得ることを実現する。
【0049】次に、輪郭候補領域決定処理部12の具体
例について説明する。
【0050】推定輪郭Be の周囲に、対象物輪郭が存在
する可能性がある範囲を判定し、輪郭候補領域Aとする
処理を行う。そのために推定輪郭Be の真の輪郭に対す
るずれ量を見積り、そのずれ量に相当する領域の大きさ
を決める。
【0051】図7は本実施例における輪郭候補領域決定
処理のための構成の一例を示すブロック図である。この
図7を参照しながら本処理の概要を説明する。
【0052】第1に、評価点抽出処理部72は、推定輪
郭Be 上から、輪郭が比較的直線的で輪郭の両側の領域
の濃度が一定とみなせる点をずれ量を評価する点として
抽出する。第2に、対応点抽出処理部71は、前フレー
ム対象物輪郭Bt-1 上の、評価点に対応する点を抽出す
る。第3に、ずれ量評価処理部73により各評価点と対
応点間で誤差評価を行い、ずれ量を見積もる。第4に、
領域判定処理部74により各評価点近傍の領域の大きさ
をずれ量から決定し、その範囲に属する画素位置を輪郭
候補領域とする。
【0053】次に図8は、上述したような輪郭候補領域
決定処理の一例を説明するためのフローチャートであ
る。本処理は、前フレーム対象物輪郭Bt-1 、推定輪郭
Be 、上記前フレーム対象物輪郭Bt-1 上の特徴点
k 、Be 上の特徴点cek、特徴点数Kを入力とし、輪
郭候補領域Aを出力する。本処理は、以下に説明する処
理を各特徴点間で繰り返すものである。この繰り返し
は、いわゆるFORループ81により、特徴点数のK回
実行される。
【0054】以下、FORループ81内でのk番めの特
徴点間についての処理について説明する。
【0055】先ず、ステップS82では、推定輪郭Be
上の特徴点cekと、cek+1の推定輪郭上の中間点をk番
めの評価点sekとする。同様に前フレーム対象物輪郭B
t-1上の特徴点ck と、ck+1 の推定輪郭上の中間点を
k番めの対応点sk とする。また、このステップS82
では、評価点sekにブロックbek、対応点sk にブロッ
クbk をおき、次のステップS83にて、2つのブロッ
クから正規化された2乗誤差平均の平方根(root mean
square error)NRMSE を計算し、それをブロックの大き
さ(ブロックサイズ)BSで割った値をずれ量xとし、
FORループ84に移行する。NRMSE の計算方法は後述
する。
【0056】FORループ84は、ループ制御変数i,
jについて、それぞれ領域の画像サイズ(イメージサイ
ズ)ISの回数の繰り返し処理を行うものであり、この
FORループ84内のステップS85、S86、S87
により、画像中の各画素位置(i,j) について、その線分
ekek+1への距離がxより小さいならば、その画素位
置(i,j) を輪郭候補領域と判定する。
【0057】次に図9は、前記NRMSE の計算方法を示す
フローチャートである。この計算は前記ブロックbk
ekを用いて行う。この図9において、FORループ9
1は、ループ制御変数i,jについて、上記ブロックサ
イズBSの回数の繰り返し処理を行うものである。この
FORループ91内では、先ずステップS92によりブ
ロックbe 内の各画素値be[i,j]に対し、推定輪郭Be
の内側か外側かの判定を行い、分類して、ステップS9
3により画素値be[i,j]を内側画素値の集合fgdata[ ]
に登録し、S94により画素値be[i,j]を外側画素値の
集合bgdata[ ] に登録する。
【0058】次に、FORループ91の繰り返し処理が
終了した後、ステップS95により全内側画素の集合fg
data[ ] の重心値をfgとし、全外側画素の集合bgdata
[ ]の重心値をbgとする。次にブロックbe 、ブロッ
クbの2乗誤差平均の平方根(root mean square erro
r)RMSEを、次の式により計算する。
【0059】
【数1】 次に、ステップS96により、RMSEを重心の差の大きさ
で割った値をNRMSE とする。
【0060】NRMSE = RMSE/|fg-bg| 次に、上記図1のグラディエント計算処理部13の具体
例について説明する。
【0061】このグラディエント計算では、輪郭候補領
域Aにおいて、対象物輪郭の正確な位置を知るために、
グラディエントベクトル場Gを求める処理を行う。
【0062】図10は、本実施例のグラディエント計算
の処理ブロック図である。本処理は以下の手順で行われ
る。第1に、特徴点抽出処理部101において、推定輪
郭Be 上で、上記図5と共に説明した動きベクトル推定
方法の第3の具体例の技術の特徴点抽出処理を行う。第
2に、領域分割処理部102において、前記特徴点を境
界とするように、輪郭候補領域Aを小領域Ak に分割
し、エッジ特徴が各小領域内で一定になるようにする。
第3に、エッジ特徴推定処理部103において、各小領
域ごとにエッジ特徴を推定し、その特徴をもとに、エッ
ジ検出処理部104において、以下に示すような具体的
なエッジ検出方法を用いてグラディエントを求める。
【0063】このエッジ検出方法の具体例について説明
する。
【0064】先ず、エッジ検出方法の第1の具体例とし
ては、画像上の濃度勾配(グラディエント)を求める計
算方法において、従来は、画像上のあらゆる方向に均等
に注目して勾配を検出したために、注目すべき物体の輪
郭以外の濃度勾配も検出してしまっていたものを、図1
1に示すように、どの方向の濃度勾配を検出すべきかと
いう情報を与え、その情報によって検出した濃度勾配強
度を変調することによって、注目すべき方向以外の濃度
勾配を検出しないことを実現する技術である。
【0065】すなわち、この図11において、濃淡画像
に対し、グラディエント計算処理部111にてグラディ
エントを計算する。方向検出処理部1113でグラディ
エントベクトルの方向を検出し、それと検出すべき画像
空間上のベクトルによって選択度を、選択度判定処理部
114により判定する。判定されて得られた選択度に従
って、強度変調処理部112がグラディエント強度を変
調する。
【0066】次に、エッジ検出方法の第2の具体例につ
いて説明する。
【0067】このエッジ検出方法の第2の具体例は、画
像上の濃度勾配(グラディエント)を求める計算方法に
おいて、従来は、濃度空間上のあらゆる方向の濃度変化
に均等に注目して勾配を検出したために、注目すべき物
体の輪郭以外の濃度勾配も検出してしまっていたもの
を、図12に示すように、内積計算処理部121とグラ
ディエント計算処理部122とにより、どの方向の濃度
変化を検出すべきかという情報を与え、その情報から得
られる、検出すべき濃度空間上のベクトルと、各画素の
濃度空間ベクトルの内積計算から得られる濃淡画像の濃
度勾配を求めることによって、注目すべき濃度変化以外
の濃度勾配を検出しないことを実現する技術である。
【0068】以下に、図13を参照しながら、グラディ
エント計算における本実施例の特徴であるところの領域
分割処理を説明する。図13は、領域分割処理のフロー
チャートである。この図13において、いわゆるFOR
ループ131では輪郭候補領域Aの画素数Lの回数分の
繰り返し処理を、またFORループ131内のFORル
ープ132では特徴点数Kの回数分の繰り返し処理を行
っており、輪郭候補領域A内の全画素Aolについて、以
下の処理を行う。
【0069】上記FORループ132内では、ステップ
S133において、隣り合う特徴点ck 、ck+1 による
K本の線分ckk+1それぞれと画素位置Aolとの距離d
k を求める。次のステップS133、S135では、そ
の距離dk が最も小さいものをdmin とし、そのときの
kをmとしている。FORループ132の処理が終了し
た後、ステップS136でAolを領域Am に分類する。
【0070】次に、領域分割されたそれぞれの輪郭候補
小領域Ak で、エッジ検出に必要な情報を得る処理を説
明する。
【0071】図14は本実施例のエッジ検出情報を得る
処理のフローチャートである。本実施例では、エッジ検
出情報として、画像空間上の単位ベクトルvokと、濃度
空間上の単位ベクトルvckを獲得する。
【0072】この図14において、いわゆるFORルー
プ141では、輪郭候補小領域の画素数Lk の回数分の
繰り返し処理を行っている。このFORループ141内
で、ステップS142では、ブロックbe 内の各小領域
内画素Aklに対し、推定輪郭Be の内側か外側かの判定
を行い、分類して、ステップS143により上記Akl
内側画素値の集合fgdata[ ] に登録し、S144により
上記Aklを外側画素値の集合bgdata[ ] に登録する。
【0073】次に、FORループ141の繰り返し処理
が終了した後、ステップS145により全内側画素の集
合fgdata[ ] の重心値をfgとし、全外側画素の集合bg
data[ ] の重心値をbgとする。
【0074】ここで、画像空間上の単位ベクトルv
okは、検出したいグラディエントの方向を与えるための
情報である。vokは各小領域Ak において、2つ特徴点
で構成される線分ckk+1に直交する方向に定められ
る。濃度空間上の単位ベクトルvckは、検出したい濃度
変化の方向を与えるための情報である。vckは、各小領
域Ak において、全画素を推定輪郭Be の内側と外側の
画素に分類し、それぞれに重心fg、bgを求め、その
重心の差ベクトルと平行な方向にとられる(ステップS
146参照)。または、2つの重心を輝度軸に垂直な面
に投影したのち、差ベクトルを求め、それに平行な方向
にとる方法も、輝度方向のノイズ除去に有効である。
【0075】次に、図15に、上記図11、図12と共
に説明したエッジ検出方法の第1、第2の具体例の技術
を組み合わせて行う処理のブロック図を示す。組み合わ
せたグラディエント計算の手順を以下に説明する。
【0076】この図15において、グラディエントを求
める入力画像、検出すべき濃度空間上のベクトル、検出
すべき画像空間上のベクトルが入力として得られる。
【0077】第1に、内積計算処理部151にて、検出
すべき濃度空間上のベクトルと、各画素の濃度空間ベク
トルの内積計算から濃淡画像を求める。求めた濃淡画像
に対し、グラディエント計算処理部152にてグラディ
エントを計算する。方向検出処理部154でグラディエ
ントベクトルの方向を検出し、それと検出すべき画像空
間上のベクトルによって選択度を、選択度判定処理部1
55により判定する。判定されて得られた選択度に従っ
て、強度変調処理部153がグラディエント強度を変調
する。以上の処理を、各輪郭候補小領域において行う。
【0078】以上の図10〜図15と共に説明したよう
に、選択的な輪郭検出を行うことができる上記エッジ検
出技術の第1、第2の具体例(図11、図12参照)に
対し、自動的に必要な情報を与える手段を備え、かつ、
これら2つの技術を組み合わせて用いるものである。す
なわち、本発明は、輪郭候補領域において濃度値のグラ
ディエントベクトル場を求める処理において、現フレー
ムの推定輪郭に対し、上記図5と共に説明した動きベク
トル推定方法の第3の具体例の技術による特徴点抽出を
行い、現フレームの推定輪郭上の特徴点位置に従って輪
郭候補領域を小領域に分割する。この図5の技術の特徴
点抽出は、輪郭の屈曲点と、輪郭色の変化点を抽出する
ものである。一方、上記図11、図12と共に説明した
エッジ検出技術では、エッジの勾配方向と色変化方向に
注目するものである。すなわち、上記図5に示す技術で
検出される特徴点は、上記図11、図12の技術のエッ
ジの特徴の変化する点である。よって、特徴点を境に領
域分割すれば、小領域ごとに輪郭の特徴を一定にするこ
とが出来る。小領域ごとに輪郭の特徴を調べることによ
って、正確な上記図11、図12のエッジ検出が可能に
なり、対象物輪郭以外の不要なグラディエント成分を抑
えることができる。
【0079】次に、上記図1の曲線生成処理部14の具
体例について説明する。
【0080】この曲線生成処理においては、対象物候補
領域で求められたグラディエントベクトル場から、対象
物輪郭位置を3次スプライン曲線で抽出する。そのため
に、グラディエントベクトル場Gのベクトルの大きさが
大きいところを通過するような閉曲線を求める処理を行
う。求めた閉曲線を現フレームの対象物輪郭Bt とす
る。
【0081】図16は本実施例の曲線生成の処理ブロッ
ク図である。本処理は以下の手順で行われる。
【0082】すなわち、図16において、第1に、特徴
点抽出処理部161により、推定輪郭Be 上で、上記図
5と共に説明した動きベクトル推定方法の第3の具体例
の技術による特徴点抽出処理を行う。第2に、領域分割
処理部162により、上記特徴点を境界とするように、
輪郭候補領域Aを小領域Ak に分割する。具体的な領域
分割方法は、上述したグラディエント計算処理における
領域分割方法と共通である。第3に、通過点抽出処理部
163により、各小領域ごとに通過点を1点抽出する。
抽出された通過点は、小領域の順番のとおりに順序づけ
される。第4に、pi1、pi2探査処理部164により、
後述するようなスプラインコントロールポイントの探査
方法によって、各セグメントごとに残りのコントロール
ポイントを求め、対象物輪郭Bt を得る。
【0083】ここで、上記スプラインコントロールポイ
ントの探査方法について、図17を参照しながら説明す
る。
【0084】この図17は、曲線生成方法を実現するた
めのブロック図を示し、この曲線形成方法は、ベクトル
場ベクトルの大きさがなるべく大きいところを通過する
ような3次スプライン曲線形状を探査する技術である。
それによって、図17に示すように画像上の物体輪郭の
大体の位置を与える手段を備えることによって、画像の
グラディエントベクトル場の情報から曲線を探査し、物
体輪郭をパラメトリックな曲線で抽出することを実現す
る。
【0085】この図17に示す曲線生成方法は、2次元
の滑らかなベクトル場上、例えば画像の色彩を表すR、
G、B信号の各信号に基づいて形成される濃淡勾配ベク
トル場上をを通過する曲線を生成する曲線生成方法にお
いて、上記曲線上の所定数個の評価位置で、当該曲線の
接線と直交する単位ベクトルとベクトル場ベクトルとの
内積の関数で表される評価値を計算する評価値計算工程
と、上記評価値計算行程にて得られた上記評価値が最大
になるように曲線を決定する曲線決定工程とを有するも
のである。
【0086】図17において、ベクトル場は、空間例え
ば入力画像中の全ての点における各点(i,j) でのベク
トル場ベクトルV(i,j) を通過点抽出部172及びp
i1,pi2探査部174に出力される。軌跡入力部171
は、例えばペン状入力装置いわゆるタブレットペンやマ
ウス等の入力手段を備えており、軌跡Tが曲線を得たい
大まかな領域の画素点の並びとして入力されると、該軌
跡Tを通過点抽出部172に出力する。通過点入力部1
72では、上記軌跡Tから一定距離内に含まれる領域の
ベクトル場を調べて、ベクトルの大きさが所定の基準以
上である位置を通過点pとして抽出し、これら通過点p
の位置データを順序づけ部173に出力する。なお、上
記各通過点pは、後述するように、軌跡Tまでの最短距
離が所定の長さよりも小さく、かつ、ベクトル場ベクト
ルの大きさが所定の大きさよりも大きい全ての点であ
る。順序づけ部173は、後述するように、上記通過点
pを軌跡Tの進行方向に沿った順序で並べ換えて得られ
た通過点を基準点p00、p10、p20、…、pK0としてp
i1,pi2探査部174に出力する。pi1,pi2探査部1
74は、上記評価値計算工程及び曲線決定工程を行う部
分である。評価値計算工程では、上記基準点pi0、p
(i+1)0と、上記ベクトル場ベクトルV(i,j)に基づ
いて、基準点pi0、pi3より標本点pi1、pi2を抽出
し、これら基準点及び標本点より部分曲線を生成し出力
する。なお、上記部分曲線は端部が連結されると曲線を
形成する。
【0087】図17によれば、軌跡入力部171にて使
用者により空間例えば画像内で軌跡Tが入力され、通過
点抽出部172及び順序づけ部173で、生成する曲線
を構成する部分曲線を生成するための基準点p00
10、…が、上記軌跡T及び上記ベクトル場ベクトルに
基づいて抽出される。さらに、pi1,pi2探査部174
にて、上記基準点p00、p10、…と上記ベクトル場ベク
トルに基づいて、上記基準点pi0、pi3間で上記標本点
i1、pi2が取り出され、これら点により部分曲線が形
成され、部分曲線を連結して求めたい曲線が得られる。
【0088】以下に、曲線生成における本実施例の特徴
であるところの、通過点抽出処理を説明する。図18
は、通過点抽出処理のフローチャートである。
【0089】この図18において、いわゆるFORルー
プ181では輪郭候補小領域数Kの回数分の繰り返し処
理を、またFORループ181内のFORループ182
では第kの輪郭候補小領域Ak に対応する輪郭候補小領
域の画素数Lk の回数分の繰り返し処理を行っており、
全ての輪郭候補小領域Ak について、輪郭候補小領域A
k 中の各画素位置Aklのグラディエント強度G[Akl]を
調べ、それが最大となる画素位置を通過点pk0とする。
【0090】すなわち、上記FORループ182内で
は、ステップS183において、上記グラディエント強
度G[Akl]の絶対値をgとし、次のステップS184
で、この値gが現在までの最大値gmax より大きいか否
かを判別し、YesのときのみステップS185に進ん
で、今回のgをgmax とし、このときの画素位置Akl
上記通過点pk0としている。
【0091】このような曲線生成方法は、上述した図1
7に示すような、グラディエントベクトル場の大きさが
大きいところを通過する曲線を生成することができる曲
線生成方法の技術に対し、曲線探査に必要なベクトル場
上の通過点列を自動的に抽出する手段を備えるものであ
る。すなわち本発明の実施例は、輪郭候補領域内のグラ
ディエントベクトル場上に曲線を生成する処理におい
て、現フレームの推定輪郭に対し、上記図5と共に説明
した技術の特徴点抽出を行い、現フレームの推定輪郭上
の特徴点位置に従って輪郭候補領域を小領域に分割し、
その小領域ごとに輪郭が通過する点を抽出する。これに
よって、小領域の配置する順に順序づけされた通過点列
が得られ、グラディエントベクトル場ベクトルの大きさ
が大きいところを通過する曲線を、上記図17の技術に
よる3次スプライン曲線生成処理によって生成すること
ができる。上記図5の技術の特徴点抽出は、輪郭の屈曲
点を抽出するものである。一方、上記図17の技術の曲
線生成は、通過点ごとに3次スプライン曲線が生成され
る。したがって、特徴点ごとに対応する3次スプライン
セグメントが生成できれば、輪郭上の目立った形状を再
現できることが保証される。また、屈曲箇所とスプライ
ンセグメントが1対1で対応するので、形状の複雑さに
よって、セグメント数が必要以上に多過ぎたり、足りな
かったりすることがない。
【0092】以上説明したような本実施例の領域抽出方
法の効果について、図19を参照しながら説明する。
【0093】この図19は、ある動画像に対し本実施例
を適用した結果を明瞭化するために簡略化して図示した
ものである。
【0094】図19の(a)〜(d)は、動画像の連続
した4フレーム分を、主要な物体の輪郭を線画にして図
示したものである。図9の(e)〜(h)は、本実施例
を適用することにより抽出された対象物のマスクあるい
はシルエット画像である。この例では、画像中央の物体
objを対象物としている。
【0095】この図19の(a)〜(d)に示されるよ
うに、対象物objの輪郭はそれ以外の複数の物体と接
しているので、輪郭のもつ特徴は単純ではない。このよ
うな任意の前景、背景の組み合わせをもつ輪郭であって
も、本実施例では領域抽出を行わせることができる。こ
の結果が示すように、本実施例は動画像の対象物領域を
自動的に抽出することを実現する技術である。
【0096】
【発明の効果】本発明に係る領域抽出方法によれば、入
力動画像の前フレームでの対象物輪郭の軌跡が与えられ
たときに、前−現フレーム間で輪郭の動きベクトルを推
定することによって、現フレーム上で輪郭の推定位置で
ある推定輪郭を求め、この推定輪郭の周囲の画素を含む
輪郭が存在する可能性のある領域である輪郭候補領域を
現フレーム上で決定し、この輪郭候補領域において濃度
値のグラディエントベクトル場を求め、このグラディエ
ントベクトル場中のベクトルの大きさが大きいところを
通過するように閉曲線を生成し、その軌跡を現フレーム
における対象物輪郭としていることにより、対象物輪郭
の追従性を高め、輪郭の修正を容易化し、領域抽出結果
の向上を実現することができる。
【0097】すなわち本発明は、前フレームでの対象物
輪郭の軌跡が与えられたときに、前−現フレーム間で輪
郭の動きベクトルを推定することによって、現フレーム
上で輪郭の推定位置、すなわち推定輪郭を求め、推定輪
郭の周囲の画素を含む輪郭が存在する可能性のある領
域、すなわち輪郭候補領域を現フレーム上で決定し、輪
郭候補領域において濃度値のグラディエントベクトル場
を求め、そのグラディエントベクトル場中のベクトルの
大きさが大きいところを通過するように閉曲線を生成
し、その軌跡を現フレームにおける対象物輪郭とする処
理を行う。これによって、前−現フレーム間で輪郭が大
きく移動した時や、その動きの方向が急激に変化した場
合にも追従できる。また、各フレームの輪郭はパラメト
リックな曲線で記述されるので、処理後の修正を容易に
することが出来る。
【0098】また、本発明は、輪郭部の動きベクトル推
定処理に効果的な3つの動きベクトル推定技術の組み合
わせ方法を与え、これらの技術を組み合わせることによ
り、それぞれの効果によってさらに良い結果を得ること
を実現する。
【0099】また本発明は、現フレーム上で輪郭候補領
域を求める処理において、前フレームの輪郭上のブロッ
クと、それに対応する現フレームの推定輪郭上のブロッ
クとの間の平均2乗誤差を対象物色と背景色との差で規
格化した値を求める。これによって、現フレーム上での
真の輪郭と推定輪郭のずれの大きさを見積もる処理を行
う。これによって、現フレームの推定輪郭の周囲に形成
する輪郭候補領域の太さを調節し、必要以上に領域が大
きくなり、無駄な処理が増えるのを防ぐ。
【0100】すなわち、本発明に係る領域抽出方法によ
れば、動画像からの対象物領域抽出処理技術において、
従来技術のフレーム間の追従性能、修正の容易さ、輪郭
形状の正確さの問題を解決し、領域抽出結果の向上を実
現することができる。
【図面の簡単な説明】
【図1】本発明の領域抽出方法が適用される実施例の概
略構成を示すブロック図である。
【図2】本発明の実施例を実現するための画像処理装置
の全体の概略構成を示すブロック図である。
【図3】図1の動きベクトル推定処理部の第1の具体例
を示すブロック図である。
【図4】図1の動きベクトル推定処理部の第2の具体例
を示すブロック図である。
【図5】図1の動きベクトル推定処理部の第3の具体例
を示すブロック図である。
【図6】図1の動きベクトル推定処理部の第4の具体例
を示すブロック図である。
【図7】図1の輪郭候補領域決定処理部の具体例を示す
ブロック図である。
【図8】図7の輪郭候補領域決定処理の一例を説明する
ためのフローチャートである。
【図9】図8中のNRMSE の計算方法の一例を示すフロー
チャートである。
【図10】図1のグラディエント計算処理部の具体例を
示すブロック図である。
【図11】図10のエッジ検出処理部の第1の具体例を
示すブロック図である。
【図12】図10のエッジ検出処理部の第2の具体例を
示すブロック図である。
【図13】グラディエント計算における領域分割処理の
動作を説明するためのフローチャートである。
【図14】エッジ検出情報を得る処理を説明するための
フローチャートである。
【図15】エッジ検出処理の図11、図12に示す具体
例を組み合わせて行う処理を示すブロック図である。
【図16】図1の曲線生成処理部の一例を示すブロック
図である。
【図17】曲線生成方法が適用される構成の具体例を示
すブロック図である。
【図18】通過点処理を説明するためのフローチャート
である。
【図19】本実施例の効果を説明するための図である。
【符号の説明】
11 動きベクトル推定処理部 12 輪郭候補領域決定処理部 13 グラディエント計算処理部 14 曲線生成処理部 21 CPU(中央演算処理装置) 22 外部記憶手段 23 入力手段 24 表示手段 25 バスライン 31 マッチング演算処理部 32 動きベクトル演算処理部 41、42、61、62、63 階層化処理部 43〜46 ブロックマッチング処理部 48、49 平滑化処理部 51 動きベクトル推定処理部 52 特徴点抽出処理部

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力動画像の各フレームにおいて対象物
    領域を抜き出す領域抽出方法において、 前フレームでの対象物輪郭の軌跡が与えられたときに、
    前−現フレーム間で輪郭の動きベクトルを推定すること
    によって、現フレーム上で輪郭の推定位置である推定輪
    郭を求める動きベクトル推定工程と、 上記推定輪郭の周囲の画素を含む輪郭が存在する可能性
    のある領域である輪郭候補領域を現フレーム上で決定す
    る輪郭候補領域決定工程と、 上記輪郭候補領域において濃度値のグラディエントベク
    トル場を求めるグラディエント計算工程と、 上記グラディエントベクトル場中のベクトルの大きさが
    大きいところを通過するように閉曲線を生成し、その軌
    跡を現フレームにおける対象物輪郭とする曲線生成工程
    とを有することを特徴とする領域抽出方法。
  2. 【請求項2】 上記動きベクトル推定工程では、 与えられた上記対象物輪郭の軌跡上の特徴点を抽出し、
    抽出した特徴点の動きベクトルを推定するに際して、比
    較する2ブロック間の誤差評価に対象物領域画素の残差
    に重みづけするような誤差評価関数を用いた階層的ブロ
    ックマッチングを用いて計算し、その各階層の結果の動
    きベクトルに対して平滑化処理を行うことを特徴とする
    請求項1記載の物体領域抽出方法。
  3. 【請求項3】 上記輪郭候補領域決定工程では、 前フレームの輪郭上のブロックと、それに対応する現フ
    レームの推定輪郭上のブロックとの間の平均2乗誤差を
    対象物色と背景色との差で規格化した値を求め、その値
    を用いて、現フレームの推定輪郭の周囲に形成する輪郭
    候補領域の太さを調節することを特徴とする請求項1記
    載の領域抽出方法。
  4. 【請求項4】 上記グラディエント計算工程では、 現フレームの推定輪郭に対し特徴点抽出を行い、現フレ
    ームの推定輪郭上の特徴点位置に従って輪郭候補領域を
    小領域に分割し、その小領域ごとに現フレームにおける
    輪郭の方向を推定し、その方向の勾配にのみ反応するよ
    うなエッジ検出を行うことによって、輪郭候補領域のグ
    ラディエントベクトル場を得ることを特徴とする請求項
    1記載の領域抽出方法。
  5. 【請求項5】 上記グラディエント計算工程では、 現フレームの推定輪郭に対し特徴点抽出を行い、現フレ
    ームの推定輪郭上の特徴点位置に従って輪郭候補領域を
    小領域に分割し、その小領域ごとに現フレームにおける
    輪郭の色変化を推定し、その色変化の勾配にのみ反応す
    るようなエッジ検出を行うことによって、輪郭候補領域
    のグラディエントベクトル場を得ることを特徴とする請
    求項1記載の領域抽出方法。
  6. 【請求項6】 上記曲線生成工程では、 現フレームの輪郭領域のグラディエントベクトル場に対
    して、現フレームの推定輪郭に対し特徴点抽出を行い、
    現フレームの推定輪郭上の特徴点位置に従って輪郭候補
    領域を小領域に分割し、その小領域ごとに輪郭が通過す
    る点を抽出し、グラディエントベクトル場ベクトルの大
    きさが大きいところを通過するように生成した3次スプ
    ライン曲線で前記通過点を連結することを特徴とする請
    求項1記載の領域抽出方法。
JP16479295A 1995-06-07 1995-06-07 領域抽出方法及び領域抽出装置 Expired - Fee Related JP3716455B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16479295A JP3716455B2 (ja) 1995-06-07 1995-06-07 領域抽出方法及び領域抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16479295A JP3716455B2 (ja) 1995-06-07 1995-06-07 領域抽出方法及び領域抽出装置

Publications (2)

Publication Number Publication Date
JPH08335268A true JPH08335268A (ja) 1996-12-17
JP3716455B2 JP3716455B2 (ja) 2005-11-16

Family

ID=15800035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16479295A Expired - Fee Related JP3716455B2 (ja) 1995-06-07 1995-06-07 領域抽出方法及び領域抽出装置

Country Status (1)

Country Link
JP (1) JP3716455B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (ja) * 1998-01-07 2000-03-21 Toshiba Corp 物体抽出装置
JP2000353239A (ja) * 1999-04-26 2000-12-19 Adobe Syst Inc 不確定なピクセルからなる領域における固有のピクセル色の識別
JP2001307105A (ja) * 2000-04-25 2001-11-02 Canon Inc 画像処理装置およびその方法
JP2002523985A (ja) * 1998-08-21 2002-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像信号における問題領域位置決め
JP2002259987A (ja) * 2001-03-06 2002-09-13 Sony Corp 画像処理装置及び方法、記憶媒体、コンピュータ・プログラム
JP2008520039A (ja) * 2004-11-10 2008-06-12 イーストマン コダック カンパニー 人間の画像における虹彩及び瞳孔の検出方法
US7792361B2 (en) 1999-04-26 2010-09-07 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
JP2011090488A (ja) * 2009-10-22 2011-05-06 Nikon Corp 被写体追尾装置、被写体追尾プログラム、およびカメラ
JP2014212560A (ja) * 2014-07-01 2014-11-13 京セラ株式会社 画像送信装置、画像送信方法および画像送信プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102473753B1 (ko) * 2021-11-25 2022-12-02 주식회사 레젠 모션 감지가 가능한 지능형 조명 기기에서 감지영역 설정 처리 기능의 실행 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (ja) * 1998-01-07 2000-03-21 Toshiba Corp 物体抽出装置
JP2002523985A (ja) * 1998-08-21 2002-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像信号における問題領域位置決め
JP2000353239A (ja) * 1999-04-26 2000-12-19 Adobe Syst Inc 不確定なピクセルからなる領域における固有のピクセル色の識別
US7792361B2 (en) 1999-04-26 2010-09-07 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
JP2001307105A (ja) * 2000-04-25 2001-11-02 Canon Inc 画像処理装置およびその方法
US6862369B2 (en) 2000-04-25 2005-03-01 Canon Kabushiki Kaisha Image processing apparatus and method
JP4612760B2 (ja) * 2000-04-25 2011-01-12 キヤノン株式会社 画像処理装置およびその方法
JP2002259987A (ja) * 2001-03-06 2002-09-13 Sony Corp 画像処理装置及び方法、記憶媒体、コンピュータ・プログラム
JP2008520039A (ja) * 2004-11-10 2008-06-12 イーストマン コダック カンパニー 人間の画像における虹彩及び瞳孔の検出方法
JP2011090488A (ja) * 2009-10-22 2011-05-06 Nikon Corp 被写体追尾装置、被写体追尾プログラム、およびカメラ
JP2014212560A (ja) * 2014-07-01 2014-11-13 京セラ株式会社 画像送信装置、画像送信方法および画像送信プログラム

Also Published As

Publication number Publication date
JP3716455B2 (ja) 2005-11-16

Similar Documents

Publication Publication Date Title
Dosovitskiy et al. Flownet: Learning optical flow with convolutional networks
CN110543911B (zh) 一种结合分类任务的弱监督目标分割方法
US9947077B2 (en) Video object tracking in traffic monitoring
CN107507126B (zh) 一种利用rgb图像还原3d场景的方法
US8948448B2 (en) Method and apparatus for trajectory estimation, and method for segmentation
CN112991413A (zh) 自监督深度估测方法和系统
US8929599B2 (en) Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
US20060147116A1 (en) Image segmentation method and device
US20150286859A1 (en) Image Processor Comprising Gesture Recognition System with Object Tracking Based on Calculated Features of Contours for Two or More Objects
CN114424250A (zh) 结构建模
Yang et al. The Euclidean embedding learning based on convolutional neural network for stereo matching
CN110163887B (zh) 基于运动插值估计与前景分割相结合的视频目标跟踪方法
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
CN109255382B (zh) 用于图片匹配定位的神经网络系统,方法及装置
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN111581313A (zh) 一种基于实例分割的语义slam鲁棒性改进方法
JP2017522647A (ja) 背景追跡を介する物体追跡及びセグメント化の方法及び装置
JPH08335268A (ja) 領域抽出方法
CN114937050A (zh) 绿幕抠图方法、装置及电子设备
CN113454640A (zh) 用于利用在线学习进行对象跟踪的方法及系统
CN113822879B (zh) 一种图像分割的方法及装置
EP4134911A1 (en) A direct method for estimating a pose of a body in at least one image
CN110532868B (zh) 一种预测自由空间语义边界的方法
Pujol et al. On searching for an optimal threshold for morphological image segmentation
CN110660079A (zh) 一种基于时空上下文的单目标跟踪方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050822

LAPS Cancellation because of no payment of annual fees