JPH08336140A - 動きベクトル推定方法 - Google Patents
動きベクトル推定方法Info
- Publication number
- JPH08336140A JPH08336140A JP14093195A JP14093195A JPH08336140A JP H08336140 A JPH08336140 A JP H08336140A JP 14093195 A JP14093195 A JP 14093195A JP 14093195 A JP14093195 A JP 14093195A JP H08336140 A JPH08336140 A JP H08336140A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- block matching
- image
- contour
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【構成】 時間的な前後関係を有する第1、第2の画像
I1 、I2 がそれぞれ階層化処理部11、12に送ら
れ、階層化される。各階層の画像は、それぞれブロック
マッチング処理部13、14、15、・・・、16に送
られ、各階層毎にブロックマッチング処理されて得られ
た動きベクトルは、対象物輪郭曲線上の1次元ベクトル
場であるとして、平滑化処理部18、19、・・・によ
り平滑化処理され、次の階層のブロックマッチング処理
に送られる。 【効果】 精度の高い誤差評価が行え、物体境界領域で
も精度の良い動きベクトル推定が行える。
I1 、I2 がそれぞれ階層化処理部11、12に送ら
れ、階層化される。各階層の画像は、それぞれブロック
マッチング処理部13、14、15、・・・、16に送
られ、各階層毎にブロックマッチング処理されて得られ
た動きベクトルは、対象物輪郭曲線上の1次元ベクトル
場であるとして、平滑化処理部18、19、・・・によ
り平滑化処理され、次の階層のブロックマッチング処理
に送られる。 【効果】 精度の高い誤差評価が行え、物体境界領域で
も精度の良い動きベクトル推定が行える。
Description
【0001】
【産業上の利用分野】本発明は、動きベクトル推定方法
に関し、特に、例えば、動画像中の物体追跡処理などで
行われる、2画像間の対象領域の動きベクトル推定処理
を精度良く行うのに好適な動きベクトル推定方法に関す
る。
に関し、特に、例えば、動画像中の物体追跡処理などで
行われる、2画像間の対象領域の動きベクトル推定処理
を精度良く行うのに好適な動きベクトル推定方法に関す
る。
【0002】
【従来の技術】動画において、対象とする物体の動きを
予測して次の画像の位置を推定することが行われてい
る。このような2画像間の小領域の動きベクトル推定を
行うための従来技術としてブロックマッチングが知られ
ている。このブロックマッチングの技術は、例えば、文
献「画像解析ハンドブック」、高木幹雄, 下田陽久, 東
京大学出版会,1991 等に開示されているが、以下に、ブ
ロックマッチングの概略について説明する。
予測して次の画像の位置を推定することが行われてい
る。このような2画像間の小領域の動きベクトル推定を
行うための従来技術としてブロックマッチングが知られ
ている。このブロックマッチングの技術は、例えば、文
献「画像解析ハンドブック」、高木幹雄, 下田陽久, 東
京大学出版会,1991 等に開示されているが、以下に、ブ
ロックマッチングの概略について説明する。
【0003】ブロックマッチング法とは、時間的な前後
関係に従って第1、第2の画像とするとき、第1の画像
I1 上にn1×n2の矩形のテンプレートを決め、第2の
画像I2 上にm1×m2の矩形の探索範囲あるいは探査範
囲を決め、この探査範囲内でテンプレートを動かし、も
っとも一致した位置を適当な誤差評価関数を用いて探す
方法のことである。
関係に従って第1、第2の画像とするとき、第1の画像
I1 上にn1×n2の矩形のテンプレートを決め、第2の
画像I2 上にm1×m2の矩形の探索範囲あるいは探査範
囲を決め、この探査範囲内でテンプレートを動かし、も
っとも一致した位置を適当な誤差評価関数を用いて探す
方法のことである。
【0004】図7にブロックマッチング処理のための概
略構成のブロック図を示す。処理は以下のように行われ
る。
略構成のブロック図を示す。処理は以下のように行われ
る。
【0005】先ず、マッチング演算処理部101では、
テンプレートと探査範囲のリストが設定されていると
き、各テンプレートついて、対となる探査範囲中のブロ
ックとのマッチングを行う。最適なマッチングが得られ
たブロック位置のリストを次段に送る。
テンプレートと探査範囲のリストが設定されていると
き、各テンプレートついて、対となる探査範囲中のブロ
ックとのマッチングを行う。最適なマッチングが得られ
たブロック位置のリストを次段に送る。
【0006】次に、動きベクトル演算処理部103で
は、テンプレート位置(t1,t2) を始点とし、前段で得
られたマッチング位置(m1,m2) を終点とする動きベク
トルvを計算する。すなわち、 v=(m1−t1,m2−t2) (1) である。ここで、t1,t2、m1,m2は整数である。
は、テンプレート位置(t1,t2) を始点とし、前段で得
られたマッチング位置(m1,m2) を終点とする動きベク
トルvを計算する。すなわち、 v=(m1−t1,m2−t2) (1) である。ここで、t1,t2、m1,m2は整数である。
【0007】図8に画像とテンプレート、探査範囲の関
係を示す。マッチング演算は以下のことを実現する処理
である。
係を示す。マッチング演算は以下のことを実現する処理
である。
【0008】この図8において、第1の画像I1 内の位
置(t1,t2) にテンプレートT、第2の画像I2 内の位
置(s1,s2) に探査範囲Sがあるとき、探査範囲S内の
位置(a,b) のブロックS(a,b) 毎にテンプレートTと
の誤差評価値E(a,b) を求める。探査範囲(0≦a≦m
1−1,0≦b≦m2−1)でE(a,b) が形成する誤差曲
面上の最小値点(mina,minb)を決定する。ここで、
t1,t2、s1,s2、a、bは整数である。
置(t1,t2) にテンプレートT、第2の画像I2 内の位
置(s1,s2) に探査範囲Sがあるとき、探査範囲S内の
位置(a,b) のブロックS(a,b) 毎にテンプレートTと
の誤差評価値E(a,b) を求める。探査範囲(0≦a≦m
1−1,0≦b≦m2−1)でE(a,b) が形成する誤差曲
面上の最小値点(mina,minb)を決定する。ここで、
t1,t2、s1,s2、a、bは整数である。
【0009】次に、マッチング演算をフローチャートで
表すと図9のようになる。ただし、図9において添字i
は、上記テンプレートと探査範囲のリストが設定されて
いるときのi番めのリストであることを示す。
表すと図9のようになる。ただし、図9において添字i
は、上記テンプレートと探査範囲のリストが設定されて
いるときのi番めのリストであることを示す。
【0010】この図9において、最初のステップS11
1では、テンプレートTと探査範囲Sをそれぞれ画像I
1 、I2 から取り出し、次のステップS112では、上
記誤差評価値E(a,b) の最小値minE に大きな定数、例
えば誤差評価値E(a,b) として取り得る最大値を代入し
ておく。次に、探査範囲S内におけるテンプレートのx
座標aについてのFORループ113と、y座標bにつ
いてのFORループ114による処理に移り、このルー
プ処理においては、探査位置(a,b)を探査範囲内で
変えつつ、図8で説明したブロックS(a,b) とテンプレ
ートTの誤差評価値E(a,b) を求め、その評価値が最小
値minE となる位置(mina,minb)を求めている。す
なわち、このループ内での具体的な処理としては、ステ
ップS115で上記テンプレートTと探査範囲S内のブ
ロックS(a,b) とに基づく誤差評価演算を行って誤差評
価値E(a,b) を求め、ステップS116でこの誤差評価
値E(a,b) が現時点での最小値minE よりも小さいか否
かを判別し、NoのときはFORループの次の処理ステ
ップに移行し、YesのときはステップS117に進ん
で、minE に誤差評価値E(a,b) を代入し、mina,min
bにそれぞれa,bを代入した後、FORループの次の
処理ステップに移行している。このFORループの処理
が全て終了したとき、探査範囲S内で誤差評価値が最小
値minE となるテンプレート位置(mina,minb)が求
められる。画像I2 内での探査範囲Sの位置が(s1,
s2) であるから、画像I2 内でのテンプレートTのマ
ッチング位置としては、(s1+mina,s2+minb)が
出力されることになる。
1では、テンプレートTと探査範囲Sをそれぞれ画像I
1 、I2 から取り出し、次のステップS112では、上
記誤差評価値E(a,b) の最小値minE に大きな定数、例
えば誤差評価値E(a,b) として取り得る最大値を代入し
ておく。次に、探査範囲S内におけるテンプレートのx
座標aについてのFORループ113と、y座標bにつ
いてのFORループ114による処理に移り、このルー
プ処理においては、探査位置(a,b)を探査範囲内で
変えつつ、図8で説明したブロックS(a,b) とテンプレ
ートTの誤差評価値E(a,b) を求め、その評価値が最小
値minE となる位置(mina,minb)を求めている。す
なわち、このループ内での具体的な処理としては、ステ
ップS115で上記テンプレートTと探査範囲S内のブ
ロックS(a,b) とに基づく誤差評価演算を行って誤差評
価値E(a,b) を求め、ステップS116でこの誤差評価
値E(a,b) が現時点での最小値minE よりも小さいか否
かを判別し、NoのときはFORループの次の処理ステ
ップに移行し、YesのときはステップS117に進ん
で、minE に誤差評価値E(a,b) を代入し、mina,min
bにそれぞれa,bを代入した後、FORループの次の
処理ステップに移行している。このFORループの処理
が全て終了したとき、探査範囲S内で誤差評価値が最小
値minE となるテンプレート位置(mina,minb)が求
められる。画像I2 内での探査範囲Sの位置が(s1,
s2) であるから、画像I2 内でのテンプレートTのマ
ッチング位置としては、(s1+mina,s2+minb)が
出力されることになる。
【0011】ここで、誤差評価関数E(a,b) としては、
比較する画像の相関係数を用いる方法と比較する画像の
平均残差を用いる方法があるが、計算の容易さから平均
残差を用いる方法がよく使われている。平均残差を用い
る方法は、画素毎に残差eの絶対値または2乗を求め、
そのテンプレート範囲の平均を誤差評価値Eとするもの
である。誤差評価関数E(a,b) の具体例を次式に示す。
比較する画像の相関係数を用いる方法と比較する画像の
平均残差を用いる方法があるが、計算の容易さから平均
残差を用いる方法がよく使われている。平均残差を用い
る方法は、画素毎に残差eの絶対値または2乗を求め、
そのテンプレート範囲の平均を誤差評価値Eとするもの
である。誤差評価関数E(a,b) の具体例を次式に示す。
【0012】
【数1】
【0013】これらの式(2)〜式(4)において、式
(2)は画素毎に残差eの絶対値を用いたとき、式
(3)は2乗を用いた時の誤差評価関数E(a,b) を示し
たものである。分母は(a,b)によらないので、計算
上は省略されることが多い。また式(4)は画素毎の残
差eを示したものである。
(2)は画素毎に残差eの絶対値を用いたとき、式
(3)は2乗を用いた時の誤差評価関数E(a,b) を示し
たものである。分母は(a,b)によらないので、計算
上は省略されることが多い。また式(4)は画素毎の残
差eを示したものである。
【0014】次に、ブロックマッチングの改良として階
層的ブロックマッチングという技術がある。以下に、上
記「画像解析ハンドブック」(高木幹雄, 下田陽久, 東
京大学出版会, 1991)を参考に、階層的ブロックマッチ
ングについて説明する。
層的ブロックマッチングという技術がある。以下に、上
記「画像解析ハンドブック」(高木幹雄, 下田陽久, 東
京大学出版会, 1991)を参考に、階層的ブロックマッチ
ングについて説明する。
【0015】階層的ブロックマッチングは、上述した従
来の通常のブロックマッチングの演算時間の短縮のため
によく利用される技術である。この階層的ブロックマッ
チングは、原画像から順次解像度を落した画像階層をつ
くり、粗い階層からブロックマッチングを行い、探査範
囲を次第に狭めて精密にしていく方法である。
来の通常のブロックマッチングの演算時間の短縮のため
によく利用される技術である。この階層的ブロックマッ
チングは、原画像から順次解像度を落した画像階層をつ
くり、粗い階層からブロックマッチングを行い、探査範
囲を次第に狭めて精密にしていく方法である。
【0016】図10を参照しながら階層画像をつくる代
表的な方法を説明する。図10は階層画像のピラミッド
構造の一例を示したものである。原画像を最下層とし
て、例えば2×2の画像の平均を1つ上の層の画素とし
ていくことによって、階層画像をつくることができる。
第L層の画像は以下の式(5)で示される。
表的な方法を説明する。図10は階層画像のピラミッド
構造の一例を示したものである。原画像を最下層とし
て、例えば2×2の画像の平均を1つ上の層の画素とし
ていくことによって、階層画像をつくることができる。
第L層の画像は以下の式(5)で示される。
【0017】
【数2】
【0018】この式(5)で、図10の第L−1層の2
×2の画像の平均を1つ上の第L層の画素としている。
×2の画像の平均を1つ上の第L層の画素としている。
【0019】次に階層的ブロックマッチングの処理ブロ
ック図を図11に示す。
ック図を図11に示す。
【0020】この図11において、第1、第2の画像I
1 、I2 はそれぞれ階層化処理部121、122により
階層化される。階層化された各層の画像は、ブロックマ
ッチング処理部123、124、125、・・・、12
6により、最上層の画像から、1つ上の階層の結果を用
いて順にブロックマッチングを行っていく。このブロッ
クマッチング処理の際には、第1画像I1 についてのテ
ンプレートリストと、第2の画像I2 についての探査範
囲リストとが用いられる。
1 、I2 はそれぞれ階層化処理部121、122により
階層化される。階層化された各層の画像は、ブロックマ
ッチング処理部123、124、125、・・・、12
6により、最上層の画像から、1つ上の階層の結果を用
いて順にブロックマッチングを行っていく。このブロッ
クマッチング処理の際には、第1画像I1 についてのテ
ンプレートリストと、第2の画像I2 についての探査範
囲リストとが用いられる。
【0021】この場合の処理を、図12のフローチャー
トを参照しながら説明する。すなわち、この図12にお
いて、最初のステップS131では、上記階層画像を上
記式(5)に従って作る。
トを参照しながら説明する。すなわち、この図12にお
いて、最初のステップS131では、上記階層画像を上
記式(5)に従って作る。
【0022】次に、得られた各階層画像について、FO
Rループ132内の処理により各階層毎にそれぞれブロ
ックマッチングを行う。すなわちこのFORループ13
2では、ループ制御変数Lの初期値を(階層数−1)と
し、1ずつループ制御変数Lをデクリメントしながら各
階層毎のブロックマッチング処理を行い、Lが0になる
まで繰り返す。
Rループ132内の処理により各階層毎にそれぞれブロ
ックマッチングを行う。すなわちこのFORループ13
2では、ループ制御変数Lの初期値を(階層数−1)と
し、1ずつループ制御変数Lをデクリメントしながら各
階層毎のブロックマッチング処理を行い、Lが0になる
まで繰り返す。
【0023】FORループ132内の階層的ブロックマ
ッチング処理としては、先ずステップS133におい
て、処理しようとする第L層についてのブロックマッチ
ングを行う。このブロックマッチング処理は、上記図9
とともに説明したブロックマッチングと同様であり、上
記式(2)や式(3)の評価誤差関数を用いて、誤差が
最小となるマッチング位置を求める。次のステップS1
34においては、得られた第L層でのマッチング位置
を、次に処理を行おうとする第L−1層のテンプレート
位置とする。このとき、第L−1層の探査範囲位置もテ
ンプレート位置に合わせて移動させる。
ッチング処理としては、先ずステップS133におい
て、処理しようとする第L層についてのブロックマッチ
ングを行う。このブロックマッチング処理は、上記図9
とともに説明したブロックマッチングと同様であり、上
記式(2)や式(3)の評価誤差関数を用いて、誤差が
最小となるマッチング位置を求める。次のステップS1
34においては、得られた第L層でのマッチング位置
を、次に処理を行おうとする第L−1層のテンプレート
位置とする。このとき、第L−1層の探査範囲位置もテ
ンプレート位置に合わせて移動させる。
【0024】このような第L層でのブロックマッチング
が行われた後、FORループ132のループ制御変数L
がデクリメントされて、第L−1層についてのブロック
マッチングが同様に行われ、これが第0層まで繰り返さ
れるわけである。
が行われた後、FORループ132のループ制御変数L
がデクリメントされて、第L−1層についてのブロック
マッチングが同様に行われ、これが第0層まで繰り返さ
れるわけである。
【0025】このような階層的ブロックマッチングによ
れば、各階層のテンプレートも上記式(5)に従って大
きさが小さくなるので、階層が高いほど、マッチングの
計算量は格段に小さくなり、各階層を合わせても、原画
像の解像度で一度にマッチングする計算量より小さくす
ることができる。
れば、各階層のテンプレートも上記式(5)に従って大
きさが小さくなるので、階層が高いほど、マッチングの
計算量は格段に小さくなり、各階層を合わせても、原画
像の解像度で一度にマッチングする計算量より小さくす
ることができる。
【0026】一方、上記従来の通常のブロックマッチン
グ技術の精度を向上させる目的の改良技術として、以下
に挙げるようなものがある。
グ技術の精度を向上させる目的の改良技術として、以下
に挙げるようなものがある。
【0027】先ず、特開平1−170288号公報「動
き補償フレーム間予測装置」に記載の技術は、注目する
画素の動きベクトルを推定する処理において、はじめに
大きなブロックでブロックマッチングを行うことによっ
て大まかに探査範囲を限定したのち、次に近傍の画素だ
けを用いて、限定された探査範囲内でマッチングを行
う、2段階の処理を特徴とするものである。
き補償フレーム間予測装置」に記載の技術は、注目する
画素の動きベクトルを推定する処理において、はじめに
大きなブロックでブロックマッチングを行うことによっ
て大まかに探査範囲を限定したのち、次に近傍の画素だ
けを用いて、限定された探査範囲内でマッチングを行
う、2段階の処理を特徴とするものである。
【0028】次に、特開平4−298184号公報「動
きクトル検出装置」に記載の技術は、注目する画素の動
きベクトルを推定する処理において、既に動きベクトル
を得た近傍の画素の動きベクトルの方向に探査範囲をシ
フトさせることを特徴とするものである。
きクトル検出装置」に記載の技術は、注目する画素の動
きベクトルを推定する処理において、既に動きベクトル
を得た近傍の画素の動きベクトルの方向に探査範囲をシ
フトさせることを特徴とするものである。
【0029】
【発明が解決しようとする課題】ところで、上記従来の
通常のブロックマッチング技術においては、以下のよう
な問題があった。
通常のブロックマッチング技術においては、以下のよう
な問題があった。
【0030】先ず第1の問題点として、周期性、一様性
をもつ画像パターンは、そのパターン自身周辺へのマッ
チングを行うと、極小値点がただ1つでない誤差曲面が
生じる点が挙げられる。これは、パターンの自己相関の
性質に起因するものである。テンプレートに周期性、一
様性がある場合、探査範囲にもその周期性、一様性が保
存されている場合が多い。この時探査範囲における誤差
曲面は極小値点がただ1つでなくなる。従来のブロック
マッチングの技術による方法では、このような画像の場
合に動きベクトル推定が誤った局所解に陥りやすい。
をもつ画像パターンは、そのパターン自身周辺へのマッ
チングを行うと、極小値点がただ1つでない誤差曲面が
生じる点が挙げられる。これは、パターンの自己相関の
性質に起因するものである。テンプレートに周期性、一
様性がある場合、探査範囲にもその周期性、一様性が保
存されている場合が多い。この時探査範囲における誤差
曲面は極小値点がただ1つでなくなる。従来のブロック
マッチングの技術による方法では、このような画像の場
合に動きベクトル推定が誤った局所解に陥りやすい。
【0031】第2の問題点として、単色物体同士の境界
は境界線の進む方向に沿って一様性をもつ画像パターン
である。そのため、上記第1の問題点の理由により、単
色物体同士の境界は、従来の通常のブロックマッチング
技術による動きベクトル推定が誤りやすいところであ
る。
は境界線の進む方向に沿って一様性をもつ画像パターン
である。そのため、上記第1の問題点の理由により、単
色物体同士の境界は、従来の通常のブロックマッチング
技術による動きベクトル推定が誤りやすいところであ
る。
【0032】そこで本発明は、誤った局所解に陥った動
きベクトル推定結果があった場合に、なるべくそのずれ
を小さくすることを実現しようとするものである。
きベクトル推定結果があった場合に、なるべくそのずれ
を小さくすることを実現しようとするものである。
【0033】一方、上記特開平1−170288号公報
や特開平4−298184号公報に記載された各技術
は、上述のような各問題点を解決する目的でなされた技
術であるが、以下に挙げるような問題がある。
や特開平4−298184号公報に記載された各技術
は、上述のような各問題点を解決する目的でなされた技
術であるが、以下に挙げるような問題がある。
【0034】これらの公報に記載の技術は、共に、注目
する画素の近傍の画素のすでに求めた動きベクトルにあ
わせて注目する画素の動きベクトルを求める方法を用い
る。従って、動きベクトルを求めようとする、画素やブ
ロックの順序の決め方にアーチファクトが混入する可能
性がある。たとえば、物体境界付近のある画素に注目し
たとき、既に動きベクトルを求めた近傍の画素が、たま
たま注目する画素の属する物体と異なる物体に属する場
合などが起こり得る。この場合は注目する画素の動きベ
クトルは正確に得られない。すなわち、近傍画素の情報
から探査範囲を限定するこれらの技術は、場合により有
効であるが、注目する画素と近傍の画素が同じ物体に属
し、ほぼ同じ方向の動きベクトルをもつという保証が得
られない場合もあるので、一般的な解決法にはなり得な
い。
する画素の近傍の画素のすでに求めた動きベクトルにあ
わせて注目する画素の動きベクトルを求める方法を用い
る。従って、動きベクトルを求めようとする、画素やブ
ロックの順序の決め方にアーチファクトが混入する可能
性がある。たとえば、物体境界付近のある画素に注目し
たとき、既に動きベクトルを求めた近傍の画素が、たま
たま注目する画素の属する物体と異なる物体に属する場
合などが起こり得る。この場合は注目する画素の動きベ
クトルは正確に得られない。すなわち、近傍画素の情報
から探査範囲を限定するこれらの技術は、場合により有
効であるが、注目する画素と近傍の画素が同じ物体に属
し、ほぼ同じ方向の動きベクトルをもつという保証が得
られない場合もあるので、一般的な解決法にはなり得な
い。
【0035】さらに、上記特開平1−170288号公
報に記載の技術においては、ブロックによる粗い動きベ
クトル推定と、近傍画素による細かい動きベクトル推定
の2段階処理を用いるので、処理時間が通常のブロック
マッチングよりも多くなってしまう。
報に記載の技術においては、ブロックによる粗い動きベ
クトル推定と、近傍画素による細かい動きベクトル推定
の2段階処理を用いるので、処理時間が通常のブロック
マッチングよりも多くなってしまう。
【0036】本発明は、上述したような実情に鑑みてな
されたものであり、従来技術ではエラーの多かった物体
境界領域でも、精度の良い動きベクトル推定を行うこと
が可能な動きベクトル推定方法の提供を目的とする。
されたものであり、従来技術ではエラーの多かった物体
境界領域でも、精度の良い動きベクトル推定を行うこと
が可能な動きベクトル推定方法の提供を目的とする。
【0037】
【課題を解決するための手段】上記の課題を解決するた
めに、本発明は、対象領域内の対象物輪郭曲線上の各位
置での動きベクトル推定を行った後、得られた動きベク
トルが上記対象物輪郭曲線上の1次元ベクトル場である
として、ベクトル場の平滑化処理を行う。
めに、本発明は、対象領域内の対象物輪郭曲線上の各位
置での動きベクトル推定を行った後、得られた動きベク
トルが上記対象物輪郭曲線上の1次元ベクトル場である
として、ベクトル場の平滑化処理を行う。
【0038】この場合、画像を階層化し、各階層毎に上
記対象領域内の対象物輪郭曲線上の各位置での動きベク
トルを階層的ブロックマッチングにより推定し、各階層
毎に得られたベクトル場に対して上記平滑化処理を行う
ことが好ましい。
記対象領域内の対象物輪郭曲線上の各位置での動きベク
トルを階層的ブロックマッチングにより推定し、各階層
毎に得られたベクトル場に対して上記平滑化処理を行う
ことが好ましい。
【0039】
【作用】対象物輪郭曲線上の各位置での動きベクトル推
定を行って得られた動きベクトルのベクトル場の平滑化
処理を行うことにより、滑らかなベクトル場中に局所的
なスポットノイズとして存在する誤った動きベクトル
を、近傍の正しいベクトルの情報を用いて修正する。
定を行って得られた動きベクトルのベクトル場の平滑化
処理を行うことにより、滑らかなベクトル場中に局所的
なスポットノイズとして存在する誤った動きベクトル
を、近傍の正しいベクトルの情報を用いて修正する。
【0040】また、画像を階層化して、各階層毎に得ら
れた動きベクトルのベクトル場の平滑化処理を行う。
れた動きベクトルのベクトル場の平滑化処理を行う。
【0041】
【実施例】以下、本発明に係る好ましい実施例について
図面を参照しながら説明する。
図面を参照しながら説明する。
【0042】図1は、本発明の一実施例が適用される動
きベクトル推定のための構成を概略的に示すブロック図
である。この図1において、動きベクトルを求めようと
する対象物を含む第1、第2の画像I1,I2 は、階層化
処理部11、12によりそれぞれ階層化される。この階
層化処理は、前述した従来の階層化処理と同様であり、
原画像を最下層として、例えば2×2の画像の平均を1
つ上の層の画素としていくことによって、階層画像をつ
くることができる。第L層の画像は前記の式(4)で示
される。階層化された各層の画像は、ブロックマッチン
グ処理部13、14、15、・・・、16により、最上
層の画像から、1つ上の階層の結果を用いて順にブロッ
クマッチングを行っていく。
きベクトル推定のための構成を概略的に示すブロック図
である。この図1において、動きベクトルを求めようと
する対象物を含む第1、第2の画像I1,I2 は、階層化
処理部11、12によりそれぞれ階層化される。この階
層化処理は、前述した従来の階層化処理と同様であり、
原画像を最下層として、例えば2×2の画像の平均を1
つ上の層の画素としていくことによって、階層画像をつ
くることができる。第L層の画像は前記の式(4)で示
される。階層化された各層の画像は、ブロックマッチン
グ処理部13、14、15、・・・、16により、最上
層の画像から、1つ上の階層の結果を用いて順にブロッ
クマッチングを行っていく。
【0043】この図1の構成は、さらにブロックリスト
生成処理部17および平滑化処理部18、19、・・・
を有している。ブロックリスト生成処理部17は、入力
された対象物輪郭情報から、追跡する輪郭上にブロック
を配置する。また、平滑化処理部18、19、・・・
は、動きベクトル場の平滑化を行う。
生成処理部17および平滑化処理部18、19、・・・
を有している。ブロックリスト生成処理部17は、入力
された対象物輪郭情報から、追跡する輪郭上にブロック
を配置する。また、平滑化処理部18、19、・・・
は、動きベクトル場の平滑化を行う。
【0044】本発明の上記実施例を実現するための画像
処理装置の全体の概略構成の一例を図2に示す。
処理装置の全体の概略構成の一例を図2に示す。
【0045】この図2において、画像処理装置は、本実
施例の動きベクトル推定処理に必要なあらゆる演算を行
うためのCPU(中央演算処理装置)21と、画像I1,
I2,I3 を保持するための外部記憶手段22と、画像を
作成したりするためのマウス、タブレットペンなどの入
力手段23と、画像を表示するためのディスプレイなど
の表示手段とを有している。これらのCPU21、外部
記憶手段22、入力手段23、表示手段24間でのデー
タの送受は、バスライン25を介して行われる。
施例の動きベクトル推定処理に必要なあらゆる演算を行
うためのCPU(中央演算処理装置)21と、画像I1,
I2,I3 を保持するための外部記憶手段22と、画像を
作成したりするためのマウス、タブレットペンなどの入
力手段23と、画像を表示するためのディスプレイなど
の表示手段とを有している。これらのCPU21、外部
記憶手段22、入力手段23、表示手段24間でのデー
タの送受は、バスライン25を介して行われる。
【0046】次に、上記図1の各処理部での動作につい
てさらに詳細に説明する。ここで、階層化処理部11、
12での階層化処理、およびブロックマッチング処理部
13、15、15、・・・、16でのブロックマッチン
グ処理は、前記図7〜図9を参照しながら説明したブロ
ックマッチングや、前記図10〜図12とともに説明し
た階層化処理と同様であるため、説明を省略する。
てさらに詳細に説明する。ここで、階層化処理部11、
12での階層化処理、およびブロックマッチング処理部
13、15、15、・・・、16でのブロックマッチン
グ処理は、前記図7〜図9を参照しながら説明したブロ
ックマッチングや、前記図10〜図12とともに説明し
た階層化処理と同様であるため、説明を省略する。
【0047】上記図1の上記ブロックリスト生成処理部
17は、与えられた輪郭情報から、ブロックを配置する
処理を行う。この処理は、本発明実施例の要部ではない
が、本実施例を使用するための前処理の実現例として説
明する。
17は、与えられた輪郭情報から、ブロックを配置する
処理を行う。この処理は、本発明実施例の要部ではない
が、本実施例を使用するための前処理の実現例として説
明する。
【0048】輪郭情報は、タブレットペンやマウスなど
の入力手段による軌跡入力、あらかじめ記憶手段に記憶
されている曲線情報、あるいはマスク画像などを細線化
などの加工を施して獲得する。輪郭情報は、その始点位
置、輪郭上の任意の点位置、始点がら輪郭上の任意の点
までの距離が、求められる形式で記述されていれば、画
素の並び、パラメトリックな曲線表現などの記述形式を
問わない。
の入力手段による軌跡入力、あらかじめ記憶手段に記憶
されている曲線情報、あるいはマスク画像などを細線化
などの加工を施して獲得する。輪郭情報は、その始点位
置、輪郭上の任意の点位置、始点がら輪郭上の任意の点
までの距離が、求められる形式で記述されていれば、画
素の並び、パラメトリックな曲線表現などの記述形式を
問わない。
【0049】求めるブロックリストは、テンプレートの
輪郭上の位置、画像上位置、大きさ、探査範囲の画像上
位置、大きさの情報をもつリストである。以下の表1に
ブロックリストの一例を示す。
輪郭上の位置、画像上位置、大きさ、探査範囲の画像上
位置、大きさの情報をもつリストである。以下の表1に
ブロックリストの一例を示す。
【0050】
【表1】
【0051】ここで、対象物領域を指定したマスク画像
I3 が得られているときの、ブロックリスト生成処理の
一例を説明する。先ず、対象物輪郭位置を知るために、
画像I3 に対して輪郭抽出処理を行う。輪郭抽出は一般
のエッジ検出処理で構わない。次に、輪郭抽出画像を隅
からスキャンするなどの方法によって、輪郭上の適当な
1点を抽出し、輪郭の始点とする。第3に、始点から、
隣接する輪郭画素を順にたどることにより、輪郭画素に
番号づけをする。これを始点からの距離とする。第4
に、始点から、適当な間隔で、輪郭画素位置pi にテン
プレートをおく。探査範囲も同位置におく。
I3 が得られているときの、ブロックリスト生成処理の
一例を説明する。先ず、対象物輪郭位置を知るために、
画像I3 に対して輪郭抽出処理を行う。輪郭抽出は一般
のエッジ検出処理で構わない。次に、輪郭抽出画像を隅
からスキャンするなどの方法によって、輪郭上の適当な
1点を抽出し、輪郭の始点とする。第3に、始点から、
隣接する輪郭画素を順にたどることにより、輪郭画素に
番号づけをする。これを始点からの距離とする。第4
に、始点から、適当な間隔で、輪郭画素位置pi にテン
プレートをおく。探査範囲も同位置におく。
【0052】このように生成されたブロックリストの各
テンプレートのブロック毎にブロックマッチングによる
動きベクトル推定が行われるわけである。
テンプレートのブロック毎にブロックマッチングによる
動きベクトル推定が行われるわけである。
【0053】次に、図1の平滑化処理部18、19、・
・・について説明する。この平滑化処理部18、19、
・・・は、各階層毎のブロックマッチングにより得られ
た動きベクトル場の平滑化を行う。
・・について説明する。この平滑化処理部18、19、
・・・は、各階層毎のブロックマッチングにより得られ
た動きベクトル場の平滑化を行う。
【0054】この動きベクトル場の平滑化の処理の一例
について、図3を参照しながら説明する。この図3にお
いて、各動きベクトルの始点位置が上記輪郭画素位置p
i に相当する。
について、図3を参照しながら説明する。この図3にお
いて、各動きベクトルの始点位置が上記輪郭画素位置p
i に相当する。
【0055】ブロックマッチングによって得られた輪郭
部の動きベクトルは、前述した理由により、図3のAに
示すように所々ベクトルが誤ってしまう。このベクトル
を輪郭に沿って展開すると、図3のBに示すように1次
元のベクトル場が得られる。この1次元のベクトル場に
対して、図3のCに示すように適当な平滑化を施した
後、図3のDに示すようにもとの輪郭形状に沿って配置
する。
部の動きベクトルは、前述した理由により、図3のAに
示すように所々ベクトルが誤ってしまう。このベクトル
を輪郭に沿って展開すると、図3のBに示すように1次
元のベクトル場が得られる。この1次元のベクトル場に
対して、図3のCに示すように適当な平滑化を施した
後、図3のDに示すようにもとの輪郭形状に沿って配置
する。
【0056】次に、図4は、1次元のベクトル場の平滑
化の方法を説明する図である。この図4のAに示すよう
に、1次元のベクトル場Mが得られているとき、成分分
離処理部41にてそれぞれのベクトルのx成分、y成分
を分離し、図4のBx、Byに示すような各成分の1次
元のスカラー場Mx、Myをつくる。次に、平滑化処理
部42において、適当な平滑化フィルタSによって、上
記1次元のスカラー場Mx、Myをそれぞれ平滑化す
る。平滑化されて得られた2つのスカラー場Mx、My
を成分合成処理部43にて合成し、図4のDに示すよう
なベクトル場を再構成する。
化の方法を説明する図である。この図4のAに示すよう
に、1次元のベクトル場Mが得られているとき、成分分
離処理部41にてそれぞれのベクトルのx成分、y成分
を分離し、図4のBx、Byに示すような各成分の1次
元のスカラー場Mx、Myをつくる。次に、平滑化処理
部42において、適当な平滑化フィルタSによって、上
記1次元のスカラー場Mx、Myをそれぞれ平滑化す
る。平滑化されて得られた2つのスカラー場Mx、My
を成分合成処理部43にて合成し、図4のDに示すよう
なベクトル場を再構成する。
【0057】実際の平滑化処理は、図5に示すフローチ
ャートで実現される。ここで、ブロックマッチングから
得られる動きベクトルは、対応するテンプレートの輪郭
始点からみた輪郭上の位置pi がわかっているので、既
に1次元ベクトル場Mとして得られている。従って、ベ
クトル場への展開、輪郭形状への再配置は実際の処理と
しては省略される。平滑化計算は、ベクトル場のx、y
成分とフィルタSの畳み込み演算によって計算される。
ャートで実現される。ここで、ブロックマッチングから
得られる動きベクトルは、対応するテンプレートの輪郭
始点からみた輪郭上の位置pi がわかっているので、既
に1次元ベクトル場Mとして得られている。従って、ベ
クトル場への展開、輪郭形状への再配置は実際の処理と
しては省略される。平滑化計算は、ベクトル場のx、y
成分とフィルタSの畳み込み演算によって計算される。
【0058】図5の例においては、1次元ベクトル場M
のベクトル数をkとしており、k回の繰り返しを行うF
ORループ51内で、輪郭上の位置pi についてのベク
トル場M(pi)のx、y成分であるMx(pi)、My(pi)に対
してフィルタS(p) の畳み込み演算を行い、得られた各
成分Msx(pi)、Msy(pi)に基づくベクトル場Ms(pi)を
出力している。
のベクトル数をkとしており、k回の繰り返しを行うF
ORループ51内で、輪郭上の位置pi についてのベク
トル場M(pi)のx、y成分であるMx(pi)、My(pi)に対
してフィルタS(p) の畳み込み演算を行い、得られた各
成分Msx(pi)、Msy(pi)に基づくベクトル場Ms(pi)を
出力している。
【0059】これらの図4、図5においては、線形加重
フィルタの例を示したが、例えばメディアンフィルタの
ような非線形フィルタを用いることも可能である。
フィルタの例を示したが、例えばメディアンフィルタの
ような非線形フィルタを用いることも可能である。
【0060】次に、上述したような実施例により得られ
る効果について、図6を参照しながら説明する。図6の
Aは、画像中の対象物FGの輪郭部の例をわかりやすく
示したものである。この対象物輪郭cの外側部分は、2
つの色の異なる背景BG1、BG2が存在する。この対
象物輪郭c上に適当な間隔で上記位置pi と各位置pi
に対応するブロックとを置き、次のフレームへの動きベ
クトルの推定を行う。この場合のブロックは、例えば上
記位置pi を中心とする矩形領域とすればよい。
る効果について、図6を参照しながら説明する。図6の
Aは、画像中の対象物FGの輪郭部の例をわかりやすく
示したものである。この対象物輪郭cの外側部分は、2
つの色の異なる背景BG1、BG2が存在する。この対
象物輪郭c上に適当な間隔で上記位置pi と各位置pi
に対応するブロックとを置き、次のフレームへの動きベ
クトルの推定を行う。この場合のブロックは、例えば上
記位置pi を中心とする矩形領域とすればよい。
【0061】図6のBは従来のブロックマッチングによ
る動きベクトルの推定結果を、また図6のCは本実施例
による動きベクトルの推定結果をそれぞれ表している。
これらの図6のB、Cに示す次のフレームにおいては、
対象物に対する背景の相対位置が変化している。従来の
ブロックマッチングでは、しばしば図6のBに示すよう
に、物体境界付近のブロックが背景の構造にひきずられ
ることがあった。そのため、移動推定後のブロック位置
をたどっても正しい輪郭と一致しないということがあっ
た。これに対して、本実施例の場合には、輪郭の近隣位
置での動きベクトルがほぼ等しくなるように平滑化され
るので、図6のCに示すように、図6のBの従来例で表
れていた輪郭線のゆがみを低減することができる。
る動きベクトルの推定結果を、また図6のCは本実施例
による動きベクトルの推定結果をそれぞれ表している。
これらの図6のB、Cに示す次のフレームにおいては、
対象物に対する背景の相対位置が変化している。従来の
ブロックマッチングでは、しばしば図6のBに示すよう
に、物体境界付近のブロックが背景の構造にひきずられ
ることがあった。そのため、移動推定後のブロック位置
をたどっても正しい輪郭と一致しないということがあっ
た。これに対して、本実施例の場合には、輪郭の近隣位
置での動きベクトルがほぼ等しくなるように平滑化され
るので、図6のCに示すように、図6のBの従来例で表
れていた輪郭線のゆがみを低減することができる。
【0062】なお、本発明は、上記実施例のみに限定さ
れるものではなく、本発明の要旨を逸脱しない範囲で種
々の変更が可能である。
れるものではなく、本発明の要旨を逸脱しない範囲で種
々の変更が可能である。
【0063】
【発明の効果】本発明に係る動きベクトル推定方法によ
れば、対象領域内の対象物輪郭曲線上の各位置での動き
ベクトル推定を行った後、得られた動きベクトルが上記
対象物輪郭曲線上の1次元ベクトル場であるとして、ベ
クトル場の平滑化処理を行うことにより、対象物輪郭曲
線上の各位置での動きベクトル推定を行って得られた動
きベクトルのベクトル場の平滑化処理を行うことによ
り、滑らかなベクトル場中に局所的なスポットノイズと
して存在する誤った動きベクトルを、近傍の正しいベク
トルの情報を用いて修正することができ、対象物の境界
領域でも良好な動きベクトル推定が行える。
れば、対象領域内の対象物輪郭曲線上の各位置での動き
ベクトル推定を行った後、得られた動きベクトルが上記
対象物輪郭曲線上の1次元ベクトル場であるとして、ベ
クトル場の平滑化処理を行うことにより、対象物輪郭曲
線上の各位置での動きベクトル推定を行って得られた動
きベクトルのベクトル場の平滑化処理を行うことによ
り、滑らかなベクトル場中に局所的なスポットノイズと
して存在する誤った動きベクトルを、近傍の正しいベク
トルの情報を用いて修正することができ、対象物の境界
領域でも良好な動きベクトル推定が行える。
【0064】また、画像を階層化して、各階層毎に上記
対象領域内の対象物輪郭曲線上の各位置での動きベクト
ルを階層的ブロックマッチングにより推定し、各階層毎
に得られたベクトル場に対して上記平滑化処理を行って
いるため、各階層のマッチングの間に平滑化処理を行う
ことができ、しかもあらためて再推定処理を行う必要が
なく、マッチングに関する処理量を増やすことなく、階
層的処理が行え、従来技術ではエラーの多かった、物体
境界領域でも精度の良い動きベクトル推定を行うことを
実現できる。
対象領域内の対象物輪郭曲線上の各位置での動きベクト
ルを階層的ブロックマッチングにより推定し、各階層毎
に得られたベクトル場に対して上記平滑化処理を行って
いるため、各階層のマッチングの間に平滑化処理を行う
ことができ、しかもあらためて再推定処理を行う必要が
なく、マッチングに関する処理量を増やすことなく、階
層的処理が行え、従来技術ではエラーの多かった、物体
境界領域でも精度の良い動きベクトル推定を行うことを
実現できる。
【図1】本発明の動きベクトル推定方法が適用される実
施例の概略構成を示すブロック図である。
施例の概略構成を示すブロック図である。
【図2】本発明の実施例を実現するための画像処理装置
の全体の概略構成を示すブロック図である。
の全体の概略構成を示すブロック図である。
【図3】動きベクトル場の平滑化の例を説明するための
図である。
図である。
【図4】動きベクトル場の平滑化処理を説明するための
図である。
図である。
【図5】図4の平滑化処理部での演算動作を説明するた
めのフローチャートである。
めのフローチャートである。
【図6】本実施例の効果を説明するための図である。
【図7】従来のブロックマッチングによる動きベクトル
推定のための概略構成を示すブロック図である。
推定のための概略構成を示すブロック図である。
【図8】画像と、テンプレート、探査範囲の関係を示す
図である。
図である。
【図9】図7のマッチング演算処理部での演算動作を説
明するためのフローチャートである。
明するためのフローチャートである。
【図10】階層画像のピラミッド構造の一例を示す図で
ある。
ある。
【図11】階層的ブロックマッチング処理のための概略
構成を示すブロック図である。
構成を示すブロック図である。
【図12】階層的ブロックマッチング処理の動作の一例
を示すフローチャートである。
を示すフローチャートである。
11、12 階層化処理部 13、14、15、16 ブロックマッチング処理部 17 ブロックリスト生成処理部 18、19 平滑化処理部 21 CPU(中央演算処理装置) 22 外部記憶手段 23 入力手段 24 表示手段 25 バスライン
Claims (2)
- 【請求項1】 時間的な前後関係にある第1、第2の画
像間の対象領域の動きベクトルを推定する動きベクトル
推定方法において、 対象領域内の対象物輪郭曲線上の各位置での動きベクト
ル推定を行う工程と、 得られた動きベクトルが上記対象物輪郭曲線上の1次元
ベクトル場であるとして、ベクトル場の平滑化処理を行
う工程とを有することを特徴とする動きベクトル推定方
法。 - 【請求項2】 上記第1、第2の画像をそれぞれ階層化
し、 各階層毎に上記対象領域内の対象物輪郭曲線上の各位置
での動きベクトルを階層的ブロックマッチングにより推
定し、各階層毎に得られたベクトル場に対して上記平滑
化処理を行うことを特徴とする請求項1記載の動きベク
トル推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14093195A JPH08336140A (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14093195A JPH08336140A (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08336140A true JPH08336140A (ja) | 1996-12-17 |
Family
ID=15280152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14093195A Withdrawn JPH08336140A (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08336140A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002093936A1 (en) * | 2001-05-10 | 2002-11-21 | Sony Corporation | Moving picture encoding apparatus |
JP2007251636A (ja) * | 2006-03-16 | 2007-09-27 | Pentax Corp | 被写体追尾システム |
-
1995
- 1995-06-07 JP JP14093195A patent/JPH08336140A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002093936A1 (en) * | 2001-05-10 | 2002-11-21 | Sony Corporation | Moving picture encoding apparatus |
US7158570B2 (en) | 2001-05-10 | 2007-01-02 | Sony Corporation | Motion picture encoding apparatus |
CN100338958C (zh) * | 2001-05-10 | 2007-09-19 | 索尼株式会社 | 运动图像编码设备 |
JP2007251636A (ja) * | 2006-03-16 | 2007-09-27 | Pentax Corp | 被写体追尾システム |
JP4573789B2 (ja) * | 2006-03-16 | 2010-11-04 | Hoya株式会社 | 被写体追尾システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2576771B2 (ja) | 動き補償予測装置 | |
Giachetti | Matching techniques to compute image motion | |
CN100455266C (zh) | 宽景成像处理方法 | |
JP4080951B2 (ja) | フレーム補間方法及び装置並びに画像表示システム | |
EP1784785B1 (en) | Method and system for motion correction in a sequence of images | |
US20070036408A1 (en) | Hierarchical motion estimation method and ultrasound imaging system using the same | |
JP2015527625A (ja) | 身体測定 | |
JP2002269559A (ja) | 画像のテンプレートマッチング方法及び画像処理装置 | |
US8036454B2 (en) | Information processing system | |
EP1734767A1 (en) | Method for processing digital image data | |
CN108648145B (zh) | 图像拼接方法及装置 | |
US20160267690A1 (en) | Flexible Video Object Boundary Tracking | |
US6931145B1 (en) | Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model | |
JP2008209275A (ja) | 相関演算装置、相関演算方法及びプログラム | |
EP1580684B1 (en) | Face recognition from video images | |
JPH08336140A (ja) | 動きベクトル推定方法 | |
JPH08335268A (ja) | 領域抽出方法 | |
CN114612518B (zh) | 基于历史轨迹信息和细粒度匹配的孪生网络目标跟踪方法 | |
JPH10111946A (ja) | 画像追跡装置 | |
JP3333012B2 (ja) | 画像合成装置 | |
Kwon et al. | Rolled fingerprint construction using MRF-based nonrigid image registration | |
JP5164280B2 (ja) | 階層マスク生成装置、フレーム補間処理装置 | |
CN104318580B (zh) | 一种模式搜索方法及装置 | |
CN103618904A (zh) | 基于像素的运动估计方法及装置 | |
JP3906201B2 (ja) | 補間画像生成装置および隠蔽領域推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020903 |