JPH10108193A - 動きベクトル検出方法および装置 - Google Patents

動きベクトル検出方法および装置

Info

Publication number
JPH10108193A
JPH10108193A JP27902196A JP27902196A JPH10108193A JP H10108193 A JPH10108193 A JP H10108193A JP 27902196 A JP27902196 A JP 27902196A JP 27902196 A JP27902196 A JP 27902196A JP H10108193 A JPH10108193 A JP H10108193A
Authority
JP
Japan
Prior art keywords
motion vector
field
prediction error
input
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP27902196A
Other languages
English (en)
Other versions
JP3824359B2 (ja
Inventor
Masataka Mogi
正尊 茂木
Yoshiharu Kamiya
義治 上谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27902196A priority Critical patent/JP3824359B2/ja
Publication of JPH10108193A publication Critical patent/JPH10108193A/ja
Application granted granted Critical
Publication of JP3824359B2 publication Critical patent/JP3824359B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【課題】少ない演算量で大きい動きに追随でき、かつフ
レーム動きベクトルの検出精度を高めて動きの小さな画
像に対する検出性能を向上させる動きベクトル検出方法
を提供する。 【解決手段】第1の入力フィールド中の部分領域に対す
る動きベクトル探索範囲を参照画面上に設定して第1の
動きベクトルを検出した後、第1の動きベクトルに基づ
き第2の入力フィールド中の部分領域に対する動きベク
トル探索範囲を参照画面上に設定して第2の動きベクト
ルを検出し、2つの参照フィールドを合わせたフレーム
で構成される領域を探索範囲としたときの予測誤差を第
1、第2の動きベクトルの検出時に求めた予測誤差の和
で算出して第3の動きベクトルを検出し、これら3種類
の動きベクトルから最適な動きベクトルを検出する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像の記録・通信
・伝送および放送等における動き補償予測符号化方式の
動画像符号化装置に係り、特に動きベクトル検出対象画
面の部分領域が符号化済みの参照画面のどの部分領域か
ら動いたものかを表す動きベクトルを検出する動きベク
トル検出方法およびその方法を用いた動きベクトル検出
装置に関する。
【0002】
【従来の技術】動画像信号は情報量が膨大であるため、
単にディジタル化して伝送や記録を行おうとすると、極
めて広帯域の伝送路や、大容量の記録媒体を必要とす
る。そこで、テレビ電話、テレビ会議、CATVおよび
画像ファイル装置等では、動画像信号を少ないデータ量
に圧縮符号化する技術が用いられる。
【0003】動画像信号の圧縮符号化技術の一つとし
て、動き補償予測符号化方式が知られている。この動き
補償予測符号化方式では、符号化済みの画面を参照画面
とし、入力画面の部分領域に対して参照画面の最も相関
の高い部分領域を検出することにより、入力画面の部分
領域が参照画面のどの部分領域から動いたものかを表す
動きベクトルを求め、入力画面の部分領域と動きベクト
ルにより示される参照画面の部分領域との差分である予
測誤差信号を符号化する。
【0004】一般に、動画像信号を得るための画面の走
査方法としては、1ラインずつ順々に走査する順次走査
(ノンインタレーススキャンニング−non-interlaced s
canning −)と、1ラインずつ間を空けて走査する飛び
越し走査(インタレーススキャンニング−interlaced s
canning −)がある。1回の飛び越し走査によって得ら
れる1ラインずつ間引かれた画面をフィールドと呼び、
1回の順次走査または2回の飛び越し走査によって得ら
れる完全な画面をフレームと呼ぶ。
【0005】順次走査によって得られるノンインタレー
ス画像のように、同一フレーム内のフィールド間では動
きが存在しない場合には、フレーム構成によって検出し
た動きベクトル(以下、フレーム動きベクトルという)
を用いる動き補償予測方法が有効となることが多い。
【0006】これに対して、飛び越し走査によって得ら
れるインタレース画像においては、一般に同一フレーム
内であってもフィールド間に動きが存在するので、フィ
ールド構成によって検出した動きベクトル(以下、フィ
ールド動きベクトルという)を用いる動き補償予測方法
が有効となる場合が多い。
【0007】そこで従来では、同一フレーム内のフィー
ルド間に動きが存在する場合と、動きがしない場合の双
方に対応できるように、入力画面のフレーム構成の部分
領域と、その部分領域を形成するフィールド構成の各部
分領域について、それぞれ個別に動きベクトルを検出し
ていた。
【0008】例えば、ISO-IEC/JTC1/SC29/WG11/N0400に
示される手法では、以下の手順によって、フレームで構
成される部分領域およびフィールドで構成される部分領
域についての動きベクトルをそれぞれ検出していた。
【0009】まず、図4に示すように入力画面(入力フ
レーム)302中のフレーム構成の部分領域305の白
丸で示す奇数ラインと黒丸で示す偶数ライン、つまりフ
ィールド構成の各部分領域と、参照画面(参照フレー
ム)301中のフレーム構成の部分領域306のフィー
ルド構成の部分領域との間の誤差量である予測誤差量を
算出する。
【0010】そして、入力フレーム302中のフィール
ド構成の各部分領域についてこの予測誤差量の値を評価
し、その値が最も小さくなる動きベクトルをフィールド
動きベクトルとして検出する。次に、入力フレーム30
2中のフィールド構成の各部分領域に対して算出した予
測誤差量の和を求める。そして、この予測誤差量の和を
評価し、その値が最も小さくなる動きベクトルをフレー
ム動きベクトルとして検出する。
【0011】ここで、図4に示されるように、入力フレ
ーム302中のフィールド構成の各部分領域に対応する
参照フレーム301中のフィールド構成の部分領域は、
参照フレーム301中のフレーム構成の部分領域を形成
するように組み合わされている。すなわち、参照フレー
ム301中のフィールド構成の各部分領域は、それぞれ
参照フレーム301中のフレーム構成の部分領域の奇数
ラインと偶数ラインになっている。
【0012】このような手順によりフレーム動きベクト
ルとフィールド動きベクトルの双方を検出した後、フレ
ーム構成の部分領域に対して検出した1つのフレーム動
きベクトルを用いた場合の予測誤差量と、同一フレーム
を構成する2つのフィールドの部分領域に対して検出し
た2つのフィールド動きベクトルを用いた場合の予測誤
差量の和とを比較して、その値が最も小さくなる予測方
法における動きベクトルを動き補償に使用していた。
【0013】しかし、このようにフレーム動きベクトル
とフィールド動きベクトルの両方を検出する方法は、一
つの入力画面についての動きベクトル検出のために必要
な演算量が増大するという問題がある。
【0014】一方、MPEGのように、参照画面と入力
画面が必ずしも隣接していない場合もあり、このような
場合は参照画面と入力画面が時間的に離れ、その間隔が
大きくなることがある。参照画面と入力画面との間隔が
大きくなると、それだけ参照画面からの動きの量も大き
くなる。従って、画面間隔が離れた参照画面から画像の
動きに追随させて動きベクトル検出を行うためには、動
きベクトル検出の探索範囲を広げなくてはならず、動き
ベクトルの検出に要する演算量が膨大となってしまう。
【0015】このよう問題に対し、テレスコピック探索
と呼ばれる手法を用いて、演算量を削減させつつ、離れ
た参照画面からの動きベクトルの検出を行う方法が考え
られている。テレスコピック探索では、1画面前の画面
上で同じ位置の部分領域に対して検出した動きベクトル
を基準として、設定位置をシフトさせた探索範囲で動き
ベクトル検出を行う。
【0016】テレスコピック探索で前述のフレーム動き
ベクトルとフィールド動きベクトルの両方を検出する場
合には、図5に示すように動きベクトルを検出しようと
する入力フレーム(入力フレーム2)403より1フレ
ーム前の入力フレーム(入力フレーム1)402のう
ち、入力フレーム403中の部分領域405と同じ位置
の部分領域404に対して検出したフレーム動きベクト
ルを探索範囲の設定の基準として、探索範囲406を矢
印408のようにシフトさせた探索範囲407を参照フ
レーム401内に設定し、この探索範囲407について
フレーム単位のテレスコピック探索を行う方法がとられ
ている。
【0017】しかし、このようにフレーム単位のテレス
コピック探索を行う方法は、動きの大きいインタレース
画像に対して追随させようとすると、探索範囲を大きく
しなくてはならないため、動きベクトル検出に要する演
算量が増加し、ひいては回路規模の増加を招いてしま
い、演算量を削減するというテレスコピック探索の本来
の目的を果たせなくなるという問題点があった。
【0018】
【発明が解決しようとする課題】上述したように、フィ
ールド動きベクトルとフレーム動きベクトルの両方を検
出する従来の動きベクトル検出方法では、一つの入力画
面についての動きベクトル検出に要する演算量が多いと
いう問題点があった。
【0019】また、フレーム単位のテレスコピック探索
を行う方法は、動きの大きいインタレース画像に対して
も追随するには探索範囲を大きくとらなれけばならず、
動きベクトル検出に要する演算量が増加し、ひいては回
路規模の増加を招くという問題点があった。
【0020】本発明は、このような従来の問題点を解決
するためになされたものであり、少ない演算量で大きい
動きに追随することができ、かつフレーム動きベクトル
の検出精度を高めて動きの小さな画像に対する動きベク
トルの検出性能を向上させることができる動きベクトル
検出方法および動きベクトル検出装置を提供することを
目的とする。
【0021】
【課題を解決するための手段】上記の課題を解決するた
め、本発明はフィールド単位のテレスコピック探索を行
うことにより、少ない演算量で大きい動きに追随するこ
とができるようにし、さらに入力画面の両フィールドの
各々の部分領域に対する探索範囲が重なる領域について
は、入力画面の両フィールドの各々の部分領域に対して
算出した誤差量を足し合わせ、その足し合わされた値を
評価量に使用することにより、演算量の増加を招くこと
なくフレーム動きベクトルの検出精度を高めるようにし
たことを骨子とするものである。
【0022】すなわち、本発明は第1および第2のフィ
ールドで構成される入力画面上の部分領域が参照画面上
のどの部分領域から動いたかを示す動きベクトル情報を
検出する際、入力画面の第1のフィールド中の部分領域
に対する動きベクトル探索範囲を参照画面上に設定し、
該探索範囲内の各動きベクトル候補を用いた場合の第1
の予測誤差を算出して第1の予測誤差が最小となる第1
の動きベクトルを検出し、この第1の動きベクトルに基
づいて、入力画面の第2のフィールド中の部分領域に対
する動きベクトル探索範囲を参照画面上に設定し、該探
索範囲内の各動きベクトル侯補を用いた場合の第2の予
測誤差を算出して第2の予測誤差が最小となる第2の動
きベクトルを検出し、2つの参照フィールドを合わせた
フレームで構成される領域を探索範囲とした動きベクト
ル侯補に対する第3の予測誤差を第1および第2の予測
誤差の和で算出し、第3の予測誤差が最小となる第3の
動きベクトルを検出し、第1、第2および第3の動きベ
クトルから最適な動きベクトルを検出することを特徴と
する。
【0023】また、第3の動きベクトルを検出するため
に、第1の動きベクトルを検出する際に用いた第1の予
測誤差を記憶しておき、この記憶した第1の予測誤差を
第2の予測誤差と加算して第3の予測誤差を求めるよう
にする。
【0024】このように本発明によると、フィールド単
位のテレスコピック探索を行って第1および第2の動き
ベクトルを検出することにより、動きベクトルの探索に
様子演算量を増加させることなく、大きい動きに追従で
きる。しかも、フレーム動きベクトルである第3の動き
ベクトルの探索精度を高めることができるので、探索に
用する演算量を増やすことなく、動きの小さい画像に対
する動きベクトルの検出性能も向上する。
【0025】
【発明の実施の形態】以下、図面を用いて本発明の実施
形態を説明する。図1に示すフローチャートを用いて、
本実施形態に係る動きベクトル検出方法の検出手順を説
明する。
【0026】まず、入力フィールドの部分領域、すなわ
ちフィールド構成の入力画面の部分領域を設定する(ス
テップS01)。次に、参照フィールド、すなわちフィ
ールド構成の複数の参照画面上に、動きベクトルの探索
範囲を設定する(ステップS02)。この探索範囲の設
定に際しては、テレスコピック探索による動きベクトル
の検出順で1フィールド前の入力フィールド上で同じ位
置の部分領域に対して検出したフィールド動きベクトル
が指し示す位置を基準とする。
【0027】次に、フィールド構成およびフレーム構成
の入力部分領域(入力画面の部分領域)との誤差量が最
小となる参照部分領域(参照画面の部分領域)の位置を
検出する(ステップS03〜S09)。
【0028】すなわち、まずステップS03において入
力フィールドの部分領域と参照フィールドの部分領域と
の間の誤差量を算出する。ステップS04においては、
これら入力フィールドおよび参照フィールドの部分領域
間の誤差量を評価量として、以前の誤差量と同じかそれ
よりも小さい場合には、動きベクトルおよび誤差量を更
新することにより、各フィールド毎のフィールド動きベ
クトルを検出する。
【0029】ステップS05では、現在動きベクトル検
出を行っている入力フィールドがテレスコピック探索に
よる動きベクトルの検出順で1フィールド前の入力フィ
ールドと同一フレームを構成するか否かを判断する。こ
の判断の結果、現在動きベクトル検出を行っている入力
フィールドが1フィールド前の入力フィールドと同一フ
レームを構成しない場合には、ステップS07において
誤差量を予測誤差記憶部に記憶する。
【0030】また、ステップS05において現在動きベ
クトル検出を行っている入力フィールドが1フィールド
前の入力フィールドと同一フレームを構成している場合
には、次のステップS06において誤差量の加算を行
い、加算した誤差量を評価量として、以前の加算された
誤差量と同じかそれよりも小さい場合には、動きベクト
ルおよび加算された誤差量を更新することによって、フ
レーム動きベクトルを検出する。
【0031】その際、同一フレームを構成する、前入力
フィールドと現入力フィールドの2つの入力フィールド
の各入力部分領域に対する探索範囲が重なる領域につい
ては、現入力部分領域に対する誤差量と予測誤差記憶部
に記憶された前入力部分領域に対する誤差量を加算し、
探率範囲が重ならない領域については、例えばデフォル
トで設定した大きい値を加算することによって、誤差量
の評価の際に選択されないようにしたりする。
【0032】ステップS08において、探索範囲内の探
索が終了したか否かが判断され、終了していない場合に
は、ステップS09において参照フィールドの部分領域
を更新して、ステップS03ないしS08の動作を繰り
返すことになる。
【0033】一方、ステップS08において探索範囲内
の探索が終了したと判断された場合には、ステップS1
0に進む。ステップS10では、現在動きベクトル検出
を行っている入力フィールドがテレスコピック探索によ
る動きベクトルの検出順で1フィールド前の入力フィー
ルドと同一フレームを構成するか否かを判断する。この
判断の結果、現在動きベクトル検出を行っている入力フ
ィールドが1フィールド前の入力フィールドと同ーフレ
ームを構成しない場合には、ステップS11で入力フィ
ールドを切り替えて、ステップS01からステップS0
9までの処理を繰り返す。また、同一フレームを構成す
る場合には、ステップS12に進みフィールド動きベク
トルおよびフレーム動きベクトルの検出が完了する。
【0034】ステップS13では、最適な動きベクトル
の検出を行う。例えば、フィールド動きベクトルとフレ
ーム動きベクトルのうち、動き補償予測に適する方を選
択する。また、必要に応じて、1/2画素精度の動きベ
クトル検出を行う。
【0035】次に、図2を用いて上述した動きベクトル
検出手順を用いる本発明の一実施形態に係る動きベクト
ル検出装置を含む動画像符号化装置について説明する。
この動画像符号化装置は、動画像信号が入力される入力
端子101、第1の画像メモリ102、第1の動きベク
トル検出部103、第2の動きベクトル検出/予測部1
04、第2の画像メモリ105、フレーム遅延器10
6、減算器107、直交変換器108、量子化器10
9、逆量子化器110、逆直交変換器111、遅延器1
12、加算器113、可変長符号化器114、符号化デ
ータを出力する出力端子115、予測誤差記憶部11
6、加算器117、および予測誤差評価部118からな
る。
【0036】以下、各部の構成について説明すると、ま
ず第1の画像メモリ102は、入力画面の画像信号、す
なわち入力端子101から入力される画像信号を1画面
分記憶する。
【0037】第1の動きベクトル検出部103は、第1
に、入力端子101から入力される画像信号の複数画素
で構成されるフィールド構成の部分領域に対して、第1
の画像メモリ102に記憶されている過去に入力された
画面からのフィールド動きベクトル侯補を検出し、その
フィールド動きベクトル候補を第2の動きベクトル検出
/予測部104に出力する。
【0038】第1の動きべクトル検出部103は、第2
に、算出した部分領域間の誤差量を予測誤差記憶部11
6と加算器117に出力する。第1の動きベクトル検出
部103は、第3に、算出した誤差量を予測誤差記憶部
116に書き込む際の書き込みアドレス情報と、テレス
コピック探索によって探索中心位置が移動した分だけ書
き込みアドレスからシフトさせた読み出しアドレス情報
と、前入力フィールドと同一フレームを構成するか否か
を示す情報とを予測誤差記憶部116および予測誤差評
価部118とに出力する。
【0039】予測誤差記憶部116は、第1に、前入力
フィールドと同一フレームを構成しない場合には、第1
の動きベクトル検出部103から入力される書き込みア
ドレス情報で示される位置に、第1の動きベクトル検出
部103から入力される誤差量を記憶する。
【0040】予測誤差記憶部116は、第2に、前入力
フィールドと同一フレームを構成する場合で同一フレー
ムを構成する各入力部分領域に対して順定した探索範囲
が重なっている領域内の場合には、第1の動きベクトル
検出部103から入力される読み出しアドレス情報で示
される位置に記憶されている誤差量を加算器117に出
力する。
【0041】予測誤差記憶部116は、第3に、前入力
フィールドと同一フレームを構成する場合で同一フレー
ムを構成する各入力部分領域に対して設定した探索範囲
が重なり合っていない領域内の場合、または前入力フィ
ールドと同一フレームを構成しない場合には、デフォル
トで設定した大きい値を加算器117に出力する。
【0042】加算器117は、第1の動きベクトル検出
部103から入力される誤差量と、予測誤差記憶部11
6から入力される誤差量とを加算して予測誤差評価部1
18に出力する。
【0043】予測誤差評価部118は、加算器117か
ら入力される加算された誤差量を評価して第1の画像メ
モリ102に記憶されている過去に入力された画面から
のフレーム動きベクトル侯補を検出し、そのフレーム動
きベクトル侯補を第2の動きベクトル検出/予測部10
4に出力する。
【0044】第2の動きベクトル検出/予測部104
は、第1に、局部再生されかつ第2の画像メモリ105
に記憶された過去の画面を参照して、1/2画素精度の
動きベクトルを検出する。その際、第1の動きベクトル
検出部103から入力されるフィールド動きベクトル侯
補の近傍を高精度で再探索して、1/2画素精度のフィ
ールド動きベクトルを検出する。
【0045】第2の動きベクトル検出/予測部104
は、第2に、予測誤差評価部118から入力されるフレ
ーム動きベクトル候補の近傍を高精度で再探索して1/
2画素精度のフレーム動きベクトルを検出する。そし
て、これら1/2画素精度の動きベクトルを検出すると
共に、その中から入力画面の部分領域の動き補償予測符
号化を行うのにより適した動きベクトルを選択して、そ
の動きベクトルに従った予測信号を生成し、その予測信
号と予測モードと動きベクトル情報を出力する。
【0046】減算器107は、第2の動きベクトル検出
/予測部104から出力される予測信号と、遅延器10
6を介して入力される画像信号との差分信号を算出して
出力する。減算器107から出力される差分信号は、複
数の差分信号毎に直交変換器108により周波数成分に
変換され、量子化器109により再量子化処理が施され
る。
【0047】可変長符号化器114は、量子化器109
から出力される再量子化信号を第2の動きベクトル検出
部104から出力される予測モードと動きベクトル情報
と共に可変長符号化して出力端子115に出力する。
【0048】また、量子化器109から出力される再量
子化信号は、逆量子化器110により逆量子化処理が施
され、さらに逆直交変換器111により差分信号に逆変
換される。
【0049】加算器113は、逆直交変換器111から
出力される差分信号と遅延器112を介して入力される
予測信号との加算により局部再生信号を生成する。この
局部再生信号は、次の入力画面に対する予測信号生成に
使用するために、第2の画像メモリ105に記憶され
る。
【0050】次に、図3を用いて本実施形態における部
分領域間の予測誤差量の算出方法の一例について説明す
る。ここでは、前方予測の例について述べる。まず、入
力トップフィールド205上の入力部分領域213に対
して、参照トップフィールド203および参照ボトムフ
ィールド204のそれぞれに探索範囲217および21
8を設定する。
【0051】次に、それぞれの探索範囲217および2
18内の参照部分領域と入力部分領域213との間の誤
差量を算出し、予測誤差記憶部116に記憶する。探索
範囲内の全ての参照部分領域について、誤差量算出と予
測誤差記憶部116への記憶を行う。また、部分領域間
誤差量を評価量として、この評価量が最小値をとる参照
部分領域の位置情報を入力部分領域213に対するフィ
ールド動ベクトルとする。ここで、フィールド動きベク
トルとしては、参照トップフィールド203および参照
ボトムフィールド204のそれぞれにおいて評価量が最
小となる動きベクルからさらに一方を選択する。
【0052】次に、検出したフィールド動きベクトルを
基準として、入力トップフィールド205と同一入力フ
レーム202を構成する入力ボトムフィールド206上
の入力部分領域214に対して、参照トップフィールド
203および参照ボトムフィールド204のそれぞれ
に、探索範囲219および220を設定する。
【0053】次に、それぞれの探索範囲内の参照部分領
域と入力部分領域214との間の誤差量を算出する。次
に、入力トップフィールド205上の入力部分領域21
3に対して2つの参照フィールド203,204上に設
定した探索範囲217,218と、入力ボトムフィール
ド206上の入力部分領域214に対して2つの参照フ
ィールド203,204上に設定した探索範囲219,
220とが重なる領域で、予測誤差記憶部116に記憶
されている入力トップフィールド205上の入力部分領
域213に対して算出した誤差量と、入力ボトムフィー
ルド206上の入力部分領域214に対して算出した誤
差量とを加算器117で加算する。
【0054】ここで、誤差量の加算は次のようにして行
う。例えば、探索範囲が重なる領域内について、入力ト
ップフィールド205上の入力部分領域213と参照ト
ップフィールド203上の参照部分領域210との間の
誤差量と、入力ボトムフィールド206上の入力部分領
域214と参照ボトムフィールド204上の参照部分領
域212との間の誤差量とを加算する。入力部分領域2
13と入力部分領域214とは、入力フレーム202上
の入力部分領域209のそれぞれトップフィールドライ
ンとボトムフィールドラインに相当し、参照部分領域2
10と参照部分領域212とは、参照フレーム201上
の参照部分領域207のそれぞれトップフィールドライ
ンとボトムフィールドラインに相当する。従って、この
加算された誤差量は、入力フレーム202上の入力部分
領域209と参照フレーム201上の参照部分領域20
7との間の誤差量に相当する。
【0055】また例えば、参照トップフィールド203
上で参照部分領域210と垂直位置が1フィールドライ
ン異なる参照部分領域211と入力ボトムフィールド2
06上の入力部分領域214との間の誤差量と、参照ボ
トムフィールド204上の参照部分領域212と入力ト
ップフィールド205上の入力部分領域213との間の
誤差量とを加算する。
【0056】参照部分領域211と参照部分領域212
とは、参照フレーム201上の、参照部分領域207と
垂直位置が1フレームライン異なる参照部分領域208
のそれぞれトップフィールドラインとボトムフィールド
ラインとに相当する。従って、この加算された誤差量
は、入力フレーム202上の入力部分領域209と参照
フレーム201上の参照部分領域208との間の誤差量
に相当する。
【0057】これらの例に示すように、参照フレーム2
01上で参照部分領域が1画素/1フレームラインずつ
シフトしてゆく組み合わせとなるように、フィールド部
分領域間の誤差量を加算する。この加算された誤差量を
評価量として、該評価量が最小値となる部分領域の位置
を入力部分領域209に対するフレーム動きベクトルと
する。
【0058】また、入力部分領域214に対して、加算
されないフィールド部分領域間誤差量評価量として、こ
の評価量が最小値をとる参照部分領域の位置情報を入力
ボトムフィールド206上の入力部分領域214に対す
るフィールド動きベクトルとする。ここで、フィールド
動きベクトルは、参照トップフィールド203および参
照ボトムフィールド204のそれぞれにおいて評価量が
最小となる動きベクトルからさらに一方を選択する。
【0059】以上、本発明の実施形態を説明してきた
が、これらはあくまで実施の一例を示したものであり、
ここに示したもの以外にも本発明の主旨を逸脱しない範
囲で様々な形態を取り得ることはもちろんである。
【0060】
【発明の効果】以上説明したように、本発明では第1の
入力フィールド中の部分領域に対する動きベクトル探索
範囲を参照画面上に設定して第1の動きベクトルを検出
した後、第1の動きベクトルに基づき第2の入力フィー
ルド中の部分領域に対する動きベクトル探索範囲を参照
画面上に設定して第2の動きベクトルを検出し、2つの
参照フィールドを合わせたフレームで構成される領域を
探索範囲としたときの予測誤差を第1、第2の動きベク
トルの検出時に求めた予測誤差の和で算出して第3の動
きベクトルを検出し、これら3種類の動きベクトルから
最適な動きベクトルを検出している。
【0061】従って、本発明によればフィールド単位の
テレスコピック探索により第1および第2の動きベクト
ル検出を行うことにより、少ない探索演算量で大きい動
きに追随できる上に、フレーム動きベクトルである第3
の動きベクトルの探索精度を高めることができるため、
探索演算量を増やすことなく、動きの小さい画像に対す
る動きベクトルの検出性能も向上させることができると
いう効果がある。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る動きベクトル検出方
法を説明するためのフローチャート
【図2】同実施形態に係る動きベクトル検出装置を含む
動画像符号化装置の構成を示すブロック図
【図3】同実施形態における部分領域間の予測誤差量算
出方法を説明するための図
【図4】従来技術に基づく部分領域間の予測誤差量算出
方法を説明するための図
【図5】従来技術に基づくフレーム単位のテレスコピッ
ク探索の概念を表す図
【符号の説明】
101…動画像信号入力端子 102…第1の画像メモリ 103…第1の動きベクトル検出部 104…第2の動きベクトル検出/予測部 105…第2の画像メモリ 106…フレーム遅延器 107…減算器 108…直交変換器 109…量子化器 110…逆量子化器 111…逆直交変換器 112…遅延器 113…加算器 114…可変長符号化器 115…符号化データ出力端子 116…予測誤差記憶部 117…加算器 118…予測誤差評価部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】第1および第2のフィールドで構成される
    入力画面上の部分領域が参照画面上のどの部分領域から
    動いたかを示す動きベクトル情報を検出する動きベクト
    ル検出方法において、 前記入力画面の第1のフィールド中の部分領域に対する
    動きベクトル探索範囲を前記参照画面上に設定し、該探
    索範囲内の各動きベクトル候補を用いた場合の第1の予
    測誤差を算出して第1の予測誤差が最小となる第1の動
    きベクトルを検出するステップと、 この第1の動きベクトルに基づいて、前記入力画面の第
    2のフィールド中の部分領域に対する動きベクトル探索
    範囲を前記参照画面上に設定し、該探索範囲内の各動き
    ベクトル侯補を用いた場合の第2の予測誤差を算出して
    第2の予測誤差が最小となる第2の動きベクトルを検出
    するステップと、 2つの参照フィールドを合わせたフレームで構成される
    領域を探索範囲とした動きベクトル侯補に対する第3の
    予測誤差を前記第1および第2の予測誤差の和で算出
    し、第3の予測誤差が最小となる第3の動きベクトルを
    検出するステップと、 前記第1、第2および第3の動きベクトルから最適な動
    きベクトルを検出するステップとを有することを特徴と
    する動きベクトル検出方法。
  2. 【請求項2】前記予測誤差を記憶しておき、この記憶し
    た第1の予測誤差と前記第2の予測誤差を加算して前記
    第3の予測誤差を求めることを特徴とする請求項1に記
    載の動きベクトル検出方法。
  3. 【請求項3】第1および第2のフィールドで構成される
    入力画面上の部分領域が参照画面上のどの部分領域から
    動いたかを示す動きベクトル情報を検出する動きベクト
    ル検出装置において、 前記入力画面の第1のフィールド中の部分領域に対する
    動きベクトル探索範囲を前記参照画面上に設定し、該探
    索範囲内の各動きベクトル候補を用いた場合の第1の予
    測誤差を算出して、第1の予測誤差が最小となる第1の
    動きベクトルを検出する手段と、 前記第1の動きベクトルに基づいて、前記入力画面の第
    2のフィールド中の部分領域に対する動きベクトル探索
    範囲を前記参照画面上に設定し、該探索範囲内の各動き
    ベクトル侯補を用いた場合の第2の予測誤差を算出し
    て、第2の予測誤差が最小となる第2の動きベクトルを
    検出する手段と、 2つの参照フィールドを合わせたフレームで構成される
    領域を探索範囲とした動きベクトル侯補に対する第3の
    予測誤差を前記第1および第2の予測誤差の和で算出
    し、第3の予測誤差が最小となる第3の動きベクトルを
    検出する手段と、 前記第1、第2および第3の動きベクトルから最適な動
    きベクトルを検出する手段とを有することを特徴とする
    動きベクトル検出装置。
  4. 【請求項4】前記第3の動きベクトルを検出する手段
    は、 第1の予測誤差を記憶する記憶手段と、 前記記憶手段に記憶された第1の予測誤差と前記第2の
    予測誤差を加算して第3の予測誤差を求める加算手段と
    を含むことを特徴とする請求項3に記載の動きベクトル
    検出装置。
JP27902196A 1996-09-30 1996-09-30 動きベクトル検出方法および装置 Expired - Fee Related JP3824359B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27902196A JP3824359B2 (ja) 1996-09-30 1996-09-30 動きベクトル検出方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27902196A JP3824359B2 (ja) 1996-09-30 1996-09-30 動きベクトル検出方法および装置

Publications (2)

Publication Number Publication Date
JPH10108193A true JPH10108193A (ja) 1998-04-24
JP3824359B2 JP3824359B2 (ja) 2006-09-20

Family

ID=17605296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27902196A Expired - Fee Related JP3824359B2 (ja) 1996-09-30 1996-09-30 動きベクトル検出方法および装置

Country Status (1)

Country Link
JP (1) JP3824359B2 (ja)

Also Published As

Publication number Publication date
JP3824359B2 (ja) 2006-09-20

Similar Documents

Publication Publication Date Title
US7929609B2 (en) Motion estimation and/or compensation
KR100287211B1 (ko) 양방향 움직임 추정방법 및 장치
US6359929B1 (en) Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
US6671319B1 (en) Methods and apparatus for motion estimation using neighboring macroblocks
US6483876B1 (en) Methods and apparatus for reduction of prediction modes in motion estimation
JP4528441B2 (ja) ブロック整合法及び統合投射法を用いた階層的動き評価処理及び装置
JP4002396B2 (ja) 動きベクトル決定方法及び装置
US6418168B1 (en) Motion vector detection apparatus, method of the same, and image processing apparatus
US20030161400A1 (en) Method and system for improved diamond motion search
JP3813320B2 (ja) 動きベクトル検出方法および装置
US6690728B1 (en) Methods and apparatus for motion estimation in compressed domain
US20050129124A1 (en) Adaptive motion compensated interpolating method and apparatus
JP3175914B2 (ja) 画像符号化方法および画像符号化装置
JP3824359B2 (ja) 動きベクトル検出方法および装置
JP3063380B2 (ja) 高能率符号化装置
EP1420595A1 (en) Motion vector selection in a video motion estimator based on a preferred reference point
WO2019187096A1 (ja) 復号方法、復号装置、符号化装置及びプログラム
US7333630B2 (en) Method and apparatus for detecting film image using grouping
JP3585628B2 (ja) 動きベクトル検出装置
JPH0951536A (ja) 動きベクトル検出方法と装置
JPH08242454A (ja) グローバル動きパラメタ検出方法
JP3437381B2 (ja) 動きベクトル検出装置
JP2000050278A (ja) 動きベクトル算出方法及び動きベクトル算出プログラムを記録した記録媒体
JPH0540828A (ja) ブロツクマツチング探索方式
JP3171249B2 (ja) 動画像符号化の動きベクトル探索方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040204

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040219

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040312

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060627

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees