JP3295228B2 - 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 - Google Patents
動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置Info
- Publication number
- JP3295228B2 JP3295228B2 JP15334194A JP15334194A JP3295228B2 JP 3295228 B2 JP3295228 B2 JP 3295228B2 JP 15334194 A JP15334194 A JP 15334194A JP 15334194 A JP15334194 A JP 15334194A JP 3295228 B2 JP3295228 B2 JP 3295228B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- image
- motion
- equation
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
して入力される動画像の低ビットレート符号化にあるい
は内挿に有用な、動きベクトル検出装置、動き補償予測
装置及び動き補償予測フレーム間符号化装置に関する。
は、図6に示されるように、画面100を所望のブロッ
ク101に分割し、ブロック単位の並行移動ベクトル1
02を周知のブロックマッチング方法により検出し、検
出した並行移動ベクトル102を用いて動き補償予測を
行うのが一般であった。しかし、ブロック単位の並行移
動ベクトル102を用いることから、しばしば予測画像
にブロック間の境界が乱れるというブロック歪が発生
し、それによって現フレーム画像との差が大きくなり、
符号化のビットレートが増大することがある。
れるように、ブロック101を構成する各隅の格子点1
03における動きベクトル104を周知のブロックマッ
チング方法により検出し、この動きベクトル104を利
用して、バイリニア変換やアフィン変換により動き補償
予測を行う方法が提案されている(文献:“Motion Vec
tor Field Reconstruction for Predictive Video Sequ
ence Coding",Proc.VLBV94,6-4,April,1994)
きベクトル104の検出は、各格子点103にそれを囲
む仮想的なブロック105を設定し、時間的に前後した
2枚のフレーム画像(前フレーム画像と現フレーム画
像)との間で仮想的ブロック105の動きをブロックマ
ッチング方法により検出する。
られる非線形変換である。バイリニア変換を用いて動き
補償予測を行う場合は、まずその変換係数a〜hを四角
形のブロック101毎に、その四隅の格子点103で検
出した動きベクトルの値(v x1,vy1),(vx2,
vy2),(vx3,vy3)及び(vx4,vy4)から計算に
よって決定する。次に、ブロック101毎に、前フレー
ム画像をP(x,y)とし現フレーム画像に対応する予
測画像をC(x,y)とすれば、下記の式(5)によっ
てブロック内各画素の動き補償予測を行う。なお、xは
x座標値、yはy座標値を示す。
れる線形の変換である。アフィン変換を用いて動き補償
予測を行う場合は、図7に破線で示す三角形のブロック
106を設定し、各ブロック106毎にその三隅の格子
点103で検出した動きベクトルの値(vx1,vy1),
(vx2,vy2)及び(vx3,vy3)から計算によって6
個の変換係数a〜fを決定する。次に、ブロック106
毎に、各変換係数a〜fを用いて下記の式(7)によっ
てブロック内各画素の動き補償予測を行うことにより、
前フレーム画像P(x,y)から予測画像C(x,y)
を求める。
いた動き補償予測の場合も、予測画像C(x,y)を求
めたら、現フレーム画像とそれに対応する予測画像との
間での差分画像を計算し、差分画像をDCT(Discret
e Cosine Transform)やVQ(Vector Quantizer)
等の適宜な符号化方法で符号化して、受信側へ送る。ま
た、受信側において送信側と同様な動き補償予測画像を
生成するため、各ブロック101または106毎の格子
点の動きベクトル104のデータも受信側に送る。
04は格子点103の周囲に仮想的ブロック105を設
定してブロックマッチング方法により検出したものであ
るから、仮想的ブロック105の平均的な動きベクトル
であり、格子点103自体の動きベクトルに必ずしも正
確に一致するとは言えない。また、検出した動きベクト
ル104の動き量の精度は整数画素精度にすぎず、小数
点精度で動き量を検出することができない。そのため、
バイリニア変換やアフィン変換を用いて動き補償予測を
行っても、予測画像の精度に限界があり、ひいては低ビ
ットレートな符号化を制約している。一方、バイリニア
変換やアフィン変換を用いた動き補償予測は或る程度複
雑な動きを表現できる点で優れた方法ではあるが、例え
ば3次元空間内の平面が平面自体回転しながらテレビカ
メラに接近してくるような場合など、更に複雑な動きを
表現することは困難である。
み、バイリニア変換やアフィン変換を用いても予測画像
の精度が向上し、ひいては低ビットレートの符号化を可
能とする、動画像の動きベクトル検出装置及びそれを用
いた動き補償予測装置及び動き補償予測フレーム間符号
化装置を提供することを第1の目的とする。また、本発
明は、バイリニア変換やアフィン変換よりも複雑な動き
を表現できる変換式を用いた、動画像の動きベクトル検
出装置及びそれを用いた動き補償予測装置及び動き補償
予測フレーム間符号化装置を提供することを第2の目的
とする。
の発明に係る動画像の動きベクトル検出装置は:現フレ
ーム画像中の画素値の空間微分画像を計算する空間微分
計算手段と;現フレーム画像と前フレーム画像間での画
素値の時間微分画像を計算する時間微分計算手段と;動
きベクトルが検出されるべき格子点の位置情報を蓄積す
る格子点位置蓄積手段と;n個(但し、n=6または
8)の変換係数C k (但し、k=1〜n)を有し、動き
補償予測のための画面上の位置(x,y)とx方向の動
きベクトルv x との関係、並びに、同位置(x,y)と
y方向の動きベクトルv y との関係を表す変換式を、動
きベクトルのモデル情報として蓄積する動きモデル蓄積
手段と;前記格子点位置蓄積手段に蓄積された隣接する
n/2個の格子点P i の位置(x i 、y i )(但し、i
=1〜n/2)毎に、E tq を前記n/2個の格子点を境
界上に持つブロック上の任意点qにおいて前記時間微分
画像より得られる時間微分値、E xq とE yq を前記任意点
qにおいて前記空間微分画像より得られる空間微分値、
D x 及びD y を前記任意点qの位置(xq、yq)及び
空間微分値E xq 、E yq 並びに前記n/2個の格子点の位
置(x i 、y i )を含む係数とするとき、前記変換式に
基づく前記n/2個の格子点位置(x i 、y i )及びこ
れら各格子点位置での動きベクトル(v xi 、v yi )(但
し、i=1〜n/2)の関係と、時空間勾配の拘束条件
とから与えられる式Σ(D xi v xi +D yi v yi )=E
tq (但し、i=1〜n/2)を、j個(但し、j≧n)
の任意点について連立させ、得られる連立方程式から前
式中の係数D xi 、D yi を計算し、設定する係数設定手段
と;この係数設定手段から得られる前記係数D xi 、D yi
に基づいて、前記連立方程式から前記格子点位置におけ
る動きベクトルを計算する動きベクトル計算手段と;を
具備することを特徴とするものである。第2の発明に係
る動画像の動きベクトル検出装置は: 動きベクトルが検
出されるべき格子点の位置情報を蓄積する格子点位置蓄
積手段と; この格子点位置情報と、現フレーム画像と、
前フレーム画像とに基づいて、画像間におけるブロック
単位の粗い動きベクトルを検出する粗いベクトル検出手
段と; この粗い動きベクトルと、前記格子点位置情報
と、前フレーム画像とに基づいて、前フレーム画像に対
応する粗い予測画像を生成する粗い予測画像生成手段
と; 現フレーム画像中の画素値の空間微分画像を計算す
る空間微分計算手段と; 現フレーム画像と前記粗い予測
画像間での画素値の時間微分画像を計算する時間微分計
算手段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x と
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
P i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、v rx 、v ry を前記n/2個の格子点を境界上に持つ
ブロックの粗い動きベクトル、E tq を前記n/2個の格
子点を境界上に持つブロック上の任意点qにおいて前記
時間微分画像より得られる時間微分値、E xq とE yq を前
記任意点qにおいて前記空間微分画像より得られる空間
微分値、D x 及びD y を前記任意点qの位置(xq、y
q)及び空間微分値E xq 、E yq 並びに前記n/2個の格
子点の位置(x i 、y i )を含む係数とするとき、前記
変換式に基づく前記n/2個の格子点位置(x i 、
y i )及びこれら各格子点位置での動きベクトル
(v xi 、v yi )(但し、i=1〜n/2)の関係と、時
空間勾配の拘束条件とから与えられる式Σ(D xi v xi +
D yi v yi )=E tq ' −E xq v rx −E yq v ry (但し、i=
1〜n/2)を、j個(但し、j≧n)の任意点につい
て連立させ、得られる連立方程式から前式中の係数
D xi 、D yi を計算し、設定する係数設定手段と; この係
数設定手段から得られる前記係数D xi 、D yi に基づい
て、前記連立方程 式から前記格子点位置における動きベ
クトルを計算する動きベクトル計算手段と;を具備する
ことを特徴とするものである。第3の発明に係る動画像
の動きベクトル検出装置は: 現フレーム画像中の画素値
の空間微分画像を計算する空間微分計算手段と; 現フレ
ーム画像と前フレーム画像間での画素値の時間微分画像
を計算する時間微分計算手段と; 動きベクトルが検出さ
れるべき格子点の位置情報を蓄積する格子点位置蓄積手
段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x と
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
P i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、E tq を前記n/2個の格子点を境界上に持つブロッ
ク上の任意点qにおいて前記時間微分画像より得られる
時間微分値、E xq とE yq を前記任意点qにおいて前記空
間微分画像より得られる空間微分値、D x 及びD y を前
記任意点qの位置(xq、yq)及び空間微分値E xq 、
E yq 並びに前記n/2個の格子点の位置(x i 、y i )
を含む係数とするとき、前記変換式に基づく前記n/2
個の格子点位置(x i 、y i )及びこれら各格子点位置
での動きベクトル(v xi 、v yi )(但し、i=1〜n/
2)の関係と、時空間勾配の拘束条件とから与えられる
式Σ(D xi v xi +D yi v yi )=E tq (但し、i=1〜n
/2)を、j個(但し、j≧n)の任意点について連立
させ、得られる連立方程式から前記格子点位置における
動きベクトルを計算する動きベクトル計算手段と; を具
備することを特徴とするものである。 第4の発明にかか
る動画像の動きベクトル検出装置は: 動きベクトルが検
出されるべき格子点の位置情報を蓄積する格子点位置蓄
積手段と; この格子点位置情報と、現フレーム画像と、
前フレーム画像とに基づいて、画像間におけるブロック
単位の粗い動きベクトルを検出する粗いベクトル検出手
段と; この粗い動きベクトルと、前記格子点位置情報
と、前フレーム画像とに基づいて、前フレーム画像に対
応する粗い予測画像を生成する粗い予測画像生成手段
と; 現フレーム画像中の画素値の空間微分画像を計算す
る空間微分計算手段と; 現フレーム画像と前記粗い予測
画像間での画素値の時間微分画像を計算する時間微分計
算手段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x と
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
P i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、v rx 、v ry を前記n/2個の格子点を境界上に持つ
ブロックの粗い動きベクトル、E tq を前記n/2個の格
子点を境界上に持つブロック上の任意点qにおいて前記
時間微分画像より得られる時間微分値、E xq とE yq を前
記任意点qにおいて前記空間微分画像より得られる空間
微分値、D x 及びD y を前記任意点qの位置(xq、y
q)及び空間微分値E xq 、E yq 並びに前記n/2個の格
子点の位置(x i 、y i )を含む係数とするとき、前記
変換式に基づく前記n/2個の格子点位置(x i 、
y i )及びこれら各格子点位置での動きベクトル
(v xi 、v yi )(但し、i=1〜n/2)の関係と、時
空間勾配の拘束条件とから与えられる式Σ(D xi v xi +
D yi v yi )=E tq ' −E xq v rx −E yq v ry (但し、i=
1〜n/2)を、j個(但し、j≧n)の任意点につい
て連立させ、得られる連立方程式から前記格子点位置に
おける動きベクトルを計算する動きベクトル計算手段
と; を具備することを特徴とするものである。 第5の発
明に係る動画像の動きベクトル検出装置は、第1ないし
第4いずれかの発明に加えて、前記動きベクトル計算手
段は隣接するブロックと共通する格子 点での動きベクト
ルを最小2乗法により求めることを特徴とするものであ
る。
トル検出装置は: 現フレーム画像中の画素値の空間微分
画像を計算する空間微分計算手段と; 現フレーム画像と
前フレーム画像間での画素値の時間微分画像を計算する
時間微分計算手段と; 動きベクトルが検出されるべき格
子点の位置情報を蓄積する格子点位置蓄積手段と; n個
(但し、n=6または8)の変換係数C k (但し、k=
1〜n)を有し、動き補償予測のための画面上の位置
(x,y)とx方向の動きベクトルv x との関係、並び
に、同位置(x,y)とy方向の動きベクトルv y との
関係を表す変換式を、動きベクトルのモデル情報として
蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手
段に蓄積された隣接するn/2個の格子点P i の位置
(x i 、y i )(但し、i=1〜n/2)毎に、xqと
yqを前記n/2個の格子点を境界上に持つブロック上
の任意点qの位置、E tq を前記任意点qにおいて前記時
間微分画像より得られる時間微分値、E xq とE yq を前記
任意点qにおいて前記空間微分画像より得られる空間微
分値とするとき、時空間勾配の拘束条件から与えられる
xq、yq、E tq 、E xq 、E yq 及び前記変換係数C k を
含む式を、j個(但し、j≧n)の任意点について連立
させ、得られる連立方程式から前記変換係数C k を計算
し、この変換係数C k に基づいて、前記変換式から前記
格子点位置における動きベクトルを計算する動きベクト
ル計算手段と; を具備することを特徴とするものであ
る。 第7の発明に係る動画像の動きベクトル検出装置
は: 動きベクトルが検出されるべき格子点の位置情報を
蓄積する格子点位置蓄積手段と; この格子点位置情報
と、現フレーム画像と、前フレーム画像とに基づいて、
画像間におけるブロック単位の粗い動きベクトルを検出
する粗いベクトル検出手段と; この粗い動きベクトル
と、前記格子点位置情報と、前フレーム画像とに基づい
て、前フレーム画像に対応する粗い予測画像を生成する
粗い予測画像生成手段と ; 現フレーム画像中の画素値の
空間微分画像を計算する空間微分計算手段と; 現フレー
ム画像と前記粗い予測画像間での画素値の時間微分画像
を計算する時間微分計算手段と; n個(但し、n=6ま
たは8)の変換係数C k (但し、k=1〜n)を有し、
動き補償予測のための画面上の位置(x,y)とx方向
の動きベクトルv x との関係、並びに、同位置(x,
y)とy方向の動きベクトルv y との関係を表す変換式
を、動きベクトルのモデル情報として蓄積する動きモデ
ル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣
接するn/2個の格子点P i の位置(x i 、y i )(但
し、i=1〜n/2)毎に、v rx とv ry を前記n/2個
の格子点を境界上に持つブロックの粗い動きベクトル、
xqとyqを前記n/2個の格子点を境界上に持つブロ
ック上の任意点qの位置、E tq ' を前記任意点qにおい
て前記時間微分画像より得られる時間微分値、E xq とE
yq を前記任意点qにおいて前記空間微分画像より得られ
る空間微分値とするとき、時空間勾配の拘束条件から与
えられる、v rx 、v ry 、xq、yq、E tq ' 、E xq 、E
yq 及び前記変換係数C k を含む式を、j個(但し、j≧
n)の任意点について連立させ、得られる連立方程式か
ら前記変換係数C k を計算し、この変換係数C k に基づ
いて、前記変換式から前記格子点位置における動きベク
トルを計算する動きベクトル計算手段と; を具備するこ
とを特徴とするものである。第8の発明に係る動画像の
動きベクトル検出装置は、第6または第7の発明に加え
て、前記動きベクトル計算手段は隣接するブロックと共
通する格子点での動きベクトルを平均により求めること
を特徴とするものである。
トル検出装置は、第1ないし第8いずれか一つの発明に
加えて、前記j個の任意点として少なく1つの格子点を
含むことを特徴とするものである。更に、第10の発明
に係る動画像の動きベクトル検出装置は、第1ないし第
9いずれか一つの発明に加えて、画面上の位置(x,
y)と動きベクトル(vx ,vy )との変換式が下記の
式(8)、式(9)及び式(10)のうちいずれか1つ
であることを特徴とするものである。
検出装置は、第1ないし第10いづれか一つの発明に加
えて、前フレーム画像が、当該前フレーム画像の動き補
償予測フレーム間符号化後に局部復号された画像である
ことを特徴とするものである。
償予測装置は、第1ないし第11いづれか一つの発明の
動画像の動きベクトル検出装置の格子点位置蓄積手段、
動きモデル蓄積手段及び動きベクトル計算手段からそれ
ぞれ得られる格子点位置情報、変換式及び動きベクトル
情報に基づいて、予測画像の生成に必要な同変換式の前
記変換係数を計算する変換係数計算手段と;この変換係
数計算手段から得られる前記変換係数と、前記変換式と
に基づいて、現フレーム画像に対応する動き補償予測画
像を生成すると予測画像生成手段と;を具備することを
特徴とするものである。
償予測フレーム間符号化装置は:第1ないし第11いず
れか一つの発明の動画像の動きベクトル検出装置と;第
12の発明の動画像の動き補償予測装置と;現フレーム
画像と前記動画像の動き補償予測装置で得られた動き補
償予測画像間で差分画像を計算する差分画像計算手段
と;この差分画像を符号化する符号化手段と;符号化さ
れた差分画像を復号する復号手段と;復号された差分画
像と、前記動き補償予測画像とに基づいて、現フレーム
画像に対応する局部復号画像を計算する局部復号画像計
算手段と;この局部復号画像を前フレーム画像として記
憶する記憶手段と;を具備することを特徴とするもので
ある。
る場合を例にとって説明する。まず変換式(8)につい
て説明すると、テレビカメラから得られる画像とは、3
次元空間内に存在する物体の透視変換による投影図であ
ると考えることができるから、3次元空間内における物
体が複数の(微小)平面で近似できると仮定すると、物
体を構成する個々の平面の動きに関しては、平面の投影
面上における見かけ上の動き即ち動きベクトルを
(vx ,vy )、投影面における座標位置を(x,y)
とすると、前出の非線形な変換式(8)で記述できるこ
とが良く知られている。つまり、変換式(8)はバイリ
ニア変換やアフィン変換よりも、複雑な動きを表現する
能力が高い。以下、変換式(8)を透視変換式と呼ぶ。
ここで、透視変換式(8)の変換係数a〜hが具体的な
変換を規定するので、投影面上での見かけ上の動き即ち
変換係数a〜hは、平面内の4点における動きベクトル
が与えられれば決定することができる。そこでまず、動
き補償予測への適用を考慮し、動き検出の方向を現フレ
ーム画像から前フレーム画像への方向とし、更に動き補
償予測の単位を四角形のブロックとする。今、或るブロ
ックを構成する四隅の格子点をP1(x1,y1)、P
2(x2,y2)、P3(x3,y3)及びP4(x
4,y4)とし、仮に各格子点において透視変換式
(8)が成立しているとすると、下記の式(11)が得
られる。
トルが与えられれば、前式(11)は変換係数a〜hか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜hは、ブロック
の四隅を構成する格子点P1〜P4における動きベクト
ル(vx1,vy1,vx2…,vy4)の線形結合で表され
る。
で動きが小さい(例えば数画素)と仮定すると、ブロッ
ク内の任意の点qにおいて、画素値の時空間勾配の拘束
条件から、良く知られている次式(12)が成り立つ。
ここで、ExqとEyqは現フレーム画像の点qにおける画
素値のx,y方向の勾配即ち画素値の空間微分、Etqは
点qにおけるフレーム間差分即ち画素値の時間微分、v
xqとvyqは点qにおけるx,y方向の動きベクトルの成
分である。
り立つと仮定すれば、透視変換式(8)を式(12)に
代入することにより、次式(13)を得る。この式(1
3)は画素値の時空間勾配と式(8)で規定された透視
変換とに基づく、動きに関する方程式である。
ブロック内の点の動きを規定する変換係数a〜hは先に
示したブロックを構成する四隅の格子点P1〜P4にお
ける動きベクトル(vx1,vy1,vx2…,vy4)の線形
結合で記述されるので、式(13)は結果的に、格子点
における動きベクトル(vx1,vy1,vx2…,vx4)を
変数とする下記の方程式(14)として表わされる。
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(14)は前出の連立一次方程式(11)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(13)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(14)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数αxiとαyi(i=1〜4)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(14)における係数αxi,αyiを計算
して方程式を立てれば、四隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy4)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、透視変換式(8)で規定された動きに基づくよ
うに各格子点P1〜P4自身における動きベクトル(v
x1,vy1,vx2…,vy4)を直接に計算することができ
る。また、この計算により、各格子点P1〜P4におけ
る動きベクトルは小数点精度で求まる。実際には、ブロ
ックの四隅を構成する格子点は上下左右の隣接するブロ
ックにおける格子点と共通であるから、画面を構成する
全てのブロック、または適当に選んだ複数のブロックに
対してそれぞれ式(14)を立て、最小2乗法によりブ
ロックを構成する各格子点における動きベクトルを求め
ることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、透視変換式(8)の変換係数a〜hが表面
上直接には現われないから、ブロック間の動きの差異に
影響されず、1つの格子点につき1つの動きベクトルを
直接に求めることができる。しかし、式(13)を用い
てブロック毎に変換係数a〜hを直接求めてから、各格
子点自身における動きベクトルを計算することも可能で
ある。その場合には、次のように処理すれば良い。即
ち、ブロック内の最低8個の任意の点qについて画素値
の空間微分Exq,E yqと画素値の時間微分Etqを求め、
各点毎に式(13)を立てて連立1次方程式として解
き、変換係数a〜hを求める。これらの変換係数a〜h
を式(11)に設定することにより、透視変換式(8)
で規定された動きに基づくように各格子点P1〜P4自
身における動きベクトル(vx1,vy1,vx2…,vy4)
を計算により求める。実際には、ブロックの四隅を構成
する格子点は上下左右の隣接するブロックにおける格子
点と共通であるから、画面を構成する全てのブロック、
または適当に選んだ複数のブロックに対してそれぞれ式
(13)を立て、同じ格子点に異なる動きベクトルが得
られたならば例えば平均によりブロックを構成する各格
子点における動きベクトルを求める。
る格子点P1〜P4の動きベクトル(vx1,vy1,vx2
…,vy4)が検出されたならば、重み補償予測のための
透視変換に必要な変換係数a〜hを計算する。即ち、4
つの格子点P1(x1,y1),P2(x2,y2),
P3(x3,y3)及びP4(x4,y4)において、
透視変換式(8)が成り立っているので、下記の連立一
次方程式(15)が得られる。
必要な変換係数a〜hをブロック単位に求めることがで
きる。そこで、前フレーム画像をP(x,y)、動き補
償予測画像をC(x,y)とすれば、下記の式(16)
によって動き補償予測画像を生成することができる。
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。これにより、動き補償予測フレーム間符
号化が達成され、符号化データを受信側に送出すること
ができる。なお、各格子点の動きベクトルも符号化して
受信側に送出する。これにより、送信側と同様な処理を
受信側においても行うことにより、送られてきた動きベ
クトルから変換に必要な係数を計算し、動き補償予測画
像を生成することができる。
カメラ等から入力した原画像自体でも良いが、受信側に
は原画像が存在せず、復号した画像のみがあるから、符
号化及び復号の各段階での画質劣化を少しでも吸収する
ために、受信側と同様に送信側でも前フレーム画像とし
て局部復号画像を用いるのが好ましい。
配の拘束条件即ち式(12)を適用するために、前フレ
ーム画像と現フレーム画像間で動きが小さいと仮定し
た。そのため、動きが大きい場合には必ずしも十分では
ない。その場合の対策は次の通りである。
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、下記の式(17)のように粗
い予測画像C′(x,y)を作成する。
は言っても、前フレーム画像よりも大幅に現フレーム画
像に似ているから、前述の画素値の時空間勾配の拘束条
件を適用することができる。即ち、粗い動きベクトル
(vrx,vry)を用いることにより、前出の式(12)
は下記の式(18)に変形される。但し、ExqとEyqは
現フレーム画像の点qにおけるx,y方向の画素値の空
間微分、Etq′は点qにおける現フレーム画像と粗い予
測画像C′(x,y)間での画素値の時間微分、vxqと
vyqは点qにおけるx,y方向の動きベクトルである。
代入すれば、粗い動きベクトルを考慮した下記の式(1
9)を得る。この式(19)は前出の式(13)に対応
しており、Etq′−Exqvrx−Eyqvryの項だけが異な
る。また、式(19)は式(13)と同様、最終的に
は、格子点における動きベクトル(vx1,vy1,v
x2…,vy4)を変数とする下記の方程式(20)として
表わされる。
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(20)は前出の連立一次方程式(11)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(19)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(20)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数αxiとαyi(i=1〜4)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(20)における係数αxi,αyiを計
算して方程式を立てれば、四隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy4)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、透視変換式(8)で規定された動きに基づく
ように各格子点P1〜P4自身における動きベクトル
(vx1,vy1,vx2…,vy4)を直接に計算することが
できる。また、この計算により、各格子点P1〜P4に
おける動きベクトルは少数点精度で求まる。実際には、
ブロックの四隅を構成する格子点は上下左右の隣接する
ブロックにおける格子点と共通であるから、画面を構成
する全てのブロック、または適当に選んだ複数のブロッ
クに対してそれぞれ式(20)を立て、最小2乗法によ
りブロックを構成する各格子点における動きベクトルを
求めることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、透視変換式(8)の変換係数a〜hが表面
上直接には現われないから、ブロック間の動きの差異に
影響されず、1つの格子点につき1つの動きベクトルを
直接に求めることができる。しかし、式(19)を用い
てブロック毎に変換係数a〜hを直接求めてから、各格
子点自身における動きベクトルを計算することも可能で
ある。その場合には、次のように処理すれば良い。即
ち、ブロック内の最低8個の任意の点qについて画素値
の空間微分Exq,E yqと画素値の時間微分Etq′を求
め、各点毎に式(19)を立てて連立1次方程式として
解き、変換係数a〜hを求める。これらの変換係数a〜
hを式(11)に設定することにより、透視変換式
(8)で規定された動きに基づくように各格子点P1〜
P4自身における動きベクトル(vx1,vy1,vx2…,
vy4)を計算により求める。また、実際には、ブロック
の四隅を構成する格子点は上下左右の隣接するブロック
における格子点と共通であるから、画面を構成する全て
のブロック、または適当に選んだ複数のブロックに対し
てそれぞれ式(19)を立て、同じ格子点に異なる動き
ベクトルが得られるならば例えば平均によりブロックを
構成する各格子点における動きベクトルを求める。
出の変換式(9)に基づくバイリニア変換の場合につい
て説明する。バイリニア変換の場合も、変換式(9)の
変換係数a〜hが具体的な変換を規定するので、各変換
係数a〜hはブロック内の4点における動きベクトルが
与えられれば決定することができる。そこでまず、動き
補償予測への適用を考慮し、動き検出の方向を現フレー
ム画像から前フレーム画像への方向とし、更に動き補償
予測の単位を四角形のブロックとする。今、或るブロッ
クを構成する四隅の格子点をP1(x1,y1)、P2
(x2,y2)、P3(x3,y3)及びP4(x4,
y4)とし、仮に各点において変換式(9)が成立して
いるとすると、下記の式(21)が得られる。
トルが与えられれば、前式(21)は変換変数a〜hか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜hは、ブロック
の四隅を構成する格子点P1〜P4における動きベクト
ル(vx1,vy1,vx2…,vy4)の線形結合で表され
る。
ーム画像間で動きが小さい(例えば数画素)と仮定する
と、ブロック内の任意の点qにおいて、画素値の時空間
勾配の拘束条件から、良く知られている前式(12)が
成り立つ。
つと仮定すれば、変換式(9)を式(12)に代入する
ことにより、次式(22)を得る。この式(22)は画
素値の時空間勾配と式(9)で規定されたバイリニア変
換とに基づく、動きに関する方程式である。更に、この
式(22)は最終的に、格子点における動きベクトル
(vx1,vy1,vx2…,vx4)を変数とする下記の方程
式(23)として表わされる。
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(23)は前出の連立一次方程式(21)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(22)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(23)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数βxiとβyi(i=1〜4)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(23)における係数βxi,βyiを計算
して方程式を立てれば、四隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy4)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、バイリニア変換式(9)で規定された動きに基
BR>づくように各格子点P1〜P4自身における動きベ
クトル(vx1,vy1,vx2…,vy4)を直接に計算する
ことができる。また、この計算により、各格子点P1〜
P4における動きベクトルは小数点精度で求まる。実際
には、ブロックの四隅を構成する格子点は上下左右の隣
接するブロックにおける格子点と共通であるから、画面
を構成する全てのブロック、または適当に選んだ複数の
ブロックに対してそれぞれ式(23)を立て、最小2乗
法によりブロックを構成する各格子点における動きベク
トルを求めることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、バイリニア変換式(9)の変換係数a〜h
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(22)
を用いてブロック毎に変換係数a〜hを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低8個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etqを
求め、各点毎に式(22)を立てて連立1次方程式とし
て解き、変換係数a〜hを求める。これらの変換係数a
〜hを式(21)に設定することにより、バイリニア変
換式(9)で規定された動きに基づくように各格子点P
1〜P4自身における動きベクトル(vx1,vy1,vx2
…,vy4)を計算により求める。実際には、ブロックの
四隅を構成する格子点は上下左右の隣接するブロックに
おける格子点と共通であるから、画面を構成する全ての
ブロック、または適当に選んだ複数のブロックに対して
それぞれ式(22)を立て、同じ格子点に異なる動きベ
クトルが得られるならば例えは平均によりブロックを構
成する各格子点における動きベクトルを求める。
る格子点P1〜P4の動きベクトル(vx1,vy1,vx2
…,vy4)が検出されたならば、重み補償予測のための
バイリニア変換に必要な変換係数a〜hを計算する。即
ち、4つの格子点P1(x1,y1),P2(x2,y
2),P3(x3,y3)及びP4(x4,y4)にお
いて、変換式(9)が成り立っているので、下記の連立
一次方程式(24)が得られる。
変換に必要な変換係数a〜hをブロック単位に求めるこ
とができる。そこで、前フレーム画像をP(x,y)、
動き補償予測画像をC(x,y)とすれば、下記の式
(25)によって動き補償予測画像を生成することがで
きる。
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。
が大きい場合の対策は次の通りである。
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、前出の式(17)のように粗
い予測画像C′(x,y)を作成する。この粗い予測画
像C′(x,y)は粗いとは言っても、前フレーム画像
よりも大幅に現フレーム画像に似ているから、前述の画
素値の時空間勾配の拘束条件を適用することができる。
つまり、バイリニア変換式(9)を前出の式(18)に
代入すれば、粗い動きベクトルを考慮した下記の式(2
6)を得る。この式(26)は前出の式(22)に対応
しており、Etq′−Exqvrx−Eyqvryの項だけが異な
る。また、式(26)は式(22)と同様、最終的に
は、格子点における動きベクトル(vx1,vy1,v
x2…,vy4)を変数とする下記の方程式(27)として
表わされる。
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(27)は前出の連立一次方程式(21)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(26)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(27)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数βxiとβyi(i=1〜4)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(27)における係数βxi,βyiを計
算して方程式を立てれば、四隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy4)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、バイリニア変換式(9)で規定された動きに
基づくように各格子点P1〜P4自身における動きベク
トル(vx1,vy1,vx2…,vy4)を直接に計算するこ
とができる。また、この計算により、各格子点P1〜P
4における動きベクトルは小数点精度で求まる。実際に
は、ブロックの四隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(27)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、バイリニア変換式(9)の変換係数a〜h
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(26)
を用いてブロック毎に変換係数a〜hを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低8個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq′
を求め、各点毎に式(26)を立てて連立1次方程式と
して解き、変換係数a〜hを求める。これらの変換係数
a〜hを式(21)に設定することにより、変換式
(9)で規定された動きに基づくように各格子点P1〜
P4自身における動きベクトル(vx1,vy1,vx2…,
vy4)を計算により求める。また、実際には、ブロック
の四隅を構成する格子点は上下左右の隣接するブロック
における格子点と共通であるから、画面を構成する全て
のブロック、または適当に選んだ複数のブロックに対し
てそれぞれ式(26)を立て、同じ格子点に異なる動き
ベクトルが得られるならば例えば平均によりブロックを
構成する各格子点における動きベクトルを求める。
の変換式(10)に基づくアフィン変換の場合について
説明する。アフィン変換の場合は、変換式(10)の変
換係数a〜fが具体的な変換を規定するので、各変換係
数a〜fはブロック内の3点における動きベクトルが与
えられれば決定することができる。そこでまず、動き補
償予測への適用を考慮し、動き検出の方向を現フレーム
画像から前フレーム画像への方向とし、更に動き補償予
測の単位を三角形のブロックとする。今、或るブロック
を構成する三隅の格子点をP1(x1,y1)、P2
(x2,y2)及びP3(x3,y3)とし、仮に各点
において変換式(10)が成立しているとすると、下記
の式(28)が得られる。
トルが与えられれば、前式(28)は変換変数a〜fか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜fは、ブロック
の三隅を構成する格子点P1〜P3における動きベクト
ル(vx1,vy1,vx2…,vy3)の線形結合で表され
る。
ーム画像間で動きが小さい(例えば数画素)と仮定する
と、ブロック内の任意の点qにおいて、画素値の時空間
勾配の拘束条件から、良く知られている前式(12)が
成り立つ。
立つと仮定すれば、変換式(10)を式(12)に代入
することにより、次式(29)を得る。この式(29)
は画素値の時空間勾配と式(10)で規定されたアフィ
ン変換とに基づく、動きに関する方程式である。更に、
この式(29)は最終的に、格子点における動きベクト
ル(vx1,vy1,vx2…,vy3)を変数とする下記の方
程式(30)として表わされる。
yi(i=1〜3)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(30)は前出の連立一次方程式(28)を変
換係数a〜fについて解き、得られた変換係数a〜fを
式(29)に代入して、vx1,vy1,vx2…,vy3につ
いて整理したものであるから、この式(30)には変換
係数a〜fは現われず、vx1,vy1,vx2…,vy3の各
係数γxiとγyi(i=1〜3)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(30)における係数γxi,γyiを計算
して方程式を立てれば、三隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy3)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、アフィン変換式(10)で規定された動きに基
づくように各格子点P1〜P3自身における動きベクト
ル(vx1,vy1,vx2…,vy3)を直接に計算すること
ができる。また、この計算により、各格子点P1〜P3
における動きベクトルは小数点精度で求まる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(30)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、アフィン変換式(10)の変換係数a〜f
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(29)
を用いてブロック毎に変換係数a〜fを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低6個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etqを
求め、各点毎に式(29)を立てて連立1次方程式とし
て解き、変換係数a〜fを求める。これらの変換係数a
〜fを式(28)に設定することにより、アフィン変換
式(10)で規定された動きに基づくように各格子点P
1〜P3自身における動きベクトル(vx1,vy1,vx2
…,vy3)を計算により求めることができる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(29)を立て、同じ格子点
に異なる動きベクトルが得られるならば例えば平均によ
りブロックを構成する各格子点における動きベクトルを
求める。
る格子点P1〜P3の動きベクトル(vx1,vy1,vx2
…,vy3)が検出されたならば、重み補償予測のための
アフィン変換に必要な変換係数a〜fを計算する。即
ち、3つの格子点P1(x1,y1),P2(x2,y
2)及びP3(x3,y3)において、変換式(10)
が成り立っているので、下記の連立一次方程式(31)
が得られる。
換に必要な変換係数a〜fをブロック単位に求めること
ができる。そこで、前フレーム画像をP(x,y)、動
き補償予測画像をC(x,y)とすれば、下記の式(3
2)によって動き補償予測画像を生成することができ
る。
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。
が大きい場合の対策は次の通りである。
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、前出の式(17)のように粗
い予測画像C′(x,y)を作成する。この粗い予測画
像C′(x,y)は粗いとは言っても、前フレーム画像
よりも大幅に現フレーム画像に似ているから、前述の画
素値の時空間勾配の拘束条件を適用することができる。
8)に代入すれば、粗い動きベクトルを考慮した下記の
式(33)を得る。この式(33)は前出の式(29)
に対応しており、Etq′−Exqvrx−Eyqvryの項だけ
が異なる。また、式(33)は式(29)と同様、最終
的には格子点の動きベクトル(vx1,vy1,vx2…,v
y3)を変数とする下記の方程式(34)として表わされ
る。
yi(i=1〜3)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(34)は前出の連立一次方程式(28)を変
換係数a〜fについて解き、得られた変換係数a〜hを
式(33)に代入して、vx1,vy1,vx2…,vy3につ
いて整理したものであるから、この式(34)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy3の各
係数γxiとγyi(i=1〜3)は式に表わさないが
xq ,yq 及びExq,Eyqで表現される。
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(34)における係数γxi,γyiを計
算して方程式を立てれば、三隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy3)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、アフィン変換式(10)で規定された動きに
基づくように各格子点P1〜P3自身における動きベク
トル(vx1,vy1,vx2…,vy3)を直接に計算するこ
とができる。また、この計算により、各格子点P1〜P
3における動きベクトルは小数点精度で求まる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(34)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
yiの計算により各格子点自身における動きベクトルを求
める場合は、アフィン変換式(10)の変換係数a〜f
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(33)
を用いてブロック毎に変換係数a〜fを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低6個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq′
を求め、各点毎に式(33)を立てて連立1次方程式と
して解き、変換係数a〜fを求める。これらの変換係数
a〜fを式(28)に設定することにより、変換式(1
0)で規定された動きに基づくように各格子点P1〜P
3自身における動きベクトル(vx1,vy1,vx2…,v
y3)を計算により求めることができる。また、実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(33)を立て、同じ格子点
に異なる動きベクトルが得られるならば例えは平均によ
りブロックを構成する各格子点における動きベクトルを
求める。
する。図1には動画像の動きベクトル検出装置の第1実
施例の構成が示され、図2には動きベクトルが示され、
図3には動画像の動きベクトル検出装置の第2実施例の
構成が示され、図4には動画像の動き補償予測装置の一
実施例の構成が示され、図5には動画像の動き補償予測
フレーム間符号化装置の一実施例の構成が示されてい
る。
装置について>まず、図5を参照して動画像の動き補償
予測フレーム間符号化装置を説明する。この装置は動き
ベクトル検出装置20に、動き補償予測装置40と、差
分画像計算装置50と、符号化装置51と、局部復号画
像計算装置52とフレームメモリ55とから構成され
る。
20は図1または図3に示される構成のものであり、デ
ジタル信号の形でテレビジョンカメラ等より入力された
動画像から時間的に連続する現フレーム画像1と前フレ
ーム画像2を用い、図2に示すような各ブロック3を構
成する各格子点4自身の動きベクトル5検出する。動き
補償予測装置40は詳細は後述するが、図4に示される
構成のものであり、動きベクトル検出装置20で検出さ
れた各格子点4自身の動きベクトル5の情報を用い、現
フレーム画像1に対応する予測画像6を前フレーム画像
2を基に作成する。差分画像計算装置50は現フレーム
画像1とそれに対応する予測画像6間での差分画像7を
計算するものである。符号化装置51は差分画像7をD
CTやVQ等の適宜な方法により符号化し、出力データ
8とするものである。局部復号画像計算装置52は復号
装置53と加算装置54から構成され、復号装置53に
より出力データ8から差分画像9を復号し、この差分画
像9に対して加算装置54により予測画像6を加算し、
現フレーム画像1に対応する局部復号画像10を作成す
る。フレームメモリ55は局部復号画像10を蓄積し次
回の動きベクトル検出及び動き補償予測の際に、前フレ
ーム画像2として、動きベクトル検出装置20及び動き
補償予測装置40に出力するものである。
に、図1に示される動画像の動きベクトル検出装置につ
いて説明する。この装置は空間微分計算部21と、時間
微分計算部22と、格子点位置蓄積部23と、動きのモ
デル蓄積部24と、係数設定部25と、動きベクトル計
算部26とから構成される。
画素値の濃度勾配を表わす空間微分画像21aを計算に
より求める。時間微分計算部22は現フレーム画像1と
前フレーム画像2間での画素値の変化を表わす時間微分
画像22aを計算により求める。格子点位置蓄積部23
は図2に示されるように、動きベクトル5を検出すべき
各格子点4の位置x,y座標値23aを予め蓄積してい
る。格子点4は画像1,2を分割したブロック3を構成
する各隅の点であり、ブロック3は実線の如く四角形、
あるいは破線の如く三角形である。
いるための画像上の任意位置(x,y)と動きベルトル
(vx ,vy )との変換式、例えば前出の式(8)また
は式(9)または式(10)を、動きベクトルのモデル
情報24aとして蓄積している。係数設定部25は変換
式(8)または(9)または(10)と、格子点位置の
x,y座標値23aと、時間微分画像22aと、空間微
分画像21aとに基づいて、各格子点位置4における動
きベクトル5を計算するために必要な係数を設定する
(詳細は後述する)。動きベクトル計算部26はこれら
の係数に基づいて、各格子点位置4における動きベクト
ル5を計算する。
クトルの検出を説明する。
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。係数設定部25は画面を構成する全ての四角形ブ
ロックに対して、あるいは適宜に選んだ複数の四角形ブ
ロックに対して、各ブロック内の最低8点における画素
値の空間微分Exq,Eyq及び画素値の時間微分Etqを空
間微分計算部21が計算した空間微分画像21a及び時
間微分計算部22が計算した時間微分画像22aから求
め、各点毎に前出の式(14)における変数である動き
ベクトル(vx1,vy1,vx2…,vy4)の係数(αx1,
αy1,αx2…,αy4)を各点の位置(x q ,yq )及び
画素値の空間微分値Exq,Eyqを用いて計算し、動きベ
クトル計算に必要なこれらの係数を設定する。式(1
3)(14)及び係数の算出式は動きモデル蓄積部24
に蓄積されている透視変換式(8)を前出の式(12)
に代入すること等により得られるが、予め式(13)
(14)及び係数の算出式を動きベクトルのモデル情報
として蓄積しておいても良い。最低8点には格子点を含
めると良い。動きベクトル計算部26は、係数設定部2
5がブロック毎に設定した係数(α x1,αy1,αx2…,
αy4)を用い、式(14)の連立一次方程式を立てて最
小2乗法等により解き、格子点位置蓄積部23に蓄積さ
れている全ての格子点位置における動きベクトルを求め
る。
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての四角形ブロックに対して、あるいは適宜に選んだ複
数の四角形ブロックに対して、各ブロック内の最低8点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etqを空間微分計算部21が計算した空間微分画像
21a及び時間微分計算部22が計算した時間微分画像
22aから求め、各点毎に前出の式(23)における変
数である動きベクトル(vx1,vy1,vx2…,vy4)の
係数(βx1,βy1,βx2…,βy4)を各点の位置
(x q ,yq )及び画素値の空間微分値Exq,Eyqを用
いて計算し、動きベクトル計算に必要なこれらの係数を
設定する。式(22)(23)及び係数の算出式は動き
モデル蓄積部24に蓄積されているバイリニア変換式
(9)を前出の式(12)に代入すること等により得ら
れるが、予め式(22)(23)及び係数算出式を動き
ベクトルのモデル情報として蓄積しておいても良い。最
低8点には格子点を含めると良い。動きベクトル計算部
26は、係数設定部25がブロック毎に設定した係数
(β x1,βy1,βx2…,βy4)を用い、式(23)の連
立一次方程式を立てて最小2乗法等により解き、格子点
位置蓄積部23に蓄積されている全ての格子点位置にお
ける動きベクトルを求める。
アフィン変換式(10)を用いる場合は動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての三角形ブロックに対して、あるいは適宜に選んだ複
数の三角形ブロックに対して、各ブロック内の最低6点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etqを空間微分計算部21が計算した空間微分画像
21a及び時間微分計算部22が計算した時間微分画像
22aから求め、各点毎に前出の式(30)における変
数である動きベクトル(vx1,vy1,vx2…,vy3)の
係数(γx1,γy1,γx2…,γy3)を各点の位置
(x q ,yq )及び画素値の空間微分値Exq,Eyqを用
いて計算し、動きベクトル計算に必要なこれらの係数を
設定する。式(29)(30)及び係数の算出式は動き
モデル蓄積部24に蓄積されているアフィン変換式(1
0)を前出の式(12)に代入すること等により得られ
るが、予め式(29)(30)及び係数算出式を動きベ
クトルのモデル情報として蓄積しておいても良い。最低
6点には格子点を含めると良い。動きベクトル計算部2
6は、係数設定部25がブロック毎に設定した係数(γ
x1,γy1,γx2…,γy3)を用い、式(30)の連立一
次方程式を立てて最小2乗法等により解き、格子点位置
蓄積部23に蓄積されている全ての格子点位置における
動きベクトルを求める。
に、図3に示される動画像の動きベクトル検出装置につ
いて説明する。この装置は空間微分計算部21と、時間
微分計算部22と、格子点位置蓄積部23と、動きベク
トル蓄積部24と、係数設定部25と、動きベクトル計
算部26に加え、粗い動きベクトル検出部31及び粗い
予測画像生成部32を具備している。
同様、図2に示されるように、動きベクトル5を検出す
べき格子点4の位置のx,y座標値23aを予め蓄積し
ている。図2の如く、格子点4は画面を分割したブロッ
ク3を構成する各隅の点であり、ブロック3は四角形、
あるいは三角形である。
様ブロックマッチング方法あるいは勾配法により、粗い
動きベクトル(vrx,vry)31aとしてブロック3単
位の動きベクトルを検出する。粗い予測画像生成部32
はブロック単位の粗い動きベクトル31aを前フレーム
画像2に適用して、粗い予測画像(C′(x,y))3
2aを生成する。
異なり、現フレーム画像1と粗い予測画像32a間での
画素値の変化を表わす時間微分画像22bを計算により
求める。
じであり、現フレーム画像1の画素値の濃度勾配を表わ
す空間微分画像21aを計算により求める。動きモデル
蓄積部24も先の第1実施例と同じであり、動き補償予
測に用いるための画像上の任意位置(x,y)と動きベ
ルトル(vx ,vy )との変換式、例えば前出の式
(8)または式(9)または式(10)を、動きベクト
ルのモデル情報24aとして蓄積している。係数設定部
25は変換式(8)または(9)または(10)と、格
子点位置のx,y座標値23aと、時間微分画像22b
と、空間微分画像21aとに基づいて、各格子点位置4
における動きベクトル5を計算するために必要な係数を
設定する(詳細は後述する)。動きベクトル計算部26
はこれらの係数に基づいて、各格子点位置4における動
きベクトル5を計算する。
クトルの検出を説明する。
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。係数設定部25は画面を構成する全ての四角形ブ
ロックに対して、あるいは適宜に選んだ複数の四角形ブ
ロックに対して、各ブロック内の最低8点における画素
値の空間微分Exq,Eyq及び画素値の時間微分Etq′を
空間微分計算部21が計算した空間微分画像21a及び
時間微分計算部22が計算した時間微分画像22bから
求め、各点毎に前出の式(20)における変数である動
きベクトル(v x1,vy1,vx2…,vy4)の係数
(αx1,αy1,αx2…,αy4)を各点の位置(xq ,y
q )及び画素値の空間微分値Exq,Eyqを用いて計算
し、動きベクトル計算に必要なこれらの係数を設定す
る。式(19)(20)及び係数算出式は動きモデル蓄
積部24に蓄積されている透視変換式(8)を前出の式
(18)に代入すること等により得られるが、予め式
(19)(20)及び係数算出式を動きベクトルのモデ
ル情報として蓄積しておいても良い。最低点8点には格
子点を含めると良い。動きベクトル計算部26は、係数
設定部25がブロック毎に設定した係数(α x1,αy1,
αx2…,αy4)を用い、式(20)の連立一次方程式を
立てて最小2乗法等により解き、格子点位置蓄積部23
に蓄積されている全ての格子点位置における動きベクト
ルを求める。
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての四角形ブロックに対して、あるいは適宜に選んだ複
数の四角形ブロックに対して、各ブロック内の最低8点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etq′を空間微分計算部21が計算した空間微分画
像21a及び時間微分計算部22が計算した時間微分画
像22bから求め、各点毎に前出の式(27)における
変数である動きベクトル(v x1,vy1,vx2…,vy4)
の係数(βx1,βy1,βx2…,βy4)を各点の位置(x
q ,yq )及び画素値の空間微分値Exq,Eyqを用いて
計算し、動きベクトル計算に必要なこれらの係数を設定
する。式(26)(27)及び係数の算出式は動きモデ
ル蓄積部24に蓄積されているバイリニア変換式(9)
を前出の式(18)に代入すること等により得られる
が、予め式(26)(27)及び係数の算出式を動きベ
クトルのモデル情報として蓄積しておいても良い。最低
8点には格子点を含めると良い。動きベクトル計算部2
6は、係数設定部25がブロック毎に設定した係数(β
x1,βy1,βx2…,βy4)を用い、式(27)の連立一
次方程式を立てて最小2乗法等により解き、格子点位置
蓄積部23に蓄積されている全ての格子点位置における
動きベクトルを求める。
アフィン変換式(10)を用いる場合は動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての三角形ブロックに対して、あるいは適宜に選んだ複
数の三角形ブロックに対して、各ブロック内の最低6点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etq′を空間微分計算部21が計算した空間微分画
像21a及び時間微分計算部22が計算した時間微分画
像22bから求め、各点毎に前出の式(34)における
変数である動きベクトル(v x1,vy1,vx2…,vy3)
の係数(γx1,γy1,γx2…,γy3)を各点の位置(x
q ,yq )及び画素値の空間微分値Exq,Eyqを用いて
計算し、動きベクトル計算に必要なこれらの係数を設定
する。式(33)(34)及び係数の算出式は動きモデ
ル蓄積部24に蓄積されているアフィン変換式(10)
を前出の式(18)に代入すること等により得られる
が、予め式(33)(34)及び係数算出式を動きベク
トルのモデル情報として蓄積しておいても良い。最低6
点には格子点を含めると良い。動きベクトル計算部26
は、係数設定部25がブロック毎に設定した係数
(γ x1,γy1,γx2…,γy3)を用い、式(34)の連
立一次方程式を立てて最小2乗法等により解き、格子点
位置蓄積部23に蓄積されている全ての格子点位置にお
ける動きベクトルを求める。
に、図4に示される動画像の動き補償予測装置について
説明する。この装置は変換係数計算部41と、予測画像
生成部42と、格子点位置蓄積部23と、動きモデル蓄
積部24とから構成される。これらのうち、格子点位置
蓄積部23と動きモデル蓄積部24は、図1または図3
に示された動画像の動きベクトル検出装置を構成する同
じ符号を付したものと共用しているが、それぞれ別であ
ってもよい。
うに、動きベクトル5を検出すべき各格子点4の位置
x,y座標値23aを予め蓄積している。格子点4は画
像1,2を分割したブロック3を構成する各隅の点であ
り、ブロック3は実線の如く四角形、あるいは破線の如
く三角形である。動きモデル蓄積部24は動き補償予測
に用いるための画像上の任意位置(x,y)と動きベル
トル(vx ,vy )との変換式、例えば前出の式(8)
または式(9)または式(10)を、動きベクトルのモ
デル情報24aとして蓄積している。
された動画像の動きベクトル検出装置の動きベクトル計
算部26により得られた各格子点4における動きベクト
ル5と、格子点位置蓄積部23に蓄積されている各格子
点4の位置のx,y座標値23aと、動きモデル蓄積部
24にモデル情報24aとして蓄積されている前出の変
換式(8)または式(9)または式(10)とに基づい
て、各ブロック毎に、予測画像の生成に必要なこれら変
換式の変換係数a〜hまたはa〜fを計算する。
により得られた変換係数a〜hまたはa〜fと、これに
対応する変換式(8)または式(9)または式(10)
とに基づいて、現フレーム画像1に対応する動き補償予
測画像6を生成する。
償予測について説明する。
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。変換係数計算部41は画面を構成する全ての四角
形ブロックに対し、既に検出されたブロックの四隅の格
子点における動きベクトルを用いて前出の連立一次方程
式(15)を立て、これを解くことにより、ブロック単
位に変換係数a〜hを求める。予測画像生成部41は、
前出の式(16)にブロック単位に変換係数a〜hを代
入することにより、ブロック単位に動き補償予測を行っ
て全体の動き補償予測画像6を生成する。
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。変換係数計算部41は画面を構成す
る全ての四角形ブロックに対し、既に検出されたブロッ
クの四隅の格子点における動きベクトルを用いて前出の
連立一次方程式(24)を立て、これを解くことによ
り、ブロック単位に変換係数a〜hを求める。予測画像
生成部41は、前出の式(25)にブロック単位に変換
係数a〜hを代入することにより、ブロック単位に動き
補償予測を行って全体の動き補償予測画像6を生成す
る。
アフィン変換式(10)を用いる場合も動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。変換係数計算部41は画面を構成す
る全ての三角形ブロックに対し、既に検出されたブロッ
クの三隅の格子点における動きベクトルを用いて前出の
連立一次方程式(31)を立て、これを解くことによ
り、ブロック単位に変換係数a〜hを求める。予測画像
生成部41は、前出の式(32)にブロック単位に変換
係数a〜hを代入することにより、ブロック単位に動き
補償予測を行って全体の動き補償予測画像6を生成す
る。
て、局部復号画像10を利用したが、テレビカメラ等か
ら入力された原画像自体を用いることも可能である。ま
た、動きモデル情報24aとしては変換式(8)または
式(9)または式(10)を用いたが、他の変換式を用
いることも可能であり、その変換式の変換係数の個数2
nに応じてn角形のブロックを動き補償予測の単位と
し、各ブロックのn個の隅の格子点における動きベクト
ルを計算により検出すれば良い。
らを引用する第5、第8、第9の発明によれば、動き補
償予測に用いられる画面上の位置と動きベクトルとの変
換式を利用し、且つ、時間微分画像と空間微分画像とを
用いて時空間勾配の拘束条件により、各格子点における
動きベクトルを連立方程式に基づいて計算するので、従
来のブロックマッチング方法に比べて、動きベクトルが
格子点自体の動き量を良く表わすことになり、また、小
数点精度で動きベクトルを検出することができる。
を引用する第5、第8、第9の発明では、動き補償予測
に用いられる画面上の位置と動きベクトルとの変換式を
利用し、且つ、時間微分画像と空間微分画像とを用いて
時空間勾配の拘束条件により、各格子点における動きベ
クトルを連立方程式に基づいて計算する場合に、予めブ
ロック単位の粗い動きベクトルを求め、これにより予め
粗い予測画像を生成し、この粗い予測画像を前フレーム
画像の代わりに用いて時間微分画像を計算するので、前
フレーム画像と現フレーム画像間で動きが大きい場合で
も時空間勾配の拘束条件を利用することができることに
なり、格子点自体の動きベクトルを良く検出することが
できる。
変換あるいはバイリニア変換あるいは透視変換を利用す
るが、いずれの場合も、前述のように従来のブロックマ
ッチング方法に比べて、動きベクトルが格子点自体の動
き量を良く表わすことになり、また、小数点精度で動き
ベクトルを検出することができる。特に、透視変換を利
用する場合は、アフィン変換あるいはバイリニア変換を
利用する場合に比べて、複雑な動きがある場合にも格子
点自体の動きベクトルを正しく検出することができる。
部復号画像を用いるので、動き補償予測フレーム間符号
化後のデータを受信する側と同じ条件で動きベクトルを
検出することになり、符号化及び復号の各段階で生じる
画質劣化を少しでも吸収することができる。
良い動きベクトルを用いて変換式の変換係数を計算する
ので、動き補償予測の精度が向上する。
測画像を用いて符号化を行うので、符号化のビットレー
トが低くなる。
構成を示す図。
図。
構成を示す図。
示す図。
一実施例の構成を示す図。
きベクトル検出を示す図。
きベクトル検出を示す図。
Claims (13)
- 【請求項1】 テレビカメラ等より入力された動画像か
ら、現フレーム画像と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手段と;n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、 動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と;前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、E tq を前記n/2個の格子点を境界上に持
つブロック上の任意点qにおいて前記時間微分画像より
得られる時間微分値、E xq とE yq を前記任意点qにおい
て前記空間微分画像より得られる空間微分値、D x 及び
D y を前記任意点qの位置(xq、yq)及び空間微分
値E xq 、E yq 並びに前記n/2個の格子点の位置
(x i 、y i )を含む係数とするとき、前記変換式に基
づく前記n/2個の格子点位置(x i 、y i )及びこれ
ら各格子点位置での動きベクトル(v xi 、v yi )(但
し、i=1〜n/2)の関係と、時空間勾配の拘束条件
とから与えられる式Σ(D xi v xi +D yi v yi )=E
tq (但し、i=1〜n/2)を、j個(但し、j≧n)
の任意点について連立させ、得られる連立方程式から前
式中の係数D xi 、D yi を計算し、 設定する係数設定手段
と; この係数設定手段から得られる前記係数D xi 、D yi に基
づいて、前記連立方程式から前記格子点位置における動
きベクトルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項2】 テレビカメラ等より入力された動画像か
ら、現フレーム画像と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手段と; この格子点位置情報と、現フレーム画像と、前フレーム
画像とに基づいて、画像間におけるブロック単位の粗い
動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
レーム画像とに基づいて、前フレーム画像に対応する粗
い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前記粗い予測画像間での画素値の時間
微分画像を計算する時間微分計算手段と;n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、 動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と;前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、v rx 、v ry を前記n/2個の格子点を境界
上に持つブロックの粗い動きベクトル、E tq を前記n/
2個の格子点を境界上に持つブロック上の任意点qにお
いて前記時間微分画像より得られる時間微分値、E xq と
E yq を前記任意点qにおいて前記空間微分画像より得ら
れる空間微分値、D x 及びD y を前記任意点qの位置
(xq、yq)及び空間微分値E xq 、E yq 並びに前記n
/2個の格子点の位置(x i 、y i )を含む係数とする
とき、前記変換式に基づく前記n/2個の格子点位置
(x i 、y i )及びこれら各格子点位置での動きベクト
ル(v xi 、v yi )(但し、i=1〜n/2)の関係と、
時空間勾配の拘束条件とから与えられる式Σ(D xi v xi
+D yi v yi )=E tq ' −E xq v rx −E yq v ry (但し、i
=1〜n/2)を、j個(但し、j≧n)の任意点につ
いて連立させ、得られる連立方程式から前式中の係数D
xi 、D yi を計算し、 設定する係数設定手段と; この係数設定手段から得られる前記係数D xi 、D yi に基
づいて、前記連立方程式から前記格子点位置における動
きベクトルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項3】 テレビカメラ等より入力された動画像か
ら、現フレーム画像と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手段と; n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、E tq を前記n/2個の格子点を境界上に持
つブロック上の任意点qにおいて前記時間微分画像より
得られる時間微分値、E xq とE yq を前記任意点qにおい
て前記空間微分画像より得られる空間微分値、D x 及び
D y を前記任意点qの位置(xq、yq)及び空間微分
値E xq 、E yq 並びに前記n/2個の格子点の位置
(x i 、y i )を含む係数とするとき、前記変換式に基
づく前記n/2個の格子点位置(x i 、y i )及びこれ
ら各格子点位置での動きベクトル(v xi 、v yi )(但
し、i=1〜n/2)の関係と、時空間勾配の拘束条件
とから与えられる式Σ(D xi v xi +D yi v yi )=E
tq (但し、i=1〜n/2)を、j個(但し、j≧n)
の任意点について連立させ、得られる連立方程式から前
記格子点位置における動きベクトルを計算する動きベク
トル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項4】 テレビカメラ等より入力された動画像か
ら、現フレーム画像 と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手段と; この格子点位置情報と、現フレーム画像と、前フレーム
画像とに基づいて、画像間におけるブロック単位の粗い
動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
レーム画像とに基づいて、前フレーム画像に対応する粗
い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前記粗い予測画像間での画素値の時間
微分画像を計算する時間微分計算手段と; n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、v rx 、v ry を前記n/2個の格子点を境界
上に持つブロックの粗い動きベクトル、E tq を前記n/
2個の格子点を境界上に持つブロック上の任意点qにお
いて前記時間微分画像より得られる時間微分値、E xq と
E yq を前記任意点qにおいて前記空間微分画像より得ら
れる空間微分値、D x 及びD y を前記任意点qの位置
(xq、yq)及び空間微分値E xq 、E yq 並びに前記n
/2個の格子点の位置(x i 、y i )を含む係数とする
とき、前記変換式に基づく前記n/2個の格子点位置
(x i 、y i )及びこれら各格子点位置での動きベクト
ル(v xi 、v yi )(但し、i=1〜n/2)の関係と、
時空間勾配の拘束条件とから与えられる式Σ(D xi v xi
+D yi v yi )=E tq ' −E xq v rx −E yq v ry (但し、i
=1〜n/2)を、j個(但し、j≧n)の任意点につ
いて連立させ、得られる連立方程式から前記格子点位置
における動きベクトルを計算する動きベクトル計算手段
と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項5】 請求項1ないし4いずれか一つに記載の
動画像の動きベクトル検出装置において、前記動きベク
トル計算手段は隣接するブロックと共通する格子点での
動きベクトルを最小2乗法により求めることを特徴とす
る動画像の動きベクトル検出装置。 - 【請求項6】 テレビカメラ等より入力された動画像か
ら、現フレーム画像と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手段と; n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、xqとyqを前記n/2個の格子点を境界
上に持つブロック上の任意点qの位置、E tq を前記任意
点qにおいて前記時間微分画像より得られる時間微分
値、E xq とE yq を前記任意点qにおいて前記空間微分画
像より得られる空間微分値とするとき、時空間勾配の拘
束条件から与えられるxq、yq、E tq 、E xq 、E yq 及
び前記変換係数C k を含む式を、j個(但し、j≧n)
の任意点について連立させ、得られる連立方程式から前
記変換係数C k を計算し、この変換係数C k に基づい
て、前記変換式から前記格子点位置における動きベクト
ルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項7】 テレビカメラ等より入力された動画像か
ら、現フレーム画像と前フレーム画像間での見かけ上の
動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
する格子点位置蓄積手 段と; この格子点位置情報と、現フレーム画像と、前フレーム
画像とに基づいて、画像間におけるブロック単位の粗い
動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
レーム画像とに基づいて、前フレーム画像に対応する粗
い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
間微分計算手段と; 現フレーム画像と前記粗い予測画像
間での画素値の時間微分画像を計算する時間微分計算手
段と; n個(但し、n=6または8)の変換係数C k (但し、
k=1〜n)を有し、動き補償予測のための画面上の位
置(x,y)とx方向の動きベクトルv x との関係、並
びに、同位置(x,y)とy方向の動きベクトルv y と
の関係を表す変換式を、動きベクトルのモデル情報とし
て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
の格子点P i の位置(x i 、y i )(但し、i=1〜n
/2)毎に、v rx とv ry を前記n/2個の格子点を境界
上に持つブロックの粗い動きベクトル、xqとyqを前
記n/2個の格子点を境界上に持つブロック上の任意点
qの位置、E tq ' を前記任意点qにおいて前記時間微分
画像より得られる時間微分値、E xq とE yq を前記任意点
qにおいて前記空間微分画像より得られる空間微分値と
するとき、時空間勾配の拘束条件から与えられる、
v rx 、v ry 、xq、yq、E tq ' 、E xq 、E yq 及び前記
変換係数C k を含む式を、j個(但し、j≧n)の任意
点について連立させ、得られる連立方程式から前記変換
係数C k を計算し、この変換係数C k に基づいて、前記
変換式から前記格子点位置における動きベクトルを計算
する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
装置。 - 【請求項8】 請求項6または7に記載の動画像の動き
ベクトル検出装置において、前記動きベクトル計算手段
は隣接するブロックと共通する格子点での動きベクトル
を平均により求めることを特徴とする動画像の動きベク
トル検出装置 。 - 【請求項9】 請求項1ないし8いずれか一つに記載の
動画像の動きベクトル検出装置において、前記j個の任
意点として少なく1つの格子点を含むことを特徴とする
動画像の動きベクトル検出装置。 - 【請求項10】 請求項1ないし9いずれか一つに記載
の動画像の動きベクトル検出装置において、画面上の位
置(x,y)と動きベクトル(vx ,vy )との変換式
が下記の式(1)、式(2)及び式(3)のうちいずれ
か1つであることを特徴とする動画像の動きベクトル検
出装置。 【数1】 vx =a+bx+cy+dx2 +exy vy =f+gx+hy+ey2 +dxy …式(1) 【数2】 vx =a+bx+cy+exy vy =e+fx+gy+hxy …式(2) 【数3】 vx =a+bx+cy vy =d+ex+fy …式(3) - 【請求項11】 請求項1ないし10いづれか一つに記
載の動画像の動きベクトル検出装置において、前フレー
ム画像が、当該前フレーム画像の動き補償予測フレーム
間符号化後に局部復号された画像であることを特徴とす
る動画像の動きベクトル検出装置。 - 【請求項12】 テレビカメラ等より入力された動画像
から、動きベクトルを用いて現フレームに対応する動き
補償予測画像を得る装置において: 請求項1ないし11いずれか一つに記載の動画像の動き
ベクトル検出装置の格子点位置蓄積手段、動きモデル蓄
積手段及び動きベクトル計算手段からそれぞれ得られる
格子点位置情報、変換式及び動きベクトル情報に基づい
て、予測画像の生成に必要な同変換式の変換係数を計算
する変換係数計算手段と; この変換係数計算手段から得られる前記変換係数と、前
記変換式とに基づいて、現フレーム画像に対応する動き
補償予測画像を生成すると予測画像生成手段と; を具備することを特徴とする動画像の動き補償予測装
置。 - 【請求項13】 テレビカメラ等より入力される動画像
に対し動き補償予測フレーム間符号化を行う装置におい
て: 請求項1ないし11いずれか一つに記載の動画像の動き
ベクトル検出装置と; 請求項12記載の動画像の動き補償予測装置と; 現フレーム画像と前記動画像の動き補償予測装置で得ら
れた動き補償予測画像間で差分画像を計算する差分画像
計算手段と; この差分画像を符号化する符号化手段と; 符号化された差分画像を復号する復号手段と; 復号された差分画像と、前記動き補償予測画像とに基づ
いて、現フレーム画像に対応する局部復号画像を計算す
る局部復号画像計算手段と; この局部復号画像を前フレーム画像として記憶する記憶
手段と; を具備することを特徴とする動画像の動き補償予測フレ
ーム間符号化装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15334194A JP3295228B2 (ja) | 1994-07-05 | 1994-07-05 | 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15334194A JP3295228B2 (ja) | 1994-07-05 | 1994-07-05 | 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0818983A JPH0818983A (ja) | 1996-01-19 |
JP3295228B2 true JP3295228B2 (ja) | 2002-06-24 |
Family
ID=15560361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15334194A Expired - Fee Related JP3295228B2 (ja) | 1994-07-05 | 1994-07-05 | 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3295228B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2783123B1 (fr) * | 1998-09-04 | 2000-11-24 | France Telecom | Procede d'estimation du mouvement entre deux images |
JP4881055B2 (ja) * | 2006-04-24 | 2012-02-22 | 日本電信電話株式会社 | 連続弾性体変形シミュレーション方法、プログラム、および記録媒体 |
-
1994
- 1994-07-05 JP JP15334194A patent/JP3295228B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0818983A (ja) | 1996-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7313816B2 (ja) | 画像予測方法および関連装置 | |
CN101951514B (zh) | 预测图像产生方法及设备和图像视频编/解码方法及设备 | |
JP4180666B2 (ja) | ビデオ信号符号化方法 | |
US7227896B2 (en) | Method and apparatus for global motion estimation | |
RU2251820C2 (ru) | Экстраполяция вектора движения для перекодировки видеопоследовательности | |
KR100563552B1 (ko) | 비선형 피라미드를 사용하여 계층적인 움직임 추정을 실행하기 위한 장치 및 방법 | |
TW201739252A (zh) | 具有仿射運動補償的視訊編碼的方法以及裝置 | |
JPH09163380A (ja) | 画像符号化装置及び動きベクトル検出方法 | |
JPH08265780A (ja) | ビデオ信号符号化/復号化装置及び方法 | |
JP2001515679A (ja) | 高分解能静止画像を創出するための方法及び装置 | |
JPH08275178A (ja) | ビデオ信号符号化方法 | |
JPS62203496A (ja) | 動画像信号の高能率符号化方式 | |
US20190110060A1 (en) | A video encoding and decoding method, and its inter-frame prediction method, device and system thereof | |
JP3201079B2 (ja) | インターレース動画像信号の動き補償予測方法、符号化方法及び装置 | |
JP3295228B2 (ja) | 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 | |
JP3681784B2 (ja) | 映像信号符号化装置 | |
JP2743434B2 (ja) | 動き補償フレーム間予測符号化回路 | |
Jakhetiya et al. | Image interpolation by adaptive 2-D autoregressive modeling | |
JPH04189093A (ja) | 動き補償装置 | |
JP2616552B2 (ja) | 動画像の符号化・復号化装置 | |
JP3309519B2 (ja) | 動きベクトル検出装置 | |
JP3201343B2 (ja) | インターレース動画像の動き補償予測装置 | |
JP3653287B2 (ja) | 画像情報変換装置及び画像情報変換方法 | |
JP2878580B2 (ja) | 階層的動ベクトル検出方法 | |
JP5108828B2 (ja) | 画像符号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020305 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080405 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090405 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090405 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110405 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |