JP3295228B2 - 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 - Google Patents

動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置

Info

Publication number
JP3295228B2
JP3295228B2 JP15334194A JP15334194A JP3295228B2 JP 3295228 B2 JP3295228 B2 JP 3295228B2 JP 15334194 A JP15334194 A JP 15334194A JP 15334194 A JP15334194 A JP 15334194A JP 3295228 B2 JP3295228 B2 JP 3295228B2
Authority
JP
Japan
Prior art keywords
motion vector
image
motion
equation
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15334194A
Other languages
English (en)
Other versions
JPH0818983A (ja
Inventor
淳 小池
聡 勝野
好律 羽鳥
Original Assignee
ケイディーディーアイ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケイディーディーアイ株式会社 filed Critical ケイディーディーアイ株式会社
Priority to JP15334194A priority Critical patent/JP3295228B2/ja
Publication of JPH0818983A publication Critical patent/JPH0818983A/ja
Application granted granted Critical
Publication of JP3295228B2 publication Critical patent/JP3295228B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はテレビカメラ等から連続
して入力される動画像の低ビットレート符号化にあるい
は内挿に有用な、動きベクトル検出装置、動き補償予測
装置及び動き補償予測フレーム間符号化装置に関する。
【0002】
【従来の技術】
<第1従来例>従来の動画像の動き補償予測技術として
は、図6に示されるように、画面100を所望のブロッ
ク101に分割し、ブロック単位の並行移動ベクトル1
02を周知のブロックマッチング方法により検出し、検
出した並行移動ベクトル102を用いて動き補償予測を
行うのが一般であった。しかし、ブロック単位の並行移
動ベクトル102を用いることから、しばしば予測画像
にブロック間の境界が乱れるというブロック歪が発生
し、それによって現フレーム画像との差が大きくなり、
符号化のビットレートが増大することがある。
【0003】<第2従来例>そこで近年は、図7に示さ
れるように、ブロック101を構成する各隅の格子点1
03における動きベクトル104を周知のブロックマッ
チング方法により検出し、この動きベクトル104を利
用して、バイリニア変換やアフィン変換により動き補償
予測を行う方法が提案されている(文献:“Motion Vec
tor Field Reconstruction for Predictive Video Sequ
ence Coding",Proc.VLBV94,6-4,April,1994)
【0004】図7において、各格子点103における動
きベクトル104の検出は、各格子点103にそれを囲
む仮想的なブロック105を設定し、時間的に前後した
2枚のフレーム画像(前フレーム画像と現フレーム画
像)との間で仮想的ブロック105の動きをブロックマ
ッチング方法により検出する。
【0005】バイリニア変換とは下記の式(4)で与え
られる非線形変換である。バイリニア変換を用いて動き
補償予測を行う場合は、まずその変換係数a〜hを四角
形のブロック101毎に、その四隅の格子点103で検
出した動きベクトルの値(v x1,vy1),(vx2
y2),(vx3,vy3)及び(vx4,vy4)から計算に
よって決定する。次に、ブロック101毎に、前フレー
ム画像をP(x,y)とし現フレーム画像に対応する予
測画像をC(x,y)とすれば、下記の式(5)によっ
てブロック内各画素の動き補償予測を行う。なお、xは
x座標値、yはy座標値を示す。
【数4】 vx =a+bx+cy+dxy vy =e+fx+gy+hxy …式(4)
【数5】 C(x,y)=P(x+vx ,y+vy ) =P(x+a+bx+cy+dxy, y+e+fx+gy+hxy) …式(5)
【0006】アフィン変換とは下記の式(6)で与えら
れる線形の変換である。アフィン変換を用いて動き補償
予測を行う場合は、図7に破線で示す三角形のブロック
106を設定し、各ブロック106毎にその三隅の格子
点103で検出した動きベクトルの値(vx1,vy1),
(vx2,vy2)及び(vx3,vy3)から計算によって6
個の変換係数a〜fを決定する。次に、ブロック106
毎に、各変換係数a〜fを用いて下記の式(7)によっ
てブロック内各画素の動き補償予測を行うことにより、
前フレーム画像P(x,y)から予測画像C(x,y)
を求める。
【数6】 vx =a+bx+cy vy =d+ex+fy …式(6)
【数7】 C(x,y)=P(x+vx ,y+vy ) =P(x+a+bx+cy,y+d+ex+fy) …式(7)
【0007】バイリニア変換、アフィン変換いずれを用
いた動き補償予測の場合も、予測画像C(x,y)を求
めたら、現フレーム画像とそれに対応する予測画像との
間での差分画像を計算し、差分画像をDCT(iscret
e osine ransform)やVQ(ector uantizer)
等の適宜な符号化方法で符号化して、受信側へ送る。ま
た、受信側において送信側と同様な動き補償予測画像を
生成するため、各ブロック101または106毎の格子
点の動きベクトル104のデータも受信側に送る。
【0008】
【発明が解決しようとする課題】従来の動きベクトル1
04は格子点103の周囲に仮想的ブロック105を設
定してブロックマッチング方法により検出したものであ
るから、仮想的ブロック105の平均的な動きベクトル
であり、格子点103自体の動きベクトルに必ずしも正
確に一致するとは言えない。また、検出した動きベクト
ル104の動き量の精度は整数画素精度にすぎず、小数
点精度で動き量を検出することができない。そのため、
バイリニア変換やアフィン変換を用いて動き補償予測を
行っても、予測画像の精度に限界があり、ひいては低ビ
ットレートな符号化を制約している。一方、バイリニア
変換やアフィン変換を用いた動き補償予測は或る程度複
雑な動きを表現できる点で優れた方法ではあるが、例え
ば3次元空間内の平面が平面自体回転しながらテレビカ
メラに接近してくるような場合など、更に複雑な動きを
表現することは困難である。
【0009】本発明は上述した従来技術の問題点に鑑
み、バイリニア変換やアフィン変換を用いても予測画像
の精度が向上し、ひいては低ビットレートの符号化を可
能とする、動画像の動きベクトル検出装置及びそれを用
いた動き補償予測装置及び動き補償予測フレーム間符号
化装置を提供することを第1の目的とする。また、本発
明は、バイリニア変換やアフィン変換よりも複雑な動き
を表現できる変換式を用いた、動画像の動きベクトル検
出装置及びそれを用いた動き補償予測装置及び動き補償
予測フレーム間符号化装置を提供することを第2の目的
とする。
【0010】
【課題を解決するための手段】上記目的を達成する第1
の発明に係る動画像の動きベクトル検出装置は:現フレ
ーム画像中の画素値の空間微分画像を計算する空間微分
計算手段と;現フレーム画像と前フレーム画像間での画
素値の時間微分画像を計算する時間微分計算手段と;動
きベクトルが検出されるべき格子点の位置情報を蓄積す
る格子点位置蓄積手段と;n個(但し、n=6または
8)の変換係数C k (但し、k=1〜n)を有し、動き
補償予測のための画面上の位置(x,y)とx方向の動
きベクトルv x との関係、並びに、同位置(x,y)と
y方向の動きベクトルv y との関係を表す変換式を、動
きベクトルのモデル情報として蓄積する動きモデル蓄積
手段と;前記格子点位置蓄積手段に蓄積された隣接する
n/2個の格子点P i の位置(x i 、y i )(但し、i
=1〜n/2)毎に、E tq を前記n/2個の格子点を境
界上に持つブロック上の任意点qにおいて前記時間微分
画像より得られる時間微分値、E xq とE yq を前記任意点
qにおいて前記空間微分画像より得られる空間微分値、
x 及びD y を前記任意点qの位置(xq、yq)及び
空間微分値E xq 、E yq 並びに前記n/2個の格子点の位
置(x i 、y i )を含む係数とするとき、前記変換式に
基づく前記n/2個の格子点位置(x i 、y i )及びこ
れら各格子点位置での動きベクトル(v xi 、v yi )(但
し、i=1〜n/2)の関係と、時空間勾配の拘束条件
とから与えられる式Σ(D xi xi +D yi yi )=E
tq (但し、i=1〜n/2)を、j個(但し、j≧n)
の任意点について連立させ、得られる連立方程式から前
式中の係数D xi 、D yi を計算し、設定する係数設定手段
と;この係数設定手段から得られる前記係数D xi 、D yi
に基づいて、前記連立方程式から前記格子点位置におけ
る動きベクトルを計算する動きベクトル計算手段と;を
具備することを特徴とするものである。第2の発明に係
る動画像の動きベクトル検出装置は: 動きベクトルが検
出されるべき格子点の位置情報を蓄積する格子点位置蓄
積手段と; この格子点位置情報と、現フレーム画像と、
前フレーム画像とに基づいて、画像間におけるブロック
単位の粗い動きベクトルを検出する粗いベクトル検出手
段と; この粗い動きベクトルと、前記格子点位置情報
と、前フレーム画像とに基づいて、前フレーム画像に対
応する粗い予測画像を生成する粗い予測画像生成手段
と; 現フレーム画像中の画素値の空間微分画像を計算す
る空間微分計算手段と; 現フレーム画像と前記粗い予測
画像間での画素値の時間微分画像を計算する時間微分計
算手段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、v rx 、v ry を前記n/2個の格子点を境界上に持つ
ブロックの粗い動きベクトル、E tq を前記n/2個の格
子点を境界上に持つブロック上の任意点qにおいて前記
時間微分画像より得られる時間微分値、E xq とE yq を前
記任意点qにおいて前記空間微分画像より得られる空間
微分値、D x 及びD y を前記任意点qの位置(xq、y
q)及び空間微分値E xq 、E yq 並びに前記n/2個の格
子点の位置(x i 、y i )を含む係数とするとき、前記
変換式に基づく前記n/2個の格子点位置(x i
i )及びこれら各格子点位置での動きベクトル
(v xi 、v yi )(但し、i=1〜n/2)の関係と、時
空間勾配の拘束条件とから与えられる式Σ(D xi xi
yi yi )=E tq ' −E xq rx −E yq ry (但し、i=
1〜n/2)を、j個(但し、j≧n)の任意点につい
て連立させ、得られる連立方程式から前式中の係数
xi 、D yi を計算し、設定する係数設定手段と; この係
数設定手段から得られる前記係数D xi 、D yi に基づい
て、前記連立方程 式から前記格子点位置における動きベ
クトルを計算する動きベクトル計算手段と;を具備する
ことを特徴とするものである。第3の発明に係る動画像
の動きベクトル検出装置は: 現フレーム画像中の画素値
の空間微分画像を計算する空間微分計算手段と; 現フレ
ーム画像と前フレーム画像間での画素値の時間微分画像
を計算する時間微分計算手段と; 動きベクトルが検出さ
れるべき格子点の位置情報を蓄積する格子点位置蓄積手
段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、E tq を前記n/2個の格子点を境界上に持つブロッ
ク上の任意点qにおいて前記時間微分画像より得られる
時間微分値、E xq とE yq を前記任意点qにおいて前記空
間微分画像より得られる空間微分値、D x 及びD y を前
記任意点qの位置(xq、yq)及び空間微分値E xq
yq 並びに前記n/2個の格子点の位置(x i 、y i
を含む係数とするとき、前記変換式に基づく前記n/2
個の格子点位置(x i 、y i )及びこれら各格子点位置
での動きベクトル(v xi 、v yi )(但し、i=1〜n/
2)の関係と、時空間勾配の拘束条件とから与えられる
式Σ(D xi xi +D yi yi )=E tq (但し、i=1〜n
/2)を、j個(但し、j≧n)の任意点について連立
させ、得られる連立方程式から前記格子点位置における
動きベクトルを計算する動きベクトル計算手段と; を具
備することを特徴とするものである。 第4の発明にかか
る動画像の動きベクトル検出装置は: 動きベクトルが検
出されるべき格子点の位置情報を蓄積する格子点位置蓄
積手段と; この格子点位置情報と、現フレーム画像と、
前フレーム画像とに基づいて、画像間におけるブロック
単位の粗い動きベクトルを検出する粗いベクトル検出手
段と; この粗い動きベクトルと、前記格子点位置情報
と、前フレーム画像とに基づいて、前フレーム画像に対
応する粗い予測画像を生成する粗い予測画像生成手段
と; 現フレーム画像中の画素値の空間微分画像を計算す
る空間微分計算手段と; 現フレーム画像と前記粗い予測
画像間での画素値の時間微分画像を計算する時間微分計
算手段と; n個(但し、n=6または8)の変換係数C
k (但し、k=1〜n)を有し、動き補償予測のための
画面上の位置(x,y)とx方向の動きベクトルv x
の関係、並びに、同位置(x,y)とy方向の動きベク
トルv y との関係を表す変換式を、動きベクトルのモデ
ル情報として蓄積する動きモデル蓄積手段と; 前記格子
点位置蓄積手段に蓄積された隣接するn/2個の格子点
i の位置(x i 、y i )(但し、i=1〜n/2)毎
に、v rx 、v ry を前記n/2個の格子点を境界上に持つ
ブロックの粗い動きベクトル、E tq を前記n/2個の格
子点を境界上に持つブロック上の任意点qにおいて前記
時間微分画像より得られる時間微分値、E xq とE yq を前
記任意点qにおいて前記空間微分画像より得られる空間
微分値、D x 及びD y を前記任意点qの位置(xq、y
q)及び空間微分値E xq 、E yq 並びに前記n/2個の格
子点の位置(x i 、y i )を含む係数とするとき、前記
変換式に基づく前記n/2個の格子点位置(x i
i )及びこれら各格子点位置での動きベクトル
(v xi 、v yi )(但し、i=1〜n/2)の関係と、時
空間勾配の拘束条件とから与えられる式Σ(D xi xi
yi yi )=E tq ' −E xq rx −E yq ry (但し、i=
1〜n/2)を、j個(但し、j≧n)の任意点につい
て連立させ、得られる連立方程式から前記格子点位置に
おける動きベクトルを計算する動きベクトル計算手段
と; を具備することを特徴とするものである。 第5の発
明に係る動画像の動きベクトル検出装置は、第1ないし
第4いずれかの発明に加えて、前記動きベクトル計算手
段は隣接するブロックと共通する格子 点での動きベクト
ルを最小2乗法により求めることを特徴とするものであ
る。
【0011】また、第6の発明に係る動画像の動きベク
トル検出装置は: 現フレーム画像中の画素値の空間微分
画像を計算する空間微分計算手段と; 現フレーム画像と
前フレーム画像間での画素値の時間微分画像を計算する
時間微分計算手段と; 動きベクトルが検出されるべき格
子点の位置情報を蓄積する格子点位置蓄積手段と; n個
(但し、n=6または8)の変換係数C k (但し、k=
1〜n)を有し、動き補償予測のための画面上の位置
(x,y)とx方向の動きベクトルv x との関係、並び
に、同位置(x,y)とy方向の動きベクトルv y との
関係を表す変換式を、動きベクトルのモデル情報として
蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手
段に蓄積された隣接するn/2個の格子点P i の位置
(x i 、y i )(但し、i=1〜n/2)毎に、xqと
yqを前記n/2個の格子点を境界上に持つブロック上
の任意点qの位置、E tq を前記任意点qにおいて前記時
間微分画像より得られる時間微分値、E xq とE yq を前記
任意点qにおいて前記空間微分画像より得られる空間微
分値とするとき、時空間勾配の拘束条件から与えられる
xq、yq、E tq 、E xq 、E yq 及び前記変換係数C k
含む式を、j個(但し、j≧n)の任意点について連立
させ、得られる連立方程式から前記変換係数C k を計算
し、この変換係数C k に基づいて、前記変換式から前記
格子点位置における動きベクトルを計算する動きベクト
ル計算手段と; を具備することを特徴とするものであ
る。 第7の発明に係る動画像の動きベクトル検出装置
は: 動きベクトルが検出されるべき格子点の位置情報を
蓄積する格子点位置蓄積手段と; この格子点位置情報
と、現フレーム画像と、前フレーム画像とに基づいて、
画像間におけるブロック単位の粗い動きベクトルを検出
する粗いベクトル検出手段と; この粗い動きベクトル
と、前記格子点位置情報と、前フレーム画像とに基づい
て、前フレーム画像に対応する粗い予測画像を生成する
粗い予測画像生成手段と 現フレーム画像中の画素値の
空間微分画像を計算する空間微分計算手段と; 現フレー
ム画像と前記粗い予測画像間での画素値の時間微分画像
を計算する時間微分計算手段と; n個(但し、n=6ま
たは8)の変換係数C k (但し、k=1〜n)を有し、
動き補償予測のための画面上の位置(x,y)とx方向
の動きベクトルv x との関係、並びに、同位置(x,
y)とy方向の動きベクトルv y との関係を表す変換式
を、動きベクトルのモデル情報として蓄積する動きモデ
ル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣
接するn/2個の格子点P i の位置(x i 、y i )(但
し、i=1〜n/2)毎に、v rx とv ry を前記n/2個
の格子点を境界上に持つブロックの粗い動きベクトル、
xqとyqを前記n/2個の格子点を境界上に持つブロ
ック上の任意点qの位置、E tq ' を前記任意点qにおい
て前記時間微分画像より得られる時間微分値、E xq とE
yq を前記任意点qにおいて前記空間微分画像より得られ
る空間微分値とするとき、時空間勾配の拘束条件から与
えられる、v rx 、v ry 、xq、yq、E tq ' 、E xq 、E
yq 及び前記変換係数C k を含む式を、j個(但し、j≧
n)の任意点について連立させ、得られる連立方程式か
ら前記変換係数C k を計算し、この変換係数C k に基づ
いて、前記変換式から前記格子点位置における動きベク
トルを計算する動きベクトル計算手段と; を具備するこ
とを特徴とするものである。第8の発明に係る動画像の
動きベクトル検出装置は、第6または第7の発明に加え
て、前記動きベクトル計算手段は隣接するブロックと共
通する格子点での動きベクトルを平均により求めること
を特徴とするものである。
【0012】また、第9の発明に係る動画像の動きベク
トル検出装置は、第1ないし第8いずれか一つの発明に
加えて、前記j個の任意点として少なく1つの格子点を
含むことを特徴とするものである。更に、第10の発明
に係る動画像の動きベクトル検出装置は、第1ないし第
9いずれか一つの発明に加えて、画面上の位置(x,
y)と動きベクトル(vx ,vy )との変換式が下記の
式(8)、式(9)及び式(10)のうちいずれか1つ
であることを特徴とするものである。
【数8】 vx =a+bx+cy+dx2 +exy vy =f+gx+hy+ey2 +dxy …式(8)
【数9】 vx =a+bx+cy+exy vy =e+fx+gy+hxy …式(9)
【数10】 vx =a+bx+cy vy =d+ex+fy …式(10)
【0013】第11の発明に係る動画像の動きベクトル
検出装置は、第1ないし第10いづれか一つの発明に加
えて、前フレーム画像が、当該前フレーム画像の動き補
償予測フレーム間符号化後に局部復号された画像である
ことを特徴とするものである。
【0014】次に、第12の発明に係る動画像の動き補
償予測装置は、第1ないし第11いづれか一つの発明の
動画像の動きベクトル検出装置の格子点位置蓄積手段、
動きモデル蓄積手段及び動きベクトル計算手段からそれ
ぞれ得られる格子点位置情報、変換式及び動きベクトル
情報に基づいて、予測画像の生成に必要な同変換式の
変換係数を計算する変換係数計算手段と;この変換係
計算手段から得られる前記変換係数と、前記変換式と
に基づいて、現フレーム画像に対応する動き補償予測画
像を生成すると予測画像生成手段と;を具備することを
特徴とするものである。
【0015】更に、第13の発明に係る動画像の動き補
償予測フレーム間符号化装置は:第1ないし第11いず
れか一つの発明の動画像の動きベクトル検出装置と;第
12の発明の動画像の動き補償予測装置と;現フレーム
画像と前記動画像の動き補償予測装置で得られた動き補
償予測画像間で差分画像を計算する差分画像計算手段
と;この差分画像を符号化する符号化手段と;符号化さ
れた差分画像を復号する復号手段と;復号された差分画
像と、前記動き補償予測画像とに基づいて、現フレーム
画像に対応する局部復号画像を計算する局部復号画像計
算手段と;この局部復号画像を前フレーム画像として記
憶する記憶手段と;を具備することを特徴とするもので
ある。
【0016】
【作用】
<原理説明>本発明の原理を前出の変換式(8)を用い
る場合を例にとって説明する。まず変換式(8)につい
て説明すると、テレビカメラから得られる画像とは、3
次元空間内に存在する物体の透視変換による投影図であ
ると考えることができるから、3次元空間内における物
体が複数の(微小)平面で近似できると仮定すると、物
体を構成する個々の平面の動きに関しては、平面の投影
面上における見かけ上の動き即ち動きベクトルを
(vx ,vy )、投影面における座標位置を(x,y)
とすると、前出の非線形な変換式(8)で記述できるこ
とが良く知られている。つまり、変換式(8)はバイリ
ニア変換やアフィン変換よりも、複雑な動きを表現する
能力が高い。以下、変換式(8)を透視変換式と呼ぶ。
ここで、透視変換式(8)の変換係数a〜hが具体的な
変換を規定するので、投影面上での見かけ上の動き即ち
変換係数a〜hは、平面内の4点における動きベクトル
が与えられれば決定することができる。そこでまず、動
き補償予測への適用を考慮し、動き検出の方向を現フレ
ーム画像から前フレーム画像への方向とし、更に動き補
償予測の単位を四角形のブロックとする。今、或るブロ
ックを構成する四隅の格子点をP1(x1,y1)、P
2(x2,y2)、P3(x3,y3)及びP4(x
4,y4)とし、仮に各格子点において透視変換式
(8)が成立しているとすると、下記の式(11)が得
られる。
【0017】
【数11】 vx1=a+bx1+cy1+dx12 +ex1y1 vy1=f+gx1+hy1+ey12 +dx1y1 vx2=a+bx2+cy2+dx22 +ex2y2 vy2=f+gx2+hy2+ey22 +dx2y2 vX3=a+bx3+cy3+dx32 +ex3y3 vy3=f+gx3+hy3+ey32 +dx3y3 vx4=a+bx4+cy4+dx42 +ex4y4 vy4=f+gx4+hy4+ey42 +dx4y4 …式(11)
【0018】また、P1〜P4の各点における動きベク
トルが与えられれば、前式(11)は変換係数a〜hか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜hは、ブロック
の四隅を構成する格子点P1〜P4における動きベクト
ル(vx1,vy1,vx2…,vy4)の線形結合で表され
る。
【0019】一方、現フレーム画像と前フレーム画像間
で動きが小さい(例えば数画素)と仮定すると、ブロッ
ク内の任意の点qにおいて、画素値の時空間勾配の拘束
条件から、良く知られている次式(12)が成り立つ。
ここで、ExqとEyqは現フレーム画像の点qにおける画
素値のx,y方向の勾配即ち画素値の空間微分、Etq
点qにおけるフレーム間差分即ち画素値の時間微分、v
xqとvyqは点qにおけるx,y方向の動きベクトルの成
分である。
【0020】
【数12】 Exqxq+Eyqyq+Etq=0 …式(12)
【0021】更に、点qにおいて透視変換式(8)が成
り立つと仮定すれば、透視変換式(8)を式(12)に
代入することにより、次式(13)を得る。この式(1
3)は画素値の時空間勾配と式(8)で規定された透視
変換とに基づく、動きに関する方程式である。
【0022】
【数13】 Etq+aExq+fEyq+bExqq +gEyqq + cExqq +hEyqq +d(Exqq 2 +Eyqqq )+ e(Exqqq +Eyqq 2 )=0 …式(13)
【0023】そこで、式(13)について考察すると、
ブロック内の点の動きを規定する変換係数a〜hは先に
示したブロックを構成する四隅の格子点P1〜P4にお
ける動きベクトル(vx1,vy1,vx2…,vy4)の線形
結合で記述されるので、式(13)は結果的に、格子点
における動きベクトル(vx1,vy1,vx2…,vx4)を
変数とする下記の方程式(14)として表わされる。
【数14】 αx1x1+αy1y1+αx2x2+αy2y2+αx3x3+αy3y3+ αx4x4+αy4y4=Etq …式(14)
【0024】ここで、式(14)中の係数αxiとα
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(14)は前出の連立一次方程式(11)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(13)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(14)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数αxiとαyi(i=1〜4)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0025】そこで、ブロック内の最低8個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(14)における係数αxi,αyiを計算
して方程式を立てれば、四隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy4)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、透視変換式(8)で規定された動きに基づくよ
うに各格子点P1〜P4自身における動きベクトル(v
x1,vy1,vx2…,vy4)を直接に計算することができ
る。また、この計算により、各格子点P1〜P4におけ
る動きベクトルは小数点精度で求まる。実際には、ブロ
ックの四隅を構成する格子点は上下左右の隣接するブロ
ックにおける格子点と共通であるから、画面を構成する
全てのブロック、または適当に選んだ複数のブロックに
対してそれぞれ式(14)を立て、最小2乗法によりブ
ロックを構成する各格子点における動きベクトルを求め
ることができる。
【0026】上述した式(14)及びその係数αxi,α
yiの計算により各格子点自身における動きベクトルを求
める場合は、透視変換式(8)の変換係数a〜hが表面
上直接には現われないから、ブロック間の動きの差異に
影響されず、1つの格子点につき1つの動きベクトルを
直接に求めることができる。しかし、式(13)を用い
てブロック毎に変換係数a〜hを直接求めてから、各格
子点自身における動きベクトルを計算することも可能で
ある。その場合には、次のように処理すれば良い。即
ち、ブロック内の最低8個の任意の点qについて画素値
の空間微分Exq,E yqと画素値の時間微分Etqを求め、
各点毎に式(13)を立てて連立1次方程式として解
き、変換係数a〜hを求める。これらの変換係数a〜h
を式(11)に設定することにより、透視変換式(8)
で規定された動きに基づくように各格子点P1〜P4自
身における動きベクトル(vx1,vy1,vx2…,vy4
を計算により求める。実際には、ブロックの四隅を構成
する格子点は上下左右の隣接するブロックにおける格子
点と共通であるから、画面を構成する全てのブロック、
または適当に選んだ複数のブロックに対してそれぞれ式
(13)を立て、同じ格子点に異なる動きベクトルが得
られたならば例えば平均によりブロックを構成する各格
子点における動きベクトルを求める。
【0027】上述の原理によりブロックの四隅を構成す
る格子点P1〜P4の動きベクトル(vx1,vy1,vx2
…,vy4)が検出されたならば、重み補償予測のための
透視変換に必要な変換係数a〜hを計算する。即ち、4
つの格子点P1(x1,y1),P2(x2,y2),
P3(x3,y3)及びP4(x4,y4)において、
透視変換式(8)が成り立っているので、下記の連立一
次方程式(15)が得られる。
【0028】
【数15】 vx1=a+bx1+cy1+dx12 +ex1y1 vy1=f+gx1+hy1+ey12 +dx1y1 vx2=a+bx2+cy2+dx22 +ex2y2 vy2=f+gx2+hy2+ey22 +dx2y2 vX3=a+bx3+cy3+dx32 +ex3y3 vy3=f+gx3+hy3+ey32 +dx3y3 vx4=a+bx4+cy4+dx42 +ex4y4 vy4=f+gx4+hy4+ey42 +dx4y4 …式(15)
【0029】この連立一次方程式を解けば、透視変換に
必要な変換係数a〜hをブロック単位に求めることがで
きる。そこで、前フレーム画像をP(x,y)、動き補
償予測画像をC(x,y)とすれば、下記の式(16)
によって動き補償予測画像を生成することができる。
【0030】
【数16】 C(x,y)=P(x+vx ,y+vy ) =P(x+a+bx+cy+dx2 +exy, y+f+gx+hy+ey2 +dxy) …式(16)
【0031】動き補償画像C(x,y)を生成したなら
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。これにより、動き補償予測フレーム間符
号化が達成され、符号化データを受信側に送出すること
ができる。なお、各格子点の動きベクトルも符号化して
受信側に送出する。これにより、送信側と同様な処理を
受信側においても行うことにより、送られてきた動きベ
クトルから変換に必要な係数を計算し、動き補償予測画
像を生成することができる。
【0032】ところで、前フレーム画像としてはテレビ
カメラ等から入力した原画像自体でも良いが、受信側に
は原画像が存在せず、復号した画像のみがあるから、符
号化及び復号の各段階での画質劣化を少しでも吸収する
ために、受信側と同様に送信側でも前フレーム画像とし
て局部復号画像を用いるのが好ましい。
【0033】上述した原理説明では、画素値の時空間勾
配の拘束条件即ち式(12)を適用するために、前フレ
ーム画像と現フレーム画像間で動きが小さいと仮定し
た。そのため、動きが大きい場合には必ずしも十分では
ない。その場合の対策は次の通りである。
【0034】まず、従来と同様、ブロックマッチング方
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、下記の式(17)のように粗
い予測画像C′(x,y)を作成する。
【0035】
【数17】 C′(x,y)=P(x+vrx,y+vry) …式(17)
【0036】この粗い予測画像C′(x,y)は粗いと
は言っても、前フレーム画像よりも大幅に現フレーム画
像に似ているから、前述の画素値の時空間勾配の拘束条
件を適用することができる。即ち、粗い動きベクトル
(vrx,vry)を用いることにより、前出の式(12)
は下記の式(18)に変形される。但し、ExqとEyq
現フレーム画像の点qにおけるx,y方向の画素値の空
間微分、Etq′は点qにおける現フレーム画像と粗い予
測画像C′(x,y)間での画素値の時間微分、vxq
yqは点qにおけるx,y方向の動きベクトルである。
【0037】
【数18】 Exq(vxq−vrx)+Eyq(vyq−vry)+Etq′=0 …式(18)
【0038】そして、透視変換式(8)を式(18)に
代入すれば、粗い動きベクトルを考慮した下記の式(1
9)を得る。この式(19)は前出の式(13)に対応
しており、Etq′−Exqrx−Eyqryの項だけが異な
る。また、式(19)は式(13)と同様、最終的に
は、格子点における動きベクトル(vx1,vy1,v
x2…,vy4)を変数とする下記の方程式(20)として
表わされる。
【0039】
【数19】 Etq′−Exqrx−Eyqry+ aExq+fEyq+bExqq +gEyqq + cExqq +hEyqq +d(Exqq 2 +Eyqqq )+ e(Exqqq +Eyqq 2 )=0 …式(19)
【0040】
【数20】 αx1x1+αy1y1+αx2x2+αy2y2+αx3x3+αy3y3+ αx4x4+αy4y4=Etq′−Exqrx−Eyqry …式(20)
【0041】ここで、式(20)中の係数αxiとα
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(20)は前出の連立一次方程式(11)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(19)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(20)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数αxiとαyi(i=1〜4)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0042】そこで、ブロック内の最低8個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(20)における係数αxi,αyiを計
算して方程式を立てれば、四隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy4)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、透視変換式(8)で規定された動きに基づく
ように各格子点P1〜P4自身における動きベクトル
(vx1,vy1,vx2…,vy4)を直接に計算することが
できる。また、この計算により、各格子点P1〜P4に
おける動きベクトルは少数点精度で求まる。実際には、
ブロックの四隅を構成する格子点は上下左右の隣接する
ブロックにおける格子点と共通であるから、画面を構成
する全てのブロック、または適当に選んだ複数のブロッ
クに対してそれぞれ式(20)を立て、最小2乗法によ
りブロックを構成する各格子点における動きベクトルを
求めることができる。
【0043】上述した式(20)及びその係数αxi,α
yiの計算により各格子点自身における動きベクトルを求
める場合は、透視変換式(8)の変換係数a〜hが表面
上直接には現われないから、ブロック間の動きの差異に
影響されず、1つの格子点につき1つの動きベクトルを
直接に求めることができる。しかし、式(19)を用い
てブロック毎に変換係数a〜hを直接求めてから、各格
子点自身における動きベクトルを計算することも可能で
ある。その場合には、次のように処理すれば良い。即
ち、ブロック内の最低8個の任意の点qについて画素値
の空間微分Exq,E yqと画素値の時間微分Etq′を求
め、各点毎に式(19)を立てて連立1次方程式として
解き、変換係数a〜hを求める。これらの変換係数a〜
hを式(11)に設定することにより、透視変換式
(8)で規定された動きに基づくように各格子点P1〜
P4自身における動きベクトル(vx1,vy1,vx2…,
y4)を計算により求める。また、実際には、ブロック
の四隅を構成する格子点は上下左右の隣接するブロック
における格子点と共通であるから、画面を構成する全て
のブロック、または適当に選んだ複数のブロックに対し
てそれぞれ式(19)を立て、同じ格子点に異なる動き
ベクトルが得られるならば例えば平均によりブロックを
構成する各格子点における動きベクトルを求める。
【0044】<バイリニア変換を用いる場合>次に、前
出の変換式(9)に基づくバイリニア変換の場合につい
て説明する。バイリニア変換の場合も、変換式(9)の
変換係数a〜hが具体的な変換を規定するので、各変換
係数a〜hはブロック内の4点における動きベクトルが
与えられれば決定することができる。そこでまず、動き
補償予測への適用を考慮し、動き検出の方向を現フレー
ム画像から前フレーム画像への方向とし、更に動き補償
予測の単位を四角形のブロックとする。今、或るブロッ
クを構成する四隅の格子点をP1(x1,y1)、P2
(x2,y2)、P3(x3,y3)及びP4(x4,
y4)とし、仮に各点において変換式(9)が成立して
いるとすると、下記の式(21)が得られる。
【0045】
【数21】 vx1=a+bx1+cy1+dx1y1 vy1=e+fx1+gy1+hx1y1 vx2=a+bx2+cy2+dx2y2 vy2=e+fx2+gy2+hx2y2 vX3=a+bx3+cy3+dx3y3 vy3=e+fx3+gy3+hx3y3 vx4=a+bx4+cy4+dx4y4 vy4=e+fx4+gy4+hx4y4 …式(21)
【0046】また、P1〜P4の各点における動きベク
トルが与えられれば、前式(21)は変換変数a〜hか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜hは、ブロック
の四隅を構成する格子点P1〜P4における動きベクト
ル(vx1,vy1,vx2…,vy4)の線形結合で表され
る。
【0047】一方、前述の如く現フレーム画像と前フレ
ーム画像間で動きが小さい(例えば数画素)と仮定する
と、ブロック内の任意の点qにおいて、画素値の時空間
勾配の拘束条件から、良く知られている前式(12)が
成り立つ。
【0048】更に、点qにおいて変換式(9)が成り立
つと仮定すれば、変換式(9)を式(12)に代入する
ことにより、次式(22)を得る。この式(22)は画
素値の時空間勾配と式(9)で規定されたバイリニア変
換とに基づく、動きに関する方程式である。更に、この
式(22)は最終的に、格子点における動きベクトル
(vx1,vy1,vx2…,vx4)を変数とする下記の方程
式(23)として表わされる。
【0049】
【数22】 Etq+aExq+eEyq+bExqq +fEyqq + cExqq +gEyqq +dExqq q + hEyqq q =0 …式(22)
【0050】
【数23】 βx1x1+βy1y1+βx2x2+βy2y2+βx3x3+βy3y3+ βx4x4+βy4y4=Etq …式(23)
【0051】ここで、式(23)中の係数βxiとβ
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(23)は前出の連立一次方程式(21)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(22)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(23)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数βxiとβyi(i=1〜4)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0052】そこで、ブロック内の最低8個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(23)における係数βxi,βyiを計算
して方程式を立てれば、四隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy4)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、バイリニア変換式(9)で規定された動きに基
BR>づくように各格子点P1〜P4自身における動きベ
クトル(vx1,vy1,vx2…,vy4)を直接に計算する
ことができる。また、この計算により、各格子点P1〜
P4における動きベクトルは小数点精度で求まる。実際
には、ブロックの四隅を構成する格子点は上下左右の隣
接するブロックにおける格子点と共通であるから、画面
を構成する全てのブロック、または適当に選んだ複数の
ブロックに対してそれぞれ式(23)を立て、最小2乗
法によりブロックを構成する各格子点における動きベク
トルを求めることができる。
【0053】上述した式(23)及びその係数βxi,β
yiの計算により各格子点自身における動きベクトルを求
める場合は、バイリニア変換式(9)の変換係数a〜h
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(22)
を用いてブロック毎に変換係数a〜hを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低8個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq
求め、各点毎に式(22)を立てて連立1次方程式とし
て解き、変換係数a〜hを求める。これらの変換係数a
〜hを式(21)に設定することにより、バイリニア変
換式(9)で規定された動きに基づくように各格子点P
1〜P4自身における動きベクトル(vx1,vy1,vx2
…,vy4)を計算により求める。実際には、ブロックの
四隅を構成する格子点は上下左右の隣接するブロックに
おける格子点と共通であるから、画面を構成する全ての
ブロック、または適当に選んだ複数のブロックに対して
それぞれ式(22)を立て、同じ格子点に異なる動きベ
クトルが得られるならば例えは平均によりブロックを構
成する各格子点における動きベクトルを求める。
【0054】上述の原理によりブロックの四隅を構成す
る格子点P1〜P4の動きベクトル(vx1,vy1,vx2
…,vy4)が検出されたならば、重み補償予測のための
バイリニア変換に必要な変換係数a〜hを計算する。即
ち、4つの格子点P1(x1,y1),P2(x2,y
2),P3(x3,y3)及びP4(x4,y4)にお
いて、変換式(9)が成り立っているので、下記の連立
一次方程式(24)が得られる。
【0055】
【数24】 vx1=a+bx1+cy1+dx1y1 vy1=e+fx1+gy1+hx1y1 vx2=a+bx2+cy2+dx2y2 vy2=e+fx2+gy2+hx2y2 vX3=a+bx3+cy3+dx3y3 vy3=e+fx3+gy3+hx3y3 vx4=a+bx4+cy4+dx4y4 vy4=e+fx4+gy4+hx4y4 …式(24)
【0056】この連立一次方程式を解けば、バイリニア
変換に必要な変換係数a〜hをブロック単位に求めるこ
とができる。そこで、前フレーム画像をP(x,y)、
動き補償予測画像をC(x,y)とすれば、下記の式
(25)によって動き補償予測画像を生成することがで
きる。
【0057】
【数25】 C(x,y)=P(x+vx ,y+vy ) =P(x+a+bx+cy+dxy, y+e+fx+gy+hxy) …式(25)
【0058】動き補償画像C(x,y)を生成したなら
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。
【0059】前フレーム画像と現フレーム画像間で動き
が大きい場合の対策は次の通りである。
【0060】まず、従来と同様、ブロックマッチング方
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、前出の式(17)のように粗
い予測画像C′(x,y)を作成する。この粗い予測画
像C′(x,y)は粗いとは言っても、前フレーム画像
よりも大幅に現フレーム画像に似ているから、前述の画
素値の時空間勾配の拘束条件を適用することができる。
つまり、バイリニア変換式(9)を前出の式(18)に
代入すれば、粗い動きベクトルを考慮した下記の式(2
6)を得る。この式(26)は前出の式(22)に対応
しており、Etq′−Exqrx−Eyqryの項だけが異な
る。また、式(26)は式(22)と同様、最終的に
は、格子点における動きベクトル(vx1,vy1,v
x2…,vy4)を変数とする下記の方程式(27)として
表わされる。
【0061】
【数26】 Etq′−Exqrx−Eyqry+ aExq+eEyq+bExqq +fEyqq + cExqq +gEyqq +dExqqq hEyqq q =0 …式(26)
【0062】
【数27】 βx1x1+βy1y1+βx2x2+βy2y2+βx3x3+βy3y3+ βx4x4+βy4y4=Etq′−Exqrx−Eyqry …式(27)
【0063】ここで、式(27)中の係数βxiとβ
yi(i=1〜4)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(27)は前出の連立一次方程式(21)を変
換係数a〜hについて解き、得られた変換係数a〜hを
式(26)に代入して、vx1,vy1,vx2…,vy4につ
いて整理したものであるから、この式(27)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy4の各
係数βxiとβyi(i=1〜4)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0064】そこで、ブロック内の最低8個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(27)における係数βxi,βyiを計
算して方程式を立てれば、四隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy4)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、バイリニア変換式(9)で規定された動きに
基づくように各格子点P1〜P4自身における動きベク
トル(vx1,vy1,vx2…,vy4)を直接に計算するこ
とができる。また、この計算により、各格子点P1〜P
4における動きベクトルは小数点精度で求まる。実際に
は、ブロックの四隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(27)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
【0065】上述した式(27)及びその係数βxi,β
yiの計算により各格子点自身における動きベクトルを求
める場合は、バイリニア変換式(9)の変換係数a〜h
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(26)
を用いてブロック毎に変換係数a〜hを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低8個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq
を求め、各点毎に式(26)を立てて連立1次方程式と
して解き、変換係数a〜hを求める。これらの変換係数
a〜hを式(21)に設定することにより、変換式
(9)で規定された動きに基づくように各格子点P1〜
P4自身における動きベクトル(vx1,vy1,vx2…,
y4)を計算により求める。また、実際には、ブロック
の四隅を構成する格子点は上下左右の隣接するブロック
における格子点と共通であるから、画面を構成する全て
のブロック、または適当に選んだ複数のブロックに対し
てそれぞれ式(26)を立て、同じ格子点に異なる動き
ベクトルが得られるならば例えば平均によりブロックを
構成する各格子点における動きベクトルを求める。
【0066】<アフィン変換を用いる場合>次に、前出
の変換式(10)に基づくアフィン変換の場合について
説明する。アフィン変換の場合は、変換式(10)の変
換係数a〜fが具体的な変換を規定するので、各変換係
数a〜fはブロック内の3点における動きベクトルが与
えられれば決定することができる。そこでまず、動き補
償予測への適用を考慮し、動き検出の方向を現フレーム
画像から前フレーム画像への方向とし、更に動き補償予
測の単位を三角形のブロックとする。今、或るブロック
を構成する三隅の格子点をP1(x1,y1)、P2
(x2,y2)及びP3(x3,y3)とし、仮に各点
において変換式(10)が成立しているとすると、下記
の式(28)が得られる。
【0067】
【数28】 vx1=a+bx1+cy1 vy1=d+ex1+fy1 vx2=a+bx2+cy2 vy2=d+ex2+fy2 vX3=a+bx3+cy3 vy3=d+ex3+fy3 …式(28)
【0068】また、P1〜P3の各点における動きベク
トルが与えられれば、前式(28)は変換変数a〜fか
らなる連立1次方程式となるから、ブロック内の全ての
点における動きを規定する変換係数a〜fは、ブロック
の三隅を構成する格子点P1〜P3における動きベクト
ル(vx1,vy1,vx2…,vy3)の線形結合で表され
る。
【0069】一方、前述の如く現フレーム画像と前フレ
ーム画像間で動きが小さい(例えば数画素)と仮定する
と、ブロック内の任意の点qにおいて、画素値の時空間
勾配の拘束条件から、良く知られている前式(12)が
成り立つ。
【0070】更に、点qにおいて変換式(10)が成り
立つと仮定すれば、変換式(10)を式(12)に代入
することにより、次式(29)を得る。この式(29)
は画素値の時空間勾配と式(10)で規定されたアフィ
ン変換とに基づく、動きに関する方程式である。更に、
この式(29)は最終的に、格子点における動きベクト
ル(vx1,vy1,vx2…,vy3)を変数とする下記の方
程式(30)として表わされる。
【0071】
【数29】 Etq+aExq+dEyq+bExqq +eEyqq + cExqq +fEyqq =0 …式(29)
【0072】
【数30】 γx1x1+γy1y1+γx2x2+γy2y2+γx3x3+γy3y3 =Etq …式(30)
【0073】ここで、式(30)中の係数γxiとγ
yi(i=1〜3)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(30)は前出の連立一次方程式(28)を変
換係数a〜fについて解き、得られた変換係数a〜fを
式(29)に代入して、vx1,vy1,vx2…,vy3につ
いて整理したものであるから、この式(30)には変換
係数a〜fは現われず、vx1,vy1,vx2…,vy3の各
係数γxiとγyi(i=1〜3)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0074】そこで、ブロック内の最低6個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tqとを求め、式(30)における係数γxi,γyiを計算
して方程式を立てれば、三隅の格子点における動きベク
トル(vx1,vy1,vx2…,vy3)に関する連立一次方
程式となる。このようにして得られた連立一次方程式を
解けば、アフィン変換式(10)で規定された動きに基
づくように各格子点P1〜P3自身における動きベクト
ル(vx1,vy1,vx2…,vy3)を直接に計算すること
ができる。また、この計算により、各格子点P1〜P3
における動きベクトルは小数点精度で求まる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(30)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
【0075】上述した式(30)及びその係数γxi,γ
yiの計算により各格子点自身における動きベクトルを求
める場合は、アフィン変換式(10)の変換係数a〜f
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(29)
を用いてブロック毎に変換係数a〜fを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低6個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq
求め、各点毎に式(29)を立てて連立1次方程式とし
て解き、変換係数a〜fを求める。これらの変換係数a
〜fを式(28)に設定することにより、アフィン変換
式(10)で規定された動きに基づくように各格子点P
1〜P3自身における動きベクトル(vx1,vy1,vx2
…,vy3)を計算により求めることができる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(29)を立て、同じ格子点
に異なる動きベクトルが得られるならば例えば平均によ
りブロックを構成する各格子点における動きベクトルを
求める。
【0076】上述の原理によりブロックの三隅を構成す
る格子点P1〜P3の動きベクトル(vx1,vy1,vx2
…,vy3)が検出されたならば、重み補償予測のための
アフィン変換に必要な変換係数a〜fを計算する。即
ち、3つの格子点P1(x1,y1),P2(x2,y
2)及びP3(x3,y3)において、変換式(10)
が成り立っているので、下記の連立一次方程式(31)
が得られる。
【0077】
【数31】 vx1=a+bx1+cy1 vy1=d+ex1+fy1 vx2=a+bx2+cy2 vy2=d+ex2+fy2 vX3=a+bx3+cy3 vy3=d+ex3+fy3 …式(31)
【0078】この連立一次方程式を解けば、アフィン変
換に必要な変換係数a〜fをブロック単位に求めること
ができる。そこで、前フレーム画像をP(x,y)、動
き補償予測画像をC(x,y)とすれば、下記の式(3
2)によって動き補償予測画像を生成することができ
る。
【0079】
【数32】 C(x,y)=P(x+vx ,y+vy ) =P(x+a+bx+cy, y+d+ex+fy) …式(32)
【0080】動き補償画像C(x,y)を生成したなら
ば、現フレーム画像との差分画像を求め、この差分画像
を符号化する。
【0081】前フレーム画像と現フレーム画像間で動き
が大きい場合の対策は次の通りである。
【0082】まず、従来と同様、ブロックマッチング方
法や勾配法を適用してブロック単位に粗い動きベクトル
(vrx,vry)を求める。そして、得られた粗い動きベ
クトル(vrx,vry)をブロック単位に前フレーム画像
P(x,y)に適用して、前出の式(17)のように粗
い予測画像C′(x,y)を作成する。この粗い予測画
像C′(x,y)は粗いとは言っても、前フレーム画像
よりも大幅に現フレーム画像に似ているから、前述の画
素値の時空間勾配の拘束条件を適用することができる。
【0083】つまり、変換式(10)を前出の式(1
8)に代入すれば、粗い動きベクトルを考慮した下記の
式(33)を得る。この式(33)は前出の式(29)
に対応しており、Etq′−Exqrx−Eyqryの項だけ
が異なる。また、式(33)は式(29)と同様、最終
的には格子点の動きベクトル(vx1,vy1,vx2…,v
y3)を変数とする下記の方程式(34)として表わされ
る。
【0084】
【数33】 Etq′−Exqrx−Eyqry+ aExq+dEyq+bExqq +eEyqq + cExqq +fEyqq =0 …式(33)
【0085】
【数34】 γx1x1+γy1y1+γx2x2+γy2y2+γx3x3+γy3y3 =Etq′−Exqrx−Eyqry …式(34)
【0086】ここで、式(34)中の係数γxiとγ
yi(i=1〜3)は、点qの位置(xq,yq )と点q
での画素値の空間微分Exq及びEyqとで表現できる。つ
まり、式(34)は前出の連立一次方程式(28)を変
換係数a〜fについて解き、得られた変換係数a〜hを
式(33)に代入して、vx1,vy1,vx2…,vy3につ
いて整理したものであるから、この式(34)には変換
係数a〜hは現われず、vx1,vy1,vx2…,vy3の各
係数γxiとγyi(i=1〜3)は式に表わさないが
q ,yq 及びExq,Eyqで表現される。
【0087】そこで、ブロック内の最低6個の任意の点
qについて、画素値の空間微分Exq,Eyqと時間微分E
tq′とを求め、式(34)における係数γxi,γyiを計
算して方程式を立てれば、三隅の格子点における動きベ
クトル(vx1,vy1,vx2…,vy3)に関する連立一次
方程式となる。このようにして得られた連立一次方程式
を解けば、アフィン変換式(10)で規定された動きに
基づくように各格子点P1〜P3自身における動きベク
トル(vx1,vy1,vx2…,vy3)を直接に計算するこ
とができる。また、この計算により、各格子点P1〜P
3における動きベクトルは小数点精度で求まる。実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(34)を立て、最小2乗法
によりブロックを構成する各格子点における動きベクト
ルを求めることができる。
【0088】上述した式(34)及びその係数γxi,γ
yiの計算により各格子点自身における動きベクトルを求
める場合は、アフィン変換式(10)の変換係数a〜f
が表面上直接には現われないから、ブロック間の動きの
差異に影響されず、1つの格子点につき1つの動きベク
トルを直接に求めることができる。しかし、式(33)
を用いてブロック毎に変換係数a〜fを直接求めてか
ら、各格子点自身における動きベクトルを計算すること
も可能である。その場合には、次のように処理すれば良
い。即ち、ブロック内の最低6個の任意の点qについて
画素値の空間微分Exq,E yqと画素値の時間微分Etq
を求め、各点毎に式(33)を立てて連立1次方程式と
して解き、変換係数a〜fを求める。これらの変換係数
a〜fを式(28)に設定することにより、変換式(1
0)で規定された動きに基づくように各格子点P1〜P
3自身における動きベクトル(vx1,vy1,vx2…,v
y3)を計算により求めることができる。また、実際に
は、ブロックの三隅を構成する格子点は上下左右の隣接
するブロックにおける格子点と共通であるから、画面を
構成する全てのブロック、または適当に選んだ複数のブ
ロックに対してそれぞれ式(33)を立て、同じ格子点
に異なる動きベクトルが得られるならば例えは平均によ
りブロックを構成する各格子点における動きベクトルを
求める。
【0089】
【実施例】以下、本発明の実施例を図面を参照して説明
する。図1には動画像の動きベクトル検出装置の第1実
施例の構成が示され、図2には動きベクトルが示され、
図3には動画像の動きベクトル検出装置の第2実施例の
構成が示され、図4には動画像の動き補償予測装置の一
実施例の構成が示され、図5には動画像の動き補償予測
フレーム間符号化装置の一実施例の構成が示されてい
る。
【0090】<動画像の動き補償予測フレーム間符号化
装置について>まず、図5を参照して動画像の動き補償
予測フレーム間符号化装置を説明する。この装置は動き
ベクトル検出装置20に、動き補償予測装置40と、差
分画像計算装置50と、符号化装置51と、局部復号画
像計算装置52とフレームメモリ55とから構成され
る。
【0091】詳細は後述するが、動きベクトル検出装置
20は図1または図3に示される構成のものであり、デ
ジタル信号の形でテレビジョンカメラ等より入力された
動画像から時間的に連続する現フレーム画像1と前フレ
ーム画像2を用い、図2に示すような各ブロック3を構
成する各格子点4自身の動きベクトル5検出する。動き
補償予測装置40は詳細は後述するが、図4に示される
構成のものであり、動きベクトル検出装置20で検出さ
れた各格子点4自身の動きベクトル5の情報を用い、現
フレーム画像1に対応する予測画像6を前フレーム画像
2を基に作成する。差分画像計算装置50は現フレーム
画像1とそれに対応する予測画像6間での差分画像7を
計算するものである。符号化装置51は差分画像7をD
CTやVQ等の適宜な方法により符号化し、出力データ
8とするものである。局部復号画像計算装置52は復号
装置53と加算装置54から構成され、復号装置53に
より出力データ8から差分画像9を復号し、この差分画
像9に対して加算装置54により予測画像6を加算し、
現フレーム画像1に対応する局部復号画像10を作成す
る。フレームメモリ55は局部復号画像10を蓄積し次
回の動きベクトル検出及び動き補償予測の際に、前フレ
ーム画像2として、動きベクトル検出装置20及び動き
補償予測装置40に出力するものである。
【0092】<動きベクトル検出装置の第1実施例>次
に、図1に示される動画像の動きベクトル検出装置につ
いて説明する。この装置は空間微分計算部21と、時間
微分計算部22と、格子点位置蓄積部23と、動きのモ
デル蓄積部24と、係数設定部25と、動きベクトル計
算部26とから構成される。
【0093】空間微分計算部21は現フレーム画像1の
画素値の濃度勾配を表わす空間微分画像21aを計算に
より求める。時間微分計算部22は現フレーム画像1と
前フレーム画像2間での画素値の変化を表わす時間微分
画像22aを計算により求める。格子点位置蓄積部23
は図2に示されるように、動きベクトル5を検出すべき
各格子点4の位置x,y座標値23aを予め蓄積してい
る。格子点4は画像1,2を分割したブロック3を構成
する各隅の点であり、ブロック3は実線の如く四角形、
あるいは破線の如く三角形である。
【0094】動きモデル蓄積部24は動き補償予測に用
いるための画像上の任意位置(x,y)と動きベルトル
(vx ,vy )との変換式、例えば前出の式(8)また
は式(9)または式(10)を、動きベクトルのモデル
情報24aとして蓄積している。係数設定部25は変換
式(8)または(9)または(10)と、格子点位置の
x,y座標値23aと、時間微分画像22aと、空間微
分画像21aとに基づいて、各格子点位置4における動
きベクトル5を計算するために必要な係数を設定する
(詳細は後述する)。動きベクトル計算部26はこれら
の係数に基づいて、各格子点位置4における動きベクト
ル5を計算する。
【0095】次に、個々の変換式毎に、具体的に動きベ
クトルの検出を説明する。
【0096】<透視変換式(8)を用いる場合>透視変
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。係数設定部25は画面を構成する全ての四角形ブ
ロックに対して、あるいは適宜に選んだ複数の四角形ブ
ロックに対して、各ブロック内の最低8点における画素
値の空間微分Exq,Eyq及び画素値の時間微分Etqを空
間微分計算部21が計算した空間微分画像21a及び時
間微分計算部22が計算した時間微分画像22aから求
め、各点毎に前出の式(14)における変数である動き
ベクトル(vx1,vy1,vx2…,vy4)の係数(αx1
αy1,αx2…,αy4)を各点の位置(x q ,yq )及び
画素値の空間微分値Exq,Eyqを用いて計算し、動きベ
クトル計算に必要なこれらの係数を設定する。式(1
3)(14)及び係数の算出式は動きモデル蓄積部24
に蓄積されている透視変換式(8)を前出の式(12)
に代入すること等により得られるが、予め式(13)
(14)及び係数の算出式を動きベクトルのモデル情報
として蓄積しておいても良い。最低8点には格子点を含
めると良い。動きベクトル計算部26は、係数設定部2
5がブロック毎に設定した係数(α x1,αy1,αx2…,
αy4)を用い、式(14)の連立一次方程式を立てて最
小2乗法等により解き、格子点位置蓄積部23に蓄積さ
れている全ての格子点位置における動きベクトルを求め
る。
【0097】<バイリニア変換式(9)を用いる場合>
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての四角形ブロックに対して、あるいは適宜に選んだ複
数の四角形ブロックに対して、各ブロック内の最低8点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etqを空間微分計算部21が計算した空間微分画像
21a及び時間微分計算部22が計算した時間微分画像
22aから求め、各点毎に前出の式(23)における変
数である動きベクトル(vx1,vy1,vx2…,vy4)の
係数(βx1,βy1,βx2…,βy4)を各点の位置
(x q ,yq )及び画素値の空間微分値Exq,Eyqを用
いて計算し、動きベクトル計算に必要なこれらの係数を
設定する。式(22)(23)及び係数の算出式は動き
モデル蓄積部24に蓄積されているバイリニア変換式
(9)を前出の式(12)に代入すること等により得ら
れるが、予め式(22)(23)及び係数算出式を動き
ベクトルのモデル情報として蓄積しておいても良い。最
低8点には格子点を含めると良い。動きベクトル計算部
26は、係数設定部25がブロック毎に設定した係数
(β x1,βy1,βx2…,βy4)を用い、式(23)の連
立一次方程式を立てて最小2乗法等により解き、格子点
位置蓄積部23に蓄積されている全ての格子点位置にお
ける動きベクトルを求める。
【0098】<アフィン変換式(10)を用いる場合>
アフィン変換式(10)を用いる場合は動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての三角形ブロックに対して、あるいは適宜に選んだ複
数の三角形ブロックに対して、各ブロック内の最低6点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etqを空間微分計算部21が計算した空間微分画像
21a及び時間微分計算部22が計算した時間微分画像
22aから求め、各点毎に前出の式(30)における変
数である動きベクトル(vx1,vy1,vx2…,vy3)の
係数(γx1,γy1,γx2…,γy3)を各点の位置
(x q ,yq )及び画素値の空間微分値Exq,Eyqを用
いて計算し、動きベクトル計算に必要なこれらの係数を
設定する。式(29)(30)及び係数の算出式は動き
モデル蓄積部24に蓄積されているアフィン変換式(1
0)を前出の式(12)に代入すること等により得られ
るが、予め式(29)(30)及び係数算出式を動きベ
クトルのモデル情報として蓄積しておいても良い。最低
6点には格子点を含めると良い。動きベクトル計算部2
6は、係数設定部25がブロック毎に設定した係数(γ
x1,γy1,γx2…,γy3)を用い、式(30)の連立一
次方程式を立てて最小2乗法等により解き、格子点位置
蓄積部23に蓄積されている全ての格子点位置における
動きベクトルを求める。
【0099】<動きベクトル検出装置の第2実施例>次
に、図3に示される動画像の動きベクトル検出装置につ
いて説明する。この装置は空間微分計算部21と、時間
微分計算部22と、格子点位置蓄積部23と、動きベク
トル蓄積部24と、係数設定部25と、動きベクトル計
算部26に加え、粗い動きベクトル検出部31及び粗い
予測画像生成部32を具備している。
【0100】格子点位置蓄積部23は先の第1実施例と
同様、図2に示されるように、動きベクトル5を検出す
べき格子点4の位置のx,y座標値23aを予め蓄積し
ている。図2の如く、格子点4は画面を分割したブロッ
ク3を構成する各隅の点であり、ブロック3は四角形、
あるいは三角形である。
【0101】粗い動きベクトル検出部31は、従来と同
様ブロックマッチング方法あるいは勾配法により、粗い
動きベクトル(vrx,vry)31aとしてブロック3単
位の動きベクトルを検出する。粗い予測画像生成部32
はブロック単位の粗い動きベクトル31aを前フレーム
画像2に適用して、粗い予測画像(C′(x,y))3
2aを生成する。
【0102】時間微分計算部22は先の第1実施例とは
異なり、現フレーム画像1と粗い予測画像32a間での
画素値の変化を表わす時間微分画像22bを計算により
求める。
【0103】空間微分計算部21は先の第1実施例と同
じであり、現フレーム画像1の画素値の濃度勾配を表わ
す空間微分画像21aを計算により求める。動きモデル
蓄積部24も先の第1実施例と同じであり、動き補償予
測に用いるための画像上の任意位置(x,y)と動きベ
ルトル(vx ,vy )との変換式、例えば前出の式
(8)または式(9)または式(10)を、動きベクト
ルのモデル情報24aとして蓄積している。係数設定部
25は変換式(8)または(9)または(10)と、格
子点位置のx,y座標値23aと、時間微分画像22b
と、空間微分画像21aとに基づいて、各格子点位置4
における動きベクトル5を計算するために必要な係数を
設定する(詳細は後述する)。動きベクトル計算部26
はこれらの係数に基づいて、各格子点位置4における動
きベクトル5を計算する。
【0104】次に、個々の変換式毎に、具体的に動きベ
クトルの検出を説明する。
【0105】<透視変換式(8)を用いる場合>透視変
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。係数設定部25は画面を構成する全ての四角形ブ
ロックに対して、あるいは適宜に選んだ複数の四角形ブ
ロックに対して、各ブロック内の最低8点における画素
値の空間微分Exq,Eyq及び画素値の時間微分Etq′を
空間微分計算部21が計算した空間微分画像21a及び
時間微分計算部22が計算した時間微分画像22bから
求め、各点毎に前出の式(20)における変数である動
きベクトル(v x1,vy1,vx2…,vy4)の係数
(αx1,αy1,αx2…,αy4)を各点の位置(xq ,y
q )及び画素値の空間微分値Exq,Eyqを用いて計算
し、動きベクトル計算に必要なこれらの係数を設定す
る。式(19)(20)及び係数算出式は動きモデル蓄
積部24に蓄積されている透視変換式(8)を前出の式
(18)に代入すること等により得られるが、予め式
(19)(20)及び係数算出式を動きベクトルのモデ
ル情報として蓄積しておいても良い。最低点8点には格
子点を含めると良い。動きベクトル計算部26は、係数
設定部25がブロック毎に設定した係数(α x1,αy1
αx2…,αy4)を用い、式(20)の連立一次方程式を
立てて最小2乗法等により解き、格子点位置蓄積部23
に蓄積されている全ての格子点位置における動きベクト
ルを求める。
【0106】<バイリニア変換式(9)を用いる場合>
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての四角形ブロックに対して、あるいは適宜に選んだ複
数の四角形ブロックに対して、各ブロック内の最低8点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etq′を空間微分計算部21が計算した空間微分画
像21a及び時間微分計算部22が計算した時間微分画
像22bから求め、各点毎に前出の式(27)における
変数である動きベクトル(v x1,vy1,vx2…,vy4
の係数(βx1,βy1,βx2…,βy4)を各点の位置(x
q ,yq )及び画素値の空間微分値Exq,Eyqを用いて
計算し、動きベクトル計算に必要なこれらの係数を設定
する。式(26)(27)及び係数の算出式は動きモデ
ル蓄積部24に蓄積されているバイリニア変換式(9)
を前出の式(18)に代入すること等により得られる
が、予め式(26)(27)及び係数の算出式を動きベ
クトルのモデル情報として蓄積しておいても良い。最低
8点には格子点を含めると良い。動きベクトル計算部2
6は、係数設定部25がブロック毎に設定した係数(β
x1,βy1,βx2…,βy4)を用い、式(27)の連立一
次方程式を立てて最小2乗法等により解き、格子点位置
蓄積部23に蓄積されている全ての格子点位置における
動きベクトルを求める。
【0107】<アフィン変換式(10)を用いる場合>
アフィン変換式(10)を用いる場合は動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。係数設定部25は画面を構成する全
ての三角形ブロックに対して、あるいは適宜に選んだ複
数の三角形ブロックに対して、各ブロック内の最低6点
における画素値の空間微分Exq,Eyq及び画素値の時間
微分Etq′を空間微分計算部21が計算した空間微分画
像21a及び時間微分計算部22が計算した時間微分画
像22bから求め、各点毎に前出の式(34)における
変数である動きベクトル(v x1,vy1,vx2…,vy3
の係数(γx1,γy1,γx2…,γy3)を各点の位置(x
q ,yq )及び画素値の空間微分値Exq,Eyqを用いて
計算し、動きベクトル計算に必要なこれらの係数を設定
する。式(33)(34)及び係数の算出式は動きモデ
ル蓄積部24に蓄積されているアフィン変換式(10)
を前出の式(18)に代入すること等により得られる
が、予め式(33)(34)及び係数算出式を動きベク
トルのモデル情報として蓄積しておいても良い。最低6
点には格子点を含めると良い。動きベクトル計算部26
は、係数設定部25がブロック毎に設定した係数
(γ x1,γy1,γx2…,γy3)を用い、式(34)の連
立一次方程式を立てて最小2乗法等により解き、格子点
位置蓄積部23に蓄積されている全ての格子点位置にお
ける動きベクトルを求める。
【0108】<動画像の動き補償予測装置の実施例>次
に、図4に示される動画像の動き補償予測装置について
説明する。この装置は変換係数計算部41と、予測画像
生成部42と、格子点位置蓄積部23と、動きモデル蓄
積部24とから構成される。これらのうち、格子点位置
蓄積部23と動きモデル蓄積部24は、図1または図3
に示された動画像の動きベクトル検出装置を構成する同
じ符号を付したものと共用しているが、それぞれ別であ
ってもよい。
【0109】格子点位置蓄積部23は図2に示されるよ
うに、動きベクトル5を検出すべき各格子点4の位置
x,y座標値23aを予め蓄積している。格子点4は画
像1,2を分割したブロック3を構成する各隅の点であ
り、ブロック3は実線の如く四角形、あるいは破線の如
く三角形である。動きモデル蓄積部24は動き補償予測
に用いるための画像上の任意位置(x,y)と動きベル
トル(vx ,vy )との変換式、例えば前出の式(8)
または式(9)または式(10)を、動きベクトルのモ
デル情報24aとして蓄積している。
【0110】変換係数計算部41は図1または図3に示
された動画像の動きベクトル検出装置の動きベクトル計
算部26により得られた各格子点4における動きベクト
ル5と、格子点位置蓄積部23に蓄積されている各格子
点4の位置のx,y座標値23aと、動きモデル蓄積部
24にモデル情報24aとして蓄積されている前出の変
換式(8)または式(9)または式(10)とに基づい
て、各ブロック毎に、予測画像の生成に必要なこれら変
換式の変換係数a〜hまたはa〜fを計算する。
【0111】予測画像生成部42は変換係数計算部41
により得られた変換係数a〜hまたはa〜fと、これに
対応する変換式(8)または式(9)または式(10)
とに基づいて、現フレーム画像1に対応する動き補償予
測画像6を生成する。
【0112】次に、個々の変換式毎に、具体的に動き補
償予測について説明する。
【0113】<透視変換式(8)を用いる場合>透視変
換式(8)を用いる場合は動き補償予測の単位を四角形
のブロックとし、格子点位置蓄積部23には各ブロック
の四隅を構成する格子点のx,y座標値を予め蓄積して
ある。変換係数計算部41は画面を構成する全ての四角
形ブロックに対し、既に検出されたブロックの四隅の格
子点における動きベクトルを用いて前出の連立一次方程
式(15)を立て、これを解くことにより、ブロック単
位に変換係数a〜hを求める。予測画像生成部41は、
前出の式(16)にブロック単位に変換係数a〜hを代
入することにより、ブロック単位に動き補償予測を行っ
て全体の動き補償予測画像6を生成する。
【0114】<バイリニア変換式(9)を用いる場合>
バイリニア変換式(9)を用いる場合も動き補償予測の
単位を四角形のブロックとし、格子点位置蓄積部23に
は各ブロックの四隅を構成する格子点のx,y座標値を
予め蓄積してある。変換係数計算部41は画面を構成す
る全ての四角形ブロックに対し、既に検出されたブロッ
クの四隅の格子点における動きベクトルを用いて前出の
連立一次方程式(24)を立て、これを解くことによ
り、ブロック単位に変換係数a〜hを求める。予測画像
生成部41は、前出の式(25)にブロック単位に変換
係数a〜hを代入することにより、ブロック単位に動き
補償予測を行って全体の動き補償予測画像6を生成す
る。
【0115】<アフィン変換式(10)を用いる場合>
アフィン変換式(10)を用いる場合も動き補償予測の
単位を三角形のブロックとし、格子点位置蓄積部23に
は各ブロックの三隅を構成する格子点のx,y座標値を
予め蓄積してある。変換係数計算部41は画面を構成す
る全ての三角形ブロックに対し、既に検出されたブロッ
クの三隅の格子点における動きベクトルを用いて前出の
連立一次方程式(31)を立て、これを解くことによ
り、ブロック単位に変換係数a〜hを求める。予測画像
生成部41は、前出の式(32)にブロック単位に変換
係数a〜hを代入することにより、ブロック単位に動き
補償予測を行って全体の動き補償予測画像6を生成す
る。
【0116】上記実施例では、前フレーム画像2とし
て、局部復号画像10を利用したが、テレビカメラ等か
ら入力された原画像自体を用いることも可能である。ま
た、動きモデル情報24aとしては変換式(8)または
式(9)または式(10)を用いたが、他の変換式を用
いることも可能であり、その変換式の変換係数の個数2
nに応じてn角形のブロックを動き補償予測の単位と
し、各ブロックのn個の隅の格子点における動きベクト
ルを計算により検出すれば良い。
【0117】
【発明の効果】第1、第3、第6の発明、並びに、これ
らを引用する第5、第8、第9の発明によれば、動き補
償予測に用いられる画面上の位置と動きベクトルとの変
換式を利用し、且つ、時間微分画像と空間微分画像とを
用いて時空間勾配の拘束条件により、各格子点における
動きベクトルを連立方程式に基づいて計算するので、従
来のブロックマッチング方法に比べて、動きベクトルが
格子点自体の動き量を良く表わすことになり、また、小
数点精度で動きベクトルを検出することができる。
【0118】第2、第4、第7の発明、並びに、これら
を引用する第5、第8、第9の発明では、動き補償予測
に用いられる画面上の位置と動きベクトルとの変換式を
利用し、且つ、時間微分画像と空間微分画像とを用いて
時空間勾配の拘束条件により、各格子点における動きベ
クトルを連立方程式に基づいて計算する場合に、予め
ロック単位の粗い動きベクトルを求め、これにより予め
粗い予測画像を生成し、この粗い予測画像を前フレーム
画像の代わりに用いて時間微分画像を計算するので、前
フレーム画像と現フレーム画像間で動きが大きい場合で
も時空間勾配の拘束条件を利用することができることに
なり、格子点自体の動きベクトルを良く検出することが
できる。
【0119】第10の発明では、変換式としてアフィン
変換あるいはバイリニア変換あるいは透視変換を利用す
るが、いずれの場合も、前述のように従来のブロックマ
ッチング方法に比べて、動きベクトルが格子点自体の動
き量を良く表わすことになり、また、小数点精度で動き
ベクトルを検出することができる。特に、透視変換を利
用する場合は、アフィン変換あるいはバイリニア変換を
利用する場合に比べて、複雑な動きがある場合にも格子
点自体の動きベクトルを正しく検出することができる。
【0120】第11の発明では前フレーム画像として局
部復号画像を用いるので、動き補償予測フレーム間符号
化後のデータを受信する側と同じ条件で動きベクトルを
検出することになり、符号化及び復号の各段階で生じる
画質劣化を少しでも吸収することができる。
【0121】第12の発明では、各格子点自体の精度の
良い動きベクトルを用いて変換式の変換係数を計算する
ので、動き補償予測の精度が向上する。
【0122】第13の発明では、精度の高い動き補償予
測画像を用いて符号化を行うので、符号化のビットレー
トが低くなる。
【図面の簡単な説明】
【図1】動画像の動きベクトル検出装置の第1実施例の
構成を示す図。
【図2】動きベクトルを格子点、ブロックと共に示す
図。
【図3】動画像の動きベクトル検出装置の第2実施例の
構成を示す図。
【図4】動画像の動き補償予測装置の一実施例の構成を
示す図。
【図5】動画像の動き補償予測フレーム間符号化装置の
一実施例の構成を示す図。
【図6】動画像の動き補償予測の第1従来例に関する動
きベクトル検出を示す図。
【図7】動画像の動き補償予測の第2従来例に関する動
きベクトル検出を示す図。
【符号の説明】
1 現フレーム画像 2 前フレーム画像 3 ブロック 4 格子点 5 動きベクトル 6 予測画像 7,9 差分画像 8 出力データ 10 局部復号画像 20 動きベクトル検出装置 21 空間微分計算部 21a 空間微分画像 22 時間微分計算部 22a,22b 時間微分画像 23 格子点位置蓄積部 23a 格子点位置のx,y座標値 24 動きモデル蓄積部 24a 動きベクトルのモデル情報 25 係数設定部 26 動きベクトル計算部 31 粗い動きベクトル検出部 31a 粗い動きベクトル 32 粗い予測画像生成部 32a 粗い予測画像 40 動画像の動き補償予測装置 41 変換係数計算部 42 予測画像生成部 50 差分画像計算装置 51 符号化装置 52 局部復号画像計算装置 53 復号装置 54 加算装置 55 フレームメモリ
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−334992(JP,A) 特開 平7−67111(JP,A) 特開 平7−95592(JP,A) 特開 平7−99660(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68

Claims (13)

    (57)【特許請求の範囲】
  1. 【請求項1】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
    分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手段と;n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、 動き補償予測のための画面上の位
    (x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と;前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、E tq を前記n/2個の格子点を境界上に持
    つブロック上の任意点qにおいて前記時間微分画像より
    得られる時間微分値、E xq とE yq を前記任意点qにおい
    て前記空間微分画像より得られる空間微分値、D x 及び
    y を前記任意点qの位置(xq、yq)及び空間微分
    値E xq 、E yq 並びに前記n/2個の格子点の位置
    (x i 、y i )を含む係数とするとき、前記変換式に基
    づく前記n/2個の格子点位置(x i 、y i )及びこれ
    ら各格子点位置での動きベクトル(v xi 、v yi )(但
    し、i=1〜n/2)の関係と、時空間勾配の拘束条件
    とから与えられる式Σ(D xi xi +D yi yi )=E
    tq (但し、i=1〜n/2)を、j個(但し、j≧n)
    の任意点について連立させ、得られる連立方程式から前
    式中の係数D xi 、D yi を計算し、 設定する係数設定手段
    と; この係数設定手段から得られる前記係数D xi 、D yi に基
    づいて、前記連立方程式から前記格子点位置における動
    きベクトルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  2. 【請求項2】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手段と; この格子点位置情報と、現フレーム画像と、前フレーム
    画像とに基づいて、画像間におけるブロック単位の粗い
    動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
    レーム画像とに基づいて、前フレーム画像に対応する粗
    い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前記粗い予測画像間での画素値の時間
    微分画像を計算する時間微分計算手段と;n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、 動き補償予測のための画面上の位
    (x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と;前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、v rx 、v ry を前記n/2個の格子点を境界
    上に持つブロックの粗い動きベクトル、E tq を前記n/
    2個の格子点を境界上に持つブロック上の任意点qにお
    いて前記時間微分画像より得られる時間微分値、E xq
    yq を前記任意点qにおいて前記空間微分画像より得ら
    れる空間微分値、D x 及びD y を前記任意点qの位置
    (xq、yq)及び空間微分値E xq 、E yq 並びに前記n
    /2個の格子点の位置(x i 、y i )を含む係数とする
    とき、前記変換式に基づく前記n/2個の格子点位置
    (x i 、y i )及びこれら各格子点位置での動きベクト
    ル(v xi 、v yi )(但し、i=1〜n/2)の関係と、
    時空間勾配の拘束条件とから与えられる式Σ(D xi xi
    +D yi yi )=E tq ' −E xq rx −E yq ry (但し、i
    =1〜n/2)を、j個(但し、j≧n)の任意点につ
    いて連立させ、得られる連立方程式から前式中の係数D
    xi 、D yi を計算し、 設定する係数設定手段と; この係数設定手段から得られる前記係数D xi 、D yi に基
    づいて、前記連立方程式から前記格子点位置における動
    きベクトルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  3. 【請求項3】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
    分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手段と; n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、動き補償予測のための画面上の位
    置(x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、E tq を前記n/2個の格子点を境界上に持
    つブロック上の任意点qにおいて前記時間微分画像より
    得られる時間微分値、E xq とE yq を前記任意点qにおい
    て前記空間微分画像より得られる空間微分値、D x 及び
    y を前記任意点qの位置(xq、yq)及び空間微分
    値E xq 、E yq 並びに前記n/2個の格子点の位置
    (x i 、y i )を含む係数とするとき、前記変換式に基
    づく前記n/2個の格子点位置(x i 、y i )及びこれ
    ら各格子点位置での動きベクトル(v xi 、v yi )(但
    し、i=1〜n/2)の関係と、時空間勾配の拘束条件
    とから与えられる式Σ(D xi xi +D yi yi )=E
    tq (但し、i=1〜n/2)を、j個(但し、j≧n)
    の任意点について連立させ、得られる連立方程式から前
    記格子点位置における動きベクトルを計算する動きベク
    トル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  4. 【請求項4】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像 と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手段と; この格子点位置情報と、現フレーム画像と、前フレーム
    画像とに基づいて、画像間におけるブロック単位の粗い
    動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
    レーム画像とに基づいて、前フレーム画像に対応する粗
    い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前記粗い予測画像間での画素値の時間
    微分画像を計算する時間微分計算手段と; n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、動き補償予測のための画面上の位
    置(x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、v rx 、v ry を前記n/2個の格子点を境界
    上に持つブロックの粗い動きベクトル、E tq を前記n/
    2個の格子点を境界上に持つブロック上の任意点qにお
    いて前記時間微分画像より得られる時間微分値、E xq
    yq を前記任意点qにおいて前記空間微分画像より得ら
    れる空間微分値、D x 及びD y を前記任意点qの位置
    (xq、yq)及び空間微分値E xq 、E yq 並びに前記n
    /2個の格子点の位置(x i 、y i )を含む係数とする
    とき、前記変換式に基づく前記n/2個の格子点位置
    (x i 、y i )及びこれら各格子点位置での動きベクト
    ル(v xi 、v yi )(但し、i=1〜n/2)の関係と、
    時空間勾配の拘束条件とから与えられる式Σ(D xi xi
    +D yi yi )=E tq ' −E xq rx −E yq ry (但し、i
    =1〜n/2)を、j個(但し、j≧n)の任意点につ
    いて連立させ、得られる連立方程式から前記格子点位置
    における動きベクトルを計算する動きベクトル計算手段
    と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  5. 【請求項5】 請求項1ないし4いずれか一つに記載の
    動画像の動きベクトル検出装置において、前記動きベク
    トル計算手段は隣接するブロックと共通する格子点での
    動きベクトルを最小2乗法により求めることを特徴とす
    る動画像の動きベクトル検出装置。
  6. 【請求項6】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前フレーム画像間での画素値の時間微
    分画像を計算する時間微分計算手段と; 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手段と; n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、動き補償予測のための画面上の位
    置(x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、xqとyqを前記n/2個の格子点を境界
    上に持つブロック上の任意点qの位置、E tq を前記任意
    点qにおいて前記時間微分画像より得られる時間微分
    値、E xq とE yq を前記任意点qにおいて前記空間微分画
    像より得られる空間微分値とするとき、時空間勾配の拘
    束条件から与えられるxq、yq、E tq 、E xq 、E yq
    び前記変換係数C k を含む式を、j個(但し、j≧n)
    の任意点について連立させ、得られる連立方程式から前
    記変換係数C k を計算し、この変換係数C k に基づい
    て、前記変換式から前記格子点位置における動きベクト
    ルを計算する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  7. 【請求項7】 テレビカメラ等より入力された動画像か
    ら、現フレーム画像と前フレーム画像間での見かけ上の
    動きベクトルを検出する装置において: 動きベクトルが検出されるべき格子点の位置情報を蓄積
    する格子点位置蓄積手 段と; この格子点位置情報と、現フレーム画像と、前フレーム
    画像とに基づいて、画像間におけるブロック単位の粗い
    動きベクトルを検出する粗いベクトル検出手段と; この粗い動きベクトルと、前記格子点位置情報と、前フ
    レーム画像とに基づいて、前フレーム画像に対応する粗
    い予測画像を生成する粗い予測画像生成手段と; 現フレーム画像中の画素値の空間微分画像を計算する空
    間微分計算手段と; 現フレーム画像と前記粗い予測画像
    間での画素値の時間微分画像を計算する時間微分計算手
    段と; n個(但し、n=6または8)の変換係数C k (但し、
    k=1〜n)を有し、動き補償予測のための画面上の位
    置(x,y)とx方向の動きベクトルv x との関係、並
    びに、同位置(x,y)とy方向の動きベクトルv y
    の関係を表す変換式を、動きベクトルのモデル情報とし
    て蓄積する動きモデル蓄積手段と; 前記格子点位置蓄積手段に蓄積された隣接するn/2個
    の格子点P i の位置(x i 、y i )(但し、i=1〜n
    /2)毎に、v rx とv ry を前記n/2個の格子点を境界
    上に持つブロックの粗い動きベクトル、xqとyqを前
    記n/2個の格子点を境界上に持つブロック上の任意点
    qの位置、E tq ' を前記任意点qにおいて前記時間微分
    画像より得られる時間微分値、E xq とE yq を前記任意点
    qにおいて前記空間微分画像より得られる空間微分値と
    するとき、時空間勾配の拘束条件から与えられる、
    rx 、v ry 、xq、yq、E tq ' 、E xq 、E yq 及び前記
    変換係数C k を含む式を、j個(但し、j≧n)の任意
    点について連立させ、得られる連立方程式から前記変換
    係数C k を計算し、この変換係数C k に基づいて、前記
    変換式から前記格子点位置における動きベクトルを計算
    する動きベクトル計算手段と; を具備することを特徴とする動画像の動きベクトル検出
    装置。
  8. 【請求項8】 請求項6または7に記載の動画像の動き
    ベクトル検出装置において、前記動きベクトル計算手段
    は隣接するブロックと共通する格子点での動きベクトル
    を平均により求めることを特徴とする動画像の動きベク
    トル検出装置
  9. 【請求項9】 請求項1ないし8いずれか一つに記載の
    動画像の動きベクトル検出装置において、前記j個の任
    意点として少なく1つの格子点を含むことを特徴とする
    動画像の動きベクトル検出装置。
  10. 【請求項10】 請求項1ないし9いずれか一つに記載
    の動画像の動きベクトル検出装置において、画面上の位
    置(x,y)と動きベクトル(vx ,vy )との変換式
    が下記の式(1)、式(2)及び式(3)のうちいずれ
    か1つであることを特徴とする動画像の動きベクトル検
    出装置。 【数1】 vx =a+bx+cy+dx2 +exy vy =f+gx+hy+ey2 +dxy …式(1) 【数2】 vx =a+bx+cy+exy vy =e+fx+gy+hxy …式(2) 【数3】 vx =a+bx+cy vy =d+ex+fy …式(3)
  11. 【請求項11】 請求項1ないし10いづれか一つに
    載の動画像の動きベクトル検出装置において、前フレー
    ム画像が、当該前フレーム画像の動き補償予測フレーム
    間符号化後に局部復号された画像であることを特徴とす
    る動画像の動きベクトル検出装置。
  12. 【請求項12】 テレビカメラ等より入力された動画像
    から、動きベクトルを用いて現フレームに対応する動き
    補償予測画像を得る装置において: 請求項1ないし11いずれか一つに記載の動画像の動き
    ベクトル検出装置の格子点位置蓄積手段、動きモデル蓄
    積手段及び動きベクトル計算手段からそれぞれ得られる
    格子点位置情報、変換式及び動きベクトル情報に基づい
    て、予測画像の生成に必要な同変換式の変換係数を計算
    する変換係数計算手段と; この変換係数計算手段から得られる前記変換係数と、前
    記変換式とに基づいて、現フレーム画像に対応する動き
    補償予測画像を生成すると予測画像生成手段と; を具備することを特徴とする動画像の動き補償予測装
    置。
  13. 【請求項13】 テレビカメラ等より入力される動画像
    に対し動き補償予測フレーム間符号化を行う装置におい
    て: 請求項1ないし11いずれか一つに記載の動画像の動き
    ベクトル検出装置と; 請求項12記載の動画像の動き補償予測装置と; 現フレーム画像と前記動画像の動き補償予測装置で得ら
    れた動き補償予測画像間で差分画像を計算する差分画像
    計算手段と; この差分画像を符号化する符号化手段と; 符号化された差分画像を復号する復号手段と; 復号された差分画像と、前記動き補償予測画像とに基づ
    いて、現フレーム画像に対応する局部復号画像を計算す
    る局部復号画像計算手段と; この局部復号画像を前フレーム画像として記憶する記憶
    手段と; を具備することを特徴とする動画像の動き補償予測フレ
    ーム間符号化装置。
JP15334194A 1994-07-05 1994-07-05 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置 Expired - Fee Related JP3295228B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15334194A JP3295228B2 (ja) 1994-07-05 1994-07-05 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15334194A JP3295228B2 (ja) 1994-07-05 1994-07-05 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置

Publications (2)

Publication Number Publication Date
JPH0818983A JPH0818983A (ja) 1996-01-19
JP3295228B2 true JP3295228B2 (ja) 2002-06-24

Family

ID=15560361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15334194A Expired - Fee Related JP3295228B2 (ja) 1994-07-05 1994-07-05 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置

Country Status (1)

Country Link
JP (1) JP3295228B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2783123B1 (fr) * 1998-09-04 2000-11-24 France Telecom Procede d'estimation du mouvement entre deux images
JP4881055B2 (ja) * 2006-04-24 2012-02-22 日本電信電話株式会社 連続弾性体変形シミュレーション方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
JPH0818983A (ja) 1996-01-19

Similar Documents

Publication Publication Date Title
JP7313816B2 (ja) 画像予測方法および関連装置
CN101951514B (zh) 预测图像产生方法及设备和图像视频编/解码方法及设备
JP4180666B2 (ja) ビデオ信号符号化方法
US7227896B2 (en) Method and apparatus for global motion estimation
RU2251820C2 (ru) Экстраполяция вектора движения для перекодировки видеопоследовательности
KR100563552B1 (ko) 비선형 피라미드를 사용하여 계층적인 움직임 추정을 실행하기 위한 장치 및 방법
TW201739252A (zh) 具有仿射運動補償的視訊編碼的方法以及裝置
JPH09163380A (ja) 画像符号化装置及び動きベクトル検出方法
JPH08265780A (ja) ビデオ信号符号化/復号化装置及び方法
JP2001515679A (ja) 高分解能静止画像を創出するための方法及び装置
JPH08275178A (ja) ビデオ信号符号化方法
JPS62203496A (ja) 動画像信号の高能率符号化方式
US20190110060A1 (en) A video encoding and decoding method, and its inter-frame prediction method, device and system thereof
JP3201079B2 (ja) インターレース動画像信号の動き補償予測方法、符号化方法及び装置
JP3295228B2 (ja) 動画像の動きベクトル検出装置及びそれを用いた動き補償予測装置及び動き補償予測フレーム間符号化装置
JP3681784B2 (ja) 映像信号符号化装置
JP2743434B2 (ja) 動き補償フレーム間予測符号化回路
Jakhetiya et al. Image interpolation by adaptive 2-D autoregressive modeling
JPH04189093A (ja) 動き補償装置
JP2616552B2 (ja) 動画像の符号化・復号化装置
JP3309519B2 (ja) 動きベクトル検出装置
JP3201343B2 (ja) インターレース動画像の動き補償予測装置
JP3653287B2 (ja) 画像情報変換装置及び画像情報変換方法
JP2878580B2 (ja) 階層的動ベクトル検出方法
JP5108828B2 (ja) 画像符号化装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020305

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080405

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090405

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090405

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110405

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees