JP2000299864A - 動画像処理方法 - Google Patents

動画像処理方法

Info

Publication number
JP2000299864A
JP2000299864A JP10408899A JP10408899A JP2000299864A JP 2000299864 A JP2000299864 A JP 2000299864A JP 10408899 A JP10408899 A JP 10408899A JP 10408899 A JP10408899 A JP 10408899A JP 2000299864 A JP2000299864 A JP 2000299864A
Authority
JP
Japan
Prior art keywords
block
processing method
coefficient matrix
moving image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10408899A
Other languages
English (en)
Inventor
Tadayoshi Nakayama
忠義 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10408899A priority Critical patent/JP2000299864A/ja
Publication of JP2000299864A publication Critical patent/JP2000299864A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 オーバーラップ動き補償予測符号化処理は、
加算演算の回数が多いために処理時間がかかってしま
う。 【解決手段】 マクロブロック内の動きベクトルが同一
であれば、ステップS1905においてマクロブロック単位
でのオーバーラップ動き補償を行なうが、その際に、複
数の重み係数マトリクスにおいて有為係数のみの演算を
行なえば良いため、実質的な演算量を削減することがで
き、処理速度が向上する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は動画像の動き補償予
測符号化を行なう動画像処理方法に関する。
【0002】
【従来の技術】近年、画像信号の符号化技術や該符号化
データを通信したり蓄積したりする技術、また、該符号
化データを安価なコストで復号するための半導体技術、
復号した画像を表示する技術等、いわゆる画像情報を扱
うインフラ技術の発達がめざましい。
【0003】これにより、動画像のような大量の情報を
有する画像であっても遠隔地へ転送することができ、多
地点間におけるより高度な情報交換が可能になってき
た。
【0004】動画像の符号化においては、フレーム間の
画像信号の相関性を利用して情報量を大幅に削減するこ
とが可能である。この特性を利用した代表的な符号化技
術として、所謂動き補償予測符号化方式が知られてい
る。該符号化方式においては、所定の画素ブロック毎
に、参照すべき画像の相対位置を表わす動きベクトルと
称する情報を参照する。そして、該動きベクトル情報に
基づいて得られる画素情報を予測値とし、該予測値と実
際の画素値との差分に対してDCT等の直交変換を施すこ
とにより、該変換情報を人間の視覚特性に基づいて削減
することができる。
【0005】このようなブロック単位での符号化方式に
おいて、圧縮率を上げるために変換情報を大幅に削減す
ると、ブロック状の歪が出現しやすくなってしまう。一
般に符号の転送レートが低い装置において使用する圧縮
方式においては、圧縮率を上げることは必須であるた
め、ブロック状の歪は避け難いものとなっていた。
【0006】そこで、ITU-T勧告H.263規格やMPEG4規格
においては、前記ブロック状の歪を軽減するため、オー
バーラップ動き補償という処理を行なっている。
【0007】一般的な動き補償予測においては、フレー
ム画像内の着目ブロックを、参照画像上で動きベクトル
分だけずらしたものを該着目ブロックの予測画像とする
ことにより、符号化を行なう。この場合、隣接ブロック
間で動きベクトルが同一であれば、該隣接する2つのブ
ロックの予測画像データは隣接部において連続性がある
ため、予測画像データ上ではブロック歪が生じることは
無い。ところが、隣接ブロック間で動きベクトルに若干
の差がある場合、その動きベクトルの差が、隣接する2
つのブロックの予測画像の隣接部における不連続性とな
って現れる。
【0008】そこで、着目ブロックの動きベクトルのみ
を用いて予測を行なう代わりに、隣接するブロックの動
きベクトルを反映するような予測を行なうことによっ
て、上記不連続性を軽減することが考えられる。
【0009】オーバーラップ動き補償では、着目ブロッ
クの動きベクトルを用いて予測した画像データ(1ブロッ
ク分)、隣接する4つのブロックの動きベクトルを用いて
予測した画像データ(1ブロック分×4)の各々に重み係数
を乗じ、それらを合算したデータを最終的な予測値(画
像)とする。
【0010】
【発明が解決しようとする課題】しかしながら、従来の
オーバーラップ動き補償においては、加算演算の回数が
多く、処理時間がかかってしまうといった問題があっ
た。
【0011】本発明は上記問題を解決するためになされ
たものであり、動きベクトル予測に伴って生じる隣接ブ
ロック間の不連続性の歪を軽減するオーバーラップ動き
補償を高速に可能とする動画像処理方法を提供すること
を目的とする。
【0012】
【課題を解決するための手段】上記目的を達成するため
の一手法として、本発明の動画像処理方法は以下の工程
を備える。
【0013】即ち、着目するブロック及びそれに隣接す
るブロックにおける動きベクトルのそれぞれに基づく第
1の重み係数マトリクスより、複数ブロックからなるマ
クロブロックに対応する第2の重み係数マトリクスを生
成し、該第2の重み係数マトリクスを用いてマクロブロ
ック単位でオーバーラップ動き補償予測符号化を行なう
ことを特徴とする。
【0014】
【発明の実施の形態】以下、本発明に係る一実施形態に
ついて詳細に説明する。
【0015】<第1実施形態>まず、一般的なオーバー
ラップ動き補償について簡単に説明する。
【0016】図1において、符号化または復号対象であ
るフレーム画像101内の座標(x0,y0)を位置情報とす
る着目ブロック102を、参照画像104上で動きベクトル10
3分だけずらした位置にある1ブロックの画像データを、
着目ブロック102の予測画像105とする。これが、一般的
な動き補償による予測である。
【0017】このような動き補償予測において、隣接ブ
ロック間で動きベクトルが同一であれば、該隣接する2
つのブロックの予測画像データは隣接部において連続性
があるため、予測画像データ上ではブロック歪が生じる
ことは無い。ところが、隣接ブロック間で動きベクトル
に若干の差がある場合、その動きベクトルの差が、隣接
する2つのブロックの予測画像の隣接部における不連続
性となって現れる。
【0018】そこで、着目ブロックの動きベクトルのみ
を用いて予測を行なう代わりに、隣接するブロックの動
きベクトルを反映するような予測を行なうことによっ
て、上記不連続性を軽減することが考えられる。
【0019】オーバーラップ動き補償では、着目ブロッ
クの動きベクトルを用いて予測した画像データ(1ブロッ
ク分)、隣接する4つのブロックの動きベクトルを用いて
予測した画像データ(1ブロック分×4)の各々に重み係数
を乗じ、それらを合算したデータを最終的な予測値(画
像)とする。
【0020】具体的には、着目ブロックの動きベクトル
を用いて予測した画像データに対しては図2に示す重み
係数マトリクスを乗じ、また、着目ブロックの上,下,
左,右のそれぞれに隣接するブロックの動きベクトルを
用いて予測した画像データに対してはそれぞれ図3,図
4,図5,図6に示す重み係数マトリクスを乗じる。そし
て、それら5画像分を全て足し合わせた後に更に4を加算
し、8で割った値を予測値(画像)とする。
【0021】上記演算は即ち、以下に示す(1)式で表さ
れる。
【0022】 p(x,y)=(q(x,y)H2(i,j)+u(x,y)H3(i,j)+d(x,y)H4(i,j) +l(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 …(1) ここで、(x,y)は画像全体における着目ブロック中の各
画素位置を表わす座標であり、i,jは着目ブロックの左
上の座標を(x0,y0)とした時、i=x-x0,j=y-y0という値
をとる。また、q(x,y)は着目ブロックの動きベクトルを
用いて予測した画像データであり、u(x,y),d(x,y),l
(x,y),r(x,y)はそれぞれ、着目ブロックの上,下,
左,右に隣接するブロックの動きベクトルを用いて予測
した画像データである。これらの画像データq(x,y),u
(x,y),d(x,y),l(x,y),r(x,y)は、それぞれの動きベ
クトルを(MV1x,MV1y),(MV2x,MV2y),(MV3x,MV3y),(MV
4x,MV4y),(MV5x,MV5y)とし、予測の基になる参照画像
をref(i,j)とすると、以下の様に表される。
【0023】q(x,y)=ref(x+MV1x,y+MV1y) u(x,y)=ref(x+MV2x,y+MV2y) d(x,y)=ref(x+MV3x,y+MV3y) l(x,y)=ref(x+MV4x,y+MV4y) r(x,y)=ref(x+MV5x,y+MV5y) また、H2(i,j),H3(i,j),H4(i,j),H5(i,j),H6(i,j)
は、各々図2,図3,図4,図5,図6に示す重み係数マト
リクスであり、それぞれ0≧i,j≧7の範囲においての
み、値が定義されている。
【0024】以下、本実施形態におけるオーバラップ動
き補償について説明する。本実施形態においては、マク
ロブロック単位によるオーバラップ動き補償を行なうこ
とを特徴とする。
【0025】ITU-T勧告H.263規格やMPEG4規格において
は、8×8のブロックという単位の上位に16×16のマクロ
ブロックという単位があり、該マクロブロックは図7に
示すように4つのブロックより成る。該マクロブロック
において、各ブロックがそれぞれ別の動きベクトルを持
つことを可能とするモードが存在するが、マクロブロッ
ク全体における動きの相関が強い場合には、情報量削減
のために該モードにおいても該マクロブロックを1つの
動きベクトルで代表する場合がある。
【0026】以下、マクロブロック全体で1つの動きベ
クトルしか持たない、即ち、マクロブロックを構成する
各ブロックの動きベクトルが等しい場合について考え
る。
【0027】上述した一般的なオーバーラップ動き補償
予測を示す(1)式を、図7に示すマクロブロックを構成す
る4つのブロックa,b,c,dにそれぞれ適用すると、該
(1)式は各ブロック毎に異なる演算式に変形される。
【0028】まず、ブロックaについて考える。ブロッ
クaが着目ブロックであれば、ブロックbとブロックcは
それぞれ右と下に隣接するブロックであり、この場合マ
クロブロック内で1つの動きベクトルしか持たないた
め、ブロックbとブロックcはブロックaと同一の動きベ
クトルを持つことになる。従って、(1)式においてd(x,
y)とr(x,y)をq(x,y)で置き換えることができる。よっ
て、ブロックaに対するオーバラップ動き補償予測につ
いては、以下の(2)式で示される演算式を得る。
【0029】 p(x,y)=(q(x,y)H2(i,j)+u(x,y)H3(i,j)+q(x,y)H4(i,j) +l(x,y)H5(i,j)+q(x,y)H6(i,j)+4)/8 =(q(x,y)(H2(i,j)+H4(i,j)+H6(i,j)) +u(x,y)H3(i,j)+l(x,y)H5(i,j)+4)/8 …(2) 同様にブロックbについては、(1)式においてd(x,y)とl
(x,y)をq(x,y)に置き換えることができるため、以下の
(3)式で示される演算式を得る。
【0030】 p(x,y)=(q(x,y)H2(i,j)+u(x,y)H3(i,j)+q(x,y)H4(i,j) +q(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 =(q(x,y)(H2(i,j)+H4(i,j)+H5(i,j)) +u(x,y)H3(i,j)+r(x,y)H6(i,j)+4)/8 …(3) またブロックcについては、上に隣接するブロックaと右
に隣接するブロックdが同一マクロブロック内にあるた
め、ブロックcと同じ動きベクトルを持つ。さらに下に
隣接するブロックは符号化もしくは復号化処理がまだ行
われておらず、動きベクトル情報が得られないため、ブ
ロックcの動きベクトルで置き換えることができる。よ
って、前記(1)式において、u(x,y),d(x,y),r(x,y)をq
(x,y)に置き換えることができ、以下の(4)式で示される
演算式を得る。
【0031】 p(x,y)=(q(x,y)H2(i,j)+q(x,y)H3(i,j)+q(x,y)H4(i,j) +l(x,y)H5(i,j)+q(x,y)H6(i,j)+4)/8 =(q(x,y)(H2(i,j)+H3(i,j)+H4(i,j)+H6(i,j)) +l(x,y)H5(i,j)+4)/8 …(4) 同様にブロックdについては、u(x,y),d(x,y),l(x,y)
をq(x,y)に置き換えることができるため、以下の(5)式
で示される演算式を得る。
【0032】 p(x,y)=(q(x,y)H2(i,j)+q(x,y)H3(i,j)+q(x,y)H4(i,j) +q(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 =(q(x,y)(H2(i,j)+H3(i,j)+H4(i,j)+H5(i,j)) +r(x,y)H6(i,j)+4)/8 …(5) 以上の(2)〜(5)式によれば、4つのブロックa,b,c,d
における予測画像データq(x,y)に対する重み係数マトリ
クスは、それぞれ H2(i,j)+H4(i,j)+H6(i,j) H2(i,j)+H4(i,j)+H5(i,j) H2(i,j)+H3(i,j)+H4(i,j)+H6(i,j) H2(i,j)+H3(i,j)+H4(i,j)+H5(i,j) となり、これらをそれぞれ図8(a)〜(d)に示す。
【0033】該4つのブロックa,b,c,dをマクロブロ
ック単位で処理しようとすると、重み係数マトリクスも
マクロブロックに対応した大きさ、すなわち16×16サイ
ズとする必要がある。該重み係数マトリクスとしては、
図8(a)〜(d)に示した4つの重み係数マトリクスを図9に
示すように連結することで得られる。ここで、このマト
リクスをM2(i,j)と定義する。
【0034】また、上に隣接するブロックの動きベクト
ルを用いて予測した画像データu(x,y)に対応する16×16
の重み係数マトリクスは、図3に示すH3(i,j)を2つ横に
連結し、下半分である16×8の領域には0を埋め込んだも
ので表される。これをM3(i,j)と定義し、図10に示す。
【0035】また、左に隣接するブロックの動きベクト
ルを用いて予測した画像データl(x,y)に対応する16×16
の重み係数マトリクスは、図5に示すH5(i,j)を2つ縦に
連結し、右半分である8×16の領域には0を埋め込んだも
ので表される。これをM5(i,j)と定義し、図11に示す。
【0036】また、右に隣接するブロックの動きベクト
ルを用いて予測した画像データr(x,y)に対応する16×16
の重み係数マトリクスは、M5(i,j)を左右反転したもの
で表される。これをM6(i,j)と定義し、図12に示す。
【0037】尚、下に隣接するブロックの動きベクトル
を用いて予測した画像データd(x,y)に対応する重み係数
マトリクスは、すでにM2(i,j)に反映済みである。
【0038】これら重み係数マトリクスM2(i,j),M3(i,
j),M5(i,j),M6(i,j)を用いて、マクロブロック単位の
オーバーラップ動き補償の演算式を記述すると、(6)式
のようになる。
【0039】 p(x,y)=(q(x,y)M2(i,j)+u(x,y)M3(i,j)+l(x,y)M5(i,j) +r(x,y)M6(i,j)+4)/8 …(6) (6)式によれば、上記(1)式において0〜7の範囲であった
i,jの値が、0〜15まで広がる。ここで(6)式によれば、
図9に示すM2(i,j)の3/8を占める、係数が8である要素に
ついては、p(x,y)=q(x,y)となるので、計算を行なう必
要がなくなる。即ち、実際に演算処理を実行しなければ
ならない画素が、全体の5/8まで減少することが分か
る。
【0040】このように、本実施形態のマクロブロック
単位によるオーバーラップ動き補償により、マクロブロ
ックに対応した重み係数マトリクスにおいて有為係数の
みの演算を行なえば良いため、一般的なブロック単位に
よるオーバーラップ動き補償と比べて演算量を実質的に
削減することができる。
【0041】以上の説明においては、着目マクロブロッ
クは1つの動きベクトルしか持っていないという前提に
基づき、新たなオーバーラップ動き補償の演算式や重み
係数マトリクスを導出してきた。しかしながら実際に
は、上または左右に隣接する3つのマクロブロックも各
々1つの動きベクトルしか持たない場合や、各々が4つの
動きベクトルを持つ場合、あるいは、各々のブロックに
よって動きベクトル数が異なる場合などが考えられる。
【0042】従って本実施形態のオーバーラップ動き補
償においては、上または左右に隣接する3つのマクロブ
ロックの各々が、1つの動きベクトルしかない場合とそ
うでない場合とのそれぞれについて、異なる処理を行な
うことを特徴とする。
【0043】図13に、本実施形態における動き補償処理
の概要フローチャートを示す。まずステップS1901にお
いて、オーバーラップ動き補償を行なうモードであるか
否かを識別し、該モードでなければ、S1902において通
常の動き補償を実行する。ここでは、重み付け演算は行
なわず、 p(x,y)=q(x,y)=ref(x+MV1x,y+MV1y) により予測画像を生成する。
【0044】一方、オーバーラップ動き補償を行なうモ
ードであると識別された場合には、ステップS1903にお
いて、マクロブロック内に4つの動きベクトルがあるか
否かを識別する。4つの動きベクトルがあれば、ステッ
プS1904において(1)式に示した一般的なブロック単位に
よるオーバーラップ動き補償処理を行なう。一方、動き
ベクトルが4つではなく、1つしか無い場合には、ステッ
プS1905において本実施形態の特徴であるマクロブロッ
ク単位でのオーバーラップ動き補償処理を行なう。
【0045】図14に、上記ステップS1905における本実
施形態のマクロブロック単位によるオーバーラップ動き
補償処理の詳細フローチャートを示す。
【0046】まずステップS2001において、上,左,右
にそれぞれ隣接するマクロブロックにおける動きベクト
ルの数が、各々1つしか無いか否かを判別し、各々1つし
か無い場合には、ステップS2002〜S2005の処理を行な
う。
【0047】まずステップS2002においては、16×16の
着目マクロブロックのうち、図15に示す領域21aについ
てのみ、 p(x,y)=M3(i,j)u(x,y)=M3(i,j)ref(x+MV2x,y+MV2y) なる重み付け演算を行なう。次にステップS2003におい
て、同じく図16に示す領域22aについてのみ、 p(x,y)=p(x,y)+M5(i,j)l(x,y)=p(x,y)+M5(i,j)ref(x+MV
4x,y+MV4y) なる重み付け演算を行なう。尚、該式においては右辺の
p(x,y)に対する加算処理により、左辺のp(x,y)が新たに
得られることを示す。そしてステップS2004において、
図16に示す領域22bについてのみ、 p(x,y)=p(x,y)+M6(i,j)l(x,y)=p(x,y)+M6(i,j)ref(x+MV
5x,y+MV5y) なる重み付け演算を行なう。最後にステップS2005にお
いて、着目マクロブロックにおける図15に示す領域21
a,図16に示す領域22a,22bに対して、 p(x,y)=(p(x,y)+M2(i,j)q(x,y)+4)/8 =(p(x,y)+M2(i,j)ref(x+MV1x,y+MV1y)+4)/8 を演算し、着目マクロブロックの残りの領域に対して
は、 p(x,y)=q(x,y)=ref(x+MV1x,y+MV1y) のコピー処理を行なう。
【0048】上述したステップS2002〜S2005の処理は、
代入処理や加算処理を配慮すれば、その演算の順番を入
れ替えることができ、例えばステップS2005の処理を最
初に行なうことも可能である。この場合、上記ステップ
S2005における p(x,y)=(p(x,y)+M2(i,j)q(x,y)+4)/8 =(p(x,y)+M2(i,j)ref(x+MV1x,y+MV1y)+4)/8 なる加算処理は、 p(x,y)=M2(i,j)q(x,y) =M2(i,j)ref(x+MV1x,y+MV1y) なる代入処理のみとなり、ステップS2002〜S2004の他の
処理ブロックで加算処理を行なうことになる。もちろ
ん、演算の最後には、4を加算して8で割るといった丸め
処理を行なう必要がある。
【0049】一方、ステップS2001における判別結果が
異なる場合、即ち、隣接する3つのマクロブロックの
内、少なくとも1つのマクロブロックが動きベクトルを4
つ持っている場合、ステップS2010〜S2016の処理を行な
う。
【0050】この場合、隣接する3つのマクロブロック
をブロックに分割し、図17に示すように、着目するマク
ロブロックCとそれに隣接する6つのブロックU1,U2,L
1,L2,R1,R2としてとらえる。
【0051】尚、同じマクロブロックに属する2つのブ
ロックは、同一の動きベクトルを持つ(マクロブロック
内に動きベクトルを1つしか持たない場合)こともあれ
ば、異なる動きベクトルを持つ(マクロブロック内に4
つの動きベクトルを持つ場合)こともある。ここで、6
つのブロックU1,U2,L1,L2,R1,R2に対応する動きベ
クトルをそれぞれ、(MVb1x,MVb1y),(MVb2x,MVb2y),(M
Vb3x,MVb3y),(MVb4x,MVb4y),(MVb5x,MVb5y),(MVb6x,
MVb6y)とする。
【0052】まずステップS2010においては、16×16の
着目マクロブロックのうち、図18に示す領域24aについ
てのみ、 p(x,y)=M3(i,j)u(x,y)=M3(i,j)ref(x+MVb1x,y+MVb1y) なる重み付け演算を行なう。次にステップS2011におい
て、同様に図18に示す領域24bについてのみ、 p(x,y)=p(x,y)+M3(i,j)u(x,y)=p(x,y)+M3(i,j)ref(x+MV
b2x,y+MVb2y) なる重み付け演算を行なう。尚、上述したように、右辺
のp(x,y)に対する加算処理により、左辺のp(x,y)が新た
に得られることを示す。そしてステップS2012におい
て、図19に示す領域25aについてのみ、 p(x,y)=p(x,y)+M5(i,j)l(x,y)=p(x,y)+M5(i,j)ref(x+MV
b3x,y+MVb3y) なる重み付け演算を行なう。そしてステップS2013にお
いて、図19に示す領域25bについてのみ、 p(x,y)=p(x,y)+M5(i,j)l(x,y)=p(x,y)+M5(i,j)ref(x+MV
b4x,y+MVb4y) なる重み付け演算を行なう。次にステップS2014におい
て、図19に示す領域25cについてのみ、 p(x,y)=p(x,y)+M6(i,j)r(x,y)=p(x,y)+M6(i,j)ref(x+MV
b5x,y+MVb5y) なる重み付け演算を行なう。次にステップS2015におい
て、図19に示す領域25dについてのみ、 p(x,y)=M6(i,j)r(x,y)=p(x,y)+M6(i,j)ref(x+MVb6x,y+M
Vb6y) なる重み付け演算を行なう。そして最後にステップS201
6において、着目マクロブロックにおける図18に示す領
域24a,24b、及び図19に示す領域25a,25b,25c,25dに
対して、 p(x,y)=(p(x,y)+M2(i,j)q(x,y)+4)/8 =(p(x,y)+M2(i,j)ref(x+MV1x,y+MV1y)+4)/8 を演算し、着目マクロブロックの残りの領域には、 p(x,y)=q(x,y)=ref(x+MV1x,y+MV1y) のコピー処理を行なう。
【0053】尚、上述したステップS2002〜S2005の場合
と同様、ステップS2010〜S2016の処理についても、その
順番を入れ替えることが可能である。
【0054】以上説明したように本実施形態によれば、
マクロブロック単位によるオーバーラップ動き補償を行
なうことにより、アクセスする画素数を減少し、加算演
算の回数を減らすことができる。従ってオーバーラップ
動き補償処理を高速化することが可能となる。
【0055】<第2実施形態>以下、本発明に係る第2
実施形態について説明する。尚、第2実施形態におい
て、着目マクロブロックに隣接するマクロブロックはそ
れぞれ1つの動きベクトルしか持たないものと仮定す
る。尚、4つの動きベクトルを持つマクロブロックが隣
接する場合には、上述した第1実施形態と同様に場合分
けを行ない、それぞれに応じた処理を実行すれば良い。
【0056】第2実施形態においては、上述した第1実
施形態で示したマクロブロック単位によるオーバーラッ
プ動き補償処理を、画像の上部境界のマクロブロックに
適用したことを特徴とする。
【0057】画像の上部境界に位置する着目ブロックに
おいては、上に隣接するブロックが存在しないために、
該上に隣接するブロックに対応する動きベクトルは、着
目ブロックの動きベクトルで置き換えて処理される。即
ち、第1実施形態で示した(6)式において、u(i,j)をq
(i,j)に置き換えることにより、演算を行なう。
【0058】従って、図9に示す重み係数マトリクスM2
(i,j)と図10に示す重み係数マトリクスM3(i,j)の加算結
果である、図20に示す重み係数マトリクスを用いること
により、マクロブロック単位のオーバーラップ動き補償
処理を行なうことができる。即ち、着目マクロブロック
の動きベクトルを用いて予測した画像データに対しては
図20に示す重み係数マトリクスを乗じ、左右に隣接する
ブロックの動きベクトルを用いて予測した画像データに
対しては、第1実施形態において図11,図12に示した重
み係数マトリクスを乗じる。そして、それらを足し合わ
せてさらに4を加えた後に、8で割った値を予測値(画
像)とする。
【0059】上記演算を数式によって表現すると、下記
に示す(7)式が得られる。
【0060】 p(x,y)=(q(x,y)M2(i,j)+q(x,y)M3(i,j)+l(x,y)M5(i,j) +r(x,y)M6(i,j)+4)/8 =(q(x,y)(M2(i,j)+M3(i,j))+l(x,y)M5(i,j) +r(x,y)M6(i,j)+4)/8 …(7) ここで(7)式によれば、図20に示すM2(i,j)+M3(i,j)の1/
2を占める、係数が8である要素については、p(x,y)=q
(x,y)となるので、計算を行なう必要がなくなる。即
ち、実際に演算処理を実行しなければならない画素が、
全体の1/2まで減少することが分かる。
【0061】以上説明したように本実施形態によれば、
画像の上部境界にあるマクロブロックのオーバーラップ
動き補償処理をさらに高速化することができる。
【0062】例えば、符号化対象である画像のフォーマ
ットがテレビジョンの共通中間フォーマットであるQCIF
(Quarter Common Intermediate Format)であった場合、
画像全体のマクロブロックの数は11×9個であり、その
うち11個のマクロブロックが画像の上部境界に相当す
る。従って、画像全体の1/9の領域において、第2実施形
態による効果が得られる。
【0063】さらに、画像フォーマットがサブQCIFであ
った場合、画像全体のマクロブロックの数は8×6個であ
り、そのうち8個のマクロブロックが画像の上部境界に
あるため、画像全体の1/6の領域において、第2実施形態
による効果が得られる。
【0064】<第3実施形態>以下、本発明に係る第3
実施形態について説明する。尚、第3実施形態におい
て、着目マクロブロックに隣接するマクロブロックはそ
れぞれ1つの動きベクトルしか持たないものと仮定す
る。尚、4つの動きベクトルを持つマクロブロックが隣
接する場合には、上述した第1実施形態と同様に場合分
けを行ない、それぞれに応じた処理を実行すれば良い。
【0065】第3実施形態においては、上述した第1実
施形態で示したマクロブロック単位によるオーバーラッ
プ動き補償処理を、画像の左境界及び右境界のマクロブ
ロックに適用したことを特徴とする。
【0066】画像の左境界に位置する着目ブロックにお
いては、左に隣接するブロックが存在せず、また、画像
の右境界に位置する着目ブロックにおいては、右に隣接
するブロックが存在しない。従って、これら存在しない
隣接ブロックに対応する動きベクトルは、着目ブロック
の動きベクトルで置き換えて処理される。即ち、第1実
施形態で示した(6)式において、画像の左境界ではl(i,
j)をq(i,j)に置き換え、右境界ではr(i,j)をq(i,j)に置
き換えることにより、演算を行なう。
【0067】従って左境界においては、図9に示す重み
係数マトリクスM2(i,j)と図11に示す重み係数マトリク
スM5(i,j)の加算結果である、図21に示す重み係数マト
リクスを用いて、また右境界においては、図9に示す重
み係数マトリクスM2(i,j)と図12に示す重み係数マトリ
クスM6(i,j)の加算結果である、図22に示す重み係数マ
トリクスを用いることにより、マクロブロック単位のオ
ーバーラップ動き補償処理を行なうことができる。
【0068】第3実施形態における左境界及び右境界の
オーバーラップ動き補償の演算を数式によって表現する
と、下記に示す(8)式及び(9)式が得られる。
【0069】 p(x,y)=(q(x,y)M2(i,j)+u(x,y)M3(i,j)+q(x,y)M5(i,j) +r(x,y)M6(i,j)+4)/8 =(q(x,y)(M2(i,j)+M5(i,j))+u(x,y)M3(i,j) +r(x,y)M6(i,j)+4)/8 …(8) p(x,y)=(q(x,y)M2(i,j)+u(x,y)M3(i,j)+l(x,y)M5(i,j) +q(x,y)M6(i,j)+4)/8 =(q(x,y)(M2(i,j)+M6(i,j))+u(x,y)M3(i,j) +l(x,y)M5(i,j)+4)/8 …(9) ここで、例えば(8)式によれば、図21に示すM2(i,j)+M5
(i,j)の9/16を占める、係数が8である要素については、
p(x,y)=q(x,y)となるので、計算を行なう必要がなくな
る。即ち、実際に演算処理を実行しなければならない画
素が、全体の7/16まで減少することが分かる。また(9)
式においても、同様に処理すべき画素数が全体の7/16と
なる。
【0070】以上説明したように本実施形態によれば、
画像の左境界及び右境界にあるマクロブロックのオーバ
ーラップ動き補償処理をさらに高速化することができ
る。
【0071】例えば、画像のフォーマットがQCIFであっ
た場合、画像全体の11×9個のマクロブロックのうち、9
個が画像の左境界に、また9個が右境界に存在する。従
って、画像全体の2/11の領域において、第3実施形態に
よる効果が得られる。
【0072】さらに、画像フォーマットがサブQCIFであ
った場合、画像全体のマクロブロックの数は8×6個であ
り、そのうち12個のマクロブロックが画像の左又は右境
界にあるため、画像全体の1/4の領域において、第3実施
形態による効果が得られる。
【0073】<第4実施形態>以下、本発明に係る第4
実施形態について説明する。
【0074】上述した第1乃至第3実施形態によれば、
オーバーラップ動き補償の処理速度を向上させることが
できる。第4実施形態においては、上記各実施形態にお
いて使用される重み係数マトリクスの格納領域を節約す
ることを特徴とする。
【0075】上記各実施形態においては、オーバーラッ
プ動き補償をマクロブロック単位で行なうために各重み
係数マトリクスは16×16のサイズとなっているが、該マ
トリクスにおいて、係数が0または8である部分について
は実際の処理を行なう必要がないため、このような係数
は保持しておく必要がない。
【0076】例えば、図10,図11,図12に示す重み係数
マトリクスについては、係数が0でない、16×4または4
×16の有為係数部分のみを保持すれば良い。また、図9
に示す重み係数マトリクスについては、係数が8でな
い、4×16の有為係数部分を2つと8×4の有為係数部分を
1つ保持すれば良い。また図20に示す重み係数マトリク
スについては、係数が8でない、4×16の有為係数部を2
つ保持すれば良い。また、図21,図22に示す重み係数マ
トリクスについては、係数が8でない、16×4の有為係数
部分を1つと4×12の有為係数部分を1つ保持すれば良
い。
【0077】また、図9〜図12、及び図20に示す重み係
数マトリクスは上下又は左右に対象性があるため、さら
にその半分の有為係数のみを保持すれば良い。
【0078】以上説明したように第4実施形態によれ
ば、上述した第1乃至第3実施形態におけるオーバーラ
ップ動き補償を行なう際に、参照する重み係数マトリク
スの最低限必要な係数のみを保持することにより、その
メモリ容量を節約することができる。
【0079】<他の実施形態>なお、本発明は、複数の
機器(例えばホストコンピュータ,インタフェイス機
器,リーダ,プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機,ファクシミリ装置など)に適用してもよい。
【0080】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
【0081】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
【0082】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
【0083】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
【0084】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。本発明を上記記憶
媒体に適用する場合、その記憶媒体には、先に説明した
フローチャートに対応するプログラムコードを格納する
ことになる。
【0085】
【発明の効果】以上説明したように本発明によれば、動
きベクトル予測に伴って生じる隣接ブロック間の不連続
性の歪を軽減するオーバーラップ動き補償が高速に可能
となる。
【図面の簡単な説明】
【図1】本発明に係る一実施形態の動き補償予測符号化
における動きベクトル情報と予測画像データの関係を示
す図、
【図2】本実施形態における着目ブロックに対する重み
係数マトリクス例を示す図、
【図3】上に隣接するブロックに対する重み係数マトリ
クス例を示す図、
【図4】下に隣接するブロックに対する重み係数マトリ
クス例を示す図、
【図5】左に隣接するブロックに対する重み係数マトリ
クス例を示す図、
【図6】右に隣接するブロックに対する重み係数マトリ
クス例を示す図、
【図7】本実施形態におけるマクロブロックの構成を示
す図、
【図8】マクロブロックを構成する各ブロック毎の重み
係数マトリクス例を示す図、
【図9】本実施形態における着目マクロブロックに対す
る16×16の重み係数マトリクス例を示す図、
【図10】上に隣接するブロックに対する16×16の重み
係数マトリクス例を示す図、
【図11】左に隣接するブロックに対する16×16の重み
係数マトリクス例を示す図、
【図12】右に隣接するブロックに対する16×16の重み
係数マトリクス例を示す図、
【図13】本実施形態におけるオーバーラップ動き補償
処理の概要を示すフローチャート、
【図14】本実施形態におけるマクロブロック単位のオ
ーバーラップ動き補償処理の詳細を示すフローチャー
ト、
【図15】マクロブロック内の重み付け領域を示す図、
【図16】マクロブロック内の重み付け領域を示す図、
【図17】着目マクロブロックと隣接するブロックの関
係を示す図、
【図18】マクロブロック内の重み付け領域を示す図、
【図19】マクロブロック内の重み付け領域を示す図、
【図20】本発明に係る第2実施形態における重み係数
マトリクス例を示す図、
【図21】本発明に係る第3実施形態における重み係数
マトリクス例を示す図、
【図22】本発明に係る第3実施形態における重み係数
マトリクス例を示す図、である。
【符号の説明】
101 処理対象フレーム画像 102 着目ブロック 103 動きベクトル 104 参照画像 105 予測画像データ

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 着目するブロック及びそれに隣接するブ
    ロックにおける動きベクトルのそれぞれに基づく第1の
    重み係数マトリクスより、複数ブロックからなるマクロ
    ブロックに対応する第2の重み係数マトリクスを生成
    し、 該第2の重み係数マトリクスを用いてマクロブロック単
    位でオーバーラップ動き補償予測符号化を行なうことを
    特徴とする動画像処理方法。
  2. 【請求項2】 前記オーバーラップ動き補償予測符号化
    の際に、前記第2の重み係数マトリクスに基づいて前記
    マクロブロックの予測画像を導出することを特徴とする
    請求項1記載の動画像処理方法。
  3. 【請求項3】 前記第1の重み係数マトリクスは前記ブ
    ロックのサイズに対応し、前記第2の重み係数マトリク
    スは前記マクロブロックのサイズに対応することを特徴
    とする請求項1記載の動画像処理方法。
  4. 【請求項4】 前記マクロブロックは、4つの前記ブロ
    ックよりなることを特徴とする請求項3記載の動画像処
    理方法。
  5. 【請求項5】 前記第2の重み係数マトリクスは、複数
    の前記第1の重み係数マトリクスを加算し、前記マクロ
    ブロックのサイズに連結することによって生成されるこ
    とを特徴とする請求項3記載の動画像処理方法。
  6. 【請求項6】 前記隣接するブロックは、前記着目する
    ブロックの上下左右に隣接するブロックであることを特
    徴とする請求項1記載の動画像処理方法。
  7. 【請求項7】 前記第2の重み係数マトリクスは、着目
    するマクロブロック及びその上,左,右に隣接するマク
    ロブロックにおける動きベクトルのそれぞれに対応して
    複数生成されることを特徴とする請求項1記載の動画像
    処理方法。
  8. 【請求項8】 前記オーバーラップ動き補償予測符号化
    の際に、前記第2の重み係数マトリクスの有為係数に関
    してのみ重み付け加算演算が行われることを特徴とする
    請求項1記載の動画像処理方法。
  9. 【請求項9】 前記有為係数は、0又は8以外の係数で
    あることを特徴とする請求項8記載の動画像処理方法。
  10. 【請求項10】 前記第2の重み係数マトリクスは、前
    記有為係数のみが保持されることを特徴とする請求項8
    記載の動画像処理方法。
  11. 【請求項11】 前記着目するマクロブロックは、1つ
    の動きベクトルを有することを特徴とする請求項1記載
    の動画像処理方法。
  12. 【請求項12】 前記オーバーラップ動き補償予測符号
    化の際に、前記着目するマクロブロックの所定領域毎
    に、前記第2の重み係数マトリクスに基づく演算を施す
    ことを特徴とする請求項11記載の動画像処理方法。
  13. 【請求項13】 前記隣接するマクロブロックの全てが
    それぞれ1つの動きベクトルを有するか否かに応じて、
    前記所定領域が異なることを特徴とする請求項12記載
    の動画像処理方法。
  14. 【請求項14】 前記隣接するマクロブロックの少なく
    とも1つが複数の動きベクトルを有する場合、前記所定
    領域は前記ブロックのサイズに対応することを特徴とす
    る請求項13記載の動画像処理方法。
  15. 【請求項15】 更に、前記着目するマクロブロックが
    2つ以上の動きベクトルを有するか否かを判定し、 該判定結果が否である場合に、前記オーバーラップ動き
    補償予測符号化を行なうことを特徴とする請求項11記
    載の動画像処理方法。
  16. 【請求項16】 前記着目するマクロブロックが2つ以
    上の動きベクトルを有すると判定された場合に、前記第
    1の重み係数マトリクスを用いて前記ブロック単位によ
    るオーバーラップ動き補償予測符号化を行なうことを特
    徴とする請求項15記載の動画像処理方法。
  17. 【請求項17】 前記請求項1乃至16のいずれかに記
    載の動画像処理方法により符号化された動画像を復号す
    る動画像処理方法。
  18. 【請求項18】 前記請求項1乃至16のいずれかに記
    載の動画像処理方法により動画像を符号化する動画像処
    理装置。
  19. 【請求項19】 前記請求項1乃至16のいずれかに記
    載の動画像処理方法により符号化された動画像を復号す
    る動画像処理装置。
  20. 【請求項20】 オーバーラップ動き補償予測符号化を
    行なう動画像処理方法のプログラムコードが記録された
    記録媒体であって、該プログラムは、着目するブロック
    及びそれに隣接するブロックにおける動きベクトルのそ
    れぞれに基づく第1の重み係数マトリクスより、複数ブ
    ロックからなるマクロブロックに対応する第2の重み係
    数マトリクスを生成するコードと、 該第2の重み係数マトリクスを用いてマクロブロック単
    位でオーバーラップ動き補償予測符号化を行なうコード
    と、を含むことを特徴とする記録媒体。
JP10408899A 1999-04-12 1999-04-12 動画像処理方法 Withdrawn JP2000299864A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10408899A JP2000299864A (ja) 1999-04-12 1999-04-12 動画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10408899A JP2000299864A (ja) 1999-04-12 1999-04-12 動画像処理方法

Publications (1)

Publication Number Publication Date
JP2000299864A true JP2000299864A (ja) 2000-10-24

Family

ID=14371383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10408899A Withdrawn JP2000299864A (ja) 1999-04-12 1999-04-12 動画像処理方法

Country Status (1)

Country Link
JP (1) JP2000299864A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003026313A1 (en) * 2001-09-14 2003-03-27 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
CN1295934C (zh) * 2002-01-09 2007-01-17 松下电器产业株式会社 移动向量编码方法和移动向量解码方法
JP2007509542A (ja) * 2003-10-17 2007-04-12 レンセラー・ポリテクニック・インスティチュート Mctfスケーラブルビデオコーダでの可変サイズブロックの重複ブロック動き補償
JP2008193745A (ja) * 2002-01-09 2008-08-21 Matsushita Electric Ind Co Ltd 受信装置および送信装置
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
CN101472054B (zh) * 2007-12-24 2011-05-25 义晶科技股份有限公司 加强数字视频的方法以及使用该方法的装置
US8041134B2 (en) 2003-06-16 2011-10-18 Samsung Electronics Co., Ltd. Apparatus to provide block-based motion compensation and method thereof
WO2011127828A1 (en) * 2010-04-14 2011-10-20 Mediatek Inc. Method for performing localized multihypothesis prediction during video coding of a coding unit, and associated apparatus
JP2011229145A (ja) * 2010-04-14 2011-11-10 Mediatek Inc 符号化ユニットにおける動画符号化においてハイブリッド多仮説予測を行う方法、および関連装置
USRE43628E1 (en) 2001-03-26 2012-09-04 Sharp Kabushiki Kaisha Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
JP2013201773A (ja) * 2004-11-29 2013-10-03 Ntt Docomo Inc データを符号化するための方法、装置、およびコンピュータ読み取り可能な記録媒体
US20140211853A1 (en) * 2008-08-04 2014-07-31 Dolby Laboratories Licensing Corporation Overlapped Block Disparity Estimation and Compensation Architecture
CN112887726A (zh) * 2021-03-16 2021-06-01 西安万像电子科技有限公司 图像处理方法和装置、存储介质及电子设备

Cited By (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE46491E1 (en) 2001-03-26 2017-07-25 Dolby Laboratories Licensing Corporation Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
USRE43628E1 (en) 2001-03-26 2012-09-04 Sharp Kabushiki Kaisha Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
USRE44497E1 (en) 2001-03-26 2013-09-17 Sharp Kabushiki Kaisha Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
USRE45250E1 (en) 2001-03-26 2014-11-18 Sharp Kabushiki Kaisha Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
USRE47261E1 (en) 2001-03-26 2019-02-26 Dolby Laboratories Licensing Corporation Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
USRE47202E1 (en) 2001-03-26 2019-01-08 Dolby Laboratories Licensing Corporation Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
USRE46482E1 (en) 2001-03-26 2017-07-18 Dolby Laboratories Licensing Corporation Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
US7450641B2 (en) 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US10257511B2 (en) 2001-09-14 2019-04-09 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US9872024B2 (en) 2001-09-14 2018-01-16 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US9866834B2 (en) 2001-09-14 2018-01-09 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US9848191B2 (en) 2001-09-14 2017-12-19 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US7787542B2 (en) 2001-09-14 2010-08-31 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US10178386B2 (en) 2001-09-14 2019-01-08 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US8040957B2 (en) 2001-09-14 2011-10-18 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US9609327B1 (en) 2001-09-14 2017-03-28 Dolby Laboartories Licensing Corporation Adaptive filtering based upon boundary strength
US9503759B2 (en) 2001-09-14 2016-11-22 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US9124888B2 (en) 2001-09-14 2015-09-01 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US7613240B2 (en) 2001-09-14 2009-11-03 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
WO2003026313A1 (en) * 2001-09-14 2003-03-27 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US8891634B2 (en) 2001-09-14 2014-11-18 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US7907667B2 (en) 2001-09-14 2011-03-15 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
JP2011061849A (ja) * 2001-09-14 2011-03-24 Sharp Corp 画像符号化装置及び画像符号化方法
CN1311691C (zh) * 2001-09-14 2007-04-18 夏普株式会社 基于边界强度的自适应过滤
JP2011091824A (ja) * 2001-09-14 2011-05-06 Sharp Corp 画像復号装置及び画像復号方法
US8798173B2 (en) 2001-09-14 2014-08-05 Sharp Kabushiki Kaisha Adaptive filtering based upon boundary strength
US10349051B1 (en) 2001-09-14 2019-07-09 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
US10602142B2 (en) 2001-09-14 2020-03-24 Dolby Laboratories Licensing Corporation Adaptive filtering based upon boundary strength
JP2010283865A (ja) * 2002-01-09 2010-12-16 Panasonic Corp 動きベクトル符号化方法
JP4594449B2 (ja) * 2002-01-09 2010-12-08 パナソニック株式会社 動きベクトル復号化方法
USRE48035E1 (en) 2002-01-09 2020-06-02 Dolby International Ab Motion vector coding method and motion vector decoding method
CN1295934C (zh) * 2002-01-09 2007-01-17 松下电器产业株式会社 移动向量编码方法和移动向量解码方法
JP2011160456A (ja) * 2002-01-09 2011-08-18 Panasonic Corp 画像符号化方法、画像符号化装置、プログラムおよび記録媒体
US8290046B2 (en) 2002-01-09 2012-10-16 Panasonic Corporation Motion vector coding method and motion vector decoding method
US8290047B2 (en) 2002-01-09 2012-10-16 Panasonic Corporation Motion vector coding method and motion vector decoding method
US8290048B2 (en) 2002-01-09 2012-10-16 Panasonic Corporation Motion vector coding method and motion vector decoding method
US8401080B2 (en) 2002-01-09 2013-03-19 Panasonic Corporation Motion vector coding method and motion vector decoding method
JP4714236B2 (ja) * 2002-01-09 2011-06-29 パナソニック株式会社 受信装置、送信装置、受信プログラムおよび送信プログラム
US10362328B2 (en) 2002-01-09 2019-07-23 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US10313700B2 (en) 2002-01-09 2019-06-04 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
AU2003201906B2 (en) * 2002-01-09 2007-09-13 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US8885720B2 (en) 2002-01-09 2014-11-11 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US8885719B2 (en) 2002-01-09 2014-11-11 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US8885718B2 (en) 2002-01-09 2014-11-11 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US8885717B2 (en) 2002-01-09 2014-11-11 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
JP2010283874A (ja) * 2002-01-09 2010-12-16 Panasonic Corp 動きベクトル符号化方法
JP4598160B1 (ja) * 2002-01-09 2010-12-15 パナソニック株式会社 動きベクトル符号化方法
US8902987B2 (en) 2002-01-09 2014-12-02 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US8908769B2 (en) 2002-01-09 2014-12-09 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US7362807B2 (en) 2002-01-09 2008-04-22 Matsushita Electric Industrial Co., Ltd. Motion vector coding method and motion vector decoding method
JP4594448B1 (ja) * 2002-01-09 2010-12-08 パナソニック株式会社 動きベクトル符号化方法
US9124896B2 (en) 2002-01-09 2015-09-01 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
US9124897B2 (en) 2002-01-09 2015-09-01 Panasonic Intellectual Property Corporation Motion vector coding method and motion vector decoding method
US9161050B2 (en) 2002-01-09 2015-10-13 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
JP2008193745A (ja) * 2002-01-09 2008-08-21 Matsushita Electric Ind Co Ltd 受信装置および送信装置
US9407927B2 (en) 2002-01-09 2016-08-02 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
KR100923379B1 (ko) 2002-01-09 2009-10-27 파나소닉 주식회사 움직임 벡터 부호화 장치와 그 방법 및 기록매체
US9451278B2 (en) 2002-01-09 2016-09-20 Panasonic Intellectual Property Corporation Of America Motion vector coding method and motion vector decoding method
USRE46924E1 (en) 2002-01-09 2018-06-26 Dolby International Ab Motion vector coding method and motion vector decoding method
JP2010268518A (ja) * 2002-01-09 2010-11-25 Panasonic Corp 動きベクトル復号化方法
KR100946848B1 (ko) 2002-01-09 2010-03-09 파나소닉 주식회사 움직임 벡터 부호화 장치와 그 방법 및 기록매체
JP2010268513A (ja) * 2002-01-09 2010-11-25 Panasonic Corp 動きベクトル復号化方法
JP4585047B1 (ja) * 2002-01-09 2010-11-24 パナソニック株式会社 動きベクトル復号化方法
KR100946845B1 (ko) 2002-01-09 2010-03-09 파나소닉 주식회사 움직임 벡터 부호화 장치와 그 방법, 움직임 벡터 복호화 장치와 그 방법, 동화상 부호화 장치, 프로그램, 및 기억 매체
JP2010158049A (ja) * 2002-01-09 2010-07-15 Panasonic Corp 復号化システムおよび復号化装置
US8041134B2 (en) 2003-06-16 2011-10-18 Samsung Electronics Co., Ltd. Apparatus to provide block-based motion compensation and method thereof
JP2007509542A (ja) * 2003-10-17 2007-04-12 レンセラー・ポリテクニック・インスティチュート Mctfスケーラブルビデオコーダでの可変サイズブロックの重複ブロック動き補償
JP2013201773A (ja) * 2004-11-29 2013-10-03 Ntt Docomo Inc データを符号化するための方法、装置、およびコンピュータ読み取り可能な記録媒体
CN101472054B (zh) * 2007-12-24 2011-05-25 义晶科技股份有限公司 加强数字视频的方法以及使用该方法的装置
US9060168B2 (en) * 2008-08-04 2015-06-16 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
US10574994B2 (en) 2008-08-04 2020-02-25 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US9357230B2 (en) 2008-08-04 2016-05-31 Dolby Laboratories Licensing Corporation Block disparity estimation and compensation architecture
US20140211853A1 (en) * 2008-08-04 2014-07-31 Dolby Laboratories Licensing Corporation Overlapped Block Disparity Estimation and Compensation Architecture
US10321134B2 (en) 2008-08-04 2019-06-11 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US9445121B2 (en) 2008-08-04 2016-09-13 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
US9667993B2 (en) 2008-08-04 2017-05-30 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US9843807B2 (en) 2008-08-04 2017-12-12 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US11843783B2 (en) 2008-08-04 2023-12-12 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US10645392B2 (en) 2008-08-04 2020-05-05 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US11539959B2 (en) 2008-08-04 2022-12-27 Dolby Laboratories Licensing Corporation Predictive motion vector coding
US11025912B2 (en) 2008-08-04 2021-06-01 Dolby Laboratories Licensing Corporation Predictive motion vector coding
WO2011127828A1 (en) * 2010-04-14 2011-10-20 Mediatek Inc. Method for performing localized multihypothesis prediction during video coding of a coding unit, and associated apparatus
JP2011229145A (ja) * 2010-04-14 2011-11-10 Mediatek Inc 符号化ユニットにおける動画符号化においてハイブリッド多仮説予測を行う方法、および関連装置
CN112887726A (zh) * 2021-03-16 2021-06-01 西安万像电子科技有限公司 图像处理方法和装置、存储介质及电子设备
CN112887726B (zh) * 2021-03-16 2022-11-25 西安万像电子科技有限公司 图像处理方法和装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
JP5020303B2 (ja) 動き補償装置、動き補償方法、および集積回路
US20090110077A1 (en) Image coding device, image coding method, and image coding integrated circuit
JP5115498B2 (ja) 画像符号化装置、画像符号化制御方法およびプログラム
JPH1155667A (ja) 画像符号化装置および画像復号化装置および画像符号化データを記録した記録媒体
CN101563927A (zh) 用于对视频图像的块进行解码的方法
JP2008048199A (ja) 動き予測処理装置、画像符号化装置および画像復号化装置
JP2000299864A (ja) 動画像処理方法
EP1503597A2 (en) Video decoding apparatus
JPH06225292A (ja) イメージデコーデングシステムのためのモジュールメモリ
JP2008182527A (ja) 画像符号化装置及び方法、並びに撮像システム
JP4675383B2 (ja) 画像復号化装置および方法、画像符号化装置
KR20010108066A (ko) 텍스처 매핑 엔진에서 모션 보상을 수행하기 위한 방법 및장치
US6665340B1 (en) Moving picture encoding/decoding system, moving picture encoding/decoding apparatus, moving picture encoding/decoding method, and recording medium
JP7324065B2 (ja) 動きベクトル検出装置、撮像装置、動きベクトル検出方法、及びプログラム
JPH10215457A (ja) 動画像復号方法及び動画像復号装置
JP5182285B2 (ja) デコード方法及びデコード装置
JP2007180723A (ja) 画像処理装置及び画像処理方法
JP2007067551A (ja) 動きベクトル推定方法,動きベクトル推定装置,動きベクトル推定プログラムおよび動きベクトル推定プログラム記録媒体
KR100708183B1 (ko) 움직임 추정을 위한 영상 데이터 저장 장치 및 그 데이터저장 방법
JP4419608B2 (ja) 動画像符号化装置
JPH10327416A (ja) 動画像符号化装置
JP4519723B2 (ja) 動きベクトルを利用する動画像データの符号化または復号化装置
US20110058612A1 (en) Motion-vector computation apparatus, motion-vector computation method and motion-vector computation program
JP2005218055A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4118180B2 (ja) 符号化復号化システム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060704