JP2004032355A - Motion picture encoding method, motion picture decoding method, and apparatus for the both method - Google Patents

Motion picture encoding method, motion picture decoding method, and apparatus for the both method Download PDF

Info

Publication number
JP2004032355A
JP2004032355A JP2002185661A JP2002185661A JP2004032355A JP 2004032355 A JP2004032355 A JP 2004032355A JP 2002185661 A JP2002185661 A JP 2002185661A JP 2002185661 A JP2002185661 A JP 2002185661A JP 2004032355 A JP2004032355 A JP 2004032355A
Authority
JP
Japan
Prior art keywords
prediction
prediction mode
inter
image
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002185661A
Other languages
Japanese (ja)
Other versions
JP3866624B2 (en
Inventor
Hideaki Kimata
木全 英明
Yoshiyuki Yashima
八島 由幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002185661A priority Critical patent/JP3866624B2/en
Publication of JP2004032355A publication Critical patent/JP2004032355A/en
Application granted granted Critical
Publication of JP3866624B2 publication Critical patent/JP3866624B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve encoding efficiency in encoding of motion pictures, by enabling an inter-frame prediction mode of a skip macroblock to be established beside direct to utilize the fact that there exists correlation of picture contents between adjacent regions. <P>SOLUTION: The skip prediction mode judgment section 103 determines an inter-frame prediction mode in the case of defining the present region as a skip region according to a condition established in advance. A motion searching/encoding mode judgment section 102 searches motions between input pictures and reference pictures to determine prediction errors in a forward prediction modes, a backward prediction mode or a bidirectional prediction mode; then judges, by using the prediction errors, which prediction mode is to be used for encoding; and determines the motion vector to be encoded according to the judged prediction mode. Further, with regard to the prediction mode determined in the skip prediction mode judgment section 103, it is determined whether the motion vectors and the prediction errors are encoded or not. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は,両方向フレーム間予測符号化方式を使った動画像符号化,復号化に関する技術であり,特にBピクチャのskipマクロブロックのフレーム間予測方法を適応的に変更させることにより,符号化効率を向上させることを可能とした動画像符号化方法,動画像復号方法,動画像符号化装置および動画像復号装置に関する。
【0002】
【従来の技術】
一般的に動画像符号化では,時間方向の相関を使って高い符号化効率を実現するため,フレーム間予測符号化を用いている。フレームの符号化モードには,フレーム間の相関を使わずに符号化するIフレームと,過去に符号化した1フレームから予測するPフレームと,過去に符号化した2フレームから予測することができるBフレームがある。特に,映像符号化方式H.263では,参照画像メモリに複数フレーム分の復号画像を蓄積しておき,そのメモリから参照画像を選択して予測することができる。
【0003】
また,Pフレームは過去に符号化したフレームから予測するが,Bフレームでは,過去に符号化した2フレームから予測することができる。参照フレームとして使用する2フレームのうち,より過去のフレームから予測する方法を前方向予測と呼び,より未来のフレームから予測する方法を後方向予測と呼ぶ。後方向フレーム間予測における参照フレームの表示時刻は,現フレームより未来であってもよい。この場合には,現フレームを表示した後に後方向フレーム予測の参照フレームを出力することになる。Bフレームで2フレームから予測する場合(両方向フレーム間予測)には,2フレームからの画像情報を補間して,1フレーム分の画像情報を作成して予測画像を作成する。
【0004】
図8(A1)に,後方向フレーム間予測における参照フレームの表示時刻が未来の場合の,動画像の予測関係の例を示す。第1フレームから第7フレームの符号化モードをIBBPBBPの順序で符号化する場合には,図8(A1)に示す予測関係があるため,実際に符号化する場合には,図8(A2)に示すように,▲1▼▲4▼▲2▼▲3▼▲7▼▲5▼▲6▼の順序でフレームを符号化する。
【0005】
図8(B1)に,後方向フレーム間予測における参照フレームの表示時刻が過去の場合の,動画像の予測関係の例を示す。第1フレームから第7フレームの符号化モードをIPBBPBBの順序で符号化する場合には,図8(B1)に示す予測関係があるため,実際に符号化する場合には,図8(B2)に示すように,▲1▼▲2▼▲4▼▲3▼▲5▼▲7▼▲6▼の順序でフレームを符号化する。
【0006】
さらに画像を分割した,例えばマクロブロックのような領域毎に,これらの符号化モードを指定することができる。映像符号化方式H.263では,Iフレーム内では,フレーム内画像情報のみを使って符号化するIマクロブロックのみある。Pフレーム内では,Iマクロブロックの他に過去に符号化した1フレームから予測するPマクロブロックがある。マクロブロック毎に参照する画像を変更することも可能である。Bフレーム内では,IマクロブロックとPマクロブロックの他にBマクロブロックがある。Bマクロブロックでは,Pマクロブロックと同様に過去に符号化した1フレームから予測する前方向予測モードまたは後方向予測モードと,2フレームから予測する両方向予測モードがある。
【0007】
両方向予測モードには,各フレーム内の参照位置を示す動きベクトルを符号化するbi−predictiveモードと符号化しないdirectモードがある。directモードでは,参照する未来のフレームにおける同一位置のマクロブロックの動きベクトルから前方向の動きベクトルと後方向の動きベクトルを算出する。
【0008】
図9に,後方向フレーム間予測における参照フレームの表示時刻が未来の場合の,directモードにおける動きベクトルの関係図を示す。図9において,P1とP2が既に符号化されたフレームであり,Pcが符号化対象フレームであるとする。PcとP1,P2間のマクロブロックの動きベクトルを,それぞれMVf ,MVb とした場合の動きベクトル算出式を式(1)に示す。MVs は,P1とP2間のマクロブロックの動きベクトルである。一般的に,N1にはフレームP1とPcの時間間隔を適用し,N2にはフレームPcとP2の時間間隔を適用し,DにはフレームP1とP2の時間間隔を適用する。
【0009】
MVf =MVs ×N1/D               (1−1)
MVb =MVs ×N2/D               (1−2)
この式(1)に従って動きベクトルを算出するため,directモードでは動きベクトルを符号化しない。
【0010】
また,マクロブロックの動きベクトルを符号化する際には,周囲のマクロブロックの動きベクトルからの差分を符号化する方法がある。例えば映像符号化方式H.263では,左と上と右上のマクロブロックの動きベクトル(MV1,MV2,MV3)から,式(2)によって予測動きベクトルPMVを作成し,PMVとの差分を符号化する。なお,Median(a,b,c)は,値a,b,cのうちで中間となる値を求める。
【0011】
PMV=Median(MV1,MV2,MV3)      (2)
この方法によれば,周囲のマクロブロックの動きベクトルからの変化が少ない場合に,より符号化効率良く動きベクトルを符号化することができる。
【0012】
また,符号化データがないマクロブロックをskipマクロブロックと呼ぶ。映像符号化方式H.263では,Pフレーム内のskipマクロブロックは,動きベクトルが0であり予測誤差を持たない。したがって,参照フレームの同一位置の画像を復号画像とする。
【0013】
Bフレーム内のskipマクロブロックは,動きベクトルをdirectモードと同じ方法で求め予測誤差を持たない。したがって,式(1)によって計算される動きベクトル位置の画像情報を補間して求めた画像を復号画像とする。
【0014】
一般的にマクロブロック毎にskipマクロブロックかどうか,イントラ符号化するかどうかの情報やフレーム間予測方法を示す符号化モード情報を符号化する。H.263ではskipマクロブロックかどうかを示す1ビットのCOD符号化モード情報を符号化し,skipでない場合には,さらにイントラ符号化するかどうかやフレーム間予測方法等を示すMCBPC符号化モード情報を符号化する。したがって,skipマクロブロックの場合には,フレーム間予測方法を示す情報と動きベクトルと予測誤差を符号化しない。映像符号化方式H.264ではskipマクロブロックはCOD符号化モード情報を符号化するのではなく,連続するskipマクロブロックの数をランレングス符号化する。
【0015】
【発明が解決しようとする課題】
Bフレームのdirectモードは,図9に示すように後のPフレームの動きベクトルから求めるため,3フレーム間で一定速度の動きがある場合に有効である。すなわち,カメラが一定速度で平行移動して撮影した動画像の場合には,directモードによる動きベクトルで予測誤差を大きく低減することができる。予測誤差がない場合には,skipマクロブロックとして符号化することができる。skipマクロブロックはCOD情報で符号化したり,ランレングス符号化されるため,Bフレーム全体として符号化効率を向上することができる。
【0016】
しかし,3フレーム間で動きが一定しない場合には,directモードによる動きベクトルでは予測誤差を低減することができない。そのためskipマクロブロックも発生せず,符号化効率を低減することができない。
【0017】
本発明は,上記の点に鑑み,3フレーム間で動きが一定しないためdirectモードによる動きベクトルでは予測誤差を低減することができない場合にも,ある特定の条件のもとにskipマクロブロック(またはブロック)を発生させ,skipマクロブロックのフレーム間予測モードをdirect以外に設定することを可能とし,隣接領域同士で画像内容に相関があることを利用して,符号化効率を向上させることを目的とする。
【0018】
【課題を解決するための手段】
上記の課題を解決するため,本発明は以下の方法を用いる。
【0019】
第1の発明は,入力画像を領域に分割し,両方向フレーム間予測符号化方式および前方向フレーム間予測符号化方式のいずれかを使って画像情報を符号化する動画像符号化方法において,現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更することを特徴とする。
【0020】
第2の発明は,入力画像を領域に分割し,両方向フレーム間予測符号化方式,前方向フレーム間予測符号化方式および後方向フレーム間予測符号化方式のいずれかを使って現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更することを特徴とする。
【0021】
以上の第1または第2の発明によれば,skipマクロブロックのようにフレーム間予測モードを符号化しない場合であっても,隣接する領域のフレーム間予測モードが予め設定した条件に従って,現領域のフレーム間予測モードを変更することができる。例えば次の2種類の条件が挙げられる。これらを組み合わせても良い。
[条件a]左,左上,上,右上の4隣接領域のフレーム間予測モードのうち,最も多いモードを現領域にも適用する。
[条件b]左,左上,上,右上の4隣接に特定のフレーム間予測モードの領域がある場合には,それと同じモードを現領域にも適用する。
【0022】
さらに,前方向予測と後方向予測と両方向予測において,周囲のマクロブロックの動きベクトルからの差分を符号化する方法が適用される場合には,skipマクロブロックの動きベクトルとして,0ベクトルと適用することも可能であり,あるいは式(2)から計算されるPMVを適用することも可能である。
【0023】
隣接領域同士で画像内容に相関がある場合には,同じフレーム間予測モードで符号化効率が高くなる傾向がある。したがって従来,Bピクチャをはさむ3フレーム間で動きが一定しない場合には,directモードによる動きベクトルでは予測誤差を低減することができない場合においても,skipマクロブロックのフレーム間予測モードをdirect以外に設定することが可能となり,符号化効率を向上することができる。
【0024】
第3の発明は,前記第1または第2の発明において,両方向フレーム間予測符号化時に,動きベクトルを符号化しないdirectモードと,前方向と後方向の動きベクトルを符号化するbi−predictiveモードとを区別して,現領域のフレーム間予測方法を決定することを特徴とする。
【0025】
この第3の発明によれば,skipマクロブロックのようにフレーム間予測モードを符号化しない場合において,そのフレーム間予測モードを隣接領域のフレーム間予測モードから求める際に,両方向予測として,directモードとbi−predictiveモードのいずれかをさらに区別することができる。directモードの場合には,動きベクトルを式(1)に従って求め,bi−predictiveモードの場合には,式(2)に従って求めるPMVかあるいは0ベクトルを適用することができる。
【0026】
これにより,両方向予測モードの場合にさらに細かなフレーム間予測モードの変更を行うことができる。
【0027】
第4の発明は,前記第1,第2または第3の発明において,現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,現領域をさらに分割した再分割領域毎に,隣接した再分割領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域の再分割領域のフレーム間予測方法を変更することを特徴とする。
【0028】
この第4の発明によれば,skipマクロブロックのようにフレーム間予測モードと動きベクトルと予測誤差を符号化しない場合において,ブロック等のさらに小さく分割した単位毎に,フレーム間予測モードを変更することができる。これにより,マクロブロックよりもさらに細かな単位でフレーム間予測モードの変更を行うことできる。
【0029】
第5の発明は,画像を分割した領域毎に,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式を使って画像情報を復号する動画像復号方法において,現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更することを特徴とする。
【0030】
第6の発明は,画像を分割した領域毎に,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を復号する動画像復号方法において,現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更することを特徴とする。
【0031】
第7の発明は,前記第5または第6の発明において,両方向フレーム間予測復号時に,動きベクトルを復号しないdirectモードと,前方向と後方向の動きベクトルを復号するbi−predictiveモードとを区別して,現領域のフレーム間予測方法を決定することを特徴とする。
【0032】
第8の発明は,前記第5,第6または第7の発明において,現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,現領域をさらに分割した再分割領域毎に,隣接した再分割領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域の再分割領域のフレーム間予測方法を変更することを特徴とする。
【0033】
【発明の実施の形態】
図面を用いて,本発明の実施の形態を説明する。
【0034】
第1の実施の形態では,Bピクチャについてマクロブロック単位に両方向予測と前方向予測と後方向予測とを切り替えて符号化するものとする。ここで両方向予測とは,directモードを指すものとする。
【0035】
まず,符号化装置の説明を行う。図1に,第1の実施の形態に係る画像符号化装置の概要を示す。この画像符号化装置は,画像入力部101,動き探索/符号化モード判定部102,Skip予測モード判定部103,予測モード蓄積部104,動きベクトル蓄積部105,参照画像メモリ106,DirectMC部107,ForwardMC部108,BackwardMC部109,予測誤差符号化/量子化部110,復号部111,スイッチ部112〜114を備える。
【0036】
ForwardMC部108では,前方向予測を行って予測画像を求め,BackwardMC部109では,後方向予測を行って予測画像を求め,DirectMC部107では,両方向予測を行って予測画像を求めるものとする。DirectMC部107にてdirectモードに使用する動きベクトルは,動きベクトル蓄積部105に蓄積されているものとする。
【0037】
Skip予測モード判定部103では,予測モード蓄積部104に蓄積された左,左上,上,右上のマクロブロックの予測モードから,動き探索/符号化モード判定部102において,現在のマクロブロックをskipマクロブロックとするときの予測モードを決定する。決定するフローを図2に示す。
【0038】
まず,現在のマクロブロックの左,左上,上,右上のいずれかにdirectマクロブロックがあるかどうかを判定する(ステップS1)。directマクロブロックがあれば,skipマクロブロックの予測モードをdirectモードと決定する(ステップS2)。
【0039】
左,左上,上,右上にdirectマクロブロックがない場合,左,左上,上,右上における前方向予測マクロブロック数Nf と,後方向予測マクロブロック数Nb とをカウントし(ステップS3),前方向予測マクロブロック数Nf と,後方向予測マクロブロック数Nb との大小を比較する(ステップS4)。
【0040】
マクロブロック数Nf とNb とが等しい場合,skipマクロブロックの予測モードをdirectモードと決定する(ステップS2)。
【0041】
マクロブロック数Nf がNb より大きい場合,skipマクロブロックの予測モードを前方向予測モードと決定する(ステップS5)。
【0042】
マクロブロック数Nf がNb より小さい場合,skipマクロブロックの予測モードを後方向予測モードと決定する(ステップS6)。
【0043】
図3に,本実施の形態に係る動き探索/符号化モード判定部102の動作フローを示す。動き探索/符号化モード判定部102では,前方向予測のための動き探索(ステップS10)と後方向予測のための動き探索(ステップS11)を行う。動き探索では,予測誤差と動きベクトルの符号量を式(3)を使って評価し,最も値が小さくなる位置を,その予測方法における動きベクトルとして決定するものとする。動きベクトルは式(2)を使って求められる差分を符号化するものとする。
【0044】
さらに,directモードと前方向予測と後方向予測に関する式(3)の評価値Dmbを比較し,値が最も小さい場合を使用する予測モードPMとして決定する(ステップS12)。決定された予測モードPMが,Skip予測モード判定部103でskipマクロブロックに適用すると決定された予測モードと同じである場合には,式(3)で得られる評価値が式(4)を満たすかどうかをチェックし(ステップS13),満たす場合には,現マクロブロックをskipとし(ステップS14),満たさない場合には,skipに設定しない(ステップS15)。
【0045】
なお,式(3)におけるAとBは量子化スケールに依存して変化する値であり,pは画素を示し,e[p]は画素pにおける予測誤差を示し,b(MV)は動きベクトルMVの符号量を示す。動きベクトルMVは,前方向予測の動きベクトルまたは後方向予測の動きベクトルを示す。式(4)におけるTHskipは予め設定した定数である。
【0046】
Dmb=A*Σ|e[p]|+B*|b(MV)|      (3)
(ただし,Σはマクロブロック内の全画素pについての和を示す)
Dmb≦THskip                   (4)
予測モードの符号化方法は,次の通りとする。まず,skipかどうかを示すCOD情報(1ビット)があり,skipの場合には1に設定し,それのみとする。skipでない場合には0に設定し,続いて前方向予測か後方向予測か両方向予測かを示す情報(2ビット)を符号化する。01の場合には前方向予測を示し,10の場合には後方向予測を示し,11の場合には両方向予測を示すものとする。
【0047】
このような前提で現マクロブロックは,次のように符号化される。まず,Skip予測モード判定部103でskipマクロブロックの予測モードを決定する。続いて動き探索/符号化モード判定部102で予測モードを決定する。同時に前方向予測と後方向予測の場合には,動きベクトルも求める。また,決定された予測モードがskipマクロブロックの予測モードである場合には,そのマクロブロックをskipとするかどうかを決定する。決定した予測モードは予測モード蓄積部104に蓄積する。
【0048】
続いてスイッチ部112,113を切り替え,前方向予測と判定された場合にはForwardMC部108にて予測画像を求め,後方向予測と判定された場合にはBackwardMC部109にて予測画像を求め,directモードと判定された場合にはDirectMC部107にて予測画像を求める。ここでskipの場合には,式(2)で差分を0とした場合の動きベクトルを使用する。
【0049】
続いてskipではない場合には,スイッチ部113を通して予測画像を予測誤差符号化/量子化部110へ送り,予測誤差符号化/量子化部110で現画像と予測画像との間で予測誤差を求めて符号化し量子化する。
【0050】
復号部111では,skipではない場合には,予測誤差を逆量子化して復号し,ForwardMC部108またはBackwardMC部109またはDirectMC部107にて得られた予測画像を使って復号画像を求める。skipの場合には,ForwardMC部108またはBackwardMC部109またはDirectMC部107にて得られた予測画像を復号画像とする。復号画像を参照画像メモリ106に蓄積する。前方向予測と後方向予測の場合には,動きベクトルを動きベクトル蓄積部105に蓄積する。
【0051】
以上の手順をすべてのマクロブロックに対して繰り返し処理する。
【0052】
次に復号装置の説明を行う。図4に,第1の実施の形態に係る画像復号装置の概要を示す。図1に示す画像符号化装置の実施の形態で得られた符号化データを復号する手順を説明する。
【0053】
画像復号装置は,符号化データ入力部201,予測モード復号部202,Skip予測モード判定部203,予測モード蓄積部204,動きベクトル蓄積部205,参照画像メモリ206,DirectMC部207,ForwardMC部208,BackwardMC部209,予測誤差逆量子化/復号部210,スイッチ部212〜214を備える。
【0054】
ForwardMC部208では,前方向予測を行って予測画像を求め,BackwardMC部209では,後方向予測を行って予測画像を求め,DirectMC部207では,両方向予測を行って予測画像を求めるものとする。DirectMC部207にてdirectモードに使用する動きベクトルは,動きベクトル蓄積部205に蓄積されているものとする。
【0055】
Skip予測モード判定部203では,予測モード蓄積部204に蓄積された左,左上,上,右上のマクロブロックの予測モードから,図2のフローに従ってskipマクロブロックの予測モードを決定する。
【0056】
このような前提で,現マクロブロックは次のように復号される。まず,Skip予測モード判定部203でskipマクロブロックの予測モードを決定する。続いて予測モード復号部202で予測モードを復号する。まず,COD情報を復号する。CODが1であった場合にはskipであり,0であった場合にはskipではない。CODが0の場合にはさらに2ビット復号する。01の場合には前方向予測であり,10の場合には後方向予測であり,11の場合には両方向予測となる。CODが1の場合には,Skip予測モード判定部203で決定した予測モードとなる。
【0057】
続いて予測モードが前方向予測の場合には,ForwardMC部208にて予測画像を求め,後方向予測の場合には,BackwardMC部209にて予測画像を求め,directモードの場合には,DirectMC部207にて予測画像を求める。ここでskipの場合には,式(2)で差分を0とした場合の動きベクトルを使用する。
【0058】
続いてskipではない場合には,予測誤差逆量子化/復号部210で予測誤差を逆量子化し復号し,予測誤差を使って復号画像を作成する。skipの場合には予測画像がそのまま復号画像となる。復号画像を参照画像メモリ206に蓄積する。前方向予測と後方向予測の場合には復号した動きベクトルを動きベクトル蓄積部205に蓄積する。復号した予測モードは予測モード蓄積部204に蓄積する。
【0059】
以上の手順をすべてのマクロブロックに対して繰り返し処理する。
【0060】
次に,第2の実施の形態について説明する。第2の実施の形態では,Bピクチャについてブロック単位に前方向予測と後方向予測とdirectモードとbi−predictiveモードとを切り替えて符号化するものとする。
【0061】
まず,符号化装置の説明を行う。図5に,第2の実施の形態に係る画像符号化装置の概要を示す。第2の実施の形態の画像符号化装置は,画像入力部301,再分割動き探索/符号化モード判定部302,Skip予測モード判定部303,予測モード蓄積部304,領域予測モード判定部315,動きベクトル蓄積部305,参照画像メモリ306,DirectMC部307,Bi−predictiveMC部316,ForwardMC部308,BackwardMC部309,予測誤差符号化/量子化部310,復号部311,スイッチ部312〜314を備える。
【0062】
ForwardMC部308では,前方向予測を行って予測画像を求め,BackwardMC部309では,後方向予測を行って予測画像を求め,DirectMC部307では,directモード予測を行って予測画像を求め,Bi−predictiveMC部316では,bi−predictiveモード予測を行って予測画像を求めるものとする。DirectMC部307にてdirectモードに使用する動きベクトルは,動きベクトル蓄積部305に蓄積されているものとする。
【0063】
Skip予測モード判定部303では,予測モード蓄積部304に蓄積された左,左上,上,右上のブロックの予測モードから,skipマクロブロック内の全てのブロックの予測モードを決定する。決定するフローを図6に示す。
【0064】
まず,現在のブロックの左,左上,上,右上のいずれかにdirectブロックがあるかどうかを判定する(ステップS20)。directブロックがあれば,skipマクロブロック内のブロックの予測モードをdirectモードと決定する(ステップS25)。
【0065】
左,左上,上,右上にdirectブロックがない場合,左,左上,上,右上における前方向予測ブロック数Nf と,後方向予測ブロック数Nb とをカウントし(ステップS21),前方向予測ブロック数Nf と後方向予測ブロック数Nb とが,共に0であるかを判定する(ステップS22)。Nf =0かつNb =0であれば,skipマクロブロック内のブロックの予測モードをdirectモードと決定する(ステップS25)。
【0066】
Nf =0かつNb =0でなければ,Nf >0かつNb >0であるかどうかを判定する(ステップS23)。Nf >0かつNb >0であるあ場合,skipマクロブロック内のブロックの予測モードをbi−predictiveモードと決定する(ステップS25)。
【0067】
次に,Nf >0かつNb =0であるかどうかを判定し(ステップS24),Nf >0かつNb =0である場合には,skipマクロブロック内のブロックの予測モードを前方向予測モードと決定する(ステップS27)。
【0068】
Nf >0かつNb =0でない場合,Nf =0かつNb >0である。この場合,skipマクロブロック内のブロックの予測モードを後方向予測モードと決定する(ステップS28)。
【0069】
再分割動き探索/符号化モード判定部302では,ブロック毎に,前方向予測のための動き探索と後方向予測のための動き探索を行う。動き探索では予測誤差と動きベクトルの符号量を,後述する式(5)を使って評価し,最も値が小さくなる位置を,その予測方法における動きベクトルとして決定するものとする。bi−predictiveモードでは,前方向予測と後方向予測の動き探索で求められた動きベクトルを使い,予測誤差を求めて式(6)によって評価値を求める。以上の処理をマクロブロック内の全てのブロックに対して行う。
【0070】
領域予測モード判定部315では,各ブロックに対して,再分割動き探索/符号化モード判定部302で求められた,bi−predictiveモードとdirectモードと前方向予測と後方向予測の評価値を比較し,値が最も小さい場合の予測モードを求める。この時のマクロブロックで合計した評価値をM1とする。さらにSkip予測モード判定部303で決定された予測モードについても式(5)または式(6)によって評価値を求める。この時のマクロブロックで合計した評価値をM2とする。
【0071】
評価値M1と評価値M2が式(7)を満たすかどうかをチェックし,満たす場合には,現マクロブロックをskipとし,満たさない場合にはskipに設定しない。なお,式(5)と式(6)におけるAとBとCは,量子化スケールに依存して変化する値であり,pは画素を示し,e[p]は画素pにおける予測誤差を示し,b(MV)は動きベクトルMVの符号量を示す。動きベクトルMVf は前方向予測の動きベクトルを示し,動きベクトルMVb は後方向予測の動きベクトルを示し,動きベクトルMVは前方向予測の動きベクトルまたは後方向予測の動きベクトルを示す。式(7)におけるTHskipは予め設定した定数である。Σはブロック内の全画素pの和を表す。
【0072】

Figure 2004032355
予測モードの符号化方法は次の通りとする。まずskipかどうかを示すCOD情報(1ビット)があり,skipの場合には1に設定し,それのみとする。skipでない場合には0に設定し,続いて各ブロックの前方向予測か後方向予測か両方向予測かを示す情報(可変長4ビット)を符号化する。1の場合にはdirectモードを示し,01の場合には前方向予測を示し,001の場合には後方向予測を示し,0001の場合にはbi−predictiveモードを示すものとする。これを4ブロック分連続して符号化する。
【0073】
このような前提で現マクロブロックは次のように符号化される。まず,Skip予測モード判定部303でskipマクロブロック内の各ブロックの予測モードを決定する。続いて再分割動き探索/符号化モード判定部302で各予測モードにおける評価値を求める。同時に前方向予測と後方向予測の場合には動きベクトルも求める。領域予測モード判定部315は,マクロブロック内の各ブロックの予測モードを決定し,さらにブロックがskipかどうかを決定する。決定した予測モードは,予測モード蓄積部304に蓄積する。
【0074】
続いて前方向予測と判定された場合には,ForwardMC部308にて予測画像を求め,後方向予測と判定された場合には,BackwardMC部309にて予測画像を求め,directモードと判定された場合には,DirectMC部307にて予測画像を求め,bi−predictiveモードと判定された場合には,Bi−predictiveMC部316にて予測画像を求める。ここでskipの場合には,式(2)で差分を0とした場合の動きベクトルを使用する。続いてskipではない場合には,予測誤差符号化/量子化部310で現画像と予測画像との間で予測誤差を求めて符号化し量子化する。
【0075】
復号部311では,skipではない場合には,予測誤差を逆量子化して復号し,ForwardMC部308またはBackwardMC部309またはDirectMC部307またはBi−predictiveMC部316にて得られた予測画像を使って復号画像を求める。skipの場合には,ForwardMC部308またはBackwardMC部309またはDirectMC部307またはBi−predictiveMC部316にて得られた予測画像を復号画像とする。復号画像を参照画像メモリ306に蓄積する。前方向予測と後方向予測とbi−predictiveモードの場合には,動きベクトルを動きベクトル蓄積部305に蓄積する。
【0076】
以上の手順をすべてのマクロブロックに対して繰り返し処理する。
【0077】
次に復号装置の説明を行う。図7に,第2の実施の形態に係る画像復号装置の概要を示す。以下,図5に示す第2の実施の形態の画像符号化装置で得られた符号化データを復号する手順を説明する。
【0078】
第2の実施の形態の画像復号装置は,符号化データ入力部401,予測モード復号部402,Skip予測モード判定部403,予測モード蓄積部404,動きベクトル蓄積部405,参照画像メモリ406,DirectMC部407,ForwardMC部408,BackwardMC部409,Bi−predictiveMC部416,予測誤差逆量子化/復号部410,スイッチ部412〜414を備える。
【0079】
ForwardMC部408では,前方向予測を行って予測画像を求め,BackwardMC部409では,後方向予測を行って予測画像を求め,DirectMC部407では,directモード予測を行って予測画像を求め,Bi−predictiveMC部416では,bi−predictiveモード予測を行って予測画像を求めるものとする。DirectMC部407にてdirectモードに使用する動きベクトルは,動きベクトル蓄積部405に蓄積されているものとする。
【0080】
Skip予測モード判定部403では,予測モード蓄積部404に蓄積された左,左上,上,右上のマクロブロックの予測モードから,図6のフローに従ってskipマクロブロック内の全てのブロックの予測モードを決定する。
【0081】
このような前提で現マクロブロックは次のように符号化される。まずSkip予測モード判定部403でskipマクロブロック内のブロックの予測モードを決定する。続いて予測モード復号部402で予測モードを復号する。まずCOD情報を復号する。1であった場合にはskipであり,0であった場合にはskipではない。CODが0の場合に各ブロックにさらに最大4ビットの予測モード情報を復号する。1の場合にはdirectモードであり,01の場合には前方向予測であり,001の場合には後方向予測であり,0001の場合にはbi−predictive予測となる。CODが1の場合には,Skip予測モード判定部403で決定した予測モードとなる。これを4ブロック分連続して復号する。
【0082】
続いて予測モードが前方向予測の場合には,ForwardMC部408にて予測画像を求め,後方向予測の場合には,BackwardMC部409にて予測画像を求め,directモードの場合には,DirectMC部407にて予測画像を求め,bi−predictiveモードの場合には,Bi−predictiveMC部416にて予測画像を求める。続いてskipではない場合には,予測誤差逆量子化/復号部410で予測誤差を逆量子化し復号し,予測誤差を使って復号画像を作成する。skipの場合には,予測画像がそのまま復号画像となる。復号画像を参照画像メモリ406に蓄積する。前方向予測と後方向予測とbi−predictiveモードの場合には復号した動きベクトルを動きベクトル蓄積部405に蓄積する。復号した予測モードは予測モード蓄積部404に蓄積する。
【0083】
以上の手順をすべてのマクロブロックに対して繰り返し処理する。
【0084】
なお,以上の第1および第2の実施の形態では,Skip予測モード判定部103,303等で,図2または図6のフローに従ってskip予測モードを求めたが,決定フローはこれに限るものではない。
【0085】
さらに,画面内の位置によってSkip予測モード判定部103,303等の決定フローを変更してもよい。例えば,画面外周のマクロブロックまたはブロックの場合には,Skip予測モード判定部103,303等で,図2または図6のフローに従わず,directモードで予測することも好適である。
【0086】
さらにまた,後方向予測における参照フレームの表示時刻が,現フレームよりも未来であるか過去であるかによって,Skip予測モード判定部103,303等の決定フローを変更してもよい。例えば後方向予測における参照フレームの表示時刻が現フレームよりも未来である場合には,図2または図6の決定フローに従い,後方向予測における参照フレームの表示時刻が現フレームよりも過去である場合には,常にdirectモードにすることも好適である。
【0087】
また,本実施の形態ではマクロブロックまたはブロック毎に予測誤差を符号化したが,複数フレーム分の画像情報をまとめて符号化しても良い。例えば,文献「石川ら,“マルチパラメータ動き補償を用いた動画像の3D/2Dハイブリッド符号化,”信学技報IE2001−76 ,pp.15−22,2001」のように複数フレーム分の画像情報をDCTしたり,文献「J.−R.Ohm,“Three−dimentional subband coding with motion compensation ,”IEEE Trans. ,Image Process.,vol.3 ,pp.559−571,1994」のように複数フレーム分の画像情報をWavelet変換しても良い。
【0088】
このように本実施の形態によれは,Bピクチャのskipマクロブロックのフレーム間予測方法を,隣接するマクロブロックまたはブロックの予測方法から適応的に変更することができる。
【0089】
【発明の効果】
本発明によれば,Bピクチャのskipマクロブロックのフレーム間予測方法を,隣接するマクロブロックまたはブロックの予測方法から適応的に変更することができる。これにより,従来Bピクチャをはさむ3フレーム間で動きが一定しない場合に,directモードによる動きベクトルでは予測誤差を低減することができない場合においても,skipマクロブロックのフレーム間予測モードをdirect以外に設定することが可能となり,隣接領域同士で画像内容に相関があることを利用して,符号化効率を向上することができる。
【図面の簡単な説明】
【図1】第1の実施の形態の画像符号化装置の例を示す図である。
【図2】第1の実施の形態のskip予測モード決定フローの例を示す図である。
【図3】第1の実施の形態の動き探索/符号化モード判定部の動作フローの例を示す図である。
【図4】第1の実施の形態の画像復号装置の例を示す図である。
【図5】第2の実施の形態の画像符号化装置の例を示す図である。
【図6】第2の実施の形態のskip予測モード決定フローの例を示す図である。
【図7】第2の実施の形態の画像復号装置の例を示す図である。
【図8】予測関係の例を説明するための図である。
【図9】directモードにおける動きベクトルの関係を説明するための図である。
【符号の説明】
101,301 画像入力部
102 動き探索/符号化モード判定部
202,402 予測モード復号部
302 再分割動き探索/符号化モード判定部
103,203,303,403 Skip予測モード判定部
104,204,304,404 予測モード蓄積部
105,205,305,405 動きベクトル蓄積部
106,206,306,406 参照画像メモリ
107,207,307,407 DirectMC部
108,208,308,408 ForwardMC部
109,209,309,409 BackwardMC部
110,310 予測誤差符号化/量子化部
210,410 予測誤差逆量子化/復号部
111,311 復号部
112〜114,212〜214,312〜314,412〜414 スイッチ部
315 領域予測モード判定部
316,416 Bi−predictiveMC部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique relating to video coding and decoding using a bidirectional inter-frame predictive coding method. In particular, the coding efficiency is improved by adaptively changing the inter-frame predictive method of a skip macro block of a B picture. TECHNICAL FIELD The present invention relates to a moving picture coding method, a moving picture decoding method, a moving picture coding apparatus, and a moving picture decoding apparatus capable of improving video quality.
[0002]
[Prior art]
Generally, in video coding, inter-frame predictive coding is used in order to realize high coding efficiency using correlation in the time direction. In the frame encoding mode, it is possible to predict from an I frame to be encoded without using correlation between frames, a P frame to be predicted from one frame encoded in the past, and two frames to be encoded in the past. There is a B frame. In particular, the video coding method H.264. In 263, decoded images for a plurality of frames are stored in the reference image memory, and a reference image can be selected and predicted from the memory.
[0003]
The P frame is predicted from a previously encoded frame, while the B frame can be predicted from two previously encoded frames. Of the two frames used as reference frames, a method of predicting from a more recent frame is called forward prediction, and a method of predicting from a more future frame is called backward prediction. The display time of the reference frame in the backward inter-frame prediction may be later than the current frame. In this case, after displaying the current frame, a reference frame for backward frame prediction is output. When predicting from two frames in B frames (bidirectional inter-frame prediction), image information from two frames is interpolated to generate image information for one frame to generate a predicted image.
[0004]
FIG. 8A1 shows an example of a prediction relationship of a moving image when the display time of a reference frame in the backward inter-frame prediction is in the future. When the coding modes of the first frame to the seventh frame are coded in the order of IBBPBBP, there is a prediction relationship shown in FIG. 8 (A1). As shown in (1), frames are encoded in the order of (1) (4) (2) (3) (7) (5) (6).
[0005]
FIG. 8B1 shows an example of a prediction relationship of a moving image when the display time of a reference frame in backward inter-frame prediction is in the past. When the encoding modes of the first frame to the seventh frame are encoded in the order of IPBBPBB, the prediction relationship shown in FIG. 8 (B1) is established. As shown in (1), frames are encoded in the order of (1) (2) (4) (3) (5) (7) (6).
[0006]
Furthermore, these coding modes can be designated for each area into which the image is divided, for example, a macroblock. Video coding system In H.263, there are only I macroblocks to be encoded using only the intra-frame image information in the I frame. In the P frame, there is a P macro block predicted from one frame coded in the past in addition to the I macro block. It is also possible to change the image to be referred for each macro block. Within a B frame, there is a B macroblock in addition to the I and P macroblocks. In the B macroblock, there are a forward prediction mode or a backward prediction mode in which prediction is performed from one frame coded in the past similarly to the P macroblock, and a bidirectional prediction mode in which prediction is performed from two frames.
[0007]
The bidirectional prediction mode includes a bi-predictive mode for encoding a motion vector indicating a reference position in each frame and a direct mode for not encoding. In the direct mode, a forward motion vector and a backward motion vector are calculated from motion vectors of macroblocks at the same position in a future frame to be referred to.
[0008]
FIG. 9 shows a relation diagram of motion vectors in the direct mode when the display time of the reference frame in the backward inter-frame prediction is in the future. In FIG. 9, it is assumed that P1 and P2 are already encoded frames, and Pc is an encoding target frame. Equation (1) shows a motion vector calculation formula when the motion vectors of the macroblocks between Pc, P1 and P2 are MVf and MVb, respectively. MVs is a motion vector of a macroblock between P1 and P2. Generally, the time interval between frames P1 and Pc is applied to N1, the time interval between frames Pc and P2 is applied to N2, and the time interval between frames P1 and P2 is applied to D.
[0009]
MVf = MVs × N1 / D (1-1)
MVb = MVs × N2 / D (1-2)
Since the motion vector is calculated according to the equation (1), the motion vector is not encoded in the direct mode.
[0010]
When encoding a motion vector of a macroblock, there is a method of encoding a difference from a motion vector of a surrounding macroblock. For example, the video encoding system H.264. In 263, a predicted motion vector PMV is created from the motion vectors (MV1, MV2, MV3) of the left, upper, and upper right macroblocks according to equation (2), and the difference from the PMV is encoded. Note that Median (a, b, c) finds an intermediate value among the values a, b, and c.
[0011]
PMV = Median (MV1, MV2, MV3) (2)
According to this method, when the change from the motion vector of the surrounding macroblock is small, the motion vector can be encoded with higher encoding efficiency.
[0012]
Also, a macroblock without coded data is called a skip macroblock. Video coding system In H.263, the skip macroblock in the P frame has a motion vector of 0 and has no prediction error. Therefore, an image at the same position in the reference frame is defined as a decoded image.
[0013]
The skip macro block in the B frame obtains a motion vector in the same manner as in the direct mode and has no prediction error. Therefore, an image obtained by interpolating the image information of the motion vector position calculated by Expression (1) is set as a decoded image.
[0014]
Generally, information on whether or not each macroblock is a skip macroblock, whether to perform intra-coding, and coding mode information indicating an inter-frame prediction method are coded. H. In H.263, 1-bit COD coding mode information indicating whether or not it is a skip macroblock is coded. If not skip, MCBPC coding mode information indicating whether to perform intra coding or an inter-frame prediction method is coded. I do. Therefore, in the case of a skip macro block, the information indicating the inter-frame prediction method, the motion vector, and the prediction error are not encoded. Video coding system In H.264, the skip macroblock does not encode COD encoding mode information, but performs run-length encoding of the number of consecutive skip macroblocks.
[0015]
[Problems to be solved by the invention]
Since the direct mode of the B frame is obtained from the motion vector of the subsequent P frame as shown in FIG. 9, it is effective when there is a constant speed motion between three frames. That is, in the case of a moving image captured by moving the camera in parallel at a constant speed, the prediction error can be greatly reduced by the motion vector in the direct mode. If there is no prediction error, it can be encoded as a skip macroblock. Since the skip macroblock is coded with COD information or run-length coded, the coding efficiency of the entire B frame can be improved.
[0016]
However, when the motion is not constant among the three frames, the prediction error cannot be reduced by the motion vector in the direct mode. Therefore, no skip macro block is generated, and the coding efficiency cannot be reduced.
[0017]
In view of the above point, the present invention provides a skip macro block (or a specific method) even when a prediction error cannot be reduced with a motion vector in the direct mode because the motion is not constant among three frames. Block), enabling the inter-frame prediction mode of the skip macroblock to be set to other than direct, and improving the coding efficiency by utilizing the fact that the image content is correlated between adjacent regions. And
[0018]
[Means for Solving the Problems]
In order to solve the above problems, the present invention uses the following method.
[0019]
According to a first aspect of the present invention, there is provided a moving image encoding method for dividing an input image into regions and encoding image information using one of a bidirectional inter-frame predictive coding method and a forward inter-frame predictive coding method. When encoding a region as a region having no inter-frame prediction mode coded data, motion vector coded data, and prediction error coded data, an inter-frame prediction method of an adjacent region satisfies a preset condition. The method is characterized in that an inter-frame prediction method of the current area is changed.
[0020]
The second invention divides an input image into regions, and divides the current region into frames using one of a bidirectional inter-frame predictive coding system, a forward inter-frame predictive coding system, and a backward inter-frame predictive coding system. When encoding as a region having no prediction mode coded data, motion vector coded data, and prediction error coded data, the frame of the current region is determined according to whether the inter-frame prediction method of the adjacent region satisfies a preset condition. The method is characterized in that the inter prediction method is changed.
[0021]
According to the first or second aspect of the present invention, even when the inter-frame prediction mode is not coded as in the case of the skip macro block, the inter-frame prediction mode of the adjacent area is set according to the preset condition. Can be changed. For example, there are the following two types of conditions. These may be combined.
[Condition a] Of the inter-frame prediction modes of the four adjacent regions on the left, upper left, upper, and upper right, the mode with the largest number of modes is also applied to the current region.
[Condition b] If there is an area of a specific inter-frame prediction mode on the four adjacent left, upper left, upper, and upper right, the same mode is applied to the current area.
[0022]
Further, in a case where a method of encoding a difference from a motion vector of a surrounding macroblock is applied in the forward prediction, the backward prediction, and the bidirectional prediction, a motion vector of a skip macroblock is applied as a zero vector. It is also possible to apply the PMV calculated from the equation (2).
[0023]
If there is a correlation in image content between adjacent regions, coding efficiency tends to be higher in the same inter-frame prediction mode. Therefore, conventionally, when the motion is not constant among the three frames including the B picture, the inter-frame prediction mode of the skip macroblock is set to other than direct even when the prediction error cannot be reduced by the motion vector in the direct mode. And encoding efficiency can be improved.
[0024]
According to a third aspect, in the first or second aspect, a direct mode in which no motion vector is encoded and a bi-predictive mode in which forward and backward motion vectors are encoded during bidirectional inter-frame predictive encoding. And an inter-frame prediction method for the current area is determined.
[0025]
According to the third aspect, when the inter-frame prediction mode is not coded as in the skip macro block, when the inter-frame prediction mode is obtained from the inter-frame prediction mode of the adjacent area, the direct mode is used as the bidirectional prediction. And bi-predictive mode. In the case of the direct mode, the motion vector can be obtained according to the equation (1), and in the case of the bi-predictive mode, the PMV obtained according to the equation (2) or the zero vector can be applied.
[0026]
Thereby, in the case of the bidirectional prediction mode, it is possible to change the inter-frame prediction mode more finely.
[0027]
In a fourth aspect based on the first, second, or third aspect, the current area is encoded as an area having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data. Changing the inter-frame prediction method for the re-divided region of the current region according to whether or not the inter-frame prediction method for the adjacent re-divided region satisfies a preset condition for each of the sub-regions obtained by further dividing the current region. It is characterized by.
[0028]
According to the fourth aspect, when the inter-frame prediction mode, the motion vector, and the prediction error are not encoded as in the skip macro block, the inter-frame prediction mode is changed for each smaller unit such as a block. be able to. As a result, the inter-frame prediction mode can be changed in smaller units than the macroblock.
[0029]
A fifth invention is a moving picture decoding method for decoding image information using a bidirectional inter-frame predictive coding method or a forward inter-frame predictive coding method for each divided area of an image. When decoding as an area without mode encoded data, motion vector encoded data and prediction error encoded data, the inter-frame prediction of the current area is performed according to whether the inter-frame prediction method of the adjacent area satisfies a preset condition. The method is characterized by changing.
[0030]
According to a sixth aspect of the present invention, there is provided a moving image decoding apparatus for decoding image information using a bidirectional inter-frame predictive coding method, a forward inter-frame predictive coding method, or a backward inter-frame predictive coding method for each divided area of an image. In the method, when decoding the current region as a region having no inter-frame prediction mode coded data, motion vector coded data, and prediction error coded data, whether the inter-frame prediction method of an adjacent region satisfies a preset condition. The method is characterized in that the inter-frame prediction method of the current area is changed depending on whether or not the frame is predicted.
[0031]
In a seventh aspect based on the fifth or sixth aspect, the bidirectional predictive decoding includes a direct mode in which no motion vector is decoded and a bi-predictive mode in which forward and backward motion vectors are decoded. Separately, an inter-frame prediction method for the current area is determined.
[0032]
According to an eighth aspect, in the fifth, sixth, or seventh aspect, the current area is decoded as an area having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data. Changing the inter-frame prediction method of the re-divided area of the current area according to whether the inter-frame prediction method of the adjacent re-divided area satisfies a preset condition for each sub-divided area obtained by further dividing the current area. Features.
[0033]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to the drawings.
[0034]
In the first embodiment, it is assumed that bidirectional prediction, forward prediction, and backward prediction are switched and coded for a B picture in macroblock units. Here, bidirectional prediction refers to the direct mode.
[0035]
First, the encoding device will be described. FIG. 1 shows an outline of an image encoding device according to the first embodiment. This image coding apparatus includes an image input unit 101, a motion search / coding mode determination unit 102, a Skip prediction mode determination unit 103, a prediction mode storage unit 104, a motion vector storage unit 105, a reference image memory 106, a DirectMC unit 107, It includes a ForwardMC unit 108, a BackwardMC unit 109, a prediction error encoding / quantization unit 110, a decoding unit 111, and switch units 112 to 114.
[0036]
The ForwardMC unit 108 performs forward prediction to obtain a predicted image, the BackwardMC unit 109 performs backward prediction to obtain a predicted image, and the DirectMC unit 107 performs bidirectional prediction to obtain a predicted image. It is assumed that the motion vector used in the direct mode by the DirectMC unit 107 is stored in the motion vector storage unit 105.
[0037]
The Skip prediction mode determination unit 103 calculates the current macroblock from the prediction modes of the left, upper left, upper, and upper right macroblocks stored in the prediction mode storage unit 104 in the motion search / coding mode determination unit 102. Determine the prediction mode for the block. FIG. 2 shows a flow of the determination.
[0038]
First, it is determined whether there is a direct macroblock at any of the left, upper left, upper, and upper right of the current macroblock (step S1). If there is a direct macroblock, the prediction mode of the skip macroblock is determined to be the direct mode (step S2).
[0039]
If there are no direct macroblocks on the left, upper left, upper, and upper right, the number Nf of forward predicted macroblocks and the number Nb of backward predicted macroblocks on the left, upper left, upper, and upper right are counted (step S3). A comparison is made between the number Nf of predicted macroblocks and the number Nb of backward predicted macroblocks (step S4).
[0040]
When the number of macroblocks Nf and Nb are equal, the prediction mode of the skip macroblock is determined to be the direct mode (step S2).
[0041]
If the number Nf of macroblocks is larger than Nb, the prediction mode of the skip macroblock is determined to be the forward prediction mode (step S5).
[0042]
If the number Nf of macroblocks is smaller than Nb, the prediction mode of the skip macroblock is determined to be the backward prediction mode (step S6).
[0043]
FIG. 3 shows an operation flow of the motion search / coding mode determination unit 102 according to the present embodiment. The motion search / coding mode determination unit 102 performs a motion search for forward prediction (step S10) and a motion search for backward prediction (step S11). In the motion search, the prediction error and the code amount of the motion vector are evaluated using Expression (3), and the position where the value becomes the smallest is determined as the motion vector in the prediction method. It is assumed that the motion vector encodes a difference obtained using Expression (2).
[0044]
Further, the evaluation value Dmb of the expression (3) relating to the direct mode, the forward prediction and the backward prediction is compared, and the case where the value is the smallest is determined as the prediction mode PM to be used (step S12). If the determined prediction mode PM is the same as the prediction mode determined to be applied to the Skip macroblock by the Skip prediction mode determination unit 103, the evaluation value obtained by Expression (3) satisfies Expression (4). It is checked whether or not it is satisfied (step S13). If the condition is satisfied, the current macroblock is skipped (step S14). If the condition is not satisfied, skip is not set (step S15).
[0045]
Note that A and B in Expression (3) are values that change depending on the quantization scale, p indicates a pixel, e [p] indicates a prediction error in the pixel p, and b (MV) indicates a motion vector. Indicates the code amount of the MV. The motion vector MV indicates a motion vector for forward prediction or a motion vector for backward prediction. THskip in equation (4) is a preset constant.
[0046]
Dmb = A * Σ | e [p] | + B * | b (MV) | (3)
(However, Σ indicates the sum of all pixels p in the macroblock.)
Dmb ≦ THskip (4)
The encoding method of the prediction mode is as follows. First, there is COD information (1 bit) indicating whether or not a skip is set. In the case of a skip, it is set to 1 and only that is set. If it is not skip, it is set to 0, and then information (2 bits) indicating forward prediction, backward prediction or bidirectional prediction is encoded. 01 indicates forward prediction, 10 indicates backward prediction, and 11 indicates bidirectional prediction.
[0047]
Under such a premise, the current macroblock is encoded as follows. First, the skip prediction mode determination unit 103 determines a prediction mode of a skip macro block. Subsequently, the motion search / coding mode determination unit 102 determines a prediction mode. At the same time, in the case of forward prediction and backward prediction, a motion vector is also obtained. If the determined prediction mode is a skip macroblock prediction mode, it is determined whether or not the macroblock is a skip. The determined prediction mode is stored in the prediction mode storage unit 104.
[0048]
Subsequently, the switch units 112 and 113 are switched, and if it is determined to be forward prediction, a predicted image is obtained by the ForwardMC unit 108, and if it is determined to be backward prediction, a predicted image is obtained by the Backward MC unit 109. If it is determined that the mode is the direct mode, the DirectMC unit 107 obtains a predicted image. Here, in the case of skip, a motion vector when the difference is set to 0 in Expression (2) is used.
[0049]
Subsequently, in the case of not skip, the prediction image is sent to the prediction error coding / quantization unit 110 through the switch unit 113, and the prediction error coding / quantization unit 110 calculates the prediction error between the current image and the prediction image. It is coded and quantized.
[0050]
In the case of not skip, the decoding unit 111 inversely quantizes and decodes the prediction error, and obtains a decoded image using the predicted image obtained by the ForwardMC unit 108, the BackwardMC unit 109, or the DirectMC unit 107. In the case of skip, a predicted image obtained by the ForwardMC unit 108, the BackwardMC unit 109, or the DirectMC unit 107 is used as a decoded image. The decoded image is stored in the reference image memory 106. In the case of forward prediction and backward prediction, a motion vector is stored in the motion vector storage unit 105.
[0051]
The above procedure is repeated for all macroblocks.
[0052]
Next, the decoding device will be described. FIG. 4 shows an outline of the image decoding apparatus according to the first embodiment. A procedure for decoding encoded data obtained by the embodiment of the image encoding device shown in FIG. 1 will be described.
[0053]
The image decoding device includes an encoded data input unit 201, a prediction mode decoding unit 202, a Skip prediction mode determination unit 203, a prediction mode storage unit 204, a motion vector storage unit 205, a reference image memory 206, a DirectMC unit 207, a ForwardMC unit 208, A Backward MC unit 209, a prediction error inverse quantization / decoding unit 210, and switch units 212 to 214 are provided.
[0054]
The ForwardMC unit 208 performs forward prediction to obtain a predicted image, the BackMC unit 209 performs backward prediction to obtain a predicted image, and the DirectMC unit 207 performs bidirectional prediction to obtain a predicted image. It is assumed that the motion vector used in the direct mode by the DirectMC unit 207 is stored in the motion vector storage unit 205.
[0055]
The Skip prediction mode determination unit 203 determines the prediction mode of the Skip macroblock from the prediction modes of the left, upper left, upper, and upper right macroblocks stored in the prediction mode storage unit 204 according to the flow of FIG.
[0056]
On this assumption, the current macroblock is decoded as follows. First, the skip prediction mode determination unit 203 determines a prediction mode of a skip macro block. Subsequently, the prediction mode decoding unit 202 decodes the prediction mode. First, the COD information is decrypted. If COD is 1, it is skip, and if it is 0, it is not skip. If COD is 0, two more bits are decoded. 01 indicates forward prediction, 10 indicates backward prediction, and 11 indicates bidirectional prediction. When COD is 1, the prediction mode determined by the Skip prediction mode determination unit 203 is used.
[0057]
Subsequently, when the prediction mode is forward prediction, a forward MC unit 208 obtains a predicted image, when backward prediction is performed, a predicted image is obtained by the Backward MC unit 209, and when the direct mode is used, the DirectMC unit is obtained. At 207, a predicted image is obtained. Here, in the case of skip, a motion vector when the difference is set to 0 in Expression (2) is used.
[0058]
Subsequently, in the case of not skip, the prediction error inverse quantization / decoding unit 210 dequantizes and decodes the prediction error, and creates a decoded image using the prediction error. In the case of skip, the predicted image becomes a decoded image as it is. The decoded image is stored in the reference image memory 206. In the case of forward prediction and backward prediction, the decoded motion vector is stored in the motion vector storage unit 205. The decoded prediction mode is stored in the prediction mode storage unit 204.
[0059]
The above procedure is repeated for all macroblocks.
[0060]
Next, a second embodiment will be described. In the second embodiment, it is assumed that a B picture is coded by switching among forward prediction, backward prediction, direct mode, and bi-predictive mode in block units.
[0061]
First, the encoding device will be described. FIG. 5 shows an outline of an image encoding device according to the second embodiment. The image coding apparatus according to the second embodiment includes an image input unit 301, a sub-division motion search / coding mode determination unit 302, a Skip prediction mode determination unit 303, a prediction mode storage unit 304, an area prediction mode determination unit 315, It has a motion vector storage unit 305, a reference image memory 306, a DirectMC unit 307, a Bi-predictive MC unit 316, a ForwardMC unit 308, a BackwardMC unit 309, a prediction error encoding / quantization unit 310, a decoding unit 311 and a switch unit 312 to 314. .
[0062]
The ForwardMC unit 308 performs forward prediction to obtain a predicted image, the BackwardMC unit 309 performs backward prediction to obtain a predicted image, and the DirectMC unit 307 performs direct mode prediction to obtain a predicted image. Predictive MC section 316 performs bi-predictive mode prediction to obtain a predicted image. It is assumed that the motion vector used in the direct mode by the DirectMC unit 307 is stored in the motion vector storage unit 305.
[0063]
The Skip prediction mode determination unit 303 determines the prediction modes of all the blocks in the Skip macro block from the prediction modes of the left, upper left, upper, and upper right blocks stored in the prediction mode storage unit 304. FIG. 6 shows a flow of the determination.
[0064]
First, it is determined whether there is a direct block at any of the left, upper left, upper, and upper right of the current block (step S20). If there is a direct block, the prediction mode of the block in the skip macro block is determined to be the direct mode (step S25).
[0065]
If there are no direct blocks on the left, upper left, upper, and upper right, the number Nf of forward predicted blocks and the number Nb of backward predicted blocks on the left, upper left, upper, and upper right are counted (step S21), and the number of forward predicted blocks is counted. It is determined whether both Nf and the number Nb of backward prediction blocks are 0 (step S22). If Nf = 0 and Nb = 0, the prediction mode of the block in the skip macroblock is determined to be the direct mode (step S25).
[0066]
If Nf = 0 and Nb = 0 are not satisfied, it is determined whether Nf> 0 and Nb> 0 (step S23). If Nf> 0 and Nb> 0, the prediction mode of the block in the skip macroblock is determined to be the bi-predictive mode (step S25).
[0067]
Next, it is determined whether or not Nf> 0 and Nb = 0 (step S24). If Nf> 0 and Nb = 0, the prediction mode of the block in the skip macroblock is set to the forward prediction mode. It is determined (step S27).
[0068]
If Nf> 0 and Nb = 0, then Nf = 0 and Nb> 0. In this case, the prediction mode of the block in the skip macroblock is determined as the backward prediction mode (step S28).
[0069]
The subdivision motion search / coding mode determination unit 302 performs a motion search for forward prediction and a motion search for backward prediction for each block. In the motion search, the prediction error and the code amount of the motion vector are evaluated using Expression (5) described later, and the position where the value becomes the smallest is determined as the motion vector in the prediction method. In the bi-predictive mode, a prediction error is obtained using a motion vector obtained by a motion search for forward prediction and backward prediction, and an evaluation value is obtained by Expression (6). The above processing is performed on all the blocks in the macro block.
[0070]
The region prediction mode determination unit 315 compares the evaluation values of the bi-predictive mode, the direct mode, the forward prediction, and the backward prediction obtained by the subdivision motion search / coding mode determination unit 302 for each block. Then, the prediction mode when the value is the smallest is obtained. The evaluation value summed by the macroblock at this time is M1. Further, the evaluation value of the prediction mode determined by the Skip prediction mode determination unit 303 is calculated by the equation (5) or (6). The evaluation value summed by the macroblock at this time is defined as M2.
[0071]
It is checked whether the evaluation value M1 and the evaluation value M2 satisfy Expression (7). If the evaluation value M1 and the evaluation value M2 satisfy the expression (7), the current macroblock is skipped. Note that A, B, and C in Expressions (5) and (6) are values that change depending on the quantization scale, p indicates a pixel, and e [p] indicates a prediction error in the pixel p. , B (MV) indicate the code amount of the motion vector MV. The motion vector MVf indicates a forward prediction motion vector, the motion vector MVb indicates a backward prediction motion vector, and the motion vector MV indicates a forward prediction motion vector or a backward prediction motion vector. THskip in equation (7) is a preset constant. Σ represents the sum of all pixels p in the block.
[0072]
Figure 2004032355
The encoding method of the prediction mode is as follows. First, there is COD information (1 bit) indicating whether it is skip or not. In the case of skip, it is set to 1 and only that. If it is not skip, it is set to 0, and then information (variable length 4 bits) indicating forward prediction, backward prediction or bidirectional prediction of each block is encoded. A value of 1 indicates the direct mode, a value of 01 indicates the forward prediction, a value of 001 indicates the backward prediction, and a value of 0001 indicates the bi-predictive mode. This is coded continuously for four blocks.
[0073]
On this assumption, the current macroblock is encoded as follows. First, the Skip prediction mode determination unit 303 determines the prediction mode of each block in the Skip macroblock. Subsequently, an evaluation value in each prediction mode is obtained by the subdivision motion search / coding mode determination unit 302. At the same time, in the case of forward prediction and backward prediction, a motion vector is also obtained. The region prediction mode determination unit 315 determines the prediction mode of each block in the macro block, and further determines whether the block is a skip. The determined prediction mode is stored in the prediction mode storage unit 304.
[0074]
Subsequently, when it is determined to be forward prediction, a predicted image is obtained by the ForwardMC unit 308, and when it is determined to be backward prediction, a predicted image is obtained by the BackMC unit 309, and the direct mode is determined. In this case, a predicted image is obtained by the DirectMC unit 307, and when it is determined that the mode is the bi-predictive mode, the predicted image is obtained by the Bi-predictive MC unit 316. Here, in the case of skip, a motion vector when the difference is set to 0 in Expression (2) is used. Subsequently, in the case of not skip, the prediction error encoding / quantization unit 310 obtains a prediction error between the current image and the predicted image, encodes and quantizes the prediction error.
[0075]
When the decoding is not skip, the decoding unit 311 decodes the prediction error by dequantizing and decoding the prediction error, using the prediction image obtained by the ForwardMC unit 308, the BackwardMC unit 309, the DirectMC unit 307, or the Bi-predictiveMC unit 316. Ask for an image. In the case of skip, a predicted image obtained by the ForwardMC unit 308, the BackwardMC unit 309, the DirectMC unit 307, or the Bi-predictiveMC unit 316 is used as a decoded image. The decoded image is stored in the reference image memory 306. In the case of forward prediction, backward prediction, and bi-predictive mode, the motion vector is stored in the motion vector storage unit 305.
[0076]
The above procedure is repeated for all macroblocks.
[0077]
Next, the decoding device will be described. FIG. 7 shows an outline of an image decoding apparatus according to the second embodiment. Hereinafter, a procedure for decoding the encoded data obtained by the image encoding device according to the second embodiment shown in FIG. 5 will be described.
[0078]
The image decoding apparatus according to the second embodiment includes an encoded data input unit 401, a prediction mode decoding unit 402, a Skip prediction mode determination unit 403, a prediction mode storage unit 404, a motion vector storage unit 405, a reference image memory 406, and DirectMC. A unit 407, a ForwardMC unit 408, a BackwardMC unit 409, a Bi-predictiveMC unit 416, a prediction error inverse quantization / decoding unit 410, and switches 412 to 414.
[0079]
The ForwardMC unit 408 performs forward prediction to obtain a predicted image, the BackMC unit 409 performs backward prediction to obtain a predicted image, and the DirectMC unit 407 performs direct mode prediction to obtain a predicted image. Predictive MC section 416 performs bi-predictive mode prediction to obtain a predicted image. It is assumed that the motion vector used in the direct mode by the DirectMC unit 407 is stored in the motion vector storage unit 405.
[0080]
The Skip prediction mode determination unit 403 determines the prediction modes of all the blocks in the Skip macroblock from the prediction modes of the left, upper left, upper, and upper right macroblocks stored in the prediction mode storage unit 404 according to the flow of FIG. I do.
[0081]
On this assumption, the current macroblock is encoded as follows. First, the Skip prediction mode determination unit 403 determines the prediction mode of a block in the Skip macroblock. Subsequently, the prediction mode decoding unit 402 decodes the prediction mode. First, the COD information is decoded. If it is 1, it is a skip, and if it is 0, it is not a skip. When COD is 0, the prediction mode information of up to 4 bits is further decoded for each block. In the case of 1, direct mode is set, in the case of 01, forward prediction, in the case of 001, backward prediction, and in the case of 0001, bi-predictive prediction. When COD is 1, the prediction mode determined by the Skip prediction mode determination unit 403 is used. This is continuously decoded for four blocks.
[0082]
Subsequently, when the prediction mode is forward prediction, a forward MC unit 408 obtains a predicted image, when backward prediction is performed, a predicted image is obtained by a Backward MC unit 409, and when the direct mode is used, the DirectMC unit is obtained. At 407, a predicted image is obtained, and in the case of the bi-predictive mode, a predicted image is obtained at the Bi-predictive MC unit 416. Subsequently, in the case of not skip, the prediction error inverse quantization / decoding unit 410 dequantizes and decodes the prediction error, and creates a decoded image using the prediction error. In the case of skip, the predicted image becomes a decoded image as it is. The decoded image is stored in the reference image memory 406. In the case of forward prediction, backward prediction, and bi-predictive mode, the decoded motion vector is stored in the motion vector storage unit 405. The decoded prediction mode is stored in the prediction mode storage unit 404.
[0083]
The above procedure is repeated for all macroblocks.
[0084]
In the first and second embodiments, the skip prediction mode is determined by the skip prediction mode determination units 103 and 303 according to the flow of FIG. 2 or FIG. 6, but the determination flow is not limited to this. Absent.
[0085]
Further, the determination flow of the Skip prediction mode determination units 103 and 303 may be changed depending on the position in the screen. For example, in the case of a macroblock or a block on the outer periphery of the screen, it is also preferable that the Skip prediction mode determination units 103 and 303 perform prediction in the direct mode without following the flow of FIG. 2 or FIG.
[0086]
Furthermore, the determination flow of the Skip prediction mode determination units 103 and 303 may be changed depending on whether the display time of the reference frame in the backward prediction is later or later than the current frame. For example, when the display time of the reference frame in the backward prediction is later than the current frame, the display time of the reference frame in the backward prediction is later than the current frame according to the determination flow of FIG. 2 or FIG. It is also preferable to always use the direct mode.
[0087]
Further, in the present embodiment, the prediction error is encoded for each macroblock or block, but image information for a plurality of frames may be encoded collectively. For example, as described in the document “Ishikawa et al.,“ 3D / 2D Hybrid Coding of Moving Images Using Multi-Parameter Motion Compensation, ”IEICE Technical Report IE 2001-76, pp. 15-22, 2001” As described in the literature "J.-R. Ohm," Three-dimensional subband coding with motion compensation, "IEEE Trans., Image Process., Vol. 3, Vol. 3, pp. 559-57. The image information of the frame may be subjected to Wavelet conversion.
[0088]
As described above, according to the present embodiment, the inter-frame prediction method of a skip macro block of a B picture can be adaptively changed from the prediction method of an adjacent macro block or block.
[0089]
【The invention's effect】
According to the present invention, the inter-frame prediction method of a skip macro block of a B picture can be adaptively changed from the prediction method of an adjacent macro block or a block. Accordingly, even when the motion is not constant among the three frames including the conventional B picture and the prediction error cannot be reduced by the motion vector in the direct mode, the inter-frame prediction mode of the skip macroblock is set to other than direct. It is possible to improve the coding efficiency by utilizing the fact that the image content is correlated between adjacent regions.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an image encoding device according to a first embodiment.
FIG. 2 is a diagram illustrating an example of a skip prediction mode determination flow according to the first embodiment.
FIG. 3 is a diagram illustrating an example of an operation flow of a motion search / coding mode determination unit according to the first embodiment.
FIG. 4 is a diagram illustrating an example of an image decoding device according to the first embodiment.
FIG. 5 is a diagram illustrating an example of an image encoding device according to a second embodiment.
FIG. 6 is a diagram illustrating an example of a skip prediction mode determination flow according to the second embodiment.
FIG. 7 is a diagram illustrating an example of an image decoding device according to a second embodiment.
FIG. 8 is a diagram illustrating an example of a prediction relationship.
FIG. 9 is a diagram for explaining a relationship between motion vectors in a direct mode.
[Explanation of symbols]
101, 301 Image input unit
102 Motion search / coding mode determination unit
202, 402 Prediction mode decoding unit
302 Subdivision motion search / coding mode determination unit
103, 203, 303, 403 Skip prediction mode determination unit
104, 204, 304, 404 prediction mode storage unit
105, 205, 305, 405 Motion vector storage unit
106, 206, 306, 406 Reference image memory
107, 207, 307, 407 DirectMC section
108,208,308,408 ForwardMC part
109, 209, 309, 409 Backward MC section
110,310 Prediction error coding / quantization unit
210, 410 prediction error inverse quantization / decoding unit
111, 311 decoding unit
112-114, 212-214, 312-314, 412-414 Switch section
315 Area prediction mode determination unit
316,416 Bi-predictive MC section

Claims (12)

入力画像を領域に分割し,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式を使って画像情報を符号化する動画像符号化方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,
隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更する
ことを特徴とする動画像符号化方法。
A moving image encoding method for dividing an input image into regions and encoding image information using a bidirectional inter-frame predictive coding method or a forward inter-frame predictive coding method.
When encoding the current area as an area having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
A moving picture coding method characterized by changing an inter-frame prediction method of a current area according to whether or not an inter-frame prediction method of an adjacent area satisfies a preset condition.
入力画像を領域に分割し,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を符号化する動画像符号化方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,
隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更する
ことを特徴とする動画像符号化方法。
A moving image encoding method for dividing an input image into regions and encoding image information using a bidirectional interframe predictive coding method, a forward interframe predictive coding method, or a backward interframe predictive coding method,
When encoding the current area as an area having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
A moving picture coding method characterized by changing an inter-frame prediction method of a current area according to whether or not an inter-frame prediction method of an adjacent area satisfies a preset condition.
請求項1または請求項2に記載の動画像符号化方法において,
両方向フレーム間予測符号化時に,動きベクトルを符号化しないダイレクト・モードと,前方向と後方向の動きベクトルを符号化するバイプレディクティブ・モードとを区別して,現領域のフレーム間予測方法を決定する
ことを特徴とする動画像符号化方法。
In the moving picture coding method according to claim 1 or 2,
At the time of bidirectional inter-frame prediction encoding, a direct mode in which no motion vector is encoded and a bi-predictive mode in which forward and backward motion vectors are encoded are distinguished to determine an inter-frame prediction method of the current area. A moving picture coding method characterized in that:
請求項1,請求項2または請求項3に記載の動画像符号化方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として符号化する場合に,
現領域をさらに分割した再分割領域毎に,隣接した再分割領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域の再分割領域のフレーム間予測方法を変更する
ことを特徴とする動画像符号化方法。
In the moving picture encoding method according to claim 1, claim 2, or claim 3,
When encoding the current area as an area having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
The method of changing the inter-frame prediction method of the re-divided area of the current area is performed according to whether the inter-frame prediction method of the adjacent re-divided area satisfies a preset condition for each sub-divided area obtained by further dividing the current area. Moving image encoding method.
画像を分割した領域毎に,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式を使って画像情報を復号する動画像復号方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,
隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更する
ことを特徴とする動画像復号方法。
In a moving image decoding method for decoding image information using a bidirectional inter-frame predictive coding method or a forward inter-frame predictive coding method for each divided region of an image,
When decoding the current region as a region having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
A moving picture decoding method characterized by changing an inter-frame prediction method of a current area according to whether an inter-frame prediction method of an adjacent area satisfies a preset condition.
画像を分割した領域毎に,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を復号する動画像復号方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,
隣接領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域のフレーム間予測方法を変更する
ことを特徴とする動画像復号方法。
In a moving image decoding method for decoding image information using a bidirectional inter-frame predictive coding method, a forward inter-frame predictive coding method, or a backward inter-frame predictive coding method for each divided region of an image,
When decoding the current region as a region having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
A moving picture decoding method characterized by changing an inter-frame prediction method of a current area according to whether an inter-frame prediction method of an adjacent area satisfies a preset condition.
請求項5または請求項6に記載の動画像復号方法において,両方向フレーム間予測復号時に,動きベクトルを復号しないダイレクト・モードと,前方向と後方向の動きベクトルを復号するバイプレディクティブ・モードとを区別して,現領域のフレーム間予測方法を決定する
ことを特徴とする動画像復号方法。
In the moving picture decoding method according to claim 5 or 6, the bidirectional inter-frame predictive decoding includes a direct mode in which no motion vector is decoded and a bi-predictive mode in which forward and backward motion vectors are decoded. A moving picture decoding method characterized by determining an inter-frame prediction method for a current area in distinction.
請求項5,請求項6または請求項7に記載の動画像復号方法において,
現領域をフレーム間予測モード符号化データと動きベクトル符号化データと予測誤差符号化データを持たない領域として復号する場合に,
現領域をさらに分割した再分割領域毎に,隣接した再分割領域のフレーム間予測方法が予め設定した条件を満たすかどうかに従って,現領域の再分割領域のフレーム間予測方法を変更する
ことを特徴とする動画像復号方法。
In the moving picture decoding method according to claim 5, claim 6, or claim 7,
When decoding the current region as a region having no inter-frame prediction mode encoded data, motion vector encoded data, and prediction error encoded data,
The method of changing the inter-frame prediction method of the re-divided area of the current area is performed according to whether the inter-frame prediction method of the adjacent re-divided area satisfies a preset condition for each sub-divided area obtained by further dividing the current area. Moving image decoding method.
入力画像を領域に分割し,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を符号化する動画像符号化装置において,
領域毎の画像を入力する画像入力部と,
既に符号化した領域のフレーム間予測モードを蓄積する予測モード蓄積部と,前記予測モード蓄積部に蓄積した予測モードから,予め設定した条件に従い,現領域を動きベクトル符号化データと予測誤差符号化データを持たない領域とする場合のフレーム間予測モードを決定するスキップ予測モード判定部と,
入力画像と参照画像との間で動き探索を行い,前方向予測モードまたは後方向予測モードまたは両方向予測モードにおける予測誤差を求め,予測誤差を使っていずれの予測モードで符号化するのかを判定し,判定した予測モードに従って符号化する動きベクトルを決定し,さらに前記スキップ予測モード判定部で決定された予測モードに関しては,動きベクトルと予測誤差を符号化するかどうかを決定する動き探索/符号化モード判定部と,
前方向予測モードで動き補償に用いる予測画像を作成する前方向動き補償部と,
後方向予測モードで動き補償に用いる予測画像を作成する後方向動き補償部と,
両方向予測モードで動き補償に用いる予測画像を作成する両方向動き補償部と,
予測誤差を求めて符号化して量子化する予測誤差符号化/量子化部と,
量子化された符号化データを復号して復号画像を作成する復号部と,
復号画像を蓄積する参照画像メモリと,
動きベクトルを蓄積する動きベクトル蓄積部と,
を備えることを特徴とする動画像符号化装置。
A moving image encoding apparatus that divides an input image into regions and encodes image information using a bidirectional interframe predictive coding method, a forward interframe predictive coding method, or a backward interframe predictive coding method,
An image input unit for inputting an image for each area;
A prediction mode accumulation unit for accumulating an inter-frame prediction mode of an already encoded region, and a prediction mode accumulated in the prediction mode accumulation unit, wherein the current region is subjected to motion vector encoded data and prediction error encoding according to preset conditions. A skip prediction mode determination unit that determines an inter-frame prediction mode when the region has no data;
A motion search is performed between the input image and the reference image to determine a prediction error in the forward prediction mode, the backward prediction mode, or the bidirectional prediction mode, and the prediction error is used to determine which prediction mode to use for encoding. A motion vector to be coded according to the determined prediction mode, and for the prediction mode determined by the skip prediction mode determination section, motion search / coding to determine whether to encode the motion vector and the prediction error. A mode determination unit,
A forward motion compensation unit for creating a predicted image used for motion compensation in the forward prediction mode,
A backward motion compensator for creating a predicted image used for motion compensation in the backward prediction mode,
A bidirectional motion compensator for generating a predicted image used for motion compensation in the bidirectional prediction mode,
A prediction error encoding / quantizing unit for obtaining a prediction error, encoding and quantizing the prediction error,
A decoding unit that decodes the quantized encoded data to create a decoded image;
A reference image memory for storing the decoded image,
A motion vector storage unit for storing motion vectors;
A moving picture coding apparatus comprising:
入力画像を領域に分割し,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を符号化する動画像符号化装置において,
領域毎の画像を入力する画像入力部と,
既に符号化した領域のフレーム間予測モードを蓄積する予測モード蓄積部と,
前記予測モード蓄積部に蓄積した予測モードから,予め設定した条件に従い,現領域を動きベクトル符号化データと予測誤差符号化データを持たない領域とする場合のフレーム間予測モードを決定するスキップ予測モード判定部と,
入力画像と参照画像との間で動き探索を行い,前方向予測モードまたは後方向予測モードまたはダイレクト・モードまたはバイプレディクティブ・モードにおける予測誤差を求め,予測誤差を使っていずれの予測モードで符号化するのかを判定し,判定した予測モードに従って符号化する動きベクトルを決定し,さらに前記スキップ予測モード判定部で決定された予測モードに関しては,動きベクトルと予測誤差を符号化するかどうかを決定する動き探索/符号化モード判定部と,
前方向予測モードで動き補償に用いる予測画像を作成する前方向動き補償部と,
後方向予測モードで動き補償に用いる予測画像を作成する後方向動き補償部と,
ダイレクト・モードで動き補償に用いる予測画像を作成するダイレクト動き補償部と,
バイプレディクティブ・モードで動き補償に用いる予測画像を作成するバイプレディクティブ動き補償部と,
予測誤差を求めて符号化して量子化する予測誤差符号化/量子化部と,
量子化された符号化データを復号して復号画像を作成する復号部と,
復号画像を蓄積する参照画像メモリと,
動きベクトルを蓄積する動きベクトル蓄積部と,
を備えることを特徴とする動画像符号化装置。
A moving image encoding apparatus that divides an input image into regions and encodes image information using a bidirectional interframe predictive coding method, a forward interframe predictive coding method, or a backward interframe predictive coding method,
An image input unit for inputting an image for each area;
A prediction mode storage unit for storing the inter-frame prediction mode of the already coded region;
A skip prediction mode for determining an inter-frame prediction mode when the current region is a region having no motion vector coded data and no prediction error coded data from a prediction mode stored in the prediction mode storage unit according to a preset condition. A judgment unit;
Performs motion search between the input image and the reference image, finds the prediction error in forward prediction mode, backward prediction mode, direct mode, or bipredictive mode, and encodes in any prediction mode using the prediction error Is determined, a motion vector to be encoded is determined according to the determined prediction mode, and for the prediction mode determined by the skip prediction mode determination unit, it is determined whether to encode the motion vector and the prediction error. A motion search / coding mode determination unit,
A forward motion compensation unit for creating a predicted image used for motion compensation in the forward prediction mode,
A backward motion compensator for creating a predicted image used for motion compensation in the backward prediction mode,
A direct motion compensation unit for creating a predicted image used for motion compensation in the direct mode,
A bi-predictive motion compensation unit for creating a predicted image used for motion compensation in a bi-predictive mode,
A prediction error encoding / quantizing unit for obtaining a prediction error, encoding and quantizing the prediction error,
A decoding unit that decodes the quantized encoded data to create a decoded image;
A reference image memory for storing the decoded image,
A motion vector storage unit for storing motion vectors;
A moving picture coding apparatus comprising:
入力画像を領域に分割し,領域をさらに分割した再分割領域毎にフレーム間予測方法を変更して画像情報を符号化する動画像符号化装置において,
領域毎の画像を入力する画像入力部と,
既に符号化した領域のフレーム間予測モードを蓄積する予測モード蓄積部と,
前記予測モード蓄積部に蓄積した予測モードから,予め設定した条件に従い,現再分割領域を動きベクトル符号化データと予測誤差符号化データとを持たない領域とする場合のフレーム間予測モードを決定するスキップ予測モード判定部と,
現再分割領域において,入力画像と参照画像との間で動き探索を行い,前方向予測モードまたは後方向予測モードまたはダイレクト・モードまたはバイプレディクティブ・モードにおける予測誤差を求める再分割動き探索/符号化モード判定部と,
現領域内のすべての再分割領域に対して再分割動き探索/符号化モード判定部で得られる予測誤差と動きベクトルを使い,領域内の各再分割領域の予測モードを決定し,さらに領域をスキップとするかどうかを決定する領域予測モード判定部と,
前方向予測モードで動き補償に用いる予測画像を作成する前方向動き補償部と,
後方向予測モードで動き補償に用いる予測画像を作成する後方向動き補償部と,
ダイレクト・モードで動き補償に用いる予測画像を作成するダイレクト動き補償部と,
バイプレディクティブ・モードで動き補償に用いる予測画像を作成するバイプレディクティブ動き補償部と,
予測誤差を求めて符号化して量子化する予測誤差符号化/量子化部と,
量子化された符号化データを復号して復号画像を作成する復号部と,
復号画像を蓄積する参照画像メモリと,
動きベクトルを蓄積する動きベクトル蓄積部と,
を備えることを特徴とする動画像符号化装置。
In a moving image encoding apparatus that divides an input image into regions, encodes image information by changing an inter-frame prediction method for each of the subdivided regions into which the region is further divided,
An image input unit for inputting an image for each area;
A prediction mode storage unit for storing the inter-frame prediction mode of the already coded region;
From the prediction modes stored in the prediction mode storage unit, an inter-frame prediction mode is determined according to a preset condition when the current subdivision region is a region having no motion vector coded data and no prediction error coded data. A skip prediction mode determination unit,
In the current subdivision region, a motion search is performed between an input image and a reference image, and a subdivision motion search / encoding for obtaining a prediction error in a forward prediction mode, a backward prediction mode, a direct mode, or a bipredictive mode. A mode determination unit,
Using the prediction error and the motion vector obtained by the subdivision motion search / coding mode determination unit for all subdivision regions in the current region, the prediction mode of each subdivision region in the region is determined. An area prediction mode determining unit for determining whether to skip,
A forward motion compensation unit for creating a predicted image used for motion compensation in the forward prediction mode,
A backward motion compensator for creating a predicted image used for motion compensation in the backward prediction mode,
A direct motion compensation unit for creating a predicted image used for motion compensation in the direct mode,
A bi-predictive motion compensation unit for creating a predicted image used for motion compensation in a bi-predictive mode,
A prediction error encoding / quantizing unit for obtaining a prediction error, encoding and quantizing the prediction error,
A decoding unit that decodes the quantized encoded data to create a decoded image;
A reference image memory for storing the decoded image,
A motion vector storage unit for storing motion vectors;
A moving picture coding apparatus comprising:
画像を分割した領域毎に,両方向フレーム間予測符号化方式または前方向フレーム間予測符号化方式または後方向フレーム間予測符号化方式を使って画像情報を復号する動画像復号装置において,
予測モードを復号する予測モード復号部と,
既に復号した領域のフレーム間予測モードを蓄積する予測モード蓄積部と,
前記予測モード蓄積部に蓄積した予測モードから,予め設定した条件に従い,現領域を動きベクトル符号化データと予測誤差符号化データを持たない領域とする場合のフレーム間予測モードを決定するスキップ予測モード判定部と,
前方向予測モードで動き補償に用いる予測画像を作成する前方向動き補償部と,
後方向予測モードで動き補償に用いる予測画像を作成する後方向動き補償部と,
ダイレクト・モードで動き補償に用いる予測画像を作成するダイレクト動き補償部と,
バイプレディクティブ・モードで動き補償に用いる予測画像を作成するバイプレディクティブ・動き補償部と,
予測誤差を逆量子化して復号する予測誤差逆量子化/復号部と,
復号画像を蓄積する参照画像メモリと,
動きベクトルを蓄積する動きベクトル蓄積部と,
を備えることを特徴とする動画像復号装置。
In a moving image decoding apparatus that decodes image information using a bidirectional inter-frame predictive coding method, a forward inter-frame predictive coding method, or a backward inter-frame predictive coding method for each divided region of an image,
A prediction mode decoding unit for decoding a prediction mode;
A prediction mode storage unit for storing the inter-frame prediction mode of the already decoded area;
A skip prediction mode for determining an inter-frame prediction mode when the current region is a region having no motion vector coded data and no prediction error coded data from a prediction mode stored in the prediction mode storage unit according to a preset condition. A judgment unit;
A forward motion compensation unit for creating a predicted image used for motion compensation in the forward prediction mode,
A backward motion compensator for creating a predicted image used for motion compensation in the backward prediction mode,
A direct motion compensation unit for creating a predicted image used for motion compensation in the direct mode,
A bi-predictive / motion compensation unit for creating a predicted image used for motion compensation in a bi-predictive mode,
A prediction error inverse quantization / decoding unit for inversely quantizing and decoding the prediction error;
A reference image memory for storing the decoded image,
A motion vector storage unit for storing motion vectors;
A moving picture decoding apparatus comprising:
JP2002185661A 2002-06-26 2002-06-26 Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus Expired - Lifetime JP3866624B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002185661A JP3866624B2 (en) 2002-06-26 2002-06-26 Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002185661A JP3866624B2 (en) 2002-06-26 2002-06-26 Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus

Publications (2)

Publication Number Publication Date
JP2004032355A true JP2004032355A (en) 2004-01-29
JP3866624B2 JP3866624B2 (en) 2007-01-10

Family

ID=31181221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002185661A Expired - Lifetime JP3866624B2 (en) 2002-06-26 2002-06-26 Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus

Country Status (1)

Country Link
JP (1) JP3866624B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005120077A1 (en) * 2004-06-03 2005-12-15 Sony Corporation Image processing device, program thereof, and method thereof
JP2008511211A (en) * 2004-08-18 2008-04-10 クゥアルコム・インコーポレイテッド Encoder-assisted adaptive video frame interpolation
WO2008117933A1 (en) * 2007-03-28 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for video encoding and decoding
JP2008244566A (en) * 2007-03-26 2008-10-09 Nec Corp Moving image quality improving method in decoding in macro block skip mode
JP2010010950A (en) * 2008-06-25 2010-01-14 Toshiba Corp Image coding/decoding method and apparatus
WO2010070818A1 (en) * 2008-12-16 2010-06-24 株式会社日立製作所 Moving image encoding device, moving image encoding method, moving image decoding device and moving image decoding method
JP2011004322A (en) * 2009-06-22 2011-01-06 Kddi R & D Laboratories Inc Moving image encoding apparatus and decoding apparatus
WO2012081225A1 (en) * 2010-12-14 2012-06-21 パナソニック株式会社 Image encoding method and image decoding method
WO2012081246A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Image encoding method and image decoding method
WO2012090478A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Moving image coding method and moving image decoding method
WO2012098866A1 (en) * 2011-01-18 2012-07-26 パナソニック株式会社 Video encoding method and video decoding method
WO2012102024A1 (en) * 2011-01-26 2012-08-02 パナソニック株式会社 Video image encoding method, video image encoding device, video image decoding method, video image decoding device, and video image encoding and decoding device
JP2012157061A (en) * 2012-04-12 2012-08-16 Toshiba Corp Method and device for decoding image
WO2014029222A1 (en) * 2012-08-21 2014-02-27 Tencent Technology (Shenzhen) Company Limited A video encoding method and a video encoding apparatus using the same
JP2018074603A (en) * 2017-12-05 2018-05-10 株式会社東芝 Moving image encoding device and method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005120077A1 (en) * 2004-06-03 2005-12-15 Sony Corporation Image processing device, program thereof, and method thereof
US8861601B2 (en) 2004-08-18 2014-10-14 Qualcomm Incorporated Encoder-assisted adaptive video frame interpolation
JP2008511211A (en) * 2004-08-18 2008-04-10 クゥアルコム・インコーポレイテッド Encoder-assisted adaptive video frame interpolation
US9503739B2 (en) 2004-08-18 2016-11-22 Qualcomm Incorporated Encoder-assisted adaptive video frame interpolation
JP4927734B2 (en) * 2004-08-18 2012-05-09 クゥアルコム・インコーポレイテッド Encoder-assisted adaptive video frame interpolation
JP2008244566A (en) * 2007-03-26 2008-10-09 Nec Corp Moving image quality improving method in decoding in macro block skip mode
WO2008117933A1 (en) * 2007-03-28 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for video encoding and decoding
US8873633B2 (en) 2007-03-28 2014-10-28 Samsung Electronics Co., Ltd. Method and apparatus for video encoding and decoding
JP2010010950A (en) * 2008-06-25 2010-01-14 Toshiba Corp Image coding/decoding method and apparatus
WO2010070818A1 (en) * 2008-12-16 2010-06-24 株式会社日立製作所 Moving image encoding device, moving image encoding method, moving image decoding device and moving image decoding method
JP2011004322A (en) * 2009-06-22 2011-01-06 Kddi R & D Laboratories Inc Moving image encoding apparatus and decoding apparatus
WO2012081225A1 (en) * 2010-12-14 2012-06-21 パナソニック株式会社 Image encoding method and image decoding method
WO2012081246A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Image encoding method and image decoding method
US10778969B2 (en) 2010-12-17 2020-09-15 Sun Patent Trust Image coding method and image decoding method
US10986335B2 (en) 2010-12-17 2021-04-20 Sun Patent Trust Image coding method and image decoding method
WO2012090478A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Moving image coding method and moving image decoding method
WO2012098866A1 (en) * 2011-01-18 2012-07-26 パナソニック株式会社 Video encoding method and video decoding method
WO2012102024A1 (en) * 2011-01-26 2012-08-02 パナソニック株式会社 Video image encoding method, video image encoding device, video image decoding method, video image decoding device, and video image encoding and decoding device
JP2012157061A (en) * 2012-04-12 2012-08-16 Toshiba Corp Method and device for decoding image
WO2014029222A1 (en) * 2012-08-21 2014-02-27 Tencent Technology (Shenzhen) Company Limited A video encoding method and a video encoding apparatus using the same
JP2018074603A (en) * 2017-12-05 2018-05-10 株式会社東芝 Moving image encoding device and method

Also Published As

Publication number Publication date
JP3866624B2 (en) 2007-01-10

Similar Documents

Publication Publication Date Title
JP4724351B2 (en) Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, and communication apparatus
JP4193406B2 (en) Video data conversion apparatus and video data conversion method
RU2310231C2 (en) Space-time prediction for bi-directional predictable (b) images and method for prediction of movement vector to compensate movement of multiple images by means of a standard
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
KR100774296B1 (en) Method and apparatus for encoding and decoding motion vectors
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
CN107277543B (en) Encoding device and method, decoding device and method, and storage medium
JP4752631B2 (en) Image coding apparatus and image coding method
TWI597974B (en) Dynamic image prediction decoding method and dynamic image prediction decoding device
US20110013697A1 (en) Motion vector prediction method, and apparatus and method for encoding and decoding image using the same
JP2013545372A (en) Video information encoding method and decoding method
JP2011199362A (en) Device and method for encoding of moving picture, and device and method for decoding of moving picture
JP3866624B2 (en) Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus
JP2009027759A (en) Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and communication apparatus
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
JP2012151576A (en) Image coding method, image coding device, image decoding method and image decoding device
JP2013115583A (en) Moving image encoder, control method of the same, and program
JP3674535B2 (en) Video coding method and apparatus
US20130170565A1 (en) Motion Estimation Complexity Reduction
KR100986992B1 (en) Fast Inter Mode Decision Method in H.264 Encoding
JP2007221202A (en) Moving picture encoder and moving picture encoding program
JP6181242B2 (en) Image decoding method
JP5946980B1 (en) Image decoding method
JP5951915B2 (en) Image decoding method
KR20160087206A (en) Transcoder and transcoding method for moving picture

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060807

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061005

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3866624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121013

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121013

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131013

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term