JP5281597B2 - 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム - Google Patents

動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム Download PDF

Info

Publication number
JP5281597B2
JP5281597B2 JP2010023151A JP2010023151A JP5281597B2 JP 5281597 B2 JP5281597 B2 JP 5281597B2 JP 2010023151 A JP2010023151 A JP 2010023151A JP 2010023151 A JP2010023151 A JP 2010023151A JP 5281597 B2 JP5281597 B2 JP 5281597B2
Authority
JP
Japan
Prior art keywords
prediction
motion vector
vector
motion
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010023151A
Other languages
English (en)
Other versions
JP2011166207A (ja
Inventor
幸浩 坂東
誠之 高村
淳 清水
裕尚 如澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010023151A priority Critical patent/JP5281597B2/ja
Publication of JP2011166207A publication Critical patent/JP2011166207A/ja
Application granted granted Critical
Publication of JP5281597B2 publication Critical patent/JP5281597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は,動き補償を用いる動画像符号化技術に関し,特に動きベクトルの予測効率を向上させ,動画像の符号化効率を向上させるための動きベクトル予測技術に関するものである。
H.264に代表されるような,動き補償を用いた動画像符号化方式では,動きベクトルを効率的に符号化するために,動きベクトルの予測符号化を行う(非特許文献1参照)。
図19(A)は,従来の動き補償を用いた動画像符号化装置の例を示す。図中,300は動き補償による符号化部,310は動き探索により画像の動きを推定する動き推定部,320は動き推定によって算出された動きベクトルを記憶する動きベクトル記憶部,330は動きベクトルの予測符号化のために符号化済み情報から動きベクトルを予測する動きベクトル予測処理部,331は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部,332は参照ブロックから抽出した動きベクトルの中央値を算出する中央値算出処理部,340は動きベクトルと予測した動きベクトル(以下,予測ベクトルという)の差分を算出する予測残差算出部,350は量子化された変換係数や動きベクトルの予測残差信号(予測誤差ベクトルという)に可変長符号を割り当てて符号化ストリームを出力する符号割当て部である。
動き推定部310は,符号化対象ブロックの映像信号を入力すると,符号化済みの参照画像の復号信号と照合することにより動き探索を行い,動きベクトルを算出する。算出された動きベクトルは,動き補償による符号化部300に入力され,動き補償による符号化部300では,動きベクトルを用いた動き補償によって映像信号と予測信号との残差信号を求め,これを直交変換,量子化などによって符号化処理する。処理結果の量子化値などが符号割当て部350で符号化されて符号化ストリームとして出力される。
一方,動きベクトルについても符号量削減のために予測符号化を行う。このため,動き推定部310が算出した動きベクトルは,後の参照のために動きベクトル記憶部320に記憶される。動きベクトル予測処理部330は,符号化済みの動きベクトルを用いて予測ベクトルを算出する。
動きベクトル予測処理部330における動きベクトルの予測では,まず,参照ブロック動きベクトル抽出処理部331が,図19(B)に示すような符号化対象画像(符号化対象ピクチャまたはフレームともいう)の予測対象ブロック(符号化対象ブロック)B0の近傍にある符号化済みブロックを参照ブロックB1〜B3として,これらの動きベクトルを,動きベクトル記憶部320から抽出する。
次に,中央値算出処理部332は,参照ブロックB1〜B3の各動きベクトル成分の中央値を算出し,算出した中央値から予測ベクトルを生成する。
予測残差算出部340は,動きベクトルと予測ベクトルとの差分(予測誤差ベクトル)を算出し,その予測誤差ベクトルを符号割当て部350へ送る。予測誤差ベクトルは,符号割当て部350で可変長符号化されて,符号化ストリームとして出力される。
図20は,従来の動き補償を用いた動画像復号装置の例を示す。図中,400は符号化ストリーム中の可変長符号を復号する可変長復号部,410は予測誤差ベクトルと予測ベクトルを加算する動きベクトル算出部,420は動きベクトルを記憶する動きベクトル記憶部,430は動きベクトルを復号済みの情報を用いて予測する動きベクトル予測処理部,431は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部,432は参照ブロックから抽出した動きベクトル成分の中央値を算出する中央値算出処理部,440は算出された動きベクトルを用いて動き補償を行い,復号対象ブロックを復号して,復号された映像信号を出力する動き補償による復号部である。
符号化ストリームを入力すると,可変長復号部400は,符号化ストリーム中の可変長符号を復号し,復号対象ブロックの量子化変換係数を動き補償による復号部440へ送り,予測誤差ベクトルを動きベクトル算出部410へ送る。動きベクトル算出部410は,予測誤差ベクトルと,復号済みの動きベクトルから求めた予測ベクトルとを加算し,動きベクトルを算出する。算出された動きベクトルは,動き補償による復号部440へ送られるとともに,動きベクトル記憶部420に格納される。動き補償による復号部440は,算出された動きベクトルを用いて動き補償を行い,復号対象ブロックを復号して,復号された映像信号を出力する。
動画像復号装置における動きベクトル予測処理部430の動きベクトルの予測処理は,図19に示す動画像符号化装置における動きベクトル予測処理部330の処理と同様である。
図21は,従来の他の動きベクトル予測処理部の例を示している。H.264符号化では,Bピクチャの符号化における符号化モードの一つとして,動き情報を符号化済みブロックの動き情報から予測生成し,動き情報の符号化を省略するダイレクト・モードと呼ばれる符号化モードが用いられている(非特許文献1,2参照)。
ダイレクト・モードには,主として空間方向の動き情報を利用する空間ダイレクト・モードと,主として時間方向の動き情報を利用する時間ダイレクト・モードがある。この時間ダイレクト・モードにおける動きベクトルの予測では,動きベクトル予測処理部500は,次のように予測ベクトルを算出する。
アンカーブロック動きベクトル抽出処理部501が,アンカーピクチャで予測対象ブロックと同じ位置にあるブロック(これをアンカーブロックという)の動きベクトルmvColを動きベクトル記憶部510から抽出する。アンカーピクチャとは,ダイレクト・モードの動きベクトルを求める際の動きベクトルを持つピクチャのことであり,通常は,表示順序で符号化対象ピクチャの後方の一番近い参照ピクチャである。
次に,外挿予測処理部502は,動きベクトルmvColからL0の動きベクトルmvL0と,L1の動きベクトルmvL1を,L0の参照ピクチャと符号化対象ピクチャとアンカーピクチャとの時間間隔に応じて比例配分することにより算出する。なお,Bピクチャでは,任意の参照ピクチャから最大2枚のピクチャを選択できるので,この2枚をL0,L1として区別し,主として前方向予測に用いる予測をL0予測,主として後方向予測に用いる予測をL1予測と呼んでいる。
動きベクトル予測処理部500は,外挿予測処理部502が算出した動きベクトルmvL0,mvL1を予測ベクトルとして出力する。
国際標準AVC/H.264規格書,ISO/SC 29/WG 11 (MPEG) 14496-10:2004. Coding of audio visual objects. Part 10: Advanced Video Coding 3rd Ed. International Standard, Nov. 2007. 角野,菊池,鈴木,"改訂三版H.264/AVC教科書",インプレスR&D発行,2009, pp.128-130.
図19で説明したような,従来の動きベクトルの符号化では,空間的な近傍ブロックの動きベクトルから予測ベクトルを生成し,その予測ベクトルと,符号化対象ブロックの動きベクトルとの差分ベクトルを符号化対象としている。
しかし,空間的な予測に限定しているため,時間方向の相関を利用できていない。そのため,時間方向の相関の観点から符号化効率が十分とは言えず,符号化効率の改善の余地が残っていると考えられる。
また,図21で説明したH.264における時間ダイレクト・モードにおける符号化でも,符号化済みピクチャの特定のブロック(アンカーブロック)の動きベクトルmvColから予測ベクトルを生成しているため,時間的な相関の利用が限定的であり,符号化効率の向上に改善の余地がある。すなわち,従来の時間ダイレクト・モードでは,あるブロックの動きベクトルを予測する場合に,他のフレームの同一空間位置(真裏にあたる位置)のブロック(co−located block)の動きベクトルを利用している。しかし,co−located blockの動きベクトルは,必ずしも予測対象ブロックの良い動きベクトルになる保証はないため,動きベクトルの予測性能に改善の余地を残している。
本発明は,上記課題の解決を図り,動きベクトルの予測効率を向上させ,動きベクトルの符号量を従来技術よりも削減することを目的とする。
本発明は,上記課題を解決するため,空間的な近傍ブロックの動きベクトルによる空間方向の相関だけではなく,時間方向の相関も利用して,双方向予測の予測方向ごとに予測ベクトルを生成し,生成した予測ベクトルの信頼度(動きベクトルの乖離度の逆数)に応じて,予測ベクトルとして使用するか否かを適応的に決める。
すなわち,本発明は,符号化または復号対象画像をブロックに分割し,各ブロックごとに動き補償を用いて画像を符号化または復号する動画像符号化方式における動きベクトル予測方法において,双方向予測における予測方向ごとに,符号化または復号済み画像を参照画像として,符号化または復号対象画像(フレームまたはピクチャともいう)における動きベクトルの予測対象となる予測対象ブロックの近傍にある複数個の符号化または復号済みブロックの動きベクトルをテンプレートとするテンプレートマッチングにより,前記参照画像における動きベクトルの乖離度が最小となる領域を求め,その領域から定まる動きベクトルを用いて予測ベクトルを生成するとともに,前記動きベクトルの乖離度を出力し,また,双方向予測における予測方向ごとに,前記乖離度と所定の閾値との大小比較により,前記予測ベクトルを,前記予測対象ブロックの予測ベクトルとして用いるか否かを適応的に決定することを特徴とする。
また,上記発明において,動きベクトルの乖離度として,前記複数個の符号化または復号済みブロックの動きベクトルと,前記参照画像内の配置関係が対応する複数個のブロックの動きベクトルとの,ベクトル成分ごとの差分絶対値和もしくは二乗誤差和,またはメディアンベクトルに対する誤差,または平均ベクトルに対する誤差を用いることを特徴とする。
また,上記発明において,予測ベクトルを生成する処理では,前記参照画像における動きベクトルの乖離度が最小となる領域によって定められる位置にある時間方向動きベクトル参照ブロックの動きベクトルを,予測ベクトルとして生成する,または,さらに前記複数個の符号化または復号済みブロックの中の所定の位置にある1または複数個のブロックを空間方向動きベクトル参照ブロックとして抽出し,前記時間方向動きベクトル参照ブロックの動きベクトルと前記空間方向動きベクトル参照ブロックの動きベクトルとから,各ベクトル成分ごとの中央値を算出し,算出した中央値によって予測ベクトルを生成することを特徴とする。
また,上記発明において,現在の量子化パラメータもしくはフレーム間隔,またはその双方の値に応じて閾値を設定する手段を設け,予測ベクトルを使用するか否かを閾値を用いて判定することを特徴とする。
また,上記発明において,予測ベクトルを生成する処理では,前記符号化または復号済み画像の参照画像として,予め定められた参照画像の選択規則に基づいて選択された複数枚の参照画像を用い,前記複数枚の参照画像において前記動きベクトルの乖離度が最小となる領域を持つ参照画像を求めることを特徴とする。
また,上記発明において,符号化時において予測ベクトルを生成する処理では,前記符号化または復号済み画像の参照画像として複数枚の参照画像を用い,その中でテンプレートマッチングの対象とする参照画像を指定する情報を付加情報として符号化情報に付加し,復号時において予測ベクトルを生成する処理では,前記付加情報で指定された参照画像において前記動きベクトルの乖離度が最小となる領域を求めることを特徴とする。
基本的な処理の概要は,以下のとおりである。
1.指定された符号化済みフレーム(以下,MV参照フレームという)内の符号化済み動きベクトルを用いて,予測ベクトルとしての有効性の尺度となる信頼度に基づき,符号化対象フレーム内の符号化対象ブロック(予測対象ブロック)の動きベクトルを予測し,さらにその予測ベクトルの信頼度に応じて,予測ベクトルとして使用するか否かを適応的に設定する。ここで,MV参照フレームは,動きベクトルのフレーム間予測において参照する予め定められたフレームであり,動き補償のための画素値のフレーム間予測において参照するフレームと同じフレームであっても,違うフレームであってもどちらでもよい。
以上の1.の処理は,例えば以下のように行われる。
1.1 予測対象ブロックに対して同一フレーム内の空間的な近傍ブロックの動きベクトルを抽出する。
1.2 上記近傍ブロックの動きベクトルを用いて,MV参照フレーム中の乖離度が最小となる領域を探索によって求める。
1.2.1 上記領域の探索において,空間的な近傍ブロック内の動きベクトルに基づくテンプレートマッチングを行う。
1.2.1.1 上記乖離度として,ベクトル成分ごとの差分絶対値和を用いる。
1.2.1.2 上記乖離度として,ベクトル成分ごとの二乗誤差和を用いる。
1.2.1.3 上記乖離度として,メディアンベクトルに対する誤差を用いる。
1.2.1.4 上記乖離度として,平均ベクトルに対する誤差を用いる。
1.3 上記領域内のブロックまたは領域に近接するブロックを予測に用いるMV参照ブロック(時間方向MV参照ブロック)として抽出し,その動きベクトルから予測ベクトルを生成する。
1.3.1 時間方向MV参照ブロックの動きベクトルを予測ベクトルとする。
1.3.2 さらに,符号化対象フレーム内の上記近傍ブロック内のブロックから,その一部を予測に用いるMV参照ブロック(空間方向MV参照ブロック)として抽出し,時間方向MV参照ブロックの動きベクトルと空間方向MV参照ブロックの動きベクトルのベクトル成分ごとの中央値から,予測ベクトルを生成する。
1.4 時間方向MV参照ブロックにおける動きベクトルの乖離度を,最小乖離度として抽出する。
1.5 最小乖離度が所定の閾値以下の場合にだけ,予測ベクトルを使用する。
1.6 以上の処理を双方向予測におるけ予測方向ごとに行い,各予測方向の予測ベクトルを生成する。
2.復号の場合にも同様に,復号済みフレーム(MV参照フレーム)内の復号済み動きベクトルを用いて,信頼度に基づき,復号対象フレーム内の復号対象ブロックの予測ベクトルを求める。
上記MV参照フレームとして,複数枚の参照フレームを利用することもできる。この場合に,符号化側でどの参照フレームを用いたかの情報を復号側で知り得ないようなケースでは,参照フレームを指定する情報を付加情報として符号化情報に付加する。
本発明によれば,双方向予測において符号化対象ブロックの動きベクトルを予測するにあたって,空間的な相関だけでなく,複数の参照ブロックの動きベクトルについて時間的な相関も利用して予測ベクトルを算出するので,動きベクトルの予測精度が向上し,その符号量を削減することができるようになり,動画像の符号化効率が向上する。
本発明を適用する動画像符号化装置の一構成例を示す図である。 本発明を適用する動画像復号装置の一構成例を示す図である。 動きベクトル予測処理部の構成例を示す図である。 予測モード判定処理部の処理フローチャートである。 第2の動きベクトル予測処理部の構成例を示す図である。 第2の予測モード判定処理部の処理フローチャートである。 予測ベクトル生成処理部の構成例を示す図である。 予測ベクトル使用判定処理部の処理フローチャートである。 閾値生成部の構成例を示す図である。 時間方向動きベクトル予測処理部の構成例を示す図である。 時間方向動きベクトル予測処理部の処理フローチャートである。 参照ブロックの配置例を示す図である。 参照ブロックの配置例を示す図である。 参照ブロックの配置例3を用いた場合の探索の例を示す図である。 参照ブロックの配置例1を用いた場合の予測ベクトル算出方法の例を説明する図である。 参照ブロックの配置例2を用いた場合の予測ベクトル算出方法の例を説明する図である。 参照ブロックの配置例3を用いた場合の予測ベクトル算出方法の例を説明する図である。 ソフトウェアプログラムにより実現するときのハードウェア構成例を示す図である。 従来の動画像符号化装置の例を示す図である。 従来の動画像復号装置の例を示す図である。 従来の動きベクトル予測処理部の一例を示す図である。
以下,図面を用いて,本発明の実施形態を詳細に説明する。
図1は,本発明を適用する動画像符号化装置の一構成例を示す図である。動画像符号化装置1において,本実施形態は,特に動きベクトル予測処理部100の部分が従来技術と異なる部分であり,他の部分は,H.264その他のエンコーダとして用いられている従来の一般的な動画像符号化装置の構成と同様である。
動画像符号化装置1は,符号化対象の映像信号を入力し,入力映像信号のフレームをブロックに分割してブロックごとに符号化し,そのビットストリームを符号化ストリームとして出力する。
この符号化のため,予測残差信号算出部10は,入力映像信号と動き補償部19の出力である予測信号との差分を求め,それを予測残差信号として出力する。直交変換部11は,予測残差信号に対して離散コサイン変換(DCT)等の直交変換を行い,変換係数を出力する。量子化部12は,変換係数を量子化し,その量子化された変換係数を出力する。符号割当て部13は,量子化された変換係数をエントロピー符号化し,符号化ストリームとして出力する。
一方,量子化された変換係数は,逆量子化部14にも入力され,ここで逆量子化される。逆直交変換部15は,逆量子化部14の出力である変換係数を逆直交変換し,予測残差復号信号を出力する。復号信号算出部16では,この予測残差復号信号と動き補償部19の出力である予測信号とを加算し,符号化した符号化対象ブロックの復号信号を生成する。この復号信号は,動き補償部19における動き補償の参照画像として用いるために,フレームメモリ17に格納される。
動き推定部18は,符号化対象ブロックの映像信号について,フレームメモリ17に格納された参照画像を参照して動き探索を行い,動きベクトルを算出する。この動きベクトルは,動き補償部19および予測誤差ベクトル算出部102に出力され,また,動きベクトル記憶部101に格納される。動き補償部19は,動き推定部18が求めた動きベクトルを用いて,フレームメモリ17内の画像を参照することにより,符号化対象ブロックの予測信号を出力する。
動き補償に用いた動きベクトルについても予測符号化するために,動きベクトル予測処理部100によって符号化済みの情報を用いて動きベクトルの予測を行い,動き補償に用いた動きベクトルと,予測された動きベクトル(これを予測ベクトルという)との差分を,予測誤差ベクトル算出部102により算出して,結果を予測誤差ベクトルとして符号割当て部13へ出力する。符号割当て部13は,予測誤差ベクトルについてもエントロピ符号化により符号を割り当て符号化ストリームとして出力する。
図2は,本発明を適用する動画像復号装置の一構成例を示す図である。動画像復号装置2において,本実施形態は,特に動きベクトル予測処理部200の部分が従来技術と異なる部分であり,他の部分は,H.264その他のデコーダとして用いられている従来の一般的な動画像復号装置の構成と同様である。
動画像復号装置2は,図1に示す動画像符号化装置1により符号化された符号化ストリームを入力して復号することにより復号画像の映像信号を出力する。
この復号のため,復号部20は,符号化ストリームを入力し,復号対象ブロックの量子化変換係数をエントロピー復号するとともに,予測誤差ベクトルを復号する。逆量子化部21は,量子化変換係数を入力し,それを逆量子化して復号変換係数を出力する。逆直交変換部22は,復号変換係数に逆直交変換を施し,復号予測残差信号を出力する。復号信号算出部23では,動き補償部27で生成されたフレーム間予測信号と復号予測残差信号とを加算することで,復号対象ブロックの復号信号を生成する。この復号信号は,表示装置等の外部の装置に出力されるとともに,動き補償部27における動き補償の参照画像として用いるために,フレームメモリ24に格納される。
動きベクトル算出部25は,復号部20が復号した予測誤差ベクトルと,動きベクトル予測処理部200が算出した予測ベクトルとを加算し,動き補償に用いる動きベクトルを算出する。この動きベクトルは,動きベクトル記憶部26に記憶され,動き補償部27に通知される。
動き補償部27は,入力した動きベクトルをもとに動き補償を行い,フレームメモリ24の参照画像を参照して,復号対象ブロックのフレーム間予測信号を生成する。このフレーム間予測信号は,復号信号算出部23で復号予測残差信号に加算される。
動きベクトル予測処理部200は,動きベクトル記憶部26に記憶された復号済みの動きベクトルを用いて,動きベクトルの予測を行い,求めた予測ベクトルを動きベクトル算出部25に出力する。
図3は,動きベクトル予測処理部の構成例を示す図である。図1に示す動画像符号化装置1における動きベクトル予測処理部100と,図2に示す動画像復号装置2における動きベクトル予測処理部200の内部構成は同様であり,例えば図3に示すように構成される。
動きベクトル予測処理部100(または200)は,第0予測ベクトル用の予測ベクトル生成処理部110−0と,第1予測ベクトル用の予測ベクトル生成処理部110−1と,予測モード判定処理部120とを有している。ここで,第0予測ベクトルとは,H.264符号化における,主として前方向予測に用いるL0の動きベクトルmvL0に相当するベクトルであり,第1予測ベクトルとは,H.264符号化における,主として後方向予測に用いるL1の動きベクトルmvL1に相当するベクトルである。
第0予測ベクトル用の予測ベクトル生成処理部110−0は,前方の第0参照フレームに対する動きベクトルを入力し,第0予測ベクトルまたはNullベクトルを出力する。第1予測ベクトル用の予測ベクトル生成処理部110−1は,後方の第1参照フレームに対する動きベクトルを入力し,第1予測ベクトルまたはNullベクトルを出力する。なお,Nullベクトルは,ベクトルが無効であることを示す。
予測モード判定処理部120は,予測ベクトル生成処理部110−0の出力が第0予測ベクトルであるかNullベクトルであるかを判定するNullベクトル判定部121−0と,予測ベクトル生成処理部110−1の出力が第1予測ベクトルであるかNullベクトルであるかを判定するNullベクトル判定部121−1とを有している。
閾値生成部130は,Nullベクトル判定部121で使用する閾値を生成して,予測モード判定処理部120に設定するものである。ここで,Nullベクトル判定部121で使用する閾値を,所定の固定値とする場合には,閾値生成部130は不要である。
動きベクトル予測処理部100(または200)は,予測モード判定処理部120の判定結果に応じて,第0予測ベクトルもしくは第1予測ベクトル,またはその双方を出力する。なお,動きベクトル予測処理部100(または200)における動きベクトルの予測は,少なくとも第0予測ベクトルまたは第1予測ベクトルのいずれかがNullベクトルではないという保証を得て実施する。第0予測ベクトルおよび第1予測ベクトルの双方がNullベクトルの場合には,本モードによる処理は行わず,従来技術と同様な動きベクトルの予測方法を用いる。
図4は,図3に示す予測モード判定処理部の処理フローチャートである。予測モード判定処理部120は,まず予測ベクトル生成処理部110−1の出力がNullベクトルかどうかを判定する(ステップS10)。Nullベクトルの場合,第0予測ベクトルを用いた片方向予測のための動きベクトルとして,第0予測ベクトルを出力する(ステップS11)。
予測ベクトル生成処理部110−1の出力がNullベクトルでない場合,次に,予測ベクトル生成処理部110−0の出力がNullベクトルかどうかを判定する(ステップS12)。Nullベクトルの場合,第1予測ベクトルを用いた片方向予測のための動きベクトルとして,第1予測ベクトルを出力する(ステップS13)。それ以外の場合には,第0予測ベクトルおよび第1予測ベクトルを用いた両方向予測のための動きベクトルとして,第0予測ベクトルおよび第1予測ベクトルを出力する(ステップS14)。
図5は,第2の動きベクトル予測処理部の構成例を示す図である。前述した図3の例では,動きベクトル予測処理部100(または200)が入力する第0参照フレームおよび第1参照フレームは,それぞれ1枚としているが,図5の例では,それぞれ複数枚の参照フレームを入力するものとしている。
第2の動きベクトル予測処理部100(または200)は,第0予測ベクトルもしくは第1予測ベクトル,またはその双方を出力する他に,それぞれの予測ベクトルの生成に用いた参照フレームを示す参照ピクチャ番号(H.264におけるRef_Idxに相当)も出力する。
図6は,図5に示す予測モード判定処理部の処理フローチャートである。予測モード判定処理部120は,まず予測ベクトル生成処理部110−1の出力がNullベクトルかどうかを判定する(ステップS20)。Nullベクトルの場合,第0予測ベクトルを用いた片方向予測のための動きベクトルとして,第0予測ベクトルを出力するとともに,その第0予測ベクトルの生成時に参照したフレームの参照ピクチャ番号を出力する(ステップS21)。
予測ベクトル生成処理部110−1の出力がNullベクトルでない場合,次に,予測ベクトル生成処理部110−0の出力がNullベクトルかどうかを判定する(ステップS22)。Nullベクトルの場合,第1予測ベクトルを用いた片方向予測のための動きベクトルとして,第1予測ベクトルを出力するとともに,その参照ピクチャ番号を出力する(ステップS23)。それ以外の場合には,第0予測ベクトルおよび第1予測ベクトルを用いた両方向予測のための動きベクトルとして,第0予測ベクトルおよび第1予測ベクトルを出力し,さらにそれぞれの参照ピクチャ番号を出力する(ステップS24)。
図7は,図3または図5に示す予測ベクトル生成処理部の構成例を示している。なお,第0予測ベクトル用も第1予測ベクトル用も同様に構成される。
予測ベクトル生成処理部110は,時間方向動きベクトル予測処理部140と,予測ベクトル使用判定処理部150を備えている。
時間方向動きベクトル予測処理部140は,参照フレームの動きベクトルの中で信頼度の高いものを探索し,その結果から予測ベクトルを出力するとともに,予測ベクトルとしての信頼性の尺度となる最小乖離度(詳しくは後述)を出力する。予測ベクトル使用判定処理部150は,乖離度判定処理部151によって時間方向動きベクトル予測処理部140の出力する最小乖離度を判定し,予測ベクトルを出力するかNullベクトルを出力するかを決定する。
図8は,予測ベクトル使用判定処理部150の処理フローチャートである。予測ベクトル使用判定処理部150では,乖離度判定処理部151によって時間方向動きベクトル予測処理部140の出力する最小乖離度が,設定された閾値より小さいかを判定する(ステップS30)。最小乖離度が閾値より小さい場合には,時間方向動きベクトル予測処理部140の出力する予測ベクトルの信頼度が高いものとして,予測ベクトルを出力する(ステップS31)。閾値より小さくない場合には,時間方向動きベクトル予測処理部140の出力する予測ベクトルの信頼度が高くないとして,Nullベクトルを出力する(ステップS32)。
図9は,閾値生成部の構成例を示す図である。図3または図5に示したNullベクトル判定部121では,閾値生成部130の設定した閾値によって最小乖離度の大小を判定する。この閾値は固定値としてもよいが,符号化の状況に応じて適応的に変更することもできる。
図9(A)の例の場合,閾値生成部130における閾値算出部131は,予め量子化パラメータと閾値との関係を格納したルックアップテーブルを用い,現在の符号化時における量子化パラメータを入力して,その量子化パラメータからルックアップテーブルを参照することにより,Nullベクトル判定部121で用いる閾値を決定し,Nullベクトル判定部121に設定する。
図9(B)の例の場合,閾値生成部130における閾値算出部132は,予めフレーム間隔と閾値との関係を格納したルックアップテーブルを用い,フレーム間隔の情報を入力して,そのフレーム間隔からルックアップテーブルを参照することにより,Nullベクトル判定部121で用いる閾値を決定し,Nullベクトル判定部121に設定する。
図9(C)の例の場合,閾値生成部130における閾値算出部133は,予め量子化パラメータおよびフレーム間隔と,閾値との関係を格納したルックアップテーブルを用い,現在の符号化時における量子化パラメータとフレーム間隔の情報を入力して,その量子化パラメータおよびフレーム間隔からルックアップテーブルを参照することにより,Nullベクトル判定部121で用いる閾値を決定し,Nullベクトル判定部121に設定する。
図10は,時間方向動きベクトル予測処理部の構成例を示す図である。
複製処理部141は,動きベクトル予測処理部100(または200)において,後続フレームの動きベクトルを予測する際に参照するために,動きベクトル記憶部101(または26)に格納された動きベクトルを,参照フレーム動きベクトル記憶部142にコピーする処理を行う。このコピーは,各フレームの全ブロックに対する処理が終了したタイミングで行う。
参照ブロック動きベクトル抽出処理部143は,予測対象ブロックに対する参照ブロックを,予測対象ブロックの空間的近傍ブロックから抽出する処理を行う。どの位置の参照ブロックを抽出するかについては予め定めておく。あるいは,映像単位,フレーム単位またはスライス単位で適応的に定めることもできる。その具体例については,後述する。
乖離度最小化領域探索処理部144は,参照ブロックの動きベクトルに対して,最も類似している領域を符号化・復号済みフレーム(参照フレームと呼ぶ)内から探索する処理を行う。このための手段として,乖離度算出部1441,最小乖離度更新処理部1442,時間方向参照ブロック抽出処理部1443を備える。
乖離度算出部1441は,参照フレーム中の領域内の動きベクトルと参照ブロックの動きベクトルとの乖離度を算出する。乖離度が大きいほど,予測ベクトルとして用いる動きベクトルの信頼度が小さいことになる。乖離度の例としては,次のようなものがあるが,これらに限らず,符号化対象ブロックでの動きベクトル予測における有効性を定量的に表すことができるものであれば乖離度として他の尺度を用いてもよい。
〔乖離度の例1〕乖離度として,ベクトル成分ごとの差分絶対値和を用いる。
〔乖離度の例2〕乖離度として,ベクトル成分ごとの二乗誤差和を用いる。
〔乖離度の例3〕乖離度として,メディアンベクトルに対する差分絶対値または二乗誤差を用いる。
〔乖離度の例4〕乖離度として,平均ベクトルに対する差分絶対値または二乗誤差を用いる。
最小乖離度更新処理部1442は,乖離度算出部1441による乖離度の算出を,参照フレーム中の探索範囲内で行ったときに,それまでの探索で最小となる乖離度を与える領域を最小乖離度を更新しながら記憶し,最終的にその探索範囲において最小の乖離度を与える領域を求める。
時間方向参照ブロック抽出処理部1443は,最小乖離度更新処理部1442によって求めた参照フレームにおける最小の乖離度を与える領域に近接するブロックを,時間方向の参照ブロック(中央値算出用参照ブロックと呼ぶ)として抽出する処理を行う。
中央値算出処理部148は,参照ブロック動きベクトル抽出処理部143が動きベクトルを抽出した参照ブロック(乖離度算出に使用した参照ブロック)のうち,例えば予測対象ブロックの上端に接するブロックと,左端に接するブロックとを中央値算出用参照ブロックとして,これらの動きベクトルと,時間方向参照ブロック抽出処理部1443が抽出した中央値算出用参照ブロックの動きベクトルとの中央値を算出し,結果を予測ベクトルとして出力する。
動きベクトル判定部145は,乖離度最小化領域探索処理部144の処理を実施するか実施しないかを判定する。中央値算出処理部148では,例えば,同一フレーム内の2つの中央値算出用参照ブロックから抽出した2つの動きベクトルと,時間方向の参照ブロックから抽出した中央値算出用参照ブロック内の1つの動きベクトルに対して,成分ごとに中央値を算出し,予測ベクトルとすることから,もし,同一フレーム内の中央値算出用参照ブロックから抽出した2つの動きベクトルが同一の場合,予測ベクトルは,同一フレーム内の中央値算出用参照ブロックにおける動きベクトルとして,一意に定まる。このため,同一フレーム内の中央値算出用参照ブロック内の動きベクトルが同一という条件を満たす場合,乖離度最小化領域探索処理部144の処理は省略することができる。
そこで,動きベクトル判定部145が上記条件が満たされることを検出すると,スイッチ部146を操作することにより,乖離度最小化領域探索処理部144の処理は省略し,参照ブロック動きベクトル抽出処理部143で抽出した参照ブロックの動きベクトルだけを中央値算出処理部148の入力とする。また,スイッチ部147についても,最小乖離度として出力する値を,例えば0または予め定めた特定の値を出力するように切り替える。
図11は,時間方向動きベクトル予測処理部の処理フローチャートである。
[ステップS40の処理]
ステップS40では,参照ブロック動きベクトル抽出処理部143が,予測対象ブロックに対する参照ブロックの動きベクトルを,予測対象ブロックの空間的近傍ブロックから抽出する。
予測対象ブロックの空間的近傍ブロックである参照ブロックの配置例を,図12に示す。この例では,参照ブロックの配置例として,図12(A)に示す配置例1と,図12(B)に示す配置例2と,図12(C)に示す配置例3があり,このいずれかを,所定の設定値に従って用いるものとする。なお,これらの配置例のどれを用いるかを,適応的に選択するようにしてもよく,その場合には,映像単位,フレーム単位,スライス単位というような符号化単位ごとに,どの配置例を用いて符号化するかを示す情報を,符号化付加情報として付加する。
参照ブロックの配置例1は,予測対象ブロックの上端に接するブロックと,右斜め上のブロックと,左端に接するブロックの計3個の符号化済みブロックを参照ブロックとする。ただし,予測対象ブロックがフレームの右端に存在する場合には,右斜め上のブロックは選べないので,例外として,代わりに左斜め上のブロックを参照ブロックとする。すなわち,配置例3に変更する。
参照ブロックの配置例2は,予測対象ブロックの左斜め上のブロックと,上端に接するブロックと,右斜め上のブロックと,左端に接するブロックの計4個の符号化済みブロックを参照ブロックとする。ただし,予測対象ブロックがフレームの右端に存在する場合には,右斜め上のブロックは選べないので,例外として,右斜め上のブロックを加えない3ブロックとする。すなわち,配置例3に変更する。
参照ブロックの配置例3は,予測対象ブロックの左斜め上のブロックと,上端に接するブロックと,左端に接するブロックの計3個の符号化済みブロックを参照ブロックとする。
これらの参照ブロックの配置例1〜3には,さらに符号化状況に応じて例外がある。例えば,参照ブロックの候補がイントラマクロブロックの場合等には,動きベクトルを持たないため,参照できないからである。その例を,図13に示す。
図13(A)は,参照ブロックの配置例1において,右斜め上のブロックB3が参照不可で,左斜め上のブロックB1が参照可能な場合の例であり,この場合には,ブロックB3の代わりにブロックB1を参照ブロックとする。
また,図13(B)に示す参照ブロックの配置例2において,例えばブロックB1が参照不可の場合,参照ブロックとして配置例1の配置を採用する。また,ブロックB3が参照不可の場合,配置例3の配置を採用する。
また,図13(C)に示す参照ブロックの配置例3において,例えばブロックB1が参照不可で,ブロックB3が参照可能な場合には,ブロックB1の代わりにブロックB3を参照ブロックに加え,配置例1の配置を採用する。
なお,例えば,複数の参照ブロックが参照不可であるような場合には,本モードによる動きベクトルの予測は行わないで,従来技術と同様な動きベクトルの符号化を行う。
[ステップS41]
ステップS41では,動きベクトル判定部145により,ステップS42のテンプレートマッチングによる動きベクトル予測処理をスキップするかどうかの判定を行う。例えば,後述する図15〜図17に示す例において,もし2個の空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルが同一であれば,中央値算出処理部148での算出結果の中央値は,この空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルとなる。したがって,ステップS42の処理によって時間方向の中央値算出用参照ブロックを求める必要はなくなるので,ステップS42の処理をスキップする。これにより,処理が高速化されることになる。
[ステップS42の処理]
ステップS42では,乖離度最小化領域探索処理部144は,テンプレートマッチングによる動きベクトル予測処理を行う。すなわち,ステップS40で抽出した参照ブロックの動きベクトルに対して,最も類似している領域を参照フレーム内から探索する処理を行う。具体的には,以下のステップS421〜S423を実行する。
[ステップS421の処理]
ステップS421では,乖離度算出部1441および最小乖離度更新処理部1442が,参照ブロック(予測対象ブロックの近傍ブロック)の動きベクトルを用いて,参照フレーム中の乖離度が最小となる領域Rを求める。
図14は,参照ブロックの配置例3を用いた場合の探索の例を示している。符号化対象フレームを第tフレームとする。参照フレームは,予測方向に応じて第t−1フレームまたは第t+1フレームである。最小乖離度の動きベクトルの探索では,第tフレームの3個の参照ブロックの位置関係を保ったまま,第t−1フレームまたは第t+1フレームにおける3ブロックの動きベクトルの乖離度が最小となる領域Rを探索する。
例えば,第tフレームの3個の参照ブロックの動きベクトルを,
mv1 =(x1 ,y1
mv2 =(x2 ,y2
mv3 =(x3 ,y3
とし,第t−1フレームまたは第t+1フレームの探索範囲における3個のブロックの動きベクトルを,
mvj1=(xj1,yj1
mvj2=(xj2,yj2
mvj3=(xj3,yj3
とする。
乖離度として,例えばベクトル成分ごとの差分絶対値和を用いるものとすると,乖離度は,次式によって算出される。
乖離度=|x1 −xj1|+|x2 −xj2|+|x3 −xj3
+|y1 −yj1|+|y2 −yj2|+|y3 −yj3
また,乖離度として,例えばベクトル成分ごとの二乗誤差和を用いるものとすると,乖離度は,次式によって算出される。
乖離度=(x1 −xj12 +(x2 −xj22 +(x3 −xj32
+(y1 −yj12 +(y2 −yj22 +(y3 −yj32
他にも,乖離度として,メディアンベクトルや平均ベクトルに対する差分絶対値または二乗誤差等を用いることができる。
この乖離度の算出を,第t−1フレームまたは第t+1フレームにおいて3個のブロック全体を1ブロックずつずらしながら繰り返し,最終的に乖離度が最小となる領域Rを求める。
なお,複数枚のフレームを参照フレームとする場合には,各参照フレームについて同様に乖離度が最小となる領域Rを求めて,それらの中でさらに乖離度が最小となる参照フレームを求める。そのときの乖離度とその参照ピクチャ番号を記憶しておく。
[ステップS422の処理]
ステップS422では,時間方向参照ブロック抽出処理部1443が,ステップS421で求めた領域Rの近傍ブロック,詳しくは参照フレーム(第t−1または第t+1フレーム)における領域Rに対して,符号化対象フレーム(第tフレーム)の参照ブロックに対する予測対象ブロックの位置と相対的に同じ位置にあるブロックを,時間方向の参照ブロック(中央値算出用参照ブロックと呼ぶ)として抽出する。
図15,図16,図17は,それぞれ参照ブロックの配置例1,配置例2,配置例3を用いた場合の予測ベクトル算出方法の例を示している。
例えば参照ブロックの配置例1において,第t−1フレーム(または第t+1フレーム)中で乖離度が最小となる領域Rが,図15(A)に示すように求まったとすると,図15(B)に示すブロックBt が,この時間方向の中央値算出用参照ブロックとなる。
参照ブロックの配置例2,3の場合にも,それぞれ図16,図17に示すように,時間方向の中央値算出用参照ブロックBt が決定される。
[ステップS423の処理]
ステップS423では,参照ブロック動きベクトル抽出処理部143が動きベクトルを抽出した参照ブロック(乖離度算出に使用した参照ブロック)のうち,予測対象ブロックの上端に接するブロックと,左端に接するブロックとを空間方向の中央値算出用参照ブロックとして抽出する。
この例では,図15〜図17の(B)に示す第tフレームの2つのブロックBS1,BS2が,空間方向の中央値算出用参照ブロックとして選ばれることになる。
[ステップS43の処理]
ステップS43では,中央値算出処理部148が,1個の時間方向の中央値算出用参照ブロックBt と,2個の空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルの各成分ごとの中央値から,予測ベクトルを算出する。なお,ステップS42の処理をスキップした場合には,空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルを予測ベクトルとする。
[ステップS44の処理]
ステップS44では,中央値算出処理部148が算出した予測ベクトルを出力するとともに,動きベクトルの最小乖離度を出力する。
以上の例では,時間方向の中央値算出用参照ブロックとして1個,空間方向の中央値算出用参照ブロックとして2個を用いる例を説明したが,それ以上の個数のブロックを中央値算出用参照ブロックとして用いるように定めてもよい。
この例では,第tフレームの符号化対象フレームに対して,符号化済みフレームの参照フレームとして,1フレーム前の第t−1フレームまたは1フレーム後の第t+1フレームを用いる例を説明した。しかし,これに限らず,参照フレームとして用いるフレームが,符号化装置側と復号装置側とで,予め定められた規則に基づき共通に決定できるフレームであれば,参照フレームを指定するための新たな符号化付加情報の追加なしに本方式を用いることができる。例えば,H.264符号化における双方向予測のフレーム間予測で参照したフレームを,本実施例で動きベクトルの予測に用いる参照フレームとして定めてもよい。
エンコーダの定めた参照フレームの選択の規則に基づく例としては,次のようなケースがある。例えばIフレーム,B1フレーム,B2フレーム,PフレームのGOP構造で,I→P→B1→B2の順に符号化される場合,B1のフレームに対しては,参照フレームとしてIフレームとPフレームが選択される。B2のフレームに対しては,参照フレームとしてIフレームとPフレームが選択される場合もあるし,B1フレームとPフレームが選択される場合もある。
また,予め定められた複数枚の符号化済みフレームを,前方向および後方向についてそれぞれ参照フレームリストとして保存しておき,複数の参照フレームのそれぞれに対して乖離度最小化領域探索処理部144による処理を行い,その中で乖離度が最小となる領域を持つ参照フレームから,時間方向の中央値算出用参照ブロックを抽出するようにしてもよい。
また,予め定められた複数枚の符号化済みフレームでなく,任意の複数枚の符号化済みフレームの中から時間方向の中央値算出用参照ブロックを抽出する場合には,図5および図6で説明したように,参照ピクチャ番号を参照フレームを指定する付加情報として符号化して,符号化装置側から復号装置側へ通知する。復号装置では,参照フレームを指定する情報が付加された場合には,その参照フレームについてだけ,乖離度が最小となる領域を探索する。
また,複数枚の符号化済みフレームの中から時間方向の中央値算出用参照ブロックを抽出する場合であって,例えば処理の高速化のために特定の符号化済みフレームだけをテンプレートマッチングの対象とする場合に,その符号化済みフレームを指定する情報を符号化付加情報としてもよい。
図10の時間方向動きベクトル予測処理部140では,乖離度最小化領域探索処理部144で求めた時間方向の予測ベクトルと,参照ブロック動きベクトル抽出処理部143で抽出した空間方向の予測ベクトルとのベクトル成分ごとの中央値によって最終的に出力する予測ベクトルを算出した。
ここで,時間方向動きベクトル予測処理部140の構成を次のように変更することもできる。最終的に出力する予測ベクトルを,時間方向の予測ベクトルと空間方向の予測ベクトルとのベクトル成分ごとの中央値で決定する代わりに,空間方向の予測ベクトルを用いないで,乖離度最小化領域探索処理部144で算出した時間方向の予測ベクトルとする。この構成例の場合,図10に示す時間方向動きベクトル予測処理部140において,動きベクトル判定部145,スイッチ部146,147および中央値算出処理部148が省略された構成となり,最小乖離度と予測ベクトルは,乖離度最小化領域探索処理部144から出力される。
また,この構成例の場合の処理フローチャートは,図11において,ステップS41と,ステップS423と,ステップS43が省かれたものとなる。
以上の処理によって算出された予測ベクトルは,図1に示す動画像符号化装置1において,動き推定部18によって算出された符号化対象ブロックの実際の動きベクトルとの差分である予測誤差ベクトルを算出するために用いられる。
また,このようにして算出された予測ベクトルを,動き補償部19における動き補償で用いる動きベクトルとすることもできる。すなわち,予測誤差ベクトルを0として処理することもできる。この場合,予測誤差ベクトルの符号化のための符号量は発生しない。本例で算出した予測ベクトルにより動き補償を行ったことを示すモード情報を符号化情報として付加してもよい。
以上の動きベクトル予測を用いる動画像符号化または動画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
図18は,動画像符号化装置をソフトウェアプログラムを用いて実現するときのハードウェア構成例を示している。
本システムは,プログラムを実行するCPU50と,CPU50がアクセスするプログラムやデータが格納されるRAM等のメモリ51と,カメラ等からの符号化対象の映像信号を入力する映像信号入力部52(ディスク装置等による映像信号を記憶する記憶部でもよい)と,図1等で説明した処理をCPU50に実行させるソフトウェアプログラムである動画像符号化プログラム531が格納されたプログラム記憶装置53と,CPU50がメモリ51にロードされた動画像符号化プログラム531を実行することにより生成された符号化ストリームを,例えばネットワークを介して出力する符号化ストリーム出力部54(ディスク装置等による符号化ストリームを記憶する記憶部でもよい)とが,バスで接続された構成になっている。
動画像符号化プログラム531は,本実施例で説明した処理によって動きベクトルを予測する動きベクトル予測プログラム532を含んでいる。
動画像復号装置をソフトウェアプログラムを用いて実現する場合にも,同様なハードウェア構成によって実現することができる。
1 動画像符号化装置
2 動画像復号装置
10 予測残差信号算出部
11 直交変換部
12 量子化部
13 符号割当て部
14,21 逆量子化部
15,22 逆直交変換部
16 復号信号算出部
17,24 フレームメモリ
18 動き推定部
19,27 動き補償部
100,200 動きベクトル予測処理部
101,26 動きベクトル記憶部
102 予測誤差ベクトル算出部
20 復号部
23 復号信号算出部
25 動きベクトル算出部
110 予測ベクトル生成処理部
120 予測モード判定処理部
121 Nullベクトル判定部
130 閾値生成部
140 時間方向動きベクトル予測処理部
141 複製処理部
142 参照フレーム動きベクトル記憶部
143 参照ブロック動きベクトル抽出処理部
144 乖離度最小化領域探索処理部
1441 乖離度算出部
1442 最小乖離度更新処理部
1443 時間方向参照ブロック抽出処理部
145 動きベクトル判定部
146,147 スイッチ部
148 中央値算出処理部

Claims (13)

  1. 符号化または復号対象画像をブロックに分割し,各ブロックごとに動き補償を用いて画像を符号化または復号する動画像符号化方式における動きベクトル予測方法において,
    双方向予測における予測方向ごとに,符号化または復号済み画像を参照画像として,符号化または復号対象画像における動きベクトルの予測対象となる予測対象ブロックの近傍にある複数個の符号化または復号済みブロックの動きベクトルをテンプレートとするテンプレートマッチングにより,前記参照画像における動きベクトルの乖離度が最小となる領域を求め,その領域から定まる動きベクトルを用いて予測ベクトルを生成するとともに,前記動きベクトルの乖離度を出力する予測ベクトル生成処理過程と,
    双方向予測における予測方向ごとに,前記乖離度と所定の閾値との大小比較により,前記予測ベクトルを,前記予測対象ブロックの予測ベクトルとして用いるか否かを適応的に決定する予測モード判定処理過程とを有する
    ことを特徴とする動きベクトル予測方法。
  2. 請求項1記載の動きベクトル予測方法において,
    前記動きベクトルの乖離度として,前記複数個の符号化または復号済みブロックの動きベクトルと,前記参照画像内の配置関係が対応する複数個のブロックの動きベクトルとの,ベクトル成分ごとの差分絶対値和もしくは二乗誤差和,またはメディアンベクトルに対する誤差,または平均ベクトルに対する誤差を用いる
    ことを特徴とする動きベクトル予測方法。
  3. 請求項1または請求項2記載の動きベクトル予測方法において,
    前記予測ベクトル生成処理過程では,
    前記参照画像における動きベクトルの乖離度が最小となる領域によって定められる位置にある1または複数個のブロックを時間方向動きベクトル参照ブロックとして該参照ブロックの動きベクトルから予測ベクトルを生成する,
    または,さらに前記複数個の符号化または復号済みブロックの中の所定の位置にある1または複数個のブロックを空間方向動きベクトル参照ブロックとして抽出し,前記時間方向動きベクトル参照ブロックの動きベクトルと前記空間方向動きベクトル参照ブロックの動きベクトルとから,各ベクトル成分ごとの中央値を算出し,算出した中央値によって予測ベクトルを生成する
    ことを特徴とする動きベクトル予測方法。
  4. 請求項1,請求項2または請求項3記載の動きベクトル予測方法において,
    現在の量子化パラメータもしくはフレーム間隔,またはその双方の値に応じて閾値を設定する閾値生成過程を有し,
    前記予測モード判定処理過程では,前記閾値生成過程において設定された閾値を,前記乖離度との大小比較に用いる閾値とする
    ことを特徴とする動きベクトル予測方法。
  5. 請求項1から請求項4までのいずれか1項に記載の動きベクトル予測方法において,
    前記予測ベクトル生成処理過程では,前記符号化または復号済み画像の参照画像として,予め定められた参照画像の選択規則に基づいて選択された複数枚の参照画像を用い,前記複数枚の参照画像において前記動きベクトルの乖離度が最小となる領域を持つ参照画像を求める
    ことを特徴とする動きベクトル予測方法。
  6. 請求項1から請求項5までのいずれか1項に記載の動きベクトル予測方法において,
    符号化時における前記予測ベクトル生成処理過程では,前記符号化または復号済み画像の参照画像として複数枚の参照画像を用い,その中でテンプレートマッチングの対象とする参照画像を指定する情報を付加情報として符号化情報に付加し,
    復号時における前記予測ベクトル生成処理過程では,前記付加情報で指定された参照画像において前記動きベクトルの乖離度が最小となる領域を求める
    ことを特徴とする動きベクトル予測方法。
  7. 符号化または復号対象画像をブロックに分割し,各ブロックごとに動き補償を用いて画像を符号化または復号する動画像符号化方式における動きベクトル予測装置において,
    双方向予測における予測方向ごとに,符号化または復号済み画像を参照画像として,符号化または復号対象画像における動きベクトルの予測対象となる予測対象ブロックの近傍にある複数個の符号化または復号済みブロックの動きベクトルをテンプレートとするテンプレートマッチングにより,前記参照画像における動きベクトルの乖離度が最小となる領域を求め,その領域から定まる動きベクトルを用いて予測ベクトルを生成するとともに,前記動きベクトルの乖離度を出力する予測ベクトル生成処理部と,
    双方向予測における予測方向ごとに,前記乖離度と所定の閾値との大小比較により,前記予測ベクトルを,前記予測対象ブロックの予測ベクトルとして用いるか否かを適応的に決定する予測モード判定処理部とを有する
    ことを特徴とする動きベクトル予測装置。
  8. 請求項7記載の動きベクトル予測装置において,
    前記動きベクトルの乖離度として,前記複数個の符号化または復号済みブロックの動きベクトルと,前記参照画像内の配置関係が対応する複数個のブロックの動きベクトルとの,ベクトル成分ごとの差分絶対値和もしくは二乗誤差和,またはメディアンベクトルに対する誤差,または平均ベクトルに対する誤差を用いる
    ことを特徴とする動きベクトル予測装置。
  9. 請求項7または請求項8記載の動きベクトル予測装置において,
    前記予測ベクトル生成処理部は,
    前記参照画像における動きベクトルの乖離度が最小となる領域によって定められる位置にある1または複数個のブロックを時間方向動きベクトル参照ブロックとして該参照ブロックの動きベクトルから予測ベクトルを生成する,
    または,さらに前記複数個の符号化または復号済みブロックの中の所定の位置にある1または複数個のブロックを空間方向動きベクトル参照ブロックとして抽出し,前記時間方向動きベクトル参照ブロックの動きベクトルと前記空間方向動きベクトル参照ブロックの動きベクトルとから,各ベクトル成分ごとの中央値を算出し,算出した中央値によって予測ベクトルを生成する
    ことを特徴とする動きベクトル予測装置。
  10. 請求項7,請求項8または請求項9記載の動きベクトル予測装置において,
    現在の量子化パラメータもしくはフレーム間隔,またはその双方の値に応じて閾値を設定する閾値生成部を備え,
    前記予測モード判定処理部は,前記閾値生成部により設定された閾値を,前記乖離度との大小比較に用いる閾値とする
    ことを特徴とする動きベクトル予測装置。
  11. 請求項7から請求項10までのいずれか1項に記載の動きベクトル予測装置において,
    前記予測ベクトル生成処理部は,前記符号化または復号済み画像の参照画像として,予め定められた参照画像の選択規則に基づいて選択された複数枚の参照画像を用い,前記複数枚の参照画像において前記動きベクトルの乖離度が最小となる領域を持つ参照画像を求める
    ことを特徴とする動きベクトル予測装置。
  12. 請求項7から請求項11までのいずれか1項に記載の動きベクトル予測装置において,
    符号化の際に,前記予測ベクトル生成処理部は,前記符号化または復号済み画像の参照画像として複数枚の参照画像を用い,その中でテンプレートマッチングの対象とする参照画像を指定する情報を付加情報として符号化情報に付加し,
    復号の際に,前記予測ベクトル生成処理部は,前記付加情報で指定された参照画像において前記動きベクトルの乖離度が最小となる領域を求める
    ことを特徴とする動きベクトル予測装置。
  13. 請求項1から請求項6までのいずれか1項に記載の動きベクトル予測方法を,コンピュータに実行させるための動きベクトル予測プログラム。
JP2010023151A 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム Active JP5281597B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023151A JP5281597B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023151A JP5281597B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Publications (2)

Publication Number Publication Date
JP2011166207A JP2011166207A (ja) 2011-08-25
JP5281597B2 true JP5281597B2 (ja) 2013-09-04

Family

ID=44596427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023151A Active JP5281597B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Country Status (1)

Country Link
JP (1) JP5281597B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6495835B2 (ja) * 2016-01-06 2019-04-03 日本電信電話株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム
CN112040244B (zh) 2018-03-29 2021-06-29 华为技术有限公司 一种双向帧间预测方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
JP2010016453A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP2011166207A (ja) 2011-08-25

Similar Documents

Publication Publication Date Title
US11546627B2 (en) Moving picture decoding method and moving picture encoding method
JP6821730B2 (ja) 符号化装置、符号化方法、復号装置、復号方法、及びプログラム
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
EP2664142B1 (en) Video encoding and decoding with improved error resilience
JP5310614B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5367098B2 (ja) 動きベクトル予測符号化方法,動きベクトル予測復号方法,動画像符号化装置,動画像復号装置およびそれらのプログラム
JP5216710B2 (ja) 復号化処理方法
KR20090095012A (ko) 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
JP5367097B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
WO2011099428A1 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
JP2017069866A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
JP5983430B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5711514B2 (ja) 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP5281596B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP2005244542A (ja) 動画像符号化装置、動画像符号化方法
JP2014068361A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2012138947A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5281597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350