JP2011166206A - 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム - Google Patents

動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム Download PDF

Info

Publication number
JP2011166206A
JP2011166206A JP2010023150A JP2010023150A JP2011166206A JP 2011166206 A JP2011166206 A JP 2011166206A JP 2010023150 A JP2010023150 A JP 2010023150A JP 2010023150 A JP2010023150 A JP 2010023150A JP 2011166206 A JP2011166206 A JP 2011166206A
Authority
JP
Japan
Prior art keywords
motion vector
prediction
vector
block
reference block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010023150A
Other languages
English (en)
Other versions
JP5281596B2 (ja
Inventor
Yukihiro Bando
幸浩 坂東
Masayuki Takamura
誠之 高村
Atsushi Shimizu
淳 清水
Hironao Josawa
裕尚 如澤
Masaki Kitahara
正樹 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010023150A priority Critical patent/JP5281596B2/ja
Publication of JP2011166206A publication Critical patent/JP2011166206A/ja
Application granted granted Critical
Publication of JP5281596B2 publication Critical patent/JP5281596B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】動きベクトルの予測効率を向上させ,動きベクトルの符号量を従来技術よりも削減する。
【解決手段】動きベクトルの予測対象となるブロックの近傍位置にあるブロックを参照ブロックとし,参照ブロックの動きベクトルをもとに参照フレームを探索して,テンプレートマッチングにより参照フレーム中で動きベクトルの乖離度が最小となる領域Rを求める。この領域Rの位置から時間方向の中央値算出用参照ブロックBt を抽出し,また,予測対象ブロックのフレーム中の参照ブロックの一部を空間方向の中央値算出用参照ブロックBS1,BS2として,これらの中央値算出用参照ブロックの動きベクトルのベクトル成分ごとの中央値から予測ベクトルを決定する。
【選択図】図8

Description

本発明は,動き補償を用いる動画像符号化技術に関し,特に動きベクトルの予測効率を向上させ,動画像の符号化効率を向上させるための動きベクトル予測技術に関するものである。
H.264に代表されるような,動き補償を用いた動画像符号化方式では,動きベクトルを効率的に符号化するために,動きベクトルの予測符号化を行う(非特許文献1参照)。
図12(A)は,従来の動き補償を用いた動画像符号化装置の例を示す。図中,300は動き補償による符号化部,310は動き探索により画像の動きを推定する動き推定部,320は動き推定によって算出された動きベクトルを記憶する動きベクトル記憶部,330は動きベクトルの予測符号化のために符号化済み情報から動きベクトルを予測する動きベクトル予測処理部,331は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部,332は参照ブロックから抽出した動きベクトルの中央値を算出する中央値算出処理部,340は動きベクトルと予測した動きベクトル(以下,予測ベクトルという)の差分を算出する予測残差算出部,350は量子化された変換係数や動きベクトルの予測残差信号(予測誤差ベクトルという)に可変長符号を割り当てて符号化ストリームを出力する符号割当て部である。
動き推定部310は,符号化対象ブロックの映像信号を入力すると,符号化済みの参照画像の復号信号と照合することにより動き探索を行い,動きベクトルを算出する。算出された動きベクトルは,動き補償による符号化部300に入力され,動き補償による符号化部300では,動きベクトルを用いた動き補償によって映像信号と予測信号との残差信号を求め,これを直交変換,量子化などによって符号化処理する。処理結果の量子化値などが符号割当て部350で符号化されて符号化ストリームとして出力される。
一方,動きベクトルについても符号量削減のために予測符号化を行う。このため,動き推定部310が算出した動きベクトルは,後の参照のために動きベクトル記憶部320に記憶される。動きベクトル予測処理部330は,符号化済みの動きベクトルを用いて予測ベクトルを算出する。
動きベクトル予測処理部330における動きベクトルの予測では,まず,参照ブロック動きベクトル抽出処理部331が,図12(B)に示すような符号化対象画像(符号化対象ピクチャまたはフレームともいう)の予測対象ブロック(符号化対象ブロック)B0の近傍にある符号化済みブロックを参照ブロックB1〜B3として,これらの動きベクトルを,動きベクトル記憶部320から抽出する。
次に,中央値算出処理部332は,参照ブロックB1〜B3の各動きベクトル成分の中央値を算出し,算出した中央値から予測ベクトルを生成する。
予測残差算出部340は,動きベクトルと予測ベクトルとの差分(予測誤差ベクトル)を算出し,その予測誤差ベクトルを符号割当て部350へ送る。予測誤差ベクトルは,符号割当て部350で可変長符号化されて,符号化ストリームとして出力される。
図13は,従来の動き補償を用いた動画像復号装置の例を示す。図中,400は符号化ストリーム中の可変長符号を復号する可変長復号部,410は予測誤差ベクトルと予測ベクトルを加算する動きベクトル算出部,420は動きベクトルを記憶する動きベクトル記憶部,430は動きベクトルを復号済みの情報を用いて予測する動きベクトル予測処理部,431は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部,432は参照ブロックから抽出した動きベクトル成分の中央値を算出する中央値算出処理部,440は算出された動きベクトルを用いて動き補償を行い,復号対象ブロックを復号して,復号された映像信号を出力する動き補償による復号部である。
符号化ストリームを入力すると,可変長復号部400は,符号化ストリーム中の可変長符号を復号し,復号対象ブロックの量子化変換係数を動き補償による復号部440へ送り,予測誤差ベクトルを動きベクトル算出部410へ送る。動きベクトル算出部410は,予測誤差ベクトルと,復号済みの動きベクトルから求めた予測ベクトルとを加算し,動きベクトルを算出する。算出された動きベクトルは,動き補償による復号部440へ送られるとともに,動きベクトル記憶部420に格納される。動き補償による復号部440は,算出された動きベクトルを用いて動き補償を行い,復号対象ブロックを復号して,復号された映像信号を出力する。
動画像復号装置における動きベクトル予測処理部430の動きベクトルの予測処理は,図12に示す動画像符号化装置における動きベクトル予測処理部330の処理と同様である。
図14は,従来の他の動きベクトル予測処理部の例を示している。H.264符号化では,Bピクチャの符号化における符号化モードの一つとして,動き情報を符号化済みブロックの動き情報から予測生成し,動き情報の符号化を省略するダイレクト・モードと呼ばれる符号化モードが用いられている(非特許文献1,2参照)。
ダイレクト・モードには,主として空間方向の動き情報を利用する空間ダイレクト・モードと,主として時間方向の動き情報を利用する時間ダイレクト・モードがある。この時間ダイレクト・モードにおける動きベクトルの予測では,動きベクトル予測処理部500は,次のように予測ベクトルを算出する。
アンカーブロック動きベクトル抽出処理部501が,アンカーピクチャで予測対象ブロックと同じ位置にあるブロック(これをアンカーブロックという)の動きベクトルmvColを動きベクトル記憶部510から抽出する。アンカーピクチャとは,ダイレクト・モードの動きベクトルを求める際の動きベクトルを持つピクチャのことであり,通常は,表示順序で符号化対象ピクチャの後方の一番近い参照ピクチャである。
次に,外挿予測処理部502は,動きベクトルmvColからL0の動きベクトルmvL0と,L1の動きベクトルmvL1を,L0の参照ピクチャと符号化対象ピクチャとアンカーピクチャとの時間間隔に応じて比例配分することにより算出する。なお,Bピクチャでは,任意の参照ピクチャから最大2枚のピクチャを選択できるので,この2枚をL0,L1として区別し,主として前方向予測に用いる予測をL0予測,主として後方向予測に用いる予測をL1予測と呼んでいる。
動きベクトル予測処理部500は,外挿予測処理部502が算出した動きベクトルmvL0,mvL1を予測ベクトルとして出力する。
国際標準AVC/H.264規格書,ISO/SC 29/WG 11 (MPEG) 14496-10:2004. Coding of audio visual objects. Part 10: Advanced Video Coding 3rd Ed. International Standard, Nov. 2007. 角野,菊池,鈴木,"改訂三版H.264/AVC教科書",インプレスR&D発行,2009, pp.128-130.
図12で説明したような,従来の動きベクトルの符号化では,空間的な近傍ブロックの動きベクトルから予測ベクトルを生成し,その予測ベクトルと,符号化対象ブロックの動きベクトルとの差分ベクトルを符号化対象としている。
しかし,空間的な予測に限定しているため,時間方向の相関を利用できていない。そのため,時間方向の相関の観点から符号化効率が十分とは言えず,符号化効率の改善の余地が残っていると考えられる。
また,図14で説明したH.264における時間ダイレクト・モードにおける符号化でも,符号化済みピクチャの特定のブロック(アンカーブロック)の動きベクトルmvColから予測ベクトルを生成しているため,時間的な相関の利用が限定的であり,符号化効率の向上に改善の余地がある。すなわち,従来の時間ダイレクト・モードでは,あるブロックの動きベクトルを予測する場合に,他のフレームの同一空間位置(真裏にあたる位置)のブロック(co−located block)の動きベクトルを利用している。しかし,co−located blockの動きベクトルは,必ずしも予測対象ブロックの良い動きベクトルになる保証はないため,動きベクトルの予測性能に改善の余地を残している。
本発明は,上記課題の解決を図り,動きベクトルの予測効率を向上させ,動きベクトルの符号量を従来技術よりも削減することを目的とする。
本発明は,空間的な近傍ブロックの動きベクトルだけではなく,時間方向の相関も利用して予測ベクトルを生成する。そのため,符号化済み画像(フレームともいう)の動きベクトルの中で信頼度の高いものを探索し,それを時間方向の参照ブロックの動きベクトルとして,符号化対象画像内の参照ブロック(空間方向の参照ブロックという)の動きベクトルとともに,予測ベクトルの生成に用いる。具体的には,時間方向の参照ブロックの動きベクトルと空間方向の参照ブロックの動きベクトルとのベクトル成分ごとの中央値を,予測ベクトルとする。
符号化済み画像の動きベクトルの中で信頼度の高いものを探索する方法として,符号化対象画像内の予測対象ブロックの近傍にある複数個の符号化済みブロックを第1の参照ブロック群とし,これらの動きベクトルをテンプレートとするテンプレートマッチングにより,符号化済み画像の中から動きベクトルの乖離度が最小となるブロック群の領域を求め,その領域から定まる位置にあるブロックの動きベクトルを抽出する。乖離度として,ベクトル成分ごとの差分絶対値和や二乗誤差和等を用いることができる。
基本的な処理の概要は,以下のとおりである。
1.符号化済みフレーム(以下,MV参照フレームという)内の符号化済み動きベクトルを用いて,予測ベクトルとしての有効性の尺度となる信頼度に基づき,符号化対象フレーム内の符号化対象ブロック(予測対象ブロック)の動きベクトルを予測する。ここで,MV参照フレームは,動きベクトルのフレーム間予測において参照する予め定められたフレームであり,動き補償のための画素値のフレーム間予測において参照するフレームと同じフレームであっても,違うフレームであってもどちらでもよい。
以上の1.の処理は,以下のように行われる。
1.1 予測対象ブロックに対して同一フレーム内の空間的な近傍ブロックの動きベクトルを抽出する。
1.2 上記近傍ブロックの動きベクトルを用いて,MV参照フレーム中の乖離度が最小となる領域を探索によって求める。
1.2.1 上記領域の探索において,空間的な近傍ブロック内の動きベクトルに基づくテンプレートマッチングを行う。
1.2.1.1 上記乖離度として,ベクトル成分ごとの差分絶対値和を用いる。
1.2.1.2 上記乖離度として,ベクトル成分ごとの二乗誤差和を用いる。
1.2.1.3 上記乖離度として,メディアンベクトルに対する誤差を用いる。
1.2.1.4 上記乖離度として,平均ベクトルに対する誤差を用いる。
1.3 上記領域内のブロックまたは領域に近接するブロックを予測に用いるMV参照ブロック(時間方向MV参照ブロック)として抽出する。
1.4 符号化対象フレーム内の上記近傍ブロック内のブロックから,その一部を予測に用いるMV参照ブロック(空間方向MV参照ブロック)として抽出する。
1.5 MV参照ブロック内の動きベクトルに対して,中央値予測を行い,予測ベクトルを算出する。
2.復号の場合にも同様に,復号済みフレーム(MV参照フレーム)内の復号済み動きベクトルを用いて,信頼度に基づき,復号対象フレーム内の復号対象ブロックの予測ベクトルを求める。
なお,上記1.2.1で用いる空間的な近傍ブロック内の動きベクトルは,符号化装置と復号装置とで共有可能な情報であるため,時間方向MV参照ブロックの指定に伴う付加情報は発生しない。
さらに,上記発明において,空間方向MV参照ブロック内の動きベクトルが一致する場合,時間方向MV参照ブロックの探索を省略する。これにより,演算量の増加を抑圧することができる。
本発明によれば,符号化対象ブロックの動きベクトルを予測するにあたって,空間的な相関だけでなく,複数の参照ブロックの動きベクトルについて時間的な相関も利用して予測ベクトルを算出するので,動きベクトルの予測精度が向上し,その符号量を削減することができるようになり,動画像の符号化効率が向上する。
本発明を適用する動画像符号化装置の一構成例を示す図である。 本発明を適用する動画像復号装置の一構成例を示す図である。 本発明の実施例に係る動きベクトル予測処理部の構成例を示す図である。 動きベクトル予測処理部の処理の一例を示すフローチャートである。 動きベクトル予測処理部の処理の他の一例を示すフローチャートである。 参照ブロックの配置例を示す図である。 参照ブロックの配置例を示す図である。 参照ブロックの配置例1を用いた場合の予測ベクトル算出方法の例を説明する図である。 参照ブロックの配置例2を用いた場合の予測ベクトル算出方法の例を説明する図である。 参照ブロックの配置例3を用いた場合の予測ベクトル算出方法の例を説明する図である。 ソフトウェアプログラムにより実現するときのハードウェア構成例を示す図である。 従来の動画像符号化装置の例を示す図である。 従来の動画像復号装置の例を示す図である。 従来の動きベクトル予測処理部の一例を示す図である。
以下,図面を用いて,本発明の実施形態を詳細に説明する。
図1は,本発明を適用する動画像符号化装置の一構成例を示す図である。動画像符号化装置1において,本実施形態は,特に動きベクトル予測処理部100の部分が従来技術と異なる部分であり,他の部分は,H.264その他のエンコーダとして用いられている従来の一般的な動画像符号化装置の構成と同様である。
動画像符号化装置1は,符号化対象の映像信号を入力し,入力映像信号のフレームをブロックに分割してブロックごとに符号化し,そのビットストリームを符号化ストリームとして出力する。
この符号化のため,予測残差信号算出部10は,入力映像信号と動き補償部19の出力である予測信号との差分を求め,それを予測残差信号として出力する。直交変換部11は,予測残差信号に対して離散コサイン変換(DCT)等の直交変換を行い,変換係数を出力する。量子化部12は,変換係数を量子化し,その量子化された変換係数を出力する。符号割当て部13は,量子化された変換係数をエントロピー符号化し,符号化ストリームとして出力する。
一方,量子化された変換係数は,逆量子化部14にも入力され,ここで逆量子化される。逆直交変換部15は,逆量子化部14の出力である変換係数を逆直交変換し,予測残差復号信号を出力する。復号信号算出部16では,この予測残差復号信号と動き補償部19の出力である予測信号とを加算し,符号化した符号化対象ブロックの復号信号を生成する。この復号信号は,動き補償部19における動き補償の参照画像として用いるために,フレームメモリ17に格納される。
動き推定部18は,符号化対象ブロックの映像信号について,フレームメモリ17に格納された参照画像を参照して動き探索を行い,動きベクトルを算出する。この動きベクトルは,動き補償部19および予測誤差ベクトル算出部102に出力され,また,動きベクトル記憶部101に格納される。動き補償部19は,動き推定部18が求めた動きベクトルを用いて,フレームメモリ17内の画像を参照することにより,符号化対象ブロックの予測信号を出力する。
動き補償に用いた動きベクトルについても予測符号化するために,動きベクトル予測処理部100によって符号化済みの情報を用いて動きベクトルの予測を行い,動き補償に用いた動きベクトルと,予測された動きベクトル(これを予測ベクトルという)との差分を,予測誤差ベクトル算出部102により算出して,結果を予測誤差ベクトルとして符号割当て部13へ出力する。符号割当て部13は,予測誤差ベクトルについてもエントロピ符号化により符号を割り当て,符号化ストリームとして出力する。
図2は,本発明を適用する動画像復号装置の一構成例を示す図である。動画像復号装置2において,本実施形態は,特に動きベクトル予測処理部200の部分が従来技術と異なる部分であり,他の部分は,H.264その他のデコーダとして用いられている従来の一般的な動画像復号装置の構成と同様である。
動画像復号装置2は,図1に示す動画像符号化装置1により符号化された符号化ストリームを入力して復号することにより復号画像の映像信号を出力する。
この復号のため,復号部20は,符号化ストリームを入力し,復号対象ブロックの量子化変換係数をエントロピー復号するとともに,予測誤差ベクトルを復号する。逆量子化部21は,量子化変換係数を入力し,それを逆量子化して復号変換係数を出力する。逆直交変換部22は,復号変換係数に逆直交変換を施し,復号予測残差信号を出力する。復号信号算出部23では,動き補償部27で生成されたフレーム間予測信号と復号予測残差信号とを加算することで,復号対象ブロックの復号信号を生成する。この復号信号は,表示装置等の外部の装置に出力されるとともに,動き補償部27における動き補償の参照画像として用いるために,フレームメモリ24に格納される。
動きベクトル算出部25は,復号部20が復号した予測誤差ベクトルと,動きベクトル予測処理部200が算出した予測ベクトルとを加算し,動き補償に用いる動きベクトルを算出する。この動きベクトルは,動きベクトル記憶部26に記憶され,動き補償部27に通知される。
動き補償部27は,入力した動きベクトルをもとに動き補償を行い,フレームメモリ24の参照画像を参照して,復号対象ブロックのフレーム間予測信号を生成する。このフレーム間予測信号は,復号信号算出部23で復号予測残差信号に加算される。
動きベクトル予測処理部200は,動きベクトル記憶部26に記憶された復号済みの動きベクトルを用いて,動きベクトルの予測を行い,求めた予測ベクトルを動きベクトル算出部25に出力する。
図3は,動きベクトル予測処理部の構成例を示す図である。図1に示す動画像符号化装置1における動きベクトル予測処理部100と,図2に示す動画像復号装置2における動きベクトル予測処理部200の内部構成は同様であり,例えば図3に示すように構成される。
複製処理部110は,動きベクトル予測処理部100(または200)において,後続フレームの動きベクトルを予測する際に参照するために,動きベクトル記憶部101(または26)に格納された動きベクトルを,参照フレーム動きベクトル記憶部111にコピーする処理を行う。このコピーは,各フレームの全ブロックに対する処理が終了したタイミングで行う。
参照ブロック動きベクトル抽出処理部112は,予測対象ブロックに対する参照ブロックを,予測対象ブロックの空間的近傍ブロックから抽出する処理を行う。どの位置の参照ブロックを抽出するかについては,予め定めておくようにしてもよい。その具体例については,後述する。
乖離度最小化領域探索処理部120は,参照ブロックの動きベクトルに対して,最も類似している領域を符号化・復号済みフレーム(参照フレームと呼ぶ)内から探索する処理を行う。このための手段として,乖離度算出部121,最小乖離度更新処理部122,時間方向参照ブロック抽出処理部123を備える。
乖離度算出部121は,参照フレーム中の領域内の動きベクトルと参照ブロックの動きベクトルとの乖離度を算出する。乖離度が大きいほど,予測ベクトルとして用いる動きベクトルの信頼度が小さいことになる。乖離度の例としては,次のようなものがあるが,これらに限らず,符号化対象ブロックでの動きベクトル予測における有効性を定量的に表すことができるものであれば乖離度として他の尺度を用いてもよい。
〔乖離度の例1〕乖離度として,ベクトル成分ごとの差分絶対値和を用いる。
〔乖離度の例2〕乖離度として,ベクトル成分ごとの二乗誤差和を用いる。
〔乖離度の例3〕乖離度として,メディアンベクトルに対する差分絶対値または二乗誤差を用いる。
〔乖離度の例4〕乖離度として,平均ベクトルに対する差分絶対値または二乗誤差を用いる。
最小乖離度更新処理部122は,乖離度算出部121による乖離度の算出を,参照フレーム中の探索範囲内で行ったときに,それまでの探索で最小となる乖離度を与える領域を最小乖離度を更新しながら記憶し,最終的にその探索範囲において最小の乖離度を与える領域を求める。
時間方向参照ブロック抽出処理部123は,最小乖離度更新処理部122によって求めた参照フレームにおける最小の乖離度を与える領域に近接するブロックを,時間方向の参照ブロック(中央値算出用参照ブロックと呼ぶ)として抽出する処理を行う。
中央値算出処理部115は,参照ブロック動きベクトル抽出処理部112が動きベクトルを抽出した参照ブロック(乖離度算出に使用した参照ブロック)のうち,例えば予測対象ブロックの上端に接するブロックと,左端に接するブロックとを中央値算出用参照ブロックとして,これらの動きベクトルと,時間方向参照ブロック抽出処理部123が抽出した中央値算出用参照ブロックの動きベクトルとの中央値を算出し,結果を予測ベクトルとして出力する。
動きベクトル判定部113は,乖離度最小化領域探索処理部120の処理を実施するか実施しないかを判定する。中央値算出処理部115では,例えば,同一フレーム内の2つの中央値算出用参照ブロックから抽出した2つの動きベクトルと,時間方向の参照ブロックから抽出した中央値算出用参照ブロック内の1つの動きベクトルに対して,成分ごとに中央値を算出し,予測ベクトルとすることから,もし,同一フレーム内の中央値算出用参照ブロックから抽出した2つの動きベクトルが同一の場合,予測ベクトルは,同一フレーム内の中央値算出用参照ブロックにおける動きベクトルとして,一意に定まる。このため,同一フレーム内の中央値算出用参照ブロック内の動きベクトルが同一という条件を満たす場合,乖離度最小化領域探索処理部120の処理は省略することができる。
そこで,動きベクトル判定部113が上記条件が満たされることを検出すると,スイッチ部114を操作することにより,乖離度最小化領域探索処理部120の処理は省略し,参照ブロック動きベクトル抽出処理部112で抽出した参照ブロックの動きベクトルだけを中央値算出処理部115の入力とする。
図4は,動きベクトル予測処理部の処理フローチャートである。動画像符号化装置1における動きベクトル予測処理部100が行う処理の詳細を,図6〜図10に示す具体例に従って説明する。なお,動画像復号装置2における動きベクトル予測処理部200の処理も同様である。
[ステップS1の処理]
ステップS1では,参照ブロック動きベクトル抽出処理部112が,予測対象ブロックに対する参照ブロックを,予測対象ブロックの空間的近傍ブロックから抽出する。
予測対象ブロックの空間的近傍ブロックである参照ブロックの配置例を,図6に示す。この例では,参照ブロックの配置例として,図6(A)に示す配置例1と,図6(B)に示す配置例2と,図6(C)に示す配置例3があり,このいずれかを,所定の設定値に従って用いるものとする。なお,これらの配置例のどれを用いるかを,適応的に選択するようにしてもよく,その場合には,映像単位,フレーム単位,スライス単位というような符号化単位ごとに,どの配置例を用いて符号化するかを示す情報を,符号化付加情報として付加する。
参照ブロックの配置例1は,予測対象ブロックの上端に接するブロックと,右斜め上のブロックと,左端に接するブロックの計3個の符号化済みブロックを参照ブロックとする。ただし,予測対象ブロックがフレームの右端に存在する場合には,右斜め上のブロックは選べないので,例外として,代わりに左斜め上のブロックを参照ブロックとする。すなわち,配置例3に変更する。
参照ブロックの配置例2は,予測対象ブロックの左斜め上のブロックと,上端に接するブロックと,右斜め上のブロックと,左端に接するブロックの計4個の符号化済みブロックを参照ブロックとする。ただし,予測対象ブロックがフレームの右端に存在する場合には,右斜め上のブロックは選べないので,例外として,右斜め上のブロックを加えない3ブロックとする。すなわち,配置例3に変更する。
参照ブロックの配置例3は,予測対象ブロックの左斜め上のブロックと,上端に接するブロックと,左端に接するブロックの計3個の符号化済みブロックを参照ブロックとする。
これらの参照ブロックの配置例1〜3には,さらに符号化状況に応じて例外がある。例えば,参照ブロックの候補がイントラマクロブロックの場合等には,動きベクトルを持たないため,参照できないからである。その例を,図7に示す。
図7(A)は,参照ブロックの配置例1において,右斜め上のブロックB3が参照不可で,左斜め上のブロックB1が参照可能な場合の例であり,この場合には,ブロックB3の代わりにブロックB1を参照ブロックとする。
また,図7(B)に示す参照ブロックの配置例2において,例えばブロックB1が参照不可の場合,参照ブロックとして配置例1の配置を採用する。また,ブロックB3が参照不可の場合,配置例3の配置を採用する。
また,図7(C)に示す参照ブロックの配置例3において,例えばブロックB1が参照不可で,ブロックB3が参照可能な場合には,ブロックB1の代わりにブロックB3を参照ブロックに加え,配置例1の配置を採用する。
なお,例えば,複数の参照ブロックが参照不可であるような場合には,本モードによる動きベクトルの予測は行わないで,従来技術と同様な動きベクトルの符号化を行う。
[ステップS2の処理]
ステップS2では,乖離度最小化領域探索処理部120が,テンプレートマッチングによる動きベクトル予測処理を行う。すなわち,ステップS1で抽出した参照ブロックの動きベクトルに対して,最も類似している領域を参照フレーム内から探索する処理を行う。具体的には,以下のステップS21〜S23を実行する。
[ステップS21の処理]
ステップS21では,乖離度算出部121および最小乖離度更新処理部122が,参照ブロック(予測対象ブロックの近傍ブロック)の動きベクトルを用いて,参照フレーム中の乖離度が最小となる領域Rを求める。
図8(A),(B)は,参照ブロックの配置例1を用いた場合の探索の例を示している。符号化対象フレームを第tフレーム,参照フレームを直前の第t−1フレームとする。第tフレームの3個の参照ブロックの位置関係を保ったまま,第t−1フレームにおける3ブロックの動きベクトルの乖離度が最小となる領域Rを探索する。
例えば,第tフレームの3個の参照ブロックの動きベクトルを,
mv1 =(x1 ,y1
mv2 =(x2 ,y2
mv3 =(x3 ,y3
とし,第t−1フレームの探索範囲における3個のブロックの動きベクトルを,
mvj1=(xj1,yj1
mvj2=(xj2,yj2
mvj3=(xj3,yj3
とする。
乖離度として,例えばベクトル成分ごとの差分絶対値和を用いるものとすると,乖離度は,次式によって算出される。
乖離度=|x1 −xj1|+|x2 −xj2|+|x3 −xj3
+|y1 −yj1|+|y2 −yj2|+|y3 −yj3
また,乖離度として,例えばベクトル成分ごとの二乗誤差和を用いるものとすると,乖離度は,次式によって算出される。
乖離度=(x1 −xj12 +(x2 −xj22 +(x3 −xj32
+(y1 −yj12 +(y2 −yj22 +(y3 −yj32
他にも,乖離度として,メディアンベクトルや平均ベクトルに対する差分絶対値または二乗誤差等を用いることができる。
この乖離度の算出を,第t−1フレームにおいて3個のブロック全体を1ブロックずつずらしながら繰り返し,最終的に乖離度が最小となる領域Rを求める。
[ステップS22の処理]
ステップS22では,時間方向参照ブロック抽出処理部123が,領域Rの近傍ブロック,詳しくは参照フレーム(第t−1フレーム)における領域Rに対して,符号化対象フレーム(第tフレーム)の参照ブロックに対する予測対象ブロックの位置と相対的に同じ位置にあるブロックを,時間方向の参照ブロック(中央値算出用参照ブロックと呼ぶ)として抽出する。
図8の例では,図8(C)に示すブロックBt が,この時間方向の中央値算出用参照ブロックである。
[ステップS23の処理]
ステップS23では,参照ブロック動きベクトル抽出処理部112が動きベクトルを抽出した参照ブロック(乖離度算出に使用した参照ブロック)のうち,予測対象ブロックの上端に接するブロックと,左端に接するブロックとを空間方向の中央値算出用参照ブロックとして抽出する。
図8の例では,図8(C)に示す第tフレームの2つのブロックBS1,BS2が,この空間方向の中央値算出用参照ブロックとして選ばれる。
以上のステップS2におけるテンプレートマッチングによる動きベクトル予測処理の説明では,図8に示す参照ブロックの配置例1を用いた場合の具体例を説明したが,参照ブロックの配置例2を用いた場合も同様であり,参照ブロックの配置例3を用いた場合も同様である。参照ブロックの配置例2を用いた場合の例を図9に示し,参照ブロックの配置例3を用いた場合の例を図10に示す。
[ステップS3の処理]
ステップS3では,中央値算出処理部115が,1個の時間方向の中央値算出用参照ブロックBt と,2個の空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルの各成分ごとの中央値から,予測ベクトルを生成して出力する。
以上の例では,時間方向の中央値算出用参照ブロックとして1個,空間方向の中央値算出用参照ブロックとして2個を用いる例を説明したが,それ以上の個数のブロックを中央値算出用参照ブロックとして用いるように定めてもよい。
図5は,動きベクトル予測処理部の処理の他の一例を示すフローチャートであり,図4に示す処理を高速化の観点から改良した例を示している。
図5の処理において,図4と異なるのは,ステップS1とS2の間にステップS10の処理が追加されていることである。このステップS10では,動きベクトル判定部113により,ステップS2のテンプレートマッチングによる動きベクトル予測処理をスキップするかどうかの判定を行っている。
例えば,図8〜図10に示す例において,もし2個の空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルが同一であれば,中央値算出処理部115での算出結果の中央値は,この空間方向の中央値算出用参照ブロックBS1,BS2の動きベクトルとなる。したがって,ステップS2の処理によって時間方向の中央値算出用参照ブロックを求める必要はなくなるので,ステップS2の処理をスキップする。これにより,処理が高速化されることになる。
以上説明した図8〜図10の例では,第tフレームの符号化対象フレームに対して,符号化済みフレームの参照フレームとして,1フレーム前の第t−1フレームを用いる例を説明した。しかし,これに限らず,参照フレームとして用いるフレームが,符号化装置側と復号装置側とで,予め定められた規則に基づき共通に決定できるフレームであれば,参照フレームを指定するための新たな符号化付加情報の追加なしに本方式を用いることができる。例えば,H.264符号化におけるPピクチャのフレーム間予測で参照したフレームを,本実施例で動きベクトルの予測に用いる参照フレームとして定めてもよい。
また,予め定められた複数枚の符号化済みフレームを参照フレームとして用いてもよい。この場合には,複数の参照フレームのそれぞれに対して乖離度最小化領域探索処理部120による処理を行い,その中でもっとも乖離度が最小となる領域を持つ参照フレームから,時間方向の中央値算出用参照ブロックを抽出する。
また,予め定められた複数枚の符号化済みフレームでなく,任意の複数枚の符号化済みフレームの中から時間方向の中央値算出用参照ブロックを抽出してもよい。ただし,この場合には,時間方向の中央値算出用参照ブロックを抽出した参照フレームを指定する付加情報を符号化して,符号化装置側から復号装置側へ通知する必要がある。
以上の処理によって算出された予測ベクトルは,図1に示す動画像符号化装置1において,動き推定部18によって算出された符号化対象ブロックの実際の動きベクトルとの差分である予測誤差ベクトルを算出するために用いられる。
また,このようにして算出された予測ベクトルを,動き補償部19における動き補償で用いる動きベクトルとすることもできる。すなわち,予測誤差ベクトルを0として処理することもできる。この場合,予測誤差ベクトルの符号化のための符号量は発生しない。本例で算出した予測ベクトルにより動き補償を行ったことを示すモード情報を符号化情報として付加してもよい。
以上の動きベクトル予測を用いる動画像符号化または動画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
図11は,動画像符号化装置をソフトウェアプログラムを用いて実現するときのハードウェア構成例を示している。
本システムは,プログラムを実行するCPU50と,CPU50がアクセスするプログラムやデータが格納されるRAM等のメモリ51と,カメラ等からの符号化対象の映像信号を入力する映像信号入力部52(ディスク装置等による映像信号を記憶する記憶部でもよい)と,図1等で説明した処理をCPU50に実行させるソフトウェアプログラムである動画像符号化プログラム531が格納されたプログラム記憶装置53と,CPU50がメモリ51にロードされた動画像符号化プログラム531を実行することにより生成された符号化ストリームを,例えばネットワークを介して出力する符号化ストリーム出力部54(ディスク装置等による符号化ストリームを記憶する記憶部でもよい)とが,バスで接続された構成になっている。
動画像符号化プログラム531は,図4または図5で説明した処理によって動きベクトルを予測する動きベクトル予測プログラム532を含んでいる。
動画像復号装置をソフトウェアプログラムを用いて実現する場合にも,同様なハードウェア構成によって実現することができる。
1 動画像符号化装置
2 動画像復号装置
10 予測残差信号算出部
11 直交変換部
12 量子化部
13 符号割当て部
14,21 逆量子化部
15,22 逆直交変換部
16 復号信号算出部
17,24 フレームメモリ
18 動き推定部
19,27 動き補償部
100,200 動きベクトル予測処理部
101,26 動きベクトル記憶部
102 予測誤差ベクトル算出部
20 復号部
23 復号信号算出部
25 動きベクトル算出部
110 複製処理部
111 参照フレーム動きベクトル記憶部
112 参照ブロック動きベクトル抽出処理部
113 動きベクトル判定部
114 スイッチ部
115 中央値算出処理部
120 乖離度最小化領域探索処理部
121 乖離度算出部
122 最小乖離度更新処理部
123 時間方向参照ブロック抽出処理部

Claims (7)

  1. 符号化または復号対象画像をブロックに分割し,各ブロックごとに動き補償を用いて画像を符号化または復号する動画像符号化方式における動きベクトル予測方法において,
    符号化または復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して,同一画像内の予め定められた近傍位置にある複数個の符号化または復号済みブロックを第1の参照ブロック群として,これらの参照ブロック群から動きベクトルを抽出する過程と,
    予め定められた符号化または復号済み画像を参照画像として,前記第1の参照ブロック群から抽出した動きベクトルをテンプレートとするテンプレートマッチングにより,前記第1の参照ブロック群と同じ配置関係にある前記参照画像内のブロック群の中で,動きベクトルの乖離度が最小となるブロック群の領域を求め,その領域によって定められる位置にある1または複数個のブロックを時間方向動きベクトル参照ブロックとして抽出する過程と,
    前記第1の参照ブロック群の中の所定の位置にある1または複数個のブロックを空間方向動きベクトル参照ブロックとして抽出する過程と,
    前記時間方向動きベクトル参照ブロックの動きベクトルと前記空間方向動きベクトル参照ブロックの動きベクトルとから,各ベクトル成分ごとの中央値を算出し,前記予測対象ブロックの動きベクトルに対する予測ベクトルを生成する過程とを有する
    ことを特徴とする動きベクトル予測方法。
  2. 請求項1記載の動きベクトル予測方法において,
    前記動きベクトルの乖離度として,前記第1の参照ブロック群の動きベクトルと,前記参照画像内のブロック群の動きベクトルとの,ベクトル成分ごとの差分絶対値和もしくは二乗誤差和,またはメディアンベクトルに対する誤差,または平均ベクトルに対する誤差を用いる
    ことを特徴とする動きベクトル予測方法。
  3. 請求項1または請求項2記載の動きベクトル予測方法において,
    前記空間方向動きベクトル参照ブロックとして複数個の参照ブロックを抽出し,それらの参照ブロックの動きベクトルの値が一致する場合に,前記時間方向動きベクトル参照ブロックとして抽出する過程を実行しないで,前記空間方向動きベクトル参照ブロックの動きベクトルを,予測ベクトルとする
    ことを特徴とする動きベクトル予測方法。
  4. 符号化または復号対象画像をブロックに分割し,各ブロックごとに動き補償を用いて画像を符号化または復号する動画像符号化方式における動きベクトル予測装置において,
    符号化または復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して,同一画像内の予め定められた近傍位置にある複数個の符号化または復号済みブロックを第1の参照ブロック群として,これらの参照ブロック群から動きベクトルを抽出する参照ブロック動きベクトル抽出処理部と,
    予め定められた符号化または復号済み画像を参照画像として,前記第1の参照ブロック群から抽出した動きベクトルをテンプレートとするテンプレートマッチングにより,前記第1の参照ブロック群と同じ配置関係にある前記参照画像内のブロック群の中で,動きベクトルの乖離度が最小となるブロック群の領域を求め,その領域によって定められる位置にある1または複数個のブロックを時間方向動きベクトル参照ブロックとして抽出する乖離度最小化領域探索処理部と,
    前記時間方向動きベクトル参照ブロックの動きベクトルと,前記第1の参照ブロック群の中の所定の位置にある1または複数個のブロックからなる空間方向動きベクトル参照ブロックの動きベクトルとから,各ベクトル成分ごとの中央値を算出し,前記予測対象ブロックの動きベクトルに対する予測ベクトルを生成する中央値算出処理部とを備える
    ことを特徴とする動きベクトル予測装置。
  5. 請求項4記載の動きベクトル予測装置において,
    前記動きベクトルの乖離度として,前記第1の参照ブロック群の動きベクトルと,前記参照画像内のブロック群の動きベクトルとの,ベクトル成分ごとの差分絶対値和もしくは二乗誤差和,またはメディアンベクトルに対する誤差,または平均ベクトルに対する誤差を用いる
    ことを特徴とする動きベクトル予測装置。
  6. 請求項4または請求項5記載の動きベクトル予測装置において,
    前記空間方向動きベクトル参照ブロックとして複数個の参照ブロックが抽出される場合に,それらの参照ブロックの動きベクトルが一致するかどうかを判定する動きベクトル判定部を備え,
    前記動きベクトル判定部が前記動きベクトルが一致すると判定した場合に,前記中央値算出処理部は,前記乖離度最小化領域探索処理部の処理結果を用いないで,前記空間方向動きベクトル参照ブロックの動きベクトルを,予測ベクトルとする
    ことを特徴とする動きベクトル予測装置。
  7. 請求項1,請求項2または請求項3記載の動きベクトル予測方法を,コンピュータに実行させるための動きベクトル予測プログラム。
JP2010023150A 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム Active JP5281596B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023150A JP5281596B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023150A JP5281596B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Publications (2)

Publication Number Publication Date
JP2011166206A true JP2011166206A (ja) 2011-08-25
JP5281596B2 JP5281596B2 (ja) 2013-09-04

Family

ID=44596426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023150A Active JP5281596B2 (ja) 2010-02-04 2010-02-04 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム

Country Status (1)

Country Link
JP (1) JP5281596B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101560186B1 (ko) * 2013-03-18 2015-10-14 삼성전자주식회사 움직임 예측에 있어 적응적 탐색 범위 결정을 이용한 부호화, 복호화 방법 및 장치
CN111066325A (zh) * 2017-09-26 2020-04-24 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016453A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016453A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101560186B1 (ko) * 2013-03-18 2015-10-14 삼성전자주식회사 움직임 예측에 있어 적응적 탐색 범위 결정을 이용한 부호화, 복호화 방법 및 장치
US9438929B2 (en) 2013-03-18 2016-09-06 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image by using an adaptive search range decision for motion estimation
CN111066325A (zh) * 2017-09-26 2020-04-24 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
CN111066325B (zh) * 2017-09-26 2023-08-22 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法

Also Published As

Publication number Publication date
JP5281596B2 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
JP6821730B2 (ja) 符号化装置、符号化方法、復号装置、復号方法、及びプログラム
KR102344430B1 (ko) 다중 참조 예측을 위한 움직임 벡터 개선
JP5277257B2 (ja) 動画像復号化方法および動画像符号化方法
EP2664142B1 (en) Video encoding and decoding with improved error resilience
KR101528361B1 (ko) 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
US8761254B2 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP5306486B2 (ja) 動きベクトル予測符号化方法,動きベクトル予測復号方法,動画像符号化装置,動画像復号装置およびそれらのプログラム
JP5310614B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5216710B2 (ja) 復号化処理方法
CN111201795B (zh) 存储访问窗口和用于运动矢量修正的填充
JP5306485B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
JP5367097B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
KR20090095012A (ko) 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
JP5983430B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US20180227592A1 (en) Motion picture encoding device, motion picture encoding method, and storage medium storing motion picture encoding program
JP5711514B2 (ja) 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム
JP5281596B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
WO2020059616A1 (ja) 画像符号化装置、画像復号装置、及びプログラム
WO2013002219A1 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム及び動画像復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5281596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350