JP2012129756A - 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム - Google Patents

符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム Download PDF

Info

Publication number
JP2012129756A
JP2012129756A JP2010278638A JP2010278638A JP2012129756A JP 2012129756 A JP2012129756 A JP 2012129756A JP 2010278638 A JP2010278638 A JP 2010278638A JP 2010278638 A JP2010278638 A JP 2010278638A JP 2012129756 A JP2012129756 A JP 2012129756A
Authority
JP
Japan
Prior art keywords
prediction
block
vector
prediction vector
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278638A
Other languages
English (en)
Other versions
JP5711514B2 (ja
Inventor
Yukihiro Bando
幸浩 坂東
Takeshi Ito
健 伊藤
Masayuki Takamura
誠之 高村
Hirohisa Jozawa
裕尚 如澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010278638A priority Critical patent/JP5711514B2/ja
Publication of JP2012129756A publication Critical patent/JP2012129756A/ja
Application granted granted Critical
Publication of JP5711514B2 publication Critical patent/JP5711514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】動きベクトルの符号量を従来技術よりも削減することができる符号化装置を提供する。
【解決手段】動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化装置であって、符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出手段と、予め定められた符号化済み画像を参照画像として、参照ブロックと同じ配置関係にある参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出手段とを備える。
【選択図】図1

Description

本発明は、動き補償を用いる動画像符号化技術に関し、特に動きベクトルの予測効率を向上させ、動画像の符号化効率を向上させるための動きベクトル予測技術に関する。
動画圧縮規格であるH.264に代表されるような動画像符号化における重要な要素技術の一つに、動き補償フレーム間予測技術がある。動き補償フレーム間予測では、動きベクトルを効率的に符号化するために、動きベクトルの予測符号化を行う(例えば、非特許文献1参照)。図13(A)は、従来の動き補償を用いた動画像符号化装置の構成を示す図である。図中、300は動き補償による符号化部、310は動き探索により画像の動きを推定する動き推定部、320は動き推定によって算出された動きベクトルを記憶する動きベクトル記憶部である。330は動きベクトルの予測符号化のために符号化済み情報から動きベクトルを予測する動きベクトル予測処理部、331は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部、332は参照ブロックから抽出した動きベクトルの中央値を算出する中央値算出処理部である。340は動きベクトルと予測した動きベクトル(以下、予測ベクトルという)の差分を算出する予測残差算出部、350は量子化された変換係数や動きベクトルの予測残差信号(予測誤差ベクトルという)に可変長符号を割り当てて符号化ストリームを出力する符号割当て部である。
動き推定部310は、符号化対象ブロックの映像信号を入力すると、符号化済みの参照画像の復号信号と照合することにより動き探索を行い、動きベクトルを算出する。算出された動きベクトルは、動き補償による符号化部300に入力され、動き補償による符号化部300では、動きベクトルを用いた動き補償によって映像信号と予測信号との残差信号を求め、これを直交変換、量子化などによって符号化処理する。処理結果の量子化値などが符号割当て部350で符号化されて符号化ストリームとして出力される。
一方、動きベクトルについても符号量削減のために予測符号化を行う。このため、動き推定部310が算出した動きベクトルは、後の参照のために動きベクトル記憶部320に記憶される。動きベクトル予測処理部330は、符号化済みの動きベクトルを用いて予測ベクトルを算出する。動きベクトル予測処理部330における動きベクトルの予測では、まず、参照ブロック動きベクトル抽出処理部331が、図13(B)に示すような符号化対象画像(符号化対象ピクチャまたはフレームともいう)の予測対象ブロック(符号化対象ブロック)B0の近傍にある符号化済みブロックを参照ブロックB1〜B3として、これらの動きベクトルを、動きベクトル記憶部320から抽出する。
次に、中央値算出処理部332は、参照ブロックB1〜B3の各動きベクトル成分の中央値を算出し、算出した中央値から予測ベクトルを生成する。この予測ベクトルの生成方法を空間メディアン予測と呼ぶ。予測残差算出部340は、動きベクトルと予測ベクトルとの差分(予測誤差ベクトル)を算出し、その予測誤差ベクトルを符号割当て部350へ送る。予測誤差ベクトルは、符号割当て部350で可変長符号化されて、符号化ストリームとして出力される。
図14は、従来の動き補償を用いた動画像復号装置の構成を示す図である。図中、400は符号化ストリーム中の可変長符号を復号する可変長復号部、410は予測誤差ベクトルと予測ベクトルを加算する動きベクトル算出部、420は動きベクトルを記憶する動きベクトル記憶部である。430は動きベクトルを復号済みの情報を用いて予測する動きベクトル予測処理部、431は動きベクトルの予測に用いる参照ブロックの動きベクトルを抽出する参照ブロック動きベクトル抽出処理部、432は参照ブロックから抽出した動きベクトル成分の中央値を算出する中央値算出処理部である。440は算出された動きベクトルを用いて動き補償を行い、復号対象ブロックを復号して、復号された映像信号を出力する動き補償による復号部である。
符号化ストリームを入力すると、可変長復号部400は、符号化ストリーム中の可変長符号を復号し、復号対象ブロックの量子化変換係数を動き補償による復号部440へ送り、予測誤差ベクトルを動きベクトル算出部410へ送る。動きベクトル算出部410は、予測誤差ベクトルと、復号済みの動きベクトルから求めた予測ベクトルとを加算し、動きベクトルを算出する。算出された動きベクトルは、動き補償による復号部440へ送られるとともに、動きベクトル記憶部420に格納される。動き補償による復号部440は、算出された動きベクトルを用いて動き補償を行い、復号対象ブロックを復号して、復号された映像信号を出力する。動画像復号装置における動きベクトル予測処理部430の動きベクトルの予測処理は、図13に示す動画像符号化装置における動きベクトル予測処理部330の処理と同様である。
図15は、従来の時間方向動きベクトル予測処理部の構成を示す図である。規格H.264符号化では、Bピクチャの符号化における符号化モードの一つとして、動き情報を符号化済みブロックの動き情報から予測生成し、動き情報の符号化を省略するダイレクト・モードと呼ばれる符号化モードが用いられている。ダイレクト・モードには、主として空間方向の動き情報を利用する空間ダイレクト・モードと、主として時間方向の動き情報を利用する時間ダイレクト・モードがある。この時間ダイレクト・モードにおける動きベクトルの予測では、動きベクトル予測処理部500は、次のように予測ベクトルを算出する。
アンカーブロック動きベクトル抽出処理部501が、アンカーピクチャで予測対象ブロックと同じ位置にあるブロック(これをアンカーブロックという)の動きベクトルmvColを動きベクトル記憶部510から抽出する。アンカーピクチャとは、ダイレクト・モードの動きベクトルを求める際の動きベクトルを持つピクチャのことであり、通常は、表示順序で符号化対象ピクチャの後方の一番近い参照ピクチャである。次に、外挿予測処理部502は、動きベクトルmvColからL0の動きベクトルmvL0と、L1の動きベクトルmvL1を、L0の参照ピクチャと符号化対象ピクチャとアンカーピクチャとの時間間隔に応じて比例配分することにより算出する。なお、Bピクチャでは、任意の参照ピクチャから最大2枚のピクチャを選択できるので、この2枚をL0、L1として区別し、主として前方向予測に用いる予測をL0予測、主として後方向予測に用いる予測をL1予測と呼んでいる。
動きベクトル予測処理部500は、外挿予測処理部502が算出した動きベクトルmvL0、mvL1を予測ベクトルとして出力する。なお、動きベクトルmvColを予測ベクトルとする方法もある。この予測ベクトルの生成方法をCo−located予測と呼ぶ。
"H.264/AVC 教科書(改訂三版)"角野眞也他、インプレスR&D、pp.128−130、2008.7
ところで、前述した従来の動きベクトルの符号化では、空間的な近傍ブロックの動きベクトルから予測ベクトルを生成し、その予測ベクトルと、符号化対象ブロックの動きベクトルとの差分ベクトルを符号化対象としている。しかし、空間的な予測に限定しており、時間方向の相関を利用できていないため、時間方向の相関の観点から符号化効率が十分とは言えず、符号化効率の改善の余地が残っている。また、図15に示す規格H.264における時間ダイレクト・モードにおける符号化でも、符号化済みピクチャの特定のブロック(アンカーブロック)の動きベクトルmvColから予測ベクトルを生成しているため、時間的な相関の利用が限定的であり、符号化効率の向上に改善の余地がある。
すなわち、従来の時間ダイレクト・モードでは、あるブロックの動きベクトルを予測する場合に、他のフレームの同一空間位置(真裏にあたる位置)のブロック(co−located block)の動きベクトルを利用している。しかし、co−located blockの動きベクトルは、必ずしも予測対象ブロックの良い動きベクトルになる保証はないため、動きベクトルの予測性能に改善の余地を残している。
本発明は、このような事情に鑑みてなされたもので、上記課題の解決を図り、動きベクトルの予測効率を向上させ、動きベクトルの符号量を従来技術よりも削減することができる符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラムを提供することを目的とする。
本発明は、動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化装置であって、前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出手段と、予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出手段とを備えることを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段をさらに備え、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のうち、予め定められた評価尺度に基づき、いずれかの予測ベクトルを選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記参照ブロックから抽出された動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記参照ブロックから抽出された動きベクトルの大きさおよびフレーム間距離に応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号装置であって、前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出手段と、予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出手段とを備えることを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段をさらに備え、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のうち、予め定められた評価尺度に基づき、いずれかの予測ベクトルを選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記参照ブロックから抽出された動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、前記参照ブロックから抽出された動きベクトルの大きさおよびフレーム間距離に応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする。
本発明は、動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化方法であって、前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップとを有することを特徴とする。
本発明は、動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号方法であって、前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップとを有することを特徴とする。
本発明は、動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化装置上のコンピュータに符号化処理を行わせる符号化プログラムであって、前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップとを前記コンピュータに行わせることを特徴とする。
本発明は、動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号装置上のコンピュータに復号処理を行わせる復号プログラムであって、前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップとを前記コンピュータに行わせることを特徴とする。
本発明によれば、動きベクトルの予測効率を向上させ、動きベクトルの符号量を従来技術よりも削減することができるという効果が得られる。
本発明の一実施形態における動画像符号化装置の構成を示すブロック図である。 同実施形態における動画像復号装置の構成を示すブロック図である。 図1に示す動きベクトル予測処理部100と動きベクトル記憶部101の詳細な構成を示すブロック図である。 図3に示すTM予測処理部110の詳細な構成を示すブロック図である。 図3に示す動きベクトル予測処理部100の動作を示すフローチャートである。 図3に示す動きベクトル予測処理部100の動作を示すフローチャートである。 図3に示す動きベクトル予測処理部100の動作を示すフローチャートである。 図3に示す動きベクトル予測処理部100の動作を示すフローチャートである。 図4に示すTM予測処理部110の処理動作を示すフローチャートである。 図4に示すTM予測処理部110の処理動作を示すフローチャートである。 空間的近傍ブロックの例を示す説明図である。 TM予測空間近傍ブロックの参照領域、参照領域ブロック、TM参照ブロックの例を示す説明図である。 従来技術による動き補償を用いた動画像符号化装置の構成を示す図である。 従来技術による動き補償を用いた動画像復号装置の構成を示す図である。 従来技術による時間方向動きベクトル予測処理部の構成を示す図である。
以下、図面を参照して、本発明の一実施形態による符号化装置及び復号装置を説明する。図1は同実施形態における動画像符号化装置の構成を示すブロック図である。この図において、動きベクトル予測処理部100の部分が従来技術と異なる部分であり、他の部分は、規格H.264その他のエンコーダとして用いられている従来の一般的な動画像符号化装置の構成と同様である。動画像符号化装置1は、符号化対象の映像信号を入力し、入力映像信号のフレームをブロックに分割してブロックごとに符号化し、そのビットストリームを符号化ストリームとして出力する。この符号化のため、予測残差信号算出部10は、入力映像信号と動き補償部19の出力である予測信号との差分を求め、それを予測残差信号として出力する。直交変換部11は、予測残差信号に対して離散コサイン変換(DCT)等の直交変換を行い、変換係数を出力する。量子化部12は、変換係数を量子化し、その量子化された変換係数を出力する。符号割当て部13は、量子化された変換係数をエントロピー符号化し、符号化ストリームとして出力する。
一方、量子化された変換係数は、逆量子化部14にも入力され、ここで逆量子化される。逆直交変換部15は、逆量子化部14の出力である変換係数を逆直交変換し、予測残差復号信号を出力する。復号信号算出部16では、この予測残差復号信号と動き補償部19の出力である予測信号とを加算し、符号化した符号化対象ブロックの復号信号を生成する。この復号信号は、動き補償部19における動き補償の参照画像として用いるために、フレームメモリ17に格納される。動き推定部18は、符号化対象ブロックの映像信号について、フレームメモリ17に格納された参照画像を参照4して動き探索を行い、動きベクトルを算出する。この動きベクトルは、動き補償部19および予測誤差ベクトル算出部102に出力され、また、動きベクトル記憶部101に格納される。
動き補償部19は、動き推定部18が求めた動きベクトルを用いて、フレームメモリ17内の画像を参照することにより、符号化対象ブロックの予測信号を出力する。動き補償に用いた動きベクトルについても予測符号化するために、動きベクトル予測処理部100によって符号化済みの情報を用いて動きベクトルの予測を行い、動き補償に用いた動きベクトルと、予測された動きベクトル(これを予測ベクトルという)との差分を、予測誤差ベクトル算出部102により算出して、結果を予測誤差ベクトルとして符号割当て部13へ出力する。符号割当て部13は、予測誤差ベクトルについてもエントロピー符号化により符号を割り当て符号化ストリームとして出力する。
図2は、同実施形態における動画像復号装置の構成を示すブロック図である。この図において、動きベクトル予測処理部200の部分が従来技術と異なる部分であり、他の部分は、規格H.264その他のデコーダとして用いられている従来の一般的な動画像復号装置の構成と同様である。動画像復号装置2は、図1に示す動画像符号化装置1により符号化された符号化ストリームを入力して復号することにより復号画像の映像信号を出力する。この復号のため、復号部20は、符号化ストリームを入力し、復号対象ブロックの量子化変換係数をエントロピー復号するとともに、予測誤差ベクトルを復号する。逆量子化部21は、量子化変換係数を入力し、それを逆量子化して復号変換係数を出力する。逆直交変換部22は、復号変換係数に逆直交変換を施し、復号予測残差信号を出力する。
復号信号算出部23では、動き補償部27で生成されたフレーム間予測信号と復号予測残差信号とを加算することで、復号対象ブロックの復号信号を生成する。この復号信号は、表示装置等の外部の装置に出力されるとともに、動き補償部27における動き補償の参照画像として用いるために、フレームメモリ24に格納される。動きベクトル算出部25は、復号部20が復号した予測誤差ベクトルと、動きベクトル予測処理部200が算出した予測ベクトルとを加算し、動き補償に用いる動きベクトルを算出する。この動きベクトルは、動きベクトル記憶部26に記憶され、動き補償部27に通知される。
動き補償部27は、入力した動きベクトルをもとに動き補償を行い、フレームメモリ24の参照画像を参照して、復号対象ブロックのフレーム間予測信号を生成する。このフレーム間予測信号は、復号信号算出部23で復号予測残差信号に加算される。動きベクトル予測処理部200は、動きベクトル記憶部26に記憶された復号済みの動きベクトルを用いて、動きベクトルの予測を行い、求めた予測ベクトルを動きベクトル算出部25に出力する。
次に、図3を参照して、図1に示す動きベクトル予測処理部100と動きベクトル記憶部101の詳細な構成を説明する。図3は、図1に示す動きベクトル予測処理部100と動きベクトル記憶部101の詳細な構成を示すブロック図である。なお、図2に示す動画像復号装置2における動きベクトル予測処理部200と動きベクトル記憶部26の構成も図3に示す動きベクトル予測処理部100と動きベクトル記憶部101と同様であるため、ここでは、ベクトル予測処理部100と動きベクトル記憶部101について説明する。
動きベクトル予測処理部100は、Template Matching(TM)予測を行うTM予測処理部110と、Co−located予測を行うCo−located予測処理部111と、空間メディアン予測を行う空間メディアン予測処理部112と、3つの予測ベクトルは1つの予測ベクトルを選択する予測ベクトル選択処理部113とから構成する。動きベクトル記憶部101は、時間予測ベクトルを記憶する時間予測ベクトル記憶部114と、空間予測ベクトルを記憶する空間予測ベクトル記憶部115とから構成する。
次に、図4を参照して、図3に示すTM予測処理部110の詳細な構成を説明する。図4は、図3に示すTM予測処理部110の詳細な構成を示すブロック図である。複製処理部1101は、後続フレームの動きベクトルを予測する際に参照するために、動きベクトル記憶部101(または26)に格納された動きベクトルを、参照フレーム動きベクトル記憶部1102にコピーする処理を行う。このコピー処理は、各フレームの全ブロックに対する処理が終了したタイミングで行う。近傍ブロック動きベクトル抽出処理部1103は、予測対象ブロックに対する参照ブロックを、予測対象ブロックの空間的近傍ブロックから抽出する処理を行う。空間的近傍ブロックの例を図11に示す。以下の説明では、TM予測がマッチングの参照の際に用いる周辺ブロックをTM予測空間近傍ブロックと呼ぶ。どの位置の参照ブロックを抽出するかについては、予め定めておくようにしてもよい。乖離度最小化領域探索処理部1104は、参照ブロックの動きベクトルに対して、最も類似している領域を符号化・復号済みフレーム(参照フレームと呼ぶ)内から探索する処理を行う。
このための手段として、乖離度算出部1105、乖離度比較処理部1106、最小乖離度更新処理部1107を備える。乖離度算出部1105は、参照フレーム中の領域内の動きベクトルと参照ブロックの動きベクトルとの乖離度を算出する。乖離度が大きいほど、予測ベクトルとして用いる動きベクトルの信頼度が小さいことになる。乖離度の例としては、第1の乖離度として、ベクトル成分ごとの差分絶対値和を用いる、第2の乖離度として、ベクトル成分ごとの二乗誤差和を用いる、第3の乖離度として、メディアンベクトルに対する差分絶対値または二乗誤差を用いる、第4の乖離度として、平均ベクトルに対する差分絶対値または二乗誤差を用いる、等があるが、これらに限らず、符号化対象ブロックでの動きベクトル予測における有効性を定量的に表すことができるものであれば乖離度として他の尺度を用いてもよい。
次に、図5〜図8を参照して、図3に示す動きベクトル予測処理部100の動作を説明する。図3に示す予測ベクトル選択処理部113では、予測ベクトルの候補を複数用意し、予め定められた選択基準に基づき、予測ベクトルを選択する。選択基準の例としては、各予測ベクトルを用いた場合の発生符号量と歪み量の加重和をコスト関数として、同コスト関数の最小化を挙げることができる。予測ベクトルの候補(予測候補)としては、空間メディアン予測、Co−located 予測、TM予測を用いる。このとき、問題となるのは、予測候補を指定する付加情報の増大である。以下、ベクトルV=(Vx,Vy)のノルムとして、ベクトルの成分の絶対値和|V|=|Vx|+|Vy|を用いる。
<第1の選択方法>
フレーム単位に、時間方向の予測ベクトルとして、Co−located予測およびTM予測のいずれかを選択する。この選択を表すために必要な情報は、フレームあたり1ビットですむ。その上で、フレーム内の局所領域毎に、上記選択された時間方向予測と空間メディアン予測を選択する。
<第2の選択方法>
TM予測がマッチングの参照に用いる周辺ブロックの動きベクトルの大きさに着目する。同ベクトルが大きい場合は、予測対象ブロックも大きな変位を含むことが予想され、その場合、異なる時刻の同一位置のブロックにおける動きベクトルであるmvColと被予測ベクトルは類似している可能性が低い。そこで、周辺ブロックの動きベクトルのノルムの和が一定の閾値を超えた場合は、Co−located予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
<第3の選択方法>
TM予測がマッチングの参照に用いる周辺ブロックの動きベクトルの大きさに着目する。同ベクトルが小さい場合は、予測対象ブロックも小さな変位を含むことが予想され、その場合、異なる時刻の同一位置のブロックにおける動きベクトルであるmvColと被予測ベクトルが類似している可能性が高い。そこで、周辺ブロックの動きベクトルのノルムの和が一定の閾値以下の場合は、TM予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
図5を参照して、第2と第3の選択方法の処理動作を説明する。まず、空間メディアン予測処理部112は、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を空間予測ベクトル記憶部115から読み込み(ステップS1)、空間メディアン予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS2)。そして、空間近傍MVsのノルムが閾値以上か否かを判定し(ステップS3)、閾値以上であれば、TM予測処理部110はTM予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS4)。一方、閾値以上でなければ、Co−located予測処理部111は、Co−located予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS5)。そして、予測ベクトル選択処理部113は、記憶部に格納された予測候補の中から、コストを最小化する予測ベクトルを選択して出力する(ステップS6)。
<第4の選択方法>
予測対象ブロックに対して異なる時刻の同一位置のブロックにおける動きベクトルであるmvColの大きさに着目する。同ベクトルが大きい場合は、予測対象ブロックも大きな変位を含むことが予想され、その場合、mvColと被予測ベクトルは類似している可能性が低い。そこで、mvColのノルムが一定の閾値を超えた場合は、Co−located予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
<第5の選択方法>
予測対象ブロックに対して異なる時刻の同一位置のブロックにおける動きベクトルであるmvColの大きさに着目する。同ベクトルが小さい場合は、予測対象ブロックも小さな変位を含むことが予想され、その場合、mvColと被予測ベクトルは類似している可能性が高い。そこで、mvColのノルムが一定の閾値以下の場合は、TM予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
図6を参照して、第4と第5の選択方法の処理動作を説明する。まず、空間メディアン予測処理部112は、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を空間予測ベクトル記憶部115から読み込み(ステップS11)、空間メディアン予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS12)。Co−located予測処理部111は、Co−located予測ベクトルを生成する(ステップS13)。そして、Co−located予測ベクトルのノルムが閾値以上か否かを判定し(ステップS14)、閾値以上であれば、TM予測処理部110はTM予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS15)。一方、閾値以上でなければ、Co−located予測処理部111は、Co−located予測ベクトルを予測候補として記憶部に格納する(ステップS16)。そして、予測ベクトル選択処理部113は、記憶部に格納された予測候補の中から、コストを最小化する予測ベクトルを選択して出力する(ステップS17)。
<第6の選択方法>
TM予測において用いる参照フレームと被予測フレーム間のフレーム間距離に着目する。同距離が大きい場合は、予測対象ブロックも大きな変位を含むことが予想され、その場合、異なる時刻の同一位置のブロックにおける動きベクトルであるmvColと被予測ベクトルは類似している可能性が低い。そこで、参照フレームと被予測フレーム間のフレーム間距離が閾値を超えた場合は、Co−located 予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
図7を参照して、第6の選択方法の処理動作を説明する。まず、空間メディアン予測処理部112は、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を空間予測ベクトル記憶部115から読み込み(ステップS21)、空間メディアン予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS22)。そして、参照フレームと被予測フレームの間隔が閾値以上か否かを判定し(ステップS23)、閾値以上であれば、TM予測処理部110はTM予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS24)。一方、閾値以上でなければ、Co−located予測処理部111は、Co−located予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS25)。そして、予測ベクトル選択処理部113は、記憶部に格納された予測候補の中から、コストを最小化する予測ベクトルを選択して出力する(ステップS26)。
<第7の選択方法>
TM予測がマッチングの参照に用いる周辺ブロックの動きベクトルの大きさに着目する。同ベクトルが大きい場合は、予測対象ブロックも大きな変位を含むことが予想され、その場合、異なる時刻の同一位置のブロックにおける動きベクトルであるmvColと被予測ベクトルは類似している可能性が低い。さらに、フレーム間隔が長くなるほど、この可能性の確率は高まる。そこで、周辺ブロックの動きベクトルのノルムの和が一定の閾値を超え、さらに、TM予測において用いる参照フレームと被予測フレーム間のフレーム間距離が一定の閾値を超えた場合は、Co−located 予測を予測候補から除外することとする。これにより、予測候補を指定する付加情報を削減可能となる。
図8を参照して、第7の選択方法の処理動作を説明する。まず、空間メディアン予測処理部112は、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を空間予測ベクトル記憶部115から読み込み(ステップS31)、空間メディアン予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS32)。そして、空間近傍MVsのノルムが閾値以上か否かを判定し(ステップS33)、空間近傍MVsのノルムが閾値以上であれば、さらに参照フレームと被予測フレームの間隔が閾値以上か否かを判定し(ステップS34)、参照フレームと被予測フレームの間隔が閾値以上であれば、TM予測処理部110はTM予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS35)。一方、閾値以上でなければ、Co−located予測処理部111は、Co−located予測ベクトルを生成し、予測候補として記憶部に格納する(ステップS36)。そして、予測ベクトル選択処理部113は、記憶部に格納された予測候補の中から、コストを最小化する予測ベクトルを選択して出力する(ステップS37)。
次に、図9を参照して、図4に示すTM予測処理部110の処理動作を説明する。まず、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を読み込む(ステップS41)。そして、TM予測に用いる参照フレームを指定し(ステップS42)、TM予測における探索範囲を設定する(ステップS43)。ステップS42における指定方法の例としては、同一の予測構造(Pピクチャ、もしくは、Bピクチャ)をもつフレームにおいて、符号化順序の最も近いフレームを指定する方法を挙げることができる。ステップS43における探索範囲は、予め設定された範囲をあらわす値を与えるものとする。例えば、TM予測の対象となるブロックの原点に最も近い点の座標位置を中心として、水平方向に±W、垂直方向に±Hの範囲をカバーする領域を探索範囲として与える。
TM予測空間近傍ブロックの動きベクトルを用いて、参照フレーム中に設定した探索範囲内において乖離度が最小となる参照領域Rを求める。この参照領域とは、TM予測空間近傍ブロックの位置関係を保った3個のブロックから構成される領域であり、この参照領域内のブロックを参照領域ブロックと呼ぶ。参照フレームにおける参照領域Rに対して、符号化対象フレームのTM予測空間近傍ブロックに対する予測対象ブロックの位置と相対的に同じ位置にあるブロック(TM参照ブロックと呼ぶ)を同定し、TM参照ブロックにおける動きベクトルを抽出する。
図12にTM予測空間近傍ブロックの配置例3を用いた場合の参照領域、参照領域ブロック、TM参照ブロックの例を示す。まず、参照領域ブロックにおける動きベクトル(参照MVs)を読み込み(ステップS44)、空間近傍MVsと参照MVsの乖離度を算出する(ステップS45)。例えば、第tフレームの3個のTM予測空間近傍の動きベクトルを、
mv =(x,y
mv =(x,y
mv =(x,y
とし、第t−1フレームの探索範囲における3個の参照ブロックの動きベクトルを、
mvj=(xj,yj
mvj=(xj,yj
mvj=(xj,yj
とする。
乖離度として、例えばベクトル成分ごとの差分絶対値和を用いるものとすると、乖離度は、次式によって算出する。
乖離度=|x −xj|+|x −xj|+|x −xj|+|y−yj|+|y −yj|+|y −yj
また、乖離度として、例えばベクトル成分ごとの二乗誤差和を用いるものとすると、乖離度は、次式によって算出される。
乖離度=(x−xj+(x−xj+(x−xj+(y−yj+(y−yj+(y−yj
他にも、乖離度として、メディアンベクトルや平均ベクトルに対する差分絶対値または二乗誤差等を用いることができる。
次に、算出された乖離度は、これまでの乖離度の最小値よりも小さいか否かを判定し(ステップS46)、小さければTM参照ブロックにおける動きベクトルを記憶部に格納する(ステップS47)。そして、ステップS44〜S47の処理を参照フレームの探索範囲において3個のブロック全体を1ブロックずつずらしながら繰り返し、最終的に乖離度が最小となる参照領域Rを求める。この乖離度が最小となる参照領域に対するTM参照ブロックにおける動きベクトルがTM予測ベクトルとなる。以上の処理は、参照フレーム数が1枚の場合の処理動作である。
次に、図10を参照して、参照フレーム数が複数枚の場合の図4に示すTM予測処理部110の処理動作を説明する。まず、TM予測空間近傍ブロックの動きベクトル(空間近傍MVs)を読み込む(ステップS51)。そして、TM予測に用いる参照フレームを指定し(ステップS52)、TM予測における探索範囲を設定する(ステップS43)。指定された参照フレーム群に対して、処理を実施するためのループ1の処理を開始する。そして、探索範囲内の参照領域候補に対して、処理を実施するためのループ2の処理を開始する。参照ブロックにおける動きベクトル(参照MVs)を読み込み(ステップS54)、空間近傍MVsと参照MVsの乖離度を算出する(ステップS55)。次に、算出された乖離度は、これまでの乖離度の最小値よりも小さいか否かを判定し(ステップS56)、小さければTM参照ブロックにおける動きベクトルを記憶部に格納する(ステップS57)。そして、探索範囲内全てに対してステップS44〜S47の処理を実施し、さらに、指定された参照フレーム群全てに対して処理を実施した時点で処理を終了する。図9が単一の参照フレームに対して、TM参照ブロックを探索したのに対し、図10は複数の参照フレームに対して、TM参照ブロックを探索する点が異なる。
以上説明したように、TM予測空間近傍ブロックの動きベクトルだけではなく、時間方向の相関も利用して予測ベクトルを生成するようにしたため、符号化済み画像の動きベクトルの中で信頼度の高いものを探索し、それを時間方向の参照ブロックの動きベクトルとして、符号化対象画像内の参照ブロックの動きベクトルとともに、予測ベクトルの生成に用いる。符号化済み画像の動きベクトルの中で信頼度の高いものを探索する方法として、符号化対象画像内の予測対象ブロックの近傍にある複数個の符号化済みブロックを第1の参照ブロック群とし、これらの動きベクトルをテンプレートとするテンプレートマッチングにより、符号化済み画像の中から動きベクトルの乖離度が最小となるブロック群の領域を求め、その領域から定まる位置にあるブロックの動きベクトルを抽出する。乖離度として、ベクトル成分ごとの差分絶対値和や二乗誤差和等を用いることができる。
なお、図1に示す動画像符号化装置1及び図2に示す動画像復号装置2の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより符号化処理、復号処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
動き補償を用いる動画像符号化技術において、特に動きベクトルの予測効率を向上させ、動画像の符号化効率を向上させるための動きベクトルを予測することが不可欠な用途にも適用できる。
100・・・動きベクトル予測処理部、200・・・動きベクトル予測処理部、110・・・TM予測処理部、111・・・Co−located予測処理部、112・・・空間メディアン予測処理部、113・・・予測ベクトル選択処理部、114・・・時間予測ベクトル記憶部、115・・・空間予測ベクトル記憶部

Claims (14)

  1. 動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化装置であって、
    前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出手段と、
    予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出手段と
    を備えることを特徴とする符号化装置。
  2. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段をさらに備え、
    前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のうち、予め定められた評価尺度に基づき、いずれかの予測ベクトルを選択することを特徴とする請求項1に記載の符号化装置。
  3. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項2に記載の符号化装置。
  4. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記参照ブロックから抽出された動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項2に記載の符号化装置。
  5. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記参照ブロックから抽出された動きベクトルの大きさおよびフレーム間距離に応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項2に記載の符号化装置。
  6. 動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号装置であって、
    前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出手段と、
    予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出手段と
    を備えることを特徴とする復号装置。
  7. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段をさらに備え、
    前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のうち、予め定められた評価尺度に基づき、いずれかの予測ベクトルを選択することを特徴とする請求項6に記載の復号装置。
  8. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項7に記載の復号装置。
  9. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記参照ブロックから抽出された動きベクトルの大きさに応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項7に記載の復号装置。
  10. 前記予測ベクトル抽出手段とは異なる方法で前記予測ベクトルの候補を抽出する手段は、異なるフレームの同一空間位置のブロックに割り当てられた動きベクトルであるCo−located予測ベクトルを予測ベクトルの候補とし、
    前記参照ブロックから抽出された動きベクトルの大きさおよびフレーム間距離に応じて、前記予測ベクトルの候補を抽出する手段により抽出した予測ベクトルの候補と、前記予測ベクトル抽出手段により抽出した予測ベクトルの候補のいずれかを予測ベクトルとして選択することを特徴とする請求項7に記載の復号装置。
  11. 動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化方法であって、
    前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、
    予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップと
    を有することを特徴とする符号化方法。
  12. 動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号方法であって、
    前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、
    予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップと
    を有することを特徴とする復号方法。
  13. 動画像を構成する符号化対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を符号化する動画像符号化方式を用いた符号化装置上のコンピュータに符号化処理を行わせる符号化プログラムであって、
    前記符号化対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の符号化済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、
    予め定められた符号化済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップと
    を前記コンピュータに行わせることを特徴とする符号化プログラム。
  14. 動画像を構成する復号対象画像をブロックに分割し、各ブロックに動き補償を用いて画像を復号する動画像復号方式を用いた復号装置上のコンピュータに復号処理を行わせる復号プログラムであって、
    前記復号対象画像における動きベクトルの予測対象となる予測対象ブロックに対して、同一画像内の予め定められた近傍位置にある複数個の復号済み参照ブロックから動きベクトルを抽出する動きベクトル抽出ステップと、
    予め定められた復号済み画像を参照画像として、前記参照ブロックと同じ配置関係にある前記参照画像内のブロックの中で、動きベクトルの乖離度が最小となるブロックの領域を求め、その領域に対して割り当てられた動きベクトルを当該ブロックに対する予測ベクトルの候補として抽出する予測ベクトル抽出ステップと
    を前記コンピュータに行わせることを特徴とする復号プログラム。
JP2010278638A 2010-12-14 2010-12-14 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム Active JP5711514B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278638A JP5711514B2 (ja) 2010-12-14 2010-12-14 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278638A JP5711514B2 (ja) 2010-12-14 2010-12-14 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム

Publications (2)

Publication Number Publication Date
JP2012129756A true JP2012129756A (ja) 2012-07-05
JP5711514B2 JP5711514B2 (ja) 2015-04-30

Family

ID=46646333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278638A Active JP5711514B2 (ja) 2010-12-14 2010-12-14 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム

Country Status (1)

Country Link
JP (1) JP5711514B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026726A (ja) * 2016-08-10 2018-02-15 日本放送協会 符号化装置及びプログラム
WO2018097115A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018097116A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018097117A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2008193746A (ja) * 2002-01-09 2008-08-21 Matsushita Electric Ind Co Ltd 動きベクトル符号化方法
WO2009052742A1 (en) * 2007-10-15 2009-04-30 Huawei Technologies Co., Ltd. An interframe prediction encoding/decoding method and apparatus
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
WO2010035733A1 (ja) * 2008-09-24 2010-04-01 ソニー株式会社 画像処理装置および方法
WO2010095559A1 (ja) * 2009-02-20 2010-08-26 ソニー株式会社 画像処理装置および方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193746A (ja) * 2002-01-09 2008-08-21 Matsushita Electric Ind Co Ltd 動きベクトル符号化方法
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
WO2009052742A1 (en) * 2007-10-15 2009-04-30 Huawei Technologies Co., Ltd. An interframe prediction encoding/decoding method and apparatus
JP2011501542A (ja) * 2007-10-15 2011-01-06 華為技術有限公司 フレーム間予測符号化の方法および装置
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
JP2011517227A (ja) * 2008-04-11 2011-05-26 トムソン ライセンシング ビデオ符号化及び復号化におけるテンプレート・マッチング予測(tmp)のための方法及び装置
WO2010035733A1 (ja) * 2008-09-24 2010-04-01 ソニー株式会社 画像処理装置および方法
WO2010095559A1 (ja) * 2009-02-20 2010-08-26 ソニー株式会社 画像処理装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026726A (ja) * 2016-08-10 2018-02-15 日本放送協会 符号化装置及びプログラム
WO2018097115A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018097116A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018097117A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Also Published As

Publication number Publication date
JP5711514B2 (ja) 2015-04-30

Similar Documents

Publication Publication Date Title
JP7071453B2 (ja) 動き情報の復号化方法、符号化方法及び記録媒体
US8254456B2 (en) Method and apparatus for encoding video and method and apparatus for decoding video
KR101366242B1 (ko) 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
JP6887550B2 (ja) 画像予測復号方法
US8787463B2 (en) Method and apparatus for encoding/decoding motion vector
JP6636615B2 (ja) 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置
KR101528361B1 (ko) 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
JP5020829B2 (ja) 動画像復号装置および動画像符号化装置
JP5367097B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
JP2011029863A (ja) 復号化処理方法
JP2016154395A (ja) 以前ブロックの動きベクトルを現在ブロックの動きベクトルとして用いる映像符号化/復号化方法及び装置
JP5711514B2 (ja) 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム
US20150023418A1 (en) Image processing apparatus and image processing method
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP5281596B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP5729817B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム及び動画像復号プログラム
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2018182393A (ja) 映像符号化装置
JP2015039246A (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2013517733A (ja) 以前ブロックの動きベクトルを現在ブロックの動きベクトルとして用いる映像符号化/復号化方法及び装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150306

R150 Certificate of patent or registration of utility model

Ref document number: 5711514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150