JP4999859B2 - 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 - Google Patents
予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体Info
- Publication number
- JP4999859B2 JP4999859B2 JP2008542055A JP2008542055A JP4999859B2 JP 4999859 B2 JP4999859 B2 JP 4999859B2 JP 2008542055 A JP2008542055 A JP 2008542055A JP 2008542055 A JP2008542055 A JP 2008542055A JP 4999859 B2 JP4999859 B2 JP 4999859B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- reference information
- information
- frame
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Description
本願は、2006年10月30日に出願された特願2006−293929号に基づき優先権を主張し、その内容をここに援用する。
2次元動画像符号化におけるフレーム間予測符号化で用いる方法は、時間による映像の変化つまり動きを利用したものであるため、一般に動き補償と呼ばれる。以下では、その例に倣い時間方向のフレーム間予測符号化を動き補償と呼ぶ。なお、フレームとは動画像を構成するある時刻に撮影された1枚の画像を表す。
参照画像はブロック毎に選択することができ、参照画像を指定する参照画像指定情報を符号化することで復号処理を可能としている。
例外として、符号化対象ブロックのサイズが8×16画素の場合は、図20Cに示すように、中央値の代わりに、左のブロックはブロックaを、右のブロックはブロックcを予測に用い、符号化対象ブロックのサイズが16×8画素の場合は、図20Dに示すように、中央値の代わりに、下のブロックはブロックaを、上のブロックはブロックbを予測に用いる。
そのため、H.264では、ブロックa,b,cの内、符号化対象ブロックと参照フレームが等しいブロックがひとつだけある場合は、中央値の代わりに、そのブロックの動きベクトルを予測ベクトルとして用いることで、より信頼度の高い予測ベクトルを生成している。
一般的に、この時間情報は、撮影画像の入力順とエンコード順が異なる場合などに、映像を撮影時刻順序通りに復号する際に必要なため、フレーム毎に符号化される。つまり、エンコーダでは、入力順に応じて付けられた入力画像の時刻情報を設定して各フレームを符号化し、デコーダでは、各フレームの復号画像を設定されていた時刻情報によって指定された順に出力する。
まず、符号化対象ブロックと同位置のフレームC上のブロックで使われている動きベクトルmvを見つける。
次に、下記の式に従って、フレームAを参照フレームとしたときの動きベクトルfmvと、フレームCを参照フレームとしたときの動きベクトルbmvとを計算する。
bmv=(mv×TBC)/TBC
ここで、TAB、TBC、TACは、それぞれ、フレームAとフレームBとの間の時間間隔、フレームBとフレームCとの間の時間間隔、フレームAとフレームCとの間の時間間隔を示す。
下記に示す非特許文献2では、これを応用することで、ブロック毎に1枚の参照フレームのみを使用するPフレームにおいても、動きベクトルを効率よく符号化する方法が提案されている。
H.264等と異なる点は、周辺ブロックの動きベクトルをそのまま使うのではなく、以下の式を用いて、動きベクトルを時間間隔に従ってスケーリングしてから利用する点である。
ここで、mv_kは元の動きベクトル、mv_k’はスケーリングされた動きベクトル、Tctは符号化対象フレームと符号化対象ブロックが参照しようとしているフレームとの間の時間間隔、Tckは符号化対象フレームとその周辺ブロックが参照しているフレームとの間の時間間隔を表す(図22B〜22D参照)。
ITU-T Rec.H.264/ISO/IEC 11496-10, "Editor's Proposed Draft Text Modifications for Joint Video Specification (ITU-T Rec. H.264 / ISO/IEC 14496-10 AVC), Draft 7", Final Committee Draft, Document JVT-E022, pp. 63-64, and 117-121, September 2002. Alexis Michael Tourapis, "Direct Prediction for Predictive(P) and Bidirectionally Predictive(B) frames in Video Coding," JVT-C128, Joint Video Team (JVT) of ISO/IEC MPEG&ITU-T VCEG Meeting, pp. 1-11, May, 2002. 加藤禎篤, ブンチュンセン, "時間的動きベクトル正規化を用いた複数予測参照画像の符号化における動きベクトル予測", PCSJ2004 画像符号化シンポジウム資料 19th, P-2.18, Nov. 2004. Hideaki Kimata and Masaki Kitahara, "Preliminary results on multiple view video coding(3DAV)", document M10976 MPEG Redmond Meeting,July, 2004.
この目的を達成するために、本発明の予測参照情報生成装置は、画像を領域分割し、領域毎に、時間的又は空間的なフレーム間予測符号化方式を適用して、処理対象領域の参照フレームとその参照フレームにおける処理対象領域の予測対象位置を示す参照情報とに基づいて処理対象領域の予測画像を生成して動画像を処理するときに用いられて、その参照情報の予測情報となる予測参照情報を生成する処理を行うために、(イ)処理対象領域に隣接する既に処理済みの隣接領域を処理した際の参照情報を、処理対象領域の参照情報の予測に用いる予測参照情報予測データとして設定する予測参照情報予測データ設定手段と、(ロ)予測参照情報予測データによって指し示される参照領域を処理した際に用いた1つ以上の参照情報から参照領域参照情報を生成する参照領域参照情報生成手段と、(ハ)予測参照情報予測データを、生成された前記参照領域参照情報を用いて変更する予測参照情報予測データ変更手段と、(ニ)1つ又は複数存在する変更した予測参照情報予測データを用いて、前記予測参照情報を生成する予測参照情報生成手段とを備える。
前述のように構成される本発明の予測参照情報生成装置により実現される本発明の予測参照情報生成方法は、動画像符号化方法に適用することが可能である。
前述のように構成される本発明の予測参照情報生成装置により実現される本発明の予測参照情報生成方法は、動画像復号方法に適用することが可能である。
101 画像入力部
102 ブロックマッチング実施部
103 予測画像作成部
104 差分画像符号化部
105 差分画像復号部
106 参照フレームメモリ
107 参照情報蓄積メモリ
108 予測参照情報予測データメモリ
109 予測参照情報生成部
110 差分参照情報符号化部
111 参照情報変更部
112 参照フレーム指定情報蓄積メモリ
113 参照フレーム選択部
114 参照フレーム指定情報符号化部
このことは既に符号化/復号されている映像変化が変化することはないという事実に基づいて、信頼度の高い参照情報変換を実現している。
(i)参照領域が最も多く含まれる符号化/復号処理の単位領域で用いられた参照情報を参照領域参照情報とする方法を用いたり、
(ii)参照領域の含まれる割合に応じて符号化/復号処理の単位領域の参照情報に重みをつけて求めた平均の参照情報を参照領域参照情報とする方法を用いたり、
(iii)符号化/復号処理の単位領域に対して符号化/復号される参照情報をその領域に含まれる全ての画素が持つものとして、複数の参照領域において最も多く現れる参照情報を参照領域参照情報とする
方法を用いてもよい。
繰り返し修正を加えることで、隣接領域の参照領域の参照フレームが符号化/復号対象領域参照フレームに十分近くない場合は、符号化/復号対象領域参照フレームからの映像変化により近い予測参照情報予測データを得ることができる。
つまり、時間的に異なるフレームにおける対応関係の与えられた領域、すなわち、隣接領域とその隣接領域の参照領域における視差は非常に類似性が高い。
したがって、隣接領域の時間的な参照情報を、隣接領域の参照領域におけるカメラ間の参照情報に置き換えることで、隣接領域におけるカメラ間の参照情報に精度よく変換することができる。
つまり、カメラの異なる同時刻に撮影されたフレームにおける対応関係の与えられた領域、すなわち、隣接領域とその隣接領域の参照領域における動きは非常に類似性が高い。
したがって、隣接領域のカメラ間の参照情報を、隣接領域の参照領域における時間的な参照情報に置き換えることで、隣接領域における時間的な参照情報に制度よく変換することができる。
なお、この方法は、隣接領域の参照領域とその参照フレームの時刻関係と視点関係とが、符号化/復号対象フレームと符号化/復号対象領域参照フレームの時間関係と視点関係とにより適合しているほど、正確な予測を可能とする置換が可能である。
したがって、符号化/復号対象領域毎に切り替えることで、その領域に適した修正を加えることが可能となり、映像変化をより正しく表した予測参照情報を生成することができる。
この対応関係はカメラ間隔に応じてスケーリングするだけで得られるものではないため、従来の時間間隔に応じてスケーリングする方法を拡張するだけの単純な方法では、正確な予測を可能とする変換を行うことができない。
しかしながら、予測参照情報予測データの参照フレームが、符号化/復号対象フレームよりも符号化/復号対象領域参照フレームに近い場合、予測参照情報予測データの参照情報が途中までの動きを表してくれていることになるため、そこからの変化だけを探索すれば済むことになり、演算コストを減らすことができる。
ただし、既に複数フレームの画像を符号化済みであり、その結果が参照フレームメモリ106、参照情報蓄積メモリ107、参照フレーム指定情報蓄積メモリ112に蓄積されているものとする。
入力された符号化対象画像は、画面全体を領域分割され領域毎に符号化を行う[S102〜S121]。
つ・BR>ワり、インデックスBLK を1に初期化した後[S102]、BLK がMAXBLKになるまで[S120]、BLK に1を加算しながら[S121]、以下の処理[S103〜S119]を繰り返し実行することになる。
また、S119の復号処理では、差分画像の符号化データを差分画像復号部105で復号し、その結果と予測画像作成部103で生成された予測画像との和を求めることでブロックblk の復号画像情報を得る。
つまり、参照フレームインデックスref を1に初期化し、最小レート歪コストbestCostを絶対に取りえない最大値MaxCost に初期化した後[S103]、ref が全ての利用可能な参照フレームの数NumOfRefになるまで[S116]、ref に1を加算しながら[S117]、予測参照情報を生成する処理[S104〜S107]と、レート歪コストが最小となるような参照情報を求める処理[S108〜S115]とを繰り返し実行する。
このとき、MV,REFは、それぞれ、参照情報蓄積メモリ107、参照フレーム指定情報蓄積メモリ112に、ブロックインデックス又は画像内の位置に対応付けられて蓄積されているものとする。
本実施形態例では、この3つの隣接ブロックの参照情報を予測参照情報予測データに設定することとする。ただし、該当するブロックが画面の外になるような場合は候補から除外するものとする。
つまり、参照情報がX−Yの2次元のベクトルとして表される場合、成分ごとに、複数の予測参照情報予測データの持つ対応する成分の中間値を求めて、pmv をその成分の値とする。
なお、中間値以外にも平均値や最大値、最小値などを任意の基準のものを用いても構わない。ただし、動画像復号装置が用いる基準と同じ基準を用いる必要がある。
つまり、参照情報インデックスmv_idx を1に初期化した後[S108]、mv_idx がブロックblk の符号化のために用いることのできる参照情報の候補の数NumOfListMv に一致するまで[S114]、mv_idx に1を加算しながら[S115]、以下の処理[S110〜S113]を繰り返す。
そして、このmvと参照フレームref とを用いて、ブロックblk に対する予測画像Preを生成する[S110]。
具体的には、ブロックblk の位置からmv(ベクトル)によって示される参照フレームref上の領域の画像情報を予測画像とする。
なお、ここではDを2つの画像情報の差分絶対値和としたが、差分二乗和としてもよいし、差分情報を周波数領域へ変換してから和を求めるSATDと呼ばれる指標を用いてもよい。
さらに符号化処理の演算コストが増加するが、正確なレート歪コストを求める方法として、符号化対象領域の画像と予測画像との差分画像Diff(=Org−Pre)を実際に符号化したときの符号量BITSと、その差分画像の符号化データを復号して得られた復号差分画像DecDiff とを用いて、以下の式で求める方法を用いてもよい。
また、図6〜図8は、多視点画像が入力され、参照フレームが入力フレームと表示時刻(撮影時刻)が同じ画像か、同じカメラで撮影された画像である場合のフローチャートを示す。
また、図9〜図12は、多視点画像が入力され、任意の既に符号化済みのフレームを参照フレームとして用いることが出来る場合のフローチャートを示す。
上述したS105の処理で説明したように、予測参照情報予測データメモリは、符号化対象ブロックであるブロックblk に隣接する複数のブロックを符号化したときに使用した参照フレームと、参照情報と、そのブロックの位置を示す情報とを持つ情報であることから、 p_can は、隣接ブロックの参照フレーム番号と、隣接ブロックの参照情報と、隣接ブロックの位置を示す情報とを持つ情報である。
そうでなければ、符号化対象フレームcur の表示時刻と符号化対象ブロックの参照フレームref の表示時刻とを比較して[S308]、同じであれば、ブロックblk で映像のカメラ間の変化の予測を行う場合の処理[図7:S309〜S320]を実行し、異なるのであれば、ブロックblk で映像の時間変化の予測を行う場合の処理[図8:S321〜S335]を実行する。
ここで、図7のフローチャート上のVIEW()は、与えられたフレーム番号に対応するフレームを撮影した視点(カメラ)インデックスを返す関数を表す。
S310の処理で行われる幾何変換は以下の手順で実行する。
2. p_can で表される位置からmv_can だけずらした領域(参照領域)の中心位置 pos_can を求める
3.xを変数として、Trans(cur, ref_can, pos_cur,x)を求める(これをp(下に述べる対応画素)の上に〜が付加されたもので示す)。
Trans(src, dst, pix, d )は、次の式によって定義でき、視点src における画像上の位置pix の画素から被写体までの距離がdの場合に、視点dst における画像上における画素pix の対応画素pの斉次座標値を表す。
また、座標値に〜が付加されているものは斉次座標値を示している。特に、第三成分が1の斉次座標値を座標値に「^」を付加して表している。
なお、カメラパラメータの表し方は様々であり、本実施形態例では、上記式によってカメラ間の対応点が計算できるようなカメラパラメータであるとする。
4.^p(pの、第三成分が1の斉次座標値)とpos _can とのユークリッド距離が最小になるxを求めdcur とする
5.次の式に従ってmv_trans1を求める
TIME(cur) =TIME(ref) =TIME(ref_can)
という状況下で、mv_can をmv_trans1に幾何変換する処理が行われ、これを受けて、S311では、mv_can をmv_trans1に書き換える処理が行われることになる。
一方、この時間間隔がTH1以上の場合は、 p_can の位置の符号化対象フレームの復号画像情報を用いて、参照フレームref 上の対応領域を求め、 p_can の位置からの変位(対応情報)をmv_BMとし[S315]、 ref_can をref に書き換え、mv_can をmv_BMに書き換える[S316]。
S318の処理で行われる幾何変換は以下の手順で実行する。
2. p_can をmv_can +mv_tel だけずらした位置の領域の中心位置 pos_tel を求める
3.xを変数として、Trans(ref_can, ref_tel, pos_can,x)を求める(これをpの上に〜が付加されたもので示す)
4.^pと pos_tel とのユークリッド距離が最小になるxを求めdcan とする
5.次の式に従ってmv_trans2を求める
TIME(cur) =TIME(ref) ,VIEW(cur) =VIEW(ref_can)
TIME(ref_can)=TIME(ref_tel), VIEW(ref) ≠VIEW(ref_tel)という状況下で、mv_tel をmv_trans2に幾何変換する処理が行われ、これを受けて、S319では、mv_can をmv_trans2に書き換える処理(図中に示す破線が処理結果)が行われることになる。
これも同じカメラで撮影されたと判定された場合、フレーム ref_tel とフレーム ref_can とで、どちらが時間的にフレームref に近いかを判定する[S323]。
フレーム ref_tel の方がフレームref に時間的に近いと判定された場合には、 ref_can を ref_tel に書き換え、mv_can にmv_tel を加える[S324]。
同じカメラで撮影されたと判定された場合、フレームref の表示時刻とフレーム ref_tel の表示時刻(撮影時刻)とが同じであるかどうかを判定する[S328]。
同じ表示時刻を持つと判定された場合、 ref_can をref に書き換え、mv_can をmv_tel に書き換える[S329]。
このフローチャートでは、Diff(cam1,cam2)が撮影領域の一致度合いを表し、一方のカメラ(あらかじめどちらかに決められ、それに適合する閾値TH2が選択される)で撮影可能な領域に対する両方のカメラで撮影可能な領域の割合を与える。ただし、カメラから、別途与えられる距離までの実空間のみを対象とする。また、与えられる閾値TH2は、全てのカメラの組合せにおいて最も小さなDiff値よりも大きいとする。
そうでなければ、符号化対象フレームcur の表示時刻と符号化対象ブロックの参照フレームref の表示時刻とを比較して[S408]、同じであれば、ブロックblk で映像のカメラ間の変化の予測を行う場合の処理[図10:S409〜S420]を実行し、異なるのであれば、フレームcur とフレームref を撮影したカメラが同じであるかどうかを判定する[S421]。
同じであれば、ブロックblk で映像の時間変化の予測を行う場合の処理[図11:S422〜S441]を実行し、異なるのであれば、映像の時間変化とカメラ間の変化が合わさったものの予測を行う場合の処理[図12:S442〜S451]を実行する。
同じであると判定された場合、前述のS310での処理と同様の方法で、フレームcur における p_can の位置の領域(隣接領域)のフレーム ref_can への視差mv_can を、該隣接領域のフレームref への視差mv_trans1へ、フレームcur とフレーム ref_can とフレームref のカメラパラメータを用いて幾何変換を行い[S410]、 ref_can をref に書き換え、mv_can をmv_trans1に書き換える[S411]。
同じであると判定された場合、フレーム ref_tel を撮影したカメラとフレームref を撮影したカメラとが同じで、かつ、フレーム ref_can を撮影したカメラとフレームcur を撮影したカメラとが同じであるかどうかを判定する[S413]。
2組のカメラ対がそれぞれ同じカメラであると判定された場合、 ref_can をref に書き換え、mv_can をmv_tel に書き換える[S414]。
S415の処理で行われる幾何変換は以下の手順で実行する。
2. p_can をmv_can +mv_tel だけずらした位置の領域の中心位置 pos_tel を求める
3.xを変数として、Trans(ref_can, ref_tel, pos_can,x)を求める(これをpの上に〜が付加されたもので示す)
4.^pと pos_tel とのユークリッド距離が最小になるxを求めdcan とする
5.次の式に従ってmv_trans3を求める
TIME(cur) =TIME(ref) ≠TIME(ref_can)=TIME(ref_tel)
VIEW(ref) ≠VIEW(ref_tel)またはVIEW(cur) ≠VIEW(ref_can)
という状況下で、mv_tel をmv_trans3に幾何変換する処理が行われ、これを受けて、S416では、mv_can をmv_trans3に書き換える処理(図中に示す破線が処理結果)が行われることになる。
時間間隔がTH1より小さい場合は、 ref_can を ref_tel に書き換え、mv_can にmv_tel を加える[S418]。
時間間隔がTH1以上の場合は、 p_can の位置の符号化対象フレームの復号画像情報を用いて、参照フレームref 上の対応領域を求め、 p_can の位置からの変位(対応情報)をmv_BMとし[S419]、 ref_can をref に書き換え、mv_can をmv_BMに書き換える[S420]。
同じであった場合、さらに、フレーム ref_can を撮影したカメラとフレーム ref_tel を撮影したカメラとが同じであるかどうかを判定する[S423]。
この〔数3〕式が成立する場合は、 ref_can を ref_tel に置き換え、mv_can にmv_tel を加える[S425]。
一方、この〔数3〕式が成立しなかった場合は、 p_can の位置の符号化対象フレームの復号画像情報を用いて、探索中心をmv_can に設定して、参照フレームref 上の対応領域を求め、探索中心からの変位(対応情報)をmv_canBM とし[S426]、 ref_can をref に書き換え、mv_can にmv_canBM を加える[S427]。
2.xを変数として、Trans(ref_tel, ref, pos_tel, x)を求める(これをpの上に〜が付加されたもので示す)
3.xを変化させたときにpの描くフレームref 上の直線を求める
ここでは、変化させるxの値の最大値と最小値を決めないが、予め設定しておいても構わない
また、S428の判定処理で、フレームref を撮影したカメラとフレーム ref_tel を撮影したカメラとが異なると判定された場合、前述のS426の処理とS427の処理とを行う。
同じであった場合、さらに、フレームref の表示時刻とフレーム ref_can の表示時刻とが同じであるかどうかを判定する[S432]。
VIEW(cur) =VIEW(ref), VIEW(cur) ≠VIEW(ref_can)
TIME(ref) =TIME(ref_can)=TIME(ref_tel)
という状況下で、mv_tel をmv_trans2に幾何変換する処理が行われ、これを受けて、S434では、mv_can にmv_trans2を加える処理(図中に示す破線が処理結果)が行われることになる。
2.xを変数として、Trans(ref_can, ref, pos_can, x)を求める(これをpの上に〜が付加されたもので示す)
3.xを変化させたときにpの描くフレームref 上の直線を求める
ここでは、変化させるxの値の最大値と最小値を決めないが、予め設定しておいても構わない
S435の判定処理で、フレームref の表示時刻とフレーム ref_can の表示時刻とが異なると判定された場合は、次の2つの条件式による判定を行う[S438]。
どちらも成立しない場合は、 p_can の位置の符号化対象フレームの復号画像情報を用いて、参照フレームref 上の対応領域を求め、 p_can の位置からの変位(対応情報)をmv_BMとし[S440]、 ref_can をref に書き換え、mv_can をmv_BMに書き換える[S441]。
同じであると判定された場合、フレーム ref_tel の表示時刻とフレームref の表示時刻とが同じであるかどうかを判定する[S443]。
TIME(cur) ≠TIME(ref) ,VIEW(cur) ≠VIEW(ref)
TIME(ref) =TIME(ref_can)=TIME(ref_tel)
という状況下で、mv_tel をmv_trans2に幾何変換する処理が行われ、これを受けて、S445では、mv_can にmv_trans2を加える処理(図中に示す破線が処理結果)が行われることになる。
なお、このS446での探索は、カメラ間の制約を用いることで、対応領域の中心が、前述のS336の処理のときと同じ手順で得られる直線の周囲になる場合のみを探索することにしてもよい。
この〔数3〕式が成立する場合は、 ref_can を ref_tel に置き換え、mv_can にmv_tel を加える[S449]。
一方、この〔数3〕式が成立しなかった場合は、 p_can の位置の符号化対象フレームの復号画像情報を用いて、参照フレームref 上の対応領域を求め、 p_can の位置からの変位(対応情報)をmv_BMとし[S450]、 ref_can をref に書き換え、mv_can をmv_BMに書き換える[S451]。
つまり、インデックスblk を1に初期化した後[S502]、blk がMaxBlkになるまで[S514]、blk に1を加算しながら[S515]、以下の処理[S503〜S513]を繰り返し実行する。
そして、復号画像Decと、ブロックblk を復号するために用いた情報である参照情報mvと、参照フレーム指定情報ref を、それぞれ、参照フレームメモリ205、参照情報蓄積メモリ208、参照フレーム指定情報蓄積メモリ210に格納する[S513]。
このとき、MV,REFは、それぞれ、参照情報蓄積メモリ208、参照フレーム指定情報蓄積メモリ210にブロックインデックス又は画像内の位置に対応付けられて蓄積されているものとする。
本形態実施例では、この3つの隣接ブロックの参照情報を予測参照情報予測データに設定することとする。ただし、該当するブロックが画面の外になるような場合は候補から除外するものとする。
つまり、参照情報がX−Yの2次元のベクトルとして表される場合、成分ごとに、複数の予測参照情報予測データの持つ対応する成分の中間値を求めて、pmv をその成分の値とする。
なお、中間値以外にも平均値や最大値、最小値などを任意の基準のものを用いても構わない。ただし、動画像符号化装置が用いる基準と同じ基準を用いる必要がある。
また、図6〜図8は、多視点画像が入力され、参照フレームが入力フレームと表示時刻(撮影時刻)が同じ画像か、同じカメラで撮影された画像である場合のフローチャートを示す。
また、図9〜図12は、多視点画像が入力され、任意の既に符号化済みのフレームを参照フレームとして用いることが出来る場合のフローチャートを示す。復号装置においては、任意の既に復号済みのフレームを参照フレームとして用いることが出来る場合のフローチャートとしてとらえれば良い。
ただし、動画像符号化装置側と動画像復号装置側との対応した処理で同じ方法になっている必要がある。
なお、隣接ブロックがフレーム内符号化されているときはMV(参照情報)に0を設定して予測参照情報予測データを生成し、TIME()やVIEW()は、他の場合(即ち、フレーム内符号化されていない)には絶対返さないような絶対値の大きな値を返すこととすると、フレーム内符号化が行われているような場合にも、前述のフローチャートで適切に処理可能である。また、参照フレーム指定情報を用いず、H.264のように別途符号化モードを用意して実現した動画像符号化装置、動画像復号装置も本発明から容易に類推可能である。
Claims (28)
- 画像を領域分割し、領域毎に、時間的又は空間的なフレーム間予測符号化方式を適用して、処理対象領域の参照フレームとその参照フレームにおける処理対象領域の予測対象位置を示す参照情報とに基づいて処理対象領域の予測画像を生成して動画像を処理するときに用いられて、その参照情報の予測情報となる予測参照情報を生成する予測参照情報生成方法であって、
処理対象領域に隣接する既に処理済みの隣接領域を処理した際の参照情報を、処理対象領域の参照情報の予測に用いる予測参照情報予測データとして設定する予測参照情報予測データ設定ステップと、
前記予測参照情報予測データによって指し示される参照領域を処理した際に用いた1つ以上の参照情報から参照領域参照情報を生成する参照領域参照情報生成ステップと、
前記予測参照情報予測データを、生成された前記参照領域参照情報を用いて変更する予測参照情報予測データ変更ステップと、
1つ又は複数存在する前記変更した予測参照情報予測データを用いて、前記予測参照情報を生成する予測参照情報生成ステップと
を有する予測参照情報生成方法。 - 画像全体を領域分割して、領域毎に、既に符号化済みの複数のフレームの中から、その領域の画像情報を予測する際に参照フレームとして用いる符号化対象領域参照フレームを選択し、符号化対象領域参照フレームと、該符号化対象領域参照フレームにおける符号化対象領域の予測対象位置を示す参照情報とを用いて予測画像を生成して、予測画像と符号化対象領域の画像との差分情報を符号化することで動画像を符号化する動画像符号化方法であって、
符号化対象領域に隣接する既に符号化済みの隣接領域を符号化した際の参照情報を、符号化対象領域の参照情報の予測に用いる予測参照情報予測データとして設定する予測参照情報予測データ設定ステップと、
前記予測参照情報予測データによって指し示される参照領域を符号化した際に用いた1つ以上の参照情報から参照領域参照情報を生成する参照領域参照情報生成ステップと、
前記予測参照情報予測データを、生成された前記参照領域参照情報を用いて変更する予測参照情報予測データ変更ステップと、
1つ又は複数存在する前記変更した予測参照情報予測データを用いて、符号化対象領域の参照情報の予測情報となる予測参照情報を生成する予測参照情報生成ステップと、
符号化対象領域に対する予測画像を生成するために用いた参照情報と前記予測参照情報との差分情報を符号化する差分参照情報符号化ステップと
を有する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記予測参照情報予測データが示す対応点情報と前記参照領域参照情報が示す対応点情報との和に変更することによって、前記予測参照情報予測データを変更する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記参照領域参照情報が示す対応点情報に変更することによって、前記予測参照情報予測データを変更する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記予測参照情報予測データが示す対応点情報と前記参照領域参照情報が示す対応点情報との和、及び、前記参照領域参照情報の対応点情報のいずれか一方に変更することによって、前記予測参照情報予測データを変更する動画像符号化方法。 - 請求項5に記載の動画像符号化方法において、
前記予測参照情報予測データ変更ステップでは、前記符号化対象領域参照フレームの時刻情報及び視点情報と、前記参照領域の含まれるフレームの時刻情報及び視点情報と、前記参照領域を符号化した際の参照フレームであるところの参照領域参照フレームの時刻情報及び視点情報と、符号化対象フレームの時刻情報及び視点情報とを用いて、前記予測参照情報予測データの対応点情報を、前記予測参照情報予測データの対応点情報と前記参照領域参照情報の対応点情報との和に変更するのか、前記参照領域参照情報の対応点情報に変更するのかを決定する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
符号化対象フレームの視点のカメラパラメータと、前記符号化対象領域参照フレームの視点のカメラパラメータと、前記予測参照情報予測データの示すフレームの視点のカメラパラメータとを用いて、その予測参照情報予測データが示す対応点情報に幾何変換を加える予測参照情報幾何変換ステップを有する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
符号化対象フレームの視点のカメラパラメータと、前記符号化対象領域参照フレームの視点のカメラパラメータと、前記予測参照情報予測データの示すフレームの視点のカメラパラメータと、その予測参照情報予測データに対応する参照領域参照情報の示すフレームの視点のカメラパラメータとを用いて、その参照領域参照情報が示す対応点情報に幾何変換を加える参照領域参照情報幾何変換ステップを有する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
符号化対象領域の参照フレーム上の領域を探索対象として、前記予測参照情報予測データによって指し示される参照領域に対応付けられる領域を探索し、前記予測参照情報予測データを探索結果の対応情報に変更する予測参照情報予測データ探索ステップを有する動画像符号化方法。 - 請求項2に記載の動画像符号化方法において、
符号化対象領域の参照フレーム上の領域を探索対象として、符号化対象領域の隣接領域に対応付けられる領域を探索し、前記予測参照情報予測データを探索結果の対応情報に変更する予測参照情報予測データ探索ステップを有する動画像符号化方法。 - 画像全体を領域分割して、既に復号した複数のフレームから予測画像を生成しながら画像を復号するのにあたり、領域毎に、予測画像を生成するために用いる既に復号済みのフレームであるところの復号対象領域参照フレームを示す情報と、復号対象領域参照フレームにおける復号対象領域の予測対象位置を示す参照情報と、予測画像と復号対象領域の画像との差分情報とを復号することで、動画像を復号する動画像復号方法であって、
復号対象領域に隣接する既に復号済みの隣接領域を復号した際の参照情報を、復号対象領域の参照情報の予測に用いる予測参照情報予測データとして設定する予測参照情報予測データ設定ステップと、
前記予測参照情報予測データによって指し示される参照領域を復号した際に用いた1つ以上の参照情報から参照領域参照情報を生成する参照領域参照情報生成ステップと、
前記予測参照情報予測データを、生成された前記参照領域参照情報を用いて変更する予測参照情報予測データ変更ステップと、
1つ又は複数存在する前記変更した予測参照情報予測データを用いて、復号対象領域の参照情報の予測情報となる予測参照情報を生成する予測参照情報生成ステップと、
符号化データから、復号対象領域に対する予測画像を生成するために用いる参照情報と前記予測参照情報との差分情報を復号する差分参照情報復号ステップと
を有する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記予測参照情報予測データが示す対応点情報と前記参照領域参照情報が示す対応点情報との和に変更することによって、前記予測参照情報予測データを変更する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記参照領域参照情報が示す対応点情報に変更することによって、前記予測参照情報予測データを変更する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
前記予測参照情報予測データ変更ステップでは、前記予測参照情報予測データが示す対応点情報を、前記予測参照情報予測データが示す対応点情報と前記参照領域参照情報が示す対応点情報との和、及び、前記参照領域参照情報が示す対応点情報のいずれか一方変更することによって、前記予測参照情報予測データを変更する動画像復号方法。 - 請求項14に記載の動画像復号方法において、
前記予測参照情報予測データ変更ステップでは、前記復号対象領域参照フレームの時刻情報及び視点情報と、前記参照領域の含まれるフレームの時刻情報及び視点情報と、前記参照領域を復号した際の参照フレームであるところの参照領域参照フレームの時刻情報及び視点情報と、復号対象フレームの時刻情報及び視点情報とを用いて、前記予測参照情報予測データの対応点情報を、前記予測参照情報予測データの対応点情報と前記参照領域参照情報の対応点情報との和に変更するのか、前記参照領域参照情報の対応点情報に変更するのかを決定する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
復号対象フレームの視点のカメラパラメータと、前記復号対象領域参照フレームの視点のカメラパラメータと、前記予測参照情報予測データの示すフレームの視点のカメラパラメータとを用いて、その予測参照情報予測データが示す対応点情報に幾何変換を加える予測参照情報幾何変換ステップを有する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
復号対象フレームの視点のカメラパラメータと、前記復号対象領域参照フレームの視点のカメラパラメータと、前記予測参照情報予測データの示すフレームの視点のカメラパラメータと、その予測参照情報予測データに対応する参照領域参照情報の示すフレームの視点のカメラパラメータとを用いて、その参照領域参照情報が示す対応点情報に幾何変換を加える参照領域参照情報幾何変換ステップを有する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
復号対象領域の参照フレーム上の領域を探索対象として、前記予測参照情報予測データによって指し示される参照領域に対応付けられる領域を探索し、前記予測参照情報予測データを探索結果の対応情報に変更する予測参照情報予測データ探索ステップを有する動画像復号方法。 - 請求項11に記載の動画像復号方法において、
復号対象領域の参照フレーム上の領域を探索対象として、復号対象領域の隣接領域に対応付けられる領域を探索し、前記予測参照情報予測データを探索結果の対応情報に変更する予測参照情報予測データ探索ステップを有する動画像復号方法。 - 請求項1に記載の予測参照情報生成方法における各ステップを実現する手段を備える予測参照情報生成装置。
- 請求項1に記載の予測参照情報生成方法における各ステップをコンピュータに実行させるための予測参照情報生成プログラム。
- 請求項1に記載の予測参照情報生成方法における各ステップをコンピュータに実行させるための予測参照情報生成プログラムを記録したコンピュータ読み取り可能な記録媒体。
- 請求項2に記載の動画像符号化方法における各ステップを実現する手段を備える動画像符号化装置。
- 請求項2に記載の動画像符号化方法における各ステップをコンピュータに実行させるための動画像符号化プログラム。
- 請求項2に記載の動画像符号化方法における各ステップをコンピュータに実行させるための動画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
- 請求項11に記載の動画像復号方法における各ステップを実現する手段を備える動画像復号装置。
- 請求項11に記載の動画像復号方法における各ステップをコンピュータに実行させるための動画像復号プログラム。
- 請求項11に記載の動画像復号方法における各ステップをコンピュータに実行させるための動画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008542055A JP4999859B2 (ja) | 2006-10-30 | 2007-10-23 | 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006293929 | 2006-10-30 | ||
JP2006293929 | 2006-10-30 | ||
JP2008542055A JP4999859B2 (ja) | 2006-10-30 | 2007-10-23 | 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
PCT/JP2007/070636 WO2008053746A1 (fr) | 2006-10-30 | 2007-10-23 | Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2008053746A1 JPWO2008053746A1 (ja) | 2010-02-25 |
JP4999859B2 true JP4999859B2 (ja) | 2012-08-15 |
Family
ID=39344089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008542055A Active JP4999859B2 (ja) | 2006-10-30 | 2007-10-23 | 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
Country Status (10)
Country | Link |
---|---|
US (2) | US8355438B2 (ja) |
EP (1) | EP2079242A4 (ja) |
JP (1) | JP4999859B2 (ja) |
KR (1) | KR101023263B1 (ja) |
CN (1) | CN101529918B (ja) |
BR (1) | BRPI0717639A2 (ja) |
CA (1) | CA2665781C (ja) |
RU (1) | RU2434361C2 (ja) |
TW (2) | TWI376158B (ja) |
WO (1) | WO2008053746A1 (ja) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100290532A1 (en) * | 2007-12-28 | 2010-11-18 | Tomoyuki Yamamoto | Moving image encoder and moving image decoder |
WO2010016534A1 (ja) * | 2008-08-08 | 2010-02-11 | シャープ株式会社 | 動画像符号化装置および動画像復号装置 |
FI3567854T3 (fi) | 2009-03-23 | 2023-01-13 | Kuvan prediktiivinen dekoodausmenetelmä | |
EP2541939A4 (en) * | 2010-02-23 | 2014-05-21 | Nippon Telegraph & Telephone | MOTION VECTOR ANALYSIS METHOD, METHOD FOR ENCRYPTION OF MORE VIEW IMAGES, METHOD OF DECODING OF MORE VIEW IMAGES, MOTION VECTOR MEASURING DEVICE, DEVICE FOR ENCRYPTION OF MORE VIEW IMAGES, DEVICE FOR DECODING OF MORE VIEW IMAGES, MOTION VECTOR ANALYSIS PROGRAM PROGRAM FOR ENCRYPTION OF MORE VIEW IMAGES AND PROGRAM FOR DECODING OF MORE VIEW IMAGES |
JP5368631B2 (ja) * | 2010-04-08 | 2013-12-18 | 株式会社東芝 | 画像符号化方法、装置、及びプログラム |
CA3102661C (en) * | 2010-07-20 | 2022-05-17 | Ntt Docomo, Inc. | Video prediction encoding and decoding for partitioned regions while determining whether or not to use motion information from neighboring regions |
KR20120012385A (ko) * | 2010-07-31 | 2012-02-09 | 오수미 | 인트라 예측 부호화 장치 |
KR101373814B1 (ko) * | 2010-07-31 | 2014-03-18 | 엠앤케이홀딩스 주식회사 | 예측 블록 생성 장치 |
CN107277550B (zh) * | 2010-08-11 | 2020-11-20 | Ge视频压缩有限责任公司 | 解码器、解码方法、编码器、编码方法以及存储介质 |
JP5524762B2 (ja) * | 2010-08-12 | 2014-06-18 | 日本電信電話株式会社 | 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム |
KR20120016991A (ko) | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
HUE039248T2 (hu) * | 2010-08-17 | 2018-12-28 | M&K Holdings Inc | Eljárás intra predikció mód helyreállítására |
US11284072B2 (en) | 2010-08-17 | 2022-03-22 | M&K Holdings Inc. | Apparatus for decoding an image |
KR101418100B1 (ko) * | 2010-10-06 | 2014-07-14 | 에스케이 텔레콤주식회사 | 모순 검증을 이용한 부호화 및 복호화 방법과 장치 |
RU2580942C2 (ru) * | 2010-10-06 | 2016-04-10 | Нтт Докомо, Инк. | Устройство прогнозирующего кодирования изображений, способ прогнозирующего кодирования изображений, программа прогнозирующего кодирования изображений, устройство прогнозирующего декодирования изображений, способ прогнозирующего декодирования изображений и программа прогнозирующего декодирования изображений |
JP5281632B2 (ja) * | 2010-12-06 | 2013-09-04 | 日本電信電話株式会社 | 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム |
WO2012090497A1 (ja) * | 2010-12-28 | 2012-07-05 | パナソニック株式会社 | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置 |
WO2012108315A1 (ja) * | 2011-02-07 | 2012-08-16 | シャープ株式会社 | 予測情報生成方法、画像符号化方法、画像復号方法、予測情報生成装置、予測情報生成プログラム、画像符号化装置、画像符号化プログラム、画像復号装置および画像復号プログラム |
KR20120095610A (ko) * | 2011-02-21 | 2012-08-29 | 삼성전자주식회사 | 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
WO2012124121A1 (ja) * | 2011-03-17 | 2012-09-20 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム |
PL2698999T3 (pl) * | 2011-04-12 | 2017-10-31 | Sun Patent Trust | Sposób kodowania ruchomych obrazów, urządzenie do kodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, urządzenie do dekodowania ruchomych obrazów, oraz urządzenie do kodowania/dekodowania ruchomych obrazów |
KR20120118780A (ko) * | 2011-04-19 | 2012-10-29 | 삼성전자주식회사 | 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US9247249B2 (en) * | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
EP2717573B1 (en) | 2011-05-24 | 2018-03-28 | Velos Media International Limited | Image encoding method, image encoding apparatus, image decoding method, image decoding apparatus, and image encoding/decoding apparatus |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
ES2959039T3 (es) | 2011-05-27 | 2024-02-19 | Sun Patent Trust | Aparato, procedimiento y programa para codificar imágenes en movimiento |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
MX2013012209A (es) | 2011-05-31 | 2013-11-01 | Panasonic Corp | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
EP2536143B1 (en) * | 2011-06-16 | 2015-01-14 | Axis AB | Method and a digital video encoder system for encoding digital video data |
CN103597833A (zh) * | 2011-06-22 | 2014-02-19 | 索尼公司 | 图像处理装置以及方法 |
MY181718A (en) | 2011-06-30 | 2021-01-05 | Sun Patent Trust | Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device |
CA2843560C (en) | 2011-08-03 | 2020-09-22 | Panasonic Corporation | Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus |
JP6039178B2 (ja) * | 2011-09-15 | 2016-12-07 | シャープ株式会社 | 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム |
KR101809881B1 (ko) * | 2011-09-28 | 2017-12-15 | 가부시키가이샤 제이브이씨 켄우드 | 동영상 디코딩 장치, 동영상 디코딩 방법 및 동영상 디코딩 프로그램을 저장한 기록매체 |
IN2014CN02602A (ja) | 2011-10-19 | 2015-08-07 | Panasonic Corp | |
KR20130049524A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US10390016B2 (en) | 2011-11-04 | 2019-08-20 | Infobridge Pte. Ltd. | Apparatus of encoding an image |
HUE055991T2 (hu) * | 2011-12-16 | 2022-01-28 | Jvc Kenwood Corp | Dinamikus képkódoló készülék, dinamikus képkódoló eljárás, dinamikus képkódoló program, dinamikus képdekódoló készülék, dinamikus képdekódoló eljárás és dinamikus képdekódoló program |
US9762904B2 (en) * | 2011-12-22 | 2017-09-12 | Qualcomm Incorporated | Performing motion vector prediction for video coding |
JP6078927B2 (ja) * | 2012-01-10 | 2017-02-15 | サン パテント トラスト | 動画像符号化方法、動画像符号化装置、動画像復号方法、及び、動画像復号装置 |
WO2013108613A1 (ja) * | 2012-01-17 | 2013-07-25 | パナソニック株式会社 | 動画像符号化方法、動画像復号化方法、動画像符号化装置、動画像復号化装置および動画像符号化復号化装置 |
US10200709B2 (en) | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
CN104185993B (zh) * | 2012-03-30 | 2019-02-12 | 索尼公司 | 图像处理设备和方法以及记录介质 |
SI3833022T1 (sl) * | 2012-04-12 | 2022-06-30 | Jvckenwood Corporation | Konstruiranje seznama kandidatov za spajanje |
WO2013176485A1 (ko) * | 2012-05-22 | 2013-11-28 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
CN104380744B (zh) * | 2012-06-19 | 2018-05-04 | Lg电子株式会社 | 处理视频信号的方法和设备 |
CN104396256B (zh) * | 2012-06-29 | 2018-11-06 | 威勒斯媒体国际有限公司 | 解码设备和解码方法 |
US9948939B2 (en) | 2012-12-07 | 2018-04-17 | Qualcomm Incorporated | Advanced residual prediction in scalable and multi-view video coding |
US9544566B2 (en) | 2012-12-14 | 2017-01-10 | Qualcomm Incorporated | Disparity vector derivation |
US9800857B2 (en) * | 2013-03-08 | 2017-10-24 | Qualcomm Incorporated | Inter-view residual prediction in multi-view or 3-dimensional video coding |
US9762927B2 (en) * | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
CN105612749A (zh) * | 2013-10-17 | 2016-05-25 | 日本电信电话株式会社 | 视频编码装置及方法以及视频解码装置及方法 |
US9807411B2 (en) * | 2014-03-18 | 2017-10-31 | Panasonic Intellectual Property Management Co., Ltd. | Image coding apparatus, image decoding apparatus, image processing system, image coding method, and image decoding method |
JP6463900B2 (ja) * | 2014-04-17 | 2019-02-06 | キヤノン株式会社 | 画像符号化装置及びその制御方法 |
JP5858119B2 (ja) * | 2014-10-15 | 2016-02-10 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム |
KR20170059422A (ko) | 2015-11-20 | 2017-05-30 | 한국전자통신연구원 | 기하 변환 픽처를 이용한 영상의 부호화/복호화 방법 및 장치 |
CN108353168B (zh) * | 2015-11-20 | 2023-04-21 | 韩国电子通信研究院 | 对图像进行编/解码的方法和编/解码图像的装置 |
GB2556319A (en) * | 2016-07-14 | 2018-05-30 | Nokia Technologies Oy | Method for temporal inter-view prediction and technical equipment for the same |
RU2666275C1 (ru) * | 2017-11-13 | 2018-09-06 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения |
CN112714322B (zh) * | 2020-12-28 | 2023-08-01 | 福州大学 | 一种面向游戏视频的帧间参考优化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08205164A (ja) * | 1994-12-30 | 1996-08-09 | Daewoo Electron Co Ltd | 動きベクトル決定方法及び動きベクトル推定装置 |
JPH10136374A (ja) * | 1996-10-28 | 1998-05-22 | Nec Corp | 動ベクトル予測装置 |
JP2004056823A (ja) * | 2002-07-16 | 2004-02-19 | Samsung Electronics Co Ltd | 動きベクトル符号化/復号化方法及びその装置 |
JP2004336369A (ja) * | 2003-05-07 | 2004-11-25 | Ntt Docomo Inc | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム |
WO2006073116A1 (ja) * | 2005-01-07 | 2006-07-13 | Nippon Telegraph And Telephone Corporation | 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1127969A (zh) | 1995-01-26 | 1996-07-31 | 大宇电子株式会社 | 用于在帧削减视频编码器中检测运动矢量的方法及装置 |
FR2756399B1 (fr) | 1996-11-28 | 1999-06-25 | Thomson Multimedia Sa | Procede et dispositif de compression video pour images de synthese |
JP3519594B2 (ja) * | 1998-03-03 | 2004-04-19 | Kddi株式会社 | ステレオ動画像用符号化装置 |
JP5032730B2 (ja) * | 2000-03-31 | 2012-09-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 2つの互いに関連したデータ列を符号化する方法 |
JP4608136B2 (ja) | 2001-06-22 | 2011-01-05 | オリンパス株式会社 | 動きベクトル及び視差ベクトル検出装置 |
US7154952B2 (en) * | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
CN1258925C (zh) * | 2003-06-27 | 2006-06-07 | 中国科学院计算技术研究所 | 多视角视频编解码预测补偿方法及装置 |
US7778328B2 (en) * | 2003-08-07 | 2010-08-17 | Sony Corporation | Semantics-based motion estimation for multi-view video coding |
JP4421940B2 (ja) | 2004-05-13 | 2010-02-24 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置および方法、並びに動画像復号化装置および方法 |
US7792188B2 (en) | 2004-06-27 | 2010-09-07 | Apple Inc. | Selecting encoding types and predictive modes for encoding video data |
JP2006293929A (ja) | 2005-04-14 | 2006-10-26 | Matsushita Electric Ind Co Ltd | データ伝送装置 |
US7933337B2 (en) | 2005-08-12 | 2011-04-26 | Microsoft Corporation | Prediction of transform coefficients for image compression |
KR101370919B1 (ko) * | 2006-07-12 | 2014-03-11 | 엘지전자 주식회사 | 신호처리방법 및 장치 |
-
2007
- 2007-10-23 CN CN2007800386378A patent/CN101529918B/zh active Active
- 2007-10-23 WO PCT/JP2007/070636 patent/WO2008053746A1/ja active Application Filing
- 2007-10-23 CA CA 2665781 patent/CA2665781C/en active Active
- 2007-10-23 RU RU2009114363A patent/RU2434361C2/ru active
- 2007-10-23 US US12/445,047 patent/US8355438B2/en active Active
- 2007-10-23 KR KR20097007723A patent/KR101023263B1/ko active IP Right Grant
- 2007-10-23 BR BRPI0717639 patent/BRPI0717639A2/pt not_active IP Right Cessation
- 2007-10-23 EP EP07830370A patent/EP2079242A4/en not_active Withdrawn
- 2007-10-23 JP JP2008542055A patent/JP4999859B2/ja active Active
- 2007-10-26 TW TW96140158A patent/TWI376158B/zh active
- 2007-10-26 TW TW101112192A patent/TWI502968B/zh active
-
2012
- 2012-12-12 US US13/711,904 patent/US8675735B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08205164A (ja) * | 1994-12-30 | 1996-08-09 | Daewoo Electron Co Ltd | 動きベクトル決定方法及び動きベクトル推定装置 |
JPH10136374A (ja) * | 1996-10-28 | 1998-05-22 | Nec Corp | 動ベクトル予測装置 |
JP2004056823A (ja) * | 2002-07-16 | 2004-02-19 | Samsung Electronics Co Ltd | 動きベクトル符号化/復号化方法及びその装置 |
JP2004336369A (ja) * | 2003-05-07 | 2004-11-25 | Ntt Docomo Inc | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム |
WO2006073116A1 (ja) * | 2005-01-07 | 2006-07-13 | Nippon Telegraph And Telephone Corporation | 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2008053746A1 (ja) | 2010-02-25 |
WO2008053746A1 (fr) | 2008-05-08 |
US8675735B2 (en) | 2014-03-18 |
US20100118939A1 (en) | 2010-05-13 |
TW201233192A (en) | 2012-08-01 |
US8355438B2 (en) | 2013-01-15 |
CN101529918A (zh) | 2009-09-09 |
TWI376158B (en) | 2012-11-01 |
KR101023263B1 (ko) | 2011-03-21 |
TWI502968B (zh) | 2015-10-01 |
KR20090067176A (ko) | 2009-06-24 |
CN101529918B (zh) | 2011-08-03 |
EP2079242A4 (en) | 2010-11-03 |
BRPI0717639A2 (pt) | 2013-11-12 |
RU2009114363A (ru) | 2010-10-20 |
TW200829036A (en) | 2008-07-01 |
EP2079242A1 (en) | 2009-07-15 |
US20130101038A1 (en) | 2013-04-25 |
CA2665781A1 (en) | 2008-05-08 |
RU2434361C2 (ru) | 2011-11-20 |
CA2665781C (en) | 2014-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4999859B2 (ja) | 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 | |
JP4999860B2 (ja) | 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 | |
US9066096B2 (en) | Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs | |
JP5268645B2 (ja) | カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体 | |
EP4120686B1 (en) | Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and, predictive decoding method, predictive decoding device, and predictive decoding program of motion vector | |
TWI738081B (zh) | 視訊編碼系統中結合多重預測子用於區塊預測之方法和裝置 | |
KR101550680B1 (ko) | 다시점 화상 부호화 방법, 다시점 화상 복호 방법, 다시점 화상 부호화 장치, 다시점 화상 복호 장치 및 그 프로그램 | |
TW201909637A (zh) | 影像預測解碼方法 | |
KR102572012B1 (ko) | 시점 간 움직임 병합 후보 유도 방법 및 장치 | |
JP2008271217A (ja) | 多視点映像符号化装置 | |
JP4944046B2 (ja) | 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体 | |
JP6386466B2 (ja) | 映像符号化装置及び方法、及び、映像復号装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120515 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4999859 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150525 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |