JP2017184276A - 動画像復号装置及び動画像復号方法 - Google Patents

動画像復号装置及び動画像復号方法 Download PDF

Info

Publication number
JP2017184276A
JP2017184276A JP2017113314A JP2017113314A JP2017184276A JP 2017184276 A JP2017184276 A JP 2017184276A JP 2017113314 A JP2017113314 A JP 2017113314A JP 2017113314 A JP2017113314 A JP 2017113314A JP 2017184276 A JP2017184276 A JP 2017184276A
Authority
JP
Japan
Prior art keywords
motion vector
unit
decoding
candidate
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113314A
Other languages
English (en)
Other versions
JP6346346B2 (ja
Inventor
敏康 杉尾
Toshiyasu Sugio
敏康 杉尾
西 孝啓
Takahiro Nishi
孝啓 西
陽司 柴原
Yoji Shibahara
陽司 柴原
京子 谷川
Kyoko Tanigawa
京子 谷川
寿郎 笹井
Toshiro Sasai
寿郎 笹井
徹 松延
Toru Matsunobu
徹 松延
健吾 寺田
Kengo Terada
健吾 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tagivan II LLC
Original Assignee
Tagivan II LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48191681&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2017184276(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Tagivan II LLC filed Critical Tagivan II LLC
Publication of JP2017184276A publication Critical patent/JP2017184276A/ja
Application granted granted Critical
Publication of JP6346346B2 publication Critical patent/JP6346346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

【課題】インター予測に関連する処理を高速化させることを可能にする。
【解決手段】動画像復号装置は、1以上の予測動きベクトル候補を導出する導出部と、予測動きベクトルを選択する選択部と、動きベクトルを復号する復号部とを含み、導出部は、左方向に隣接する1以上の第一隣接ブロックそれぞれの第一動きベクトルから第一候補を生成する第一候補生成部と、上方向に隣接する1以上の第二隣接ブロックそれぞれの第二動きベクトルから第二候補を生成する第二候補生成部とを含み、第二候補生成部は、1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定部と、1以上の第一隣接ブロックのいずれもがインター予測されていない場合のみに、1以上の第二隣接ブロックのいずれかに属する第二動きベクトルに対してスケーリングを行い、第二候補を生成するスケーリング部とを含む。
【選択図】図18

Description

本発明は、動画像復号装置等に関する。
動画像符号化処理では、一般に、動画像が有する空間方向および時間方向の冗長性を利用して情報量の圧縮が行われる。ここで一般に、空間方向の冗長性を利用する方法としては、周波数領域への変換が用いられる。また、時間方向の冗長性を利用する方法としては、ピクチャ間予測(以降、「インター予測」と呼ぶ)符号化処理が用いられる。インター予測符号化処理では、あるピクチャを符号化する際に、符号化対象ピクチャに対して表示時間順で前方または後方にある符号化済みのピクチャが、参照ピクチャとして用いられる。そして、その参照ピクチャに対する符号化対象ピクチャの動き検出により、動きベクトルが導出される。そして、導出された動きベクトルに基づいて動き補償を行って得られた予測画像データと符号化対象ピクチャの画像データとの差分を算出することにより、時間方向の冗長性が取り除かれる。
ITU−T H.264 「8.4.1 Derivation process for motion vector components and reference indices」、2010年3月、(8−174)(8−175)式 JCTVC−F803_d2「WD4:Working Draft 4 of High−Efficiency Video Coding」、Joint Collaborative Team on Video Coding(JCT−VC) of ITU−T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting、Torino,IT,2011年7月、14−22
しかしながら、上記従来の技術では、インター予測に関連する処理を高速化させることが望まれている。
そこで、本発明の目的は、インター予測に関連する処理を高速化させることができる動画像復号装置等を提供することである。
本発明の一態様に係る動画像復号装置は、ビットストリームから画像を復号する動画像復号装置であって、前記画像に含まれる復号対象ブロックの動きベクトルの復号に用いる予測動きベクトルの候補である、1以上の予測動きベクトル候補を導出する導出部と、前記ビットストリームに含まれるインデックスを用いて、前記1以上の予測動きベクトル候補から、前記予測動きベクトルを選択する選択部と、選択された前記予測動きベクトルを用いて前記復号対象ブロックの動きベクトルを復号し、復号した前記動きベクトルを用いて前記復号対象ブロックを復号する復号部と、を含み、前記導出部は、前記復号対象ブロックの左方向に隣接する、1以上の第一隣接ブロックそれぞれの第一動きベクトルから前記予測動きベクトルの候補となる第一候補を生成する第一候補生成部と、前記復号対象ブロックの上方向に隣接する、1以上の第二隣接ブロックそれぞれの第二動きベクトルから前記予測動きベクトルの候補となる第二候補を生成する第二候補生成部とを含み、前記第二候補生成部は、前記1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定部と、前記1以上の第一隣接ブロックのいずれもがインター予測されていない場合のみに、前記1以上の第二隣接ブロックのいずれかに属する、スケーリング可能な第二動きベクトルに対してスケーリングを行い、前記第二候補を生成するスケーリング部とを含む。
本発明の一態様に係る動画像符号化復号装置等は、インター予測に関連する処理を高速化させることができる。
図1は、予測画像の生成に用いる動きベクトルと予測動きベクトルと差分動きベクトルとの関係を説明する概念図である。 図2は、動画像符号化装置の構成の一例を示すブロック図である。 図3は、動画像符号化方法の一例を説明するフロー図である。 図4Aは、符号化ブロック単位CU(Coding Unit)と予測ブロック単位PU(Prediction Unit)との関係を示す図である。 図4Bは、coding unitツリーとpred_typeとの関係を示す図である。 図4Cは、pred_typeの値についての解釈表を示す図である。 図5は、予測対象ブロックと、予測対象ブロックに隣接する隣接ブロックとの位置関係を示す図である。 図6Aは、予測動きベクトルの候補リストmvpListL0を示す図である。 図6Bは、予測動きベクトルの候補リストmvpListL1を示す図である。 図7は、候補リストmvpListLXに含まれる予測動きベクトルの各候補の関係を示す概念図である。 図8は、比較例における候補リストmvpListLXの作成手順を示すフロー図である。 図9Aは、図8のステップS410の詳細な処理手順を示すフロー図である。 図9Bは、図8のステップS430の詳細な処理手順を示すフロー図である。 図10Aは、図8のステップS510の詳細な処理手順を示すフロー図である。 図10Bは、図8のステップS530の詳細な処理手順を示すフロー図である。 図11は、図3のステップS240の詳細な処理手順を示すフロー図である。 図12は、図3のステップS250の詳細な処理手順を示すフロー図である。 図13は、mvpListLX生成処理の課題を説明する図である。 図14は、実施の形態1における動画像符号化装置のmvpListLX生成方法を説明する図である。 図15は、実施の形態2の動画像復号装置の構成を示すブロック図である。 図16は、実施の形態2の動画像復号方法を説明するフロー図である。 図17は、実施の形態2における候補リストmvpListLXの作成手順を示すフロー図である。 図18は、実施の形態2における候補リストmvpListLXの作成手順をシーケンシャルに示す図である。 図19は、予測対象ブロックがPU0である場合のステップS620およびS820の判定結果を示す図である。 図20は、予測対象ブロックがPU1である場合のステップS620およびS820の判定結果を示す図である。 図21は、変形例1における候補リストmvpListLXの作成手順を説明する部分フロー図である。 図22は、変形例2における候補リストmvpListLXの作成手順を示すフロー図である。 図23は、変形例2における候補リストmvpListLXの作成手順をシーケンシャルに示す図である。 図24は、図24は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成図である。 図25は、デジタル放送用システムの全体構成図である。 図26は、テレビの構成例を示すブロック図である。 図27は、光ディスクである記録メディアに情報の読み書きを行う情報再生/記録部の構成例を示すブロック図である。 図28は、光ディスクである記録メディアの構造例を示す図である。 図29Aは、携帯電話の一例を示す図である。 図29Bは、携帯電話の構成例を示すブロック図である。 図30は、多重化データの構成を示す図である。 図31は、各ストリームが多重化データにおいてどのように多重化されているかを模式的に示す図である。 図32は、PESパケット列に、ビデオストリームがどのように格納されるかを更に詳しく示した図である。 図33は、多重化データにおけるTSパケットとソースパケットの構造を示す図である。 図34は、PMTのデータ構成を示す図である。 図35は、多重化データ情報の内部構成を示す図である。 図36は、ストリーム属性情報の内部構成を示す図である。 図37は、映像データを識別するステップを示す図である。 図38は、各実施の形態の動画像符号化方法および動画像復号方法を実現する集積回路の構成例を示すブロック図である。 図39は、駆動周波数を切り替える構成を示す図である。 図40は、映像データを識別し、駆動周波数を切り替えるステップを示す図である。 図41は、映像データの規格と駆動周波数を対応づけたルックアップテーブルの一例を示す図である。 図42Aは、信号処理部のモジュールを共有化する構成の一例を示す図である。 図42Bは、信号処理部のモジュールを共有化する構成の他の一例を示す図である。
(本発明の基礎となった知見)
H.264では、情報量の圧縮のために、Iピクチャ、Pピクチャ、Bピクチャという3種類のピクチャタイプが用いられている。
Iピクチャは、インター予測符号化処理で符号化されない。すなわち、Iピクチャは、ピクチャ内予測(以降、「イントラ予測」と呼ぶ)符号化処理で符号化される。Pピクチャは、表示時間順で、符号化対象ピクチャの前方または後方にある既に符号化済みの1つのピクチャを参照してインター予測符号化される。Bピクチャは、表示時間順で、符号化対象ピクチャの前方(例えば、予測方向0)または後方(例えば、予測方向1)にある既に符号化済みの2つのピクチャを参照してインター予測符号化される。
動画像のインター予測符号化処理に用いられる動きベクトルの導出方法について様々な検討がされている。動きベクトルの導出方法には、例えば、以下の2つの方法がある。
1つ目の動きベクトルの導出方法は、符号化済(復号済)データから、符号列からの情報を得ずに動き検出ベクトル(動きベクトル)を直接導出するH.264ダイレクトモードである。
2つ目の動きベクトルの導出方法は、予測動きベクトルpに、符号列から取得した差分動きベクトルdを加算することにより、インター予測に用いられる動きベクトルv(動きベクトル)を導出する方法である(非特許文献1の(8−174)(8−175)式等参照)。なお、差分動きベクトルdは、動きベクトルvと予測動きベクトルpの差分ベクトルである。
ここで、図1は、H.264の2つ目の動きベクトルの導出方法における動きベクトルv(mvLX)と、予測動きベクトルp(mvpLX)と、差分動きベクトルd(mvdLX)との関係を説明する概念図である。なお、図1に示す例では、第一成分(例えば、水平成分)および第二成分(例えば、垂直成分)別に、演算が行われている。
復号時には、動きベクトルmvLXは、成分別に、以下の式1および式2の演算を実行することにより、復元される。
第一成分について:mvLX[0]=mvpLX[0]+mvdLX[0]・・・(式1)
第二成分について:mvLX[1]=mvpLX[1]+mvdLX[1]・・・(式2)
符号化時には、先ず、符号化効率の観点で(参照画像を特定するrefIdxLXと共に)動きベクトルmvLX(mvLX[0],mvLX[1])が、探索により決定される。さらに、動き検出ベクトルmvLXの復元に必要な情報である差分動きベクトルmvdLXを求めるために、以下の式3および式4で示す演算が行われる。
第一成分について:mvdLX[0]=mvLX[0]−mvpLX[0]・・・(式3)
第二成分について:mvdLX[1]=mvLX[1]−mvpLX[1]・・・(式4)
符号化時には、上記演算で求められた2次元の差分動きベクトルmvdLX(mvdLX[0],mvdLX[1])が符号化される。
以下、比較例における動画像符号化方法および動画像符号化装置について、図2〜図5を基に説明する。
[EX1:比較例における動画像符号化装置の構成]
図2は、比較例における動画像符号化装置の構成の一例を示すブロック図である。
動画像符号化装置100は、図2に示すように、差分部101、変換部102、量子化部103、エントロピー符号化部110、逆量子化部104、逆変換部105、加算部106、メモリ109、イントラ・インター予測部107、および、符号化制御部108を備えている。
差分部101は、ブロック毎に、入力画像信号から予測画像信号を減算することにより、残差信号を生成する。差分部101は、残差信号を変換部102に出力する。
変換部102は、残差信号に対し、画像領域から周波数領域への変換を行う。量子化部103は、周波数領域に変換された残差信号に対し、量子化処理を行う。量子化部103は、量子化処理後の残差信号である量子化済残差信号を逆量子化部104およびエントロピー符号化部110に出力する。
エントロピー符号化部110は、量子化済残差信号および復号制御信号等に対し、エントロピー符号化処理を行うことで、符号化済ビットストリームを生成する。復号制御信号には、例えば、予測方向フラグ、ピクチャタイプ情報、および差分動きベクトルd等の制御パラメータが含まれる。
逆量子化部104は、量子化部103によって量子化処理された量子化済残差信号に対し、逆量子化処理を行う。逆変換部105は、逆量子化処理された量子化済残差信号(残差信号)に対し、周波数領域から画像領域への変換を行い、復元済残差信号を出力する。
加算部106は、符号化対象ブロックごとに、復元済残差信号と予測画像信号とを加算することにより、再構成画像信号を生成する。
メモリ109には、再構成画像信号がフレーム単位で保存される。
イントラ・インター予測部107は、再構成画像信号をフレーム単位やブロック単位等の所定の単位でメモリに蓄積する。また、イントラ・インター予測部107は、後述する符号化制御部108からの指示に基づいて、予測画像信号(再構成画像信号と動きベクトルとに基づいて導出された画素値)を生成する。イントラ・インター予測部107は、生成した予測画像信号を、差分部101および加算部106に出力する。
符号化制御部108は、ピクチャ(入力画像信号)をどのような制御パラメータで符号化するかを試行の上決定する。符号化制御部108は、複数の制御パラメータのうち、符号化に必要な制御パラメータ(符号化制御情報)を、イントラ・インター予測部107に対し出力する。より詳細には、符号化制御部108は、例えば、図1中の点線で示すように、符号化済ビットストリームを取得し、取得した符号化済ビットストリームのビット長が短くなるように、複数の制御パラメータ(例えば、インター予測、イントラ予測の区別等)を決定する。
また、符号化制御部108は、複数の制御パラメータのうち、復号に必要な制御パラメータ(復号制御情報)を抽出してエントロピー符号化部110に出力する。復号制御情報には、例えば、pred_type、mvp_idx_lx、mvdLX等がある。pred_typeは、符号化ブロック単位CU毎に設定されており、予測モード(prediction mode、インター予測およびイントラ予測の区別)、および、符号化ブロック単位CUの区分の形(partitioning type)について規定されている。pred_typeの詳細については、後述する。mvp_idx_lxは、候補リストから予測動きベクトルとして用いる候補を指定するための予測動きベクトルインデックスを示している。mvdLXは、上述したように、差分動きベクトルを示している。
[EX2:比較例における動画像符号化装置の処理動作]
次に、上述した動画像符号化装置100で実行される動画像符号化方法について、図3および図4Aを基に説明する。
図3は、上述した動画像符号化装置100で実行されるインター予測符号化による予測画像の生成方法(動画像符号化方法)の処理手順を示すフロー図である。
なお、予測画像の生成は、予測ブロック単位PUで行われる。ここでは、予測ブロック単位PUのサイズが、符号化ブロック単位CUよりも小さい場合を例に説明する。
図4Aは、符号化ブロック単位CUと、予測ブロック単位PUとの関係を示す図である。図4Aにおいて、実線枠は符号化ブロック単位CUを示しており、破線枠は予測ブロック単位PUを示している。スライス(ピクチャ)のタイプはBである。図4Aでは、1つのスライスが4つの等しい大きさのブロックに分割されている。右上のブロックは、さらに、4分割されている。これらのブロックが、符号化ブロック単位CUである。
さらに、図4Aでは、各符号化ブロック単位CUに対し、Coding treeと呼ばれるツリー階層の深さ毎に、0、1、2、・・・の順で番号が付与されている。この番号が、符号化の処理順序に対応している。具体的には、左上、右上、左下、右下のブロックに、CU0、CU10〜CU13、CU2、CU3が付されている。
図4Bは、図4Aに示した符号化ブロック単位CUについて、符号列からCoding tree syntaxにより求められるcoding unitツリーとpred_typeとの関係を示す図である。pred_typeは、例えば、図4Cに示す表に従って、意味を決定することができる。
図4Cは、pred_typeの値についての解釈表である。例えば、スライスタイプがPまたはBであり、pred_typeの値が2の場合、符号化ブロック単位CUの予測モードは、MODE_INTERであり、当該符号化ブロック単位CUの区分の形は、Nx2Nとなる。これには、例えば、図4Aの符号化ブロック単位CU12が該当する。また、例えば、スライスタイプがPまたはBであり、pred_typeの値が8の場合、符号化ブロック単位CUの予測モードは、MODE_INTRAであり、当該符号化ブロック単位CUの区分の形は、2Nx2Nとなる。これには、例えば、図4Aの符号化ブロック単位CU0が該当する。
以下、符号化対象ブロックがCU12である場合を例に説明する。上述したように、符号化対象ブロックCU12の予測モードは、MODE_INTERであり、符号化対象ブロックCU12には、PU0およびPU1の2つの予測ブロック単位PUが含まれる(Nx2N)。なお、図4Bにおいて、一点破線で囲む領域が、符号化対象ブロックCU12の予測ブロック単位PU0について符号化する時点で、既に“available”である情報を持つ領域である。図4Bに示すように、当該比較例において、符号化ブロック単位CU2およびCU3は、符号化対象ブロックCU12の符号化を行う時点では“available”ではない。
図3を参照して、ステップS200では、符号化制御部108は、動き検出により、予測対象ブロックの動きベクトルmvLXを導出する。
ステップS210では、符号化制御部108は、現在の符号化対象ブロック(Curr_Blk)に含まれる予測ブロック単位(PU単位)の予測動きベクトルの候補リスト(mvpListLX)を生成する(mvpListLX生成ステップ)。なお、候補リストmvpListLXは、予測ブロック単位PUで生成される。また、各予測ブロック単位PUについて、予測方向0に対応する候補リストmvpListL0と、予測方向1に対応する候補リストmvpListL1の2つの候補リストが生成される。
図5は、予測対象ブロック(currentPU、現在の予測ブロック単位PU)と隣接ブロックの位置関係を示す図である。図5では、複数の隣接ブロックが、2つのブロック群AおよびB(以下、図面では、適宜「A群」および「B群」と略称する)に分類されている。ブロック群Aは、予測対象ブロックの左側に隣接する隣接ブロックA0と、予測対象ブロックの左下に隣接する隣接ブロックA1とを含む。ブロック群Bは、予測対象ブロックの左上に隣接する隣接ブロックB2と、予測対象ブロックの上側に隣接する隣接ブロックB1と、予測対象ブロックの右上に隣接する隣接ブロックB0とを含む。
なお、図4Aにおいて、符号化ブロック単位CU12に含まれる予測ブロック単位PU0が予測対象ブロックとなる場合、隣接ブロックA1に対応するブロックは、符号化ブロック単位CU0に含まれる予測ブロック単位PU3であり、隣接ブロックA0に対応するブロックは、符号化ブロック単位CU2に含まれる予測ブロック単位PUとなる。
図6Aおよび図6Bを参照して、符号化制御部108により生成される予測動きベクトルの候補リストについて説明する。図6Aは、予測方向0の予測動きベクトルを符号化するための候補リストmvpListL0を示す図である。図6Bは、予測方向1の予測動きベクトルを符号化するための候補リストmvpListL1を示す図である。Nは、ブロック群を示す指標である。
図6Aおよび図6Bでは、候補リストのサイズが2であり、図5に示すブロック群Aおよびブロック群Bの各々から1つの候補が導出される場合を示している。なお、ブロック群A、Bから候補が導出されない場合を除外するものではない。候補リストの導出方法については、後で詳述する。
再度図3を参照して、ステップS230では、符号化制御部108は、mvpListLXに対する更新処理を行う(更新ステップ)。符号化制御部108は、更新処理として、例えば、エントリの追加、リストに含まれる候補の複製、候補の削除等を行う。更新処理のルールは、動画像符号化装置100と後述する動画像復号装置300とで共有される。
ステップS240では、符号化制御部108は、各予測ブロック単位PUについて、mvp_idx_lxの値を含む符号化制御情報を決定する(決定ステップ)。
mvp_idx_lxは、予測方向Xの動きベクトルを符号化するための予測動きベクトル候補を示す予測動きベクトルインデックスである。ここで、図7は、予測動きベクトルの候補リストmvpListLXの各候補と、動きベクトルmvLXと、差分動きベクトルmvdLXとの関係を示す図である。なお、図7では、参考のため、予測動きベクトルmvpLXとして決定されなかったmvpListLX[n_mvp_idx]が記載されている。動きベクトルmvLXは、ステップS200において、符号化制御部108が動き検出により求めた動きベクトルである。符号化制御部108は、本実施の形態では、2つの予測動きベクトル候補のうち、動きベクトルmvLXとの差が最も小さくなる予測動きベクトル候補を、予測動きベクトルとして決定する。mvpListLX[mvp_idx]のmvp_idxの値が、インデックスmvp_idx_1Xの値として決定される。
ステップS250では、イントラ・インター予測部107は、符号化制御情報に基づいて、各予測ブロック単位PUをイントラ・インター符号化する(予測ステップ)。
[EX2−1:比較例における候補リストmvpListLXの生成方法]
次に、予測動きベクトルの候補リストmvpListLXの生成方法の詳細について、図8〜図10Bを参照して説明する。
図8は、mvpListLX生成ステップS210の詳細な処理手順を示すフロー図である。以下の処理に先立って、符号化制御部108は、各フラグ(availableLXA、isScaled、availableLXB等)を0に初期化する。
符号化制御部108は、先ず、mvpListLXの1つ目の候補を生成する処理を行う(S400)。ステップS400では、符号化制御部108は、ブロック群Aに含まれるブロックA0,A1から候補を導出するための処理を実行する。なお、ブロックA0およびA1の両方がイントラ予測を用いている場合等、ブロック群Aから候補を導出できない場合もあり得る。
ステップS410において、符号化制御部108は、ブロック群Aから、スケーリング処理(Scaling)なしで利用できる動きベクトルを持つブロックを検索する。詳細については後述する。検索は、A0,A1の順で行われる。符号化制御部108は、検索に成功した場合、フラグavailableLXAに1をセットする。また、符号化制御部108は、検索されたブロックの動きベクトルを候補リストmvpListLXに追加する。
ステップS420では、符号化制御部108は、availableLXAが0であるか否か(検索に失敗したか否か)を判定する。
検索に失敗した場合は(S420でtrue)、符号化制御部108は、ブロック群A(A0、A1)から動きベクトルを利用できるブロックを検索する。検索は、A0,A1の順で行われる。検索に成功した場合、符号化制御部108は、検索されたブロックの動きベクトルに対してスケーリング処理を実行し、スケーリング処理後の動きベクトルを候補リストmvpListLxに追加する。さらに、符号化制御部108は、フラグisScaledを1に設定する。フラグisScaledは、ブロック群Aにおいてスケーリング処理を行ったか否かを示すフラグである。スケーリング処理とは、動きベクトルを拡大・縮小する処理である。なお、スケーリング処理については、非特許文献2の(8−130乃至134式、図23(A)参照)等を利用できる。
次に、符号化制御部108は、mvpListLXの2つ目の候補を生成する処理を行う(S500)。ステップS500では、符号化制御部108は、ブロック群B(B0,B1,B2)から候補を導出するための処理を実行する。なお、ブロックB0,B1,B2の全てがイントラ予測を用いている場合等、ブロック群Bから候補を導出できない場合もあり得る。
詳細には、ステップS510において、符号化制御部108は、ブロック群Bから、Scalingなしで利用できる動きベクトルを持つブロックを検索する。検索は、B0,B1,B2の順で行われる。符号化制御部108は、検索に成功した場合、フラグavailableFlagLXBに1をセットする。また、符号化制御部108は、検索されたブロックの動きベクトルを候補リストmvpListLXに追加する。
ステップS420では、符号化制御部108は、availableLXA==0、且つ、availableLXB==0、且つ、isScaled==0であるかを判定する。
ステップS420の判定結果がTrueの場合、符号化制御部108は、ブロック群B(B0、B1、B2)から動きベクトルを利用できるブロックを検索する。検索は、B0、B1、B2の順で行われる。検索に成功した場合、符号化制御部108は、検索されたブロックの動きベクトルに対してスケーリング処理を実行し、スケーリング処理後の動きベクトルを候補リストmvpListLxに追加する。なお、スケーリング処理については、例えば、非特許文献2の(8−135乃至139式、図23(B)参照)等を利用できる。
なお、ステップS420の判定では、ブロック群Aにおいて既にスケーリング処理が行われているか否か(isScaled==0)を判定している。これは、スケーリング処理の処理回数を削減するためである。スケーリング処理は、負荷の大きい処理であるため、処理回数を削減することが望ましい。ここでは、スケーリング処理の回数を、1回としている。ブロック群Aでスケーリング処理が行われている場合、既に候補リストに有効な候補が追加されていることから、ブロック群Bについては、スケーリング処理を行わないこととしている。
<ブロック群A(A0,A1)>
先ず、図8のステップS410(ブロック群Aから、スケーリング処理なしで利用できる動きベクトルを持つブロックを検索するステップ)について、図9Aを基に説明する。図9Aは、図8のステップS410の詳細な処理手順を示すフロー図である。
図9Aにおいて、A[k](k=0,1)は、ブロック群Aに含まれる各ブロックを示す値である。具体的には、A[0]はブロックA0を示しており、A[1]はブロックA1を示している。図9Aでは、ステップS412〜ステップS415の処理が、ブロックA0およびA1について実行される(ステップS411、S416)。
ステップS412では、符号化制御部108は、A[k]を含む予測ブロック単位PUの予測方向0の動きベクトルが、スケーリング処理なしで利用可能な動きベクトルであるかを判定する。
具体的には、符号化制御部108は、A[k]を含む予測ブロック単位PUが、
(i)“available”であり、かつ、
(ii)MODE_INTRAでなく、かつ、
(iii)predFlagL0が1であり、かつ、
(iv)refIdxがCurrentブロックのPUのrefIdxと等しいか(全てが成立するか)否かを判定する。
ここで、(i)の“available”は、A[k]に対応する予測ブロック単位PUが利用可能であることを示している。なお、“not available”は、A[k]に対応する予測ブロック単位PUが利用可能ではない符号化されていないことを示している。ここで、“not available”となる場合とは、予測ブロック単位PUが動きベクトル等の情報を有しない場合、例えば、ピクチャやスライスの境界外などに位置するブロックである場合や、まだ符号化されていないブロックである場合等が含まれる。(ii)のMODE_INTRAは、イントラ予測であることを示している。イントラ予測の場合、予測動きベクトルの候補として利用できない。(iii)のpredFlagL0は、予測方向0の予測動きベクトルを用いるか否かを示すフラグであり、“1”の場合は、予測方向0の予測動きベクトルを用いることを示している。(iv)の判定は、言い換えると、A[k]に対応する予測ブロック単位PUの参照ピクチャが、符号化(復号)対象ブロックの参照ピクチャと同じであるかの判定である。これは、スケーリングせずに利用できる動きベクトルを有するかの判定と等価である。
ステップS412の判定結果がtrueではない場合(otherwiseの場合)は、テップS413の判定を行う。
ステップS413では、符号化制御部108は、A[k]を含む予測ブロック単位PUの予測方向1の動きベクトルが、スケーリング処理なしで利用可能な動きベクトルであるかを判定する。これは、ブロックA[k]の予測方向0の動きデータ(動きベクトル、参照インデックス、以下同)について行った判定を、A[k]の予測方向1の動きデータについても判定する意味である。
ステップS412の判定結果、あるいは、ステップS413の判定結果がtrueの場合、言い換えると、スケーリング処理なしで利用可能な動きベクトルが検索された場合、符号化制御部108は、ステップS414でavailableFlagLXAを1にセットし、ステップA307でブロックA[k]のmvLXを、スケーリング処理することなくそのままの値で候補リストmvpListLXに追加する。その後、符号化制御部108は、ステップS416に移行する。
一方、ステップS413の判定結果がtrueではない場合(ステップS412およびステップS413の両方の判定結果がotherwiseの場合)、言い換えると、スケーリング処理なしで利用可能な動きベクトルが検索されなかった場合、符号化制御部108は、ステップS416に移行する。
ステップS416では、符号化制御部108は、availableFlagLXA==1またはk==1の場合、ステップS410の処理を終了する。
次に、図8のステップS430(ブロック群Aの動きベクトルに対しスケーリング処理を行うステップ)の処理手順について、図9Bを基に説明する。図9Bは、図8のステップS430の詳細な処理手順を示すフロー図である。図9Bでは、ステップS432〜ステップS437の処理が、ブロックA0およびA1について実行される(ステップS431、S438)。
ステップS432では、符号化制御部108は、A[k]を含む予測ブロック単位PUの予測方向0の動きベクトルが、スケーリング処理可能な動きベクトルであるかを判定する。
より詳細には、符号化制御部108は、ステップS412の(i)〜(iv)の判定のうち、(i)〜(iii)の判定を行う。本処理はスケーリングの処理のため、(iv)の条件は不要である。従って、符号化制御部108は、A[k]を含む予測ブロック単位PUが、「(i)“available”であり、かつ、(ii)MODE_INTRAでなく、かつ、(iii)prefFlagL0が1であるか」を判定する。
ステップS432の判定結果がtrueではない場合(otherwiseの場合)は、テップS433の判定を行う。
ステップS433では、符号化制御部108は、A[k]を含む予測ブロック単位PUの予測方向1の動きベクトルが、スケーリング処理可能な動きベクトルであるかを判定する。ステップS433は、ステップS432の動きデータについて行った判定を、A[k]の予測方向1の動きデータについても実行するものである。
ステップS432の判定結果、あるいは、ステップS433の判定結果がtrueの場合、言い換えると、スケーリング処理可能な動きベクトルが検索された場合、符号化制御部108は、スケーリング比を導出するための情報(refIdx,List等)を取得する(S434)。さらに、符号化制御部108は、mvLXAに、A[k]の動きベクトルmvLXの値を設定し、refIdxLXにA[k]の参照ピクチャインデックスを設定する。
ステップS435では、符号化制御部108は、スケーリング比を導出し、スケーリング処理を行う。ステップS436では、符号化制御部108は、ブロック群Aに対する処理でスケーリング処理を行ったことを示すフラグisScaledを1にセットする。ステップS437では、符号化制御部108は、availableFlagLXAを1にセットする。その後、符号化制御部108は、ステップS438に移行する。
一方、ステップS433の判定結果がtrueではない場合(ステップS432およびステップS433の両方の判定結果がotherwiseの場合)、言い換えると、スケーリング処理可能な動きベクトルが検索されない場合、符号化制御部108は、ステップS438に移行する。
ステップS438では、符号化制御部108は、availableFlagLXA==1またはk==1の場合、ステップS430の処理を終了する。
<ブロック群B(B0,B1,B2)>
先ず、図8のステップS510(ブロック群Bから、スケーリング処理なしで利用できる動きベクトルを持つブロックを検索するステップ)について、図10Aを基に説明する。図10Aは、図8のステップS510の詳細な処理手順を示すフロー図である。
なお、図9Aに示す処理と図10Aに示す処理とは、処理対象ブロックが異なる点以外、同じである。図9Aでは、処理対象ブロックがA0、A1であるのに対し、図10Aでは、処理対象ブロックがB0、B1、B2である。図10AのステップS512〜S515は、それぞれ、図9AのステップS412〜S415に対応している。
次に、図8のステップS530(ブロック群Bの動きベクトルに対しスケーリング処理を行うステップ)の処理手順について、図10Bを基に説明する。図10Bは、図8のステップS530の詳細な処理手順を示すフロー図である。
なお、図9Bに示す処理と図10Bに示す処理とは、処理対象ブロックが異なる点と、ステップS436のisScaledフラグの記録を行わない点以外、同じである。図9Bでは、処理対象ブロックがA0、A1であるのに対し、図10Bでは、処理対象ブロックがB0、B1、B2である。図10BのステップS532〜S536は、それぞれ、図9BのステップS432〜S435、S437に対応している。
[EX2−2:符号化制御情報の決定]
図11は、図3のステップS240の符号化制御情報を決定するステップの詳細な処理手順を示すフロー図である。図3のステップS240において、符号化制御部108は、各予測動きベクトル候補の符号化効率を算出し、符号化効率の良い予測動きベクトル候補を、インター予測に用いる動きベクトルとして決定する。これにより、インター予測に用いるmvp_idx_l0の値およびmvp_idx_l1の値が1つ決定される。
詳細には、ステップS301では、符号化制御部108は、mvp_idx_l0に0をセットする。さらに、符号化制御部108は、後述するステップS302〜S308の実行後に、mvp_idx_l0を1インクリメントする。符号化制御部108は、ステップS302〜S308を繰り返し実行する。
ステップS302では、符号化制御部108は、availableFlagL0[mvp_idx_l0]が1か否かを判定する。
ステップS302でavailableFlagL0[mvp_idx_l0]が1ではない場合(S302でFALSE)、符号化制御部108は、ステップS309に移行する。
一方、ステップS302でavailableFlagL0[mvp_idx_l0]が1の場合(S302でTRUE)、符号化制御部108は、ステップS303に移行する。
ステップS303では、符号化制御部108は、mvp_idx_l1に0をセットする。さらに、符号化制御部108は、後述するステップS304およびS305の実行後に、mvp_idx_l1を1インクリメントする。符号化制御部108は、ステップS304およびS305を繰り返し実行する。
ステップS304では、符号化制御部108は、availableFlagL1[mvp_idx_l1]が1か否かを判定する。
ステップS304でavailableFlagL1[mvp_idx_l1]が1ではない場合(S304でFALSE)、符号化制御部108は、ステップS308に移行する。
一方、ステップS304でavailableFlagL1[mvp_idx_l1]が1の場合(S304でTRUE)、符号化制御部108は、ステップS305に移行する。
ステップS305では、符号化制御部108は、現在の予測動きベクトルインデックスの組(mvp_idx_l0、mvp_idx_l1)で示される予測動きベクトル候補の組(mvpListL0[mvp_idx_l0]、mvpListL1[mvp_idx_l1])(以下、適宜「現在の予測動きベクトル候補の組」と称する)を用いて、インター符号化を試行する。
ステップS306では、符号化制御部108は、mvp_idx_lxとして仮設定されている予測動きベクトルインデックスの組の値で示される予測動きベクトル候補の組(mvpListL0[mvp_idx_l0]、mvpListL1[mvp_idx_l1])(以下、適宜「仮設定されている予測動きベクトル候補の組」と称する)の符号化効率と、現在の予測動きベクトル候補の組の符号化効率とを比較する。
ステップS306において、現在の予測動きベクトル候補の組の符号化効率より、仮設定されている予測動きベクトル候補の組の符号化効率が良い場合は(S306でN)、符号化制御部108は、ステップS308に移行する。
一方、ステップS306において、現在の予測動きベクトル候補の組の符号化効率の方が、仮設定されている予測動きベクトル候補の組の符号化効率よりも良い場合は(S306でY)、符号化制御部108は、ステップS307に移行し、予測動きベクトルインデックスの組mvp_idx_lx(mvp_idx_l0、mvp_idx_l1)に、現在の(mvp_idx_l0、mvp_idx_l1)の値を設定する。なお、予測動きベクトルインデックスの組mvp_idx_lx(mvp_idx_l0、mvp_idx_l1)に値が設定されていない場合は、現在の(mvp_idx_l0、mvp_idx_l1)の値を設定する。
ステップS308では、符号化制御部108は、mvpListL1[mvp_idx_l1]が候補リストの最後の候補であるか否かを判定する(図11では「mvp_idx_l1が全て終わった?」と記載)。例えば、図6Bに示す候補リストmvpListL1の場合、候補リストのサイズが2であることから、mvp_idx_l1==1(=候補リストサイズ−1)の場合、最後の候補であると判定する。mvpListL1[mvp_idx_l1]が候補リストの最後の候補ではないと判定した場合、符号化制御部108は、ステップS303に戻り、mvp_idx_l1を1インクリメントする(S303)。
一方、ステップS308において、mvpListL1[mvp_idx_l1]が候補リストの最後の候補であると判定した場合、符号化制御部108は、ステップS309に移行する。
ステップS309では、符号化制御部108は、mvpListL0[mvp_idx_l0]が候補リストの最後の候補であるか否かを判定する(図11では「mvp_idx_l0が全て終わった?」と記載)。例えば、図6Aに示す候補リストmvpListL0の場合、候補リストのサイズが2であることから、mvp_idx_l0==1(=候補リストサイズ−1)の場合、最後の候補であると判定する。mvpListL0[mvp_idx_l0]が候補リストの最後の候補ではないと判定した場合、符号化制御部108は、ステップS301に戻り、mvp_idx_l0を1インクリメントする(S301)。
一方、ステップS309において、mvpListL0[mvp_idx_l0]が候補リストの最後の候補であると判定した場合、符号化制御部108は、ステップS310に移行する。
ステップS310では、符号化制御部108は、mvp_idx_lx(mvp_idx_l0、mvp_idx_l1)を、予測動きベクトルインデックスの組として決定する。
以下、図6Aおよび図6Bの場合について、簡単に説明する。
1ループ目のステップS301の実行では、符号化制御部108は、mvp_idx_l0に0を設定する。ステップS302では、符号化制御部108は、図6Aに示すように、availableFlagLXAが1であると判定し、ステップS303に移行する。
1ループ目の最初のステップS303の実行では、符号化制御部108は、mvp_idx_l1に0を設定する。ステップS304では、符号化制御部108は、図6Bに示すように、availableFlagLXBが1であることから、ステップS305に移行する。
ステップS305では、符号化制御部108は、現在の(mvpListL0[0]、mvpListL0[0])を用いてインター符号化を試行する。ステップS306では、符号化制御部108は、過去にインター符号化の試行を実行していないことから、ステップS307に移行し、mvp_idx_lxに(0,0)を設定する。
ステップS308では、符号化制御部108は、図6Bに示すように、mvp_idx_l1が1つしかなく、全て終了していることから、ステップS309に移行する。1ループ目のステップS309では、符号化制御部108は、図6Aに示すように、mvp_idx_l0は、0と1の2つの値をとることから、全て終了していないと判定して、ステップS301に戻り、mvp_idx_l0に1をセットして、2ループ目を開始する。
2ループ目のステップS301の実行では、符号化制御部108は、mvp_idx_l0に1を設定する。ステップS302では、符号化制御部108は、図6Aに示すように、availableFlagLXBが1であると判定し、ステップS303に移行する。
2ループ目の最初のステップS303の実行では、符号化制御部108は、mvp_idx_l1に0を設定する。ステップS304では、符号化制御部108は、図6Bに示すように、availableFlagLXBが1であることから、ステップS305に移行する。
ステップS305では、符号化制御部108は、現在の(mvpListL0[1]、mvpListL0[0])を用いてインター符号化を試行する。ステップS306では、符号化制御部108は、過去にインター符号化を試行した(mvpListL0[0]、mvpListL0[0])の符号化効率と、現在の(mvpListL0[1]、mvpListL0[0])の符号化効率とを比較する。ここで、過去の(mvpListL0[0]、mvpListL0[0])の符号化効率がよいとすると、符号化制御部108は、ステップS308に移行する。
ステップS308では、符号化制御部108は、図6Bに示すように、mvp_idx_l1が1つしかなく、全て終了していることから、ステップS309に移行する。2ループ目のステップS309では、符号化制御部108は、図6Aに示すように、mvp_idx_l0は、0と1の2つの値をとり、それぞれについて処理が実行されたことから、全て終了したと判定して、ステップS310に移行する。
ステップS310では、符号化制御部108は、mvp_idx_lxに設定されている(0,0)を、mvp_idx_lxの値の組として決定する。
[EX2−3:イントラ・インター符号化]
図12は、図3のステップS250の詳細な処理手順を示すフロー図である。図3のステップS250では、符号化制御部108で求められた符号化制御情報および復号制御情報等を用いて、入力画像信号が示す動画像のイントラ・インター符号化を実行する。
詳細には、ステップS252では、イントラ・インター予測部107は、動きベクトルmvLXに基づいて符号化対象ブロックの予測画像を生成し、生成した予測画像を示す予測画像信号を出力する。差分部101は、入力画像信号から予測画像信号を減算して残差信号を生成する。変換部102は、残差信号を画像領域から周波数領域に変換し、量子化部103は、周波数領域に変換された残差信号を量子化して量子化済残差信号を生成する。エントロピー符号化部110は、量子化済残差信号を符号化する。
ステップS254では、エントロピー符号化部110は、予測動きベクトルインデックスの組mvp_idx_lx(mvp_idx_l0、mvp_idx_l1)を符号化する。エントロピー符号化部110は、例えば、EX2−2で説明した図6Aおよび図6Bの場合、mvp_idx_lx(0、0)を符号化する。
ステップS256では、エントロピー符号化部110は、差分動きベクトルmvdLXを符号化する。
エントロピー符号化部110は、符号化した量子化残差信号、予測動きベクトルインデックスの組mvp_idx_lx(mvp_idx_l0、mvp_idx_l1)および差分動きベクトルmvdLXを含む符号化ビットストリームを生成し、出力する。
図13は、比較例におけるmvpListLX生成処理(図8〜図10B、EX2−1参照)の課題を説明する図である。
図中、横棒二重線は並列処理記号であり、横棒二重線の間の処理が並列処理となる。
図13に示すように、上記比較例では、ブロック群Aから予測動きベクトル候補を求める処理(図8のステップS400)と、ブロック群Bから予測動きベクトル候補を求める処理(図8のステップS500)とを並列に処理することにより、処理時間の短縮を図ることが可能である。
ここで、上記比較例では、図13に示すように、ステップS520において、ステップS430中のS436におけるブロック群Aでスケーリング処理を実行したか否かを判定条件の1つとしている。
これは、上述したように、処理負荷の大きいスケーリング処理を1回とするため、ブロック群Aで既にスケーリング処理が実行されている場合は、ブロック群Bでスケーリング処理を実行しないようにするためである。
このため、上記比較例では、ブロック群Bに対する処理であるステップS500では、ステップS520の処理を実行するために、ブロック群Aに対する処理であるステップS400(特に、S436)の終了を待つ必要があるという問題がある。
そこで、本実施の形態に係る画像復号方法は、ビットストリームに含まれる復号対象ブロックの動きベクトルを復号する際に用いる予測動きベクトルを用いて、前記復号対象ブロックを復号する動画像復号方法であって、前記予測動きベクトルの候補である1または複数の予測動きベクトル候補を取得する候補取得ステップと、前記ビットストリームに付加された符号化されたインデックスであって、前記1または複数の予測動きベクトル候補の中から前記予測動きベクトル候補を特定するためのインデックスを復号する復号ステップと、復号された前記インデックスに基づいて、前記予測動きベクトル候補の中から、前記復号対象ブロックの復号に用いられる前記予測動きベクトルを選択する選択ステップとを含み、前記候補取得ステップは、前記復号対象ブロックの第一方向に隣接する複数の第一隣接ブロックの複数の動きベクトルに基づいて前記予測動きベクトル候補を生成する第一候補生成ステップと、前記復号対象ブロックの第二方向に隣接する複数の第二隣接ブロックの複数の動きベクトルに基づいて前記予測動きベクトル候補を生成する第二候補生成ステップとを有し、前記第二候補生成ステップは、前記複数の第一隣接ブロックにインター予測されたブロックが含まれるか否かを判定する判定ステップと、前記判定ステップにおいて、前記複数の第一隣接ブロックにインター予測されたブロックが含まれないと判定された場合に、前記複数の第二隣接ブロックの複数の動きベクトルからスケーリング処理により利用可能となる動きベクトルを検索し、動きベクトルが検索された場合に、検索された前記動きベクトルに対するスケーリング処理を実行することにより、前記予測動きベクトル候補を生成するスケーリングステップとを有する。
また、例えば、前記第二候補生成ステップでは、前記判定ステップにおいて、前記複数の第一隣接ブロックにインター予測されたブロックが含まれると判定された場合に、インター予測されたブロックであると判定された全ての第一隣接ブロックが、ピクチャ境界またはスライス境界に位置するブロックであるか否かを判定し、前記インター予測されたブロックであると判定された全ての第一隣接ブロックが、ピクチャ境界またはスライス境界に位置するブロックであると判定された場合に、前記スケーリングステップを実行してもよい。
また、例えば、前記第二候補生成ステップは、さらに、前記複数の第二隣接ブロックの複数の動きベクトルから、スケーリング処理なしで利用可能な動きベクトルを検索し、スケーリング処理なしで利用可能な動きベクトルが検索された場合に、検索された前記動きベクトルを前記予測動きベクトル候補の一つとして決定する決定ステップを有し、スケーリング処理なしで利用可能な動きベクトルが検索されない場合に、前記判定ステップを実行してもよい。
また、例えば、前記決定ステップでは、前記複数の第二隣接ブロック各々の参照ピクチャと、復号対象ブロックの参照ピクチャとが同じであるか否かを判定し、参照ピクチャが同じであると判定された第二隣接ブロックを、スケーリング処理なしで利用可能な動きベクトルとして検索してもよい。
また、例えば、前記第一候補生成ステップは、前記複数の第一隣接ブロックの複数の動きベクトルから、スケーリング処理なしで利用可能な動きベクトルを検索し、スケーリング処理なしで利用可能な動きベクトルが検索された場合に、検索された前記動きベクトルを前記予測動きベクトル候補の一つとして決定するステップと、前記複数の第一隣接ブロックからスケーリング処理なしで利用可能な動きベクトルが検索されたか否かを判定するステップと、前記複数の第一隣接ブロックからスケーリング処理なしで利用可能な動きベクトルが検索されないと判定された場合に、前記複数の第一隣接ブロックの複数の動きベクトルからスケーリング処理により利用可能となる動きベクトルを検索し、動きベクトルが検索された場合に、検索された前記動きベクトルに対するスケーリング処理を実行することにより、前記予測動きベクトル候補を生成するステップとを有してもよい。
また、例えば、前記第一候補生成ステップと前記第二候補生成ステップとが、並列に実行されてもよい。
そこで、本実施の形態に係る画像符号化方法は、符号化対象ブロックの動きベクトルを符号化する際に用いる予測動きベクトルを用いて、前記符号化対象ブロックを符号化することでビットストリームを生成する動画像符号化方法であって、前記予測動きベクトルの候補である1または複数の予測動きベクトル候補を取得する候補取得ステップと、前記1または複数の前記予測動きベクトル候補の中から前記符号化対象ブロックの前記動きベクトルの符号化に用いる前記予測動きベクトルを選択する選択ステップと、選択された前記予測動きベクトルを特定するためのインデックスを符号化し、符号化した前記インデックスを前記ビットストリームに付加する符号化ステップとを含み、前記候補取得ステップは、前記符号化対象ブロックの第一方向に隣接する複数の第一隣接ブロックの複数の動きベクトルに基づいて前記予測動きベクトル候補を生成する第一候補生成ステップと、前記符号化対象ブロックの第二方向に隣接する複数の第二隣接ブロックの複数の動きベクトルに基づいて前記予測動きベクトル候補を生成する第二候補生成ステップとを有し、前記第二候補生成ステップは、前記複数の第一隣接ブロックにインター予測されたブロックが含まれるか否かを判定する判定ステップと、前記判定ステップにおいて、前記複数の第一隣接ブロックにインター予測されたブロックが含まれないと判定された場合に、前記複数の第二隣接ブロックの複数の動きベクトルからスケーリング処理により利用可能となる動きベクトルを検索し、動きベクトルが検索された場合に、検索された前記動きベクトルに対するスケーリング処理を実行することにより、前記予測動きベクトル候補を生成するスケーリングステップとを有する。
また、例えば、前記第二候補生成ステップでは、前記判定ステップにおいて、前記複数の第一隣接ブロックにインター予測されたブロックが含まれると判定された場合に、インター予測されたブロックであると判定された全ての第一隣接ブロックが、ピクチャ境界またはスライス境界に位置するブロックであるか否かを判定し、前記インター予測されたブロックであると判定された全ての第一隣接ブロックが、ピクチャ境界またはスライス境界に位置するブロックであると判定された場合に、前記スケーリングステップを実行してもよい。
また、例えば、前記第二候補生成ステップは、さらに、前記複数の第二隣接ブロックの複数の動きベクトルから、スケーリング処理なしで利用可能な動きベクトルを検索し、スケーリング処理なしで利用可能な動きベクトルが検索された場合に、検索された前記動きベクトルを前記予測動きベクトル候補の一つとして決定する決定ステップを有し、スケーリング処理なしで利用可能な動きベクトルが検索されない場合に、前記判定ステップを実行してもよい。
また、例えば、前記決定ステップでは、前記複数の第二隣接ブロック各々の参照ピクチャと、符号化対象ブロックの参照ピクチャとが同じであるか否かを判定し、参照ピクチャが同じであると判定された第二隣接ブロックを、スケーリング処理なしで利用可能な動きベクトルとして検索してもよい。
また、例えば、前記第一候補生成ステップは、前記複数の第一隣接ブロックの複数の動きベクトルから、スケーリング処理なしで利用可能な動きベクトルを検索し、スケーリング処理なしで利用可能な動きベクトルが検索された場合に、検索された前記動きベクトルを前記予測動きベクトル候補の一つとして決定するステップと、前記複数の第一隣接ブロックからスケーリング処理なしで利用可能な動きベクトルが検索されたか否かを判定するステップと、前記複数の第一隣接ブロックからスケーリング処理なしで利用可能な動きベクトルが検索されないと判定された場合に、前記複数の第一隣接ブロックの複数の動きベクトルからスケーリング処理により利用可能となる動きベクトルを検索し、動きベクトルが検索された場合に、検索された前記動きベクトルに対するスケーリング処理を実行することにより、前記予測動きベクトル候補を生成するステップとを有してもよい。
また、例えば、前記第一候補生成ステップと前記第二候補生成ステップとが、並列に実行されてもよい。
そこで、本発明の一態様に係る動画像符号化復号装置は、ビットストリームに画像を符号化する動画像符号化装置と、符号化されたビットストリームから画像を復号する動画像復号装置とを備える動画像符号化復号装置であって、前記動画像符号化装置は、前記画像に含まれる符号化対象ブロックの動きベクトルの符号化に用いる予測動きベクトルの候補である、1以上の予測動きベクトル候補を導出する導出部と、前記1以上の予測動きベクトル候補から、前記予測動きベクトルを選択する選択部と、選択された前記予測動きベクトルを特定するインデックスを前記ビットストリームに符号化する符号化部とを含み、前記導出部は、前記符号化対象ブロックの第一方向に隣接する、1以上の第一隣接ブロックそれぞれの第一動きベクトルから前記予測動きベクトルの候補となる第一候補を生成する第一候補生成部と、前記符号化対象ブロックの第二方向に隣接する、1以上の第二隣接ブロックそれぞれの第二動きベクトルから前記予測動きベクトルの候補となる第二候補を生成する第二候補生成部とを含み、前記第二候補生成部は、前記1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定部と、前記1以上の第一隣接ブロックのいずれもがインター予測されていない場合に、前記1以上の第二隣接ブロックのいずれかに属する、スケーリング可能な第二動きベクトルに対してスケーリングを行い、前記第二候補を生成するスケーリング部とを含み、前記動画像復号装置は、前記画像に含まれる復号対象ブロックの動きベクトルの復号に用いる予測動きベクトルの候補である、1以上の予測動きベクトル候補を導出する導出部と、前記ビットストリームに含まれるインデックスを用いて、前記1以上の予測動きベクトル候補から、前記予測動きベクトルを選択する選択部と、選択された前記予測動きベクトルを用いて前記復号対象ブロックの動きベクトルを復号し、復号した前記動きベクトルを用いて前記復号対象ブロックを復号する復号部と、を含み、前記導出部は、前記復号対象ブロックの第一方向に隣接する、1以上の第一隣接ブロックそれぞれの第一動きベクトルから前記予測動きベクトルの候補となる第一候補を生成する第一候補生成部と、前記復号対象ブロックの第二方向に隣接する、1以上の第二隣接ブロックそれぞれの第二動きベクトルから前記予測動きベクトルの候補となる第二候補を生成する第二候補生成部とを含み、前記第二候補生成部は、前記1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定部と、前記1以上の第一隣接ブロックのいずれもがインター予測されていない場合に、前記1以上の第二隣接ブロックのいずれかに属する、スケーリング可能な第二動きベクトルに対してスケーリングを行い、前記第二候補を生成するスケーリング部とを含む。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る動画像符号化復号化装置を構成する動画像符号化装置および動画像復号装置について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
本実施の形態の動画像符号化装置および動画像符号化方法について、図14を基に説明する。
なお、本実施の形態の動画像符号化装置の構成は、図2に示す比較例の動画像符号化装置100の構成と同じである。
また、本実施の形態では、説明のため、符号化ブロック単位CUと予測ブロック単位PUとの関係は、図4Aに示す比較例における符号化ブロック単位CUと予測ブロック単位PUとの関係と同じである場合を例に説明する。
[1−1:実施の形態1における動画像符号化方法]
本実施の形態における動画像符号化装置100の処理動作(動画像符号化方法)について、図14を基に説明する。図6は、本実施の形態における動画像符号化装置100の処理手順を説明する図である。
なお、図14において、ブロック群Aに対するステップS410およびステップS430、ブロック群Bに対するステップS510およびステップS530の処理は、上記比較例における処理と同じである(図8〜図10B参照)。
なお、本実施の形態における予測画像の生成は、比較例と同様に、予測ブロック単位PUで行われる。また、本実施の形態では、比較例と同様に、予測ブロック単位PUのサイズが、符号化ブロック単位CUよりも小さい場合を例に説明する。また、本実施の形態における符号化ブロック単位CUと予測ブロック単位PUとの関係は、図4A〜図4Cに示す比較例における符号化ブロック単位CUと予測ブロック単位PUとの関係と同じである。
図14に示す本実施の形態の動画像符号化方法は、図13に示す比較例に対し、ステップS520の判定処理に代えて、ステップS620の判定処理を実行する。
詳細には、符号化制御部108は、図14に示すように、ステップS400において、ブロック群Aからスケーリング処理なしで利用できる動きベクトルを検索する処理(S410)を実行し、スケーリング処理なしで利用できる動きベクトルが検索されない場合は(S420でTrue)、ブロック群Aに含まれるブロックに対するスケーリング処理(S430)を実行する。
さらに、符号化制御部108は、図14に示すように、上記ステップS400と並行して、ステップS600を実行する。符号化制御部108は、ステップS600において、先ず、ブロック群Bからスケーリング処理なしで利用できる動きベクトルを検索する処理(S510)を実行する。
ステップS620では、符号化制御部108は、(1)availableFlavLXB==0であるか否かの判定(図14では、表記せず)と、(2)「ブロック群Aの何れかのブロック(A0,A1)がINTERブロックである」か否かの判定を行う。言い換えると、ステップS620では、(1)availableFlavLXB==0であり、且つ、ブロック群Aに予測モードがMODE_INTERであるブロックが含まれる場合に、trueと判定される。
符号化制御部108は、判定の結果、(1)availableFlavLXB==0であり、且つ、A0(図5の左下のブロック)またはA1(図5の左のブロック)がMODE_INTERなら(S620でTrue)、S530の処理(ブロック群Bに対するスケーリング処理)を実行せずにステップS600を終了する。
これは、「予測対象ブロックの左側に隣接するブロック群Aの何れかが、MODE_INTERの時点で、スケーリング処理を用いる可能性が高い」と考えられることから、ブロック群Aの何れかがMODE_INTERの場合、ブロック群Bについては、スケーリング処理を諦めるという考えに基づくものである。
このように、ステップS620では、ステップS400の処理結果を用いていない。つまり、ステップS400とステップS600とは、相互に依存しない。これにより、動画像符号化装置100において、ブロック群Aに対する処理であるステップS400とブロック群Bに対する処理であるステップ600とを並行に実行することが可能になり、処理負荷を増大させることなく(スケーリング処理の処理回数を増大させることなく)、処理速度の向上を図ることが可能になる。
(実施の形態2)
本実施の形態の動画像復号装置および動画像復号方法について、図15を基に説明する。本実施の形態の動画像復号装置は、実施の形態1の動画像符号化装置100から符号化ビットストリームを受け付け、符号化ビットストリームを復号して復号済画像信号を生成し、表示順に出力する。
[2−1:実施の形態2における動画像復号装置の構成]
本実施の形態における動画像復号装置300の構成について、図15を基に説明する。図15は、動画像復号装置300の構成を示すブロック図である。
動画像復号装置300は、図15に示すように、エントロピー復号部301、逆量子化部302、逆変換部303、加算部304、イントラ・インター予測部305、復号制御部306およびメモリ307を備えている。
エントロピー復号部301は、入力された符号化ビットストリームに対し、可変長復号処理を行い、量子化済み残差信号(量子化係数)、ピクチャタイプ情報、予測方向フラグ、および差分動きベクトルmvdLXを生成する。また、エントロピー復号部301は、予測動きベクトルインデックスの可変長復号処理を行う。さらに、エントロピー復号部301は、後述する復号制御部306に復号制御情報を出力する。ここで、復号制御情報には、予測動きベクトルインデックスmvp_idx_lx(mvp_idx_l0,mvp_idx_l1)、および、差分動きベクトルmvdLX(mvdL0,mvdL1)が含まれる。
逆量子化部302は、可変長復号処理によって得られた量子化係数(量子化済み残差信号)に対し、逆量子化処理を行う。逆変換部303は、逆量子化処理によって得られた変換係数を、周波数領域から画像領域へ変換することにより、復元済残差信号(予測誤差データ)を出力する。
メモリ307には、後述する加算部304から出力された復号画像信号が示す復号画像データがブロック単位およびフレーム単位で保存される。
イントラ・インター予測部305は、メモリ307に保存されているフレーム単位の復号画像データを用いてインター予測することにより、あるいは、ブロック単位の復号画像データを用いてイントラ予測することにより、復号対象ブロックの予測画像信号を生成する。
復号制御部306は、予測動きベクトル候補リストmvpListL0,L1を導出し、導出した予測動きベクトル候補リストから、予測動きベクトルインデックス(mvp_idx_l0,mvp_idx_l1)に基づいて、インター予測に用いる予測動きベクトルmvLXを選択する。さらに、復号制御部306は、予測動きベクトルmvpLXおよび差分動きベクトルmvdLX(mvdL0,mvdL1)を用いて、復号対象ブロックの動きベクトルmvLXを算出する。そして、復号制御部306は、予測対象ブロックがMODE_INTERの場合、算出した動きベクトルmvLXを用いて、イントラ・インター予測部305に、インター予測画像を生成させる。
最後に、加算部304は、復元済残差信号と予測画像信号とを加算することにより、復号画像信号を生成する。
[2−2:実施の形態2における動画像復号方法]
本実施の形態における動画像復号装置300の処理動作(動画像復号方法)について、図16を基に説明する。図16は、本実施の形態における動画像復号方法の処理手順を示すフロー図である。
なお、本実施の形態では、実施の形態1と同様に、予測画像の生成は、予測ブロック単位PUで行われる。本実施の形態では、実施の形態1と同様に、予測ブロック単位PUのサイズが、符号化ブロック単位CUよりも小さい場合を例に説明する。また、本実施の形態における符号化ブロック単位CUと予測ブロック単位PUとの関係は、図4Aに示す比較例と同じである。
以下、復号対象ブロックがCU12である場合を例に説明する。図4Bおよび図4Cに示すように、復号対象ブロックCU12の予測モードは、MODE_INTERであり、復号対象ブロックCU12には、PU0およびPU1の2つの予測ブロック単位PUが含まれる(Nx2N)。なお、比較例で説明したように、図4Bにおいて、一点破線で囲む領域が、符号化対象ブロックCU12の予測ブロック単位PU0について符号化する時点で、既に“available”である情報を持つ領域である。図4Bに示すように、当該比較例において、符号化ブロック単位CU2およびCU3は、符号化対象ブロックCU12の符号化を行う時点では“available”ではない。
図16を参照して、ステップS1010では、復号制御部306は、予測動きベクトルの候補リストmvpListXを生成する処理を行う。この処理は、実施の形態1(比較例1)の動画像符号化装置100の図3に示すステップS210のmvpListX生成処理に対応している。より詳細には、復号制御部306は、詳細は後述するが、動画像符号化装置100で実行される図14に示す処理と同じ処理を行う。
ステップS1020では、復号制御部306は、mvpListLXに対する更新処理を行う(更新ステップ)。この処理は、実施の形態1(比較例1)の動画像符号化装置100の図3に示すステップS230の更新処理に対応している。
ステップS1030では、エントロピー復号部301は、符号化ビットストリームから、予測動きベクトルインデックスmvp_idx_lxを抽出する。
ステップS1040では、エントロピー復号部301は、差分動きベクトルmvdLXを符号化ビットストリームから抽出する。
ステップS1050では、復号制御部306は、予測方向Xの動きベクトルを復元する。具体的には、復号制御部306は、ステップS1020で生成した予測動きベクトルの候補リストmvpListXから、エントロピー復号部301が抽出した予測動きベクトルインデックスmvp_idx_lxを用いて、予測動きベクトルmvpListX[mvp_idx_lx]を特定する。復号制御部306は、式1に示すように、差分動きベクトルmvdLXと予測動きベクトルmvpListX[mvp_idx_lx]とを加算して、動きベクトルmvLXを求める。
mvLX=mvpListLX[mvp_idx_lx]+mvdLX・・・(式1)
ステップS1060では、動画像復号装置300は、イントラ・インター予測部305において復元された動きベクトルmvLXを用いて予測画像信号を生成し、加算部304において復元済残差信号と予測画像信号とを加算することにより、復号画像信号を生成する。
図17は、図16のステップS1010のmvpListLX作成ステップの詳細な処理手順を示すフロー図である。
ステップS400では、復号制御部306は、ブロック群A(A0,A1)エントリを作成する。具体的には、ステップS401では、復号制御部306は、ブロック群A(A0,A1)からスケーリング処理なしで利用できる動きベクトルを検索する。スケーリング処理なしで利用できる動きベクトルが検索されない場合(S420でTrue)、復号制御部306は、利用できる動きベクトルを検索し、検索された動きベクトルに対するスケーリング処理を行う(S430)。なお、ステップS400の処理は、動画像符号化装置100の符号化制御部108によるステップS400と同じ処理である。
ステップS800では、復号制御部306は、ブロック群B(B0,B1,B2)からエントリを作成する。
詳細には、ステップS510では、復号制御部306は、ブロック群B(B0,B1,B2)からスケーリング処理なしで利用できる動きベクトルを検索する。当該ステップS510の処理は、動画像符号化装置100の符号化制御部108によるステップS510と同じ処理である。
ステップS820では、復号制御部306は、availableFlavLXB==0であり、且つ、ブロック群Aの何れかのブロックがMODE_INTERであるかを判定する。より詳細には、復号制御部306は、ステップS400とステップS800とを並列に(シーケンシャルに)実行する場合は、ステップS510のステップにおいてavailableFlagが立ってない状態(availableFlagLXBが0のままであり)、かつ、isScaled判定に替えた判定条件「Aブロック群の何れかのブロックA0,A1等の何れか1つがMODE_INTERである」がtrueを返すか否かを判定する。
availableFlavLXB==0、且つ、ブロック群Aの何れかのブロックがMODE_INTERである場合(S820でTrue)、復号制御部306は、スケーリング処理を行わずに、mvpListLX作成ステップを終了する。
availableFlavLXB==0、且つ、ブロック群Aの何れかのブロックがMODE_INTERではない場合(S820でfalse)、復号制御部306は、利用できる動きベクトルを検索し、検索された動きベクトルに対するスケーリング処理を行う(S530)。当該ステップS530の処理は、動画像符号化装置100の符号化制御部108によるステップS530と同じ処理である。
図18は、ステップS1010のmvpListLX作成ステップをシーケンシャルに示す図である。なお、図18の各ステップ(S410,S420,S430,S510,S820,S530)は、図17の各ステップ(S410,S420,S430,S510,S820,S530)と同じである。
図18から分かるように、本実施の形態の動画像復号装置300では、ブロック群Bに対する処理で行われるステップS820の判定内容が、ブロック群Aに対するステップS1010の処理の結果に依存していない。従って、
・S400:Aブロック群(A0,A1)に基づくエントリの生成と、
・S800:Bブロック群(A0,A1)に基づくエントリの生成とを並列して実行することができる。
[判定例1(動画像符号化装置100および動画像復号装置300共通)]
図19は、予測対象ブロック(符号化対象ブロック、復号対象ブロック)がPU0である場合(図4A参照)の図14のステップS620および図18のステップS820の判定結果を説明する図である。上述したように、図14のステップS620および図18のステップS820では、Aブロック群の何れかのブロックA0,A1がINTERブロックであるか否かを判定する。
図19の場合、隣接ブロックA0は、not availableであり、MODE_INTERではない。また、隣接ブロックA1は、availableであるが、MODE_INTRAであり、MODE_INTERではない。
従って、図19の場合、隣接ブロックA0およびA0の両方がMODE_INTERではないため、上記判定ステップでは、falseと判定される。
[判定例2(動画像符号化装置100および動画像復号装置300共通)]
図20は、予測対象ブロックがPU1である場合の図14のステップS620および図18のステップS820の判定結果を説明する図である。
図20の場合、隣接ブロックA0は、CU3がまだnot availableである。また、隣接ブロックA1は、MODE_INTERである。
従って、図20の場合、隣接ブロックA1がMODE_INTERであるため、上記判定ステップでは、trueと判定される。
(効果等)
実施の形態1の動画像符号化方法および符号化装置、実施の形態2の動画像復号方法および動画像復号装置によれば、mvpListLXを生成する上で(図14のステップS620、図18のステップS820)、ブロック群Bにおいてスケーリング処理を行うか否かの判定において、ブロック群Aでスケーリング演算を行ったかどうか等の判定を削減できる。言い換えると、符号化制御部108および復号制御部306は、ブロック群Bにおいてスケーリング処理を行うか否かの判定を、ブロック群Aに対する処理結果を用いずに行うことができる。
また、候補リストmvpListLXを作成する前に、ブロック群AがINTERかどうかをのみを判定しておけば、ブロック群Aとブロック群Bとで並列に予測動きベクトル候補の算出を行うことができるようになる(図14,図18)。
なお、ステップS620およびステップS820では、ブロック群Aの何れかのブロックA0,A1の予測モードがMODE_INTERであるか否かが判定されたが、これに限るものではない。ステップS620およびステップS820では、例えば、(1)MODE_INTRAのブロックである、(2)スライス・ピクチャ境界のブロックである、(3)未処理ブロック(未符号化ブロックまたは未復号ブロック)であるの何れにも該当しないか否かが判定されてもよい。
また、実施の形態1および実施の形態2では、ステップS620およびステップS820は、ステップS510の実行後に実行されたが、これに限るものではない。ステップS620およびステップS820は、例えば、図21に示すように、ステップS840として、並列処理の実行前、つまり、ステップS410およびステップS510の実行前に実行してもよい。なお、判定の順(AND演算,OR演算の順)は、上記実施の形態1および実施の形態2に限られるものではなく、判定の結果が等しくなる論理演算の順はいずれも本発明に含まれる。
上述したように、実施の形態1の動画像符号化方法および実施の形態2の動画像復号方法によれば、ステップS620およびステップS820を、ブロック群Aに対する処理結果を用いることなく、ブロック群Bに対する処理を実行でき、ブロック群Aに対する処理とブロック群Bに対する処理とを並列に処理することが可能となる。
(実施の形態3)
図23は、実施の形態1の動画像符号化方法および実施の形態2の動画像復号方法の別実施の形態を説明するフロー図である。
実施の形態1および実施の形態2では、ブロック群Aの何れかのブロック(A0,A1)がINTERブロックであるか否かの判定結果により、ブロック群Bに対する処理において、スケーリング処理を許可するか否かを判定したが、本実施の形態では、ブロック群Bに対するスケーリング処理を全面的に禁止する。
このように、ステップS620およびステップS820およびステップS530を行わないことで、依存関係を解消することも可能である。
(実施の形態4)
上記各実施の形態で示した動画像符号化方法(画像符号化方法)または動画像復号化方法(画像復号方法)の構成を実現するためのプログラムを記憶メディアに記録することにより、上記各実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
さらにここで、上記各実施の形態で示した動画像符号化方法(画像符号化方法)や動画像復号化方法(画像復号方法)の応用例とそれを用いたシステムを説明する。当該システムは、画像符号化方法を用いた画像符号化装置、及び画像復号方法を用いた画像復号装置からなる画像符号化復号装置を有することを特徴とする。システムにおける他の構成について、場合に応じて適切に変更することができる。
図24は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex106、ex107、ex108、ex109、ex110が設置されている。
このコンテンツ供給システムex100は、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex106からex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、ゲーム機ex115などの各機器が接続される。
しかし、コンテンツ供給システムex100は図24のような構成に限定されず、いずれかの要素を組合せて接続するようにしてもよい。また、固定無線局である基地局ex106からex110を介さずに、各機器が電話網ex104に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex116はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、携帯電話ex114は、GSM(登録商標)(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband-Code Division Multiple Access)方式、若しくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
コンテンツ供給システムex100では、カメラex113等が基地局ex109、電話網ex104を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex113を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して上記各実施の形態で説明したように符号化処理を行い(即ち、本発明の一態様に係る画像符号化装置として機能する)、ストリーミングサーバex103に送信する。一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114、ゲーム機ex115等がある。配信されたデータを受信した各機器では、受信したデータを復号化処理して再生する(即ち、本発明の一態様に係る画像復号装置として機能する)。
なお、撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号化処理はクライアントで行っても、ストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。また、カメラex113に限らず、カメラex116で撮影した静止画像および/または動画像データを、コンピュータex111を介してストリーミングサーバex103に送信してもよい。この場合の符号化処理はカメラex116、コンピュータex111、ストリーミングサーバex103のいずれで行ってもよいし、互いに分担して行ってもよい。
また、これら符号化・復号化処理は、一般的にコンピュータex111や各機器が有するLSIex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化・復号化処理を行ってもよい。さらに、携帯電話ex114がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データは携帯電話ex114が有するLSIex500で符号化処理されたデータである。
また、ストリーミングサーバex103は複数のサーバや複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
以上のようにして、コンテンツ供給システムex100では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex100では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号化し、再生することができ、特別な権利や設備を有さないユーザでも個人放送を実現できる。
なお、コンテンツ供給システムex100の例に限らず、図25に示すように、デジタル放送用システムex200にも、上記各実施の形態の少なくとも動画像符号化装置(画像符号化装置)または動画像復号化装置(画像復号装置)のいずれかを組み込むことができる。具体的には、放送局ex201では映像データに音楽データなどが多重化された多重化データが電波を介して通信または衛星ex202に伝送される。この映像データは上記各実施の形態で説明した動画像符号化方法により符号化されたデータである(即ち、本発明の一態様に係る画像符号化装置によって符号化されたデータである)。これを受けた放送衛星ex202は、放送用の電波を発信し、この電波を衛星放送の受信が可能な家庭のアンテナex204が受信する。受信した多重化データを、テレビ(受信機)ex300またはセットトップボックス(STB)ex217等の装置が復号化して再生する(即ち、本発明の一態様に係る画像復号装置として機能する)。
また、DVD、BD等の記録メディアex215に記録した多重化データを読み取り復号化する、または記録メディアex215に映像信号を符号化し、さらに場合によっては音楽信号と多重化して書き込むリーダ/レコーダex218にも上記各実施の形態で示した動画像復号化装置または動画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示され、多重化データが記録された記録メディアex215により他の装置やシステムにおいて映像信号を再生することができる。また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に動画像復号化装置を実装し、これをテレビのモニタex219で表示してもよい。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでもよい。
図26は、上記各実施の形態で説明した動画像復号化方法および動画像符号化方法を用いたテレビ(受信機)ex300を示す図である。テレビex300は、上記放送を受信するアンテナex204またはケーブルex203等を介して映像データに音声データが多重化された多重化データを取得、または出力するチューナex301と、受信した多重化データを復調する、または外部に送信する多重化データに変調する変調/復調部ex302と、復調した多重化データを映像データと、音声データとに分離する、または信号処理部ex306で符号化された映像データ、音声データを多重化する多重/分離部ex303を備える。
また、テレビex300は、音声データ、映像データそれぞれを復号化する、またはそれぞれの情報を符号化する音声信号処理部ex304、映像信号処理部ex305(本発明の一態様に係る画像符号化装置または画像復号装置として機能する)を有する信号処理部ex306と、復号化した音声信号を出力するスピーカex307、復号化した映像信号を表示するディスプレイ等の表示部ex308を有する出力部ex309とを有する。さらに、テレビex300は、ユーザ操作の入力を受け付ける操作入力部ex312等を有するインタフェース部ex317を有する。さらに、テレビex300は、各部を統括的に制御する制御部ex310、各部に電力を供給する電源回路部ex311を有する。インタフェース部ex317は、操作入力部ex312以外に、リーダ/レコーダex218等の外部機器と接続されるブリッジex313、SDカード等の記録メディアex216を装着可能とするためのスロット部ex314、ハードディスク等の外部記録メディアと接続するためのドライバex315、電話網と接続するモデムex316等を有していてもよい。なお記録メディアex216は、格納する不揮発性/揮発性の半導体メモリ素子により電気的に情報の記録を可能としたものである。テレビex300の各部は同期バスを介して互いに接続されている。
まず、テレビex300がアンテナex204等により外部から取得した多重化データを復号化し、再生する構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、CPU等を有する制御部ex310の制御に基づいて、変調/復調部ex302で復調した多重化データを多重/分離部ex303で分離する。さらにテレビex300は、分離した音声データを音声信号処理部ex304で復号化し、分離した映像データを映像信号処理部ex305で上記各実施の形態で説明した復号化方法を用いて復号化する。復号化した音声信号、映像信号は、それぞれ出力部ex309から外部に向けて出力される。出力する際には、音声信号と映像信号が同期して再生するよう、バッファex318、ex319等に一旦これらの信号を蓄積するとよい。また、テレビex300は、放送等からではなく、磁気/光ディスク、SDカード等の記録メディアex215、ex216から多重化データを読み出してもよい。次に、テレビex300が音声信号や映像信号を符号化し、外部に送信または記録メディア等に書き込む構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、制御部ex310の制御に基づいて、音声信号処理部ex304で音声信号を符号化し、映像信号処理部ex305で映像信号を上記各実施の形態で説明した符号化方法を用いて符号化する。符号化した音声信号、映像信号は多重/分離部ex303で多重化され外部に出力される。多重化する際には、音声信号と映像信号が同期するように、バッファex320、ex321等に一旦これらの信号を蓄積するとよい。なお、バッファex318、ex319、ex320、ex321は図示しているように複数備えていてもよいし、1つ以上のバッファを共有する構成であってもよい。さらに、図示している以外に、例えば変調/復調部ex302や多重/分離部ex303の間等でもシステムのオーバフロー、アンダーフローを避ける緩衝材としてバッファにデータを蓄積することとしてもよい。
また、テレビex300は、放送等や記録メディア等から音声データ、映像データを取得する以外に、マイクやカメラのAV入力を受け付ける構成を備え、それらから取得したデータに対して符号化処理を行ってもよい。なお、ここではテレビex300は上記の符号化処理、多重化、および外部出力ができる構成として説明したが、これらの処理を行うことはできず、上記受信、復号化処理、外部出力のみが可能な構成であってもよい。
また、リーダ/レコーダex218で記録メディアから多重化データを読み出す、または書き込む場合には、上記復号化処理または符号化処理はテレビex300、リーダ/レコーダex218のいずれで行ってもよいし、テレビex300とリーダ/レコーダex218が互いに分担して行ってもよい。
一例として、光ディスクからデータの読み込みまたは書き込みをする場合の情報再生/記録部ex400の構成を図27に示す。情報再生/記録部ex400は、以下に説明する要素ex401、ex402、ex403、ex404、ex405、ex406、ex407を備える。光ヘッドex401は、光ディスクである記録メディアex215の記録面にレーザスポットを照射して情報を書き込み、記録メディアex215の記録面からの反射光を検出して情報を読み込む。変調記録部ex402は、光ヘッドex401に内蔵された半導体レーザを電気的に駆動し記録データに応じてレーザ光の変調を行う。再生復調部ex403は、光ヘッドex401に内蔵されたフォトディテクタにより記録面からの反射光を電気的に検出した再生信号を増幅し、記録メディアex215に記録された信号成分を分離して復調し、必要な情報を再生する。バッファex404は、記録メディアex215に記録するための情報および記録メディアex215から再生した情報を一時的に保持する。ディスクモータex405は記録メディアex215を回転させる。サーボ制御部ex406は、ディスクモータex405の回転駆動を制御しながら光ヘッドex401を所定の情報トラックに移動させ、レーザスポットの追従処理を行う。システム制御部ex407は、情報再生/記録部ex400全体の制御を行う。上記の読み出しや書き込みの処理はシステム制御部ex407が、バッファex404に保持された各種情報を利用し、また必要に応じて新たな情報の生成・追加を行うと共に、変調記録部ex402、再生復調部ex403、サーボ制御部ex406を協調動作させながら、光ヘッドex401を通して、情報の記録再生を行うことにより実現される。システム制御部ex407は例えばマイクロプロセッサで構成され、読み出し書き込みのプログラムを実行することでそれらの処理を実行する。
以上では、光ヘッドex401はレーザスポットを照射するとして説明したが、近接場光を用いてより高密度な記録を行う構成であってもよい。
図28に光ディスクである記録メディアex215の模式図を示す。記録メディアex215の記録面には案内溝(グルーブ)がスパイラル状に形成され、情報トラックex230には、予めグルーブの形状の変化によってディスク上の絶対位置を示す番地情報が記録されている。この番地情報はデータを記録する単位である記録ブロックex231の位置を特定するための情報を含み、記録や再生を行う装置において情報トラックex230を再生し番地情報を読み取ることで記録ブロックを特定することができる。また、記録メディアex215は、データ記録領域ex233、内周領域ex232、外周領域ex234を含んでいる。ユーザデータを記録するために用いる領域がデータ記録領域ex233であり、データ記録領域ex233より内周または外周に配置されている内周領域ex232と外周領域ex234は、ユーザデータの記録以外の特定用途に用いられる。情報再生/記録部ex400は、このような記録メディアex215のデータ記録領域ex233に対して、符号化された音声データ、映像データまたはそれらのデータを多重化した多重化データの読み書きを行う。
以上では、1層のDVD、BD等の光ディスクを例に挙げ説明したが、これらに限ったものではなく、多層構造であって表面以外にも記録可能な光ディスクであってもよい。また、ディスクの同じ場所にさまざまな異なる波長の色の光を用いて情報を記録したり、さまざまな角度から異なる情報の層を記録したりなど、多次元的な記録/再生を行う構造の光ディスクであってもよい。
また、デジタル放送用システムex200において、アンテナex205を有する車ex210で衛星ex202等からデータを受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画を再生することも可能である。なお、カーナビゲーションex211の構成は例えば図26に示す構成のうち、GPS受信部を加えた構成が考えられ、同様なことがコンピュータex111や携帯電話ex114等でも考えられる。
図29Aは、上記実施の形態で説明した動画像復号化方法および動画像符号化方法を用いた携帯電話ex114を示す図である。携帯電話ex114は、基地局ex110との間で電波を送受信するためのアンテナex350、映像、静止画を撮ることが可能なカメラ部ex365、カメラ部ex365で撮像した映像、アンテナex350で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex358を備える。携帯電話ex114は、さらに、操作キー部ex366を有する本体部、音声を出力するためのスピーカ等である音声出力部ex357、音声を入力するためのマイク等である音声入力部ex356、撮影した映像、静止画、録音した音声、または受信した映像、静止画、メール等の符号化されたデータもしくは復号化されたデータを保存するメモリ部ex367、又は同様にデータを保存する記録メディアとのインタフェース部であるスロット部ex364を備える。
さらに、携帯電話ex114の構成例について、図29Bを用いて説明する。携帯電話ex114は、表示部ex358及び操作キー部ex366を備えた本体部の各部を統括的に制御する主制御部ex360に対して、電源回路部ex361、操作入力制御部ex362、映像信号処理部ex355、カメラインタフェース部ex363、LCD(Liquid Crystal Display)制御部ex359、変調/復調部ex352、多重/分離部ex353、音声信号処理部ex354、スロット部ex364、メモリ部ex367がバスex370を介して互いに接続されている。
電源回路部ex361は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することにより携帯電話ex114を動作可能な状態に起動する。
携帯電話ex114は、CPU、ROM、RAM等を有する主制御部ex360の制御に基づいて、音声通話モード時に音声入力部ex356で収音した音声信号を音声信号処理部ex354でデジタル音声信号に変換し、これを変調/復調部ex352でスペクトラム拡散処理し、送信/受信部ex351でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex350を介して送信する。また携帯電話ex114は、音声通話モード時にアンテナex350を介して受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変調/復調部ex352でスペクトラム逆拡散処理し、音声信号処理部ex354でアナログ音声信号に変換した後、これを音声出力部ex357から出力する。
さらにデータ通信モード時に電子メールを送信する場合、本体部の操作キー部ex366等の操作によって入力された電子メールのテキストデータは操作入力制御部ex362を介して主制御部ex360に送出される。主制御部ex360は、テキストデータを変調/復調部ex352でスペクトラム拡散処理をし、送信/受信部ex351でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex350を介して基地局ex110へ送信する。電子メールを受信する場合は、受信したデータに対してこのほぼ逆の処理が行われ、表示部ex358に出力される。
データ通信モード時に映像、静止画、または映像と音声を送信する場合、映像信号処理部ex355は、カメラ部ex365から供給された映像信号を上記各実施の形態で示した動画像符号化方法によって圧縮符号化し(即ち、本発明の一態様に係る画像符号化装置として機能する)、符号化された映像データを多重/分離部ex353に送出する。また、音声信号処理部ex354は、映像、静止画等をカメラ部ex365で撮像中に音声入力部ex356で収音した音声信号を符号化し、符号化された音声データを多重/分離部ex353に送出する。
多重/分離部ex353は、映像信号処理部ex355から供給された符号化された映像データと音声信号処理部ex354から供給された符号化された音声データを所定の方式で多重化し、その結果得られる多重化データを変調/復調部(変調/復調回路部)ex352でスペクトラム拡散処理をし、送信/受信部ex351でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex350を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、または映像およびもしくは音声が添付された電子メールを受信する場合、アンテナex350を介して受信された多重化データを復号化するために、多重/分離部ex353は、多重化データを分離することにより映像データのビットストリームと音声データのビットストリームとに分け、同期バスex370を介して符号化された映像データを映像信号処理部ex355に供給するとともに、符号化された音声データを音声信号処理部ex354に供給する。映像信号処理部ex355は、上記各実施の形態で示した動画像符号化方法に対応した動画像復号化方法によって復号化することにより映像信号を復号し(即ち、本発明の一態様に係る画像復号装置として機能する)、LCD制御部ex359を介して表示部ex358から、例えばホームページにリンクされた動画像ファイルに含まれる映像、静止画が表示される。また音声信号処理部ex354は、音声信号を復号し、音声出力部ex357から音声が出力される。
また、上記携帯電話ex114等の端末は、テレビex300と同様に、符号化器・復号化器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号化器のみの受信端末という3通りの実装形式が考えられる。さらに、デジタル放送用システムex200において、映像データに音楽データなどが多重化された多重化データを受信、送信するとして説明したが、音声データ以外に映像に関連する文字データなどが多重化されたデータであってもよいし、多重化データではなく映像データ自体であってもよい。
このように、上記各実施の形態で示した動画像符号化方法あるいは動画像復号化方法を上述したいずれの機器・システムに用いることは可能であり、そうすることで、上記各実施の形態で説明した効果を得ることができる。
また、本発明はかかる上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
(実施の形態5)
上記各実施の形態で示した動画像符号化方法または装置と、MPEG−2、MPEG4−AVC、VC−1など異なる規格に準拠した動画像符号化方法または装置とを、必要に応じて適宜切替えることにより、映像データを生成することも可能である。
ここで、それぞれ異なる規格に準拠する複数の映像データを生成した場合、復号する際に、それぞれの規格に対応した復号方法を選択する必要がある。しかしながら、復号する映像データが、どの規格に準拠するものであるか識別できないため、適切な復号方法を選択することができないという課題を生じる。
この課題を解決するために、映像データに音声データなどを多重化した多重化データは、映像データがどの規格に準拠するものであるかを示す識別情報を含む構成とする。上記各実施の形態で示す動画像符号化方法または装置によって生成された映像データを含む多重化データの具体的な構成を以下説明する。多重化データは、MPEG−2トランスポートストリーム形式のデジタルストリームである。
図30は、多重化データの構成を示す図である。図30に示すように多重化データは、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム(PG)、インタラクティブグラフィックスストリームのうち、1つ以上を多重化することで得られる。ビデオストリームは映画の主映像および副映像を、オーディオストリーム(IG)は映画の主音声部分とその主音声とミキシングする副音声を、プレゼンテーショングラフィックスストリームは、映画の字幕をそれぞれ示している。ここで主映像とは画面に表示される通常の映像を示し、副映像とは主映像の中に小さな画面で表示する映像のことである。また、インタラクティブグラフィックスストリームは、画面上にGUI部品を配置することにより作成される対話画面を示している。ビデオストリームは、上記各実施の形態で示した動画像符号化方法または装置、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠した動画像符号化方法または装置によって符号化されている。オーディオストリームは、ドルビーAC−3、Dolby Digital Plus、MLP、DTS、DTS−HD、または、リニアPCMのなどの方式で符号化されている。
多重化データに含まれる各ストリームはPIDによって識別される。例えば、映画の映像に利用するビデオストリームには0x1011が、オーディオストリームには0x1100から0x111Fまでが、プレゼンテーショングラフィックスには0x1200から0x121Fまでが、インタラクティブグラフィックスストリームには0x1400から0x141Fまでが、映画の副映像に利用するビデオストリームには0x1B00から0x1B1Fまで、主音声とミキシングする副音声に利用するオーディオストリームには0x1A00から0x1A1Fが、それぞれ割り当てられている。
図31は、多重化データがどのように多重化されるかを模式的に示す図である。まず、複数のビデオフレームからなるビデオストリームex235、複数のオーディオフレームからなるオーディオストリームex238を、それぞれPESパケット列ex236およびex239に変換し、TSパケットex237およびex240に変換する。同じくプレゼンテーショングラフィックスストリームex241およびインタラクティブグラフィックスex244のデータをそれぞれPESパケット列ex242およびex245に変換し、さらにTSパケットex243およびex246に変換する。多重化データex247はこれらのTSパケットを1本のストリームに多重化することで構成される。
図32は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。図32における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。図32の矢印yy1,yy2,yy3,yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time−Stamp)やピクチャの復号時刻であるDTS(Decoding Time−Stamp)が格納される。
図33は、多重化データに最終的に書き込まれるTSパケットの形式を示している。TSパケットは、ストリームを識別するPIDなどの情報を持つ4ByteのTSヘッダとデータを格納する184ByteのTSペイロードから構成される188Byte固定長のパケットであり、上記PESパケットは分割されTSペイロードに格納される。BD−ROMの場合、TSパケットには、4ByteのTP_Extra_Headerが付与され、192Byteのソースパケットを構成し、多重化データに書き込まれる。TP_Extra_HeaderにはATS(Arrival_Time_Stamp)などの情報が記載される。ATSは当該TSパケットのデコーダのPIDフィルタへの転送開始時刻を示す。多重化データには図33下段に示すようにソースパケットが並ぶこととなり、多重化データの先頭からインクリメントする番号はSPN(ソースパケットナンバー)と呼ばれる。
また、多重化データに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。PATは多重化データ中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、多重化データ中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、また多重化データに関する各種ディスクリプタを持つ。ディスクリプタには多重化データのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、ATSの時間軸であるATC(Arrival Time Clock)とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるATSに対応するSTC時間の情報を持つ。
図34はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、多重化データに関するディスクリプタが複数配置される。上記コピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、多重化データに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。ストリームディスクリプタは多重化データに存在するストリームの数だけ存在する。
記録媒体などに記録する場合には、上記多重化データは、多重化データ情報ファイルと共に記録される。
多重化データ情報ファイルは、図35に示すように多重化データの管理情報であり、多重化データと1対1に対応し、多重化データ情報、ストリーム属性情報とエントリマップから構成される。
多重化データ情報は図35に示すようにシステムレート、再生開始時刻、再生終了時刻から構成されている。システムレートは多重化データの、後述するシステムターゲットデコーダのPIDフィルタへの最大転送レートを示す。多重化データ中に含まれるATSの間隔はシステムレート以下になるように設定されている。再生開始時刻は多重化データの先頭のビデオフレームのPTSであり、再生終了時刻は多重化データの終端のビデオフレームのPTSに1フレーム分の再生間隔を足したものが設定される。
ストリーム属性情報は図36に示すように、多重化データに含まれる各ストリームについての属性情報が、PID毎に登録される。属性情報はビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム毎に異なる情報を持つ。ビデオストリーム属性情報は、そのビデオストリームがどのような圧縮コーデックで圧縮されたか、ビデオストリームを構成する個々のピクチャデータの解像度がどれだけであるか、アスペクト比はどれだけであるか、フレームレートはどれだけであるかなどの情報を持つ。オーディオストリーム属性情報は、そのオーディオストリームがどのような圧縮コーデックで圧縮されたか、そのオーディオストリームに含まれるチャンネル数は何であるか、何の言語に対応するか、サンプリング周波数がどれだけであるかなどの情報を持つ。これらの情報は、プレーヤが再生する前のデコーダの初期化などに利用される。
本実施の形態においては、上記多重化データのうち、PMTに含まれるストリームタイプを利用する。また、記録媒体に多重化データが記録されている場合には、多重化データ情報に含まれる、ビデオストリーム属性情報を利用する。具体的には、上記各実施の形態で示した動画像符号化方法または装置において、PMTに含まれるストリームタイプ、または、ビデオストリーム属性情報に対し、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示す固有の情報を設定するステップまたは手段を設ける。この構成により、上記各実施の形態で示した動画像符号化方法または装置によって生成した映像データと、他の規格に準拠する映像データとを識別することが可能になる。
また、本実施の形態における動画像復号化方法のステップを図37に示す。ステップexS100において、多重化データからPMTに含まれるストリームタイプ、または、多重化データ情報に含まれるビデオストリーム属性情報を取得する。次に、ステップexS101において、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成された多重化データであることを示しているか否かを判断する。そして、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成されたものであると判断された場合には、ステップexS102において、上記各実施の形態で示した動画像復号方法により復号を行う。また、ストリームタイプ、または、ビデオストリーム属性情報が、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠するものであることを示している場合には、ステップexS103において、従来の規格に準拠した動画像復号方法により復号を行う。
このように、ストリームタイプ、または、ビデオストリーム属性情報に新たな固有値を設定することにより、復号する際に、上記各実施の形態で示した動画像復号化方法または装置で復号可能であるかを判断することができる。従って、異なる規格に準拠する多重化データが入力された場合であっても、適切な復号化方法または装置を選択することができるため、エラーを生じることなく復号することが可能となる。また、本実施の形態で示した動画像符号化方法または装置、または、動画像復号方法または装置を、上述したいずれの機器・システムに用いることも可能である。
(実施の形態6)
上記各実施の形態で示した動画像符号化方法および装置、動画像復号化方法および装置は、典型的には集積回路であるLSIで実現される。一例として、図38に1チップ化されたLSIex500の構成を示す。LSIex500は、以下に説明する要素ex501、ex502、ex503、ex504、ex505、ex506、ex507、ex508、ex509を備え、各要素はバスex510を介して接続している。電源回路部ex505は電源がオン状態の場合に各部に対して電力を供給することで動作可能な状態に起動する。
例えば符号化処理を行う場合には、LSIex500は、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有する制御部ex501の制御に基づいて、AV I/Oex509によりマイクex117やカメラex113等からAV信号を入力する。入力されたAV信号は、一旦SDRAM等の外部のメモリex511に蓄積される。制御部ex501の制御に基づいて、蓄積したデータは処理量や処理速度に応じて適宜複数回に分けるなどされ信号処理部ex507に送られ、信号処理部ex507において音声信号の符号化および/または映像信号の符号化が行われる。ここで映像信号の符号化処理は上記各実施の形態で説明した符号化処理である。信号処理部ex507ではさらに、場合により符号化された音声データと符号化された映像データを多重化するなどの処理を行い、ストリームI/Oex506から外部に出力する。この出力された多重化データは、基地局ex107に向けて送信されたり、または記録メディアex215に書き込まれたりする。なお、多重化する際には同期するよう、一旦バッファex508にデータを蓄積するとよい。
なお、上記では、メモリex511がLSIex500の外部の構成として説明したが、LSIex500の内部に含まれる構成であってもよい。バッファex508も1つに限ったものではなく、複数のバッファを備えていてもよい。また、LSIex500は1チップ化されてもよいし、複数チップ化されてもよい。
また、上記では、制御部ex501が、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有するとしているが、制御部ex501の構成は、この構成に限らない。例えば、信号処理部ex507がさらにCPUを備える構成であってもよい。信号処理部ex507の内部にもCPUを設けることにより、処理速度をより向上させることが可能になる。また、他の例として、CPUex502が信号処理部ex507、または信号処理部ex507の一部である例えば音声信号処理部を備える構成であってもよい。このような場合には、制御部ex501は、信号処理部ex507、またはその一部を有するCPUex502を備える構成となる。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
(実施の形態7)
上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データを復号する場合、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データを復号する場合に比べ、処理量が増加することが考えられる。そのため、LSIex500において、従来の規格に準拠する映像データを復号する際のCPUex502の駆動周波数よりも高い駆動周波数に設定する必要がある。しかし、駆動周波数を高くすると、消費電力が高くなるという課題が生じる。
この課題を解決するために、テレビex300、LSIex500などの動画像復号化装置は、映像データがどの規格に準拠するものであるかを識別し、規格に応じて駆動周波数を切替える構成とする。図39は、本実施の形態における構成ex800を示している。駆動周波数切替え部ex803は、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合には、駆動周波数を高く設定する。そして、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801に対し、映像データを復号するよう指示する。一方、映像データが、従来の規格に準拠する映像データである場合には、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合に比べ、駆動周波数を低く設定する。そして、従来の規格に準拠する復号処理部ex802に対し、映像データを復号するよう指示する。
より具体的には、駆動周波数切替え部ex803は、図38のCPUex502と駆動周波数制御部ex512から構成される。また、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801、および、従来の規格に準拠する復号処理部ex802は、図38の信号処理部ex507に該当する。CPUex502は、映像データがどの規格に準拠するものであるかを識別する。そして、CPUex502からの信号に基づいて、駆動周波数制御部ex512は、駆動周波数を設定する。また、CPUex502からの信号に基づいて、信号処理部ex507は、映像データの復号を行う。ここで、映像データの識別には、例えば、実施の形態5で記載した識別情報を利用することが考えられる。識別情報に関しては、実施の形態5で記載したものに限られず、映像データがどの規格に準拠するか識別できる情報であればよい。例えば、映像データがテレビに利用されるものであるか、ディスクに利用されるものであるかなどを識別する外部信号に基づいて、映像データがどの規格に準拠するものであるか識別可能である場合には、このような外部信号に基づいて識別してもよい。また、CPUex502における駆動周波数の選択は、例えば、図41のような映像データの規格と、駆動周波数とを対応付けたルックアップテーブルに基づいて行うことが考えられる。ルックアップテーブルを、バッファex508や、LSIの内部メモリに格納しておき、CPUex502がこのルックアップテーブルを参照することにより、駆動周波数を選択することが可能である。
図40は、本実施の形態の方法を実施するステップを示している。まず、ステップexS200では、信号処理部ex507において、多重化データから識別情報を取得する。次に、ステップexS201では、CPUex502において、識別情報に基づいて映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものであるか否かを識別する。映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合には、ステップexS202において、駆動周波数を高く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、高い駆動周波数に設定される。一方、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、ステップexS203において、駆動周波数を低く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合に比べ、低い駆動周波数に設定される。
さらに、駆動周波数の切替えに連動して、LSIex500またはLSIex500を含む装置に与える電圧を変更することにより、省電力効果をより高めることが可能である。例えば、駆動周波数を低く設定する場合には、これに伴い、駆動周波数を高く設定している場合に比べ、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することが考えられる。
また、駆動周波数の設定方法は、復号する際の処理量が大きい場合に、駆動周波数を高く設定し、復号する際の処理量が小さい場合に、駆動周波数を低く設定すればよく、上述した設定方法に限らない。例えば、MPEG4−AVC規格に準拠する映像データを復号する処理量の方が、上記各実施の形態で示した動画像符号化方法または装置により生成された映像データを復号する処理量よりも大きい場合には、駆動周波数の設定を上述した場合の逆にすることが考えられる。
さらに、駆動周波数の設定方法は、駆動周波数を低くする構成に限らない。例えば、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を高く設定し、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することも考えられる。また、他の例としては、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、CPUex502の駆動を停止させることなく、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、処理に余裕があるため、CPUex502の駆動を一時停止させることも考えられる。識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合であっても、処理に余裕があれば、CPUex502の駆動を一時停止させることも考えられる。この場合は、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合に比べて、停止時間を短く設定することが考えられる。
このように、映像データが準拠する規格に応じて、駆動周波数を切替えることにより、省電力化を図ることが可能になる。また、電池を用いてLSIex500またはLSIex500を含む装置を駆動している場合には、省電力化に伴い、電池の寿命を長くすることが可能である。
(実施の形態8)
テレビや、携帯電話など、上述した機器・システムには、異なる規格に準拠する複数の映像データが入力される場合がある。このように、異なる規格に準拠する複数の映像データが入力された場合にも復号できるようにするために、LSIex500の信号処理部ex507が複数の規格に対応している必要がある。しかし、それぞれの規格に対応する信号処理部ex507を個別に用いると、LSIex500の回路規模が大きくなり、また、コストが増加するという課題が生じる。
この課題を解決するために、上記各実施の形態で示した動画像復号方法を実行するための復号処理部と、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する復号処理部とを一部共有化する構成とする。この構成例を図42Aのex900に示す。例えば、上記各実施の形態で示した動画像復号方法と、MPEG4−AVC規格に準拠する動画像復号方法とは、エントロピー符号化、逆量子化、デブロッキング・フィルタ、動き補償などの処理において処理内容が一部共通する。共通する処理内容については、MPEG4−AVC規格に対応する復号処理部ex902を共有し、MPEG4−AVC規格に対応しない、本発明の一態様に特有の他の処理内容については、専用の復号処理部ex901を用いるという構成が考えられる。復号処理部の共有化に関しては、共通する処理内容については、上記各実施の形態で示した動画像復号化方法を実行するための復号処理部を共有し、MPEG4−AVC規格に特有の処理内容については、専用の復号処理部を用いる構成であってもよい。
また、処理を一部共有化する他の例を図42Bのex1000に示す。この例では、本発明の一態様に特有の処理内容に対応した専用の復号処理部ex1001と、他の従来規格に特有の処理内容に対応した専用の復号処理部ex1002と、本発明の一態様に係る動画像復号方法と他の従来規格の動画像復号方法とに共通する処理内容に対応した共用の復号処理部ex1003とを用いる構成としている。ここで、専用の復号処理部ex1001、ex1002は、必ずしも本発明の一態様、または、他の従来規格に特有の処理内容に特化したものではなく、他の汎用処理を実行できるものであってもよい。また、本実施の形態の構成を、LSIex500で実装することも可能である。
このように、本発明の一態様に係る動画像復号方法と、従来の規格の動画像復号方法とで共通する処理内容について、復号処理部を共有することにより、LSIの回路規模を小さくし、かつ、コストを低減することが可能である。
本発明に係る動画像符号化復号化装置は、あらゆるマルチメディアデータに適用することができ、処理負荷を増大させることなく、動画像符号化および復号の処理速度を高速化させることが可能である。本発明に係る動画像符号化復号化装置は、例えば、携帯電話、DVD装置、およびパーソナルコンピュータ等を用いた蓄積、伝送、通信等における動画像符号化復号化装置として有用である。
100 動画像符号化装置
101 差分部
102 変換部
103 量子化部
104 逆量子化部
105 逆変換部
106 加算部
107 イントラ・インター予測部
108 符号化制御部
109 メモリ
110 エントロピー符号化部
300 動画像復号装置
301 エントロピー復号部
302 逆量子化部
303 逆変換部
304 加算部
305 イントラ・インター予測部
306 復号制御部
307 メモリ

Claims (2)

  1. ビットストリームから画像を復号する動画像復号装置であって、
    前記画像に含まれる復号対象ブロックの動きベクトルの復号に用いる予測動きベクトルの候補である、1以上の予測動きベクトル候補を導出する導出部と、
    前記ビットストリームに含まれるインデックスを用いて、前記1以上の予測動きベクトル候補から、前記予測動きベクトルを選択する選択部と、
    選択された前記予測動きベクトルを用いて前記復号対象ブロックの動きベクトルを復号し、復号した前記動きベクトルを用いて前記復号対象ブロックを復号する復号部と、を含み、
    前記導出部は、
    前記復号対象ブロックの左方向に隣接する、1以上の第一隣接ブロックそれぞれの第一動きベクトルから前記予測動きベクトルの候補となる第一候補を生成する第一候補生成部と、
    前記復号対象ブロックの上方向に隣接する、1以上の第二隣接ブロックそれぞれの第二動きベクトルから前記予測動きベクトルの候補となる第二候補を生成する第二候補生成部とを含み、
    前記第二候補生成部は、
    前記1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定部と、
    前記1以上の第一隣接ブロックのいずれもがインター予測されていない場合のみに、前記1以上の第二隣接ブロックのいずれかに属する、スケーリング可能な第二動きベクトルに対してスケーリングを行い、前記第二候補を生成するスケーリング部とを含む、
    動画像復号装置。
  2. ビットストリームから画像を復号する動画像復号方法であって、
    前記画像に含まれる復号対象ブロックの動きベクトルの復号に用いる予測動きベクトルの候補である、1以上の予測動きベクトル候補を導出する導出ステップと、
    前記ビットストリームに含まれるインデックスを用いて、前記1以上の予測動きベクトル候補から、前記予測動きベクトルを選択する選択ステップと、
    選択された前記予測動きベクトルを用いて前記復号対象ブロックの動きベクトルを復号し、復号した前記動きベクトルを用いて前記復号対象ブロックを復号する復号ステップと、を含み、
    前記導出ステップは、
    前記復号対象ブロックの左方向に隣接する、1以上の第一隣接ブロックそれぞれの第一動きベクトルから前記予測動きベクトルの候補となる第一候補を生成する第一候補生成ステップと、
    前記復号対象ブロックの上方向に隣接する、1以上の第二隣接ブロックそれぞれの第二動きベクトルから前記予測動きベクトルの候補となる第二候補を生成する第二候補生成ステップとを含み、
    前記第二候補生成ステップは、
    前記1以上の第一隣接ブロックがそれぞれインター予測されているか否かを判定する判定ステップと、
    前記1以上の第一隣接ブロックのいずれもがインター予測されていない場合のみに、前記1以上の第二隣接ブロックのいずれかに属する、スケーリング可能な第二動きベクトルに対してスケーリングを行い、前記第二候補を生成するスケーリングステップとを含む、
    動画像復号方法。
JP2017113314A 2011-11-02 2017-06-08 動画像復号装置及び動画像復号方法 Active JP6346346B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161554598P 2011-11-02 2011-11-02
US61/554,598 2011-11-02

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013189057A Division JP6158649B2 (ja) 2011-11-02 2013-09-12 動画像符号化復号装置

Publications (2)

Publication Number Publication Date
JP2017184276A true JP2017184276A (ja) 2017-10-05
JP6346346B2 JP6346346B2 (ja) 2018-06-20

Family

ID=48191681

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2013530443A Pending JPWO2013065308A1 (ja) 2011-11-02 2012-11-01 動画像符号化方法、動画像符号化装置、動画像復号方法、動画像復号装置、および、動画像符号化復号装置
JP2013188984A Active JP5531150B2 (ja) 2011-11-02 2013-09-12 動画像復号方法、および、動画像復号装置
JP2013189038A Active JP5405690B2 (ja) 2011-11-02 2013-09-12 動きベクトル導出方法、および、動きベクトル導出装置
JP2013189016A Active JP5521101B2 (ja) 2011-11-02 2013-09-12 動画像符号化方法、および、動画像符号化装置
JP2013189057A Active JP6158649B2 (ja) 2011-11-02 2013-09-12 動画像符号化復号装置
JP2017113314A Active JP6346346B2 (ja) 2011-11-02 2017-06-08 動画像復号装置及び動画像復号方法

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2013530443A Pending JPWO2013065308A1 (ja) 2011-11-02 2012-11-01 動画像符号化方法、動画像符号化装置、動画像復号方法、動画像復号装置、および、動画像符号化復号装置
JP2013188984A Active JP5531150B2 (ja) 2011-11-02 2013-09-12 動画像復号方法、および、動画像復号装置
JP2013189038A Active JP5405690B2 (ja) 2011-11-02 2013-09-12 動きベクトル導出方法、および、動きベクトル導出装置
JP2013189016A Active JP5521101B2 (ja) 2011-11-02 2013-09-12 動画像符号化方法、および、動画像符号化装置
JP2013189057A Active JP6158649B2 (ja) 2011-11-02 2013-09-12 動画像符号化復号装置

Country Status (15)

Country Link
US (9) US8942288B2 (ja)
EP (5) EP3174299B1 (ja)
JP (6) JPWO2013065308A1 (ja)
KR (5) KR102257961B1 (ja)
CN (4) CN107071467B (ja)
BR (5) BR122020014549B1 (ja)
CA (5) CA2825761C (ja)
ES (5) ES2698560T3 (ja)
HU (4) HUE064621T2 (ja)
LT (4) LT3416387T (ja)
MX (1) MX2013008533A (ja)
MY (1) MY165702A (ja)
PL (5) PL3413567T3 (ja)
TW (1) TWI559734B (ja)
WO (1) WO2013065308A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK3567855T3 (da) * 2009-03-23 2023-01-30 Ntt Docomo Inc Billedforudsigelseskodningsindretning, billedforudsigelseskodningsfremgangsmåde, billedforudsigelseskodningsprogram, billedforudsigelsesafkodningsindretning, billedforudsigelsesafkodningsfremgangsmåde og billedforudsigelsesafkodningsprogram
LT3416387T (lt) 2011-11-02 2024-01-10 Tagivan Ii Llc Vaizdo kodavimo būdas ir vaizdo kodavimo įrenginys
US9392268B2 (en) * 2012-09-28 2016-07-12 Qualcomm Incorporated Using base layer motion information
JP5983430B2 (ja) * 2013-01-25 2016-08-31 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
JP6986721B2 (ja) 2014-03-18 2021-12-22 パナソニックIpマネジメント株式会社 復号装置及び符号化装置
US20150271514A1 (en) * 2014-03-18 2015-09-24 Panasonic Intellectual Property Management Co., Ltd. Prediction image generation method, image coding method, image decoding method, and prediction image generation apparatus
JP6345805B2 (ja) * 2014-05-06 2018-06-20 寰發股▲ふん▼有限公司HFI Innovation Inc. Intraブロックコピーモード符号化のブロックベクトル予測の方法
TWI565302B (zh) * 2014-10-01 2017-01-01 財團法人工業技術研究院 解碼器、編碼器、解碼方法、編碼方法與編解碼系統
JP6918661B2 (ja) * 2017-09-22 2021-08-11 キヤノン株式会社 符号化装置、符号化方法及びプログラム
CN111066325B (zh) * 2017-09-26 2023-08-22 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
WO2019082318A1 (ja) * 2017-10-25 2019-05-02 株式会社ソシオネクスト 動画像処理装置、動画像処理システム、及び動画像処理方法
CN109922336B (zh) 2017-12-12 2023-07-18 华为技术有限公司 视频数据的帧间预测方法和装置
CN111542858B (zh) * 2018-01-04 2023-09-08 株式会社索思未来 动态图像解析装置、系统、方法、以及存储介质
WO2019194436A1 (ko) * 2018-04-02 2019-10-10 엘지전자 주식회사 움직임 벡터에 기반한 영상 코딩 방법 및 그 장치
CN112204980B (zh) 2018-04-24 2023-07-21 Lg电子株式会社 视频编码系统中用于帧间预测的方法和装置
US10701384B2 (en) * 2018-08-01 2020-06-30 Tencent America LLC Method and apparatus for improvement on decoder side motion derivation and refinement
CN112565753B (zh) * 2020-12-06 2022-08-16 浙江大华技术股份有限公司 运动矢量差的确定方法和装置、存储介质及电子装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3681341A (en) 1970-12-23 1972-08-01 Hoffmann La Roche Process for preparing 1-lower alkyl-1,4-benzodiazepin-2-ones
JPS5531150A (en) 1978-08-28 1980-03-05 Natl Res Inst For Metals Manufacture of molybdenum-coated material having corrosion resistance at high temperature
US6438254B1 (en) * 1999-03-17 2002-08-20 Matsushita Electric Industrial Co., Ltd. Motion vector detection method, motion vector detection apparatus, and data storage media
US20020057739A1 (en) * 2000-10-19 2002-05-16 Takumi Hasebe Method and apparatus for encoding video
CN101431681B (zh) * 2002-03-04 2011-03-30 松下电器产业株式会社 图像解码方法及图像解码装置
EP3324623B1 (en) * 2002-04-19 2019-06-12 Panasonic Intellectual Property Corporation of America Motion vector calculating method
PT3525464T (pt) * 2002-04-19 2021-04-06 Panasonic Ip Corp America Método e sistema de codificação e descodificação de imagem
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
JP4166781B2 (ja) * 2005-12-09 2008-10-15 松下電器産業株式会社 動きベクトル検出装置および動きベクトル検出方法
TWI314820B (en) * 2006-05-26 2009-09-11 Ind Tech Res Inst Pattern-search based method for context-adaptive variable length coding/decoding
CN100576919C (zh) * 2006-08-08 2009-12-30 佳能株式会社 运动矢量检测设备及运动矢量检测方法
AU2007202789B9 (en) * 2007-06-15 2011-08-18 Canon Kabushiki Kaisha High-fidelity motion summarisation method
KR101742992B1 (ko) * 2009-05-12 2017-06-02 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2010131903A2 (en) * 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
JP2009290889A (ja) * 2009-08-07 2009-12-10 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
US8462848B2 (en) * 2009-12-17 2013-06-11 Broadcom Corporation Method and system for intra-mode selection without using reconstructed data
US9420308B2 (en) 2009-12-18 2016-08-16 Vixs Systems, Inc. Scaled motion search section with parallel processing and method for use therewith
US20110242427A1 (en) * 2010-04-01 2011-10-06 Timothy Ramsdale Method and System for Providing 1080P Video With 32-Bit Mobile DDR Memory
US9300970B2 (en) * 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
CN106878742B (zh) * 2011-01-12 2020-01-07 太阳专利托管公司 动态图像编解码装置
LT3416387T (lt) 2011-11-02 2024-01-10 Tagivan Ii Llc Vaizdo kodavimo būdas ir vaizdo kodavimo įrenginys

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS(外4名): "WD4: Working Draft 4 of High-Efficiency Video Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016039583, 28 October 2011 (2011-10-28), US, pages p.1,37-38,70-72,101-117 *

Also Published As

Publication number Publication date
EP3174298B1 (en) 2018-09-12
BR122020014537B1 (pt) 2022-09-13
EP3174299A1 (en) 2017-05-31
CN107071462B (zh) 2019-11-19
CN107071467A (zh) 2017-08-18
LT3416387T (lt) 2024-01-10
US9066109B2 (en) 2015-06-23
HUE064456T2 (hu) 2024-03-28
MX2013008533A (es) 2013-08-12
US10291933B2 (en) 2019-05-14
JP2014003708A (ja) 2014-01-09
KR102365524B1 (ko) 2022-02-23
US11570469B2 (en) 2023-01-31
CA3148065A1 (en) 2013-05-10
LT3413567T (lt) 2024-01-10
ES2967129T3 (es) 2024-04-26
KR20140092756A (ko) 2014-07-24
LT3174299T (lt) 2018-11-12
JP5405690B2 (ja) 2014-02-05
CA2825761C (en) 2020-01-14
US20200068219A1 (en) 2020-02-27
KR102257961B1 (ko) 2021-05-28
CN107071462A (zh) 2017-08-18
US20200404322A1 (en) 2020-12-24
BR112013018949A2 (ja) 2017-09-12
EP2775717A4 (en) 2015-04-29
ES2698559T3 (es) 2019-02-05
KR20210062737A (ko) 2021-05-31
KR20220025247A (ko) 2022-03-03
EP3416387A1 (en) 2018-12-19
US20140079130A1 (en) 2014-03-20
US10992953B2 (en) 2021-04-27
CA3056874A1 (en) 2013-05-10
HUE064621T2 (hu) 2024-04-28
JP5521101B2 (ja) 2014-06-11
PL3413567T3 (pl) 2024-03-11
US20140079131A1 (en) 2014-03-20
CA3056869C (en) 2022-05-17
US10798411B2 (en) 2020-10-06
BR122020014528B1 (pt) 2022-09-13
PL3174298T3 (pl) 2019-02-28
TWI559734B (zh) 2016-11-21
PL2775717T3 (pl) 2017-12-29
US10499080B2 (en) 2019-12-03
KR20190133279A (ko) 2019-12-02
US20230133884A1 (en) 2023-05-04
US8942288B2 (en) 2015-01-27
US20190230378A1 (en) 2019-07-25
CN103339941A (zh) 2013-10-02
US20210218988A1 (en) 2021-07-15
HUE040062T2 (hu) 2019-02-28
PL3416387T3 (pl) 2024-03-11
CA3148063C (en) 2023-08-29
ES2641952T3 (es) 2017-11-14
US20130156106A1 (en) 2013-06-20
LT3174298T (lt) 2018-11-12
EP2775717A1 (en) 2014-09-10
CN107071463B (zh) 2019-11-19
KR102148904B1 (ko) 2020-08-28
CA3148065C (en) 2023-08-29
WO2013065308A1 (ja) 2013-05-10
CN103339941B (zh) 2016-10-19
EP3413567B1 (en) 2023-10-11
MY165702A (en) 2018-04-20
ES2965240T3 (es) 2024-04-11
JP2014017854A (ja) 2014-01-30
BR122020014549B1 (pt) 2022-09-13
HUE040069T2 (hu) 2019-02-28
EP3416387B1 (en) 2023-10-18
CA3148063A1 (en) 2013-05-10
CN107071467B (zh) 2020-03-27
JP2014003709A (ja) 2014-01-09
PL3174299T3 (pl) 2019-07-31
KR102478864B1 (ko) 2022-12-19
ES2698560T3 (es) 2019-02-05
TW201332369A (zh) 2013-08-01
EP3174299B1 (en) 2018-09-12
US10063879B2 (en) 2018-08-28
EP3174298A1 (en) 2017-05-31
US20180332302A1 (en) 2018-11-15
KR102049308B1 (ko) 2020-01-08
CN107071463A (zh) 2017-08-18
JP5531150B2 (ja) 2014-06-25
KR20200103121A (ko) 2020-09-01
BR112013018949B1 (pt) 2022-09-13
CA3056869A1 (en) 2013-05-10
JP6158649B2 (ja) 2017-07-05
BR122020014548B1 (pt) 2022-09-13
EP2775717B1 (en) 2017-07-26
BR112013018949B8 (pt) 2022-10-11
EP3413567A1 (en) 2018-12-12
CA2825761A1 (en) 2013-05-10
CA3056874C (en) 2022-05-17
US11812055B2 (en) 2023-11-07
JPWO2013065308A1 (ja) 2015-04-02
JP6346346B2 (ja) 2018-06-20
JP2014003707A (ja) 2014-01-09

Similar Documents

Publication Publication Date Title
JP6346346B2 (ja) 動画像復号装置及び動画像復号方法
JP6008211B2 (ja) 符号化復号装置
WO2013057877A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
JP2019013052A (ja) 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180524

R150 Certificate of patent or registration of utility model

Ref document number: 6346346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250