JP5211263B2 - 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置 - Google Patents

符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置 Download PDF

Info

Publication number
JP5211263B2
JP5211263B2 JP2012510110A JP2012510110A JP5211263B2 JP 5211263 B2 JP5211263 B2 JP 5211263B2 JP 2012510110 A JP2012510110 A JP 2012510110A JP 2012510110 A JP2012510110 A JP 2012510110A JP 5211263 B2 JP5211263 B2 JP 5211263B2
Authority
JP
Japan
Prior art keywords
sub
unit
encoding
motion
encoding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012510110A
Other languages
English (en)
Other versions
JP2012513179A (ja
Inventor
リン,ジエン−リィアン
ツァイ,ユー−バオ
レイ,シャオ−ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2012513179A publication Critical patent/JP2012513179A/ja
Application granted granted Critical
Publication of JP5211263B2 publication Critical patent/JP5211263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

発明の詳細な説明
〔関連出願の相互参照〕
本出願は、US仮出願No.61/323,948(2010年4月14日出願、発明の名称:映像符号化における多重仮説予測)に基づく優先権を主張するものであり、当該出願に記載された内容を含むものである。また、本出願は、US出願No.13/080668(2011年4月6日出願、発明の名称:符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置)に基づく優先権を主張するものであり、当該出願に記載された内容を含むものである。
〔技術分野〕
本発明は、映像の動き補償に関するものである。より具体的には、符号化ユニットの映像符号化時に局所的多重仮説予測(localized multihypothesis prediction)を行う方法および装置に関する。
〔背景技術〕
動き補償は、映像の圧縮,解凍のための映像データの符号化,復号化において用いられる技術である。動き補償のために、現在の画像が1または複数の参照画像に部分的に置き換えて表される。参照画像は、現在より時間的に前である場合もあれば現在より時間的に後である場合もある。典型的には、動き補償が用いられる場合、画像は予め送信または保存された画像と精密に合成されて圧縮効率が改善される。符号化技術の進歩に伴い、新たな基準に関する設計が導入された。しかしながら、新たな基準においては、必ずしも従来の動き補償スキームが適切に機能しない。例えば、符号化効率が低下する場合がある。このため、映像符号化の符号化効率を向上させるための新たな方法が求められている。
〔発明の概要〕
本発明は、上記の問題点を解決するためになされたものであり、その目的は、符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置を提供することにある。
符号化ユニットの映像符号化時に局所的多重仮説予測を行う本発明の典型的な実施例は、上記符号化ユニットを複数のサブ符号化ユニットに分割する分割工程と、上記各サブ符号化ユニットを処理する処理工程とを含む。より具体的には、上記処理工程は、上記サブ符号化ユニットのうちの特定サブ符号化ユニットの多重仮説動き補償のために符号化済みユニットの第1セットの動き情報を取得する取得工程と、符号化済みユニットの上記第1セットの動き情報から得られる複数の画素値の線形結合を上記特定サブ符号化ユニットの予測画素値として用いる利用工程と、符号化済みユニットの上記第1セットに含まれない少なくとも1つの符号化済みユニットを含む符号化済みユニットの第2セットの動き情報を用いて、上記符号化ユニットにおける他のサブ符号化ユニットの予測画素値を算出する算出工程とを含む。
また、符号化ユニットの映像符号化時に局所的な多重仮説予測を行う装置の本発明の典型的な実施例は、上記符号化ユニットに映像符号化を行う処理回路を備え、上記処理回路は、予備処理部を含む。上記予備処理部は、上記符号化ユニットを複数のサブ符号化ユニットに分割し、各サブ符号化ユニットに対する処理を行う。より具体的には、上記予備処理部は、複数の上記サブ符号化ユニットのうちの特定サブ符号化ユニットに多重仮説動き補償処理を行うために符号化済みユニットの第1セットの動き情報を取得し、上記動き情報に応じて上記特定サブ符号化ユニットに多重仮説動き補償を施し、符号化済みユニットの上記第1セットの動き情報から得られる複数の画素値の線形結合を上記特定サブ符号化ユニットの予測画素値として用いる。さらに、上記予備処理部は、符号化済みユニットの上記第1セットには含まれない符号化ユニットを少なくとも1つ含む符号化済みユニットの第2セットの動き情報を用いて上記符号化ユニットにおける他のサブ符号化ユニットの予測画素値を算出する。
また、符号化ユニットの映像符号化時に局所的多重仮説予測を行う本発明の他の典型的な実施例は、上記符号化ユニットを複数のサブ符号化ユニットに分割する分割工程と、上記各サブ符号化ユニットを処理する処理工程とを含む。より具体的には、上記処理工程は、上記サブ符号化ユニットのうちの特定サブ符号化ユニットの多重仮説動き補償のために複数の符号化済みユニットの動き情報を取得する取得工程と、上記符号化済みユニットの上記動き情報から得られる複数の画素値の重み付け合計を上記特定サブ符号化ユニットの予測画素値として用いる利用工程と、上記符号化済みユニットの上記動き情報から得られる上記画素値の他の重み付け合計を用いることにより上記符号化ユニットにおける他のサブ符号化ユニットの予測画素値を算出する算出工程とを含む。
本発明の上述した目的および他の目的は、後述する図示された好ましい実施例の詳細な説明により、当業者に明らかになるであろう。
〔図面の簡単な説明〕
図1Aは、本発明の一実施例にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行う装置を示す図である。
図1Bは、図1Aに示した装置に備えられるインター/イントラ予測部を示す図である。
図1Cは、図1Bに示した多重仮説インター予測回路の多重仮説動き補償処理を示す図である。
図2は、本発明の一実施例にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法のフローチャートである。
図3は、図2に示した方法における符号化済みブロックの例を示す図である。
図4は、図2に示した方法において行われる処理の詳細を示す図である。
図5A〜図5Dは、図2に示した方法において行われる多重仮説予測の詳細を示す図である。
図6A〜図6Bは、図2に示した方法において行われる動き情報の取得処理を示す図である。
図7A〜図7Bは、それぞれ、図2に示した方法における、時間動きベクトルMVsおよび空間動きベクトルMVsを示す図である。
図8A〜図8Cは、図2に示した方法において行われる動きベクトルの取得処理を示す図である。
図9は、図2に示した方法において行われる処理を示す図である。
図10は、図2に示した方法において行われる処理を示す図である。
図11は、図2に示した方法において行われる処理を示す図である。
〔詳細な説明〕
以下に示す説明および請求項の全体にわたって、特定の部材に同じ用語を用いる。電子機器メーカーによって同じ部材が異なる名称で呼ばれる場合があることは当業者であれば理解できるであろう。本明細書は、機能ではなく名称によって部材を識別することを意図するものではない。以下に示す説明および請求項において、「〜を含む」あるいは「〜を備えている」という用語は、非制限的な用法で用いられるものであり、「〜」のみを構成要素とすることを示すものではない。また、「接続する」という用語は、電気的に直接接続されている場合と、電気的に間接的に接続されている場合のいずれの場合も含む。ある装置が他の装置と接続されている場合、その接続は、電気的に直接接続されているものであってもよく、他の装置あるいは他の接続を介して間接的に接続されているものであってもよい。
図1は、本発明の一実施形態にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行うための装置100の構成を示す図である。上記装置100は、インター/イントラ予測部110(図1Aの「インター/イントラ予測部」)、演算部120、変換・量子化部130(図1Aの「変換・量子化部」)、エントロピー符号化回路140(図1Aの「エントロピー符号化部」)、逆変換・逆量子化部150(図1Aの「逆変換・逆量子化部」)、復元回路160(図1Aの「REC」)、デブロッキングフィルタ170、およびフレームバッファ180を備えている。図1Bに示すように、インター/イントラ予測部110は、多重仮説インター予測回路112(図1Bの「多重仮説予測部」)、インター予測回路114(図1Bの「インター予測部」)、イントラ予測回路116(図1Bの「イントラ予測部」)、および切替回路118を備えている。
図1Aに示した装置100は、オリジナル信号109の映像符号化処理を行い、符号化結果を反映した出力信号(エントロピー符号化回路140の出力)を生成する。例えば、オリジナル信号109は符号化ユニットの入力映像搬送データであってもよく、エントロピー符号化回路140の出力はビットストリームであってもよい。また、インター/イントラ予測部110は、インター/イントラ予測を行うように構成されている。具体的には、インター/イントラ予測部110は、図1Bに示すように、多重仮説インター予測を行う多重仮説インター予測回路112と、インター予測を行うインター予測回路114と、イントラ予測を行うイントラ予測回路116とを備えている。
図1Aに示すように、演算部120は、オリジナル信号109(例えば符号化ユニットの入力映像搬送データ)からインター/イントラ予測部110によって生成された予測信号119を減算する処理などの演算処理を行う。また、変換・量子化部130、エントロピー符号化回路140、逆変換・逆量子化部150、および復元回路160は、それぞれ、変換・量子化処理、エントロピー符号化処理、逆変換・逆量子化処理、復元処理を行う。その結果、復元回路160により、復元処理の結果を含む仮の復元信号169が生成される。また、デブロッキングフィルタ170が復元信号169にデブロッキングフィルタリング処理を施し、その次に符号化する画像のイントラ予測のためにフレームバッファ180に格納するデブロッキングデータを生成するためのデブロッキング信号179を生成する。また、インター/イントラ予測部110は、仮の復元信号169、および再入力信号189によって搬送される前回復号された画像のデブロッキングデータにアクセス可能である。なお、上記の説明は、単に実施例を示したものであって、本発明を限定するためのものではない。この実施例の変形例として、状況に応じてデブロッキングフィルタ170およびデブロッキングフィルタリング処理を省略し、仮の復元信号169によって搬送される復元処理結果をフレームバッファ180に記憶させ、インター/イントラ予測部110が現在の符号化画像の仮の復元信号169と、再入力信号189に含まれる前回の符号化画像の復元結果とにアクセスできるようにしてもよい。
図1Bに示したように、多重仮説インター予測回路112は、オリジナル信号109と再入力信号189に含まれる前回の符号化画像の復元結果とに基づいて多重仮説インター予測を行い、多重仮説インター予測出力113を生成する。インター予測回路114は、オリジナル信号109と再入力信号189に含まれる前回の符号化画像の復元結果とに基づいてインター予測を行い、インター予測出力115を生成する。イントラ予測回路116は、オリジナル信号109と仮の復元信号169とに基づいてイントラ予測を行い、イントラ予測出力117を生成する。切替回路118は、多重仮説インター予測出力113、インター予測出力115、およびイントラ予測出力117のうちのいずれか1つを上述した予測信号119として動的に選択する。
実際上、上記装置100の少なくとも一部(一部または全部)はハードウェア回路を用いることによって実現される。例えば、上記装置100は、符号化ユニットの映像符号化を行う処理回路によって実現できる。上記処理回路は、インター/イントラ予測部110を含んでいてもよく、さらに、演算部120、変換・量子化部130、エントロピー符号化回路140、逆変換・逆量子化部150、復元回路160、およびデブロッキングフィルタ170の少なくとも1つを含む予備処理部を含んでいてもよい。より具体的には、上記装置100における1または複数の部材は、デジタル信号処理技術を用いて実装することができる。なお、上記の説明は単に実施例を示したものにすぎず、本発明を限定するものではない。この実施例の変形例として、上記装置100の少なくとも一部をソフトウェアおよび/またはファームウェアによって実現してもよい。例えば、上記処理回路は、複数のプログラムコードを実行するプロセッサであってもよい。上述した処理回路と同じあるいは同様の処理を行うためのプログラムコードの第1部分を実行し、上述した符号化部と同じあるいは同様の処理を行うプログラムコードの第2部分を実行するものであってもよい。
上記装置100の少なくとも一部(一部または全部)がハードウェア回路によって実現されるかソフトウェアによって実現されるかは問題ではなく、上記装置100は、符号化ユニットの映像符号化を行う能力を有していればよい。例えば、上記符号化ユニットは、マクロブロック(MBs;macroblocks)であってもよい。あるいは、上記符号化ユニットは、予め定められた最大の符号化ユニット(LCU;largest coding unit)と、予め定められた最小の符号化ユニット(SCU;smallest coding unit)との間のサイズを有する符号化ユニットであってもよい。画像は、まず複数のLCUに分割され、最終的な符号化ユニットになるまで各LCUはより小さい符号化ユニットに適応するように分割される。この実施例では、上述した予備処理部が、上述した符号化ユニットを複数のサブ符号化ユニット(例えば、正方形あるいは非正方形などのさまざまな種類の部分)に分割し、各サブ符号化ユニットについて予測を行う。より具体的には、上記予備処理部は、各サブ符号化ユニットに対して、インター予測、イントラ予測、あるいは多重仮説動き補償を行う。特定サブ符号化ユニットについて多重仮説動き補償が選択された場合、上記予備処理部は、複数の異なる符号化ユニットに応じて得られる複数の画素値の線形結合を計算し、その計算結果を当該サブ符号化ユニットの画素値の予測値とする。上記の複数の符号化ユニットは、符号化済みサブ符号化ユニットであってもよく、符号化済み符号化ユニットであってもよく、それらの組み合わせであってもよい。また、上述した少なくとも1つの符号化装置は、上記処理回路によって実行される多重仮説動き補償に基づいて符号化ユニットの映像符号化を実行するものであってもよい。
図1Cは、本発明の一実施例に基づいて図1Aに示したインター/イントラ予測部110で行われる多重仮説動き補償処理を示す図である。この実施例におけるF(t−3)、F(t−2)、F(t−1)、およびF(t)という表現は、連続するフレーム群{F(t)}を示している。フレームF(t)は現在のフレームである。現在のフレームF(t)は、複数の符号化ユニット{CU(t)}を含んでいる。また、符号化ユニットCU(t)は、複数のサブ符号化ユニット{SubCU(t)}を含んでいる。上述した処理回路は、それぞれ、他の複数のサブ符号化ユニット/符号化ユニットから動き情報(例えば動きベクトル群{v})を取得する。すなわち、上記予備処理部は、特定サブ符号化ユニットの多重仮説動き補償を行うために、複数のサブ符号ユニット/符号化ユニットの動きベクトル(上述した動きベクトル群{v})を用いる。この実施例によれば、上記予備処理部は、図1Cに示したサブ符号化ユニット(SubCU(t))などの特定サブ符号化ユニットに複数の動きベクトル{v}に応じた多重仮説動き補償を行うことができる。
一般に、上記予備処理部は、複数の他のサブ符号化ユニット/符号化ユニットの動き情報によって得られる複数の参照画素値{Ψ}の線形結合を計算する。上記線形結合は、特定サブ符号化ユニットの予測画素値Ψである。例えば、符号化済みユニットの符号化情報の第1セットは、動きベクトル、参照フレームインデックス、および予測方向のうちの1または複数を含み、より具体的には、単一のサブ符号化ユニット/符号化ユニットに由来する複数の動きベクトルを含む。他の実施例として、上記動き情報は、動きベクトル、参照フレームインデックス、予測方向、あるいはこれらの組み合わせであってもよい。後述する実施例では、動き情報の例として動きベクトルを用いる。なお、上記の線形結合は、複数の参照画素値に重み付けをして合計したものであってもよい。すなわち、上記予備処理部は、特定サブ符号化ユニットの予測画素値として、複数の画素値を重み付けして合計した値を用いてもよい。例えば、予測画素値Ψを有する特定の予測済み画素がi番目のサブ符号化ユニット(例えば図1Cに示したサブ符号化ユニットSubCU(t))に属し、位置x(例えば現在のフレームF(t)の画像平面における2次元ベクトルなどのベクトルによって示される位置)に位置する場合、上記予測画素値ΨはΨ(i,x)と表現することもでき、さらに、Ψ(i,x)は下記式(1)によって表現できる。
Figure 0005211263
ここで、指数kは、セットKの範囲内で変化する値であり、h(i,x)は指数kに関連する重み付けパラメータを示す。例えば、kが取り得る値が1以上である場合、複数の重み付けパラメータ{h(i,x)}の合計は、簡単のために1としてもよい。
図1Cに示したように、動きベクトル群{v}は現在のフレームF(t)内における他の符号化ユニットのサブ符号化ユニットA,Bの動きベクトルv,vを含んでいてもよい。さらに、他のフレーム(例えばフレームF(t−1))の符号化ユニットCU(t−1)におけるサブ符号化ユニットTの動きベクトルvを含んでいてもよい。
例えば、符号化ユニットがブロックの場合、符号化ユニットCU(t−1)は符号化ユニットCU(t)に対応する位置のブロックであってもよい。その結果、複数の重み付けパラメータ{h(i,x)}を動きベクトル群{v}によって得られた複数の参照画素値{Ψ}に適用することにより、上記予備処理部は、動きベクトル群{v}(例えばv、v,およびvなど)によって示される部分画像を混合/ミックスすることで重み付け合計画像を生成し、この重み付け合計画像を特定サブ符号化ユニット(例えば図1Cに示したサブ符号化ユニットSubCU(t)など)の予測部分画像として用いることができる。上述した処理の詳細については図2に示されている。
図2は、本発明の一実施形態にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行うための方法910のフローチャートである。上記の方法910は、図1Aに示した装置100、より具体的には上述した処理回路に適用される。上記方法の詳細は以下の通りである。
ステップ912において、上述した処理回路は、符号化ユニットCU(t)(例えば処理対象の符号化ユニット)を複数のサブ符号化ユニット(例えばサブ符号化ユニット群{SubCU(t)})に分割し、各サブ符号化ユニット{SubCU(t)}に対して予測を行う。具体的には、上記予備処理部は、複数のサブ符号化ユニット{SubCU(t)}のうちの特定サブ符号化ユニットSubCU(t)の多重仮説動き補償のために上述した複数の他の符号化済みユニット(例えば、上記複数の他のサブ符号化ユニット/符号化ユニットは、符号化ユニットCu(t)における他のサブ符号化ユニット、少なくとも1つの他の符号化ユニットにおけるサブ符号化ユニット、および/または他の符号化ユニットなどの、複数の他のサブ符号化ユニット/符号化ユニット)から上述した動きベクトル群{v}などの動き情報を取得する。本実施形態では、図3に示すように、符号化ユニットCu(t)は処理対象のブロック(図3における「処理対象ブロック」)であってもよく、特定サブ符号化ユニットSubCU(t)はサブブロックSBであってもよい。図3における陰影をつけた部分は符号化済みユニット/符合化済みブロック群{CB}の少なくとも一部を示している。図3に示したように、符号化済みブロック群{CB}は左側符号化済みブロックCB、左上側符号化済みブロックCBUL、上側符号化済みブロックCB、および右上側符号化済みブロックCBURを含んでいる。例えば、動きベクトル群{v}は、左側符号化済みブロックCB、左上側符号化済みブロックCBUL、上側符号化ブロック済みCB、および右上側符号化済みブロックCBURのうちの1または複数の少なくとも一部(一部または全部)の動きベクトルを含んでいてもよい。
ステップ914において、上述した予備処理部は、上記の特定サブ符号化ユニットSubCU(t)に対し、上記の動きベクトル群{v}に基づく多重仮説予測動き補償を行う。具体的には、上記予備処理部は、ステップ912で説明した複数の他の符号化済みユニット(例えば複数の他のサブ符号化ユニット/符号化ユニット)の複数の画素値の線形結合(例えば、上述した複数の他の符号化済みユニットに含まれる参照画素の参照画素値{Ψ}の線形結合)を、特定サブ符号化ユニットの予測画素値Ψとして用いる。例えば、各符号化ユニット(例えば符号化ユニットCU(t))はブロックであってもよい。より具体的には、拡張マイクロブロック、マイクロブロック、あるいはマイクロブロックの一部などの画素のアレイを含むブロックであってもよい。したがって、サブ符号化ユニットはサブブロックと称することもできる。本実施形態では、図3に示したように、上記予備処理部が、処理対象のブロック(図3に示した「処理対象ブロック」)に上述した動きベクトル群{v}に応じた多重仮説動き補償を行う。上記予備処理部は、符号化済みブロック{CB}(例えば左側符号化ブロックCB、左上側符号化ブロックCBUL、上側符号化ブロックCB、および右上側符号化ブロックCBURのうちの1または複数)の少なくとも一部(一部または全部)に含まれる参照画素の参照画素値{Ψ}を混合/ミックスする。この実施例では、符号化済みブロック群{CB}は動き補償されたブロックであってもよい。
本実施形態では、上記予備処理部は、ステップ912で説明した各サブ符号化ユニットを処理するようになっている。例えば、上記予備処理部は、ステップ912で説明したサブ符号化ユニット(例えば特定サブ符号化ユニットSubCU(t)など)における第1サブ符号化ユニットの多重仮説動き補償のために、符号化済みユニットの第1セットの動き情報を取得し、取得した上記動き情報に応じて上記の第1サブ符号化ユニット(例えば上記動き情報に応じた特定サブ符号化ユニット)に多重仮説動き補償を行う。より具体的には、上記予備処理部は、符号化済みユニットの第1セットの動き情報に由来する複数の画素値の線形結合を第1サブ符号化ユニット(例えば上記の特定サブ符号化ユニット)の予測画素値として用いる。また、上述した少なくとも1つの符号化部は、上記予備処理部によって行われた多重仮説動き補償の結果に基づいて符号化ユニットの映像符号化を行う。また、上記予備処理部は、上記符号化ユニットにおける他のサブ符号化ユニット(例えばステップ912で説明したサブ符号化ユニットのうち、第1サブ符号化ユニットとは異なる第2サブ符号化ユニット)の予測画素値を符号化済みユニットの第2セットの動き情報を用いて算出する。
上記第1サブ符号化ユニットに関し、上記符号化済みユニットの第1セットは、符号化ユニットCU(t)における他のサブ符号化ユニット(すなわち、符号化ユニットCU(t)におけるサブ符号化ユニットのうち第1サブ符号化ユニットを除くサブ符号化ユニット)、1または複数の他の符号化ユニットに含まれるサブ符号化ユニット(すなわち、符号化ユニットCU(t)とは異なる1または複数の符号化ユニットに含まれるサブ符号化ユニット)、および/または、他の符号化ユニット(すなわち、符号化ユニットCU(t)とは異なる1または複数の符号化ユニット)を含んでいてもよい。また、上記第2サブ符号化ユニットに関し、上記符号化済みユニットの第2セットは、当該符号化ユニットCU(t)における他のサブ符号化ユニット(すなわち、符号化ユニットCU(t)におけるサブ符号化ユニットのうち第2サブ符号化ユニットを除くサブ符号化ユニット)、1または複数の他の符号化ユニットに含まれるサブ符号化ユニット(すなわち、符号化ユニットCU(t)とは異なる1または複数の符号化ユニットに含まれるサブ符号化ユニット)、および/または、他の符号化ユニット(すなわち、符号化ユニットCU(t)とは異なる1または複数の符号化ユニット)を含んでいてもよい。なお、符号化済みユニットの第2セットは、符号化済みユニットの第1セットに含まれない符号化ユニットを少なくとも1つ含んでいる。上記の説明は実施の一例にすぎず、本発明を限定することを意図したものではない。本実施形態の変形例として、上記符号化済みユニットの第1セットおよび第2セットは、同じ符号化済みユニットであってもよい。この場合、上記予備処理部は、第1サブ符号化ユニットおよび第2符号化ユニットのそれぞれの予測画素値として、同じ符号化済みユニットのセットの動き情報から得られる複数の画素値の異なる線形結合を用いる。例えば、上記予備処理部は、第1サブ符号化ユニットの予測画素値として複数の画素値に対する重み付けパラメータの第1セットに応じた第1線形結合を用い、第2サブ符号化ユニットの予測画素値として複数の画素値に対する重み付けパラメータの第2セットに応じた第2線形結合を用いる。他の実施例として、上記予備処理部が、符号化済みユニットの第1セットの動き情報から得られた複数の画素値の第1重み付け合計を第1のサブ符号化ユニット(特定サブ符号化ユニット)の予測画素値として用い、符号化済みユニットの同じセット(すなわち符号化済みユニットの第1セット)の動き情報から得られる上記画素値の第2重み付け合計(第1重み付け合計とは異なる第2重み付け合計)を用いて第2サブ符号化ユニットの予測画素値を算出するようにしてもよい。
図3に示した実施例の変形例として、ステップ912で説明した他の符号化済みユニットのそれぞれが符号化済みのサブ符号化ユニット/符号化ユニットであってもよい。例えば、上記変形例は、ステップ921で説明した複数の他の符号化済みユニットが、空間的に符号化されたサブ符号化ユニット/符号化ユニット(例えば、現在のフレームF(t)における1または複数の符号化済みブロック{CB}、処理中のブロック内あるいは符号化済みブロック内における1または複数の符号化済みサブブロック、および/または、少なくとも1つの仮に符号化されたサブ符号化ユニット/符号化ユニット(例えば、現在のフレームF(t)とは異なる他のフレームにおける1または複数の符号化済みサブ符号化ブロック/符合化済みブロック))のうちの少なくとも1つを含んでいてもよい。他の変形例として、ステップ912で説明した他の符号化済みユニットのそれぞれは、動き補償されたサブ符号化ユニット/符号化ユニットであってもよい。これらの各変形例により、動き情報から動きベクトル群{v}が得られる。
図4は、図2に示した方法910の詳細な実施例を示す図である。この実施例では、上記予備処理部は、ステップ914で説明した複数の画素値の重み付け合計(例えば上記数式(1)の右辺)を、特定サブ符号化ユニット(例えば図4に示したi番目のサブクロックb)の予測画素値Ψとして用いる。理解しやすいように、符号化済みブロックCB,CBUL、CB、およびCBURについては図3に示した例と同様とする。例えば、予測画素値Ψを算出するための複数の参照画素の参照画素値{Ψ}は、符号化済みブロックCB,CBUL、CB、およびCBURのうちの1または複数のブロックから得られる。また、動きベクトル群{v}は、符号化済みブロックCB,CBUL、CB、およびCBURの動きベクトルv,vUL,v、およびvURを含む。
より具体的には、各サブブロック(例えば図4に示したi番目のサブブロックb)について、符号化済みブロック群{CB}内の参照画素の参照画素値{Ψ}を混合/ミックスすることによって予測画素値(例えば予測画素値Ψ(i,x))を取得する。予測画素値Ψ(i,x)は上記式(1)によって表される。上記式(1)における指数kは、上記セットKの範囲内で変化する値である。また、vおよびh(i,x)は、k番目の参照動きベクトルおよびそれに対応する重み付けパラメータをそれぞれ示している。例えば、b∈BおよびBは、処理中のブロック(図4に示した「処理対象ブロック」)のセットを示している。図4に示したように、動きベクトル群{v}に含まれる典型的な動きベクトルvは、符号化済みブロックCBの範囲内に示されている。このことは、動きベクトル群{v}が符号化済みブロックCBの動きベクトルvを含むことを意味している。
図4に示した実施例の変形例として、上記予備処理部が、複数の画素値(例えば複数の参照画素値{Ψ})についての各重み付けパラメータ{h(i,x)}を調整し、重み付け合計(すなわち、この変形例における上記式(1)の右辺)を生成するために、複数の画素値(例えば、処理中の現在の画素の実際の画素値ΨREAL(i,x)に関連する複数の参照画素値{Ψ})に最適化ウィーナーフィルタリング(optimum Wiener filtering)を行うようにしてもよい。例えば、上記重み付けパラメータ{h(i,x)}は、上記予備処理部内において下記式(2)に示す最適化ウィーナーフィルターを用いることによって得ることができる。
Figure 0005211263
ここで、重み付けパラメータ群{h(i,x)}は、上記予備処理部によって行われる最適化ウィーナーフィルタリング処理時に下記式(3)の最小値に対応する(h ,・・・,h )のセットを検索することによって得られる。
Figure 0005211263
上記の説明は本発明の一実施例にすぎず、本発明を限定することを意図したものではない。図4に示した実施例の変形例として、上記予備処理部が、重み付け合計(この変形例における上記式(1)の右辺)を生成するために、1または複数の隣接する符号化ユニットの内容(例えば、符号化済みブロックCB,CBUL、CB、およびCBURのうちの1または複数の内容)に応じて複数の画素値についての各重み付けパラメータ{h(i,x)}を決定するようにしてもよい。図4に示した実施例の他の変形例として、上記予備処理部が、重み付け合計(この変形例における上記式(1)の右辺)を生成するために、ステップ912で説明した複数の他の符号化済みユニット(例えば上記符号化済みユニットの第1セット)の内容に応じて複数の画素値についての各重み付けパラメータ{h(i,x)}を決定するようにしてもよい。
図4に示した実施例の変形例として、上記予備処理部が、重み付け合計(この変形例における上記式(1)の右辺)を生成するために、オフライントレーニング(offline training)あるいはオンライントレーニング(online training)によって複数の画素値についての各重み付けパラメータ{h(i,x)}を決定するようにしてもよい。図4に示した実施例の他の変形例として、上記予備処理部が、複数の画素値の平均値を上記の特定サブ符号化ユニットの予測画素値として用いてもよい。この場合、重み付けパラメータ群{h(i,x)}の各パラメータは互いに等しくなる。より具体的には、この変形例では、重み付けパラメータ群{h(i,x)}の各パラメータは1/n(K)になる。ここで、n(K)はセットKに含まれるkの数を示している。
図5A〜図5Dは、図2に示した方法910における多重仮説予測の詳細な実施例を示す図であり、これらの実施例では、重み付け合計(上記式(1)の右辺)をステップ914で説明した線形結合とみなす。理解しやすいように、符号化済みブロックCB,CBUL,CB,CBURは図3に示したものと同じとする。また、i番目のサブブロックBを特定サブ符号化ユニットSubCU(t0)の一例とする。
図5Aに示した例では、サブ符号化ユニットA,B,C,Dは、処理中の符号化ユニット(図5Aにおける「処理対象ブロック」)、あるいは他の符号化ユニット(例えばCB,CBUL,CB,CBUR)に含まれる。より具体的には、図5Aに示したi番目のサブブロックbに関して、サブ符号化ユニットAは当該サブ符号化ユニットの左隣に隣接し、サブ符号化ユニットBは当該サブ符号化ユニットの上隣に隣接し、サブ符号化ユニットCは当該サブ符号化ユニットの右上隣に隣接し、サブ符号化ユニットDは当該サブ符号化ユニットの左上隣に隣接している。
この実施例では、動きベクトル群{v}は図5Aに示したサブ符号化ユニットA,B,C,および/またはDから得られる。したがって、動きベクトル群{v}は動きベクトルv,v,v,および/またはvを含む。例えば、動きベクトル群{v}が動きベクトルv,v,v,およびvを全て含んでいてもよい。あるいは、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。また、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。
このように、ステップ914で説明した線形結合は、動きベクトルv,v,v,および/またはvを含む動きベクトル群{v}を用いた重み付け合計(上記式1))であってもよい。これにより、予測画素値Ψは「ΨP=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。
図5Aに示した実施例の変形例として、上記予備処理部が、複数の画素値の平均値を特定サブ符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値をステップ914における線形結合とみなしてもよい。この場合、重み付けパラメータ{h(i,x)}は互いに等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図5Bに示す例では、左隣の符号化済みブロックCBにはサブ符号化ユニットα,α,α,α,α,α,α,およびαが含まれており、上隣の符号化済みブロックCBにはサブ符号化ユニットβ,β,β,β,β,β,β,およびβが含まれており、左上隣の符号化ブロックCBULにはサブ符号化ユニットδが含まれており、右上隣の符号化済みブロックCBURにはサブ符号化ユニットβが含まれている。より具体的には、図5Bに示すi番目のサブブロックb(例えば処理中のブロックを左上、右上、左下、および右下に4分割した右下のサブブロック)について、動きベクトル群{vk}がサブ符号化ユニットA,B,C,および/またはDから得られる。ここで、サブ符号化ユニットAは左隣の符号化済みブロックCBにおける最も近接しているサブ符号化ユニットであり、サブ符号化済みユニットBは上隣の符号化ブロックCBにおける最も近接しているサブ符号化ユニットであり、サブ符号化ユニットCはサブ符号化ユニットBの右隣に隣接するサブ符号化ユニットであり、サブ符号化ユニットDはサブ符号化ユニットBの左隣に隣接するサブ符号化ユニットである。図5Bでは、サブ符号化ユニットA,B,C,Dは、それぞれ、サブ符号化ユニットα,β,β,およびβである。
この実施例では、動きベクトル群{v}はサブ符号化ユニットA,B,C,および/またはDから得られる。したがって、動きベクトル群{v}は、動きベクトルv,v,v,および/またはvを含む。例えば、動きベクトル群{v}は、サブ符号化ユニットA,B,C,およびDの動きベクトルv,v,v,およびvを全て含んでいてもよい。あるいは、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。また、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。
このように、ステップ914で説明した線形結合は、動きベクトルv,v,v,および/またはvを含む動きベクトル群{v}を用いた重み付け合計(上記式1))であってもよい。これにより、予測画素値Ψは「Ψ=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。例えば、上記予備処理部は、上記特定サブ符号化ユニットのサイズを、符号化ユニットの映像符号化に関する変換サイズに設定してもよい。上記サブ符号化ユニット(例えば図5Bに示したサブブロック)のサイズを上記変換サイズ(例えば4×4、8×8、16×16など)に設定してもよい。
図5Bに示した実施例の変形例として、上記予備処理部が、複数の画素値の平均値を特定サブ符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値をステップ914における線形結合とみなしてもよい。この場合、重み付けパラメータ{h(i,x)}は互いに等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図5Cに示す例では、サブ符号化ユニット{α,α,α,α,α,α,α,α,β,β,β,β,β,β,β,β,β,δ}の定義は図5Bと同様である。また、図5Cに示すi番目のサブブロックb(例えば処理中のブロックを左上、右上、左下、および右下に4分割した右上のサブブロック)について、動きベクトル群{v}がサブ符号化ユニットA,B,C,D,E,F,および/またはZから得られる。ここで、サブ符号化ユニットA,B,C,Dの定義は図5Bと同様である。また、サブ符号化ユニットEは、サブ符号化ユニットAの上隣のサブ符号化ユニットであり、サブ符号化ユニットFはサブ符号化ユニットAの下隣のサブ符号化ユニットであり、サブ符号化ユニットZは左上隣に隣接する符号化済みブロックCBULにおける最も近接するサブ符号化ユニットである。図5Cでは、サブ符号化ユニットA,B,C,D,E,F,およびZは、それぞれ、サブ符号化ユニットα,β,β,β,α,α,およびδである。
この実施例では、動きベクトル群{v}はサブ符号化ユニットA,B,C,D,E,F,および/またはZから得られる。したがって、動きベクトル群{v}は、動きベクトルv,v,v,v,v,vF,および/またはvを含み得る。例えば、動きベクトル群{v}は、サブ符号化ユニットA,B,C,D,E,F,およびZの動きベクトルv,v,v,v,v,vF,およびvを全て含んでいてもよい。あるいは、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットEが存在する場合、動きベクトル群{v}は動きベクトルv,v,v,v,v,およびvを含んでいてもよい。また、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットC,Eが存在する場合、動きベクトル群{v}は動きベクトルv,v,v,v,およびvを含んでいてもよい。
このように、ステップ914で説明した線形結合は、動きベクトルv,v,v,v,v,v,および/またはvを含む動きベクトル群{v}を用いた重み付け合計(上記式1))であってもよい。これにより、予測画素値ΨPは「Ψ=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。例えば、上記予備処理部は、上記特定サブ符号化ユニットのサイズを、符号化ユニットの映像符号化に関する変換サイズに設定してもよい。上記サブ符号化ユニット(例えば図5Cに示したサブブロック)のサイズを上記変換サイズ(例えば4×4、8×8、16×16など)に設定してもよい。
図5Cに示した実施例の変形例として、上記予備処理部が、複数の画素値の平均値を特定サブ符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値をステップ914における線形結合とみなしてもよい。この場合、重み付けパラメータ{h(i,x)}は互いに等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),および/またはΨ(v))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図5Dに示す例では、サブ符号化ユニット{α,α,α,α,α,α,α,α,β,β,β,β,β,β,β,β,β,δ}の定義は図5Bと同様である。また、図5Dに示すi番目のサブブロックb(例えば処理中のブロックを左上、右上、左下、および右下に4分割した右下のサブブロック)について、動きベクトル群{v}がサブ符号化ユニットA,B,C,および/またはDから得られる。ここで、サブ符号化ユニットA,B,C,Dの定義は図5Bと同様である。図5Dでは、サブ符号化ユニットA,B,C,およびDは、それぞれ、サブ符号化ユニットα,β,β,およびαである。
この実施例では、動きベクトル群{v}はサブ符号化ユニットA,B,C,および/またはDから得られる。したがって、動きベクトル群{v}は、動きベクトルv,v,v,および/またはvを含み得る。例えば、動きベクトル群{v}は、サブ符号化ユニットA,B,C,およびDの動きベクトルv,v,v,およびvを全て含んでいてもよい。あるいは、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。また、特定サブ符号化ユニット(例えばi番目のサブブロックb)に対応するサブ符号化ユニットCが存在する場合、動きベクトル群{v}は動きベクトルv,v,およびvを含んでいてもよい。
また、この実施例では、重み付けパラメータh(i,x)を、特定サブ符号化ユニットと、ステップ912で説明した他の符号化ユニットのうちの関連する1つとの距離に反比例するように設定する。例えば、重み付けパラメータh(i,x)を位置xに依存しない重み付けパラメータw(i)に置き換えてもよい。重み付けパラメータw(i)は、(d(i))に反比例する(すなわち、w(i)∝1/(d(i)))。ここで、d(i)は、特定サブ符号化ユニット(例えばi番目のサブブロックb)と、k番目の参照動きベクトルvを有する関連する他のサブ符号化ユニット/符号化ユニット(例えばサブ符号化ユニットA,C,C,およびD内におけるk番目のサブ符号化ユニット)との距離を示す。また、mは正の整数を示す。これにより、予測画素値Ψは下記式(4)で表される。
Figure 0005211263
ここで、動きイベクトル群{v}は動きベクトルv,v,v,および/またはvを含んでいてもよい。また、図5Dの例において、動きイベクトル群{vk}は動きベクトルv,v,およびv、並びに、距離d(i)を示す符号dist_w、距離d(i)を示すdist_h,および距離d(i)を示すdist_h’を含んでいる。これにより、予測画素値Ψは、「Ψ=wΨ(v)+wΨ(v)+wΨ(v)」で表される。ここで、w∝1/(dist_w),w∝1/(dist_h),およびw∝1/(dist_h’)である。
図5A〜図5Dに示した実施例の変形例として、上記予備処理部が、複数の符号化済みユニットの動き情報のうち極端な値を有する少なくとも1つの動きベクトル(at least one extreme motion vector)を廃棄することにより1セットの動きベクトル群を選別するようにしてもよい。より具体的には、動きベクトル群のセットから極端な値を有する少なくとも1つの動きベクトルを廃棄し、上記動きベクトル群のセットにおける残りの部分を予測画素値の算出に用いる動き情報(符号化済みユニットの第1セットの動き情報)として用いてもよい。例えば、上述した極端な値を有する少なくとも1つの動きベクトルは、上記動きベクトルのセットにおける他の動きベクトルと、長さおよび/または方向が懸け離れた動きベクトルであってもよい。
また、図5A〜図5Dに示した実施例の変形例として、上記予備処理部が、それぞれ図5A〜図5Dに対応する処理であるモード1〜4の処理を選択的に行うようにしてもよい。例えば、上記予備処理部は、モード1では図5Aに示した方法と同様の処理を行い、モード2〜4ではそれぞれ図5B〜図5Dに示した方法と同様の処理を行う。なお、モード1,2,3は、他のモードに比べて装置100における処理を簡略化し、装置100における全体の処理速度を向上させることができるので、簡略化モードと呼ぶこともできる。
また、図5A〜図5Dに示した実施例の変形例として、ステップ912において、上記予備処理部が、隣接する少なくとも1つの符号化ユニットの少なくとも1つのモード(例えば、符号化済みブロックCB,CB,CBUR,およびCBULのうちの少なくとも1つにおけるモード1,2,3,および/または4)に基づいて上記符号化ユニットを複数の上記サブ符号化ユニットに分割するようにしてもよい。また、図5A〜図5Dに示した実施例の他の変形例として、ステップ912において、上記予備処理部が、隣接する少なくとも1つの符号化ユニット(例えば、符号化済みブロックCB,CB,CBUR,およびCBULのうちの1または複数)の内容に基づいて上記符号化ユニットを複数の上記サブ符号化ユニットに分割するようにしてもよい。
図6Aおよび図6Bは、図2の方法910における動き情報の取得処理に関する他の実施例を示している。理解しやすいように、符号化済みブロックCB,CBUL,CB,およびCBURは図3と同様とする。
この実施例では、特定サブ符号化ユニットSubCU(t)のサイズは符号化ユニットCu(t)のサイズに拡張されており、ステップ912における分割処理/区画化処理は必要なくなっている。したがって、ステップ912では、上記予備処理部は、符号化ユニットCu(t)の動きベクトル予測を行う。より具体的には、符号化ユニットCu(t)の多重仮説動き補償のために複数の他の符号化ユニット(例えば符号化済みブロック(例えば符号化済みブロックCB,CBUL,CB,およびCBURのうちの1または複数)の少なくとも一部から複数の動きベクトル(例えば上述した動きベクトル群{v})を取得する処理を行う。また、ステップ914において、上記予備処理部は、動き情報(例えば複数の上記動きベクトル{v})に応じて符号化ユニットCu(t)の多重仮説動き補償を行う。より具体的には、上記複数の他の符号化ユニットの複数の画素値の線形結合を上記符号化ユニットの予測画素値Ψ(x)として用いる。なお、予測画素値Ψ(x)は符号iを必要としない。また、予測画素値Ψ(x)は、下記式(5)によって表される。
Figure 0005211263
実際上、上記複数のモードは、それぞれ異なる動作ブロックサイズ(例えば16×16、32×32など)に対応する複数のスキップモードを含んでいる。この実施例では、符号Aは符号化済みブロックCBの少なくとも一部(一部または全部)を含むサブ符号化ユニット/符号化ユニットを示し、符号Dは符号化済みブロックCBULの少なくとも一部(一部または全部)を含むサブ符号化ユニット/符号化ユニットを示し、符号Bは符号化済みブロックCBの少なくとも一部(一部または全部)を含むサブ符号化ユニット/符号化ユニットを示し、符号CSIZE(例えばC16,C32など)は符号化済みブロックCBURの少なくとも一部(一部または全部)を含むサブ符号化ユニット/符号化ユニットを示している。なお、上記CSIZEにおける「SIZE」は、処理対象のブロック(図6A、図6Bにおける「処理対象ブロック」)などの符号化ユニットCu(t)のサイズを示している。例えば、図6Aの例では、処理対象のブロックのサイズが32画素×32画素であり、上記サブ符号化ユニット/符号化ユニットCSIZEは符号化ユニット/符号化ユニットC32と表される。他の例としては、図6Bでは、処理対象のブロックのサイズが16画素×16画素であり、上記サブ符号化ユニット/符号化ユニットCSIZEは、符号化ユニット/符号化ユニットC16と表される。このように、サブ符号化ユニット/符号化ユニットCSIZEの位置は動作ブロックサイズに依存する。
この実施例では、動きベクトル群{v}はサブ符号化ユニット/符号化ユニットA,B,C,およびDの動きベクトルv,v,v,およびvの全てを含んでいてもよい。この実施例では、上記線形結合は、動きベクトルv,v,v,およびvを含む動きベクトル群{v}を用いて表される重み付け合計(上記式(5)の右辺)であってもよい。これにより、予測画素値Ψは「Ψ=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),Ψ(v))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。
図6Aおよび図6Bの変形例として、上記予備処理部が、上記複数の他の符号化ユニットの複数の画素値の平均値を上記符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値を上記線形結合とみなしてもよい。この場合、重み付けパラメータ群{h}の各重み付けパラメータは等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),Ψ(v))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図7Aおよび図7Bは、図2に示した方法910の他の実施例における時間動きベクトル(temporal motion vectors)(MVs)および空間動きベクトル(spatial motion vectors)(MVs)を示す図である。理解しやすいように、符号化済みブロックCB,CBUL,CB,およびCBURは図3と同様とする。また、i番目のサブブロックBは特定サブ符号化ユニットSubCU(t)の一例を示している。
図7Aに示した例では、ステップ912で説明した動きベクトル群{v}は、特定サブ符号化ユニットSubCU(t)(例えば図7Aに示したi番目のブロックb)を含む所定サイズのウィンドウに対応する1または複数の時間動きベクトル{vT,k}を含んでいる。図7Bに示す例では、ステップ912で説明した動きベクトル群{v}は、1または複数の空間動きベクトル{vS,k}(例えば図7Bに示した符号化済みブロックCBの空間動きベクトル)を含んでいる。図7Aおよび図7Bの実施例の変形例として、ステップ912で説明した動きベクトル群{v}が、時間動きベクトル{vT,k}および空間動きベクトル{vS,k}の両方を含んでいてもよい。この変形例についての上述した説明と同様の部分については説明を省略する。
図8A〜図8Cは、図2に示した方法910における動きベクトルの取得方法の典型例を示している。理解しやすいように、符号化済みブロックCB,CBUL,CB,およびCBURは図3と同様とする。また、i番目のサブブロックBは特定サブ符号化ユニットSubCU(t)の一例を示している。
図8Aに示した例では、上述した時間動きベクトル{vT,k}は、典型的には他のフレームにおける同じサブ符号化ユニット(例えば図8Aにおけるi番目のブロックbに対応する同じサブブロックT)から得られる時間動きベクトルvT0を含んでいる。したがって、時間動きベクトルvT0は同位置の動きベクトルとみなすことができる。図8Bに示した例では、上述した空間動きベクトル{vS,k}はサブ符号化ユニットA,B,C,D,F,F,およびZの動きベクトルv,v,v,v,v,vF,,およびvの少なくとも一部を含んでいる。
したがって、ステップ914で説明した線形結合は、時間動きベクトルvT0と動きベクトルv,v,v,v,v,v,および/またはvとを含む動きベクトル群{v}で表される上述した重み付け合計(上記式(1)の右辺)であってもよい。例えば、動きベクトル群{vk}が時間動きベクトルvT0と動きベクトルv,v,v,v,v,v,およびvとを含む場合、予測画素値Ψは「Ψ=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),ΨvD),Ψ(v),Ψ(v),Ψ(v),Ψ(vT0))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図8Aおよび図8Bに示した実施例の変形例として、上記予備処理部が、上記複数の他の符号化ユニットの複数の画素値の平均値を上記符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値をステップ914における線形結合とみなしてもよい。この場合、重み付けパラメータ{h(i,x)}に含まれる各重み付けパラメータは互いに等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v,Ψ(vT0)))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図8Cに示したように、上述した時間動きベクトル{vT,k}は、上記時間動きベクトルvT0と、他のフレームにおける同じ位置の近くのサブ符号化ユニット(時間動きベクトルvT0を有するサブブロックTに隣接するサブ符号化ユニット(図8Cに示したサブブロックTUL,T,TUR,T,T,TDL,T,およびTDR))から得られる時間動きベクトルである他の時間動きベクトルvTUL,vTU,vTUR,vTL,vTR,vTDL,vTD,およびvTDRとを含んでいてもよい。また、空間動きベクトル{vS,k}は、図8Bに示したサブ符号化ユニットA,B,C,D,F,F,およびZの動きベクトルv,v,v,v,v,vF,,およびvの少なくとも一部(一部または全部)を含んでいてもよい。
ステップ914で説明した線形結合は、時間動きベクトルvT0,vTUL,vTU,vTUR,vTL,vTR,vTDL,vTD,およびvTDRと、動きベクトルv,v,v,v,v,v,および/またはvとを含む動きベクトル群{v}を用いて表される上述した重み付け合計(上記式(1)の右辺)であってもよい。
例えば、動きベクトル群{v}が時間動きベクトルvT0,vTUL,vTU,vTUR,vTL,vTR,vTDL,vTD,およびvTDRと、動きベクトルv,v,v,v,v,v,およびvとを含む場合、予測画素値Ψは「Ψ=Weighted_Sum(Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(vT0),Ψ(vTUL),Ψ(vTU),Ψ(vTUR),Ψ(vTL),Ψ(vTR),Ψ(vTDL),Ψ(vTD),Ψ(vTDR))」で表される。ここで、「Weighted_Sum」は重み付け合計を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
図8Cに示した実施例の変形例として、上記予備処理部が、上記複数の画素値の平均値を上記特定サブ符号化ユニットの予測画素値として用いるようにしてもよい。すなわち、上記平均値をステップ914における線形結合とみなしてもよい。この場合、重み付けパラメータ{h(i,x)}に含まれる各重み付けパラメータは互いに等しくなる。これにより、予測画素値Ψは「Ψ=Average(Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(v),Ψ(vT0),Ψ(vTUL),Ψ(vTU),Ψ(vTUR),Ψ(vTL),Ψ(vTR),Ψ(vTDL),Ψ(vTD),Ψ(vTDR))」で表される。ここで、「Average」は平均を示している。この変形例についての上述した説明と同様の部分については説明を省略する。
上述した各実施例/変形例の変形例として、上記予備処理部が、複数セットの動きベクトル群(動きベクトル群候補とみなすこともできる)の中から1セットの動きベクトル群を動的に選択し、選択した動きベクトル群を上記動きベクトル群{v}として用いるようにしてもよい。より具体的には、上記予備処理部は、上記複数セットの動きベクトル群の中から1セットの動きベクトル群を動的に選択し、選択した動きベクトル群を明示されるフラグに基づいてステップ912で説明した上記複数の他の符号化済みユニットの動き情報として用い、選択した上記動きベクトルのセットを上記特定サブ符号化ユニットの予測画素値を算出するために用いる。例えば、上記の複数セットの動きベクトル群は、例えば、上述した時間動きベクトル{vT,k}を含む動きベクトル群の第1セットと、上述した空間動きベクトル{vS,k}を含む動きベクトル群の第2セットとを含んでいてもよい。実際上、上記予備処理部は、選択されたセットを動的に示すフラグ(例えば上記の明示されるフラグ)に基づいて多重仮説予測を行う。この変形例についての上述した説明と同様の部分については説明を省略する。
上述した各実施例/変形例の他の変形例として、上記予備処理部が、レート歪み最適化処理(rate-distortion optimization)を用いた動き評価処理(motion estimation)によって符号化ユニットCU(t)の少なくとも1つの動きベクトルを取得するようにしてもよい。例えば、ステップ912において、上記予備処理部は、動き評価処理によって上記特定サブ符号化ユニットSubCU(t)の多重仮説動き補償のための上記複数の動きベクトル群{v}の少なくとも一部を取得する。また、ステップ914において、上記予備処理部は、複数の動きベクトル群{v}に関連するサブ符号化ユニット/符号化ユニットの複数の画素値{Ψ}の線形結合を上記特定サブ符号化ユニットSubCU(t)の予測画素値Ψとして用いる。例えば、特定の予測画素値が位置x(例えば、現在のフレームF(t)の画像平面における2次元ベクトルなどの位置を示すベクトル)を有する予測画素値Ψを含む場合、上記予測画素値ΨはΨ(x)を用いて下記式(6)で表すことができる。
Figure 0005211263
ここで、指数kは、上記セットKの範囲内で変化する値である。また、h(x)は、kに関連する重み付けパラメータを示している。また、vは、動き評価処理において評価対象とする動きベクトルである評価対象動きベクトルを示している。また、h(x)は、評価対象動きベクトルvの符号0に対応する重み付けパラメータである。
上述したレート歪み最適化処理において、上記予備処理部は、歪み指標IDISTを算出する。上記歪み指標IDISTは、典型的には、上記特定サブ符号化ユニットSubCU(t)のもともとの部分画像と、特定サブ符号化ユニットSubCU(t)の評価対象動きベクトルvの取り得るステータス(例えば長さあるいは角度)に関する多重仮説予測の後に再構成された部分画像との差である。例えば、歪み指標IDISTと、関連する動きベクトル差分値MVDとは、下記式(7)によって表すことができる。
Figure 0005211263
ここで、ΨREAL(x)は処理中の現在の画素の実際の画素値である。また、「MVP」は動きベクトルの予測量である。より具体的には、上記式(7)における歪み指標IDISTは下記式(8)のように表すことができる。
Figure 0005211263
上記式(8)において、ΓREAL(x)は評価対象動きベクトルvには依存しないので、装置100の処理速度を向上させるために、予め算出して後からアクセスできるように一時的に記憶させておいてもよい。
上記実施例において、上記予備処理部が、歪み指標IDISTと動きベクトル差分値MVDの符号化に用いられるビットとのラグランジュ関数が最小になる最適ステータスを検出することにより、評価対象動きベクトルvを最適化するようにしてもよい。したがって、上記線形結合を取得した評価対象動きベクトルvで表される重み付け合計(上記式(6)の右辺)とし、上記重み付け合計(上記式(6)の右辺)を上記特定のサブ符号化ユニットSubCU(t)の予測画素値Ψとして用いるようにしてもよい。この変形例についての上述した説明と同様の部分については説明を省略する。
図9は、図2に示した方法910の詳細を示す図であり、予備処理部が可変区画多重仮説予測(variable partition multihypothesis prediction)を行う場合の例を示している。より具体的には、この実施例では、符号化ユニットCU(t)の区画を、少なくとも1つの隣接する符号化ユニットの区画に応じて適切に決定する。理解しやすいように、符号化済みブロックCB,CBUL,CB,およびCBURは図3と同様とする。また、i番目のサブブロックBは特定サブ符号化ユニットSubCU(t)の一例を示している。
この実施例では、ステップ912において、上記予備処理部が、隣接する少なくとも1つの符号化ユニット(例えば符号化済みブロックCB,CBUL,CB,およびCBURのうちの1または複数)の区画に基づいて符号化ユニットCU(t)(例えば処理対象のブロック(図9における「処理対象ブロック」))を複数のサブ符号化ブロック{SubCU(t)}に分割する。例えば、複数のサブ符号化ユニット{SubCU(t)}は、隣接する符号化済みブロック(例えば符号化済みブロックCB,およびCB)の区画に応じたサイズ(より具体的にはそれら隣接する符号化済みブロックのサブブロックに応じたサイズ)を有するサブブロックb11,b12,b13,b21,b22,b23,b31,b32,b33,b41,b42,およびb43を含んでいてもよい。図9の例では、これらの隣接する符号化済みブロックのサブブロックは、処理対象のブロックに隣接しており、異なる陰影で示されている。この実施例についての上述した説明と同様の部分については説明を省略する。
図10は、図2に示した方法910の詳細を示す図であり、予備処理部が、隣接する少なくとも1つの符号化ユニットの内容に応じて混合の重み(例えば上述した重み付けパラメータ{h(i,x)})を適切に決定する。理解しやすいように、符号化済みブロックCB,CBUL,CB,およびCBURは図3と同様とする。また、サブブロックSBは特定サブ符号化ユニットSubCU(t)の一例を示している。
例えば、動きベクトル群{v}は、サブ符号化ユニットA,B,およびCの動きベクトルv,v,およびvを含んでいてもよい。ここで、サブ符号化ユニットAは左側符号化済みユニットCBに属しており、サブ符号化ユニットBおよびCは上側符号化済みユニットCBに属している。重み付け合計(例えば図10に示した例の場合、上述した重み付け合計「Weighted_Sum(Ψ(v),Ψ(v),Ψ(v)」)を生成する際、サブ符号化ユニットBおよびCがテクスチャ(texture)サブ符号化ユニット(例えばテクスチャサブブロック)であり、サブ符号化ユニットAが非テクスチャ(non-texture)サブ符号化ユニット(例えば非テクスチャサブブロック)である場合には、上記予備処理部は、サブ符号化ユニットBおよびCの動きベクトルv,vに関する重み付けパラメータh(i,x),h(i,x)を、それぞれ、サブ符号化ユニットAの動きベクトルvに関する重み付けパラメータh(i,x)よりも大きく設定する。この実施例についての上述した説明と同様の部分については説明を省略する。
・ 図11は、図2に示した方法910の詳細を示す図である。この実施例では、上記予備処理部は、ステップ912において、符号化ユニットCU(t)(例えば処理対象の符号化ユニット)を複数のサブ符号化ユニット{SubCU(t)}に分割し、各サブ符号化ユニットの予測を行う。ただし、上述した動きベクトル{v}などの動き情報を取得するとき、あるいは取得する前に、上記予備処理部が、他のサブ符号化ユニット/符号化ユニットによって後から参照できるように各サブ符号化ユニットの動きベクトル(例えば参照動きベクトル)を選択する。動きベクトルを選択するためのルールは、符号化および復号化の両方に適用できるルールであればよく、任意に決めることができる。例えば、動きベクトルを選択するための予め設定されたルールとして、H.264で規定されている動きベクトル予測(motion vector predictor defined in H.264)を用いてもよい。この方法では、動きベクトルのスケーリング(scaling)、左側ブロックからのパディング(padding)、上側ブロックからのパディング、左側ブロックまたは右側ブロックからのパディングを行う。左側ブロックあるいは上側ブロックからパディングを行うことにより、上記予備処理部は、例えば符合化ユニットCU(t)に隣接する隣接符合化ユニットCUADJ(t)における符合化済みサブ符合化ユニットなどの、他の符合化ユニット(処理対象である符号化ユニットCU(t)とは異なる符合化ユニット)の動きベクトルを用いる1つの動きベクトルを選択する。より具体的には、上記他の符号化ユニット(例えば符号化ユニットCUADJ(t))の上記サブ符号化ユニットは、上記他の符号化ユニット内における最も近接するサブ符号化ユニットであり、上記予備処理部は、上記特定サブ符号化ユニットSubCU(t)の動きベクトルとして上記他の符号化ユニット(例えば符号化ユニットCUADJ(t))内における最も近接するサブ符号化ユニットの動きベクトルを用いる。符号化ユニットあるいはサブ符号化ユニットについて選択された上記動きベクトルは、主に他の符号化ユニットあるいは他のサブ符号化ユニットのための参照動きベクトルとして用いられ、必ずしも動き予測のために用いられる必要はない。
図11は、符号化ユニットCU(t)(例えば処理対象のブロック(図11の「処理対象ブロック」))に関し、上記隣接符号化ユニット{CUADJ(t)}は、左側符号化済みブロックCB、上側符号化済みブロックCB、右上側符号化済みブロックCBUR、および左上側符号化済みブロックCBULのうちの少なくとも一部を含み、これら符号化済みブロックCB,CB,CBUR,およびCBULにおけるサブ符号化ユニットをサブブロックとみなすことができる。
より詳細に説明すると、左側符号化済みブロックCB内の最も右側の列のサブ符号化ユニットの動きベクトルはy,y,y,y,y,y,y,およびyで示されている。同様に、上側符号化済みブロックCB内の最も下側の行のサブ符号化ユニットの動きベクトルはx,x,x,x,x,x,x,およびxで示されている。また、左上側符号化済みブロックCBUL内の最も右下のサブ符号化ユニットの動きベクトルはdで示されている。また、右上側符号化済みブロックCBUR内の最も左下のサブ符号化ユニットの動きベクトルはxで示されている。
この実施例では、上記予備処理部は、複数のサブ符号化ユニット{SubCU(t)}からなる符号化ユニットCU(t)を受信し、当該符号化ユニットCU(t)のデータを解析する。そして、上記予備処理部は、サブ符号化ユニット{SubCU(t)}のうちの特定サブ符号化ユニットSubCU(t)の参照動きベクトルを所定のルールに応じて選択する。上記参照動きベクトルは少なくとも1つの他のサブ符号化ユニットのために用いられ、特定サブ符号化ユニットSubCU(t)の動きベクトルとして用いない。参照動きベクトルを参照することにより、上記予備処理装置は、特定サブ符号化ユニットSubCU(t)の実際の動きベクトルに対する複雑な計算の完了を待つ必要がなくなり、迅速に処理を行うことができる。実際上、上記予備処理装置は、この動きベクトル(すなわち上述した参照動きベクトル)として隣接する符号化ユニットの少なくとも一部の動きベクトルを選択することができる。より具体的には、上記の隣接する符号化ユニットの少なくとも一部として、近接符号化ユニット内における上記特定サブ符号化ユニットに最も近い部分を用いることができる。
例えば、特定サブ符号化ユニットSubCU(t)が処理中のブロック(例えば図11における理対象ブロック)のサブ符号化ブロックにおける、ある列のj番目(jは1〜8の間で変化する値)のサブブロックであるとする。第1の選択ルール(「垂直選択」)では、上記予備処理部は、上側符号化済みブロックCB内の最も近接するサブ符号化ユニットの動きベクトルxを特定サブ符号化ユニットSubCU(t)の参照動きベクトルとして用いる。
他の例では、特定サブ符号化ユニットSubCU(t)が処理中のブロック(例えば図11における理対象ブロック)のサブ符号化ブロックにおける、ある行のj番目(jは1〜8の間で変化する値)のサブブロックであるとする。第2の選択ルール(「水平選択」)では、上記予備処理部は、左側符号化済みブロックCB内の最も近接するサブ符号化ユニットの動きベクトルyを特定サブ符号化ユニットSubCU(t)の参照動きベクトルとして用いる。
他の例では、参照動きベクトルを決定するための方法として第3の選択ルール(「ハイブリッド選択」)を用いる。特定サブ符号化ユニットSubCU(t)が処理中のブロック(例えば図11における理対象ブロック)のサブ符号化ブロックにおける4番目/8番目の列のj番目(jは1〜8の間で変化する値)のサブブロックを示すものとする。図11において4番目/8番目の行のj番目のサブブロックへの矢印で示したように、上記予備処理部は、上側符号化済みブロックCB内の最も近接するサブ符号化ユニットの動きベクトルxを特定サブ符号化ユニットSubCU(t)の参照動きベクトルとして用いる。また、特定サブ符号化ユニットSubCU(t)が処理中のブロック(例えば図11における理対象ブロック)のサブ符号化ブロックにおける4番目/8番目の列のj番目(jは4を除く1〜7の間で変化する値)のサブブロックを示すものとする。図11において4番目/8番目の列のj番目のサブブロックへの矢印で示したように、上記予備処理部は、左側符号化済みブロックCB内の最も近接するサブ符号化ユニットの動きベクトルyを特定サブ符号化ユニットSubCU(t)の参照動きベクトルとして用いる。この実施例では、符号化ユニットCU(t)内の残りのサブ符号化ユニットの参照動きベクトルを上述した実施例/変形例と同じまたは同様の方法で得ることができる。この実施例についての上述した説明と同様の部分については説明を省略する。
なお、上述した実施例および変形例において、上記予備処理部は、フラグ(明示されたフラグ)を用いることにより上述した処理を制御する。例えば、上記した実施例のいずれかにおける符号化部は、「垂直選択」および「垂直選択」(あるいは、これらに加えて「ハイブリッド選択」)のうちのいずれの選択ルールを適用するかを示すフラグを出力する。これにより、対応する復号化部は、上記フラグを含むビットストリームを受信することにより、適用すべき選択ルールを知ることができる。
また、上述した実施例において、様々な動きベクトルの選択方法(例えば、「垂直選択」、「水平選択」、「ハイブリッド選択」)を局所的な動きベクトルを得るために用いることができる。例えば、「垂直選択」が選択されている場合、サブ符号化ユニットの各行の動きベクトルは、それぞれ、上側符号化済みブロックCB内の対応する位置(例えば上側符号化済みブロックCBにおける最も近接するサブ符号化ユニット)から得ることができる。
本発明の方法および装置によれば、局所的多重仮説予測を適切に行うことができる。より具体的には、処理対象の符号化ユニットにおけるサブ符号化ユニットの多重仮説動き補償を容易に行うことができる。また、本発明の方法および装置を用いることにより、動きベクトル予測および多重仮説動き補償の両方を、符号化効率の低下などの技術的問題を生じさせることなく行うことができる。
本発明の開示内容に対して様々な変形および改良を行ってもよいことは当業者であれば容易に理解できるであろう。したがって、上述した開示の範囲は請求項の記載によってのみ制限されると解釈されるべきである。
本発明の一実施例にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行う装置を示す図である。 図1Aに示した装置に備えられるインター/イントラ予測部を示す図である。 図1Bに示した多重仮説インター予測回路の多重仮説動き補償処理を示す図である。 本発明の一実施例にかかる、符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法のフローチャートである。 図2に示した方法における符号化済みブロックの例を示す図である。 図2に示した方法において行われる処理の詳細を示す図である。 図2に示した方法において行われる多重仮説予測の詳細を示す図である。 図2に示した方法において行われる多重仮説予測の詳細を示す図である。 図2に示した方法において行われる多重仮説予測の詳細を示す図である。 図2に示した方法において行われる多重仮説予測の詳細を示す図である。 図2に示した方法において行われる動き情報の取得処理を示す図である。 図2に示した方法において行われる動き情報の取得処理を示す図である。 図2に示した方法における、時間動きベクトルMVsおよび空間動きベクトルMVsを示す図である。 図2に示した方法における、時間動きベクトルMVsおよび空間動きベクトルMVsを示す図である。 図2に示した方法において行われる動きベクトルの取得処理を示す図である。 図2に示した方法において行われる動きベクトルの取得処理を示す図である。 図2に示した方法において行われる動きベクトルの取得処理を示す図である。 図2に示した方法において行われる処理を示す図である。 図2に示した方法において行われる処理を示す図である。 図2に示した方法において行われる処理を示す図である。

Claims (16)

  1. 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法であって、
    上記符号化ユニットを複数のサブ符号化ユニットに分割する分割工程と、
    上記各サブ符号化ユニットを処理する処理工程とを含み、
    上記処理工程は、
    上記サブ符号化ユニットのうちの特定のサブ符号化ユニットの多重仮説動き補正のために符号化済みユニットの第1セットの動き情報を取得する取得工程と、
    符号化済みユニットの上記第1セットの動き情報から得られる複数の画素値の線形結合を上記特定のサブ符号化ユニットの予測画素値として用いる利用工程と、
    符号化済みユニットの上記第1セットに含まれない少なくとも1つの符号化済みユニットを含む符号化済みユニットの第2セットの動き情報を用いて、上記符号化ユニットにおける他のサブ符号化ユニットの予測画素値を算出する算出工程とを含み、
    上記処理工程において、複数セットの動きベクトルから1セットの動きベクトルを符号化済みユニットの上記第1セットの動き情報として動的に選択し、選択した上記動きベクトルのセットを用いて上記特定のサブ符号化ユニットの上記予測画素値を取得することを特徴とする方法。
  2. 上記利用工程において、上記複数の画素値の重み付け合計を上記特定のサブ符号化ユニットの予測画素値として用いることを特徴とする請求項1に記載の方法。
  3. 上記利用工程において、現在の画素の実際の画素値に対応する複数の画素値に最適化ウィーナーフィルタリング処理を行うことにより上記複数の画素についての重み付けパラメータを調整して上記重み付け合計を生成することを特徴とする請求項2に記載の方法。
  4. 符号化済みユニットの上記第1セットの動き情報は、動きベクトル、参照フレームインデックス、および予測方向のうちのいずれか1つ、または2つ以上の組み合わせを少なくとも含むことを特徴とする請求項1に記載の方法。
  5. 符号化済みユニットの上記第1セットの動き情報は、単一のサブ符号化ユニットまたは単一の符号化ユニットから得られる複数の動きベクトルを含むことを特徴とする請求項に記載の方法。
  6. 上記処理工程は、少なくとも1つの動きベクトルの極端な値を廃棄し、複数の動きベクトルのうちの残りの部分を符号化済みユニットの上記第1セットの動き情報として選択する選別工程を含むことを特徴とする請求項1に記載の方法。
  7. 上記複数セットの動きベクトルは、時間的な動きベクトルからなる第1セットの動きベクトルと、空間的な動きベクトルからなる第2セットの動きベクトルとを含むことを特徴とする請求項に記載の方法。
  8. 上記処理工程において、複数セットの動きベクトルから1セットの動きベクトルを動的に選択し、明示されるフラグに基づいて、選択した動きベクトルのセットを符号化済みユニットの上記第1セットの上記動き情報として用いることを特徴とする請求項1に記載の方法。
  9. 上記分割工程において、上記特定のサブ符号化ユニットのサイズを、上記符号化ユニットの映像符号化に関する変換サイズに設定することを特徴とする請求項1に記載の方法。
  10. 上記分割工程において、少なくとも1つの隣接する符号化ユニットの少なくとも1つのモードに基づいて上記符号化ユニットを複数のサブ符号化ユニットに分割することを特徴とする請求項1に記載の方法。
  11. 上記分割工程において、少なくとも1つの隣接する符号化ユニットの内容または分割部分に基づいて上記符号化ユニットを複数のサブ符号化ユニットに分割することを特徴とする請求項1に記載の方法。
  12. 上記符号化ユニットは、少なくとも1つの空間的に符号化されたサブ符号化ユニットまたは符号化ユニット、および/または、少なくとも1つの時間的に符号化されたサブ符号化ユニットまたは符号化ユニットを含むことを特徴とする請求項1に記載の方法。
  13. 上記処理工程は、上記特定のサブ符号化ユニットの予測画素値を得るために、レート歪み最適化処理を用いた動き評価処理によって上記符号化ユニットの少なくとも1つの動きベクトルを取得する工程を含むことを特徴とする請求項1に記載の方法。
  14. 上記処理工程において、上記動き情報を取得するときに、各サブ符号化ユニットについての参照動きベクトルを指定することを特徴とする請求項1に記載の方法。
  15. 他の符号化ユニットにおけるサブ符号化ユニットの動きベクトルを用いている上記参照動きベクトルを指定することを特徴とする請求項14に記載の方法。
  16. 符号化ユニットの映像符号化時に局所的な多重仮説予測を行う装置であって、
    上記符号化ユニットに映像符号化を行う処理回路を備え、
    上記処理回路は、
    上記符号化ユニットを複数のサブ符号化ユニットに分割し、複数の上記サブ符号化ユニットのうちの特定のサブ符号化ユニットに多重仮説動き補正処理を行うために符号化済みユニットの第1セットの動き情報を取得し、上記動き情報に応じて上記特定のサブ符号化ユニットに多重仮説動き補正を施し、符号化済みユニットの上記第1セットの動き情報から得られる複数の画素値の線形結合を上記特定のサブ符号化ユニットの予測画素値として用いる処理を各サブ符号化ユニットに対して行う予備処理部と、
    上記予備処理部によって実行された上記多重仮説動き補正に基づいて上記符号化ユニットの映像符号化を行う少なくとも1つの符号化部とを備え、
    上記予備処理部は、符号化済みユニットの上記第1セットには含まれない符号化ユニットを少なくとも1つ含む符号化済みユニットの第2セットの動き情報を用いて上記符号化ユニットにおける他のサブ符号化ユニットの予測画素値を算出し、
    上記処理回路は、複数セットの動きベクトルから1セットの動きベクトルを符号化済みユニットの上記第1セットの動き情報として動的に選択し、選択した上記動きベクトルのセットを用いて上記特定のサブ符号化ユニットの上記予測画素値を取得することを特徴とする装置。

JP2012510110A 2010-04-14 2011-04-14 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置 Active JP5211263B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US32394810P 2010-04-14 2010-04-14
US61/323,948 2010-04-14
US13/080,668 2011-04-06
US13/080,668 US8879620B2 (en) 2010-04-14 2011-04-06 Method for performing localized multihypothesis prediction during video coding of a coding unit, and associated apparatus
PCT/CN2011/072783 WO2011127828A1 (en) 2010-04-14 2011-04-14 Method for performing localized multihypothesis prediction during video coding of a coding unit, and associated apparatus

Publications (2)

Publication Number Publication Date
JP2012513179A JP2012513179A (ja) 2012-06-07
JP5211263B2 true JP5211263B2 (ja) 2013-06-12

Family

ID=44788180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012510110A Active JP5211263B2 (ja) 2010-04-14 2011-04-14 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置

Country Status (11)

Country Link
US (3) US8837592B2 (ja)
EP (2) EP3220646A1 (ja)
JP (1) JP5211263B2 (ja)
KR (1) KR101452921B1 (ja)
CN (5) CN107071472A (ja)
AU (1) AU2011240486B2 (ja)
BR (1) BR112012025275B8 (ja)
IL (2) IL222337A (ja)
RU (1) RU2530318C2 (ja)
TW (4) TWI469645B (ja)
WO (1) WO2011127828A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9118929B2 (en) 2010-04-14 2015-08-25 Mediatek Inc. Method for performing hybrid multihypothesis prediction during video coding of a coding unit, and associated apparatus
US8971400B2 (en) * 2010-04-14 2015-03-03 Mediatek Inc. Method for performing hybrid multihypothesis prediction during video coding of a coding unit, and associated apparatus
WO2012081895A1 (ko) * 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
KR102086145B1 (ko) * 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
KR101831311B1 (ko) 2010-12-31 2018-02-23 한국전자통신연구원 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR101547041B1 (ko) 2011-01-12 2015-08-24 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법
US9769472B2 (en) * 2011-08-17 2017-09-19 Mediatek Singapore Pte. Ltd. Method and apparatus for Intra prediction using non-square blocks
US9736489B2 (en) * 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
US9386305B2 (en) * 2011-11-28 2016-07-05 Qualcomm Incorporated Largest coding unit (LCU) or partition-based syntax for adaptive loop filter and sample adaptive offset in video coding
WO2013095616A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Apparatus and method for selecting elements of a vector computation
WO2013107028A1 (en) * 2012-01-19 2013-07-25 Mediatek Singapore Pte. Ltd. Methods and apparatuses of amvp simplification
KR102030205B1 (ko) 2012-01-20 2019-10-08 선 페이턴트 트러스트 시간 움직임 벡터 예측을 사용하여 비디오를 부호화 및 복호하는 방법 및 장치
CN107396101B (zh) 2012-02-03 2019-12-20 太阳专利托管公司 图像编码方法及图像编码装置
CA2866121C (en) 2012-03-06 2018-04-24 Panasonic Intellectual Property Corporation Of America Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US11032568B2 (en) * 2013-11-27 2021-06-08 Hfi Innovation Inc. Method of video coding using prediction based on intra picture block copy
CN111193929B (zh) * 2013-12-16 2022-04-12 浙江大学 一种前向双假设编码图像块的编解码方法和装置
KR101789954B1 (ko) * 2013-12-27 2017-10-25 인텔 코포레이션 차세대 비디오 코딩을 위한 콘텐츠 적응적 이득 보상된 예측
JP6482191B2 (ja) 2014-06-12 2019-03-13 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
GB2531001B (en) 2014-10-06 2019-06-05 Canon Kk Method and apparatus for vector encoding in video coding and decoding
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
TWI610558B (zh) * 2016-05-26 2018-01-01 晨星半導體股份有限公司 位元分配方法及視訊編碼裝置
WO2018097692A2 (ko) * 2016-11-28 2018-05-31 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018128345A2 (ko) * 2017-01-04 2018-07-12 삼성전자 주식회사 복호화 방법 및 그 장치
US20190246114A1 (en) 2018-02-02 2019-08-08 Apple Inc. Techniques of multi-hypothesis motion compensation
US11924440B2 (en) 2018-02-05 2024-03-05 Apple Inc. Techniques of multi-hypothesis motion compensation
US11381834B2 (en) 2018-04-02 2022-07-05 Hfi Innovation Inc. Video processing methods and apparatuses for sub-block motion compensation in video coding systems
US10986343B2 (en) * 2018-04-15 2021-04-20 Arris Enterprises Llc Reducing overhead for multiple-hypothesis temporal prediction
US11343541B2 (en) * 2018-04-30 2022-05-24 Hfi Innovation Inc. Signaling for illumination compensation
WO2019229683A1 (en) * 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
CN110620929B (zh) 2018-06-19 2023-04-18 北京字节跳动网络技术有限公司 没有运动矢量预测截断的选择的运动矢量差精度
WO2020008349A1 (en) * 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Merge index coding
CN110602493B (zh) * 2018-09-19 2022-06-10 北京达佳互联信息技术有限公司 一种仿射运动补偿的交织预测的方法及设备
EP4325859A3 (en) 2018-09-19 2024-05-15 Beijing Bytedance Network Technology Co., Ltd. Syntax reuse for affine mode with adaptive motion vector resolution
CN110944171B (zh) * 2018-09-25 2023-05-09 华为技术有限公司 一种图像预测方法和设备
CN111050164B (zh) * 2018-10-15 2022-05-17 华为技术有限公司 一种编解码的方法和装置
EP3881552A4 (en) * 2018-11-15 2022-07-20 Telefonaktiebolaget Lm Ericsson (Publ) DEBLOCKING ON A VIDEO ENCODER AND/OR VIDEO DECODER
CN113597760A (zh) 2019-01-02 2021-11-02 北京字节跳动网络技术有限公司 视频处理的方法
CN113412623A (zh) 2019-01-31 2021-09-17 北京字节跳动网络技术有限公司 记录仿射模式自适应运动矢量分辨率的上下文
EP3918804A4 (en) 2019-03-14 2023-02-08 HFI Innovation Inc. METHODS AND APPARATUS FOR VIDEO PROCESSING USING MOTION DECOMPOSITION AND SUB-PARTITION BASE FILLING
CN110852500B (zh) * 2019-11-01 2023-04-07 聊城大学 一种资源受限混合流水车间优化方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231751B (en) 1989-04-27 1993-09-22 Sony Corp Motion dependent video signal processing
EP0421526B1 (en) 1989-10-06 1996-07-31 Koninklijke Philips Electronics N.V. Adaptive ghost cancellation circuit
US5134475A (en) 1990-12-11 1992-07-28 At&T Bell Laboratories Adaptive leak hdtv encoder
KR970002964B1 (ko) 1993-12-24 1997-03-13 대우전자 주식회사 영상신호의 시간축 내삽필터
EP1274252A3 (en) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
WO1997046020A2 (en) 1996-05-24 1997-12-04 Philips Electronics N.V. Motion vector processing
JP3633159B2 (ja) * 1996-12-18 2005-03-30 ソニー株式会社 動画像信号符号化方法及び装置、並びに動画像信号伝送方法
US6807231B1 (en) * 1997-09-12 2004-10-19 8×8, Inc. Multi-hypothesis motion-compensated video image predictor
US6532265B1 (en) 1999-03-25 2003-03-11 Imec Vzw Method and system for video compression
JP2000299864A (ja) * 1999-04-12 2000-10-24 Canon Inc 動画像処理方法
US6633677B1 (en) 1999-12-30 2003-10-14 Stmicroelectronics, Inc. Method and apparatus for processing an image in an image compression/decompression system that uses hierachical coding
US6438168B2 (en) 2000-06-27 2002-08-20 Bamboo Media Casting, Inc. Bandwidth scaling of a compressed video stream
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US20040141555A1 (en) * 2003-01-16 2004-07-22 Rault Patrick M. Method of motion vector prediction and system thereof
US7184602B2 (en) * 2003-05-02 2007-02-27 Microsoft Corp. System and method for low bandwidth video streaming for face-to-face teleconferencing
HUP0301368A3 (en) * 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
ES2343410T3 (es) 2003-06-25 2010-07-30 Thomson Licensing Codificacion intertramas con decision rapida de modo.
KR101050828B1 (ko) * 2003-08-26 2011-07-21 톰슨 라이센싱 하이브리드 인트라-인터 코딩된 블록을 디코딩하기 위한 방법 및 장치
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
JP3880985B2 (ja) * 2004-08-05 2007-02-14 松下電器産業株式会社 動きベクトル検出装置および動きベクトル検出方法
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
RU2368095C1 (ru) * 2005-07-22 2009-09-20 Мицубиси Электрик Корпорейшн Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения
JP2007142521A (ja) 2005-11-15 2007-06-07 Sharp Corp 動きベクトル算出装置および動きベクトル算出方法
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
CN101222627A (zh) * 2007-01-09 2008-07-16 华为技术有限公司 一种多视点视频编解码系统以及预测向量的方法和装置
KR101366241B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상 부호화, 복호화 방법 및 장치
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
JP4786612B2 (ja) * 2007-08-14 2011-10-05 Kddi株式会社 動画像符号化装置の予測動きベクトル生成装置
US8000411B2 (en) * 2008-01-04 2011-08-16 Qualcomm Incorporated Decoding scheme using multiple hypotheses about transmitted messages
JP4990927B2 (ja) 2008-03-28 2012-08-01 三星電子株式会社 動きベクトル情報の符号化/復号化方法及び装置
US8195001B2 (en) 2008-04-09 2012-06-05 Intel Corporation In-loop adaptive wiener filter for video coding and decoding
WO2009126260A1 (en) 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
US8908763B2 (en) * 2008-06-25 2014-12-09 Qualcomm Incorporated Fragmented reference in temporal compression for video coding
CN102160384A (zh) 2008-09-24 2011-08-17 索尼公司 图像处理设备和方法
US8634457B2 (en) * 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
JP4957780B2 (ja) 2009-11-20 2012-06-20 カシオ計算機株式会社 動き補償予測符号化装置、動き補償予測符号化方法及びプログラム

Also Published As

Publication number Publication date
AU2011240486A1 (en) 2012-10-11
BR112012025275B8 (pt) 2021-08-24
US8879620B2 (en) 2014-11-04
EP2559250B1 (en) 2020-07-08
KR20120126115A (ko) 2012-11-20
IL222337A0 (en) 2012-12-31
TW201218776A (en) 2012-05-01
IL245480B (en) 2018-01-31
BR112012025275B1 (pt) 2021-08-03
US8837592B2 (en) 2014-09-16
AU2011240486B2 (en) 2014-02-13
CN105791858A (zh) 2016-07-20
EP2559250A1 (en) 2013-02-20
CN107071472A (zh) 2017-08-18
WO2011127828A1 (en) 2011-10-20
IL245480A0 (en) 2016-06-30
US8891608B2 (en) 2014-11-18
CN102907095A (zh) 2013-01-30
CN102907095B (zh) 2016-10-12
TWI520586B (zh) 2016-02-01
CN102223542A (zh) 2011-10-19
TWI469645B (zh) 2015-01-11
TW201511524A (zh) 2015-03-16
BR112012025275A2 (pt) 2016-06-21
CN105872558B (zh) 2019-06-07
KR101452921B1 (ko) 2014-10-23
EP2559250A4 (en) 2016-01-06
RU2012141233A (ru) 2014-06-10
EP3220646A1 (en) 2017-09-20
US20120027097A1 (en) 2012-02-02
JP2012513179A (ja) 2012-06-07
TW201511525A (zh) 2015-03-16
CN105872558A (zh) 2016-08-17
CN105791858B (zh) 2019-11-15
TWI445411B (zh) 2014-07-11
TWI514855B (zh) 2015-12-21
TW201143462A (en) 2011-12-01
US20110255600A1 (en) 2011-10-20
IL222337A (en) 2016-05-31
RU2530318C2 (ru) 2014-10-10
US20110255598A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5211263B2 (ja) 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置
EP3632104B1 (en) Motion vector refinement for multi-reference prediction
CN111937391B (zh) 用于视频编解码系统中的子块运动补偿的视频处理方法和装置
WO2018127188A1 (en) Multi-hypotheses merge mode
CN107979759B (zh) 选择运动矢量预测值的方法和使用其的设备
JP5490823B2 (ja) 画像の系列を表すストリームを復号化する方法、画像の系列を符号化する方法及び符号化データ構造
JP5277257B2 (ja) 動画像復号化方法および動画像符号化方法
TW201944781A (zh) 視訊編解碼系統中具有重疊塊運動補償的視訊處理的方法以及裝置
EP2699001B1 (en) A method and a system for video signal encoding and decoding with motion estimation
EP2323402A1 (en) Improved video coding methods and apparatuses
WO2020098803A1 (en) Harmonization between affine mode and other inter coding tools
JP2020526112A (ja) 動きベクトルの改良のための探索領域
CN113302917A (zh) 局部照明补偿的改进方法
US20090028241A1 (en) Device and method of coding moving image and device and method of decoding moving image
WO2017010073A1 (ja) 動画像符号化装置、動画像符号化方法および動画像符号化プログラムを記憶する記録媒体
CN110557639B (zh) 交织预测的应用
US20230388484A1 (en) Method and apparatus for asymmetric blending of predictions of partitioned pictures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5211263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250