JP7126329B2 - パーティション符号化を用いた有効な予測 - Google Patents
パーティション符号化を用いた有効な予測 Download PDFInfo
- Publication number
- JP7126329B2 JP7126329B2 JP2020178470A JP2020178470A JP7126329B2 JP 7126329 B2 JP7126329 B2 JP 7126329B2 JP 2020178470 A JP2020178470 A JP 2020178470A JP 2020178470 A JP2020178470 A JP 2020178470A JP 7126329 B2 JP7126329 B2 JP 7126329B2
- Authority
- JP
- Japan
- Prior art keywords
- wedgelet
- block
- decoder
- patterns
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Description
ブロックベースのハイブリッド映像符号化において、例えば、図1~3に示されるように、フレームは、矩形ブロックにおいて再分割される。しばしば、これらのブロックは正方形であり、そして、各ブロックのための処理は、同じ機能的構造に従う。このセクションの大部分の実施例は正方形のブロックを使用するけれども、ウェッジレットブロックパーティションおよびすべての関連した方法は、正方形のブロックに限られているというわけではなく、如何なる矩形のブロックサイズに対してもむしろ可能である点に留意されたい。
ウェッジレットブロックパーティションの基本的な原則は、図4において例示されるように、線分201によって分離されるようにブロック200の領域を2つの領域202a,202bに分割することである。ここで、2つの領域は、P1およびP2を示すラベルがつけられる。分離線分は、開始点Sおよび終了点Eによって決定され、いずれもブロックの境界上に設置される。時々、以下において、領域P1は、ウェッジレットパーティション202aと呼ばれ、一方、領域P2は、ウェッジレットパーティション202bと呼ばれる。
符号化処理におけるウェッジレットブロックパーティションを使用するために、パーティション情報は、パーティションパターンの形式で格納されうる。この種のパターンは、サイズのアレイuB×vBからなり、そして、一致しているサンプルが領域P1またはP2に帰属するかどうか、各要素は、バイナリ情報を含む。図6は、例えば、異なるブロックサイズのウェッジレットパーティションパターンを示す。ここで、バイナリ領域情報、すなわち、2つのセグメンテーションは、サンプル203を黒または白によって表される。
ウェッジレットをともなって1ブロックの奥行き信号のモデリングのために、必要情報は、概念的に2つの要素からなる。例えば、パーティションパターンの形式において、一方は、パーティション情報(セクション1.1を参照)であり、そして、それは、2つの領域(セクション1.2を参照)の1つに各サンプル203を割り当てる。必要な他の情報要素は、領域のサンプルに割り当てられる値である。2つのウェッジレット領域の各々の値は、定数として定義されうる。これは、いくつかの以下において概説される実施例である。このように、この値は、固定パーティション値(CPV)として参照する。その場合、第2の情報要素は、指定された領域のための2つの代表的なサンプルを構成する。
1.4.1 ウェッジレットパターンリスト
ウェッジレットブロックパーティションの効率的な処理および信号の伝送の目的のために、パーティションパターンは、ルックアップ・リストにおいて体系化されうる。ウェッジレットパターンリストは、領域の分離線分のための開始点の位置および終了点の位置のすべての可能な組み合わせに対するパターンを含み、または、全ての可能な組み合わせの適切なサブセットを含む。このように、1つのルックアップ・リストは、各予測ブロックサイズに対して生成されうる。特定のブロックサイズのリストの範囲内における特定のパターンの位置またはインデックスに依存しているエンコーダおよびデコーダ(詳細はセクション3を参照)の間における信号伝送することを可能にするために、同一のリストが、エンコーダおよびデコーダにおいて利用可能にされうる。これは、パターンの定義済みセットを含むことによっても、エンコーダおよびデコーダの初期設定の一部として、同一の生成アルゴリズムを実行することによっても実装されうる。
上述したルックアップ・リストに基づいて、ウェッジレットパーティションによるブロック信号の最良近似は、サーチアルゴリズムによって発見されうる。ウェッジレットベースの符号化アルゴリズムのために、最良近似は、最小の歪みをもたらすウェッジレットモデルとして理解されうる。換言すれば、サーチは、所与のブロックに対するウェッジレットパーティションパターンの最良の一致を発見しようとする。サーチは、導出されるパターン・リストを利用する。そして、それは、所与のブロックサイズ(詳細についてセクション1.4.1を参照)のためのすべての可能なウェッジレットパーティションパターンを含む。パターンは、再度生成することを必要としない場合、最小の歪みウェッジレットサーチが実行されるたびに、これらのリストは、サーチの処理時間を制限することを助ける。各サーチステップは、次のステップから構成されうる:
・ 元のブロック信号とウェッジレットモデルとの間の歪みDW,curの算出。
・ DW,cur>DW,minの評価:真の場合、最小の歪みのウェッジレット情報を更新し、DW,min=DW,curを設定することによって、現在のパーティションパターンのリストインデックスを格納する。
このセクションにおいて、大部分の実施例は正方形ブロックを使用するけれども、輪郭ブロックパーティションおよびすべての関連した実施例が、正方形ブロックに限られるというわけではなく、いかなる矩形のブロックサイズにとってもむしろ可能である点に留意されたい。
輪郭ブロックパーティションの基本的な原則は、ブロック200のエリアを2つの領域202a,202bに分割することである。ウェッジレットブロックパーティションとは異なり、領域の間の分離線分201は、幾何学の定式化によって記載されえない。図9において、P1およびP2を示すラベルがつけられた2つの領域によって例示されるように、輪郭の領域が任意の形状でありえ、それらは接続されることさえ必要としない。
ウェッジレットパーティションパターンの一致において(セクション1.2を参照)、輪郭ブロックパーティション情報は、パーティションパターンの形で、格納されうる。そのようなパターンは、サイズuB×vBのアレイを構成し、各要素は、一致しているサンプルが領域P1またはP2のいずれかに属するかのバイナリ情報を含む。図10は、黒色または白色のサンプル色彩によってバイナリ領域情報を表す輪郭パーティションパターンの例を示す。
輪郭によって有するブロックの奥行き信号に近似する原則は、セクション1.3において記載されたウェッジレットの概念と同一である。また、必須の情報は、2つの要素パーティション情報およびパーティションフィリング指示から構成され、そして、それは、対応する領域の元の深さ信号の平均値として算出され、各2つの領域に対して、順に1つの固定パーティション値(CPV)を含みうる。
例えば、図1~3の符号化環境のような、多視点映像および奥行き(MVD)のための符号化フレームワークの範囲内で、以前のセクションに記載された方法およびアルゴリズムを使用するために、新規な符号化ルーチンまたはモードが定義されるべきであり、そして、必要なツールは、エンコーダおよびデコーダにおいて実装されるべきである。
このセクションは、ウェッジレットブロックパーティション(セクション1を参照)に基づいて、2つのイントラ符号化モードを提示する。両方のモードは、デルタCPV法(セクション3.3.2を参照)と結合されうる。
このモードの基本的な原則は、エンコーダでベストマッチしているウェッジレットパーティションを見つけて、ビットストリーム中にパーティション情報を明確に送信することである。デコーダにおいて、ブロックの信号は、明確に送信されたパーティション情報を使用して再構成される。従って、このモードのための主なツールは、評価および信号伝送の一部である。
このモードの基本的な原則は、同じ画像、すなわちイントラ予測における以前に符号化されたブロックが利用できる情報から、ウェッジレットパーティションを予測することである。より良好な近似のために、例えば、線分の終了位置を変化させることなどにより、予測されたパーティションは、例えば、エンコーダでリファインされる。ビットストリーム中の線分の終了位置へのオフセットの唯一の伝送は、十分であり得る、そして、デコーダで、ブロックの信号は、予測されたパーティションおよびオフセットなどの送信されたリファイン情報を結合することから生じるパーティション情報を使用して再構成されうる。従って、このモードのための主なツールは、予測、評価および信号伝送の一部である。
dmm_delta_end_abs_minus1およびdmm_delta_end_sign_flagは、DmmDeltaEnd、すなわち、Eoffを導出するために用いることができる。そして、以下の通りである:
DmmDeltaEnd[ x0 ][ y0 ] = ( 1 - 2 *dmm_delta_end_sign_flag[ x0 ][ y0 ] ) *
( dmm_delta_end_abs_minus1[ x0 ][ y0 ] + 1)
このセクションは、テクスチャからパーティション情報を予測することに基づいて、2つの符号化モードを提示する。両方のモードは、デルタCPV法(セクション3.3.2を参照)と結合されうる。テクスチャ情報(すなわち従来のビデオ画像)は、関連する奥行きマップの前に送信されると仮定される。
このモードの基本的な原則は、テクスチャ参照ブロック216から奥行きマップ213の深さブロック210のウェッジレットパーティションを予測することである。これは、図13にて示したように、再構成されたテクスチャ画像のためにベストマッチしているウェッジレットパーティションを検索することにより実現される。この目的のために、参照として、最小限の歪ウェッジレット検索は、セクション1.4.2において説明したように、奥行きブロック210として再構成されたテクスチャ信号215、より詳しくは同じ位置およびサイズを有する輝度ブロック216を参照として使用して実行される。結果として生じるウェッジレットパーティションパターン218は、奥行きブロックの予測220のために使用される。図13において、これは上側のボックスにより強調される、そして、示された実施例のために、予測されたウェッジレットパーティション(中央の)は、奥行きブロック210に非常によく接近する。記載されているウェッジレット予測は、エンコーダおよびデコーダで同時に実行されうることので、パーティション情報の信号伝送は、このモードのために必要とされない。
このモードの基本的な原則は、テクスチャ参照ブロックから奥行きブロックの輪郭パーティションを予測することである。図10に示したように、これは、再構成されたテクスチャ画像215のための輪郭パーティション218’を導出することにより実現される。この目的のために、輪郭近似は、再構成されたテクスチャ信号215、より詳しくは奥行きブロック210として同じ位置およびサイズを有する輝度ブロック216を参照として使用して実行される。この種の輪郭予測が、エンコーダおよびデコーダで同時に実行されうるので、パーティション情報の信号伝送は、このモードのために必要とされない。
閾値tHは、以下として導出される:
tH=sumDC/(nT*nT),ただし、sumDC+=videoLumaSamples[x,y]for x,y=0..nT-1
パターン値は、以下のように設定される:
videoLumaSamples[x,y]がtHより大きい場合、以下を適用する:
dmmWedgeletPattern[x,y]=1
さもなければ、以下を適用する:
dmmWedgeletPattern[x,y]=0
CPV符号化のための概念が、このセクションにおいて提供される。両方のパーティションタイプとして、ウェッジレットおよび輪郭、が、定義により一定値を持つ2つのパーティション領域を有するので、それらはブロックパーティション情報(セクション3.1および3.2を参照)を予測するかまたは推定するための全ての4つのモードに同じく適用されうる。従って、CPV処理は、パーティションタイプまたは符号化モードを区別することを必要とせず、パーティションパターンが現行の奥行きブロックに与えられるとむしろ仮定する。
CPV予測のより良好な理解のために、3種類のCPV、元のCPV、予測されたCPVおよびデルタCPV、が区別される。それらの関係は、ブロック(図14,左の点線230)の断面のための図14,右側において略図で例示される。ここで、線分232は、線分230に沿ったブロック200の元の信号を表す。セクション1.3および2.3の説明によれば、元のCPV(図14,右側の線分234および236)は、それぞれ、対応する領域P1およびP2によりカバーされる信号の平均値として算出される。
For x = 0..nT-1 the above neighbouring samples are summed up as:
- If dmmWedgeletPattern[ x, 0 ] is equal to 1 (partition P1, for instance), the following applies:
sumPredDC2 += p[ x, -1 ] and numSamplesPredDC2 += 1
- Otherwise (partition P2, for instance), the following applies:
sumPredDC1 += p[ x, -1 ] and numSamplesPredDC1 += 1
For y = 0..nT-1 the left neighbouring samples are summed up as:
- If dmmWedgeletPattern[ 0, y ] is equal to 1, the following applies:
sumPredDC2 += p[ -1, y ] and numSamplesPredDC2 += 1
- Otherwise, the following applies:
sumPredDC1 += p[ -1, y ] and numSamplesPredDC1 += 1
The predicted constant partition values are derived as follows.
- If numSamplesPredDC1 is equal to 0, the following applies:
dmmPredPartitionDC1 = 1 << ( BitDepthY - 1 )
- Otherwise, the following applies:
dmmPredPartitionDC1 = sumPredDC1 / numSamplesPredDC1
- If numSamplesPredDC2 is equal to 0, the following applies:
dmmPredPartitionDC2 = 1 << ( BitDepthY ? 1 )
- Otherwise, the following applies:
dmmPredPartitionDC2 = sumPredDC2 / numSamplesPredDC2
CPV予測の原則に基づいて、デルタCPVの効率的な処理のための概念は、このセクションにおいて紹介される。ビットストリームのデルタCPVを送信することは、ブロックパーティション符号化のための再構成された信号の歪を減少する目的を果たす。しかしながら、元のおよび予測された信号の相違が視差の変換符号化によってもカバーされるので、デルタCPV値を信号伝送するために必要なビットレートは、この方法の利益を定める。従って、デルタCPVの量子化は、以下の通りに導入することができる:値は、エンコーダで評価された後、線形に量子化され、デコーダで再構成の前に逆量子化される。量子化されたデルタCPVを送信することは、ビットレートが減少する効果がある一方で、逆量子化された値から再構成された信号は、最高の近似値と僅かに異なるだけである。結論的には、これは、量子化なしのケースと比較して、低いレート-歪コストをもたらす。線形量子化のステップサイズに関して、パフォーマンスは、変換符号化、すなわちQPの関数として、かつ、固定値ではないとして、量子化ステップサイズを定めること、から公知の原則を適用することにより更に高めることができる。量子化ステップサイズをqΔCPV=2QP/10ただし1≦qΔCPV≦max(ΔCPV)/2としてデルタCPVに設定することは、効率的かつ強固であることがわかった。
DmmQuantOffsetDC1[ x0 ][ y0 ] = ( 1 ? 2 *dmm_dc_1_sign_flag[ x0 ][ y0 ] ) *
dmm_dc_1_abs[ x0 ][ y0 ]
DmmQuantOffsetDC2[ x0 ][ y0 ] = ( 1 ? 2 *dmm_dc_2_sign_flag[ x0 ][ y0 ] ) *
dmm_dc_2_abs[ x0 ][ y0 ]
dmmOffsetDC1 = DmmQuantOffsetDC1 * Clip3( 1, ( 1 << BitDepthY ) - 1, 2 (QP' Y /10)- 2 )
dmmOffsetDC2 = DmmQuantOffsetDC2 * Clip3( 1, ( 1 << BitDepthY ) - 1, 2 (QP' Y /10)- 2 )
第1のパーティションのために:dmmPredPartitionDC1 + dmmOffsetDC1
第2のパーティションのために:dmmPredPartitionDC2 + dmmOffsetDC2
4.1 モード信号伝送
符号化プロセスにおいて、1つのモードは、レート-歪最適化によるあらゆるブロックのために選択され、そして、モード情報は、ビットストリームにおいて、例えば、パーティションおよびCPV情報の前に信号伝送される。セクション3によれば、以下の4ブロックパーティションモードを、(例えば、不規則でない分割モードに加えて)定義することができる:
・ Wedgelet_PredlIntra:ウェッジレットブロックパーティションのイントラ予測(セクション3.1.2を参照)
・ Wedgelet_PredTexture:ウェッジレットブロックパーティションのテクスチャベース予測(セクション3.2.1を参照)
・ Contor_PredTexture:輪郭ブロックパーティションのテクスチャベース予測(セクション3.2.2を参照)
モードプリセレクションの背後にある発想は、現行ブロックのために選択されそうにないモードを除外する概念を実行することにより、ブロックパーティション符号化(セクション3を参照)のための処理および信号伝送を行う努力を減少することである。
表1:プリセレクション決定によるモード。
いくつかの考えられる不規則性分割モード、一方ではその2つのセグメンテーション決定(3.1および3.2を参照)への概念的再分割および他方では2つのパーティション(3.3を参照)符号化パラメータの符号化のみならず、符号化フレームワークにおけるそれらのあり得る作業およびこの種のモードが付加的に供給することがあり得る符号化環境の説明を記述した後、それぞれのデコーダおよびエンコーダのための結果として生じる実施例は、部分的により一般的な用語で記載されるものとする。特に、以下のセクションは、上記で概説される特定の有利な詳細を強調して、これらの詳細がどのように上述よりも一般的であるという意味でデコーダおよびエンコーダ内で使われうるかについて、上述したよりもより包括的に説明する。特に、下記で概説されるように、上記のモードで使用される有利な態様のいくつかは、個々に利用することができる。
上記の議論から明白になったように、ウェッジレット分割の使用は、一方では分割する旨を信号伝送するための信号伝送オーバーヘッドおよび他方では不規則性分割による達成可能な多様性との間にあり得る妥協を形成する。それにもかかわらず、サイド情報データの著しい量は、パーティション情報、すなわち、ウェッジレット分離線分の位置、例えば、ウェッジレット分離線分の位置のインデックスを使用することにより、例えばセクション3.1.1に関して上記で概説される概念に従って、明確に送信するために必要である。
dmm_delta_end_abs_minus1およびdmm_delta_end_sign_flagは、DmmDeltaEnd、すなわちEoffを導出するのに使用することができる。そして、以下の通りである:
DmmDeltaEnd[ x0 ][ y0 ] = ( 1 - 2 *dmm_delta_end_sign_flag[ x0 ][ y0 ] ) *
( dmm_delta_end_abs_minus1[ x0 ][ y0 ] + 1)
上記に記載されているように、ウェッジレットベースのブロック分割さえ、ウェッジレット分離線分の位置についてデコーダ側に知らせるために、サイド情報の著しい量を必要とする。
dmm_delta_end_abs_minus1およびdmm_delta_end_sign_flagは、DmmDeltaEnd、すなわち、Eoffを導出するのに使用することができる。そして、以下の通りである:
DmmDeltaEnd[ x0 ][ y0 ] = ( 1 - 2 *dmm_delta_end_sign_flag[ x0 ][ y0 ] ) *
( dmm_delta_end_abs_minus1[ x0 ][ y0 ] + 1)
ウェッジレットブロックのウェッジレット分離線分の位置に関する情報を伝送するために必要なサイド情報を減少させる更なる方法は、更に以下で概説される実施例の基礎を形成する。特に、発想は、すなわち、ウェッジレット分離線分の開始点を外周に沿って現行ブロックに隣接して伸びているサンプル系統のサンプルの一連の再構成された値の連続的なものの間で最大の変化の位置に配置することにより、以前に再構成されたサンプル、すなわち符号化/復号化順序に従う現行ブロックに先行するブロックの再構成された値が、ウェッジレット分離線分の正しい配置の少なくとも予測を可能にする。このように、セクション5.1および5.2に関して上記で概説された可能性と同様、必要なサイド情報レートは、デコーダが正しくウェッジレット分離線分を配置するのを可能にするために、低下することができる。下記で概説される実施例の基礎をなしている発想は、したがって、下記で概説される実施例のあり得る実現が、記載されているセクション3.1.2の上記説明においても利用された。
上記説明から明白になったので、ウェッジレットベースの分割は、一方ではサイド情報レートおよび他方では分割の可能性の達成可能な多様性の間の一種のトレードオフを表す。それと比較して、輪郭に分割することは、サイド情報レートに関してより複雑なようである。
下記で概説される実施例の基礎をなしている発想は、セクション4.2、すなわち、奥行き/視差マップの現行ブロックのコンテンツの良好な近似値を達成する可能性が、この2つのセグメンテーション移動モードをトリガするために対応する符号化オプション識別子のそれぞれの既定の値の条件を正当化するために十分に高い場合、奥行き/視差マップの現行ブロックの上の2つのセグメンテーションの次の移動を有する画像の範囲内の同じ位置に配置された参照ブロックに基づく2つのセグメンテーションの導出に従う発想が単に合理的なだけである、において、すでに述べられていた。換言すれば、それぞれの2つのセグメンテーション移動がいずれにしろ非常に選択されなさそうであるという場合のこの符号化オプション識別子をエントロピー符号化するときに、サイド情報レートは、奥行き/視差マップの現行ブロックのための符号化オプション識別子のそれぞれの既定の値を考慮に入れる必要性を回避することにより保存されうる。
すでに今までに記載されている各種実施形態に関して上記で概説されるように、ブロックの2分割のパーティションに固定パーティション値を割り当てることにより現行ブロックを予測する方法は、特に、大抵は奥行き/視差マップのようなこれらのサンプルアレイのコンテンツが大部分は平坦域または急峻なエッジにより互いに分離された類似の値のシンプルに接続された領域からなる符号化サンプルアレイを符号化する場合に、全く効果的である。それにもかかわらず、この種の固定パーティション値の伝送さえ、回避されなければならないサイド情報の相当な量を必要とする。
Claims (28)
- データストリームからビデオのサンプルアレイを再構成するためのデコーダであって、
ウェッジレットパターンの複数のルックアップテーブルのうちの1つからウェッジレットパターンのセットをブロックのサイズに基づいて選択することによって、前記ビデオの前記サンプルアレイのブロックを復号化するためのウェッジレットパターンのセットを取得し、ここで前記ウェッジレットパターンのセットの各ウェッジレットパターンは対応する前記ウェッジレットパターンを2つのウェッジレット部分に分割する線分を示し、前記複数のルックアップテーブルのそれぞれは複数のブロックサイズのうちの1つに対応し、
前記ウェッジレットパターンのセット内におけるブロックウェッジレットパターンの場所を示すインデックス値を前記データストリームから抽出し、ここで前記ブロックウェッジレットパターンは前記ブロックに相当し、
前記インデックス値に基づいて前記ウェッジレットパターンのセットから前記ブロックウェッジレットパターンを取得し、
少なくとも前記ブロックウェッジレットパターンの2つのウェッジレット部分に基づいて、前記ブロックを復号するように構成される、
ことを特徴とするデコーダ。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンのサイズは前記ブロックのサイズに基づくこと、
を特徴とする、請求項1に記載のデコーダ。 - 前記ウェッジレットパターンのセットにおけるウェッジレットパターンの数は前記ブロックのサイズに基づくこと、
を特徴とする、請求項1に記載のデコーダ。 - 前記デコーダは複数のウェッジレットパターンのセットを決定するように構成され、前記複数のウェッジレットパターンのセットのそれぞれは前記ビデオの前記サンプルアレイの前記複数のブロックサイズのうちの1つに対応すること、
を特徴とする、請求項1に記載のデコーダ。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンは二値化要素を含む二次元アレイであること、
を特徴とする、請求項1に記載のデコーダ。 - 前記インデックス値は前記データストリーム内の一定のビット数で表され、前記デコーダは固定長符号化に基づいて前記インデックス値を復号化すること、
を特徴とする、請求項1に記載のデコーダ。 - 前記デコーダは、
前記データストリームから、モード構文要素を抽出し、
前記モード構文要素を復号化して前記インデックス値が前記ブロックを復号化するために用いられているかを決定するように構成されること、
を特徴とする、請求項1に記載のデコーダ。 - すべてが第1のバイナリ値を有する要素を含むアレイである前記ウェッジレットパターンのセットの第1のウェッジレットパターンを決定するために、
前記デコーダは、
前記第1のウェッジレットパターンの開始位置と終了位置を結ぶ線分を形成する、前記アレイの第1の要素を、前記第1のバイナリ値から第2のバイナリ値に更新し、
前記ウェッジレットパターンのセット内の既存のウェッジレットパターンが前記第1のウェッジレットパターンと同一または逆であるかを前記既存のウェッジレットパターンの要素と前記第1のウェッジレットパターンの要素との比較に基づいて決定し、
前記既存のウェッジレットパターンが前記第1のウェッジレットパターンに同一でも逆でもないとの決定に応じて、前記第1のウェッジレットパターンを前記ウェッジレットパターンのセットに加えるように構成されること、
を特徴とする、請求項1に記載のデコーダ。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンは対応する前記ウェッジレットパターンの前記開始位置および終了位置の解像度に関連付けられ、前記解像度は前記ブロックの前記サイズに基づくこと、
を特徴とする、請求項8に記載のデコーダ。 - 前記デコーダは、前記ブロックを復号化する際に、前記2つのウェッジレット部分のうちの第1のウェッジレット部分内に位置する前記サンプルアレイのサンプルに第1の固定パーティション値を割り当て、前記2つのウェッジレット部分のうちの第2のウェッジレット部分内に位置する前記サンプルアレイのサンプルに第2の固定パーティション値を割り当てることによって前記ブロックを予測するように構成されること、
を特徴とする、請求項1に記載のデコーダ。 - 前記サンプルアレイは奥行きマップであり、前記デコーダは前記奥行きマップが関連付けられるテクスチャサンプルアレイを前記データストリームから再構成するために参照量子化ステップサイズを用いるように構成されること、
を特徴とする、請求項10に記載のデコーダ。 - 前記デコーダの予測ループにおける参照として前記ブロックを使用するようにさらに構成されること、
を特徴とする、請求項1に記載のデコーダ。 - データストリームからビデオのサンプルアレイを再構成するための方法であって、
複数のウェッジレットパターンのルックアップテーブルの中の1つからウェッジレットパターンのセットをブロックのサイズに基づいて選択することによって、前記ビデオの前記サンプルアレイのブロックを復号化するための前記ウェッジレットパターンのセットを取得するステップであって、ここで前記ウェッジレットパターンのセットの各ウェッジレットパターンは対応する前記ウェッジレットパターンを2つのウェッジレット部分に分割する線分を表し、前記複数のルックアップテーブルのそれぞれは複数のブロックサイズのうちの1つに相当する、ステップと、
前記ウェッジレットパターンのセットにおけるブロックウェッジレットパターンの位置を示すインデックス値を前記データストリームから抽出するステップであって、前記ブロックウェッジレットパターンは前記ブロックに相当する、ステップと、
前記インデックス値に基づいて前記ウェッジレットパターンのセットから前記ブロックウェッジレットパターンを取得するステップと、
少なくとも前記ブロックウェッジレットパターンの前記2つのウェッジレット部分に基づいて、前記ブロックを復号化するステップとを含むこと、
を特徴とする方法。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンのサイズは前記ブロックのサイズに基づくこと、
を特徴とする、請求項13に記載の方法。 - 前記ウェッジレットパターンのセットにおけるウェッジレットパターンの数は前記ブロックのサイズに基づくこと、
を特徴とする、請求項13に記載の方法。 - 複数のウェッジレットパターンのセットを決定するステップを含み、前記複数のウェッジレットパターンのセットのそれぞれは前記ビデオの前記サンプルアレイの前記複数のブロックサイズのうちの1つに対応すること、
を特徴とする、請求項13に記載の方法。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンは二値化要素を含む二次元アレイであること、
を特徴とする、請求項13に記載の方法。 - 前記インデックス値は前記データストリーム内の一定のビット数で表され、前記方法は固定長符号化に基づいて前記インデックス値を復号化するステップをさらに含むこと、
を特徴とする、請求項13に記載の方法。 - 前記データストリームから、モード構文要素を抽出するステップと、
前記モード構文要素を復号化して前記インデックス値が前記ブロックを復号化するために用いられているかを決定するステップをさらに含むこと、
を特徴とする、請求項13に記載の方法。 - すべてが第1のバイナリ値を有する要素を含むアレイである前記ウェッジレットパターンのセットの第1のウェッジレットパターンを決定するために、前記方法は、
前記第1のウェッジレットパターンの開始位置と終了位置を結ぶ線分を形成する、前記アレイの第1の要素を、前記第1のバイナリ値から第2のバイナリ値に更新するステップと、
前記ウェッジレットパターンのセット内の既存のウェッジレットパターンが前記第1のウェッジレットパターンと同一または逆であるかを前記既存のウェッジレットパターンの要素と前記第1のウェッジレットパターンの要素との比較に基づいて決定するステップと、
前記既存のウェッジレットパターンが前記第1のウェッジレットパターンに同一でも逆でもないとの決定に応じて、前記第1のウェッジレットパターンを前記ウェッジレットパターンのセットに加えるステップを含むこと、
を特徴とする、請求項13に記載の方法。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンは対応する前記ウェッジレットパターンの前記開始位置および終了位置の解像度に関連付けられ、前記解像度は前記ブロックの前記サイズに基づくこと、
を特徴とする、請求項20に記載の方法。 - 前記ブロックを復号化する際に、前記2つのウェッジレット部分のうちの第1のウェッジレット部分内に位置する前記サンプルアレイのサンプルに第1の固定パーティション値を割り当て、前記2つのウェッジレット部分のうちの第2のウェッジレット部分内に位置する前記サンプルアレイのサンプルに第2の固定パーティション値を割り当てることによって前記ブロックを予測するステップをさらに含むこと、
を特徴とする、請求項13に記載の方法。 - 前記サンプルアレイは奥行きマップであり、前記方法は、前記奥行きマップが関連付けられるテクスチャサンプルアレイを前記データストリームから再構成するために参照量子化ステップサイズを用いるステップをさらに含むこと、
を特徴とする、請求項13に記載の方法。 - ビデオのサンプルアレイをデータストリームに符号化するためのエンコーダであって、
前記エンコーダは、
複数のウェッジレットパターンのルックアップテーブルの中の1つからウェッジレットパターンのセットをブロックのサイズに基づいて選択することによって、前記ビデオの前記サンプルアレイのブロックを復号化するための前記ウェッジレットパターンのセットを取得し、ここで前記ウェッジレットパターンのセットの各ウェッジレットパターンは対応する前記ウェッジレットパターンを2つのウェッジレット部分に分割する線分を表し、前記複数のルックアップテーブルのそれぞれは複数のブロックサイズのうちの1つに相当し、
前記ビデオの前記サンプルアレイのブロックについて、前記ウェッジレットパターンのセットからブロックウェッジレットパターンを選択し、
少なくとも前記ブロックウェッジレットパターンの前記2つのウェッジレット部分に基づいて、前記ブロックを符号化し、
前記データストリームに、前記ウェッジレットパターンのセットにおける前記ブロックウェッジレットパターンの位置を示すインデックス値を挿入するように構成されること、
を特徴とする、エンコーダ。 - 前記ウェッジレットパターンのセットの各ウェッジレットパターンのサイズは前記ブロックのサイズに基づくこと、
を特徴とする、請求項24に記載のエンコーダ。 - 前記ウェッジレットパターンのセットにおけるウェッジレットパターンの数は前記ブロックのサイズに基づくこと、
を特徴とする、請求項24に記載のエンコーダ。 - 前記エンコーダは複数のウェッジレットパターンのセットを決定するように構成され、
前記複数のウェッジレットパターンのセットのそれぞれは前記ビデオの前記サンプルアレイの前記複数のブロックサイズのうちの1つに対応すること、
を特徴とする、請求項24に記載のエンコーダ。 - 前記インデックス値は前記データストリーム内の一定のビット数で表され、前記エンコーダは固定長符号化に基づいて前記インデックス値を符号化するように構成されていること、
を特徴とする、請求項24に記載のエンコーダ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161558634P | 2011-11-11 | 2011-11-11 | |
US61/558,634 | 2011-11-11 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018230352A Division JP6814783B2 (ja) | 2011-11-11 | 2018-12-07 | パーティション符号化を用いた有効な予測 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020194476A Division JP2021044832A (ja) | 2011-11-11 | 2020-11-24 | パーティション符号化を用いた有効な予測 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021013197A JP2021013197A (ja) | 2021-02-04 |
JP7126329B2 true JP7126329B2 (ja) | 2022-08-26 |
Family
ID=47146416
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014540492A Active JP6105614B2 (ja) | 2011-11-11 | 2012-11-09 | パーティション符号化を用いた有効な予測 |
JP2017038744A Active JP6884598B2 (ja) | 2011-11-11 | 2017-03-01 | パーティション符号化を用いた有効な予測 |
JP2018230352A Active JP6814783B2 (ja) | 2011-11-11 | 2018-12-07 | パーティション符号化を用いた有効な予測 |
JP2020178470A Active JP7126329B2 (ja) | 2011-11-11 | 2020-10-23 | パーティション符号化を用いた有効な予測 |
JP2020194476A Pending JP2021044832A (ja) | 2011-11-11 | 2020-11-24 | パーティション符号化を用いた有効な予測 |
JP2022178255A Pending JP2023025001A (ja) | 2011-11-11 | 2022-11-07 | パーティション符号化を用いた有効な予測 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014540492A Active JP6105614B2 (ja) | 2011-11-11 | 2012-11-09 | パーティション符号化を用いた有効な予測 |
JP2017038744A Active JP6884598B2 (ja) | 2011-11-11 | 2017-03-01 | パーティション符号化を用いた有効な予測 |
JP2018230352A Active JP6814783B2 (ja) | 2011-11-11 | 2018-12-07 | パーティション符号化を用いた有効な予測 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020194476A Pending JP2021044832A (ja) | 2011-11-11 | 2020-11-24 | パーティション符号化を用いた有効な予測 |
JP2022178255A Pending JP2023025001A (ja) | 2011-11-11 | 2022-11-07 | パーティション符号化を用いた有効な予測 |
Country Status (15)
Country | Link |
---|---|
US (8) | US9749622B2 (ja) |
EP (4) | EP3657788B1 (ja) |
JP (6) | JP6105614B2 (ja) |
KR (8) | KR101904457B1 (ja) |
CN (5) | CN104247427B (ja) |
BR (1) | BR112014011413B1 (ja) |
DK (1) | DK2777283T3 (ja) |
ES (1) | ES2664746T3 (ja) |
HK (2) | HK1202204A1 (ja) |
HU (1) | HUE036756T2 (ja) |
IN (1) | IN2014KN01040A (ja) |
NO (1) | NO2716819T3 (ja) |
PL (1) | PL2777283T3 (ja) |
PT (1) | PT2777283T (ja) |
WO (1) | WO2013068567A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2777286B1 (en) | 2011-11-11 | 2017-01-04 | GE Video Compression, LLC | Effective wedgelet partition coding |
EP3657788B1 (en) * | 2011-11-11 | 2021-08-04 | GE Video Compression, LLC | Effective prediction using partition coding |
KR101663394B1 (ko) | 2011-11-11 | 2016-10-06 | 지이 비디오 컴프레션, 엘엘씨 | 적응적 분할 코딩 |
CN105409215B (zh) | 2013-01-11 | 2018-10-09 | 华为技术有限公司 | 深度预测模式选择方法及装置 |
US20140269920A1 (en) * | 2013-03-15 | 2014-09-18 | Cisco Technology, Inc. | Motion Estimation Guidance in Transcoding Operation |
JP6262260B2 (ja) * | 2013-03-15 | 2018-01-17 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 深度マップイントラコード化のための予測子 |
WO2015101640A1 (en) * | 2014-01-03 | 2015-07-09 | Ge Video Compression, Llc | Wedgelet-based coding concept |
WO2015123806A1 (en) * | 2014-02-18 | 2015-08-27 | Mediatek Singapore Pte. Ltd. | Methods for depth based block partitioning |
CN104853216B (zh) * | 2014-02-18 | 2018-10-02 | 寰发股份有限公司 | 基于深度的块分割方法和电子装置 |
CN106105216A (zh) | 2014-03-13 | 2016-11-09 | 高通股份有限公司 | 用于3d视频译码的受约束深度帧内模式译码 |
CN103826134B (zh) * | 2014-03-21 | 2017-08-18 | 华为技术有限公司 | 图像帧内预测方法及装置 |
JP2017518706A (ja) * | 2014-06-18 | 2017-07-06 | サムスン エレクトロニクス カンパニー リミテッド | デプスブロックを利用する、マルチレイヤビデオ符号化方法及びマルチレイヤビデオ復号方法 |
JP2017523682A (ja) | 2014-06-20 | 2017-08-17 | サムスン エレクトロニクス カンパニー リミテッド | インターレイヤビデオ符号化/復号のためのデプス映像の予測モード伝送方法及びその装置 |
US20170164003A1 (en) * | 2014-06-26 | 2017-06-08 | Kt Corporation | Multiview video signal processing method and apparatus |
CN104159121A (zh) * | 2014-06-26 | 2014-11-19 | 华为技术有限公司 | 一种基于深度信息的图像块的编码、解码方法及装置 |
WO2016003210A1 (ko) * | 2014-07-04 | 2016-01-07 | 주식회사 케이티 | 다시점 비디오 신호 처리 방법 및 장치 |
WO2016074746A1 (en) * | 2014-11-14 | 2016-05-19 | Huawei Technologies Co., Ltd. | Systems and methods for mask based processing of a block of a digital image |
JP6443869B2 (ja) | 2014-11-14 | 2018-12-26 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | デジタル画像を処理するためのシステムおよび方法 |
WO2016074745A1 (en) | 2014-11-14 | 2016-05-19 | Huawei Technologies Co., Ltd. | Systems and methods for processing a block of a digital image |
WO2016123783A1 (zh) * | 2015-02-05 | 2016-08-11 | 华为技术有限公司 | 图像预测处理方法和相关设备 |
WO2016123782A1 (zh) * | 2015-02-05 | 2016-08-11 | 华为技术有限公司 | 模板处理方法和相关设备 |
WO2016182317A1 (ko) * | 2015-05-12 | 2016-11-17 | 삼성전자 주식회사 | 인트라 예측을 수행하는 영상 복호화 방법 및 그 장치 및 인트라 예측을 수행하는 영상 부호화 방법 및 그 장치 |
WO2017020808A1 (en) * | 2015-07-31 | 2017-02-09 | Versitech Limited | A depth discontinuity-based method for efficient intra coding for depth videos |
US20170085886A1 (en) * | 2015-09-18 | 2017-03-23 | Qualcomm Incorporated | Variable partition size for block prediction mode for display stream compression (dsc) |
US20210211699A1 (en) * | 2016-02-16 | 2021-07-08 | Samsung Electronics Co., Ltd. | Adaptive block partitioning method and apparatus |
WO2017175898A1 (ko) * | 2016-04-07 | 2017-10-12 | 엘지전자(주) | 인트라 예측 필터링을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치 |
US11108841B2 (en) | 2018-06-19 | 2021-08-31 | At&T Intellectual Property I, L.P. | Apparatus, storage medium and method for heterogeneous segmentation of video streaming |
MX2020013864A (es) * | 2018-06-21 | 2021-03-25 | Ericsson Telefon Ab L M | Particiones de mosaicos con sub-mosaicos en codificacion de video. |
EP3811624A1 (en) | 2018-06-21 | 2021-04-28 | Telefonaktiebolaget LM Ericsson (publ) | Tile shuffling for 360 degree video decoding |
WO2020070196A1 (en) | 2018-10-02 | 2020-04-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Encoding and decoding pictures based on tile group id |
US10970881B2 (en) | 2018-12-21 | 2021-04-06 | Samsung Display Co., Ltd. | Fallback modes for display compression |
WO2020163535A1 (en) | 2019-02-05 | 2020-08-13 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding using intra sub-partition coding mode |
CN110363212B (zh) * | 2019-03-28 | 2022-02-15 | 西南石油大学 | 基于边界扫描的多wedgelet图像近似方法 |
CN110225339A (zh) * | 2019-05-10 | 2019-09-10 | 上海德衡数据科技有限公司 | 一种hevc视频序列编解码加速方法 |
US11546401B2 (en) | 2019-11-07 | 2023-01-03 | Bitmovin, Inc. | Fast multi-rate encoding for adaptive HTTP streaming |
US11936864B2 (en) | 2019-11-07 | 2024-03-19 | Bitmovin, Inc. | Fast multi-rate encoding for adaptive streaming using machine learning |
WO2022031018A1 (ko) * | 2020-08-04 | 2022-02-10 | 현대자동차주식회사 | 임의 블록 분할을 이용한 비디오 부호화 및 복호화 |
US20220312010A1 (en) * | 2021-03-29 | 2022-09-29 | Ofinno, Llc | Geometric Partitioning Refinement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010082463A1 (ja) | 2009-01-13 | 2010-07-22 | 株式会社日立製作所 | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法 |
WO2011046607A2 (en) | 2009-10-14 | 2011-04-21 | Thomson Licensing | Filtering and edge encoding |
US20110274166A1 (en) | 2009-01-29 | 2011-11-10 | Lg Electronics Inc. | Method And Apparatus For Processing Video Signals Using Boundary Intra Coding |
WO2012147740A1 (ja) | 2011-04-25 | 2012-11-01 | シャープ株式会社 | 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01303888A (ja) | 1988-05-31 | 1989-12-07 | Fujitsu Ltd | フレーム間符号化装置 |
JP3353968B2 (ja) | 1992-09-25 | 2002-12-09 | オリンパス光学工業株式会社 | 画像処理装置 |
JPH06153167A (ja) | 1992-11-13 | 1994-05-31 | Oki Electric Ind Co Ltd | 動きベクトル検出回路 |
JPH08298665A (ja) | 1994-04-21 | 1996-11-12 | Sanyo Electric Co Ltd | 動きベクトル検出回路、検出方法、及び動画像圧縮回路 |
JPH09275565A (ja) | 1996-04-05 | 1997-10-21 | Kokusai Electric Co Ltd | 画像ブロックマッチング方法及び画像符号化方法 |
US6636633B2 (en) | 1999-05-03 | 2003-10-21 | Intel Corporation | Rendering of photorealistic computer graphics images |
JP2002022497A (ja) * | 2000-07-10 | 2002-01-23 | Olympus Optical Co Ltd | 光学式エンコーダ |
WO2003101117A1 (en) | 2002-05-28 | 2003-12-04 | Sharp Kabushiki Kaisha | Methods and systems for image intra-prediction mode estimation, communication, and organization |
JP4088205B2 (ja) | 2002-06-11 | 2008-05-21 | 松下電器産業株式会社 | 符号化装置、コンピュータ読取可能なプログラム、符号化方法。 |
US7227901B2 (en) * | 2002-11-21 | 2007-06-05 | Ub Video Inc. | Low-complexity deblocking filter |
US6900748B2 (en) * | 2003-07-17 | 2005-05-31 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for binarization and arithmetic coding of a data value |
US9351013B2 (en) | 2003-11-13 | 2016-05-24 | Qualcomm Incorporated | Selective and/or scalable complexity control for video codecs |
EP1790168B1 (en) * | 2004-09-16 | 2016-11-09 | Thomson Licensing | Video codec with weighted prediction utilizing local brightness variation |
US8948266B2 (en) | 2004-10-12 | 2015-02-03 | Qualcomm Incorporated | Adaptive intra-refresh for digital video encoding |
WO2007050593A2 (en) * | 2005-10-25 | 2007-05-03 | William Marsh Rice University | Method and apparatus for signal detection, classification, and estimation from compressive measurements |
CN1777289A (zh) * | 2005-11-30 | 2006-05-24 | 天津大学 | 利用选择性预测加快运动估计的方法 |
WO2007128706A2 (en) * | 2006-05-05 | 2007-11-15 | Thomson Licensing | Simplified inter-layer motion prediction for scalable video coding |
EP2052546A4 (en) * | 2006-07-12 | 2010-03-03 | Lg Electronics Inc | METHOD AND DEVICE FOR SIGNAL PROCESSING |
EP2047687B1 (en) * | 2006-08-02 | 2018-05-16 | Thomson Licensing DTV | Adaptive geometric partitioning for video encoding |
JP4956304B2 (ja) | 2006-08-08 | 2012-06-20 | キヤノン株式会社 | 画像符号化装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体 |
US7756348B2 (en) * | 2006-10-30 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Method for decomposing a video sequence frame |
JP5026092B2 (ja) * | 2007-01-12 | 2012-09-12 | 三菱電機株式会社 | 動画像復号装置および動画像復号方法 |
KR101680951B1 (ko) * | 2007-04-12 | 2016-11-29 | 톰슨 라이센싱 | 비디오 인코더에서 고속으로 기하학적 모드를 결정하기 위한 방법들 및 장치 |
JP5097523B2 (ja) | 2007-12-07 | 2012-12-12 | 船井電機株式会社 | 音声入力装置 |
EP2243297B1 (en) * | 2008-02-05 | 2017-03-08 | Thomson Licensing | Methods and apparatus for implicit block segmentation in video encoding and decoding |
JP5071721B2 (ja) | 2008-02-27 | 2012-11-14 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
KR20090095316A (ko) | 2008-03-05 | 2009-09-09 | 삼성전자주식회사 | 영상 인트라 예측 방법 및 장치 |
CN101609548B (zh) * | 2008-09-12 | 2011-04-06 | 西安电子科技大学 | 基于Wavelet和Wedgelet变换HMT模型的图像分割方法 |
JP5243612B2 (ja) * | 2008-10-02 | 2013-07-24 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 中間画像合成およびマルチビューデータ信号抽出 |
KR20110068792A (ko) * | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
US8913661B2 (en) * | 2010-02-19 | 2014-12-16 | Skype | Motion estimation using block matching indexing |
KR101447796B1 (ko) | 2010-04-13 | 2014-10-07 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 평면 간 예측 |
PL2559166T3 (pl) | 2010-04-13 | 2018-04-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Koder i dekoder dzielący interwał prawdopodobieństwa |
US9020043B2 (en) * | 2010-05-10 | 2015-04-28 | Google Inc. | Pathway indexing in flexible partitioning |
US20120008684A1 (en) | 2010-07-09 | 2012-01-12 | Samsung Electronics Co., Ltd. | Method and apparatus of encoding and decoding video signal |
EP2604036B1 (en) * | 2010-08-11 | 2018-03-07 | GE Video Compression, LLC | Multi-view signal codec |
EP2521357A1 (de) | 2011-05-06 | 2012-11-07 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Filterung von kodierten Bildpartitionen |
JP5937212B2 (ja) | 2011-08-26 | 2016-06-22 | トムソン ライセンシングThomson Licensing | デプス符号化 |
KR101663394B1 (ko) * | 2011-11-11 | 2016-10-06 | 지이 비디오 컴프레션, 엘엘씨 | 적응적 분할 코딩 |
EP3657788B1 (en) * | 2011-11-11 | 2021-08-04 | GE Video Compression, LLC | Effective prediction using partition coding |
-
2012
- 2012-11-09 EP EP19203323.1A patent/EP3657788B1/en active Active
- 2012-11-09 KR KR1020177036003A patent/KR101904457B1/ko active IP Right Grant
- 2012-11-09 BR BR112014011413-7A patent/BR112014011413B1/pt active IP Right Grant
- 2012-11-09 KR KR1020217008797A patent/KR102468287B1/ko active IP Right Grant
- 2012-11-09 KR KR1020217007764A patent/KR102344178B1/ko active IP Right Grant
- 2012-11-09 KR KR1020197038508A patent/KR102233830B1/ko active IP Right Grant
- 2012-11-09 KR KR1020227039802A patent/KR20220157518A/ko not_active Application Discontinuation
- 2012-11-09 PT PT127836138T patent/PT2777283T/pt unknown
- 2012-11-09 IN IN1040KON2014 patent/IN2014KN01040A/en unknown
- 2012-11-09 EP EP17211132.0A patent/EP3328081B1/en active Active
- 2012-11-09 EP EP20205472.2A patent/EP3829168A1/en active Pending
- 2012-11-09 KR KR1020237020854A patent/KR20230098693A/ko not_active Application Discontinuation
- 2012-11-09 HU HUE12783613A patent/HUE036756T2/hu unknown
- 2012-11-09 PL PL12783613T patent/PL2777283T3/pl unknown
- 2012-11-09 DK DK12783613.8T patent/DK2777283T3/en active
- 2012-11-09 CN CN201280066926.XA patent/CN104247427B/zh active Active
- 2012-11-09 ES ES12783613.8T patent/ES2664746T3/es active Active
- 2012-11-09 CN CN201811037182.4A patent/CN109218736B/zh active Active
- 2012-11-09 WO PCT/EP2012/072329 patent/WO2013068567A1/en active Application Filing
- 2012-11-09 EP EP12783613.8A patent/EP2777283B1/en active Active
- 2012-11-09 JP JP2014540492A patent/JP6105614B2/ja active Active
- 2012-11-09 CN CN201811037575.5A patent/CN109587505A/zh active Pending
- 2012-11-09 KR KR1020147015913A patent/KR101810916B1/ko active IP Right Grant
- 2012-11-09 CN CN201811037183.9A patent/CN109525846B/zh active Active
- 2012-11-09 CN CN201811036796.0A patent/CN109218735A/zh active Pending
- 2012-11-09 KR KR1020187027916A patent/KR102062696B1/ko active IP Right Grant
-
2013
- 2013-10-02 NO NO13187002A patent/NO2716819T3/no unknown
-
2014
- 2014-05-09 US US14/273,603 patent/US9749622B2/en active Active
-
2015
- 2015-03-16 HK HK15102631.4A patent/HK1202204A1/xx unknown
-
2017
- 2017-03-01 JP JP2017038744A patent/JP6884598B2/ja active Active
- 2017-07-20 US US15/655,445 patent/US10321139B2/en active Active
- 2017-07-20 US US15/655,329 patent/US10334255B2/en active Active
-
2018
- 2018-11-30 HK HK18115379.9A patent/HK1256313A1/zh unknown
- 2018-12-07 JP JP2018230352A patent/JP6814783B2/ja active Active
-
2019
- 2019-04-16 US US16/385,602 patent/US10542263B2/en active Active
- 2019-12-05 US US16/703,918 patent/US10771793B2/en active Active
-
2020
- 2020-09-04 US US17/012,224 patent/US11032555B2/en active Active
- 2020-10-23 JP JP2020178470A patent/JP7126329B2/ja active Active
- 2020-11-24 JP JP2020194476A patent/JP2021044832A/ja active Pending
-
2021
- 2021-02-10 US US17/172,851 patent/US20210168380A1/en not_active Abandoned
-
2022
- 2022-11-07 JP JP2022178255A patent/JP2023025001A/ja active Pending
-
2023
- 2023-06-12 US US18/333,152 patent/US20230412822A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010082463A1 (ja) | 2009-01-13 | 2010-07-22 | 株式会社日立製作所 | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法 |
US20110274166A1 (en) | 2009-01-29 | 2011-11-10 | Lg Electronics Inc. | Method And Apparatus For Processing Video Signals Using Boundary Intra Coding |
WO2011046607A2 (en) | 2009-10-14 | 2011-04-21 | Thomson Licensing | Filtering and edge encoding |
WO2012147740A1 (ja) | 2011-04-25 | 2012-11-01 | シャープ株式会社 | 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム |
Non-Patent Citations (2)
Title |
---|
Min-Koo Kang et al.,"ADAPTIVE GEOMETRY-BASED INTRA PREDICTION FOR DEPTH VIDEO CODING",Proceedings of the 2010 IEEE International Conference on Multimedia and Expo (ICME 2010),2010年07月,pp.1230-1235,ISBN:978-1-4244-7491-2 |
Shujie Liu et al.,"New Depth Coding Techniques With Utilization of Corresponding Video",IEEE Transactions on Broadcasting,2011年06月,Vol.57, No.2,pp.551-561,ISSN:0018-9316 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7126329B2 (ja) | パーティション符号化を用いた有効な予測 | |
JP7121093B2 (ja) | 高い分割自由度を伴う効果的なパーティション符号化 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7126329 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |