JP2020108077A - 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム - Google Patents

映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム Download PDF

Info

Publication number
JP2020108077A
JP2020108077A JP2018247370A JP2018247370A JP2020108077A JP 2020108077 A JP2020108077 A JP 2020108077A JP 2018247370 A JP2018247370 A JP 2018247370A JP 2018247370 A JP2018247370 A JP 2018247370A JP 2020108077 A JP2020108077 A JP 2020108077A
Authority
JP
Japan
Prior art keywords
block
information
area
video
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018247370A
Other languages
English (en)
Inventor
数井 君彦
Kimihiko Kazui
君彦 数井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018247370A priority Critical patent/JP2020108077A/ja
Priority to PCT/JP2019/032585 priority patent/WO2020136987A1/ja
Priority to CN201980075320.4A priority patent/CN113039786A/zh
Publication of JP2020108077A publication Critical patent/JP2020108077A/ja
Priority to US17/237,093 priority patent/US20210243433A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】符号化対象画像を、ブロックを含む複数の領域に分割して符号化する映像符号化において、符号化効率を向上させる。【解決手段】分割部は、映像に含まれる符号化対象画像を複数の領域に分割して、それらの領域を示す領域情報を生成し、参照制約情報を生成する。参照制約情報は、第1領域と第2領域との境界において、第1領域内のブロックから第2領域内のブロックの情報を参照する場合の参照制約と、第2領域内のブロックから第1領域内のブロックの情報を参照する場合の参照制約とを、非対称に規定する。判定部は、符号化対象ブロックと、符号化対象ブロックに隣接する隣接ブロックとの間の位置関係と、参照制約情報とに基づいて、隣接ブロックの情報を参照するか否かを示す判定結果を生成する。第1符号化部は、判定結果に従って、符号化対象ブロックを符号化し、第2符号化部は、領域情報と参照制約情報と符号化対象ブロックの符号化結果とを符号化する。【選択図】図5

Description

本発明は、映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラムに関する。
映像データの圧縮符号化に関する国際規格として、H.265/HEVC(High Efficiency Video Coding)が知られている(例えば、非特許文献1を参照)。以下では、H.265/HEVCを指して、HEVCと記載することがある。
また、現在では、次期国際規格であるVVC(Versatile Video Coding)の標準化作業が進められている(例えば、非特許文献2を参照)。これらの規格では、映像に含まれる各ピクチャが複数の処理単位に分割される。
HEVC規格における分割単位は、CTU(Coding Tree Unit)である。CTUは、横M画素、縦M画素の輝度成分(Y)の輝度ブロックと、同一位置の2つの色差成分(Cb、Cr)の色差ブロックとを含む。Mは、主に64、32のような、2のべき乗の値となる。なお、CTUがピクチャ境界に隣接している場合、有効な縦画素数又は横画素数がMよりも小さくなることがある。
HEVC規格では、スライス又はタイルと呼ばれる上位の分割単位が規定されている。特に、タイルは、HEVC規格で新たに導入された分割単位であり、スライスでは実現されなかった、横X個(X>2)、縦Y個(Y>2)のCTUを含む矩形領域に対応する。
図1は、タイルによるピクチャ分割の例を示している。図1のピクチャは、横に4分割され、縦に2分割されて、タイル101〜タイル108に分割されている。例えば、タイル101は、6個のCTU111を含む。
各タイルの高さ及び幅は任意に設定できるが、同一の縦位置に存在する全タイル(例えば、タイル101〜タイル104)は、同じ高さを有し、同一の横位置に存在する全タイル(例えば、タイル101及びタイル105)は、同じ幅を有する。
図1のピクチャ内において、各CTUは処理順序121に従って処理される。ピクチャ内に含まれる複数のタイルは、ラスタスキャン順(左上から右下)で処理され、各タイル内に含まれる複数のCTUも、ラスタスキャン順で処理される。
各タイルの処理は、タイル毎に独立して行うことが可能である。具体的には、エントロピー符号化において、タイル内の最終CTUの終端によって区切りが挿入される。また、タイル内のCU(Coding Unit)に対するイントラ予測又は動きベクトル予測では、そのタイルの外部に存在するCUの情報を参照することが禁止される。タイル分割は、ピクチャ内の複数の矩形領域を並列に処理する場合等に有用である。
HEVC等の多くの映像符号化規格では、符号化ピクチャの復号タイミング及び復号ピクチャの出力(表示)タイミングを示すHRD(Hypothetical Reference Decoder)モデルが規定されている。HRDモデルにより、復号タイミング及び出力タイミングの観点でビットストリームが制約される。
HEVC規格よりも前の規格では、符号化ピクチャの復号タイミングが符号化ピクチャ単位でのみ規定されている。HEVC規格では、符号化ピクチャに加えて、ピクチャ内の小領域毎の復号タイミングを規定することが可能である。HEVC規格では、符号化ピクチャはAU(Access Unit)と呼ばれ、ピクチャ内の小領域は、DU(Decoding Unit)と呼ばれる。
DUは、複数のスライスを含む。DU単位で復号タイミングを規定することで、符号化ピクチャ全体が映像復号装置に送信される前に、映像復号装置は、各DUの復号を開始することができる。このため、符号化ピクチャ全体の復号完了を前倒しでき、結果として復号ピクチャの出力タイミングを早めることが可能になる。HEVC規格のHRDモデルは、以下に述べる超低遅延符号化に有用である。
超低遅延符号化は、映像符号化装置に各ピクチャが入力されてから、映像復号装置がそのピクチャに対応する復号ピクチャを出力するまでの伝送遅延を、1ピクチャ時間未満に抑える符号化制御である。
伝送遅延は、映像復号装置の符号化ピクチャバッファの容量に比例した遅延と、映像復号装置の復号ピクチャバッファのリオーダリング用ピクチャバンク数に比例した遅延との合計となる。HRDモデルの規定では、符号化ピクチャバッファはCPB(Coded Picture Buffer)と呼ばれ、復号ピクチャバッファは、DPB(Decoded Picture Buffer)と呼ばれる。
CPBには、バッファ溢れを起こさないように、復号単位(AU又はDU)の最大データ量分のバッファ容量が確保される。DPBには、双方向フレーム間予測の際に行われるピクチャリオーダリング処理に十分な数の復号ピクチャバンク数が確保される。
ピクチャ符号化順序として、ピクチャリオーダリング処理が不要な順序(すなわち、映像符号化装置が入力順に各ピクチャを符号化する順序)を採用し、かつ、CPBのサイズとして、復号単位の平均データ量を採用することで、伝送遅延が最小化される。特に、復号単位としてDUを採用することで、伝送遅延を1ピクチャ時間未満の超低遅延にすることができる。
ビットレートを低く保ちつつ、CPBサイズをDUの平均データ量にするための方法として、縦方向イントラリフレッシュライン方式が知られている。イントラリフレッシュでは、映像復号装置がビットストリームの途中から復号を開始した場合にも、完全な復号ピクチャを出力できるようにするリフレッシュ動作が行われる。縦方向イントラリフレッシュライン方式では、リフレッシュ動作のためのイントラ符号化ブロックが、全ピクチャ及び全CTUラインに対して均等に割り振られる。
ここで、「完全復号」とは、ビットストリームの先頭から復号を開始した場合と全く同じ復号結果が得られる復号を意味する。縦方向イントラリフレッシュライン方式によって、一般的なイントラ符号化ピクチャを用いるリフレッシュ動作では困難であった、1ピクチャ時間未満のデータ容量となるCPBが実現される。
図2は、縦方向イントラリフレッシュライン方式による復号処理の例を示している。時刻T[i](i=0〜N)(Nは1以上の整数)において、映像復号装置にピクチャ201−iの符号化データが入力される。各ピクチャ201−iは、イントラ符号化された領域211−i(i=0〜N)と、インター符号化された領域212−i(i=0〜N−1)と、インター符号化された領域213−i(i=1〜N)とを含む。
周期(N+1)のリフレッシュ動作では、時刻T[0]において、映像復号装置が復号を開始し、時刻T[N]においてピクチャ全体の正常復号を完了する。このリフレッシュ動作を実現するために、ピクチャ内のイントラ符号化された領域211−iの位置が、左から右へピクチャ毎にずれていき、時刻T[N]までに、領域211−0〜領域211−Nによって1ピクチャに相当する領域がカバーされる。
領域211−iの形状として縦長矩形を用い、時刻T[0]から時刻T[N]にかけて、領域211−iをピクチャの左端から右端まで移動させることで、全ピクチャ及び全CTUラインに対して、常に同じ個数のイントラ符号化ブロックを挿入することができる。
データ量221は、各ピクチャの各CTUラインに含まれるイントラ符号化ブロックの理想的なデータ量を表し、データ量222は、各ピクチャの各CTUラインに含まれるインター符号化ブロックの理想的なデータ量を表す。CTUライン内のイントラ符号化ブロックの個数を一定に保つことで、低ビットレートの条件下でも、ブロック毎の画質変動を抑えつつ、各CTUラインのデータ量を理想的(均一)にする制御を、容易に実現することができる。
映像データの圧縮符号化に関連して、ピクチャ分割符号化方式において符号化効率を向上させる技術が知られている(例えば、特許文献1を参照)。フレキシブルなタイル分割方法も知られている(例えば、非特許文献3を参照)。
特開2013−098734号公報
"High Efficiency Video Coding", Recommendation ITU-T H.265, February 2018 "Versatile Video Coding (Draft 3)", JVET-L1001, October 2018 "AHG12: Flexible Tile Splitting", JVET-L0359, October 2018
既存の映像符号化規格の下で、縦方向イントラリフレッシュライン方式を用いた超低遅延符号化を実現する場合、符号化効率の低下という問題が発生する。
なお、かかる問題は、縦方向イントラリフレッシュライン方式を用いた映像符号化に限らず、符号化対象画像を複数の領域に分割して符号化する他の映像符号化においても生ずるものである。
1つの側面において、本発明は、符号化対象画像を、ブロックを含む複数の領域に分割して符号化する映像符号化において、符号化効率を向上させることを目的とする。
1つの案では、映像符号化装置は、分割部、判定部、第1符号化部、及び第2符号化部を含む。
分割部は、映像に含まれる符号化対象画像を複数の領域に分割して、それらの領域を示す領域情報を生成し、参照制約情報を生成する。参照制約情報は、第1領域と第2領域との境界において、第1領域内のブロックから第2領域内のブロックの情報を参照する場合の参照制約と、第2領域内のブロックから第1領域内のブロックの情報を参照する場合の参照制約とを、非対称に規定する。
判定部は、符号化対象ブロックと、符号化対象ブロックに隣接する隣接ブロックとの間の位置関係と、参照制約情報とに基づいて、隣接ブロックの情報を参照するか否かを示す判定結果を生成する。第1符号化部は、判定結果に従って、符号化対象ブロックを符号化し、第2符号化部は、領域情報と参照制約情報と符号化対象ブロックの符号化結果とを符号化する。
実施形態によれば、符号化対象画像を、ブロックを含む複数の領域に分割して符号化する映像符号化において、符号化効率を向上させることができる。
タイルによるピクチャ分割を示す図である。 縦方向イントラリフレッシュライン方式による復号処理を示す図である。 スライス境界を設定したピクチャを示す図である。 タイル境界を設定したピクチャを示す図である。 映像符号化装置の構成図である。 第1のピクチャ分割を示す図である。 第1のピクチャ分割における参照制約を示す図である。 ビットストリームを示す図である。 映像符号化処理のフローチャートである。 映像復号装置の構成図である。 映像復号処理のフローチャートである。 第2のピクチャ分割を示す図である。 第2のピクチャ分割における参照制約を示す図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
HEVC規格では、DUが複数のスライスを含むことが規定されている。この理由は、ビットストリーム内でのDUの区切りを明確に定めるためである。HEVC規格のエントロピー符号化では、算術符号化であるCABAC(Context Adaptive Binary Arithmetic Coding)が採用されている。
CABACは、ビンと呼ばれる複数の符号化対象データをまとめて1ビットに符号化することが可能である。このため、CTU間の区切りをビットストリーム上で規定することが難しい。HEVC規格では、スライス又はタイルの境界でCABACが終端される。これにより、各スライス又は各タイルのCABAC符号化を独立して行うことができる。
伝送遅延を1CTUラインに相当する時間まで削減するために、1つのCTUラインを1つのDUとして採用した場合、CTUライン毎にスライス境界又はタイル境界が挿入される。CTUライン毎にスライス境界又はタイル境界を挿入することで、CTUライン間の境界を跨ぐ画素値の参照及び符号化パラメータの参照が禁止されるため、イントラ予測及びループ内フィルタの効率が低下し、全体の符号化効率が低下する。
この問題とは別に、リフレッシュ周期内でのピクチャの完全復号を保証するための符号化処理においても、符号化効率の低下という問題が生じる。
完全復号を保証するためには、図2に示したイントラ符号化された領域211−iと、領域211−iの左側に存在するインター符号化された領域213−iとが、常に完全に復号されるように符号化することが望まれる。このため、復号画素値を参照する際に、領域211−iの右側に存在するインター符号化された領域212−iの参照を禁止する、参照制限を設けることが好ましい。この理由は、領域212−i内のブロックは、完全復号が保証されていないためである。
特許文献1は、符号化効率の低下を抑えつつ、完全復号を実現する方法を開示している。この方法では、映像符号化装置及び映像復号装置の双方が、仮想的な参照境界を跨ぐ参照を制限しながら動作する。例えば、図2の例では、領域211−iと領域212−iとの間に仮想的な参照境界が設定される。
しかし、HEVC規格等の既存の映像符号化規格では、特許文献1のような仮想的な参照境界は規定されていない。同等の参照制限を実現するためには、スライス境界又はタイル境界を仮想的な参照境界の位置に設定することが望ましい。
仮想的な参照境界の位置にスライス境界を設定する場合、1つのCTUラインに2個のスライスが挿入され、CABAC終端の回数が増加し、符号化効率が低下する。また、領域211−iと領域212−iの境界以外にも、CTUライン間の境界を跨ぐ参照が禁止されるため、符号化効率が低下する。
図3は、仮想的な参照境界の位置にスライス境界を設定したピクチャの例を示している。図3のピクチャには、仮想的な参照境界301が設定され、スライス311−1〜スライス311−K及びスライス312−1〜スライス312−K(Kは2以上の整数)が含まれている。1つのCTUラインには、スライス311−j及びスライス312−j(j=1〜K)の2個のスライスが挿入されている。
このようなスライスを挿入することで、参照境界301の左右に存在するブロック間での参照を禁止することができる。しかしながら、例えば、スライス311−2内のブロックから、その上に隣接するスライス311−1内のブロックの情報を参照することも禁止されるため、符号化効率が低下する。
一方、仮想的な参照境界の位置にタイル境界を設定する場合、CTUライン間の境界を跨ぐ参照は可能になる。しかし、HEVC規格のタイル規定では、CTUの処理順序がタイル内におけるラスタスキャン順であるため、CPBのサイズを最小化することが困難になる。
図4は、仮想的な参照境界の位置にタイル境界を設定したピクチャの例を示している。図4のピクチャには、仮想的な参照境界401が設定され、タイル411及びタイル412が含まれている。タイル411は、イントラ符号化された領域421を含む。
データ量431は、タイル411に含まれる、イントラ符号化された領域421のデータ量を表し、データ量432は、タイル411に含まれる、インター符号化された領域のデータ量を表す。データ量433は、タイル412に含まれる、インター符号化された領域のデータ量を表す。タイル412はイントラ符号化された領域を含まないため、データ量433は、データ量431とデータ量432の合計よりも小さくなり、結果としてDU毎のデータ量のばらつきが大きくなる。
このような問題は、HEVC規格による映像符号化に限らず、VVC規格による映像符号化においても起こり得る。
図5は、実施形態の映像符号化装置の構成例を示している。図5の映像符号化装置501は、符号化制御部511、画面分割部512、符号化順序制御部513、参照ブロック決定部514、ソース符号化部515、及びフレームメモリ516を含む。映像符号化装置501は、さらに、画面分割部517、復号時刻計算部518、エントロピー符号化部519、及びストリームバッファ520を含む。
画面分割部512は、分割部の一例であり、参照ブロック決定部514は、判定部の一例であり、ソース符号化部515は、第1符号化部の一例であり、エントロピー符号化部519は、第2符号化部の一例である。画面分割部517及び復号時刻計算部518は、生成部の一例である。
映像符号化装置501は、例えば、ハードウェア回路として実装することができる。この場合、映像符号化装置501の各構成要素を個別の回路として実装してもよく、1つの集積回路として実装してもよい。
映像符号化装置501は、入力される映像を縦方向イントラリフレッシュライン方式で符号化し、符号化映像をビットストリームとして出力する。映像符号化装置501は、ビットストリームを、通信ネットワークを介して、映像復号装置へ送信することができる。
例えば、映像符号化装置501は、ビデオカメラ、映像送信装置、テレビ電話システム、コンピュータ、又は携帯端末装置に組み込まれていてもよい。
入力される映像は、複数の時刻それぞれに対応する複数の画像を含む。各時刻の画像は、ピクチャ又はフレームと呼ばれることもある。各画像は、カラー画像であってもよく、モノクロ画像であってもよい。カラー画像の場合、画素値はRGB形式であってもよく、YUV形式であってもよい。
符号化制御部511は、外部の装置から入力される符号化パラメータを基に、各画像内における仮想的な参照境界の位置、画像間において参照境界が移動する移動方向、及び各画像内における復号単位の個数を決定する。例えば、画像サイズ、ビットレート、遅延時間、リフレッシュ周期等が符号化パラメータとして入力され、DU(復号ユニット)が復号単位として用いられる。
画面分割部512は、符号化制御部511が決定した、参照境界の位置及び移動方向を基に、入力される映像に含まれる符号化対象画像内における、矩形領域の個数及び位置を決定し、符号化対象画像を複数の矩形領域に分割する。そして、画面分割部512は、決定した矩形領域の個数及び位置を示す領域情報を、符号化順序制御部513、参照ブロック決定部514、及びエントロピー符号化部519へ出力する。例えば、矩形領域としてはタイルが用いられ、各矩形領域には、CTU、CU等のような、複数のブロックが含まれる。
また、画面分割部512は、参照境界の移動方向を基に、CTU間の参照制約情報を生成し、参照ブロック決定部514及びエントロピー符号化部519へ出力する。参照制約情報は、矩形領域間の境界において、一方の矩形領域内のブロックから他方の矩形領域内のブロックの情報を参照する場合の参照制約と、他方の矩形領域内のブロックから一方の矩形領域内のブロックの情報を参照する場合の参照制約とを、非対称に規定する。
符号化順序制御部513は、画面分割部512が出力する領域情報を基に、符号化対象画像内におけるCTUの総数と、各CTUの形状及びソース符号化順序を決定する。
参照ブロック決定部514は、符号化対象画像内のブロック間の位置関係と、画面分割部512が出力する参照制約情報とを基に、各CTU内の符号化対象ブロックに対する参照制約を決定し、決定した参照制約を示す判定結果を生成する。ブロック間の位置関係には、符号化対象ブロックと、その符号化対象ブロックに隣接する隣接ブロックとの間の位置関係が含まれ、判定結果は、符号化対象ブロックの符号化処理において、隣接ブロックの情報の参照を許可するか否かを示す。
ソース符号化部515は、符号化対象画像を複数のCTUに分割し、CTU内の各ブロックを、CTU内におけるラスタスキャン順でソース符号化により符号化する。ソース符号化は、イントラ予測又はインター予測、予測誤差の直交変換と量子化、量子化結果の逆量子化と逆直交変換、復元予測誤差と予測値の加算、及びループ内フィルタを含む。量子化結果は、予測誤差の直交変換係数を量子化した結果(量子化係数)であり、ソース符号化における符号化結果を表す。
ソース符号化部515は、符号化順序制御部513が決定したソース符号化順序に従って、各CTUの処理順序及び各CTUの形状を制御するとともに、参照ブロック決定部514の判定結果に従って、隣接ブロックの情報を参照するか否かを決定する。そして、ソース符号化部515は、各ブロックの符号化パラメータ及び量子化結果を、エントロピー符号化部519へ出力する。
フレームメモリ516は、ソース符号化部515によって生成される、CTUの局所復号画素値を記憶し、ソース符号化部515が後続するCTUを符号化する際に、局所復号画素値をソース符号化部515へ出力する。出力された局所復号画素値は、後続するCTUの予測値を生成するために使用される。
画面分割部517は、符号化制御部511が決定した遅延時間を基に、符号化対象画像内におけるDUの個数と、CABACの終端処理を行うCTU位置とを決定する。CABACの終端処理を行うCTU位置は、符号化対象画像に含まれる複数のブロックの符号化結果において、矩形領域間の境界とは異なる区切り位置を示している。そして、画面分割部517は、決定したDUの個数を示すDU情報を、復号時刻計算部518及びエントロピー符号化部519へ出力し、決定したCTU位置を示す位置情報を、エントロピー符号化部519へ出力する。
復号時刻計算部518は、画面分割部517が出力するDU情報に従って、各DUの復号が開始される復号時刻を決定し、決定した復号時刻を示す復号時刻情報を、エントロピー符号化部519へ出力する。
エントロピー符号化部519は、ソース符号化部515が出力する、各ブロックの符号化パラメータ及び量子化結果を、CABACを用いたエントロピー符号化により符号化し、ビットストリームを生成する。このとき、各ブロックの符号化パラメータ及び量子化結果とともに、画面分割部512が出力する領域情報及び参照制約情報、画面分割部517が出力するDU情報及び位置情報、及び復号時刻計算部518が出力する復号時刻情報も符号化される。
ストリームバッファ520は、各ブロックの符号化パラメータ及び量子化結果、領域情報、参照制約情報、DU情報、位置情報、及び復号時刻情報を含むビットストリームを記憶し、ビットストリームを通信ネットワークへ出力する。
図6は、矩形領域としてタイルを用いた場合の第1のピクチャ分割の例を示している。図6(a)は、符号化対象画像に対応するピクチャ内のタイルの例を示している。ピクチャ601は、タイル611及びタイル612に分割され、タイル611とタイル612との間の境界は、仮想的な参照境界602に一致している。参照境界602は、ピクチャ601内において垂直方向(縦方向)に延びている。
図6(b)は、ピクチャ601内のCTUの例を示している。ピクチャ601は、複数のCTU621に分割されている。この例では、参照境界602の横方向位置が、CTU幅の整数倍の位置ではないため、参照境界602の左側に隣接するCTUの形状は、正方形ではなく、矩形である。
ピクチャ601内における各CTUの処理順序622は、タイル611及びタイル612の形状とは独立して、ピクチャ601内におけるラスタスキャン順である。なお、各CTU内の各CUの処理順序は、HEVC規格と同様に、CTU内におけるラスタスキャン順である。
CTU位置631〜CTU位置633は、ピクチャ601が3個のDUに分割される場合のDU間の境界を示し、ピクチャ601の右端に接するブロックの符号化結果の直後の位置に設定される。この場合、エントロピー符号化部519は、CTU位置631〜CTU位置633に従ってエントロピー符号化を行う。したがって、CTU位置631〜CTU位置633それぞれにおいて、CABACの終端処理が行われる。
図7は、図6の第1のピクチャ分割における参照制約の例を示している。タイル間の境界711は、図6の参照境界602に対応し、CTU701〜CTU703は、境界711の左側に隣接しており、CTU704〜CTU706は、境界711の右側に隣接している。
画面分割部512は、参照境界602の移動方向を基に、CTU間の参照制約情報を生成する。例えば、参照境界602が左から右へ移動する場合、境界711の左側に存在するCTU内のブロックから、境界711の右側に存在するCTU内のブロックの情報を参照することが制限される。
例えば、CTU701が処理対象である場合、CTU701内のCUからは、境界711の左側に存在するCTU701〜CTU703内のCUの情報のみを参照することができる。したがって、境界711の右側に存在するCTU704〜CTU706内のCUの情報を参照することは、禁止される。
一方、CTU704が処理対象である場合、CTU704内のCUからは、CTU704〜CTU706内のCUの情報に加えて、CTU701〜CTU703内のCUの情報も参照することができる。
このように、境界711において、左側のタイル611内のブロックから右側のタイル612内のブロックの情報を参照する場合の参照制約と、タイル612内のブロックからタイル611内のブロックの情報を参照する場合の参照制約とが、非対称に規定される。
なお、イントラ予測を行う際には、HEVC規格と同様に、処理順序による参照制約がさらに適用される。例えば、イントラ予測において、CTU704内のCUからは、CTU703内のCUの情報を参照することが禁止される。
図6のピクチャ分割と図7の参照制約は、映像復号装置においても、映像符号化装置501と同様に適用される。
図8は、映像符号化装置501が出力するビットストリームの例を示している。図8のビットストリームは、1つの符号化画像に対応し、シーケンスパラメータセット(SPS)801、ピクチャパラメータセット(PPS)802、SEI(Supplemental Enhancement Information)803、及びCTU符号化データ804を含む。
SPS801は、HEVC規格のSPSに相当し、複数の符号化画像毎に付加される。PPS802は、HEVC規格のPPSに相当する。SEI803は、補助データであり、HEVC規格のピクチャタイミングSEIに相当する。CTU符号化データ804は、画像内の各CTUの符号化結果であり、HEVC規格のSliceSegmentData()に相当する。
SPS801は、HEVC規格のタイルとは別のCTU処理順序及び参照制限を用いることを示すフラグAlternativeTileModeFlagを含む。AlternativeTileModeFlagが0の場合、HEVC規格のタイルと同様のCTU処理順序及び参照制限が用いられる。SPS801のその他のシンタックスは、HEVC規格のSPSと同等である。
PPS802は、タイルを使用することを示すTilesEnableFlagを含む。TilesEnableFlagは、HEVC規格と同等である。TilesEnableFlagが1の場合、PPS802は、タイルの個数及び位置を記述するパラメータ群TilesGeomParams()を含む。TilesGeomParams()は、NumTileColumnsMinus1等を含み、HEVC規格又は非特許文献3と同等である。
AlternativeTileModeFlagが1の場合、PPS802は、さらに、タイル境界での参照制限の有無及び制限方向を記述するBoundaryCntlIdcと、DUのサイズ(CTUラインの個数)を示すDuSizeInCtuLineとを含む。画像内におけるDUの個数は、ceil(H/DuSizeInCtuLine)によって求められる。ceil()は、天井関数(切り上げ関数)であり、Hは、画像内に含まれるCTUラインの個数を表す。
SEI803は、画像内における最後のDUを除く、各DUの復号時刻情報DuCpbRemovalDelayIncを含む。DuCpbRemovalDelayIncから各DUの復号時刻を計算する方法と、SEI803のその他のシンタックスは、HEVC規格のピクチャタイミングSEIと同等である。
CTU符号化データ804は、1つのCTUに相当するCodingTreeUnit()、CABACの終端を意味するEndOfSubsetOneBit、及びバイトアラインのための追加ビット列ByteAlignment()を含む。AlternativeTileModeFlagが0の場合には、EndOfSubsetOneBitは、HEVC規格でのタイル境界(CTUのTileIdが不連続になる箇所)に挿入される。一方、AlternativeTileModeFlagが1の場合には、EndOfSubsetOneBitは、DuSizeInCtuLineによって決定されるCTUに対応するCodingTreeUnit()の直後に挿入される。
次に、図8に示したビットストリーム内のパラメータに基づく映像符号化装置501及び映像復号装置の動作について説明する。AlternativeTileModeFlagが0の場合の動作はHEVC規格と同様であるため、以下では、AlternativeTileModeFlagが1の場合の動作のみを説明する。
CTUのエントロピー復号順序は、画像内におけるラスタスキャン順である。例えば、1つのCTUラインに含まれるCTUの個数をWとすると、画像の左端からX番目(X=0,1,2,...)、画像の上端からY番目(Y=0,1,2,...)のCTUのエントロピー復号順序は、(X+W*Y)番目である。
HEVC規格のTilesGeomParams()に準ずる場合、Wは、ceil(PicWidth/CtuWidth)によって与えられる。PicWidth及びCtuWidthは、それぞれ、SPSパラメータによって決定される画像幅(単位は画素)及びCTU幅(単位は画素)である。
一方、非特許文献3のTilesGeomParams()に準ずる場合、Wは、同一の縦位置に存在する全タイルについて、各タイル内の横方向におけるCTUの個数を合計した結果になる。ここで、タイル内の横方向におけるCTUの個数は、ceil(TileWidth/CtuWidth)によって与えられる。TileWidthは、ColumnWidthMinus1から計算されるタイル幅(単位は画素)である。
TilesGeomParams()の取り扱い(タイルの個数、各タイルのサイズ、及び各タイルの位置の決定)は、HEVC規格又は非特許文献3と同等である。例えば、NumTileColumnsMinus1が1である場合、横方向におけるタイルの個数は2となる。
BoundaryCntlIdcの値によって、以下のように動作が切り替わる。
BoundaryCntlIdc=0の場合:タイル境界を跨ぐイントラ予測参照は不可であり、ループ内フィルタ用画素参照は可能である。この動作は、HEVC規格のLoopFilterAcrossTilesEnabledFlagが1の場合に相当する。
BoundaryCntlIdc=1の場合:タイル境界を跨ぐイントラ予測参照は不可であり、ループ内フィルタ用画素参照も不可である。この動作は、HEVC規格のLoopFilterAcrossTilesEnabledFlagが0の場合に相当する。
BoundaryCntlIdc=2の場合:TileIdが小さいタイルに含まれるCUから、TileIdが大きいタイルに含まれるCUの情報を参照することが不可である。この動作は、仮想的な参照境界の左側にイントラ符号化された領域が存在する場合に採用される。
BoundaryCntlIdc=3の場合:TileIdが大きいタイルに含まれるCUから、TileIdが小さいタイルに含まれるCUの情報を参照することが不可である。この動作は、仮想的な参照境界の右側にイントラ符号化された領域が存在する場合に採用される。
なお、同じタイル内に含まれるCU間における情報の参照は、常に可能である。
DuSizeInCtuLineの値によって、CABACの終端処理を行うCTU位置(エントロピー符号化順)が決定される。1つのCTUラインに含まれるCTUの個数をWとすると、(DuSizeInCtuLine*W)番目のCTU毎に、そのCTUの直前にCABACの終端が挿入される。
図9は、映像符号化装置501が行う映像符号化処理の例を示すフローチャートである。図9の映像符号化処理は、映像に含まれる各画像に対して適用される。この映像符号化処理では、矩形領域としてタイルが用いられる。
まず、映像符号化装置501は、符号化対象画像のタイル構造を決定し(ステップ901)、決定したタイル構造に従って、タイルパラメータを符号化する(ステップ902)。
次に、映像符号化装置501は、処理対象のCTU(処理CTU)を決定する(ステップ903)。このとき、映像符号化装置501は、画像内におけるラスタスキャン順で、処理CTUの位置及びサイズを決定する。そして、映像符号化装置501は、処理CTUの位置及びタイル境界の位置を基に、隣接ブロックに対する参照制限を決定する(ステップ904)。
次に、映像符号化装置501は、処理CTUのソース符号化を行う(ステップ905)。ソース符号化において、映像符号化装置501は、処理CTUを含むDUが、ピクチャタイミングSEIによって記述される、映像復号装置におけるDUの復号時刻よりも先にCPBに到達するように、量子化パラメータの調整等を行ってデータ量を制御する。
次に、映像符号化装置501は、処理CTUのエントロピー符号化を行い(ステップ906)、処理CTUがDUの終端に対応するか否かをチェックする(ステップ907)。
処理CTUがDUの終端に対応する場合(ステップ907,YES)、映像符号化装置501は、CABACの終端処理を行い(ステップ908)、符号化対象画像内に未処理のCTUが残っているか否かをチェックする(ステップ909)。一方、処理CTUがDUの終端に対応しない場合(ステップ907,NO)、映像符号化装置501は、ステップ909の処理を行う。
未処理のCTUが残っている場合(ステップ909,YES)、映像符号化装置501は、ステップ903以降の処理を繰り返す。未処理のCTUが残っていない場合(ステップ909,NO)、映像符号化装置501は、処理を終了する。
図5の映像符号化装置501によれば、符号化対象画像を複数の矩形領域に分割して符号化する映像符号化において、符号化効率を向上させることができる。したがって、復号画像の画質を保ちつつ、符号量を削減することが可能になる。特に、縦方向イントラリフレッシュライン方式を用いた超低遅延符号化において、符号化効率を向上することができる。
図10は、映像符号化装置501から出力されるビットストリームを復号する、映像復号装置の構成例を示している。図10の映像復号装置1001は、ストリームバッファ1011、エントロピー復号部1012、画面分割部1013、復号時刻計算部1014、画面分割部1015、参照ブロック決定部1016、ソース復号部1017、及びフレームメモリ1018を含む。
エントロピー復号部1012は、第1復号部の一例であり、ソース復号部1017は、第2復号部の一例である。画面分割部1015は、分割部の一例であり、参照ブロック決定部1016は、判定部の一例である。
映像復号装置1001は、例えば、ハードウェア回路として実装することができる。この場合、映像復号装置1001の各構成要素を個別の回路として実装してもよく、1つの集積回路として実装してもよい。
映像復号装置1001は、入力される符号化映像のビットストリームを復号し、復号映像を出力する。映像復号装置1001は、図5の映像符号化装置501から、通信ネットワークを介して、ビットストリームを受信することができる。
例えば、映像復号装置1001は、ビデオカメラ、映像受信装置、テレビ電話システム、コンピュータ、又は携帯端末装置に組み込まれていてもよい。
ストリームバッファ1011は、入力されるビットストリームを記憶し、各符号化画像のヘッダ情報(SPS、PPS、SEI)がストリームバッファ1011に到着したとき、ヘッダ情報の到着をエントロピー復号部1012に通知する。
エントロピー復号部1012は、ビットストリームのエントロピー復号を行う。エントロピー復号部1012は、ストリームバッファ1011からヘッダ情報の到着が通知されたとき、ストリームバッファ1011からヘッダ情報の符号化データを読み出して、エントロピー復号により復号する。これにより、領域情報、参照制約情報、DU情報、位置情報、及び復号時刻情報が復元される。エントロピー復号部1012は、DU情報、位置情報、及び復号時刻情報を画面分割部1013へ出力し、領域情報及び参照制約情報を画面分割部1015へ出力する。
エントロピー復号部1012は、復号時刻計算部1014から通知される、DUの復号時刻になったとき、ストリームバッファ1011からDUの符号化データを読み出して、DU内の各CTUのエントロピー復号をデータ順に行う。これにより、各ブロックの符号化結果が、符号化ブロックの復号対象符号として復元される。エントロピー復号部1012は、符号化ブロックの復号対象符号をソース復号部1017へ出力する。
画面分割部1013は、エントロピー復号部1012が出力するDU情報及び位置情報を基に、各DU内の最終CTUのCTU位置を計算し、計算したCTU位置と各DUの復号時刻情報とを、復号時刻計算部1014へ出力する。
復号時刻計算部1014は、画面分割部1013が出力する、各DUの復号時刻情報から各DUの復号時刻を計算し、エントロピー復号部1012に通知する。
画面分割部1015は、エントロピー復号部1012が出力する領域情報を基に、矩形領域の個数と、各矩形領域の位置及びサイズを決定し、画像を複数の矩形領域に分割する。そして、画面分割部1015は、複数の矩形領域の情報及び参照制約情報を、参照ブロック決定部1016へ出力する。
参照ブロック決定部1016は、符号化画像内のブロック間の位置関係と、画面分割部1015が出力する複数の矩形領域の情報及び参照制約情報とを基に、各CTU内の符号化ブロックに対する参照制約を決定し、決定した参照制約を示す判定結果を生成する。
符号化ブロックは、ソース復号の復号対象となるブロックを表し、ブロック間の位置関係には、符号化ブロックと、その符号化ブロックに隣接する隣接ブロックとの間の位置関係が含まれる。判定結果は、符号化ブロックの復号処理において、隣接ブロックの情報の参照を許可するか否かを示す。
ソース復号部1017は、エントロピー復号部1012が出力する復号対象符号を、ソース復号により復号順に復号する。このとき、ソース復号部1017は、参照ブロック決定部1016の判定結果に従って、隣接ブロックの情報を参照するか否かを決定する。ソース復号は、逆量子化、逆直交変換、復元予測誤差と予測値の加算、及びループ内フィルタを含む。
フレームメモリ1018は、ソース復号部1017によって生成される、CTUの復号画素値からなる復号画像を記憶し、ソース復号部1017が後続する符号化CTUを復号する際に、復号画素値をソース復号部1017へ出力する。出力された復号画素値は、後続する符号化CTUの予測値を生成するために使用される。そして、フレームメモリ1018は、複数の復号画像を復号順に出力することで、復号映像を生成する。
図11は、映像復号装置1001が行う映像復号処理の例を示すフローチャートである。図11の映像復号処理は、ビットストリームに含まれる各符号化画像に対して適用される。この映像復号処理では、矩形領域としてタイルが用いられる。
まず、映像復号装置1001は、エントロピー復号により、符号化画像のヘッダ情報の符号化データを復号する(ステップ1101)。そして、映像復号装置1001は、符号化画像のタイル構造を復元し(ステップ1102)、各DUの復号時刻を復元する(ステップ1103)。
映像復号装置1001は、次の処理対象であるDUの復号時刻になるまで待機する(ステップ1104)。DUの復号時刻になると、映像復号装置1001は、ビットストリーム順に、DU内のCTUのエントロピー復号を行う(ステップ1105)。そして、映像復号装置1001は、そのCTU内の符号化ブロックに対する参照制限を決定する(ステップ1106)。
次に、映像復号装置1001は、CTUのソース復号を行い(ステップ1107)、DU内に未処理のCTUが残っているか否かをチェックする(ステップ1108)。未処理のCTUが残っている場合(ステップ1108,YES)、映像復号装置1001は、ステップ1105以降の処理を繰り返す。未処理のCTUが残っていない場合(ステップ1108,NO)、映像復号装置1001は、CABACの終端処理を行う(ステップ1109)。
次に、映像復号装置1001は、符号化画像内に未処理のDUが残っているか否かをチェックする(ステップ1110)。未処理のDUが残っている場合(ステップ1110,YES)、映像復号装置1001は、ステップ1104以降の処理を繰り返す。未処理のDUが残っていない場合(ステップ1110,NO)、映像復号装置1001は、処理を終了する。
図12は、矩形領域としてタイルを用いた場合の第2のピクチャ分割の例を示している。図12(a)は、符号化対象画像に対応するピクチャ内のタイルの例を示している。ピクチャ1201内の各CTUラインは2個のタイルに分割され、ピクチャ1201は、タイル1211〜タイル1222に分割される。各CTUラインに含まれる2個のタイルの間の境界は、仮想的な参照境界1202に一致している。参照境界1202は、ピクチャ1201内において垂直方向(縦方向)に延びている。
図12(b)は、ピクチャ1201内のCTUの例を示している。ピクチャ1201は、複数のCTU1231に分割されている。この例では、参照境界1202の横方向位置が、CTU幅の整数倍の位置ではないため、参照境界1202の左側に隣接するCTUの形状は、正方形ではなく、矩形である。
ピクチャ1201内における各CTUの処理順序1232は、タイル1211〜タイル1222の形状とは独立して、ピクチャ1201内におけるラスタスキャン順である。
CTU位置1241〜CTU位置1243は、ピクチャ1201が3個のDUに分割される場合のDU間の境界を示し、ピクチャ1201の右端に接するブロックの符号化結果の直後の位置に設定される。この場合、エントロピー符号化部519は、CTU位置1241〜CTU位置1243に従ってエントロピー符号化を行う。したがって、CTU位置1241〜CTU位置1243それぞれにおいて、CABACの終端処理が行われる。
図13は、図12の第2のピクチャ分割における参照制約の例を示している。タイル間の境界1321は、図12の参照境界1202に対応し、タイル間の境界1322及び境界1323は、CTUライン間の境界に対応する。CTU1301〜CTU1306は、境界1321の左側に存在し、CTU1311〜CTU1316は、境界1321の右側に存在する。
画面分割部512は、参照境界1202の移動方向を基に、CTU間の参照制約情報を生成する。例えば、参照境界1202が左から右へ移動する場合、境界1321の左側に存在するCTU内のブロックから、境界1321の右側に存在するCTU内のブロックの情報を参照することが制限される。
例えば、CTU1305が処理対象である場合、CTU1305内のCUからは、境界1321の左側に存在するCTU1301〜CTU1306内のCUの情報のみを参照することができる。したがって、境界1321の右側に存在するCTU1311〜CTU1316内のCUの情報を参照することは、禁止される。
一方、CTU1312が処理対象である場合、CTU1312内のCUからは、CTU1311〜CTU1316内のCUの情報に加えて、CTU1301〜CTU1306内のCUの情報も参照することができる。
このように、境界1321において、左側のタイル内のブロックから右側のタイル内のブロックの情報を参照する場合の参照制約と、右側のタイル内のブロックから左側のタイル内のブロックの情報を参照する場合の参照制約とが、非対称に規定される。これらの参照制約は、境界1322及び境界1323に対しては適用されない。
なお、イントラ予測を行う際には、HEVC規格と同様に、処理順序による参照制約がさらに適用される。例えば、イントラ予測において、CTU1312内のCUからは、CTU1306内のCUの情報を参照することが禁止される。
図12のピクチャ分割と図13の参照制約は、映像復号装置1001においても、映像符号化装置501と同様に適用される。
図12のピクチャ分割を採用した場合のビットストリームは、図8のビットストリームと同様である。ただし、BoundaryCntlIdcの値によって、以下のように動作が切り替わる。
BoundaryCntlIdc=0の場合:タイル境界を跨ぐイントラ予測参照は不可であり、ループ内フィルタ用画素参照は可能である。この動作は、HEVC規格のLoopFilterAcrossTilesEnabledFlagが1の場合に相当する。
BoundaryCntlIdc=1の場合:タイル境界を跨ぐイントラ予測参照は不可であり、ループ内フィルタ用画素参照も不可である。この動作は、HEVC規格のLoopFilterAcrossTilesEnabledFlagが0の場合に相当する。
BoundaryCntlIdc=2の場合:処理対象のCUから、そのCUに左隣接する垂直方向のタイル境界の反対側に存在するCUの情報を参照することが不可である。この動作は、仮想的な参照境界の左側にイントラ符号化された領域が存在する場合に採用される。
BoundaryCntlIdc=3の場合:処理対象のCUから、そのCUに右隣接する垂直方向のタイル境界の反対側に存在するCUの情報を参照することが不可である。この動作は、仮想的な参照境界の右側にイントラ符号化された領域が存在する場合に採用される。
なお、同じタイル内に含まれるCU間における情報の参照は、常に可能である。
図5の映像符号化装置501の構成は一例に過ぎず、映像符号化装置501の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。
図10の映像復号装置1001の構成は一例に過ぎず、映像復号装置1001の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。
図9及び図11に示したフローチャートは一例に過ぎず、映像符号化装置501又は映像復号装置1001の構成又は条件に応じて、一部の処理を省略又は変更してもよい。
図5の映像符号化装置501と図10の映像復号装置1001は、ハードウェア回路として実装することもでき、情報処理装置(コンピュータ)を用いて実装することもできる。
図14は、映像符号化装置501又は映像復号装置1001として用いられる情報処理装置の構成例を示している。図14の情報処理装置は、CPU(Central Processing Unit)1401、メモリ1402、入力装置1403、出力装置1404、補助記憶装置1405、媒体駆動装置1406、及びネットワーク接続装置1407を含む。これらの構成要素はバス1408により互いに接続されている。
メモリ1402は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを記憶する。メモリ1402は、図5のフレームメモリ516及びストリームバッファ520として用いることができる。メモリ1402は、図10のストリームバッファ1011及びフレームメモリ1018としても用いることができる。
CPU1401(プロセッサ)は、例えば、メモリ1402を利用してプログラムを実行することにより、図5の符号化制御部511、画面分割部512、符号化順序制御部513、参照ブロック決定部514、及びソース符号化部515として動作する。CPU1401は、メモリ1402を利用してプログラムを実行することにより、画面分割部517、復号時刻計算部518、及びエントロピー符号化部519としても動作する。
CPU1401は、メモリ1402を利用してプログラムを実行することにより、図10のエントロピー復号部1012、画面分割部1013、及び復号時刻計算部1014としても動作する。CPU1401は、メモリ1402を利用してプログラムを実行することにより、画面分割部1015、参照ブロック決定部1016、及びソース復号部1017としても動作する。
入力装置1403は、例えば、キーボード、ポインティングデバイス等であり、ユーザ又はオペレータからの指示や情報の入力に用いられる。出力装置1404は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザ又はオペレータへの問い合わせや処理結果の出力に用いられる。処理結果は、復号映像であってもよい。
補助記憶装置1405は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1405は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1405にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。
媒体駆動装置1406は、可搬型記録媒体1409を駆動し、その記録内容にアクセスする。可搬型記録媒体1409は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1409は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、又はUSB(Universal Serial Bus)メモリであってもよい。ユーザ又はオペレータは、この可搬型記録媒体1409にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ1402、補助記憶装置1405、及び可搬型記録媒体1409のような、物理的な(非一時的な)記録媒体が含まれる。
ネットワーク接続装置1407は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。ネットワーク接続装置1407は、ビットストリームを映像復号装置1001へ送信したり、ビットストリームを映像符号化装置501から受信したりすることができる。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1407を介して受信し、それらをメモリ1402にロードして使用することができる。
なお、情報処理装置が図14のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、ユーザ又はオペレータとのインタフェースが不要である場合は、入力装置1403及び出力装置1404を省略してもよい。また、情報処理装置が可搬型記録媒体1409にアクセスしない場合は、媒体駆動装置1406を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
101〜108、411、412、611、612、1211〜1222 タイル
111、621、701〜706、1231、1301〜1306、1311〜1316 CTU
121、622、1232 処理順序
201−0、211−1、201−N、601、1201 ピクチャ
211−0、211−1、211−N、212−0、212−1、213−1、213−N、421 領域
221、222、431〜433 データ量
301、401、602、1202 参照境界
311−1〜311−K、312−1〜312−K スライス
501 映像符号化装置
511 符号化制御部
512、517、1013、1015 画面分割部
513 符号化順序制御部
514、1016 参照ブロック決定部
515 ソース符号化部
516、1018 フレームメモリ
518、1014 復号時刻計算部
519 エントロピー符号化部
520、1011 ストリームバッファ
631〜633、1241〜1243 CTU位置
711、1321〜1323 境界
801 SPS
802 PPS
803 SEI
804 CTU符号化データ
1001 映像復号装置
1012 エントロピー復号部
1017 ソース復号部
1401 CPU
1402 メモリ
1403 入力装置
1404 出力装置
1405 補助記憶装置
1406 媒体駆動装置
1407 ネットワーク接続装置
1408 バス
1409 可搬型記録媒体

Claims (11)

  1. 映像に含まれる符号化対象画像を複数の領域に分割して、前記複数の領域を示す領域情報を生成し、前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を生成する分割部と、
    符号化対象ブロックと前記符号化対象ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成する判定部と、
    前記判定結果に従って、前記符号化対象ブロックを符号化する第1符号化部と、
    前記領域情報と前記参照制約情報と前記符号化対象ブロックの符号化結果とを符号化する第2符号化部と、
    を備えることを特徴とする映像符号化装置。
  2. 前記第2符号化部は、前記符号化対象画像に含まれる複数のブロックの符号化結果において、前記複数の領域の間の境界とは異なる区切り位置に従って、前記領域情報と前記参照制約情報と前記符号化対象ブロックの符号化結果とを符号化することを特徴とする請求項1記載の映像符号化装置。
  3. 前記複数の領域の間の境界とは異なる区切り位置を示す位置情報と、2つの区切り位置の間に含まれる符号化結果の復号が開始される時刻を示す復号時刻情報とを生成する生成部をさらに備え、
    前記第2符号化部は、前記領域情報、前記参照制約情報、及び前記符号化対象ブロックの符号化結果とともに、前記位置情報と前記復号時刻情報とを符号化することを特徴とする請求項2記載の映像符号化装置。
  4. 前記生成部は、前記符号化対象画像の右端に接するブロックの符号化結果の直後に、前記複数の領域の間の境界とは異なる区切り位置を設定することを特徴とする請求項3記載の映像符号化装置。
  5. 前記第1領域と第2領域との境界は、前記符号化対象画像内において垂直方向に延びる境界であることを特徴とする請求項1乃至4のいずれか1項に記載の映像符号化装置。
  6. 映像符号化装置によって実行される映像符号化方法であって、
    前記映像符号化装置が、
    映像に含まれる符号化対象画像を複数の領域に分割して、前記複数の領域を示す領域情報を生成し、
    前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を生成し、
    符号化対象ブロックと前記符号化対象ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成し、
    前記判定結果に従って、前記符号化対象ブロックを符号化し、
    前記領域情報と前記参照制約情報と前記符号化対象ブロックの符号化結果とを符号化する、
    ことを特徴とする映像符号化方法。
  7. 映像に含まれる符号化対象画像を複数の領域に分割して、前記複数の領域を示す領域情報を生成し、
    前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を生成し、
    符号化対象ブロックと前記符号化対象ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成し、
    前記判定結果に従って、前記符号化対象ブロックを符号化し、
    前記領域情報と前記参照制約情報と前記符号化対象ブロックの符号化結果とを符号化する、
    処理をコンピュータに実行させるための映像符号化プログラム。
  8. 符号化映像を復号して、前記符号化映像に含まれる符号化画像内の複数の領域を示す領域情報を復元し、前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を復元し、前記符号化画像内の符号化ブロックを示す復号対象符号を復元する第1復号部と、
    前記領域情報に基づいて、前記符号化画像を前記複数の領域に分割する分割部と、
    前記符号化ブロックと前記符号化ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成する判定部と、
    前記判定結果に従って、前記復号対象符号を復号する第2復号部と、
    を備えることを特徴とする映像復号装置。
  9. 前記第1復号部は、前記符号化画像に含まれる複数の符号化ブロックにおいて、前記複数の領域の間の境界とは異なる区切り位置に従って、前記符号化映像を復号することを特徴とする請求項8記載の映像復号装置。
  10. 映像復号装置によって実行される映像復号方法であって、
    前記映像復号装置が、
    符号化映像を復号して、前記符号化映像に含まれる符号化画像内の複数の領域を示す領域情報を復元し、前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を復元し、前記符号化画像内の符号化ブロックを示す復号対象符号を復元し、
    前記領域情報に基づいて、前記符号化画像を前記複数の領域に分割し、
    前記符号化ブロックと前記符号化ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成し、
    前記判定結果に従って、前記復号対象符号を復号する、
    ことを特徴とする映像復号方法。
  11. 符号化映像を復号して、前記符号化映像に含まれる符号化画像内の複数の領域を示す領域情報を復元し、前記複数の領域のうち第1領域と第2領域との境界において、前記第1領域内のブロックから前記第2領域内のブロックの情報を参照する場合の参照制約と、前記第2領域内のブロックから前記第1領域内のブロックの情報を参照する場合の参照制約とを非対称に規定する、参照制約情報を復元し、前記符号化画像内の符号化ブロックを示す復号対象符号を復元し、
    前記領域情報に基づいて、前記符号化画像を前記複数の領域に分割し、
    前記符号化ブロックと前記符号化ブロックに隣接する隣接ブロックとの間の位置関係と、前記参照制約情報とに基づいて、前記隣接ブロックの情報を参照するか否かを示す判定結果を生成し、
    前記判定結果に従って、前記復号対象符号を復号する、
    処理をコンピュータに実行させるための映像復号プログラム。
JP2018247370A 2018-12-28 2018-12-28 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム Pending JP2020108077A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018247370A JP2020108077A (ja) 2018-12-28 2018-12-28 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム
PCT/JP2019/032585 WO2020136987A1 (ja) 2018-12-28 2019-08-21 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム
CN201980075320.4A CN113039786A (zh) 2018-12-28 2019-08-21 视频编码装置、视频编码方法、视频编码程序、视频解码装置、视频解码方法以及视频解码程序
US17/237,093 US20210243433A1 (en) 2018-12-28 2021-04-22 Video coding device, video coding method, and video decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018247370A JP2020108077A (ja) 2018-12-28 2018-12-28 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム

Publications (1)

Publication Number Publication Date
JP2020108077A true JP2020108077A (ja) 2020-07-09

Family

ID=71127044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018247370A Pending JP2020108077A (ja) 2018-12-28 2018-12-28 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム

Country Status (4)

Country Link
US (1) US20210243433A1 (ja)
JP (1) JP2020108077A (ja)
CN (1) CN113039786A (ja)
WO (1) WO2020136987A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009037726A1 (ja) * 2007-09-18 2009-03-26 Fujitsu Limited 動画像符号化装置および動画像復号装置
JP5152190B2 (ja) * 2007-10-04 2013-02-27 富士通株式会社 符号化装置、符号化方法、符号化プログラムおよび符号化回路
WO2012008037A1 (ja) * 2010-07-15 2012-01-19 富士通株式会社 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法
JP5429105B2 (ja) * 2010-08-18 2014-02-26 コニカミノルタ株式会社 画像形成装置
CN105612749A (zh) * 2013-10-17 2016-05-25 日本电信电话株式会社 视频编码装置及方法以及视频解码装置及方法
KR20150045819A (ko) * 2013-10-21 2015-04-29 삼성전자주식회사 움직임 보상을 수행하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
JP2016103707A (ja) * 2014-11-27 2016-06-02 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム

Also Published As

Publication number Publication date
CN113039786A (zh) 2021-06-25
WO2020136987A1 (ja) 2020-07-02
US20210243433A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
TWI812694B (zh) 以角度模式延伸之位置相關框內預測組合
TWI759604B (zh) 廣義三叉樹
KR102443959B1 (ko) 적응적인 화소 분류 기준에 따른 인루프 필터링 방법
CN107277539B (zh) 减少用于上下文自适应熵解码中的行缓存的方法及装置
KR20210030352A (ko) 광각 인트라 예측을 이용한 포지션 종속 인트라 예측 조합
WO2018116924A1 (ja) 符号化装置、符号化方法及びプログラム、復号装置、復号方法及びプログラム
RU2589341C2 (ru) Размер элемента мозаичного изображения при кодировании видео
JP2017535145A (ja) 波面並列処理が可能にされた場合のピクチャ内予測モードに関する規則
KR20150008405A (ko) Hevc에서 무손실 코딩의 개선된 인트라 예측
TW202114415A (zh) 具有虛擬邊界的跨分量自適應環路濾波的視頻編解碼方法及裝置
TW202103495A (zh) 解碼影像資料的方法、編碼影像資料的方法及儲存編碼影片資訊的非暫態電腦可讀取儲存媒介
US20220021895A1 (en) Method and device for video coding using various transform techniques
KR20200013765A (ko) 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
KR20210023754A (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
TWI737097B (zh) 越界節點視訊資料之處理方法及裝置
WO2020184229A1 (ja) 画像符号化装置、画像符号化方法、及びプログラム
CN113243106B (zh) 一种用于视频图像的预测块的帧内预测的设备和方法
JP2024503193A (ja) フレーム内予測方法、装置、及びデコーダとエンコーダ
WO2018043256A1 (ja) 画像符号化装置および画像復号装置
WO2020136987A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム
JP7403245B2 (ja) 画像復号装置、画像復号方法
WO2020059341A1 (ja) 画像復号装置、画像符号化装置、画像処理システム及びプログラム
CN112262574A (zh) 一种用于帧内预测的设备和方法
CN114175653B (zh) 用于视频编解码中的无损编解码模式的方法和装置
WO2022117036A1 (zh) 量化参数的解码方法和装置