JP6455434B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6455434B2
JP6455434B2 JP2015533364A JP2015533364A JP6455434B2 JP 6455434 B2 JP6455434 B2 JP 6455434B2 JP 2015533364 A JP2015533364 A JP 2015533364A JP 2015533364 A JP2015533364 A JP 2015533364A JP 6455434 B2 JP6455434 B2 JP 6455434B2
Authority
JP
Japan
Prior art keywords
image
unit
color difference
layer
difference component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015533364A
Other languages
English (en)
Other versions
JPWO2015104891A1 (ja
Inventor
佐藤 数史
数史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015104891A1 publication Critical patent/JPWO2015104891A1/ja
Application granted granted Critical
Publication of JP6455434B2 publication Critical patent/JP6455434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

本開示は、画像処理装置及び画像処理方法に関する。
現在、H.264/AVCよりも符号化効率をさらに向上することを目的として、ITU−TとISO/IECとの共同の標準化団体であるJCTVC(Joint Collaboration Team-Video Coding)により、HEVC(High Efficiency Video Coding)と呼ばれる画像符号化方式の標準化が進められている(例えば、非特許文献1参照)。
HEVCは、MPEG2及びAVC(Advanced Video Coding)などの既存の画像符号化方式と同様、シングルレイヤの符号化のみならず、スケーラブル符号化をも提供する。HEVCのスケーラブル符号化技術を、SHVC(Scalable HEVC)ともいう(例えば、非特許文献2参照)。
スケーラブル符号化とは、一般には、粗い画像信号を伝送するレイヤと精細な画像信号を伝送するレイヤとを階層的に符号化する技術をいう。スケーラブル符号化において階層化される典型的な属性は、主に次の3種類である。
−空間スケーラビリティ:空間解像度あるいは画像サイズが階層化される。
−時間スケーラビリティ:フレームレートが階層化される。
−SNR(Signal to Noise Ratio)スケーラビリティ:SN比が階層化される。
さらに、標準規格で未だ採用されていないものの、ビット深度スケーラビリティ及びクロマフォーマットスケーラビリティもまた議論されている。
さらに、非特許文献3及び非特許文献4は、色域(Color Gamut)を階層化する色域スケーラビリティを提案している。例えば、高精細(HD)テレビジョンでは、通常、1920×1080画素の画像サイズ、ITU−R BT.709の色域、8ビットのビット深度が使用される。これに対し、超高精細(UHD)テレビジョンでは、4000×2000画素又は8000×4000画素の画像サイズ、ITU−R BT.2020の色域、10ビット又は12ビットのビット深度が使用されることが検討されている。非特許文献3及び非特許文献4において説明されている手法によれば、BT.709の色域における画素ベクトル(Y,U,V)から、3次元のルックアップテーブルを用いて、BT.2020の色域における対応する画素ベクトルが予測される。
Benjamin Bross, Woo-Jin Han, Gary J. Sullivan, Jens-Rainer Ohm, Gary J. Sullivan, Ye-Kui Wang, Thomas Wiegand, "High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Consent)"(JCTVC-L1003_v4, 2013年1月14-23日) Jianle Chen, el. al, "Description of scalable video coding technology proposal by Qualcomm (configuration 2)"(JCTVC-K0036, 2012年10月10-19日) Philippe Bordes, el. al, "SCE4: Results on 5.3-test1 and 5.3-test2"(JCTVC-O0159, 2013年10月23-11月1日) Yuwen He, el. al, "Non-SCE4/AHG14: Combined bit-depth and color gamut conversion with 3D LUT for SHVC color gamut scalability"(JCTVC-O0161, 2013年10月23-11月1日)
通常、同じレイヤにおいて3つの色成分のビット深度は互いに等しい。そのため、ルックアップテーブルを参照するために画素値を選別(grading)する際の粒度もまた、3つの色成分について共通的に設計される。例えば、非特許文献3は、PPS(Picture Parameter Set)内に符号化される1つのパラメータnbp_codeによって、色域予測のためのルックアップテーブルにおける3つの色成分の粒度を定義することを想定している。非特許文献4は、ルックアップテーブルのサイズ(3つの色成分の粒度)を17×17×17としている。この粒度がより精細であるほど、色域予測の予測精度は高まる一方で、ルックアップテーブルのサイズ(LUTサイズ)はより大きくなる。例えば、予測画素値のビット深度が10ビット、LUTサイズが17×17×17であれば、ルックアップテーブルをバッファリングするために、17×17×17×3(色成分の数)×10(ビット深度)=147390ビットのバッファを確保することが求められる。HEVCが通常の量子化行列(スケーリングリスト)のために要するバッファサイズが約8000ビットであることを考慮すると、色域予測のためのルックアップテーブルの上記バッファサイズは極めて大きいことが理解される。
従って、色域スケーラビリティにおける十分な予測精度を確保しつつ、ルックアップテーブルのバッファサイズを低減することのできる手法が提供されることが望ましい。
本開示によれば、第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測する予測部、を備え、前記予測部は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、画像処理装置が提供される。
また、本開示によれば、第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せの各々と当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測すること、を含み、前記第2レイヤの画像の予測は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いて行われる、画像処理方法が提供される。
本開示に係る技術によれば、色域スケーラビリティにおける十分な予測精度を確保しつつ、ルックアップテーブルのバッファサイズを低減することができる。
スケーラブル符号化について説明するための説明図である。 BT.709及びBT.2020により表現される色域について説明するための説明図である。 一実施形態に係る画像符号化装置の概略的な構成を示すブロック図である。 一実施形態に係る画像復号装置の概略的な構成を示すブロック図である。 図3に示したEL符号化部の構成の一例を示すブロック図である。 一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。 エンハンスメントレイヤの符号化処理における色域予測処理の流れの一例を示すフローチャートである。 図4に示したEL復号部の構成の一例を示すブロック図である。 一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。 エンハンスメントレイヤの復号処理における色域予測処理の流れの一例を示すフローチャートである。 ビデオフォーマットのダイナミックレンジについて説明するための説明図である。 ダイナミックレンジスケーラビリティを実現するためのEL符号化部の構成の一例を示すブロック図である。 ダイナミックレンジスケーラビリティを実現するためのEL復号部の構成の一例を示すブロック図である。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。 スケーラブル符号化の用途の第1の例について説明するための説明図である。 スケーラブル符号化の用途の第2の例について説明するための説明図である。 スケーラブル符号化の用途の第3の例について説明するための説明図である。 マルチビューコーデックについて説明するための説明図である。 マルチビューコーデックのための画像符号化装置の概略的な構成を示すブロック図である。 マルチビューコーデックのための画像復号装置の概略的な構成を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
1−1.スケーラブル符号化
1−2.色域スケーラビリティ
1−3.エンコーダの基本的な構成例
1−4.デコーダの基本的な構成例
2.一実施形態に係るEL符号化部の構成例
2−1.全体的な構成
2−2.色域予測の詳細
3.一実施形態に係る符号化時の処理の流れ
3−1.概略的な流れ
3−2.色域予測処理
4.一実施形態に係るEL復号部の構成例
4−1.全体的な構成
4−2.色域予測の詳細
5.一実施形態に係る復号時の処理の流れ
5−1.概略的な流れ
5−2.色域予測処理
6.ダイナミックレンジスケーラビリティ
7.応用例
7−1.様々な製品への応用
7−2.スケーラブル符号化の様々な用途
7−3.その他
8.まとめ
<1.概要>
[1−1.スケーラブル符号化]
スケーラブル符号化においては、一連の画像をそれぞれ含む複数のレイヤが符号化される。ベースレイヤ(base layer)は、最初に符号化される、最も粗い画像を表現するレイヤである。ベースレイヤの符号化ストリームは、他のレイヤの符号化ストリームを復号することなく、独立して復号され得る。ベースレイヤ以外のレイヤは、エンハンスメントレイヤ(enhancement layer)と呼ばれる、より精細な画像を表現するレイヤである。エンハンスメントレイヤの符号化ストリームは、ベースレイヤの符号化ストリームに含まれる情報を用いて符号化される。従って、エンハンスメントレイヤの画像を再現するためには、ベースレイヤ及びエンハンスメントレイヤの双方の符号化ストリームが復号されることになる。スケーラブル符号化において扱われるレイヤの数は、2つ以上のいかなる数であってもよい。3つ以上のレイヤが符号化される場合には、最下位のレイヤがベースレイヤ、残りの複数のレイヤがエンハンスメントレイヤである。より上位のエンハンスメントレイヤの符号化ストリームは、より下位のエンハンスメントレイヤ又はベースレイヤの符号化ストリームに含まれる情報を用いて符号化され及び復号され得る。
図1は、スケーラブル符号化される3つのレイヤL1、L2及びL3を示している。レイヤL1はベースレイヤであり、レイヤL2及びL3はエンハンスメントレイヤである。レイヤL2のレイヤL1に対する空間解像度の比は、2:1である。レイヤL3のレイヤL1に対する空間解像度の比は、4:1である。なお、ここでの解像度比は一例に過ぎず、例えば1.5:1などの非整数の解像度比が使用されてもよい。レイヤL1のブロックB1は、ベースレイヤのピクチャ内の符号化処理の処理単位である。レイヤL2のブロックB2は、ブロックB1と共通するシーンを映したエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB2は、レイヤL1のブロックB1に対応する。レイヤL3のブロックB3は、ブロックB1及びB2と共通するシーンを映したより上位のエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB3は、レイヤL1のブロックB1及びレイヤL2のブロックB2に対応する。
[1−2.色域スケーラビリティ]
図1に例示したレイヤ構造において、画像のテクスチャは、共通するシーンを映したレイヤ間で類似する。即ち、レイヤL1内のブロックB1、レイヤL2内のブロックB2、及びレイヤL3内のブロックB3のテクスチャは類似する。従って、例えばブロックB1を参照ブロックとして用いてブロックB2又はブロックB3の画素を予測し、又はブロックB2を参照ブロックとして用いてブロックB3の画素を予測すれば、高い予測精度が得られる可能性がある。このようなレイヤ間の予測を、インターレイヤ予測という。非特許文献2では、インターレイヤ予測のためのいくつかの手法が提案されている。それら手法のうち、イントラBL予測では、ベースレイヤの復号画像(リコンストラクト画像)が、エンハンスメントレイヤの復号画像を予測するための参照画像として使用される。イントラ残差予測及びインター残差予測では、ベースレイヤの予測誤差(残差)画像が、エンハンスメントレイヤの予測誤差画像を予測するための参照画像として使用される。
ここで、例えばレイヤL1の画像がHDテレビジョン画像であり、レイヤL2の画像がUHDテレビジョン画像であるものとする。図2は、BT.709及びBT.2020により表現される色域について説明するための説明図である。図2を参照すると、所定の拘束条件を用いて3次元の色空間を2次元平面へマッピングした色域グラフが示されている。グラフ中の十字マークは、白色がマッピングされる位置を示す。グラフ中の破線は、BT.709が表現することのできる色の範囲を示す。グラフ中の実線は、BT.2020が表現することのできる色の範囲を示す。グラフ中の点線は、人間の視覚が識別することのできる色の範囲を示す。図2から理解されるように、BT.2020は、BT.709よりも多彩な色を表現することができる。レイヤL1の各画素がBT.709で表現され、レイヤL2の各画素がBT.2020で表現される場合、インターレイヤ予測に際して、参照画像(レイヤL1の画像)についての解像度の変換(即ち、アップサンプリング)及び色域の変換が行われる。一例として、非特許文献3及び非特許文献4は、BT.709の画素ベクトルを、3次元のルックアップテーブルを用いてBT.2020の画素ベクトルに変換する手法を説明している。実際には、変換後の画素ベクトルがそのまま使用されるわけではなく、残差(予測誤差)が別途符号化され及び復号され得るため、このような色域の変換を、色域予測ともいう。ルックアップテーブルは、例えば、レイヤL1の輝度成分(Y)、第1色差成分(U)及び第2色差成分(V)の組合せと、当該組合せに対応するレイヤL2の予測画素値とをマッピングする。
ところで、通常、同じレイヤにおいて3つの色成分のビット深度は互いに等しい。ビット深度がnビットであれば、輝度成分及び色差成分のレンジ幅は全て2に等しい。そのため、ルックアップテーブルを参照するために画素値を選別(grading)する際の粒度もまた、3つの色成分について共通的に設計される。例えば、非特許文献3は、次の表1に示したように、PPS内に符号化される1つのパラメータnbp_codeによって、色域予測用のルックアップテーブルにおける3つの色成分の粒度を定義することを想定している。
Figure 0006455434
表1において、フラグuse_color_prediction_flagは、レイヤ間で色域を変換するか否かを示すフラグである。関数3D_LUT_color_data()は、色域予測用のルックアップテーブルに関連するシンタックスを定義する。パラメータnbp_codeは、色域予測用のルックアップテーブルにおける3つの色成分の粒度を共通的に定義する。実際の粒度nbpとパラメータnbp_codeとの間の関係は、nbp=1+(1<<(nbp_code−1))という関係式で表現される。パラメータlut_bit_depth_minus8は、予測画素値のビット深度を定義する。関数coding_octant(0,0,0,0)は、ルックアップテーブルの内容(入力画素値と予測画素値とのマッピング)をパラメータnbp_codeにより特定される粒度で定義する関数である。関数coding_octant(0,0,0,0)の具体的な仕様は、非特許文献3に記載されている。非特許文献4は、ルックアップテーブルを用いた色域予測の性能をシミュレーションする際に、全てのテストにおいてサイズ17×17×17のルックアップテーブルを使用している。
色域予測用のルックアップテーブルにおける色成分の粒度がより精細であるほど、色域予測のより高い予測精度を期待することができる。一方で、当該粒度がより精細であるほど、ルックアップテーブルのサイズ(LUTサイズ)はより大きくなる。例えば、予測画素値のビット深度が10ビット、LUTサイズが17×17×17であれば、ルックアップテーブルをバッファリングするために、17×17×17×3(色成分の数)×10(ビット深度)=147390ビットのバッファを確保することが求められる。HEVCが通常の量子化行列(スケーリングリスト)のために要するバッファサイズが約8000ビットであることを考慮すると、色域予測のためのルックアップテーブルの上記バッファサイズは極めて大きいことが理解される。そして、大規模なバッファの確保は、デバイスのコストの上昇、メモリリソース不足に起因する動作不良及び処理の遅延などの様々なデメリットをもたらし得る。そこで、以下に説明する実施形態において、色域スケーラビリティにおける十分な予測精度を確保しつつ、ルックアップテーブルのバッファサイズを低減するための仕組みを説明する。
[1−3.エンコーダの基本的な構成例]
図3は、スケーラブル符号化をサポートする、一実施形態に係る画像符号化装置10の概略的な構成を示すブロック図である。図3を参照すると、画像符号化装置10は、ベースレイヤ(BL)符号化部1a、エンハンスメントレイヤ(EL)符号化部1b、共通メモリ2及び多重化部3を備える。
BL符号化部1aは、ベースレイヤ画像を符号化し、ベースレイヤの符号化ストリームを生成する。EL符号化部1bは、エンハンスメントレイヤ画像を符号化し、エンハンスメントレイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成される1つ以上のエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
[1−4.デコーダの基本的な構成例]
図4は、スケーラブル符号化をサポートする、一実施形態に係る画像復号装置60の概略的な構成を示すブロック図である。図4を参照すると、画像復号装置60は、逆多重化部5、ベースレイヤ(BL)復号部6a、エンハンスメントレイヤ(EL)復号部6b及び共通メモリ7を備える。
逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及び1つ以上のエンハンスメントレイヤの符号化ストリームに逆多重化する。BL復号部6aは、ベースレイヤの符号化ストリームからベースレイヤ画像を復号する。EL復号部6bは、エンハンスメントレイヤの符号化ストリームからエンハンスメントレイヤ画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
図3に例示した画像符号化装置10において、ベースレイヤの符号化のためのBL符号化部1aの構成と、エンハンスメントレイヤの符号化のためのEL符号化部1bの構成とは、互いに類似する。BL符号化部1aにより生成され又は取得されるいくつかのパラメータ及び画像は、共通メモリ2を用いてバッファリングされ、EL符号化部1bにより再利用され得る。次節では、そのようなEL符号化部1bの構成について詳細に説明する。
同様に、図4に例示した画像復号装置60において、ベースレイヤの復号のためのBL復号部6aの構成と、エンハンスメントレイヤの復号のためのEL復号部6bの構成とは、互いに類似する。BL復号部6aにより生成され又は取得されるいくつかのパラメータ及び画像は、共通メモリ7を用いてバッファリングされ、EL復号部6bにより再利用され得る。さらに次の節では、そのようなEL復号部6bの構成について詳細に説明する。
<2.一実施形態に係るEL符号化部の構成例>
[2−1.全体的な構成]
図5は、図3に示したEL符号化部1bの構成の一例を示すブロック図である。図5を参照すると、EL符号化部1bは、並び替えバッファ11、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、ループフィルタ24、フレームメモリ25、セレクタ26及び27、イントラ予測部30、インター予測部35、色域予測部40並びにLUTバッファ45を備える。
並び替えバッファ11は、一連の画像データに含まれる画像を並び替える。並び替えバッファ11は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、イントラ予測部30、インター予測部35及び色域予測部40へ出力する。
減算部13には、並び替えバッファ11から入力される画像データ、及び後に説明するイントラ予測部30又はインター予測部35から入力される予測画像データが供給される。減算部13は、並び替えバッファ11から入力される画像データと予測画像データとの差分である予測誤差データを計算し、計算した予測誤差データを直交変換部14へ出力する。
直交変換部14は、減算部13から入力される予測誤差データについて直交変換を行う。直交変換部14により実行される直交変換は、例えば、離散コサイン変換(Discrete Cosine Transform:DCT)又はカルーネン・レーベ変換などであってよい。HEVCにおいて、直交変換は、TU(変換単位:Transform Unit)と呼ばれるブロックごとに実行される。TUは、CU(符号化単位:Coding Unit)を分割することにより形成されるブロックである。直交変換部14は、直交変換処理により取得される変換係数データを量子化部15へ出力する。
量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。量子化部15は、レート制御信号に従って決定される量子化ステップで変換係数データを量子化する。量子化部15は、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。
可逆符号化部16は、量子化部15から入力される量子化データについて可逆符号化処理を行うことにより、エンハンスメントレイヤの符号化ストリームを生成する。また、可逆符号化部16は、符号化ストリームを復号する際に参照される様々なパラメータを符号化して、符号化されたパラメータを符号化ストリームのヘッダ領域に挿入する。可逆符号化部16により符号化されるパラメータは、後に説明するイントラ予測に関する情報及びインター予測に関する情報を含み得る。色域の予測に関連するパラメータもまた符号化され得る。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。
蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。
レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。
逆量子化部21、逆直交変換部22及び加算部23は、ローカルデコーダを構成する。逆量子化部21は、量子化部15により使用されたものと同じ量子化ステップで、エンハンスメントレイヤの量子化データを逆量子化し、変換係数データを復元する。そして、逆量子化部21は、復元した変換係数データを逆直交変換部22へ出力する。
逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を行うことにより、予測誤差データを復元する。直交変換と同様、逆直交変換は、TUごとに実行される。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。
加算部23は、逆直交変換部22から入力される復元された予測誤差データとイントラ予測部30又はインター予測部35から入力される予測画像データとを加算することにより、復号画像データ(エンハンスメントレイヤのリコンストラクト画像)を生成する。そして、加算部23は、生成した復号画像データをループフィルタ24及びフレームメモリ25へ出力する。
ループフィルタ24は、画質の向上を目的とするフィルタ群を含む。デブロックフィルタ(DF)は、画像の符号化時に生じるブロック歪みを軽減するフィルタである。サンプル適応オフセット(SAO)フィルタは、各画素値に適応的に決定されるオフセット値を加えるフィルタである。適応ループフィルタ(ALF)は、SAO後の画像と原画像との誤差を最小化するフィルタである。ループフィルタ24は、加算部23から入力される復号画像データをフィルタリングし、フィルタリング後の復号画像データをフレームメモリ25へ出力する。
フレームメモリ25は、加算部23から入力されるエンハンスメントレイヤの復号画像データ、ループフィルタ24から入力されるエンハンスメントレイヤのフィルタリング後の復号画像データ、及び色域予測部40から入力されるベースレイヤの参照画像データを記憶媒体を用いて記憶する。
セレクタ26は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部30に供給する。また、セレクタ26は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてインター予測部35に供給する。さらに、イントラ予測部30又はインター予測部35においてインターレイヤ予測が実行される場合、セレクタ26は、ベースレイヤの参照画像データをイントラ予測部30又はインター予測部35へ供給する。
セレクタ27は、イントラ予測モードにおいて、イントラ予測部30から出力されるイントラ予測の結果としての予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。また、セレクタ27は、インター予測モードにおいて、インター予測部35から出力されるインター予測の結果としての予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。セレクタ27は、イントラ予測モードとインター予測モードとを、コスト関数値の大きさに応じて切り替える。
イントラ予測部30は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、HEVCのPU(予測単位:Prediction Unit)ごとにイントラ予測処理を行う。例えば、イントラ予測部30は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部30は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部30は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。イントラ予測部30は、エンハンスメントレイヤにおける予測モードセットに、インターレイヤ予測の一種であるイントラBL予測を含めてもよい。イントラBL予測では、エンハンスメントレイヤ内の予測対象ブロックに対応するベースレイヤ内のコロケーテッドブロックが参照ブロックとして使用され、当該参照ブロックの復号画像に基づいて予測画像が生成される。また、イントラ予測部30は、インターレイヤ予測の一種であるイントラ残差予測を含めてもよい。イントラ残差予測では、ベースレイヤ内のコロケーテッドブロックである参照ブロックの予測誤差画像に基づいてイントラ予測の予測誤差が予測され、予測された予測誤差の加算された予測画像が生成される。イントラ予測部30は、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
インター予測部35は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、HEVCのPUごとにインター予測処理を行う。例えば、インター予測部35は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、インター予測部35は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、インター予測部35は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。インター予測部35は、エンハンスメントレイヤにおける予測モードセットに、インターレイヤ予測の一種であるインター残差予測を含めてもよい。インター残差予測では、ベースレイヤ内のコロケーテッドブロックである参照ブロックの予測誤差画像に基づいてインター予測の予測誤差が予測され、予測された予測誤差の加算された予測画像が生成される。インター予測部35は、選択した最適な予測モードを表す予測モード情報と動き情報とを含むインター予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
色域予測部40は、共通メモリ2によりバッファリングされるベースレイヤの画像(復号画像又は予測誤差画像)を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。また、色域予測部40は、ベースレイヤの画像とは異なる色域をエンハンスメントレイヤの画像が有する場合に、アップサンプリングしたベースレイヤの画像の色域を、エンハンスメントレイヤの画像と同等の色域に変換する。本実施形態において、色域予測部40は、色域を変換するために、LUT(ルックアップテーブル)バッファ45によりバッファリングされるルックアップテーブルを用いる。色域予測部40により色域の変換されたベースレイヤの画像は、フレームメモリ25に格納され、イントラ予測部30又はインター予測部35により、インターレイヤ予測において参照画像として使用され得る。
LUTバッファ45は、色域予測部40により使用されるルックアップテーブルをバッファリングするバッファである。ルックアップテーブルは、ベースレイヤの輝度成分(Y)、第1色差成分(U)及び第2色差成分(V)の組合せと当該組合せに対応するエンハンスメントレイヤの予測画素値とをマッピングする。
[2−2.色域予測の詳細]
本実施形態において、色域予測部40は、ベースレイヤ画像からエンハンスメントレイヤ画像を予測する際に、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルを、色域予測のために用いる。一例として、ベースレイヤ画像のビット深度が8ビットである場合、輝度成分の粒度は17であるのに対し、第1色差成分及び第2色差成分の粒度は9であってよい。この場合、ベースレイヤの色空間は17×9×9個のサブ空間に分割され、ルックアップテーブルはサブ空間ごとに対応する予測画素値(エンハンスメントレイヤの画素ベクトル)を定義する。エンハンスメントレイヤのビット深度が10ビットであれば、ルックアップテーブルをバッファリングするために、LUTバッファ45は、17×9×9×3(色成分の数)×10(ビット深度)=41310ビットのメモリリソースを消費する。なお、上述した粒度の値は一例に過ぎず、他の値(例えば、9×5×5又は17×5×5など)が使用されてもよい。また、第1色差成分の粒度と第2色差成分の粒度とは異なってもよい(例えば、17×9×5又は17×5×9など)。
色域予測部40は、例えば、ユーザによる事前の設定又は画像の解析に従って、輝度成分(Y)、第1色差成分(U)及び第2色差成分(V)の粒度を設定する。また、色域予測部40は、設定した粒度に基づいて分割されるベースレイヤの色空間(Y,U,V)のサブ空間ごとに、エンハンスメントレイヤの原画像と予測画像との差が最小化されるように、予測画素値を決定する。そして、色域予測部40は、各サブ空間と対応する予測画素値との間のマッピングを定義するルックアップテーブルを、LUTバッファ45にバッファリングさせる。このようなルックアップテーブルの生成は、シーケンス、ピクチャ又はスライスなどの単位で行われ得る。
また、色域予測部40は、共通メモリ2から取得されるベースレイヤ画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。そして、色域予測部40は、アップサンプリング後のベースレイヤの各画素ベクトルがどのサブ空間に属するかを選別し、選別されたサブ空間にマッピングされている予測画素値をルックアップテーブルを参照することにより取得する。色域予測部40は、このような処理を各画素について繰り返すことにより、ベースレイヤ画像の色域を変換する。そして、色域予測部40は、色域変換後のベースレイヤ画像を、インターレイヤ予測のための参照画像として、フレームメモリ25に格納する。なお、アップサンプリングは色域の変換の後に行われてもよい。
色域予測部40は、エンコーダにおいて使用したものと同じルックアップテーブルをデコーダに使用させるために、ルックアップテーブル情報を生成する。第1の例において、ルックアップテーブル情報は、例えば、次の表2に示すようなシンタックスを有し得る。
Figure 0006455434
第1の例において、パラメータnbp_code_Lumaは、色域予測用のルックアップテーブルにおける輝度成分の粒度を定義する。パラメータnbp_code_Chromaは、色域予測用のルックアップテーブルにおける第1色差成分及び第2色差成分の粒度を定義する。第2の例において、ルックアップテーブル情報は、例えば、次の表3に示すようなシンタックスを有し得る。
Figure 0006455434
第2の例において、パラメータnbp_code_Yは、色域予測用のルックアップテーブルにおける輝度成分の粒度を定義する。パラメータnbp_code_Uは、色域予測用のルックアップテーブルにおける第1色差成分の粒度を定義する。パラメータnbp_code_Vは、色域予測用のルックアップテーブルにおける第2色差成分の粒度を定義する。
色域予測部40は、このようなシンタックスを有するルックアップテーブル情報を生成し、生成したルックアップテーブル情報を可逆符号化部16へ出力する。可逆符号化部16は、入力されたルックアップテーブル情報を符号化し、符号化した情報を符号化ストリームのヘッダ領域に挿入する。ルックアップテーブル情報は、例えば、符号化ストリームのVPS(Video Parameter Set)若しくはその拡張、SPS(Sequence Parameter Set)若しくはその拡張、PPS(Picture Parameter Set)若しくはその拡張、又はスライスヘッダ若しくはその拡張内で符号化されてもよい。また、ルックアップテーブル情報は、SEI(Supplemental Enhancement Information)内で符号化されてもよい。ルックアップテーブル情報がSEI内で符号化される場合、画像の復号ではなくディスプレイでの表示の際に色域を変換するような応用も可能となる。
なお、ルックアップテーブルがエンコーダ及びデコーダの双方にとって既知である場合には、ルックアップテーブル情報はエンコーダからデコーダへ伝送されなくてよい。また、ルックアップテーブルの3つの色成分の粒度が予め固定的に定義される場合には、粒度情報を含まないルックアップテーブル情報がエンコーダからデコーダへ伝送されてもよい。
一変形例として、色域予測部40は、例えば、第1色差成分及び第2色差成分の解像度(resolution)が輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、第1色差成分及び第2色差成分の粒度(granularity)が輝度成分の粒度よりも粗いルックアップテーブルを用いてもよい。例えば、クロマフォーマットが4:2:0の場合、色差成分の解像度は、垂直方向及び水平方向の双方において輝度成分よりも低い。クロマフォーマットが4:2:2の場合、色差成分の解像度は、水平方向において輝度成分よりも低い。これらケースでは、ルックアップテーブルの粒度の削減に起因する予測精度の低下が符号化効率に与える影響は、輝度成分と比較して色差成分においてより小さい。よって、これらケースにおいて色差成分についてのみルックアップテーブルの粒度を削減することで、符号化効率の犠牲を抑制しつつ、ルックアップテーブルのバッファサイズを効果的に低減することができる。一方、色域予測部40は、クロマフォーマットが4:4:4の場合、即ち色差成分の解像度が輝度成分の解像度と等しい場合には、既存の手法と同様に、輝度成分、第1色差成分及び第2色差成分について共通的な粒度を有するルックアップテーブルを用いてもよい。
<3.一実施形態に係る符号化時の処理の流れ>
[3−1.概略的な流れ]
図6は、一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
図6を参照すると、まず、BL符号化部1aは、ベースレイヤの符号化処理を実行し、ベースレイヤの符号化ストリームを生成する(ステップS11)。
共通メモリ2は、ベースレイヤの符号化処理において生成されるベースレイヤの画像(復号画像及び予測誤差画像の一方又は双方)及びレイヤ間で再利用されるパラメータをバッファリングする(ステップS12)。レイヤ間で再利用されるパラメータは、例えば、解像度情報を含み得る。
次に、EL符号化部1bは、エンハンスメントレイヤの符号化処理を実行し、エンハンスメントレイヤの符号化ストリームを生成する(ステップS13)。ここで実行されるエンハンスメントレイヤの符号化処理において、共通メモリ2によりバッファリングされているベースレイヤの画像は、色域予測部40によりアップサンプリングされ、その色域は変換される。そして、色域変換後のベースレイヤの画像は、インターレイヤ予測において参照画像として使用され得る。
次に、多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成されるエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する(ステップS14)。
[3−2.色域予測処理]
図7は、エンハンスメントレイヤの符号化処理における色域予測処理の流れの一例を示すフローチャートである。ここで説明する色域予測処理は、ルックアップテーブルが更新される単位(例えば、シーケンス、ピクチャ又はスライス)で繰り返され得る。
図7を参照すると、まず、色域予測部40は、ユーザによる事前の設定又は画像の解析に従って、ルックアップテーブルの輝度成分の粒度を設定する(ステップS20)。また、色域予測部40は、輝度成分の粒度よりも粗い、第1色差成分及び第2色差成分の粒度を設定する(ステップS22)。次に、色域予測部40は、設定した粒度を有するルックアップテーブルを色域予測のために決定し、決定したルックアップテーブルをLUTバッファ45にバッファリングさせる(ステップS24)。LUTバッファ45は、色域予測部40により決定されたルックアップテーブルを、テーブルの次回の更新まで保持する。
次に、色域予測部40は、例えば表2又は表3に示したようなシンタックスで、ルックアップテーブルを定義するルックアップテーブル情報を生成する(ステップS26)。ここで生成されるルックアップテーブル情報は、輝度成分の粒度を定義する粒度情報に加えて、第1色差成分及び第2色差成分の(共通的な又は別個の)粒度を定義する粒度情報を含む。そして、可逆符号化部16は、色域予測部40により生成されたルックアップテーブル情報を符号化する(ステップS28)。
また、色域予測部40は、共通メモリ2から取得されるベースレイヤ画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする(ステップS30)。その後のステップS32〜S38の処理は、アップサンプリング後の各画素を注目画素として、画素ごとに繰り返される。まず、色域予測部40は、注目画素の画素ベクトルが、3つの色成分の粒度で分割された3次元の色空間のどのサブ空間に属するかを選別する(ステップS32)。次に、色域予測部40は、選別したサブ空間に対応する予測画素値を、LUTバッファ45によりバッファリングされている3次元のルックアップテーブルから取得する(ステップS34)。そして、色域予測部40は、取得した注目画素の予測画素値を、フレームメモリ25に格納する(ステップS36)。
その後、未処理の次の注目画素が存在する場合には、処理はステップS32へ戻り、次の注目画素について色域予測が繰り返される(ステップS38)。アップサンプリングもまた繰り返されてよい。次の注目画素が存在しない場合には、図7に示した色域予測処理は終了する。
<4.一実施形態に係るEL復号部の構成例>
[4−1.全体的な構成]
図8は、図4に示したEL復号部6bの構成の一例を示すブロック図である。図8を参照すると、EL復号部6bは、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、ループフィルタ66、並び替えバッファ67、D/A(Digital to Analogue)変換部68、フレームメモリ69、セレクタ70及び71、イントラ予測部80、インター予測部85、色域予測部90並びにLUTバッファ95を備える。
蓄積バッファ61は、逆多重化部5から入力されるエンハンスメントレイヤの符号化ストリームを記憶媒体を用いて一時的に蓄積する。
可逆復号部62は、蓄積バッファ61から入力されるエンハンスメントレイヤの符号化ストリームから、符号化の際に使用された符号化方式に従ってエンハンスメントレイヤの量子化データを復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に挿入されている情報を復号する。可逆復号部62により復号される情報は、例えば、イントラ予測に関する情報及びインター予測に関する情報を含み得る。色域予測のためのパラメータ(例えば、ルックアップテーブル情報)もまた、エンハンスメントレイヤにおいて復号され得る。可逆復号部62は、量子化データを逆量子化部63へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部80へ出力する。また、可逆復号部62は、インター予測に関する情報をインター予測部85へ出力する。また、可逆復号部62は、色域予測のためのパラメータを色域予測部90へ出力する。
逆量子化部63は、可逆復号部62から入力される量子化データを、符号化の際に使用されたものと同じ量子化ステップで逆量子化し、エンハンスメントレイヤの変換係数データを復元する。逆量子化部63は、復元した変換係数データを逆直交変換部64へ出力する。
逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを生成する。逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。
加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71から入力される予測画像データとを加算することにより、復号画像データを生成する。そして、加算部65は、生成した復号画像データをループフィルタ66及びフレームメモリ69へ出力する。
ループフィルタ66は、EL符号化部1bのループフィルタ24と同様、ブロック歪みを軽減するデブロックフィルタ、各画素値にオフセット値を加えるサンプル適応オフセットフィルタ、及び原画像との誤差を最小化する適応ループフィルタを含む。ループフィルタ66は、加算部65から入力される復号画像データをフィルタリングし、フィルタリング後の復号画像データを並び替えバッファ67及びフレームメモリ69へ出力する。
並び替えバッファ67は、ループフィルタ66から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ67は、生成した画像データをD/A変換部68へ出力する。
D/A変換部68は、並び替えバッファ67から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部68は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、エンハンスメントレイヤの画像を表示させる。
フレームメモリ69は、加算部65から入力されるフィルタリング前の復号画像データ、ループフィルタ66から入力されるフィルタリング後の復号画像データ、及び色域予測部90から入力されるベースレイヤの参照画像データを記憶媒体を用いて記憶する。
セレクタ70は、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ69からの画像データの出力先をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ70は、イントラ予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部80へ出力する。また、セレクタ70は、インター予測モードが指定された場合には、フィルタリング後の復号画像データを参照画像データとしてインター予測部85へ出力する。さらに、イントラ予測部80又はインター予測部85においてインターレイヤ予測が実行される場合、セレクタ70は、ベースレイヤの参照画像データをイントラ予測部80又はインター予測部85へ供給する。
セレクタ71は、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ71は、イントラ予測モードが指定された場合には、イントラ予測部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71は、インター予測モードが指定された場合には、インター予測部85から出力される予測画像データを加算部65へ供給する。
イントラ予測部80は、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのイントラ予測処理を行い、予測画像データを生成する。イントラ予測処理は、PUごとに実行される。イントラ予測部80は、イントラ予測モードとしてイントラBL予測又はイントラ残差予測が指定された場合には、予測対象ブロックに対応するベースレイヤ内のコロケーテッドブロックを参照ブロックとして使用する。イントラBL予測の場合、イントラ予測部80は、参照ブロックの復号画像に基づいて予測画像を生成する。イントラ残差予測の場合、イントラ予測部80は、参照ブロックの予測誤差画像に基づいてイントラ予測の予測誤差を予測し、予測した予測誤差の加算された予測画像を生成する。イントラ予測部80は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
インター予測部85は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのインター予測処理(動き補償処理)を行い、予測画像データを生成する。インター予測処理は、PUごとに実行される。インター予測部85は、インター予測モードとしてインター残差予測が指定された場合には、予測対象ブロックに対応するベースレイヤ内のコロケーテッドブロックを参照ブロックとして使用する。インター残差予測の場合、インター予測部85は、参照ブロックの予測誤差画像に基づいてインター予測の予測誤差を予測し、予測した予測誤差の加算された予測画像を生成する。インター予測部85は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
色域予測部90は、共通メモリ7によりバッファリングされるベースレイヤの画像(復号画像又は予測誤差画像)を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。また、色域予測部90は、ベースレイヤの画像とは異なる色域をエンハンスメントレイヤの画像が有する場合に、アップサンプリングしたベースレイヤの画像の色域を、エンハンスメントレイヤの画像と同等の色域に変換する。本実施形態において、色域予測部90は、色域を変換するために、LUTバッファ95によりバッファリングされるルックアップテーブルを用いる。色域予測部90により色域の変換されたベースレイヤの画像は、フレームメモリ69に格納され、イントラ予測部80又はインター予測部85により、インターレイヤ予測において参照画像として使用され得る。
LUTバッファ95は、色域予測部90により使用されるルックアップテーブルをバッファリングするバッファである。ルックアップテーブルは、ベースレイヤの輝度成分(Y)、第1色差成分(U)及び第2色差成分(V)の組合せと当該組合せに対応するエンハンスメントレイヤの予測画素値とをマッピングする。
[4−2.色域予測の詳細]
本実施形態において、色域予測部90は、上で説明した色域予測部40と同様、ベースレイヤ画像からエンハンスメントレイヤ画像を予測する際に、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルを、色域予測のために用いる。ベースレイヤの色空間は3つの色成分の粒度に基づいて複数のサブ空間に分割され、ルックアップテーブルはサブ空間ごとに対応する予測画素値(エンハンスメントレイヤの画素ベクトル)を定義する。
色域予測部90は、可逆復号部62により復号されるルックアップテーブル情報を取得する。ルックアップテーブル情報は、表2又は表3において説明したように、輝度成分(Y)、第1色差成分(U)及び第2色差成分(V)について設定すべき粒度を定義する粒度情報を含み得る。粒度情報は、輝度成分の粒度を定義するパラメータとは別に、第1色差成分及び第2色差成分の粒度を共通的に定義する1つのパラメータを含んでもよい。その代わりに、粒度情報は、第1色差成分及び第2色差成分の粒度をそれぞれ定義する別個のパラメータを含んでもよい。ルックアップテーブル情報は、さらに、予測画素値のビット深度を定義するパラメータ、及びルックアップテーブルの内容(入力画素値と予測画素値とのマッピング)を定義する情報を含み得る。色域予測部90は、このようなルックアップテーブル情報に基づいて、ベースレイヤの色空間の複数のサブ空間の各々と対応する予測画素値との間のマッピングを定義するルックアップテーブルを生成し、生成したルックアップテーブルをLUTバッファ95にバッファリングさせる。このようなルックアップテーブル情報の取得及びルックアップテーブルの生成は、シーケンス、ピクチャ又はスライスなどの単位で行われ得る。ルックアップテーブル情報は、例えば、符号化ストリームのVPS若しくはその拡張、SPS若しくはその拡張、PPS若しくはその拡張、又はスライスヘッダ若しくはその拡張から復号されてよい。また、ルックアップテーブル情報は、SEIから復号され、ディスプレイでの表示の際に色域を変換するために利用されてもよい。
また、使用すべきルックアップテーブルを生成した後、色域予測部90は、共通メモリ7から取得されるベースレイヤ画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。そして、色域予測部90は、アップサンプリング後のベースレイヤの各画素ベクトルがどのサブ空間に属するかを選別し、選別されたサブ空間にマッピングされている予測画素値をルックアップテーブルを参照することにより取得する。色域予測部90は、このような処理を各画素について繰り返すことにより、ベースレイヤ画像の色域を変換する。そして、色域予測部90は、色域変換後のベースレイヤ画像を、インターレイヤ予測のための参照画像として、フレームメモリ69に格納する。なお、アップサンプリングは色域の変換の後に行われてもよい。
一変形例として、色域予測部90は、例えば、第1色差成分及び第2色差成分の解像度が輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルを用いてもよい。色差成分の解像度が輝度成分の解像度よりも低いケースにおいて色差成分についてのみルックアップテーブルの粒度を削減することで、符号化効率の犠牲を抑制しつつ、ルックアップテーブルのバッファサイズを効果的に低減することができる。一方、色域予測部90は、色差成分の解像度が輝度成分の解像度と等しいことをクロマフォーマットが示す場合には、既存の手法と同様に、輝度成分、第1色差成分及び第2色差成分について共通的な粒度を有するルックアップテーブルを用いてもよい。
<5.一実施形態に係る復号時の処理の流れ>
[5−1.概略的な流れ]
図9は、一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
図9を参照すると、まず、逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームに逆多重化する(ステップS60)。
次に、BL復号部6aは、ベースレイヤの復号処理を実行し、ベースレイヤの符号化ストリームからベースレイヤ画像を再構築する(ステップS61)。
共通メモリ7は、ベースレイヤの復号処理において生成されるベースレイヤの画像(復号画像及び予測誤差画像の一方又は双方)及びレイヤ間で再利用されるパラメータをバッファリングする(ステップS62)。レイヤ間で再利用されるパラメータは、例えば、解像度情報を含み得る。
次に、EL復号部6bは、エンハンスメントレイヤの復号処理を実行し、エンハンスメントレイヤ画像を再構築する(ステップS63)。ここで実行されるエンハンスメントレイヤの復号処理において、共通メモリ7によりバッファリングされているベースレイヤの画像は、色域予測部90によりアップサンプリングされ、その色域は変換される。そして、色域変換後のベースレイヤの画像は、インターレイヤ予測において参照画像として使用され得る。
[5−2.色域予測処理]
図10は、エンハンスメントレイヤの復号処理における色域予測処理の流れの一例を示すフローチャートである。ここで説明する色域予測処理は、ルックアップテーブルが更新される単位(例えば、シーケンス、ピクチャ又はスライス)で繰り返され得る。
図10を参照すると、まず、可逆復号部62は、粒度情報を含むルックアップテーブル情報を、符号化ストリームのヘッダ領域から復号する(ステップS70)。次に、色域予測部90は、復号された粒度情報に従って、ルックアップテーブルの輝度成分の粒度を設定する(ステップS72)。また、色域予測部90は、復号された粒度情報に従って、輝度成分の粒度よりも粗い、第1色差成分及び第2色差成分の粒度を設定する(ステップS74)。次に、色域予測部90は、設定した粒度を有するルックアップテーブルを再構築(設定)し、再構築したルックアップテーブルをLUTバッファ95にバッファリングさせる(ステップS76)。LUTバッファ95は、色域予測部90により再構築されたルックアップテーブルを、テーブルの次回の更新まで保持する。
また、色域予測部90は、共通メモリ7から取得されるベースレイヤ画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする(ステップS80)。その後のステップS82〜S88の処理は、アップサンプリング後の各画素を注目画素として、画素ごとに繰り返される。まず、色域予測部90は、注目画素の画素ベクトルが、3つの色成分の粒度で分割された3次元の色空間のどのサブ空間に属するかを選別する(ステップS82)。次に、色域予測部90は、選別したサブ空間に対応する予測画素値を、LUTバッファ95によりバッファリングされている3次元のルックアップテーブルから取得する(ステップS84)。そして、色域予測部90は、取得した注目画素の予測画素値を、フレームメモリ69に格納する(ステップS86)。
その後、未処理の次の注目画素が存在する場合には、処理はステップS82へ戻り、次の注目画素について色域予測が繰り返される(ステップS88)。アップサンプリングもまた繰り返されてよい。次の注目画素が存在しない場合には、図10に示した色域予測処理は終了する。
<6.ダイナミックレンジスケーラビリティ>
レイヤ間の画像予測のために色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルを用いるという本開示のアイディアは、色域スケーラビリティのみならず、他の種類のスケーラブル符号化にも適用可能である。例えば、画素のダイナミックレンジは、画質に影響を与える重要な属性である。既存の多くのディスプレイによりサポートされるSDR(Standard Dynamic Range)画像の最大輝度は、100nitである。一方、近年市場に投入されたハイエンドディスプレイによりサポートされるHDR(High Dynamic Range)画像の最大輝度は、例えば800nitに達する。SDR画像は、HDR画像との対比において、LDR(Low Dynamic Range)画像とも呼ばれる。
図11は、ビデオフォーマットのダイナミックレンジについて説明するための説明図である。図11の縦軸は輝度[nit]を表す。自然界の最大輝度は20000nitに達することがあり、一般的な被写体の輝度は例えば最大で12000nit程度である。これに対し、イメージセンサのダイナミックレンジの上限は、自然界の最大輝度よりも低く、例えば4000nitであり得る。イメージセンサにより生成される画像信号は、さらに所定のビデオフォーマットで記録される。SDR画像のダイナミックレンジは図中で斜線で網掛けされたバーで示されており、その上限は100nitである。よって、SDR画像として撮像画像を記録する際には、輝度のダイナミックレンジは、例えばニー(knee)圧縮などの手法で、大きく圧縮される。そして、ディスプレイが表現可能な最大輝度が1000nitである場合、SDR画像を表示する際に10倍のスケーリングが行われるが、スケーリングの結果として表示画像には画質の劣化が現れ易い。HDR画像のダイナミックレンジは図中で太枠のバーで示されており、その上限は800nitである。よって、HDR画像として撮像画像を記録する際にも、輝度のダイナミックレンジは、例えばニー圧縮などの手法で圧縮される。ディスプレイが表現可能な最大輝度が1000nitである場合、HDR画像を表示する際に1.25倍のスケーリングが行われるが、スケーリング率が小さいために表示画像の画質の劣化は少なくて済む。
従って、ビデオフォーマットとしてHDR画像をサポートすることは、高画質の画像をユーザに提供することが可能となるという恩恵をもたらす。そして、SDR画像をサポートするデバイスとの互換性の確保、ストレージの制約及び多様な伝送帯域への対応などを理由として、ダイナミックレンジスケーラビリティと称するスケーラブル符号化技術が実現されることが有益である。ダイナミックレンジスケーラビリティにおいて、ベースレイヤでSDR画像が伝送され、SDR画像からHDR画像を復元するための情報がエンハンスメントレイヤで伝送される。SDR画像からのHDR画像の復元にあたって重要な点は、可能な限り簡易な実装を維持し、フォーマットの汎用性及び拡張性を保証することである。
文献“High Dynamic Range Video Distribution Using Existing Video Codecs”(David Touze, el. al, 30th Picture Coding Symposium, December 8-11, 2013)は、ダイナミックレンジスケーラビリティの一形態とも言うべき技術を提案している。しかしながら、同文献により提案された技術は、HDR画像を復元するために、複数フレームにわたる画素値から構成されるフィルタタップのフィルタリング及びRGB領域でのガンマ補正などの、複雑なアルゴリズムを要する。これに対し、上述した色域スケーラビリティと同様に、SDR画像の3つの色成分の組合せに対応するHDR画像の予測画素値を3次元のルックアップテーブルから取得する手法を採用すれば、複雑な実装を要することなくHDR画像の相応の画質を復元することが可能となる。
一例として、ダイナミックレンジスケーラビリティを実現するために、図3に示したEL符号化部1bの代わりに、図12に示すEL符号化部101bが使用されてよい。図12を参照すると、EL符号化部101bは、並び替えバッファ11、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、ループフィルタ24、フレームメモリ25、セレクタ26及び27、イントラ予測部30、インター予測部35、ダイナミックレンジ(DR)予測部140並びにLUTバッファ45を備える。
DR予測部140は、共通メモリ2によりバッファリングされるベースレイヤの画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。また、DR予測部140は、ベースレイヤの画像とは異なるダイナミックレンジをエンハンスメントレイヤの画像が有する場合に、アップサンプリングしたベースレイヤの画像のダイナミックレンジを、エンハンスメントレイヤの画像と同等のレンジに変換する。本実施形態において、DR予測部140は、ダイナミックレンジを変換するために、LUTバッファ45によりバッファリングされるルックアップテーブルを用いる。DR予測部140によりダイナミックレンジの変換されたベースレイヤの画像は、フレームメモリ25に格納され、イントラ予測部30又はインター予測部35により、インターレイヤ予測において参照画像として使用され得る。
また、ダイナミックレンジスケーラビリティを実現するために、図4に示したEL復号部6bの代わりに、図13に示すEL復号部106bが使用されてよい。図13を参照すると、EL復号部106bは、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、ループフィルタ66、並び替えバッファ67、D/A変換部68、フレームメモリ69、セレクタ70及び71、イントラ予測部80、インター予測部85、DR予測部190並びにLUTバッファ95を備える。
DR予測部190は、共通メモリ7によりバッファリングされるベースレイヤの画像を、ベースレイヤとエンハンスメントレイヤとの間の解像度比に従ってアップサンプリングする。また、DR予測部190は、ベースレイヤの画像とは異なるダイナミックレンジをエンハンスメントレイヤの画像が有する場合に、アップサンプリングしたベースレイヤの画像のダイナミックレンジを、エンハンスメントレイヤの画像と同等のレンジに変換する。本実施形態において、DR予測部190は、ダイナミックレンジを変換するために、LUTバッファ95によりバッファリングされるルックアップテーブルを用いる。DR予測部190によりダイナミックレンジの変換されたベースレイヤの画像は、フレームメモリ69に格納され、イントラ予測部80又はインター予測部85により、インターレイヤ予測において参照画像として使用され得る。
ここで、DR予測部140及びDR予測部190は、ベースレイヤ画像からエンハンスメントレイヤ画像を予測する際に、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルを用いる。3つの色成分の粒度の組合せは、色域スケーラビリティに関連して上述したような、いかなる組合せであってもよい。LUTバッファ45及びLUTバッファ95は、それら粒度に基づいて分割されるベースレイヤの色空間のサブ空間と対応する予測画素値との間のマッピングを定義する、ダイナミックレンジ(DR)予測用のルックアップテーブルをバッファリングする。
DR予測用のルックアップテーブルにおける2つの色差成分の粒度が等しい場合、EL符号化部101bのDR予測部140は、輝度成分の粒度を定義する1つのパラメータ(例えば、nbp_code_Luma)及び色差成分の粒度を定義する1つのパラメータ(例えば、nbp_code_Chroma)を含むルックアップテーブル情報を生成し得る。一方、DR予測用のルックアップテーブルにおける2つの色差成分の粒度が異なる場合、DR予測部140は、輝度成分の粒度を定義する1つのパラメータ(例えば、nbp_code_Y)並びに、第1色差成分及び第2色差成分の粒度をそれぞれ定義する2つのパラメータ(例えば、nbp_code_U及びnbp_code_V)を含むルックアップテーブル情報を生成し得る。ルックアップテーブル情報のシンタックスは、表2又は表3に例示したものと同様であってよい。ルックアップテーブル情報は、可逆符号化部16により符号化され、VPS若しくはその拡張、SPS若しくはその拡張、PPS若しくはその拡張、スライスヘッダ若しくはその拡張、又はSEI内で伝送され得る。伝送されたDR予測用のルックアップテーブル情報は、EL復号部106bにおいて、可逆復号部62により復号され、DR予測部190によりルックアップテーブルを生成するために使用され得る。
なお、一変形例として、ダイナミックレンジスケーラビリティにおいても、クロマフォーマットに依存してルックアップテーブルの色成分ごとの粒度が切り替えられてもよい。例えば、第1色差成分及び第2色差成分の解像度が輝度成分の解像度よりも低いことをクロマフォーマットが示す場合には、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルが使用され得る。一方、第1色差成分及び第2色差成分の解像度が輝度成分の解像度と等しいことをクロマフォーマットが示す場合には、3つの色成分の粒度が等しいルックアップテーブルが使用され得る。
<7.応用例>
[7−1.様々な製品への応用]
上述した実施形態に係る画像符号化装置10及び画像復号装置60は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
(1)第1の応用例
図14は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、テレビジョン装置900が色域の互いに異なるレイヤについて色域予測を実行する際にルックアップテーブルのために必要とされるバッファサイズを低減することができる。
(2)第2の応用例
図15は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、携帯電話機920が色域の互いに異なるレイヤについて色域予測を実行する際にルックアップテーブルのために必要とされるバッファサイズを低減することができる。
(3)第3の応用例
図16は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)又はBlu−ray(登録商標)ディスクなどであってよい。
セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、記録再生装置940が色域の互いに異なるレイヤについて色域予測を実行する際にルックアップテーブルのために必要とされるバッファサイズを低減することができる。
(4)第4の応用例
図17は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、撮像装置960が色域の互いに異なるレイヤについて色域予測を実行する際にルックアップテーブルのために必要とされるバッファサイズを低減することができる。
[7−2.スケーラブル符号化の様々な用途]
上述したスケーラブル符号化の利点は、様々な用途において享受され得る。以下、3つの用途の例について説明する。
(1)第1の例
第1の例において、スケーラブル符号化は、データの選択的な伝送のために利用される。図18を参照すると、データ伝送システム1000は、ストリーム記憶装置1001及び配信サーバ1002を含む。配信サーバ1002は、ネットワーク1003を介して、いくつかの端末装置と接続される。ネットワーク1003は、有線ネットワークであっても無線ネットワークであってもよく、又はそれらの組合せであってもよい。図18には、端末装置の例として、PC(Personal Computer)1004、AV機器1005、タブレット装置1006及び携帯電話機1007が示されている。
ストリーム記憶装置1001は、例えば、画像符号化装置10により生成される多重化ストリームを含むストリームデータ1011を記憶する。多重化ストリームは、ベースレイヤ(BL)の符号化ストリーム及びエンハンスメントレイヤ(EL)の符号化ストリームを含む。配信サーバ1002は、ストリーム記憶装置1001に記憶されているストリームデータ1011を読み出し、読み出したストリームデータ1011の少なくとも一部分を、ネットワーク1003を介して、PC1004、AV機器1005、タブレット装置1006、及び携帯電話機1007へ配信する。
端末装置へのストリームの配信の際、配信サーバ1002は、端末装置の能力又は通信環境などの何らかの条件に基づいて、配信すべきストリームを選択する。例えば、配信サーバ1002は、端末装置が扱うことのできる画質を上回るほど高い画質を有する符号化ストリームを配信しないことにより、端末装置における遅延、オーバフロー又はプロセッサの過負荷の発生を回避してもよい。また、配信サーバ1002は、高い画質を有する符号化ストリームを配信しないことにより、ネットワーク1003の通信帯域が占有されることを回避してもよい。一方、配信サーバ1002は、これら回避すべきリスクが存在しない場合、又はユーザとの契約若しくは何らかの条件に基づいて適切だと判断される場合に、多重化ストリームの全てを端末装置へ配信してもよい。
図18の例では、配信サーバ1002は、ストリーム記憶装置1001からストリームデータ1011を読み出す。そして、配信サーバ1002は、高い処理能力を有するPC1004へ、ストリームデータ1011をそのまま配信する。また、AV機器1005は低い処理能力を有するため、配信サーバ1002は、ストリームデータ1011から抽出されるベースレイヤの符号化ストリームのみを含むストリームデータ1012を生成し、ストリームデータ1012をAV機器1005へ配信する。また、配信サーバ1002は、高い通信レートで通信可能であるタブレット装置1006へストリームデータ1011をそのまま配信する。また、携帯電話機1007は低い通信レートでしか通信できないため、配信サーバ1002は、ベースレイヤの符号化ストリームのみを含むストリームデータ1012を携帯電話機1007へ配信する。
このように多重化ストリームを用いることにより、伝送されるトラフィックの量を適応的に調整することができる。また、個々のレイヤがそれぞれ単独に符号化されるケースと比較して、ストリームデータ1011の符号量は削減されるため、ストリームデータ1011の全体が配信されるとしても、ネットワーク1003に掛かる負荷は抑制される。さらに、ストリーム記憶装置1001のメモリリソースも節約される。
端末装置のハードウエア性能は、装置ごとに異なる。また、端末装置において実行されるアプリケーションのケイパビリティも様々である。さらに、ネットワーク1003の通信容量もまた様々である。データ伝送のために利用可能な容量は、他のトラフィックの存在に起因して、時々刻々と変化し得る。そこで、配信サーバ1002は、ストリームデータの配信を開始する前に、配信先の端末装置との間のシグナリングを通じて、端末装置のハードウエア性能及びアプリケーションケイパビリティなどに関する端末情報と、ネットワーク1003の通信容量などに関するネットワーク情報とを取得してもよい。そして、配信サーバ1002は、取得した情報に基づいて、配信すべきストリームを選択し得る。
なお、復号すべきレイヤの抽出は、端末装置において行われてもよい。例えば、PC1004は、受信した多重化ストリームから抽出され復号されるベースレイヤ画像をその画面に表示してもよい。また、PC1004は、受信した多重化ストリームからベースレイヤの符号化ストリームを抽出してストリームデータ1012を生成し、生成したストリームデータ1012を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
図18に示したデータ伝送システム1000の構成は一例に過ぎない。データ伝送システム1000は、いかなる数のストリーム記憶装置1001、配信サーバ1002、ネットワーク1003、及び端末装置を含んでもよい。
(2)第2の例
第2の例において、スケーラブル符号化は、複数の通信チャネルを介するデータの伝送のために利用される。図19を参照すると、データ伝送システム1100は、放送局1101及び端末装置1102を含む。放送局1101は、地上波チャネル1111上で、ベースレイヤの符号化ストリーム1121を放送する。また、放送局1101は、ネットワーク1112を介して、エンハンスメントレイヤの符号化ストリーム1122を端末装置1102へ送信する。
端末装置1102は、放送局1101により放送される地上波放送を受信するための受信機能を有し、地上波チャネル1111を介してベースレイヤの符号化ストリーム1121を受信する。また、端末装置1102は、放送局1101と通信するための通信機能を有し、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信する。
端末装置1102は、例えば、ユーザからの指示に応じて、ベースレイヤの符号化ストリーム1121を受信し、受信した符号化ストリーム1121からベースレイヤ画像を復号してベースレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したベースレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
また、端末装置1102は、例えば、ユーザからの指示に応じて、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信し、ベースレイヤの符号化ストリーム1121とエンハンスメントレイヤの符号化ストリーム1122とを多重化することにより多重化ストリームを生成してもよい。また、端末装置1102は、エンハンスメントレイヤの符号化ストリーム1122からエンハンスメントレイヤ画像を復号してエンハンスメントレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したエンハンスメントレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
上述したように、多重化ストリームに含まれる各レイヤの符号化ストリームは、レイヤごとに異なる通信チャネルを介して伝送され得る。それにより、個々のチャネルに掛かる負荷を分散させて、通信の遅延若しくはオーバフローの発生を抑制することができる。
また、何らかの条件に応じて、伝送のために使用される通信チャネルが動的に選択されてもよい。例えば、データ量が比較的多いベースレイヤの符号化ストリーム1121は帯域幅の広い通信チャネルを介して伝送され、データ量が比較的少ないエンハンスメントレイヤの符号化ストリーム1122は帯域幅の狭い通信チャネルを介して伝送され得る。また、特定のレイヤの符号化ストリーム1122が伝送される通信チャネルが、通信チャネルの帯域幅に応じて切り替えられてもよい。それにより、個々のチャネルに掛かる負荷をより効果的に抑制することができる。
なお、図19に示したデータ伝送システム1100の構成は一例に過ぎない。データ伝送システム1100は、いかなる数の通信チャネル及び端末装置を含んでもよい。また、放送以外の用途において、ここで説明したシステムの構成が利用されてもよい。
(3)第3の例
第3の例において、スケーラブル符号化は、映像の記憶のために利用される。図20を参照すると、データ伝送システム1200は、撮像装置1201及びストリーム記憶装置1202を含む。撮像装置1201は、被写体1211を撮像することにより生成される画像データをスケーラブル符号化し、多重化ストリーム1221を生成する。多重化ストリーム1221は、ベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームを含む。そして、撮像装置1201は、多重化ストリーム1221をストリーム記憶装置1202へ供給する。
ストリーム記憶装置1202は、撮像装置1201から供給される多重化ストリーム1221を、モードごとに異なる画質で記憶する。例えば、ストリーム記憶装置1202は、通常モードにおいて、多重化ストリーム1221からベースレイヤの符号化ストリーム1222を抽出し、抽出したベースレイヤの符号化ストリーム1222を記憶する。これに対し、ストリーム記憶装置1202は、高画質モードにおいて、多重化ストリーム1221をそのまま記憶する。それにより、ストリーム記憶装置1202は、高画質での映像の記録が望まれる場合にのみ、データ量の多い高画質のストリームを記録することができる。そのため、画質の劣化のユーザへの影響を抑制しながら、メモリリソースを節約することができる。
例えば、撮像装置1201は、監視カメラであるものとする。撮像画像に監視対象(例えば侵入者)が映っていない場合には、通常モードが選択される。この場合、撮像画像は重要でない可能性が高いため、データ量の削減が優先され、映像は低画質で記録される(即ち、ベースレイヤの符号化ストリーム1222のみが記憶される)。これに対し、撮像画像に監視対象(例えば、侵入者である被写体1211)が映っている場合には、高画質モードが選択される。この場合、撮像画像は重要である可能性が高いため、画質の高さが優先され、映像は高画質で記録される(即ち、多重化ストリーム1221が記憶される)。
図20の例では、モードは、例えば画像解析結果に基づいて、ストリーム記憶装置1202により選択される。しかしながら、かかる例に限定されず、撮像装置1201がモードを選択してもよい。後者の場合、撮像装置1201は、通常モードにおいて、ベースレイヤの符号化ストリーム1222をストリーム記憶装置1202へ供給し、高画質モードにおいて、多重化ストリーム1221をストリーム記憶装置1202へ供給してもよい。
なお、モードを選択するための選択基準は、いかなる基準であってもよい。例えば、マイクロフォンを通じて取得される音声の大きさ又は音声の波形などに応じて、モードが切り替えられてもよい。また、周期的にモードが切り替えられてもよい。また、ユーザからの指示に応じてモードが切り替えられてもよい。さらに、選択可能なモードの数は、階層化されるレイヤの数を超えない限り、いかなる数であってもよい。
図20に示したデータ伝送システム1200の構成は一例に過ぎない。データ伝送システム1200は、いかなる数の撮像装置1201を含んでもよい。また、監視カメラ以外の用途において、ここで説明したシステムの構成が利用されてもよい。
[7−3.その他]
(1)マルチビューコーデックへの応用
マルチビューコーデックは、マルチレイヤコーデックの一種であり、いわゆる多視点映像を符号化し及び復号するための画像符号化方式である。図21は、マルチビューコーデックについて説明するための説明図である。図21を参照すると、3つの視点においてそれぞれ撮影される3つのビューのフレームのシーケンスが示されている。各ビューには、ビューID(view_id)が付与される。これら複数のビューのうちいずれか1つのビューが、ベースビュー(base view)に指定される。ベースビュー以外のビューは、ノンベースビューと呼ばれる。図21の例では、ビューIDが“0”であるビューがベースビューであり、ビューIDが“1”又は“2”である2つのビューがノンベースビューである。これらビューが階層的に符号化される場合、各ビューがレイヤに相当し得る。図中に矢印で示したように、ノンベースビューの画像は、ベースビューの画像を参照して符号化され及び復号される(他のノンベースビューの画像も参照されてよい)。
図22は、マルチビューコーデックをサポートする画像符号化装置10vの概略的な構成を示すブロック図である。図22を参照すると、画像符号化装置10vは、第1レイヤ符号化部1c、第2レイヤ符号化部1d、共通メモリ2及び多重化部3を備える。
第1レイヤ符号化部1cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像を受け取ることを除き、図3を用いて説明したBL符号化部1aの機能と同等である。第1レイヤ符号化部1cは、ベースビュー画像を符号化し、第1レイヤの符号化ストリームを生成する。第2レイヤ符号化部1dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像を受け取ることを除き、図3を用いて説明したEL符号化部1bの機能と同等である。第2レイヤ符号化部1dは、ノンベースビュー画像を符号化し、第2レイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、第1レイヤ符号化部1cにより生成される第1レイヤの符号化ストリームと、第2レイヤ符号化部1dにより生成される第2レイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
図23は、マルチビューコーデックをサポートする画像復号装置60vの概略的な構成を示すブロック図である。図23を参照すると、画像復号装置60vは、逆多重化部5、第1レイヤ復号部6c、第2レイヤ復号部6d及び共通メモリ7を備える。
逆多重化部5は、マルチレイヤの多重化ストリームを第1レイヤの符号化ストリーム及び第2レイヤの符号化ストリームに逆多重化する。第1レイヤ復号部6cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明したBL復号部6aの機能と同等である。第1レイヤ復号部6cは、第1レイヤの符号化ストリームからベースビュー画像を復号する。第2レイヤ復号部6dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明したEL復号部6bの機能と同等である。第2レイヤ復号部6dは、第2レイヤの符号化ストリームからノンベースビュー画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
マルチビューの画像データを符号化し又は復号する際、ビュー間で色域が異なる場合には、本開示に係る技術に従って、ビュー間の色域の変換が制御されてもよい。それにより、スケーラブル符号化のケースと同様に、マルチビューコーデックにおいても、色域予測のためのルックアップテーブルのために必要とされるバッファサイズを低減することができる。
(2)ストリーミング技術への応用
本開示に係る技術は、ストリーミングプロトコルに適用されてもよい。例えば、MPEG−DASH(Dynamic Adaptive Streaming over HTTP)では、解像度などのパラメータが互いに異なる複数の符号化ストリームがストリーミングサーバにおいて予め用意される。そして、ストリーミングサーバは、複数の符号化ストリームからストリーミングすべき適切なデータをセグメント単位で動的に選択し、選択したデータを配信する。このようなストリーミングプロトコルにおいて、本開示に係る技術に従って、符号化ストリーム間の色域の予測が制御されてもよい。
<7.まとめ>
ここまで、図1〜図23を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、第1レイヤの画像から当該第1レイヤとは異なる色域(又はダイナミックレンジ)を有する第2レイヤの画像を予測する際に、第1色差成分及び第2色差成分の粒度が輝度成分の粒度よりも粗いルックアップテーブルが使用される。従って、3つの色成分の粒度が互いに等しいルックアップテーブルが使用されるケースと比較して、ルックアップテーブルをバッファリングするバッファのサイズを低減することができる。また、多くの用途において、色差成分の画像解像度は輝度成分の画像解像度よりも低く設定されることから、輝度成分の精細な粒度を維持しつつ色差成分の粒度のみをより粗くすることで、粒度の削減に起因する予測精度の低下という影響を小さくすることができる。
また、上述した実施形態によれば、ルックアップテーブルの第1色差成分及び第2色差成分の粒度に関連するルックアップテーブル情報が、輝度成分の粒度とは別に符号化され及び復号される。かかる構成によれば、色成分ごとの解像度の違い、符号化効率に関する要件、又はメモリリソースの制約などの様々な条件に合わせて、バッファサイズの削減の程度を柔軟に調整することが可能となる。
なお、本明細書に記述したCU、PU及びTUとの用語は、HEVCにおいて、個々のブロックに関連付けられるシンタックスをも含む論理的な単位を意味する。画像の一部分としての個々のブロックのみに着目する場合、これらは、CB(Coding Block)、PB(Prediction Block)及びTB(Transform Block)との用語にそれぞれ置き換えられてもよい。CBは、CTB(Coding Tree Block)を四分木(Quad-Tree)状に階層的に分割することにより形成される。1つの四分木の全体がCTBに相当し、CTBに対応する論理的な単位はCTU(Coding Tree Unit)と呼ばれる。HEVCにおけるCTB及びCBは、符号化処理の処理単位である点でH.264/AVCにおけるマクロブロックに類似する役割を有する。但し、CTB及びCBは、そのサイズが固定的でない点でマクロブロックと異なる(マクロブロックのサイズは常に16×16画素である)。CTBのサイズは16×16画素、32×32画素及び64×64画素から選択され、符号化ストリーム内でパラメータにより指定される。CBのサイズは、CTBの分割の深さによって変化し得る。
また、本明細書では、色域予測(又はDR予測)に関する情報が、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測する予測部、
を備え、
前記予測部は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、
画像処理装置。
(2)
前記画像処理装置は、
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の粒度に関連するルックアップテーブル情報を復号する復号部、
をさらに備える、
前記(1)に記載の画像処理装置。
(3)
前記画像処理装置は、
前記復号部により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングするルックアップテーブルバッファ、
をさらに備える、前記(2)に記載の画像処理装置。
(4)
前記画像処理装置は、
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の粒度に関連するルックアップテーブル情報を符号化する符号化部、
をさらに備える、
前記(1)に記載の画像処理装置。
(5)
前記予測部は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せの各々と当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測すること、
を含み、
前記第2レイヤの画像の予測は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いて行われる、
画像処理方法。
また、以下のような構成も本開示の技術的範囲に属する。
(1)
第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なるダイナミックレンジを有する前記第2レイヤの画像を予測する予測部、
を備え、
前記予測部は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、
画像処理装置。
(2)
前記画像処理装置は、
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の粒度に関連するルックアップテーブル情報を復号する復号部、
をさらに備える、
前記(1)に記載の画像処理装置。
(3)
前記画像処理装置は、
前記復号部により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングするルックアップテーブルバッファ、
をさらに備える、前記(2)に記載の画像処理装置。
(4)
前記画像処理装置は、
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の粒度に関連するルックアップテーブル情報を符号化する符号化部、
をさらに備える、
前記(1)に記載の画像処理装置。
(5)
前記予測部は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せの各々と当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なるダイナミックレンジを有する前記第2レイヤの画像を予測すること、
を含み、
前記第2レイヤの画像の予測は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いて行われる、
画像処理方法。
また、以下のような構成も本開示の技術的範囲に属する。
(1)
第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測するように構成される回路、
を備え、
前記回路は、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いる、
画像処理装置。
(2)
前記回路は、前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を復号する、ようにさらに構成される、前記(1)に記載の画像処理装置。
(3)
前記回路により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングするように構成されるルックアップテーブルバッファ、をさらに備える、前記(2)に記載の画像処理装置。
(4)
前記回路は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の前記粒度が前記輝度成分の前記粒度よりも粗い前記ルックアップテーブルを用いる、前記(1)に記載の画像処理装置。
(5)
画像処理装置の回路により、第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測すること、
を含み、
前記第2レイヤの画像の前記予測は、前記回路により、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いて行われる、
画像処理方法。
(6)
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を復号すること、をさらに含む、前記(5)に記載の画像処理方法。
(7)
前記回路により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングすること、をさらに含む、前記(6)に記載の画像処理方法。
(8)
前記第2レイヤの画像の前記予測は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の前記粒度が前記輝度成分の前記粒度よりも粗い前記ルックアップテーブルを用いて行われる、前記(5)に記載の画像処理方法。
(9)
第1レイヤの符号化された画像データと、
前記第1レイヤとは異なる色域を有する第2レイヤの符号化された画像データと、
前記第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する前記第2レイヤの予測画素値とをマッピングするルックアップテーブルと、
を記憶している、非一時的なコンピュータ読取可能な媒体であって、
前記第1レイヤの画像から前記第2レイヤの画像が前記ルックアップテーブルを用いてデコーダにより予測され、
前記ルックアップテーブルにおいて、前記第1色差成分及び前記第2色差成分の粒度は前記輝度成分の粒度よりも粗い、
非一時的なコンピュータ読取可能な媒体。
(10)
前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報、をさらに記憶している、前記(9)に記載の非一時的なコンピュータ読取可能な媒体。
(11)
前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記ルックアップテーブルにおいて、前記第1色差成分及び前記第2色差成分の粒度は前記輝度成分の粒度よりも粗い、前記(9)に記載の非一時的なコンピュータ読取可能な媒体。
(12)
第1レイヤの画像を符号化し、
前記第1レイヤとは異なる色域を有する第2レイヤの画像を符号化し、
前記第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する前記第2レイヤの予測画素値とをマッピングするルックアップテーブルを生成する、
ように構成される回路、を備え、
前記ルックアップテーブルにおいて、前記第1色差成分及び前記第2色差成分の粒度は前記輝度成分の粒度よりも粗い、
エンコーダ。
(13)
前記回路は、前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を符号化する、ようにさらに構成される、前記(12)に記載のエンコーダ。
(14)
前記第2レイヤの画像は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の前記粒度が前記輝度成分の前記粒度よりも粗い前記ルックアップテーブルを用いて予測される、前記(12)に記載のエンコーダ。
10,10v 画像符号化装置(画像処理装置)
16 可逆符号化部
40 色域予測部
45 ルックアップテーブルバッファ
60,60v 画像復号装置(画像処理装置)
62 可逆復号部
90 色域予測部
95 ルックアップテーブルバッファ

Claims (8)

  1. 第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測するように構成される回路、
    を備え、
    前記回路は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用い、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度と等しいことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度と等しい前記ルックアップテーブルを用いる、
    画像処理装置。
  2. 前記回路は、前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を復号する、ようにさらに構成される、請求項1に記載の画像処理装置。
  3. 前記回路により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングするように構成されるルックアップテーブルバッファ、をさらに備える、請求項2に記載の画像処理装置。
  4. 画像処理装置の回路により、第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する第2レイヤの予測画素値とをマッピングするルックアップテーブルを用いて、前記第1レイヤの画像から、前記第1レイヤとは異なる色域を有する前記第2レイヤの画像を予測すること、
    を含み、
    前記第2レイヤの画像の前記予測は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記回路により、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用い、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度と等しいことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度と等しい前記ルックアップテーブルを用いて行われる、
    画像処理方法。
  5. 前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を復号すること、をさらに含む、請求項に記載の画像処理方法。
  6. 前記回路により復号される前記ルックアップテーブル情報に基づいて設定される前記ルックアップテーブルをバッファリングすること、をさらに含む、請求項に記載の画像処理方法。
  7. 第1レイヤの画像を符号化し、
    前記第1レイヤとは異なる色域を有する第2レイヤの画像を符号化し、
    前記第1レイヤの輝度成分、第1色差成分及び第2色差成分の組合せと当該組合せに対応する前記第2レイヤの予測画素値とをマッピングするルックアップテーブルを生成する、
    ように構成される回路、を備え、
    前記第2レイヤの画像は、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度よりも低いことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度よりも粗い前記ルックアップテーブルを用いて予測され、前記第1色差成分及び前記第2色差成分の解像度が前記輝度成分の解像度と等しいことをクロマフォーマットが示す場合に、前記第1色差成分及び前記第2色差成分の粒度が前記輝度成分の粒度と等しい前記ルックアップテーブルを用いて予測される
    エンコーダ。
  8. 前記回路は、前記ルックアップテーブルの前記第1色差成分及び前記第2色差成分の前記粒度に関連するルックアップテーブル情報を符号化する、ようにさらに構成される、請求項に記載のエンコーダ。

JP2015533364A 2014-01-08 2014-11-07 画像処理装置及び画像処理方法 Active JP6455434B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014001992 2014-01-08
JP2014001992 2014-01-08
JP2014108269 2014-05-26
JP2014108269 2014-05-26
PCT/JP2014/079623 WO2015104891A1 (ja) 2014-01-08 2014-11-07 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2015104891A1 JPWO2015104891A1 (ja) 2017-03-23
JP6455434B2 true JP6455434B2 (ja) 2019-01-23

Family

ID=53496187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015533364A Active JP6455434B2 (ja) 2014-01-08 2014-11-07 画像処理装置及び画像処理方法

Country Status (5)

Country Link
US (2) US9445111B2 (ja)
EP (1) EP2945384B1 (ja)
JP (1) JP6455434B2 (ja)
CN (1) CN104956675B (ja)
WO (1) WO2015104891A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10750198B2 (en) * 2014-05-22 2020-08-18 Qualcomm Incorporated Maximum palette parameters in palette-based video coding
US10264285B2 (en) 2014-05-22 2019-04-16 Qualcomm Incorporated Coding runs in palette-based video coding
US9953187B2 (en) * 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
US10027856B2 (en) 2015-03-05 2018-07-17 Sony Corporation Devices and methods for transmitting transmission video data
US10880566B2 (en) 2015-08-28 2020-12-29 Boe Technology Group Co., Ltd. Method and device for image encoding and image decoding
CN105163124B (zh) * 2015-08-28 2019-01-18 京东方科技集团股份有限公司 一种图像编码方法、图像解码方法及装置
JP6634936B2 (ja) * 2016-04-05 2020-01-22 富士通株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、画像復号プログラムおよび画像伝送システム
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10389281B2 (en) * 2016-10-20 2019-08-20 Texas Instruments Incorporated Correcting offset and gain drift related angle errors with motor position detectors
JP6852411B2 (ja) * 2017-01-19 2021-03-31 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
JP7323685B2 (ja) 2017-07-13 2023-08-08 日本放送協会 映像復号装置及びプログラム
JP7118604B2 (ja) * 2017-07-13 2022-08-16 日本放送協会 映像符号化装置、映像復号装置及びプログラム
US11303912B2 (en) * 2018-04-18 2022-04-12 Qualcomm Incorporated Decoded picture buffer management and dynamic range adjustment
US11677989B2 (en) * 2018-10-09 2023-06-13 V-Nova International Limited Signal element coding format compatability within a hierarchical coding scheme using multiple resolutions
CN113711604B (zh) 2019-04-20 2023-10-27 北京字节跳动网络技术有限公司 视频编解码中色度和亮度语法元素的信令
KR20220066437A (ko) * 2019-05-28 2022-05-24 돌비 레버러토리즈 라이쎈싱 코오포레이션 양자화 파라미터 시그널링
WO2020239119A1 (en) 2019-05-30 2020-12-03 Beijing Bytedance Network Technology Co., Ltd. Adaptive loop filtering for chroma components
KR102566794B1 (ko) * 2021-05-17 2023-08-14 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381855B2 (ja) * 1992-12-28 2003-03-04 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
US5874928A (en) * 1995-08-24 1999-02-23 Philips Electronics North America Corporation Method and apparatus for driving a plurality of displays simultaneously
US6567543B1 (en) * 1996-10-01 2003-05-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, storage medium for storing image processing method, and environment light measurement apparatus
US6269217B1 (en) * 1998-05-21 2001-07-31 Eastman Kodak Company Multi-stage electronic motion image capture and processing system
KR20050109663A (ko) * 2004-05-17 2005-11-22 삼성전자주식회사 프로파일 생성 방법 및 장치
WO2008019524A1 (en) * 2006-07-17 2008-02-21 Thomson Licensing Method and apparatus for encoding video color enhancement data, and method and apparatus for decoding video color enhancement data
JP4771538B2 (ja) * 2006-07-20 2011-09-14 キヤノン株式会社 色変換テーブル生成方法、色変換テーブル及び色変換テーブル生成装置
EP3484154A1 (en) * 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
US7843465B1 (en) 2007-05-31 2010-11-30 Zoran Corporation Method and apparatus for mapping a multi-dimensional signal from one space to another space
US8737474B2 (en) * 2007-06-27 2014-05-27 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
DE602007009730D1 (de) * 2007-06-29 2010-11-18 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert-verfeinerungsskalierbarkeit unterstützt
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US8432968B2 (en) * 2007-10-15 2013-04-30 Qualcomm Incorporated Scalable video coding techniques for scalable bitdepths
US20130083846A1 (en) * 2011-09-29 2013-04-04 JVC Kenwood Corporation Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program
US9948916B2 (en) * 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding

Also Published As

Publication number Publication date
EP2945384A4 (en) 2016-08-24
US9743100B2 (en) 2017-08-22
US20160323595A1 (en) 2016-11-03
EP2945384A1 (en) 2015-11-18
EP2945384B1 (en) 2020-07-22
US9445111B2 (en) 2016-09-13
CN104956675A (zh) 2015-09-30
JPWO2015104891A1 (ja) 2017-03-23
CN104956675B (zh) 2019-11-08
WO2015104891A1 (ja) 2015-07-16
US20150195523A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP6455434B2 (ja) 画像処理装置及び画像処理方法
JP6610735B2 (ja) 画像処理装置及び画像処理方法
JP6094688B2 (ja) 画像処理装置及び画像処理方法
JP6345650B2 (ja) 画像処理装置及び画像処理方法
JP6330507B2 (ja) 画像処理装置及び画像処理方法
WO2015053001A1 (ja) 画像処理装置及び画像処理方法
WO2015005025A1 (ja) 画像処理装置及び画像処理方法
WO2015146278A1 (ja) 画像処理装置及び画像処理方法
US20150043638A1 (en) Image processing apparatus and image processing method
WO2014148070A1 (ja) 画像処理装置及び画像処理方法
WO2015005024A1 (ja) 画像処理装置及び画像処理方法
WO2015052979A1 (ja) 画像処理装置及び画像処理方法
WO2014097703A1 (ja) 画像処理装置及び画像処理方法
WO2014050311A1 (ja) 画像処理装置及び画像処理方法
WO2015053111A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
WO2015098231A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R151 Written notification of patent or utility model registration

Ref document number: 6455434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214