JP6219823B2 - 画像処理装置および方法、並びに記録媒体 - Google Patents

画像処理装置および方法、並びに記録媒体 Download PDF

Info

Publication number
JP6219823B2
JP6219823B2 JP2014522599A JP2014522599A JP6219823B2 JP 6219823 B2 JP6219823 B2 JP 6219823B2 JP 2014522599 A JP2014522599 A JP 2014522599A JP 2014522599 A JP2014522599 A JP 2014522599A JP 6219823 B2 JP6219823 B2 JP 6219823B2
Authority
JP
Japan
Prior art keywords
image
dynamic range
unit
characteristic information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014522599A
Other languages
English (en)
Other versions
JPWO2014002901A1 (ja
Inventor
しのぶ 服部
しのぶ 服部
俊也 浜田
俊也 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saturn Licensing LLC
Original Assignee
Saturn Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saturn Licensing LLC filed Critical Saturn Licensing LLC
Publication of JPWO2014002901A1 publication Critical patent/JPWO2014002901A1/ja
Application granted granted Critical
Publication of JP6219823B2 publication Critical patent/JP6219823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Description

本開示は、画像処理装置および方法、並びに記録媒体に関し、特に画像のダイナミックレンジを正確に再現することができるようにした画像処理装置および方法、並びに記録媒体に関する。
近年、画像情報をデジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮する符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)やH.264及びMPEG-4 Part10 (Advanced Video Coding、以下 AVCと記す)などがある。
そして、現在、H.264/AVCより更なる符号化効率の向上を目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC (Joint Collaboration Team - Video Coding) により、HEVC (High Efficiency Video Coding) と呼ばれる符号化方式の標準化が進められている(非特許文献1参照)。
現時点におけるHEVCのドラフトでは、図1に示されるSEI(Supplemental Enhancement Information)において、トーンマッピングインフォメーションが伝送されている。
そのトーンマッピングインフォメーションの内容は、図2に示されるように、AVCにおいて規格されているものと同じである(非特許文献2参照)。
Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand," High efficiency video coding (HEVC) text specification draft 7 ", JCTVC-I1003 ver5, 2012.6.12 D.1.24 of Rec. ITU-T H.264 | ISO/IEC 14496-10
昨今、カメラやディスプレイにおいては、高いダイナミックレンジの画像を撮影したり、表示したりすることができるようになってきている。
このような状況において、さまざまなダイナミックレンジの画像の表示に対応するため、デコードした画像のダイナミックレンジを広げることが要求されているが、非特許文献1においては、デコードした画像に対するダイナミックレンジについて定義されていなかった。
本開示は、このような状況に鑑みてなされたものであり、画像のダイナミックレンジを正確に再現することができるようにするものである。
本開示の第1の側面の画像処理装置は、画像データを復号して、復号された画像データを生成し、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整するように構成されている少なくとも1つの処理部を備える。
前記少なくとも1つの処理部は、前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するようにさらに構成されている。
前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含むことができる。
前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別することができる。
前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別することができる。
本開示の第2の側面の画像処理装置は、画像データを符号化して、符号化された画像データを生成し、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を供給するように構成されている少なくとも1つの処理部を備える。
前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含むことができる。
前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別することができる。
前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別することができる。
本開示の第1の側面の画像処理方法は、画像データを復号して、復号された画像データを生成し、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整するステップを含む。
前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するステップをさらに含むことができる。
前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含むことができる。
前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別することができる。
前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別することができる。
本開示の第1の側面の記録媒体に記録されているプログラムは、画像データを復号して、復号された画像データを生成し、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整するように構成されている少なくとも1つの処理部として、コンピュータを機能させる
前記少なくとも1つの処理部は、前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するようにさらに構成されている。
前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含むことができる。
前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別することができる。
前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含むことができる。
前記ダイナミックレンジ特性情報は、前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別することができる。
本開示の第1の側面においては、画像データが復号されて、復号された画像データが生成され、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報が受信される。そして、前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジが調整される。
本開示の第2の側面の画像処理装置においては、画像データが符号化されて、符号化された画像データが生成される。そして、前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報が供給される。
なお、上述の画像処理装置は、独立した装置であっても良いし、1つの画像符号化装置または画像復号装置を構成している内部ブロックであってもよい。
本開示の第1の側面によれば、画像を復号することができる。特に、画像のダイナミックレンジを正確に再現することができる。
本開示の第2の側面によれば、画像を符号化することができる。特に、画像のダイナミックレンジを正確に再現することができる。
SEIのシンタクスの例を示す図である。 トーンマッピングSEIのシンタクスの例を示す図である。 本技術を適用した符号化装置の第1実施の形態の構成例を示すブロック図である。 図1の符号化部の構成例を示すブロック図である。 ダイナミックレンジの特性情報を説明する図である。 ダイナミックレンジの特性情報を説明する図である。 ダイナミックレンジの特性情報の例を示す図である。 トーンマッピングSEIのシンタクスの例を示す図である。 トーンマッピングSEIのシンタクスの他の例を示す図である。 カメラの感度と露出インデックスとが指し示す値の意味のテーブルを示す図である。 ルミナンスダイナミックレンジSEIのシンタクスの例を示す図である。 VUIのシンタクスの例を示す図である。 VUIのシンタクスの他の例を示す図である。 VUIのシンタクスのさらに他の例を示す図である。 ダイナミックレンジの特性情報のシンタクスの例を示す図である。 図3の符号化装置の生成処理を説明するフローチャートである。 図16の符号化処理の詳細を説明するフローチャートである。 図16の符号化処理の詳細を説明するフローチャートである。 本技術を適用した復号装置の第1実施の形態の構成例を示すブロック図である。 図19の復号部の構成例を示すブロック図である。 図19の復号装置による表示処理を説明するフローチャートである。 図21の復号処理の詳細を説明するフローチャートである。 本技術を適用した符号化装置の第2実施の形態の構成例を示すブロック図である。 図23の符号化部の構成例を示すブロック図である。 本技術を適用した復号装置の第2実施の形態の構成例を示すブロック図である。 図25の復号部の構成例を示すブロック図である。 多視点画像符号化方式の例を示す図である。 本開示を適用した多視点画像符号化装置の主な構成例を示す図である。 本開示を適用した多視点画像復号装置の主な構成例を示す図である。 階層画像符号化方式の例を示す図である。 本開示を適用した階層画像符号化装置の主な構成例を示す図である。 本開示を適用した階層画像復号装置の主な構成例を示す図である。 コンピュータの主な構成例を示すブロック図である。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(HEVC方式の符号化・復号装置)
2.第2の実施の形態(AVC方式の符号化・復号装置)
3.第3の実施の形態(多視点画像符号化・多視点画像復号装置)
4.第4の実施の形態(階層画像符号化・階層画像復号装置)
5.第5の実施の形態(コンピュータ)
6.応用例
<第1の実施の形態>
[符号化装置の第1実施の形態の構成例]
図3は、本技術を適用した画像処理装置としての、符号化装置の第1実施の形態の構成例を示すブロック図である。
図3の符号化装置1は、符号化部2、設定部3、および伝送部4により構成され、撮影(Captured)画像等の画像をHEVC方式で符号化する。
具体的には、符号化装置1の符号化部2には、フレーム単位の撮影画像等の画像が入力信号として入力される。符号化部2は、入力信号をHEVC方式で符号化し、その結果得られる符号化データを設定部3に供給する。
設定部3は、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、符号化データに対応する画像の特性(ユーザビリティ)をシーケンスごとに示すVUI(Video Usability Information)、SEI(Supplemental Enhancement Information)などを設定する。設定部3は、設定されたSPS、PPS、VUI、およびSEIと、符号化部2から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
伝送部4は、設定部3から供給される符号化ストリームを、後述する復号装置に伝送する。
[符号化部の構成例]
図4は、図3の符号化部2の構成例を示すブロック図である。
図4の符号化部2は、A/D変換部11、画面並べ替えバッファ12、演算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27を含むように構成される。
さらに、デブロックフィルタ21およびフレームメモリ22の間には、適応オフセットフィルタ41と適応ループフィルタ42が備えられている。
具体的には、符号化部2のA/D変換部11は、入力信号として入力されたフレーム単位の画像をA/D変換し、画面並べ替えバッファ12に出力して記憶させる。画面並べ替えバッファ12は、記憶した表示の順番のフレーム単位の画像を、GOP(Group of Picture)構造に応じて、符号化のための順番に並べ替え、演算部13、イントラ予測部24、および動き予測・補償部25に出力する。
演算部13は、予測画像選択部26から供給される予測画像と、画面並べ替えバッファ12から出力された符号化対象の画像の差分を演算することにより符号化を行う。具体的には、演算部13は、画面並べ替えバッファ12から出力された符号化対象の画像から、予測画像選択部26から供給される予測画像を減算することにより符号化を行う。演算部13は、その結果得られる画像を、残差情報として直交変換部14に出力する。なお、予測画像選択部26から予測画像が供給されない場合、演算部13は、画面並べ替えバッファ12から読み出された画像をそのまま残差情報として直交変換部14に出力する。
直交変換部14は、演算部13からの残差情報に対して直交変換を施し、直交変換の結果得られる係数を量子化部15に供給する。
量子化部15は、直交変換部14から供給される係数を量子化する。量子化された係数は、可逆符号化部16に入力される。
可逆符号化部16は、最適イントラ予測モードを示す情報(以下、イントラ予測モード情報という)をイントラ予測部24から取得する。また、最適インター予測モードを示す情報(以下、インター予測モード情報という)、動きベクトル、参照画像を特定するための情報などを動き予測・補償部25から取得する。また、可逆符号化部16は、適応オフセットフィルタ41から格納フラグ、インデックスまたはオフセット、および種類情報をオフセットフィルタ情報として取得し、適応ループフィルタ42からフィルタ係数を取得する。
可逆符号化部16は、量子化部15から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
また、可逆符号化部16は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報、オフセットフィルタ情報、およびフィルタ係数などを、符号化に関する符号化情報として可逆符号化する。可逆符号化部16は、可逆符号化された符号化情報と係数を、符号化データとして蓄積バッファ17に供給し、蓄積させる。なお、可逆符号化された符号化情報は、可逆符号化された係数のヘッダ情報とされてもよい。
蓄積バッファ17は、可逆符号化部16から供給される符号化データを、一時的に記憶する。また、蓄積バッファ17は、記憶している符号化データを、図3の設定部3に供給する。
また、量子化部15より出力された、量子化された係数は、逆量子化部18にも入力され、逆量子化された後、逆直交変換部19に供給される。
逆直交変換部19は、逆量子化部18から供給される係数に対して逆直交変換を施し、その結果得られる残差情報を加算部20に供給する。
加算部20は、逆直交変換部19から供給される復号対象の画像としての残差情報と、予測画像選択部26から供給される予測画像を加算して、局部的に復号された画像を得る。なお、予測画像選択部26から予測画像が供給されない場合、加算部20は、逆直交変換部19から供給される残差情報を局部的に復号された画像とする。加算部20は、局部的に復号された画像をデブロックフィルタ21に供給するとともに、フレームメモリ22に供給して蓄積させる。
デブロックフィルタ21は、加算部20から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ21は、その結果得られる画像を適応オフセットフィルタ41に供給する。
適応オフセットフィルタ41は、デブロックフィルタ21による適応デブロックフィルタ処理後の画像に対して、主にリンギングを除去する適応オフセットフィルタ(SAO: Sample adaptive offset)処理を行う。
より詳細には、適応オフセットフィルタ41は、最大の符号化単位であるLCU(Largest Coding Unit)ごとに適応オフセットフィルタ処理の種類を決定し、その適応オフセットフィルタ処理で用いられるオフセットを求める。適応オフセットフィルタ41は、求められたオフセットを用いて、適応デブロックフィルタ処理後の画像に対して、決定された種類の適応オフセットフィルタ処理を行う。そして、適応オフセットフィルタ41は、適応オフセットフィルタ処理後の画像を適応ループフィルタ42に供給する。
また、適応オフセットフィルタ41は、オフセットを格納するバッファを有している。適応オフセットフィルタ41は、LCUごとに、適応デブロックフィルタ処理に用いられたオフセットが既にバッファに格納されているかどうかを判定する。
適応オフセットフィルタ41は、適応デブロックフィルタ処理に用いられたオフセットが既にバッファに格納されていると判定した場合、オフセットがバッファに格納されているかを示す格納フラグを、オフセットがバッファに格納されていることを示す値(ここでは1)に設定する。
そして、適応オフセットフィルタ41は、LCUごとに、1に設定された格納フラグ、バッファにおけるオフセットの格納位置を示すインデックス、および、行われた適応オフセットフィルタ処理の種類を示す種類情報を可逆符号化部16に供給する。
一方、適応オフセットフィルタ41は、適応デブロックフィルタ処理に用いられたオフセットがまだバッファに格納されていない場合、そのオフセットを順にバッファに格納する。また、適応オフセットフィルタ41は、格納フラグを、オフセットがバッファに格納されていないことを示す値(ここでは0)に設定する。そして、適応オフセットフィルタ41は、LCUごとに、0に設定された格納フラグ、オフセット、および種類情報を可逆符号化部16に供給する。
適応ループフィルタ42は、適応オフセットフィルタ41から供給される適応オフセットフィルタ処理後の画像に対して、例えば、LCUごとに、適応ループフィルタ(ALF:Adaptive Loop Filter)処理を行う。適応ループフィルタ処理としては、例えば、2次元のウィナーフィルタ(Wiener Filter)による処理が用いられる。もちろん、ウィナーフィルタ以外のフィルタが用いられてもよい。
具体的には、適応ループフィルタ42は、LCUごとに、画面並べ替えバッファ12から出力される画像である原画像と適応ループフィルタ処理後の画像の残差が最小となるように、適応ループフィルタ処理で用いられるフィルタ係数を算出する。そして、適応ループフィルタ42は、適応オフセットフィルタ処理後の画像に対して、算出されたフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。
適応ループフィルタ42は、適応ループフィルタ処理後の画像をフレームメモリ22に供給する。また、適応ループフィルタ42は、フィルタ係数を可逆符号化部16に供給する。
なお、ここでは、適応ループフィルタ処理は、LCUごとに行われるものとするが、適応ループフィルタ処理の処理単位は、LCUに限定されない。但し、適応オフセットフィルタ41と適応ループフィルタ42の処理単位を合わせることにより、処理を効率的に行うことができる。
フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
イントラ予測部24は、フレームメモリ22からスイッチ23を介して読み出されたデブロックフィルタ21でフィルタリングされていない参照画像を用いて、タイルおよびスライス単位で、候補となる全てのイントラ予測モードのイントラ予測処理を行う。
また、イントラ予測部24は、画面並べ替えバッファ12から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部24は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。
イントラ予測部24は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部26に供給する。イントラ予測部24は、予測画像選択部26から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部16に供給する。
なお、コスト関数値は、RD(Rate Distortion)コストともいい、例えば、H.264/AVC方式における参照ソフトウエアであるJM(Joint Model)で定められているような、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて算出される。
具体的には、コスト関数値の算出手法としてHigh Complexity モードが採用される場合、候補となる全ての予測モードに対して、仮に可逆符号化までが行われ、次の式(1)で表わされるコスト関数値が各予測モードに対して算出される。
Cost(Mode)=D+λ・R ・・・(1)
Dは、原画像と復号画像の差分(歪)、Rは、直交変換の係数まで含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。
一方、コスト関数値の算出手法としてLow Complexity モードが採用される場合、候補となる全ての予測モードに対して、復号画像の生成、および、予測モードを示す情報などのヘッダビットの算出が行われ、次の式(2)で表わされるコスト関数値が各予測モードに対して算出される。
Cost(Mode)=D+QPtoQuant(QP)・Header_Bit ・・・(2)
Dは、原画像と復号画像の差分(歪)、Header_Bitは、予測モードに対するヘッダビット、QPtoQuantは、量子化パラメータQPの関数として与えられる関数である。
Low Complexity モードにおいては、全ての予測モードに対して、復号画像を生成するだけでよく、可逆符号化を行う必要がないため、演算量が少なくて済む。
動き予測・補償部25は、タイルおよびスライス単位で、候補となる全てのインター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部25は、タイルおよびスライス単位で、画面並べ替えバッファ12から供給される画像と、フレームメモリ22からスイッチ23を介して読み出されるフィルタリングされた参照画像に基づいて、候補となる全てのインター予測モードの動きベクトルを検出する。そして、動き予測・補償部25は、タイルおよびスライス単位で、その動きベクトルに基づいて参照画像に補償処理を施し、予測画像を生成する。
このとき、動き予測・補償部25は、画面並べ替えバッファ12から供給される画像と予測画像とに基づいて、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部25は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部26に供給する。また、動き予測・補償部25は、予測画像選択部26から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトル、参照画像を特定する情報などを可逆符号化部16に出力する。
予測画像選択部26は、イントラ予測部24および動き予測・補償部25から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの、対応するコスト関数値が小さい方を、最適予測モードに決定する。そして、予測画像選択部26は、最適予測モードの予測画像を、演算部13および加算部20に供給する。また、予測画像選択部26は、最適予測モードの予測画像の選択をイントラ予測部24または動き予測・補償部25に通知する。
レート制御部27は、蓄積バッファ17に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部15の量子化動作のレートを制御する。
[ダイナミックレンジの特性情報の例]
次に、図5を参照して、図3の設定部3により設定されるダイナミックレンジの特性情報について説明する。なお、図5における縦軸や横軸の値は一例であり、それらの値に限定されない。
図5の例において、横軸は、撮像 (captured)画像のホワイトレベルを表している。縦軸は、現像画像(developed)画像に割り当てるデジタルコードを表している。現像画像とは、すなわち、ビット階調などをした画像のことである。
横軸における800%は、カメラの感度および最適露出(撮影時および現像時)の値であり、かつ、撮影時の最大輝度である。この値は、ダイナミックレンジの特性情報の1つであるcamera_iso_sensitivityおよびmax_image_white_levelとしてそれぞれ設定されて伝送される。
なお、この例では、カメラの感度および最適露出の値と撮影時の最大輝度とが同じ値となっているが、異なる場合もある。
この最大ホワイトレベルに対応する縦軸の値(940)は、現像画像に対して最大ホワイトレベルが割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるmax_white_level_code_valueとして設定されてデコード側に伝送される。
横軸における100%は、ディスプレイにおける基準の値(ホワイトレベル)である。このホワイトレベルに対する縦軸の値は、現像画像に対してホワイトレベル(白100%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるwhite_level_code_valueとして設定されてデコード側に伝送される。
横軸における20%は、Grayを示す標準露出として汎用的に使われるレベル(グレイレベル)であり、カメラ側で設定されることが多い。このグレイレベルに対する縦軸の値は、現像画像に対してグレイレベル(白20%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるgray_level_code_valueとして設定されてデコード側に伝送される。
横軸における0%は、ブラックレベルである。このブラックレベルに対する縦軸の値(64)は、現像画像に対してブラックレベル(白0%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるblack_level_code_valueとして設定されてデコード側に伝送される。
以上のように、撮影(Captured)画像に対して、現像(Developed)画像に割り当てられるダイナミックレンジのコードを示すコード情報が、ダイナミックレンジの特性情報として設定されてデコード側に伝送される。すなわち、撮影(Captured)画像に対して、現像(Developed)画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報が設定されてデコード側に伝送される。
このようなダイナミックレンジの特性情報を、コンテンツの質を示す情報(ダイナミックレンジが既存のコンテンツに比べて広いなど、ホワイトレベルに関するような画像の情報の品質が高いことを示す情報、コンテンツが持っているポテンシャルが高いことを示す情報)として、コンテンツ作成側から明示して表示側(デコード側)に伝送する。
コンテンツ作成側は、作成者の意図した画像(の状態)で提供したいモチベーションがある。表示側では、この情報を基準にしてダイナミックレンジを広げる(上げる)、または狭くする(下げる)処理を行う。また、この情報を参照することにより、表示側で、以下の処理を的確に行うことができる。
例えば、自分の表示能力よりダイナミックレンジが高い画像が入力された場合、自分の表示能力に合わせて、トーンマッピングなどを用いてレンジを下げる処理を行うことができる。
また、逆に、自分の表示能力よりダイナミックレンジが低い画像が入力された場合、自分の表示能力に合わせて、トーンマッピングなどを用いてレンジを上げる処理を行うことができる。
この情報がない場合、デコード画像を表示側で解析した上で、トーンマッピングを行う必要があるが、ダイナミックレンジの特性情報を送ることで、デコード画像の解析が必要なくなり、さらに、ダイナミックレンジの調整を的確に行うことができる。
なお、図6に示されるように、black_level_code_valueと、max_white_level_code_valueとの間において、white_level_code_value以外にも、複数のwhite_level_code_valueを設定して伝送するようにすることもできる。
例えば、図6の例においては、撮影画像のホワイトレベルが0%乃至800%の間において、white_level_code_value_0乃至white_level_code_value_4が設定されて伝送される例が示されている。
また、上記説明においては、max_white_level_code_value、white_level_code_value、およびblack_level_code_valueを、value(値)として設定する例を説明したが、Range(範囲)として設定して伝送するようにしてもよい。
図7は、ダイナミックレンジの特性情報の例を示す図である。
ダイナミックレンジの特性情報は、camera_iso_sensitivity、output_exposure_index、screen_lw、black_level_code_value、gray_level_code_value、white_level_code_value、およびmax_white_level_code_valueを含むように構成されている。
camera_iso_sensitivityは、図5を参照して上述したように、画像を撮影したときのカメラの感度を明示している。output_exposure_indexは、画像の現像工程で使うように設定されている露出インデックス(すなわち、現像時の露出インデックス)を明示している。ref_screen_lwは、画像の現像工程で使うように設定されているホワイトレベルの参照表示輝度を明示している。
black_level_code_value、gray_level_code_value、white_level_code_value、およびmax_white_level_code_valueは、図5を参照して上述したように、ブラックレベル、ホワイトレベル、グレイレベル、および最大ホワイトレベルが割り当てられる輝度のコードデータをそれぞれ明示している。
すなわち、ダイナミックレンジの特性情報としては、撮影時(captured image)の最大輝度、撮影時の最適露出の値、現像時(developed image)の最適露出の値、現像後の最大ホワイトレベルが割り当てられているデジタル値、現像後のホワイトレベル(白100%)が割り当てられているデジタル値、現像後のグレイレベルが割り当てられているデジタル値、現像後のブラックレベルが割り当てられているデジタル値、および現像後の白100%から最大白0%までの間のデジタル値が含まれていることが望ましい。
上述したこれらのダイナミックレンジの特性情報は、以下に説明する伝送方法1乃至4のいずれかの方法で、デコード側に伝送される。
まず、図8を参照して、伝送方法1として、ダイナミックレンジの特性情報を既存のSEI(Supplemental enhancement information)を拡張して伝送する例について説明する。図8は、トーンマッピングSEI(tone_mapping_information SEI)の例を示す図である。SEIは、符号化ストリームを復号処理した画像を表示する際に用いる補助情報である。
上述したダイナミックレンジの特性情報は、図8の枠内に示されるように、トーンマッピングSEIにおけるモデルID(model_id)=4を拡張することで、トーンマッピングSEIに設定されて伝送される。
なお、枠内のうち、ハッチングされていないcamera_iso_sensitivityおよびoutput_exposure_indexは、カメラの設定パラメータとしては既存の情報(従来技術)である。ただし、それらの情報を符号化ビットストリームに入れて伝送するという点、又は、それらの情報を使って、ダイナミックレンジを調整するという点では、従来技術と異なる。
他方、枠内のうち、ハッチングされているref_screen_lw、max_image_white_level 、black_level_code_value、white_level_code_value、max_white_level_code_valueは、パラメータ自体が新たに設定したものであり、従来技術と異なる。
ここで、従来のトーンマッピングSEIにおいては、RGB毎に別々の成分が用いられていたが、ダイナミックレンジの特性情報は、デコードした画像の輝度成分を適用対象とする。
また、TBDは、To BE Determined Valueであり、予め設定された値、または、コンテンツを作成した際に設定されたパラメータであることを表している。
図9は、トーンマッピングSEIの他の例を示す図である。
図9の例においても、上述したダイナミックレンジの特性情報は、枠内に示されるように、トーンマッピングSEIにおけるモデルID(model_id)=4を拡張することで、トーンマッピングSEIに設定されて伝送される。
camera_iso_sensitivity_idcは、カメラが取得できる感度を示すコードを明示している。このコードの意味は、後述する図10のテーブルに示されている。camera_iso_sensitivity_idcがExtended_ISOを指し示す場合、次行のcamera_iso_sensitivityによって、ISO_numnerが表される。すなわち、camera_iso_sensitivity_idcをExtended_ISOとすることで、camera_iso_sensitivity_idcを好きな値に設定することができる。
exposure_index_idcは、撮影時の露出インデックスを示すコードを明示している。このコードの意味は、後述する図10のテーブルに示されている。exposure_index _idcがExtended_ISOを指し示す場合、次行のexposure_index_ratingによって、ISO_numnerが表される。すなわち、exposure_index_idcをExtended_ISOとすることで、exposure_index_idcを好きな値に設定することができる。
sign_image_exposure_valueは、撮影時の露出の値に対しての現像時の露出の相対的な符号を明示している。image_expoure_value0は、撮影時の露出の値に対しての現像時の露出の相対的な値のうちの分子の値を明示している。image_expoure_value1は、撮影時の露出の値に対しての現像時の露出の相対的な値のうちの分母の値を明示している。
すなわち、撮影時に対して現像時は、sign_image_exposure_value、image_expoure_value0、およびimage_expoure_value1を用いて、どのぐらい露出の値を下げたかという、相対的な値を示すことで、現像時の露出の値(図8のoutput_exposure_index)を導くことができる。これにより、現像時の露出の値を小数で表わすことが可能となる。
ref_screen_lwは、何cd/m2(カンデラ)の白で表示することを想定して作られたコンテンツであり、その白で表示するのがよいことを明示している。
max_image_white_levelは、基準のホワイトレベルを参照して整数のパーセントとして表された画像の輝度のダイナミックレンジを明示している。
black_level_code_value、white_level_code_value、およびmax_white_level_code_valueは、図8の例の場合と同様に、ブラックレベル、ホワイトレベル、および最大ホワイトレベルが割り当てられる輝度のコードデータをそれぞれ明示している。
なお、図9の例においても、図8の例の場合と同様に、枠内のうち、ハッチングされていないcamera_iso_sensitivity、exposure_index_idc、sign_image_exposure、image_expoure_value0、およびimage_expoure_value1は、カメラの設定パラメータとしては既存の情報(従来技術)である。これに対して、その情報を符号化ビットストリームに入れて伝送するという点、又は、それらの情報を使って、ダイナミックレンジを調整するという点では従来技術と異なる。
これに対して、枠内のうち、ハッチングされているref_screen_lw、max_image_white_level 、black_level_code_value、white_level_code_value、max_white_level_code_valueは、パラメータ自体が新たに設定したものであり、従来技術とは異なる。
図10は、カメラの感度が指し示す値と露出インデックスが指し示す値の意味のテーブルを示す図である。
例えば、指し示す値(Indicator)が0の場合、ISO numberは特に明示されていない。指し示す値が1の場合、ISO numberが10であることが明示されている。指し示す値が2乃至30の場合、その図示は省略されているが、ISO numberがそれぞれ明示されている。
指し示す値が31乃至254の場合、ISO numberはReservedとなっている。指し示す値が255の場合、ISO numberはExtended_ISOであることが明示されている。ISO numberは、Extended_ISOである場合、図9を参照して上述したように、camera_iso_sensitivity_idcも、exposure_index_idcも、好きな値を指示することができる。
次に、図11を参照して、伝送方法2として、ダイナミックレンジの特性情報を新たな(専用の)SEIを設定して伝送する方法について説明する。図11は、ルミナンスダイナミックレンジSEI(luminance_dynamic_range_information SEI)の例を示す図である。
すなわち、図11に示されるようなルミナンスダイナミックレンジSEI(luminance_dynamic_range_info)を新たに設定する。そして、上述したダイナミックレンジの特性情報は、図11の枠内に示されるように、そのルミナンスダイナミックレンジSEIに設定されて伝送される。なお、図11の枠内のダイナミックレンジ特性情報は、図8を参照して上述したダイナミックレンジ特性情報と基本的に同様であり、その説明は繰り返しになるので省略される。
さらに、伝送方法3としては、上述した伝送方法1および2と、VUI(Video Usability Information)パラメータとを連携させて、ダイナミックレンジ特性情報を伝送する方法があげられる。VUIは、画像のユーザビリティをシーケンス単位で示す情報である。
図12は、伝送方法1と連携した場合のVUIのシンタックスの例を示す図である。図12の例において、tone_mapping_flag(トーンマッピングフラグ)は、トーンマッピングSEIの有無を示す有無情報を示すフラグである。トーンマッピングフラグは、トーンマッピングSEIが有ることを示す場合1とされ、トーンマッピングSEIが無いことを示す場合0とされる。
図13は、伝送方法2と連携した場合のVUIのシンタックスの例を示す図である。図13の例において、luminance_dynamic_range_flag(ルミナンスダイナミックレンジフラグ)は、ルミナンスダイナミックレンジSEIの有無を示す有無情報を示すフラグである。ルミナンスダイナミックレンジフラグは、ルミナンスダイナミックレンジSEIが有ることを示す場合1とされ、ルミナンスダイナミックレンジSEIが無いことを示す場合0とされる。
最後に、伝送方法4として、ダイナミックレンジ特性情報は、上述したVUIのパラメータとして伝送するようにしてもよい。すなわち、この場合、図12または図13に示されるフラグの代わりに(または、フラグに追加して)、ダイナミックレンジ特性情報自体がVUIのパラメータとして伝送される。
ここで、ダイナミックレンジ特性情報をSEIに入れる場合、HEVC方式だけでなく、AVC方式にも適用することができる。一方、VUIには、ディスプレイ側で使う値が多く入っているので、ダイナミックレンジ特性情報をVUIに入れる場合、情報をまとめておくことができる。
図14は、伝送方法4の場合のVUIのシンタクスの例を示す図である。
図14のVUIのシンタクスにおいては、枠の上に示すように、図12のtone_mapping_flag(トーンマッピングフラグ)が記述されており、トーンマッピングフラグは、直後(VUI内であれば直後でなくてもよい)に、ダイナミックレンジ特性情報が記述されている場合1とされ、ダイナミックレンジ特性情報が記述されていない場合0とされる。
したがって、復号側においては、トーンマッピングフラグが1の場合に、図14の枠内に示すダイナミックレンジ特性情報が参照される。
なお、図14に示されるダイナミックレンジ特性情報は、図9を参照して上述したダイナミックレンジ特性情報と同じであり、繰り返しになるのでその説明は省略される。
図15は、ダイナミックレンジ特性情報の例を示す図である。なお、ダイナミックレンジ特性情報は、上述したように、トーンマッピングSEI、ルミナンスダイナミックレンジSEI、または、VUIなどに記述される情報であり、図15の例においては、記述位置を特定しないために、シンタックスの先頭に「xxxxx()」が記述されている。
図15のダイナミックレンジ特性情報は、max_white_level_code_valueの下に、注目領域の輝度のレンジ、かつ/または、注目領域の位置とオフセットを表す情報が追加された点が、図9のダイナミックレンジ特性情報と異なっている。
すなわち、roi_luminance_range_flagは、注目領域(region of interest:興味領域)の輝度のレンジ、かつ/または、注目領域の位置とオフセットを表す情報が記述されているか否かを示すフラグである。
roi_luminance_range_flagの値が1の場合、黒ベタ部分に示されるように、min_roi_luminance_range、max_roi_luminance_range、roi_region_x、roi_region_y、roi_region_x_offset、およびroi_region_y_offsetが記述される。
min_roi_luminance_rangeは、注目領域の輝度レンジの最小値を明示している。max_roi_luminance_rangeは、注目領域の輝度レンジの最大値を明示している。roi_region_xおよびroi_region_yは、注目領域の左上のx座標およびy座標をそれぞれ明示している。
roi_region_x offsetおよびroi_region_y offsetは、左上のroi_region_xおよびroi_region_yからのオフセットの値をそれぞれ表している。これにより、roi_region_xおよびroi_region_yからの注目領域を指し示すことができる。
以上のように、注目領域の輝度のレンジおよび(または)注目領域の位置やそのオフセットを、ダイナミックレンジ特性情報に含めるようにしたので、注目領域に合わせたトーンマッピングをしてほしいという意図を復号側に伝えることができる。
なお、注目領域の輝度のレンジの代わりに、例えば、映画コンテンツのように、輝度の低いレンジをより重視する黒重視フラグや、テレビジョンコンテンツのように、輝度の高いレンジをより重視する白重視フラグを追加するようにしてもよい。
従来、ディスプレイの表現できる解像度が低かったので、コンテンツ制作者は、100%以上の白を入れておく必要がなかったが、昨今、高い解像度まで表現できるディスプレイが出てきている。
そこで、上述したように、いままで100%白しか有していなかった映像に対して、それ以上の白をもたせ、さらに、ディスプレイ能力はさまさまだから、自分で自分に適した映像にして出力できるような情報をもたせるようにした。
これにより、ディスプレイ側において、ダイナミックレンジを正確に再現することができる。
[符号化装置の処理の説明]
図16は、図3の符号化装置1の生成処理を説明するフローチャートである。なお、図16の例においては、上述した伝送方法3の例について説明する。
図16のステップS1において、符号化装置1の符号化部2は、外部から入力信号として入力されるフレーム単位の撮影画像等の画像をHEVC方式で符号化する符号化処理を行う。この符号化処理の詳細は、後述する図17および図18を参照して説明する。
ステップS2において、設定部3は、SPSを設定する。ステップS3において、設定部3は、PPSを設定する。ステップS4において、設定部3は、ユーザによる図示せぬ入力部の操作等に基づいて、符号化対象の画像がHDR(High Dynamic Range)画像であるかどうかを判定する。なお、上述したダイナミックレンジの特性情報を有する画像を、以下、HDR画像であるとして説明する。
ステップS4で符号化対象の画像がHDR画像であると判定された場合、ステップS5において、設定部3は、HDR画像フラグとして1を含むVUIを設定する。ステップS6において、設定部3は、HDR画像SEIなどのSEIを設定し、処理をステップS8に進める。
ここで、HDR画像フラグは、図12を参照して上述したtone_mapping_flagまたは図13を参照して上述したluminance_dynamic_range_flagのことである。また、HDR画像SEIは、図8を参照して上述したトーンマッピングSEIまたは図11を参照して上述したルミナンスダイナミックレンジSEIのことである。
一方、ステップS4で符号化対象の画像がHDR画像ではないと判定された場合、ステップS7において、設定部3は、HDR画像フラグとして0を含むVUIを設定する。また、設定部3は、必要に応じて、HDR画像SEI以外のSEIを設定し、処理をステップS8に進める。
ステップS8において、設定部3は、設定されたSPS,PPS,VUI、およびSEIと、符号化部2から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
ステップS9において、伝送部4は、設定部3から供給される符号化ストリームを、後述する復号装置に伝送し、処理を終了する。
図17および図18は、図16のステップS1の符号化処理の詳細を説明するフローチャートである。
図17のステップS11において、符号化部2のA/D変換部11は、入力信号として入力されたフレーム単位の画像をA/D変換し、画面並べ替えバッファ12に出力して記憶させる。
ステップS12において、画面並べ替えバッファ12は、記憶した表示の順番のフレームの画像を、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ12は、並べ替え後のフレーム単位の画像を、演算部13、イントラ予測部24、および動き予測・補償部25に供給する。なお、以下のステップS13乃至S31の処理は、例えばCU(Coding Unit)単位で行われる。
ステップS13において、イントラ予測部24は、候補となる全てのイントラ予測モードのイントラ予測処理を行う。また、イントラ予測部24は、画面並べ替えバッファ12から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値を算出する。そして、イントラ予測部24は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。イントラ予測部24は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部26に供給する。
また、動き予測・補償部25は、候補となる全てのインター予測モードの動き予測・補償処理を行う。また、動き予測・補償部25は、画面並べ替えバッファ12から供給される画像と予測画像とに基づいて、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部25は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部26に供給する。
ステップS14において、予測画像選択部26は、ステップS13の処理によりイントラ予測部24および動き予測・補償部25から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのコスト関数値が最小となる方を、最適予測モードに決定する。そして、予測画像選択部26は、最適予測モードの予測画像を、演算部13および加算部20に供給する。
ステップS15において、予測画像選択部26は、最適予測モードが最適インター予測モードであるかどうかを判定する。ステップS15で最適予測モードが最適インター予測モードであると判定された場合、予測画像選択部26は、最適インター予測モードで生成された予測画像の選択を動き予測・補償部25に通知する。
そして、ステップS16において、動き予測・補償部25は、インター予測モード情報、対応する動きベクトル、および参照画像を特定するための情報を可逆符号化部16に供給する。そして、処理はステップS18に進む。
一方、ステップS15で最適予測モードが最適インター予測モードではないと判定された場合、即ち最適予測モードが最適イントラ予測モードである場合、予測画像選択部26は、最適イントラ予測モードで生成された予測画像の選択をイントラ予測部24に通知する。
そして、ステップS17において、イントラ予測部24は、イントラ予測モード情報を可逆符号化部16に供給する。そして、処理はステップS18に進む。
ステップS18において、演算部13は、画面並べ替えバッファ12から供給される画像から、予測画像選択部26から供給される予測画像を減算することにより符号化を行う。演算部13は、その結果得られる画像を、残差情報として直交変換部14に出力する。
ステップS19において、直交変換部14は、演算部13からの残差情報に対して直交変換を施し、その結果得られる係数を量子化部15に供給する。
ステップS20において、量子化部15は、直交変換部14から供給される係数を量子化する。量子化された係数は、可逆符号化部16と逆量子化部18に入力される。
ステップS21において、逆量子化部18は、量子化部15から供給される量子化された係数を逆量子化する。
ステップS22において、逆直交変換部19は、逆量子化部18から供給される係数に対して逆直交変換を施し、その結果得られる残差情報を加算部20に供給する。
ステップS23において、加算部20は、逆直交変換部19から供給される残差情報と、予測画像選択部26から供給される予測画像を加算し、局部的に復号された画像を得る。加算部20は、得られた画像をデブロックフィルタ21に供給するとともに、フレームメモリ22に供給する。
ステップS24において、デブロックフィルタ21は、加算部20から供給される局部的に復号された画像に対して、デブロッキングフィルタ処理を行う。デブロックフィルタ21は、その結果得られる画像を適応オフセットフィルタ41に供給する。
ステップS25において、適応オフセットフィルタ41は、デブロックフィルタ21から供給される画像に対して、LCUごとに適応オフセットフィルタ処理を行う。適応オフセットフィルタ41は、その結果得られる画像を適応ループフィルタ42に供給する。また、適応オフセットフィルタ41は、LCUごとに、格納フラグ、インデックスまたはオフセット、および種類情報を、オフセットフィルタ情報として可逆符号化部16に供給する。
ステップS26において、適応ループフィルタ42は、適応オフセットフィルタ41から供給される画像に対して、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ42は、その結果得られる画像をフレームメモリ22に供給する。また、適応ループフィルタ42は、適応ループフィルタ処理で用いられたフィルタ係数を可逆符号化部16に供給する。
ステップS27において、フレームメモリ22は、フィルタリング前後の画像を蓄積する。具体的には、フレームメモリ22は、加算部20から供給される画像と適応ループフィルタ42から供給される画像を蓄積する。フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
ステップS28において、可逆符号化部16は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報など、オフセットフィルタ情報、およびフィルタ係数を、符号化情報として可逆符号化する。
ステップS29において、可逆符号化部16は、量子化部15から供給される量子化された係数を可逆符号化する。そして、可逆符号化部16は、ステップS28の処理で可逆符号化された符号化情報と可逆符号化された係数から、符号化データを生成する。
ステップS30において、可逆符号化部16は、符号化データを蓄積バッファ17に供給し、蓄積させる。
ステップS31において、蓄積バッファ17は、蓄積されている符号化データを、図3の設定部3に出力する。そして、処理は図16のステップS1に戻り、ステップS2に進む。
なお、図17および図18の符号化処理では、説明を簡単化するため、常に、イントラ予測処理と動き予測・補償処理が行われるようにしたが、実際には、ピクチャタイプ等によっていずれか一方のみが行われる場合もある。
以上のように、符号化装置1は、HDR画像SEI(トーンマッピングSEIまたはルミナンスダイナミックレンジSEI)とHDR画像フラグ(tone_mapping_flagまたはluminance_dynamic_range_flag)を設定し、HDR画像を符号化した符号化データとともに伝送する。
従って、HDR画像の符号化ストリームを復号して表示させる復号装置は、HDR画像フラグが1である場合、HDR画像SEIを優先的に用いて、HDR画像のダイナミックレンジを確実に再現して表示させることができる。よって、符号化装置1は、HDR画像の符号化ストリームを復号して表示させる場合に、HDR画像のダイナミックレンジを確実に再現し、表示させることができるように、HDR画像の符号化ストリームを生成することができるといえる。
[復号装置の第1実施の形態の構成例]
図19は、図3の符号化装置1から伝送される符号化ストリームを復号する、本技術を適用した画像処理装置としての、復号装置の第1実施の形態の構成例を示すブロック図である。
図19の復号装置50は、受け取り部51、抽出部52、復号部53、画像調整部54、表示制御部55、および表示部56により構成される。
復号装置50の受け取り部51は、図3の符号化装置1から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。抽出部52は、受け取り部51から供給される符号化ストリームから、SPS,PPS,VUI,SEI、符号化データ等を抽出する。抽出部52は、符号化データを復号部53に供給する。また、抽出部52は、SPS,PPS,VUI,SEI等も、必要に応じて復号部53と画像調整部54に供給する。
復号部53は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをHEVC方式で復号する。復号部53は、復号の結果得られるHDR画像等の画像を、出力信号として画像調整部54に供給する。
画像調整部54は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等に基づいて、復号部53から出力信号として供給されるHDR画像のダイナミックレンジを調整する。例えば、画像調整部54は、表示ダイナミックレンジに合わせて、画像のダイナミックレンジを調整する。そして、画像調整部54は、出力信号としてのHDR画像を表示制御部55に供給する。
表示制御部55は、画像調整部54から供給されるHDR画像(必要に応じて、表示部56から通知される表示方法)に基づいて、表示画像を生成する。表示制御部55は、生成された表示画像を表示部56に供給することにより、表示させる。
表示部56は、表示制御部55から供給される表示画像を表示する。また、表示部56は、予め設定された表示方法、または、予め設定された表示方法のうちのユーザにより指定された表示方法を表示制御部55に通知する。
[復号部の構成例]
図20は、図19の復号部53の構成例を示すブロック図である。
図20の復号部53は、蓄積バッファ101、可逆復号部102、逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、画面並べ替えバッファ107、D/A変換部108、フレームメモリ109、スイッチ110、イントラ予測部111、動き補償部112、およびスイッチ113により構成される。
また、デブロックフィルタ106と、画面並べ替えバッファ107およびフレームメモリ109との間には、適応オフセットフィルタ141と適応ループフィルタ142が備えられている。
復号部53の蓄積バッファ101は、図19の抽出部52から符号化データを受け取り、蓄積する。蓄積バッファ101は、蓄積されている符号化データを可逆復号部102に供給する。
可逆復号部102は、蓄積バッファ101からの符号化データに対して、可変長復号や、算術復号等の可逆復号を施すことで、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。また、可逆復号部102は、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、参照画像を特定するための情報、インター予測モード情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
可逆復号部102は、符号化情報としてのオフセットフィルタ情報を適応オフセットフィルタ141に供給し、フィルタ係数を適応ループフィルタ142に供給する。
逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、フレームメモリ109、スイッチ110、イントラ予測部111、および、動き補償部112は、図4の逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、および、動き予測・補償部25とそれぞれ同様の処理を行い、これにより、画像が復号される。
具体的には、逆量子化部103は、可逆復号部102からの量子化された係数を逆量子化し、その結果得られる係数を逆直交変換部104に供給する。
逆直交変換部104は、逆量子化部103からの係数に対して逆直交変換を施し、その結果得られる残差情報を加算部105に供給する。
加算部105は、逆直交変換部104から供給される復号対象の画像としての残差情報と、スイッチ113から供給される予測画像を加算することにより、復号を行う。加算部105は、復号の結果得られる画像をデブロックフィルタ106に供給するとともに、フレームメモリ109に供給する。なお、スイッチ113から予測画像が供給されない場合、加算部105は、逆直交変換部104から供給される残差情報である画像を復号の結果得られる画像として、デブロックフィルタ106に供給するとともに、フレームメモリ109に供給して蓄積させる。
デブロックフィルタ106は、加算部105から供給される画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像を適応オフセットフィルタ141に供給する。
適応オフセットフィルタ141は、可逆復号部102から供給されるオフセットを順に格納するバッファを有する。また、適応オフセットフィルタ141は、LCUごとに、可逆復号部102から供給されるオフセットフィルタ情報に基づいて、デブロックフィルタ106による適応デブロックフィルタ処理後の画像に対して、適応オフセットフィルタ処理を行う。
具体的には、オフセットフィルタ情報に含まれる格納フラグが0である場合、適応オフセットフィルタ141は、LCU単位のデブロックフィルタ処理後の画像に対して、そのオフセットフィルタ情報に含まれるオフセットを用いて、種類情報が示す種類の適応オフセットフィルタ処理を行う。
一方、オフセットフィルタ情報に含まれる格納フラグが1である場合、適応オフセットフィルタ141は、LCU単位のデブロックフィルタ処理後の画像に対して、そのオフセットフィルタ情報に含まれるインデックスが示す位置に格納されるオフセットを読み出す。そして、適応オフセットフィルタ141は、読み出されたオフセットを用いて、種類情報が示す種類の適応オフセットフィルタ処理を行う。適応オフセットフィルタ141は、適応オフセットフィルタ処理後の画像を、適応ループフィルタ142に供給する。
適応ループフィルタ142は、適応オフセットフィルタ141から供給される画像に対して、可逆復号部102から供給されるフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ142は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
フレームメモリ109に蓄積された画像は、参照画像としてスイッチ110を介して読み出され、動き補償部112またはイントラ予測部111に供給される。
画面並べ替えバッファ107は、デブロックフィルタ106から供給される画像をフレーム単位で記憶する。画面並べ替えバッファ107は、記憶した符号化のための順番のフレーム単位の画像を、元の表示の順番に並び替え、D/A変換部108に供給する。
D/A変換部108は、画面並べ替えバッファ107から供給されるフレーム単位の画像をD/A変換し、出力信号として図19の画像調整部54に出力する。
イントラ予測部111は、タイルおよびスライス単位で、フレームメモリ109からスイッチ110を介して読み出されたデブロックフィルタ106でフィルタリングされていない参照画像を用いて、可逆復号部102から供給されるイントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。イントラ予測部111は、その結果生成される予測画像をスイッチ113に供給する。
動き補償部112は、タイルおよびスライス単位で、可逆復号部102から供給される参照画像を特定するための情報に基づいて、フレームメモリ109からスイッチ110を介して、デブロックフィルタ106でフィルタリングされた参照画像を読み出す。動き補償部112は、動きベクトルと参照画像を用いて、インター予測モード情報が示す最適インター予測モードの動き補償処理を行う。動き補償部112は、その結果生成される予測画像をスイッチ113に供給する。
スイッチ113は、可逆復号部102からイントラ予測モード情報が供給された場合、イントラ予測部111から供給される予測画像を加算部105に供給する。一方、可逆復号部102からインター予測モード情報が供給された場合、スイッチ113は、動き補償部112から供給される予測画像を加算部105に供給する。
[復号装置の処理の説明]
図21は、図19の復号装置50による表示処理を説明するフローチャートである。
図21のステップS50において、復号装置50の受け取り部51は、図3の符号化装置1から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。
ステップS51において、抽出部52は、受け取り部51から供給される符号化ストリームから、SPS,PPS,VUI,SEI、符号化データ等を抽出する。抽出部52は、符号化データを復号部53に供給する。また、抽出部52は、SPS,PPS,VUI,SEI等も、必要に応じて復号部53と画像調整部54に供給する。
ステップS52において、復号部53は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをHEVC方式で復号する復号処理を行う。この復号処理の詳細は、後述する図22を参照して説明する。
ステップS53において、画像調整部54は、抽出部52から供給されるVUIに含まれるHDR画像フラグが1であるかどうかを判定する。図16を参照して上述したように、HDR画像フラグは、図12に示されるtone_mapping_flagまたは図13に示されるluminance_dynamic_range_flagのことである。ステップS53でHDR画像フラグが1であると判定された場合、画像調整部54は、復号部53から供給される出力信号がHDR画像であると判定する。
そして、ステップS54において、画像調整部54は、抽出部52から供給されるHDR画像SEIに含まれるダイナミックレンジ特性情報を取得する。詳しくは、図16を参照して上述したように、図8に示されるトーンマッピングSEIまたは図11に示されるルミナンスダイナミックレンジSEIからダイナミックレンジ特性情報が取得される。
ステップS55において、画像調整部54は、ステップS54で取得されたダイナミックレンジ特性情報に基づき、表示ダイナミックレンジに合わせて、画像のダイナミックレンジを調整する。このダイナミックレンジの調整処理には、例えば、トーンマッピング処理などが含まれる。画像調整部54は、調整した画像を、表示制御部55に供給する。
なお、ステップS55における画像の調整には、大きくわけて2つの方法があるが、どちらの処理も、自分の表示能力に合わせる処理である。
1つ目としては、自分の表示能力よりも、ダイナミックレンジが高い画像が入力された場合、自分の表示能力に合わせて、画像のダイナミックレンジを下げる処理が行われる。
2つ目としては、自分の表示能力よりも、ダイナミックレンジが低い画像が入力された場合、自分の表示能力に合わせて、画像のダイナミックレンジを上げる処理が行われる。
一方、ステップS53でHDR画像フラグが1ではないと判定された場合、ステップS54およびS55はスキップされ、処理は、ステップS56に進む。すなわち、この場合、画像調整部54は、復号部53からの画像をそのまま、表示制御部55に供給する。
ステップS56において、表示制御部55は、画像調整部54から供給されるHDR画像に基づいて、表示画像を生成し、生成した表示画像を表示部56に供給することにより、表示部56に表示画像を表示させ、処理を終了する。
図22は、図21のステップS52の復号処理の詳細を説明するフローチャートである。
図22のステップS111において、復号部53の蓄積バッファ101は、図19の抽出部52からフレーム単位の符号化データを受け取り、蓄積する。蓄積バッファ101は、蓄積されている符号化データを可逆復号部102に供給する。なお、以下のステップS112乃至S124の処理は、例えばCU単位で行われる。
ステップS112において、可逆復号部102は、蓄積バッファ101からの符号化データを可逆復号し、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。また、可逆復号部102は、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、インター予測モード情報、参照画像を特定するための情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
さらに、可逆復号部102は、符号化情報としてのオフセットフィルタ情報を適応オフセットフィルタ141に供給し、フィルタ係数を適応ループフィルタ142に供給する。
ステップS113において、逆量子化部103は、可逆復号部102からの量子化された係数を逆量子化し、その結果得られる係数を逆直交変換部104に供給する。
ステップS114において、動き補償部112は、可逆復号部102からインター予測モード情報が供給されたかどうかを判定する。ステップS114でインター予測モード情報が供給されたと判定された場合、処理はステップS115に進む。
ステップS115において、動き補償部112は、可逆復号部102から供給される動きベクトル、インター予測モード情報、および参照画像を特定するための情報に基づいて、デブロックフィルタ106でフィルタリングされた参照画像を読み出し、動き補償処理を行う。動き補償部112は、その結果生成される予測画像を、スイッチ113を介して加算部105に供給し、処理をステップS117に進める。
一方、ステップS114でインター予測モード情報が供給されていないと判定された場合、即ちイントラ予測モード情報がイントラ予測部111に供給された場合、処理はステップS116に進む。
ステップS116において、イントラ予測部111は、フレームメモリ109からスイッチ110を介して読み出された、デブロックフィルタ106でフィルタリングされていない参照画像を用いて、イントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。イントラ予測部111は、イントラ予測処理の結果生成される予測画像を、スイッチ113を介して加算部105に供給し、処理をステップS117に進める。
ステップS117において、逆直交変換部104は、逆量子化部103からの係数に対して逆直交変換を施し、その結果得られる残差情報を加算部105に供給する。
ステップS118において、加算部105は、逆直交変換部104から供給される残差情報と、スイッチ113から供給される予測画像を加算する。加算部105は、その結果得られる画像をデブロックフィルタ106に供給するとともに、フレームメモリ109に供給する。
ステップS119において、デブロックフィルタ106は、加算部105から供給される画像に対してフィルタリングを行い、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像を適応オフセットフィルタ141に供給する。
ステップS120において、適応オフセットフィルタ141は、可逆復号部102から供給されるオフセットフィルタ情報に基づいて、デブロックフィルタ106によるデブロックフィルタ処理後の画像に対して、LCUごとに適応オフセットフィルタ処理を行う。適応オフセットフィルタ141は、適応オフセットフィルタ処理後の画像を、適応ループフィルタ142に供給する。
ステップS121において、適応ループフィルタ142は、適応オフセットフィルタ141から供給される画像に対して、可逆復号部102から供給されるフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ142は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
ステップS122において、フレームメモリ109は、加算部105から供給されるフィルタリング前の画像と、デブロックフィルタ106から供給されるフィルタリング後の画像を蓄積する。フレームメモリ109に蓄積された画像は、参照画像としてスイッチ110を介して動き補償部112またはイントラ予測部111に供給される。
ステップS123において、画面並べ替えバッファ107は、デブロックフィルタ106から供給される画像をフレーム単位で記憶し、記憶した符号化のための順番のフレーム単位の画像を、元の表示の順番に並び替え、D/A変換部108に供給する。
ステップS124において、D/A変換部108は、画面並べ替えバッファ107から供給されるフレーム単位の画像をD/A変換し、出力信号として図19の画像調整部54に供給する。そして、処理は、図21のステップS52に戻り、ステップS53に進む。
以上のように、復号装置50は、符号化データを復号して画像を生成し、HDR画像フラグが1である場合、HDR画像SEIを優先的に用いて、HDR画像のダイナミックレンジを確実に再現して表示させることができる。
なお、HDR画像フラグは、VUIではなく、SPS等の他のNALユニットに含まれるようにしてもよい。
以上においては、符号化方式としてHEVC方式をベースに用いるようにしたが、本技術は、表示を行う際の技術であり、符号化方式に拘らない。したがって、本技術は、HEVC方式に限らず、その他の符号化方式/復号方式を適用することができる。例えば、次に説明するAVC方式をベースに符号化/復号処理を行う装置にも適用することができる。
<第2の実施の形態>
[符号化装置の第2実施の形態の構成例]
図23は、本技術を適用した画像処理装置としての、符号化装置の第2実施の形態の構成例を示すブロック図である。
図23に示す構成のうち、図3の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図23の符号化装置201の構成は、符号化部2の代わりに符号化部211が設けられる点が図3の構成と異なる。符号化装置201の構成は、設定部3および伝送部4が設けられている点が図3の構成と共通している。
符号化装置201の符号化部211には、フレーム単位の撮影画像等の画像が入力信号として入力される。符号化部211は、入力信号をAVC方式で符号化し、その結果得られる符号化データを設定部3に供給する。
設定部3は、AVC方式の規格に応じた形式で、画像のダイナミックレンジの特性情報を設定する。設定部3は、設定された特性情報と、符号化部211から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
すなわち、符号化装置201においては、AVC方式による符号化処理が行われる点のみが、図3の符号化装置1と異なっている。
[符号化部の構成例]
図24は、図23の符号化部211の構成例を示すブロック図である。
図24に示す構成のうち、図4の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図24の符号化部211は、A/D変換部11、画面並べ替えバッファ12、演算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27を含むように構成される。
すなわち、図24の符号化部211の構成は、適応オフセットフィルタ41と適応ループフィルタ42が除かれている点、および可逆符号化部16がHEVC方式ではなく、AVC方式により符号化を行う点のみが図4の構成と異なる。したがって、符号化部211においては、CU単位ではなく、ブロック単位に符号化処理が行われる。
可逆符号化部16の符号化処理の対象は、適応オフセットフィルタおよび適応ループフィルタのパラメータを除き、図4の可逆符号化部16の場合と基本的に同様である。すなわち、可逆符号化部16は、図4の可逆符号化部16と同様に、イントラ予測モード情報をイントラ予測部24から取得する。また、インター予測モード情報、動きベクトル、参照画像を特定するための情報などを動き予測・補償部25から取得する。
可逆符号化部16は、図4の可逆符号化部16と同様に、量子化部15から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
また、可逆符号化部16は、図4の可逆符号化部16と同様に、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報、オフセットフィルタ情報、およびフィルタ係数などを、符号化に関する符号化情報として可逆符号化する。可逆符号化部16は、可逆符号化された符号化情報と係数を、符号化データとして蓄積バッファ17に供給し、蓄積させる。なお、可逆符号化された符号化情報は、可逆符号化された係数のヘッダ情報とされてもよい。
デブロックフィルタ21は、加算部20から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ21は、その結果得られる画像をフレームメモリ22に供給し、蓄積させる。
フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
本技術は、このようなAVC方式の符号化装置201にも適用することができる。
[復号装置の第2実施の形態の構成例]
図25は、図23の符号化装置201から伝送される符号化ストリームを復号する、本技術を適用した画像処理装置としての、復号装置の第2実施の形態の構成例を示すブロック図である。
図25に示す構成のうち、図19の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図25の復号装置251の構成は、復号部53の代わりに復号部261が設けられる点が図19の構成と異なる。復号装置251の構成は、受け取り部51、抽出部52、画像調整部54、表示制御部55、表示部56が設けられている点が図19の構成と共通している。
受け取り部51は、図23の符号化装置201から伝送されてくるAVC方式で符号化された符号化ストリームを受け取り、抽出部52に供給する。抽出部52は、受け取り部51から供給される符号化ストリームから、AVC方式の規格に応じて設定されたダイナミックレンジの特性情報、符号化データ等を抽出する。抽出部52は、符号化データを復号部261に供給する。また、抽出部52は、ダイナミックレンジの特性情報も、必要に応じて復号部261と画像調整部54に供給する。
復号部261は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをAVC方式で復号する。復号部261は、復号の結果得られるHDR画像等の画像を、出力信号として画像調整部54に供給する。
画像調整部54は、必要に応じて抽出部52から供給されるダイナミックレンジの特性情報に基づいて、復号部261から出力信号として供給されるHDR画像のダイナミックレンジを調整する。そして、画像調整部54は、出力信号としてのHDR画像を表示制御部55に供給する。
すなわち、復号装置251においては、AVC方式による復号処理が行われる点のみが、図19の復号装置50と異なっている。
[復号部の構成例]
図26は、図25の復号部261の構成例を示すブロック図である。
図26に示す構成のうち、図20の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図26の復号部261は、蓄積バッファ101、可逆復号部102、逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、画面並べ替えバッファ107、D/A変換部108、フレームメモリ109、スイッチ110、イントラ予測部111、動き補償部112、およびスイッチ113により構成される。
図26の復号部261の構成は、適応オフセットフィルタ141と適応ループフィルタ142が除かれている点、および可逆復号部102がHEVC方式ではなく、AVC方式により復号を行う点のみが図20の構成と異なる。したがって、復号部261においては、CU単位ではなく、ブロック単位に復号処理が行われる。
可逆復号部102の復号処理の対象は、適応オフセットフィルタおよび適応ループフィルタのパラメータを除き、図20の可逆復号部102の場合と基本的に同様である。すなわち、可逆復号部102は、図20の可逆復号部102と同様に、蓄積バッファ101からの符号化データに対して、可変長復号や、算術復号等の可逆復号を施すことで、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。
また、可逆復号部102は、図20の可逆復号部102と同様に、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、参照画像を特定するための情報、インター予測モード情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
デブロックフィルタ106は、加算部105から供給される画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
本技術は、このようなAVC方式の復号装置251にも適用することができる。
なお、本開示は、例えば、HEVC方式等の様に、離散コサイン変換等の直交変換と動き補償によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルテレビジョン、インターネット、または携帯電話機などのネットワークメディアを介して受信する際に用いられる画像符号化装置および画像復号装置に適用することができる。また、本開示は、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置および画像復号装置に適用することができる。
<第3の実施の形態>
[多視画像点符号化・多視点画像復号への適用]
上述した一連の処理は、多視点画像符号化・多視点画像復号に適用することができる。図27は、多視点画像符号化方式の一例を示す。
図27に示されるように、多視点画像は、複数の視点の画像を含み、その複数の視点のうちの所定の1つの視点の画像が、ベースビューの画像に指定されている。ベースビューの画像以外の各視点の画像は、ノンベースビューの画像として扱われる。
図27のような多視点画像符号化を行う場合、各ビュー(同一ビュー)において、ダイナミックレンジの特性情報を設定することができる。また、各ビュー(異なるビュー)において、他のビューで設定されたダイナミックレンジの特性情報を共有することもできる。
この場合、ベースビューにおいて設定されたダイナミックレンジの特性情報が、少なくとも1つのノンベースビューで用いられる。あるいは、例えば、ノンベースビュー(view_id=i)において設定されたダイナミックレンジの特性情報が、ベースビューおよびノンベースビュー(view_id=j)の少なくともどちらか一方で用いられる。
これにより、画像のダイナミックレンジを正確に再現することができる。
[多視点画像符号化装置]
図28は、上述した多視点画像符号化を行う多視点画像符号化装置を示す図である。図28に示されるように、多視点画像符号化装置600は、符号化部601、符号化部602、および多重化部603を有する。
符号化部601は、ベースビュー画像を符号化し、ベースビュー画像符号化ストリームを生成する。符号化部602は、ノンベースビュー画像を符号化し、ノンベースビュー画像符号化ストリームを生成する。多重化部603は、符号化部601において生成されたベースビュー画像符号化ストリームと、符号化部602において生成されたノンベースビュー画像符号化ストリームとを多重化し、多視点画像符号化ストリームを生成する。
この多視点画像符号化装置600の符号化部601および符号化部602に対して、符号化装置1(図3)や符号化装置201(図23)を適用することができる。この場合、多視点画像符号化装置600は、符号化部601が設定したダイナミックレンジの特性情報と、符号化部602が設定したダイナミックレンジの特性情報とを設定して伝送させる。
なお、上述したように符号化部601が設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部602がまとめて設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。
[多視点画像復号装置]
図29は、上述した多視点画像復号を行う多視点画像復号装置を示す図である。図29に示されるように、多視点画像復号装置610は、逆多重化部611、復号部612、および復号部613を有する。
逆多重化部611は、ベースビュー画像符号化ストリームとノンベースビュー画像符号化ストリームとが多重化された多視点画像符号化ストリームを逆多重化し、ベースビュー画像符号化ストリームと、ノンベースビュー画像符号化ストリームとを抽出する。復号部612は、逆多重化部611により抽出されたベースビュー画像符号化ストリームを復号し、ベースビュー画像を得る。復号部613は、逆多重化部611により抽出されたノンベースビュー画像符号化ストリームを復号し、ノンベースビュー画像を得る。
この多視点画像復号装置610の復号部612および復号部613に対して、復号装置50(図19)や復号装置251(図25)を適用することができる。この場合、多視点画像復号装置610は、符号化部601が設定し、復号部612が復号したダイナミックレンジの特性情報と、符号化部602が設定し、復号部613が復号したダイナミックレンジの特性情報を用いて処理を行う。
なお、上述したように符号化部601(または、符号化部602)が設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送されている場合がある。この場合、多視点画像復号装置610においては、符号化部601(または、符号化部602)が設定し、復号部612(または復号部613)が復号したダイナミックレンジの特性情報を用いて処理が行われる。
<6.第4の実施の形態>
[階層画像点符号化・階層画像復号への適用]
上述した一連の処理は、階層画像符号化・階層画像復号に適用することができる。図30は、多視点画像符号化方式の一例を示す。
図30に示されるように、階層画像は、複数の階層(解像度)の画像を含み、その複数の解像度のうちの所定の1つの階層の画像が、ベースレイヤの画像に指定されている。ベースレイヤの画像以外の各階層の画像は、ノンベースレイヤの画像として扱われる。
図30のような階層画像符号化(空間スケーラビリティ)を行う場合、各レイヤ(同一レイヤ)において、ダイナミックレンジの特性情報を設定することができる。また、各レイヤ(異なるレイヤ)において、他のレイヤで設定されたダイナミックレンジの特性情報を共有することができる。
この場合、ベースレイヤにおいて設定されたダイナミックレンジの特性情報が、少なくとも1つのノンベースレイヤで用いられる。あるいは、例えば、ノンベースレイヤ(layer _id=i)において設定されたダイナミックレンジの特性情報が、ベースレイヤおよびノンベースレイヤ(layer_id=j)の少なくともどちらか一方で用いられる。
これにより、画像のダイナミックレンジを正確に再現することができる。
[階層画像符号化装置]
図31は、上述した階層画像符号化を行う階層画像符号化装置を示す図である。図31に示されるように、階層画像符号化装置620は、符号化部621、符号化部622、および多重化部623を有する。
符号化部621は、ベースレイヤ画像を符号化し、ベースレイヤ画像符号化ストリームを生成する。符号化部622は、ノンベースレイヤ画像を符号化し、ノンベースレイヤ画像符号化ストリームを生成する。多重化部623は、符号化部621において生成されたベースレイヤ画像符号化ストリームと、符号化部622において生成されたノンベースレイヤ画像符号化ストリームとを多重化し、階層画像符号化ストリームを生成する。
この階層画像符号化装置620の符号化部621および符号化部622に対して、符号化装置1(図3)や符号化装置201(図23)を適用することができる。この場合、階層画像符号化装置620は、符号化部621が設定したダイナミックレンジの特性情報と、符号化部602が設定したダイナミックレンジの特性情報とを設定して伝送させる。
なお、上述したように符号化部621が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部622が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。
[階層画像復号装置]
図32は、上述した階層画像復号を行う階層画像復号装置を示す図である。図32に示されるように、階層画像復号装置630は、逆多重化部631、復号部632、および復号部633を有する。
逆多重化部631は、ベースレイヤ画像符号化ストリームとノンベースレイヤ画像符号化ストリームとが多重化された階層画像符号化ストリームを逆多重化し、ベースレイヤ画像符号化ストリームと、ノンベースレイヤ画像符号化ストリームとを抽出する。復号部632は、逆多重化部631により抽出されたベースレイヤ画像符号化ストリームを復号し、ベースレイヤ画像を得る。復号部633は、逆多重化部631により抽出されたノンベースレイヤ画像符号化ストリームを復号し、ノンベースレイヤ画像を得る。
この階層画像復号装置630の復号部632および復号部633に対して、復号装置50(図19)や復号装置251(図25)を適用することができる。この場合、階層画像復号装置630は、符号化部621が設定し、復号部632が復号したダイナミックレンジの特性情報と、符号化部622が設定し、復号部633が復号したダイナミックレンジの特性情報を用いて処理を行う。
なお、上述したように符号化部621(または、符号化部622)が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送されている場合がある。この場合、階層画像復号装置630においては、符号化部621(または、符号化部622)が設定し、復号部632(または、復号部633)が復号したダイナミックレンジの特性情報を用いて処理が行われる。
<第5の実施の形態>
[コンピュータの構成例]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図33は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ800において、CPU(Central Processing Unit)801,ROM(Read Only Memory)802,RAM(Random Access Memory)803は、バス804により相互に接続されている。
バス804には、さらに、入出力インタフェース805が接続されている。入出力インタフェース805には、入力部806、出力部807、記憶部808、通信部809、及びドライブ810が接続されている。
入力部806は、キーボード、マウス、マイクロホンなどよりなる。出力部807は、ディスプレイ、スピーカなどよりなる。記憶部808は、ハードディスクや不揮発性のメモリなどよりなる。通信部809は、ネットワークインタフェースなどよりなる。ドライブ810は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア811を駆動する。
以上のように構成されるコンピュータでは、CPU801が、例えば、記憶部808に記憶されているプログラムを、入出力インタフェース805及びバス804を介して、RAM803にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ800(CPU801)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア811に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア811をドライブ810に装着することにより、入出力インタフェース805を介して、記憶部808にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部809で受信し、記憶部808にインストールすることができる。その他、プログラムは、ROM802や記憶部808に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
上述した実施形態に係る画像符号化装置及び画像復号装置は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
<応用例>
[第1の応用例:テレビジョン受像機]
図34は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOELD(Organic ElectroLuminescence Display)(有機ELディスプレイ)など)の映像面上に映像又は画像を表示する。
音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
制御部910は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置の機能を有する。それにより、テレビジョン装置900での画像の復号に際して、画像のダイナミックレンジを正確に再現することができる。
[第2の応用例:携帯電話機]
図35は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記憶再生部929の記憶媒体に記憶させる。
また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、携帯電話機920での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
[第3の応用例:記録再生装置]
図36は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラムおよびその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置の機能を有する。それにより、記録再生装置940での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
[第4の応用例:撮像装置]
図37は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、撮像装置960での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、図19の表示制御部55と表示部56は、復号装置50の外部に設けられるようにしてもよい。
また、例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書では、ダイナミックレンジの特性情報等の各種情報が、符号化ストリームに多重化されて、符号化側から復号側へ伝送される例について説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
また、本実施例においては、フラグは、有無(0 or 1)などの二者択一には限定されず、複数の選択肢の中から特定の項目を識別できる情報を含む。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) 画像を符号化処理してビットストリームを生成する符号化部と、
Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定する設定部と、
前記符号化部により生成されたビットストリームと前記設定部により設定されたダイナミックレンジ特性情報とを伝送する伝送部と
を備える画像処理装置。
(2) 前記設定部は、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジのコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)に記載の画像処理装置。
(3) 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)または(2)に記載の画像処理装置。
(4) 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記設定部は、Developed 画像のホワイトレベルに割り当てられるコードの最大値を示す最大ホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記設定部は、Developed 画像のブラックレベルのコードを示すブラックレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記設定部は、Developed 画像のグレイレベルのコードを示すグレイレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記設定部は、Captured 画像のホワイトレベルの最大値を示す最大ホワイトレベル情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の輝度のレンジを示す情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の位置およびオフセットを示す情報を、前記ダイナミックレンジ特性情報として設定する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記伝送部は、前記ダイナミックレンジ特性情報を、前記ビットストリームを復号処理した画像を表示する際に用いる補助情報として伝送する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12) 前記伝送部は、前記ダイナミックレンジ特性情報を、既存の補助情報を拡張した拡張補助情報として伝送する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(13) 前記伝送部は、前記ダイナミックレンジ特性情報を、tone_mapping_information SEI (Supplemental enhancement information)として伝送する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(14) 前記伝送部は、tone_mapping_information SEI対象として、前記ダイナミックレンジ特性情報を伝送する際に用いるmodel_idを拡張して、前記ダイナミックレンジ特性情報をSEIとして伝送する
前記(1)乃至(10)のいずれかに画像処理装置。
(15) 前記伝送部は、前記ダイナミックレンジ特性情報を、前記画像のユーザビリティをシーケンス単位で示すVUI(Video Usability Information)として伝送する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(16)前記符号化部は、AVC/H.264規格に準じた符号化方式に従って、前記画像を符号化処理する
前記(1)乃至(15)のいずれかに記載の画像処理装置。
(17) 画像を符号化処理してビットストリームを生成し、
Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定し、
生成されたビットストリームと設定されたダイナミックレンジ特性情報とを伝送する
画像処理方法。
(18) ビットストリームと、前記ビットストリームを復号処理した画像に対するダイナミックレンジの特性を示すダイナミックレンジ特性情報とを受け取る受け取り部と、
前記受け取り部により受け取られたビットストリームを復号処理して、画像を生成する復号部と、
前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する画像調整部と
を備える画像処理装置。
(19) 前記ビットストリームと、前記ダイナミックレンジ特性情報とを受け取る受け取り部を
さらに備え、
前記復号部は、前記受け取り部により受け取られたビットストリームを復号処理し、
前記画像調整部は、前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する
前記(18)に記載の画像処理装置。
(20) ビットストリームと、前記ビットストリームを復号処理した画像に対するダイナミックレンジの特性を示すダイナミックレンジ特性情報とを受け取り、
受け取られたビットストリームを復号処理して、画像を生成し、
受け取られたダイナミックレンジ特性情報を用いて、生成された画像に対するダイナミックレンジを調整する
画像処理方法。
1 符号化装置, 2 符号化部, 3 設定部, 4 伝送部, 50 復号装置, 51 受け取り部, 52 抽出部, 53 復号部, 54 画像調整部, 55 表示制御部, 56 表示部, 201 符号化装置, 211 符号化部, 251 復号装置, 261 復号部

Claims (27)

  1. 画像データを復号して、復号された画像データを生成し、
    前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、
    前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整する
    ように構成されている少なくとも1つの処理部を
    備える画像処理装置。
  2. 前記少なくとも1つの処理部は、前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するようにさらに構成されている
    請求項1に記載の画像処理装置。
  3. 前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含む
    請求項1に記載の画像処理装置。
  4. 前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含む
    請求項1に記載の画像処理装置。
  5. 前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別する
    請求項4に記載の画像処理装置。
  6. 前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含む
    請求項1に記載の画像処理装置。
  7. 前記ダイナミックレンジ特性情報は、
    前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別する
    請求項1に記載の画像処理装置。
  8. 画像データを符号化して、符号化された画像データを生成し、
    前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を供給する
    ように構成されている少なくとも1つの処理部を
    備える画像処理装置。
  9. 前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含む
    請求項8に記載の画像処理装置。
  10. 前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含む
    請求項8に記載の画像処理装置。
  11. 前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別する
    請求項10に記載の画像処理装置。
  12. 前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含む
    請求項8に記載の画像処理装置。
  13. 前記ダイナミックレンジ特性情報は、
    前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別する
    請求項8に記載の画像処理装置。
  14. 画像データを復号して、復号された画像データを生成し、
    前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、
    前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整するステップ
    を含む画像処理方法
  15. 前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するステップをさらに含む
    請求項14に記載の画像処理方法
  16. 前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含む
    請求項14に記載の画像処理方法
  17. 前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含む
    請求項14に記載の画像処理方法
  18. 前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別する
    請求項17に記載の画像処理方法
  19. 前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含む
    請求項14に記載の画像処理方法
  20. 前記ダイナミックレンジ特性情報は、
    前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別する
    請求項14に記載の画像処理方法
  21. 画像データを復号して、復号された画像データを生成し、
    前記画像データと関連したダイナミックレンジ特性情報の有無を示すフラグが有を示す場合に、基準のホワイトレベルと比較してパーセンテージとして表された前記画像データの輝度のダイナミックレンジを指し示す最大画像ホワイトレベル情報と、ホワイトレベルの参照表示輝度を示す参照表示情報とを含む前記ダイナミックレンジ特性情報を取得し、
    前記ダイナミックレンジ特性情報に基づいて、前記復号された画像データのダイナミックレンジを調整する
    ように構成されている少なくとも1つの処理部
    として、コンピュータを機能させるプログラムが記録されている記録媒体。
  22. 前記少なくとも1つの処理部は、前記ダイナミックレンジ特性情報に基づいた前記画像データのダイナミックレンジまで、前記復号された画像データのダイナミックレンジを拡大するようにさらに構成されている
    請求項21に記載の記録媒体。
  23. 前記ダイナミックレンジ特性情報は、最大ホワイトレベルの輝度コード値を識別する最大ホワイトレベルコード値情報をさらに含む
    請求項21に記載の記録媒体。
  24. 前記ダイナミックレンジ特性情報は、ホワイトレベルの輝度コード値を識別するホワイトレベルコード値情報をさらに含む
    請求項21に記載の記録媒体。
  25. 前記ホワイトレベルコード値情報は、複数のホワイトレベルの複数の輝度コード値を識別する
    請求項24に記載の記録媒体。
  26. 前記ダイナミックレンジ特性情報は、ブラックレベルの輝度コード値を識別するブラックレベルコード値情報をさらに含む
    請求項21に記載の記録媒体。
  27. 前記ダイナミックレンジ特性情報は、
    前記画像データの輝度に関連付けられている、0乃至1024の範囲にある輝度コード値を識別する
    請求項21に記載の記録媒体。
JP2014522599A 2012-06-29 2013-06-21 画像処理装置および方法、並びに記録媒体 Active JP6219823B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2012147885 2012-06-29
JP2012147885 2012-06-29
JP2012183164 2012-08-22
JP2012183164 2012-08-22
PCT/JP2013/067114 WO2014002901A1 (ja) 2012-06-29 2013-06-21 画像処理装置および方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017188174A Division JP6580648B2 (ja) 2012-06-29 2017-09-28 画像処理装置および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2014002901A1 JPWO2014002901A1 (ja) 2016-05-30
JP6219823B2 true JP6219823B2 (ja) 2017-10-25

Family

ID=49783053

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014522599A Active JP6219823B2 (ja) 2012-06-29 2013-06-21 画像処理装置および方法、並びに記録媒体
JP2017188174A Active JP6580648B2 (ja) 2012-06-29 2017-09-28 画像処理装置および記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017188174A Active JP6580648B2 (ja) 2012-06-29 2017-09-28 画像処理装置および記録媒体

Country Status (13)

Country Link
US (2) US20150010059A1 (ja)
EP (2) EP3512203B1 (ja)
JP (2) JP6219823B2 (ja)
KR (1) KR102161017B1 (ja)
CN (2) CN108965893B (ja)
AR (1) AR091515A1 (ja)
AU (1) AU2013281949B2 (ja)
BR (1) BR112014032224B1 (ja)
CA (1) CA2875199C (ja)
MX (1) MX344551B (ja)
RU (1) RU2653464C2 (ja)
TW (1) TWI586150B (ja)
WO (1) WO2014002901A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381215B2 (ja) * 2014-01-29 2018-08-29 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示装置の制御方法、及び、プログラム
DE202015009982U1 (de) * 2014-02-07 2022-08-02 Sony Group Corporation Übertragungsvorrichtung, Empfangsvorrichtung und Anzeigevorrichtung
RU2683628C1 (ru) * 2014-02-21 2019-03-29 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема и способ приема
CN106031172B (zh) * 2014-02-25 2019-08-20 苹果公司 用于视频编码和解码的自适应传递函数
EP3111416A1 (en) * 2014-02-26 2017-01-04 Thomson Licensing Method and apparatus for encoding and decoding hdr images
JP6149777B2 (ja) * 2014-03-28 2017-06-21 ソニー株式会社 再生装置、再生方法、プログラム、および記録媒体
RU2696216C2 (ru) * 2014-06-13 2019-07-31 Сони Корпорейшн Передающее устройство, способ передачи, приемное устройство и способ приема
EP3713247A1 (en) 2014-06-26 2020-09-23 Panasonic Intellectual Property Management Co., Ltd. Data output device, data output method, and data generation method
CN111901599A (zh) * 2014-06-27 2020-11-06 松下知识产权经营株式会社 再现装置
JP6421504B2 (ja) 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
WO2016021120A1 (ja) * 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
JP6466258B2 (ja) * 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
JP6331882B2 (ja) 2014-08-28 2018-05-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
EP4280598A3 (en) * 2014-09-12 2024-02-21 Panasonic Intellectual Property Corporation of America Recording medium, playback device, and playback method
JP6355521B2 (ja) * 2014-10-21 2018-07-11 三菱電機株式会社 デジタル放送受信装置及び方法
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
US10547844B2 (en) * 2014-12-04 2020-01-28 Lg Electronics Inc. Broadcasting signal transmission and reception method and device
JP2016122985A (ja) * 2014-12-25 2016-07-07 株式会社東芝 画像処理システム、画像処理装置および画像処理方法
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
BR112017019754A2 (pt) * 2015-03-24 2018-05-29 Sony Corp dispositivos de transmissão e recepçao, e, métodos de transmissão e recepção
WO2017011636A1 (en) 2015-07-16 2017-01-19 Dolby Laboratories Licensing Corporation Signal reshaping and coding for hdr and wide color gamut signals
JP6986670B2 (ja) * 2015-09-11 2021-12-22 パナソニックIpマネジメント株式会社 映像受信方法及び映像受信装置
CN107950031B (zh) * 2015-09-11 2021-02-19 松下知识产权经营株式会社 影像接收方法以及影像接收装置
US10244249B2 (en) * 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
US10129558B2 (en) 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
KR20240037363A (ko) * 2015-09-23 2024-03-21 콤스코프 유케이 리미티드 높은 동적 범위 비디오 데이터의 재형성 및 적응을 위한 시스템 및 방법
CN113365068A (zh) * 2015-09-23 2021-09-07 艾锐势有限责任公司 包括接收传输流的处理器的设备和解码视频的方法
JP6624889B2 (ja) * 2015-10-30 2019-12-25 キヤノン株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP6132006B1 (ja) 2015-12-02 2017-05-24 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
WO2017102606A1 (en) 2015-12-17 2017-06-22 Koninklijke Philips N.V. Dynamic range coding for images and video
US10542296B2 (en) * 2016-05-10 2020-01-21 Dolby Laboratories Licensing Corporation Chroma reshaping of HDR video signals
US11102495B2 (en) 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
JP2017143546A (ja) * 2017-03-21 2017-08-17 ソニー株式会社 再生装置、記録媒体、表示装置、および情報処理方法
JP6583501B2 (ja) * 2018-08-28 2019-10-02 ソニー株式会社 再生装置、表示装置、情報処理方法
JP2020074571A (ja) * 2020-01-16 2020-05-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057351A (ja) * 1991-06-26 1993-01-14 Shimadzu Corp 画像信号変換装置
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
SG116400A1 (en) * 1997-10-24 2005-11-28 Matsushita Electric Ind Co Ltd A method for computational graceful degradation inan audiovisual compression system.
US6560285B1 (en) * 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
FR2812506B1 (fr) * 2000-07-25 2002-12-20 Canon Kk Procede et dispositif d'alerte lors du decodage progressif d'une image numerique codee avec une region d'interet
JP2004112048A (ja) * 2002-09-13 2004-04-08 Ricoh Co Ltd 画像読取装置
JP2005143032A (ja) * 2003-11-10 2005-06-02 Fuji Photo Film Co Ltd 撮影装置
JP2005208817A (ja) * 2004-01-21 2005-08-04 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像記録装置
JP4412720B2 (ja) * 2004-06-24 2010-02-10 キヤノン株式会社 映像処理方法及び装置
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US9106914B2 (en) * 2006-05-25 2015-08-11 Thomson Licensing Method and system for weighted encoding
US8155454B2 (en) * 2006-07-20 2012-04-10 Qualcomm Incorporated Method and apparatus for encoder assisted post-processing
RU2400815C2 (ru) * 2006-10-09 2010-09-27 Самсунг Электроникс Ко., Лтд. Способ повышения качества цифрового фотоизображения
US8106880B2 (en) * 2007-03-27 2012-01-31 Avaya Inc. Sharing a video display between telephony and computing devices
JP2008263547A (ja) * 2007-04-13 2008-10-30 Konica Minolta Holdings Inc 撮像装置
JP5133085B2 (ja) * 2007-04-18 2013-01-30 パナソニック株式会社 撮像装置および撮像方法
US8144214B2 (en) * 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
US20090317017A1 (en) * 2008-06-20 2009-12-24 The Hong Kong University Of Science And Technology Image characteristic oriented tone mapping for high dynamic range images
JP4977573B2 (ja) * 2007-10-11 2012-07-18 オンセミコンダクター・トレーディング・リミテッド 映像信号処理装置におけるオートゲインコントロール回路
JP2009223722A (ja) * 2008-03-18 2009-10-01 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP4618342B2 (ja) * 2008-05-20 2011-01-26 日本テキサス・インスツルメンツ株式会社 固体撮像装置
WO2010041534A1 (ja) * 2008-10-07 2010-04-15 株式会社エヌ・ティ・ティ・ドコモ 画像加工装置、方法及びプログラム、動画像符号化装置、方法及びプログラム、動画像復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
EP2406959B1 (en) * 2009-03-13 2015-01-14 Dolby Laboratories Licensing Corporation Layered compression of high dynamic range, visual dynamic range, and wide color gamut video
JP5119215B2 (ja) * 2009-07-07 2013-01-16 株式会社エヌ・ティ・ティ・ドコモ 通信端末および通信制御方法
JPWO2011033669A1 (ja) * 2009-09-18 2013-02-07 株式会社東芝 画像表示装置
CN102771109B (zh) * 2010-02-22 2016-10-26 杜比实验室特许公司 通过盖写视频数据进行视频传递和控制的方法、设备和系统
EP3869494A1 (en) * 2010-07-22 2021-08-25 Dolby Laboratories Licensing Corp. Display management server
KR101496755B1 (ko) * 2010-11-23 2015-02-27 돌비 레버러토리즈 라이쎈싱 코오포레이션 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상
GB2500835B (en) * 2010-12-10 2014-02-12 Ibm High-dynamic range video tone mapping
GB2491689B (en) * 2011-05-05 2014-08-27 Advanced Risc Mach Ltd Method of and apparatus for encoding and decoding data
US8787454B1 (en) * 2011-07-13 2014-07-22 Google Inc. Method and apparatus for data compression using content-based features
AU2012313935B9 (en) * 2011-09-27 2017-05-04 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
IN2014KN00934A (ja) * 2011-11-09 2015-10-09 Fraunhofer Ges Forschung
EP2805506A4 (en) * 2012-01-20 2015-09-16 Nokia Technologies Oy VIDEO ENCODING METHOD AND APPARATUS, COMPUTER PROGRAM PRODUCT, CORRESPONDING SYSTEM AND MODULE

Also Published As

Publication number Publication date
CN104380738B (zh) 2018-10-16
US20150010059A1 (en) 2015-01-08
CN104380738A (zh) 2015-02-25
JP6580648B2 (ja) 2019-09-25
TWI586150B (zh) 2017-06-01
TW201414312A (zh) 2014-04-01
MX2014015818A (es) 2015-03-05
US20150131904A1 (en) 2015-05-14
EP3512203B1 (en) 2023-10-25
AU2013281949A2 (en) 2015-01-22
CN108965893A (zh) 2018-12-07
JP2018023154A (ja) 2018-02-08
EP2869558B1 (en) 2019-04-10
AR091515A1 (es) 2015-02-11
RU2014152106A (ru) 2016-07-10
EP2869558A4 (en) 2016-01-20
WO2014002901A1 (ja) 2014-01-03
JPWO2014002901A1 (ja) 2016-05-30
CA2875199C (en) 2021-02-16
CA2875199A1 (en) 2014-01-03
KR102161017B1 (ko) 2020-09-29
AU2013281949A1 (en) 2015-01-22
MX344551B (es) 2016-12-20
EP2869558A1 (en) 2015-05-06
EP3512203A1 (en) 2019-07-17
CN108965893B (zh) 2021-10-01
BR112014032224B1 (pt) 2022-12-06
AU2013281949B2 (en) 2017-05-11
BR112014032224A2 (pt) 2017-08-01
KR20150024846A (ko) 2015-03-09
RU2653464C2 (ru) 2018-05-08

Similar Documents

Publication Publication Date Title
JP6580648B2 (ja) 画像処理装置および記録媒体
US20230388525A1 (en) Image decoding device and method
WO2014002896A1 (ja) 符号化装置および符号化方法、復号装置および復号方法
JP6287035B2 (ja) 復号装置および復号方法
WO2015053115A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
WO2015137145A1 (ja) 画像符号化装置および方法、並びに画像復号装置および方法
WO2015053116A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JP2015005899A (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
KR102338766B1 (ko) 화상 부호화 장치 및 방법, 및 기록 매체
JP6477930B2 (ja) 符号化装置および符号化方法
WO2014050732A1 (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
JP6402802B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP6341067B2 (ja) 画像処理装置および方法
JP2015050738A (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160527

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170928

R150 Certificate of patent or registration of utility model

Ref document number: 6219823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250