<第1実施の形態>
(符号化装置の第1実施の形態の構成例)
図1は、本開示を適用した符号化装置の第1実施の形態の構成例を示すブロック図である。
図1の符号化装置10は、設定部11、符号化部12、および伝送部13により構成され、画像をHEVC方式に準ずる方式で符号化する。
具体的には、符号化装置10の設定部11は、SPS(Sequence Parameter Set),PPS(Picture Parameter Set),VUI,SEI(Supplemental Enhancement Information)などのパラメータセットを設定する。
SEIとしては、colour_primaries_info SEI,ref_display_luminance_info SEIなどがある。colour_primaries_info SEIは、色域(の境界)を表す情報である色域情報を含むSEIである。ref_display_luminance_info SEIは、符号化対象の画像のオーサリング時に符号化対象の画像を表示したマスタのディスプレイ(表示部)の白色、灰色、および黒色の輝度レベルを表す輝度情報(マスタのディスプレイの色域情報)を含むSEIである。設定部11は、設定されたパラメータセットを符号化部12に供給する。
符号化部12には、フレーム単位の符号化対象の画像が入力される。符号化部12は、入力された符号化対象の画像をHEVC方式で符号化する。符号化部12は、符号化の結果得られる符号化データと設定部11から供給されるパラメータセットから符号化ストリームを生成し、伝送部13に供給する。
伝送部13は、符号化部12から供給される符号化ストリームを、後述する復号装置に伝送する。
(colour_primaries_info SEIのシンタックスの例)
図2は、colour_primaries_info SEIのシンタックスの例を示す図である。
図2の2行目に示すように、colour_primaries_info SEIには、colour_primaries_info_idが記述される。図3に示すように、colour_primaries_info_idは、色域情報の目的を識別するためのIDである。
図2の3行目に示すように、colour_primaries_info SEIには、colour_primaries_typeが記述される。図3に示すように、colour_primaries_typeは、色空間のタイプである。例えば、図3の表に示すように、色空間のタイプがRGB表色系である場合、colour_primaries_typeは1であり、色空間のタイプがXYZ表色系である場合、colour_primaries_typeは2である。
図2の4行目に示すように、colour_primaries_info SEIには、colour_primaries_info_present_flagが記述される。図3に示すように、colour_primaries_info_present_flagは、色域情報のうちの原色の色空間内の位置を表す原色情報がcolour_primaries_info SEIに記述されるかどうかを表すフラグである。原色情報が記述される場合、colour_primaries_info_present_flagは1であり、記述されない場合、colour_primaries_info_present_flagは0である。
図2の5行目に示すように、colour_primaries_info SEIには、white_point_info_present_flagが記述される。図3に示すように、white_point_info_present_flagは、色域情報のうちの白色の色空間内の位置(white point)を表す白色情報がcolour_primaries_info SEIに記述されるかどうかを表すフラグである。白色情報が記述される場合、white_point_info_present_flagは1であり、記述されない場合、white_point_info_present_flagは0である。
図2の6行目および7行目に示すように、VUIに含まれるcolour_description_present_flagが1である場合、colour_primaries_info SEIには、limited_colour_gamut_boundaries_flagが記述される。なお、colour_description_present_flagは、VUIに別規格で定義されている色域を識別するインデックスが記述されるかどうかを表すフラグである。VUIにインデックスが記述される場合、colour_description_present_flagは1であり、VUIにインデックスが記述されない場合、colour_description_present_flagは0である。
また、limited_colour_gamut_boundaries_flagは、図4に示すように、符号化対象の画像の色域がVUIに記述されるインデックスで識別される色域内に制限されるかどうかを表すフラグである。色域が制限される場合limited_colour_gamut_boundaries_flagは0であり、色域が制限されない場合、limited_colour_gamut_boundaries_flagは1である。
図2の8および9行目に示すように、limited_colour_gamut_boundaries_flagが1である場合、colour_primaries_info SEIには、limited_colour_gamut_range_in_percentが記述される。図4に示すように、limited_colour_gamut_range_in_percentは、VUIに記述されるインデックスで識別される色域に対する符号化対象の画像の色域のカバー率を表す。即ち、limited_colour_gamut_range_in_percentは、VUIに記述されるインデックスで識別される色域における符号化対象の画像の色域の割合である。
図2の10行目および11行目に示すように、colour_primaries_info_present_flagが1である場合、colour_primaries_info SEIには、colour_primaries_order_typeが記述される。図4に示すように、colour_primaries_order_typeは、原色情報の記述順のタイプである。
例えば、図4の表に示すように、色空間のタイプがRGB表色系であり、原色情報が、赤色、緑色、青色の順に記述され、その後、それ以外の色の波長の長い順(例えば、黄色、シアンの順)に記述される場合、colour_primaries_order_typeは1である。また、色空間のタイプがRGB表色系であり、原色情報が波長の長い順(例えば、赤色、黄色、緑色、シアン、青色の順)に記述される場合、colour_primaries_order_typeは2である。色空間のタイプがXYZ表色系であり、原色情報がX,Y,Zの順に記述される場合、colour_primaries_order_typeは3である。
また、図2の12行目に示すように、colour_primaries_info_present_flagが1である場合、colour_primaries_info SEIには、num_colour_primaries_minus3が記述される。図4に示すように、num_colour_primaries_minus3は、colour_primaries_info SEIに記述される原色情報の数から3を減算した値である。
図2の13行目乃至16行目に示すように、colour_primaries_info_present_flagが1である場合、colour_primaries_info SEIには、num_colour_primaries_minus3に3を加算した数だけ、原色情報が記述される。原色情報は、原色の色空間内のX方向の位置を表すcolour_primaries_info_sei_element(ColourPrimaryXSign[i],ColourPrimaryXExp[i],ColourPrimaryXMantissa[i],ColourPrimaryXManlen[i])と、Y方向の位置を表すcolour_primaries_info_sei_element(ColourPrimaryYSign[i],ColourPrimaryYExp[i],ColourPrimaryYMantissa[i],ColourPrimaryYManlen[i])により構成される。
図2の17行目乃至19行目に示すように、white_point_info_present_flagが1である場合、colour_primaries_info SEIには、白色情報が記述される。白色情報は、白色の色空間内のX方向の位置を表すcolour_primaries_info_sei_element(WhitePointXSign, WhitePointXExp,WhitePointXMantissa,WhitePointXManlen)と、Y方向の位置を表すcolour_primaries_info_sei_element(WhitePointYSign,WhitePointYExp,WhitePointYMantissa,WhitePointYManlen)により構成される。
(colour_primaries_info_sei_elementのシンタックスの例)
図5は、原色情報および白色情報を構成するcolour_primaries_info_sei_elementのシンタックスの例を示す図である。
図5に示すように、colour_primaries_info_sei_elementは、colour_primaries_info_sign, colour_primaries_info_exponent, colour_primaries_info_mantissa_len_minus1、およびcolour_primaries_info_mantissaにより構成される。
なお、図5では、ColourPrimaryXSign[i],ColourPrimaryYSign[i],WhitePointXSign, WhitePointYSignを総称してOutSignという。同様に、ColourPrimaryXExp[i], ColourPrimaryYExp[i],WhitePointXExp,WhitePointYExpをOutExpといい、ColourPrimaryXMantissa[i],ColourPrimaryYMantissa[i],WhitePointXMantissa,WhitePointYMantissaをOutMantissaという。また、ColourPrimaryXManlen[i], ColourPrimaryYManlen[i],WhitePointXManlen,WhitePointYManlenをOutManLenという。
colour_primaries_info_signは、図6に示すように、対応する色の色空間内の位置の座標の浮動小数点の符号を表す。符号がプラスである場合、colour_primaries_info_signが0であり、マイナスである場合、colour_primaries_info_signは1である。
colour_primaries_info_exponentは、図6に示すように、対応する色の色空間内の位置の座標の浮動小数点の指数を表す。
colour_primaries_info_mantissa_len_minus1は、図6に示すように、colour_primaries_info_mantissaのビット数から1を減算した値である。colour_primaries_info_mantissaは、図6に示すように、対応する色の色空間内の位置の座標の浮動小数点の仮数である。
以上により、colour_primaries_info_sei_elementは、対応する色の色空間内の位置の座標xを表すことができる。即ち、座標xは、図7に示すように、colour_primaries_info_sign, colour_primaries_info_exponent, colour_primaries_info_mantissa_len_minus1、およびcolour_primaries_info_mantissaを用いて、以下の式(1)により求めることができる。
なお、式(1)において、sはcolour_primaries_info_signであり、eはcolour_primaries_info_exponentである。また、nはcolour_primaries_info_mantissaであり、vはcolour_primaries_info_mantissa_len_minus1である。
例えば、colour_primaries_info_sei_elementが、原色の色空間内のx方向の位置の座標ColourPrimariesXを表すcolour_primaries_info_sei_element(ColourPrimaryXSign[i],ColourPrimaryXExp[i],ColourPrimaryXMantissa[i],ColourPrimaryXManlen[i])である場合、図7の表に示すように、式(1)のsにcolour_primaries_info_sei_element(ColourPrimaryXSign[i],ColourPrimaryXExp[i],ColourPrimaryXMantissa[i],ColourPrimaryXManlen[i])のcolour_primaries_info_signであるColourPrimariesXSignが代入される。
また、式(1)のeにcolour_primaries_info_sei_element(ColourPrimaryXSign[i],ColourPrimaryXExp[i],ColourPrimaryXMantissa[i],ColourPrimaryXManlen[i])のcolour_primaries_info_exponentであるColourPrimariesXExpが代入される。さらに、式(1)のnにcolour_primaries_info_sei_element(ColourPrimaryXSign[i],ColourPrimaryXExp[i],ColourPrimaryXMantissa[i],ColourPrimaryXManlen[i])のcolour_primaries_info_mantissaであるColourPrimaryXMantissaが代入され、vにcolour_primaries_info_mantissa_len_minus1であるColourPrimaryXManlenが代入される。これにより、座標xとして原色の色空間内のx方向の位置の座標ColourPrimariesXが算出される。
同様に、colour_primaries_info_sei_elementが、colour_primaries_info_sei_element(ColourPrimaryYSign[i],ColourPrimaryYExp[i],ColourPrimaryYMantissa[i],ColourPrimaryYManlen[i])である場合、座標xとして原色の色空間内のy方向の位置の座標ColourPrimariesYが算出される。
colour_primaries_info_sei_elementが、colour_primaries_info_sei_element(WhitePointXSign, WhitePointXExp,WhitePointXMantissa,WhitePointXManlen)である場合、座標xとして白色の色空間内のx方向の位置の座標WhitePointXが算出される。
colour_primaries_info_sei_elementが、colour_primaries_info_sei_element(WhitePointYSign,WhitePointYExp,WhitePointYMantissa,WhitePointYManlen)である場合、座標xとして白色の色空間内のy方向の位置の座標WhitePointYが算出される。
(ref_display_luminance_info SEIのシンタックスの例)
図8は、ref_display_luminance_info SEIのシンタックスの例を示す図である。
図8の2行目に示すように、ref_display_luminance_info SEIには、ref_display_luminance_info_idが記述される。ref_display_luminance_info_idは、図9に示すように、マスタのディスプレイ(reference display)の白色、灰色、および黒色の輝度情報の目的を識別するためのIDである。
図8の3行目に示すように、ref_display_luminance_info SEIには、ref_display_luminance_white_present_flagが記述される。ref_display_luminance_white_present_flagは、図9に示すように、マスタのディスプレイの白色の輝度情報がref_display_luminance_info SEIに記述されるかどうかを表すフラグである。マスタのディスプレイの白色の輝度情報がref_display_luminance_info SEIに記述される場合、ref_display_luminance_white_present_flagは1であり、記述されない場合ref_display_luminance_white_present_flagは0である。
図8の4行目および5行目に示すように、ref_display_luminance_info SEIには、黒色および灰色についても同様に、ref_display_luminance_black_present_flagとref_display_luminance_gray_present_flagが記述される。
また、図8の6行目および7行目に示すように、ref_display_luminance_white_present_flagが1である場合、ref_display_luminance_info SEIには、ref_display_luminance_whiteが記述される。図9に示すように、ref_display_luminance_whiteは、白色の輝度情報である。
図8の8行目および9行目に示すように、ref_display_luminance_info SEIには、黒色についても同様に、ref_display_luminance_black_present_flagが1である場合、黒色の輝度情報であるref_display_luminance_blackが記述される。
また、図8の10行目および11行目に示すように、ref_display_luminance_info SEIには、灰色についても同様に、ref_display_luminance_gray_present_flagが1である場合、灰色の輝度情報であるref_display_luminance_grayが記述される。
(符号化装置の処理の説明)
図10は、符号化装置10のストリーム生成処理を説明するフローチャートである。
図10のステップS11において、符号化装置10の設定部11は、SPSを設定する。ステップS12において、設定部11は、別規格で定義されている色域を識別するインデックス(識別情報)を含むVUIを設定する。
ステップS13において、設定部11は、PPSを設定する。ステップS14において、設定部11は、符号化対象の画像の色域がVUIに含まれるインデックスにより識別される色域よりも狭いかどうかを判定する。
ステップS14で符号化対象の画像の色域がVUIに含まれるインデックスにより識別される色域よりも狭いと判定された場合、処理はステップS15に進む。ステップS15において、設定部11は、符号化対象の画像の色域情報を含むcolour_primaries_info SEIを設定し、処理をステップS16に進める。
一方、ステップS14で符号化対象の画像の色域がVUIに含まれるインデックスにより識別される色域よりも狭くはないと判定された場合、符号化対象の画像の色域情報を含むcolour_primaries_info SEIは設定されない。例えば、limited_colour_gamut_range_in_percentを含むcolour_primaries_info SEIが設定される。そして、処理はステップS16に進む。
ステップS16において、設定部11は、マスタのディスプレイの白色、灰色、および黒色の輝度情報を含むref_display_luminance_info SEIを設定する。設定部11は、設定されたSPS,PPS,VUI,colour_primaries_info SEI,ref_display_luminance_info SEIなどのパラメータセットを符号化部12に供給する。
ステップS17において、符号化部12は、外部から入力されたフレーム単位の符号化対象の画像をHEVC方式で符号化する。ステップS18において、符号化部12は、符号化の結果得られる符号化データと設定部11から供給されるパラメータセットから符号化ストリームを生成し、伝送部13に供給する。
ステップS19において、伝送部13は、符号化部12から供給される符号化ストリームを、後述する復号装置に伝送し、処理を終了する。
以上のように、符号化装置10は、色域情報を含むcolour_primaries_info SEIを設定し、伝送するので、符号化対象の画像が、別規格で定義されている色域と異なる場合であっても、符号化対象の画像の色域を復号側に正確に認識させることができる。
また、符号化装置10は、白色、黒色、および灰色の輝度情報を含むref_display_luminance_info SEIを設定し、伝送するので、マスタのディスプレイの輝度情報を復号側に正確に認識させることができる。
なお、上述した説明では、符号化対象の画像の色域がVUIに含まれるインデックスにより識別される色域よりも狭い場合に、色域情報を含むcolour_primaries_info SEIが設定されたが、広い場合にも設定されるようにしてもよい。
(復号装置の第1実施の形態の構成例)
図11は、図1の符号化装置10から伝送されてくる符号化ストリームを復号する、本開示を適用した復号装置の第1実施の形態の構成例を示すブロック図である。
図11の復号装置50は、受け取り部51、抽出部52、復号部53、調整部54、表示制御部55、および表示部56により構成される。
復号装置50の受け取り部51は、図1の符号化装置10から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。
抽出部52は、受け取り部51から供給される符号化ストリームから、パラメータセットと符号化データを抽出する。抽出部52は、パラメータセットと符号化データを復号部53に供給する。また、抽出部52は、パラメータセットのうちのVUI,colour_primaries_info SEI、およびref_display_luminance_info SEIを調整部54に供給する。
復号部53は、抽出部52から供給される符号化データをHEVC方式で復号する。このとき、復号部53は、必要に応じて、抽出部52から供給されるパラメータセットも参照する。復号部53は、復号の結果得られる画像を調整部54に供給する。
調整部54は、抽出部52から供給されるcolour_primaries_info SEIから色域情報を取得するか、VUIに含まれるインデックスから色域を認識する。調整部54は、取得された色域情報が表す色域または認識された色域と、表示部56の色域とに基づいて、復号部53から供給される画像の色域を調整する。
また、調整部54は、抽出部52から供給されるref_display_luminance_info SEIから白色、黒色、および灰色の輝度情報を取得する。調整部54は、その輝度情報と表示部56の輝度情報とに基づいて、色域調整後の画像の輝度のダイナミックレンジを調整する。調整部54は、輝度のダイナミックレンジ調整後の画像を表示制御部55に供給する。
なお、ここでは、輝度のダイナミックレンジの調整が色域調整後に行われるものとするが、輝度のダイナミックレンジの調整後、色域が調整されるようにしてもよい。
表示制御部55は、調整部54から供給される画像を表示部56に表示させる。
(復号装置の処理の説明)
図12は、図11の復号装置50の画像生成処理を説明するフローチャートである。
図12のステップS51において、復号装置50の受け取り部51は、図1の符号化装置10から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。
ステップS52において、抽出部52は、受け取り部51から供給される符号化ストリームから、パラメータセットと符号化データを抽出する。抽出部52は、パラメータセットと符号化データを復号部53に供給する。また、抽出部52は、パラメータセットのうちのVUI,colour_primaries_info SEI、およびref_display_luminance_info SEIを調整部54に供給する。
ステップS53において、復号部53は、抽出部52から供給される符号化データをHEVC方式で復号する。このとき、復号部53は、必要に応じて、抽出部52から供給されるパラメータセットも参照する。復号部53は、復号の結果得られる画像を調整部54に供給する。
ステップS54において、調整部54は、抽出部52からcolour_primaries_info SEIが供給されたかどうかを判定する。ステップS54でcolour_primaries_info SEIが供給されたと判定された場合、処理はステップS55に進む。
ステップS55において、調整部54は、colour_primaries_info SEIから色域情報を取得し、その色域情報が表す色域を認識する。なお、colour_primaries_info SEIに色域情報が含まれていない場合には、例えば、limited_colour_gamut_range_in_percentに基づいて色域を認識する。そして、処理はステップS57に進む。
一方、ステップS54でcolour_primaries_info SEIが供給されていないと判定された場合、ステップS56において、調整部54は、抽出部52から供給されるVUIに含まれるインデックスから、別規格で定義されている色域を認識する。そして、処理はステップS57に進む。
ステップS57において、調整部54は、表示部56の色域とステップS55またはステップS56で認識された色域とに基づいて、復号部53から供給される画像の色域を調整する。
ステップS58において、調整部54は、抽出部52から供給されるref_display_luminance_info SEIから白色、黒色、および灰色の輝度情報を取得する。
ステップS59において、調整部54は、表示部56の輝度情報と取得された輝度情報に基づいて、色域調整後の画像の輝度のダイナミックレンジを調整する。調整部54は、輝度のダイナミックレンジ調整後の画像を表示制御部55に供給する。
ステップS60において、表示制御部55は、調整部54から供給される画像を表示部56に表示させ、処理を終了する。
以上のように、復号装置50は、色域情報を含むcolour_primaries_info SEIを受け取るので、符号化対象の画像の色域を正確に認識することができる。その結果、復号後の画像の色域を最適化することができる。即ち、符号化対象の画像の色域が別規格で定義されている色域とは異なる場合に、復号後の画像の色域が無駄に削減または拡大されることを防止することができる。
また、復号装置50は、白色、黒色、および灰色の輝度情報を含むref_display_luminance_info SEIを受け取るので、マスタのディスプレイの輝度情報を正確に認識することができる。その結果、復号後の画像の輝度のダイナミックレンジを最適化することができる。
なお、符号化対象の画像の色域がVUIに含まれるインデックスにより識別される色域よりも広い場合、colour_primaries_info SEIには、色域情報が記述されなくてもよい。この場合、復号装置50は、limited_colour_gamut_range_in_percentと、VUIに含まれるインデックスにより識別される色域とに基づいて、符号化対象の画像の色域を認識し、色域を調整する。
このように、色域情報が記述されない場合であっても、復号装置50は、limited_colour_gamut_range_in_percentに基づいて、VUIのインデックスにより符号化対象の色域が定義される場合に比べて、符号化対象の画像の色域を正確に認識することができる。
<第2実施の形態>
(符号化装置の第2実施の形態の構成例)
図13は、本開示を適用した符号化装置の第2実施の形態の構成例を示すブロック図である。
図13に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図13の符号化装置70の構成は、設定部11の代わりに設定部72が設けられる点、および、新たに画像調整部71が設けられる点が、図1の構成と異なる。
符号化装置70の画像調整部71には、外部から画像が入力される。画像調整部71は、ユーザのオーサリング作業に応じて、外部から入力される画像を図示せぬマスタのディスプレイに表示させながら、その画像の編集等を行う。画像調整部71は、編集後の画像の色域情報と、図示せぬマスタのディスプレイの白色および黒色の輝度情報とを設定部72に供給する。また、画像調整部71は、編集後の画像を符号化対象の画像として符号化部12に入力する。
設定部72は、SPS,PPS,VUIを設定する。また、設定部72は、画像調整部71から供給される色域情報と輝度情報を含むcolour_primaries_info SEIを設定する。設定部72は、設定されたSPS,PPS,VUI,colour_primaries_info SEIなどのパラメータセットを符号化部12に供給する。
(colour_primaries_info SEIのシンタックスの例)
図14は、colour_primaries_info SEIのシンタックスの例を示す図であり、図15乃至図19は、colour_primaries_info SEIの各情報を説明する図である。
図14に示すように、colour_primaries_info SEIには、colour_primaries_info_idが記述される。図15に示すように、colour_primaries_info_idは、色域情報の目的を識別するためのIDである。
また、図14に示すように、colour_primaries_info SEIには、colour_primaries_cancel_flagが記述される。図15に示すように、colour_primaries_cancel_flagは、前のcolour_primaries_info SEIの連続性をキャンセルするかどうかを表すフラグである。colour_primaries_cancel_flagは、前のcolour_primaries_info SEIの連続性をキャンセルすることを表す場合1であり、キャンセルしないことを表す場合0である。
colour_primaries_cancel_flagが0である場合、図14に示すように、colour_primaries_info SEIには、colour_primaries_persistence_flagが記述される。図15に示すように、colour_primaries_persistence_flagは、colour_primaries_info SEIに含まれる色域情報および輝度情報を、連続する複数のピクチャに適用するかどうかを表すフラグである。colour_primaries_persistence_flagは、色域情報および輝度情報を連続する複数のピクチャに適用する場合1であり、1つのピクチャにのみ適用する場合0である。
また、図14に示すように、colour_primaries_info SEIには、white_level_display_luminance_present_flagが記述される。white_level_display_luminance_present_flagは、図16に示すように、white_level_display_luminanceがcolour_primaries_info SEIに記述されるかどうかを表すフラグである。図19に示すように、white_level_display_luminanceは、マスタのディスプレイの白色の輝度情報である。マスタのディスプレイの白色の輝度情報がcolour_primaries_info SEIに記述される場合、white_level_display_luminance_present_flagは1であり、記述されない場合0である。
図14および図16に示すように、colour_primaries_info SEIには、黒色についても同様に、black_level_display_luminance_present_flagが記述される。
また、図14に示すように、colour_primaries_info SEIには、colour_gamut_coverage_present_flagが記述される。colour_gamut_coverage_present_flagは、図16に示すように、colour_gamut_coverageがcolour_primaries_info SEIに記述されるかどうかを表すフラグである。colour_gamut_coverageは、図19に示すように、VUIに記述されるインデックスで識別される色域に対する符号化対象の画像の色域のカバー率を表す情報である。colour_gamut_coverageがcolour_primaries_info SEIに記述される場合、colour_gamut_coverage_present_flagは1であり、記述されない場合0である。
図14および図17に示すように、colour_primaries_info SEIにはまた、色域情報のうちのCIE表色系における赤色のx方向の色度を表すcolour_primary_Red_xと、y方向の色度を表すcolour_primary_Red_yとが記述される。図14および図18に示すように、colour_primaries_info SEIには、緑色、青色、および白色についても同様に、colour_primary_Green_x,colour_primary_Green_y,colour_primary_Blue_x,colour_primary_Blue_y,white_point_x,white_point_yが色域情報として記述される。
これらの色域情報は、全て16ビット固定小数点で記述される。即ち、色域情報は、伝送可能な情報のサイズが制限されるHDMI(登録商標)(High-Definition Multimedia Interface)のEDID(Extended display identification data)等で、画像調整部71等から伝送されてくることが考えられる。また、本出願人は、固定小数点で記述される色域に関するメタデータを、現在IEC(International Electrotechnical Commission)61966-12-2として提案している。従って、色域情報のサイズを変動させないため、または、提案中のメタデータを色域情報として用いることを可能にするため、色域情報は固定小数点で記述される。
なお、第1実施の形態における色域情報も、16ビット固定小数点で記述されるようにしてもよい。
また、図14に示すように、white_level_display_luminance_present_flagが1である場合、colour_primaries_info SEIには、white_level_display_luminanceが記述される。black_level_display_luminance_present_flagが1である場合、blak_level_display_luminanceが記述される。blak_level_display_luminanceは、図19に示すように、マスタのディスプレイの黒色の輝度情報である。
以上のように、colour_primaries_info SEIには、white_level_display_luminanceとblak_level_display_luminanceが記述される。即ち、本出願人は、白色と黒色の輝度情報を含む輝度に関するメタデータを、現在IEC61966-12-2として提案している。従って、提案中のメタデータを、white_level_display_luminanceとblak_level_display_luminanceとして用いることを可能にするため、white_level_display_luminanceとblak_level_display_luminanceが、colour_primaries_info SEIには記述される。
また、図14に示すように、colour_gamut_coverage_present_flagが1である場合、colour_primaries_info SEIには、colour_gamut_coverageが記述される。
(符号化装置の処理の説明)
図20は、符号化装置70のストリーム生成処理を説明するフローチャートである。
図20のステップS80において、画像調整部71は、ユーザのオーサリング作業に応じて、外部から入力される画像を図示せぬマスタのディスプレイに表示させながら、その画像を編集する。画像調整部71は、編集後の画像の色域情報と、図示せぬマスタのディスプレイの白色および黒色の輝度情報とを設定部72に供給する。また、画像調整部71は、編集後の画像を符号化対象の画像として符号化部12に入力する。
ステップS81乃至S83の処理は、図10のステップS11乃至S13の処理と同様であるので、説明は省略する。
ステップS84において、設定部72は、画像調整部71から供給される符号化対象の画像の色域情報とマスタのディスプレイの輝度情報を含むcolour_primaries_info SEIを設定する。
ステップS85乃至S87の処理は、図20のステップS17乃至S19の処理と同様であるので、説明は省略する。
以上のように、符号化装置70は、色域情報を含むcolour_primaries_info SEIを設定し、伝送するので、符号化対象の画像が、別規格で定義されている色域と異なる場合であっても、符号化対象の画像の色域を復号側に正確に認識させることができる。
また、符号化装置70は、white_level_display_luminanceとblack_level_display_luminanceもcolour_primaries_info SEIに設定し、伝送するので、マスタのディスプレイの輝度情報を復号側に正確に認識させることができる。
(復号装置の第2実施の形態の構成例)
図21は、図13の符号化装置70から伝送されてくる符号化ストリームを復号する、本開示を適用した復号装置の第2実施の形態の構成例を示すブロック図である。
図21に示す構成のうち、図11の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図21の復号装置90の構成は、抽出部52、調整部54、表示制御部55の代わりに抽出部91、調整部92、表示制御部93が設けられる点が、図11の構成と異なる。
図21の復号装置90の抽出部91は、受け取り部51から供給される符号化ストリームから、パラメータセットと符号化データを抽出する。抽出部91は、パラメータセットと符号化データを復号部53に供給する。また、抽出部91は、パラメータセットのうちのVUIおよびcolour_primaries_info SEIを調整部92に供給し、colour_primaries_info SEIを表示制御部93に供給する。
調整部92は、抽出部91から供給されるcolour_primaries_info SEIから色域情報とcolour_gamut_coverageを取得する。また、調整部92は、抽出部91から供給されるVUIに含まれるインデックスから色域を認識する。調整部92は、取得された色域情報が表す色域、または、認識された色域とcolour_gamut_coverageに基づく色域と、表示部56の色域とに基づいて、復号部53から供給される画像の色域を調整する。調整部92は、色域調整後の画像を表示制御部93に供給する。
表示制御部93は、抽出部91から供給されるcolour_primaries_info SEIから白色および黒色の輝度情報を取得する。表示制御部93は、その輝度情報と表示部56の輝度情報とに基づいて、調整部92から供給される色域調整後の画像の輝度のダイナミックレンジを調整する。表示制御部93は、輝度のダイナミックレンジ調整後の画像を表示部56に供給し、表示させる。
(復号装置の処理の説明)
図22は、図21の復号装置90の画像生成処理を説明するフローチャートである。
図22のステップS101において、復号装置90の受け取り部51は、図13の符号化装置70から伝送されてくる符号化ストリームを受け取り、抽出部91に供給する。
ステップS102において、抽出部91は、受け取り部51から供給される符号化ストリームから、パラメータセットと符号化データを抽出する。抽出部91は、パラメータセットと符号化データを復号部53に供給する。また、抽出部91は、パラメータセットのうちのVUIおよびcolour_primaries_info SEIを調整部92に供給し、colour_primaries_info SEIを表示制御部93に供給する。
ステップS103において、復号部53は、抽出部91から供給される符号化データをHEVC方式で復号する。このとき、復号部53は、必要に応じて、抽出部91から供給されるパラメータセットも参照する。復号部53は、復号の結果得られる画像を調整部92に供給する。
ステップS104において、調整部92は、抽出部91から供給されるVUIに含まれるインデックスから、別規格で定義されている色域を認識する。
ステップS105において、調整部92は、抽出部91からcolour_primaries_info SEIが供給されたかどうかを判定する。ステップS105でcolour_primaries_info SEIが供給されたと判定された場合、処理はステップS106に進む。
ステップS106において、調整部92は、colour_primaries_info SEIから色域情報を取得し、その色域情報が表す色域を認識する。なお、colour_primaries_info SEIに色域情報が含まれていない場合には、例えば、colour_gamut_coverage とステップS104で認識された色域に基づいて色域を認識する。そして、処理はステップS107に進む。
一方、ステップS105でcolour_primaries_info SEIが供給されていないと判定された場合、処理はステップS107に進む。
ステップS107において、調整部92は、表示部56の色域と、ステップS104またはステップS106で認識された色域とに基づいて、復号部53から供給される画像の色域を調整する。
ステップS108において、表示制御部93は、抽出部91から供給されるcolour_primaries_info SEIから白色および黒色の輝度情報を取得する。ステップS109において、表示制御部93は、表示部56の輝度情報と取得された輝度情報とに基づいて、調整部92から供給される色域調整後の画像の輝度のダイナミックレンジを調整する。
ステップS110において、表示制御部93は、輝度のダイナミックレンジ調整後の画像を表示部56に供給して表示させ、処理を終了する。
以上のように、復号装置90は、色域情報を含むcolour_primaries_info SEIを受け取るので、符号化対象の画像の色域を正確に認識することができる。その結果、復号画像の色域を最適化することができる。即ち、符号化対象の画像の色域が別規格で定義されている色域とは異なる場合に、復号画像の色域が無駄に削減または拡大されることを防止することができる。
例えば、表示部56の色域が、符号化対象の画像の色域よりも大きい場合、復号装置90は、復号画像の色域を調整せずに表示することができる。その結果、オーサリング作業者の意図した画像を表示部56に表示させることができる。
また、復号装置90は、正確に認識された色域に基づいて復号画像の色域を調整することにより、高画質の復号画像を表示することができる。
さらに、colour_primaries_info SEIには、white_level_display_luminanceとblak_level_display_luminanceも含まれるので、復号装置90は、マスタのディスプレイの輝度情報を正確に認識することができる。その結果、復号後の画像の輝度のダイナミックレンジを最適化することができる。
なお、上述した説明では、SEIに色域情報や輝度情報が配置されたが、システムレイヤに配置されるようにしてもよい。
<色域情報と輝度情報をMP4のボックスに配置する例>
(色域情報と輝度情報が配置されるMP4のボックスの説明)
図23は、色域情報と輝度情報が配置されるシステムレイヤとしてのMP4のボックスを説明する図である。
図23に示すように、色域情報と輝度情報をMP4のボックスに配置する場合、色域情報と輝度情報をColourPrimariesInfoとして格納するtinf(Colour Primaries Information Box)ボックスが新たに定義される。このtinfボックスは、trakボックス(tarck box)(に格納されるstblボックス)またはtrafボックス(track fragment box)に格納される。
ColourPrimariesInfoは、バイトアラインのためのpadding_valueが挿入されていることを除き、図2のcolour_primaries_info SEIおよび図8のref_display_luminance_info SEI、または、図14のcolour_primaries_info SEIと同様に構成される。
本開示は、AVC方式にも適用することができる。
<第3実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<第4実施の形態>
(多視点画像符号化・多視点画像復号への適用)
上述した一連の処理は、多視点画像符号化・多視点画像復号に適用することができる。図25は、多視点画像符号化方式の一例を示す。
図25に示されるように、多視点画像は、複数の視点(ビュー(view))の画像を含む。この多視点画像の複数のビューは、他のビューの画像を利用せずに自身のビューの画像のみを用いて符号化・復号を行うベースビューと、他のビューの画像を利用して符号化・復号を行うノンベースビューとによりなる。ノンベースビューは、ベースビューの画像を利用するようにしても良いし、他のノンベースビューの画像を利用するようにしてもよい。
図25のような多視点画像を符号化・復号する場合、各ビューの画像を符号化・復号するが、この各ビューの符号化・復号に対して、上述した第1実施の形態の方法を適用するようにしてもよい。このようにすることにより、符号化対象の画像の色域を復号側で正確に認識することができる。
さらに、各ビューの符号化・復号において、上述した第1実施の形態の方法で使用されるフラグやパラメータを共有するようにしてもよい。より具体的には、例えば、colour_primaries_info SEIやref_display_luminance_info SEIのシンタックス要素等を、各ビューの符号化・復号において共有するようにしてもよい。もちろん、これら以外の必要な情報も、各ビューの符号化・復号において共有するようにしてもよい。
このようにすることにより、冗長な情報の伝送を抑制し、伝送する情報量(符号量)を低減することができる(つまり、符号化効率の低減を抑制することができる)。
(多視点画像符号化装置)
図26は、上述した多視点画像符号化を行う多視点画像符号化装置を示す図である。図26に示されるように、多視点画像符号化装置600は、符号化部601、符号化部602、および多重化部603を有する。
符号化部601は、ベースビュー画像を符号化し、ベースビュー画像符号化ストリームを生成する。符号化部602は、ノンベースビュー画像を符号化し、ノンベースビュー画像符号化ストリームを生成する。多重化部603は、符号化部601において生成されたベースビュー画像符号化ストリームと、符号化部602において生成されたノンベースビュー画像符号化ストリームとを多重化し、多視点画像符号化ストリームを生成する。
この多視点画像符号化装置600の符号化部601および符号化部602に対して、符号化装置10(図1)を適用することができる。つまり、各ビューに対する符号化において、符号化対象の画像の色域を復号側に正確に認識させることができる。また、符号化部601および符号化部602は、互いに同一のフラグやパラメータ(例えば、画像間の処理に関するシンタックス要素等)を用いて、符号化を行うことができる(すなわち、フラグやパラメータを共有することができる)ので、符号化効率の低減を抑制することができる。
(多視点画像復号装置)
図27は、上述した多視点画像復号を行う多視点画像復号装置を示す図である。図27に示されるように、多視点画像復号装置610は、逆多重化部611、復号部612、および復号部613を有する。
逆多重化部611は、ベースビュー画像符号化ストリームとノンベースビュー画像符号化ストリームとが多重化された多視点画像符号化ストリームを逆多重化し、ベースビュー画像符号化ストリームと、ノンベースビュー画像符号化ストリームとを抽出する。復号部612は、逆多重化部611により抽出されたベースビュー画像符号化ストリームを復号し、ベースビュー画像を得る。復号部613は、逆多重化部611により抽出されたノンベースビュー画像符号化ストリームを復号し、ノンベースビュー画像を得る。
この多視点画像復号装置610の復号部612および復号部613に対して、復号装置50(図11)を適用することができる。つまり、各ビューに対する復号において、符号化対象の画像の色域を正確に認識することができる。また、復号部612および復号部613は、互いに同一のフラグやパラメータ(例えば、画像間の処理に関するシンタックス要素等)を用いて、復号を行うことができる(すなわち、フラグやパラメータを共有することができる)ので、符号化効率の低減を抑制することができる。
<第5実施の形態>
(階層画像符号化・階層画像復号への適用)
上述した一連の処理は、階層画像符号化・階層画像復号(スケーラブル符号化・スケーラブル復号)に適用することができる。図28は、階層画像符号化方式の一例を示す。
階層画像符号化(スケーラブル符号化)は、画像データを、所定のパラメータについてスケーラブル(scalable)機能を有するように、画像を複数レイヤ化(階層化)し、レイヤ毎に符号化するものである。階層画像復号(スケーラブル復号)は、その階層画像符号化に対応する復号である。
図28に示されるように、画像の階層化においては、スケーラブル機能を有する所定のパラメータを基準として1の画像が複数の画像(レイヤ)に分割される。つまり、階層化された画像(階層画像)は、その所定のパラメータの値が互いに異なる複数の階層(レイヤ)の画像を含む。この階層画像の複数のレイヤは、他のレイヤの画像を利用せずに自身のレイヤの画像のみを用いて符号化・復号を行うベースレイヤと、他のレイヤの画像を利用して符号化・復号を行うノンベースレイヤ(エンハンスメントレイヤとも称する)とによりなる。ノンベースレイヤは、ベースレイヤの画像を利用するようにしても良いし、他のノンベースレイヤの画像を利用するようにしてもよい。
一般的に、ノンベースレイヤは、冗長性が低減されるように、自身の画像と、他のレイヤの画像との差分画像のデータ(差分データ)により構成される。例えば、1の画像をベースレイヤとノンベースレイヤ(エンハンスメントレイヤとも称する)に2階層化した場合、ベースレイヤのデータのみで元の画像よりも低品質な画像が得られ、ベースレイヤのデータとノンベースレイヤのデータを合成することで、元の画像(すなわち高品質な画像)が得られる。
このように画像を階層化することにより、状況に応じて多様な品質の画像を容易に得ることができる。例えば携帯電話のような、処理能力の低い端末に対しては、ベースレイヤ(base layer)のみの画像圧縮情報を伝送し、空間時間解像度の低い、或いは、画質の良くない動画像を再生し、テレビやパーソナルコンピュータのような、処理能力の高い端末に対しては、ベースレイヤ(base layer)に加えて、エンハンスメントレイヤ(enhancement layer)の画像圧縮情報を伝送し、空間時間解像度の高い、或いは、画質の高い動画像を再生するといったように、トランスコード処理を行うことなく、端末やネットワークの能力に応じた画像圧縮情報を、サーバから送信することが可能となる。
図28の例のような階層画像を符号化・復号する場合、各レイヤの画像を符号化・復号するが、この各レイヤの符号化・復号に対して、上述した第1実施の形態の方法を適用するようにしてもよい。このようにすることにより、符号化対象の画像の色域を復号側で正確に認識することができる。
さらに、各レイヤの符号化・復号において、上述した第1実施の形態の方法で使用されるフラグやパラメータを共有するようにしてもよい。より具体的には、例えば、colour_primaries_info SEIやref_display_luminance_info SEIのシンタックス要素等を、各レイヤの符号化・復号において共有するようにしてもよい。もちろん、これら以外の必要な情報も、各レイヤの符号化・復号において共有するようにしてもよい。
このようにすることにより、冗長な情報の伝送を抑制し、伝送する情報量(符号量)を低減することができる(つまり、符号化効率の低減を抑制することができる)。
(スケーラブルなパラメータ)
このような階層画像符号化・階層画像復号(スケーラブル符号化・スケーラブル復号)において、スケーラブル(scalable)機能を有するパラメータは、任意である。例えば、図29に示されるような空間解像度をそのパラメータとしてもよい(spatial scalability)。このスペーシャルスケーラビリティ(spatial scalability)の場合、レイヤ毎に画像の解像度が異なる。つまり、この場合、図29に示されるように、各ピクチャが、元の画像より空間的に低解像度のベースレイヤと、ベースレイヤと合成することにより元の空間解像度が得られるエンハンスメントレイヤの2階層に階層化される。もちろん、この階層数は一例であり、任意の階層数に階層化することができる。
また、このようなスケーラブル性を持たせるパラメータとして、他には、例えば、図30に示されるような、時間解像度を適用しても良い(temporal scalability)。このテンポラルスケーラビリティ(temporal scalability)の場合、レイヤ毎にフレームレートが異なる。つまり、この場合、図30に示されるように、各ピクチャが、元の動画像より低フレームレートのベースレイヤと、ベースレイヤと合成することにより元のフレームレートが得られるエンハンスメントレイヤの2階層に階層化される。もちろん、この階層数は一例であり、任意の階層数に階層化することができる。
さらに、このようなスケーラブル性を持たせるパラメータとして、例えば、信号雑音比(SNR(Signal to Noise ratio))を適用しても良い(SNR scalability)。このSNRスケーラビリティ(SNR scalability)の場合、レイヤ毎にSN比が異なる。つまり、この場合、図31に示されるように、各ピクチャが、元の画像よりSNRの低いベースレイヤと、ベースレイヤと合成することにより元のSNRが得られるエンハンスメントレイヤの2階層に階層化される。もちろん、この階層数は一例であり、任意の階層数に階層化することができる。
スケーラブル性を持たせるパラメータは、上述した例以外であっても、もちろんよい。例えば、スケーラブル性を持たせるパラメータとして、ビット深度を用いることもできる(bit-depth scalability)。このビット深度スケーラビリティ(bit-depth scalability)の場合、レイヤ毎にビット深度が異なる。この場合、例えば、ベースレイヤ(base layer)が8ビット(bit)画像よりなり、これにエンハンスメントレイヤ(enhancement layer)を加えることにより、10ビット(bit)画像が得られるようにすることができる。
また、スケーラブル性を持たせるパラメータとして、クロマフォーマットを用いることもできる(chroma scalability)。このクロマスケーラビリティ(chroma scalability)の場合、レイヤ毎にクロマフォーマットが異なる。この場合、例えば、ベースレイヤ(base layer)が4:2:0フォーマットのコンポーネント画像よりなり、これにエンハンスメントレイヤ(enhancement layer)を加えることにより、4:2:2フォーマットのコンポーネント画像が得られるようにすることができる。
(階層画像符号化装置)
図32は、上述した階層画像符号化を行う階層画像符号化装置を示す図である。図32に示されるように、階層画像符号化装置620は、符号化部621、符号化部622、および多重化部623を有する。
符号化部621は、ベースレイヤ画像を符号化し、ベースレイヤ画像符号化ストリームを生成する。符号化部622は、ノンベースレイヤ画像を符号化し、ノンベースレイヤ画像符号化ストリームを生成する。多重化部623は、符号化部621において生成されたベースレイヤ画像符号化ストリームと、符号化部622において生成されたノンベースレイヤ画像符号化ストリームとを多重化し、階層画像符号化ストリームを生成する。
この階層画像符号化装置620の符号化部621および符号化部622に対して、符号化装置10(図1)を適用することができる。つまり、各レイヤに対する符号化において、符号化対象の画像の色域を復号側に正確に認識させることができる。また、符号化部621および符号化部622は、互いに同一のフラグやパラメータ(例えば、画像間の処理に関するシンタックス要素等)を用いて、イントラ予測のフィルタ処理の制御等を行うことができる(すなわち、フラグやパラメータを共有することができる)ので、符号化効率の低減を抑制することができる。
(階層画像復号装置)
図33は、上述した階層画像復号を行う階層画像復号装置を示す図である。図33に示されるように、階層画像復号装置630は、逆多重化部631、復号部632、および復号部633を有する。
逆多重化部631は、ベースレイヤ画像符号化ストリームとノンベースレイヤ画像符号化ストリームとが多重化された階層画像符号化ストリームを逆多重化し、ベースレイヤ画像符号化ストリームと、ノンベースレイヤ画像符号化ストリームとを抽出する。復号部632は、逆多重化部631により抽出されたベースレイヤ画像符号化ストリームを復号し、ベースレイヤ画像を得る。復号部633は、逆多重化部631により抽出されたノンベースレイヤ画像符号化ストリームを復号し、ノンベースレイヤ画像を得る。
この階層画像復号装置630の復号部632および復号部633に対して、復号装置50(図11)を適用することができる。つまり、各レイヤに対する復号において、符号化対象の画像の色域を正確に認識することができる。また、復号部612および復号部613は、互いに同一のフラグやパラメータ(例えば、画像間の処理に関するシンタックス要素等)を用いて、復号を行うことができる(すなわち、フラグやパラメータを共有することができる)ので、符号化効率の低減を抑制することができる。
<第6実施の形態>
(テレビジョン装置の構成例)
図34は、本技術を適用したテレビジョン装置の概略構成を例示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース部909を有している。さらに、テレビジョン装置900は、制御部910、ユーザインタフェース部911等を有している。
チューナ902は、アンテナ901で受信された放送波信号から所望のチャンネルを選局して復調を行い、得られた符号化ビットストリームをデマルチプレクサ903に出力する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象である番組の映像や音声のパケットを抽出して、抽出したパケットのデータをデコーダ904に出力する。また、デマルチプレクサ903は、EPG(Electronic Program Guide)等のデータのパケットを制御部910に供給する。なお、スクランブルが行われている場合、デマルチプレクサ等でスクランブルの解除を行う。
デコーダ904は、パケットの復号化処理を行い、復号処理化によって生成された映像データを映像信号処理部905、音声データを音声信号処理部907に出力する。
映像信号処理部905は、映像データに対して、ノイズ除去やユーザ設定に応じた映像処理等を行う。映像信号処理部905は、表示部906に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成する。また、映像信号処理部905は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それを番組の映像データに重畳する。映像信号処理部905は、このようにして生成した映像データに基づいて駆動信号を生成して表示部906を駆動する。
表示部906は、映像信号処理部905からの駆動信号に基づき表示デバイス(例えば液晶表示素子等)を駆動して、番組の映像などを表示させる。
音声信号処理部907は、音声データに対してノイズ除去などの所定の処理を施し、処理後の音声データのD/A変換処理や増幅処理を行いスピーカ908に供給することで音声出力を行う。
外部インタフェース部909は、外部機器やネットワークと接続するためのインタフェースであり、映像データや音声データ等のデータ送受信を行う。
制御部910にはユーザインタフェース部911が接続されている。ユーザインタフェース部911は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部910に供給する。
制御部910は、CPU(Central Processing Unit)やメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ、EPGデータ、ネットワークを介して取得されたデータ等を記憶する。メモリに記憶されているプログラムは、テレビジョン装置900の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、テレビジョン装置900がユーザ操作に応じた動作となるように各部を制御する。
なお、テレビジョン装置900では、チューナ902、デマルチプレクサ903、映像信号処理部905、音声信号処理部907、外部インタフェース部909等と制御部910を接続するためバス912が設けられている。
このように構成されたテレビジョン装置では、デコーダ904に本願の復号装置(復号方法)の機能が設けられる。このため、符号化対象の画像の色域を正確に認識することができる。
<第7実施の形態>
(携帯電話機の構成例)
図35は、本技術を適用した携帯電話機の概略構成を例示している。携帯電話機920は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931を有している。これらは、バス933を介して互いに接続されている。
また、通信部922にはアンテナ921が接続されており、音声コーデック923には、スピーカ924とマイクロホン925が接続されている。さらに制御部931には、操作部932が接続されている。
携帯電話機920は、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
音声通話モードにおいて、マイクロホン925で生成された音声信号は、音声コーデック923で音声データへの変換やデータ圧縮が行われて通信部922に供給される。通信部922は、音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。また、通信部922は、送信信号をアンテナ921に供給して図示しない基地局へ送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、得られた音声データを音声コーデック923に供給する。音声コーデック923は、音声データのデータ伸張やアナログ音声信号への変換を行いスピーカ924に出力する。
また、データ通信モードにおいて、メール送信を行う場合、制御部931は、操作部932の操作によって入力された文字データを受け付けて、入力された文字を表示部930に表示する。また、制御部931は、操作部932におけるユーザ指示等に基づいてメールデータを生成して通信部922に供給する。通信部922は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、メールデータを復元する。このメールデータを、表示部930に供給して、メール内容の表示を行う。
なお、携帯電話機920は、受信したメールデータを、記録再生部929で記憶媒体に記憶させることも可能である。記憶媒体は、書き換え可能な任意の記憶媒体である。例えば、記憶媒体は、RAMや内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、またはメモリカード等のリムーバブルメディアである。
データ通信モードにおいて画像データを送信する場合、カメラ部926で生成された画像データを、画像処理部927に供給する。画像処理部927は、画像データの符号化処理を行い、符号化データを生成する。
多重分離部928は、画像処理部927で生成された符号化データと、音声コーデック923から供給された音声データを所定の方式で多重化して通信部922に供給する。通信部922は、多重化データの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、多重化データを復元する。この多重化データを多重分離部928に供給する。多重分離部928は、多重化データの分離を行い、符号化データを画像処理部927、音声データを音声コーデック923に供給する。画像処理部927は、符号化データの復号化処理を行い、画像データを生成する。この画像データを表示部930に供給して、受信した画像の表示を行う。音声コーデック923は、音声データをアナログ音声信号に変換してスピーカ924に供給して、受信した音声を出力する。
このように構成された携帯電話装置では、画像処理部927に本願の符号化装置および復号装置(符号化方法および復号方法)の機能が設けられる。このため、符号化対象の画像の色域を復号側に正確に認識させることができる。また、符号化対象の画像の色域を正確に認識することができる。
<第8実施の形態>
(記録再生装置の構成例)
図36は、本技術を適用した記録再生装置の概略構成を例示している。記録再生装置940は、例えば受信した放送番組のオーディオデータとビデオデータを、記録媒体に記録して、その記録されたデータをユーザの指示に応じたタイミングでユーザに提供する。また、記録再生装置940は、例えば他の装置からオーディオデータやビデオデータを取得し、それらを記録媒体に記録させることもできる。さらに、記録再生装置940は、記録媒体に記録されているオーディオデータやビデオデータを復号して出力することで、モニタ装置等において画像表示や音声出力を行うことができるようにする。
記録再生装置940は、チューナ941、外部インタフェース部942、エンコーダ943、HDD(Hard Disk Drive)部944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)部948、制御部949、ユーザインタフェース部950を有している。
チューナ941は、図示しないアンテナで受信された放送信号から所望のチャンネルを選局する。チューナ941は、所望のチャンネルの受信信号を復調して得られた符号化ビットストリームをセレクタ946に出力する。
外部インタフェース部942は、IEEE1394インタフェース、ネットワークインタフェース部、USBインタフェース、フラッシュメモリインタフェース等の少なくともいずれかで構成されている。外部インタフェース部942は、外部機器やネットワーク、メモリカード等と接続するためのインタフェースであり、記録する映像データや音声データ等のデータ受信を行う。
エンコーダ943は、外部インタフェース部942から供給された映像データや音声データが符号化されていないとき所定の方式で符号化を行い、符号化ビットストリームをセレクタ946に出力する。
HDD部944は、映像や音声等のコンテンツデータ、各種プログラムやその他のデータ等を内蔵のハードディスクに記録し、また再生時等にそれらを当該ハードディスクから読み出す。
ディスクドライブ945は、装着されている光ディスクに対する信号の記録および再生を行う。光ディスク、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)やBlu−ray(登録商標)ディスク等である。
セレクタ946は、映像や音声の記録時には、チューナ941またはエンコーダ943からのいずれかの符号化ビットストリームを選択して、HDD部944やディスクドライブ945のいずれかに供給する。また、セレクタ946は、映像や音声の再生時に、HDD部944またはディスクドライブ945から出力された符号化ビットストリームをデコーダ947に供給する。
デコーダ947は、符号化ビットストリームの復号化処理を行う。デコーダ947は、復号処理化を行うことにより生成された映像データをOSD部948に供給する。また、デコーダ947は、復号処理化を行うことにより生成された音声データを出力する。
OSD部948は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それをデコーダ947から出力された映像データに重畳して出力する。
制御部949には、ユーザインタフェース部950が接続されている。ユーザインタフェース部950は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部949に供給する。
制御部949は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータを記憶する。メモリに記憶されているプログラムは、記録再生装置940の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、記録再生装置940がユーザ操作に応じた動作となるように各部を制御する。
このように構成された記録再生装置では、デコーダ947に本願の復号装置(復号方法)の機能が設けられる。このため、符号化対象の画像の色域を正確に認識することができる。
<第9実施の形態>
(撮像装置の構成例)
図37は、本技術を適用した撮像装置の概略構成を例示している。撮像装置960は、被写体を撮像し、被写体の画像を表示部に表示させたり、それを画像データとして、記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、カメラ信号処理部963、画像データ処理部964、表示部965、外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970を有している。また、制御部970には、ユーザインタフェース部971が接続されている。さらに、画像データ処理部964や外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970等は、バス972を介して接続されている。
光学ブロック961は、フォーカスレンズや絞り機構等を用いて構成されている。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCDまたはCMOSイメージセンサを用いて構成されており、光電変換によって光学像に応じた電気信号を生成してカメラ信号処理部963に供給する。
カメラ信号処理部963は、撮像部962から供給された電気信号に対してニー補正やガンマ補正、色補正等の種々のカメラ信号処理を行う。カメラ信号処理部963は、カメラ信号処理後の画像データを画像データ処理部964に供給する。
画像データ処理部964は、カメラ信号処理部963から供給された画像データの符号化処理を行う。画像データ処理部964は、符号化処理を行うことにより生成された符号化データを外部インタフェース部966やメディアドライブ968に供給する。また、画像データ処理部964は、外部インタフェース部966やメディアドライブ968から供給された符号化データの復号化処理を行う。画像データ処理部964は、復号化処理を行うことにより生成された画像データを表示部965に供給する。また、画像データ処理部964は、カメラ信号処理部963から供給された画像データを表示部965に供給する処理や、OSD部969から取得した表示用データを、画像データに重畳させて表示部965に供給する。
OSD部969は、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを生成して画像データ処理部964に出力する。
外部インタフェース部966は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタと接続される。また、外部インタフェース部966には、必要に応じてドライブが接続され、磁気ディスク、光ディスク等のリムーバブルメディアが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、インストールされる。さらに、外部インタフェース部966は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。制御部970は、例えば、ユーザインタフェース部971からの指示にしたがって、メディアドライブ968から符号化データを読み出し、それを外部インタフェース部966から、ネットワークを介して接続される他の装置に供給させることができる。また、制御部970は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース部966を介して取得し、それを画像データ処理部964に供給したりすることができる。
メディアドライブ968で駆動される記録メディアとしては、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアが用いられる。また、記録メディアは、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触IC(Integrated Circuit)カード等であってもよい。
また、メディアドライブ968と記録メディアを一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
制御部970は、CPUを用いて構成されている。メモリ部967は、制御部970により実行されるプログラムや制御部970が処理を行う上で必要な各種のデータ等を記憶する。メモリ部967に記憶されているプログラムは、撮像装置960の起動時などの所定タイミングで制御部970により読み出されて実行される。制御部970は、プログラムを実行することで、撮像装置960がユーザ操作に応じた動作となるように各部を制御する。
このように構成された撮像装置では、画像データ処理部964に本願の符号化装置および復号装置(符号化方法および復号方法)の機能が設けられる。このため、符号化対象の画像の色域を復号側に正確に認識させることができる。また、符号化対象の画像の色域を正確に認識することができる。
<スケーラブル符号化の応用例>
(第1のシステム)
次に、スケーラブル符号化(階層符号化)されたスケーラブル符号化データの具体的な利用例について説明する。スケーラブル符号化は、例えば、図38に示される例のように、伝送するデータの選択のために利用される。
図38に示されるデータ伝送システム1000において、配信サーバ1002は、スケーラブル符号化データ記憶部1001に記憶されているスケーラブル符号化データを読み出し、ネットワーク1003を介して、パーソナルコンピュータ1004、AV機器1005、タブレットデバイス1006、および携帯電話機1007等の端末装置に配信する。
その際、配信サーバ1002は、端末装置の能力や通信環境等に応じて、適切な品質の符号化データを選択して伝送する。配信サーバ1002が不要に高品質なデータを伝送しても、端末装置において高画質な画像を得られるとは限らず、遅延やオーバフローの発生要因となる恐れがある。また、不要に通信帯域を占有したり、端末装置の負荷を不要に増大させたりしてしまう恐れもある。逆に、配信サーバ1002が不要に低品質なデータを伝送しても、端末装置において十分な画質の画像を得ることができない恐れがある。そのため、配信サーバ1002は、スケーラブル符号化データ記憶部1001に記憶されているスケーラブル符号化データを、適宜、端末装置の能力や通信環境等に対して適切な品質の符号化データとして読み出し、伝送する。
例えば、スケーラブル符号化データ記憶部1001は、スケーラブルに符号化されたスケーラブル符号化データ(BL+EL)1011を記憶するとする。このスケーラブル符号化データ(BL+EL)1011は、ベースレイヤとエンハンスメントレイヤの両方を含む符号化データであり、復号することにより、ベースレイヤの画像およびエンハンスメントレイヤの画像の両方を得ることができるデータである。
配信サーバ1002は、データを伝送する端末装置の能力や通信環境等に応じて、適切なレイヤを選択し、そのレイヤのデータを読み出す。例えば、配信サーバ1002は、処理能力の高いパーソナルコンピュータ1004やタブレットデバイス1006に対しては、高品質なスケーラブル符号化データ(BL+EL)1011をスケーラブル符号化データ記憶部1001から読み出し、そのまま伝送する。これに対して、例えば、配信サーバ1002は、処理能力の低いAV機器1005や携帯電話機1007に対しては、スケーラブル符号化データ(BL+EL)1011からベースレイヤのデータを抽出し、スケーラブル符号化データ(BL+EL)1011と同じコンテンツのデータであるが、スケーラブル符号化データ(BL+EL)1011よりも低品質なスケーラブル符号化データ(BL)1012として伝送する。
このようにスケーラブル符号化データを用いることにより、データ量を容易に調整することができるので、遅延やオーバフローの発生を抑制したり、端末装置や通信媒体の負荷の不要な増大を抑制したりすることができる。また、スケーラブル符号化データ(BL+EL)1011は、レイヤ間の冗長性が低減されているので、各レイヤの符号化データを個別のデータとする場合よりもそのデータ量を低減させることができる。したがって、スケーラブル符号化データ記憶部1001の記憶領域をより効率よく使用することができる。
なお、パーソナルコンピュータ1004乃至携帯電話機1007のように、端末装置には様々な装置を適用することができるので、端末装置のハードウエアの性能は、装置によって異なる。また、端末装置が実行するアプリケーションも様々であるので、そのソフトウエアの能力も様々である。さらに、通信媒体となるネットワーク1003も、例えばインターネットやLAN(Local Area Network)等、有線若しくは無線、またはその両方を含むあらゆる通信回線網を適用することができ、そのデータ伝送能力は様々である。さらに、他の通信等によっても変化する恐れがある。
そこで、配信サーバ1002は、データ伝送を開始する前に、データの伝送先となる端末装置と通信を行い、端末装置のハードウエア性能や、端末装置が実行するアプリケーション(ソフトウエア)の性能等といった端末装置の能力に関する情報、並びに、ネットワーク1003の利用可能帯域幅等の通信環境に関する情報を得るようにしてもよい。そして、配信サーバ1002が、ここで得た情報を基に、適切なレイヤを選択するようにしてもよい。
なお、レイヤの抽出は、端末装置において行うようにしてもよい。例えば、パーソナルコンピュータ1004が、伝送されたスケーラブル符号化データ(BL+EL)1011を復号し、ベースレイヤの画像を表示しても良いし、エンハンスメントレイヤの画像を表示しても良い。また、例えば、パーソナルコンピュータ1004が、伝送されたスケーラブル符号化データ(BL+EL)1011から、ベースレイヤのスケーラブル符号化データ(BL)1012を抽出し、記憶したり、他の装置に転送したり、復号してベースレイヤの画像を表示したりするようにしてもよい。
もちろん、スケーラブル符号化データ記憶部1001、配信サーバ1002、ネットワーク1003、および端末装置の数はいずれも任意である。また、以上においては、配信サーバ1002がデータを端末装置に伝送する例について説明したが、利用例はこれに限定されない。データ伝送システム1000は、スケーラブル符号化された符号化データを端末装置に伝送する際、端末装置の能力や通信環境等に応じて、適切なレイヤを選択して伝送するシステムであれば、任意のシステムに適用することができる。
(第2のシステム)
また、スケーラブル符号化は、例えば、図39に示される例のように、複数の通信媒体を介する伝送のために利用される。
図39に示されるデータ伝送システム1100において、放送局1101は、地上波放送1111により、ベースレイヤのスケーラブル符号化データ(BL)1121を伝送する。また、放送局1101は、有線若しくは無線またはその両方の通信網よりなる任意のネットワーク1112を介して、エンハンスメントレイヤのスケーラブル符号化データ(EL)1122を伝送する(例えばパケット化して伝送する)。
端末装置1102は、放送局1101が放送する地上波放送1111の受信機能を有し、この地上波放送1111を介して伝送されるベースレイヤのスケーラブル符号化データ(BL)1121を受け取る。また、端末装置1102は、ネットワーク1112を介した通信を行う通信機能をさらに有し、このネットワーク1112を介して伝送されるエンハンスメントレイヤのスケーラブル符号化データ(EL)1122を受け取る。
端末装置1102は、例えばユーザ指示等に応じて、地上波放送1111を介して取得したベースレイヤのスケーラブル符号化データ(BL)1121を、復号してベースレイヤの画像を得たり、記憶したり、他の装置に伝送したりする。
また、端末装置1102は、例えばユーザ指示等に応じて、地上波放送1111を介して取得したベースレイヤのスケーラブル符号化データ(BL)1121と、ネットワーク1112を介して取得したエンハンスメントレイヤのスケーラブル符号化データ(EL)1122とを合成して、スケーラブル符号化データ(BL+EL)を得たり、それを復号してエンハンスメントレイヤの画像を得たり、記憶したり、他の装置に伝送したりする。
以上のように、スケーラブル符号化データは、例えばレイヤ毎に異なる通信媒体を介して伝送させることができる。したがって、負荷を分散させることができ、遅延やオーバフローの発生を抑制することができる。
また、状況に応じて、伝送に使用する通信媒体を、レイヤ毎に選択することができるようにしてもよい。例えば、データ量が比較的多いベースレイヤのスケーラブル符号化データ(BL)1121を帯域幅の広い通信媒体を介して伝送させ、データ量が比較的少ないエンハンスメントレイヤのスケーラブル符号化データ(EL)1122を帯域幅の狭い通信媒体を介して伝送させるようにしてもよい。また、例えば、エンハンスメントレイヤのスケーラブル符号化データ(EL)1122を伝送する通信媒体を、ネットワーク1112とするか、地上波放送1111とするかを、ネットワーク1112の利用可能帯域幅に応じて切り替えるようにしてもよい。もちろん、任意のレイヤのデータについて同様である。
このように制御することにより、データ伝送における負荷の増大を、より抑制することができる。
もちろん、レイヤ数は任意であり、伝送に利用する通信媒体の数も任意である。また、データ配信先となる端末装置1102の数も任意である。さらに、以上においては、放送局1101からの放送を例に説明したが、利用例はこれに限定されない。データ伝送システム1100は、スケーラブル符号化された符号化データを、レイヤを単位として複数に分割し、複数の回線を介して伝送するシステムであれば、任意のシステムに適用することができる。
(第3のシステム)
また、スケーラブル符号化は、例えば、図40に示される例のように、符号化データの記憶に利用される。
図40に示される撮像システム1200において、撮像装置1201は、被写体1211を撮像して得られた画像データをスケーラブル符号化し、スケーラブル符号化データ(BL+EL)1221として、スケーラブル符号化データ記憶装置1202に供給する。
スケーラブル符号化データ記憶装置1202は、撮像装置1201から供給されるスケーラブル符号化データ(BL+EL)1221を、状況に応じた品質で記憶する。例えば、通常時の場合、スケーラブル符号化データ記憶装置1202は、スケーラブル符号化データ(BL+EL)1221からベースレイヤのデータを抽出し、低品質でデータ量の少ないベースレイヤのスケーラブル符号化データ(BL)1222として記憶する。これに対して、例えば、注目時の場合、スケーラブル符号化データ記憶装置1202は、高品質でデータ量の多いスケーラブル符号化データ(BL+EL)1221のまま記憶する。
このようにすることにより、スケーラブル符号化データ記憶装置1202は、必要な場合のみ、画像を高画質に保存することができるので、画質劣化による画像の価値の低減を抑制しながら、データ量の増大を抑制することができ、記憶領域の利用効率を向上させることができる。
例えば、撮像装置1201が監視カメラであるとする。撮像画像に監視対象(例えば侵入者)が写っていない場合(通常時の場合)、撮像画像の内容は重要でない可能性が高いので、データ量の低減が優先され、その画像データ(スケーラブル符号化データ)は、低品質に記憶される。これに対して、撮像画像に監視対象が被写体1211として写っている場合(注目時の場合)、その撮像画像の内容は重要である可能性が高いので、画質が優先され、その画像データ(スケーラブル符号化データ)は、高品質に記憶される。
なお、通常時であるか注目時であるかは、例えば、スケーラブル符号化データ記憶装置1202が、画像を解析することにより判定しても良い。また、撮像装置1201が判定し、その判定結果をスケーラブル符号化データ記憶装置1202に伝送するようにしてもよい。
なお、通常時であるか注目時であるかの判定基準は任意であり、判定基準とする画像の内容は任意である。もちろん、画像の内容以外の条件を判定基準とすることもできる。例えば、収録した音声の大きさや波形等に応じて切り替えるようにしてもよいし、所定の時間毎に切り替えるようにしてもよいし、ユーザ指示等の外部からの指示によって切り替えるようにしてもよい。
また、以上においては、通常時と注目時の2つの状態を切り替える例を説明したが、状態の数は任意であり、例えば、通常時、やや注目時、注目時、非常に注目時等のように、3つ以上の状態を切り替えるようにしてもよい。ただし、この切り替える状態の上限数は、スケーラブル符号化データのレイヤ数に依存する。
また、撮像装置1201が、スケーラブル符号化のレイヤ数を、状態に応じて決定するようにしてもよい。例えば、通常時の場合、撮像装置1201が、低品質でデータ量の少ないベースレイヤのスケーラブル符号化データ(BL)1222を生成し、スケーラブル符号化データ記憶装置1202に供給するようにしてもよい。また、例えば、注目時の場合、撮像装置1201が、高品質でデータ量の多いベースレイヤのスケーラブル符号化データ(BL+EL)1221を生成し、スケーラブル符号化データ記憶装置1202に供給するようにしてもよい。
以上においては、監視カメラを例に説明したが、この撮像システム1200の用途は任意であり、監視カメラに限定されない。
<第10実施の形態>
(実施のその他の例)
以上において本技術を適用する装置やシステム等の例を説明したが、本技術は、これに限らず、このような装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
(ビデオセットの構成例)
本技術をセットとして実施する場合の例について、図41を参照して説明する。図41は、本技術を適用したビデオセットの概略的な構成の一例を示している。
近年、電子機器の多機能化が進んでおり、その開発や製造において、その一部の構成を販売や提供等として実施する場合、1機能を有する構成として実施を行う場合だけでなく、関連する機能を有する複数の構成を組み合わせ、複数の機能を有する1セットとして実施を行う場合も多く見られるようになってきた。
図41に示されるビデオセット1300は、このような多機能化された構成であり、画像の符号化や復号(いずれか一方でもよいし、両方でも良い)に関する機能を有するデバイスに、その機能に関連するその他の機能を有するデバイスを組み合わせたものである。
図41に示されるように、ビデオセット1300は、ビデオモジュール1311、外部メモリ1312、パワーマネージメントモジュール1313、およびフロントエンドモジュール1314等のモジュール群と、コネクティビティ1321、カメラ1322、およびセンサ1323等の関連する機能を有するデバイスとを有する。
モジュールは、互いに関連するいくつかの部品的機能をまとめ、まとまりのある機能を持った部品としたものである。具体的な物理的構成は任意であるが、例えば、それぞれ機能を有する複数のプロセッサ、抵抗やコンデンサ等の電子回路素子、その他のデバイス等を配線基板等に配置して一体化したものが考えられる。また、モジュールに他のモジュールやプロセッサ等を組み合わせて新たなモジュールとすることも考えられる。
図41の例の場合、ビデオモジュール1311は、画像処理に関する機能を有する構成を組み合わせたものであり、アプリケーションプロセッサ、ビデオプロセッサ、ブロードバンドモデム1333、およびRFモジュール1334を有する。
プロセッサは、所定の機能を有する構成をSoC(System On a Chip)により半導体チップに集積したものであり、例えばシステムLSI(Large Scale Integration)等と称されるものもある。この所定の機能を有する構成は、論理回路(ハードウエア構成)であってもよいし、CPU、ROM、RAM等と、それらを用いて実行されるプログラム(ソフトウエア構成)であってもよいし、その両方を組み合わせたものであってもよい。例えば、プロセッサが、論理回路とCPU、ROM、RAM等とを有し、機能の一部を論理回路(ハードウエア構成)により実現し、その他の機能をCPUにおいて実行されるプログラム(ソフトウエア構成)により実現するようにしてもよい。
図41のアプリケーションプロセッサ1331は、画像処理に関するアプリケーションを実行するプロセッサである。このアプリケーションプロセッサ1331において実行されるアプリケーションは、所定の機能を実現するために、演算処理を行うだけでなく、例えばビデオプロセッサ1332等、ビデオモジュール1311内外の構成を必要に応じて制御することもできる。
ビデオプロセッサ1332は、画像の符号化・復号(その一方若しくは両方)に関する機能を有するプロセッサである。
ブロードバンドモデム1333は、インターネットや公衆電話回線網等の広帯域の回線を介して行われる有線若しくは無線(またはその両方)の広帯域通信に関する処理を行うプロセッサ(若しくはモジュール)である。例えば、ブロードバンドモデム1333は、送信するデータ(デジタル信号)をデジタル変調する等してアナログ信号に変換したり、受信したアナログ信号を復調してデータ(デジタル信号)に変換したりする。例えば、ブロードバンドモデム1333は、ビデオプロセッサ1332が処理する画像データや画像データが符号化されたストリーム、アプリケーションプログラム、設定データ等、任意の情報をデジタル変調・復調することができる。
RFモジュール1334は、アンテナを介して送受信されるRF(Radio Frequency)信号に対して、周波数変換、変復調、増幅、フィルタ処理等を行うモジュールである。例えば、RFモジュール1334は、ブロードバンドモデム1333により生成されたベースバンド信号に対して周波数変換等を行ってRF信号を生成する。また、例えば、RFモジュール1334は、フロントエンドモジュール1314を介して受信されたRF信号に対して周波数変換等を行ってベースバンド信号を生成する。
なお、図41において点線1341に示されるように、アプリケーションプロセッサ1331とビデオプロセッサ1332を、一体化し、1つのプロセッサとして構成されるようにしてもよい。
外部メモリ1312は、ビデオモジュール1311の外部に設けられた、ビデオモジュール1311により利用される記憶デバイスを有するモジュールである。この外部メモリ1312の記憶デバイスは、どのような物理構成により実現するようにしてもよいが、一般的にフレーム単位の画像データのような大容量のデータの格納に利用されることが多いので、例えばDRAM(Dynamic Random Access Memory)のような比較的安価で大容量の半導体メモリにより実現するのが望ましい。
パワーマネージメントモジュール1313は、ビデオモジュール1311(ビデオモジュール1311内の各構成)への電力供給を管理し、制御する。
フロントエンドモジュール1314は、RFモジュール1334に対してフロントエンド機能(アンテナ側の送受信端の回路)を提供するモジュールである。図41に示されるように、フロントエンドモジュール1314は、例えば、アンテナ部1351、フィルタ1352、および増幅部1353を有する。
アンテナ部1351は、無線信号を送受信するアンテナおよびその周辺の構成を有する。アンテナ部1351は、増幅部1353から供給される信号を無線信号として送信し、受信した無線信号を電気信号(RF信号)としてフィルタ1352に供給する。フィルタ1352は、アンテナ部1351を介して受信されたRF信号に対してフィルタ処理等を行い、処理後のRF信号をRFモジュール1334に供給する。増幅部1353は、RFモジュール1334から供給されるRF信号を増幅し、アンテナ部1351に供給する。
コネクティビティ1321は、外部との接続に関する機能を有するモジュールである。コネクティビティ1321の物理構成は、任意である。例えば、コネクティビティ1321は、ブロードバンドモデム1333が対応する通信規格以外の通信機能を有する構成や、外部入出力端子等を有する。
例えば、コネクティビティ1321が、Bluetooth(登録商標)、IEEE 802.11(例えばWi-Fi(Wireless Fidelity、登録商標))、NFC(Near Field Communication)、IrDA(InfraRed Data Association)等の無線通信規格に準拠する通信機能を有するモジュールや、その規格に準拠した信号を送受信するアンテナ等を有するようにしてもよい。また、例えば、コネクティビティ1321が、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)等の有線通信規格に準拠する通信機能を有するモジュールや、その規格に準拠した端子を有するようにしてもよい。さらに、例えば、コネクティビティ1321が、アナログ入出力端子等のその他のデータ(信号)伝送機能等を有するようにしてもよい。
なお、コネクティビティ1321が、データ(信号)の伝送先のデバイスを含むようにしてもよい。例えば、コネクティビティ1321が、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等の記録媒体に対してデータの読み出しや書き込みを行うドライブ(リムーバブルメディアのドライブだけでなく、ハードディスク、SSD(Solid State Drive)、NAS(Network Attached Storage)等も含む)を有するようにしてもよい。また、コネクティビティ1321が、画像や音声の出力デバイス(モニタやスピーカ等)を有するようにしてもよい。
カメラ1322は、被写体を撮像し、被写体の画像データを得る機能を有するモジュールである。カメラ1322の撮像により得られた画像データは、例えば、ビデオプロセッサ1332に供給されて符号化される。
センサ1323は、例えば、音声センサ、超音波センサ、光センサ、照度センサ、赤外線センサ、イメージセンサ、回転センサ、角度センサ、角速度センサ、速度センサ、加速度センサ、傾斜センサ、磁気識別センサ、衝撃センサ、温度センサ等、任意のセンサ機能を有するモジュールである。センサ1323により検出されたデータは、例えば、アプリケーションプロセッサ1331に供給されてアプリケーション等により利用される。
以上においてモジュールとして説明した構成をプロセッサとして実現するようにしてもよいし、逆にプロセッサとして説明した構成をモジュールとして実現するようにしてもよい。
以上のような構成のビデオセット1300において、後述するようにビデオプロセッサ1332に本技術を適用することができる。したがって、ビデオセット1300は、本技術を適用したセットとして実施することができる。
(ビデオプロセッサの構成例)
図42は、本技術を適用したビデオプロセッサ1332(図41)の概略的な構成の一例を示している。
図42の例の場合、ビデオプロセッサ1332は、ビデオ信号およびオーディオ信号の入力を受けてこれらを所定の方式で符号化する機能と、符号化されたビデオデータおよびオーディオデータを復号し、ビデオ信号およびオーディオ信号を再生出力する機能とを有する。
図42に示されるように、ビデオプロセッサ1332は、ビデオ入力処理部1401、第1画像拡大縮小部1402、第2画像拡大縮小部1403、ビデオ出力処理部1404、フレームメモリ1405、およびメモリ制御部1406を有する。また、ビデオプロセッサ1332は、エンコード・デコードエンジン1407、ビデオES(Elementary Stream)バッファ1408Aおよび1408B、並びに、オーディオESバッファ1409Aおよび1409Bを有する。さらに、ビデオプロセッサ1332は、オーディオエンコーダ1410、オーディオデコーダ1411、多重化部(MUX(Multiplexer))1412、逆多重化部(DMUX(Demultiplexer))1413、およびストリームバッファ1414を有する。
ビデオ入力処理部1401は、例えばコネクティビティ1321(図41)等から入力されたビデオ信号を取得し、デジタル画像データに変換する。第1画像拡大縮小部1402は、画像データに対してフォーマット変換や画像の拡大縮小処理等を行う。第2画像拡大縮小部1403は、画像データに対して、ビデオ出力処理部1404を介して出力する先でのフォーマットに応じて画像の拡大縮小処理を行ったり、第1画像拡大縮小部1402と同様のフォーマット変換や画像の拡大縮小処理等を行ったりする。ビデオ出力処理部1404は、画像データに対して、フォーマット変換やアナログ信号への変換等を行って、再生されたビデオ信号として例えばコネクティビティ1321(図41)等に出力する。
フレームメモリ1405は、ビデオ入力処理部1401、第1画像拡大縮小部1402、第2画像拡大縮小部1403、ビデオ出力処理部1404、およびエンコード・デコードエンジン1407によって共用される画像データ用のメモリである。フレームメモリ1405は、例えばDRAM等の半導体メモリとして実現される。
メモリ制御部1406は、エンコード・デコードエンジン1407からの同期信号を受けて、アクセス管理テーブル1406Aに書き込まれたフレームメモリ1405へのアクセススケジュールに従ってフレームメモリ1405に対する書き込み・読み出しのアクセスを制御する。アクセス管理テーブル1406Aは、エンコード・デコードエンジン1407、第1画像拡大縮小部1402、第2画像拡大縮小部1403等で実行される処理に応じて、メモリ制御部1406により更新される。
エンコード・デコードエンジン1407は、画像データのエンコード処理、並びに、画像データが符号化されたデータであるビデオストリームのデコード処理を行う。例えば、エンコード・デコードエンジン1407は、フレームメモリ1405から読み出した画像データを符号化し、ビデオストリームとしてビデオESバッファ1408Aに順次書き込む。また、例えば、ビデオESバッファ1408Bからビデオストリームを順次読み出して復号し、画像データとしてフレームメモリ1405に順次書き込む。エンコード・デコードエンジン1407は、これらの符号化や復号において、フレームメモリ1405を作業領域として使用する。また、エンコード・デコードエンジン1407は、例えばマクロブロック毎の処理を開始するタイミングで、メモリ制御部1406に対して同期信号を出力する。
ビデオESバッファ1408Aは、エンコード・デコードエンジン1407によって生成されたビデオストリームをバッファリングして、多重化部(MUX)1412に供給する。ビデオESバッファ1408Bは、逆多重化部(DMUX)1413から供給されたビデオストリームをバッファリングして、エンコード・デコードエンジン1407に供給する。
オーディオESバッファ1409Aは、オーディオエンコーダ1410によって生成されたオーディオストリームをバッファリングして、多重化部(MUX)1412に供給する。オーディオESバッファ1409Bは、逆多重化部(DMUX)1413から供給されたオーディオストリームをバッファリングして、オーディオデコーダ1411に供給する。
オーディオエンコーダ1410は、例えばコネクティビティ1321(図41)等から入力されたオーディオ信号を例えばデジタル変換し、例えばMPEGオーディオ方式やAC3(AudioCode number 3)方式等の所定の方式で符号化する。オーディオエンコーダ1410は、オーディオ信号が符号化されたデータであるオーディオストリームをオーディオESバッファ1409Aに順次書き込む。オーディオデコーダ1411は、オーディオESバッファ1409Bから供給されたオーディオストリームを復号し、例えばアナログ信号への変換等を行って、再生されたオーディオ信号として例えばコネクティビティ1321(図41)等に供給する。
多重化部(MUX)1412は、ビデオストリームとオーディオストリームとを多重化する。この多重化の方法(すなわち、多重化により生成されるビットストリームのフォーマット)は任意である。また、この多重化の際に、多重化部(MUX)1412は、所定のヘッダ情報等をビットストリームに付加することもできる。つまり、多重化部(MUX)1412は、多重化によりストリームのフォーマットを変換することができる。例えば、多重化部(MUX)1412は、ビデオストリームとオーディオストリームとを多重化することにより、転送用のフォーマットのビットストリームであるトランスポートストリームに変換する。また、例えば、多重化部(MUX)1412は、ビデオストリームとオーディオストリームとを多重化することにより、記録用のファイルフォーマットのデータ(ファイルデータ)に変換する。
逆多重化部(DMUX)1413は、多重化部(MUX)1412による多重化に対応する方法で、ビデオストリームとオーディオストリームとが多重化されたビットストリームを逆多重化する。つまり、逆多重化部(DMUX)1413は、ストリームバッファ1414から読み出されたビットストリームからビデオストリームとオーディオストリームとを抽出する(ビデオストリームとオーディオストリームとを分離する)。つまり、逆多重化部(DMUX)1413は、逆多重化によりストリームのフォーマットを変換(多重化部(MUX)1412による変換の逆変換)することができる。例えば、逆多重化部(DMUX)1413は、例えばコネクティビティ1321やブロードバンドモデム1333等(いずれも図41)から供給されたトランスポートストリームを、ストリームバッファ1414を介して取得し、逆多重化することにより、ビデオストリームとオーディオストリームとに変換することができる。また、例えば、逆多重化部(DMUX)1413は、例えばコネクティビティ1321により(図41)各種記録媒体から読み出されたファイルデータを、ストリームバッファ1414を介して取得し、逆多重化することにより、ビデオストリームとオーディオストリームとに変換することができる。
ストリームバッファ1414は、ビットストリームをバッファリングする。例えば、ストリームバッファ1414は、多重化部(MUX)1412から供給されたトランスポートストリームをバッファリングし、所定のタイミングにおいて、若しくは外部からの要求等に基づいて、例えばコネクティビティ1321やブロードバンドモデム1333(いずれも図41)等に供給する。
また、例えば、ストリームバッファ1414は、多重化部(MUX)1412から供給されたファイルデータをバッファリングし、所定のタイミングにおいて、若しくは外部からの要求等に基づいて、例えばコネクティビティ1321(図41)等に供給し、各種記録媒体に記録させる。
さらに、ストリームバッファ1414は、例えばコネクティビティ1321やブロードバンドモデム1333等(いずれも図41)を介して取得したトランスポートストリームをバッファリングし、所定のタイミングにおいて、若しくは外部からの要求等に基づいて、逆多重化部(DMUX)1413に供給する。
また、ストリームバッファ1414は、例えばコネクティビティ1321(図41)等において各種記録媒体から読み出されたファイルデータをバッファリングし、所定のタイミングにおいて、若しくは外部からの要求等に基づいて、逆多重化部(DMUX)1413に供給する。
次に、このような構成のビデオプロセッサ1332の動作の例について説明する。例えば、コネクティビティ1321(図41)等からビデオプロセッサ1332に入力されたビデオ信号は、ビデオ入力処理部1401において4:2:2Y/Cb/Cr方式等の所定の方式のデジタル画像データに変換され、フレームメモリ1405に順次書き込まれる。このデジタル画像データは、第1画像拡大縮小部1402または第2画像拡大縮小部1403に読み出されて、4:2:0Y/Cb/Cr方式等の所定の方式へのフォーマット変換および拡大縮小処理が行われ、再びフレームメモリ1405に書き込まれる。この画像データは、エンコード・デコードエンジン1407によって符号化され、ビデオストリームとしてビデオESバッファ1408Aに書き込まれる。
また、コネクティビティ1321(図41)等からビデオプロセッサ1332に入力されたオーディオ信号は、オーディオエンコーダ1410によって符号化され、オーディオストリームとして、オーディオESバッファ1409Aに書き込まれる。
ビデオESバッファ1408Aのビデオストリームと、オーディオESバッファ1409Aのオーディオストリームは、多重化部(MUX)1412に読み出されて多重化され、トランスポートストリーム若しくはファイルデータ等に変換される。多重化部(MUX)1412により生成されたトランスポートストリームは、ストリームバッファ1414にバッファされた後、例えばコネクティビティ1321やブロードバンドモデム1333(いずれも図41)等を介して外部ネットワークに出力される。また、多重化部(MUX)1412により生成されたファイルデータは、ストリームバッファ1414にバッファされた後、例えばコネクティビティ1321(図41)等に出力され、各種記録媒体に記録される。
また、例えばコネクティビティ1321やブロードバンドモデム1333(いずれも図41)等を介して外部ネットワークからビデオプロセッサ1332に入力されたトランスポートストリームは、ストリームバッファ1414にバッファされた後、逆多重化部(DMUX)1413により逆多重化される。また、例えばコネクティビティ1321(図41)等において各種記録媒体から読み出され、ビデオプロセッサ1332に入力されたファイルデータは、ストリームバッファ1414にバッファされた後、逆多重化部(DMUX)1413により逆多重化される。つまり、ビデオプロセッサ1332に入力されたトランスポートストリームまたはファイルデータは、逆多重化部(DMUX)1413によりビデオストリームとオーディオストリームとに分離される。
オーディオストリームは、オーディオESバッファ1409Bを介してオーディオデコーダ1411に供給され、復号されてオーディオ信号が再生される。また、ビデオストリームは、ビデオESバッファ1408Bに書き込まれた後、エンコード・デコードエンジン1407により順次読み出されて復号されてフレームメモリ1405に書き込まれる。復号された画像データは、第2画像拡大縮小部1403によって拡大縮小処理されて、フレームメモリ1405に書き込まれる。そして、復号された画像データは、ビデオ出力処理部1404に読み出されて、4:2:2Y/Cb/Cr方式等の所定の方式にフォーマット変換され、さらにアナログ信号に変換されて、ビデオ信号が再生出力される。
このように構成されるビデオプロセッサ1332に本技術を適用する場合、エンコード・デコードエンジン1407に、上述した各実施形態に係る本技術を適用すればよい。つまり、例えば、エンコード・デコードエンジン1407が、第1実施の形態に係る符号化装置や復号装置の機能を有するようにすればよい。このようにすることにより、ビデオプロセッサ1332は、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
なお、エンコード・デコードエンジン1407において、本技術(すなわち、上述した各実施形態に係る画像符号化装置や画像復号装置の機能)は、論理回路等のハードウエアにより実現するようにしてもよいし、組み込みプログラム等のソフトウエアにより実現するようにしてもよいし、それらの両方により実現するようにしてもよい。
(ビデオプロセッサの他の構成例)
図43は、本技術を適用したビデオプロセッサ1332(図41)の概略的な構成の他の例を示している。図43の例の場合、ビデオプロセッサ1332は、ビデオデータを所定の方式で符号化・復号する機能を有する。
より具体的には、図43に示されるように、ビデオプロセッサ1332は、制御部1511、ディスプレイインタフェース1512、ディスプレイエンジン1513、画像処理エンジン1514、および内部メモリ1515を有する。また、ビデオプロセッサ1332は、コーデックエンジン1516、メモリインタフェース1517、多重化・逆多重化部(MUX DMUX)1518、ネットワークインタフェース1519、およびビデオインタフェース1520を有する。
制御部1511は、ディスプレイインタフェース1512、ディスプレイエンジン1513、画像処理エンジン1514、およびコーデックエンジン1516等、ビデオプロセッサ1332内の各処理部の動作を制御する。
図43に示されるように、制御部1511は、例えば、メインCPU1531、サブCPU1532、およびシステムコントローラ1533を有する。メインCPU1531は、ビデオプロセッサ1332内の各処理部の動作を制御するためのプログラム等を実行する。メインCPU1531は、そのプログラム等に従って制御信号を生成し、各処理部に供給する(つまり、各処理部の動作を制御する)。サブCPU1532は、メインCPU1531の補助的な役割を果たす。例えば、サブCPU1532は、メインCPU1531が実行するプログラム等の子プロセスやサブルーチン等を実行する。システムコントローラ1533は、メインCPU1531およびサブCPU1532が実行するプログラムを指定する等、メインCPU1531およびサブCPU1532の動作を制御する。
ディスプレイインタフェース1512は、制御部1511の制御の下、画像データを例えばコネクティビティ1321(図41)等に出力する。例えば、ディスプレイインタフェース1512は、デジタルデータの画像データをアナログ信号に変換し、再生されたビデオ信号として、またはデジタルデータの画像データのまま、コネクティビティ1321(図41)のモニタ装置等に出力する。
ディスプレイエンジン1513は、制御部1511の制御の下、画像データに対して、その画像を表示させるモニタ装置等のハードウエアスペックに合わせるように、フォーマット変換、サイズ変換、色域変換等の各種変換処理を行う。
画像処理エンジン1514は、制御部1511の制御の下、画像データに対して、例えば画質改善のためのフィルタ処理等、所定の画像処理を施す。
内部メモリ1515は、ディスプレイエンジン1513、画像処理エンジン1514、およびコーデックエンジン1516により共用される、ビデオプロセッサ1332の内部に設けられたメモリである。内部メモリ1515は、例えば、ディスプレイエンジン1513、画像処理エンジン1514、およびコーデックエンジン1516の間で行われるデータの授受に利用される。例えば、内部メモリ1515は、ディスプレイエンジン1513、画像処理エンジン1514、またはコーデックエンジン1516から供給されるデータを格納し、必要に応じて(例えば、要求に応じて)、そのデータを、ディスプレイエンジン1513、画像処理エンジン1514、またはコーデックエンジン1516に供給する。この内部メモリ1515は、どのような記憶デバイスにより実現するようにしてもよいが、一般的にブロック単位の画像データやパラメータ等といった小容量のデータの格納に利用することが多いので、例えばSRAM(Static Random Access Memory)のような比較的(例えば外部メモリ1312と比較して)小容量だが応答速度が高速な半導体メモリにより実現するのが望ましい。
コーデックエンジン1516は、画像データの符号化や復号に関する処理を行う。このコーデックエンジン1516が対応する符号化・復号の方式は任意であり、その数は1つであってもよいし、複数であってもよい。例えば、コーデックエンジン1516は、複数の符号化・復号方式のコーデック機能を備え、その中から選択されたもので画像データの符号化若しくは符号化データの復号を行うようにしてもよい。
図43に示される例において、コーデックエンジン1516は、コーデックに関する処理の機能ブロックとして、例えば、MPEG-2 Video1541、AVC/H.2641542、HEVC/H.2651543、HEVC/H.265(Scalable)1544、HEVC/H.265(Multi-view)1545、およびMPEG-DASH1551を有する。
MPEG-2 Video1541は、画像データをMPEG-2方式で符号化したり復号したりする機能ブロックである。AVC/H.2641542は、画像データをAVC方式で符号化したり復号したりする機能ブロックである。HEVC/H.2651543は、画像データをHEVC方式で符号化したり復号したりする機能ブロックである。HEVC/H.265(Scalable)1544は、画像データをHEVC方式でスケーラブル符号化したりスケーラブル復号したりする機能ブロックである。HEVC/H.265(Multi-view)1545は、画像データをHEVC方式で多視点符号化したり多視点復号したりする機能ブロックである。
MPEG-DASH1551は、画像データをMPEG-DASH(MPEG-Dynamic Adaptive Streaming over HTTP)方式で送受信する機能ブロックである。MPEG-DASHは、HTTP(HyperText Transfer Protocol)を使ってビデオのストリーミングを行う技術であり、予め用意された解像度等が互いに異なる複数の符号化データの中から適切なものをセグメント単位で選択し伝送することを特徴の1つとする。MPEG-DASH1551は、規格に準拠するストリームの生成やそのストリームの伝送制御等を行い、画像データの符号化・復号については、上述したMPEG-2 Video1541乃至HEVC/H.265(Multi-view)1545を利用する。
メモリインタフェース1517は、外部メモリ1312用のインタフェースである。画像処理エンジン1514やコーデックエンジン1516から供給されるデータは、メモリインタフェース1517を介して外部メモリ1312に供給される。また、外部メモリ1312から読み出されたデータは、メモリインタフェース1517を介してビデオプロセッサ1332(画像処理エンジン1514若しくはコーデックエンジン1516)に供給される。
多重化・逆多重化部(MUX DMUX)1518は、符号化データのビットストリーム、画像データ、ビデオ信号等、画像に関する各種データの多重化や逆多重化を行う。この多重化・逆多重化の方法は任意である。例えば、多重化の際に、多重化・逆多重化部(MUX DMUX)1518は、複数のデータを1つにまとめるだけでなく、所定のヘッダ情報等をそのデータに付加することもできる。また、逆多重化の際に、多重化・逆多重化部(MUX DMUX)1518は、1つのデータを複数に分割するだけでなく、分割した各データに所定のヘッダ情報等を付加することもできる。つまり、多重化・逆多重化部(MUX DMUX)1518は、多重化・逆多重化によりデータのフォーマットを変換することができる。例えば、多重化・逆多重化部(MUX DMUX)1518は、ビットストリームを多重化することにより、転送用のフォーマットのビットストリームであるトランスポートストリームや、記録用のファイルフォーマットのデータ(ファイルデータ)に変換することができる。もちろん、逆多重化によりその逆変換も可能である。
ネットワークインタフェース1519は、例えばブロードバンドモデム1333やコネクティビティ1321(いずれも図41)等向けのインタフェースである。ビデオインタフェース1520は、例えばコネクティビティ1321やカメラ1322(いずれも図41)等向けのインタフェースである。
次に、このようなビデオプロセッサ1332の動作の例について説明する。例えば、コネクティビティ1321やブロードバンドモデム1333(いずれも図41)等を介して外部ネットワークからトランスポートストリームを受信すると、そのトランスポートストリームは、ネットワークインタフェース1519を介して多重化・逆多重化部(MUX DMUX)1518に供給されて逆多重化され、コーデックエンジン1516により復号される。コーデックエンジン1516の復号により得られた画像データは、例えば、画像処理エンジン1514により所定の画像処理が施され、ディスプレイエンジン1513により所定の変換が行われ、ディスプレイインタフェース1512を介して例えばコネクティビティ1321(図41)等に供給され、その画像がモニタに表示される。また、例えば、コーデックエンジン1516の復号により得られた画像データは、コーデックエンジン1516により再符号化され、多重化・逆多重化部(MUX DMUX)1518により多重化されてファイルデータに変換され、ビデオインタフェース1520を介して例えばコネクティビティ1321(図41)等に出力され、各種記録媒体に記録される。
さらに、例えば、コネクティビティ1321(図41)等により図示せぬ記録媒体から読み出された、画像データが符号化された符号化データのファイルデータは、ビデオインタフェース1520を介して多重化・逆多重化部(MUX DMUX)1518に供給されて逆多重化され、コーデックエンジン1516により復号される。コーデックエンジン1516の復号により得られた画像データは、画像処理エンジン1514により所定の画像処理が施され、ディスプレイエンジン1513により所定の変換が行われ、ディスプレイインタフェース1512を介して例えばコネクティビティ1321(図41)等に供給され、その画像がモニタに表示される。また、例えば、コーデックエンジン1516の復号により得られた画像データは、コーデックエンジン1516により再符号化され、多重化・逆多重化部(MUX DMUX)1518により多重化されてトランスポートストリームに変換され、ネットワークインタフェース1519を介して例えばコネクティビティ1321やブロードバンドモデム1333(いずれも図41)等に供給され図示せぬ他の装置に伝送される。
なお、ビデオプロセッサ1332内の各処理部の間での画像データやその他のデータの授受は、例えば、内部メモリ1515や外部メモリ1312を利用して行われる。また、パワーマネージメントモジュール1313は、例えば制御部1511への電力供給を制御する。
このように構成されるビデオプロセッサ1332に本技術を適用する場合、コーデックエンジン1516に、上述した各実施形態に係る本技術を適用すればよい。つまり、例えば、コーデックエンジン1516が、第1実施の形態に係る符号化装置や復号装置を実現する機能ブロックを有するようにすればよい。さらに、例えば、コーデックエンジン1516が、このようにすることにより、ビデオプロセッサ1332は、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
なお、コーデックエンジン1516において、本技術(すなわち、上述した各実施形態に係る画像符号化装置や画像復号装置の機能)は、論理回路等のハードウエアにより実現するようにしてもよいし、組み込みプログラム等のソフトウエアにより実現するようにしてもよいし、それらの両方により実現するようにしてもよい。
以上にビデオプロセッサ1332の構成を2例示したが、ビデオプロセッサ1332の構成は任意であり、上述した2例以外のものであってもよい。また、このビデオプロセッサ1332は、1つの半導体チップとして構成されるようにしてもよいが、複数の半導体チップとして構成されるようにしてもよい。例えば、複数の半導体を積層する3次元積層LSIとしてもよい。また、複数のLSIにより実現されるようにしてもよい。
(装置への適用例)
ビデオセット1300は、画像データを処理する各種装置に組み込むことができる。例えば、ビデオセット1300は、テレビジョン装置900(図34)、携帯電話機920(図35)、記録再生装置940(図36)、撮像装置960(図37)等に組み込むことができる。ビデオセット1300を組み込むことにより、その装置は、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
また、ビデオセット1300は、例えば、図38のデータ伝送システム1000におけるパーソナルコンピュータ1004、AV機器1005、タブレットデバイス1006、および携帯電話機1007等の端末装置、図39のデータ伝送システム1100における放送局1101および端末装置1102、並びに、図40の撮像システム1200における撮像装置1201およびスケーラブル符号化データ記憶装置1202等にも組み込むことができる。ビデオセット1300を組み込むことにより、その装置は、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
なお、上述したビデオセット1300の各構成の一部であっても、ビデオプロセッサ1332を含むものであれば、本技術を適用した構成として実施することができる。例えば、ビデオプロセッサ1332のみを本技術を適用したビデオプロセッサとして実施することができる。また、例えば、上述したように点線1341により示されるプロセッサやビデオモジュール1311等を本技術を適用したプロセッサやモジュール等として実施することができる。さらに、例えば、ビデオモジュール1311、外部メモリ1312、パワーマネージメントモジュール1313、およびフロントエンドモジュール1314を組み合わせ、本技術を適用したビデオユニット1361として実施することもできる。いずれの構成の場合であっても、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
つまり、ビデオプロセッサ1332を含むものであればどのような構成であっても、ビデオセット1300の場合と同様に、画像データを処理する各種装置に組み込むことができる。例えば、ビデオプロセッサ1332、点線1341により示されるプロセッサ、ビデオモジュール1311、または、ビデオユニット1361を、テレビジョン装置900(図34)、携帯電話機920(図35)、記録再生装置940(図36)、撮像装置960(図37)、図38のデータ伝送システム1000におけるパーソナルコンピュータ1004、AV機器1005、タブレットデバイス1006、および携帯電話機1007等の端末装置、図39のデータ伝送システム1100における放送局1101および端末装置1102、並びに、図40の撮像システム1200における撮像装置1201およびスケーラブル符号化データ記憶装置1202等に組み込むことができる。そして、本技術を適用したいずれかの構成を組み込むことにより、その装置は、ビデオセット1300の場合と同様に、図1乃至図12を参照して上述した効果と同様の効果を得ることができる。
なお、本明細書では、色域情報や輝度情報などの各種情報が、符号化データに多重化されて、符号化側から復号側へ伝送される例について説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化データに多重化されることなく、符号化データと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライスやブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、符号化データとは別の伝送路上で伝送されてもよい。また、情報は、符号化データとは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と符号化データとは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本開示は、以下のような構成もとることができる。
<1> 画像の符号化データ、および前記画像のオーサリング時に前記画像を表示する表示部における所定の色の輝度を表す輝度情報を含む符号化ストリームを伝送する符号化装置から、前記符号化ストリームを受け取る受け取り部と、
前記受け取り部により受け取られた前記符号化ストリームから、前記符号化データ、および前記輝度情報を抽出する抽出部と、
前記抽出部により抽出された前記符号化データを復号し、前記画像を生成する復号部と、
前記抽出部により抽出された前記輝度情報に基づいて、前記復号部により生成された前記画像のダイナミックレンジを調整する調整部と
を備える復号装置。
<2> 前記符号化装置は、前記画像の色域を表す色域情報を更に含む符号化ストリームを伝送する
<1>に記載の復号装置。
<3> 前記輝度情報は、前記表示部の白色および黒色のうちの少なくとも1つの色の輝度を表す
ように構成された
<1>または<2>に記載の復号装置。
<4> 前記輝度情報は、前記表示部の白色および黒色の輝度を表す
ように構成された
<3>に記載の復号装置。
<5> 復号装置が、
画像の符号化データ、および前記画像のオーサリング時に前記画像を表示する表示部における所定の色の輝度を表す輝度情報を含む符号化ストリームを伝送する符号化装置から、前記符号化ストリームを受け取る受け取りステップと、
前記受け取りステップの処理により受け取られた前記符号化ストリームから、前記符号化データ、および前記輝度情報を抽出する抽出ステップと、
前記抽出ステップの処理により抽出された前記符号化データを復号し、前記画像を生成する復号ステップと、
前記抽出ステップの処理により抽出された前記輝度情報に基づいて、前記復号ステップの処理により生成された前記画像のダイナミックレンジを調整する調整ステップと
を含む復号方法。
<6> 前記符号化装置は、前記画像の色域を表す色域情報を更に含む符号化ストリームを伝送する
<5>に記載の復号方法。
<7> 前記輝度情報は、前記表示部の白色および黒色のうちの少なくとも1つの色の輝度を表す
ように構成された
<5>または<6>に記載の復号方法。
<8> 前記輝度情報は、前記表示部の白色および黒色の輝度を表す
ように構成された
<7>に記載の復号方法。