JP2019118151A - Transmission device, transmission method, reception device, and reception method - Google Patents

Transmission device, transmission method, reception device, and reception method Download PDF

Info

Publication number
JP2019118151A
JP2019118151A JP2019083495A JP2019083495A JP2019118151A JP 2019118151 A JP2019118151 A JP 2019118151A JP 2019083495 A JP2019083495 A JP 2019083495A JP 2019083495 A JP2019083495 A JP 2019083495A JP 2019118151 A JP2019118151 A JP 2019118151A
Authority
JP
Japan
Prior art keywords
data
component
stream
information
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019083495A
Other languages
Japanese (ja)
Other versions
JP6658944B2 (en
Inventor
塚越 郁夫
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019083495A priority Critical patent/JP6658944B2/en
Publication of JP2019118151A publication Critical patent/JP2019118151A/en
Priority to JP2020004923A priority patent/JP6958645B2/en
Application granted granted Critical
Publication of JP6658944B2 publication Critical patent/JP6658944B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To prevent the occurrence of image disturbance on a reception side in a case where plural types of transmission video data of different dynamic ranges are mixed and transmitted.SOLUTION: A transmission device transmits a container of a predetermined format containing a first component stream having, as component data, transmission video data obtained by switching plural types of transmission video data and a predetermined number of second component streams having other component data. Dynamic range information of component data belonging to each component stream is inserted to each component stream.SELECTED DRAWING: Figure 2

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、詳しくは、ビデオストリームと共にグラフィックスデータや字幕データなどを持つ他のストリームを送信する送信装置等に関する。   The present technology relates to a transmitting device, a transmitting method, a receiving device and a receiving method, and more particularly to a transmitting device that transmits another stream having graphics data, subtitle data, etc. together with a video stream.

通常ダイナミックレンジの伝送ビデオデータとハイダイナミックレンジの伝送ビデオデータとが混在して送信される場合がある。以下、適宜、通常ダイナミックレンジを「SDR」と表記すると共に、ハイダイナミックレンジを「HDR」と表記する。この場合、通常ダイナミックレンジの伝送ビデオデータは通常ダイナミックレンジビデオデータに通常ダイナミックレンジ光電変換を適用して得られたものであり、ハイダイナミックレンジの伝送ビデオデータはハイダイナミックレンジビデオデータにハイダイナミックレンジ光電変換を適用して得られたものである。例えば、非特許文献1には、従来受信機による受信を考慮した、従来の光電変換特性(ガンマ特性)との互換領域を含むHDR光電変換特性(新ガンマ特性)についての記載がある。   Usually, transmission video data of a dynamic range and transmission video data of a high dynamic range may be mixed and transmitted. Hereinafter, the dynamic range is usually referred to as "SDR" and the high dynamic range is referred to as "HDR" as appropriate. In this case, the normal dynamic range transmission video data is obtained by applying the normal dynamic range photoelectric conversion to the normal dynamic range video data, and the high dynamic range transmission video data has a high dynamic range to the high dynamic range video data. It is obtained by applying photoelectric conversion. For example, Non-Patent Document 1 describes a HDR photoelectric conversion characteristic (new gamma characteristic) including a compatible region with a conventional photoelectric conversion characteristic (gamma characteristic) in consideration of reception by a conventional receiver.

通常ダイナミックレンジの伝送ビデオデータとハイダイナミックレンジの伝送ビデオデータの切り替えは、例えば、番組切り替えやCM挿入のタイミングで発生する可能性がある。このような切り替えがある場合、受信側では電光変換特性を切り替えることが必要となるが、その切り替えに伴う画乱れが発生するか、あるいは画乱れを隠すために表示ミュートが行われる。   The switching of the transmission video data of the normal dynamic range and the transmission video data of the high dynamic range may occur, for example, at the timing of program switching or CM insertion. When such switching is performed, it is necessary to switch the electro-optical conversion characteristics on the receiving side, but image distortion may occur due to the switching, or display mute may be performed to hide the image disturbance.

画乱れが顕著に知覚できる例として、放送サービスの一つとして存在する、いわゆる“dボタン”操作によるグラフィックス表示があげられる。この場合、番組やCMを跨いでグラフィックスの重畳がなされるが、小窓に表示されるビデオデータによる画像がSDRからHDRあるいはHDRからSDRに切り替わる際に、グラフィックス表示における色や明るさが変化することが起こる。   As an example in which the distortion is noticeable, there is a graphic display by so-called "d-button" operation, which exists as one of broadcast services. In this case, graphics are superimposed across programs and CMs, but when the image by the video data displayed in the small window is switched from SDR to HDR or HDR to SDR, the color and brightness in the graphics display are It happens to change.

Tim Borer, “Non-Linear Opto-Electrical Transfer Functions for High Dynamic Range Television”, Research & Development White Paper WHP 283, July 2014Tim Borer, “Non-Linear Opto-Electrical Transfer Functions for High Dynamic Range Television”, Research & Development White Paper WHP 283, July 2014

本技術の目的は、ダイナミックレンジを異にする複数種類の伝送ビデオデータが混在して送信される場合にあって受信側における画乱れの発生を良好に防止可能とすることにある。   An object of the present technology is to prevent occurrence of distortion on the receiving side well in the case where a plurality of types of transmission video data having different dynamic ranges are mixed and transmitted.

本技術の概念は、
複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを送信する送信部と、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入する情報挿入部を備える
送信装置にある。
The concept of this technology is
A container of a predetermined format including a predetermined number of second component streams having other component data is transmitted together with the first component stream having transmission video data obtained by switching plural types of transmission video data as component data The transmitter to
A transmitting apparatus is provided with an information insertion unit that inserts dynamic range information of component data of each component stream into each of the component streams.

本技術において、送信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナが送信される。例えば、所定数の第2のコンポーネントストリームには、データ放送ストリームおよび/またはサブタイトルストリームが含まれる、ようにされてもよい。情報挿入部により、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入される。   In the present technology, a predetermined number of second component streams having other component data together with a first component stream having transmission video data obtained by switching transmission video data of a plurality of types by the transmission unit as component data A container of a predetermined format is sent, including For example, the predetermined number of second component streams may be configured to include a data broadcast stream and / or a subtitle stream. The information insertion unit inserts dynamic range information of component data of each component stream into each component stream.

このように本技術においては、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入するものである。そのため、受信側において各コンポーネントデータをそれぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して出力データを得ることが可能となる。   As described above, in the present technology, dynamic range information of component data of each component stream is inserted into each component stream. Therefore, on the receiving side, it is possible to obtain output data by combining each component data after performing luminance mapping processing to match display performance based on the respective dynamic range information.

この場合、この出力データに施す電光変換の特性を固定できることから、電光変換特性の切り替えに起因する画乱れの発生を防止することが可能となる。例えば、ビデオデータによる画像と共にグラフィックス表示がされるときに、ビデオデータによる画像がSDRからHDRあるいはHDRからSDRに切り換わったとしても、グラフィックス表示における色や明るさが変化することはなくなる。また、この場合、各コンポーネントデータに表示性能に合うように輝度マッピング処理が施されることから、各コンポーネントデータによる表示を常に適切な輝度状態で表示することが可能となる。   In this case, since the characteristics of electro-optical conversion to be applied to the output data can be fixed, it is possible to prevent the occurrence of distortion due to the switching of the electro-optical conversion characteristics. For example, when graphics are displayed together with an image by video data, even if the image by video data is switched from SDR to HDR or from HDR to SDR, there is no change in color or brightness in graphics display. Further, in this case, since the luminance mapping process is performed on each component data so as to match the display performance, it is possible to always display the display by each component data in an appropriate luminance state.

なお、本技術において、例えば、情報挿入部は、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報をさらに挿入する、ようにされてもよい。この場合、受信側において各コンポーネントデータをそれぞれの色域情報に基づいて表示性能に合うように色域変換を施した後に合成して出力データを得ることが可能となり、各コンポーネントデータによる表示を常に適切な色状態で表示することが可能となる。   In the present technology, for example, the information insertion unit may further insert color gamut information of component data of each component stream into each component stream. In this case, it is possible to obtain output data by combining each component data after performing color gamut conversion so as to match display performance based on the respective color gamut information on the receiving side, so that display by each component data is always performed. It becomes possible to display in an appropriate color state.

また、本技術において、例えば、コンテナのレイヤに、このコンテナに含まれる第1のコンポーネントストリームが持つ伝送ビデオデータの種類を示す識別情報を、切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入する情報挿入部をさらに備える、ようにされてもよい。この場合、受信側において、切り替えタイミングより所定の時間量以上だけ前のタイミングから、伝送ビデオデータの種類の切り替えがあること、さらには切り替え後の伝送ビデオデータの種類の認識が可能となる。   Further, in the present technology, for example, identification information indicating the type of transmission video data possessed by the first component stream included in the container is switched from the timing earlier by a predetermined amount of time than the switching timing to the layer of the container. The information insertion unit may further be inserted to indicate the type of later transmission video data. In this case, on the reception side, it becomes possible to switch the type of transmission video data from timing earlier than the switching timing by a predetermined amount of time or more and to recognize the type of transmission video data after switching.

また、本技術の他の概念は、
複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されており、
上記各コンポーネントストリームをデコードして複数のコンポーネントデータを得、該得られた複数のコンポーネントデータを合成して出力データを得る処理部をさらに備え、
上記処理部は、
上記各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して上記出力データを得る
受信装置にある。
Also, the other concept of this technology is
Receiving a container of a predetermined format including a predetermined number of second component streams having other component data, together with a first component stream having transmission video data obtained by switching between plural types of transmission video data as component data Equipped with a receiver to
Dynamic range information of the component data of each component stream is inserted in each of the above component streams,
The system further comprises a processing unit that decodes each of the component streams to obtain a plurality of component data and combines the obtained plurality of component data to obtain output data.
The above processing unit
The present invention is provided in a receiving apparatus for obtaining the output data by combining each component data described above with luminance mapping processing so as to match display performance based on the respective dynamic range information.

本技術において、受信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナが受信される。各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されている。   In the present technology, a predetermined number of second component streams having other component data as well as a first component stream having transmission video data obtained by switching a plurality of types of transmission video data as component data by the reception unit A container of a predetermined format is received, including Dynamic range information of component data of each component stream is inserted in each component stream.

処理部により、各コンポーネントストリームがデコードされて複数のコンポーネントデータが得られ、この複数のコンポーネントデータが合成されて出力データが得られる。処理部では、各コンポーネントデータが、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理が施された後に合成されて、出力データが得られる。   The processing unit decodes each component stream to obtain a plurality of component data, and combines the plurality of component data to obtain output data. In the processing unit, each component data is subjected to luminance mapping processing so as to match display performance based on the respective dynamic range information, and then synthesized to obtain output data.

このように本技術においては、各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して出力データを得るものである。そのため、この出力データに施す電光変換の特性を固定でき、電光変換特性の切り替えに起因する画乱れの発生を防止することが可能となる。また、各コンポーネントデータによる表示を常に適切な輝度状態で表示することが可能となる。   As described above, in the present technology, each component data is subjected to luminance mapping processing so as to match display performance based on the respective dynamic range information, and then combined to obtain output data. Therefore, it is possible to fix the characteristics of electro-optical conversion to be applied to the output data, and to prevent the occurrence of distortion due to the switching of the electro-optical conversion characteristics. In addition, it is possible to always display the display by each component data in an appropriate luminance state.

また、本技術において、例えば、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報がさらに挿入されており、処理部は、各コンポーネントデータを、それぞれの色域情報に基づいて表示性能に合うように色域変換処理を施した後に合成して出力データを得る、ようにされてもよい。この場合、各コンポーネントデータによる表示を常に適切な色状態で表示することが可能となる。   Further, in the present technology, for example, color gamut information of component data possessed by each component stream is further inserted into each component stream, and the processing unit displays each component data based on the respective color gamut information. It may be combined to obtain output data after being subjected to gamut conversion processing to match performance. In this case, the display by each component data can be always displayed in an appropriate color state.

本技術によれば、ダイナミックレンジを異にする複数種類の伝送ビデオデータが混在して送信される場合にあって受信側における画乱れの発生を良好に防止できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。   According to the present technology, in the case where a plurality of types of transmission video data having different dynamic ranges are mixed and transmitted, the occurrence of distortion on the receiving side can be favorably prevented. The effects described in the present specification are merely examples and are not limited, and additional effects may be present.

実施の形態としての送受信システムの構成例を示すブロック図である。It is a block diagram showing an example of composition of a transmitting and receiving system as an embodiment. サービス送信システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of a service transmission system. 光電変換特性を説明するための図である。It is a figure for demonstrating a photoelectric conversion characteristic. 伝送ビデオデータの切り換えタイミングと、換え後の伝送ビデオデータを識別するための識別情報の挿入タイミングとの関係を説明するための図である。It is a figure for demonstrating the relationship between the switching timing of transmission video data, and the insertion timing of the identification information for identifying the transmission video data after replacement | exchange. HDR・ビデオ・デスクリプタの構造例を示す図である。It is a figure which shows the structural example of a HDR * video descriptor. HDR・ビデオ・デスクリプタの構造例における主要な情報の内容を示す図である。It is a figure which shows the content of the main information in the structural example of a HDR * video descriptor. HDR・サブタイトル・デスクリプタの構造例を示す図である。It is a figure which shows the structural example of a HDR * subtitle * descriptor. MPEG−2 TSのトランスポートストリームの構造例を示す図である。It is a figure which shows the structural example of the transport stream of MPEG-2 TS. MMTのトランスポートストリームの構造例を示す図である。It is a figure which shows the structural example of the transport stream of MMT. サービス受信機の構成例を示すブロック図である。It is a block diagram which shows the structural example of a service receiver. 表示性能がHDRである場合における輝度マッピング処理の概要を示す図である。It is a figure which shows the outline | summary of the luminance mapping process in, when display performance is HDR. 表示性能がHDRかつ広色域である場合における画面合成処理部の構成例を示すブロック図である。It is a block diagram showing an example of composition of a picture composition processing part in case display performance is HDR and a wide color gamut. 輝度マッピング部の構成を説明するための図である。It is a figure for demonstrating the structure of a brightness | luminance mapping part. 表示性能がHDRであり、入力伝送ビデオデータがSDR伝送ビデオデータである場合における輝度マッピング部について説明するための図である。It is a figure for demonstrating the brightness | luminance mapping part in case display performance is HDR and input transmission video data is SDR transmission video data. 表示性能がHDRであり、入力伝送ビデオデータがHDR伝送ビデオデータである場合における輝度マッピング部について説明するための図である。It is a figure for demonstrating a brightness | luminance mapping part in case display performance is HDR and input transmission video data is HDR transmission video data. 表示性能がSDRであり、入力伝送ビデオデータがHDR伝送ビデオデータである場合における輝度マッピング部について説明するための図である。It is a figure for demonstrating a brightness | luminance mapping part in case display performance is SDR and input transmission video data is HDR transmission video data. 放送サービスの一つとして存在する“dボタン”操作によるグラフィックス表示の例を示す図である。It is a figure which shows the example of the graphics display by "d button" operation which exists as one of broadcast services.

以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be made in the following order.
1. Embodiment 2. Modified example

<1.実施の形態>
[送受信システムの構成例]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信システム100とサービス受信機200により構成されている。サービス送信システム100は、コンテナとしてのMPEG−2 TS(MPEG-2 Transport Stream)あるいはMMT(MPEG Media Transport)のトランスポートストリーム(多重化ストリーム)を生成し、このトランスポートストリームを放送波あるいはネットのパケットに載せて送信する。
<1. Embodiment>
[Example configuration of transmission / reception system]
FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment. The transmission / reception system 10 is configured of a service transmission system 100 and a service receiver 200. The service transmission system 100 generates a transport stream (multiplexed stream) of MPEG-2 TS (MPEG-2 Transport Stream) or MMT (MPEG Media Transport) as a container, and this transport stream is broadcast waves or nets. Put it in a packet and send it.

このトランスポートストリームには、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリーム(ビデオストリーム)と共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームが含まれる。所定数の第2のコンポーネントストリームに、例えば、データサービスストリーム(データ放送ストリーム)および/またはサブタイトルストリームが含まれ、この実施の形態ではデータ放送ストリームおよびサブタイトルストリームが含まれる。データサービスストリームは、コンポーネントデータとして、例えば、グラフィックスデータ、イメージデータなどを持つ。サブタイトルストリームは、コンポーネントデータとして、字幕データを持つ。   In this transport stream, a first component stream (video stream) having transmission video data obtained by switching transmission video data of a plurality of types as component data, and a predetermined number of second having another component data Component stream of The predetermined number of second component streams include, for example, data service streams (data broadcast streams) and / or subtitle streams, and in this embodiment, data broadcast streams and subtitle streams are included. The data service stream has, for example, graphics data, image data, etc. as component data. The subtitle stream has subtitle data as component data.

各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入される。また、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報が挿入される。また、トランスポートストリームに、それに含まれる第1のコンポーネントストリームが持つ伝送ビデオデータの種類を示す識別情報が、切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入される。   Dynamic range information of component data of each component stream is inserted into each component stream. Also, color gamut information of component data possessed by each component stream is inserted into each component stream. Also, identification information indicating the type of transmission video data possessed by the first component stream included in the transport stream is the type of transmission video data after switching from a timing earlier than the switching timing by a predetermined time amount or more. Inserted as shown.

サービス受信機200は、サービス送信システム100から送信されてくる、上述のトランスポートストリーム(MPEG−2 TSあるいはMMTのトランスポートストリーム)を受信する。サービス受信機200は、各コンポーネントストリームをデコードして複数のコンポーネントデータを得、この得られた複数のコンポーネントデータを合成して出力データを得る。   The service receiver 200 receives the above-described transport stream (a transport stream of MPEG-2 TS or MMT) transmitted from the service transmission system 100. The service receiver 200 decodes each component stream to obtain a plurality of component data, and combines the obtained plurality of component data to obtain output data.

この場合、各コンポーネントデータが、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理が施された後に合成されて、出力データが得られる。さらに、この実施の形態では、各コンポーネントデータが、それぞれの色域情報に基づいて表示性能に合うように色域変換処理が施された後に合成されて、出力データが得られる。   In this case, each component data is subjected to luminance mapping processing so as to match display performance based on the respective dynamic range information and then synthesized to obtain output data. Furthermore, in this embodiment, each component data is subjected to color gamut conversion processing so as to match display performance based on the respective color gamut information, and then combined to obtain output data.

サービス受信機200は、この出力データに電光変換(電光変換特性は固定)を施して表示用画像データを得、この表示用画像データによる画像表示をする。   The service receiver 200 performs electro-optical conversion (electro-optical conversion characteristics are fixed) on the output data to obtain display image data, and displays an image based on the display image data.

「サービス送信システムの構成例」
図2は、サービス送信システム100の構成例を示している。このサービス送信システム100は、制御部101と、ビデオエンコーダ102と、データサービスエンコーダ103と、静止画エンコーダ104と、サブタイトルエンコーダ105と、コンテナエンコーダ106と、送信部107を有している。
"Configuration example of service transmission system"
FIG. 2 shows a configuration example of the service transmission system 100. The service transmission system 100 includes a control unit 101, a video encoder 102, a data service encoder 103, a still image encoder 104, a subtitle encoder 105, a container encoder 106, and a transmission unit 107.

制御部101は、CPU(Central Processing Unit)を備えて構成され、制御プログラムに基づいて、サービス送信システム100の各部の動作を制御する。ビデオエンコーダ102は、入力される伝送ビデオデータに対して、例えば、MPEG4−AVCあるいはHEVCなどの符号化を施して符号化ビデオデータを得、この符号化ビデオデータを含む、コンポーネントストリームとしてのビデオストリームVSを生成する。このビデオストリームVSには、コンポーネントデータとしての伝送ビデオデータが含まれている。   The control unit 101 includes a CPU (Central Processing Unit), and controls the operation of each unit of the service transmission system 100 based on a control program. The video encoder 102 performs coding such as MPEG4-AVC or HEVC on input transmission video data to obtain coded video data, and a video stream as a component stream including the coded video data. Generate VS. The video stream VS includes transmission video data as component data.

入力される伝送ビデオデータは、複数の種類の伝送ビデオデータを切り替えて得られたものである。複数の種類の伝送ビデオデータには、例えば、通常ダイナミックレンジの伝送ビデオデータとハイダイナミックレンジの伝送ビデオデータが含まれる。ここで、通常ダイナミックレンジの伝送ビデオデータは、通常ダイナミックレンジビデオデータに通常ダイナミックレンジ光電変換を適用して得られたものである。また、ハイダイナミックレンジの伝送ビデオデータは、ハイダイナミックレンジビデオデータにハイダイナミックレンジ光電変換を適用して得られたものである。   The input transmission video data is obtained by switching between a plurality of types of transmission video data. The plurality of types of transmission video data include, for example, transmission video data of a normal dynamic range and transmission video data of a high dynamic range. Here, the transmission video data of the normal dynamic range is obtained by applying the normal dynamic range photoelectric conversion to the normal dynamic range video data. In addition, high dynamic range transmission video data is obtained by applying high dynamic range photoelectric conversion to high dynamic range video data.

図3は、物理空間の線形な光の輝度を有限帯域の伝送空間に変換する際に用いられる、非線形な輝度符号値特性を表す、いわゆる光電変換特性の例を示している。この図において、横軸は入力輝度レベルを示し、縦軸は伝送符号値を示す。曲線aは、入力輝度レベルが0〜100%の通常ダイナミックレンジビデオデータに適用されるSDR光電変換特性の例を示している。また、曲線b1は、入力輝度レベルが0〜N*100%のハイダイナミックレンジビデオデータに適用されるHDR光電変換特性の例(SDR光電変換特性と互換性を持つ例)を示している。この例の場合、入力輝度レベルが互換限界値までは、SDR光電変換特性と一致している。入力輝度レベルが互換限界値であるとき、伝送符号値は互換レベルとなる。   FIG. 3 shows an example of so-called photoelectric conversion characteristics representing non-linear luminance code value characteristics, which are used when converting the luminance of linear light in physical space into a transmission space of a finite band. In this figure, the horizontal axis indicates the input luminance level, and the vertical axis indicates the transmission code value. Curve a shows an example of SDR photoelectric conversion characteristics applied to normal dynamic range video data having an input luminance level of 0 to 100%. A curve b1 indicates an example of HDR photoelectric conversion characteristics applied to high dynamic range video data having an input luminance level of 0 to N * 100% (an example compatible with SDR photoelectric conversion characteristics). In the case of this example, the input luminance level up to the compatibility limit matches the SDR photoelectric conversion characteristic. When the input luminance level is at the compatibility limit value, the transmission code value is at the compatibility level.

また、曲線b2は、入力輝度レベルが0〜N*100%のハイダイナミックレンジビデオデータに適用されるHDR光電変換特性の例(SDR光電変換特性と互換性を持たない例)を示している。さらに、曲線b3は、入力輝度レベルが0〜M*100%のハイダイナミックレンジビデオデータに適用されるHDR光電変換特性の例(SDR光電変換特性と互換性を持たない例)を示している。ここで、N、Mはそれぞれ1より大きい数であり、M<Nである。なお、この例ではM<Nとしているが、一般的な場合も含めると、b2とb3の最高輝度の関係は、M≧Nでもよい。   A curve b2 indicates an example of the HDR photoelectric conversion characteristic applied to high dynamic range video data having an input luminance level of 0 to N * 100% (an example having no compatibility with the SDR photoelectric conversion characteristic). Furthermore, a curve b3 indicates an example of the HDR photoelectric conversion characteristic applied to high dynamic range video data with an input luminance level of 0 to M * 100% (an example having no compatibility with the SDR photoelectric conversion characteristic). Here, N and M each are a number larger than 1, and M <N. Although M <N in this example, the relationship between the maximum brightness of b2 and b3 may be MMN, including the general case.

図2に戻って、ビデオエンコーダ102には、入力される伝送ビデオデータのダイナミックレンジ情報および色域情報が入力される。ビデオエンコーダ102は、このダイナミックレンジ情報および色域情報を、ビデオストリームVSに挿入する。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   Returning to FIG. 2, the video encoder 102 receives dynamic range information and color gamut information of the input transmission video data. The video encoder 102 inserts this dynamic range information and gamut information into the video stream VS. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data.

このとき、ビデオエンコーダ102は、アクセスユニット(AU)のSPS NALユニットのVUI(video usability information)の領域に、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)、伝送ビデオデータの色域情報、リファレンスレベルを示す情報などのメタ情報を挿入する。また、ビデオエンコーダ102は、アクセスユニット(AU)の“SEIs”の部分に、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)、リファレンスレベルの情報などのメタ情報を持つSEIメッセージ(SEI message)を挿入する。   At this time, the video encoder 102 includes information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic possessed by the transmission video data in the region of VUI (video usability information) of the SPS NAL unit of the access unit (AU), Meta information such as color gamut information of transmission video data and information indicating a reference level is inserted. In addition, the video encoder 102 also includes meta information such as information (transfer function) indicating the electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic possessed by the transmission video data in the “SEIs” portion of the access unit (AU), and reference level information. Insert a SEI message with a (SEI message).

ここで、SEIメッセージに、電光変換特性を示す情報を持たせるのは、伝送ビデオデータがHDR伝送ビデオデータであっても、HDR光電変換特性がSDR光電変換特性と互換性を持つ場合、SPS NALユニットのVUIには、従来のSDR対応受信機が識別できるようにSDR光電変換特性に対応した電光変換特性(ガンマ特性)を示す情報が挿入されるので、HDR対応受信機が受信したビデオがHDRであることを識別できるためにはVUI以外の場所にHDR光電変換特性に対応した電光変換特性を示す情報が必要となるからである。   Here, the reason that the information indicating the electro-optical conversion characteristic is added to the SEI message is that SPS NAL is compatible with the SDR photoelectric conversion characteristic when the HDR photoelectric conversion characteristic is compatible with the SDR photoelectric conversion characteristic even if the transmission video data is HDR transmission video data. Since the information indicating the electro-optical conversion characteristic (gamma characteristic) corresponding to the SDR photoelectric conversion characteristic is inserted in the VUI of the unit so that the conventional SDR compatible receiver can be identified, the video received by the HDR compatible receiver is HDR In order to be able to identify that it is, it is because the information which shows the electro-optical conversion characteristic corresponding to a HDR photoelectric conversion characteristic in places other than VUI is needed.

また、SEIメッセージに、リファレンスレベルの情報を持たせるのは、伝送ビデオデータV1がSDR伝送ビデオデータであるとき、SPS NALユニットのVUIにSDR光電変換特性に対応した電光変換特性(ガンマ特性)を示す情報が挿入されるが、リファレンスレベルを挿入することに関しては規格明記がないからである。   In addition, when the transmission video data V1 is SDR transmission video data, the SEI message includes information on the reference level in the VUI of the SPS NAL unit with the electro-optical conversion characteristic (gamma characteristic) corresponding to the SDR photoelectric conversion characteristic. This is because the information shown is inserted, but there is no specification for inserting a reference level.

この場合、電光変換特性を示す情報(transfer function)により、例えば、「BT.709-5 Transfer Function(SDR)」、「10bit BT.2020 Transfer Function(SDR)」、「SMPTE 2084 Transfer Function(HDR1)」、「HDR(HDR2)」などの電光変換特性が示される。なお、「HDR(HDR2)」は、“Human Visual System”をサポートする特性ではなく、従来からのガンマ特性に部分的に同種の特性を有する変換特性になる。また、色域情報により、「BT.709-5」、「BT.2020」、「SMPTE 428 or XYZ」などの色域が示される。   In this case, for example, “BT. 709-5 Transfer Function (SDR)”, “10 bit BT. 2020 Transfer Function (SDR)”, “SMPTE 2084 Transfer Function (HDR 1)” according to information (transfer function) indicating the electro-optical conversion characteristic. The electro-optical conversion characteristics such as “HDR (HDR2)” are shown. Note that “HDR (HDR2)” is not a characteristic that supports “Human Visual System”, but is a conversion characteristic that partially has the same characteristics as the conventional gamma characteristic. The color gamut information indicates a color gamut such as "BT. 709-5", "BT. 2020", or "SMPTE 428 or XYZ".

静止画エンコーダ104は、入力されるイメージデータに対して、例えば、JPEGの符号化を施して符号化ビデオデータを得る。静止画エンコーダ104には、イメージデータのダイナミックレンジ情報および色域情報が入力される。静止画エンコーダ104は、このダイナミックレンジ情報および色域情報を、符号化データに挿入する。ここで、ダイナミックレンジ情報は、イメージデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   The still picture encoder 104 subjects the input image data to, for example, JPEG coding to obtain coded video data. Dynamic range information and color gamut information of image data are input to the still image encoder 104. The still picture encoder 104 inserts this dynamic range information and color gamut information into the encoded data. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the image data.

静止画エンコーダ104は、電光変換特性を示す情報(transfer function)に関しては、例えば、JPEG規格で定義されているエグジフ(Exif: Exchangeable image file format)規格で定めるガンマ・タグ(Gamma tag)の値(Value)を用いる。現状では“16(Gamma = BT.709-5 Transfer Function(SDR))”が定義されているが、他の値に「10bit BT.2020 Transfer Function(SDR)」、「SMPTE 2084 Transfer Function(HDR1)」、「HDR(HDR2)」などを定義して用いる。   The still image encoder 104, for information (transfer function) indicating the electro-optical conversion characteristic, for example, the value of the gamma tag (Gamma tag) defined by the Exif (Exchangeable image file format) standard defined by the JPEG standard. Value) is used. Currently, "16 (Gamma = BT. 709-5 Transfer Function (SDR))" is defined, but other values are "10 bit BT. 2020 Transfer Function (SDR)", "SMPTE 2084 Transfer Function (HDR 1) "HDR (HDR2)" etc. are defined and used.

また、静止画エンコーダ104は、色域情報に関しては、例えば、JPEG規格で定義されているエグジフ(Exif)規格で定めるカラースペース・タグ(ColorSpace tag)の値(Value)を用いる。現状では“1(sRGB = BT.709-5)”が定義されているが、他の値に「BT.2020」、「SMPTE 428 or XYZ」などを定義して用いる。   The still picture encoder 104 uses, for example, the value (Value) of a color space tag (ColorSpace tag) defined by the Exif standard defined by the JPEG standard, for color gamut information. Currently, “1 (sRGB = BT.709-5)” is defined, but “BT.2020”, “SMPTE 428 or XYZ”, etc. are defined and used as other values.

データサービスエンコーダ103は、入力されるグラフィックスデータ、さらには静止画エンコーダ104から入力される符号化データに対してエンコード処理を施して、コンポーネントストリームとしてのデータサービスストリームDSを生成する。このデータサービスストリームDSには、コンポーネントデータとして、イメージデータおよびグラフィックスデータが含まれている。   The data service encoder 103 performs encoding processing on input graphics data and further encoded data input from the still picture encoder 104 to generate a data service stream DS as a component stream. The data service stream DS includes image data and graphics data as component data.

データサービスエンコーダ103には、グラフィックスデータのダイナミックレンジ情報および色域情報が入力される。データサービスエンコーダ103は、このダイナミックレンジ情報および色域情報を、データサービスストリームDSに挿入する。ここで、ダイナミックレンジ情報は、グラフィックスデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   The data service encoder 103 receives dynamic range information and color gamut information of graphics data. The data service encoder 103 inserts this dynamic range information and color gamut information into the data service stream DS. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the graphics data.

データサービスエンコーダ103は、電光変換特性を示す情報(transfer function)に関しては、例えば、ダイナミックレンジ情報「D_range」を拡張定義し、「BT.709-5 Transfer Function(SDR)」、「10bit BT.2020 Transfer Function(SDR)」、「SMPTE 2084 Transfer Function(HDR1)」、「HDR(HDR2)」などを示す。また、データサービスエンコーダ103は、色域情報に関しては、例えば、「gfx.color_management.mode」の項目を用いて、「BT.709-5」、「BT.2020」、「SMPTE 428 or XYZ」などの色域が示す。   The data service encoder 103 extends and defines, for example, dynamic range information “D_range” as information (transfer function) indicating an electro-optical conversion characteristic, “BT. 709-5 Transfer Function (SDR)”, “10 bit BT. 2020 They indicate Transfer Function (SDR), SMPTE 2084 Transfer Function (HDR1), and HDR (HDR2). Also, with respect to color gamut information, the data service encoder 103 uses, for example, the item “gfx.color_management.mode” to “BT.709-5”, “BT.2020”, “SMPTE 428 or XYZ”, etc. Indicates the color gamut of

サブタイトルエンコーダ105は、入力される字幕データに対してエンコード処理を施して、コンポーネントストリームとしてのサブタイトルストリームSSを生成する。このサブタイトルストリームSSには、コンポーネントデータとして、字幕データが含まれている。詳細説明は省略するが、このサブタイトルストリームSSには、TTML(Timed Text Markup Language)等の字幕のテキスト情報が含まれるか、あるいは字幕のビットマップデータが含まれる。   The subtitle encoder 105 subjects the input subtitle data to encoding processing to generate a subtitle stream SS as a component stream. Subtitle data is included in the subtitle stream SS as component data. Although the detailed description is omitted, the subtitle stream SS includes subtitle text information such as TTML (Timed Text Markup Language) or subtitle bitmap data.

サブタイトルエンコーダ105には、字幕データのダイナミックレンジ情報および色域情報が入力される。サブタイトルエンコーダ105は、このダイナミックレンジ情報および色域情報を、サブタイトルストリームSSに挿入する。   The subtitle encoder 105 receives dynamic range information and color gamut information of subtitle data. The subtitle encoder 105 inserts this dynamic range information and color gamut information into the subtitle stream SS.

サブタイトルエンコーダ105は、サブタイトルストリームSSが字幕のテキスト情報としてのTTMLを含む場合には、例えば、TTML構造のヘッダに存在するメタデータ(metadata)の要素を利用して、サブタイトルデータに係る色域識別情報およびダイナミックレンジ情報の挿入を行うか、あるいはTTML構造のヘッダに存在するスタイリング・エクステンション(styling extension)の要素を利用して、サブタイトルデータに係る色域識別情報およびダイナミックレンジ情報の挿入を行うか、あるいはサブタイトルストリームSSにサブタイトルデータに係る色域識別情報およびダイナミックレンジ情報を含むセグメントを挿入する。   When the subtitle stream SS includes TTML as subtitle text information, the subtitle encoder 105 uses, for example, an element of metadata (metadata) present in the header of the TTML structure to identify a color gamut related to subtitle data. Whether to insert information and dynamic range information, or to insert color gamut identification information and dynamic range information related to subtitle data using elements of a styling extension (styling extension) present in the header of the TTML structure Alternatively, a segment including color gamut identification information and dynamic range information related to subtitle data is inserted into the subtitle stream SS.

一方、サブタイトルエンコーダ105は、サブタイトルストリームSSが字幕のビットマップデータを含む場合には、例えば、サブタイトルストリームSSにサブタイトルデータに係る色域識別情報およびダイナミックレンジ情報を含むセグメントを挿入する。   On the other hand, when the subtitle stream SS includes subtitle bitmap data, the subtitle encoder 105 inserts, for example, a segment including color gamut identification information and dynamic range information related to the subtitle data into the subtitle stream SS.

この場合、電光変換特性を示す情報(transfer function)により、例えば、「BT.709-5 Transfer Function(SDR)」、「10bit BT.2020 Transfer Function(SDR)」、「SMPTE 2084 Transfer Function(HDR1)」、「HDR(HDR2)」などの電光変換特性が示される。なお、「HDR(HDR2)」は、PQカーブではなく、いわゆるハイブリッドガンマと称されるものである。また、色域情報により、「BT.709-5」、「BT.2020」、「SMPTE 428 or XYZ」などの色域が示される。   In this case, for example, “BT. 709-5 Transfer Function (SDR)”, “10 bit BT. 2020 Transfer Function (SDR)”, “SMPTE 2084 Transfer Function (HDR 1)” according to information (transfer function) indicating the electro-optical conversion characteristic. The electro-optical conversion characteristics such as “HDR (HDR2)” are shown. Note that "HDR (HDR2)" is not a PQ curve but a so-called hybrid gamma. The color gamut information indicates a color gamut such as "BT. 709-5", "BT. 2020", or "SMPTE 428 or XYZ".

コンテナエンコーダ106は、ビデオエンコーダ102で生成されたビデオストリームVS、データサービスエンコーダ103で生成されたデータサービスストリームDSおよびサブタイトルエンコーダ105で生成されたサブタイトルストリームSSを含むトランスポートストリーム(MPEG−2 TSあるいはMMTのトランスポートストリーム)を生成する。送信部107は、このトランスポートストリームを、放送波あるいはネットのパケットに載せて、サービス受信機200に送信する。   The container encoder 106 is a transport stream (MPEG-2 TS or the like) including the video stream VS generated by the video encoder 102, the data service stream DS generated by the data service encoder 103, and the subtitle stream SS generated by the subtitle encoder 105. Generate MMT Transport Stream). The transmitting unit 107 transmits the transport stream on broadcast waves or net packets and transmits the transport stream to the service receiver 200.

この際、コンテナエンコーダ106は、トランスポートストリームに、それに含まれるビデオストリームVSが持つ伝送ビデオデータの種類を示す識別情報を、この伝送ビデオデータの種類の切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入する。このように識別情報の挿入が管理されることで、受信側に、伝送ビデオデータの動的な切り替えが通知される。   At this time, the container encoder 106 causes the transport stream to carry identification information indicating the type of transmission video data possessed by the video stream VS contained in the transport stream by a predetermined time or more before the switching timing of the type of transmission video data. It inserts so that the kind of transmission video data after switching from timing may be shown. By managing the insertion of the identification information in this manner, the receiving side is notified of the dynamic switching of the transmission video data.

図4は、SDR伝送ビデオデータ(SDRサービス)とHDR伝送ビデオデータ(HDRサービス)の切り換えタイミングSn(S0,S1,S2,・・・)と、切換え後の伝送ビデオデータを識別するための識別情報の挿入タイミングTn(T0,T1,T2,・・・)の関係を示している。以下の(1)式を満足するように、タイミングTnはタイミングSnよりもt(所定の時間量)以上だけ前のタイミングとされる。なお、図示の例は、Sn−Tn = t (ただし、tは正値)である場合を示している。
Sn−Tn ≧ t ・・・(1)
FIG. 4 shows identifications for identifying switching timing Sn (S0, S1, S2,...) Of SDR transmission video data (SDR service) and HDR transmission video data (HDR service) and transmission video data after switching. The relation of the information insertion timing Tn (T0, T1, T2,...) Is shown. The timing Tn is set to be earlier than the timing Sn by at least t (predetermined amount of time) so as to satisfy the following equation (1). In addition, the example of illustration has shown the case where it is Sn-Tn = t (however, t is a positive value).
Sn-Tn t t (1)

コンテナエンコーダ109は、ビデオストリームVSに対応させて、例えば、新規定義する、HDR・ビデオ・デスクリプタ(HDR_vido_descriptor)を挿入する。このデスクリプタは、例えば、トランスポートストリームがMPEG−2 TSのトランスポートストリームであるときには、プログラム・マップ・テーブル(PMT:Program Map Table)の配下、あるいはインベント・インフォメーション・テーブル(EIT:Event Information Table)の配下に挿入される。また、このデスクリプタは、トランスポートストリームがMMTのトランスポートストリームであるときには、MPテーブル(MPT:MMT Package Table)の配下、あるいは、インベント・インフォメーション・テーブル(EIT:Event Information Table)の配下に挿入される。   The container encoder 109 inserts an HDR video descriptor (HDR_vido_descriptor) that is newly defined, for example, in correspondence to the video stream VS. For example, when the transport stream is a transport stream of MPEG-2 TS, this descriptor is subordinate to a program map table (PMT: Program Map Table) or an event information table (EIT: Event Information Table) Is inserted under In addition, when the transport stream is an MMT transport stream, this descriptor is inserted under MP table (MPT: MMT Package Table) or under event information table (EIT: Event Information Table). Ru.

図5は、HDR・ビデオ・デスクリプタの構造例(Syntax)を示し、図6は、その構造例における主要な情報の内容(Semantics)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタのタイプを示し、ここでは、HDR・ビデオ・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして以降のバイト数を示す。   FIG. 5 shows a structural example (Syntax) of the HDR video descriptor, and FIG. 6 shows contents (Semantics) of main information in the structural example. An 8-bit field of "descriptor_tag" indicates the type of descriptor, and here indicates that it is an HDR video descriptor. The 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.

「HDR_SDR_flag」の1ビットのフラグ情報は、対象のストリームがHDRストリームであるかSDRストリームであるかを示す。“1”はHDRストリームであることを示し、“0”はSDRストリームであることを示す。「video_characteristics_info_flag」の1ビットのフラグ情報は、特性情報があるか否かを示す。“1”は特性情報があることを示し、“0”は特性情報がないことを示す。   The 1-bit flag information of “HDR_SDR_flag” indicates whether the target stream is an HDR stream or an SDR stream. "1" indicates that this is an HDR stream, and "0" indicates that this is an SDR stream. The 1-bit flag information of “video_characteristics_info_flag” indicates whether or not there is characteristic information. "1" indicates that there is characteristic information, and "0" indicates that there is no characteristic information.

「video_characteristics_info_flag」が“1”であるとき、「transferfunction」、「color_space」および「referencelevel」の各8ビットフィールドが存在する。「transferfunction」の8ビットフィールドは、電光変換特性(EOTF特性)を示す。つまり、このフィールドは、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す。例えば、“1”は「BT.709-5 Transfer Function(SDR)」を示し、“14”は「10bit BT.2020 Transfer Function(SDR)」を示し、“16”は「SMPTE 2084 Transfer Function(HDR1)」を示し、“25”は「HDR(HDR2)」を示す。なお、「HDR(HDR2)」は、HDR電光変換特性を示すが、PQカーブではなく、従来ガンマ特性と輝度・伝送特性において部分的な互換性をもつ、あるいはそれに近似する特性をもつと考えられるものである。   When “video_characteristics_info_flag” is “1”, 8-bit fields “transferfunction”, “color_space” and “referencelevel” are present. The 8-bit field of "transferfunction" indicates an electro-optical conversion characteristic (EOTF characteristic). That is, this field shows an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data. For example, "1" indicates "BT. 709-5 Transfer Function (SDR)", "14" indicates "10 bit BT. 2020 Transfer Function (SDR)", and "16" indicates "SMPTE 2084 Transfer Function (HDR 1)". And “25” indicates “HDR (HDR2)”. Although “HDR (HDR2)” indicates the HDR light-to-light conversion characteristics, it is considered not to be a PQ curve but to have characteristics partially compatible with or close to conventional gamma characteristics and luminance / transmission characteristics. It is a thing.

「color_space」の8ビットフィールドは、色空間を示す。例えば、“1”は「BT.709-5」を示し、“9”は「BT.2020」を示し、“10”は「SMPTE 428 or XYZ」を示す。   An 8-bit field of "color_space" indicates a color space. For example, "1" indicates "BT. 709-5", "9" indicates "BT. 2020", and "10" indicates "SMPTE 428 or XYZ".

「referencelevel」の8ビットフィールドは、基準レベル(リファレンスレベル)を示す。この場合、基準レベルとして、最大「1」に正規化された相対範囲の中を0〜100の値で指定した値が記述される。受信側では、この値を100で割ったものが正規化された相対基準レベルとして認識される。「content_peak_luminance」の8ビットフィールドは、画像に含まれる伝送符号のピーク値に対応する輝度の相対値(%表現)を示す。この相対値は、例えば、後述するニー(knee)カーブを制御するために役立つ。   The 8-bit field "referencelevel" indicates a reference level (reference level). In this case, as the reference level, a value in which the relative range normalized to the maximum "1" is specified by the value of 0 to 100 is described. At the receiver, this value divided by 100 is recognized as a normalized relative reference level. The 8-bit field of "content_peak_luminance" indicates the relative value (expressed in%) of the luminance corresponding to the peak value of the transmission code included in the image. This relative value is useful, for example, to control a knee curve described later.

また、コンテナエンコーダ106は、トランスポートストリームに、それに含まれるサブタイトルストリームSSが持つ字幕データの種類、つまりSDRデータであるかHDRデータであるかを示す識別情報を、この字幕データの種類の切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の字幕データの種類を示すように挿入する。このように識別情報の挿入が管理されることで、受信側に、字幕データの動的な切り替えが通知される。   Also, the container encoder 106 uses the transport stream to identify the type of subtitle data possessed by the subtitle stream SS contained in the transport stream, that is, the identification information indicating whether it is SDR data or HDR data, as the timing for switching the type of subtitle data. Further, it is inserted so as to indicate the type of subtitle data after switching from a timing earlier than a predetermined amount of time. By managing the insertion of identification information in this manner, the receiving side is notified of dynamic switching of subtitle data.

コンテナエンコーダ109は、サブタイトルストリームSSに対応させて、例えば、新規定義する、HDR・サブタイトル・デスクリプタ(HDR_subtitle_descriptor)を挿入する。このデスクリプタは、例えば、トランスポートストリームがMPEG−2 TSのトランスポートストリームであるときには、プログラム・マップ・テーブル(PMT:Program Map Table)の配下に挿入される。また、このデスクリプタは、トランスポートストリームがMMTのトランスポートストリームであるときには、MPテーブル(MPT:MMT Package Table)の配下に挿入される。   The container encoder 109 inserts, for example, an HDR subtitle subtitle descriptor (HDR_subtitle_descriptor) that is newly defined, in association with the subtitle stream SS. This descriptor is inserted under the program map table (PMT: Program Map Table), for example, when the transport stream is a transport stream of MPEG-2 TS. Also, when the transport stream is a transport stream of MMT, this descriptor is inserted under the MP table (MPT: MMT Package Table).

図7は、HDR・サブタイトル・デスクリプタの構造例(Syntax)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタのタイプを示し、ここでは、HDR・サブタイトル・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして以降のバイト数を示す。   FIG. 7 shows an exemplary structure (Syntax) of the HDR subtitle descriptor. The 8-bit field of “descriptor_tag” indicates the type of descriptor, and in this case, indicates that it is an HDR subtitle descriptor. The 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.

「HDR_SDR_flag」の1ビットのフラグ情報は、対象のストリームがHDRストリームであるかSDRストリームであるかを示す。“1”はHDRストリームであることを示し、“0”はSDRストリームであることを示す。「subtitle_characteristics_info_flag」の1ビットのフラグ情報は、特性情報があるか否かを示す。“1”は特性情報があることを示し、“0”は特性情報がないことを示す。「subtitle_characteristics_info_flag」が“1”であるとき、「transferfunction」、「color_space」および「referencelevel」の各8ビットフィールドが存在する。   The 1-bit flag information of “HDR_SDR_flag” indicates whether the target stream is an HDR stream or an SDR stream. "1" indicates that this is an HDR stream, and "0" indicates that this is an SDR stream. The 1-bit flag information of “subtitle_characteristics_info_flag” indicates whether or not there is characteristic information. "1" indicates that there is characteristic information, and "0" indicates that there is no characteristic information. When “subtitle_characteristics_info_flag” is “1”, 8-bit fields “transferfunction”, “color_space” and “referencelevel” are present.

「transferfunction」の8ビットフィールドは、電光変換特性(EOTF特性)を示す。つまり、このフィールドは、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す。例えば、“1”は「BT.709-5 Transfer Function(SDR)」を示し、“14”は「10bit BT.2020 Transfer Function(SDR)」を示し、“16”は「SMPTE 2084 Transfer Function(HDR1)」を示し、“25”は「HDR(HDR2)」を示す。なお、「HDR(HDR2)」は、HDR電光変換特性を示すが、PQカーブではなく、従来ガンマ特性と輝度・伝送特性において部分的な互換性をもつ、あるいはそれに近似する特性をもつと考えられるものである。   The 8-bit field of "transferfunction" indicates an electro-optical conversion characteristic (EOTF characteristic). That is, this field shows an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data. For example, "1" indicates "BT. 709-5 Transfer Function (SDR)", "14" indicates "10 bit BT. 2020 Transfer Function (SDR)", and "16" indicates "SMPTE 2084 Transfer Function (HDR 1)". And “25” indicates “HDR (HDR2)”. Although “HDR (HDR2)” indicates the HDR light-to-light conversion characteristics, it is considered not to be a PQ curve but to have characteristics partially compatible with or close to conventional gamma characteristics and luminance / transmission characteristics. It is a thing.

「color_space」の8ビットフィールドは、色空間を示す。例えば、“1”は「BT.709-5」を示し、“9”は「BT.2020」を示し、“10”は「SMPTE 428 or XYZ」を示す。「referencelevel」の8ビットフィールドは、基準レベル(リファレンスレベル)を示す。この場合、基準レベルとして、最大「1」に正規化された相対範囲の中を0〜100の値で指定した値が記述される。受信側では、この値を100で割ったものが正規化された相対基準レベルとして認識される。   An 8-bit field of "color_space" indicates a color space. For example, "1" indicates "BT. 709-5", "9" indicates "BT. 2020", and "10" indicates "SMPTE 428 or XYZ". The 8-bit field "referencelevel" indicates a reference level (reference level). In this case, as the reference level, a value in which the relative range normalized to the maximum "1" is specified by the value of 0 to 100 is described. At the receiver, this value divided by 100 is recognized as a normalized relative reference level.

図8は、MPEG−2 TSのトランスポートストリームの構造例を示している。この構造例では、PID1で識別されるビデオストリームVSのPESパケット「Video PES」、PID2で識別されるサブタイトルストリームSSのPESパケット「Subtitle PES」が存在する他、カルーセル(carousel)方式で伝送されるデータサービスストリームDSが存在する。なお、サブタイトルストリームSSは上記のようにPESで伝送される以外にも、データサービス同様に、カルーセル方式で伝送される場合もあるが、それによってサブタイトルストリームSSの中身に変化はない。   FIG. 8 shows an example of the structure of a transport stream of MPEG-2 TS. In this structural example, there are a PES packet "Video PES" of the video stream VS identified by PID1, a PES packet "Subtitle PES" of the subtitle stream SS identified by PID 2, and the data is transmitted by the carousel method. There is a data service stream DS. Although the subtitle stream SS may be transmitted by the carousel system as well as the data service, as described above, as with the data service, the contents of the subtitle stream SS are not changed thereby.

また、トランスポートストリームTSには、PSI(Program Specific Information)として、プログラム・マップ・テーブル(PMT:Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。   Also, the transport stream TS includes a program map table (PMT: Program Map Table) as PSI (Program Specific Information). PSI is information that describes to which program each elementary stream included in the transport stream belongs. In PMT, there is a program loop (Program loop) that describes information related to the entire program.

PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリーム・ループが存在する。この構造例では、ビデオストリームVSに対応したビデオ・エレメンタリストリーム・ループ(Video ES loop)と、サブタイトルストリームSSに対応したサブタイトル・エレメンタリストリーム・ループ(Subtitle ES loop)が存在する。   In PMT, there is an elementary stream loop having information related to each elementary stream. In this structural example, there are a video elementary stream loop (Video ES loop) corresponding to the video stream VS, and a subtitle / elementary stream loop (Subtitle ES loop) corresponding to the subtitle stream SS.

ビデオ・エレメンタリストリーム・ループには、ビデオストリームVSに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームVSに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述した、HDR・ビデオ・デスクリプタ(図5参照)が配置される。なお、このHDR・ビデオ・デスクリプタが、破線図示するように、イベント・インフォメーション・テーブル(EIT:Event Information Table)の配下に配置する構造も考えられる。   In the video elementary stream loop, information such as stream type and PID (packet identifier) is arranged corresponding to the video stream VS, and a descriptor describing the information related to the video stream VS is also arranged. Ru. The HDR video descriptor (see FIG. 5) described above is arranged as one of the descriptors. A structure in which the HDR video descriptor is arranged under an event information table (EIT) as shown by a broken line is also conceivable.

また、サブタイトル・エレメンタリストリーム・ループには、サブタイトルストリームSSに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームVSに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述した、HDR・サブタイトル・デスクリプタ(図7参照)が配置される。   Further, in the subtitle, elementary stream and loop, information such as stream type and PID (packet identifier) is arranged corresponding to the subtitle stream SS, and a descriptor that describes the information related to the video stream VS is also included. Be placed. The HDR subtitle descriptor (see FIG. 7) described above is arranged as one of the descriptors.

図9は、MMTのトランスポートストリームの構造例を示している。MMTのトランスポートストリームには、パケットタイプが“MPU”である場合、ID1で識別されるビデオストリームVSのMPUパケット「MPU video」と、ID2で識別されるサブタイトルストリームSSのMPUパケット「MPU subtitle」が配置される。また、このMMTのトランスポートストリームには、パケットタイプが“non-timed packet”である場合、データサービスストリームDSが配置される。   FIG. 9 shows an example of the structure of the MMT transport stream. In the MMT transport stream, when the packet type is “MPU”, the MPU packet “MPU video” of the video stream VS identified by ID 1 and the MPU packet “MPU subtitle” of the subtitle stream SS identified by ID 2 Is placed. Also, if the packet type is “non-timed packet”, the data service stream DS is arranged in the transport stream of this MMT.

また、MMTのトランスポートストリームには、パケットタイプが“message”である場合、種々のメッセージパケットが配置される。このメッセージパケットの一つとしてPA(Packet Access)メッセージパケットがある。PAメッセージパケットには、MPTなどのテーブルが含まれている。   Also, if the packet type is “message”, various message packets are arranged in the transport stream of MMT. One of the message packets is a PA (Packet Access) message packet. The PA message packet contains a table such as MPT.

MPTには、アセットとしてのビデオストリームVSに対応して、アセットタイプ(Asset_type)、パケットID(Packet_id)等の情報が配置されると共に、そのビデオストリームVSに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述した、HDR・ビデオ・デスクリプタ(図5参照)が配置される。なお、このHDR・ビデオ・デスクリプタが、破線図示するように、イベント・インフォメーション・テーブル(EIT:Event Information Table)の配下に配置する構造も考えられる。   In the MPT, information such as asset type (Asset_type) and packet ID (Packet_id) is placed corresponding to the video stream VS as an asset, and a descriptor describing information related to the video stream VS is also placed Ru. The HDR video descriptor (see FIG. 5) described above is arranged as one of the descriptors. A structure in which the HDR video descriptor is arranged under an event information table (EIT) as shown by a broken line is also conceivable.

また、MPTには、アセットとしてのサブタイトルストリームSSに対応して、アセットタイプ(Asset_type)、パケットID(Packet_id)等の情報が配置されると共に、そのサブタイトルストリームSSに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述した、HDR・サブタイトル・デスクリプタ(図7参照)が配置される。   Also, in the MPT, information such as asset type (Asset_type), packet ID (Packet_id), etc. is placed corresponding to the subtitle stream SS as an asset, and a descriptor that describes information related to the subtitle stream SS is also Be placed. The HDR subtitle descriptor (see FIG. 7) described above is arranged as one of the descriptors.

図2に示すサービス送信システム100の動作を簡単に説明する。ビデオエンコード102に伝送ビデオデータが入力されると共に、この伝送ビデオデータのダイナミックレンジ情報および色域情報が入力される。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   The operation of the service transmission system 100 shown in FIG. 2 will be briefly described. Transmission video data is input to the video encode 102, and dynamic range information and color gamut information of the transmission video data are input. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data.

このように入力される伝送ビデオデータは、複数の種類の伝送ビデオデータを切り替えて得られたものである。複数の種類の伝送ビデオデータには、例えば、通常ダイナミックレンジビデオデータに通常ダイナミックレンジ光電変換を適用して得られた通常ダイナミックレンジの伝送ビデオデータと、ハイダイナミックレンジビデオデータにハイダイナミックレンジ光電変換を適用して得られたハイダイナミックレンジの伝送ビデオデータが含まれる。   The transmission video data thus input is obtained by switching between a plurality of types of transmission video data. For a plurality of types of transmission video data, for example, a normal dynamic range transmission video data obtained by applying a normal dynamic range photoelectric conversion to a normal dynamic range video data and a high dynamic range photoelectric conversion to high dynamic range video data And includes transmission video data of high dynamic range obtained by applying.

ビデオエンコーダ102では、伝送ビデオデータに対して、例えば、MPEG4−AVCあるいはHEVCなどの符号化が施されて符号化ビデオデータが得られ、この符号化ビデオデータを含む、コンポーネントストリームとしてのビデオストリームVSが生成される。このビデオストリームVSには、コンポーネントデータとしての伝送ビデオデータが含まれている。   The video encoder 102 applies coding such as MPEG4-AVC or HEVC to the transmission video data to obtain coded video data, and a video stream VS as a component stream including the coded video data. Is generated. The video stream VS includes transmission video data as component data.

また、ビデオエンコーダ102では、このようにビデオストリームVSが生成されるとき、このビデオストリームVSにダイナミックレンジ情報および色域情報を挿入することが行われる。この場合、アクセスユニット(AU)のSPS NALユニットのVUI(video usability information)の領域に、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)、伝送ビデオデータの色域情報、リファレンスレベルを示す情報などのメタ情報が挿入される。また、この場合、アクセスユニット(AU)の“SEIs”の部分に、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)、リファレンスレベルの情報などのメタ情報を持つSEIメッセージ(SEI message)が挿入される。   In addition, when the video stream VS is thus generated, the video encoder 102 inserts dynamic range information and color gamut information into the video stream VS. In this case, the information (transfer function) indicating the electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic possessed by the transmission video data in the area of video usability information (VUI) of the SPS NAL unit of the access unit (AU), the color of the transmission video data Meta information such as area information and information indicating a reference level is inserted. Also, in this case, the “SEIs” portion of the access unit (AU) has meta information such as information (transfer function) indicating the electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic possessed by the transmission video data and information at the reference level. The SEI message (SEI message) is inserted.

また、静止画エンコーダ104にイメージデータが入力されると共に、このイメージデータのダイナミックレンジ情報および色域情報が入力される。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   Also, while the image data is input to the still image encoder 104, dynamic range information and color gamut information of the image data are input. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data.

静止画エンコーダ104では、イメージデータに対して、例えば、JPEGの符号化が施されて符号化ビデオデータが得られる。このとき、符号化データに、ダイナミックレンジ情報および色域情報が挿入される。この場合、電光変換特性を示す情報(transfer function)に関しては、例えば、JPEG規格で定義されているエグジフ(Exif: Exchangeable image file format)規格で定めるガンマ・タグ(Gamma tag)の値(Value)を用いて挿入される。また、色域情報に関しては、例えば、JPEG規格で定義されているエグジフ(Exif)規格で定めるカラースペース・タグ(ColorSpace tag)の値(Value)を用いて挿入される。   The still picture encoder 104 performs, for example, JPEG coding on the image data to obtain coded video data. At this time, dynamic range information and color gamut information are inserted into the encoded data. In this case, for information (transfer function) indicating the electro-optical conversion characteristic, for example, the value (Value) of the gamma tag (Gamma tag) defined in the Exif (Exchangeable image file format) standard defined in the JPEG standard It is inserted using. In addition, color gamut information is inserted using, for example, the value (Value) of a color space tag (ColorSpace tag) defined by the Exif standard defined by the JPEG standard.

また、データサービスエンコーダ103には、グラフィックスデータが入力されると共に、このグラフィックスデータのダイナミックレンジ情報および色域情報が入力される。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。このデータサービスエンコーダ103には、さらに、静止画エンコーダ104で得られた符号化データが入力される。   Further, the graphics data is input to the data service encoder 103, and the dynamic range information and the color gamut information of the graphics data are also input. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data. Further, the encoded data obtained by the still picture encoder 104 is input to the data service encoder 103.

データサービスエンコーダ103では、グラフィックスデータ、さらには静止画エンコーダ104から入力される符号化データに対してエンコード処理が施されて、コンポーネントストリームとしてのデータサービスストリームDSが生成される。このデータサービスストリームDSには、コンポーネントデータとして、イメージデータおよびグラフィックスデータが含まれている。   The data service encoder 103 performs encoding processing on graphics data and further encoded data input from the still picture encoder 104 to generate a data service stream DS as a component stream. The data service stream DS includes image data and graphics data as component data.

また、データサービスエンコーダ103では、このようにデータサービスストリームDSが生成されるとき、このデータサービスストリームDSにダイナミックレンジ情報および色域情報を挿入することが行われる。この場合、電光変換特性を示す情報(transfer function)に関しては、例えば、ダイナミックレンジ情報「D_range」を拡張定義することで挿入される。また、色域情報に関しては、例えば、「gfx.color_management.mode」の項目を用いて挿入される。   Also, when the data service stream DS is generated as described above, the data service encoder 103 inserts dynamic range information and color gamut information into the data service stream DS. In this case, the information (transfer function) indicating the electro-optical conversion characteristic is inserted, for example, by extending and defining the dynamic range information “D_range”. Also, color gamut information is inserted, for example, using the item “gfx.color_management.mode”.

また、サブタイトルエンコーダ105には、字幕データが入力されると共に、この字幕データのダイナミックレンジ情報および色域情報が入力される。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   Also, subtitle data is input to the subtitle encoder 105, and dynamic range information and color gamut information of the subtitle data are input. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data.

サブタイトルエンコーダ105では、字幕データに対してエンコード処理が施されて、コンポーネントストリームとしてのサブタイトルストリームSSが生成される。このサブタイトルストリームSSには、コンポーネントデータとして、字幕データ(TTML等の字幕のテキスト情報、あるいは字幕のビットマップデータ)が含まれている。   The subtitle encoder 105 performs encoding processing on subtitle data to generate a subtitle stream SS as a component stream. The subtitle stream SS includes subtitle data (subtitle text information such as TTML, or subtitle bitmap data) as component data.

また、サブタイトルエンコーダ105では、このようにサブタイトルストリームSSが生成されるとき、このサブタイトルストリームSSにダイナミックレンジ情報および色域情報を挿入することが行われる。   Also, when the subtitle stream SS is thus generated, the subtitle encoder 105 inserts dynamic range information and color gamut information into the subtitle stream SS.

ここで、サブタイトルストリームSSが字幕のテキスト情報としてのTTMLを含む場合には、例えば、TTML構造のヘッダに存在するメタデータ(metadata)の要素を利用してサブタイトルデータに係る色域識別情報およびダイナミックレンジ情報が挿入される。また、サブタイトルストリームSSが字幕のビットマップデータを含む場合には、例えば、サブタイトルストリームSSにサブタイトルデータに係る色域識別情報およびダイナミックレンジ情報を含むセグメントが挿入される。   Here, when the subtitle stream SS includes TTML as subtitle text information, for example, color gamut identification information and dynamic concerning subtitle data using elements of metadata (metadata) present in the header of the TTML structure Range information is inserted. Also, when the subtitle stream SS includes subtitle bitmap data, for example, a segment including color gamut identification information and dynamic range information related to subtitle data is inserted into the subtitle stream SS.

ビデオエンコーダ102で生成されたビデオストリームVS、データサービスエンコーダ103で生成されたデータサービスストリームDSおよびサブタイトルエンコーダ105で生成されたサブタイトルストリームSSは、コンテナエンコーダ106に供給される。コンテナエンコーダ106では、各ストリームを含むトランスポートストリーム(MPEG−2 TSあるいはMMTのトランスポートストリーム)が生成される。   The video stream VS generated by the video encoder 102, the data service stream DS generated by the data service encoder 103, and the subtitle stream SS generated by the subtitle encoder 105 are supplied to the container encoder 106. The container encoder 106 generates a transport stream (a transport stream of MPEG-2 TS or MMT) including each stream.

また、コンテナエンコーダ102では、このようにトランスポートストリームが生成されるとき、このトランスポートストリームに、それに含まれるビデオストリームVSが持つ伝送ビデオデータの種類を示す識別情報が、ビデオストリームVSの切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入される。具体的には、ビデオストリームVSに対応して、HDR・ビデオ・デスクリプタ(図5参照)が挿入される。また、コンテナエンコーダ102では、このトランスポートストリームに、さらに、サブタイトルストリームSSに対応して、HDR・サブタイトル・デスクリプタ(図7参照)が挿入される。   Also, when the transport stream is generated in the container encoder 102 in this way, identification information indicating the type of transmission video data possessed by the video stream VS contained in the transport stream is the timing at which the video stream VS is switched. Further, it is inserted so as to indicate the type of transmission video data after switching from a timing earlier by a predetermined amount of time or more. Specifically, an HDR video descriptor (see FIG. 5) is inserted corresponding to the video stream VS. Also, in the container encoder 102, an HDR subtitle descriptor (see FIG. 7) is further inserted into this transport stream in correspondence to the subtitle stream SS.

コンテナエンコーダ106で生成されたトランスポートストリームは、送信部107に供給される。このトランスポートストリームは、送信部107により、放送波あるいはネットのパケットに載せて、サービス受信機200に送信される。   The transport stream generated by the container encoder 106 is supplied to the transmitting unit 107. The transport stream is transmitted by the transmitter 107 to the service receiver 200 in a broadcast wave or net packet.

「サービス受信機の構成例」
図10は、サービス受信機200の構成例を示している。このサービス受信機200は、制御部201と、受信部202と、コンテナデコーダ203と、ビデオデコーダ204と、データサービスデコーダ205と、静止画デコーダ206と、サブタイトルデコーダ207と、OSD部208と、画面合成処理部209と、モニタ210を有している。
"Example of service receiver configuration"
FIG. 10 shows a configuration example of the service receiver 200. The service receiver 200 includes a control unit 201, a receiving unit 202, a container decoder 203, a video decoder 204, a data service decoder 205, a still image decoder 206, a subtitle decoder 207, an OSD unit 208, and a screen. A composition processing unit 209 and a monitor 210 are included.

制御部201は、CPU(Central Processing Unit)を備えて構成され、制御プログラムに基づいて、サービス受信機200の各部の動作を制御する。受信部202は、サービス送信システム100(図2参照)から放送波あるいはネットのパケットに載せて送られてくるコンテナとしてのトランスポートストリーム(MPEG−2 TSあるいはMMTのトランスポートストリーム)を受信する。コンテナデコーダ203は、トランスポートストリームから、ビデオストリームVS、データサービスストリームDSおよびサブタイトルストリームSSを抽出する。   The control unit 201 includes a CPU (Central Processing Unit), and controls the operation of each unit of the service receiver 200 based on a control program. The receiving unit 202 receives a transport stream (a transport stream of MPEG-2 TS or MMT) as a container transmitted from the service transmission system 100 (see FIG. 2) on broadcast waves or net packets. The container decoder 203 extracts the video stream VS, the data service stream DS and the subtitle stream SS from the transport stream.

また、コンテナデコーダ203は、トランスポートストリームに挿入されている種々の情報を抽出し、制御部201に送る。この情報には、上述した、伝送ビデオデータの識別情報が記述された、HDR・ビデオ・デスクリプタ(図5参照)、HDR・サブタイトル・デスクリプタ(図7参照)も含まれる。   In addition, the container decoder 203 extracts various information inserted in the transport stream, and sends the information to the control unit 201. This information also includes the HDR video descriptor (see FIG. 5) and the HDR subtitle descriptor (see FIG. 7) in which the identification information of the transmission video data described above is described.

制御部201は、HDR・ビデオ・デスクリプタの記述に基づいて、ビデオストリームVsに含まれる伝送ビデオデータがSDR伝送ビデオデータであるか、HDR伝送ビデオデータであるかを認識する。上述したように、伝送ビデオデータの種類の識別情報は、この伝送ビデオデータの種類の切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように、トランスポートストリームに挿入されている。   The control unit 201 recognizes whether the transmission video data included in the video stream Vs is SDR transmission video data or HDR transmission video data based on the description of the HDR video descriptor. As described above, the identification information of the type of transmission video data is transport as it indicates the type of transmission video data after switching from the timing earlier than the switching timing of the type of transmission video data by a predetermined time amount or more. It is inserted in the stream.

また、制御部201は、HDR・サブタイトル・デスクリプタの記述に基づいて、サブタイトルストリームSSが持つ字幕データの種類、つまりSDRデータであるかHDRデータであるかを認識する。上述したように、字幕データの種類の識別情報は、この字幕データの種類の切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように、トランスポートストリームに挿入されている。   The control unit 201 also recognizes the type of subtitle data possessed by the subtitle stream SS, that is, whether it is SDR data or HDR data, based on the description of the HDR / subtitle / descriptor. As described above, the identification information of the type of subtitle data is in the transport stream so as to indicate the type of transmission video data after switching from the timing earlier than the timing of switching the type of subtitle data by a predetermined time amount or more. It is inserted.

ビデオデコーダ204は、コンテナデコーダ203で抽出されたビデオストリームVSに対してデコード処理を施して、伝送ビデオデータを得ると共に、この伝送ビデオデータのダイナミックレンジ情報および色域情報を得る。ここで、ダイナミックレンジ情報は、伝送ビデオデータが持つ光電変換特性に対応した電光変換特性を示す情報(transfer function)である。   The video decoder 204 decodes the video stream VS extracted by the container decoder 203 to obtain transmission video data and also obtain dynamic range information and color gamut information of the transmission video data. Here, the dynamic range information is information (transfer function) indicating an electro-optical conversion characteristic corresponding to the photoelectric conversion characteristic of the transmission video data.

データサービスデコーダ205は、コンテナデコーダ203で抽出されたデータサービスストリームDSに対してデコード処理を施して、グラフィックスデータ(ビットマップデータ)を得ると共に、このグラフィックスデータのダイナミックレンジ情報および色域情報を得、さらにイメージデータに係る符号化データを得る。静止画デコーダ206は、データサービスデコーダ205で得られた符号化データに対してデコード処理を施して、イメージデータを得ると共に、このイメージデータのダイナミックレンジ情報および色域情報を得る。   The data service decoder 205 decodes the data service stream DS extracted by the container decoder 203 to obtain graphics data (bit map data), and dynamic range information and color gamut information of the graphics data. And further obtain encoded data relating to the image data. The still image decoder 206 decodes the encoded data obtained by the data service decoder 205 to obtain image data, and obtains dynamic range information and color gamut information of the image data.

サブタイトルデコーダ207は、コンテナデコーダ203で抽出されたサブタイトルストリームSSに対してデコード処理を施して、字幕データ(ビットマップデータ)を得ると共に、この字幕データのダイナミックレンジ情報および色域情報を得る。OSD部208は、OSD(On-screen display)用のグラフィックスデータ(ビットマップデータ)を出力すると共に、このグラフィックスデータのダイナミックレンジ情報および色域情報を出力する。   The subtitle decoder 207 subjects the subtitle stream SS extracted by the container decoder 203 to decoding processing to obtain subtitle data (bit map data) and also acquires dynamic range information and color gamut information of the subtitle data. The OSD unit 208 outputs graphics data (bit map data) for OSD (On-screen display), and outputs dynamic range information and color gamut information of the graphics data.

画面合成処理部209は、ビデオデコーダ204で得られた伝送ビデオデータ、データサービスデコーダ205で得られたグラフィックスデータ、静止画デコーダ206で得られたイメージデータ、サブタイトルデコーダ207で得られた字幕データおよびOSD部208で得られたグラフィックスデータを合成して、モニタ210の表示性能に対応した表示用画像データを生成する。モニタ210は、HDRかつ広色域、あるいはSDRかつ通常色域などの表示性能を有し、表示用画像データによる画像を表示する。   The screen synthesis processing unit 209 can transmit video data obtained by the video decoder 204, graphics data obtained by the data service decoder 205, image data obtained by the still image decoder 206, and subtitle data obtained by the subtitle decoder 207. The CPU 210 combines the graphics data obtained by the OSD unit 208 to generate display image data corresponding to the display performance of the monitor 210. The monitor 210 has display performance such as HDR and wide color gamut, or SDR and normal color gamut, and displays an image based on display image data.

画面合成処理部209は、各データを、それぞれのデータのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成する。また、画面合成処理部209は、各データを、それぞれのデータの色域情報に基づいて表示性能に合うように色域変換処理を施した後に合成する。   The screen combining processing unit 209 combines each data after performing brightness mapping processing so as to match display performance based on the dynamic range information of each data. The screen combining processing unit 209 combines each data after performing color gamut conversion processing so as to match display performance based on the color gamut information of each data.

図11は、表示性能がHDRである場合における輝度マッピング処理の概要を示している。伝送ビデオデータやイメージデータに関しては、ダイナミックレンジ情報がHDRを示す場合にはデータビット表現範囲の最大値が明るさ最大レベルに対応するように輝度マッピング処理をし、ダイナミックレンジ情報がSDRを示す場合にはデータビット表現範囲の最大値が明るさ基準レベルに対応するように輝度マッピング処理をする。   FIG. 11 shows an outline of the luminance mapping process when the display performance is HDR. Regarding transmission video data and image data, when dynamic range information indicates HDR, luminance mapping processing is performed so that the maximum value of the data bit expression range corresponds to the maximum brightness level, and dynamic range information indicates SDR. The luminance mapping process is performed so that the maximum value of the data bit expression range corresponds to the brightness reference level.

また、グラフィックスデータや字幕データに関しては、ダイナミックレンジ情報がHDRを示す場合、つまりきらめき成分を有する場合にはデータビット表現範囲の最大値が明るさ最大レベルに対応するように輝度マッピング処理をし、ダイナミックレンジ情報がSDRを示す場合、つまりきらめき成分を有しない場合にはデータビット表現範囲の最大値が明るさ基準レベルに対応するように輝度マッピング処理をする。   In addition, with regard to graphics data and subtitle data, when dynamic range information indicates HDR, that is, when there is a glitter component, brightness mapping processing is performed so that the maximum value of the data bit expression range corresponds to the brightness maximum level. When the dynamic range information indicates SDR, that is, when there is no glitter component, brightness mapping processing is performed so that the maximum value of the data bit expression range corresponds to the brightness reference level.

この場合、明るさ基準レベルとしては、例えば、伝送ビデオデータ、イメージデータに対応して設定された明るさ基準レベル(referencelevel)(図5参照)を使用できる他、例えば、グラフィックスデータ、字幕データに対応して設定された明るさ基準レベル(referencelevel)(図7参照)を用いることもできる。また、この場合、伝送ビデオデータ、イメージデータに関しては、伝送ビデオデータ、イメージデータに対応して設定された明るさ基準レベル(referencelevel)を用い、グラフィックスデータ、字幕データに関しては、グラフィックスデータ、字幕データに対応して設定された明るさ基準レベル(referencelevel)を用いることもできる。また、明るさ基準レベルは、100nits(100%輝度)でもよいが、その明るさには限定されない。例えば、明るさ基準レベルは、200nits(200%輝度)あるいは300nits(300%輝度)などと、予め設定されるものになる。   In this case, as the brightness reference level, for example, transmission video data, brightness reference level (reference level) set corresponding to image data (see FIG. 5) can be used, for example, graphics data, subtitle data It is also possible to use the brightness reference level (see FIG. 7) set corresponding to. Also, in this case, for transmission video data and image data, transmission video data and brightness reference level set corresponding to the image data are used, and for graphics data and subtitle data, graphics data, A brightness reference level (reference level) set corresponding to subtitle data can also be used. The brightness reference level may be 100 nits (100% brightness), but is not limited to the brightness. For example, the brightness reference level is preset to 200 nits (200% luminance) or 300 nits (300% luminance).

図12は、表示性能がHDRかつ広色域である場合における画面合成処理部209の構成例を示している。この画面合成処理部209は、色域変換部211a,211b,211c,211dと、輝度マッピング部212a,212b,212c,212dと、合成部213と、HDR電光変換部214を有している。   FIG. 12 shows a configuration example of the screen combining processing unit 209 in the case where the display performance is HDR and in the wide color gamut. The screen combining processing unit 209 includes color gamut conversion units 211 a, 211 b, 211 c, and 211 d, luminance mapping units 212 a, 212 b, 212 c, and 212 d, a combining unit 213, and an HDR electro-optical conversion unit 214.

ビデオデコーダ204から供給される伝送ビデオデータは、色変換部211aおよび輝度マッピング部212aの直列回路に供給される。色域変換部211aは、色域情報に基づいて、この伝送ビデオデータの色域をディスプレイの表示性能に合った広色域に変換する。例えば、伝送ビデオデータの色域が“BT.709-5 = sRGB”であって、表示性能に合った色域が“BT.2020 = ITUR2020”であるとき、伝送ビデオデータの色域は、“BT.709-5”から“BT.2020”に変換される。なお、伝送ビデオデータの色域が表示性能に合った広色域と同じであるとき、色域変換部212aは、実質的に何もせずに、入力データをそのまま出力する。   The transmission video data supplied from the video decoder 204 is supplied to a series circuit of the color conversion unit 211a and the luminance mapping unit 212a. The color gamut converter 211a converts the color gamut of the transmission video data into a wide color gamut that matches the display performance of the display based on the color gamut information. For example, when the color gamut of transmission video data is "BT.709-5 = sRGB" and the color gamut that matches display performance is "BT.2020 = ITUR 2020", the color gamut of transmission video data is " It is converted from BT.709-5 "to" BT.2020 ". When the color gamut of the transmission video data is the same as the wide color gamut that matches the display performance, the color gamut conversion unit 212a outputs the input data as it is without substantially doing anything.

輝度マッピング部212aは、ダイナミックレンジ情報に基づいて、この伝送ビデオデータに、ハイダイナミックレンジの表示性能に合うように、輝度マッピングをする。輝度マッピング部212aは、図13に示すように、電光変換部(EOTF部)221と光電変換部(OETF部)222の直列回路で構成される。   The luminance mapping unit 212a performs luminance mapping on the transmission video data based on the dynamic range information so as to meet the display performance of the high dynamic range. As shown in FIG. 13, the luminance mapping unit 212 a is configured by a series circuit of an electro-optical conversion unit (EOTF unit) 221 and a photoelectric conversion unit (OETF unit) 222.

電光変換部(EOTF部)221では、入力される伝送ビデオデータに、この伝送ビデオデータに適用されている光電変換特性(OETF特性)から、線形な光空間特性になるような変換が施される。光電変換部(OETF部)222では、電光変換部221の出力データに、HDR電光変換部214における電光変換特性(EOTF特性)とは逆の光電変換特性(OETF特性)による光電変換が施される。   The electro-optical conversion unit (EOTF unit) 221 converts the input transmission video data into linear light space characteristics from the photoelectric conversion characteristics (OETF characteristics) applied to the transmission video data. . The photoelectric conversion unit (OETF unit) 222 subjects the output data of the electro-optical conversion unit 221 to photoelectric conversion based on photoelectric conversion characteristics (OETF characteristics) opposite to the electro-optical conversion characteristics (EOTF characteristics) in the HDR electro-optical conversion unit 214 .

ここで、入力伝送ビデオデータがSDR伝送ビデオデータである場合について説明する。この場合、輝度マッピング部212aでは、輝度マッピング処理が施されることで、SDR伝送ビデオデータからHDR伝送ビデオデータに変換される。この場合、輝度マッピング部212aは、図14(a)に示すように、SDR電光変換部231とHDR光電変換部232の直列回路で構成され、変換は明るさ基準レベルを元にSDRビット空間からHDRビット空間へと行われる。   Here, the case where the input transmission video data is SDR transmission video data will be described. In this case, the luminance mapping unit 212a converts the SDR transmission video data into HDR transmission video data by performing luminance mapping processing. In this case, as shown in FIG. 14A, the luminance mapping unit 212a is configured by a series circuit of the SDR electro-optical conversion unit 231 and the HDR photoelectric conversion unit 232, and the conversion is performed from the SDR bit space based on the brightness reference level. Performed to the HDR bit space.

SDR電光変換部231では、SDR伝送ビデオデータに、図14(b)に矢印aで示すSDR電光変換特性による電光変換が施される。この場合、入力されるSDR伝送ビデオデータの輝度レベル0〜100%は、リニアな光線空間で最大100nits(=100cd/m2)となる。ここで、100nitsは基準レベルの明るさを示す。なお、基準レベルの明るさは100nitsに限定されるものではなく、例えば、200nitsあるいは300nitsであってもよい。このことは、以下の他の例においても同様である。 In the SDR electro-optical conversion unit 231, electro-optical conversion is performed on the SDR transmission video data by the SDR electro-optical conversion characteristic indicated by an arrow a in FIG. In this case, the luminance level 0 to 100% of the input SDR transmission video data is up to 100 nits (= 100 cd / m 2 ) in the linear ray space. Here, 100 nits indicates the brightness of the reference level. The brightness of the reference level is not limited to 100 nits, and may be, for example, 200 nits or 300 nits. The same applies to the other examples described below.

また、HDR光電変換部232では、図14(c)に矢印bで示すHDR光電変換特性による光電変換が施される。この場合、SDR電光変換部231の出力データは、0〜N*100の伝送範囲のうちの0〜100に再割り当てされる。これにより、SDR伝送ビデオデータは当初符号化ビット幅いっぱいで表現されていたものが、HDR伝送ビデオデータとして再割り当てされた後は伝送範囲の部分的な範囲内に集約される。   Further, in the HDR photoelectric conversion unit 232, photoelectric conversion is performed by the HDR photoelectric conversion characteristic indicated by an arrow b in FIG. In this case, the output data of the SDR electro-optical conversion unit 231 is reassigned to 0 to 100 within the transmission range of 0 to N * 100. As a result, the SDR transmission video data, which was originally expressed as being full of the coding bit width, is aggregated within a partial range of the transmission range after being reassigned as the HDR transmission video data.

次に、入力伝送ビデオデータがHDR伝送ビデオデータであって、このHDR伝送ビデオデータが持つ光電変換特性(OETF特性)がHDR電光変換部214における電光変換特性(EOTF特性)の逆特性に一致しない場合について説明する。なお、このHDR伝送ビデオデータが持つ光電変換特性がHDR電光変換部214における電光変換特性の逆特性と一致する場合には、輝度マッピング部212aは、実質的に何もせずに、入力データをそのまま出力する。   Next, the input transmission video data is HDR transmission video data, and the photoelectric conversion characteristic (OETF characteristic) of this HDR transmission video data does not match the inverse characteristic of the electro-optical conversion characteristic (EOTF characteristic) in the HDR electro-optical conversion unit 214 The case will be described. When the photoelectric conversion characteristic of the HDR transmission video data matches the inverse characteristic of the electro-optical conversion characteristic of the HDR electro-optical conversion unit 214, the luminance mapping unit 212a performs the input data as it is without doing anything substantially. Output.

この場合、輝度マッピング部212aでは、輝度マッピング処理が施されることで、HDR1伝送ビデオデータからHDR2伝送ビデオデータに変換される。この場合、輝度マッピング部212aは、図15(a)に示すように、HDR1電光変換部241とHDR2光電変換部242の直列回路で構成される。   In this case, the luminance mapping unit 212a converts the HDR1 transmission video data into the HDR2 transmission video data by being subjected to the luminance mapping processing. In this case, as shown in FIG. 15A, the luminance mapping unit 212a is configured by a series circuit of the HDR1 electro-optical conversion unit 241 and the HDR2 photoelectric conversion unit 242.

HDR1電光変換部241では、HDR1伝送ビデオデータに、図15(b)に矢印aで示すHDR1電光変換特性による電光変換が施される。この場合、入力されるHDR1伝送ビデオデータの輝度レベル0〜N*100%は、リニアな光線空間で最大N*100nits(=K1)に対応する。   The HDR1 electro-optical conversion unit 241 performs electro-optical conversion based on the HDR1 electro-optical conversion characteristic indicated by an arrow a in FIG. 15B on the HDR1 transmission video data. In this case, the luminance levels 0 to N * 100% of the input HDR1 transmission video data correspond to maximum N * 100 nits (= K1) in the linear ray space.

そして、この場合、図示のようにHDR1のN*100%がHDR2のM*100%よりも大きいときは、HDR1電光変換部241では、さらに、電光変換入力の信号に対して、100〜N*100%の輝度レベルが、ニー(knee)カーブ(図15(b)に矢印bで示す)によって、100〜M*100%の輝度レベルとなるように輝度変換される。なお、図15(b)において、“K1”はN*100%に対応した輝度値[nits]を示し、“K2”はM*100%に対応した輝度値[nits]を示している。なお、図示は省略するが、HDR1のN*100%がHDR2のM*100%以下である場合には、このような輝度変換はされない。   Then, in this case, when N * 100% of HDR1 is larger than M * 100% of HDR2 as shown in the figure, the HDR1 electro-optical conversion unit 241 further performs 100 to N * on the signal of the electro-optical conversion input. The luminance level of 100% is converted to a luminance level of 100 to M * 100% by a knee curve (indicated by an arrow b in FIG. 15B). In FIG. 15B, “K1” indicates a luminance value [nits] corresponding to N * 100%, and “K2” indicates a luminance value [nits] corresponding to M * 100%. Although not shown, when N * 100% of HDR1 is equal to or less than M * 100% of HDR2, such luminance conversion is not performed.

また、HDR光電変換部242では、図15(c)に矢印cで示すHDR2光電変換特性による光電変換が施される。この場合、HDR電光変換部241の出力データが、0〜M*100の伝送範囲の全体に再割り当てされる。   Further, in the HDR photoelectric conversion unit 242, photoelectric conversion is performed by the HDR2 photoelectric conversion characteristic indicated by an arrow c in FIG. In this case, the output data of the HDR transform unit 241 is reallocated to the entire transmission range of 0 to M * 100.

図12に戻って、静止画デコーダ206から供給されるイメージデータは、色変換部211bおよび輝度マッピング部212bの直列回路に供給される。色域変換部211bは、色域情報に基づいて、このイメージデータの色域を表示性能に合った広色域に変換する。輝度マッピング部212bは、ダイナミックレンジ情報に基づいて、このイメージデータに、ハイダイナミックレンジの表示性能に合うように、輝度マッピングをする。なお、色変換部211b、輝度マッピング部212bの詳細については、上述の伝送ビデオデータに対応した色変換部211a、輝度マッピング部212aと同様であるので、省略する。   Referring back to FIG. 12, the image data supplied from the still image decoder 206 is supplied to the series circuit of the color conversion unit 211b and the luminance mapping unit 212b. The color gamut conversion unit 211 b converts the color gamut of the image data into a wide color gamut that matches the display performance based on the color gamut information. The luminance mapping unit 212 b performs luminance mapping on the image data so as to match the display performance of the high dynamic range based on the dynamic range information. The details of the color converter 211 b and the luminance mapping unit 212 b are the same as those of the color converter 211 a and the luminance mapping unit 212 a corresponding to the above-described transmission video data, and thus the description thereof is omitted.

また、サブタイトルエンコーダ207から供給される字幕データは、色変換部211cおよび輝度マッピング部212cの直列回路に供給される。色域変換部211cは、色域情報に基づいて、この字幕データの色域を表示性能に合った広色域に変換する。輝度マッピング部212cは、ダイナミックレンジ情報に基づいて、この字幕データに、ハイダイナミックレンジの表示性能に合うように、輝度マッピングをする。なお、色変換部211c、輝度マッピング部212cの詳細については、上述の伝送ビデオデータに対応した色変換部211a、輝度マッピング部212aと同様であるので、省略する。   Also, subtitle data supplied from the subtitle encoder 207 is supplied to the series circuit of the color conversion unit 211c and the luminance mapping unit 212c. The color gamut conversion unit 211 c converts the color gamut of the subtitle data into a wide color gamut that matches the display performance based on the color gamut information. The luminance mapping unit 212c performs luminance mapping on the subtitle data based on the dynamic range information so as to match the display performance of the high dynamic range. The details of the color conversion unit 211c and the luminance mapping unit 212c are the same as those of the color conversion unit 211a and the luminance mapping unit 212a corresponding to the above-described transmission video data, and thus will not be described.

また、データサービスデコーダ205あるいはOSD部208から供給されるグラフィックスデータは、色変換部211dおよび輝度マッピング部212dの直列回路に供給される。色域変換部211dは、色域情報に基づいて、このグラフィックスデータの色域を表示性能に合った広色域に変換する。輝度マッピング部212dは、ダイナミックレンジ情報に基づいて、このグラフィックスデータに、ハイダイナミックレンジの表示性能に合うように、輝度マッピングをする。なお、色変換部211d、輝度マッピング部212dの詳細については、上述の伝送ビデオデータに対応した色変換部211a、輝度マッピング部212aと同様であるので、省略する。   Also, graphics data supplied from the data service decoder 205 or the OSD unit 208 is supplied to a series circuit of the color conversion unit 211 d and the luminance mapping unit 212 d. The color gamut conversion unit 211 d converts the color gamut of the graphics data into a wide color gamut that matches the display performance based on the color gamut information. The luminance mapping unit 212 d performs luminance mapping on the graphics data to match the display performance of the high dynamic range based on the dynamic range information. The details of the color converter 211 d and the luminance mapping unit 212 d are the same as those of the color converter 211 a and the luminance mapping unit 212 a corresponding to the above-described transmission video data, and thus the description thereof is omitted.

色域変換および輝度マッピングの処理が行われた伝送ビデオデータ、イメージデータ、字幕データおよびグラフィックデータは合成部213に供給される。合成部213は、詳細説明は省略するが、画面構成情報に基づいて、各データを合成する。この合成部213の出力データは、HDR光電変換部214に供給される。このHDR光電変換部214は、合成部213の出力データにHDR電光変換特性による電光変換を施し、HDRかつ広色域の表示性能に対応した表示用画像データを得る。   The transmission video data, the image data, the subtitle data and the graphic data subjected to the process of the gamut conversion and the luminance mapping are supplied to the synthesizing unit 213. Although the detailed description is omitted, the synthesizing unit 213 synthesizes each data based on the screen configuration information. The output data of the combining unit 213 is supplied to the HDR photoelectric conversion unit 214. The HDR photoelectric conversion unit 214 performs electro-optical conversion based on the HDR electro-optical conversion characteristic on the output data of the synthesis unit 213 to obtain display image data corresponding to the display performance of the HDR and the wide color gamut.

なお、上述ではモニタ210がHDRかつ広色域の表示性能を有し、画面合成処理部209でHDRかつ広色域の表示性能に対応した表示用画像データを得る例について説明した。モニタ210がSDRかつsRGB等の通常色域の表示性能を有する場合、画面合成処理部209は、SDRかつ通常色域の表示性能に対応した表示用画像データを得るように構成される。   In the above, the example has been described in which the monitor 210 has the HDR and wide color gamut display performance, and the screen combining processing unit 209 obtains display image data corresponding to the HDR and wide color gamut display performance. When the monitor 210 has the display performance of the normal color gamut such as SDR and sRGB, the screen synthesis processing unit 209 is configured to obtain display image data corresponding to the display performance of the SDR and the normal color gamut.

この場合、図12に示す画面合成処理部209において、各色域変換部では、色域情報に基づいて、各データの色域を表示性能に合った通常色域に変換することが行われる。また、図12に示す画面合成処理部209において、各輝度マッピング部では、ダイナミックレンジ情報に基づいて、各データに、通常ダイナミックレンジの表示性能に合うように、輝度マッピングが行われる。なお、図12に示す画面合成処理部209において、HDR電光変換部214は、SDR電光変換部となる。   In this case, in the screen synthesis processing unit 209 shown in FIG. 12, each color gamut conversion unit converts the color gamut of each data into a normal color gamut that matches the display performance based on the color gamut information. Further, in the screen synthesis processing unit 209 shown in FIG. 12, in each luminance mapping unit, luminance mapping is performed on each data so as to match the display performance of the normal dynamic range based on the dynamic range information. In the screen synthesis processing unit 209 illustrated in FIG. 12, the HDR electro-optical conversion unit 214 is an SDR electro-optical conversion unit.

ここで、入力伝送ビデオデータがHDR伝送ビデオデータである場合について説明する。この場合、輝度マッピング部では、輝度マッピング処理が施されることで、HDR伝送ビデオデータからSDR伝送ビデオデータに変換される。この場合、輝度マッピング部は、図16(a)に示すように、HDR電光変換部251とSDR光電変換部252の直列回路で構成される。   Here, a case where input transmission video data is HDR transmission video data will be described. In this case, the luminance mapping unit converts the HDR transmission video data into SDR transmission video data by performing luminance mapping processing. In this case, as shown in FIG. 16A, the luminance mapping unit is configured by a series circuit of the HDR electro-optical conversion unit 251 and the SDR photoelectric conversion unit 252.

HDR電光変換部251では、HDR伝送ビデオデータに、図16(b)に矢印aで示すHDR電光変換特性による電光変換が施される。この場合、入力されるHDR伝送ビデオデータの輝度レベル0〜N*100%は、リニアな光線空間で最大N*100nits(=100cd/m2)となる。 The HDR electro-optical conversion unit 251 subjects the HDR transmission video data to electro-optical conversion based on the HDR electro-optical conversion characteristic indicated by the arrow a in FIG. In this case, the luminance levels 0 to N * 100% of the input HDR transmission video data become maximum N * 100 nits (= 100 cd / m 2 ) in the linear ray space.

そして、この場合、HDR電光変換部251では、さらに、電光変換入力の信号に対して、100%より低いP%の輝度レベルからN*100%の輝度レベルまでが、ニー(knee)カーブ(図16(b)に矢印bで示す)によって、SDR OETFの100%の伝送範囲以下の輝度レベルとなるように輝度変換される。   Then, in this case, the HDR electro-optical conversion unit 251 further generates a knee curve (see FIG. 6) for the luminance conversion level lower than 100% to the luminance level of N * 100% with respect to the signal of the electro-optical conversion input. The luminance level is converted to a luminance level equal to or less than the 100% transmission range of the SDR OETF by the arrow 16 b).

また、SDR光電変換部252では、図16(c)に矢印cで示すSDR光電変換特性による光電変換が施される。この場合、HDR電光変換部251の出力データが、0〜100の伝送範囲の全体に再割り当てされる。   Further, in the SDR photoelectric conversion unit 252, photoelectric conversion is performed by the SDR photoelectric conversion characteristic indicated by the arrow c in FIG. In this case, the output data of the HDR transform unit 251 is reassigned to the entire transmission range of 0 to 100.

図10に示すサービス受信機200の動作を簡単に説明する。受信部202では、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリーム(MPEG−2 TSあるいはMMTのトランスポートストリーム)が受信される。このトランスポートストリームは、コンテナデコーダ203に供給される。コンテナデコーダ203では、トランスポートストリームから、ビデオストリームVS、データサービスストリームDSおよびサブタイトルストリームSSが抽出される。   The operation of the service receiver 200 shown in FIG. 10 will be briefly described. The reception unit 202 receives a transport stream (a transport stream of MPEG-2 TS or MMT) transmitted from the service transmission system 100 on broadcast waves or net packets. This transport stream is supplied to the container decoder 203. The container decoder 203 extracts the video stream VS, the data service stream DS and the subtitle stream SS from the transport stream.

また、コンテナデコーダ203では、コンテナとしてのトランスポートストリームに挿入されている種々の情報が抽出され、制御部201に送られる。この情報には、上述した、HDR・ビデオ・デスクリプタ(図5参照)、HDR・サブタイトル・デスクリプタ(図7参照)も含まれる。   The container decoder 203 extracts various information inserted in the transport stream as a container, and sends the information to the control unit 201. This information also includes the HDR video descriptor (see FIG. 5) and the HDR subtitle descriptor (see FIG. 7) described above.

制御部201では、HDR・ビデオ・デスクリプタの記述に基づいて、ビデオストリームVsに含まれる伝送ビデオデータがSDR伝送ビデオデータであるか、HDR伝送ビデオデータであるかなどが認識される。また、制御部201では、HDR・サブタイトル・デスクリプタの記述に基づいて、サブタイトルストリームSSが持つ字幕データの種類、つまりSDRデータであるかHDRデータであるかなどが認識される。   The control unit 201 recognizes, based on the description of the HDR video descriptor, whether the transmission video data included in the video stream Vs is SDR transmission video data or HDR transmission video data. Further, the control unit 201 recognizes the type of subtitle data possessed by the subtitle stream SS, that is, whether it is SDR data or HDR data, based on the description of the HDR / subtitle / descriptor.

コンテナデコーダ203で抽出されたビデオストリームVSは、ビデオデコーダ204に供給される。ビデオデコーダ204では、ビデオストリームVSに対してデコード処理が施され、伝送ビデオデータが得られると共に、この伝送ビデオデータのダイナミックレンジ情報および色域情報が得られる。   The video stream VS extracted by the container decoder 203 is supplied to the video decoder 204. The video decoder 204 decodes the video stream VS to obtain transmission video data, and also to obtain dynamic range information and color gamut information of the transmission video data.

また、コンテナデコーダ203で抽出されたデータサービスストリームDSは、データサービスデコーダ205に供給される。データサービスデコーダ205では、データサービスストリームDSに対してデコード処理が施され、グラフィックスデータ(ビットマップデータ)が得られると共に、このグラフィックスデータのダイナミックレンジ情報および色域情報が得られ、さらにイメージデータに係る符号化データが得られる。   Also, the data service stream DS extracted by the container decoder 203 is supplied to the data service decoder 205. The data service decoder 205 decodes the data service stream DS to obtain graphics data (bit map data), and obtains dynamic range information and color gamut information of the graphics data, and further, an image. Encoded data relating to the data is obtained.

データサービスデコーダ205で得られたイメージデータに係る符号化データは、静止画デコーダ206に供給される。静止画デコーダ206では、符号化データに対してデコード処理が施され、イメージデータが得られると共に、このイメージデータのダイナミックレンジ情報および色域情報が得られる。   The encoded data relating to the image data obtained by the data service decoder 205 is supplied to the still image decoder 206. The still image decoder 206 decodes the encoded data to obtain image data, and also obtains dynamic range information and color gamut information of the image data.

また、コンテナデコーダ203で抽出されたサブタイトルストリームSSは、サブタイトルデコーダ207に供給される。サブタイトルデコーダ207では、サブタイトルストリームSSに対してデコード処理が施され、字幕データ(ビットマップデータ)が得られると共に、この字幕データのダイナミックレンジ情報および色域情報が得られる。   Also, the subtitle stream SS extracted by the container decoder 203 is supplied to the subtitle decoder 207. The subtitle decoder 207 performs a decoding process on the subtitle stream SS to obtain subtitle data (bit map data) and to obtain dynamic range information and color gamut information of the subtitle data.

ビデオデコーダ204で得られた伝送ビデオデータ、データサービスデコーダ205で得られたグラフィックスデータ、静止画デコーダ206で得られたイメージデータ、サブタイトルデコーダ207で得られた字幕データおよびOSD部208で得られたグラフィックスデータは、それぞれのダイナミックレンジ情報および色域情報と共に、画面合成処理部209に供給される。   Transmission video data obtained by the video decoder 204, graphics data obtained by the data service decoder 205, image data obtained by the still picture decoder 206, subtitle data obtained by the subtitle decoder 207, and obtained by the OSD unit 208 The graphics data is supplied to the screen synthesis processing unit 209 together with the respective dynamic range information and color gamut information.

画面合成処理部209では、各データが合成されて、モニタ210の表示性能に対応した表示用画像データが生成される。この場合、各データは、それぞれのデータの色域情報に基づいて表示性能に合うように色域変換処理が施され、さらに、それぞれのデータのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理が施された後に、合成される。画面合成処理部209で生成された表示用画像データはモニタ210に供給され、このモニタ210に表示用画像データによる画像が表示される。   The screen combining processing unit 209 combines each data to generate display image data corresponding to the display performance of the monitor 210. In this case, each data is subjected to color gamut conversion processing to match display performance based on the color gamut information of each data, and further, brightness to match display performance based on each data dynamic range information. It is synthesized after the mapping process is performed. The display image data generated by the screen synthesis processing unit 209 is supplied to the monitor 210, and an image by the display image data is displayed on the monitor 210.

上述したように、図1に示す送受信システム10において、サービス送信システム100は、各コンポーネントストリーム(ビデオストリームVS、データサービスストリームDS、サブタイトルストリームSS)に、それぞれのコンポーネントストリームが持つコンポーネントデータ(伝送ビデオデータ、イメージデータ、グラフィックスデータ、字幕データ)のダイナミックレンジ情報を挿入する。そのため、受信側において各コンポーネントデータをそれぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して出力データを得ることが可能となる。   As described above, in the transmission / reception system 10 shown in FIG. 1, the service transmission system 100 transmits component data (transmission video) to each component stream (video stream VS, data service stream DS, subtitle stream SS). Insert dynamic range information of data, image data, graphics data, subtitle data). Therefore, on the receiving side, it is possible to obtain output data by combining each component data after performing luminance mapping processing to match display performance based on the respective dynamic range information.

この場合、この出力データに施す電光変換の特性を固定できることから(図12のHDR電光変換部214参照)、電光変換特性の切り替えに起因する画乱れの発生を防止することが可能となる。例えば、ビデオデータによる画像と共にグラフィックス表示がされるときに、ビデオデータによる画像がSDRからHDRあるいはHDRからSDRに切り換わったとしても、グラフィックス表示における色や明るさが変化することはなくなる。また、この場合、各コンポーネントデータに表示性能に合うように輝度マッピング処理が施されることから、各コンポーネントデータによる表示を常に適切な輝度状態で表示することが可能となる。   In this case, since the characteristics of electro-optical conversion to be applied to the output data can be fixed (see the HDR electro-optical conversion unit 214 in FIG. 12), it is possible to prevent the occurrence of distortion due to switching of the electro-optical conversion characteristics. For example, when graphics are displayed together with an image by video data, even if the image by video data is switched from SDR to HDR or from HDR to SDR, there is no change in color or brightness in graphics display. Further, in this case, since the luminance mapping process is performed on each component data so as to match the display performance, it is possible to always display the display by each component data in an appropriate luminance state.

例えば、図17(a),(b)は、放送サービスの一つとして存在する、いわゆる“dボタン”操作によるグラフィックス表示の例を示している。右上の小窓に伝送ビデオデータによる動画像が表示され、左下にイメージデータによる静止画像が表示されている。   For example, FIGS. 17 (a) and 17 (b) show an example of graphic display by so-called "d button" operation existing as one of the broadcast services. A moving image by transmission video data is displayed in a small window at the upper right, and a still image by image data is displayed at the lower left.

図17(a)は、伝送ビデオデータがSDR伝送ビデオデータであるかHDR伝送ビデオデータであるかによって伝送ビデオデータに施す電光変換の特性を切り替える場合の例である。この場合には、SDRの画像表示時とHDRの画像表示時の切替えの際にグラフィックス表示の色や輝度が影響される。   FIG. 17A shows an example of switching the characteristics of electro-optical conversion to be applied to transmission video data depending on whether the transmission video data is SDR transmission video data or HDR transmission video data. In this case, the color and the luminance of the graphic display are influenced at the time of switching between the SDR image display and the HDR image display.

図17(b)は、本技術のように、伝送ビデオデータがSDR伝送ビデオデータであるかHDR伝送ビデオデータであるかによらずに伝送ビデオデータに施す電光変換の特性を固定とする場合の例である。この場合には、SDRの画像表示時とHDRの画像表示時の切替えの際にグラフィックス表示の色や輝度が影響されるということがなくなる。   FIG. 17B shows the case where the characteristic of electro-optical conversion to be applied to transmission video data is fixed regardless of whether the transmission video data is SDR transmission video data or HDR transmission video data as in the present technology. It is an example. In this case, the color and the luminance of the graphics display are not affected when switching between the SDR image display and the HDR image display.

また、図1に示す送受信システム10において、サービス送信システム100は、各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報を挿入する。そのため、受信側において各コンポーネントデータをそれぞれの色域情報に基づいて表示性能に合うように色域変換を施した後に合成して出力データを得ることが可能となり、各コンポーネントデータによる表示を常に適切な色状態で表示することが可能となる。   Further, in the transmission / reception system 10 shown in FIG. 1, the service transmission system 100 inserts color gamut information of component data of each component stream into each component stream. Therefore, it is possible to obtain output data by combining each component data after performing color gamut conversion to suit display performance based on the respective color gamut information on the receiving side, and the display by each component data is always appropriate It is possible to display in various color states.

<2.変形例>
なお、上述実施の形態においては、サービス送信システム100およびサービス受信機200により構成される送受信システム10を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、サービス受信機200が、例えば、HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックス(STB)およびモニタからなる構成であってもよい。なお、「HDMI」は、登録商標である。
<2. Modified example>
Although the transmission / reception system 10 including the service transmission system 100 and the service receiver 200 is described in the above embodiment, the configuration of the transmission / reception system to which the present technology can be applied is not limited to this. . For example, the service receiver 200 may be configured of, for example, a set top box (STB) and a monitor connected by a digital interface such as a high-definition multimedia interface (HDMI). "HDMI" is a registered trademark.

また、上述実施の形態においては、コンテナがMPEG−2 TS(MPEG-2 Transport Stream)あるいはMMT(MPEG Media Transport)のトランスポートストリームである例を示した。しかし、本技術を適用し得るコンテナは、これに限定されるものではなく、MP4などの他のフォーマットのコンテナであってもよい。   Further, in the above-described embodiment, an example has been shown in which the container is a transport stream of MPEG-2 TS (MPEG-2 Transport Stream) or MMT (MPEG Media Transport). However, the container to which the present technology can be applied is not limited to this, and may be a container of another format such as MP4.

また、本技術は、以下のような構成を取ることもできる。
(1)複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを送信する送信部と、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入する情報挿入部を備える
送信装置。
(2)上記情報挿入部は、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報をさらに挿入する
前記(1)に記載の送信装置。
(3)上記コンテナのレイヤに、該コンテナに含まれる上記第1のコンポーネントストリームが持つ伝送ビデオデータの種類を示す識別情報を、切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入する情報挿入部をさらに備える
前記(1)または(2)に記載の送信装置。
(4)上記所定数の第2のコンポーネントストリームには、データ放送ストリームおよび/またはサブタイトルストリームが含まれる
前記(1)から(3)のいずれかに記載の送信装置。
(5)送信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入する情報挿入ステップを有する
送信方法。
(6)複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されており、
上記各コンポーネントストリームをデコードして複数のコンポーネントデータを得、該得られた複数のコンポーネントデータを合成して出力データを得る処理部をさらに備え、
上記処理部は、
上記各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して上記出力データを得る
受信装置。
(7)上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報がさらに挿入されており、
上記処理部は、
上記各コンポーネントデータを、それぞれの色域情報に基づいて表示性能に合うように色域変換処理を施した後に合成して上記出力データを得る
前記(6)に記載の受信装置。
(8)受信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されており、
上記各コンポーネントストリームをデコードして複数のコンポーネントデータを得、該得られた複数のコンポーネントデータを合成して出力データを得る処理ステップをさらに有し、
上記処理ステップでは、
上記各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して上記出力データを得る
受信方法。
Furthermore, the present technology can also be configured as follows.
(1) A predetermined format including a predetermined number of second component streams having other component data, together with a first component stream having transmission video data obtained by switching transmission video data of a plurality of types as component data A transmitter for transmitting a container,
A transmitter comprising: an information insertion unit for inserting dynamic range information of component data of each component stream into each of the component streams.
(2) The information insertion unit
The transmitting device according to (1), further inserting color gamut information of component data of each component stream into each of the component streams.
(3) Transmission after switching in the layer of the container, identification information indicating the type of transmission video data possessed by the first component stream included in the container, from timing earlier than the switching timing by a predetermined time amount or more The transmission device according to (1) or (2), further including an information insertion unit that inserts data so as to indicate a type of video data.
(4) The transmission device according to any one of (1) to (3), wherein the predetermined number of second component streams include a data broadcast stream and / or a subtitle stream.
(5) The transmitter transmits a predetermined number of second component streams having other component data together with the first component stream having component video data obtained by switching transmission video data of a plurality of types. Sending the container in a predetermined format including:
A transmission method comprising: an information inserting step of inserting dynamic range information of component data of each component stream into each of the component streams.
(6) A predetermined format including a predetermined number of second component streams having other component data, together with a first component stream having transmission video data obtained by switching plural types of transmission video data as component data It has a receiver that receives containers,
Dynamic range information of the component data of each component stream is inserted in each of the above component streams,
The system further comprises a processing unit that decodes each of the component streams to obtain a plurality of component data and combines the obtained plurality of component data to obtain output data.
The above processing unit
A receiver according to the present invention, wherein the above component data are subjected to luminance mapping processing so as to match display performance based on respective dynamic range information, and then combined to obtain the above output data.
(7) The color gamut information of the component data of each component stream is further inserted into each of the above component streams,
The above processing unit
The receiving apparatus according to (6), wherein the component data is subjected to color gamut conversion processing so as to match display performance based on respective color gamut information, and then combined to obtain the output data.
(8) A predetermined number of second component streams having other component data together with the first component stream having transmission video data obtained by switching the plurality of types of transmission video data as component data by the reception unit Receiving a container of a predetermined format including:
Dynamic range information of the component data of each component stream is inserted in each of the above component streams,
The method further includes a processing step of decoding each of the component streams to obtain a plurality of component data, and combining the obtained plurality of component data to obtain output data.
In the above processing step,
A receiving method for obtaining the above output data by combining each component data described above with luminance mapping processing so as to match display performance based on respective dynamic range information.

本技術の主な特徴は、各コンポーネントストリームにそれぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入して送信することで、受信側における電光変換の特性の固定を可能とし、電光変換特性の切り替えに起因する画乱れの発生を防止可能としたことである(図2参照)。   The main feature of this technology is that by inserting the dynamic range information of component data possessed by each component stream into each component stream and transmitting it, it becomes possible to fix the characteristics of electro-optical conversion on the receiving side, and the electro-optical conversion characteristics It is possible to prevent the occurrence of distortion due to switching (see FIG. 2).

10・・・送受信システム
100・・・サービス送信システム
101・・・制御部
102・・・ビデオエンコーダ
103・・・データサービスエンコーダ
104・・・静止画エンコーダ
105・・・サブタイトルエンコーダ
106・・・コンテナエンコーダ
107・・・送信部
200・・・サービス受信機
201・・・制御部
202・・・受信部
203・・・コンテナデコーダ
204・・・ビデオデコーダ
205・・・データサービスデコーダ
206・・・静止画デコーダ
207・・・サブタイトルデコーダ
208・・・OSD部
209・・・画面合成処理部
210・・・モニタ
211a,211b,211c,211d・・・色域変換部
212a,212b,212c,212d・・・輝度マッピング部
213・・・合成部
214・・・HDR電光変換部
221・・・電光変換部(EOTF部)
222・・・光電変換部(OETF部)
231・・・SDR電光変換部
232・・・HDR光電変換部
241・・・HDR1電光変換部
242・・・HDR2光電変換部
251・・・HDR電光変換部
252・・・SDR光電変換部
10: Transmission / reception system 100: Service transmission system 101: Control unit 102: Video encoder 103: Data service encoder 104: Still image encoder 105: Subtitle encoder 106: Container Encoder 107 ... Transmission unit 200 ... Service receiver 201 ... Control unit 202 ... Reception unit 203 ... Container decoder 204 ... Video decoder 205 ... Data service decoder 206 ... Stationary Image decoder 207: Subtitle decoder 208: OSD unit 209: Screen combination processing unit 210: Monitor 211a, 211b, 211c, 211d: Color gamut conversion unit 212a, 212b, 212c, 212d,. · Luminance mapping unit 213 ... combining unit 214 ··· HDR light-to-light converter 221 ··· light-to-light converter (EOTF unit)
222: Photoelectric conversion unit (OETF unit)
231 ... SDR light-to-light conversion unit 232 ... HDR photoelectric conversion unit 241 ... HDR1 light-to-light conversion unit 242 ... HDR2 photoelectric conversion unit 251 ... HDR electric-to-light conversion unit 252 ... SDR photoelectric conversion unit

Claims (8)

複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを送信する送信部と、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入する情報挿入部を備える
送信装置。
A container of a predetermined format including a predetermined number of second component streams having other component data is transmitted together with the first component stream having transmission video data obtained by switching plural types of transmission video data as component data The transmitter to
A transmitter comprising: an information insertion unit for inserting dynamic range information of component data of each component stream into each of the component streams.
上記情報挿入部は、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報をさらに挿入する
請求項1に記載の送信装置。
The information insertion unit
The transmission apparatus according to claim 1, further comprising: color gamut information of component data of each component stream, inserted into each of the component streams.
上記コンテナのレイヤに、該コンテナに含まれる上記第1のコンポーネントストリームが持つ伝送ビデオデータの種類を示す識別情報を、切り替えタイミングより所定の時間量以上だけ前のタイミングから切り替え後の伝送ビデオデータの種類を示すように挿入する情報挿入部をさらに備える
請求項1に記載の送信装置。
In the layer of the container, identification information indicating the type of transmission video data of the first component stream included in the container is transmitted video data after switching from a timing earlier by a predetermined time than the switching timing. The transmission device according to claim 1, further comprising an information insertion unit that inserts information so as to indicate a type.
上記所定数の第2のコンポーネントストリームには、データ放送ストリームおよび/またはサブタイトルストリームが含まれる
請求項1に記載の送信装置。
The transmission apparatus according to claim 1, wherein the predetermined number of second component streams include a data broadcast stream and / or a subtitle stream.
送信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報を挿入する情報挿入ステップを有する
送信方法。
A predetermined format including a predetermined number of second component streams having other component data together with a first component stream having transmission video data obtained by switching a plurality of types of transmission video data as component data by the transmission unit A sending step of sending a container of
A transmission method comprising: an information inserting step of inserting dynamic range information of component data of each component stream into each of the component streams.
複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されており、
上記各コンポーネントストリームをデコードして複数のコンポーネントデータを得、該得られた複数のコンポーネントデータを合成して出力データを得る処理部をさらに備え、
上記処理部は、
上記各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して上記出力データを得る
受信装置。
Receiving a container of a predetermined format including a predetermined number of second component streams having other component data, together with a first component stream having transmission video data obtained by switching between plural types of transmission video data as component data Equipped with a receiver to
Dynamic range information of the component data of each component stream is inserted in each of the above component streams,
The system further comprises a processing unit that decodes each of the component streams to obtain a plurality of component data and combines the obtained plurality of component data to obtain output data.
The above processing unit
A receiver according to the present invention, wherein the above component data are subjected to luminance mapping processing so as to match display performance based on respective dynamic range information, and then combined to obtain the above output data.
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータの色域情報がさらに挿入されており、
上記処理部は、
上記各コンポーネントデータを、それぞれの色域情報に基づいて表示性能に合うように色域変換処理を施した後に合成して上記出力データを得る
請求項6に記載の受信装置。
The color gamut information of the component data of each component stream is further inserted into each of the above component streams,
The above processing unit
The receiver according to claim 6, wherein each of the component data is subjected to color gamut conversion processing so as to match display performance based on each color gamut information and then combined to obtain the output data.
受信部により、複数の種類の伝送ビデオデータを切り替えて得られた伝送ビデオデータをコンポーネントデータとして持つ第1のコンポーネントストリームと共に、他のコンポーネントデータを持つ所定数の第2のコンポーネントストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
上記各コンポーネントストリームに、それぞれのコンポーネントストリームが持つコンポーネントデータのダイナミックレンジ情報が挿入されており、
上記各コンポーネントストリームをデコードして複数のコンポーネントデータを得、該得られた複数のコンポーネントデータを合成して出力データを得る処理ステップをさらに有し、
上記処理ステップでは、
上記各コンポーネントデータを、それぞれのダイナミックレンジ情報に基づいて表示性能に合うように輝度マッピング処理を施した後に合成して上記出力データを得る
受信方法。
A predetermined format including a predetermined number of second component streams having other component data together with a first component stream having transmission video data obtained by switching a plurality of types of transmission video data as component data by the receiving unit Receiving a container of
Dynamic range information of the component data of each component stream is inserted in each of the above component streams,
The method further includes a processing step of decoding each of the component streams to obtain a plurality of component data, and combining the obtained plurality of component data to obtain output data.
In the above processing step,
A receiving method for obtaining the above output data by combining each component data described above with luminance mapping processing so as to match display performance based on respective dynamic range information.
JP2019083495A 2019-04-25 2019-04-25 Transmitting device, transmitting method, receiving device and receiving method Active JP6658944B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019083495A JP6658944B2 (en) 2019-04-25 2019-04-25 Transmitting device, transmitting method, receiving device and receiving method
JP2020004923A JP6958645B2 (en) 2019-04-25 2020-01-16 Transmitter, transmitter, receiver and receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019083495A JP6658944B2 (en) 2019-04-25 2019-04-25 Transmitting device, transmitting method, receiving device and receiving method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015208445A Division JP6519441B2 (en) 2015-10-22 2015-10-22 Transmission apparatus, transmission method, reception apparatus and reception method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020004923A Division JP6958645B2 (en) 2019-04-25 2020-01-16 Transmitter, transmitter, receiver and receiver

Publications (2)

Publication Number Publication Date
JP2019118151A true JP2019118151A (en) 2019-07-18
JP6658944B2 JP6658944B2 (en) 2020-03-04

Family

ID=67303578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019083495A Active JP6658944B2 (en) 2019-04-25 2019-04-25 Transmitting device, transmitting method, receiving device and receiving method

Country Status (1)

Country Link
JP (1) JP6658944B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140232614A1 (en) * 2013-02-21 2014-08-21 Dolby Laboratories Licensing Corporation Systems and Methods for Synchronizing Secondary Display Devices to a Primary Display
WO2014178286A1 (en) * 2013-04-30 2014-11-06 ソニー株式会社 Transmission device, transmission method, receiving device, and receiving method
JP2016111692A (en) * 2014-12-03 2016-06-20 パナソニックIpマネジメント株式会社 Data generation method, data reproduction method, data generation device and data reproduction device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140232614A1 (en) * 2013-02-21 2014-08-21 Dolby Laboratories Licensing Corporation Systems and Methods for Synchronizing Secondary Display Devices to a Primary Display
WO2014178286A1 (en) * 2013-04-30 2014-11-06 ソニー株式会社 Transmission device, transmission method, receiving device, and receiving method
JP2016111692A (en) * 2014-12-03 2016-06-20 パナソニックIpマネジメント株式会社 Data generation method, data reproduction method, data generation device and data reproduction device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T.BORER AND A. COTTON: "A "Display Independent" High Dynamic Range Television System", WHITE PAPER WHP 309 [ONLINE], JPN6019052082, September 2015 (2015-09-01), pages 1 - 9, ISSN: 0004187573 *

Also Published As

Publication number Publication date
JP6658944B2 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
US11716493B2 (en) Transmission device, transmission method, reception device, reception method, display device, and display method
US10560674B2 (en) Transmitting device, transmitting method, receiving device, and receiving method
JP6984694B2 (en) Transmitter, transmitter, receiver and receiver
JP7396401B2 (en) Transmitting device, transmitting method, receiving device and receiving method
EP3217672B1 (en) Transmission device, transmission method, reception device, and reception method
US11317170B2 (en) Transmission device, transmission method, reception device, and reception method
EP3400710B1 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
JP6958645B2 (en) Transmitter, transmitter, receiver and receiver
JP6658944B2 (en) Transmitting device, transmitting method, receiving device and receiving method
JP2021073761A (en) Transmitter, transmission method, receiver and receiving method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R151 Written notification of patent or utility model registration

Ref document number: 6658944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151