JP2018042021A - Receiver, television apparatus, broadcast system, transmitter and program - Google Patents

Receiver, television apparatus, broadcast system, transmitter and program Download PDF

Info

Publication number
JP2018042021A
JP2018042021A JP2016172773A JP2016172773A JP2018042021A JP 2018042021 A JP2018042021 A JP 2018042021A JP 2016172773 A JP2016172773 A JP 2016172773A JP 2016172773 A JP2016172773 A JP 2016172773A JP 2018042021 A JP2018042021 A JP 2018042021A
Authority
JP
Japan
Prior art keywords
blinking
information
video
luminance
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016172773A
Other languages
Japanese (ja)
Inventor
尚昭 柴本
Hisaaki Shibamoto
尚昭 柴本
靖 手塚
Yasushi Tezuka
靖 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016172773A priority Critical patent/JP2018042021A/en
Priority to PCT/JP2017/027632 priority patent/WO2018042993A1/en
Publication of JP2018042021A publication Critical patent/JP2018042021A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Receiver Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To limit display of a scene (flickering scene) where the brightness change of a video repeats rapidly in a short time, while reducing discomfort of a user when viewing a content.SOLUTION: A receiver includes an accompanying information processing unit for acquiring brightness information related to flickering of a high dynamic range video from the information accompanying to the high dynamic range video having brightness of wider range than a predetermined brightness range, an output processing section performing the processing related to output of the high dynamic range video, and an output control section for limiting output of a flickering scene from the output processing section, when a determination is made that a flickering scene of higher flickering degree than a predetermined flickering degree is contained in the high dynamic range video, based on the brightness information.SELECTED DRAWING: Figure 3

Description

本発明は、受信装置、テレビジョン装置、放送システム、送信装置およびプログラムに関する。   The present invention relates to a receiving device, a television device, a broadcasting system, a transmitting device, and a program.

テレビジョン放送の高度化の一環として、HDR(High Dynamic Range;ハイダイナミックレンジ、高ダイナミックレンジ、広帯域ダイナミックレンジとも呼ばれる)映像がある。HDR映像は、従来よりも高輝度で表示され、映像品位の向上を図るものである。他方、ユーザが、映像の輝度が短時間で急激に繰り返すシーン(以降、明滅シーンと呼ぶ)を視認すると、ユーザの体調に不調を来たす場合があることが知られている。ここで、HDR映像の最大輝度は、通常の輝度範囲を有する映像(SDR:Standard Dynamic Range)映像の最大輝度よりも高いので、映像の輝度が短時間で急激な変化を繰り返すシーンでは、その輝度の変化量も大きくなる。そのため、明滅シーンを視認したユーザが体調の不調を来すおそれがさらに高くなる。   As part of the advancement of television broadcasting, there is HDR (High Dynamic Range; also called high dynamic range, high dynamic range, wideband dynamic range) video. The HDR video is displayed with higher brightness than before, and the video quality is improved. On the other hand, it is known that when the user visually recognizes a scene where the luminance of the video is rapidly repeated in a short time (hereinafter referred to as a blinking scene), the physical condition of the user may be upset. Here, the maximum brightness of the HDR video is higher than the maximum brightness of a video having a normal brightness range (SDR: Standard Dynamic Range). Therefore, in a scene where the brightness of the video repeats abrupt changes in a short time, the brightness is high. The amount of change also increases. Therefore, the possibility that the user who visually recognizes the blinking scene will be sick is further increased.

特許文献1には、画像を表示するディスプレイと、画像を見る者に光過敏症発作を起こさせる恐れがあるか否かを判断する判断回路と、光過敏症発作を起こさせる恐れがあると判断回路が判断したとき、画像の表示を制御する表示制御回路と、を有する画像表示装置が開示されている。画像の表示制御の内容としては、輝度やコントラストを低下させること、画像を静止画にすること、規則的パターンでマスクすることなどが開示されている。   Patent Document 1 discloses a display that displays an image, a determination circuit that determines whether or not a person who views the image may cause a photosensitivity attack, and a risk that the photosensitivity attack may occur. An image display device having a display control circuit that controls display of an image when the circuit determines is disclosed. As contents of image display control, reducing brightness and contrast, making an image a still image, masking with a regular pattern, and the like are disclosed.

特開2006−246138号公報JP 2006-246138 A

特許文献1に開示の技術では、明滅シーンの輝度やコントラストを低下させても、ユーザの光知覚能力や過敏性に応じて、依然としてユーザが体調の不調を来たす可能性がある。また、明滅シーンを静止画に置き換える場合や、規則的パターンでマスクする場合は、ユーザのコンテンツ視聴時の違和感が大きいという問題がある。   With the technique disclosed in Patent Document 1, even if the brightness and contrast of the blinking scene are reduced, the user may still be in a poor physical condition depending on the user's light perception ability and sensitivity. In addition, when the blinking scene is replaced with a still image or when it is masked with a regular pattern, there is a problem that the user feels uncomfortable when viewing content.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像に付随する付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理部と、前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理部と、前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記出力処理部に、前記明滅シーンの出力を制限させる出力制御部と、を備える受信装置である。   The present invention has been made to solve the above-described problems, and one aspect of the present invention is based on the accompanying information accompanying the high dynamic range image having a luminance wider than the predetermined luminance range, and the high dynamic range image is obtained. An associated information processing unit that acquires luminance information related to flickering, an output processing unit that performs processing related to output of the high dynamic range video, and the high dynamic range video flashes more than a predetermined flashing level based on the luminance information When it is determined that a blinking scene having a high degree is included, the receiving apparatus includes: an output control unit that restricts the output of the blinking scene to the output processing unit.

本発明の一態様によれば、ユーザのコンテンツ視聴時の違和感を低減しつつ、映像の輝度が短時間で急激に繰り返すシーン(明滅シーン)の表示を制限することができる。   According to one aspect of the present invention, it is possible to limit the display of a scene (flashing scene) in which the luminance of a video repeats rapidly in a short time while reducing the user's uncomfortable feeling when viewing content.

第1の実施形態に係る放送システムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the broadcast system which concerns on 1st Embodiment. 第1の実施形態に係る送信装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the transmitter which concerns on 1st Embodiment. 第1の実施形態に係る受信装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the receiver which concerns on 1st Embodiment. 第1の実施形態に係るMPTのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of MPT which concerns on 1st Embodiment. 第1の実施形態に係る輝度情報の一例を示す図である。It is a figure which shows an example of the luminance information which concerns on 1st Embodiment. 第1の実施形態に係る明滅情報の一例を示す図である。It is a figure which shows an example of the blink information which concerns on 1st Embodiment. 第1の実施形態に係る輝度変化情報の一例を示す図である。It is a figure which shows an example of the brightness change information which concerns on 1st Embodiment. 第1の実施形態に係る最大輝度情報の一例を示す図である。It is a figure which shows an example of the maximum luminance information which concerns on 1st Embodiment. 第1の実施形態に係る輝度情報に基づく処理の一例を示す図である。It is a figure which shows an example of the process based on the luminance information which concerns on 1st Embodiment. 第1の実施形態に係る輝度情報に基づく処理の他の例を示す図である。It is a figure which shows the other example of the process based on the luminance information which concerns on 1st Embodiment. 第1の実施形態の一変形例に係る付随情報のデータ構成の一例を示す図である。It is a figure which shows an example of a data structure of the accompanying information which concerns on the modification of 1st Embodiment. 第1の実施形態の一変形例に係る輝度情報が格納されるデータ領域の一例を示す図である。It is a figure which shows an example of the data area in which the brightness | luminance information which concerns on the modification of 1st Embodiment is stored. 第2の実施形態に係る放送システムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the broadcast system which concerns on 2nd Embodiment. 第2の実施形態に係る受信装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the receiver which concerns on 2nd Embodiment. 第2の実施形態に係るアプリケーション制御の例を示す図である。It is a figure which shows the example of the application control which concerns on 2nd Embodiment. 第2の実施形態に係るアプリケーションの一実行例を示す図である。It is a figure which shows one execution example of the application which concerns on 2nd Embodiment.

以下、本発明の実施形態について、図面を参照して説明する。
[第1の実施形態]
まず、本発明の第1の実施形態に係る放送システム1の概要について説明する。
図1は、本実施形態に係る放送システム1の構成を示す概略ブロック図である。
放送システム1は、送信装置10と受信装置20とを含んで構成される。
送信装置10は、放送される番組のコンテンツを表す番組データを、放送伝送路BTを介して受信装置に送信する。コンテンツには、映像と音声が含まれる。以下の説明ではコンテンツとは、番組もしくは当該番組で提供される映像を意味することがある。また、映像とは、動画だけでなく音声も含めて意味することがある。放送伝送路BTは、番組データを不特定多数の受信装置20に一方的かつ一斉に送信する伝送路である。放送伝送路BTは、例えば、所定の周波数帯域を有する放送波である。放送伝送路BTは、放送波を中継する放送衛星BSを含んで構成されてもよい。放送伝送路BTには、その一部にネットワーク、例えば、専用回線、VPN(Virtual Private Network)が含まれてもよい。
受信装置20は、放送伝送路BTを介して伝送された番組データを受信する。受信装置20は、受信した番組データに基づく映像を表示する。受信装置20は、例えば、テレビジョン装置、セットトップボックスなど、番組データを受信し、受信した番組データに係る映像を表示部に表示することができる電子機器である。また、受信装置20は、テレビジョン装置に含まれてもよい。図1に示す送信装置10、受信装置20の数は、それぞれ1個であるが、一般には複数である。また、放送システム1がメディアトランスポート方式としてMMT(MPEG Media Transport)方式を用いる場合を例にする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, an overview of the broadcast system 1 according to the first embodiment of the present invention will be described.
FIG. 1 is a schematic block diagram showing a configuration of a broadcasting system 1 according to the present embodiment.
The broadcast system 1 includes a transmission device 10 and a reception device 20.
The transmission device 10 transmits program data representing the content of the broadcast program to the reception device via the broadcast transmission path BT. The content includes video and audio. In the following description, the content may mean a program or a video provided by the program. In addition, video may mean not only moving images but also audio. The broadcast transmission path BT is a transmission path for unilaterally and simultaneously transmitting program data to an unspecified number of receiving devices 20. The broadcast transmission path BT is a broadcast wave having a predetermined frequency band, for example. The broadcast transmission path BT may include a broadcast satellite BS that relays broadcast waves. A part of the broadcast transmission path BT may include a network, for example, a dedicated line or a VPN (Virtual Private Network).
The receiving device 20 receives program data transmitted via the broadcast transmission path BT. The receiving device 20 displays an image based on the received program data. The receiving device 20 is an electronic device such as a television device or a set top box that can receive program data and display a video related to the received program data on a display unit. Further, the receiving device 20 may be included in a television device. Although the number of transmitting apparatuses 10 and receiving apparatuses 20 shown in FIG. 1 is one each, there are generally a plurality. Further, a case where the broadcasting system 1 uses an MMT (MPEG Media Transport) system as a media transport system is taken as an example.

放送システム1は、輝度のダイナミックレンジが、個々に異なる番組を放送することができる。言い換えれば、放送システム1において、HDR放送番組とSDR放送番組が放送される。HDR放送番組は、輝度範囲がHDRであるHDR映像を含む番組である。SDR放送番組は、輝度範囲がSDRであるSDR映像を含む番組である。HDR映像を表す映像データ、SDR映像を表す映像データを、それぞれHDR映像データ、SDR映像データと呼ぶ。   The broadcast system 1 can broadcast programs having different luminance dynamic ranges. In other words, in the broadcast system 1, an HDR broadcast program and an SDR broadcast program are broadcast. The HDR broadcast program is a program including an HDR video whose luminance range is HDR. The SDR broadcast program is a program including an SDR video whose luminance range is SDR. Video data representing HDR video and video data representing SDR video are referred to as HDR video data and SDR video data, respectively.

(映像の輝度)
映像の輝度には、光学輝度と画像輝度との2種類がある。光学輝度とは、光源の明るさを表す物理量の1つである。光学輝度は、例えば、ディスプレイから発光される映像の明るさを表すときに用いられる。本実施形態では、一例として、0〜10000cd/mの輝度範囲をHDRと称し、0〜100cd/mの輝度範囲をSDRと称する。つまり、HDRは、SDRによりも広い光学輝度のダイナミックレンジを有する。なお、HDR、SDRの輝度範囲は上述したものに限定されず、例えば、放送システムに応じて任意に定められてよい。以下では、光学輝度のダイナミックレンジを単にダイナミックレンジと呼ぶことがある。画像輝度とは、映像の明るさを表す信号レベルまたはその相対値を意味する。以下の説明では、光学輝度、画像輝度を、それぞれ輝度、輝度値と呼ぶことがある。
(Brightness of image)
There are two types of video brightness, optical brightness and image brightness. Optical luminance is one of physical quantities representing the brightness of a light source. The optical luminance is used, for example, to represent the brightness of an image emitted from the display. In the present embodiment, as an example, referred to as HDR luminance range 0~10000cd / m 2, referred to the luminance range of 0~100cd / m 2 and SDR. That is, HDR has a wider dynamic range of optical brightness than SDR. Note that the HDR and SDR luminance ranges are not limited to those described above, and may be arbitrarily determined according to, for example, a broadcasting system. Hereinafter, the dynamic range of the optical brightness may be simply referred to as the dynamic range. The image brightness means a signal level representing the brightness of an image or a relative value thereof. In the following description, optical luminance and image luminance may be referred to as luminance and luminance value, respectively.

放送システム1は、HDR映像データまたはSDR映像データを含む番組データを伝送する。HDR映像データは、例えば、SMPTE(Society of Motion Picture and Television Engineers)ST.2084−2014、CTA(Consumer Technology Association)−861−Fなどにより規定される映像フォーマットで構成される。以下の説明では、HDR映像データのデータ形式をHDR形式と呼ぶ。HDR映像データでは、HDRの輝度範囲内の輝度が輝度値と対応付けられる。画素毎の輝度値が10ビットで表されるとき、例えば、64〜940の輝度値が0〜10000cd/mの輝度に対応する。 The broadcast system 1 transmits program data including HDR video data or SDR video data. The HDR video data is, for example, SMPTE (Society of Motion Picture and Television Engineers) ST. 2084-2014, CTA (Consumer Technology Association) -861-F, and the like. In the following description, the data format of the HDR video data is referred to as the HDR format. In the HDR video data, the luminance within the HDR luminance range is associated with the luminance value. When the luminance value for each pixel is represented by 10 bits, for example, the luminance value of 64 to 940 corresponds to the luminance of 0 to 10000 cd / m 2 .

SDR映像データは、例えば、Rec.ITU−R BT.709により規定される映像フォーマットで構成される。以下の説明では、SDR映像データのデータ形式をSDR形式と呼ぶ。SDR映像データでは、SDRの輝度範囲内の輝度が輝度値と対応付けられる。SDR映像データでは、画素毎の輝度値を表すためのビット数はHDR映像データよりも少ない。例えば、画素毎の輝度値が8ビットで表されるとき、16〜240の輝度値が0〜100cd/mの輝度に対応する。輝度値の最小値(例えば、10ビットで表されるとき64)、最大値(例えば、10ビットで表されるとき940)は、基準黒レベル、基準白レベルとも呼ばれる。 The SDR video data is, for example, Rec. ITU-R BT. 709. In the following description, the data format of SDR video data is referred to as the SDR format. In the SDR video data, the luminance within the luminance range of SDR is associated with the luminance value. In SDR video data, the number of bits for representing the luminance value for each pixel is smaller than that in HDR video data. For example, when the luminance value for each pixel is represented by 8 bits, the luminance value of 16 to 240 corresponds to the luminance of 0 to 100 cd / m 2 . The minimum value (for example, 64 when represented by 10 bits) and the maximum value (for example, 940 when represented by 10 bits) are also referred to as a reference black level and a reference white level.

(送信装置の構成)
次に、本実施形態に係る送信装置10の構成について説明する。
図2は、本実施形態に係る送信装置10の構成を示す概略ブロック図である。
送信装置10は、番組データと当該番組データに付随する付随情報とを多重化した多重化データを放送伝送路BTに送信する。送信装置10は、付随情報取得部110、映像符号化部120、音声符号化部130、多重化部140、誤り訂正符号化部150、変調部160および送信部170を含んで構成される。
(Configuration of transmitter)
Next, the configuration of the transmission device 10 according to the present embodiment will be described.
FIG. 2 is a schematic block diagram illustrating a configuration of the transmission device 10 according to the present embodiment.
The transmission device 10 transmits multiplexed data obtained by multiplexing program data and accompanying information accompanying the program data to the broadcast transmission path BT. The transmission apparatus 10 includes an accompanying information acquisition unit 110, a video encoding unit 120, an audio encoding unit 130, a multiplexing unit 140, an error correction encoding unit 150, a modulation unit 160, and a transmission unit 170.

付随情報取得部110は、番組データに付随する付随情報を取得する。付随情報には、番組の構成要素の種別が含まれ得る。構成要素が映像である場合、付随情報にその映像の輝度範囲や、輝度の明滅に関する輝度情報が含まれうる。付随情報取得部110は、他の機器から入力される映像データが示す映像を解析して輝度情報を生成してもよいし、当該映像データに対応する輝度情報を入力してもよい。番組データの多重化伝送方式としてMMT(MPEG Media Transport)方式が用いられる場合、例えば、付随情報のデータ形式としてMMT−SI(Service Information)が用いられる。輝度情報は、MMT−SIの構成要素であるMPT(MMT Package Table;MMTパッケージテーブル)に記述される。映像データが、CTA−861−Fにより規定されるHDR信号である場合には、輝度情報は情報フレーム(InfoFrame)に記述されてもよい。輝度情報の例については、後述する。付随情報取得部110は、取得した付随情報を多重化部140に出力する。   The accompanying information acquisition unit 110 acquires accompanying information accompanying program data. The accompanying information may include the type of program component. When the component is a video, the accompanying information can include the luminance range of the video and the luminance information regarding the blinking of the luminance. The accompanying information acquisition unit 110 may generate the luminance information by analyzing the video indicated by the video data input from another device, or may input the luminance information corresponding to the video data. When the MMT (MPEG Media Transport) method is used as a multiplexed transmission method of program data, for example, MMT-SI (Service Information) is used as a data format of accompanying information. The luminance information is described in MPT (MMT Package Table; MMT package table) which is a component of MMT-SI. When the video data is an HDR signal defined by CTA-861-F, the luminance information may be described in an information frame (InfoFrame). An example of the luminance information will be described later. The accompanying information acquisition unit 110 outputs the acquired accompanying information to the multiplexing unit 140.

映像符号化部120は、他の機器から入力される映像データを所定の符号化方式(例えば、ISO/IEC 23008−2 HEVC:High Efficiency Video Coding)を用いて符号化する。映像符号化部120は、符号化によって得られた符号化データを含んだ映像データを生成する。映像符号化部120は、生成した映像データを多重化部140に出力する。   The video encoding unit 120 encodes video data input from another device using a predetermined encoding method (for example, ISO / IEC 23008-2 HEVC: High Efficiency Video Coding). The video encoding unit 120 generates video data including encoded data obtained by encoding. The video encoding unit 120 outputs the generated video data to the multiplexing unit 140.

音声符号化部130は、入力される音声データを所定の符号化方式(例えば、ISO/IEC 14496−3 MPEG−4 AUDIO)を用いて符号化する。音声符号化部130は、符号化によって得られた音声符号化データを含んだ音声データを多重化部140に出力する。   The audio encoding unit 130 encodes input audio data using a predetermined encoding method (for example, ISO / IEC 14496-3 MPEG-4 AUDIO). The audio encoding unit 130 outputs audio data including audio encoded data obtained by encoding to the multiplexing unit 140.

多重化部140には、付随情報取得部110から入力される付随情報、映像符号化部120から入力される映像データおよび音声符号化部130から入力される音声データを多重化して所定の形式(例えば、MMT形式)を有する多重化データを生成する。多重化部140は、生成した多重化データを誤り訂正符号化部150に出力する。なお、多重化部140には、他の機器から映像データと音声データのいずれかまたは両方が入力されてもよい。他の機器からの映像データの形式が映像符号化部120からの映像データの形式と同様であれば、映像符号化部120は省略されてもよい。他の機器からの音声データの形式が音声符号化部130からの音声データの形式と同様であれば、音声符号化部130は省略されてもよい。   The multiplexing unit 140 multiplexes the accompanying information input from the accompanying information acquisition unit 110, the video data input from the video encoding unit 120, and the audio data input from the audio encoding unit 130 to obtain a predetermined format ( For example, multiplexed data having MMT format) is generated. Multiplexer 140 outputs the generated multiplexed data to error correction encoder 150. Note that either or both of video data and audio data may be input to the multiplexing unit 140 from another device. If the format of the video data from another device is the same as the format of the video data from the video encoding unit 120, the video encoding unit 120 may be omitted. If the format of the audio data from the other device is the same as the format of the audio data from the audio encoding unit 130, the audio encoding unit 130 may be omitted.

誤り訂正符号化部150は、多重化部140から入力される多重化データについて、所定の誤り訂正符号化方式を用いて誤り訂正符号化して所定の誤り訂正符号(例えば、LDPC:low−density parity−check code)を生成する。誤り訂正符号化部150は、誤り訂正符号化により得られた誤り訂正符号を付加した多重化データを変調部160に出力する。   The error correction coding unit 150 performs error correction coding on the multiplexed data input from the multiplexing unit 140 using a predetermined error correction coding method, and performs a predetermined error correction code (for example, LDPC: low-density parity). -Check code). The error correction coding unit 150 outputs multiplexed data to which the error correction code obtained by error correction coding is added to the modulation unit 160.

変調部160は、誤り訂正符号化部150から入力された多重化データを所定の変調方式(例えば、16値振幅位相変調方式(16APSK:16−ary amplitude and phase−shift keying))を用いて変調する。変調部160は、変調により得られた変調データを送信部170に出力する。
送信部170は、変調部160から入力された基底周波数帯域の変調データを変調して所定の周波数帯域を有する放送信号を生成する。送信部170は、生成した放送信号を放送伝送路BTに送出する。放送信号は、放送波として伝送される。よって、番組データと付随情報を多重化した多重化データを搬送する放送信号が放送伝送路BTを介して伝送される。送信部170は、例えば、送信器を含んで構成される。
The modulation unit 160 modulates the multiplexed data input from the error correction coding unit 150 using a predetermined modulation method (for example, 16-value amplitude phase modulation method (16APSK: 16-ary amplitude and phase-shift keying)). To do. Modulation section 160 outputs modulation data obtained by the modulation to transmission section 170.
The transmission unit 170 modulates the modulation data of the base frequency band input from the modulation unit 160 to generate a broadcast signal having a predetermined frequency band. The transmission unit 170 transmits the generated broadcast signal to the broadcast transmission path BT. The broadcast signal is transmitted as a broadcast wave. Therefore, a broadcast signal carrying multiplexed data obtained by multiplexing program data and accompanying information is transmitted via the broadcast transmission path BT. The transmission unit 170 includes, for example, a transmitter.

(受信装置の構成)
次に、本実施形態に係る受信装置20の構成について説明する。
図3は、本実施形態に係る受信装置20の構成を示す概略ブロック図である。
受信装置20は、放送受信部210、復調部211、誤り訂正部212、分離部213、入力部215、映像復号部221、映像処理部222、ディスプレイ制御部223、音声復号部231、音声処理部232、アンプ233、制御部240、記憶部250、表示部22および拡声部23を含んで構成される。表示部22および拡声部23の一方または両方は、受信装置20の本体と着脱可能であってもよい。なお、映像処理部222および音声処理部232のそれぞれを、または総称して出力処理部と称する。
(Receiver configuration)
Next, the configuration of the receiving device 20 according to this embodiment will be described.
FIG. 3 is a schematic block diagram illustrating a configuration of the receiving device 20 according to the present embodiment.
The receiving device 20 includes a broadcast receiving unit 210, a demodulating unit 211, an error correcting unit 212, a separating unit 213, an input unit 215, a video decoding unit 221, a video processing unit 222, a display control unit 223, an audio decoding unit 231, and an audio processing unit. 232, an amplifier 233, a control unit 240, a storage unit 250, a display unit 22, and a loudspeaker unit 23. One or both of the display unit 22 and the loudspeaker unit 23 may be detachable from the main body of the receiving device 20. Note that each of the video processing unit 222 and the audio processing unit 232 is collectively referred to as an output processing unit.

放送受信部210には、制御部240の選局部241(後述)から選局信号が入力される。放送受信部210は、選局信号で指示されるチャンネルで伝送される放送信号を受信する。放送受信部210は、放送波を受信するチューナを含んで構成される。チューナは、選局信号で指定されたチャンネルに対応した周波数帯域の放送波を受信する。放送受信部210は、受信した放送信号をダウンコンバートして基底周波数帯域の変調データを生成し、生成した変調データを復調部211に出力する。   The broadcast receiving unit 210 receives a channel selection signal from a channel selection unit 241 (described later) of the control unit 240. The broadcast receiving unit 210 receives a broadcast signal transmitted through a channel indicated by the channel selection signal. The broadcast receiving unit 210 includes a tuner that receives broadcast waves. The tuner receives a broadcast wave in a frequency band corresponding to the channel specified by the channel selection signal. The broadcast receiving unit 210 down-converts the received broadcast signal to generate modulation data in the base frequency band, and outputs the generated modulation data to the demodulation unit 211.

復調部211は、放送受信部210から入力される変調データを所定の復調方式を用いて復調する。所定の変調方式は、変調部160が用いた変調方式に対応する復調方式である。復調部211は、復号により得られた誤り訂正符号が付加された多重化データを誤り訂正部212に出力する。   The demodulator 211 demodulates the modulation data input from the broadcast receiver 210 using a predetermined demodulation method. The predetermined modulation method is a demodulation method corresponding to the modulation method used by the modulation unit 160. Demodulation section 211 outputs multiplexed data to which the error correction code obtained by decoding is added to error correction section 212.

誤り訂正部212は、復調部211から入力される多重化データから誤り訂正符号を分離する。誤り訂正部212は、分離した誤り訂正符号を用いて多重化データについて誤り訂正を行う。誤り訂正部212は、誤り訂正を行って得られた多重化データを分離部213に出力する。   The error correction unit 212 separates the error correction code from the multiplexed data input from the demodulation unit 211. The error correction unit 212 performs error correction on the multiplexed data using the separated error correction code. The error correction unit 212 outputs multiplexed data obtained by performing error correction to the separation unit 213.

分離部213は、誤り訂正部212から入力された多重化データから番組データと付随情報とを分離する。分離部213は、分離した番組データから映像データと音声データとを分離する。分離部213は、分離した映像データを映像復号部221に出力し、分離した音声データを音声復号部231に出力する。分離部213は、分離した付随情報を制御部240の付随情報処理部242に出力する。   The separation unit 213 separates program data and accompanying information from the multiplexed data input from the error correction unit 212. The separation unit 213 separates video data and audio data from the separated program data. The separation unit 213 outputs the separated video data to the video decoding unit 221, and outputs the separated audio data to the audio decoding unit 231. The separation unit 213 outputs the separated accompanying information to the accompanying information processing unit 242 of the control unit 240.

入力部215には、ユーザの操作によって生成された操作信号が入力される。入力部215は、例えば、リモートコントローラ(制御装置)RCからの操作信号を赤外線で受信する赤外線インタフェースを含んで構成される。操作信号は、例えば、電源のオン/オフ、放送波を受信するチャンネル、輝度や輝度範囲などの情報を指定する。入力部215は、操作信号を制御部240に出力する。なお、入力部215は、ユーザの操作を受け付けるための物理的な部材、例えば、各種のボタン、つまみなどを含んで構成され、操作に応じた操作信号を生成してもよい。入力部215は、入力された操作信号を制御部240に出力する。   The input unit 215 receives an operation signal generated by a user operation. The input unit 215 includes, for example, an infrared interface that receives an operation signal from a remote controller (control device) RC using infrared rays. For example, the operation signal specifies information such as power on / off, a channel for receiving a broadcast wave, luminance, and luminance range. The input unit 215 outputs an operation signal to the control unit 240. Note that the input unit 215 may include a physical member for receiving a user operation, for example, various buttons and knobs, and may generate an operation signal corresponding to the operation. The input unit 215 outputs the input operation signal to the control unit 240.

映像復号部221には、分離部213から映像データが入力される。映像復号部221は、入力された映像データについて所定の映像復号方式を用いて復号する。所定の映像復号方式は、映像符号化部120が用いた符号化方式に対応する復号方式である。映像復号部221は、復号された映像データを映像処理部222に出力する。   Video data is input from the separation unit 213 to the video decoding unit 221. The video decoding unit 221 decodes the input video data using a predetermined video decoding method. The predetermined video decoding method is a decoding method corresponding to the encoding method used by the video encoding unit 120. The video decoding unit 221 outputs the decoded video data to the video processing unit 222.

映像処理部222は、映像復号部221から入力された映像データについて所定の処理を行う。例えば、映像処理部222は、出力制御部243から制御情報として、明滅シーンの出力を制限する指示が入力されると、同じく制御情報として入力された明滅シーンの開始時刻および終了時刻に関する情報、明滅シーンの継続する時間に関する情報に基づいて、明滅シーンの出力を制限する。具体的には、映像処理部222は、記憶部250から他の映像を取得し、当該明滅シーンを他の映像に置き換える。または、映像処理部222は、当該明滅シーンを除いた映像を表示するよう処理する。すなわち、映像処理部222は、当該明滅シーンをスキップして映像を表示する。なお、明滅シーンとは、映像中の輝度の明滅度が所定の明滅度より高いシーンの映像である。
また、映像処理部222は、例えば、出力制御部243から制御情報として通知画面データが入力されるとき、映像データが示す映像に通知画面データが示す通知画面を重ね合わせる。通知画面は、番組で提供されるHDR映像に所定の明滅度よりも明滅度が高い明滅シーンの存在を示す画面である。
また、映像処理部222は、例えば、入力される映像データがHDR映像データであるとき、HDR映像データが示すHDR映像の輝度をより狭い輝度範囲内の輝度に調整する。狭い輝度範囲とは、例えば、SDR映像所定の輝度範囲内である。映像処理部222は、輝度の調整を、入力部215からの操作信号の入力に応じて行い、操作信号が入力されないときには行わなくてもよい。また、映像処理部222は、例えば、付随情報処理部242から入力される輝度情報に基づいて映像の輝度範囲がHDR、SDRのいずれであるかを判定することができる。
映像処理部222は、処理によって得られた映像を示す映像データをディスプレイ制御部223に出力する。処理を行わない場合には、映像処理部222は映像復号部221から入力された映像データをディスプレイ制御部223に出力する。輝度情報に基づく処理の例については、後述する。
The video processing unit 222 performs predetermined processing on the video data input from the video decoding unit 221. For example, when an instruction to limit the output of the blinking scene is input as control information from the output control unit 243, the video processing unit 222 also includes information regarding the start time and end time of the blinking scene that is also input as control information, Limit the output of the blinking scene based on information about the duration of the scene. Specifically, the video processing unit 222 acquires another video from the storage unit 250 and replaces the blinking scene with another video. Alternatively, the video processing unit 222 performs processing to display a video excluding the blinking scene. That is, the video processing unit 222 displays the video by skipping the blinking scene. Note that the blinking scene is an image of a scene in which the blinking degree of luminance in the image is higher than a predetermined blinking degree.
For example, when the notification screen data is input as control information from the output control unit 243, the video processing unit 222 superimposes the notification screen indicated by the notification screen data on the video indicated by the video data. The notification screen is a screen indicating the presence of a blinking scene having a higher blinking degree than a predetermined blinking degree in the HDR video provided in the program.
For example, when the input video data is HDR video data, the video processing unit 222 adjusts the luminance of the HDR video indicated by the HDR video data to a luminance within a narrower luminance range. The narrow luminance range is, for example, within a predetermined luminance range of the SDR video. The video processing unit 222 adjusts the brightness in response to the input of the operation signal from the input unit 215, and may not be performed when the operation signal is not input. Also, the video processing unit 222 can determine whether the luminance range of the video is HDR or SDR based on the luminance information input from the accompanying information processing unit 242, for example.
The video processing unit 222 outputs video data indicating the video obtained by the processing to the display control unit 223. When the process is not performed, the video processing unit 222 outputs the video data input from the video decoding unit 221 to the display control unit 223. An example of processing based on luminance information will be described later.

ディスプレイ制御部223は、映像処理部222から入力された映像データが示す映像の輝度を、入力部215から制御部240を介して入力される操作信号が示す制御パラメータに基づいて制御する。制御パラメータには、例えば、ゲイン、オフセット値などが含まれる。ゲイン、オフセット値は、それぞれ輝度値に乗算、加算されることによって映像のコントラスト、ブライトネスを調整するためのパラメータである。ディスプレイ制御部223は、輝度が制御された表示用の映像を示す映像データを表示部22に出力する。   The display control unit 223 controls the luminance of the video indicated by the video data input from the video processing unit 222 based on the control parameter indicated by the operation signal input from the input unit 215 via the control unit 240. The control parameter includes, for example, a gain and an offset value. The gain and offset values are parameters for adjusting the contrast and brightness of the video by multiplying and adding to the luminance value, respectively. The display control unit 223 outputs to the display unit 22 video data indicating a display video whose luminance is controlled.

表示部22は、ディスプレイ制御部223から入力される映像データに基づく映像を表示する。表示部22は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ等である。表示部22として、HDR映像の輝度範囲の輝度が表示可能なディスプレイが用いられる。   The display unit 22 displays a video based on the video data input from the display control unit 223. The display unit 22 is, for example, a liquid crystal display (LCD: Liquid Crystal Display), an organic EL (Electroluminescence) display, or the like. As the display unit 22, a display capable of displaying the luminance within the luminance range of the HDR video is used.

音声復号部231には、分離部213から音声データが入力される。音声復号部231は、入力された音声データについて所定の音声復号方式を用いて復号する。所定の音声復号方式は、音声符号化部130が用いた符号化方式に対応する復号方式である。音声復号部231は、復号された音声データを音声処理部232に出力する。   Audio data is input from the separation unit 213 to the audio decoding unit 231. The voice decoding unit 231 decodes the input voice data using a predetermined voice decoding method. The predetermined speech decoding method is a decoding method corresponding to the encoding method used by the speech encoding unit 130. The audio decoding unit 231 outputs the decoded audio data to the audio processing unit 232.

音声処理部232は、音声復号部231から入力された音声データについて所定の処理を行う。例えば、音声処理部232は、出力制御部243から制御情報として、明滅シーンの出力を制限する指示が入力されると、同じく制御情報として入力された明滅シーンの開始時刻および終了時刻に関する情報、明滅シーンの継続する時間に関する情報に基づいて、明滅シーンの出力を制限する。具体的には、音声処理部232は、記憶部250から他の音声を取得し、当該明滅シーンに対応する音声を他の音声に置き換える。または、音声処理部232は、当該明滅シーンを除いた映像に対応する音声を出力するよう処理する。すなわち、音声処理部232は、当該明滅シーンをスキップして音声を出力する。
また、音声処理部232は、例えば、制御部240から入力される音声データが示す音声を音声復号部231から入力された音声データが示す音声とミキシングする。音声処理部232は、処理によって得られた音声を示す音声データをアンプ233に出力する。
The voice processing unit 232 performs predetermined processing on the voice data input from the voice decoding unit 231. For example, when an instruction to limit the output of a blinking scene is input as control information from the output control unit 243, the sound processing unit 232 also includes information regarding the start time and end time of the blinking scene that is also input as control information, Limit the output of the blinking scene based on information about the duration of the scene. Specifically, the sound processing unit 232 acquires another sound from the storage unit 250 and replaces the sound corresponding to the blinking scene with another sound. Alternatively, the audio processing unit 232 performs processing to output audio corresponding to the video excluding the blinking scene. That is, the audio processing unit 232 skips the blinking scene and outputs audio.
In addition, the voice processing unit 232 mixes the voice indicated by the voice data input from the control unit 240 with the voice indicated by the voice data input from the voice decoding unit 231, for example. The audio processing unit 232 outputs audio data indicating the audio obtained by the processing to the amplifier 233.

アンプ233は、音声処理部232から入力された音声データが示す音声の音量を、入力部215から制御部240を介して入力される操作信号が示す制御パラメータに基づいて制御する。制御パラメータには、例えば、ゲイン値などが含まれる。ゲイン値は、音声の信号値に乗算されることによって音量を調整するためのパラメータである。アンプ233は、音量が制御された再生用の音声を示す音声データを拡声部23に出力する。   The amplifier 233 controls the sound volume indicated by the sound data input from the sound processing unit 232 based on the control parameter indicated by the operation signal input from the input unit 215 via the control unit 240. The control parameter includes, for example, a gain value. The gain value is a parameter for adjusting the volume by multiplying the audio signal value. The amplifier 233 outputs sound data indicating the sound for reproduction whose volume is controlled to the loudspeaker 23.

拡声部23は、アンプ233から入力される音声データに基づく音声を再生する。拡声部23は、例えば、スピーカを含んで構成される。   The loudspeaker 23 reproduces sound based on the sound data input from the amplifier 233. The loudspeaker 23 includes, for example, a speaker.

制御部240は、受信装置20の動作に係る各種の制御を行う。制御部240は、選局部241、付随情報処理部242および出力制御部243を含んで構成される。
選局部241は、入力部215から入力された操作信号から放送信号を受信するチャンネルを識別する。選局部241は、識別したチャンネルを指示する選局信号を生成し、生成した選局信号を放送受信部210に出力する。
The control unit 240 performs various controls related to the operation of the receiving device 20. The control unit 240 includes a channel selection unit 241, an accompanying information processing unit 242, and an output control unit 243.
The channel selection unit 241 identifies a channel that receives a broadcast signal from the operation signal input from the input unit 215. The channel selection unit 241 generates a channel selection signal indicating the identified channel, and outputs the generated channel selection signal to the broadcast reception unit 210.

付随情報処理部242は、分離部213から入力される付随情報に基づいて番組の提示に係る種々の制御を行う。付随情報処理部242は、付随情報から番組の構成要素である映像の輝度情報を抽出する。付随情報処理部242は、抽出した輝度情報を映像処理部222と出力制御部243に出力する。   The accompanying information processing unit 242 performs various controls related to the presentation of the program based on the accompanying information input from the separating unit 213. The accompanying information processing unit 242 extracts luminance information of the video that is a component of the program from the accompanying information. The accompanying information processing unit 242 outputs the extracted luminance information to the video processing unit 222 and the output control unit 243.

出力制御部243は、付随情報処理部242から入力される輝度情報に基づいて、放送される映像がHDR映像であり、かつ当該映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれるか否かを判定する。出力制御部243は、例えば、輝度情報に含まれる明滅シーン数の値が所定の値(例えば1)以上である場合に、放送される映像に明滅シーンが含まれると判断する。出力制御部243は、HDR映像に明滅シーンが含まれると判定するとき、記憶部250に予め記憶された明滅シーンの出力制限方法を読み取り、取得した出力制限方法に基づく出力制限指示と、輝度情報とを制御情報として映像処理部222および音声処理部232に出力する。   Based on the luminance information input from the accompanying information processing unit 242, the output control unit 243 includes a flashing scene in which the broadcast video is an HDR video and the video has a flashing level higher than a predetermined flashing level. It is determined whether or not. For example, when the value of the number of blinking scenes included in the luminance information is equal to or greater than a predetermined value (for example, 1), the output control unit 243 determines that a blinking scene is included in the broadcast video. When the output control unit 243 determines that a blinking scene is included in the HDR video, the output control unit 243 reads the blinking scene output restriction method stored in advance in the storage unit 250, and outputs the brightness restriction information and the output restriction instruction based on the acquired output restriction method. Are output to the video processing unit 222 and the audio processing unit 232 as control information.

記憶部250は、制御部240で用いられる設定データ、制御部240において取得されたデータ、映像処理部222で用いられる映像データ、音声処理部232で用いられる音声データなど各種のデータを記憶する。記憶部250は、RAM(Random Access Memory)、ROM(Read−only Memory)などの各種の記憶媒体を含んで構成される。   The storage unit 250 stores various data such as setting data used by the control unit 240, data acquired by the control unit 240, video data used by the video processing unit 222, and audio data used by the audio processing unit 232. The storage unit 250 includes various storage media such as a RAM (Random Access Memory) and a ROM (Read-only Memory).

(MPT)
番組データが伝送・多重化方式としてMMT方式を用いて伝送されるとき、輝度情報は、一例としてMPTの記述子領域に記述される。
図4は、本実施形態に係るMPTのデータ構造の一例を示す図である。
図4に示す例では、MPT(MMT_Package_Table())には、番組データの構成を示す構成情報が格納される。MPTは、バージョン(version)、MPT記述子領域(MPT_descriptors_byte)およびアセット毎のアセットタイプ(asset_type)を含んで構成される。MPT記述子領域は、MPTの記述子である。MPT記述子には、その時点において伝送される番組データに関する記述子として輝度情報が記述される。従って、受信装置20の付随情報処理部242は、付随情報に含まれるMPTから輝度情報を抽出する。輝度情報は、例えば、番組毎に設定される。バージョンは、MPTのバージョン番号を示す。MPTに格納される情報が更新される毎にバージョン番号が昇順に更新される。時間の経過に伴い番組の切り替わりに応じて輝度情報が更新されると、その時点におけるバージョン番号に所定の増分値(例えば、1)を加算して得られる値が新たなバージョン番号として更新される。なお、番組の切り替わり以外のタイミングでバージョン番号が更新されてもよい。
(MPT)
When the program data is transmitted using the MMT system as the transmission / multiplexing system, the luminance information is described in the MPT descriptor area as an example.
FIG. 4 is a diagram illustrating an example of the data structure of the MPT according to the present embodiment.
In the example shown in FIG. 4, MPT (MMT_Package_Table ()) stores configuration information indicating the configuration of program data. The MPT includes a version (version), an MPT descriptor area (MPT_descriptors_byte), and an asset type (asset_type) for each asset. The MPT descriptor area is an MPT descriptor. In the MPT descriptor, luminance information is described as a descriptor relating to program data transmitted at that time. Therefore, the accompanying information processing unit 242 of the receiving device 20 extracts luminance information from the MPT included in the accompanying information. The luminance information is set for each program, for example. The version indicates an MPT version number. Each time the information stored in the MPT is updated, the version number is updated in ascending order. When the luminance information is updated in accordance with the switching of programs as time passes, a value obtained by adding a predetermined increment value (for example, 1) to the version number at that time is updated as a new version number. . The version number may be updated at a timing other than program switching.

アセットタイプ(asset_type)は、アセットの種類を示す情報である。アセットとは、番組の構成要素を意味する。例えば、アセットタイプとして「hvc1」が記述されるアセットは映像を示し、アセットタイプとして「mp4a」が記述されるアセットは音声を示す。なお、輝度情報は、放送される映像のアセットに係るアセット記述子領域(asset_descriptors_byte)に記述されてもよい。これにより、付随情報処理部242は、当該輝度情報を用いた処理対象の映像を直ちに判定することができる。なお、当該映像がHDR映像であるかSDR映像であるかを示すHDRフラグが輝度情報の一部として含まれてもよい。これにより、付随情報処理部242は、当該映像がHDR映像であるか否かを判定することができる。   The asset type (asset_type) is information indicating the type of asset. An asset means a component of a program. For example, an asset in which “hvc1” is described as the asset type indicates video, and an asset in which “mp4a” is described as the asset type indicates audio. Note that the luminance information may be described in an asset descriptor area (asset_descriptors_byte) related to the asset of the broadcast video. Thereby, the accompanying information processing unit 242 can immediately determine a video to be processed using the luminance information. Note that an HDR flag indicating whether the video is an HDR video or an SDR video may be included as part of the luminance information. Thereby, the accompanying information processing unit 242 can determine whether or not the video is an HDR video.

(輝度情報)
次に、付随情報に含まれる輝度情報の例について説明する。図5は、本実施形態に係る輝度情報の一例を示す図である。図5に示す例では、輝度情報は、明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間を含む。
明滅シーン数は、現在のバージョン番号に対応する映像コンテンツに含まれる明滅シーンの数である。例えば、明滅シーン数の値が3であれば、映像コンテンツ内に明滅シーンが3箇所存在することを示す。
明滅開始時刻は、明滅シーンが開始する時刻を表す情報である。本実施形態では、バージョン番号が更新されてからのフレーム数で表す。例えば、明滅開始時刻が10000であれば、バージョン情報が更新されてから10000フレーム目から明滅シーンが開始することを示す。HDRでは、典型的にはフレームレートは60fps(frame per second)であるため、1フレームは1(秒)/60(フレーム)=0.0166・・・(秒)である。したがって、この場合の明滅開始時刻はバージョン更新時から約166.66(秒)後である。
明滅終了時刻は、明滅シーンが終了する時刻を表す情報である。本実施形態では、明滅開始時刻同様にバージョン情報が更新されてからのフレーム数で表す。
明滅継続時間は、明滅シーンが継続する時間に関する情報である。本実施形態では、明滅時間が継続するフレーム数で表す。
明滅開始時刻、明滅終了時刻および明滅継続時間は、明滅シーン数の値だけ繰り返して格納される。例えば、明滅シーン数がnであった場合、明滅開始時刻1、明滅終了時刻1、明滅継続時間1、・・・、明滅開始時刻n、明滅終了時刻n、明滅継続時間nと(n×3)個分の情報が繰り返してMPTの記述子領域に格納される。
(Luminance information)
Next, an example of luminance information included in the accompanying information will be described. FIG. 5 is a diagram illustrating an example of luminance information according to the present embodiment. In the example illustrated in FIG. 5, the luminance information includes the number of blinking scenes, the blinking start time, the blinking end time, and the blinking duration.
The number of blinking scenes is the number of blinking scenes included in the video content corresponding to the current version number. For example, if the value of the number of blinking scenes is 3, it indicates that there are three blinking scenes in the video content.
The blinking start time is information indicating the time when the blinking scene starts. In the present embodiment, it is represented by the number of frames after the version number is updated. For example, if the blinking start time is 10,000, it indicates that the blinking scene starts from the 10,000th frame after the version information is updated. In HDR, the frame rate is typically 60 fps (frame per second), so one frame is 1 (second) / 60 (frame) = 0.0166... (Second). Therefore, the blinking start time in this case is about 166.66 (seconds) after the version update.
The blinking end time is information indicating the time when the blinking scene ends. In the present embodiment, it is represented by the number of frames after the version information is updated, like the blinking start time.
The blinking duration is information relating to the duration of the blinking scene. In the present embodiment, it is represented by the number of frames in which the blinking time continues.
The blinking start time, the blinking end time, and the blinking continuation time are repeatedly stored for the number of blinking scenes. For example, if the number of flickering scenes is n, flicker start time 1, flicker end time 1, flicker duration 1..., Flicker start time n, flicker end time n, flicker duration n and (n × 3 ) Pieces of information are repeatedly stored in the descriptor area of the MPT.

なお、明滅開始時刻、明滅終了時刻および明滅継続時間は、MPTの記述子領域に全ての情報が存在しなくてもよい。明滅開始時刻、明滅終了時刻および明滅継続時間のうち、少なくとも2つの情報があれば、出力制御部243は、演算により残りの情報を算出することが可能である。
また、明滅開始時刻、明滅終了時刻および明滅継続時間の単位はフレーム数以外であってもよい。例えば、バージョン情報が更新されてからの経過時間を表す時間、分、秒からなる情報であってもよい。
また、本実施形態では、明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間のそれぞれに対して24ビットが割り当てられている場合を例とするが、これには限られない。割り当てられるビット数は8ビット、16ビットなどのその他のビット数であってもよい。
Note that not all information on the blinking start time, the blinking end time, and the blinking continuation time exists in the descriptor area of the MPT. If there is at least two pieces of information among the blink start time, the blink end time, and the blink duration time, the output control unit 243 can calculate the remaining information by calculation.
The unit of the blink start time, the blink end time, and the blink duration time may be other than the number of frames. For example, it may be information consisting of hours, minutes, and seconds representing elapsed time since the version information was updated.
In this embodiment, a case where 24 bits are assigned to each of the number of blinking scenes, the blinking start time, the blinking end time, and the blinking continuation time is taken as an example, but the present invention is not limited to this. The number of allocated bits may be other number of bits such as 8 bits and 16 bits.

図6は、輝度情報の他の種類として、明滅情報の一例を示す図である。図6に示す例では、明滅情報は、フラッシュシーンフラグ(flash_scene)とフラッシュシーンレベル(flash_scene level)とを含む。フラッシュシーンフラグは、番組で提供される映像がフラッシュシーンを有するとき1の値を示し、フラッシュシーンを有しないとき0の値を示す。フラッシュシーンとは、映像の明滅度が所定の明滅度よりも高い映像の区間(シーン)である明滅区間を意味する。フラッシュシーンレベルは、フラッシュシーンの程度、つまり明滅度を示す指標値を所定の段階数に離散化して得られた値である。図6に示す例では、フラッシュシーンレベルは、1から5までの5段階の整数値で表される。フラッシュシーンレベルの値が大きいほど明滅度が高いことを示す。フラッシュシーンフラグの値が0である場合には、フラッシュシーンレベルは設定されなくてもよい。送信装置10の付随情報取得部110は、入力された映像データが示す映像について、明滅度の指標値を単位時間毎に算出する。明滅度の指標値は、例えば、後述の単位時間当たりの最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量のいずれか1つの値、または複数もしくは全ての値のそれぞれに所定の重み係数を乗算して得られる乗算値の総和であってもよい。   FIG. 6 is a diagram illustrating an example of flicker information as another type of luminance information. In the example shown in FIG. 6, the blinking information includes a flash scene flag (flash_scene) and a flash scene level (flash_scene level). The flash scene flag indicates a value of 1 when the video provided in the program has a flash scene, and indicates a value of 0 when the video does not have a flash scene. The flash scene means a blinking section that is a section (scene) of a video whose blinking degree is higher than a predetermined blinking degree. The flash scene level is a value obtained by discretizing an index value indicating the degree of the flash scene, that is, the blinking level into a predetermined number of steps. In the example shown in FIG. 6, the flash scene level is represented by five levels of integer values from 1 to 5. The larger the flash scene level value, the higher the blinking level. If the value of the flash scene flag is 0, the flash scene level may not be set. The accompanying information acquisition unit 110 of the transmission device 10 calculates a blinking index value for each unit time for the video indicated by the input video data. The blinking index value is, for example, any one of a maximum brightness change count, a maximum brightness change amount, an average brightness change count, and an average brightness change amount, or a plurality or all of the values described later. The sum of multiplication values obtained by multiplying a predetermined weight coefficient may be used.

輝度情報を生成する際、付随情報取得部110は、単位時間(例えば、3〜10秒)毎に算出した指標値が所定の指標値よりも大きい区間をフラッシュシーンとして判定し、それ以外の区間を非フラッシュシーンとして判定する。付随情報取得部110は、番組で提供される映像についてフラッシュシーンとして判定した区間があるとき、フラッシュシーンフラグの値を1と定める。付随情報取得部110は、番組で提供される映像についてフラッシュシーンとして判定した区間がないとき、フラッシュシーンフラグの値を0と定める。また、付随情報取得部110は、フラッシュシーンとして判定した区間内の指標値を、所定の段階数に離散化してフラッシュシーンレベルの値を算出する。   When generating luminance information, the incidental information acquisition unit 110 determines a section where the index value calculated every unit time (for example, 3 to 10 seconds) is larger than a predetermined index value as a flash scene, and the other sections Is determined as a non-flash scene. The accompanying information acquisition unit 110 sets the value of the flash scene flag to 1 when there is a section determined as a flash scene for the video provided in the program. The accompanying information acquisition unit 110 determines the value of the flash scene flag as 0 when there is no section determined as a flash scene for the video provided in the program. Further, the accompanying information acquisition unit 110 discretizes the index value in the section determined as the flash scene into a predetermined number of steps, and calculates the flash scene level value.

図7は、輝度情報の他の種類として、輝度変化情報の一例を示す図である。図6に示す例では、輝度変化情報は、最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量を含む。送信装置10の付随情報取得部110は、入力される映像データが示す映像について、単位時間毎に指標値として最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量を算出し、算出した指標値を用いて輝度変化情報を生成する。   FIG. 7 is a diagram illustrating an example of luminance change information as another type of luminance information. In the example illustrated in FIG. 6, the luminance change information includes the maximum luminance change count, the maximum luminance change amount, the average luminance change count, and the average luminance change amount. The accompanying information acquisition unit 110 of the transmission device 10 calculates the maximum brightness change count, the maximum brightness change amount, the average brightness change count, and the average brightness change amount as index values per unit time for the video indicated by the input video data. The brightness change information is generated using the calculated index value.

図7の第2行に示す最大輝度変化回数は、番組で提供される映像の単位時間当たりの最大輝度変化回数の当該番組における最大値である。単位時間当たりの最大輝度変化回数は、当該単位時間内におけるフレーム毎の輝度の代表値である最大輝度のフレーム間変化量が所定の変化量以上となる回数である。フレーム間変化量は、隣接するフレーム間における差分の絶対値である。所定の変化量として、例えば、その輝度の変化が繰り返されると視聴者の体調に影響を与える可能性がある輝度の変化量の閾値が用いられてもよい。より具体的には、所定の変化量は、HDR映像信号の輝度範囲に対する所定の割合に基づいて設定されてもよい。輝度範囲は、輝度値の最大値と輝度値の最小値で表される。輝度範囲に対する割合は、例えば、20%から30%程度である。フレーム間の最大輝度の変化は、そのまま映像の明滅を表すので、付随情報取得部110は、最大輝度の変化が所定の変化量を超える明滅の回数を最大輝度変化回数としてカウントする。所定の割合が20%であって、輝度値が10ビットで表される場合、所定の変化量は、(最大輝度値(例えば、940)−最小輝度値(例えば、64))・20、つまり175となる。この場合には、付随情報取得部110は、番組で提供される映像において、フレーム間の最大輝度の変化量が175よりも大きくなる回数を最大輝度変化回数としてカウントする。   The maximum number of changes in luminance shown in the second row of FIG. 7 is the maximum value in the program of the maximum number of changes in luminance per unit time of video provided in the program. The maximum luminance change count per unit time is the number of times that the inter-frame change amount of the maximum luminance, which is a representative value of the luminance for each frame within the unit time, is equal to or greater than a predetermined change amount. The interframe change amount is an absolute value of a difference between adjacent frames. As the predetermined amount of change, for example, a threshold value of the amount of change in luminance that may affect the physical condition of the viewer when the change in luminance is repeated may be used. More specifically, the predetermined change amount may be set based on a predetermined ratio with respect to the luminance range of the HDR video signal. The luminance range is represented by a maximum luminance value and a minimum luminance value. The ratio to the luminance range is, for example, about 20% to 30%. Since the change in the maximum luminance between frames directly represents the blinking of the video, the accompanying information acquisition unit 110 counts the number of blinks in which the change in the maximum luminance exceeds a predetermined change amount as the maximum number of luminance changes. When the predetermined ratio is 20% and the luminance value is represented by 10 bits, the predetermined change amount is (maximum luminance value (for example, 940) −minimum luminance value (for example, 64)) · 20, that is, 175. In this case, the accompanying information acquisition unit 110 counts the number of times that the change amount of the maximum luminance between frames is larger than 175 in the video provided by the program as the maximum luminance change number.

図7の第3行に示す最大輝度変化量は、番組で提供される映像の単位時間当たりの最大輝度変化量の当該番組における最大値である。単位時間当たりの最大輝度変化量は、当該単位時間内におけるフレーム毎の輝度の代表値である最大輝度のフレーム間変化量のうちの最大値である。
図7の第4行に示す平均輝度変化量は、番組で提供される映像の単位時間当たりの平均輝度変化回数の当該番組における最大値である。単位時間当たりの平均輝度変化回数は、当該単位時間内におけるフレーム毎の輝度の代表値である平均輝度のフレーム間変化量が所定の変化量以上となる回数である。所定の変化量は、上述したようにHDR映像信号の輝度範囲に対する所定の割合に基づいて設定されてもよい。但し、平均輝度は、フレーム全体の輝度の平均であるので最大輝度よりも時間変化が緩やかである。そのため、平均輝度変化回数のカウントに用いる所定の変化量として、最大輝度変化回数のカウントに用いる所定の変化量よりも小さい値を設定しておく。平均輝度変化回数のカウントに用いる所定の変化量は、例えば、最大輝度変化回数のカウントに用いる所定の変化量の1/4程度であればよい。その場合、輝度範囲に対する割合は、5.0〜7.5%となる。
図7の第5行に示す平均輝度変化量は、番組で提供される映像の単位時間当たりの平均輝度変化量の当該番組における最大値である。単位時間当たりの平均輝度変化量は、当該単位時間内におけるフレーム毎の輝度の代表値である平均輝度のフレーム間変化量のうちの最大値である。
なお、本実施形態では、輝度変化情報として、最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量の全ての指標値が含まれていなくてもよく、少なくともそれらの指標値のうちの1つが含まれていればよい。また、最大値に代えて平均値がコンテンツ内の代表値として用いられてもよい。
The maximum luminance change amount shown in the third row of FIG. 7 is the maximum value in the program of the maximum luminance change amount per unit time of the video provided in the program. The maximum luminance change amount per unit time is the maximum value among the inter-frame change amounts of the maximum luminance, which is a representative value of the luminance for each frame within the unit time.
The average luminance change amount shown in the fourth row of FIG. 7 is the maximum value in the program of the average luminance change count per unit time of the video provided in the program. The average luminance change count per unit time is the number of times that the inter-frame change amount of the average luminance, which is a representative value of the luminance for each frame within the unit time, is equal to or greater than a predetermined change amount. As described above, the predetermined change amount may be set based on a predetermined ratio with respect to the luminance range of the HDR video signal. However, since the average luminance is the average of the luminance of the entire frame, the time change is more gradual than the maximum luminance. Therefore, a value smaller than the predetermined change amount used for counting the maximum luminance change number is set as the predetermined change amount used for counting the average luminance change number. The predetermined change amount used for counting the average luminance change count may be, for example, about ¼ of the predetermined change amount used for counting the maximum luminance change count. In that case, the ratio to the luminance range is 5.0 to 7.5%.
The average luminance change amount shown in the fifth line of FIG. 7 is the maximum value in the program of the average luminance change amount per unit time of the video provided in the program. The average luminance change amount per unit time is the maximum value among the inter-frame change amounts of the average luminance, which is a representative value of the luminance for each frame within the unit time.
In the present embodiment, the brightness change information may not include all index values of the maximum brightness change count, the maximum brightness change amount, the average brightness change count, and the average brightness change amount, and at least the index values thereof. One of them may be included. Further, an average value may be used as a representative value in the content instead of the maximum value.

図8は、輝度情報の他の種類として、代表輝度情報の一例を示す図である。図7に示す例では、CTA−861−Fで規定された最大コンテンツ輝度レベル(MaxCLL:Maximum Content Light Level)と最大フレーム平均輝度レベル(MaxFALL:Maximum Frame−average Light Level)を含む。   FIG. 8 is a diagram illustrating an example of representative luminance information as another type of luminance information. The example shown in FIG. 7 includes a maximum content luminance level (MaxCLL: Maximum Content Light Level) and a maximum frame average luminance level (MaxFALL: Maximum Frame-Average Light Level) defined by CTA-861-F.

送信装置10の付随情報取得部110は、入力される映像データが示す映像の一連のシーンについて、指標値として最大コンテンツ輝度レベルと最大フレーム平均輝度レベルを取得し、取得した指標値を用いて輝度変化情報を生成する。一連のシーンとは、番組全体であってもよいし、番組の一部である区間それぞれであってもよい。区間は、所定の単位時間毎に区切られた区間であってもよいし、制作者が任意に設定した区間であってもよい。   The accompanying information acquisition unit 110 of the transmission device 10 acquires the maximum content luminance level and the maximum frame average luminance level as index values for a series of scenes of the video indicated by the input video data, and uses the acquired index values to determine the luminance. Generate change information. The series of scenes may be the entire program or each section that is a part of the program. The section may be a section divided every predetermined unit time, or may be a section arbitrarily set by the producer.

最大コンテンツ輝度レベルは、一連のシーン内の映像の輝度レベルの最大値である。最大フレーム平均輝度レベルは、一連のシーンのフレーム平均輝度レベルの最大値である。フレーム平均輝度レベルは、フレーム毎の輝度レベルの平均値である。輝度レベルは、物理輝度として表された値であってもよいし、その物理輝度から所定のOETF(Opto−electrical Transfer Function、光電変換関数)を用いて変換された輝度値であってもよい。
なお、本実施形態では、代表輝度情報として、最大コンテンツ輝度レベルと最大フレーム平均輝度レベルの両方の指標値が含まれていなくてもよく、少なくともそれらのいずれか1つの指標値が含まれていればよい。また、最大コンテンツ輝度レベルまたは最大フレーム平均輝度レベルに代えてもしくはそれらとともに平均コンテンツ輝度レベルまたは平均フレーム平均輝度レベルが含まれてもよい。
The maximum content luminance level is the maximum value of the luminance level of the video in a series of scenes. The maximum frame average luminance level is the maximum value of the frame average luminance level of a series of scenes. The frame average luminance level is an average value of luminance levels for each frame. The luminance level may be a value expressed as physical luminance, or may be a luminance value converted from the physical luminance using a predetermined OETF (Opto-electric Transfer Function, photoelectric conversion function).
In the present embodiment, the representative luminance information may not include the index values of both the maximum content luminance level and the maximum frame average luminance level, and may include at least one of those index values. That's fine. Further, instead of or together with the maximum content luminance level or the maximum frame average luminance level, an average content luminance level or an average frame average luminance level may be included.

(処理例1)
次に、明滅シーンを別の映像に置き換える場合を例にして、映像処理部222、音声処理部232および出力制御部243が行う処理の例について説明する。図9は、本実施形態に係る輝度情報に基づく処理の一例(処理例1)を示す図である。
図9(a)は、本実施形態に係る輝度情報の一例を示す図である。この例では、輝度情報は明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間を含み、それぞれの値は、1、10000、15000および5000である。つまり、現在の映像ストリーム内に明滅シーンが1つ存在し、その開始時刻は映像ストリームの10000フレーム目であり、終了時刻は15000フレーム目であり、明滅シーンの継続する時間は5000フレームであることを示している。
(Processing example 1)
Next, an example of processing performed by the video processing unit 222, the audio processing unit 232, and the output control unit 243 will be described using an example in which the blinking scene is replaced with another video. FIG. 9 is a diagram illustrating an example of processing based on luminance information (processing example 1) according to the present embodiment.
FIG. 9A is a diagram illustrating an example of luminance information according to the present embodiment. In this example, the luminance information includes the number of blinking scenes, the blinking start time, the blinking end time, and the blinking duration, and the values are 1, 10000, 15000, and 5000, respectively. That is, there is one blinking scene in the current video stream, the start time is the 10,000th frame of the video stream, the end time is the 15000th frame, and the duration of the blinking scene is 5000 frames. Is shown.

図9(b)は、本実施形態において明滅シーンを別の映像に置き換える場合の動作を示す図である。この図では、横軸が時刻を表し、上段がMMTの現バージョン番号における映像ストリームの内容を示している。処理例1においては、映像ストリームはテレビ放送、ストリーミング中継等のように、随時受信装置20に送信され出力するものである。図9(a)の輝度情報の内容と対応し、映像ストリームの1フレームから9999フレームまでは明滅シーンに該当しない通常シーン1である。また、10000フレームから15000フレームまでが明滅シーンであり、15001フレーム以降が通常シーン2である。
図9(b)の中段はこの例において表示される映像を示し、下段は出力される音声を示している。出力制御部243は、付随情報処理部242から入力される明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間の情報に基づいて、本映像ストリームにおける明滅シーンの有無を判定し、明滅シーンの数および箇所を特定する。具体的には、出力制御部243は、明滅シーン数の値が所定の数以上であるとき、現在の映像ストリーム内に明滅シーンが存在すると判定する。本実施形態では、所定の数を1とし、明滅シーン数の値が1以上であるため、現在の映像ストリーム内に明滅シーン存在すると判定する。また、出力制御部243は、明滅シーンの数の値が1であるため、本映像ストリームに含まれる明滅シーンの数は1であると判定する。また、出力制御部243は、1つの明滅シーンに対応する明滅開始時刻1の値が10000であり、明滅継続時間1の値が5000であるため、10000フレームから、10000と5000を加算して得られる15000フレームまでが明滅シーンであると判定する。あるいは、出力制御部243は、明滅開始時刻と明滅終了時刻から明滅シーンの箇所を特定してもよいし、明滅継続時間と明滅終了時刻から明滅シーンの箇所を特定してもよい。
なお、明滅シーンの存在の判定には、明滅シーン数以外の情報を用いてもよい。例えば、輝度情報に含まれるフラッシュシーンフラグの値を用いて判定してもよい。また、その他の輝度情報に含まれる値を組み合わせて判定してもよい。
FIG. 9B is a diagram illustrating an operation when the blinking scene is replaced with another video in the present embodiment. In this figure, the horizontal axis represents time, and the upper row shows the contents of the video stream at the current version number of the MMT. In the processing example 1, the video stream is transmitted and output to the receiving device 20 as needed, such as television broadcasting or streaming relay. Corresponding to the content of the luminance information in FIG. 9A, the first to 9999 frames of the video stream are the normal scene 1 that does not correspond to the blinking scene. Further, the blinking scene is from 10,000 frames to 15000 frames, and the normal scene 2 is after 15001 frames.
The middle part of FIG. 9B shows the video displayed in this example, and the lower part shows the sound to be output. The output control unit 243 determines the presence / absence of a blinking scene in the video stream based on the number of blinking scenes, the blinking start time, the blinking end time, and the blinking duration information input from the associated information processing unit 242. Identify the number and location of Specifically, the output control unit 243 determines that a blinking scene exists in the current video stream when the value of the number of blinking scenes is equal to or greater than a predetermined number. In the present embodiment, the predetermined number is 1, and the value of the number of blinking scenes is 1 or more, so that it is determined that the blinking scene exists in the current video stream. Further, since the value of the number of blinking scenes is 1, the output control unit 243 determines that the number of blinking scenes included in the video stream is 1. Further, since the value of the blinking start time 1 corresponding to one blinking scene is 10000 and the value of the blinking duration 1 is 5000, the output control unit 243 obtains 10000 and 5000 from 10,000 frames. It is determined that up to 15000 frames are flickering scenes. Alternatively, the output control unit 243 may identify the location of the blinking scene from the blinking start time and the blinking end time, or may identify the location of the blinking scene from the blinking continuation time and the blinking end time.
Note that information other than the number of blinking scenes may be used to determine the presence of the blinking scene. For example, the determination may be made using the value of the flash scene flag included in the luminance information. Further, the determination may be made by combining values included in other luminance information.

出力制御部243は、特定した明滅シーンの箇所に基づいて、制御情報を生成する。制御情報は、明滅シーンの有無、明滅シーン数、各明滅シーンの開始時刻、終了時刻、継続時間および各明滅シーンに対する出力の制限指示が含まれる。各明滅シーンに対する出力の制限指示には、出力に対する制限の有無、制限内容および代替情報が含まれる。出力に対する制限の有無は、当該明滅シーンに対して出力の制限をするか否かの情報である。出力の制限内容は、当該明滅シーンの出力を制限する場合の具体的な制限内容、例えば、映像の置き換え、スキップ等である。代替情報は、映像の置き換えを行う場合の代替の映像を示す情報である。各明滅シーンに対する出力の制限指示の内容は、予め定められた設定、またはユーザにより変更された設定として記憶部250が保持しており、出力制御部243は、記憶部250から各明滅シーンに対する出力の制限指示の内容を取得する。本実施形態では、記憶部250には各明滅シーンに対する出力制限の内容として、映像について、明滅シーンの開始直前のシーンを、明滅シーン継続時間と同じ時間だけ、明滅シーンに置き換えて表示する旨の設定が記憶されている。また、音声についても、同様に、明滅シーンの継続時間と同じ時間だけ、明滅シーンの直前のシーンに対応する音声を出力する旨の設定が記憶されている。明滅シーンの置き換えの具体例は後述する。出力制御部243は、記憶部250から当該設定を取得し、付随情報処理部242から取得した輝度情報とあわせて制御情報を生成し、映像処理部222および音声処理部232に出力する。   The output control unit 243 generates control information based on the location of the specified blinking scene. The control information includes the presence / absence of a blinking scene, the number of blinking scenes, the start time, end time, and duration of each blinking scene, and an output restriction instruction for each blinking scene. The output restriction instruction for each blinking scene includes the presence / absence of restriction on the output, restriction contents, and alternative information. The presence / absence of restriction on output is information on whether or not to restrict output for the blinking scene. The output restriction contents are specific restriction contents when the output of the blinking scene is restricted, for example, video replacement, skipping, and the like. The substitute information is information indicating a substitute video when the video is replaced. The content of the output restriction instruction for each blinking scene is held in the storage unit 250 as a predetermined setting or a setting changed by the user, and the output control unit 243 outputs the output for each blinking scene from the storage unit 250. Get the contents of the restriction instruction. In the present embodiment, the content of the output restriction for each blinking scene is displayed on the storage unit 250 by replacing the scene immediately before the start of the blinking scene with the blinking scene for the same time as the blinking scene duration. Settings are stored. Similarly, for audio, a setting for outputting the audio corresponding to the scene immediately before the blinking scene is stored for the same duration as the duration of the blinking scene. A specific example of the blinking scene replacement will be described later. The output control unit 243 acquires the setting from the storage unit 250, generates control information together with the luminance information acquired from the accompanying information processing unit 242, and outputs the control information to the video processing unit 222 and the audio processing unit 232.

映像処理部222は、出力制御部243から入力された制御情報に基づいて、明滅シーンについての映像表示を制限する。本実施形態では、制御情報に、明滅シーンである10000フレームから15000フレームまでの5000フレームを、明滅シーン開始直前の5000フレーム、すなわち4999フレームから9999フレームに置き換えて表示する旨の指示が含まれている。映像処理部222は、制御情報に基づき、映像ストリームの4999フレームから9999フレームまでの映像(ドット網掛け部分)を10000フレームから15000フレーム(斜線網掛け部分)の映像に置き換えて再表示する。なお、映像処理部222は、置き換える映像を、記憶部250等から取得してもよいし、映像処理部222がバッファリングして保持している映像を用いてもよい。   The video processing unit 222 limits the video display of the blinking scene based on the control information input from the output control unit 243. In the present embodiment, the control information includes an instruction to display 5000 frames from 10,000 frames to 15000 frames that are flickering scenes by replacing them with 5000 frames immediately before the start of the flickering scene, that is, 4999 frames to 9999 frames. Yes. Based on the control information, the video processing unit 222 replaces the video from the 4999th frame to the 9999th frame (dotted shaded portion) of the video stream with the video from the 10000th frame to 15000th frame (shaded shaded portion) and re-displays. Note that the video processing unit 222 may acquire the replacement video from the storage unit 250 or the like, or may use a video that the video processing unit 222 buffers and holds.

音声処理部232は、出力制御部243から入力された制御情報に基づいて、明滅シーンについての音声出力を制限する。本実施形態では、音声処理部232は、上述の映像処理部222の処理の例と同様に、音声ストリームの4999フレームから9999フレームまでの音声を10000フレームから15000フレームの音声に置き換えて再表示する。音声処理部232は、置き換える音声を、記憶部250等から取得してもよいし、音声処理部232がバッファリングして保持している音声を用いてもよい。   The sound processing unit 232 restricts sound output for the blinking scene based on the control information input from the output control unit 243. In the present embodiment, the audio processing unit 232 replaces the audio from the 4999th frame to the 9999th frame of the audio stream with the audio of 10,000 frames to 15000 frames and re-displays, as in the example of the processing of the video processing unit 222 described above. . The voice processing unit 232 may acquire the voice to be replaced from the storage unit 250 or the like, or may use the voice buffered and held by the voice processing unit 232.

このように、明滅シーンを直前のシーンの映像および音声に切り替えることで、明滅シーンが発生する場合も、ユーザの違和感を低減しつつ、明滅シーンの出力を制限することができる。また、静止画に置き換える場合や、映像だけ置き換えて音声はそのまま出力する場合に比べて、ユーザが故障等と誤解する可能性や、映像と音声のずれによる違和感を低減することができる。また、HDR映像に付随する付随情報に含まれる輝度情報に基づいて明滅シーンの存在、箇所を判定するため、受信装置20自体が、受信する映像に基づいて明滅シーンの存在や箇所を判定する場合に比べて、処理負荷が軽減される。   In this way, by switching the blinking scene to the video and audio of the immediately preceding scene, even when the blinking scene occurs, it is possible to limit the output of the blinking scene while reducing the user's uncomfortable feeling. Further, compared with the case of replacing with a still image or the case where only the video is replaced and the sound is output as it is, the possibility that the user misunderstands that it is a failure or the like, and the uncomfortable feeling due to the shift between the video and the sound can be reduced. Further, in order to determine the presence and location of the blinking scene based on the luminance information included in the accompanying information accompanying the HDR video, the receiving device 20 itself determines the presence and location of the blinking scene based on the received video. Compared to the above, the processing load is reduced.

なお、本実施形態では、明滅シーンを直前の映像に置き換えたが、同じ映像ストリーム内の他の映像等のその他の映像に置き換えることとしてもよい。例えば、コンテンツのジャンルに応じて、予め用意した映像、音声を出力することとしてもよい。例えば、映画の場合は、チャプターの冒頭の映像を表示し、あわせて明滅シーンの表示を抑制している旨のコーションを表示してもよい。スポーツの場合は、グラウンド、競技場など、当該スポーツに関連する場所の映像等を表示してもよい。バラエティ番組の場合は、番組のオープニング映像や出演者の映像などを表示してもよい。このように、コンテンツのジャンルに応じた映像を表示することで、明滅シーンの置き換えに伴うユーザの違和感を低減することができる。
また、置き換える映像と音声は時間が対応するものでなくてもよい。例えば、映像については、明滅シーンの直前の映像を表示し、音声については、明滅シーンの音声やその他のシーンの音声を出力することとしてもよい。また、音声については、他のシーンの音声でなく、警告音等の規則的な音声やテーマ曲等の音楽であってもよい。
In the present embodiment, the blinking scene is replaced with the previous video, but it may be replaced with another video such as another video in the same video stream. For example, video and audio prepared in advance may be output according to the content genre. For example, in the case of a movie, an image at the beginning of the chapter may be displayed, and a caution indicating that the display of the blinking scene is suppressed may be displayed. In the case of sports, you may display the image | video of the place relevant to the said sports, such as a ground and a stadium. In the case of a variety program, an opening video of the program or a video of the performer may be displayed. Thus, by displaying the video according to the genre of the content, it is possible to reduce the user's uncomfortable feeling accompanying the replacement of the blinking scene.
Also, the replacement video and audio may not correspond to time. For example, for the video, the video immediately before the blinking scene may be displayed, and for the audio, the voice of the blinking scene or other scenes may be output. The sound may be a regular sound such as a warning sound or music such as a theme song, not a sound of another scene.

(処理例2)
次に、明滅シーンをスキップする場合を例にして、映像処理部222、音声処理部232および出力制御部243が行う処理の例(処理例2)について説明する。処理例1における説明と重複する説明は省略し、処理例1との差分を中心に説明する。
図10は、本実施形態において明滅シーンをスキップする場合の動作を示す図である。
図10の上段は、オリジナルの映像ストリームと対応する映像および音声を示している。処理例2においては、オリジナルの映像ストリームはハードディスクやDVD等の記録媒体に記録されており、ユーザの操作によりオンデマンドで再生可能なコンテンツである。
図10の下段は、明滅シーンがスキップされた映像ストリームとそれに対応して実際に出力される表示映像および出力音声を示している。
この例では、輝度情報は、図9(a)と同じ内容であるとする。つまり、輝度情報は、明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間を含み、それぞれの値は、1、10000、15000および5000である。
(Processing example 2)
Next, an example (processing example 2) of processing performed by the video processing unit 222, the audio processing unit 232, and the output control unit 243 will be described using a case where a blinking scene is skipped as an example. The description overlapping with the description in the processing example 1 is omitted, and the difference from the processing example 1 will be mainly described.
FIG. 10 is a diagram illustrating an operation when a blinking scene is skipped in the present embodiment.
The upper part of FIG. 10 shows video and audio corresponding to the original video stream. In Processing Example 2, the original video stream is recorded on a recording medium such as a hard disk or a DVD, and is content that can be played on demand by a user operation.
The lower part of FIG. 10 shows a video stream in which the blinking scene is skipped, and display video and output audio actually output corresponding to the video stream.
In this example, it is assumed that the luminance information has the same contents as in FIG. That is, the luminance information includes the number of blinking scenes, the blinking start time, the blinking end time, and the blinking duration, and the values are 1, 10000, 15000, and 5000, respectively.

出力制御部243は、付随情報処理部242から入力された輝度情報に基づき、映像ストリームの10000フレームから15000フレームが明滅シーンであると認識する。出力制御部243は、記憶部250から、記憶部250に予め記憶された明滅シーンの制限についての設定情報を取得する。当該設定情報は、予め定められた設定情報であってもよいし、ユーザによって変更された設定情報であってもよい。この例では、当該設定情報には、明滅シーンをスキップする旨の設定が記憶されている。したがって、出力制御部243は、明滅シーンの有無、明滅シーン数、各明滅シーンの開始時刻および終了時刻に加えて、出力制限指示として、明滅シーンをスキップする指示を含めた制御情報を生成する。出力制御部243は、生成した制御情報を、映像処理部222および音声処理部232に出力する。   Based on the luminance information input from the accompanying information processing unit 242, the output control unit 243 recognizes that 10,000 frames to 15000 frames of the video stream are blinking scenes. The output control unit 243 acquires setting information about the blinking scene restriction stored in advance in the storage unit 250 from the storage unit 250. The setting information may be predetermined setting information or may be setting information changed by the user. In this example, the setting information stores a setting for skipping the blinking scene. Therefore, the output control unit 243 generates control information including an instruction to skip the blinking scene as an output restriction instruction in addition to the presence / absence of the blinking scene, the number of blinking scenes, the start time and the end time of each blinking scene. The output control unit 243 outputs the generated control information to the video processing unit 222 and the audio processing unit 232.

映像処理部222は、出力制御部243から入力された制御情報に基づいて、明滅シーンについての映像表示を制限する。この例では、制御情報に、明滅シーンである10000フレームから15000フレームをスキップする、つまり当該フレームを除いて映像の表示を継続する旨の指示が含まれる。したがって、映像処理部222は、明滅シーンである当該映像ストリームの10000フレームから15000フレームを削除する。そして15001フレーム以降の映像を、削除したフレーム分繰り上げて表示するようディスプレイ制御部223に指示する。その結果、明滅シーンの映像が削除(スキップ)され、動画1に続いて動画2が表示される。
また、映像処理部222は、明滅シーンをスキップする際に、「x秒スキップしました」等のメッセージを表示してもよい。また、映像処理部222は、MMT方式に規定の付随情報、HDMI(登録商標)伝送におけるAVI−Info情報等により、予め明滅シーンの情報が取得できている場合には、「このコンテンツは途中でx秒分カットされます」、「y分後にx秒分カットされます」等のメッセージを再生開始時や再生中に表示してもよい。
The video processing unit 222 limits the video display of the blinking scene based on the control information input from the output control unit 243. In this example, the control information includes an instruction to skip from 10000 frames to 15000 frames, which are flickering scenes, that is, to continue displaying video except for the frames. Therefore, the video processing unit 222 deletes 15000 frames from 10000 frames of the video stream that is the blinking scene. Then, the display control unit 223 is instructed to display the video after the 15001 frame by raising the deleted frame. As a result, the video of the blinking scene is deleted (skipped), and the moving image 2 is displayed after the moving image 1.
Further, when skipping the blinking scene, the video processing unit 222 may display a message such as “skip for x seconds”. In addition, the video processing unit 222, when the information of the blinking scene can be acquired in advance by the accompanying information stipulated in the MMT system, the AVI-Info information in the HDMI (registered trademark) transmission, or the like, Messages such as “cut for x seconds” and “cut for x seconds after y minutes” may be displayed at the start of playback or during playback.

音声処理部232は、出力制御部243から入力された制御情報に基づいて、明滅シーンについての音声出力を制限する。この例では、音声処理部232は、映像処理部222と同様に、明滅シーンである当該音声ストリームの10000フレームから15000フレームを削除する。そして、音声処理部232は、15001フレーム以降の音声を、削除したフレーム分繰り上げてアンプ233に出力する。その結果、明滅シーンの音声が削除(スキップ)され、音声1に続いて音声2が表示される。   The sound processing unit 232 restricts sound output for the blinking scene based on the control information input from the output control unit 243. In this example, similarly to the video processing unit 222, the audio processing unit 232 deletes 15000 frames from 10000 frames of the audio stream that is a blinking scene. Then, the sound processing unit 232 raises the sound after the 15001th frame and outputs it to the amplifier 233. As a result, the sound of the blinking scene is deleted (skipped), and the sound 2 is displayed after the sound 1.

このように、明滅シーンの映像および音声をスキップして出力することで、ユーザは明滅シーンが発生する場合も、明滅シーン以外のシーンを継続的に視聴することが可能となり、ユーザのコンテンツ視聴時の視聴時間短縮やストレス軽減を図ることができる。   In this way, by skipping and outputting the video and audio of the blinking scene, the user can continuously view the scene other than the blinking scene even when the blinking scene occurs. Viewing time and stress can be reduced.

(変形例)
次に、本実施形態の一変形例について説明する。本変形例では、放送されるHDR映像を示すHDR映像データが、CTA−861−Fによって規定されたHDR信号として構成されてもよい。その映像に係る付随情報は、HDR信号に所定のデータ領域としてInfoFrameに記述される。図11は、本変形例に係るInfoFrameのデータ構成の一例を示す図である。InfoFrameは、種別コード(InfoFrame Type Code)と複数のデータ領域(Data Byte)を含んで構成される。種別コードは、付随情報の種別を示す符号である。映像の輝度に関する輝度情報が記述されるInfoFrameの種別コードは、0x07である。データ領域は、付随情報が記述されるデータ領域である。本実施形態では、輝度情報としてInfoFrameに記述される明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間を用いてもよい。
(Modification)
Next, a modification of this embodiment will be described. In this modification, the HDR video data indicating the broadcast HDR video may be configured as an HDR signal defined by CTA-861-F. The accompanying information related to the video is described in InfoFrame as a predetermined data area in the HDR signal. FIG. 11 is a diagram illustrating an example of an InfoFrame data configuration according to the present modification. The InfoFrame includes a type code (InfoFrame Type Code) and a plurality of data areas (Data Bytes). The type code is a code indicating the type of accompanying information. The type code of InfoFrame in which luminance information related to the luminance of the video is described is 0x07. The data area is a data area in which accompanying information is described. In the present embodiment, the number of blinking scenes, the blinking start time, the blinking end time, and the blinking continuation time described in InfoFrame may be used as the luminance information.

図12は、本実施形態に係る輝度情報が格納されるデータ領域の一例を示す図である。
図12に示す例では、Data Byte 3〜36のそれぞれに記述される情報が、その情報の種類毎に7つのグループ(Group)に分類されている。明滅シーン数、明滅開始時刻、明滅終了時刻および明滅継続時間は、それぞれData Byte27、28、29および30に格納され、グループ7に分類されている。
FIG. 12 is a diagram illustrating an example of a data area in which luminance information according to the present embodiment is stored.
In the example illustrated in FIG. 12, information described in each of Data Bytes 3 to 36 is classified into seven groups (Groups) for each type of information. The number of blinking scenes, the blinking start time, the blinking end time, and the blinking duration are stored in Data Bytes 27, 28, 29, and 30, respectively, and are classified into group 7.

また、上述した最大コンテンツ輝度レベル、最大フレーム平均輝度レベルは、InfoFrameに記述されてもよい。図12に示す例では、最大コンテンツ輝度レベル、最大フレーム平均輝度レベルは、それぞれData Byte23、25に格納され、グループ5、6に分類されている。
また、上述したフラッシュシーンフラグ、フラッシュシーンレベルは、InfoFrameに記述されてもよい。図12に示す例では、フラッシュシーン、フラッシュシーンレベルは、それぞれData Byte31、32に格納され、グループ2に分類されている。
また、上述した最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量は、InfoFrameに記述されてもよい。図12に示す例では、最大輝度変化回数、最大輝度変化量、平均輝度変化回数および平均輝度変化量は、それぞれData Byte33、34、35、36に格納され、グループ4に分類されている。
Further, the above-described maximum content luminance level and maximum frame average luminance level may be described in InfoFrame. In the example shown in FIG. 12, the maximum content luminance level and the maximum frame average luminance level are stored in Data Bytes 23 and 25, respectively, and are classified into groups 5 and 6.
Further, the flash scene flag and the flash scene level described above may be described in InfoFrame. In the example shown in FIG. 12, the flash scene and the flash scene level are stored in Data Bytes 31 and 32, respectively, and are classified into group 2.
Further, the above-described maximum brightness change count, maximum brightness change amount, average brightness change count, and average brightness change amount may be described in InfoFrame. In the example shown in FIG. 12, the maximum brightness change count, the maximum brightness change amount, the average brightness change count, and the average brightness change amount are stored in Data Bytes 33, 34, 35, and 36, respectively, and are classified into group 4.

なお、輝度情報は、MPTに代え、MH−EITのイベント識別毎に設けられる記述子領域に格納されてもよい。イベント識別は、個々の番組を識別する識別情報である。そのため、受信装置20の付随情報処理部242は、放送される番組毎に適用される輝度情報を直ちに特定することができる。   Note that the luminance information may be stored in a descriptor area provided for each event identification of MH-EIT instead of MPT. The event identification is identification information for identifying individual programs. Therefore, the accompanying information processing unit 242 of the receiving device 20 can immediately specify the luminance information applied to each broadcast program.

以上に説明したように、本実施形態に係る受信装置20は、所定の輝度範囲よりも広範囲の輝度を有するHDR映像に付随する付随情報からHDR映像の明滅に関する輝度情報を取得する付随情報処理部242を備える。また、受信装置20は、HDR映像の出力に関する処理を行う出力処理部222および232を備える。また、受信装置20は、輝度情報に基づいて、HDR映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、出力処理部222および232に、明滅シーンの出力を制限させる出力制御部243を備える。
この構成により、ユーザのコンテンツ視聴時の違和感を低減しつつ、映像の輝度が短時間で急激に繰り返すシーン(明滅シーン)の表示を制限することができる。
As described above, the reception apparatus 20 according to the present embodiment includes the accompanying information processing unit that acquires luminance information related to blinking of the HDR video from the accompanying information accompanying the HDR video having a luminance wider than the predetermined luminance range. 242. In addition, the reception device 20 includes output processing units 222 and 232 that perform processing related to output of HDR video. Further, when the receiving device 20 determines that the HDR video includes a blinking scene having a blinking level higher than a predetermined blinking level, the reception apparatus 20 restricts the output of the blinking scene to the output processing units 222 and 232. The output control unit 243 is provided.
With this configuration, it is possible to limit display of scenes (flashing scenes) in which the luminance of the video is rapidly repeated in a short time while reducing the user's uncomfortable feeling when viewing the content.

また、輝度情報は、HDR映像に含まれる前記明滅シーンの数を含む。また、出力制御部243は、明滅シーンの数が所定の数以上であるときに明滅シーンが含まれると判定する。
この構成により、HDR映像に明滅シーンが存在するかを的確に判定することができる。また、受信装置20が、受信する映像に基づき明滅シーンの存在を判定する場合に比べて、受信装置20の処理負荷を軽減することができる。
The luminance information includes the number of blinking scenes included in the HDR video. The output control unit 243 determines that a blinking scene is included when the number of blinking scenes is equal to or greater than a predetermined number.
With this configuration, it is possible to accurately determine whether a blinking scene exists in the HDR video. In addition, the processing load on the receiving device 20 can be reduced compared to the case where the receiving device 20 determines the presence of a blinking scene based on the received video.

また、輝度情報は、明滅シーンの開始時刻に関する情報、明滅シーンの継続する時間に関する情報および明滅シーンの終了時刻に関する情報のうち少なくとも2つの情報を含む。また、出力処理部222および232は、少なくとも2つの情報に基づいて、明滅シーンを特定する。
この構成により、明滅シーンの存在する箇所を的確に把握することができる。また、受信装置20が、受信する映像に基づき明滅シーンの箇所を特定する場合に比べて、受信装置20の処理負荷を軽減することができる。
Further, the luminance information includes at least two pieces of information among information regarding the start time of the blinking scene, information regarding the duration of the blinking scene, and information regarding the end time of the blinking scene. Further, the output processing units 222 and 232 specify the blinking scene based on at least two pieces of information.
With this configuration, it is possible to accurately grasp the location where the blinking scene exists. In addition, the processing load on the receiving device 20 can be reduced as compared with the case where the receiving device 20 specifies the location of the blinking scene based on the received video.

また、出力制御部243は、出力処理部222および232に、明滅シーンを他の映像に置き換えて出力させる。
この構成により、ユーザのコンテンツ視聴時の違和感を低減しつつ、映像の輝度が短時間で急激に繰り返すシーン(明滅シーン)の表示を制限することができる。
Further, the output control unit 243 causes the output processing units 222 and 232 to output the blinking scene by replacing it with another video.
With this configuration, it is possible to limit display of scenes (flashing scenes) in which the luminance of the video is rapidly repeated in a short time while reducing the user's uncomfortable feeling when viewing the content.

また、出力制御部243は、出力処理部222および232に、明滅シーンを除いた映像を出力させる。
この構成により、ユーザのコンテンツ視聴時の違和感を低減しつつ、映像の輝度が短時間で急激に繰り返すシーン(明滅シーン)の表示を制限することができる。
Further, the output control unit 243 causes the output processing units 222 and 232 to output an image excluding the blinking scene.
With this configuration, it is possible to limit display of scenes (flashing scenes) in which the luminance of the video is rapidly repeated in a short time while reducing the user's uncomfortable feeling when viewing the content.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第1の実施形態と同一の構成については、同一の符号を付してその説明を援用する。
図13は、本実施形態に係る放送システム1の構成を示す概略ブロック図である。図13に示す例では、放送システム1は、送信装置10、受信装置20およびサーバ装置30を含んだ放送通信連携システムとして構成される。サーバ装置30は、例えば、放送事業者または番組提供者が管理するサーバ装置である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. About the same structure as 1st Embodiment, the same code | symbol is attached | subjected and the description is used.
FIG. 13 is a schematic block diagram showing a configuration of the broadcast system 1 according to the present embodiment. In the example illustrated in FIG. 13, the broadcasting system 1 is configured as a broadcasting / communication cooperation system including the transmitting device 10, the receiving device 20, and the server device 30. The server device 30 is, for example, a server device managed by a broadcaster or a program provider.

通信伝送路CTは、サーバ装置30と受信装置20との間で各種のデータを双方向的に伝送する伝送路である。通信伝送路CTは、例えば、インターネット、公衆無線通信網、等の広域通信網を含む。通信伝送路CTには、一部に構内通信網(LAN:Local Area Network)や専用のアクセス網が含まれてもよい。なお、通信伝送路CTを介して各種のデータを伝送(または、送信、受信)することを、「通信で伝送(または、送信、受信)する」と呼ぶことがある。   The communication transmission path CT is a transmission path for bidirectionally transmitting various data between the server device 30 and the receiving device 20. The communication transmission line CT includes, for example, a wide area communication network such as the Internet or a public wireless communication network. The communication transmission line CT may include a local area network (LAN) or a dedicated access network in part. Note that transmission (or transmission, reception) of various data via the communication transmission path CT may be referred to as “transmission (or transmission, reception) by communication”.

サーバ装置30は、受信装置20からアプリケーション要求信号を受信するとき、その応答としてアプリケーションプログラム(以下、アプリケーションと呼ぶ)を受信装置20に送信する。アプリケーション要求信号は、対象のアプリケーションの要求を指示する信号である。当該アプリケーションは、所定の記述言語(例えば、HTML5)で記述され、番組の提示に係る各種の機能を実現するための命令が記述される。アプリケーションの機能例については、後述する。   When receiving an application request signal from the receiving device 20, the server device 30 transmits an application program (hereinafter referred to as an application) to the receiving device 20 as a response. The application request signal is a signal that indicates a request for the target application. The application is described in a predetermined description language (for example, HTML5), and commands for realizing various functions related to program presentation are described. Examples of application functions will be described later.

本実施形態に係る送信装置10の付随情報取得部110(図2参照)は、さらにアプリケーション制御情報を取得し、取得したアプリケーション制御情報の存在を示す情報をMPTに記述し、そのMPTを含んだサービス情報を生成する。アプリケーション制御情報は、アプリケーションの取得先情報としてサーバ装置30のURL(Uniform Resource Locator)、アプリケーションの起動、停止、等の実行を制御するための情報が含まれる。制御情報は、例えば、所定のデータ形式を有するアプリケーション情報テーブル(MH−AIT:Application Information Table)として表される。本実施形態では、アプリケーションに当該番組の映像の輝度情報の取得コマンドが含まれてもよい。取得コマンドには、例えば、取得先情報として輝度情報が配置された機器のアドレスと当該輝度情報が格納されたデータファイルのファイル名が含まれる。   The accompanying information acquisition unit 110 (see FIG. 2) of the transmission apparatus 10 according to the present embodiment further acquires application control information, describes information indicating the presence of the acquired application control information in the MPT, and includes the MPT. Generate service information. The application control information includes information for controlling execution such as URL (Uniform Resource Locator) of the server device 30 and application start / stop as acquisition destination information of the application. The control information is represented, for example, as an application information table (MH-AIT: Application Information Table) having a predetermined data format. In the present embodiment, the application may include an acquisition command for luminance information of the video of the program. The acquisition command includes, for example, the address of a device in which luminance information is arranged as acquisition destination information and the file name of a data file in which the luminance information is stored.

受信装置20は、当該アプリケーションに記述された命令で指示された処理を行って輝度情報を取得する。受信装置20は、取得した輝度情報を用いて、上述した映像の出力の制限を行う。また、受信装置20は、取得した輝度情報を用いて、上述した映像の輝度を調整する処理を行う。また、受信装置20は、取得した輝度情報に基づいて放送される映像がHDR映像でありかつ当該映像に明滅シーンが含まれると判定するとき、上述した制御情報を出力する。なお、アプリケーションに輝度情報の取得コマンドが含まれる場合もしくはアプリケーションに輝度情報が含まれる場合には、MPT、MH−EITもしくはHDR信号において輝度情報が省略されてもよい。   The receiving device 20 acquires the luminance information by performing the process instructed by the command described in the application. The receiving apparatus 20 performs the above-described video output restriction using the acquired luminance information. In addition, the reception device 20 performs the process of adjusting the luminance of the video described above using the acquired luminance information. Further, when determining that the video broadcast based on the acquired luminance information is an HDR video and that the video includes a blinking scene, the reception device 20 outputs the control information described above. If the application includes a luminance information acquisition command or the application includes luminance information, the luminance information may be omitted from the MPT, MH-EIT, or HDR signal.

アプリケーション制御情報ならびにアプリケーションにも、番組の提供に係る付随情報が含まれるが、MMT−SIとは別個の情報単位として処理される。多重化部140は、さらにアプリケーション制御情報を多重化して多重化データを生成する。受信装置20の分離部213(図14参照)は、復調部211から入力される多重化データからさらにアプリケーション制御情報を分離し、分離したアプリケーション制御情報を付随情報処理部242に出力する。   The application control information and the application also include accompanying information related to the provision of the program, but are processed as an information unit separate from the MMT-SI. The multiplexing unit 140 further multiplexes the application control information to generate multiplexed data. The separation unit 213 (see FIG. 14) of the reception device 20 further separates the application control information from the multiplexed data input from the demodulation unit 211, and outputs the separated application control information to the accompanying information processing unit 242.

(受信装置)
次に、本実施形態に係る受信装置20の構成について説明する。図14は、本実施形態に係る受信装置20の構成を示す概略ブロック図である。
本実施形態に係る受信装置20は、通信部260を含んで構成される。
通信部260は、通信伝送路CTを介して接続されたサーバ装置30から受信した各種の受信データを制御部240に出力し、制御部240から入力された各種の送信データをサーバ装置30に送信する。通信部260は、例えば、通信インタフェースである。
(Receiver)
Next, the configuration of the receiving device 20 according to this embodiment will be described. FIG. 14 is a schematic block diagram illustrating a configuration of the receiving device 20 according to the present embodiment.
The receiving device 20 according to this embodiment includes a communication unit 260.
The communication unit 260 outputs various reception data received from the server device 30 connected via the communication transmission path CT to the control unit 240, and transmits various transmission data input from the control unit 240 to the server device 30. To do. The communication unit 260 is, for example, a communication interface.

付随情報処理部242は、さらにアプリケーション制御部244とアプリケーション実行部245を含んで構成される。
アプリケーション制御部244は、分離部213から入力されるアプリケーション制御情報に基づいてアプリケーションを取得し、取得したアプリケーションに記述された命令で指示される処理を制御する。なお、アプリケーションに記述された命令で指示される処理を行わせることを、「アプリケーションを実行する」または「アプリケーションの実行」と呼ぶ。
The accompanying information processing unit 242 further includes an application control unit 244 and an application execution unit 245.
The application control unit 244 acquires an application based on the application control information input from the separation unit 213, and controls processing instructed by a command described in the acquired application. Note that performing the processing instructed by an instruction described in the application is called “execution of application” or “execution of application”.

アプリケーション制御部244は、アプリケーション制御情報からアプリケーションの取得先情報を抽出し、抽出した取得先情報で指示されるサーバ装置30にアプリケーション要求信号を送信する。アプリケーション制御部244は、その応答としてサーバ装置30からアプリケーションを受信し、受信したアプリケーションをアプリケーション実行部245に出力する。アプリケーション制御部244は、アプリケーション制御情報に含まれる各種のコマンドに基づいてアプリケーション実行部245にアプリケーションの実行を制御する。   The application control unit 244 extracts application acquisition destination information from the application control information, and transmits an application request signal to the server device 30 indicated by the extracted acquisition destination information. The application control unit 244 receives an application from the server device 30 as a response, and outputs the received application to the application execution unit 245. The application control unit 244 controls the application execution unit 245 to execute the application based on various commands included in the application control information.

アプリケーション実行部245は、アプリケーション制御部244から入力されたアプリケーションを実行する。アプリケーション実行部245は、アプリケーションに記述された命令に基づいて、番組データが示す映像の提示に関する処理を他の機能部に実行させる。アプリケーション実行部245は、例えば、当該アプリケーションに記述された取得コマンドで指示された機器に通信部260を介して輝度情報要求信号を送信する。アプリケーション実行部245は、輝度情報要求信号の応答として当該機器から通信部260を介して輝度情報を受信する。アプリケーション実行部245は、取得された輝度情報に基づいて、出力制御部243に、映像処理部222および音声処理部232に対して前記明滅シーンの出力を制限させる。また、アプリケーション実行部245は、取得した輝度情報に基づく上述の輝度調整処理を映像処理部222に実行させてもよい。   The application execution unit 245 executes the application input from the application control unit 244. The application execution unit 245 causes other functional units to execute processing related to the presentation of the video indicated by the program data based on a command described in the application. For example, the application execution unit 245 transmits a luminance information request signal to the device instructed by the acquisition command described in the application via the communication unit 260. The application execution unit 245 receives luminance information from the device via the communication unit 260 as a response to the luminance information request signal. The application execution unit 245 causes the output control unit 243 to restrict the output of the blinking scene to the video processing unit 222 and the audio processing unit 232 based on the acquired luminance information. Further, the application execution unit 245 may cause the video processing unit 222 to execute the above-described luminance adjustment processing based on the acquired luminance information.

(アプリケーション制御)
次に、本実施形態に係るアプリケーション制御の例について説明する。アプリケーション制御情報には、起動指示(AUTOSTART)、待機(PRESENT)、終了(KILL)などの制御情報が含まれる。図15は、本実施形態に係るアプリケーション制御の例を示す図である。図15に示す例は、既に取得したアプリケーションについて、アプリケーション制御部244が起動指示に基づいて実行を開始させ、終了指示に基づいて実行を終了させることを示す。起動が指示されるアプリケーションには、例えば、上述した取得コマンド、通知コマンドおよび調整コマンドが含まれる。通知コマンドは、出力制御部243に、取得した輝度情報に基づいてHDR映像に明滅シーンが含まれると判定するとき制御情報を映像処理部222に出力させるための命令である。調整コマンドは、映像処理部222に、取得した輝度情報に基づいて映像の輝度調整処理を行わせるための命令である。アプリケーション制御部244が起動を指示する時期は、例えば、当該番組の開始時刻とアプリケーションの取得が完了した時点(放送時間の途中から受信開始する時点)の遅い方である。アプリケーション制御部244が終了を指示する時期は、例えば、当該番組の終了時刻または放送時間の途中において当該番組の受信を終了する時点の早い方である。
(Application control)
Next, an example of application control according to the present embodiment will be described. The application control information includes control information such as a start instruction (AUTOSTART), standby (PRESENT), and termination (KILL). FIG. 15 is a diagram illustrating an example of application control according to the present embodiment. The example illustrated in FIG. 15 indicates that the application control unit 244 starts execution based on a start instruction and ends execution based on an end instruction for an already acquired application. The application instructed to start includes, for example, the acquisition command, notification command, and adjustment command described above. The notification command is a command for causing the output control unit 243 to output the control information to the video processing unit 222 when determining that the HDR video includes a blinking scene based on the acquired luminance information. The adjustment command is a command for causing the video processing unit 222 to perform video luminance adjustment processing based on the acquired luminance information. The time when the application control unit 244 instructs to start is, for example, the later of the start time of the program and the time when the acquisition of the application is completed (the time when reception starts in the middle of the broadcast time). The time when the application control unit 244 instructs to end is, for example, the earlier of the end time of the program or the end of reception of the program during the broadcast time.

(アプリケーションの実行例)
次に、アプリケーションの実行例について説明する。図16は、本実施形態に係るアプリケーションの一実行例を示す図である。
図16は、表示部22に表示される通知画面の例(通知画面Dg01)を示す。通知画面Dg01は、アプリケーション実行部245が通知コマンドに従って、出力制御部243に表示させる表示情報の一例である。通知画面Dg01は、番組の映像の右下端から所定範囲内に重なって表示されている。この表示位置に表示された通知画面Dg01は、ユーザによる番組の映像の視認を著しく妨げない。通知画面Dg01は、メッセージ、「シーン置き換え」ボタン、「スキップ」ボタンおよび「そのまま表示」ボタンを含んで構成される。各ボタンは、カーソルCs01により選択可能である。ただし、カーソルによらず、ボタンを囲む矩形等で選択することでもよい。メッセージは、放送される映像に含まれる明滅シーンの表示方法の選択を促す通知メッセージ「フラッシュシーン時の表示方法を選択してください。」を含む。また、メッセージは、放送される映像に明滅シーンが含まれることを示す通知メッセージや、何分後に明滅シーンが開始するかを示す通知メッセージを含んでもよい。
(Application execution example)
Next, an application execution example will be described. FIG. 16 is a diagram illustrating an execution example of an application according to the present embodiment.
FIG. 16 shows an example of a notification screen (notification screen Dg01) displayed on the display unit 22. The notification screen Dg01 is an example of display information that the application execution unit 245 displays on the output control unit 243 in accordance with the notification command. The notification screen Dg01 is displayed overlapping within a predetermined range from the lower right corner of the program video. The notification screen Dg01 displayed at this display position does not significantly disturb the viewing of the program video by the user. The notification screen Dg01 includes a message, a “scene replacement” button, a “skip” button, and a “display as it is” button. Each button can be selected by a cursor Cs01. However, the selection may be made with a rectangle surrounding the button, without depending on the cursor. The message includes a notification message “Please select a display method for a flash scene.” That prompts the user to select a display method for a blinking scene included in the broadcast video. The message may include a notification message indicating that a blinking scene is included in the broadcast video, and a notification message indicating how many minutes later the blinking scene starts.

ユーザの操作により「シーン置き換え」ボタンが押下されるとき、アプリケーション実行部245は、出力制御部243にシーン置き換えの処理を開始させる。つまり、アプリケーション実行部245は明滅シーンを他のシーンに置き換える処理を開始する。この際、アプリケーション実行部245は、さらに、どのシーン(直前のシーン、オープニングシーン等)に置き換えるかを選択させるボタンを表示して、ユーザに選択させることとしてもよい。
ユーザの操作により「スキップ」ボタンが押下されるとき、アプリケーション実行部245は、出力制御部243に明滅シーンのスキップ処理を開始させる。つまり、アプリケーション実行部245は明滅シーンを除いて映像の表示を継続する処理を開始する。
ユーザの操作により「そのまま表示」ボタンが押下されるとき、または通知画面Dg01の右上端の×印が押下されるときには、アプリケーション制御部244は、アプリケーションで指示された動作を終了させる。このとき、アプリケーション実行部245は、出力制御部243に通知画面Dg01の表示を停止させる。なお、「押下」とは、ユーザによるカーソル操作やボタン選択操作に応じて入力部215から、その表示領域内の位置を示す操作信号を取得することを意味する。
When the “scene replacement” button is pressed by a user operation, the application execution unit 245 causes the output control unit 243 to start scene replacement processing. That is, the application execution unit 245 starts the process of replacing the blinking scene with another scene. At this time, the application execution unit 245 may further display a button for selecting which scene (previous scene, opening scene, etc.) to replace, and allow the user to select.
When the “skip” button is pressed by a user operation, the application execution unit 245 causes the output control unit 243 to start blinking scene skip processing. That is, the application execution unit 245 starts a process of continuing to display the video except for the blinking scene.
When the “display as it is” button is pressed by a user operation, or when the “x” mark at the upper right corner of the notification screen Dg01 is pressed, the application control unit 244 ends the operation instructed by the application. At this time, the application execution unit 245 causes the output control unit 243 to stop displaying the notification screen Dg01. Note that “pressing” means obtaining an operation signal indicating a position in the display area from the input unit 215 in accordance with a cursor operation or a button selection operation by the user.

(変形例)
次に、本実施形態の一変形例について説明する。
本変形例に係る受信装置20のアプリケーション制御部244は、取得したアプリケーションを、所定の他の機器に送信し、他の機器が送信したアプリケーションに記述された命令で指示される処理を制御する。つまり、本変形例ではアプリケーション制御部244は、アプリケーション実行部245におけるアプリケーションの実行に代え(例えば、図15、図16)、他の機器におけるアプリケーションの実行を制御する。他の機器が通信部(図示せず)を備える場合には、アプリケーション制御部244は、他の機器にアプリケーション制御情報に記述された取得先からアプリケーションを受信させてもよい。通信部は、通信伝送路CTを介してサーバ装置30と接続して各種のデータを送受信する。その場合には、受信装置20において通信部260が省略されてもよい。
(Modification)
Next, a modification of this embodiment will be described.
The application control unit 244 of the receiving device 20 according to this modification transmits the acquired application to a predetermined other device, and controls processing instructed by a command described in the application transmitted by the other device. That is, in this modification, the application control unit 244 controls the execution of the application in another device instead of executing the application in the application execution unit 245 (for example, FIGS. 15 and 16). When another device includes a communication unit (not shown), the application control unit 244 may cause the other device to receive the application from the acquisition destination described in the application control information. The communication unit is connected to the server device 30 via the communication transmission line CT and transmits / receives various data. In that case, the communication unit 260 may be omitted in the receiving device 20.

他の機器は、受信装置20が受信する番組の提示を制御するための各種の制御情報を受信装置20に提供し、受信装置20から番組の提示に関する各種の表示情報を表示する制御機能を実現するセカンドディスプレイとして機能する。受信装置20の入力部215は、リモートコントローラRCに代えて他の機器から受信した操作信号を制御部240に出力する。入力部215は、制御部240からの各種のデータを他の機器に送信する入出力インタフェースとして構成される。出力制御部243は、取得した制御情報を映像処理部222に出力する代わりに他の機器に送信する。他の機器は、視覚情報を表示する表示部と操作入力を受け付ける操作部とを備える情報機器であればよい。表示部であるディスプレイパネルと操作部であるタッチセンサとして一体化されたタッチパネルが用いされてもよい。他の機器は、例えば、携帯電話機(いわゆるスマートフォンを含む)、タブレット端末装置、パーソナルコンピュータ、などの情報機器であってもよい。   Other devices provide various control information for controlling the presentation of programs received by the reception device 20 to the reception device 20, and realize a control function for displaying various display information related to the presentation of programs from the reception device 20. It functions as a second display. The input unit 215 of the receiving device 20 outputs an operation signal received from another device instead of the remote controller RC to the control unit 240. The input unit 215 is configured as an input / output interface that transmits various types of data from the control unit 240 to other devices. The output control unit 243 transmits the acquired control information to another device instead of outputting it to the video processing unit 222. The other device may be an information device including a display unit that displays visual information and an operation unit that receives an operation input. A touch panel integrated as a display panel that is a display unit and a touch sensor that is an operation unit may be used. The other device may be an information device such as a mobile phone (including a so-called smartphone), a tablet terminal device, and a personal computer.

以上に説明したように、本実施形態に係る受信装置20において、付随情報処理部242は、アプリケーション制御情報に基づいて所定のアプリケーションプログラムが指示する処理の実行を制御するアプリケーション制御部244を備える。当該アプリケーションプログラムは、受信装置20または受信装置20に接続された他の機器のコンピュータに、輝度情報を通信で取得させ、出力制御部243に、出力処理部222および232に対して明滅シーンの出力を制限させる。
この構成により、アプリケーションが指示する処理により通信で取得される輝度情報に基づいて、映像の輝度が短時間で急激に繰り返すシーン(明滅シーン)の表示を制限し、ユーザが明滅シーンを視認して体調に不調を来たすことを回避することができる。また、他の機器に輝度情報を取得させ、制御情報を表示させるにより受信装置20の機能の複雑化を回避し、放送における付加サービスとしてユーザに認識させることができる。
As described above, in the receiving device 20 according to the present embodiment, the accompanying information processing unit 242 includes the application control unit 244 that controls execution of processing instructed by a predetermined application program based on the application control information. The application program causes the reception device 20 or a computer of another device connected to the reception device 20 to acquire luminance information through communication, and causes the output control unit 243 to output a blinking scene to the output processing units 222 and 232. To restrict.
With this configuration, the display of scenes (flashing scenes) in which the brightness of the video repeats rapidly in a short time is limited based on the brightness information acquired through communication by the process instructed by the application, and the user visually recognizes the flashing scene. It is possible to avoid having a physical condition. In addition, the luminance information is acquired by another device and the control information is displayed, so that the function of the receiving device 20 can be prevented from being complicated, and the user can be recognized as an additional service in broadcasting.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。また、上述の実施形態において説明した各構成は、任意に組み合わせることができる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiment, and includes a design and the like within a scope not departing from the gist of the present invention. Moreover, each structure demonstrated in the above-mentioned embodiment can be combined arbitrarily.

例えば、上述した実施形態では、放送システム1がメディアトランスポート方式としてMMT方式を用いる例について説明したが、これには限られない。放送システム1は、例えば、MPEG−2 TS方式やRTP(Real−time Transport Protocol)方式などが用いられてもよい。また、出力制御部243は、制御情報として通知画面に代えてもしくは通知画面とともに通知音声を拡声部23に再生させてもよい。その場合、出力制御部243は、上述したメッセージが発話された通知音声を示す通知音声データを音声処理部232に出力する。音声処理部232は、出力制御部243から入力される通知音声データが示す通知音声を、音声復号部231から入力される音声データが示す音声とミキシングする。   For example, in the above-described embodiment, the example in which the broadcasting system 1 uses the MMT method as the media transport method has been described, but the present invention is not limited to this. The broadcast system 1 may use, for example, an MPEG-2 TS system, an RTP (Real-time Transport Protocol) system, or the like. Further, the output control unit 243 may cause the loudspeaker unit 23 to reproduce the notification sound as control information instead of the notification screen or together with the notification screen. In that case, the output control unit 243 outputs notification voice data indicating the notification voice in which the above-described message is uttered to the voice processing unit 232. The voice processing unit 232 mixes the notification voice indicated by the notification voice data input from the output control unit 243 with the voice indicated by the voice data input from the voice decoding unit 231.

また、設定メニュー画面の構成は適宜変更可能である。例えば、明滅シーン対策の実施有無と対策方法(シーン置き換え、スキップ)を別にしてそれぞれ階層表示してもよい。つまり、アプリケーション制御部244およびアプリケーション実行部245は、まず明滅シーンの対策の有無をユーザに選択させ、対策有が選択された場合に対策方法(シーン置き換え、スキップ)を表示し選択させることとしてもよい。
また、例えば、コンテンツのジャンルに応じて対策方法を切り替えられるようにしてもよい。例えば、スポーツ番組であればスキップするが、映画であればそのまま表示するといった設定が可能である。
また、映像のスキップができないコンテンツ(生中継等)については、対策方法としてスキップを非表示としたり、スキップができないコンテンツに対する対策方法を選択するメニューを設けることとしてもよい。
また、第2の実施形態で説明した通知画面の例は、アプリケーション制御部244およびアプリケーション実行部245を介さず、第1の実施形態におけるコンテンツ開始時、操作開始時の初期設定画面としてもよい。
The configuration of the setting menu screen can be changed as appropriate. For example, the display of hierarchy may be performed separately on whether or not the blinking scene countermeasure is implemented and the countermeasure method (scene replacement, skip). In other words, the application control unit 244 and the application execution unit 245 may first cause the user to select whether or not to take countermeasures against blinking scenes, and display and select a countermeasure method (scene replacement, skip) when countermeasures are selected. Good.
Further, for example, the countermeasure method may be switched according to the content genre. For example, it is possible to skip a sports program but display it as it is in a movie.
For content that cannot be skipped (such as live broadcast), a menu may be provided to hide the skip as a countermeasure method or select a countermeasure method for content that cannot be skipped.
Moreover, the example of the notification screen described in the second embodiment may be an initial setting screen at the start of content and at the start of operation in the first embodiment without using the application control unit 244 and the application execution unit 245.

なお、上述した発明は、次の態様でも実施することができる。
(1)所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像に付随する付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理部と、前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理部と、前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記出力処理部に、前記明滅シーンの出力を制限させる出力制御部と、を備える受信装置。
The invention described above can also be implemented in the following manner.
(1) An accompanying information processing unit that acquires brightness information related to blinking of the high dynamic range image from accompanying information associated with a high dynamic range image having a luminance wider than a predetermined luminance range; and output of the high dynamic range image An output processing unit that performs a process related to the above, and when it is determined based on the luminance information that the high dynamic range video includes a blinking scene having a blinking level higher than a predetermined blinking level, An output control unit that limits output of a scene.

(2)前記輝度情報は、前記高ダイナミックレンジ映像に含まれる前記明滅シーンの数を含み、前記出力制御部は、前記明滅シーンの数が所定の数以上であるときに前記明滅シーンが含まれると判定する(1)の記載の受信装置。 (2) The luminance information includes the number of the blinking scenes included in the high dynamic range video, and the output control unit includes the blinking scene when the number of the blinking scenes is equal to or greater than a predetermined number. The receiving device according to (1).

(3)前記輝度情報は、前記明滅シーンの開始時刻に関する情報、前記明滅シーンの継続する時間に関する情報および前記明滅シーンの終了時刻に関する情報のうち少なくとも2つの情報を含み、前記出力制御部は、前記少なくとも2つの情報に基づいて、前記明滅シーンを特定する(1)または(2)の受信装置。 (3) The luminance information includes at least two pieces of information related to a start time of the blinking scene, information related to a duration of the blinking scene, and information related to an end time of the blinking scene, and the output control unit includes: The receiving device according to (1) or (2), wherein the blinking scene is specified based on the at least two pieces of information.

(4)前記出力制御部は、前記出力処理部に、前記明滅シーンを他の映像に置き換えて出力させる(1)から(3)のいずれかの受信装置。 (4) The receiving device according to any one of (1) to (3), wherein the output control unit causes the output processing unit to output the blinking scene by replacing it with another video.

(5)前記出力制御部は、前記出力処理部に、前記明滅シーンを除いた映像を出力させる(1)から(3)のいずれかの受信装置。 (5) The receiving device according to any one of (1) to (3), wherein the output control unit causes the output processing unit to output an image excluding the blinking scene.

(6)(1)から(5)のいずれかの受信装置を含むテレビジョン装置。 (6) A television device including the receiving device according to any one of (1) to (5).

(7)前記付随情報処理部は、アプリケーション制御情報に基づいて所定のアプリケーションプログラムが指示する処理の実行を制御するアプリケーション制御部を備え、前記アプリケーションプログラムは、前記受信装置または前記受信装置に接続された他の機器のコンピュータに、前記輝度情報を通信で取得し、前記出力制御部に、前記出力処理部に対して前記明滅シーンの出力を制限させる(1)から(5)のいずれかの受信装置。 (7) The accompanying information processing unit includes an application control unit that controls execution of processing instructed by a predetermined application program based on application control information, and the application program is connected to the receiving device or the receiving device. The brightness information is acquired by communication with another computer, and the output control unit causes the output processing unit to limit the output of the blinking scene. (1) to (5) apparatus.

(8)送信装置と受信装置を備える放送システムであって、前記送信装置は、所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像と前記高ダイナミックレンジ映像に付随する付随情報とを放送で送信し、前記受信装置は、前記付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理部と、前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理部と、前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記出力処理部に、前記明滅シーンの出力を制限させる出力制御部と、を備える放送システム。 (8) A broadcasting system including a transmission device and a reception device, wherein the transmission device broadcasts a high dynamic range video having a luminance wider than a predetermined luminance range and accompanying information associated with the high dynamic range video. The reception device is configured to acquire luminance information related to blinking of the high dynamic range video from the auxiliary information, an output processing unit that performs processing related to output of the high dynamic range video, and the luminance Based on the information, when it is determined that the high dynamic range video includes a blinking scene having a blinking level higher than a predetermined blinking level, an output control unit that restricts the output of the blinking scene to the output processing unit; A broadcasting system comprising:

(9)前記輝度情報を通信で送信する第2の送信装置を備え、前記送信装置はアプリケーション制御情報を含む付随情報を送信し、前記付随情報処理部は、前記アプリケーション制御情報に基づいて所定のアプリケーションプログラムが指示する処理の実行を制御するアプリケーション制御部を備え、前記アプリケーションプログラムは、前記受信装置または前記受信装置に接続された他の機器のコンピュータに、前記輝度情報を通信で取得し、前記出力制御部に、前記出力処理部に対して前記明滅シーンの出力を制限させる(8)の放送システム。 (9) A second transmission device that transmits the luminance information by communication is provided, the transmission device transmits accompanying information including application control information, and the accompanying information processing unit is configured to perform predetermined processing based on the application control information. An application control unit that controls execution of processing instructed by the application program, the application program acquires the luminance information by communication to a computer of the receiving device or another device connected to the receiving device; The broadcasting system according to (8), wherein the output control unit causes the output processing unit to limit the output of the blinking scene.

(10)所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像を取得する映像取得部と、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンに関する輝度情報を含む付随情報を取得する付随情報取得部と、前記高ダイナミックレンジ映像と前記付随情報とを多重化した放送信号を送信する送信部と、を備える送信装置。 (10) A video acquisition unit that acquires a high dynamic range video having a wider range of brightness than a predetermined brightness range, and an accompanying information that includes brightness information relating to a flashing scene having a higher flashing level than the predetermined flashing level in the high dynamic range video A transmission apparatus comprising: an accompanying information acquisition unit that acquires information; and a transmission unit that transmits a broadcast signal obtained by multiplexing the high dynamic range video and the accompanying information.

(11)受信装置のコンピュータに、所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像に付随する付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理ステップと、前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理ステップと、前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記明滅シーンの出力を制限させる出力制御ステップと、を実行させるためのプログラム。 (11) Accompanying information processing step of acquiring luminance information related to blinking of the high dynamic range image from incidental information associated with the high dynamic range image having a luminance wider than a predetermined luminance range in the computer of the receiving device; An output processing step for performing processing relating to output of a high dynamic range image; and when determining that the high dynamic range image includes a blinking scene having a blinking level higher than a predetermined blinking level, based on the luminance information. An output control step for limiting the output of the scene, and a program for executing the program.

また、上述の送信装置10、受信装置20、サーバ装置30および他の機器の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより送信装置10、受信装置20、サーバ装置30および他の機器を実現してもよい。当該プログラムは、第2実施形態において説明したアプリケーションプログラムとは別個のプログラムであるが、その一部の機能が当該アプリケーションプログラムに基づいて実現されてもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。   Further, a program for realizing the functions of the transmission device 10, the reception device 20, the server device 30, and other devices described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in a computer system. The transmission device 10, the reception device 20, the server device 30, and other devices may be realized by causing the device to read and execute. The program is a separate program from the application program described in the second embodiment, but some of the functions may be realized based on the application program. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.

なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で一体化する構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Note that the program may be divided into a plurality of parts, downloaded at different timings, and then integrated in the terminal device, or the distribution server that distributes each of the divided programs may be different. Furthermore, a “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1…放送システム、10…送信装置、110…付随情報取得部、120…映像符号化部、130…音声符号化部、140…多重化部、150…誤り訂正符号化部、160…変調部、170…送信部、20…受信装置、22…表示部、23…拡声部、210…放送受信部、211…復号部、212…誤り訂正部、213…分離部、215…入力部、221…映像復号部、222…映像処理部、223…ディスプレイ制御部、231…音声復号部、232…音声処理部、233…アンプ、240…制御部、241…選局部、242…付随情報処理部、243…出力制御部、244…アプリケーション制御部、245…アプリケーション実行部、250…記憶部、260…通信部、BT…放送伝送路、BS…放送衛星、CT…通信伝送路、RC…制御装置 DESCRIPTION OF SYMBOLS 1 ... Broadcasting system, 10 ... Transmission apparatus, 110 ... Accompanying information acquisition part, 120 ... Video coding part, 130 ... Audio | voice coding part, 140 ... Multiplexing part, 150 ... Error correction coding part, 160 ... Modulation part, DESCRIPTION OF SYMBOLS 170 ... Transmission part, 20 ... Receiving device, 22 ... Display part, 23 ... Loudspeaker part, 210 ... Broadcast receiving part, 211 ... Decoding part, 212 ... Error correction part, 213 ... Separation part, 215 ... Input part, 221 ... Image | video Decoding unit, 222 ... Video processing unit, 223 ... Display control unit, 231 ... Audio decoding unit, 232 ... Audio processing unit, 233 ... Amplifier, 240 ... Control unit, 241 ... Channel selection unit, 242 ... Attached information processing unit, 243 ... Output control unit, 244 ... application control unit, 245 ... application execution unit, 250 ... storage unit, 260 ... communication unit, BT ... broadcast transmission path, BS ... broadcast satellite, CT ... communication transmission path, RC ... control Equipment

Claims (11)

所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像に付随する付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理部と、
前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理部と、
前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記出力処理部に、前記明滅シーンの出力を制限させる出力制御部と、
を備える受信装置。
An accompanying information processing unit for acquiring brightness information relating to blinking of the high dynamic range image from accompanying information associated with the high dynamic range image having a luminance wider than a predetermined luminance range;
An output processing unit for performing processing related to the output of the high dynamic range video;
An output control unit that restricts the output of the blinking scene to the output processing unit when determining that the high dynamic range video includes a blinking scene having a blinking level higher than a predetermined blinking level based on the luminance information. When,
A receiving device.
前記輝度情報は、前記高ダイナミックレンジ映像に含まれる前記明滅シーンの数を含み、
前記出力制御部は、前記明滅シーンの数が所定の数以上であるときに前記明滅シーンが含まれると判定する
請求項1に記載の受信装置。
The luminance information includes the number of blinking scenes included in the high dynamic range video,
The output control unit determines that the blinking scene is included when the number of the blinking scenes is a predetermined number or more.
The receiving device according to claim 1.
前記輝度情報は、前記明滅シーンの開始時刻に関する情報、前記明滅シーンの継続する時間に関する情報および前記明滅シーンの終了時刻に関する情報のうち少なくとも2つの情報を含み、
前記出力制御部は、前記少なくとも2つの情報に基づいて、前記明滅シーンを特定する
請求項1または請求項2に記載の受信装置。
The luminance information includes at least two pieces of information related to a start time of the blinking scene, information about a duration of the blinking scene, and information about an end time of the blinking scene,
The receiving device according to claim 1, wherein the output control unit identifies the blinking scene based on the at least two pieces of information.
前記出力制御部は、前記出力処理部に、前記明滅シーンを他の映像に置き換えて出力させる
請求項1から請求項3のいずれか一項に記載の受信装置。
The receiving device according to any one of claims 1 to 3, wherein the output control unit causes the output processing unit to output the blinking scene by replacing it with another video.
前記出力制御部は、前記出力処理部に、前記明滅シーンを除いた映像を出力させる
請求項1から請求項3のいずれか一項に記載の受信装置。
The receiving device according to any one of claims 1 to 3, wherein the output control unit causes the output processing unit to output an image excluding the blinking scene.
請求項1から請求項5のいずれか一項に記載の受信装置を含むテレビジョン装置。   A television device including the receiving device according to any one of claims 1 to 5. 前記付随情報処理部は、アプリケーション制御情報に基づいて所定のアプリケーションプログラムが指示する処理の実行を制御するアプリケーション制御部を備え、
前記アプリケーションプログラムは、前記受信装置または前記受信装置に接続された他の機器のコンピュータに、
前記輝度情報を通信で取得し、
前記出力制御部に、前記出力処理部に対して前記明滅シーンの出力を制限させる
請求項1から請求項5のいずれか一項に記載の受信装置。
The accompanying information processing unit includes an application control unit that controls execution of processing instructed by a predetermined application program based on application control information,
The application program is stored in a computer of the receiving device or another device connected to the receiving device.
Obtaining the luminance information by communication;
The receiving device according to any one of claims 1 to 5, wherein the output control unit causes the output processing unit to limit the output of the blinking scene.
送信装置と受信装置を備える放送システムであって、
前記送信装置は、所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像と前記高ダイナミックレンジ映像に付随する付随情報とを放送で送信し、
前記受信装置は、前記付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理部と、
前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理部と、
前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記出力処理部に、前記明滅シーンの出力を制限させる出力制御部と、
を備える放送システム。
A broadcasting system comprising a transmitting device and a receiving device,
The transmitter transmits a high dynamic range video having a luminance in a wider range than a predetermined luminance range and accompanying information accompanying the high dynamic range video by broadcasting,
The reception device includes an accompanying information processing unit that acquires luminance information related to blinking of the high dynamic range video from the accompanying information;
An output processing unit for performing processing related to the output of the high dynamic range video;
An output control unit that restricts the output of the blinking scene to the output processing unit when determining that the high dynamic range video includes a blinking scene having a blinking level higher than a predetermined blinking level based on the luminance information. When,
A broadcasting system comprising:
前記輝度情報を通信で送信する第2の送信装置を備え、
前記送信装置はアプリケーション制御情報を含む付随情報を送信し、
前記付随情報処理部は、前記アプリケーション制御情報に基づいて所定のアプリケーションプログラムが指示する処理の実行を制御するアプリケーション制御部を備え、
前記アプリケーションプログラムは、前記受信装置または前記受信装置に接続された他の機器のコンピュータに、
前記輝度情報を通信で取得し、
前記出力制御部に、前記出力処理部に対して前記明滅シーンの出力を制限させる
請求項8に記載の放送システム。
A second transmitter for transmitting the luminance information by communication;
The transmitting device transmits accompanying information including application control information;
The accompanying information processing unit includes an application control unit that controls execution of a process instructed by a predetermined application program based on the application control information.
The application program is stored in a computer of the receiving device or another device connected to the receiving device.
Obtaining the luminance information by communication;
The broadcasting system according to claim 8, wherein the output control unit is configured to limit the output of the blinking scene to the output processing unit.
所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像を取得する映像取得部と、
前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンに関する輝度情報を含む付随情報を取得する付随情報取得部と、
前記高ダイナミックレンジ映像と前記付随情報とを多重化した放送信号を送信する送信部と、
を備える送信装置。
A video acquisition unit that acquires a high dynamic range video having a brightness that is wider than a predetermined brightness range;
An incidental information acquisition unit for acquiring incidental information including luminance information related to a blinking scene having a blinking degree higher than a predetermined blinking degree in the high dynamic range video;
A transmitter for transmitting a broadcast signal obtained by multiplexing the high dynamic range video and the accompanying information;
A transmission apparatus comprising:
受信装置のコンピュータに、
所定の輝度範囲よりも広範囲の輝度を有する高ダイナミックレンジ映像に付随する付随情報から前記高ダイナミックレンジ映像の明滅に関する輝度情報を取得する付随情報処理ステップと、
前記高ダイナミックレンジ映像の出力に関する処理を行う出力処理ステップと、
前記輝度情報に基づいて、前記高ダイナミックレンジ映像に所定の明滅度よりも明滅度が高い明滅シーンが含まれると判定するとき、前記明滅シーンの出力を制限させる出力制御ステップと、
を実行させるためのプログラム。
In the computer of the receiving device,
Accompanied information processing step of acquiring luminance information related to blinking of the high dynamic range image from incidental information associated with the high dynamic range image having a wider range of luminance than the predetermined luminance range;
An output processing step for performing processing relating to the output of the high dynamic range video;
An output control step for restricting the output of the blinking scene when it is determined that the high dynamic range video includes a blinking scene having a higher blinking degree than a predetermined blinking degree based on the luminance information;
A program for running
JP2016172773A 2016-09-05 2016-09-05 Receiver, television apparatus, broadcast system, transmitter and program Pending JP2018042021A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016172773A JP2018042021A (en) 2016-09-05 2016-09-05 Receiver, television apparatus, broadcast system, transmitter and program
PCT/JP2017/027632 WO2018042993A1 (en) 2016-09-05 2017-07-31 Reception device, television apparatus, broadcasting system, transmission device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172773A JP2018042021A (en) 2016-09-05 2016-09-05 Receiver, television apparatus, broadcast system, transmitter and program

Publications (1)

Publication Number Publication Date
JP2018042021A true JP2018042021A (en) 2018-03-15

Family

ID=61300750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172773A Pending JP2018042021A (en) 2016-09-05 2016-09-05 Receiver, television apparatus, broadcast system, transmitter and program

Country Status (2)

Country Link
JP (1) JP2018042021A (en)
WO (1) WO2018042993A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3484085B2 (en) * 1998-05-22 2004-01-06 株式会社リコー Broadcast-type distribution method, computer-readable recording medium storing a program for causing a computer to execute the method, and content server
JP4933782B2 (en) * 2006-01-17 2012-05-16 日本放送協会 Flicker video detection apparatus, flicker video detection program, video display apparatus, and flicker detection method

Also Published As

Publication number Publication date
WO2018042993A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US10455189B2 (en) Playback method and playback device
KR101759954B1 (en) Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system
JP4859219B2 (en) Video output apparatus and control method thereof
JP6161222B1 (en) Receiving apparatus and broadcasting system
JP6579715B2 (en) Receiving device, television receiving device, receiving method, program
JP2006245745A (en) Digital broadcast receiver
JP6584000B2 (en) Receiving apparatus, receiving method, and program
JP6824055B2 (en) Receiver and broadcast system
JP2008141656A (en) Video control apparatus and method thereof
US10477176B2 (en) Reception device, broadcast system, reception method, and program
WO2017169209A1 (en) Content processing device, television reception device, method of processing information in content processing device, and program
JP2017046040A (en) Receiver, reception method, and program
JP6238379B2 (en) Receiving device, broadcasting system and program
WO2018042993A1 (en) Reception device, television apparatus, broadcasting system, transmission device and program
JP2018042269A (en) Reception device
JP2009055541A (en) Moving picture reproducing device
WO2017150095A1 (en) Reception device and broadcast system
JP6508831B2 (en) Receiving device, receiving method, broadcast system and program
JP2014204228A (en) Program display device and program display method
JP2017169236A (en) Reception device and broadcast system
KR20090091537A (en) Method for auto volume controlling of digital tv and digital tv thereof
JP2008301299A (en) Content reproducing device, and content processing system, and method
JP2017169132A (en) Receiver unit and broadcast communication coordination system
JP2016187136A (en) Receiving device, receiving method, and program