WO2017051808A1 - 放送受信装置 - Google Patents

放送受信装置 Download PDF

Info

Publication number
WO2017051808A1
WO2017051808A1 PCT/JP2016/077739 JP2016077739W WO2017051808A1 WO 2017051808 A1 WO2017051808 A1 WO 2017051808A1 JP 2016077739 W JP2016077739 W JP 2016077739W WO 2017051808 A1 WO2017051808 A1 WO 2017051808A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
broadcast
content
video
Prior art date
Application number
PCT/JP2016/077739
Other languages
English (en)
French (fr)
Inventor
吉澤 和彦
清水 拓也
橋本 康宣
益岡 信夫
甲 展明
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016037677A external-priority patent/JP6616211B2/ja
Priority claimed from JP2016038577A external-priority patent/JP6616212B2/ja
Priority claimed from JP2016040170A external-priority patent/JP6645869B2/ja
Priority claimed from JP2016040577A external-priority patent/JP6645871B2/ja
Priority claimed from JP2016042234A external-priority patent/JP6441247B2/ja
Priority claimed from JP2016176428A external-priority patent/JP6734742B2/ja
Priority to US15/762,495 priority Critical patent/US10708647B2/en
Priority to CN201680055583.5A priority patent/CN108028958B/zh
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Publication of WO2017051808A1 publication Critical patent/WO2017051808A1/ja
Priority to US16/884,560 priority patent/US11102541B2/en
Priority to US17/381,812 priority patent/US11445239B2/en
Priority to US17/880,151 priority patent/US11895353B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings

Definitions

  • the present invention relates to a broadcast receiving apparatus.
  • One of the extended functions of the digital broadcasting service is data broadcasting that transmits digital data using broadcast waves and displays various information such as weather forecasts, news, and recommended programs.
  • Many television receivers capable of receiving data broadcasts are already on the market, and many techniques related to data broadcast reception have been disclosed, including Patent Document 1 below.
  • TV receivers are also required to expand various functions.
  • requests for distribution of content and cooperative applications using a broadband network environment such as the Internet and requests for high resolution / high definition of video content.
  • An object of the present invention is to provide a broadcast receiving apparatus that can execute a function with higher added value.
  • a broadcast receiving apparatus that receives content includes a receiving unit that receives the content, an interface for outputting the content received by the receiving unit, and an output state of the content from the interface.
  • a control unit that controls the control unit to specify control information indicating a copy control state of the content received by the receiving unit together with the content, and whether or not protection is required when the content is output.
  • a broadcast receiving apparatus that determines an output state of the content from the interface according to a combination of information, information indicating the resolution of the video of the content, and information indicating transfer characteristics of the video of the content is used.
  • FIG. 1 is a system configuration diagram illustrating an example of a broadcast communication system including a broadcast receiving apparatus according to Embodiment 1.
  • FIG. It is explanatory drawing of the outline
  • FIG. 1 is a block diagram of a broadcast receiving apparatus according to Embodiment 1.
  • FIG. 1 is a block diagram of the logical plane structure of the presentation function of the broadcast receiver which concerns on Example 1.
  • FIG. 1 is a system configuration diagram of clock synchronization / presentation synchronization of a broadcast receiving apparatus according to Embodiment 1.
  • FIG. 1 is a system configuration diagram of clock synchronization / presentation synchronization of a broadcast receiving apparatus according to Embodiment 1.
  • FIG. 1 is a software configuration diagram of a broadcast receiving apparatus according to Embodiment 1.
  • FIG. 1 is a block diagram of a broadcast station server according to Embodiment 1.
  • FIG. 1 is a block diagram of a service provider server according to Embodiment 1.
  • FIG. 1 is a block diagram of a portable information terminal according to Embodiment 1.
  • FIG. 1 is a software configuration diagram of a portable information terminal according to Embodiment 1.
  • FIG. It is a figure which shows the data structure of MH-TOT of a broadcast system. It is a figure which shows the format of the JST_time parameter of a broadcast system. It is a figure which shows the calculation method of the present date from MJD of the broadcast receiver which concerns on Example 1.
  • FIG. 1 It is a figure which shows the structure of the NTP format of a broadcast system. It is a figure which shows the data structure of the MPU time stamp descriptor of a broadcast system. It is a figure which shows the data structure of the time information of the TMCC extension information area
  • FIG. It is a figure which shows the data structure of TLV-NIT of a broadcasting system. It is a figure which shows the data structure of the satellite distribution system descriptor of a broadcast system. It is a figure which shows the data structure of the service list descriptor of a broadcast system. It is a figure which shows the data structure of AMT of a broadcast system.
  • FIG 3 is an operation sequence diagram at the time of channel selection of the broadcast receiving apparatus according to the first embodiment. It is a figure which shows the data structure of MPT of a broadcast system. It is a figure which shows the data structure of LCT of a broadcast system. It is a figure which shows the example of allocation of the layout to the layout number based on LCT. It is a figure which shows the example of allocation of the layout to the layout number based on LCT. It is a figure which shows the example of allocation of the layout to the layout number based on LCT. It is a figure which shows the example of allocation of the layout to the layout number based on LCT. It is a figure explaining the operation
  • FIG. 6 is a block diagram of a broadcast receiving apparatus according to Embodiment 2.
  • FIG. 6 is a figure explaining inconsistency of the present time display at the time of broadcast service switching.
  • FIG. 9 is an operation sequence diagram of current time information update processing according to the second embodiment. It is a screen display figure of the EPG screen of the broadcast receiving apparatus which concerns on Example 2. FIG. It is a screen display figure of the EPG screen of the broadcast receiving apparatus which concerns on Example 2.
  • FIG. 10 is a system configuration diagram of a broadcast communication system according to a third embodiment. It is a figure which shows the data structure of the content information descriptor of a broadcast system. It is a figure explaining the meaning of the content type in the content information descriptor of a broadcast system.
  • FIG. 10 is a system configuration diagram of a broadcast communication system according to a fourth embodiment.
  • FIG. 10 is a block diagram of a broadcast receiving apparatus according to a fourth embodiment.
  • FIG. 10 is a software configuration diagram of a broadcast receiving apparatus according to a fourth embodiment.
  • FIG. 10 is an interface configuration diagram of a broadcast receiving apparatus and a monitor apparatus according to a fourth embodiment. It is a figure explaining the mastering information which the broadcast receiver which concerns on Example 4 outputs.
  • FIG. 10 is a system configuration diagram of a broadcast communication system according to a fifth embodiment.
  • FIG. 10 is a system configuration diagram of a broadcast communication system according to a fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of output control information according to a fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of reception control information according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of reception control information according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of reception control information according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of reception control information according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of content output protection determination processing according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of content output protection determination processing according to the fifth embodiment.
  • FIG. 10 is a diagram illustrating an example of content output protection determination processing according to the fifth embodiment.
  • FIG. 1 is a system configuration diagram illustrating an example of a broadcast communication system including a broadcast receiving apparatus according to the present embodiment.
  • the broadcast communication system of this embodiment includes a broadcast receiver 100 and an antenna 100a, a broadband network such as the Internet 200, a router 200r and an access point 200a, a radio tower 300t and a broadcast satellite (or communication satellite) 300s, a broadcast station A server 300, a service provider server 400, other application servers 500, a mobile telephone communication server 600, a base station 600b of a mobile telephone communication network, and a portable information terminal 700.
  • the broadcast receiving apparatus 100 receives the broadcast wave transmitted from the radio tower 300t via the broadcast satellite (or communication satellite) 300s and the antenna 100a. Alternatively, the broadcast wave transmitted from the radio tower 300t may be received directly from the antenna 100a without passing through the broadcast satellite (or communication satellite) 300s.
  • the broadcast receiving apparatus 100 can be connected to the Internet 200 via the router apparatus 200r, and can transmit and receive data by communication with each server apparatus and other communication devices on the Internet 200.
  • the router device 200r is connected to the Internet 200 by wired communication, is connected to the broadcast receiving device 100 by wired communication or wireless communication, and is connected to the portable information terminal 700 by wireless communication.
  • a method such as Wi-Fi (registered trademark) may be used.
  • Wi-Fi registered trademark
  • each server device and other communication devices on the Internet 200, the broadcast receiving device 100, and the portable information terminal 700 can mutually transmit and receive data via the router device 200r.
  • the communication between the broadcast receiving device 100 and the portable information terminal 700 may be performed directly using a method such as BlueTooth (registered trademark) or NFC (Near Field Communication) without using the router device 200r.
  • the radio tower 300t is a broadcasting facility of a broadcasting station, and transmits broadcast waves including encoded data of broadcast programs, caption information, other applications, general-purpose data, and the like.
  • the broadcast satellite (or communication satellite) 300s receives the broadcast wave transmitted from the radio tower 300t of the broadcast station, performs appropriate frequency conversion, etc., and then broadcasts the antenna 100a connected to the broadcast receiving device 100 to the antenna 100a. It is a repeater that retransmits waves.
  • the broadcasting station includes a broadcasting station server 300.
  • the broadcast station server 300 stores metadata such as broadcast programs (video content, etc.) and program titles, program IDs, program outlines, performer information, broadcast date and time of each broadcast program, and the video content and each metadata are stored. Based on the contract, it can be provided to the service provider.
  • the provision of the moving image content and each metadata to the service provider may be performed through an API (Application Programming Interface) included in the broadcast station server 300.
  • Service provider server 400 is a server device prepared by a service provider, and is capable of providing various services linked to broadcast programs distributed from broadcast stations.
  • the service provider server 400 also stores, manages, and distributes video content and metadata provided from the broadcast station server 300, various contents and applications linked to broadcast programs, and the like.
  • it in response to an inquiry from a television receiver or the like, it also has a function of searching for available contents and applications and providing a list.
  • the storage, management and distribution of the content and metadata and the storage, management and distribution of the application may be performed by different server devices.
  • the broadcasting station and the service provider may be the same or different.
  • a plurality of service provider servers 400 may be prepared for different services.
  • the function of the service provider server 400 may be provided by the broadcast station server 300.
  • Other application server 500 is a known server device that stores, manages, and distributes other general applications, operation programs, contents, data, and the like. There may be a plurality of other application servers 500 on the Internet 200.
  • the mobile telephone communication server 600 is connected to the Internet 200, and is connected to the portable information terminal 700 via the base station 600b.
  • the mobile telephone communication server 600 manages telephone communication (call) and data transmission / reception via the mobile telephone communication network of the portable information terminal 700, and each server device and other communication devices on the portable information terminal 700 and the Internet 200. Data can be sent and received through communication with the.
  • the communication between the base station 600b and the portable information terminal 700 is W-CDMA (Wideband Code Division Multiple Access) (registered trademark) method, GSM (Global System for Mobile communications) (registered trademark) method, LTE (LongTerm Term) method. Alternatively, it may be performed by other communication methods.
  • the portable information terminal 700 has a function of telephone communication (call) and data transmission / reception via a mobile telephone communication network and a function of wireless communication by Wi-Fi (registered trademark) or the like.
  • the portable information terminal 700 can be connected to the Internet 200 via the router device 200r and the access point 200a, or via the mobile phone communication network base station 600b and the mobile phone communication server 600. It is possible to send and receive data by communication with each server device and other communication devices.
  • the access point 200a is connected to the Internet 200 by wired communication, and is connected to the portable information terminal 700 by wireless communication. For the wireless communication, a method such as Wi-Fi (registered trademark) may be used. Communication between portable information terminal 700 and broadcast receiving apparatus 100 is performed via access point 200a and Internet 200 and router apparatus 200r, or through base station 600b and mobile telephone communication server 600, Internet 200 and router apparatus 200r. It may be carried out via.
  • the broadcast receiving apparatus 100 shown in FIG. 1 is defined by the MPEG (Moving Picture Experts Group) -2 system, which is widely adopted in conventional digital broadcasting systems, as a media transport system for transmitting data such as video and audio. It is assumed that the television receiver is compatible with MMT (MPEG Media Transport) instead of TS (Transport Stream) (hereinafter referred to as MPEG2-TS). It may be a television receiver that can support both MPEG2-TS and MMT.
  • MPEG2TS Transmission Stream
  • MPEG2-TS is characterized in that components such as video and audio constituting a program are multiplexed into one stream together with a control signal and a clock. Since it is handled as one stream including a clock, it is suitable for transmitting one content through one transmission path in which transmission quality is ensured, and has been adopted in many conventional digital broadcasting systems.
  • the function of MPEG2-TS in response to environmental changes related to content distribution such as recent diversification of content, diversification of devices that use content, diversification of transmission paths for content distribution, diversification of content storage environment, etc. Therefore, MMT is a newly developed media transport system.
  • FIG. 2A shows an example of an outline of the encoded signal in the MMT of the present embodiment.
  • the MMT of this embodiment has an MFU (Media Fragment Unit), an MPU (Media Processing Unit), an MMTP (MMT Protocol) payload, and an MMTP packet as elements constituting the encoded signal.
  • the MFU is a format at the time of transmission of video or audio, and may be configured in units of NAL (Network Abstraction Layer) units or access units.
  • the MPU may be composed of MPU metadata including information on the configuration of the entire MPU, movie fragment metadata including information of encoded media data, and sample data that is encoded media data. Further, it is assumed that MFU can be extracted from the sample data. In the case of media such as video components and audio components, the presentation time and decoding time may be specified in units of MPUs or access units.
  • FIG. 2B shows an example of the configuration of the MPU.
  • the MMTP packet includes a header part and an MMTP payload, and transmits MFU and MMT control information.
  • the MMTP payload includes a payload header corresponding to the content (data unit) stored in the payload portion.
  • FIG. 2C shows an example of the outline from the construction of the MFU from the video / audio signal, further storing it in the MMTP payload, and configuring the MMTP packet. Note that, in a video signal that is encoded using inter-frame prediction, it is desirable to configure the MPU in GOP (Group Of Pictures) units. Further, when the size of the MFU to be transmitted is small, one MFU may be stored in one payload part, or a plurality of MFUs may be stored in one payload part.
  • GOP Group Of Pictures
  • one MFU may be divided into a plurality of payload parts and stored. Further, the MMTP packet may be protected using a technique such as AL-FEC (Application Layer Forward Error Correction) or ARQ (Automatic Repeat Request) in order to recover the packet loss on the transmission path.
  • AL-FEC Application Layer Forward Error Correction
  • ARQ Automatic Repeat Request
  • MPEG-H HEVC High Efficiency Video Coding
  • MPEG-4 AAC Advanced Audio Coding
  • MPEG-4 ALS Audio Lossless
  • Coding is used.
  • the encoded data such as video and audio of the broadcast program encoded by the above-mentioned methods is in the MFU or MPU format, is further carried on the MMTP payload, is converted into an MMTP packet, and is transmitted as an IP (Internet Protocol) packet.
  • IP Internet Protocol
  • data contents related to a broadcast program may be in the MFU or MPU format, further MMTP packetized on the MMTP payload, and transmitted by IP packet.
  • Data content transmission methods include subtitle / text super transmission method used for streaming data synchronized with broadcast, application transmission method used for data transmission asynchronous with broadcast, and synchronous / asynchronous message for application running on television receiver.
  • Four types of event message transmission methods used for notification and other general-purpose data transmission methods for transmitting general-purpose data in a synchronous / asynchronous manner are prepared.
  • UDP / IP User Datagram Protocol / Internet Protocol
  • UDP / IP or TCP / IP Transmission Control Protocol / Internet Protocol
  • TLV Type Length Value
  • FIG. 1 An example of the protocol stack of the broadcasting system of the present embodiment is shown in FIG. In the figure, (A) is an example of a protocol stack in a broadcast transmission path, and (B) is an example of a protocol stack in a communication line.
  • MMT-SI MMT-Signaling Information
  • TLV-SI TLV-Signaling Information
  • time information is transmitted in order to provide absolute time.
  • MPEG2-TS indicates the component display time based on a different clock for each TS
  • MMT indicates the component display time based on the Coordinated Universal Time (UTC).
  • UTC Coordinated Universal Time
  • the control information includes the TLV-SI related to the TLV multiplexing method for multiplexing IP packets and the MMT that is the media transport method. Prepare the relevant MMT-SI.
  • the TLV-SI provides information for the broadcast receiving apparatus 100 to demultiplex the IP packet multiplexed on the broadcast transmission path.
  • the TLV-SI is composed of a “table” and a “descriptor”. The “table” is transmitted in the section format, and the “descriptor” is arranged in the “table”.
  • the MMT-SI is transmission control information indicating information related to the configuration of the MMT package and the broadcast service.
  • MMT-SI is composed of three levels: “message” for storing “table” and “descriptor”, “table” having elements and attributes indicating specific information, and “descriptor” indicating more detailed information. Shall. An example of the hierarchical structure of the control information used in the broadcasting system of the present embodiment is shown in FIG.
  • FIG. 5A shows a list of “tables” used in the TLV-SI of the broadcasting system supported by the broadcast receiving apparatus 100 of the present embodiment.
  • the following table is used as a “table” of TLV-SI.
  • TLV-NIT The network information table for TLV (Network Information Table for TLV: TLV-NIT) represents information on the physical configuration of the TLV stream transmitted by the network and the characteristics of the network itself.
  • AMT Address Map Table
  • FIG. 5B shows a list of “descriptors” arranged in the TLV-SI of the broadcasting system to which the broadcast receiving apparatus 100 of the present embodiment corresponds. In this embodiment, the following are used as “descriptors” of TLV-SI.
  • Service list descriptor The service list descriptor provides a list of services according to service identification and service type.
  • Satellite distribution system descriptor The satellite distribution system descriptor indicates the physical conditions of the satellite transmission path.
  • System management descriptor The system management descriptor is used to identify broadcast and non-broadcast.
  • the network name descriptor describes the network name using character codes.
  • FIG. 6A shows a list of “messages” used in the MMT-SI of the broadcast system supported by the broadcast receiving apparatus 100 of the present embodiment.
  • the following message is used as a “message” of MMT-SI.
  • PA message The Package Access (PA) message is used to transmit various tables.
  • M2 section message The M2 section message is used to transmit the section extension format of MPEG-2 Systems.
  • CA message The CA message is used to transmit a table for identifying the conditional access system.
  • M2 short section message is used to transmit the section short format of MPEG-2 Systems.
  • the data transmission message is a message for storing a table relating to data transmission.
  • FIG. 6B shows a list of “tables” used in the MMT-SI of the broadcast system supported by the broadcast receiving apparatus 100 of the present embodiment.
  • the table is control information having elements and attributes indicating specific information, and is stored in a message and transmitted by an MMTP packet.
  • the message for storing the table may be determined according to the table.
  • the following table is used as the “table” of MMT-SI.
  • MPT MMT package table
  • the MPT may be stored in the PA message.
  • PLT Packet List Table
  • LCT Layout Configuration Table
  • ECM Entity Control Message
  • EMM Entity Management Message
  • the Entity Management Message transmits individual information including contract information for each subscriber and key information for decrypting ECM (common information).
  • the EMM may be stored in the M2 section message.
  • CAT Supplemental Access Table: CAT (MH) is used to store a descriptor for identifying a conditional access system.
  • CAT (MH) may be stored in the CA message.
  • DCM Download Control Message
  • the Download Control Message transmits key related information including a key for decrypting a transmission path cipher for downloading.
  • the DCM may be stored in the M2 section message.
  • DMM Download Management Message transmits key-related information including a download key for decrypting DCM.
  • the DMM may be stored in the M2 section message.
  • MH-EIT MH-Event Information Table: MH-EIT
  • MH-EIT is time-series information regarding events included in each service.
  • the MH-EIT may be stored in the M2 section message.
  • MH-AIT MH-Application Information Table
  • the MH-AIT stores all information related to the application, an activation state required for the application, and the like.
  • the MH-AIT may be stored in the M2 section message.
  • MH-BIT An MH-Broadcaster Information Table (MH-BIT) is used to present information on broadcasters existing on the network.
  • the MH-BIT may be stored in the M2 section message.
  • MH-SDTT The MH-software download trigger table (MH-Software Download Trigger Table: MH-SDTT) is used for download notification information.
  • the MH-SDTT may be stored in the M2 section message.
  • MH-SDT MH-Service Description Table (MH-Service Description Table: MH-SDT) has a sub-table representing a service included in a specific TLV stream, and information related to the organization channel such as the name of the organization channel and the name of the broadcaster. Is transmitted.
  • the MH-SDT may be stored in the M2 section message.
  • MH-TOT The MH-Time Offset Table (MH-TOT) transmits JST time and date (modified Julian date) information.
  • the MH-TOT may be stored in the M2 short section message.
  • MH-CDT The MH-Common Data Table (MH-CDT) is used to transmit the common data to be stored in the non-volatile memory in a section format for all receivers that receive the MH-Common Data Table (MH-CDT).
  • the MH-CDT may be stored in the M2 section message.
  • the data directory management table (Data Directory Management Table: DDM table) provides a directory structure of files constituting an application in order to separate the file structure of the application from the structure for file transmission.
  • the DDM table may be stored in the data transmission message.
  • DAM table The data asset management table (Data Asset Management Table: DAM table) provides the configuration of the MPU in the asset and version information for each MPU.
  • the DAM table may be stored in the data transmission message.
  • DCC Table The data content management table (Data Content Configuration Table: DCC table) provides file configuration information as data content in order to realize flexible and effective cache control.
  • the DCC table may be stored in the data transmission message.
  • EMT Event Message Table
  • ⁇ Descriptors used in MMT-SI> 6C and 6D show a list of “descriptors” arranged in the MMT-SI of the broadcasting system to which the broadcast receiving apparatus 100 of the present embodiment corresponds.
  • the descriptor is control information that provides more detailed information and is arranged in a table. Note that the table in which the descriptor is arranged may be determined according to the descriptor. In this embodiment, the following are used as “descriptors” of MMT-SI.
  • Asset group descriptor provides asset group relationships and priorities within groups.
  • the asset group descriptor may be located in the MPT.
  • Event package descriptor provides a correspondence between an event representing a program and a package.
  • the event package descriptor may be arranged in the MH-EIT transmitted in the M2 section message.
  • the background color specification descriptor provides the backmost background color in the layout specification.
  • the background color designation descriptor may be arranged in the LCT.
  • the MPU presentation area designation descriptor provides a position for presenting an MPU.
  • the MPU presentation area designation descriptor may be arranged in the MPT.
  • MPU time stamp descriptor indicates the presentation time of the first access unit in the presentation order in the MPU.
  • the MPU timestamp descriptor may be located in the MPT.
  • the dependency descriptor provides an asset ID of an asset having a dependency relationship.
  • the dependency descriptor may be arranged in the MPT.
  • Access control descriptor provides information for identifying the conditional access system.
  • the access control descriptor may be located in MPT or CAT (MH).
  • the scramble method descriptor provides information for identifying the type of encryption target and encryption algorithm at the time of scrambling.
  • the scramble method descriptor may be arranged in MPT or CAT (MH).
  • the message authentication scheme descriptor provides information for identifying the message authentication scheme when performing message authentication.
  • the message authentication scheme descriptor may be arranged in MPT or CAT (MH).
  • the emergency information descriptor (MH) is used when emergency alert broadcasting is performed.
  • the emergency information descriptor (MH) may be located in the MPT.
  • the MH-MPEG-4 audio descriptor describes basic information for specifying an encoding parameter of an ISO / IEC 14496-3 (MPEG-4 audio) audio stream. Use for.
  • the MH-MPEG-4 audio descriptor may be located in the MPT.
  • MH-MPEG-4 Audio Extension Descriptor The MH-MPEG-4 audio extension descriptor is used to describe the profile and level of the MPEG-4 audio stream and the settings specific to the encoding method.
  • the MH-MPEG-4 audio extension descriptor may be located in the MPT.
  • the MH-HEVC video descriptor is an ITU-T recommendation H.264 standard. H.265
  • the MH-HEVC video descriptor may be located in the MPT.
  • the MH-Link Descriptor identifies a service provided when a viewer requests additional information related to a certain thing described in the program sequence information system.
  • the MH-link descriptor may be arranged in MPT, MH-EIT, MH-SDT, etc.
  • MH-event group descriptor is used to indicate that these event groups are grouped when there is a relationship between a plurality of events.
  • the MH-event group descriptor may be located in the MH-EIT.
  • the MH-Service List Descriptor provides a service list according to service identification and service type.
  • the MH-service list descriptor may be located in the MH-BIT.
  • MH-short format event descriptor represents an event name and a short description of the event in a text format.
  • the MH-short form event descriptor may be located in the MH-EIT.
  • the MH-extended format event descriptor is used in addition to the MH-short format event descriptor to provide a detailed description of the event.
  • the MH-extended event descriptor may be located in the MH-EIT.
  • Video Component Descriptor indicates parameters and explanations related to the video component, and is also used to represent an elementary stream in a character format.
  • the video component descriptor may be located in MPT or MH-EIT.
  • the MH-stream identification descriptor is used to label the component stream of the service and to refer to the description content indicated by the video component descriptor in the MH-EIT. .
  • the MH-stream identification descriptor may be arranged in the MPT.
  • the MH-content descriptor indicates the genre of the event.
  • the MH-content descriptor may be located in the MH-EIT.
  • the MH-Parental Rate Descriptor represents viewing restrictions based on age, and is used to extend based on other restriction conditions.
  • the MH-parental rate descriptor may be located in MPT or MH-EIT.
  • the MH-voice component descriptor indicates each parameter of the voice elementary stream, and is also used to represent the elementary stream in a character format.
  • the MH-voice component descriptor may be located in MPT or MH-EIT.
  • the MH-target area descriptor is used to describe a target area for a program or a part of streams constituting the program.
  • the MH-target area descriptor may be located in the MPT.
  • the MH-series descriptor is used to identify a series program.
  • the MH-series descriptor may be located in the MH-EIT.
  • the MH-SI transmission parameter descriptor is used to indicate a transmission parameter of SI.
  • the MH-SI transmission parameter descriptor may be arranged in the MH-BIT.
  • the MH-Broadcaster name descriptor describes the name of the broadcaster.
  • the MH-Broadcaster name descriptor may be located in the MH-BIT.
  • the MH-Service Descriptor represents the organization channel name and its operator name with a character code together with the service type.
  • the MH-service descriptor may be located in the MH-SDT.
  • IP Data Flow Descriptor provides information on the IP data flow constituting the service.
  • the IP data flow descriptor may be located in MH-SDT.
  • the MH-CA activation descriptor describes activation information for activating a CAS program on the CAS infrastructure.
  • the MH-CA activation descriptor may be located in MPT or CAT (CA).
  • the MH-Type descriptor indicates the type of a file transmitted by the application transmission method.
  • the MH-Type descriptor may be placed in the DAM table.
  • the MH-Info descriptor describes information related to the MPU or item.
  • the MH-Info descriptor may be placed in the DAM table.
  • the MH-Expire descriptor describes the expiration date of an item.
  • the MH-Expire descriptor may be placed in the DAM table.
  • MH-Compression Type descriptor means that the item to be transmitted is compressed, and indicates the compression algorithm and the number of bytes of the item before compression.
  • the MH-Compression Type descriptor may be placed in the DAM table.
  • the MH-data encoding scheme descriptor is used to identify a data encoding scheme.
  • the MH-data encoding scheme descriptor may be arranged in the MPT.
  • UTC-NPT Reference Descriptor The UTC-NPT reference descriptor is used to convey the relationship between NPT (Normal Play Time) and UTC.
  • the UTC-NPT reference descriptor may be located in the EMT.
  • Event message descriptor conveys information related to event messages in general.
  • the event message descriptor may be located in the EMT.
  • the MH-local time offset descriptor is used to give a certain offset value to the actual time (for example, UTC + 9 hours) and the display time to the human system during the daylight saving time.
  • the MH-local time offset descriptor may be located in the MH-TOT.
  • the MH-component group descriptor defines and identifies a combination of components in an event.
  • the MH-component group descriptor may be located in the MH-EIT.
  • the MH-logo transmission descriptor is used to describe a character string for a simple logo, pointing to a CDT format logo, and the like.
  • the MH-logo transmission descriptor may be located in the MH-SDT.
  • MPU extended time stamp descriptor provides the decoding time of the access unit in the MPU.
  • the MPU extended timestamp descriptor may be placed in the MPT.
  • MPU download content descriptor is used to describe attribute information of content downloaded using the MPU.
  • the MPU download content descriptor may be arranged in MH-SDTT.
  • the MH-Network Download Content Descriptor is used to describe attribute information of content downloaded using the network.
  • the MH-network download content descriptor may be located in the MH-SDTT.
  • the MH-application descriptor describes application information.
  • the MH-application descriptor may be located in the MH-AIT.
  • the MH-Transmission Protocol Descriptor is used for designating a transmission protocol such as broadcasting or communication and indicating location information of an application depending on the transmission protocol.
  • the MH-Transmission Protocol Descriptor may be located in the MH-AIT.
  • MH Simple Application Location Descriptor
  • the MH is described to indicate details of an application acquisition destination.
  • the MH-simple application location descriptor may be located in the MH-AIT.
  • the MH-application boundary authority setting descriptor is described in order to set an application boundary and to set a broadcast resource access authority for each area (URL).
  • the MH-application boundary authority setting descriptor may be arranged in the MH-AIT.
  • the MH-activation priority information descriptor is described for designating the application activation priority.
  • the MH-activation priority information descriptor may be arranged in the MH-AIT.
  • MH-cache information descriptor The MH-cache information descriptor is described to be used for cache control when the resources constituting the application are cached and held when the application is assumed to be reused. .
  • the MH-cache information descriptor may be located in the MH-AIT.
  • the MH-Probabilistic Application Delay Descriptor is used to delay the application control timing by a stochastically set delay amount assuming load distribution of server access for application acquisition. Describe in.
  • the MH-stochastic application delay descriptor may be placed in the MH-AIT.
  • Link destination PU descriptor describes another presentation unit that may transition from the presentation unit (PU).
  • the link destination PU descriptor may be arranged in the DCC table.
  • Lock cache specification descriptor describes the specification of a file to be cached and locked in the presentation unit.
  • the lock cache designation descriptor may be arranged in the DCC table.
  • Unlock cache specification descriptor describes the specification of the file to be unlocked among the files locked in the presentation unit.
  • the unlock cache specification descriptor may be arranged in the DCC table.
  • data transmission can be performed through a plurality of paths such as a TLV stream via a broadcast transmission path and an IP data flow via a communication line.
  • the TLV stream includes a TLV-SI such as TLV-NIT or AMT, and an IP data flow that is a data flow of an IP packet.
  • the IP data flow includes video assets including a series of video MPUs and audio assets including a series of audio MPUs.
  • a subtitle asset including a series of subtitle MPUs, a character super asset including a series of character super MPUs, a data asset including a series of data MPUs, and the like may be included in the IP data flow.
  • MPT MMT package table
  • the asset that constitutes the package may be only the asset in the TLV stream, but as shown in FIG. 6E, the asset that is transmitted by the IP data flow of the communication line may be included. This is because the location information of each asset included in the package (corresponding to “MMT_general_location_info ()” shown in FIG. 17 to be described later) is included in the MPT, and the broadcast receiving apparatus 100 of the present embodiment specifies the reference destination of each asset. This can be realized by making it possible to grasp.
  • the broadcast receiving device 100 can refer to various data transmitted through various transmission paths.
  • (1) is an IP data flow received via a digital broadcast signal received by a tuner / demodulator 131 of the broadcast receiving apparatus 100 of FIG.
  • the reference destination of (1) may be an IP data flow received by the LAN communication unit 121 described later via the communication line.
  • the above (2), (3), (5), and (6) are IP data flows received by the LAN communication unit 121 (described later) via a communication line.
  • (4) is a receiving function for receiving a digital broadcast signal using the MMT system and a digital broadcast using the MPEG2-TS system, as in the broadcast receiving apparatus 800 of the second embodiment shown in FIG.
  • MMT_general_location_info ()
  • MMT_general_location_info ()
  • the data constituting the “package” is specified in this way, but in the broadcast system supported by the broadcast receiving apparatus 100 of the present embodiment, a series of data in the “package” unit is converted into the “service” unit of digital broadcasting. Treat as.
  • the MPT includes presentation time information (corresponding to the “mpu_presentation_time” parameter shown in FIG. 13B described later) of each MPU specified by the MPT, and a plurality of MPTs specified by the MPT using the presentation time information.
  • the MPU can be presented (displayed, output, etc.) in conjunction with a clock based on NTP, which is time information expressed in UTC.
  • NTP time information expressed in UTC.
  • the “event” is a concept indicating a so-called “program” that is handled by the MH-EIT sent in the M2 section message. Specifically, in the “package” indicated by the event package descriptor stored in the MH-EIT, the duration from the disclosure time stored in the MH-EIT (corresponding to the “start_time” parameter shown in FIG. 21 described later). A series of data included in the period (corresponding to a “duration” parameter shown in FIG. 21 described later) is data included in the concept of the “event”.
  • the MH-EIT performs various processes in units of the “event” in the broadcast receiving apparatus 100 according to the present embodiment (for example, program table generation processing, recording reservation and viewing reservation control, copyright management processing such as temporary storage). Can be used.
  • FIG. 7A is a block diagram illustrating an example of an internal configuration of the broadcast receiving apparatus 100.
  • the broadcast receiving apparatus 100 includes a main control unit 101, a system bus 102, a ROM 103, a RAM 104, a storage (storage) unit 110, a LAN communication unit 121, an expansion interface unit 124, a digital interface unit 125, a tuner / demodulation unit 131, and a separation unit 132.
  • Video decoder 141 Video decoder 141, video color gamut conversion unit 142, audio decoder 143, character super decoder 144, subtitle decoder 145, subtitle synthesis unit 146, subtitle color gamut conversion unit 147, data decoder 151, cache unit 152, application control unit 153, A browser unit 154, an application color gamut conversion unit 155, a sound source unit 156, a video synthesis unit 161, a monitor unit 162, a video output unit 163, a voice synthesis unit 164, a speaker unit 165, a voice output unit 166, and an operation input unit 170. Is done.
  • the main control unit 101 is a microprocessor unit that controls the entire broadcast receiving apparatus 100 according to a predetermined operation program.
  • a system bus 102 is a data communication path for transmitting and receiving data between the main control unit 101 and each operation block in the broadcast receiving apparatus 100.
  • a ROM (Read Only Memory) 103 is a non-volatile memory in which a basic operation program such as an operating system and other operation programs are stored. For example, a rewritable ROM such as an EEPROM (Electrically Erasable Programmable ROM) or a flash ROM is provided. Used. The ROM 103 may store operation setting values necessary for the operation of the broadcast receiving apparatus 100.
  • a RAM (Random Access Memory) 104 serves as a work area for executing a basic operation program and other operation programs. The ROM 103 and the RAM 104 may be integrated with the main control unit 101. Further, the ROM 103 may not use an independent configuration as shown in FIG. 7A but may use a partial storage area in the storage (accumulation) unit 110.
  • the storage (accumulation) unit 110 stores an operation program and an operation setting value of the broadcast receiving apparatus 100, personal information of the user of the broadcast receiving apparatus 100, and the like. Further, it is possible to store an operation program downloaded via the Internet 200 and various data created by the operation program. It is also possible to store content such as moving images, still images, and audio obtained from broadcast waves or downloaded via the Internet 200. All or some of the functions of the ROM 103 may be replaced by a partial area of the storage (storage) unit 110. Further, the storage (accumulation) unit 110 needs to hold stored information even when power is not supplied to the broadcast receiving apparatus 100 from the outside. Therefore, for example, a device such as a nonvolatile semiconductor element memory such as a flash ROM or SSD (Solid State Drive), a magnetic disk drive such as an HDD (Hard Disc Drive), or the like is used.
  • a nonvolatile semiconductor element memory such as a flash ROM or SSD (Solid State Drive), a magnetic disk drive such as an HDD (Hard Disc Drive), or
  • each operation program stored in the ROM 103 or the storage (accumulation) unit 110 can be added, updated, and expanded in function by download processing from each server device on the Internet 200.
  • a LAN (Local Area Network) communication unit 121 is connected to the Internet 200 via the router device 200r, and transmits / receives data to / from each server device and other communication devices on the Internet 200. It is also assumed that an MMT data string (or a part thereof) of a program transmitted via a communication line is acquired.
  • the connection with the router device 200r may be a wired connection or a wireless connection such as Wi-Fi (registered trademark).
  • the LAN communication unit 121 includes an encoding circuit, a decoding circuit, and the like.
  • the broadcast receiving apparatus 100 may further include other communication units such as a BlueTooth (registered trademark) communication unit, an NFC communication unit, and an infrared communication unit.
  • the tuner / demodulator 131 receives the broadcast wave transmitted from the radio tower 300t via the antenna 100a, and tunes (tunes) to the channel of the service desired by the user based on the control of the main controller 101. Further, the tuner / demodulator 131 demodulates the received broadcast signal to obtain an MMT data string.
  • FIG. 7A a configuration with one tuner / demodulation unit is illustrated. However, for the purpose of simultaneous display of a plurality of screens, back program recording, and the like, the broadcast receiving apparatus 100 includes a tuner / demodulation unit. It is good also as a structure mounted in multiple numbers.
  • the separation unit 132 is an MMT decoder, and a video data sequence, an audio data sequence, a character super data sequence, a caption data sequence, etc., which are real-time presentation elements based on a control signal in the input MMT data sequence, are respectively converted into a video decoder 141.
  • the voice decoder 143, the character super decoder 144, the subtitle decoder 145, etc. are distributed.
  • the data input to the demultiplexing unit 132 includes an MMT data sequence transmitted through a broadcast transmission path and demodulated by the tuner / demodulation unit 131, or MMT data transmitted through a communication line and received by the LAN communication unit 121. It can be a line.
  • the separation unit 132 reproduces the multimedia application and file system data that is a component of the multimedia application, and temporarily stores them in the cache unit 152.
  • the separation unit 132 extracts general-purpose data and outputs the data to the data decoder 151 for use in streaming data for use with a player that presents data other than video / audio subtitles or data for an application.
  • the separation unit 132 may perform error correction, access restriction control, and the like on the input MMT data string based on the control of the main control unit 101.
  • the video decoder 141 decodes the video data sequence input from the separation unit 132 and outputs video information.
  • the video color gamut conversion unit 142 performs color space conversion processing on the video information decoded by the video decoder 141 as needed for video synthesis processing by the video synthesis unit 161.
  • the audio decoder 143 decodes the audio data sequence input from the separation unit 132 and outputs audio information. Further, even when streaming data obtained from the Internet 200 via the LAN communication unit 121, for example, MPEG-DASH (MPEG-Dynamic Adaptive Streaming HTTP) format or the like is input to the video decoder 141 and the audio decoder 143. good.
  • a plurality of video decoders 141, video color gamut conversion units 142, audio decoders 143, and the like may be provided in order to simultaneously decode a plurality of types of video data sequences and audio data sequences.
  • the character super decoder 144 decodes the character super data string input from the separation unit 132 and outputs character super information.
  • the caption decoder 145 decodes the caption data string input from the separation unit 132 and outputs caption information.
  • the superimposing information output from the character super decoder 144 and the subtitle information output from the subtitle decoder 145 are subjected to the synthesizing process in the subtitle synthesizing unit 146, and further, the subtitle color gamut converting unit 147 performs the synthesis in the video synthesizing unit 161. For the video composition process, a color space conversion process is performed as necessary.
  • subtitles those related to the content of the video are referred to as subtitles, and other services are referred to as character supermarkets. To do. If they are not distinguished, they are collectively referred to as subtitles.
  • the browser unit 154 transmits the multimedia application file acquired from the server device on the Internet 200 via the cache unit 152 or the LAN communication unit 121 and the file system data that is a component of the multimedia application file to the control information or LAN included in the MMT data string.
  • the control information acquired from the server device on the Internet 200 via the communication unit 121 is presented according to an instruction from the application control unit 153 that interprets the control information.
  • the multimedia application file may be an HTML (Hyper Text Markup Language) document, a BML (Broadcast Markup Language) document, or the like.
  • the application information output from the browser unit 154 is further subjected to color space conversion processing in the application color gamut conversion unit 155 as necessary for the video composition processing in the video composition unit 161.
  • the browser unit 154 also plays the application audio information by acting on the sound source unit 156.
  • the video composition unit 161 receives the video information output from the video color gamut conversion unit 142, the caption information output from the subtitle color gamut conversion unit 147, the application information output from the application color gamut conversion unit 155, and the like. Processing such as selection and / or superposition is performed.
  • the video composition unit 161 includes a video RAM (not shown), and the monitor unit 162 and the like are driven based on video information and the like input to the video RAM. Also, the video composition unit 161 is based on the control of the main control unit 101, and an EPG (Electronic Program Guide) created based on information such as scaling processing and MH-EIT included in the MMT-SI as necessary. Performs superimposition processing of screen information.
  • EPG Electronic Program Guide
  • the monitor unit 162 is a display device such as a liquid crystal panel, for example, and provides video information selected and / or superimposed by the video composition unit 161 to the user of the broadcast receiving apparatus 100.
  • the video output unit 163 is a video output interface that outputs the video information that has been selected and / or superimposed by the video composition unit 161.
  • the presentation function of the broadcast receiving apparatus 100 of the present embodiment has a logical plane structure in order to display the multimedia service as intended by the provider.
  • FIG. 7B shows an example of the configuration of the logical plane structure provided in the presentation function of the broadcast receiving apparatus 100 of the present embodiment.
  • a character super plane for displaying a character super is arranged on the foreground, and a subtitle plane for displaying a subtitle is arranged on the next layer.
  • a multimedia plane for displaying a broadcast video, a multimedia application, or a composite video thereof is arranged, and a background plane is arranged on the backmost surface.
  • the caption synthesizing unit 146 and the video synthesizing unit 161 drawing of the character super information on the character super plane, drawing of the subtitle information on the subtitle plane, and drawing on the multimedia plane such as video information and application information are performed.
  • the background color is drawn on the background plane based on LCT included in the MMT-SI. Note that a plurality of multimedia planes in the third layer can be prepared according to the number of video decoders 141. However, even when there are a plurality of multimedia planes, the application information and the like output from the application color gamut conversion unit 155 are output only to the foreground multimedia plane.
  • the voice synthesizer 164 inputs the voice information output from the voice decoder 143 and the application voice information reproduced by the sound source unit 156, and performs processing such as selection and / or mixing as appropriate.
  • the speaker unit 165 provides the user of the broadcast receiving apparatus 100 with the audio information that has been selected and / or mixed by the voice synthesis unit 164.
  • the audio output unit 166 is an audio output interface that outputs audio information that has been selected and / or mixed by the audio synthesis unit 164.
  • the extension interface unit 124 is an interface group for extending the function of the broadcast receiving apparatus 100.
  • the extension interface unit 124 includes an analog video / audio interface, a USB (Universal Serial Bus) interface, a memory interface, and the like.
  • the analog video / audio interface performs input of analog video signals / audio signals from external video / audio output devices, output of analog video signals / audio signals to external video / audio input devices, and the like.
  • the USB interface is connected to a PC or the like to transmit / receive data.
  • a broadcast program or content may be recorded by connecting an HDD.
  • a keyboard or other USB device may be connected.
  • the memory interface transmits and receives data by connecting a memory card and other memory media.
  • the digital interface unit 125 is an interface for outputting or inputting encoded digital video data and / or digital audio data.
  • the digital interface unit 125 can output the MMT data sequence obtained by demodulation by the tuner / demodulation unit 131, the MMT data sequence obtained via the LAN communication unit 121, or the mixed data of each MMT data sequence as it is. Shall. Further, the MMT data string input from the digital interface unit 125 may be controlled to be input to the separation unit 132. Output of digital content stored in the storage (accumulation) unit 110 or storage of digital content in the storage (accumulation) unit 110 may be performed via the digital interface unit 125.
  • the digital interface unit 125 is a DVI terminal, an HDMI (registered trademark) terminal, a Display Port (registered trademark) terminal, or the like, and outputs or inputs data in a format compliant with the DVI specification, the HDMI specification, the Display Port specification, or the like. It may be a thing.
  • the data may be output or input in the form of serial data conforming to the IEEE 1394 specification or the like. Further, it may be configured as an IP interface that performs digital interface output via hardware such as Ethernet (registered trademark) or wireless LAN. In this case, the digital interface unit 125 and the LAN communication unit 121 may share the hardware configuration.
  • the operation input unit 170 is an instruction input unit that inputs an operation instruction to the broadcast receiving apparatus 100.
  • a remote control receiving unit that receives a command transmitted from a remote controller (not shown) and a button switch are arranged. It shall consist of operation keys. Either one may be sufficient.
  • the operation input unit 170 may be replaced with a touch panel arranged on the monitor unit 162.
  • a keyboard connected to the extension interface unit 124 may be substituted.
  • the remote controller (not shown) may be replaced with a portable information terminal 700 having a remote command transmission function.
  • the broadcast receiving apparatus 100 when the broadcast receiving apparatus 100 is a television receiver or the like, the video output unit 163 and the audio output unit 166 are not essential components of the present invention.
  • the broadcast receiving apparatus 100 may be an optical disk drive recorder such as a DVD (Digital Versatile Disc) recorder, a magnetic disk drive recorder such as an HDD recorder, an STB (Set Top Box), or the like. It may be a PC (Personal Computer), a tablet terminal, a navigation device, a game machine or the like having a digital broadcast receiving function or a broadcast communication cooperation function.
  • the monitor unit 162 and the speaker unit 165 may not be provided.
  • FIG. 7C is an example of a system configuration of clock synchronization / presentation synchronization in a broadcast system supported by the broadcast receiving apparatus 100 of the present embodiment.
  • UTC is transmitted from the broadcast transmission system to a receiver (such as the broadcast receiving device 100 of the present embodiment) in the 64-bit NTP timestamp format.
  • NTP timestamp format “seconds or more” of UTC is represented by 32 bits, and “less than seconds” is represented by 32 bits.
  • a system clock for synchronizing the video system and a system clock for operating an NTP clock for example, as shown in the figure, “2 24” Hz (about 16.8 MHz)
  • the frequency may be used.
  • the number of “2 24” to “2 28” is about 2 It is desirable to employ a power frequency as the system clock.
  • the system clock is set to a power of 2 such as “2 24” to “2 28” as described above on the broadcast transmission system side or the receiver side, it is received from the broadcast transmission system side.
  • a PLL system On the broadcast transmission system side, when time information in NTP format is obtained from the outside, a PLL system is configured with a 32 + n-bit counter by a VCO (Voltage Controlled Oscillator) of “2 to the power of 2” Hz, and the time information given from the outside Realizing a synchronized sending system clock. Further, the entire signal processing system is operated in synchronization with a system clock of “2 to the power of n” Hz. Further, the output of the transmission system clock is periodically transmitted to the receiver side through the broadcast transmission path as time information in the NTP length format.
  • VCO Voltage Controlled Oscillator
  • time information in the NTP length format is received via the broadcast transmission path, and the reception system clock is reproduced by a PLL system based on a VCO of “2n” Hz, similarly to the broadcast transmission system side.
  • the reception system clock becomes a clock synchronized with the broadcast transmission system side.
  • the signal processing system of the receiver in synchronization with the system clock of “2 to the power of n” Hz, clock synchronization between the broadcast transmission system side and the receiver side is realized, and stable signal reproduction is possible.
  • the decoding time and the presentation time for each presentation unit of the video / audio signal are set on the broadcast transmission system side based on the time information in the NTP format.
  • the MPT time stamp descriptor shown in FIG. 13B described later is stored in the MPT stored in the PA message transmitted by the broadcast signal.
  • the “mpu_sequence_number (MPU sequence number)” parameter in the MPU time stamp descriptor of FIG. 13B indicates the sequence number of the MPU describing the time stamp
  • the “mpu_presentation_time (MPU presentation time)” parameter indicates the MPU presentation time in 64-bit NTP. It is shown in time stamp format. Therefore, the receiver can refer to the MPU time stamp descriptor stored in the MPT and control the presentation (display, output, etc.) timing for each MPU such as a video signal, an audio signal, a caption, and a character supermarket. .
  • the video / audio signal is synchronized even with a clock of about "2 to the 16th power" Hz (about 65.5 KHz).
  • a clock of “2 to the power of m” generated by dividing the system clock is used to control the decoding timing and presentation timing
  • the “32-m” bit need not be referenced. Therefore, the lower “32-m” bits of the NTP timestamp format described in the MPU timestamp descriptor or the like may be fixed to “0” or “1”.
  • FIG. 7D is a software configuration diagram of the broadcast receiving apparatus 100 of the present embodiment, and shows a software configuration in the ROM 103, the RAM 104, and the storage (storage) unit 110.
  • a basic operation program 1001 and other operation programs are stored in the ROM 103
  • a reception function program 1002 and other operation programs are stored in the storage (storage) unit 110.
  • the storage unit 110 also stores a content storage area 1200 that stores content such as moving images, still images, and audio, and authentication information that is necessary when accessing an external mobile terminal device or each server device. It is assumed that an information storage area 1300 and various information storage areas for storing various other information are provided.
  • the basic operation program 1001 stored in the ROM 103 is expanded in the RAM 104, and the main control unit 101 executes the expanded basic operation program to constitute a basic operation execution unit 1101.
  • the reception function program 1002 stored in the storage (accumulation) unit 110 is also expanded in the RAM 104, and the main control unit 101 executes the expanded reception function program to configure the reception function execution unit 1102. To do.
  • the RAM 104 is provided with a temporary storage area that temporarily holds data created when each operation program is executed as necessary.
  • the main control unit 101 executes the basic operation processing to control each operation block by expanding the basic operation program 1001 stored in the ROM 103 into the RAM 104 and executing it.
  • the unit 1101 is described as performing control of each operation block. The same description is made for other operation programs.
  • the reception function execution unit 1102 controls each operation block of the broadcast receiving apparatus 100 in order to reproduce components such as video and audio transmitted in the broadcast system of the present embodiment.
  • the transport processing unit 1102a mainly controls the MMT decoder function of the separation unit 132, and distributes the video data sequence, the audio data sequence, and the like separated from the MMT data sequence to the corresponding decoding processing units.
  • the AV decoding processing unit 1102b mainly controls the video decoder 141, the audio decoder 143, and the like.
  • the application processing unit 1102c mainly controls the cache unit 152, the application control unit 153, the browser unit 154, and the sound source unit 156.
  • the character super processing unit 1102d mainly controls the character super decoder 144.
  • the caption processing unit 1102e mainly controls the caption decoder 145.
  • the general-purpose data processing unit 1102f mainly controls the data decoder 151.
  • the EPG generation unit 1102g generates an EPG screen by interpreting description contents such as MH-EIT included in the MMT-SI.
  • the presentation processing unit 1102h is based on the logical plane structure, and the video color gamut conversion unit 142, the subtitle synthesis unit 146, the subtitle color gamut conversion unit 147, the application color gamut conversion unit 155, the video synthesis unit 161, and the audio synthesis unit 164. Is mainly controlled.
  • the operation programs may be stored in advance in the ROM 103 and / or the storage (accumulation) unit 110 at the time of product shipment. It may be acquired from the other application server 500 on the Internet 200 via the LAN communication unit 121 after the product is shipped. Further, each operation program stored in a memory card, an optical disk or the like may be acquired via the expansion interface unit 124 or the like.
  • FIG. 8 is a block diagram illustrating an example of the internal configuration of the broadcast station server 300.
  • the broadcast station server 300 includes a main control unit 301, a system bus 302, a RAM 304, a storage unit 310, a LAN communication unit 321 and a digital broadcast signal transmission unit 360.
  • the main control unit 301 is a microprocessor unit that controls the entire broadcast station server 300 in accordance with a predetermined operation program.
  • a system bus 302 is a data communication path for performing data transmission / reception between the main control unit 301 and each operation block in the broadcast station server 300.
  • the RAM 304 serves as a work area when executing each operation program.
  • the storage unit 310 stores a basic operation program 3001, a broadcast content management / distribution program 3002, and a broadcast content transmission program 3003, and further includes a broadcast content storage area 3200 and a metadata storage area 3300.
  • the broadcast content storage area 3200 stores program content and the like of each broadcast program broadcast by the broadcast station.
  • the metadata storage area 3300 stores metadata such as the program title, program ID, program overview, performers, broadcast date and time, copy control information related to each program content, and the like of each broadcast program.
  • the basic operation program 3001, the broadcast content management / distribution program 3002, and the broadcast content transmission program 3003 stored in the storage unit 310 are expanded in the RAM 304, and the main control unit 301 further executes the expanded programs.
  • a basic operation execution unit 3101, a broadcast content management / distribution execution unit 3102, and a broadcast content transmission execution unit 3103 are configured.
  • the broadcast content management / distribution execution unit 3102 manages the program content and the like of each broadcast program stored in the broadcast content storage area 3200 and the metadata storage area 3300, the program content of each broadcast program, and the like. Performs control when providing metadata to service providers based on contracts. Furthermore, the broadcast content management / distribution execution unit 3102 provides a service provider based on the contract as necessary when providing the service provider with the program content of each broadcast program and each metadata. Authentication processing of the server 400 may be performed.
  • the broadcast content transmission execution unit 3103 displays the program content of the broadcast program stored in the broadcast content storage area 3200, the program title of the broadcast program stored in the metadata storage area 3300, the program ID, copy control information of the program content, and the like. Time schedule management and the like are performed when an MMT data string including the MMT data string is transmitted from the radio tower 300t via the digital broadcast signal transmission unit 360.
  • the LAN communication unit 321 is connected to the Internet 200 and communicates with the service provider server 400 on the Internet 200.
  • the LAN communication unit 321 includes a coding circuit, a decoding circuit, and the like.
  • the digital broadcast signal transmission unit 360 modulates the MMT data sequence composed of the video data sequence, the audio data sequence, the program information data sequence, etc. of the program content of each broadcast program stored in the broadcast content storage area 3200.
  • the digital broadcast wave is transmitted through the radio tower 300t.
  • FIG. 9 is a block diagram illustrating an example of the internal configuration of the service provider server 400.
  • the service provider server 400 includes a main control unit 401, a system bus 402, a RAM 404, a storage unit 410, and a LAN communication unit 421.
  • the main control unit 401 is a microprocessor unit that controls the entire service provider server 400 according to a predetermined operation program.
  • a system bus 402 is a data communication path for transmitting and receiving data between the main control unit 401 and each operation block in the service provider server 400.
  • the RAM 404 becomes a work area when each operation program is executed.
  • the storage unit 410 stores a basic operation program 4001, a video content management / distribution program 4002, and an application management / distribution program 4004, and further stores a video content storage area 4200, a metadata storage area 4300, an application storage area 4400, and user information storage.
  • An area 4500 is provided.
  • the video content storage area 4200 stores program content of a broadcast program provided from the broadcast station server 300 as video content.
  • the video content produced by the service provider is stored.
  • the metadata storage area 4300 stores each metadata provided from the broadcast station server 300, metadata about video content produced by the service provider, and the like.
  • the application storage area 4400 stores various applications for realizing a service linked to a broadcast program for distribution in response to a request from each television receiver.
  • the user information storage area 4500 stores information (such as personal information and authentication information) related to users who are permitted to access the service provider server 400.
  • the basic operation program 4001, the video content management / distribution program 4002 and the application management / distribution program 4004 stored in the storage unit 410 are expanded in the RAM 404, and the main control unit 401 further expands the basic operation program and the video.
  • a basic operation execution unit 4101, a video content management / distribution execution unit 4102, and an application management / distribution execution unit 4104 are configured.
  • the video content management / distribution execution unit 4102 obtains the program content and the metadata of the broadcast program from the broadcasting station server 300, the video content stored in the video content storage area 4200 and the metadata storage area 4300, and each metadata. And the distribution of the video content etc. and each metadata to each television receiver. Furthermore, the video content management / distribution execution unit 4102 performs authentication processing and the like of each television receiver as necessary when delivering each video content and each metadata to each television receiver. You can go.
  • the application management / distribution execution unit 4104 performs management of each application stored in the application storage area 4400 and control when each application is distributed in response to a request from each television receiver. Furthermore, the application management / distribution execution unit 4104 may perform authentication processing of each television receiver as necessary when distributing each application to each television receiver.
  • the LAN communication unit 421 is connected to the Internet 200 and communicates with the broadcast receiving device 100 via the broadcast station server 300 on the Internet 200 and the router device 200r.
  • the LAN communication unit 421 includes a coding circuit, a decoding circuit, and the like.
  • FIG. 10A is a block diagram illustrating an example of the internal configuration of the portable information terminal 700.
  • the portable information terminal 700 includes a main control unit 701, a system bus 702, a ROM 703, a RAM 704, a storage unit 710, a communication processing unit 720, an expansion interface unit 724, an operation unit 730, an image processing unit 740, an audio processing unit 750, and a sensor unit 760. , Is composed.
  • the main control unit 701 is a microprocessor unit that controls the entire portable information terminal 700 according to a predetermined operation program.
  • a system bus 702 is a data communication path for transmitting and receiving data between the main control unit 701 and each operation block in the portable information terminal 700.
  • the ROM 703 is a memory in which a basic operation program such as an operating system and other operation programs are stored. For example, a rewritable ROM such as an EEPROM or a flash ROM is used.
  • the RAM 704 serves as a work area when the basic operation program and other operation programs are executed.
  • the ROM 703 and the RAM 704 may be integrated with the main control unit 701. Further, the ROM 703 does not have an independent configuration as shown in FIG. 10A, and may use a partial storage area in the storage unit 710.
  • the storage unit 710 stores an operation program and an operation setting value of the portable information terminal 700, personal information of the user of the portable information terminal 700, and the like. Further, it is possible to store an operation program downloaded via the Internet 200 and various data created by the operation program. In addition, contents such as moving images, still images, and audio downloaded via the Internet 200 can be stored. All or part of the functions of the ROM 703 may be replaced by a partial area of the storage unit 710. In addition, the storage unit 710 needs to hold stored information even when power is not supplied to the portable information terminal 700 from the outside. Therefore, for example, a device such as a nonvolatile semiconductor element memory such as a flash ROM or SSD, a magnetic disk drive such as an HDD, or the like is used.
  • operation programs stored in the ROM 703 and the storage unit 710 can be added, updated, and expanded in function by download processing from each server device on the Internet 200.
  • the communication processing unit 720 includes a LAN communication unit 721, a mobile telephone network communication unit 722, and an NFC communication unit 723.
  • the LAN communication unit 721 is connected to the Internet 200 via the router device 200r and the access point 200a, and transmits / receives data to / from each server device and other communication devices on the Internet 200. It is assumed that connection with the router device 200r and the access point 200a is performed by wireless connection such as Wi-Fi (registered trademark).
  • the mobile telephone network communication unit 722 performs telephone communication (call) and data transmission / reception by wireless communication with the base station 600b of the mobile telephone communication network.
  • the NFC communication unit 723 performs wireless communication when close to the corresponding reader / writer.
  • the LAN communication unit 721, the mobile telephone network communication unit 722, and the NFC communication unit 723 are each provided with a coding circuit, a decoding circuit, an antenna, and the like.
  • the communication processing unit 720 may further include another communication unit such as a BlueTooth (registered trademark) communication unit or an infrared communication unit.
  • the extended interface unit 724 is an interface group for extending the functions of the portable information terminal 700, and in this embodiment, is configured by a video / audio interface, a USB interface, a memory interface, and the like.
  • the video / audio interface performs input of video signals / audio signals from external video / audio output devices, output of video signals / audio signals to external video / audio input devices, and the like.
  • the USB interface is connected to a PC or the like to transmit / receive data. A keyboard or other USB device may be connected.
  • the memory interface transmits and receives data by connecting a memory card and other memory media.
  • the operation unit 730 is an instruction input unit that inputs an operation instruction to the portable information terminal 700.
  • the operation unit 730 includes a touch panel 730t arranged on the display unit 741 and an operation key 730k in which button switches are arranged. Shall. Either one may be sufficient.
  • the portable information terminal 700 may be operated using a keyboard or the like connected to the extension interface unit 724.
  • the portable information terminal 700 may be operated using a separate terminal device connected by wired communication or wireless communication. That is, the portable information terminal 700 may be operated from the broadcast receiving device 100.
  • the touch panel function may be provided in the display unit 741.
  • the image processing unit 740 includes a display unit 741, an image signal processing unit 742, a first image input unit 743, and a second image input unit 744.
  • the display unit 741 is a display device such as a liquid crystal panel, for example, and provides the image data processed by the image signal processing unit 742 to the user of the portable information terminal 700.
  • the image signal processing unit 742 includes a video RAM (not shown), and the display unit 741 is driven based on the image data input to the video RAM.
  • the image signal processing unit 742 has a function of performing format conversion, menu and other OSD (On Screen Display) signal superimposing processing as necessary.
  • the first image input unit 743 and the second image input unit 744 convert light input from a lens into an electric signal using an electronic device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • an electronic device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • a camera unit for inputting image data of surroundings and objects.
  • the audio processing unit 750 includes an audio output unit 751, an audio signal processing unit 752, and an audio input unit 753.
  • the audio output unit 751 is a speaker, and provides the audio signal processed by the audio signal processing unit 752 to the user of the portable information terminal 700.
  • the voice input unit 753 is a microphone, and converts a user's voice and the like into voice data and inputs the voice data.
  • the sensor unit 760 is a sensor group for detecting the state of the portable information terminal 700.
  • the portable information terminal 700 may further include other sensors such as a barometric pressure sensor.
  • the portable information terminal 700 may be a mobile phone, a smart phone, a tablet terminal, or the like. It may be a PDA (Personal Digital Assistant) or a notebook PC. Further, it may be a digital still camera, a video camera capable of shooting moving images, a portable game machine, a navigation device, or other portable digital devices.
  • PDA Personal Digital Assistant
  • notebook PC Portable Computer System
  • the configuration example of the portable information terminal 700 illustrated in FIG. 10A includes a number of configurations that are not essential to the present embodiment, such as the sensor unit 760, but the present embodiment may be configured without these components. There is no loss of effect. Further, a configuration not shown in the figure such as a digital broadcast receiving function and an electronic money settlement function may be further added.
  • FIG. 10B is a software configuration diagram of the portable information terminal 700 of this embodiment, and shows a software configuration in the ROM 703, the RAM 704, and the storage unit 710.
  • a basic operation program 7001 and other operation programs are stored in the ROM 703, and a cooperation control program 7002 and other operation programs are stored in the storage unit 710.
  • the storage unit 710 includes a content storage area 7200 for storing contents such as moving images, still images, and audio, an authentication information storage area 7300 for storing authentication information necessary for accessing the television receiver and each server device, It is assumed that various information storage areas for storing other various information are provided.
  • the basic operation program 7001 stored in the ROM 703 is expanded in the RAM 704, and the main control unit 701 executes the expanded basic operation program to constitute a basic operation execution unit 7101.
  • the cooperative control program 7002 stored in the storage unit 710 is also expanded in the RAM 704, and the main control unit 701 executes the expanded cooperative control program to configure the cooperative control execution unit 7102.
  • the RAM 704 includes a temporary storage area that temporarily stores data created when each operation program is executed as necessary.
  • the main control unit 701 executes the basic operation execution by executing the basic operation program 7001 stored in the ROM 703 by expanding the basic operation program 7001 in the RAM 704 and executing it. It is described that the unit 7101 controls each operation block. The same description is made for other operation programs.
  • the cooperation control execution unit 7102 performs management such as device authentication and connection, transmission / reception of each data, and the like when the portable information terminal 700 performs a link operation with the television receiver.
  • the cooperation control execution unit 7102 includes a browser engine function for executing an application that works in conjunction with the television receiver.
  • the operation programs may be stored in advance in the ROM 703 and / or the storage unit 710 at the time of product shipment. After the product is shipped, it may be acquired from another application server 500 on the Internet 200 via the LAN communication unit 721 or the mobile telephone network communication unit 722. Further, each operation program stored in a memory card, an optical disk, or the like may be acquired via the expansion interface unit 724 or the like.
  • the broadcast receiving apparatus of this embodiment has two types of time management functions.
  • the first time management function is a time management function based on NTP, as already described with reference to FIG. 7C.
  • the second time management function is a time management function based on the MH-TOT, and is a time managed based on the time information transmitted by the MH-TOT described with reference to FIG. 6B.
  • FIG. 13A An example of the configuration of time information transmitted by NTP is shown in FIG. 13A.
  • FIG. 13B An example of the data structure of the MPU time stamp descriptor is shown in FIG. 13B.
  • the “reference_timestamp” parameter, the “transmit_timestamp” parameter, etc. in the NTP format are time data in a 64-bit length NTP length format
  • the “mpu_presentation_time” parameter in the MPU time stamp descriptor is also a 64-bit length NTP timestamp. Format time data.
  • the time data in the NTP length format and the time data in the NTP timestamp format are data in which “seconds or more” of UTC is represented by 32 bits and “sub-seconds” is represented by 32 bits.
  • time information up to “less than second” can be transmitted as time information in the NTP format.
  • time information in the NTP format is expressed in UTC, unlike the conventional clock management in digital broadcasting, as shown in FIG. 3B, a communication line path (for example, communication that can be received by the LAN communication unit 121 in FIG. 7A). It is possible to match with NTP included in a signal received via a line.
  • the information transmitted by MH-TOT is as follows. It is assumed that the broadcast receiving apparatus 100 can acquire the current date and Japan standard time by MH-TOT.
  • FIG. 11A shows an example of the data structure of the MH-TOT.
  • the broadcast receiving apparatus 100 can acquire the current date and time from the “JST_time” parameter of the MH-TOT.
  • the “JST_time” parameter includes the lower 16 bits of the encoded data of the current date based on the modified Julian Date (Modified Julian Date: MJD) and six standard times (Japan Standard Time: JST). Assume that it includes 24-bit information expressed in binary-coded decimal (BCD).
  • the difference between the time based on NTP and the time based on MH-TOT is the information in UTC notation that the former NTP can transmit time information up to “less than second” as described above, whereas MH ⁇
  • the information transmitted by TOT is information up to “second unit” in JST notation.
  • the broadcast receiving apparatus 100 has a time management function based on NTP, which is time information in UTC notation, and decoding and display synchronization processing of video, audio, subtitles, text super, and other presentation data that are broadcast signal contents.
  • NTP time information in UTC notation
  • decoding and display synchronization processing of video, audio, subtitles, text super, and other presentation data that are broadcast signal contents.
  • the broadcast receiving apparatus of the present embodiment provides a time management function based on “JST_time” including 24-bit information represented by six 4-bit binary-coded decimal numbers of MH-TOT, and presents the current time to the user.
  • the process may be used for each process that handles the MH-event information table (MH-EIT) described in FIG. 6B.
  • MH-EIT MH-event information table
  • each time information described in the MH-event information table (MH-EIT) is represented by six 4-bit binary-coded decimal numbers in the same manner as the EIT of the conventional digital broadcast transmitted by the MPEG2-TS system.
  • the 24-bit information is stored in “decimal” two-digit “hour”, “minute”, and “second”. For this reason, the time management function based on the MH-TOT in the broadcast receiving apparatus 100 of the present embodiment is easily consistent with the process using the MH-EIT.
  • the process using the MH-EIT includes a program table generation process (described later), a recording reservation and viewing reservation control, a copyright management process such as temporary storage, and the like. This is because the accuracy of subseconds is rarely required for any processing, and accuracy in units of one second is sufficient.
  • copyright management processing such as program table generation processing, recording reservation and viewing reservation control, and temporary storage is a function that is also installed in a receiver of a conventional digital broadcasting system using the MPEG2-TS system.
  • the conventional MPEG2-TS digital broadcasting system can be used for processing such as program guide generation processing, recording reservation and viewing reservation control, copyright management processing such as temporary storage, etc. If it is configured so that it can be handled by consistent time management processing, a broadcast receiving apparatus having both a conventional MPEG2-TS digital broadcast reception function and an MMT digital broadcast reception function is configured. In these processes (program table generation processing, recording reservation and viewing reservation control, copyright management processing such as temporary storage, etc.), it is not necessary to design a processing algorithm separately, thereby reducing costs. can do.
  • the broadcast receiving apparatus 100 includes a time management function using two types of time information with different accuracy.
  • One time information is notation time information consistent with the conventional digital broadcasting system, and the other time information is time information with higher resolution than the one time information.
  • the former time information can be used for program schedule generation processing, recording reservation and viewing reservation control, temporary storage, etc.
  • the broadcast receiving apparatus can be provided at low cost.
  • the broadcast receiving apparatus 100 can achieve both higher-level information presentation processing and cost reduction by providing the two types of time management functions described above.
  • the broadcast receiving apparatus 100 is configured to use the information related to the estimated delay time to correct the system clock of the time management function based on NTP. Also good.
  • the information on the estimated delay time may be transmitted within the TMCC (Transmission and Multiplexing Configuration Control) area outside the TLV multiplexed stream, not within the TLV multiplexed stream shown in FIG. good.
  • the broadcast receiving apparatus 100 can extract information on the estimated delay time without going through a TLV multiplexed stream separation process (demux process). That is, it is possible to acquire information that is not easily affected by the delay caused by the separation process in the broadcast receiving apparatus 100, and therefore it is possible to perform a highly accurate system clock correction process.
  • TLV multiplexed stream separation process tandem process
  • the time information may be stored in the TMCC extended information area and transmitted.
  • the “delta” parameter is a 32-bit transmission delay value from the time management server that distributes the UTC or the server device that generates the TMCC signal to the general broadcast receiving device. It is expressed with a signed fixed point.
  • the upper 16 bits describe the integer part and the lower 16 bits describe the decimal part.
  • the “transmit_timestamp” parameter is a transmission time stamp, and describes the time when the TMCC signal is transmitted from the server device in the NTP time stamp length format.
  • the upper 32 bits represent the integer part, and the lower 32 bits represent the decimal part.
  • the broadcast receiving apparatus 100 includes information related to the assumed delay time described in the time information stored and transmitted in the TMCC extended information area (for example, the above-described “delta”).
  • the system clock of the time management function based on the NTP used for the synchronization processing of each content data of the broadcast signal can be corrected with higher accuracy.
  • the broadcast receiving apparatus 100 of the present embodiment has a time management function for acquiring the current date and the Japan standard time based on information transmitted by the MH-TOT and managing the time.
  • the current date and Japan standard time acquired by the information transmitted by the MH-TOT are superimposed on the video information, application information, and the like by the video composition unit 161 of the broadcast receiving apparatus 100, thereby being displayed on the monitor unit 162 and the video output unit 163. It can be output and provided to the user.
  • the MH-TOT has the data structure shown in FIG. 11A, and the broadcast receiving apparatus 100 can acquire the current date and time from the “JST_time” parameter of the MH-TOT.
  • the date after “April 23, 2038” is expressed by switching the calculation method between the case where the value of MJD is greater than or equal to the predetermined value and the case where it is less than the predetermined value. It shall be controlled as possible.
  • FIG. 12 shows an example of the first calculation method used when the MJD value is greater than or equal to a predetermined value and the second calculation method used when the MJD value is less than the predetermined value.
  • the predetermined value is “32768 (0x8000)”
  • the MJD is “32768” or more
  • the current date is calculated using the first calculation method
  • the MJD is less than “32768”.
  • the case where MJD is less than “32768” is equivalent to the case where the most significant bit of 16-bit data of MJD is “0”. Thereby, in the broadcast receiving apparatus 100 of the present embodiment, it is possible to represent dates after “April 23, 2038”.
  • the predetermined value can be arbitrarily set, and the predetermined value may be set to “16384 (0x4000)”, “49152 (0xC000)”, or the like.
  • the calculation method switching condition may be that the upper 2 bits of the 16-bit data of MJD are “00” and the upper 2 bits of the 16-bit data of MJD are not “11”.
  • the “reserved” parameter in the MH-TOT data structure shown in FIG. You may make it switch said 1st calculation method and said 2nd calculation method according to the flag which replaced a part or all, or the newly added flag. For example, when the most significant bit of MJD 16-bit encoded data is “0”, the flag is set to “1” if the MJD indicates “April 23, 2038” or later. If it does not indicate “April 23, 2038” or later, “0” may be set. When the flag is “1”, the second calculation method shown in FIG. 12 may be used, and when the flag is “0”, the first calculation method may be used. Alternatively, a descriptor having the same meaning as the flag may be newly prepared and placed in the MH-TOT.
  • the broadcast system of this embodiment transmits NTP format absolute time
  • the broadcast receiving apparatus 100 of this embodiment has a time management function based on the NTP.
  • the decoding timing and presentation for each presentation unit of the video / audio signal are referred to by referring to the NTP timestamps described in the MPU timestamp descriptor set for each MPU.
  • the timing is controlled.
  • the time information in the NTP format has the configuration shown in FIG. 13A.
  • the MPU time stamp descriptor has the configuration shown in FIG. 13B.
  • the “reference_timestamp” parameter, the “transmit_timestamp” parameter, the “mpu_presentation_time” parameter, or the like is referred to, and the first reference is made according to the value of the referenced time data or the like.
  • the calculation methods and the second calculation method may be selected. That is, for example, when the most significant bit of the 64-bit time data in the NTP length format is “0”, the second calculation method is used, and when it is not “0”, the first calculation method is used. And so on.
  • the broadcast receiving apparatus 100 can represent dates after “April 23, 2038”.
  • the AMT of the broadcasting system provides a list of multicast groups of IP packets for receiving IP packets transmitted by the TLV multiplexing method as distinctly as possible from IP packets transmitted through a communication line. Shall. It is possible to list a plurality of IP multicast groups in one service identification. In addition, an address mask can be used to efficiently describe successive IP addresses.
  • a list of services acquired from the TLV-NIT is stored in a nonvolatile memory such as the ROM 103 or the storage unit 110 at the time of channel scanning at the time of initial setting or at the time of rescanning for setting change.
  • a list of IP multicast groups corresponding to the services can be stored in the nonvolatile memory in association with the services as IP related information. To do.
  • FIG. 14 is a diagram showing an example of an operation sequence at the time of channel scanning (rescanning) in the broadcast receiving apparatus 100 of the present embodiment.
  • the reception function execution unit 1102 sets an initial frequency value to the tuner / demodulation unit 131 and instructs the tuner / demodulation unit 131 to perform tuning to the frequency value (S101).
  • the reception function execution unit 1102 next acquires TLV-NIT from the received signal (S103).
  • the reception function execution unit 1102 acquires information such as a TLV stream ID and an original network ID from the acquired TLV-NIT. (S105).
  • FIG. 15A shows an example of the data structure of TLV-NIT.
  • the TLV stream ID information can be acquired from the “tlv_stream_id” parameter, and the original network ID information can be acquired from the “original_network_id” parameter.
  • distribution system information regarding the physical conditions of the broadcast transmission path corresponding to each TLV stream ID / original network ID is acquired from the distribution system descriptor (S106), and a list of service IDs is acquired from the service list descriptor ( S107).
  • FIG. 15B shows an example of the data structure of the satellite distribution system descriptor.
  • FIG. 15C shows an example of the data structure of the service list descriptor.
  • the reception function execution unit 1102 acquires the AMT from the received signal (S109), and further acquires a list of IP multicast groups related to each service ID stored in the service list (S110).
  • FIG. 15D shows an example of the data structure of AMT. If the AMT has a list of IP multicast groups related to a plurality of service IDs, the process of S110 is repeated. If there are a plurality of AMTs having a list of IP multicast groups related to different service IDs, the processes of S109 to S110 are repeated.
  • the reception function execution unit 1102 stores the IP multicast group list acquired in the process of S110 as IP related information in association with the service ID in the ROM 103 or the storage unit 110 (updated when rescanning). (S111).
  • the tuner / demodulation unit 131 has not succeeded in locking to the set frequency value in the process of S102 (S102: No), and the TLV-NIT acquired in the process of S103 is not valid data. In the case (S104: No), the processing of S105 to S111 is not performed.
  • the reception function execution unit 1102 ends the processing if the frequency value set in the tuner / demodulation unit 131 is the final frequency value in the channel scan range (S112: Yes). On the other hand, if the set frequency value is not the final frequency value in the channel scan range (S112: No), the frequency value set in the tuner / demodulator 131 is increased (S113), and the processing of S102 to S111 is performed. repeat. Note that if one TLV-NIT can acquire service IDs for all the services constituting the broadcast network and further can acquire an AMT having a list of IP multicast groups related to the service IDs, S112 to S113 No processing is required.
  • the broadcast receiving apparatus 100 is able to create a list of services (service list) that configure the broadcast network at the time of channel scanning at the time of initial setting or at the time of rescanning for setting change. Simultaneously with the creation / update, a list of IP multicast groups (IP related information) corresponding to each service can be created / updated, and further stored in a non-volatile memory such as the ROM 103 or the storage unit 110.
  • a list of services (service list) that configure the broadcast network at the time of channel scanning at the time of initial setting or at the time of rescanning for setting change.
  • IP multicast groups IP related information
  • the rescan for changing the setting is automatically performed when it is detected that the information in the table has changed by referring to the “version_number” parameter of TLV-NIT or AMT. May be.
  • the “version_number” parameter of one of TLV-NIT and AMT is detected, only information relating to the table in which the change in the parameter is detected may be automatically updated.
  • the automatic update described above it is desirable to notify the user that the rescan has been automatically performed.
  • the user may be notified that information in the table has changed, and the user may be allowed to select whether or not to perform the rescan.
  • FIG. 16 is a diagram illustrating an example of an operation sequence at the time of channel selection (channel switching) in the broadcast receiving apparatus 100 according to the present embodiment.
  • reception function execution unit 1102 interprets the command transmitted from the remote controller and designates the service ID of the target service (S201). Next, reception function execution section 1102 starts acquiring AMT from the received signal of tuner / demodulation section 131. If acquisition of the AMT is successful within a predetermined time (S202: Yes), information on a list of IP multicast groups corresponding to the service ID is acquired from the acquired AMT (S204). On the other hand, if acquisition of the AMT is not successful within a predetermined time (S202: No), the IP corresponding to the service ID is referred to by referring to the IP related information stored in the ROM 103 or the storage unit 110 (S203). Information on the list of multicast groups is acquired (S204). Note that the IP-related information stored in the ROM 103 or the storage unit 110 may be always referred to without performing the determination process in S202.
  • the reception function execution unit 1102 starts acquiring TLV-NIT from the reception signal of the tuner / demodulation unit 131.
  • distribution system information for acquiring an IP data flow corresponding to the service ID is acquired from the acquired TLV-NIT (S207).
  • the service ID stored in the ROM 103 or the storage unit 110 is referred to (S206), and the service ID is supported.
  • Distribution system information for acquiring an IP data flow is acquired (S207).
  • the service list stored in the ROM 103 or the storage unit 110 may always be referred to without performing the determination process of S205.
  • the reception function execution unit 1102 next controls the tuner / demodulation unit 131 with the frequency value indicated by the acquired distribution system information, and the service ID (S208), an MMT data string is extracted from the received IP data flow and output to the separation unit 132.
  • the transport processing unit 1102a acquires an MMTP packet with a packet ID “0” from the input MMT data string (S209), and further acquires an MPT included in the acquired MMTP packet. (S210). Next, the transport processing unit 1102a refers to the “MMT_package_id_byte” parameter of the acquired MPT, and confirms whether the lower 16 bits of the “MMT_package_id_byte” parameter have the same value as the service ID. In the example of the MPT data structure shown in FIG.
  • the transport processing unit 1102a acquires the PLT again (S212), and checks the acquired PLT, thereby checking the packet ID of the MMTP packet that transmits the MPT having the “MMT_package_id_byte” parameter corresponding to the service ID. (X is assumed) is confirmed (S213).
  • the transport processing unit 1102a acquires an MMTP packet whose packet ID is “x” from the input MMT data string (S214), and acquires the MPT included in the acquired MMTP packet (S215). Furthermore, MFU is acquired based on the information of the acquired MPT (S216).
  • processing of S212 to S215 may always be performed without performing the processing of S209 to S211.
  • the processing time can be shortened.
  • the transport processing unit 1102a extracts encoded video data, encoded audio data, and the like from the acquired MFU, and outputs them to the video decoder 141, the audio decoder 143, and the like.
  • video / audio decoding processing based on the control of the AV decoding processing unit 1102b and presentation processing based on the control of the presentation processing unit 1102h are performed. However, since each processing is known, detailed description thereof is omitted.
  • the broadcast receiving apparatus 100 of the present embodiment can execute a channel selection (channel switching) operation.
  • a service list and IP related information are created at the time of channel scanning at the time of initial setting or at the time of rescanning for setting change, and the ROM 103 and storage unit 110, which is stored in a non-volatile memory such as 110, and can always be referred to, and at the time of channel selection (channel switching), by referring to the service list and IP related information stored in the non-volatile memory such as the ROM 103 and the storage unit 110,
  • FIG. 18 shows an example of the data structure of LCT.
  • the “left_top_pos_x” parameter and the “right_down_pos_x” parameter indicate the horizontal position at the upper left and lower right when the left side of the full screen display is “0” / the right side is “100”. Each is shown as a ratio to the total number of pixels in the horizontal direction.
  • the “left_top_pos_y” parameter and the “right_down_pos_y” parameter indicate the vertical position at the upper left and the lower right of the area when the upper side of the full screen display is “0” / lower side is “100”. It shall be shown by the ratio with respect to the total number of pixels.
  • the “layer_order” parameter indicates the relative position in the depth direction of the region.
  • 19A to 19D show examples of layout allocation to layout numbers based on the settings of the parameters, together with the setting values of the parameters.
  • FIG. 19A shows a default layout setting of the broadcast receiving apparatus 100 according to the present embodiment, in which only one area is set on the entire screen.
  • FIG. 19B shows an example in which the entire screen is divided into three areas, and the areas are “area 0”, “area 1”, and “area 2”.
  • “area 0” has “left_top_pos_x” parameter of “0”, “left_top_pos_y” parameter of “0”, and “right_down_pos_x” parameter of “80” ”And“ right_down_pos_y ”parameters are“ 80 ”, and are set in the range of (0, 0) ⁇ (6143, 3455).
  • “area 1” is set in the range of (6144,0) ⁇ (7679,4319)
  • “area 2” is set in the range of (0,3456) ⁇ (6143,4319).
  • FIG. 19C shows an example in which three areas are set in the same manner as FIG. 19B, but “area 0” is set in the range of (0,0) ⁇ (7679,4319), “area 1” and “area “2” is in the same range as described above, and is arranged in front of “area 0” according to the setting of the “layer_order” parameter.
  • FIG. 19D shows that “area 0” is set for device 0 (default device: broadcast receiving apparatus 100 in this embodiment), and “area 1” is set for device 1 (portable information terminal 700 in this embodiment). This is an example of the case.
  • fractions after the decimal point generated when the screen is divided according to the set value of the parameter such as “left_top_pos_x” may be rounded up or down. Rounding off (or rounding to zero in a binary number) may be used.
  • the number of pixels of the entire screen is 7680 pixels / vertical 4320 pixels
  • the “left_top_pos_x” parameter of “region 0” is “0”
  • the “left_top_pos_y” parameter is “0”
  • the “right_down_pos_x” parameter is “51”
  • “right_down_pos_y_ When the parameter is “51”, “Region 0” may be set in the range of (0,0) ⁇ (3916,2203) by rounding up processing, or (0,0) ⁇ (3915, 2202) may be set to “area 0”. Further, rounding up / down processing in units of 8 pixels or 16 pixels may be performed in consideration of a macroblock in video compression processing. By the processing, it is possible to efficiently perform region setting based on LCT and resolution conversion processing of multimedia content in the region.
  • FIG. 20A shows an example of the operation of exception processing for screen layout control based on LCT.
  • the screen layout control similar to that of FIG. 19B is performed by the description of LCT, the broadcast program video is displayed in “Area 0”, and the program linkage data linked to the broadcast program is broadcasted in “Area 1” and “Area 2”.
  • the broadcast receiving apparatus 100 describes the LCT description as shown in FIG. 20A (A).
  • the screen layout setting is returned to the default setting (that is, the state in which the screen layout control similar to FIG. 19A is performed), and the EPG screen is controlled to be displayed on the entire screen.
  • the screen layout control according to the description content of the LCT is re-executed.
  • the EPG screen can be displayed larger than the case where the EPG screen is displayed while maintaining the area control of the screen layout as shown in FIG. 20A (B). It is possible to improve visibility.
  • the exception process of the screen layout control is not applied only when the EPG screen is displayed.
  • various setting screens of the broadcast receiving apparatus 100 (recording setting screen in the illustrated example). ) May be applied when a sub-screen is displayed or when a two-screen is displayed.
  • the broadcast content display area is changed from the entire screen to only the sub-screen portion at the lower right of the screen.
  • the broadcast content display area is changed from the entire screen to only the divided screen portion on the left side of the middle stage of the screen.
  • the display area for displaying the broadcast content is narrower than the case where the entire screen is used. Therefore, the area control of the screen layout is maintained in the display area (that is, the area division is performed). It is not preferable from the viewpoint of visual recognition that a plurality of broadcast contents are displayed at the same time.
  • the broadcast receiving apparatus 100 in the above situation, only the broadcast content of “area 0” is selected and displayed in the display area. Note that the broadcast content of “region 1” or “region 2” may be selected and displayed according to the immediately preceding region selection situation.
  • FIG. 21 shows an example of the data structure of the MH-EIT according to the present embodiment.
  • the MH-EIT is identified by the table ID (corresponding to the “talbe_id” parameter in the figure) into two classes, and indicates the current / next event information of the own TLV stream and the schedule information of each event of the own TLV stream. Is possible.
  • the broadcast receiving apparatus 100 of this embodiment refers to the MH-EIT or the like, and performs identification by service ID (corresponding to the “service_id” parameter in the figure), so that information such as the start time and broadcast time of each event is obtained.
  • the EPG screen can be created by acquiring the EPG, and the created EPG can be displayed on the monitor unit 162 by superimposing the created EPG on the video information or the like by the video composition unit 161.
  • FIG. 22A is a diagram illustrating an example of an EPG screen in the broadcast receiving apparatus 100 according to the present embodiment.
  • the EPG screen 162a has a matrix shape with the vertical axis representing time and the horizontal axis representing service ID (channel), and displays detailed information of broadcast programs broadcast on each channel in each time slot.
  • the detailed information 162a1 of each broadcast program is mainly composed of a title area 162a2 and a detailed description area 162a3.
  • a program title of the broadcast program, a symbol representing the attribute of the broadcast program, and the like are displayed.
  • the symbol or the like indicating the attribute of the broadcast program is, for example, a symbol / character indicating a new program, a symbol / character indicating a re-broadcast program, or the like.
  • it may be a mark or the like that symbolizes “data” meaning that it corresponds to data broadcasting by a broadcasting service.
  • the mark 162a4 etc. which symbolized "NetWork” which means that the content, application, etc. relevant to the said broadcast program are acquirable from a network may be sufficient.
  • symbols or the like representing the attributes of the broadcast program may be substituted.
  • each control information (message, table, descriptor, etc.) in the broadcasting system of the present embodiment indicates that content, application, etc. related to the broadcast program can be acquired from the network.
  • the mark 162a4 symbolized “NetWork” is used. Etc. may be controlled so as not to be displayed.
  • the broadcast program is a distribution program distributed via the Internet 200 and cannot be obtained only from the broadcast wave.
  • the broadcast receiving device 100 is connected to each server device on the network. For example, when it is in a state in which the user cannot access, detailed information 162b1 displayed on the EPG screen 162b may be grayed out as shown in FIG. 22B. That is, control is performed so as not to display the detailed information of the distribution program that cannot be viewed. Further, the background color of the detailed information 162b1 may be differentiated from the others to replace the grayout process.
  • the broadcast receiving apparatus 100 When the detailed information 162b1 is selected by operating a remote controller (not shown), the broadcast receiving apparatus 100 is in a state where it cannot access each server apparatus on the network, or the distribution program associated with the detailed information 162b1 is viewed. You may make it alert
  • the broadcast receiving apparatus 100 can provide program information of each broadcast program in a format that is less uncomfortable to the user according to the network connection status.
  • FIG. 22C is a diagram illustrating another example of the EPG screen in the broadcast receiving apparatus 100 according to the present embodiment.
  • “M1 TV”, “M2 Broadcast”, “M3 Channel”, “M4TV”, “TV M5”, etc. are broadcast station names of each channel. It is assumed that a broadcast program to be distributed and a distribution program distributed via the Internet 200 (frame information 162c1 indicated by “net broadcast” in the figure) are provided simultaneously.
  • the above-described controls make it possible for the user of the broadcast receiving apparatus 100 to make it unnecessary to check information on channels that he / she cannot view.
  • the broadcast receiving apparatus 100 performs emergency alert broadcast reception processing when the emergency alert broadcast activation control signal bit of the TMCC signal included in the transmission data including the TLV stream changes from “0” to “1”. It shall be possible to do.
  • the emergency alert broadcast may be provided as a full screen display application or may be provided as character information at a character supermarket.
  • the emergency alert broadcast is provided as text information at the text superimpose, it is preferable to display the text information of the text supermarket regardless of the state of the broadcast receiving apparatus 100 immediately before receiving the emergency alert broadcast. That is, as shown in FIG. 23, when a user views a normal broadcast program and receives an emergency warning broadcast in a state where the program screen 162e of the broadcast program is displayed on the monitor unit 162, the emergency warning broadcast The character information 162e1 is displayed superimposed on the program screen 162e.
  • the broadcast receiving apparatus 100 of the present embodiment even when the user selects and displays an EPG screen, various setting screens, a recorded program list screen, an Internet browser, etc., an emergency warning broadcast Is received, it is possible to avoid overlooking important text information based on the emergency alert broadcast. Note that this control may be performed on character information of a normal character supermarket that is not based on emergency alert broadcasting.
  • the location information stored in the MPT (corresponding to “MMT_general_location_info ()” in FIG. 17)
  • Data to be acquired and data to be acquired through a route other than the TLV stream can be included in the same package.
  • the data transmission path other than the TLV stream (for example, IPv4 data flow, IPv6 data flow, broadcast MPEG2-TS, etc.) indicated by the location information is a reception function different from the reception function of the TLV / MMT stream.
  • the location information stored in the MPT indicates an event indicating that data acquired in the TLV stream and data acquired through a route other than the TLV stream are associated with each other so as to be included in the same package.
  • the broadcast receiving apparatus 100 may perform the following operation, for example.
  • the LCT sets a plurality of areas in the screen, displays the video included in the TLV stream in “area 0”, and displays “area 1” and “area 2”. ”Is associated with the data acquired through the transmission path other than the TLV stream so that the data of the transmission path other than the TLV stream to be displayed in“ area 1 ”or“ area 2 ”is displayed. If it cannot be obtained, layout display of a plurality of areas designated by the LCT may be prohibited. Specifically, even when the LCT is received, the video of the content received in the TLV stream is displayed in “area 0” of the default layout display shown in FIG. 19A, as shown in FIGS. 19B and 19C.
  • the LCT sets a plurality of areas in the screen, displays the video included in the TLV stream in “Area 0”, and displays in “Area 1” and “Area 2”.
  • the data acquired on the transmission path other than the TLV stream is associated with the display so that the data on the transmission path other than the TLV stream to be displayed in “area 1” or “area 2” cannot be acquired.
  • a display frame of a plurality of areas shown in FIGS. 19B and 19C indicated by the LCT is temporarily displayed, and a background color or a predetermined still image is displayed for “area 1” and “area 2”.
  • the broadcast receiving apparatus 100 since the data of the transmission path other than the TLV stream to be displayed in “area 1” or “area 2” cannot be acquired, the content received in the TLV stream in “area 0” of the default layout display illustrated in FIG. 19A.
  • the operation of various communication functions and various reception functions of the broadcast receiving apparatus 100 according to the present embodiment is started, and the communication environment, communication status, and various reception functions of the various communication functions are started. Due to the change in the reception environment and the reception situation, there may be a situation in which data of a transmission path other than the TLV stream to be displayed in “area 1” or “area 2” can be acquired. In this case, the broadcast receiving apparatus 100 according to the present embodiment immediately switches from the default layout display shown in FIG.
  • the layout change may be executed after an instruction to change from the default layout to the layout indicated by the LCT is input from the operation input unit 170 without performing the layout change immediately.
  • the broadcast receiving apparatus 100 stores the content in the storage (storage) unit 110, records it on a removable recording medium, outputs it to an external device, and outputs it to the external device according to the copy control information. Copying, moving processing to an external device, and the like may be controlled.
  • the target of the accumulation process may include not only the storage (accumulation) unit 110 inside the broadcast receiving apparatus 100 but also a record that has been subjected to a protection process such as an encryption process so that it can be reproduced only by the broadcast receiving apparatus 100. .
  • the storage processing target includes an external recording device and the like that can be recorded and reproduced only by the broadcast receiving device 100.
  • the broadcast receiving apparatus 100 when the copy control information included in the MPT indicates “unlimited copying is possible”, stores data in the storage (storage) unit 110, records on a removable recording medium, and external devices. You can output to, copy to an external device, and move to an external device without restriction. However, if "Unlimited copy is possible and encryption is required for storage and output” and “Unlimited copy is possible and encryption is not required for storage and output” are separated, “Unlimited copy is possible and storage and output is required" When “encryption processing is sometimes required", storage in the storage unit 110, recording on a removable recording medium, output to an external device, copying to an external device, and movement processing to an external device are limited to the number of times However, it is necessary to perform encryption processing.
  • the broadcast receiving apparatus 100 when the copy control information included in the MPT indicates “copying is possible for only one generation”, the broadcast receiving apparatus 100 according to the present embodiment enables the storage (storage) unit 110 to store the encrypted data.
  • the stored content is output to an external device for viewing, the content is encrypted and output together with “copy prohibited” copy control information.
  • a so-called move process to an external device a process of copying content to the external device and making the content in the storage (storage) unit 110 of the broadcast receiving apparatus 100 unplayable by an erasure process or the like) is possible.
  • the broadcast receiving apparatus 100 when the copy control information included in the MPT indicates “copying is allowed a predetermined number of times”, the broadcast receiving apparatus 100 according to the present embodiment can be encrypted and stored in the storage (storage) unit 110.
  • the stored content is output to an external device for viewing, the content is encrypted and output together with “copy prohibited” copy control information.
  • a predetermined number of copying and moving processes may be performed on the external device. In the case of so-called “dubbing 10”, nine copies and one move process may be performed on the external device.
  • the broadcast receiving apparatus 100 of this embodiment prohibits copying to the storage (accumulation) unit 110.
  • the broadcast receiving apparatus 100 stores the storage (accumulation) unit 110 only for a predetermined time determined in advance or for a predetermined time specified by control information included in the broadcast signal (for example, by the MH-Expire descriptor shown in FIG. 6D).
  • the content can be temporarily stored.
  • viewing output to the external device described above may be performed via the video output unit 163 and the audio output unit 166 of FIG. 7A, the digital I / F unit 125, the LAN communication unit 121, or the like.
  • the copying or moving process to the external device described above may be performed via the digital I / F unit 125, the LAN communication unit 121, etc. in FIG. 7A.
  • the copy control information is a copy process to an external device via the LAN communication unit 121 that indicates copy restrictions such as “copying is possible for only one generation”, “copying is allowed a predetermined number of times”, “copy prohibited”, etc. Is possible only when the IP address of the external device that is the destination of the transmission packet from the broadcast receiving device 100 is in the same subnet as the IP address of the broadcast receiving device 100, and the IP address of the external device is If it is outside the same subnet as 100 IP addresses, it may be prohibited. Content whose copy control information is “unlimited copy is possible and encryption processing is required during storage and output” may be handled in the same manner.
  • the copy control information indicates a copy restriction such as “copying is possible for only one generation”, “copying is allowed a predetermined number of times”, and “unlimited copying is possible and encryption processing is required during storage and output” once.
  • the IP address of the external device that is the destination of the transmission packet from the broadcast receiving device 100 is the broadcast receiving device 100. If the IP address of the external device is outside the same subnet as the IP address of the broadcast receiving apparatus 100, it may be prohibited.
  • the viewing video output and audio output of the content stored in the storage (storage) unit 110 of the broadcast receiving apparatus 100 are received by the IP address of the external device that is the destination of the transmission packet from the broadcast receiving apparatus 100. This is possible only when the IP address of the apparatus 100 is in the same subnet, and is prohibited when the IP address of the external device is outside the same subnet as the IP address of the broadcast receiving apparatus 100.
  • storage (accumulation) of the broadcast receiving device 100 to the external device The content stored in the unit 110 may be configured to enable viewing video output and audio output. In this case, the viewing video output and audio output are performed by encrypting the content.
  • the location information in the MPT (“MMT_general_location_info ()” in FIG. 17)
  • Data acquired by a different route (IPv4, IPv6, MPEG2-TS, URL, etc.) from the acquired data may also be included in the same package and the same event as the data acquired by the TLV stream, but at this time it is copied to the MPT Content protection in the case where control information is included will be described.
  • the data included in the same package and the same event in the location information is different from the data acquired by the TLV stream of the broadcast route (IPv4, IPv6, MPEG2-TS, URL, etc.
  • the data acquired in (1) may be controlled according to the copy control information included in the TLV stream.
  • the copy control status of the specified content based on these copy control information is “Unlimited copy allowed” (“Unlimited copy allowed and encryption required during storage and output”) and “Unlimited copy allowed”
  • it may be divided into two types, “no encryption processing is required at the time of storage and output”), “copying is possible for only one generation”, “copying for a predetermined number of times” (for example, copying is possible 9 times + movement is allowed once) “Dubbing 10”), “copy prohibited”, etc. can be specified.
  • the MPEG2-TS data is associated with the copy control information even in another digital broadcast signal. Being broadcast. Then, according to which information the copy control of the MPEG2-TS data is performed (whether it follows the copy control information included in the TLV / MMT stream or the copy control information included in the MPEG2-TS) becomes a problem. .
  • the broadcast receiving apparatus 100 may perform any one of the following solutions.
  • ⁇ Operation example 1> when the MPT includes copy control information and the data included in the same package and the same event as the location information includes MPEG2-TS data transmitted by another digital broadcast signal, the MPEG2-TS The copy control state indicated by the copy control information included in the TLV stream is controlled with priority over the copy control state indicated by the copy control information included in the TS.
  • the copy control status indicated by the copy control information included in the TLV stream is “1 generation copy is permitted”, and the copy control status indicated by the copy control information included in the MPEG2-TS is “predetermined to be copied a predetermined number of times”. If there is, even if the data is acquired through a different route (MPEG2-TS transmission format digital broadcasting) from the data acquired by the TLV stream, the copy control may be performed as the content of “one generation copy is possible”. For example, the copy control state indicated by the copy control information included in the TLV stream is “unlimited copying is permitted”, and the copy control state indicated by the copy control information included in the MPEG2-TS is “predetermined to allow multiple times of copying”. If there is, even if the data is acquired through a different route (MPEG2-TS transmission format digital broadcasting) from the data acquired by the TLV stream, the copy control may be performed as the content of “unlimited copying”.
  • the data acquired through a route other than the TLV stream can be set to a copy state that the broadcast receiving apparatus 100 of this embodiment wants to manage in the broadcasting system.
  • ⁇ Operation example 2> when the MPT includes copy control information, and the data included in the same package and the same event as the location information includes MPEG2-TS data transmitted by another digital broadcast signal, the TLV stream The copy control state indicated by the copy control information included in the MPEG2-TS is compared with the copy control state indicated by the copy control information included in the MPEG2-TS. Is stricter than the copy control state indicated by the copy control information included in the TLV stream, the storage process to the storage (storage) unit 110, the recording process to the removable recording medium, or the output process from the digital interface is performed. When processing the MPEG2-TS data, It operates to exclude from the content.
  • copying on the broadcast receiving apparatus 100 of this embodiment is performed while respecting the original copy control information set in the broadcast system that transmits the data. Duplicate control states can be eliminated.
  • copy control may be performed as content in the copy control state indicated by the copy control information included in the TLV stream.
  • copying on the broadcast receiving apparatus 100 of this embodiment is performed while respecting the original copy control information set in the broadcast system that transmits the data. Duplicate control states can be eliminated.
  • the copyright protection function of the broadcast receiving apparatus 100 of the present embodiment has been described as being performed based on the copy control information included in the MPT.
  • the table for arranging copy control information is not limited to MPT.
  • Example 2 of the present invention will be described. Note that the configuration, processing, effects, and the like in this embodiment are the same as those in the first embodiment unless otherwise specified. For this reason, below, the difference between a present Example and Example 1 is mainly demonstrated, and in order to avoid duplication about a common point, description is abbreviate
  • the broadcast receiving apparatus of this embodiment is a television receiver that supports both the MMT system and the MPEG2-TS system as the media transport system.
  • FIG. 24 is a block diagram illustrating an example of an internal configuration of the broadcast receiving apparatus 800.
  • the broadcast receiving apparatus 800 includes a main control unit 801, a system bus 802, a ROM 803, a RAM 804, a storage unit 810, a LAN communication unit 821, an expansion interface unit 824, a digital interface unit 825, a first tuner / demodulation unit 831, a second tuner / Demodulator 832, MMT decode processor 841, MPEG2-TS decode processor 842, video synthesizer 861, monitor 862, video output 863, audio synthesizer 864, speaker 865, audio output 866, operation input 870 , Is composed.
  • Main control unit 801, system bus 802, ROM 803, RAM 804, storage unit 810, expansion interface unit 824, digital interface unit 825, monitor unit 862, video output unit 863, speaker unit 865, audio output unit 866, operation input unit 870, Are the main control unit 101, system bus 102, ROM 103, RAM 104, storage (storage) unit 110, expansion interface unit 124, digital interface unit 125, monitor unit 162, video output unit 163 in the broadcast receiving apparatus 100 of the first embodiment.
  • the speaker unit 165, the audio output unit 166, the operation input unit 170, and the like have the same functions, and detailed description thereof is omitted.
  • the first tuner / demodulator 831 receives a broadcast wave of a broadcast service that employs MMT as a media transport method via an antenna (not shown), and a service desired by the user based on the control of the main controller 801. (Tune to) the selected channel. Further, the first tuner / demodulator 831 demodulates the received broadcast signal to acquire an MMT data string, and outputs it to the MMT decode processor 841.
  • the second tuner / demodulation unit 832 receives a broadcast wave of a broadcast service that employs MPEG2-TS as a media transport method via an antenna (not shown), and receives a user's request based on the control of the main control unit 801. Tune in (tune to) the channel of the service you want to use. Further, the second tuner / demodulation unit 832 demodulates the received broadcast signal to obtain an MPEG2-TS data sequence, and outputs the MPEG2-TS data sequence to the MPEG2-TS decode processing unit 842.
  • the MMT decoding processing unit 841 receives the MMT data sequence output from the first tuner / demodulation unit 831 and, based on the control signal included in the MMT data sequence, a video data sequence, an audio data sequence, which are real-time presentation elements, Separation processing, decoding processing, and the like of the character super data sequence and the caption data sequence are performed.
  • the MMT decoding processing unit 841 includes a separation unit 132, a video decoder 141, a video color gamut conversion unit 142, an audio decoder 143, a character super decoder 144, a subtitle decoder 145, a subtitle synthesis unit 146, in the broadcast receiving apparatus 100 according to the first embodiment.
  • the MMT decoding processing unit 841 can perform various processes described in the first embodiment. The details of the various processes are the same as those described in the first embodiment, and a description thereof will be omitted.
  • the MPEG2-TS decoding processing unit 842 receives the MPEG2-TS data sequence output from the second tuner / demodulation unit 832 and, based on the control signal included in the MPEG2-TS data sequence, video data that is a real-time presentation element Separation processing, decoding processing, and the like of columns, audio data sequences, character super data sequences, subtitle data sequences, and the like are performed.
  • the MPEG2-TS decoding processing unit 842 has the same function as an IRD (Integrated Receiver Decoder) unit of a conventional television receiver that receives broadcast waves of a broadcasting service that employs MPEG2-TS as a media transport method. Detailed description is omitted.
  • IRD Integrated Receiver Decoder
  • the video composition unit 861 receives the video information, subtitle information, and application information output from the MMT decode processing unit 841, and the video information, subtitle information, and application information output from the MPEG2-TS decode processing unit 842. Processing such as selection and / or superimposition is performed as appropriate.
  • the video composition unit 861 includes a video RAM (not shown), and the monitor unit 862 and the like are driven based on video information and the like input to the video RAM.
  • the video composition unit 861 performs scaling processing, EPG screen information superimposition processing, and the like as necessary based on the control of the main control unit 801.
  • the voice synthesis unit 164 receives the voice information output from the MMT decoding processing unit 841 and the voice information output from the MPEG2-TS decoding processing unit 842, and appropriately performs processing such as selection and / or mixing.
  • the LAN communication unit 821 is connected to the Internet 200 via the router device 200r, and transmits / receives data to / from each server device and other communication devices on the Internet 200. Also, an MMT data string (or part thereof) or an MPEG2-TS data string (or part thereof) of a program transmitted via a communication line is acquired, and an MMT decoding processing unit 841 or MPEG2-TS is appropriately selected. The data is output to the decoding processing unit 842.
  • the current date and the current time can be displayed on the EPG screen and various setting screens.
  • the information on the current date and current time is transmitted by MH-TOT or the like in a broadcast service that employs MMT as a media transport system, and MPEG- in a broadcast service that employs MPEG2-TS as a media transport system. 2 is transmitted by TOT (Time Offset Table) or the like provided in SI (Service Information) defined in the system.
  • the broadcast receiving apparatus 800 can acquire information on the current date and current time by referring to the MH-TOT and the TOT.
  • the video composition unit 861 mainly selects the video information output from the MMT decoding processing unit 841, the information on the current date and the current time acquired from the MH-TOT is displayed.
  • the video composition unit 861 mainly selects the video information and the like output from the MPEG2-TS decode processing unit 842, the information related to the current date and the current time obtained from the TOT is superposed on the video information. What is necessary is just to control so that it may superimpose on image
  • control is performed so that information relating to the current date and the current time acquired from the TOT is superimposed on the video information and the like. That is, control is performed so as to superimpose the current time information provided by the broadcast service adopting MPEG2-TS as the media transport method on the content of the broadcast service adopting MMT as the media transport method.
  • the broadcast receiving apparatus 800 of the present embodiment By performing the control, the broadcast receiving apparatus 800 of the present embodiment always displays the current time information acquired by referring to the TOT when displaying the current time. Therefore, even when switching between a broadcast service that employs MMT as the media transport method and a broadcast service that employs MPEG2-TS as the media transport method, the user feels a visual discomfort due to inconsistencies in the display of the current time. Can be prevented.
  • FIG. 26A shows an example of selection control of the current time information reference source in accordance with the reception status of each broadcast service in the broadcast receiving apparatus 800 of the present embodiment.
  • the broadcast receiving apparatus 800 of this embodiment when the broadcast service adopting MPEG2-TS as a media transport system is in a state capable of being received, the current time information is always obtained by referring to the TOT.
  • the MH-TOT can be used only when the broadcast service using MPEG2-TS as a media transport system cannot be received and when the broadcast service using MMT as a media transport system can be received. To obtain the current time information.
  • the current time information provided by the broadcast service adopting MMT as the media transport method is superimposed on the content of the broadcast service adopting MPEG2-TS as the media transport method. Even if controlled, the same effect as described above can be obtained.
  • the current time information can be corrected by referring to the “delta” parameter of the time information in the TMCC extended information area. Is possible.
  • the MH-TOT or TOT transmitted by each broadcast service constituting the network is There is a possibility that the transmission side system has an error due to a malfunction or a transmission error.
  • the broadcast receiving apparatus 800 of the present embodiment as a countermeasure against the error of the MH-TOT or TOT, when it is determined that the MH-TOT or TOT acquired from the service being received has an error, Has a function to update the time information of the built-in clock by acquiring the MH-TOT or TOT from any broadcast service of other networks or referring to the current time information And
  • FIG. 26B shows an example of update processing of current time information when the broadcast receiving apparatus 800 of this embodiment receives a broadcast service that employs MPEG2-TS as the media transport method. Even when a broadcast service that employs MMT as the media transport method is being received, the same processing as that shown in FIG.
  • the MPEG2 of the broadcast service (the broadcast service adopting MPEG2-TS as the media transport system) currently being received by the reception function execution unit 1102 is received.
  • -A TOT is acquired from the TS data string (S301), and the current time information is acquired by referring to the acquired TOT (S302).
  • the reception function execution unit 1102 performs a process of comparing the current time information acquired in the process of S302 with the time information of the built-in clock.
  • the reception function execution unit 1102 When the difference between the current time information acquired in the process of S302 and the time information of the internal clock is within a predetermined value (for example, within 3 minutes) (S303: Yes), the reception function execution unit 1102 The time information of the built-in clock is updated using the current time information acquired in the process of S302 (S306).
  • the reception function execution unit 1102 acquires the TOT from the MPEG2-TS data sequence of another broadcast service in the same network, or any other network MH-TOT is acquired from the MMT data string of the broadcast service (broadcast service adopting MMT as the media transport system) (S304), and further, current time information is acquired from the acquired TOT or MH-TOT (S305). .
  • the reception function execution unit 1102 may perform the comparison process of S303 again using the current time information acquired in the process of S305.
  • the broadcast receiving apparatus 800 of this embodiment determines that the MH-TOT or TOT acquired from the service being received has an error, the broadcast receiving apparatus 800 receives another broadcast service from the same network or other By acquiring MH-TOT or TOT from any broadcasting service of the network and referring to the current time information, it is possible to update the time information of the built-in clock.
  • the current time information in which the difference from the time information of the built-in clock is within the predetermined range cannot be acquired by repeating the processing of S304 to S305, such as at the time of initial setting after factory shipment, it is acquired in the processing of S302.
  • the time information of the built-in clock may be set again with the current time information. In this way, it is possible to cope with a case where there is an error in the time information side of the built-in clock of the broadcast receiving apparatus 800 of this embodiment.
  • Event schedule information of a broadcast service that employs MMT as a media transport method is transmitted by MH-EIT or the like.
  • event schedule information of a broadcast service that employs MPEG2-TS as a media transport system is transmitted by an EIT (Event Information Table) included in SI defined in the MPEG-2 system. Therefore, in general, when displaying video information or the like provided by a broadcast service adopting MMT as a media transport method, event schedule information (MH-EIT) of the broadcast service adopting the MMT is displayed. ) Can be obtained, and when displaying video information provided by a broadcast service employing MPEG2-TS as a media transport method, event schedule information of the broadcast service employing MPEG2-TS is displayed. (EIT) can be acquired.
  • the broadcast receiving apparatus 800 displays the video information provided by the broadcast service that employs MMT as the media transport system, or the MPEG2-TS as the media transport system. Even when displaying video information and the like provided by a broadcasting service that adopts the above, both the MH-EIT and the EIT can be acquired, improving usability for the user.
  • FIG. 27A shows an example of an EPG screen in the broadcast receiving apparatus 800 of the present embodiment.
  • an EPG screen 162i is an EPG screen created based on the MH-EIT of a broadcast service adopting MMT as a media transport system, and is “M1 TV”, “M2 broadcast”, “M3 channel”, “M4TV”. ”,“ TV M5 ”, and the like are broadcast station names of broadcast services that employ MMT as the media transport method.
  • the EPG screen 162j is an EPG screen created based on the EIT of a broadcast service that employs MPEG2-TS as a media transport system.
  • “T6 TV”, “T7 Broadcast”, “T8 Channel”, “T9TV” “TV TA” and the like are broadcast station names of broadcast services that employ MPEG2-TS as the media transport system.
  • an initial screen of the EPG screen (shown) (Omitted) is displayed.
  • the initial screen of the EPG screen is an EPG screen created based on the MH-EIT of a broadcasting service that employs MMT as a media transport method.
  • Detailed information on the broadcast program of each channel “Nearby current time” is displayed.
  • the user desires to check the detailed information of the broadcast program of each channel “October 9th” of “October 9, 2014”, and operates the remote controller (not shown) to instruct to update the EPG screen.
  • the EPG screen 162i is displayed.
  • the EPG A screen 162j is displayed.
  • the initial screen of the EPG screen created based on the EIT of the broadcast service adopting MPEG2-TS as the media transport system ie, “October 7, 2014 ”17: 00 ⁇ ” (detailed information on the broadcast program of each channel), but the same time zone as the EPG screen 162i displayed immediately before (ie, “October 9, 2014” ])
  • the EPG screen 162i displayed immediately before ie, “October 9, 2014”
  • the above-described control allows the user to continuously check detailed information regarding broadcast programs on the same day and the same time zone of a plurality of networks with different media transport methods by a simple operation. That is, the usability of the broadcast receiving apparatus 800 is improved.
  • FIG. 27B is a diagram showing an example different from the above-described EPG screen in the broadcast receiving apparatus 800 of the present embodiment.
  • the EPG screen 162k shows a state where the EPG screen 162i shown in FIG. 27A is scrolled in the channel direction (lateral direction) by operating the remote controller (not shown). That is, in the example shown in FIG. 27B, the channel information and media created based on the MH-EIT of the broadcast service adopting MMT as the media transport method by scrolling the EPG screen in the channel direction (lateral direction).
  • Channel information created based on EIT of a broadcast service that employs MPEG2-TS as a transport method is displayed seamlessly on the same time axis.
  • the user creates based on the EIT of the broadcast service adopting MPEG2-TS as the media transport method while the user confirms the channel information created based on the MH-EIT of the broadcast service adopting MMT as the media transport method. Even when it is desired to confirm the channel information, an instruction to switch the network by operating a remote controller (not shown) can be made unnecessary. Furthermore, the user can simultaneously confirm detailed information regarding broadcast programs in the same day and same time zone of a plurality of networks having different media transport methods. That is, the usability of the broadcast receiving apparatus 800 is improved.
  • Example 3 of the present invention will be described. Note that the configuration, effects, and the like in this example are the same as those in Example 1 unless otherwise specified. For this reason, below, the difference between a present Example and Example 1 is mainly demonstrated, and in order to avoid duplication about a common point, description is abbreviate
  • the broadcast receiving apparatus 100 is capable of supporting HDR (High Dynamic Range), which is a technique for expanding the luminance range of colors of video content, and the expansion of the color gamut.
  • HDR High Dynamic Range
  • MMT media transport system supported by the broadcast receiving apparatus 100 of the present embodiment
  • video reproduction as intended by the content producer is performed on a monitor device (such as the broadcast receiving apparatus 100 in the present embodiment) used by the user.
  • the content information relating to the HDR and color gamut expansion can be transmitted together with the encoded data of the program content.
  • the system configuration in the present embodiment is basically the same as the system configuration shown in FIG.
  • the encoded data of the program content included in the broadcast wave transmitted from the radio tower 300t is temporarily stored in the broadcast station server 300 from the content data output from the photographing device 390c. Instead of performing the processing, it may be sent by appropriately performing encoding processing, modulation processing, and the like.
  • the content data output from the photographing device 390c is stored in the broadcast station server 300, and the content data subjected to the storage processing is subjected to various video / audio editing processes by the editing device 390e, and further encoded.
  • the processing and modulation processing may be appropriately performed and transmitted.
  • the broadcast wave includes the brightness information of the program content and the equipment used when creating / editing the program content (A content information descriptor that describes information relating to the color reproduction performance of the photographing device 390c, the editing device 390e, etc.) is used as control information (content information) related to the program content. It shall be sent with the table / descriptor.
  • FIG. 29A shows an example of the data structure of the content information descriptor.
  • the content information descriptor may be arranged in MPT or MH-EIT. It is assumed that each parameter in the data structure of the content information descriptor has a function described below.
  • Descriptor_tag (descriptor tag)
  • the descriptor tag has a function of uniquely identifying each descriptor by a 16-bit field.
  • descriptor_length (descriptor length)
  • the descriptor length shall indicate the total number of data bytes for each parameter following this field.
  • Component_tag (component tag)
  • the component tag is a label for uniquely identifying the component stream, and is described by a 16-bit field. The value is the same as the component tag described in the MH-stream identification descriptor.
  • the content type represents the type of video content included in the component stream in accordance with FIG. 29B.
  • this parameter is “0”, it is assumed that the video content is one that has been subjected to video editing processing (such as a recorded program) by the editing device 390e.
  • this parameter is “1”, it indicates that the video content has been edited and processed by the editing device 390e (such as a recorded program), and that this content is compatible with HDR. To do.
  • this parameter is “2”, it is assumed that the video content is content data (such as a live broadcast program) output from the photographing device 390c.
  • this parameter is “3”, the video content is content data (such as a live broadcast program) output from the photographing device 390c, and indicates that this content is compatible with HDR. Further, other classifications may be performed using this parameter.
  • the source device primary color chromaticity coordinates are parameters indicating information relating to the color reproduction performance and the like of the source device, and the color gamuts that the source device can handle are R (red) / G (green) / B (blue) primary colors.
  • the coordinate values on the CIE chromaticity diagram (CIExy chromaticity diagram) are shown.
  • the source device is a monitor device of the editing device 390e when the “content_type” parameter is “0” or “1”.
  • the source device primary color chromaticity coordinates indicate the chromaticity coordinate values of the color gamut that can be displayed on the monitor device of the editing device 390e.
  • the source device is the photographing device 390c.
  • the source device primary color chromaticity coordinates indicate chromaticity coordinate values of a color gamut that can be output by the photographing device 390c.
  • Each coordinate value on the CIE chromaticity diagram is indicated by a value in the range of “0.000” to “1.000”, and is described in a range of “0000000000b” to “1111101000b” in a 10-bit field. Shall be.
  • the source device white chromaticity coordinates are parameters indicating information relating to the color reproduction performance and the like of the source device, and indicate coordinate values on the CIE chromaticity diagram of white reference points that can be handled by the source device.
  • the source device is a monitor device of the editing device 390e when the “content_type” parameter is “0” or “1”. In this case, the source device white chromaticity coordinate indicates the chromaticity coordinate value of the white reference point of the monitor device of the editing device 390e.
  • the source device is the photographing device 390c.
  • the source device white chromaticity coordinate indicates the chromaticity coordinate value of the white reference point that can be output by the photographing device 390c.
  • the source device maximum brightness and the source device minimum brightness are parameters indicating information on the maximum brightness and the minimum brightness that can be supported by the source device.
  • the source device is a monitor device of the editing device 390e when the “content_type” parameter is “0” or “1”.
  • the maximum brightness of the source device and the minimum brightness of the source device indicate the maximum value and the minimum value of the brightness that can be displayed on the monitor device of the editing device 390e.
  • the source device is the photographing device 390c.
  • the maximum brightness of the source device and the minimum brightness of the source device indicate the maximum value and the minimum value of the brightness that can be output by the photographing device 390c.
  • the maximum luminance of the source device is indicated by a value in the range of “1 (cd / m 2 : candela / square meter)” to “65535 (cd / m 2 )”, and “0000h” to “FFFFh” in a 16-bit field. It shall be described in the range.
  • the minimum brightness of the source device is indicated by a value in the range of “0.0001 (cd / m 2 )” to “6.5535 (cd / m 2 )”, and “0000h” to “FFFFh” in a 16-bit field. It shall be described in the range.
  • the number of scenes indicates the number of scenes (may be referred to as chapters) constituting the video content included in the component stream. When the number of scenes is “1”, this parameter may be omitted.
  • the scene start time indicates the start time of the scene (chapter) in a 40-bit field.
  • the upper 16 bits of this field indicate the lower 16 bits of the modified Julian date (MJD), and the lower 24 bits indicate the hour, minute and second of Japan Standard Time (JST) with a 6-digit BCD code. When the number of scenes is “1”, this parameter may be omitted.
  • the scene duration is a 24-bit field indicating the duration of a scene (chapter). This field indicates the hour, minute and second of the duration with a 6-digit BCD code. When the number of scenes is “1”, this parameter may be omitted.
  • the maximum content brightness indicates the maximum brightness in each scene (chapter) in a 16-bit field. When the number of scenes is “1”, this parameter indicates the maximum luminance value throughout the content.
  • the maximum content brightness is indicated by a value in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”, and is described in a range of “0000h” to “FFFFh” in a 16-bit field. Shall be.
  • Max_frame_ave_light_level maximum frame average brightness
  • the maximum frame average luminance indicates the maximum value of the frame average luminance in each scene (chapter) in a 16-bit field. When the number of scenes is “1”, this parameter indicates the maximum value of the average frame luminance throughout the entire content.
  • the maximum frame average luminance is indicated by a value in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”, and is a 16-bit field in the range of “0000h” to “FFFFh”. Shall be described.
  • the maximum luminance within a frame is a 16-bit field indicating the maximum luminance within each frame.
  • the maximum luminance in a frame is indicated by a value in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”, and is a 16-bit field in the range of “0000h” to “FFFFh”. Shall be described.
  • the average luminance within a frame shall indicate the average luminance of each frame in a 16-bit field.
  • the average luminance within the frame is indicated by a value in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”, and is a 16-bit field in the range of “0000h” to “FFFFh”. Shall be described.
  • EOTF_identification (EOTF identification) identifies the type of conversion characteristic (transfer characteristic) between an electrical signal and an optical signal such as gamma correction applied to the video signal of the video content included in the component stream.
  • EOTF identification identifies the type of conversion characteristic (transfer characteristic) between an electrical signal and an optical signal such as gamma correction applied to the video signal of the video content included in the component stream.
  • the video content is BT. It shows that gamma correction suitable for a monitor device with display characteristics conforming to 709 has been performed.
  • this parameter is “2”, the video content is BT.
  • 10-bit processing gamma correction suitable for a monitor device with display characteristics compliant with 2020 has been performed.
  • this parameter is “3”, the video content is BT.
  • this parameter is “4”, it indicates that the video content has been subjected to gamma correction suitable for a monitor device having display characteristics compliant with SMPTE 2084. Further, other classifications may be performed using this parameter.
  • the “EOTF identification” parameter may be capable of identifying the type of colorimetry and the like. Note that the types of conversion characteristics (transfer characteristics) of electrical signals and optical signals shown in FIG. 29D are only examples, and the video signals of video content are processed with the conversion characteristics (transfer characteristics) of other electrical signals and optical signals. The characteristics may be identified by the “EOTF identification” parameter.
  • the broadcast receiving apparatus 100 that has received the video content and the “EOTF identification” parameter refers to the “EOTF identification” parameter associated with the video content, and further displays characteristics of the monitor device that displays the video content.
  • processing such as appropriate electro-optical conversion based on both, it is possible to display each video content in a state suitable for the monitor device.
  • the transfer characteristic identified by the “EOTF identification” parameter associated with the video content corresponds to the display characteristic of the monitor device that displays the video content
  • the “EOTF identification” parameter is used in the display process.
  • the electro-optical conversion identified by (1) may be performed as it is.
  • the transmission characteristic is identified by the “EOTF identification” parameter.
  • the electrical-optical conversion corresponding to the display characteristics of the monitor device is performed on the video signal subjected to the conversion process between the electrical signal and the optical signal according to the identification of the “EOTF identification” parameter.
  • the display process for performing the electro-optical conversion corresponding to the display characteristics of the monitor device may be performed.
  • the video signal that has been subjected to the conversion process between the electrical signal and the optical signal according to the identification of the “EOTF identification” parameter is converted into a video signal suitable for the electrical-optical conversion process corresponding to the display characteristics of the monitor device.
  • the conversion process for conversion will be described below.
  • transfer characteristic conversion processing is referred to as transfer characteristic conversion processing.
  • video content having values of “2”, “3”, and “4” in the “EOTF identification” parameter is HDR video content having a wide range of expressible brightness and color gamut.
  • video content having a value of “0” in the “EOTF identification” parameter is SDR (Standard Dynamic Range) video content in which the range of light and darkness that can be expressed, the color gamut, and the like is narrower than that of HDR video content.
  • BT. A display device with display characteristics compliant with 2020 and a display device with display characteristics compliant with SMPTE 2084 can be referred to as HDR compatible display devices.
  • a display device with display characteristics compliant with 709 can be referred to as an SDR-compatible display device.
  • BT. 709-compliant display characteristics display device A display device that does not support HDR display characteristics, such as 2020 and SMPTE 2084, may be referred to as an SDR-compatible display device (non-HDR compatible display device) as a subordinate concept of the SDR-compatible display device.
  • the HDR video content is converted to BT.
  • an SDR compatible display device non-HDR compatible display device
  • a wide range or color gamut of the HDR video content is included. And the like cannot be expressed on the monitor device, resulting in a display image that is difficult to see and that has luminance collapse and color collapse. That is, in this case, in the transfer characteristic conversion process, a process for converting a wide light / dark range or color gamut of the HDR video content to fall within a light / dark range or color gamut that can be expressed by the monitor device is performed. Just do it.
  • This processing may be expressed as light / dark dynamic range reduction conversion and color gamut reduction conversion.
  • it is a process of converting an HDR video content having a wide expressible brightness range and color gamut into an SDR video content having a narrow expressible brightness range and color gamut, it is expressed as an HDR-SDR conversion process. Also good.
  • video content having a value of “0” in the “EOTF identification” parameter is SDR video content with a narrow range of expressible brightness and a narrow color gamut.
  • the SDR video content is converted to BT.
  • an HDR compatible display device such as a monitor device having a display characteristic conforming to 2020
  • the transfer characteristic conversion process when the transfer characteristic conversion process is not performed, the wide light / dark display performance and color gamut display performance of the monitor device are fully utilized. I can't. That is, in this case, in the transfer characteristic conversion process, the conversion process may be performed on the SDR video content so that the wide light / dark display performance and color gamut display performance of the monitor device can be fully utilized. This processing may be expressed as light / dark dynamic range expansion conversion and color gamut expansion conversion.
  • the SDR video content having a narrow expressible range or color gamut is converted into an HDR video content having a wide expressive range or color gamut or the like, it is expressed as an SDR-HDR conversion process. Also good. Note that the SDR-HDR conversion process is not necessarily required, and the SDR video content is converted to BT. When displaying on an HDR-compatible display device such as a monitor device having a display characteristic compliant with 2020, the SDR-HDR conversion process may not be performed. In this case, the light / dark display performance and the color gamut display performance remain in the range of the display characteristics of the SDR, but there is no problem because the display image does not become difficult to see and has a luminance collapse or color collapse.
  • the “EOTF identification” parameter is not associated with the video content received by the broadcast receiving apparatus 100 and cannot be acquired (if it is not originally transmitted), or “ As an example of processing when the value of the “EOTF identification” parameter cannot be acquired due to a transmission error or the like and cannot be determined, the following processing may be performed.
  • the value of the “EOTF identification” parameter of the received video content may be handled as being “2” or “3”, for example. That is, if the value of the “EOTF identification” parameter cannot be identified, the video content may be handled as HDR video content.
  • the monitor device is BT.
  • the HDR compatible display device such as a display device compliant with 2020 does not perform the transfer characteristic conversion process.
  • the actual content is HDR video content
  • an appropriate display is performed, and the actual content is SDR video content.
  • the brightness / darkness display performance and the color gamut display performance remain in the range of the display characteristics of the SDR, but the display image is not easy to see and has a luminance collapse or color collapse.
  • the monitor device is BT.
  • the transfer characteristic conversion process is performed by treating the video content as HDR video content. If the content is HDR video content, it is displayed after appropriate HDR-SDR conversion processing, and even if the actual content is SDR video content, the light / dark display performance and the color gamut display performance are within the range of the display characteristics of SDR. Although it is further limited, it is possible to avoid a display image that is hard to see and has a luminance or color that cannot express at least the light and dark range or color gamut of the video content.
  • SDR-HDR conversion processing is performed when the actual content is HDR video content, or HDR-SDR conversion is performed on the SDR-compatible display device (non-HDR compatible display device) when the actual content is HDR video content.
  • SDR-compatible display device non-HDR compatible display device
  • the video content is handled as HDR video content, so that the monitor device is an HDR-compatible display device. Even if it is an SDR compatible display device (non-HDR compatible display device), even if the actual content is HDR video content or SDR video content, video display with less problems for the user is possible.
  • a video component descriptor Or the like it may be determined whether to handle as HDR video content or SDR video content.
  • the parameter relating to the resolution of the video signal indicates that the resolution of the video content is a high-resolution content such as 3840 ⁇ 2160 pixels or 7680 ⁇ 4320 pixels. If it is shown, it may be determined that the content is HDR video content. Specifically, the value of the “EOTF identification” parameter may be interpreted as “2” or “3”. Since high resolution content of 3840 ⁇ 2160 pixels or 7680 ⁇ 4320 pixels is expected to be prepared as HDR video content in the future, it is likely that appropriate display is performed probabilistically by such processing.
  • the SDR video You may judge that it is content.
  • the value of the “EOTF identification” parameter may be interpreted as “0”.
  • Content having a resolution of 1920 ⁇ 1080 pixels or less includes a large number of existing SDR content, and therefore, appropriate display is likely to be performed probabilistically by such processing.
  • the value for which the relationship with the display characteristic is not prepared in the table of FIG. 29D means that the value of the “EOTF identification” parameter in the table of FIG. 29D is “1” or “5” to “15” in the future. This is a case where a reserved value or an unexpected value is stored. These values may be expressed as invalid values. Even in the case of such an invalid value (a value for which a relationship with display characteristics is not prepared), if either the first processing example or the second processing example described above is performed, the same effect can be obtained. Is obtained.
  • the main control unit 101 sets the video processing switching timing of the video color gamut conversion unit 142 to be later than the switching timing of the decoded video from the video decoder 141.
  • the processing timing of the video decoder 141 and the video color gamut conversion unit 142 may be controlled. Alternatively, control may be performed so that the video is in a video mute state such as a black display before the switching of the two starts processing, and the video mute state such as a black display of the video is canceled after the switching between the two is completed. .
  • the timing of switching video processing of the video color gamut conversion unit 142 when switching from SDR video content to HDR video content is the video decoder 141. If it is later than the switching timing of the decoded video from the time, it takes time to perform the SDR-HDR conversion processing on the HDR video content, and there is a possibility that an unclear display video with luminance collapse or color collapse may be displayed. End up. Therefore, when switching from SDR video content to HDR video content, the main control unit 101 causes the video color gamut conversion unit 142 to switch the video processing timing earlier than the decoded video switching timing from the video decoder 141.
  • the processing timing of the video decoder 141 and the video color gamut conversion unit 142 may be controlled. Alternatively, control may be performed so that the video is in a video mute state such as a black display before the switching of the two starts processing, and the video mute state such as a black display of the video is canceled after the switching between the two is completed. .
  • the main control unit 101 sets the video processing switching timing of the video color gamut conversion unit 142 to be later than the switching timing of the decoded video from the video decoder 141.
  • the processing timing of the video decoder 141 and the video color gamut conversion unit 142 may be controlled. Alternatively, control may be performed so that the video is in a video mute state such as a black display before the switching of the two starts processing, and the video mute state such as a black display of the video is canceled after the switching between the two is completed. .
  • the processing timing of the video decoder 141 and the video color gamut conversion unit 142 may be controlled. Alternatively, control may be performed so that the video is in a video mute state such as a black display before the switching of the two starts processing, and the video mute state such as a black display of the video is canceled after the switching between the two is completed. .
  • the same identification as the above-mentioned “EOTF_identification” parameter is possible in the encoded video stream. May be inserted, and identification processing and various video processing using the inserted flag may be performed.
  • the identification process and various video processes when the “EOTF_identification” flag as the flag in the encoded video stream is used are the same as the identification process and various video processes when the “EOTF_identification” parameter in the content information descriptor is used.
  • the “EOTF_identification” flag as an encoded video stream flag is inserted into the encoded video stream, for example, in units of frames or GOPs, the content information descriptor set in units of assets or programs It is possible to realize switching between HDR video content and SDR video content and switching of various video processes corresponding to each video content in a time unit finer than when the “EOTF_identification” parameter is used. That is, the video decoder 141 can grasp the switching between the HDR video content and the SDR video content in units of frames or GOPs, and the video color gamut conversion unit 142 in the subsequent stage can detect the HDR video content and SDR video in units of frames or GOPs.
  • the synchronization accuracy of the video processing switching timing in the video color gamut conversion unit 142 is also improved as compared with the case where the “EOTF_identification” parameter in the content information descriptor is used. There is.
  • the identification process using the “EOTF_identification” flag in the encoded video stream is performed.
  • the “EOTF_identification” parameter in the content information descriptor used for switching the video processing of the video color gamut conversion unit 142 is, for example, an HDR video content program when the program is displayed in a program guide or program information in units of programs. If it is used for display for telling the user whether it is an SDR video content program or the like, the identification information of both can be used properly.
  • an “EOTF_identification” flag in an encoded video stream is preferentially used.
  • an “EOTF_identification” parameter in the content information descriptor is preferentially used. In this case, there is an advantage that the transfer characteristics and the like can be quickly identified without referring to the encoded video stream.
  • the above-described content information descriptor may have a data structure different from that shown in FIG. 29A.
  • another parameter different from each parameter may be further provided, or not all the parameters may be provided.
  • different names may be used for the respective parameters.
  • the parameters do not necessarily need to be described in one descriptor, and may be described in two different descriptors, for example. Each parameter may be described in a descriptor and arranged in a table, or may be described directly in a table.
  • EPG display of broadcast receiver Also in the broadcast receiving apparatus 100 of the present embodiment, as in the first embodiment, information such as the start time and broadcast time of each event (broadcast program) is identified by referring to the MH-EIT or the like and identifying the service ID.
  • the EPG screen can be created by acquiring the EPG, and the created EPG can be displayed on the monitor unit 162 by superimposing the created EPG on the video information or the like by the video composition unit 161.
  • the “content_type” parameter of the content information descriptor is referred to, and the video content type of each broadcast program is “1” or “3”.
  • a symbol or the like representing an attribute indicating that the broadcast program is a program compatible with HDR may be displayed.
  • the symbol or the like indicating the attribute may be, for example, a symbol / character indicating a broadcast program compatible with HDR, or symbolizing “HDR” indicating a broadcast program compatible with HDR.
  • the mark 162a5 may be used.
  • a symbol or the like representing the attribute may be displayed in the title area 162a2 of the detailed information 162a1. Alternatively, when the cursor is placed on the detailed information 162a1, it may be displayed in a pop-up. It may be displayed by other methods.
  • the content information descriptor separately includes “HDR_flag” or the like that is a parameter indicating whether or not the video content of the broadcast program is compatible with HDR, refer to the “HDR_flag” parameter. By doing so, it may be controlled whether or not to display a symbol or the like representing an attribute indicating that the broadcast program is a program compatible with HDR.
  • the name of the “HDR_flag” parameter is an example, and a different name may be used.
  • Control may be performed so as to display a symbol or the like representing an attribute indicating that the broadcast program is a program compatible with HDR.
  • the “content_type” parameter or the like of the content information descriptor is referred to, and even if the video content type of each broadcast program is “1” or “3”, or “source_luminance_max” of the content information descriptor is used.
  • a symbol / character indicating that it is a broadcast program corresponding to the HDR or a symbol 162a5 symbolizing “HDR” indicating that it is a broadcast program compatible with the HDR Control may be performed so as not to display.
  • the broadcast receiving apparatus 100 refers to the “EOTF_identification” parameter of the content information descriptor, and the type of gamma correction applied to the video content of each broadcast program is the monitor 162 of the broadcast receiving apparatus 100.
  • the type is compatible with display characteristics, a symbol or the like indicating an attribute indicating that the broadcast program is a program that can be displayed with a correct luminance expression may be displayed.
  • the symbol representing the attribute may be, for example, a symbol / character indicating that the program can be displayed with the correct luminance expression, or “True” indicating that the program can be displayed with the correct luminance expression. It may be a mark 162a6 symbolizing “Contrast”.
  • the type of gamma correction applied to the video content of each broadcast program is a type that can be supported by the display characteristics of the monitor unit 162 of the broadcast receiving apparatus 100, for example, “EOTF_identification” related to the video content. ] Parameter is “0”, and the display characteristic of the monitor unit 162 of the broadcast receiving apparatus 100 is BT. 709, and so on.
  • the user can correctly express whether or not each broadcast program displayed on the EPG screen 162a is compatible with HDR. It is possible to easily grasp whether or not the program can be displayed on the screen.
  • the content information descriptor is transmitted as the MMT-SI descriptor.
  • the content information descriptor as parameters indicating information on the color reproduction performance of the source device, the R / G / B primary colors and white reference points of the color gamut that can be handled by the source device on the CIE chromaticity diagram. Coordinate values are shown.
  • the broadcast receiving apparatus 100 includes a color gamut R / G / that can be supported by the monitor unit 162 as a parameter indicating information regarding the color reproduction performance of the monitor unit 162 in various information storage areas of the storage unit 110. It is assumed that the coordinate values on the CIE chromaticity diagram of each primary color of B and the white reference point are stored.
  • the coordinates of R / G / B primary colors and white reference points of the color gamut that can be supported by the source device described in the content information descriptor are R0 /
  • the coordinates of the R / G / B primary colors and the white reference point of the color gamut that are G0 / B0 and W0 and can be supported by the monitor unit 162 stored in the various information storage areas of the storage unit 110 are R1 / R1, respectively.
  • G1 / B1 and W1 among the areas constituted by R0 / G0 / B0, which is a color gamut that can be handled by the source device, R1 / G1 / is a color gamut that the monitor unit 162 can handle.
  • a portion that does not overlap with the region formed by B1 is a region that may not be displayed correctly on the monitor unit 162.
  • the broadcast receiving apparatus 100 stores the color gamut that can be supported by the source device described in the content information descriptor and the various information storage areas of the storage unit 110.
  • a color gamut conversion processing function is provided for converting video data of the video content into video data suitable for display on the monitor unit 162 when there is a deviation from a color gamut that the monitor unit 162 can handle. .
  • the said color gamut conversion function with which the broadcast receiver 100 is provided is demonstrated.
  • the color gamut conversion processing function of the broadcast receiving apparatus 100 is the color gamut of the video data (R0 / G0 / B0 which is the color gamut that can be supported by the source device shown in FIG. 31A). This is a function for converting a color gamut based on the color reproduction performance of the monitor unit 162 (a region constituted by R1 / G1 / B1 shown in FIG. 31A).
  • the color gamut conversion processing function provided in the broadcast receiving apparatus 100 is configured so that the color gamut of the video data is the R / G / of the color gamut that the source device described in the content information descriptor can handle
  • the coordinate value of each primary color of B and the coordinate value of each primary color of R / G / B of the color gamut that can be supported by the monitor unit 162 stored in various information storage areas of the storage unit 110 The conversion may be performed so that correct color reproduction on the monitor unit 162 is possible.
  • the color gamut conversion process may be performed by referring to only the coordinate values of.
  • the color gamut conversion process may be performed by referring only to the coordinate values.
  • the coordinate values of the R / B primary colors in the color gamut that the source device can handle and the R / B primary colors in the color gamut that the monitor unit 162 can handle On the line segment R0 / B0 (or in the vicinity thereof), the coordinate values of the R / B primary colors in the color gamut that the source device can handle and the R / B primary colors in the color gamut that the monitor unit 162 can handle.
  • the color gamut conversion process may be performed by referring only to the coordinate values.
  • the color gamut of the video data may be divided into three areas, and the color gamut conversion process may be different for each divided area.
  • the color gamut conversion processing is performed by referring to the R / G primary colors of the color gamut that can be handled by the unit 162 and the coordinate values of the white reference point.
  • the coordinate values of the primary colors and white reference points of G / B in the color gamut that can be supported by the source device, and the monitor unit 162 Gamut conversion processing is performed by referring to the respective primary colors of G / B and the coordinate values of the white reference point in the color gamut that can be supported by.
  • the coordinate values of the primary colors and white reference points of the R / B of the color gamut that can be supported by the source device and the monitor unit 162 Gamut conversion processing is performed by referring to the R / B primary colors of the color gamut and the coordinate value of the white reference point.
  • the R primary color and white reference point of the color gamut that the source device can handle may be performed by referring only to the coordinate values of the R primary color and the white reference point of the color gamut that the monitor unit 162 can correspond to.
  • the G primary color in the color gamut that the source device can handle and the coordinate value of the white reference point and the G primary color in the color gamut that the monitor unit 162 can handle.
  • the color gamut conversion process may be performed by referring only to the coordinate value of the white reference point.
  • the primary color of B in the color gamut that can be handled by the source device On the line segment B0 / W0 (or in the vicinity thereof), the primary color of B in the color gamut that can be handled by the source device, the coordinate value of the white reference point, the primary color of B in the color gamut that the monitor unit 162 can handle, and
  • the color gamut conversion process may be performed by referring only to the coordinate value of the white reference point.
  • R0, G0, B0 are the coordinates of each primary color of R / G / B of the color gamut that can be supported by the source device described in the content information descriptor, respectively (R0x, R0y), Assume that the coordinate values are (G0x, G0y) and (B0x, B0y).
  • R1, G1, and B1 are the coordinates of R / G / B primary colors of the color gamut that can be supported by the monitor unit 162 stored in various information storage areas of the storage unit 110, respectively (R1x, R1y ), (G1x, G1y), and (B1x, B1y) coordinate values.
  • P0 is a predetermined color gamut data of the video content, and has a coordinate value of (P0x, P0y).
  • the color gamut data of P0 is converted into the color gamut data shown by P1 by the color gamut conversion processing.
  • P1 has a coordinate value of (P1x, P1y), and is calculated by an arithmetic expression of the color gamut conversion process shown as an example below.
  • the arithmetic expression indicates that the color gamut conversion processing of all the color gamut data in the color gamut area of the video content is the R / G of the color gamut that the source device described in the content information descriptor can handle.
  • the monitor unit 162 By referring to the coordinate values of the primary colors of G / B and the coordinate values of the primary colors of R / G / B of the color gamut that can be supported by the monitor unit 162 stored in various information storage areas of the storage unit 110 This is an example of performing. Even when the color gamut of the video data is divided into three regions and the color gamut conversion processing is different for each divided region, the same calculation can be performed.
  • the arithmetic expression is a well-known arithmetic expression using a barycentric coordinate system, a detailed description relating to the derivation of the arithmetic expression is omitted.
  • the arithmetic expression is merely an example, and the coordinate value of P1 may be calculated using a different arithmetic expression.
  • the color gamut conversion process may not be performed.
  • the color gamut of the video content is BT.
  • the color gamut equivalent to the 709 color gamut and compatible with the monitor device (broadcast receiving device 100, etc.) is BT.
  • the BT is the same as that of the 2020 series.
  • All of the 709 color gamut area is the BT. Since it is included in the 2020 color gamut area, it is not necessary to perform the color gamut conversion process. That is, the monitor device (broadcast receiving device 100 or the like) can display all the color gamut data of the video content.
  • the color reproduction performance of the source device is different from the color reproduction performance of the monitor unit 162 of the broadcast receiving apparatus 100. Even when the video content is displayed on the monitor unit 162 of the broadcast receiving apparatus 100, the video content can be suitably displayed.
  • the broadcast receiving apparatus 100 of the present embodiment is assumed to include image quality adjustment items as shown in FIG.
  • Each of the image quality adjustment items can be adjusted according to the user's preference by the user's operation.
  • items relating to luminance adjustment may be capable of automatic luminance adjustment with reference to the description of the content information descriptor.
  • the automatic brightness adjustment process will be described below.
  • the broadcast receiving apparatus 100 stores the maximum and minimum luminance values that can be displayed on the monitor unit 162 as parameters indicating information about the luminance display performance of the monitor unit 162 in various information storage areas of the storage unit 110. Suppose you are.
  • the automatic brightness adjustment of the method (1) is displayed on the “source_luminance_max” parameter and the “source_luminance_min” parameter described in the content information descriptor, and on the monitor unit 162 stored in various information storage areas of the storage unit 110. This is done by referring to the maximum / minimum possible luminance values.
  • the luminance level indicated by the “source_luminance_max” parameter substantially matches the luminance level of the maximum luminance that can be displayed on the monitor unit 162, and is set to the “source_luminance_min” parameter.
  • the conversion process of the luminance expression range of the video content is performed so that the displayed luminance level substantially matches the minimum luminance level that can be displayed on the monitor unit 162.
  • the user can monitor the video content having the same luminance expression as that of the monitor device of the editing device 390e used by the content provider for editing the content. 162 can be viewed.
  • the automatic brightness adjustment of the method (2) is displayed on the “max_light_level_of_content” parameter and the “source_luminance_min” parameter described in the content information descriptor and the monitor unit 162 stored in various information storage areas of the storage unit 110. This is done by referring to the maximum / minimum possible luminance values.
  • the luminance level indicated by the “max_light_level_of_content” parameter substantially matches the luminance level of the maximum luminance that can be displayed on the monitor unit 162, and is set to the “source_luminance_min” parameter.
  • the conversion process of the luminance expression range of the video content is performed so that the displayed luminance level substantially matches the minimum luminance level that can be displayed on the monitor unit 162.
  • the user can view the video content by making full use of the contrast performance of the monitor unit 162 of the broadcast receiving apparatus 100.
  • the parameter is replaced with the “source_luminance_min” parameter.
  • the “min_light_level_of_content” parameter the contrast performance of the monitor unit 162 of the broadcast receiving apparatus 100 can be used more effectively.
  • the luminance expression range conversion processing in the method (2) may be performed by changing the parameter to be referred to for each scene (chapter) when the “num_of_scene” parameter is not “1”. In this case, it is possible to ensure suitable contrast performance in the monitor unit 162 of the broadcast receiving apparatus 100 for each scene (chapter).
  • the automatic brightness adjustment of the method (3) is performed by using the “max_light_level_of_content” parameter described in the content information descriptor and the maximum brightness value that can be displayed on the monitor unit 162 stored in various information storage areas of the storage unit 110. This is done with reference to The minimum value side of the luminance is based on “0 (cd / m 2 )”. In this case, the same effect as the automatic brightness adjustment of the method (2) can be obtained, and the brightness expression range conversion process can be performed with a simple calculation by referring to a small number of parameters.
  • the luminance expression range conversion processing can be displayed on the monitor unit 162 in which the “source_luminance_max” parameter and the “max_light_level_of_content” parameter described in the content information descriptor are stored in various information storage areas of the storage unit 110, respectively. It may be performed only when the brightness is larger than the maximum value.
  • the user can refer to the content information descriptor and the user can select a suitable value on the monitor unit 162 of the broadcast receiving apparatus 100. It is possible to view video content with luminance expression.
  • the present embodiment by referring to the content information accompanying the program content included in the broadcast wave, it is possible to perform the above-described processes corresponding to the expansion of the HDR and the color gamut, and more useful broadcast reception compatible with MMT.
  • An apparatus can be provided.
  • Example 4 of the present invention will be described.
  • the configuration, effects, and the like in this example are the same as those in Example 3 unless otherwise specified.
  • the difference between a present Example and Example 3 is mainly demonstrated, and in order to avoid duplication about a common point, description is abbreviate
  • FIG. 34 is a system configuration diagram showing an example of a broadcast communication system including the broadcast receiving apparatus of the present embodiment.
  • the broadcast communication system of the present embodiment includes a broadcast receiver 40100 and an antenna 40100a, a connection cable 40200, a monitor device 40300, a broadband network and router device 200r such as the Internet 200, a radio tower 300t and a broadcast satellite (or communication satellite). 300s, broadcast station server 300, service provider server 400, and other application servers 500.
  • the access point 200a, the mobile phone communication server 600, and the base station 600b of the mobile phone communication network are connected in the same manner as in the system configuration diagram (see FIG. 1) of the broadcast communication system of the first embodiment.
  • the portable information terminal 700 may be further included. In this case, the portable information terminal 700 may be able to communicate directly with the broadcast receiving device 40100 without using the router device 200r or the like.
  • the encoded data of the program content included in the broadcast wave transmitted from the radio tower 300t may be output from the photographing device 390c, and various kinds of data may be output from the editing device 390e. Video / audio editing processing may be performed.
  • the broadcast receiving device 40100 receives the broadcast wave transmitted from the radio tower 300t via the broadcast satellite (or communication satellite) 300s and the antenna 40100a. Alternatively, the broadcast wave transmitted from the radio tower 300t may be received directly from the antenna 40100a without passing through the broadcast satellite (or communication satellite) 300s.
  • the broadcast receiving device 40100 can be connected to the Internet 200 via the router device 200r, and can transmit and receive data by communication with each server device and other communication devices on the Internet 200.
  • the connection cable 40200 is a communication cable that connects the broadcast receiving device 40100 and the monitor device 40300, and transmits encoded video / audio data and the like output from the broadcast receiving device 40100.
  • the monitor device 40300 receives video information and audio information obtained by performing predetermined signal processing on the encoded video / audio data received via the connection cable 40200 via a display device such as a liquid crystal panel and a speaker.
  • the video display device is provided to the user.
  • the monitor device 40300 may be connected to the Internet 200 via the router device 200r, and may be capable of transmitting and receiving data by communication with each server device and other communication devices on the Internet 200.
  • the monitor device 40300 may be able to receive broadcast waves transmitted from the radio tower 300t via an antenna 40300a (not shown).
  • FIG. 35A is a block diagram illustrating an example of an internal configuration of the broadcast receiving device 40100.
  • the broadcast receiving apparatus 40100 includes a main control unit 101, a system bus 102, a ROM 103, a RAM 104, a storage (storage) unit 110, a LAN communication unit 121, an expansion interface unit 124, a digital interface unit 40125, a tuner / demodulation unit 131, and a separation unit 132.
  • Video decoder 141 Video decoder 141, video color gamut conversion unit 142, audio decoder 143, character super decoder 144, subtitle decoder 145, subtitle synthesis unit 146, subtitle color gamut conversion unit 147, data decoder 151, cache unit 152, application control unit 153, A browser unit 154, an application color gamut conversion unit 155, a sound source unit 156, a video synthesis unit 161, a video output unit 163, a voice synthesis unit 164, a voice output unit 166, an operation input unit 170, and a transcode processing unit 40181.
  • the broadcast receiving apparatus 40100 of this embodiment is assumed to be an optical disk drive recorder such as a DVD recorder or a BD recorder, a magnetic disk drive recorder such as an HDD recorder, an STB, or the like. That is, the monitor unit 162 and the speaker unit 165 may be omitted as compared with the broadcast receiving apparatus 100 of the first embodiment.
  • the digital interface unit 40125 is an interface that outputs or inputs encoded digital video data and / or digital audio data.
  • the digital interface unit 40125 can output the MMT data sequence obtained by demodulating by the tuner / demodulation unit 131, the MMT data sequence obtained via the LAN communication unit 121, or the mixed data of each MMT data sequence as it is. Shall. Further, the MMT data string input from the digital interface unit 40125 may be controlled to be input to the separation unit 132.
  • Output of digital content stored in the storage (storage) unit 110 or storage of digital content in the storage (storage) unit 110 may be performed via the digital interface unit 40125.
  • the digital interface unit 40125 is a DVI terminal, an HDMI (registered trademark) terminal, a Display Port (registered trademark) terminal, or the like.
  • the digital interface unit 40125 conforms to the DVI specification, the HDMI specification, the Display Port specification, or the like.
  • the video data and audio data output from the audio synthesis unit 164 may be controlled to be output.
  • the transcode processing unit 40181 is a signal processing unit that performs a transcode calculation process for converting the encoding format, bit rate, media transport system, and the like of each component that constitutes the content.
  • the transcode processing unit 40181 converts the MMT data string of the broadcast program content including the video component in the MPEG-H HEVC format output from the separation unit 132 into the MPEG-2 or MPEG-4 AVC (Advanced Video Coding) format. It can be converted into an MPEG2-TS data sequence (or MPEG2-PS data sequence) of program content including a video component.
  • the program content subjected to the transcode calculation process can be stored in the storage (accumulation) unit 110 as recorded content, or output from the digital interface unit 40125 and supplied to an external monitor device or the like.
  • FIG. 35B is a software configuration diagram of the broadcast receiving device 40100 of the present embodiment, and shows a software configuration in the ROM 103, the RAM 104, and the storage (storage) unit 110.
  • a transcode processing program 41003 and a recording / playback processing program 41004 are added to the storage (storage) unit 110.
  • the transcode processing program 41003 and the recording / reproduction processing program 41004 stored in the storage (accumulation) unit 110 are expanded in the RAM 104, respectively, and the main control unit 101 further executes the expanded transcode processing program and recording / reproduction processing program.
  • a transcode processing execution unit 41103 and a recording / playback processing execution unit 41104 are configured.
  • the transcode processing execution unit 41103 mainly controls the transcode operation processing in the transcode processing unit 40181.
  • the recording / playback processing execution unit 41104 mainly controls the recording processing of the content of the broadcast program in the content storage area 1200 and the playback processing of the recorded content from the content storage area 1200.
  • reception function execution unit 1102 expanded in the RAM 104 further includes an output control unit 41102i.
  • the output control unit 41102i of the reception function execution unit 1102 controls each process related to data output from the video output unit 163, the audio output unit 166, and the digital interface unit 40125.
  • FIG. 36 is a system configuration diagram showing an example of an interface configuration between the broadcast receiving device 40100 and the monitor device 40300.
  • a connection terminal of the broadcast receiving device 40100 side where the digital interface unit 40125 is omitted and a connection terminal of the monitor device 40300 side where the digital interface unit is omitted are connected by the connection cable 40200.
  • the monitor device 40300 may have the same configuration as the broadcast receiving device 100 shown in FIG. 7A.
  • the digital interface unit 125 corresponds to the above-described digital interface unit on the monitor device 40300 side, and the connection cable 40200 is connected to the connection terminal.
  • connection cable 40200 includes an n-pair differential transmission lane of CH1 to CHn, a DDC (Display Data Channel) line standardized by VESA (Video Electronics Standard Association), an HPD (Hot PlugDet). ) Line, CEC (Consumer Electronics Control) line, and the like.
  • the differential transmission lane may be referred to as a differential transmission line.
  • the n pairs of differential transmission lanes may be one pair of clock lanes and (n-1) pairs of data lanes.
  • all of the n pairs of differential transmission lanes may be data lanes for transmitting data on which a clock is superimposed.
  • n 4 and four pairs of data lanes may be used.
  • the clock lane and the data lane may be referred to as a clock line and a data line, respectively.
  • digital video (R / G / B / Vsync / Hsync, Y) is transmitted from the video synthesis unit 161 and the voice synthesis unit 164 via the transmission processing unit 40125b of the digital interface unit 40125 on the broadcast receiving device 40100 side.
  • / Pb (Cb) / Pr (Cr), etc.) / Audio signals, other control signals, etc. may be output in a predetermined format.
  • the predetermined format may conform to a specification such as HDMI (registered trademark), and detailed description thereof will be omitted.
  • the digital video / audio signals and other control signals are received by the reception processing unit 40325b of the digital interface unit on the monitor device 40300 side, and image quality adjustment and volume adjustment are performed by the video processing unit and audio processing unit (not shown). Necessary processing is appropriately performed, and the data is output from the display unit and the speaker of the monitor device 40300.
  • the connection cable 40200 is not shown in the figure, but may further include a power line, a GND line, and a spare line.
  • the n pairs of differential transmission lanes and communication lines may be shielded by a GND line.
  • All or a part of the spare line, the DDC line, the HPD line, and the CEC line may be used as a part of a communication line that performs network communication.
  • the spare line and the HPD line may constitute one transmission line and one reception line of the communication line, or one pair of transmission / reception lines.
  • the CEC line or the like may be omitted.
  • the DDC line may be used as an I2C (I-squared-C) communication line between the main control unit 101 of the broadcast receiving device 40100 and the main control unit (not shown) of the monitor device 40300.
  • the transmission processing unit 40125b of the digital interface unit 40125 on the broadcast receiving device 40100 side communicates with the reception processing unit 40325b of the digital interface unit on the monitor device 40300 side via the DDC line, and further, an EDID (Extended) is sent from the EDID storage unit 40325c. It is possible to read Display Identification Data. That is, the broadcast receiving device 40100 can grasp the display performance of the monitor device 40300 by acquiring the EDID.
  • the display performance refers to the input resolution and frame rate that can be supported by the monitor device 40300, the video standard, whether or not it can support 3D video display, or the monitor device 40300 can expand the HDR or color gamut. It is assumed that items such as whether or not the processing corresponding to the above can be performed.
  • the following explanation will be given by taking the process of acquiring the EDID as an example for the broadcast receiving device 40100 to grasp the display performance of the monitor device 40300.
  • the information to be acquired is not limited to EDID.
  • information that is different from EDID and that identifies performance identification information that identifies the display performance and function of the monitor device 40300 may be acquired.
  • the display performance of the monitor device 40300 may be grasped by means other than acquiring the performance identification information.
  • the transmission control unit 40125a of the digital interface unit 40125 on the broadcast receiving device 40100 side controls the transmission processing unit 40125b, and that the monitor device 40300 is connected via the HPD line and the power source of the monitor device 40300. It is possible to detect that is turned on. In addition, it is assumed that the transmission control unit 40125a of the digital interface unit 40125 on the broadcast receiving device 40100 side can perform processing for turning on the power of the monitor device 40300 through the CEC line or the like.
  • the reception control unit 40325a of the digital interface unit on the monitor device 40300 side also controls the reception processing unit 40325b.
  • connection cable 40200 shown in FIG. 36 the internal configuration of the digital interface unit 40125 of the broadcast receiving device 40100, and the internal configuration of the digital interface unit of the monitor device 40300 are merely examples, and may be different configurations. .
  • the content information descriptor shown in FIG. 29A is transmitted as control information related to the program content together with each message / table / descriptor of the aforementioned MMT-SI. Shall be.
  • the broadcast receiving apparatus 40100 according to the present embodiment does not include a monitor unit or a speaker that finally provides a video signal or an audio signal to the user, and is encoded video to the monitor apparatus 40300 via the connection cable 40200. / Audio data and the like are transmitted, and the video signal and audio signal are provided from the monitor device 40300 to the user. That is, processing such as color gamut conversion processing and luminance adjustment processing described in the third embodiment is performed on the monitor device 40300 side according to the display performance of the display unit of the monitor device 40300.
  • the broadcast receiving apparatus 40100 receives the content information descriptor from a broadcast wave and enables each parameter described in the received content information descriptor to enable the processes on the monitor apparatus 40300 side. Is appropriately selected and has a function of transmitting to the monitor device 40300 via the connection cable 40200 as mastering information in a predetermined format.
  • the connection cable 40200 is an HDMI (registered trademark) cable, and video data, audio data, other control signals, and the like output from the digital interface unit 40125 are in a format compliant with the HDMI (registered trademark) specification.
  • the mastering information may be output as a part of the other control signals.
  • FIG. 37 shows a list of parameters transmitted by the broadcast receiving device 40100 of this embodiment to the monitor device 40300 as mastering information.
  • Source_primaries_R [x, y] are parameters indicating information on the color reproduction performance of the source device, and are compatible with the source device.
  • the color gamut is indicated by coordinate values on the CIE chromaticity diagram of each primary color of R (red) / G (green) / B (blue).
  • Source_primaries_rx “Source_primaries_rx”, “source_prime_r”, “source_prime_gx”, “source_prime_gx”, “source_prime_gx”, “source_prime_gx”, “source_prime_gx”, “source_prime_gx” ] ”,“ Source_primaries_G [x, y] ”,“ source_primaries_B [x, y] ”parameters.
  • White_point_x, y is a parameter indicating information on the color reproduction performance of the source device, and indicates a coordinate value on the CIE chromaticity diagram of a white reference point that can be handled by the source device.
  • the “source_white_point_x” and “source_white_point_y” parameters described in the content information descriptor may be selected and output as the “white_point_x, y” parameters of the mastering information.
  • Max_source_mastering_luminance is a parameter indicating information on the maximum luminance that can be supported by the source device. The value is in the range of “1 (cd / m 2 : candela / square meter)” to “65535 (cd / m 2 )”.
  • the “source_luminance_max” parameter described in the content information descriptor may be selected and output as the “max_source_mastering_luminance” parameter of the mastering information.
  • Min_source_mastering_luminance is a parameter indicating information on the minimum luminance that can be supported by the source device. The value is in the range of “0.0001 (cd / m 2 )” to “6.5535 (cd / m 2 )”.
  • the “source_luminance_min” parameter described in the content information descriptor may be selected and output as the “min_source_mastering_luminance” parameter of the mastering information.
  • Maximum_Content_Light_Level is a parameter indicating the maximum luminance in the content. The value is in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”.
  • the “max_light_level_of_content” parameter described in the content information descriptor may be selected and output as the “Maximum_Content_Light_Level” parameter of the mastering information.
  • Maximum_Frame-average_Light_Level is a parameter indicating the maximum value of the average frame luminance within the content. The value is in the range of “1 (cd / m 2 )” to “65535 (cd / m 2 )”.
  • the “max_frame_ave_light_level” parameter described in the content information descriptor may be selected and output as the “Maximum_Frame-average_Light_Level” parameter of the mastering information.
  • Light Level Status is a 2-bit flag signal, and represents the status of the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter.
  • the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter indicate the maximum luminance and the maximum value of the frame average luminance throughout the content.
  • the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter indicate the maximum values of the maximum luminance and the frame average luminance for each scene (chapter).
  • this flag When the value of this flag is “10b”, it indicates that the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter are omitted. Instead of setting the value of this flag to “10b”, the value of the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter may be set to “0”.
  • the parameters described above are transmitted as mastering information by the broadcast receiving apparatus 40100 of the present embodiment to the monitor apparatus 40300 via the connection cable 40200, so that the monitor apparatus 40300 transmits the code transmitted from the broadcast receiving apparatus 40100. It is possible to perform processing such as color gamut conversion processing and luminance adjustment processing according to the display performance of the display unit of the monitor device 40300 on the converted video / audio data.
  • Each parameter of the mastering information described above may further include another parameter different from each parameter illustrated in FIG. 37, or may not include all the parameters. Further, different names may be used for the respective parameters.
  • the video content is content data (such as a live broadcast program) output from the photographing device 390c, and
  • the content information descriptor does not have a “max_light_level_of_content” parameter and a “max_frame_ave_light_level” parameter. That is, in a live broadcast program or the like, the maximum luminance and the maximum average luminance throughout the content are not fixed until the end of the program content.
  • the broadcast receiving apparatus 40100 outputs the mastering information by setting the values of the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter to “0”, respectively.
  • the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-level_average parameter” may be replaced with the “Maximum_Content_Light_Level” parameter and the “max_light_level_of_frame” parameter and the “frame_average_light_level” parameter of the content information descriptor.
  • the broadcast receiving device 40100 may create the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter. That is, by performing the video content recording process, the broadcast receiving device 40100 can scan the video content from the start to the end, and accordingly, the maximum luminance and the maximum value of the average luminance throughout the content. This is because it is possible to determine.
  • the broadcast receiving device 40100 When the video content recorded in the content storage area 1200 of the storage (accumulation) unit 110 by the recording process is output from the digital interface unit 40125 to the monitor device 40300 via the connection cable 40200 by the reproduction process, the broadcast receiving device 40100 is used. Is controlled to output the maximum luminance and the maximum average luminance throughout the content created by scanning the video content from the start to the end as the “Maximum_Content_Light_Level” parameter and the “Maximum_Frame-average_Light_Level” parameter. You can go. In other words, in the case of video content that has been recorded once, all parameters of the mastering information can be output to the monitor device 40300 regardless of the value of the “content_type” parameter of the content information descriptor. .
  • Each parameter of the above-described mastering information may be constantly output to the monitor device 40300 connected via the connection cable 40200.
  • the transmission processing unit 40125b of the digital interface unit 40125 on the broadcast receiving device 40100 side refers to the EDID acquired from the EDID storage unit 40325c of the monitor device 40300, and the monitor device 40300 can perform processing corresponding to HDR or color gamut expansion. Only when it is understood that, each parameter of the mastering information may be output to the monitor device 40300 via the connection cable 40200. Alternatively, only when the content information descriptor indicates that the video content of the broadcast program is a program that supports HDR, each parameter of the mastering information is monitored via the connection cable 40200. You may make it output to 40300.
  • the “content_type” parameter of the content information descriptor is “1”.
  • each parameter of the mastering information may be controlled according to the interface type of the digital interface unit 40125.
  • the interface type of the digital interface unit 40125 is an HDMI interface
  • control is performed so that each parameter of the mastering information is output
  • the interface type is a DVI interface
  • the parameters of the mastering information are not output. Control, etc.
  • the output of each parameter of the mastering information may be controlled according to the interface type of the digital interface unit 40125 on the broadcast receiving device 40100 side and the interface type of the digital interface unit on the monitor device 40300 side.
  • the interface type of the digital interface unit 40125 on the broadcast receiving device 40100 side and the interface type of the digital interface unit on the monitor device 40300 side are HDMI interfaces
  • control is performed so as to output each parameter of the mastering information.
  • the interface type of the digital interface unit 40125 on the broadcast receiving device 40100 side is an HDMI interface
  • the interface type of the digital interface unit on the monitor device 40300 side is not an HDMI interface (for example, a DVI interface, a Display Port interface, or the like). In this case, that is, when the connection cable 40200 is an interface conversion cable) Performs control so as not to output over data, and the like.
  • each of the digital interface terminals has the configuration shown in FIG. 36 or other configurations.
  • the first digital interface terminal is an HDMI interface and the second digital interface is not an HDMI interface
  • data is output from the first digital interface terminal
  • the video data and audio signals are included.
  • the output data generation process and the data output process may be controlled such that output data not including mastering information is generated and data is output from the second digital interface terminal.
  • the mastering information is transmitted together with the encoded video / audio data to the monitor apparatus 40300, so that the color gamut conversion process, the brightness adjustment process, etc. Can be suitably executed. That is, it is possible to provide a broadcast receiving apparatus that can execute a function with higher added value.
  • Example 5 of the present invention will be described.
  • the configuration, effects, and the like in this example are the same as those in Example 4 unless otherwise specified.
  • the difference between a present Example and Example 4 is mainly demonstrated, and in order to avoid duplication about a common point, description is abbreviate
  • FIG. 38 is a system configuration diagram illustrating an example of a broadcast communication system including the broadcast receiving apparatus of the present embodiment.
  • the broadcast communication system of FIG. 38 has the same configuration as the broadcast communication system of FIG. 34, but the output destination to which the broadcast receiving device 40100 outputs content is changed to the monitor device 40300 and the external video processing device 50300 is used. .
  • the content output destination includes a video playback device such as a recorder in addition to the display device.
  • the broadcast communication system including the broadcast receiving apparatus of the present embodiment it is transmitted together with the content received by the broadcast receiving apparatus 40100 via the broadcast tower 300t, the broadcast satellite (or communication satellite) 300s, and the broadcast station server 300.
  • the control information is referred to as “reception control information”.
  • control information This includes various control information described in the first embodiment and additional control information described in the present embodiment. Furthermore, in the broadcast communication system including the broadcast receiving apparatus of this embodiment, when the broadcast receiving apparatus 40100 outputs the content to the external video processing apparatus 50300 via the network via the router apparatus 200r, the control information transmitted together with the content is “output”. This is referred to as “control information”.
  • the hardware configuration of the broadcast receiving device Since the hardware configuration of the broadcast receiving device, the software configuration of the broadcast receiving device, the interface configuration of the broadcast receiving device and the monitor device, and the like are the same as those in the fourth embodiment, the description thereof will be omitted.
  • the digital interface unit 40125 can be output to the output destination on the network.
  • the output of the digital interface unit 40125 is not limited to the MMT data sequence, but may be an MPEG2-TS data sequence (or MPEG2-PS data sequence) transcoded from the MMT data sequence by the transcode processing unit 40181. This is an example configured as the “IP interface” described in the first embodiment.
  • the broadcast receiving device 40100 when the broadcast receiving device 40100 outputs the content to the external video processing device 50300 via the network via the router device 200r, the broadcast receiving device 40100 receives the content via the IP interface. Is output to the external video processing apparatus 50300.
  • the broadcast communication system of the present embodiment not only the SDR video content having a resolution of 1920 ⁇ 1080 pixels or less, but also the content exceeding the resolution of 1920 ⁇ 1080 pixels, High-definition content such as HDR video content can be transmitted.
  • the content protection when the receiver re-outputs these high-definition video contents broadcast by the broadcast communication system to the external device via the interface is higher than the content of the SDR video having a resolution of 1920 ⁇ 1080 pixels or less. Content protection is required.
  • “Enhanced Image” means a color space (for example, HDR such as BT.2020 or SMPTE2084) whose pixel count exceeds 1920 ⁇ 1080 or exceeds a color space of HD level (SDR such as BT.709). ).
  • “Non-Enhanced Image” refers to an image of HD image quality or less (for example, an image having a pixel number of 1920 ⁇ 1080 or less and a color space of an HD level (SDR such as BT.709)). Means content with video.
  • HDR HDR Flag
  • SDO SDO ⁇ Flag
  • “In case of“ Enhanced Image ” it cannot be output again unless it is L2 level content protection, but when“ Enhanced Image ”is converted to“ Non-Enhanced Image ”” Indicates that re-output is possible with L1 level content protection.
  • “1”, “L2 level regardless of whether the content is“ Enhanced Image ”or“ Non-Enhanced Image ” It can be re-output with both content protection and L1 level content protection ”.
  • the flags substantially corresponding to the above four flags of DTCP2 are not introduced as they are in the reception control information 50100 of FIG.
  • the DTCP2 flag is used as the output control information 50200 to perform more suitable content protection.
  • the reception control information 50100 information on the resolution of video of content, control information on digital copy of content, control information on storage and output of content, and the third embodiment
  • EOTF identification information transfer characteristic identification information described in Section 4 is used, and the broadcast receiving device 40100 outputs each IP content including the addition of the DTCP2 flag according to the information when outputting the IP interface. Output protection shall be determined.
  • the video resolution information of content used as one of the reception control information 50100 will be described.
  • a plurality of types of information regarding the resolution of the content video are transmitted in the broadcast communication system of the present embodiment.
  • the broadcast receiving apparatus 40100 may determine the resolution (number of pixels) of the content video using any of these plural types of information.
  • the encoding parameter stored in the HEVC encoded stream that is the video encoding method of the content of the broadcasting system of the present embodiment may be obtained and determined.
  • the encoding parameter described in the MH-HEVC video descriptor arranged in the MPT may be acquired and determined.
  • it may be determined by acquiring video resolution information described in the video component descriptor.
  • FIG. 40 shows descriptors related to control information related to digital copy of content transmitted in the broadcast communication system of the present embodiment and control information related to content storage and output.
  • the content copy control descriptor stores control information related to digital copy of content, information indicating a maximum transmission rate, or the like.
  • the content usage control descriptor stores information describing control information related to content accumulation and output.
  • the content copy control descriptor and the content usage control descriptor are transmitted in the MPT, for example.
  • FIG. 41A shows an example of the data structure of the content copy control descriptor in the broadcasting system of the present embodiment.
  • the “digital_recording_control_data” parameter in the figure is digital copy control information, and indicates information for controlling the copy generation of the content.
  • FIG. 41B shows an example of parameter values of the digital copy control information and their meanings. For example, when the parameter is “00”, it indicates “copying is possible without restriction conditions (synonymous with“ unlimited copying is possible ”)”, and when the parameter is “01”, definition by the operator is possible. Yes, when the parameter is “10”, “only one generation can be copied” is indicated, and when the parameter is “11”, “copy prohibited” is indicated.
  • FIG. 42 shows an example of the data structure of the content usage control descriptor in the broadcasting system of the present embodiment.
  • the “copy_restriction_mode” parameter in the figure indicates the copy restriction mode, and indicates whether or not the number-limited copy is possible (corresponding to “predetermined number of copies allowed in the first embodiment”).
  • the value of the “encryption_mode” parameter of the content use control descriptor shown in FIG. 42 is used for protection (encryption) control when outputting the IP interface.
  • the value of the “encryption_mode” parameter indicates “0” indicating that protection is required (encryption is required)
  • encryption processing is performed when content is output, and the value is “1” and protection is not required. If it indicates that (encryption is not required), the content may be output without performing protection (encryption processing).
  • the broadcast receiving apparatus 40100 acquires the “digital_recording_control_data” parameter of the above-described content copy control descriptor, the “copy_restriction_mode” parameter of the content usage control descriptor, and the like, and determines the output protection of the content of the IP interface output. It may be used for judgment.
  • the broadcast receiving apparatus 40100 uses not only the EOTF identification information as the reception control information 50100 but also the presence / absence or result of the resolution conversion processing of the content video in the broadcast receiving apparatus 40100, or the third and fourth embodiments.
  • the content output protection of the IP interface output may be determined using the presence / absence or result of the transfer characteristic conversion process described above, the presence / absence of the content accumulation process, or the state after the accumulation.
  • FIG. 43, FIG. 44, and FIG. 45 show an example of determination processing for output protection of IP interface output content in the broadcast receiving apparatus.
  • FIG. 43 shows determination of content output protection when the broadcast receiving apparatus 40100 receives content together with the reception control information 50100 and outputs the IP interface without performing resolution conversion processing or transfer characteristic conversion processing on the content video. The process is shown.
  • the main control unit 101 of the broadcast receiving apparatus 40100 determines content output protection when performing IP interface output based on information included in the reception control information 50100. Specifically, based on the combination of the “digital_recording_control_data” parameter of the content copy control descriptor, the “encryption_mode” parameter of the content usage control descriptor, the video resolution of the received content, and the transmission characteristic (EOTF) identification information, The content output protection when the IP interface is output is determined.
  • EOTF transmission characteristic
  • FIG. 43 Combination 1
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “copying is possible without restriction”
  • the “encryption_mode” parameter of the content usage control descriptor is set when the IP interface is output. It indicates that the protection state is “not protected”. In other words, in this case, it can be said that no content copy restriction or output protection is specified by any parameter.
  • the content may be output with DTCP1 (“DTCP-IP” described above) or DTCP2 protected.
  • the copy control state at the time of output should be set to “Copy ⁇ Free ”and encryption is not performed.
  • output control information may be determined as follows. Set “L2-Only” Flag to 0. “EI” Flag is 0 when the content is 2K or less and the transfer characteristic is SDR, and 1 otherwise. “HDR” Flag shall be 0. “SDO” Flag is set to 1.
  • the DTCP protection level of the IP interface output may be L1 level or L2 level, copy control is Copy Free, transfer characteristic conversion is not prohibited, and L1 level or L2 level regardless of the resolution or transfer characteristic state
  • the data is output in a state where re-output is possible. This means that the output is in the lowest protection state among the output control states of the IP interface output in this embodiment.
  • FIG. 43 Combinations 2 to 5
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “copying is possible without restriction”
  • the “encryption_mode” parameter of the content usage control descriptor is an IP interface output. It shows that the protection state at the time is “protect”.
  • the “encryption_mode” parameter of the content usage control descriptor specifies that protection is performed when the IP interface is output, output protection is performed by either DTCP2 or DTCP1 in any combination.
  • the copy control state is “EPN” indicating a state where there is no copy restriction but encryption is required, and encryption protection processing is performed.
  • which level of output protection processing DTCP2 or DTCP1 is to be performed is determined according to the combination of the video resolution of the received content and the transmission characteristic (EOTF) identification information.
  • the video resolution of the received content is 2K or lower content
  • the transfer characteristic (EOTF) identification information is SDR. Since this is so-called HD image quality content, conventional level output protection is sufficient, and output protection using DTCP1 is performed. In this case, naturally, output control information of DTCP2 is not added.
  • the condition that the resolution of the video of the received content is a content exceeding 2K or the transfer characteristic (EOTF) identification information is HDR is satisfied.
  • content protection is performed using DTCP2, which is a higher level of output protection than DTCP1.
  • output control information of DTCP2 added to the output content is determined as follows.
  • “L2-Only” Flag is set to 0 in any of the combinations 2, 3, and 4.
  • “L2-Only” lagFlag is set to 1
  • LTCP level content protection such as DTCP2
  • re-output is impossible.
  • viewing may not be possible (for example, when the device owned by the viewer is not compatible with DTCP2), and this situation is the situation of ⁇ broadcast '' content that many viewers receive simultaneously It is not desirable for protection. This is the reason for setting “L2-Only” Flag to 0.
  • “L2-Only” Flag is set to 0 in principle for the same reason.
  • “L2-Only” is set for “free broadcast”.
  • the flag may be set to 0 and “L2-Only” Flag may be set to 1 for “paid broadcasting”. This is because the viewers of “paid broadcast” are limited, and a particularly high protection level is required for the content of “paid broadcast”.
  • “EI” Flag is 1 in any of the combinations 2, 3, and 4. This is because the video content resolution of the received content is a content exceeding 2K or the transfer characteristic (EOTF) identification information is HDR.
  • EOTF transfer characteristic
  • “HDR” Flag is 0.
  • the transfer characteristic (EOTF) identification information is HDR, and if it is output as it is, the transfer characteristic of the content when the IP interface is output is also HDR.
  • “HDR” ⁇ Flag is set to 1, it becomes impossible to perform transfer characteristic conversion processing on the output destination device and convert it to SDR content. In this case, there is a possibility that viewing may be impossible depending on the device held by the viewer (when the device held by the viewer does not support HDR content). This situation is undesirable for protection of “broadcast” content that many viewers receive simultaneously. This is the reason for setting “HDR” Flag to 0.
  • HDR Flag is set to 0 for the same reason.
  • “HDR” Flag is set for “free broadcast”.
  • “HDR” DRFlag may be set to 1 for “paid broadcasting”. This is because the viewers of “paid broadcast” are limited, and there are service providers who believe that the content of “paid broadcast” is worth viewing with high-quality HDR image quality.
  • the transfer characteristic (EOTF) identification information is SDR, and if output as it is, the transfer characteristic of the content when the IP interface is output is also SDR. Therefore, it is not necessary to add “HDR” Flag indicating whether or not transfer characteristics conversion processing of HDR content to SDR is possible.
  • “SDO” Flag is 0 in any of the combinations 2, 3, and 4.
  • the protection at the time of IP interface output is specified by the “encryption_mode” parameter of the content usage control descriptor, it is desirable that content with a resolution exceeding 2K or content with transfer characteristics of HDR be protected at a high protection level.
  • “broadcasting" technology that assumes that many viewers receive simultaneously, we want to avoid situations where some viewers who use devices that do not support L2 level content protection cannot view content at all. .
  • the copy restriction and content output protection are controlled by the “digital_recording_control_data” parameter of the content copy control descriptor and the “encryption_mode” parameter of the content usage control descriptor. If it is specified, or if the content storage processing status indicates copy restriction or content output protection, “SDO” and Flag are set to 0 for the same reason.
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates that “only one generation can be copied”.
  • output protection is performed by either DTCP2 or DTCP1.
  • the copy control status is “Copy One Generation” indicating that only one generation can be copied, and encryption protection processing is performed.
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “copy prohibited”.
  • output protection is performed by either DTCP2 or DTCP1.
  • the copy control state is “Copy Never” indicating copy prohibition, and encryption protection processing is performed.
  • the content output protection determination process in the case of performing the IP interface output of FIG. 43 described above, the content is received together with the reception control information 50100, and the video of the content is not subjected to the resolution conversion process or the transfer characteristic conversion process.
  • IP interface output it is possible to realize a balanced content output protection from both the viewpoint of output protection with respect to the image quality of the content video and the viewpoint of convenience of viewers of the broadcast content.
  • FIG. 44 illustrates determination of content output protection when the broadcast receiving apparatus 40100 receives content together with the reception control information 50100 and performs resolution conversion processing and transfer characteristic conversion processing on the content video to perform IP interface output.
  • the process is shown.
  • the broadcast receiving apparatus 40100 of this embodiment performs resolution conversion processing and / or transfer characteristic conversion processing on the received content video.
  • the resolution conversion process may be executed by providing a resolution processing unit between the video decoder 141 and the video color gamut conversion unit 142 of the broadcast receiving apparatus 40100 of FIG. 35A.
  • the transfer characteristic conversion process may be executed by the video color gamut conversion unit 142 as already described in the third and fourth embodiments.
  • reception control information 50100 determination of content output protection when performing IP interface output in consideration of the resolution of the video after the resolution conversion process and / or the transfer characteristic after the transfer characteristic conversion process To do.
  • video resolution of “reception control information” in FIG. 43
  • transfer characteristic identification information of “reception control information”
  • ETOF an item of “transfer characteristic at output” of “state at output” is provided.
  • the main control unit 101 of the reception control information 50100 determines “output video resolution” of “output state” and “output transfer characteristic” of “output state” based on the following determination.
  • the broadcast receiving device 40100 of this embodiment performs resolution conversion processing on the received content video and does not perform transfer characteristic conversion processing
  • the resolution of the video after the resolution conversion processing is set to “output state” “
  • the output video resolution is determined, and the transfer characteristic indicated by “transfer characteristic identification information (ETOF)” of “reception control information” may be determined as “output transfer characteristic” of “output state”.
  • ETOF transfer characteristic identification information
  • the broadcast receiving apparatus 40100 when the broadcast receiving apparatus 40100 according to the present embodiment performs the transfer characteristic conversion process without performing the resolution conversion process on the received content video, the “video resolution” of the “reception control information” is set to the “output state”. Therefore, it is only necessary to determine the “transmission characteristic at the time of output” in the “output state”.
  • the broadcast receiving apparatus 40100 of this embodiment performs both resolution conversion processing and transfer characteristic conversion processing on the received content video
  • the resolution of the video after the resolution conversion processing is set to “output state” “output”. It is only necessary to determine “time video resolution” and determine the transfer characteristic after the transfer characteristic conversion process as “output time transfer characteristic” of “output state”.
  • the broadcast receiving apparatus 40100 of the present embodiment uses the “video resolution at output” of the “output state” and the “transfer characteristic at output” of the “output state” determined by the determination described above. 44, content output protection determination processing is performed when the IP interface output shown in FIG. 44 is performed.
  • “video resolution” of “reception control information” is read as “video resolution at output” of “output state”
  • the IP interface output control in each of the combinations 1 to 13 of “transfer characteristics” includes the “digital_recording_control_data” parameter of the content copy control descriptor and the “encryption_mode” parameter of the content usage control descriptor of “reception control information” in FIG. Since it is the same as the IP interface output control in each of the combinations 1 to 13 of “image resolution” and “transfer characteristic identification information (ETOF)”, Description of the time is omitted.
  • the content is received together with the reception control information 50100, and the resolution conversion process and / or the transfer characteristic conversion process is performed on the video of the content.
  • IP interface output it is possible to realize content output protection that is well-balanced in terms of both output protection with respect to image quality of content video and convenience of viewers of broadcast content.
  • FIG. 45 shows determination processing for content output protection when the broadcast receiving device 40100 receives content together with the reception control information 50100, performs storage processing on the content, and then performs IP interface output. is there. Since the outline of the accumulation process has already been described in the first embodiment, the description thereof will be omitted.
  • the broadcast receiving device 40100 uses the “digital_recording_control_data” parameter of the content copy control descriptor included in the reception control information 50100, the “encryption_mode” parameter of the content usage control descriptor, and the “copy_restriction_mode” parameter of the content usage control descriptor.
  • the accumulation control state of the accumulation target content is determined.
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “can be copied without constraint”
  • the “encryption_mode” parameter of the content usage control descriptor indicates “not protected” (in combination 1 in FIG. 45)
  • the storage control state is “accumulation without copy restrictions and no encryption_mode protection”.
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “copying is possible without constraint”
  • the “encryption_mode” parameter of the content usage control descriptor indicates “protect” (combinations 2 to 5 in FIG. 45).
  • the storage control state is “accumulation without copy restrictions and encryption_mode protection” regardless of the value of the “copy_restriction_mode” parameter of the content usage control descriptor.
  • the “digital_recording_control_data” parameter of the content copy control descriptor indicates “copy prohibited” (examples of combinations 14 to 17 in FIG. 45)
  • the content can be stored in the “digital_recording_control_data_data” of the content copy control descriptor.
  • the parameter and the content use control descriptor “copy_restriction_mode” indicate any value, but are limited to the “temporary storage” storage control state. Since the outline of “temporary storage” has already been described in the first embodiment, the description thereof will be omitted.
  • the broadcast receiving device 40100 includes the “digital_recording_control_data” parameter of the content copy control descriptor, the “encryption_mode” parameter of the content usage control descriptor, and the “copy_restriction_mode” parameter of the content usage control descriptor included in the reception control information 50100. Are used to determine the storage control state of the content to be stored.
  • the broadcast receiving apparatus 40100 when the stored content is output from the IP interface, the broadcast receiving apparatus 40100, the storage control state of the content, the “video resolution at output” and the “transfer characteristic at output” when the content is output In response to “”, the output protection of the IP interface output content is determined.
  • resolution conversion processing and / or transfer characteristic conversion processing may be performed on content video before and after content storage processing. This is common to the example of FIG. 44 in that resolution conversion processing and / or transfer characteristic conversion processing may be performed before the broadcast receiving device 40100 receives content and outputs it from the IP interface. Therefore, the determination of “output video resolution” and “output transfer characteristic” in the broadcast receiving apparatus 40100 may be performed in the same manner as in the example of FIG.
  • FIG. 45 Combination 1
  • the content of the same combination as in the combination 1 in FIG. Output control may be performed. Since it will be repeated, the description will not be repeated.
  • FIG. 45 Combinations 2 to 5
  • combinations 2 to 5 in FIG. 45 that is, when content in an accumulation control state of “accumulation without copy restrictions and encryption_mode protection” is output to the IP interface, combinations 2 to 5 in FIG. Similar output control may be performed. Since it will be repeated, the description will not be repeated.
  • FIG. 45 Combinations 6 to 9] 45.
  • the output processing is output for viewing on the output destination device.
  • a copy control state at the time of output differs depending on whether the content is moved to an output destination device. Specifically, when the IP interface output is a viewing output, the copy control state is output as “No More Copies” indicating that re-copying is prohibited. If the IP interface output is Move, the copy control status is output as “Move”.
  • the other content protection control at the IP interface output is the same as each of the combinations 6, 7, 8, and 9 shown in FIG. The description will not be repeated.
  • each of the combinations 10, 11, 12 and 13, that is, the content protection control in the case where the content in the storage control state of “number limited copy is possible” is output to the IP interface is the combination 6, 7, 8 of FIG. , 9 are substantially the same as the respective examples.
  • the differences are as follows.
  • content whose storage control status is “recopy prohibited” is output to the IP interface, if the move process is performed once, the broadcast receiving device 40100 needs to disable the playback of the content (until the content is disabled to be played back). The output for viewing is possible any number of times).
  • the storage control state is “number limited copy is possible”
  • a plurality of copy processes and finally a move process can be performed once for an output destination device via an IP interface output.
  • the copy process is performed nine times, and finally the move process can be performed once.
  • the broadcast receiving device 40100 needs to disable the reproduction of the content.
  • the broadcast receiving apparatus 40100 treats each copy process several times as a copy process, and each content of the copy process has a copy control state in the protection process of the IP interface output. Output as “Move”.
  • the content output protection determination process in the case of performing the IP interface output of FIG. 45 described above, when the content is received together with the reception control information 50100, the content is accumulated, and the IP interface output is performed, the content of the content is protected.
  • a well-balanced content output protection can be realized from both the viewpoint of output protection with respect to video image quality and the convenience of viewers of broadcast content.
  • the control information related to the digital copy of the content and the control information related to the storage and output of the content, the storage state of the content, the resolution of the video of the content, and the content It is possible to perform content output protection control with a good balance in terms of both output protection with respect to image quality of content video and convenience of viewers of broadcast content in accordance with video transmission characteristics and the like. That is, according to the broadcast communication system and the broadcast receiving apparatus 40100 of the present embodiment, it is possible to perform more preferable content output protection control.
  • Example 1-5 the structure which implement
  • numerical values, messages, and the like appearing in sentences and drawings are merely examples, and the use of different ones does not impair the effects of the present invention.
  • the functions and the like of the present invention described above may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, the microprocessor unit or the like may be realized by software by interpreting and executing an operation program that realizes each function or the like. Hardware and software may be used together.
  • the software that controls the broadcast receiving apparatus 100 may be stored in advance in the ROM 103 and / or the storage (storage) unit 110 of the broadcast receiving apparatus 100 at the time of product shipment. It may be acquired from another application server 500 on the Internet 200 via the LAN communication unit 121 after product shipment. Further, the software stored in a memory card, an optical disk, or the like may be acquired via the expansion interface unit 124 or the like.
  • control lines and information lines shown in the figure are those that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • 100, 800, 40100 ... broadcast receiving device 100a, 40100a ... antenna, 101, 801 ... main control unit, 102, 802 ... system bus, 103, 803 ... ROM, 104, 804 ... RAM, 110, 810 ... storage unit, 121, 821 ... LAN communication unit, 124, 824 ... Expansion interface unit, 125, 825, 40125 ... Digital interface unit, 131, 831, 832 ... Tuner / demodulation unit, 132 ... Separation unit, 141 ... Video decoder, 142 ... Video Color gamut conversion unit, 143 ... audio decoder, 144 ... character super decoder, 145 ... subtitle decoder, 146 ...
  • subtitle synthesis unit 147 ... subtitle color gamut conversion unit, 151 ... data decoder, 152 ... cache unit, 153 ... application control unit 154 Browser part, 155 Application Gamut conversion unit, 156... Sound source unit, 161, 861... Video composition unit, 162, 862... Monitor unit, 163, 863 ... video output unit, 164, 864. , 866 ... Audio output unit, 170, 870 ... Operation input unit, 40181 ... Transcode processing unit, 841 ... MMT decoding processing unit, 842 ... MPEG2-TS decoding processing unit, 200 ... Internet, 200r ... Router device, 200a ... Access Point, 300t ... Radio tower, 300s ... Broadcast satellite (or communication satellite), 300 ...
  • Broadcast station server 390c ... Shooting equipment, 390e ... Editing equipment, 400 ... Service provider server, 500 ... Other application servers, 600 ... Move Body phone communication server, 600b ... base station, 700 ... portable information terminal 40200 ... connection cable, 40300 ... monitoring device.

Abstract

より付加価値の高い機能を実行可能なデジタル放送受信機を提供すること。コンテンツを受信する放送受信装置であって、前記コンテンツを受信する受信部と、前記受信部で受信したコンテンツを出力するためのインタフェースと、前記インタフェースからのコンテンツの出力状態を制御する制御部と、を備え、前記制御部は、前記受信部で前記コンテンツとともに受信する、前記コンテンツのコピー制御状態を示す制御情報と、前記コンテンツの出力時の保護の要否を指定する制御情報と、前記コンテンツの映像の解像度を示す情報と、前記コンテンツの映像の伝達特性を示す情報の組み合わせに応じて、前記インタフェースからのコンテンツの出力状態を決定する。

Description

放送受信装置
 本発明は、放送受信装置に関する。
 デジタル放送サービスの拡張機能の1つに、放送波でデジタルデータを送信し、天気予報やニュース、おすすめ番組等の各種情報を表示するデータ放送がある。データ放送を受信可能なテレビ受信機は既に多数市販されており、また、データ放送受信に関する技術も下記特許文献1をはじめ多数が公表されている。
特開2001-186486号公報
 近年のコンテンツ配信に関する環境変化に対して、テレビ受信機も様々な機能拡張を求められている。特にインターネット等のブロードバンドネットワーク環境を利用したコンテンツや連携アプリケーションの配信に対する要求、および、映像コンテンツの高解像度化/高精細化に対する要求、等が多い。しかしながら、現行のテレビ受信機が備えるデータ放送受信機能等のみの流用、或いは、前記データ放送受信機能等の機能拡張のみでは、前記要求に応え得る高付加価値のテレビ受信機を提供することは難しい。
 本発明の目的は、より付加価値の高い機能を実行可能な放送受信装置を提供することである。
 前記課題を解決するための手段として、特許請求の範囲に記載の技術を用いる。
 一例を挙げるならば、コンテンツを受信する放送受信装置であって、前記コンテンツを受信する受信部と、前記受信部で受信したコンテンツを出力するためのインタフェースと、前記インタフェースからのコンテンツの出力状態を制御する制御部と、を備え、前記制御部は、前記受信部で前記コンテンツとともに受信する、前記コンテンツのコピー制御状態を示す制御情報と、前記コンテンツの出力時の保護の要否を指定する制御情報と、前記コンテンツの映像の解像度を示す情報と、前記コンテンツの映像の伝達特性を示す情報の組み合わせに応じて、前記インタフェースからのコンテンツの出力状態を決定する、放送受信装置、を用いる。
 本発明の技術を用いることにより、より付加価値の高い機能を実行可能な放送受信装置を提供することができる。
実施例1に係る放送受信装置を含む放送通信システムの一例を示すシステム構成図である。 MMTにおける符号化信号の概要の説明図である。 MMTにおけるMPUの構成図である。 MMTにおけるMMTPパケットの構成図である。 MMTを用いる放送システムのプロトコルスタックの概念図である。 放送システムで用いる制御情報の階層構成図である。 放送システムのTLV-SIで使用されるテーブルの一覧である。 放送システムのTLV-SIで使用される記述子の一覧である。 放送システムのMMT-SIで使用されるメッセージの一覧である。 放送システムのMMT-SIで使用されるテーブルの一覧である。 放送システムのMMT-SIで使用される記述子の一覧(その1)である。 放送システムのMMT-SIで使用される記述子の一覧(その2)である。 放送システムのデータ伝送と各テーブルの関係を示す図である。 実施例1に係る放送受信装置のブロック図である。 実施例1に係る放送受信装置の提示機能の論理的プレーン構造の構成図である。 実施例1に係る放送受信装置のクロック同期/提示同期のシステム構成図である。 実施例1に係る放送受信装置のソフトウェア構成図である。 実施例1に係る放送局サーバのブロック図である。 実施例1に係るサービス事業者サーバのブロック図である。 実施例1に係る携帯情報端末のブロック図である。 実施例1に係る携帯情報端末のソフトウェア構成図である。 放送システムのMH-TOTのデータ構造を示す図である。 放送システムのJST_timeパラメータのフォーマットを示す図である。 実施例1に係る放送受信装置のMJDからの現在日付の算出方法を示す図である。 放送システムのNTP形式の構成を示す図である。 放送システムのMPUタイムスタンプ記述子のデータ構造を示す図である。 放送システムのTMCC拡張情報領域の時刻情報のデータ構造を示す図である。 実施例1に係る放送受信装置のチャンネルスキャン時の動作シーケンス図である。 放送システムのTLV-NITのデータ構造を示す図である。 放送システムの衛星分配システム記述子のデータ構造を示す図である。 放送システムのサービスリスト記述子のデータ構造を示す図である。 放送システムのAMTのデータ構造を示す図である。 実施例1に係る放送受信装置の選局時の動作シーケンス図である。 放送システムのMPTのデータ構造を示す図である。 放送システムのLCTのデータ構造を示す図である。 LCTに基づくレイアウト番号へのレイアウトの割当の例を示す図である。 LCTに基づくレイアウト番号へのレイアウトの割当の例を示す図である。 LCTに基づくレイアウト番号へのレイアウトの割当の例を示す図である。 LCTに基づくレイアウト番号へのレイアウトの割当の例を示す図である。 LCTに基づく画面レイアウト制御の例外処理の動作を説明する図である。 LCTに基づく画面レイアウト制御の例外処理の動作を説明する図である。 放送システムのMH-EITのデータ構造を示す図である。 実施例1に係る放送受信装置のEPG画面の画面表示図である。 実施例1に係る放送受信装置のEPG画面の画面表示図である。 実施例1に係る放送受信装置のEPG画面の画面表示図である。 実施例1に係る放送受信装置の緊急警報放送表示時の画面表示図である。 実施例2に係る放送受信装置のブロック図である。 放送サービス切り替え時の現在時刻表示の不整合を説明する図である。 実施例2に係る現在時刻情報参照元の選択制御の動作を説明する図である。 実施例2に係る現在時刻情報の更新処理の動作シーケンス図である。 実施例2に係る放送受信装置のEPG画面の画面表示図である。 実施例2に係る放送受信装置のEPG画面の画面表示図である。 実施例3に係る放送通信システムのシステム構成図である。 放送システムのコンテンツ情報記述子のデータ構造を示す図である。 放送システムのコンテンツ情報記述子におけるコンテンツタイプの意味を説明する図である。 放送システムのコンテンツ情報記述子におけるソース機器原色色度座標およびソース機器白色色度座標の意味を説明する図である。 放送システムのコンテンツ情報記述子におけるEOTF識別の意味を説明する図である。 実施例3に係る放送受信装置のEPG画面の画面表示図である。 ソース機器とモニタ装置の色域のずれを説明する図である。 実施例3に係る放送受信装置の色域変換処理を説明する図である。 実施例3に係る放送受信装置の色域変換処理を説明する図である。 実施例3に係る放送受信装置の画質調整項目を説明する図である。 実施例3に係る放送受信装置の輝度レベルの変換処理を説明する図である。 実施例3に係る放送受信装置の輝度レベルの変換処理を説明する図である。 実施例4に係る放送通信システムのシステム構成図である。 実施例4に係る放送受信装置のブロック図である。 実施例4に係る放送受信装置のソフトウェア構成図である。 実施例4に係る放送受信装置とモニタ装置のインタフェース構成図である。 実施例4に係る放送受信装置が出力するマスタリング情報を説明する図である。 実施例5に係る放送通信システムのシステム構成図である。 実施例5に係る出力制御情報の一例を説明する図である。 実施例5に係る受信制御情報の一例を説明する図である。 実施例5に係る受信制御情報の一例を説明する図である。 実施例5に係る受信制御情報の一例を説明する図である。 実施例5に係る受信制御情報の一例を説明する図である。 実施例5に係るコンテンツの出力保護の決定処理の一例を説明する図である。 実施例5に係るコンテンツの出力保護の決定処理の一例を説明する図である。 実施例5に係るコンテンツの出力保護の決定処理の一例を説明する図である。
 以下、本発明の実施形態の例を、図面を用いて説明する。
 (実施例1)
 [システム構成]
 図1は、本実施例の放送受信装置を含む放送通信システムの一例を示すシステム構成図である。本実施例の放送通信システムは、放送受信装置100とアンテナ100a、インターネット200等のブロードバンドネットワークおよびルータ装置200rとアクセスポイント200a、放送局の電波塔300tと放送衛星(または通信衛星)300s、放送局サーバ300、サービス事業者サーバ400、その他のアプリケーションサーバ500、移動体電話通信サーバ600と移動体電話通信網の基地局600b、携帯情報端末700、で構成される。
 放送受信装置100は、電波塔300tから送出された放送波を、放送衛星(または通信衛星)300sおよびアンテナ100aを介して受信する。或いは、電波塔300tから送出された放送波を、放送衛星(または通信衛星)300sを介さずに、直接アンテナ100aから受信しても良い。また、放送受信装置100は、ルータ装置200rを介してインターネット200と接続可能であり、インターネット200上の各サーバ装置やその他の通信機器との通信によるデータの送受信が可能である。
 ルータ装置200rは、インターネット200と有線通信により接続され、また、放送受信装置100とは有線通信または無線通信で、携帯情報端末700とは無線通信で接続される。前記無線通信は、Wi-Fi(登録商標)等の方式が使用されて良い。これにより、インターネット200上の各サーバ装置やその他の通信機器と放送受信装置100と携帯情報端末700とが、ルータ装置200rを介して、データの送受信を相互に行うことが可能となる。なお、放送受信装置100と携帯情報端末700との通信は、ルータ装置200rを介さずに、BlueTooth(登録商標)やNFC(Near Field Communication)等の方式で直接通信を行っても良い。
 電波塔300tは、放送局の放送設備であり、放送番組の符号化データや字幕情報、その他のアプリケーション、汎用データ、等を含む放送波を送出する。放送衛星(または通信衛星)300sは、放送局の電波塔300tから送信された放送波を受信し、適宜周波数変換等を行った後に、放送受信装置100に接続されたアンテナ100aに対して前記放送波を再送信する中継器である。また、前記放送局は放送局サーバ300を備えるものとする。放送局サーバ300は、放送番組(動画コンテンツ等)および各放送番組の番組タイトル、番組ID、番組概要、出演者情報、放送日時、等のメタデータを記憶し、前記動画コンテンツや各メタデータを、契約に基づいて、サービス事業者に対して提供することが可能であるものとする。なお、サービス事業者に対する前記動画コンテンツおよび各メタデータの提供は、放送局サーバ300が備えるAPI(Application Programming Interface)を通して行われるものであって良い。
 サービス事業者サーバ400は、サービス事業者が用意するサーバ装置であり、放送局から配信される放送番組に連携した各種サービスを提供することが可能であるものとする。また、サービス事業者サーバ400は、放送局サーバ300から提供された動画コンテンツおよびメタデータや、放送番組に連携する各種コンテンツおよびアプリケーション等の記憶、管理および配信等を行う。また、テレビ受信機等からの問い合わせに対して、提供可能なコンテンツやアプリケーション等の検索や一覧の提供を行う機能も有するものとする。なお、前記コンテンツおよびメタデータの記憶、管理および配信と、前記アプリケーションの記憶、管理および配信は、異なるサーバ装置が行うものであっても良い。前記放送局と前記サービス事業者は同一であっても良いし、異なっていても良い。サービス事業者サーバ400は、異なるサービス毎に複数用意されても良い。また、サービス事業者サーバ400の機能は、放送局サーバ300が兼ね備えるものであっても良い。
 その他のアプリケーションサーバ500は、その他の一般的なアプリケーションや動作プログラム、コンテンツ、データ、等の記憶、管理および配信等を行う公知のサーバ装置である。その他のアプリケーションサーバ500は、インターネット200上に複数あっても良い。
 移動体電話通信サーバ600は、インターネット200と接続され、一方、基地局600bを介して携帯情報端末700と接続される。移動体電話通信サーバ600は、携帯情報端末700の移動体電話通信網を介した電話通信(通話)およびデータ送受信を管理し、携帯情報端末700とインターネット200上の各サーバ装置やその他の通信機器との通信によるデータの送受信を可能とする。基地局600bと携帯情報端末700との通信は、W-CDMA(Wideband Code Division Multiple Access)(登録商標)方式やGSM(Global System for Mobile communications)(登録商標)方式、LTE(Long Term Evolution)方式、或いはその他の通信方式によって行われるものであって良い。
 携帯情報端末700は、移動体電話通信網を介した電話通信(通話)およびデータ送受信の機能やWi-Fi(登録商標)等による無線通信の機能を有するものとする。携帯情報端末700は、ルータ装置200rやアクセスポイント200aを介して、或いは、移動体電話通信網の基地局600bおよび移動体電話通信サーバ600を介して、インターネット200と接続可能であり、インターネット200上の各サーバ装置やその他の通信機器との通信によるデータの送受信が可能である。アクセスポイント200aは、インターネット200と有線通信により接続され、また、携帯情報端末700とは無線通信で接続される。前記無線通信は、Wi-Fi(登録商標)等の方式が使用されて良い。なお、携帯情報端末700と放送受信装置100との通信は、アクセスポイント200aおよびインターネット200とルータ装置200rを介して、或いは、基地局600bと移動体電話通信サーバ600およびインターネット200とルータ装置200rを介して行われるものであっても良い。
 [MMT方式の概要]
 図1に示した放送受信装置100は、映像や音声等のデータを伝送するメディアトランスポート方式として、従来のデジタル放送システムで多く採用されているMPEG(Moving Picture Experts Group)-2システムで規定されたTS(Transport Stream)(以下、MPEG2-TSと記述する。)に代替して、MMT(MPEG Media Transport)に対応可能なテレビ受信機であるものとする。MPEG2-TSとMMTの双方に対応可能なテレビ受信機であっても良い。
 MPEG2-TSは、番組を構成する映像や音声等のコンポーネントを、制御信号やクロックと共に1つのストリームに多重することを特徴とする。クロックも含めて1つのストリームとして扱うため、伝送品質が確保された1つの伝送路で1つのコンテンツを伝送するのに適しており、従来の多くのデジタル放送システムで採用された。一方、近年のコンテンツの多様化、コンテンツを利用する機器の多様化、コンテンツを配信する伝送路の多様化、コンテンツ蓄積環境の多様化、等、コンテンツ配信に関する環境変化に対してMPEG2-TSの機能に限界があることから、新たに策定されたメディアトランスポート方式がMMTである。
 図2Aに、本実施例のMMTにおける符号化信号の概要の一例を示す。同図に示したように、本実施例のMMTは、符号化信号を構成する要素として、MFU(Media Fragment Unit)、MPU(Media Processing Unit)、MMTP(MMT Protocol)ペイロード、MMTPパケットを有するものとする。MFUは、映像や音声等の伝送時の形式であり、NAL(Network Abstraction Layer)ユニット単位やアクセスユニット単位で構成されて良い。MPUは、MPU全体の構成に関する情報を含むMPUメタデータと、符号化したメディアデータの情報を含むムービーフラグメントメタデータと、符号化したメディアデータであるサンプルデータと、で構成されて良い。また、サンプルデータからはMFUを取り出すことが可能であるものとする。また、映像コンポーネントや音声コンポーネント等のメディアの場合、MPU単位やアクセスユニット単位で提示時刻や復号時刻が指定されても良い。図2Bに、MPUの構成の一例を示す。
 MMTPパケットは、ヘッダ部とMMTPペイロードで構成され、MFUおよびMMTの制御情報を伝送するものとする。MMTPペイロードは、ペイロード部に格納する内容(データユニット)に応じたペイロードヘッダを備えるものとする。図2Cに、映像/音声信号からMFUを構成し、更にMMTPペイロードに格納して、MMTPパケットを構成するまでの概要の一例を示す。なお、フレーム間予測を用いて符号化を行う映像信号では、MPUをGOP(Group Of Pictures)単位で構成することが望ましい。また、伝送するMFUの大きさが小さい場合、1つのペイロード部に1つのMFUを格納しても良いし、1つのペイロード部に複数のMFUを格納しても良い。また、伝送するMFUの大きさが大きい場合には、1つのMFUを複数のペイロード部に分割して格納しても良い。また、MMTPパケットは、伝送路上におけるパケットロスを回復するために、AL-FEC(Application Layer Forward Error Correction)やARQ(Automatic Repeat Request)等の技術を用いて保護されて良い。
 本実施例の放送システムにおいては、映像符号化方式としてMPEG-H HEVC(High Efficiency Video Coding)が用いられ、音声符号化方式としてMPEG-4 AAC(Advanced Audio Coding)またはMPEG-4 ALS(Audio Lossless Coding)が用いられるものとする。前記各方式により符号化された、放送番組の映像や音声等の符号化データは、MFUやMPUの形式とし、更にMMTPペイロードに乗せてMMTPパケット化して、IP(Internet Protocol)パケットで伝送するものとする。また、放送番組に関連するデータコンテンツに関してもMFUやMPUの形式とし、更にMMTPペイロードに乗せてMMTPパケット化して、IPパケットで伝送して良い。データコンテンツの伝送方式としては、放送に同期したデータのストリーミングに用いる字幕/文字スーパー伝送方式、放送と非同期のデータ伝送に用いるアプリケーション伝送方式、テレビ受信機上で動作するアプリケーションに対する同期/非同期のメッセージ通知に用いるイベントメッセージ伝送方式、その他の汎用データを同期型/非同期型で伝送する汎用データ伝送方式、の四種類が用意されるものとする。
 MMTPパケットの伝送には、放送伝送路ではUDP/IP(User Datagram Protocol/Internet Protocol)が用いられ、通信回線ではUDP/IPまたはTCP/IP(Transmission Control Protocol/Internet Protocol)が用いられるものとする。また、放送伝送路においては、IPパケットの効率的な伝送のためにTLV(Type Length Value)多重化方式が用いられるものとする。本実施例の放送システムのプロトコルスタックの一例を図3に示す。図中、(A)は放送伝送路におけるプロトコルスタックの一例であり、(B)は通信回線におけるプロトコルスタックの一例である。
 本実施例の放送システムでは、MMT-SI(MMT-Signaling Information)とTLV-SI(TLV-Signaling Information)の二種類の制御情報を伝送する仕組みを用意するものとする。MMT-SIは、放送番組の構成等を示す制御情報である。MMTの制御メッセージの形式とし、MMTPペイロードに乗せてMMTPパケット化して、IPパケットで伝送するものとする。TLV-SIは、IPパケットの多重に関する制御情報であり、選局のための情報やIPアドレスとサービスの対応情報を提供するものとする。
 また、MMTを用いた放送システムにおいても、絶対時刻を提供するために時刻情報を伝送するものとする。なお、MPEG2-TSがTS毎に異なるクロックをベースとしてコンポーネントの表示時刻を示していたのに対し、MMTでは、協定世界時刻(Coordinated Universal Time:UTC)をベースとしてコンポーネントの表示時刻を示すものとする。これらの仕組みにより、異なる送信点から異なる伝送路で伝送されたコンポーネントを端末機器が同期して表示することが可能となる。UTCを提供するために、NTP(Network Time Protocol)形式のIPパケットを用いるものとする。
 [MMTを用いる放送システムの制御情報]
 本実施例の放送受信装置100が対応する放送システムでは、前述したように、制御情報として、IPパケットの多重のためのTLV多重化方式に関わるTLV-SIと、メディアトランスポート方式であるMMTに関わるMMT-SIを用意する。TLV-SIは、放送伝送路に多重化されたIPパケットを、放送受信装置100が多重解除するための情報を提供する。TLV-SIは、『テーブル』と『記述子』で構成される。『テーブル』はセクション形式で伝送され、『記述子』は『テーブル』内に配置されるものとする。MMT-SIは、MMTのパッケージの構成や放送サービスに関連する情報を示す伝送制御情報である。MMT-SIは、『テーブル』や『記述子』を格納する『メッセージ』、特定の情報を示す要素や属性を持つ『テーブル』、より詳細な情報を示す『記述子』の三階層で構成されるものとする。本実施例の放送システムで用いる制御情報の階層構成の一例を図4に示す。
 <TLV-SIで使用されるテーブル>
 図5Aに、本実施例の放送受信装置100が対応する放送システムのTLV-SIで使用される『テーブル』の一覧を示す。本実施例では、TLV-SIの『テーブル』として以下に示すものが用いられるものとする。
(1)TLV-NIT
 TLV用ネットワーク情報テーブル(Network Information Table for TLV:TLV-NIT)は、ネットワークにより伝送されるTLVストリームの物理的構成に関する情報およびネットワーク自身の特性を表すものである。
(2)AMT
 アドレスマップテーブル(Address Map Table:AMT)は、ネットワークにおいて伝送される各サービスを構成するIPパケットのマルチキャストグループの一覧を提供する。
(3)事業者が設定するテーブル
 その他、サービス事業者等が独自に設定したテーブルを用意することが可能である。
 <TLV-SIで使用される記述子>
 図5Bに、本実施例の放送受信装置100が対応する放送システムのTLV-SIに配置される『記述子』の一覧を示す。本実施例では、TLV-SIの『記述子』として以下に示すものが用いられるものとする。
(1)サービスリスト記述子
 サービスリスト記述子は、サービス識別とサービス形式種別によるサービスの一覧を提供する。
(2)衛星分配システム記述子
 衛星分配システム記述子は、衛星伝送路の物理的条件を示す。
(3)システム管理記述子
 システム管理記述子は、放送と非放送を識別するために使用される。
(4)ネットワーク名記述子
 ネットワーク名記述子は、文字符号によりネットワーク名を記述する。
(5)事業者が設定する記述子
 その他、サービス事業者等が独自に設定した記述子を用意することが可能である。
 <MMT-SIで使用されるメッセージ>
 図6Aに、本実施例の放送受信装置100が対応する放送システムのMMT-SIで使用される『メッセージ』の一覧を示す。本実施例では、MMT-SIの『メッセージ』として以下に示すものが用いられるものとする。
(1)PAメッセージ
 Package Access(PA)メッセージは、種々のテーブルを伝送するために用いる。
(2)M2セクションメッセージ
 M2セクションメッセージは、MPEG-2 Systemsのセクション拡張形式を伝送するために用いる。
(3)CAメッセージ
 CAメッセージは、限定受信方式の識別のためのテーブルを伝送するために用いる。
(4)M2短セクションメッセージ
 M2短セクションメッセージは、MPEG-2 Systemsのセクション短形式を伝送するために用いる。
(5)データ伝送メッセージ
 データ伝送メッセージは、データ伝送に関するテーブルを格納するメッセージである。
(6)事業者が設定するメッセージ
 その他、サービス事業者等が独自に設定したメッセージを用意することが可能である。
 <MMT-SIで使用されるテーブル>
 図6Bに、本実施例の放送受信装置100が対応する放送システムのMMT-SIで使用される『テーブル』の一覧を示す。テーブルは、特定の情報を示す要素や属性を持つ制御情報であり、メッセージに格納してMMTPパケットで伝送するものとする。なお、テーブルを格納するメッセージはテーブルに応じて決まっていても良い。本実施例では、MMT-SIの『テーブル』として以下に示すものが用いられるものとする。
(1)MPT
 MMTパッケージテーブル(MMT Package Table:MPT)は、アセットのリストやアセットのネットワーク上の位置などのパッケージを構成する情報を与える。MPTはPAメッセージに格納されて良い。
(2)PLT
 パッケージリストテーブル(Package List Table:PLT)は、放送サービスとして提供されるMMTパッケージのPAメッセージを伝送するIPデータフローおよびパケットID並びにIPサービスを伝送するIPデータフローの一覧を示す。PLTはPAメッセージに格納されて良い。
(3)LCT
 レイアウト設定テーブル(Layout Configuration Table:LCT)は、提示のためのレイアウト情報をレイアウト番号に対応付けるために用いる。LCTはPAメッセージに格納されて良い。
(4)ECM
 Entitlement Control Message(ECM)は、番組情報および制御情報からなる共通情報であり、スクランブルを解除するための鍵情報などを配送する。ECMはM2セクションメッセージに格納されて良い。
(5)EMM
 Entitlement Management Message(EMM)は、加入者毎の契約情報やECM(共通情報)の暗号を解くための鍵情報などを含む個別情報を伝送する。EMMはM2セクションメッセージに格納されて良い。
(6)CAT(MH)
 CAテーブル(Conditional Access Table:CAT)(MH)は、限定受信方式の識別のための記述子を格納するために用いる。CAT(MH)はCAメッセージに格納されて良い。
(7)DCM
 Download Control Message(DCM)は、ダウンロードのための伝送路暗号を復号するための鍵などからなる鍵関連情報を伝送する。DCMはM2セクションメッセージに格納されて良い。
(8)DMM
 Download Management Message(DMM)は、DCMの暗号を解くためのダウンロード鍵などからなる鍵関連情報を伝送する。DMMはM2セクションメッセージに格納されて良い。
(9)MH-EIT
 MH-イベント情報テーブル(MH-Event Information Table:MH-EIT)は、各サービスに含まれるイベントに関する時系列情報である。MH-EITはM2セクションメッセージに格納されて良い。
(10)MH-AIT
 MH-アプリケーション情報テーブル(MH-Application Information Table:MH-AIT)は、アプリケーションに関する全ての情報およびアプリケーションに要求される起動状態等を格納する。MH-AITはM2セクションメッセージに格納されて良い。
(11)MH-BIT
 MH-ブロードキャスタ情報テーブル(MH-Broadcaster Information Table:MH-BIT)は、ネットワーク上に存在するブロードキャスタの情報を提示するために用いる。MH-BITはM2セクションメッセージに格納されて良い。
(12)MH-SDTT
 MH-ソフトウェアダウンロードトリガテーブル(MH-Software Download Trigger Table:MH-SDTT)は、ダウンロードの告知情報のために用いる。MH-SDTTはM2セクションメッセージに格納されて良い。
(13)MH-SDT
 MH-サービス記述テーブル(MH-Service Description Table:MH-SDT)は、特定のTLVストリームに含まれるサービスを表すサブテーブルを有し、編成チャンネルの名称、放送事業者の名称など、編成チャンネルに関する情報を伝送する。MH-SDTはM2セクションメッセージに格納されて良い。
(14)MH-TOT
 MH-タイムオフセットテーブル(MH-Time Offset Table:MH-TOT)は、JST時刻と日付(修正ユリウス日)情報を伝送する。MH-TOTはM2短セクションメッセージに格納されて良い。
(15)MH-CDT
 MH-共通データテーブル(MH-Common Data Table:MH-CDT)は、これを受信する全ての受信機を対象として、不揮発性メモリに格納すべき共通データをセクション形式で伝送するために用いる。MH-CDTはM2セクションメッセージに格納されて良い。
(16)DDMテーブル
 データディレクトリ管理テーブル(Data Directory Management Table:DDMテーブル)は、アプリケーションのファイル構成とファイル伝送のための構成を分離するために、アプリケーションを構成するファイルのディレクトリ構成を提供する。DDMテーブルはデータ伝送メッセージに格納されて良い。
(17)DAMテーブル
 データアセット管理テーブル(Data Asset Management Table:DAMテーブル)は、アセット内のMPUの構成とMPU毎のバージョン情報を提供する。DAMテーブルはデータ伝送メッセージに格納されて良い。
(18)DCCテーブル
 データコンテント管理テーブル(Data Content Configuration Table:DCCテーブル)は、柔軟で有効なキャッシュ制御を実現するため、データコンテンツとしてのファイルの構成情報を提供する。DCCテーブルはデータ伝送メッセージに格納されて良い。
(19)EMT
 イベントメッセージテーブル(Event Message Table:EMT)は、イベントメッセージに関する情報を伝送するために用いる。EMTはM2セクションメッセージに格納されて良い。
(20)事業者が設定するテーブル
 その他、サービス事業者等が独自に設定したテーブルを用意することが可能である。
 <MMT-SIで使用される記述子>
 図6Cおよび図6Dに、本実施例の放送受信装置100が対応する放送システムのMMT-SIに配置される『記述子』の一覧を示す。記述子は、より詳細な情報を提供する制御情報であり、テーブルに配置されるものとする。なお、記述子を配置するテーブルは記述子に応じて決まっていても良い。本実施例では、MMT-SIの『記述子』として以下に示すものが用いられるものとする。
(1)アセットグループ記述子
 アセットグループ記述子は、アセットのグループ関係とグループ内での優先度を提供する。アセットグループ記述子はMPTに配置されて良い。
(2)イベントパッケージ記述子
 イベントパッケージ記述子は、番組を表すイベントとパッケージの対応を提供する。イベントパッケージ記述子はM2セクションメッセージにて伝送されるMH-EITに配置されて良い。
(3)背景色指定記述子
 背景色指定記述子は、レイアウト指定における最背面の背景色を提供する。背景色指定記述子はLCTに配置されて良い。
(4)MPU提示領域指定記述子
 MPU提示領域指定記述子は、MPUを提示する位置を提供する。MPU提示領域指定記述子はMPTに配置されて良い。
(5)MPUタイムスタンプ記述子
 MPUタイムスタンプ記述子は、MPUにおいて提示順序で最初のアクセスユニットの提示時刻を示す。MPUタイムスタンプ記述子はMPTに配置されて良い。
(6)依存関係記述子
 依存関係記述子は、依存関係にあるアセットのアセットIDを提供する。依存関係記述子はMPTに配置されて良い。
(7)アクセス制御記述子
 アクセス制御記述子は、限定受信方式を識別するための情報を提供する。アクセス制御記述子はMPTまたはCAT(MH)に配置されて良い。
(8)スクランブル方式記述子
 スクランブル方式記述子は、スクランブル時の暗号化対象および暗号アルゴリズムの種別を識別するための情報を提供する。スクランブル方式記述子はMPTまたはCAT(MH)に配置されて良い。
(9)メッセージ認証方式記述子
 メッセージ認証方式記述子は、メッセージ認証を行う場合にメッセージ認証方式を識別するための情報を提供する。メッセージ認証方式記述子はMPTまたはCAT(MH)に配置されて良い。
(10)緊急情報記述子(MH)
 緊急情報記述子(MH)は、緊急警報放送を行う場合に用いる。緊急情報記述子(MH)はMPTに配置されて良い。
(11)MH-MPEG-4オーディオ記述子
 MH-MPEG-4オーディオ記述子は、ISO/IEC 14496-3(MPEG-4オーディオ)のオーディオストリームの符号化パラメータを特定するための基本情報を記述するために用いる。MH-MPEG-4オーディオ記述子はMPTに配置されて良い。
(12)MH-MPEG-4オーディオ拡張記述子
 MH-MPEG-4オーディオ拡張記述子は、MPEG-4オーディオストリームのプロファイルとレベルおよび符号化方式固有の設定を記述するために用いる。MH-MPEG-4オーディオ拡張記述子はMPTに配置されて良い。
(13)MH-HEVCビデオ記述子
 MH-HEVCビデオ記述子は、ITU-T勧告H.265|ISO/IEC 23008-2の映像ストリーム(HEVCストリーム)の基本的な符号化パラメータを記述するために用いる。MH-HEVCビデオ記述子はMPTに配置されて良い。
(14)MH-リンク記述子
 MH-リンク記述子は、番組配列情報システムに記載されているある特定のものに関連した追加情報を視聴者が要求した場合に提供されるサービスを識別する。MH-リンク記述子は、MPT、MH-EIT、MH-SDT、等に配置されて良い。
(15)MH-イベントグループ記述子
 MH-イベントグループ記述子は、複数のイベント間に関係がある場合にそれらのイベント群がグループ化されていることを示すために用いる。MH-イベントグループ記述子はMH-EITに配置されて良い。
(16)MH-サービスリスト記述子
 MH-サービスリスト記述子は、サービス識別とサービス形式種別によるサービスの一覧を提供する。MH-サービスリスト記述子はMH-BITに配置されて良い。
(17)MH-短形式イベント記述子
 MH-短形式イベント記述子は、イベント名およびそのイベントの短い記述をテキスト形式で表す。MH-短形式イベント記述子はMH-EITに配置されて良い。
(18)MH-拡張形式イベント記述子
 MH-拡張形式イベント記述子は、MH-短形式イベント記述子に付け加えて使用され、イベントの詳細記述を提供する。MH-拡張形式イベント記述子はMH-EITに配置されて良い。
(19)映像コンポーネント記述子
 映像コンポーネント記述子は、映像コンポーネントに関するパラメータや説明を示し、エレメンタリストリームを文字形式で表現するためにも利用される。映像コンポーネント記述子はMPTまたはMH-EITに配置されて良い。
(20)MH-ストリーム識別記述子
 MH-ストリーム識別記述子は、サービスのコンポーネントストリームにラベルを付け、このラベルによってMH-EIT内の映像コンポーネント記述子で示される記述内容を参照できるために使用する。MH-ストリーム識別記述子はMPTに配置されて良い。
(21)MH-コンテント記述子
 MH-コンテント記述子は、イベントのジャンルを示す。MH-コンテント記述子はMH-EITに配置されて良い。
(22)MH-パレンタルレート記述子
 MH-パレンタルレート記述子は、年齢に基づいた視聴制限を表し、また、他の制限条件に基づくよう拡張するために用いる。MH-パレンタルレート記述子はMPTまたはMH-EITに配置されて良い。
(23)MH-音声コンポーネント記述子
 MH-音声コンポーネント記述子は、音声エレメンタリストリームの各パラメータを示し、エレメンタリストリームを文字形式で表現するためにも利用される。MH-音声コンポーネント記述子はMPTまたはMH-EITに配置されて良い。
(24)MH-対象地域記述子
 MH-対象地域記述子は、番組または番組を構成する一部のストリームが対象とする地域を記述するために使用される。MH-対象地域記述子はMPTに配置されて良い。
(25)MH-シリーズ記述子
 MH-シリーズ記述子は、シリーズ番組を識別するために用いる。MH-シリーズ記述子はMH-EITに配置されて良い。
(26)MH-SI伝送パラメータ記述子
 MH-SI伝送パラメータ記述子は、SIの伝送パラメータを示すために用いる。MH-SI伝送パラメータ記述子はMH-BITに配置されて良い。
(27)MH-ブロードキャスタ名記述子
 MH-ブロードキャスタ名記述子は、ブロードキャスタの名称を記述する。MH-ブロードキャスタ名記述子はMH-BITに配置されて良い。
(28)MH-サービス記述子
 MH-サービス記述子は、編成チャンネル名とその事業者名をサービス形式種別と共に文字符号で表す。MH-サービス記述子はMH-SDTに配置されて良い。
(29)IPデータフロー記述子
 IPデータフロー記述子は、サービスを構成するIPデータフローの情報を提供する。IPデータフロー記述子はMH-SDTに配置されて良い。
(30)MH-CA起動記述子
 MH-CA起動記述子は、CAS基盤上のCASプログラムを起動するための起動情報を記載する。MH-CA起動記述子はMPTまたはCAT(CA)に配置されて良い。
(31)MH-Type記述子
 MH-Type記述子は、アプリケーション伝送方式で伝送されるファイルの型を示す。MH-Type記述子はDAMテーブルに配置されて良い。
(32)MH-Info記述子
 MH-Info記述子は、MPUまたはアイテムに関する情報を記述する。MH-Info記述子はDAMテーブルに配置されて良い。
(33)MH-Expire記述子
 MH-Expire記述子は、アイテムの有効期限を記述する。MH-Expire記述子はDAMテーブルに配置されて良い。
(34)MH-Compression Type記述子
 MH-Compression Type記述子は、伝送するアイテムが圧縮されていることを意味し、その圧縮アルゴリズムと圧縮前のアイテムのバイト数を示す。MH-Compression Type記述子はDAMテーブルに配置されて良い。
(35)MH-データ符号化方式記述子
 MH-データ符号化方式記述子は、データ符号化方式を識別するために使用される。MH-データ符号化方式記述子はMPTに配置されて良い。
(36)UTC-NPT参照記述子
 UTC-NPT参照記述子は、NPT(Normal Play Time)とUTCの関係を伝達するために用いる。UTC-NPT参照記述子はEMTに配置されて良い。
(37)イベントメッセージ記述子
 イベントメッセージ記述子は、イベントメッセージ一般に関する情報を伝達する。イベントメッセージ記述子はEMTに配置されて良い。
(38)MH-ローカル時間オフセット記述子
 MH-ローカル時間オフセット記述子は、サマータイム実施時に実際の時刻(例えば、UTC+9時間)と人間系への表示時刻に一定のオフセット値を持たせるときに用いる。MH-ローカル時間オフセット記述子はMH-TOTに配置されて良い。
(39)MH-コンポーネントグループ記述子
 MH-コンポーネントグループ記述子は、イベント内のコンポーネントの組み合わせを定義して識別する。MH-コンポーネントグループ記述子はMH-EITに配置されて良い。
(40)MH-ロゴ伝送記述子
 MH-ロゴ伝送記述子は、簡易ロゴ用文字列、CDT形式のロゴへのポインティングなどを記述するために用いる。MH-ロゴ伝送記述子はMH-SDTに配置されて良い。
(41)MPU拡張タイムスタンプ記述子
 MPU拡張タイムスタンプ記述子は、MPU内のアクセスユニットの復号時刻を提供する。MPU拡張タイムスタンプ記述子はMPTに配置されて良い。
(42)MPUダウンロードコンテンツ記述子
 MPUダウンロードコンテンツ記述子は、MPUを用いてダウンロードされるコンテンツの属性情報を記述するために用いる。MPUダウンロードコンテンツ記述子はMH-SDTTに配置されて良い。
(43)MH-ネットワークダウンロードコンテンツ記述子
 MH-ネットワークダウンロードコンテンツ記述子は、ネットワークを用いてダウンロードされるコンテンツの属性情報を記述するために用いる。MH-ネットワークダウンロードコンテンツ記述子はMH-SDTTに配置されて良い。
(44)MH-アプリケーション記述子
 MH-アプリケーション記述子は、アプリケーションの情報を記述する。MH-アプリケーション記述子はMH-AITに配置されて良い。
(45)MH-伝送プロトコル記述子
 MH-伝送プロトコル記述子は、放送や通信等の伝送プロトコルの指定と伝送プロトコルに依存したアプリケーションのロケーション情報を示すために用いる。MH-伝送プロトコル記述子はMH-AITに配置されて良い。
(46)MH-簡易アプリケーションロケーション記述子
 MH-簡易アプリケーションロケーション記述子は、アプリケーションの取得先の詳細を指示するために記述する。MH-簡易アプリケーションロケーション記述子はMH-AITに配置されて良い。
(47)MH-アプリケーション境界権限設定記述子
 MH-アプリケーション境界権限設定記述子は、アプリケーションバウンダリを設定し、かつ領域(URL)毎に放送リソースアクセスの権限を設定するために記述する。MH-アプリケーション境界権限設定記述子はMH-AITに配置されて良い。
(48)MH-起動優先情報記述子
 MH-起動優先情報記述子は、アプリケーションの起動優先度を指定するために記述する。MH-起動優先情報記述子はMH-AITに配置されて良い。
(49)MH-キャッシュ情報記述子
 MH-キャッシュ情報記述子は、アプリケーションの再利用が想定される場合に、アプリケーションを構成するリソースをキャッシュし保持しておく場合のキャッシュ制御に用いるために記述する。MH-キャッシュ情報記述子はMH-AITに配置されて良い。
(50)MH-確率的適用遅延記述子
 MH-確率的適用遅延記述子は、アプリケーション取得のサーバアクセスの負荷分散を想定して、アプリケーション制御を行うタイミングを確率的に設定した遅延量だけ遅らせるために記述する。MH-確率的適用遅延記述子はMH-AITに配置されて良い。
(51)リンク先PU記述子
 リンク先PU記述子は、当該プレゼンテーションユニット(PU)から遷移する可能性のある他のプレゼンテーションユニットを記述する。リンク先PU記述子はDCCテーブルに配置されて良い。
(52)ロックキャッシュ指定記述子
 ロックキャッシュ指定記述子は、当該プレゼンテーションユニットにおいてキャッシュし、かつロックする対象のファイルの指定を記述する。ロックキャッシュ指定記述子はDCCテーブルに配置されて良い。
(53)アンロックキャッシュ指定記述子
 アンロックキャッシュ指定記述子は、当該プレゼンテーションユニットにおいてロックされているファイルのうちのアンロックするファイルの指定を記述する。アンロックキャッシュ指定記述子はDCCテーブルに配置されて良い。
(54)事業者が設定する記述子
 その他、サービス事業者等が独自に設定した記述子を用意することが可能である。
 <MMT方式におけるデータ伝送と各制御情報の関係>
 ここで、図6Eを用いて、本実施例の放送受信装置100が対応する放送システムにおけるデータ伝送と代表的なテーブルの関係について説明する。
 本実施例の放送受信装置100が対応する放送システムでは、放送伝送路を介したTLVストリームや通信回線を介したIPデータフロー等、複数の経路でデータ伝送を行うことができる。TLVストリームには、TLV-NITやAMTなどのTLV-SIと、IPパケットのデータフローであるIPデータフローが含まれている。IPデータフロー内には一連の映像MPUを含む映像アセットや一連の音声MPUを含む音声アセットが含まれている。同様に、IPデータフロー内には一連の字幕MPUを含む字幕アセット、一連の文字スーパーMPUを含む文字スーパーアセット、一連のデータMPUを含むデータアセットなどが含まれても良い。これらの各種アセットは、PAメッセージに格納されて伝送されるMPT(MMTパッケージテーブル)により、『パッケージ』という単位で関連付けられる。具体的には、MPTにパッケージID(後述の図17に示す『MMT_package_id_byte』パラメータに対応)と、当該パッケージに含まれる各アセットのアセットID(後述の図17に示す『asset_id_byte』パラメータに対応)とが記載されることにより、前記関連付けが行われる。
 パッケージを構成するアセットはTLVストリーム内のアセットのみとすることもできるが、図6Eに示すように、通信回線のIPデータフローで伝送されるアセットを含めることもできる。これは、当該パッケージに含まれる各アセットのロケーション情報(後述の図17に示す『MMT_general_location_info()』に対応)をMPT内に含めて、本実施例の放送受信装置100が各アセットの参照先を把握可能とすることにより実現できる。具体的には、前記ロケーション情報に配置される『MMT_general_location_infonolocation_type』パラメータの値を変更することにより、
(1)MPTと同一のIPデータフローに多重されているデータ
    (location_type=0x00)
(2)IPv4データフローに多重されているデータ
    (location_type=0x01)
(3)IPv6データフローに多重されているデータ
    (location_type=0x02)
(4)放送のMPEG2-TSに多重されているデータ
    (location_type=0x03)
(5)IPデータフロー内にMPEG2-TS形式で多重されているデータ
    (location_type=0x04)
(6)指定するURLにあるデータ
    (location_type=0x05)
など、様々な伝送経路で伝送される各種データを、放送受信装置100が参照できるように構成することが可能となる。
 前述の参照先のうち、(1)は、例えば、後述する図7Aの放送受信装置100のチューナ/復調部131で受信するデジタル放送信号を経由して受信するIPデータフローである。MPTを通信回線側のIPデータフローにも含めて伝送する場合は、(1)の参照先が後述するLAN通信部121が通信回線を介して受信するIPデータフローになる場合もある。また、前記(2)、(3)、(5)、(6)は後述するLAN通信部121が通信回線を介して受信するIPデータフローである。また、前記(4)は、例えば、後述する図24に示す実施例2の放送受信装置800のように、MMT方式を用いるデジタル放送信号を受信する受信機能と、MPEG2-TS方式を用いるデジタル放送信号を受信する受信機能の両者を有する放送受信装置の場合に、MMT方式を用いるデジタル放送信号に含まれるMPTのロケーション情報(『MMT_general_location_info()』)に基づいて、MPEG2-TS方式を用いるデジタル放送信号を受信する受信機能で受信するMPEG2-TSに多重されているデータを参照する場合に用いることができる。
 なお、『パッケージ』を構成するデータはこのように指定されるが、本実施例の放送受信装置100が対応する放送システムでは、当該『パッケージ』単位の一連のデータをデジタル放送の『サービス』単位として扱う。
 更に、MPTには、MPTが指定する各MPUの提示時刻情報(後述の図13Bに示す『mpu_presentation_time』パラメータに対応)が記載されており、当該提示時刻情報を用いて、MPTが指定する複数のMPUを、UTC表記の時刻情報であるNTPに基づくクロックを基準に、連動して提示(表示、出力など)することが可能となる。当該NTPに基づくクロックを用いた各種データの提示制御については後述する。
 図6Eに示される本実施例のデータ伝送方式では、更に『イベント』という概念がある。『イベント』は、M2セクションメッセージに含められて送られるMH-EITが扱う、いわゆる『番組』を示す概念である。具体的には、MH-EITに格納されたイベントパッケージ記述子が指し示す『パッケージ』において、MH-EITに格納された開示時刻(後述の図21に示す『start_time』パラメータに対応)から、継続時間(後述の図21に示す『duration』パラメータに対応)分の期間に含まれる一連のデータが、当該『イベント』の概念に含まれるデータである。MH-EITは、本実施例の放送受信装置100において当該『イベント』単位での各種処理(例えば、番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理)などに用いることができる。
 [放送受信装置のハードウェア構成]
 図7Aは、放送受信装置100の内部構成の一例を示すブロック図である。放送受信装置100は、主制御部101、システムバス102、ROM103、RAM104、ストレージ(蓄積)部110、LAN通信部121、拡張インタフェース部124、デジタルインタフェース部125、チューナ/復調部131、分離部132、映像デコーダ141、映像色域変換部142、音声デコーダ143、文字スーパーデコーダ144、字幕デコーダ145、字幕合成部146、字幕色域変換部147、データデコーダ151、キャッシュ部152、アプリケーション制御部153、ブラウザ部154、アプリケーション色域変換部155、音源部156、映像合成部161、モニタ部162、映像出力部163、音声合成部164、スピーカ部165、音声出力部166、操作入力部170、で構成される。
 主制御部101は、所定の動作プログラムに従って放送受信装置100全体を制御するマイクロプロセッサユニットである。システムバス102は主制御部101と放送受信装置100内の各動作ブロックとの間でデータ送受信を行うためのデータ通信路である。
 ROM(Read Only Memory)103は、オペレーティングシステムなどの基本動作プログラムやその他の動作プログラムが格納された不揮発性メモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。ROM103には、放送受信装置100の動作に必要な動作設定値が記憶されても良い。RAM(Random Access Memory)104は基本動作プログラムやその他の動作プログラム実行時のワークエリアとなる。ROM103およびRAM104は主制御部101と一体構成であっても良い。また、ROM103は、図7Aに示したような独立構成とはせず、ストレージ(蓄積)部110内の一部記憶領域を使用するようにしても良い。
 ストレージ(蓄積)部110は、放送受信装置100の動作プログラムや動作設定値、放送受信装置100のユーザの個人情報等を記憶する。また、インターネット200を介してダウンロードした動作プログラムや前記動作プログラムで作成した各種データ等を記憶可能である。また、放送波から取得した、或いは、インターネット200を介してダウンロードした、動画、静止画、音声等のコンテンツも記憶可能である。ストレージ(蓄積)部110の一部領域を以ってROM103の機能の全部または一部を代替しても良い。また、ストレージ(蓄積)部110は、放送受信装置100に外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。従って、例えば、フラッシュROMやSSD(Solid State Drive)などの不揮発性半導体素子メモリ、HDD(Hard Disc Drive)などの磁気ディスクドライブ、等のデバイスが用いられる。
 なお、ROM103やストレージ(蓄積)部110に記憶された前記各動作プログラムは、インターネット200上の各サーバ装置からのダウンロード処理により、追加、更新および機能拡張することが可能であるものとする。
 LAN(Local Area Network)通信部121は、ルータ装置200rを介してインターネット200と接続され、インターネット200上の各サーバ装置やその他の通信機器とデータの送受信を行う。また、通信回線を介して伝送される番組のMMTデータ列(或いは、その一部)の取得も行うものとする。ルータ装置200rとの接続は有線接続であっても良いし、Wi-Fi(登録商標)等の無線接続であっても良い。LAN通信部121は符号回路や復号回路等を備えるものとする。また、放送受信装置100が、BlueTooth(登録商標)通信部やNFC通信部、赤外線通信部等、他の通信部を更に備えていても良い。
 チューナ/復調部131は、アンテナ100aを介して電波塔300tから送信された放送波を受信し、主制御部101の制御に基づいてユーザの所望するサービスのチャンネルに同調(選局)する。更に、チューナ/復調部131は、受信した放送信号を復調してMMTデータ列を取得する。なお、図7Aに示した例では、チューナ/復調部が1つである構成を例示しているが、複数画面同時表示や裏番組録画等を目的として、放送受信装置100がチューナ/復調部を複数搭載する構成としても良い。
 分離部132はMMTデコーダであり、入力したMMTデータ列中の制御信号に基づいてリアルタイム提示要素である映像データ列、音声データ列、文字スーパーデータ列、字幕データ列、等を、それぞれ映像デコーダ141、音声デコーダ143、文字スーパーデコーダ144、字幕デコーダ145、等に分配する。分離部132に入力されるデータは、放送伝送路を介して伝送されてチューナ/復調部131で復調されたMMTデータ列や、通信回線を介して伝送されてLAN通信部121で受信したMMTデータ列であって良い。また、分離部132は、マルチメディアアプリケーションやその構成要素であるファイル系データを再生し、キャッシュ部152で一時的に蓄積する。また、分離部132は、映像音声字幕以外のデータの提示を行うプレーヤで利用するデータ若しくはアプリケーションに対するデータのストリーミングに用いるために、汎用データを抽出してデータデコーダ151に出力する。また、分離部132は、主制御部101の制御に基づいて、前記入力したMMTデータ列に対するエラー訂正やアクセス制限の制御等を行っても良い。
 映像デコーダ141は、分離部132から入力した映像データ列を復号して映像情報を出力する。映像色域変換部142は、映像デコーダ141で復号した映像情報に対して、映像合成部161での映像合成処理のために、必要に応じて色空間変換処理を施す。音声デコーダ143は、分離部132から入力した音声データ列を復号して音声情報を出力する。また、映像デコーダ141および音声デコーダ143には、LAN通信部121を介してインターネット200上から取得した、例えば、MPEG-DASH(MPEG-Dynamic Adaptive Streaming over HTTP)形式等のストリーミングデータが入力されても良い。また、映像デコーダ141、映像色域変換部142、音声デコーダ143、等は、複数種類の映像データ列や音声データ列を同時に復号処理するために、複数備えられても良い。
 文字スーパーデコーダ144は、分離部132から入力した文字スーパーデータ列を復号して文字スーパー情報を出力する。字幕デコーダ145は、分離部132から入力した字幕データ列を復号して字幕情報を出力する。文字スーパーデコーダ144から出力された文字スーパー情報と字幕デコーダ145から出力された字幕情報は、字幕合成部146において合成処理を施され、更に、字幕色域変換部147において、映像合成部161での映像合成処理のために、必要に応じて色空間変換処理を施される。なお、本実施例においては、放送番組の映像と同時に提示される、文字情報を中心とするサービスのうち、映像の内容と関連するものを字幕と呼称し、それ以外のものを文字スーパーと呼称する。また、それらを区別しない場合は、字幕と総称するものとする。
 ブラウザ部154は、キャッシュ部152若しくはLAN通信部121を介してインターネット200上のサーバ装置から取得したマルチメディアアプリケーションファイルやその構成要素であるファイル系データを、MMTデータ列に含まれる制御情報やLAN通信部121を介してインターネット200上のサーバ装置から取得した制御情報を解釈するアプリケーション制御部153の指示に従って提示する。なお、前記マルチメディアアプリケーションファイルは、HTML(Hyper Text Markup Language)文書やBML(Broadcast Markup Language)文書等であって良い。ブラウザ部154から出力されたアプリケーション情報は、更に、アプリケーション色域変換部155において、映像合成部161での映像合成処理のために、必要に応じて色空間変換処理を施される。また、ブラウザ部154は、音源部156に働きかけることにより、アプリケーション音声情報の再生も行うものとする。
 映像合成部161は、映像色域変換部142から出力された映像情報と字幕色域変換部147から出力された字幕情報とアプリケーション色域変換部155から出力されたアプリケーション情報等を入力し、適宜選択および/または重畳等の処理を行う。映像合成部161は図示を省略したビデオRAMを備え、前記ビデオRAMに入力された映像情報等に基づいてモニタ部162等が駆動される。また、映像合成部161は、主制御部101の制御に基づいて、必要に応じて、スケーリング処理やMMT-SIに含まれるMH-EIT等の情報に基づいて作成されたEPG(Electronic Program Guide)画面情報の重畳処理等を行う。モニタ部162は、例えば液晶パネル等の表示デバイスであり、映像合成部161で選択および/または重畳処理を施された映像情報を放送受信装置100のユーザに提供する。映像出力部163は、映像合成部161で選択および/または重畳処理を施された映像情報を出力する映像出力インタフェースである。
 なお、本実施例の放送受信装置100の提示機能は、マルチメディアサービスを提供者の意図通りに表示させるために、論理的プレーン構造を備えるものとする。図7Bに、本実施例の放送受信装置100の提示機能が備える論理的プレーン構造の構成の一例を示す。前記論理的プレーン構造では、最前面に文字スーパーの表示を行う文字スーパープレーンを配置し、次層に字幕の表示を行う字幕プレーンを配置する。三層目に放送映像やマルチメディアアプリケーション、またはその合成映像の表示を行うマルチメディアプレーンを配置し、最背面に背景プレーンを配置する。字幕合成部146および映像合成部161において、文字スーパー情報の文字スーパープレーンへの描画、字幕情報の字幕プレーンへの描画、映像情報やアプリケーション情報等のマルチメディアプレーンへの描画が行われる。また、MMT-SIに含まれるLCT等に基づいて背景色が背景プレーンに描画される。なお、三層目のマルチメディアプレーンは、映像デコーダ141の数に応じて複数用意することが可能であるものとする。ただし、マルチメディアプレーンが複数ある場合でも、アプリケーション色域変換部155から出力されたアプリケーション情報等は、最前面のマルチメディアプレーンにのみ出力されるものとする。
 音声合成部164は、音声デコーダ143から出力された音声情報および音源部156で再生されたアプリケーション音声情報を入力して、適宜選択および/またはミックス等の処理を行う。スピーカ部165は、音声合成部164で選択および/またはミックス処理を施された音声情報を放送受信装置100のユーザに提供する。音声出力部166は、音声合成部164で選択および/またはミックス処理を施された音声情報を出力する音声出力インタフェースである。
 拡張インタフェース部124は、放送受信装置100の機能を拡張するためのインタフェース群であり、本実施例では、アナログ映像/音声インタフェース、USB(Universal Serial Bus)インタフェース、メモリインタフェース等で構成されるものとする。アナログ映像/音声インタフェースは、外部映像/音声出力機器からのアナログ映像信号/音声信号の入力、外部映像/音声入力機器へのアナログ映像信号/音声信号の出力、等を行う。USBインタフェースは、PC等と接続してデータの送受信を行う。HDDを接続して放送番組やコンテンツの記録を行っても良い。また、キーボードやその他のUSB機器の接続を行っても良い。メモリインタフェースはメモリカードやその他のメモリ媒体を接続してデータの送受信を行う。
 デジタルインタフェース部125は、符号化されたデジタル映像データおよび/またはデジタル音声データを出力若しくは入力するインタフェースである。デジタルインタフェース部125は、チューナ/復調部131で復調して得たMMTデータ列やLAN通信部121を介して取得したMMTデータ列、或いは、前記各MMTデータ列の混合データをそのまま出力可能であるものとする。また、デジタルインタフェース部125から入力したMMTデータ列を分離部132に入力するように制御しても良い。ストレージ(蓄積)部110に記憶したデジタルコンテンツの出力、或いは、ストレージ(蓄積)部110へのデジタルコンテンツの記憶を、デジタルインタフェース部125を介して行っても良い。
 デジタルインタフェース部125は、DVI端子やHDMI(登録商標)端子やDisplay Port(登録商標)端子等であって、DVI仕様やHDMI仕様やDisplay Port仕様等に準拠した形式でデータの出力或いは入力がなされるものであって良い。IEEE1394仕様等に準拠したシリアルデータの形式で出力或いは入力されても良い。また、イーサネット(登録商標)や無線LAN等のハードウェアを介してデジタルインタフェース出力を行うIPインタフェースとして構成しても良い。この場合、デジタルインタフェース部125とLAN通信部121とはそのハードウェア構成を共有しても良い。
 操作入力部170は、放送受信装置100に対する操作指示の入力を行う指示入力部であり、本実施例では、図示を省略したリモコンから送信されるコマンドを受信するリモコン受信部とボタンスイッチを並べた操作キーで構成されるものとする。何れか一方のみであっても良い。また、操作入力部170は、モニタ部162に重ねて配したタッチパネルで代替しても良い。拡張インタフェース部124に接続したキーボード等で代替しても良い。前記図示を省略したリモコンは、リモコンコマンド送信機能を備えた携帯情報端末700で代替しても良い。
 なお、前述のように、放送受信装置100がテレビ受信機等である場合、映像出力部163および音声出力部166は本発明に必須の構成ではない。また、放送受信装置100は、テレビ受信機の他、DVD(Digital Versatile Disc)レコーダなどの光ディスクドライブレコーダ、HDDレコーダなどの磁気ディスクドライブレコーダ、STB(Set Top Box)等であっても良い。デジタル放送受信機能や放送通信連携機能を備えたPC(Personal Computer)やタブレット端末、ナビゲーション装置、ゲーム機等であっても良い。放送受信装置100がDVDレコーダ、HDDレコーダ、STB等である場合、モニタ部162およびスピーカ部165は備えなくとも良い。映像出力部163および音声出力部166或いはデジタルインタフェース部125に、外部モニタおよび外部スピーカを接続することにより、本実施例の放送受信装置100と同様の動作が可能となる。
 [放送受信装置のクロック同期/提示同期のシステム構成]
 図7Cは、本実施例の放送受信装置100が対応する放送システムにおけるクロック同期/提示同期のシステム構成の一例である。本実施例の放送システムでは、UTCを64ビット長のNTPタイムスタンプ形式で、放送送出システムから受信機(本実施例の放送受信装置100等)に伝送する。前記NTPタイムスタンプ形式においては、UTCの『秒以上』を32ビットで表し、また、『秒未満』を32ビットで表すものとする。しかしながら、実際には、1秒を32ビット精度で再現することは困難である。このため、映像システムの同期をとるためのシステムクロックやNTP形式の時計を動作させるためのシステムクロックとしては、例えば同図に示したような、『2の24乗』Hz(約16.8MHz)の周波数を用いるようにしても良い。なお、従来の放送システムにおけるシステムクロックが27MHzであったことおよび受信機のハードウェア構成を簡便に構築できること等を考慮すると、『2の24乗』~『2の28乗』程度の、2のべき乗の周波数をシステムクロックとして採用することが望ましい。
 なお、放送送出システム側や受信機側において、システムクロックを前述のように『2の24乗』~『2の28乗』程度の2のべき乗の周波数に設定した場合、放送送出システム側から受信機側に伝送されるNTPタイムスタンプ形式における、前記システムクロックやNTP形式の時計を再生するためのPLL(Phase Locked Loop)系に参照されない下位の8~4ビットは、『0』或いは『1』に固定するようにしても良い。即ち、システムクロックが『2のn乗』Hz(図7Cの例では、n=24)であれば、NTPタイムスタンプ形式の下位『32-n』ビットを『0』或いは『1』に固定するようにしても良い。或いは、受信機側において、前記NTPタイムスタンプ形式の下位『32-n』ビットを無視するように処理しても良い。
 放送送出システム側では、NTP形式の時刻情報を外部から得ると、『2のn乗』HzのVCO(Voltage Controlled Oscillator)による32+nビットカウンタでPLL系を構成し、外部から与えられた時刻情報に同期する送出システム時計を実現する。また、『2のn乗』Hzのシステムクロックに同期して全体の信号処理系を動作させる。更に、前記送出システム時計の出力をNTP長形式の時刻情報として放送伝送路を介して受信機側に周期的に伝送する。
 受信機側では、放送伝送路を介してNTP長形式の時刻情報を受信し、放送送出システム側と同様に、『2のn乗』HzのVCOに基づくPLL系により受信システム時計を再生する。これにより、受信システム時計は、放送送出システム側と同期した時計となる。また、『2のn乗』Hzのシステムクロックに同期して受信機の信号処理系を動作させることにより、放送送出システム側と受信機側のクロック同期が実現され、安定した信号再生が可能となる。また、映像/音声信号の提示単位毎の復号時刻および提示時刻が、放送送出システム側において、前記NTP形式の時刻情報に基づいて設定される。ここで、放送信号で伝送されるPAメッセージに格納されるMPTには後述の図13Bに示すMPUタイムスタンプ記述子が格納されている。図13BのMPUタイムスタンプ記述子における『mpu_sequence_number(MPUシーケンス番号)』パラメータがタイムスタンプを記述するMPUのシーケンス番号を示し、『mpu_presentation_time(MPU提示時刻)』パラメータがMPUの提示時刻を64ビットのNTPタイムスタンプ形式で示している。よって、受信機はMPTに格納されるMPUタイムスタンプ記述子を参照し、映像信号、音声信号、字幕、文字スーパー等のMPU毎の提示(表示、出力など)タイミングを制御することが可能である。
 なお、前述の映像/音声信号等の提示単位毎の復号タイミングおよび提示タイミングの制御に着目した場合、『2の16乗』Hz(約65.5KHz)程度のクロックによっても映像/音声信号の同期は確保可能であり、この場合は、MPUタイムスタンプ記述子等に記述されるNTPタイムスタンプ形式の下位16ビットは参照しなくとも良い。即ち、復号タイミングおよび提示タイミングの制御にシステムクロックの分周等により生成した『2のm乗』Hzのクロックを用いた場合は、MPUタイムスタンプ記述子等に記述されるNTPタイムスタンプ形式の下位『32-m』ビットは参照しなくとも良い。従って、MPUタイムスタンプ記述子等に記述されるNTPタイムスタンプ形式の下位『32-m』ビットは『0』或いは『1』に固定するようにしても良い。
 [放送受信装置のソフトウェア構成]
 図7Dは、本実施例の放送受信装置100のソフトウェア構成図であり、ROM103、RAM104およびストレージ(蓄積)部110におけるソフトウェアの構成を示す。本実施例においては、ROM103に基本動作プログラム1001およびその他の動作プログラムが記憶されており、ストレージ(蓄積)部110に受信機能プログラム1002およびその他の動作プログラムが記憶されている。また、ストレージ(蓄積)部110は、動画や静止画や音声等のコンテンツを記憶するコンテンツ記憶領域1200、外部の携帯端末機器や各サーバ装置にアクセスする際に必要な認証情報等を記憶する認証情報記憶領域1300、その他の各種情報を記憶する各種情報記憶領域を備えるものとする。
 ROM103に記憶された基本動作プログラム1001はRAM104に展開され、更に主制御部101が前記展開された基本動作プログラムを実行することにより、基本動作実行部1101を構成する。また、ストレージ(蓄積)部110に記憶された受信機能プログラム1002も同様にRAM104に展開され、更に主制御部101が前記展開された受信機能プログラムを実行することにより、受信機能実行部1102を構成する。また、RAM104は、各動作プログラム実行時に作成したデータを、必要に応じて一時的に保持する一時記憶領域を備えるものとする。
 なお、以下では、説明を簡単にするために、主制御部101がROM103に格納された基本動作プログラム1001をRAM104に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作実行部1101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムに関しても同様の記述を行う。
 受信機能実行部1102は、本実施例の放送システムで伝送される映像や音声等のコンポーネントを再生するために放送受信装置100の各動作ブロックを制御する。特に、トランスポート処理部1102aは、分離部132のMMTデコーダ機能を主として制御し、MMTデータ列から分離した映像データ列や音声データ列等をそれぞれ対応するデコード処理部に分配する。AVデコード処理部1102bは、映像デコーダ141や音声デコーダ143等を主として制御する。アプリケーション処理部1102cは、キャッシュ部152やアプリケーション制御部153やブラウザ部154や音源部156を主として制御する。文字スーパー処理部1102dは、文字スーパーデコーダ144を主として制御する。字幕処理部1102eは、字幕デコーダ145を主として制御する。汎用データ処理部1102fは、データデコーダ151を主として制御する。EPG生成部1102gは、MMT-SIに含まれるMH-EIT等の記述内容を解釈してEPG画面を生成する。提示処理部1102hは、前記論理的プレーン構造に基づいて、映像色域変換部142や字幕合成部146や字幕色域変換部147やアプリケーション色域変換部155や映像合成部161や音声合成部164を主として制御する。
 前記各動作プログラムは、製品出荷の時点で、予めROM103および/またはストレージ(蓄積)部110に格納された状態であっても良い。製品出荷後に、インターネット200上のその他のアプリケーションサーバ500等からLAN通信部121を介して取得するものであっても良い。また、メモリカードや光ディスク等に格納された前記各動作プログラムを、拡張インタフェース部124等を介して取得するものであっても良い。
 [放送局サーバの構成]
 図8は、放送局サーバ300の内部構成の一例を示すブロック図である。放送局サーバ300は、主制御部301、システムバス302、RAM304、ストレージ部310、LAN通信部321、デジタル放送信号送出部360、で構成される。
 主制御部301は、所定の動作プログラムに従って放送局サーバ300全体を制御するマイクロプロセッサユニットである。システムバス302は主制御部301と放送局サーバ300内の各動作ブロックとの間でデータ送受信を行うためのデータ通信路である。RAM304は各動作プログラム実行時のワークエリアとなる。
 ストレージ部310は、基本動作プログラム3001および放送コンテンツ管理/配信プログラム3002と放送コンテンツ送出プログラム3003を記憶し、更に、放送コンテンツ記憶領域3200およびメタデータ記憶領域3300を備える。放送コンテンツ記憶領域3200は放送局が放送する各放送番組の番組コンテンツ等を記憶する。メタデータ記憶領域3300は前記各放送番組の番組タイトル、番組ID、番組概要、出演者、放送日時、各番組コンテンツに係るコピー制御情報、等のメタデータを記憶する。
 また、ストレージ部310に記憶された基本動作プログラム3001および放送コンテンツ管理/配信プログラム3002と放送コンテンツ送出プログラム3003はそれぞれRAM304に展開され、更に主制御部301が前記展開された各プログラムを実行することにより、基本動作実行部3101、放送コンテンツ管理/配信実行部3102、放送コンテンツ送出実行部3103を構成する。
 なお、以下では、説明を簡単にするために、主制御部301がストレージ部310に格納された基本動作プログラム3001をRAM304に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作実行部3101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムに関しても同様の記述を行う。
 放送コンテンツ管理/配信実行部3102は、放送コンテンツ記憶領域3200およびメタデータ記憶領域3300に蓄積された各放送番組の番組コンテンツ等および各メタデータの管理と、前記各放送番組の番組コンテンツ等および各メタデータを契約に基づいてサービス事業者に提供する際の制御を行う。更に、放送コンテンツ管理/配信実行部3102は、前記サービス事業者に対して前記各放送番組の番組コンテンツ等および各メタデータの提供を行う際に、必要に応じて前記契約に基づいたサービス事業者サーバ400の認証処理等を行っても良い。
 放送コンテンツ送出実行部3103は、放送コンテンツ記憶領域3200に蓄積された放送番組の番組コンテンツや、メタデータ記憶領域3300に蓄積された放送番組の番組タイトル、番組ID、番組コンテンツのコピー制御情報等を含むMMTデータ列を、デジタル放送信号送出部360を介して電波塔300tから送出する際のタイムスケジュール管理等を行う。
 LAN通信部321は、インターネット200と接続され、インターネット200上のサービス事業者サーバ400等と通信を行う。LAN通信部321は符号回路や復号回路等を備えるものとする。デジタル放送信号送出部360は、放送コンテンツ記憶領域3200に蓄積された各放送番組の番組コンテンツ等の映像データ列や音声データ列、番組情報データ列、等で構成されたMMTデータ列を変調して、電波塔300tを介して、デジタル放送波として送出する。
 [サービス事業者サーバの構成]
 図9は、サービス事業者サーバ400の内部構成の一例を示すブロック図である。サービス事業者サーバ400は、主制御部401、システムバス402、RAM404、ストレージ部410、LAN通信部421、で構成される。
 主制御部401は、所定の動作プログラムに従ってサービス事業者サーバ400全体を制御するマイクロプロセッサユニットである。システムバス402は主制御部401とサービス事業者サーバ400内の各動作ブロックとの間でデータ送受信を行うためのデータ通信路である。RAM404は各動作プログラム実行時のワークエリアとなる。
 ストレージ部410は、基本動作プログラム4001および映像コンテンツ管理/配信プログラム4002とアプリケーション管理/配布プログラム4004を記憶し、更に、映像コンテンツ記憶領域4200およびメタデータ記憶領域4300、アプリケーション記憶領域4400、ユーザ情報記憶領域4500を備える。映像コンテンツ記憶領域4200は、放送局サーバ300から提供された放送番組の番組コンテンツを映像コンテンツとして記憶する。また、前記サービス事業者が制作した映像コンテンツ等を記憶する。メタデータ記憶領域4300は、放送局サーバ300から提供された各メタデータや、前記サービス事業者が制作した映像コンテンツに関するメタデータ等を記憶する。アプリケーション記憶領域4400は、各テレビ受信機からの要求に応じて配布するための、放送番組に連携したサービスを実現するための各種アプリケーション等を記憶する。ユーザ情報記憶領域4500は、サービス事業者サーバ400へのアクセスが許可されたユーザに関する情報(個人情報や認証情報等)を記憶する。
 また、ストレージ部410に記憶された基本動作プログラム4001および映像コンテンツ管理/配信プログラム4002とアプリケーション管理/配布プログラム4004はそれぞれRAM404に展開され、更に主制御部401が前記展開された基本動作プログラムおよび映像コンテンツ管理/配信プログラムとアプリケーション管理/配布プログラムを実行することにより、基本動作実行部4101、映像コンテンツ管理/配信実行部4102、アプリケーション管理/配布実行部4104を構成する。
 なお、以下では、説明を簡単にするために、主制御部401がストレージ部410に格納された基本動作プログラム4001をRAM404に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作実行部4101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムに関しても同様の記述を行う。
 映像コンテンツ管理/配信実行部4102は、放送局サーバ300からの放送番組の番組コンテンツ等およびメタデータの取得、映像コンテンツ記憶領域4200およびメタデータ記憶領域4300に蓄積された映像コンテンツ等および各メタデータの管理、および各テレビ受信機に対する前記映像コンテンツ等および各メタデータの配信の制御を行う。更に、映像コンテンツ管理/配信実行部4102は、前記各テレビ受信機に対して前記各映像コンテンツ等および各メタデータの配信を行う際に、必要に応じて前記各テレビ受信機の認証処理等を行っても良い。また、アプリケーション管理/配布実行部4104は、アプリケーション記憶領域4400に蓄積された各アプリケーションの管理と、前記各アプリケーションを各テレビ受信機からの要求に応じて配布する際の制御と、を行う。更に、アプリケーション管理/配布実行部4104は、前記各テレビ受信機に対して前記各アプリケーションの配布を行う際に、必要に応じて前記各テレビ受信機の認証処理等を行っても良い。
 LAN通信部421は、インターネット200と接続され、インターネット200上の放送局サーバ300や、ルータ装置200rを介して放送受信装置100と通信を行う。LAN通信部421は符号回路や復号回路等を備えるものとする。
 [携帯情報端末のハードウェア構成]
 図10Aは、携帯情報端末700の内部構成の一例を示すブロック図である。携帯情報端末700は、主制御部701、システムバス702、ROM703、RAM704、ストレージ部710、通信処理部720、拡張インタフェース部724、操作部730、画像処理部740、音声処理部750、センサ部760、で構成される。
 主制御部701は、所定の動作プログラムに従って携帯情報端末700全体を制御するマイクロプロセッサユニットである。システムバス702は主制御部701と携帯情報端末700内の各動作ブロックとの間でデータ送受信を行うためのデータ通信路である。
 ROM703は、オペレーティングシステムなどの基本動作プログラムやその他の動作プログラムが格納されたメモリであり、例えばEEPROMやフラッシュROMのような書き換え可能なROMが用いられる。RAM704は基本動作プログラムやその他の動作プログラム実行時のワークエリアとなる。ROM703およびRAM704は主制御部701と一体構成であっても良い。また、ROM703は、図10Aに示したような独立構成とはせず、ストレージ部710内の一部記憶領域を使用するようにしても良い。
 ストレージ部710は、携帯情報端末700の動作プログラムや動作設定値、携帯情報端末700のユーザの個人情報等を記憶する。また、インターネット200を介してダウンロードした動作プログラムや前記動作プログラムで作成した各種データ等を記憶可能である。また、インターネット200を介してダウンロードした、動画、静止画、音声等のコンテンツも記憶可能である。ストレージ部710の一部領域を以ってROM703の機能の全部または一部を代替しても良い。また、ストレージ部710は、携帯情報端末700に外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。従って、例えば、フラッシュROMやSSDなどの不揮発性半導体素子メモリ、HDDなどの磁気ディスクドライブ、等のデバイスが用いられる。
 なお、ROM703やストレージ部710に記憶された前記各動作プログラムは、インターネット200上の各サーバ装置からのダウンロード処理により、追加、更新および機能拡張することが可能であるものとする。
 通信処理部720は、LAN通信部721、移動体電話網通信部722、NFC通信部723、で構成される。LAN通信部721は、ルータ装置200rやアクセスポイント200aを介してインターネット200と接続され、インターネット200上の各サーバ装置やその他の通信機器とデータの送受信を行う。ルータ装置200rやアクセスポイント200aとの接続はWi-Fi(登録商標)等の無線接続で行われるものとする。移動体電話網通信部722は、移動体電話通信網の基地局600bとの無線通信により、電話通信(通話)およびデータの送受信を行う。NFC通信部723は対応するリーダ/ライタとの近接時に無線通信を行う。LAN通信部721、移動体電話網通信部722、NFC通信部723は、それぞれ符号回路や復号回路、アンテナ等を備えるものとする。また、通信処理部720が、BlueTooth(登録商標)通信部や赤外線通信部等、他の通信部を更に備えていても良い。
 拡張インタフェース部724は、携帯情報端末700の機能を拡張するためのインタフェース群であり、本実施例では、映像/音声インタフェース、USBインタフェース、メモリインタフェース等で構成されるものとする。映像/音声インタフェースは、外部映像/音声出力機器からの映像信号/音声信号の入力、外部映像/音声入力機器への映像信号/音声信号の出力、等を行う。USBインタフェースは、PC等と接続してデータの送受信を行う。また、キーボードやその他のUSB機器の接続を行っても良い。メモリインタフェースはメモリカードやその他のメモリ媒体を接続してデータの送受信を行う。
 操作部730は、携帯情報端末700に対する操作指示の入力を行う指示入力部であり、本実施例では、表示部741に重ねて配置したタッチパネル730tおよびボタンスイッチを並べた操作キー730kで構成されるものとする。何れか一方のみであっても良い。拡張インタフェース部724に接続したキーボード等を用いて携帯情報端末700の操作を行っても良い。有線通信または無線通信により接続された別体の端末機器を用いて携帯情報端末700の操作を行っても良い。即ち、放送受信装置100から携帯情報端末700の操作を行っても良い。また、前記タッチパネル機能は表示部741が備え持っているものであっても良い。
 画像処理部740は、表示部741、画像信号処理部742、第一画像入力部743、第二画像入力部744、で構成される。表示部741は、例えば液晶パネル等の表示デバイスであり、画像信号処理部742で処理した画像データを携帯情報端末700のユーザに提供する。画像信号処理部742は図示を省略したビデオRAMを備え、前記ビデオRAMに入力された画像データに基づいて表示部741が駆動される。また、画像信号処理部742は、必要に応じてフォーマット変換、メニューやその他のOSD(On Screen Display)信号の重畳処理等を行う機能を有するものとする。第一画像入力部743および第二画像入力部744は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した光を電気信号に変換することにより、周囲や対象物の画像データを入力するカメラユニットである。
 音声処理部750は、音声出力部751、音声信号処理部752、音声入力部753、で構成される。音声出力部751はスピーカであり、音声信号処理部752で処理した音声信号を携帯情報端末700のユーザに提供する。音声入力部753はマイクであり、ユーザの声などを音声データに変換して入力する。
 センサ部760は、携帯情報端末700の状態を検出するためのセンサ群であり、本実施例では、GPS受信部761、ジャイロセンサ762、地磁気センサ763、加速度センサ764、照度センサ765、近接センサ766、で構成される。これらのセンサ群により、携帯情報端末700の位置、傾き、方角、動き、および周囲の明るさ、周囲物の近接状況、等を検出することが可能となる。また、携帯情報端末700が、気圧センサ等、他のセンサを更に備えていても良い。
 携帯情報端末700は、携帯電話やスマートホン、タブレット端末等であって良い。PDA(Personal Digital Assistants)やノート型PCであっても良い。また、デジタルスチルカメラや動画撮影可能なビデオカメラ、携帯型ゲーム機やナビゲーション装置等、またはその他の携帯用デジタル機器であっても良い。
 なお、図10Aに示した携帯情報端末700の構成例は、センサ部760等、本実施例に必須ではない構成も多数含んでいるが、これらが備えられていない構成であっても本実施例の効果を損なうことはない。また、デジタル放送受信機能や電子マネー決済機能等、図示していない構成が更に加えられていても良い。
 [携帯情報端末のソフトウェア構成]
 図10Bは、本実施例の携帯情報端末700のソフトウェア構成図であり、ROM703、RAM704およびストレージ部710におけるソフトウェアの構成を示す。本実施例においては、ROM703に基本動作プログラム7001およびその他の動作プログラムが記憶されており、ストレージ部710に連携制御プログラム7002およびその他の動作プログラムが記憶されている。また、ストレージ部710は、動画、静止画、音声等のコンテンツを記憶するコンテンツ記憶領域7200、テレビ受信機や各サーバ装置にアクセスする際に必要な認証情報等を記憶する認証情報記憶領域7300、その他の各種情報を記憶する各種情報記憶領域を備えるものとする。
 ROM703に記憶された基本動作プログラム7001はRAM704に展開され、更に主制御部701が前記展開された基本動作プログラムを実行することにより、基本動作実行部7101を構成する。また、ストレージ部710に記憶された連携制御プログラム7002も同様にRAM704に展開され、更に主制御部701が前記展開された連携制御プログラムを実行することにより、連携制御実行部7102を構成する。また、RAM704は、各動作プログラム実行時に作成したデータを、必要に応じて一時的に保持する一時記憶領域を備えるものとする。
 なお、以下では、説明を簡単にするために、主制御部701がROM703に格納された基本動作プログラム7001をRAM704に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作実行部7101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムに関しても同様の記述を行う。
 連携制御実行部7102は、携帯情報端末700がテレビ受信機との連係動作を行う際の、機器認証および接続、各データの送受信、等の管理を行う。また、連携制御実行部7102は、前記テレビ受信機と連動するアプリケーションを実行するためのブラウザエンジン機能を備えるものとする。
 前記各動作プログラムは、製品出荷の時点で、予めROM703および/またはストレージ部710に格納された状態であっても良い。製品出荷後に、インターネット200上のその他のアプリケーションサーバ500等からLAN通信部721または移動体電話網通信部722を介して取得するものであっても良い。また、メモリカードや光ディスク等に格納された前記各動作プログラムを、拡張インタフェース部724等を介して取得するものであっても良い。
 [放送受信装置の時刻管理]
 本実施例の放送受信装置は2種類の時刻管理機能を備える。1つ目の時刻管理機能は、NTPに基づく時刻管理機能であり、図7Cを用いて既に説明した通りである。二つ目の時刻管理機能は、MH-TOTに基づく時刻管理機能であり、図6Bで説明したMH-TOTにより伝送された時刻情報に基づいて管理される時刻である。
 NTPで伝送する時刻情報の構成の一例を図13Aに示す。また、前記MPUタイムスタンプ記述子のデータ構造の一例を図13Bに示す。前記NTP形式における『reference_timestamp』パラメータや『transmit_timestamp』パラメータ等は、64ビット長のNTP長形式の時刻データであり、また、前記MPUタイムスタンプ記述子における『mpu_presentation_time』パラメータも64ビット長のNTPタイムスタンプ形式の時刻データである。前記NTP長形式の時刻データや前記NTPタイムスタンプ形式の時刻データは、UTCの『秒以上』を32ビットで、『秒未満』を32ビットで表したデータである。即ち、NTP形式の時刻情報は、『秒未満』までの時刻情報を伝送可能である。更にNTP形式の時刻情報はUTC表記であるため、従来のデジタル放送におけるクロック管理と異なり、図3(B)に示すように通信回線経路(例えば、図7AのLAN通信部121で受信可能な通信回線)で受信する信号に含まれるNTPとも整合をとることができる。
 これに対し、MH-TOTで伝送される情報は以下の通りである。放送受信装置100は、MH-TOTにより現在日付と日本標準時刻を取得可能であるものとする。図11Aに、MH-TOTのデータ構造の一例を示す。放送受信装置100は、前記MH-TOTの『JST_time』パラメータから現在日付および現在時刻を取得可能である。『JST_time』パラメータは、図11Bに示すように、修正ユリウス日(Modified Julian Date:MJD)による現在日付の符号化データの下位16ビットと、日本標準時(Japan Standard Time:JST)を6個の4ビット2進化10進数(Binary-Coded Decimal:BCD)で表した24ビットの情報を含むものとする。前記MJDの16ビット符号化データに所定の演算を施すことにより、現在日付を算出することが可能である。6個の4ビット2進化10進数とは、2個の4ビット2進化10進数により10進法2桁で『時』を表し、次の2個の4ビット2進化10進数により10進法2桁で『分』を表し、最後の2個の4ビット2進化10進数により10進法2桁で『秒』を表すものである。
 よって、NTPに基づく時刻とMH-TOTに基づく時刻との相違点は、前者のNTPが前述のように『秒未満』までの時刻情報を伝送できるUTC表記の情報であるのに対し、MH-TOTで伝送される情報は、JST表記の『秒単位』までの情報であるという点である。
 本実施例の放送受信装置100は、UTC表記の時刻情報であるNTPに基づく時刻管理機能を、放送信号のコンテンツである映像、音声、字幕、文字スーパー、その他提示データのデコードおよび表示の同期処理に用いることにより、より高精度の同期処理を実現できる。更に放送局のクロック表記ではなく、UTC表記の情報を参照することにより、放送信号で受信する放送信号のコンテンツである映像、音声、字幕、文字スーパー、またはその他データと、通信回線経路で取得する映像、音声、字幕、文字スーパー、またはその他データとのデコードおよび表示の同期処理を行うこともできる。
 更に、本実施例の放送受信装置は、MH-TOTの6個の4ビット2進化10進数で表した24ビットの情報を含む『JST_time』に基づく時刻管理機能を、ユーザへの現在時刻の提示処理または図6Bで説明したMH-イベント情報テーブル(MH-EIT)を扱う各処理に用いれば良い。一般的に、放送受信装置におけるユーザへの現在時刻の提示処理においては、秒未満までの精度が要求されることはほとんどない。また、MH-イベント情報テーブル(MH-EIT)に記述される各時間情報は、MPEG2-TS方式で伝送される従来のデジタル放送のEITと同様に、6個の4ビット2進化10進数で表した24ビットの情報で10進法2桁ずつの『時』、『分』、『秒』で格納されている。このため、本実施例の放送受信装置100におけるMH-TOTに基づく時刻管理機能は、MH-EITを用いる処理と整合し易いためである。MH-EITを用いる処理とは具体的には、番組表の生成処理(後述する)や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等である。何れの処理も秒未満までの精度が要求されることは稀であり、1秒単位の精度で十分だからである。
 また、当該番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理は、従来のMPEG2-TS方式を用いたデジタル放送システムの受信機でも搭載される機能である。すると、本実施例の放送システムにおいても、番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等の処理において、従来のMPEG2-TS方式のデジタル放送システムと整合性がある時刻管理処理で対応できるように構成しておけば、従来のMPEG2-TS方式のデジタル放送の受信機能とMMT方式のデジタル放送の受信機能との両者を有する放送受信装置を構成する際に、これらの処理(番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等の処理)において、処理アルゴリズムを別々に設計する必要がなくなり、コストを低くすることができる。
 また、従来のMPEG2-TS方式のデジタル放送の受信機能を持たずMMT方式のデジタル放送の受信機能のみを有する受信機であっても、番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等の処理のアルゴリズムを完全に新規に作成しなくとも、従来のMPEG2-TS方式を用いたデジタル放送システムの受信機でも搭載される機能のアルゴリズムを流用できるので、より低コストに開発することができる。
 よって、MH-TOTの『JST_time』パラメータに基づく時刻管理機能をこれらの処理(番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等の処理)に用いる構成にすることにより、MMT方式のデジタル放送の放送受信装置であっても、従来方式の放送システムとの整合性を高めることにより、より低コストに提供することが可能となる。
 以上説明した通り、本実施例の放送受信装置100は、精度の異なる2種類の時刻情報を用いた時刻管理機能を備える。一方の時刻情報は従来のデジタル放送システムと整合性のある表記の時刻情報であり、他方の時刻情報は前記一方の時刻情報よりも分解能の高い時刻情報であり、後者の時刻情報を放送信号の各コンテンツデータの同期処理に用いることにより従来の放送システムよりも高度な情報提示処理を実現し、前者の時刻情報を番組表の生成処理や、録画予約や視聴予約の制御、一時蓄積などの著作権管理処理等に用いることにより放送受信装置を安価に提供することができる。
 よって、本実施例の放送受信装置100では、以上説明した2種類の時刻管理機能を備えることにより、より高度な情報提示処理の実現と低コスト化とを両立することが可能である。
 [時刻管理の第1の変形例]
 次に、本実施例の放送システムにおける時刻管理の第1の変形例を以下に説明する。
 第1の変形例では、図7Cを用いて既に説明したNTPに基づく時刻管理機能の当該管理時刻の精度を高めるために、時刻管理サーバ(図示省略)または放送局サーバ300から放送受信装置100までの時刻情報伝送における想定遅延時間に関する情報を放送信号に含めて送信し、放送受信装置100において、当該想定遅延時間に関する情報をNTPに基づく時刻管理機能のシステム時計の修正に用いるように構成しても良い。
 この際、当該想定遅延時間に関する情報は図3(A)に示すTLV多重化ストリーム内ではなく、TLV多重化ストリーム外のTMCC(Transmission and Multiplexing Configuration Control)領域内で伝送するように構成しても良い。TMCC領域内で伝送すれば、放送受信装置100において、TLV多重化ストリームの分離処理(デマックス処理)を経ることなしに当該想定遅延時間に関する情報を抽出することが可能となる。即ち、放送受信装置100における前記分離処理による遅延の影響を受けにくい情報取得が可能であり、従って、高精度なシステム時計の修正処理を行うことができる。当該TMCC信号で伝送される時刻情報のデータ構造の一例を、図13Cを用いて説明する。当該時刻情報は例えば、TMCC拡張情報領域に格納して伝送すれば良い。図13CのTMCC拡張情報領域の時刻情報において、『delta』パラメータは、UTCを配信する時刻管理サーバまたはTMCC信号を作成するサーバ装置から一般的な放送受信装置までの伝送遅延の想定値を32ビットの符号付き固定小数点で表す。なお、上位16ビットは整数部を、下位16ビットは小数点以下を記述するものである。『transmit_timestamp』パラメータは、送信タイムスタンプであり、本TMCC信号が前記サーバ装置から送出される時刻をNTPタイムスタンプ長形式で記述するものである。上位32ビットは整数部を、下位32ビットは小数点以下を表す。
 当該第1の変形例では、本実施例の放送受信装置100は、TMCC拡張情報領域に格納して伝送された当該時刻情報に記述された前記想定遅延時間に関する情報(例えば、前述の『delta』パラメータおよび/または『transmit_timestamp』パラメータ)を用いて、放送信号の各コンテンツデータの同期処理に用いるNTPに基づく時刻管理機能のシステム時計を、より高精度に修正することができる。
 [時刻管理の第2の変形例]
 次に、本実施例の放送システムにおける時刻管理の第2の変形例を以下に説明する。
 前述の通り、本実施例の放送受信装置100においては、MH-TOTで伝送される情報により現在日付と日本標準時刻を取得して時刻を管理する時刻管理機能を有する。MH-TOTで伝送される情報により取得した現在日付と日本標準時刻は、放送受信装置100の映像合成部161で映像情報やアプリケーション情報等に重畳することにより、モニタ部162や映像出力部163に出力してユーザに提供可能である。前述の通り、MH-TOTは図11Aに示すデータ構造を有しており、放送受信装置100は、前記MH-TOTの『JST_time』パラメータから現在日付および現在時刻を取得可能である。
 しかしながら、前述の『JST_time』パラメータでは、MJDの符号化データの下位16ビットのみを使用しているため、『2038年4月22日』を以って桁あふれを生じることとなり、前記所定の演算のみでは『2038年4月23日』以降の日付を表現することができない。そこで、本実施例の第2の変形例では、MJDの値が所定値以上の場合と所定値未満の場合とで演算方法を切り替えることにより、『2038年4月23日』以降の日付を表現できるように制御するものとする。
 図12に、MJDの値が所定値以上の場合に使用する第一の演算方法と、MJDの値が所定値未満の場合に使用する第二の演算方法の一例を示す。例えば、前記所定値を『32768(0x8000)』とした場合、MJDが『32768』以上の場合には前記第一の演算方法を用いて現在日付を算出し、MJDが『32768』未満の場合には前記第二の演算方法を用いて現在日付を算出する。なお、MJDが『32768』未満の場合とは、MJDの16ビットデータの最上位ビットが『0』の場合と等価である。これにより、本実施例の放送受信装置100においては、『2038年4月23日』以降の日付を表現することが可能となる。ただし、前記所定値は任意に設定することが可能であり、前記所定値を『16384(0x4000)』や『49152(0xC000)』等と設定しても良い。前記演算方法の切り替え条件は、MJDの16ビットデータの上位2ビットが『00』の場合、MJDの16ビットデータの上位2ビットが『11』ではない場合、としても良い。なお、前記所定値を『32768』として前述の手段を用いた場合、『1948年9月4日』以前の日付を表現できなくなるが、テレビ受信機としての実用上、特に問題となることはない。
 また、MJDと前記所定値との比較結果に応じて前記第一の演算方法と前記第二の演算方法を切り替えるのではなく、図11Aに示したMH-TOTのデータ構造における『reserved』パラメータの一部または全部を置き換えたフラグ或いは新たに追加したフラグに応じて前記第一の演算方法と前記第二の演算方法を切り替えるようにしても良い。例えば、前記フラグは、MJDの16ビット符号化データの最上位ビットが『0』である場合に、前記MJDが『2038年4月23日』以降を示すものであるならば『1』をセットし、『2038年4月23日』以降を示すものでないならば『0』をセットするようにすれば良い。そして、前記フラグが『1』の場合には図12に示した前記第二の演算方法を用い、前記フラグが『0』の場合には前記第一の演算方法を用いるようにすれば良い。または、前記フラグと同様の意味を有する記述子を新たに用意して、MH-TOT内に配置しても良い。
 また、本実施例の放送システムでは、前述の通り、NTP形式の絶対時刻を伝送し、本実施例の放送受信装置100は、当該NTPに基づく時刻管理機能を有する。更に、本実施例の放送受信装置100では、MPU単位に設定されるMPUタイムスタンプ記述子に記載されたNTPタイムスタンプ等を参照することにより、映像/音声信号の提示単位毎の復号タイミングおよび提示タイミングを制御している。前述の通り、前記NTP形式の時刻情報は、図13Aに示す構成を有している。また、前記MPUタイムスタンプ記述子は図13Bに示す構成を有している。
 このため、本実施例の放送受信装置100においては、前記『reference_timestamp』パラメータや『transmit_timestamp』パラメータ、或いは、『mpu_presentation_time』パラメータ等を参照し、前記参照した時刻データ等の値に応じて、前記第一の演算方法と前記第二の演算方法の何れを使用するかを選択するようにしても良い。即ち、例えば、前記64ビット長のNTP長形式の時刻データの最上位ビットが『0』の場合は前記第二の演算方法を使用し、『0』でない場合は前記第一の演算方法を使用する、等とすれば良い。
 前記何れの方法によっても、本実施例の放送受信装置100においては、『2038年4月23日』以降の日付を表現することが可能となる。
 [放送受信装置の選局処理(初期スキャン)]
 本実施例の放送システムのAMTは、TLV多重化方式で伝送されるIPパケットを通信回線で伝送されるIPパケットと可能な限り区別なく受信するための、IPパケットのマルチキャストグループの一覧を提供するものとする。1つのサービス識別には、複数のIPマルチキャストグループをリストすることが可能である。また、連続するIPアドレスを効率的に記述するために、アドレスマスクを用いることが可能である。
 本実施例の放送受信装置100では、初期設定の際のチャンネルスキャン時に、或いは、設定変更のための再スキャン時に、TLV-NITから取得したサービスの一覧をROM103やストレージ部110等の不揮発性メモリに記憶させることが可能であり、更に、前記各サービスに対応するIPマルチキャストグループの一覧を、IP関連情報として、前記各サービスに関連付けて、前記不揮発性メモリに記憶させることが可能であるものとする。前記サービスの一覧およびIP関連情報を不揮発性メモリに記憶させ、常時参照可能とすることにより、チャンネル切り替え時等に、TLV-NITやAMTを取得しなおす必要がなくなり、放送コンテンツの取得を効率よく行うことが可能となる。
 図14は、本実施例の放送受信装置100におけるチャンネルスキャン(再スキャン)時の動作シーケンスの一例を示す図である。
 チャンネルスキャンが開始されると、受信機能実行部1102は、チューナ/復調部131に対して周波数初期値を設定し、前記周波数値へのチューニングを行うように指示する(S101)。チューナ/復調部131において、前記設定された周波数値へのロックに成功する(S102:Yes)と、次に、受信機能実行部1102は、受信信号からTLV-NITを取得する(S103)。
 S103の処理で取得したTLV-NITが有効なデータである場合(S104:Yes)、受信機能実行部1102は、前記取得したTLV-NITからTLVストリームID、オリジナルネットワークID、等の情報を取得する(S105)。図15Aに、TLV-NITのデータ構造の一例を示す。前記TLVストリームIDの情報は『tlv_stream_id』パラメータから、前記オリジナルネットワークIDの情報は『original_network_id』パラメータから、それぞれ取得可能であるものとする。更に、分配システム記述子から、各TLVストリームID/オリジナルネットワークIDに対応する放送伝送路の物理的条件に関する分配システム情報を取得し(S106)、サービスリスト記述子からサービスIDの一覧を取得する(S107)。図15Bに、衛星分配システム記述子のデータ構造の一例を示す。図15Cに、サービスリスト記述子のデータ構造の一例を示す。なお、TLV-NITが、TLVストリームID、オリジナルネットワークID、分配システム情報、サービスIDの一覧、等の異なるデータを複数有している場合は、S105~S107の処理を繰り返す。次に、受信機能実行部1102は、S105~S107の処理で取得したTLVストリームID、オリジナルネットワークID、分配システム情報、サービスIDの一覧、等のデータに基づいてサービスリストを作成し、前記作成したサービスリストをROM103またはストレージ部110等に記憶(再スキャン時は更新)する(S108)。
 次に、受信機能実行部1102は、受信信号からAMTを取得し(S109)、更に、前記サービスリストに記憶された各サービスIDに関するIPマルチキャストグループの一覧を取得する(S110)。図15Dに、AMTのデータ構造の一例を示す。なお、AMTが複数のサービスIDに関するIPマルチキャストグループの一覧を有している場合は、S110の処理を繰り返す。異なるサービスIDに関するIPマルチキャストグループの一覧を有するAMTが複数ある場合には、S109~S110の処理を繰り返す。次に、受信機能実行部1102は、S110の処理で取得したIPマルチキャストグループの一覧を、IP関連情報として、前記サービスIDと関連付けて、ROM103またはストレージ部110等に記憶(再スキャン時は更新)する(S111)。
 なお、S102の処理で、チューナ/復調部131が前記設定された周波数値へのロックに成功しなかった場合(S102:No)、および、S103の処理で取得したTLV-NITが有効なデータでない場合(S104:No)、S105~S111の処理は行わない。
 S111の処理を終えると、受信機能実行部1102は、チューナ/復調部131に設定されている周波数値がチャンネルスキャン範囲の最終周波数値であれば(S112:Yes)、処理を終了する。一方、前記設定されている周波数値がチャンネルスキャン範囲の最終周波数値でなければ(S112:No)、チューナ/復調部131に設定された周波数値をアップさせて(S113)、S102~S111の処理を繰り返す。なお、1つのTLV-NITで、当該放送ネットワークを構成する全てのサービスに関するサービスIDを取得でき、更に、前記サービスIDに関するIPマルチキャストグループの一覧を有するAMTを取得できる場合には、S112~S113の処理が不要である。
 前述の一連の処理により、本実施例の放送受信装置100は、初期設定の際のチャンネルスキャン時に、或いは、設定変更のための再スキャン時に、放送ネットワークを構成するサービスの一覧(サービスリスト)の作成/更新と同時に、前記各サービスに対応するIPマルチキャストグループの一覧(IP関連情報)の作成/更新を行い、更に、ROM103やストレージ部110等の不揮発性メモリに記憶させることが可能となる。
 なお、前記設定変更のための再スキャンは、TLV-NITやAMTの『version_number』パラメータを参照することにより、テーブル内の情報に変化があったことを検出した場合に、自動的に行うようにしても良い。TLV-NITとAMTの一方の『version_number』パラメータの変化を検出した場合に、前記パラメータの変化が検出されたテーブルに関する情報のみを自動的に更新するようにしても良い。ただし、前述の自動更新を行った場合、再スキャンを自動的に行った旨をユーザに通知することが望ましい。また、前記テーブル内の情報に変化があったことをユーザに報知し、ユーザに前記再スキャンを行うか否かを選択させるようにしても良い。
 [放送受信装置の選局処理(チャンネル切り替え)]
 図16は、本実施例の放送受信装置100における選局(チャンネル切り替え)時の動作シーケンスの一例を示す図である。
 ユーザが図示を省略したリモコン等を操作してチャンネルの切り替えを指示すると、受信機能実行部1102が前記リモコンから送信されたコマンドを解釈して目的のサービスのサービスIDを指定する(S201)。次に、受信機能実行部1102は、チューナ/復調部131の受信信号からのAMTの取得を開始する。所定時間以内にAMTの取得に成功した場合(S202:Yes)、前記取得したAMTから前記サービスIDに対応するIPマルチキャストグループの一覧に関する情報を取得する(S204)。一方、所定時間以内にAMTの取得に成功しなかった場合(S202:No)、ROM103またはストレージ部110等に記憶されたIP関連情報を参照することにより(S203)、前記サービスIDに対応するIPマルチキャストグループの一覧に関する情報を取得する(S204)。なお、S202の判断処理を行わず、常にROM103またはストレージ部110等に記憶されたIP関連情報を参照するようにしても良い。
 次に、受信機能実行部1102は、チューナ/復調部131の受信信号からのTLV-NITの取得を開始する。所定時間以内にTLV-NITの取得に成功した場合(S205:Yes)、前記取得したTLV-NITから前記サービスIDに対応するIPデータフローを取得するための分配システム情報を取得する(S207)。一方、所定時間以内にTLV-NITの取得に成功しなかった場合(S205:No)、ROM103またはストレージ部110等に記憶されたサービスリストを参照することにより(S206)、前記サービスIDに対応するIPデータフローを取得するための分配システム情報を取得する(S207)。なお、S205の判断処理を行わず、常にROM103またはストレージ部110等に記憶されたサービスリストを参照するようにしても良い。S207の処理で分配システム情報を取得すると、次に、受信機能実行部1102は、前記取得した分配システム情報にて指示される周波数値を以ってチューナ/復調部131を制御し、前記サービスIDに対応するIPデータフローを受信し(S208)、前記受信したIPデータフローからMMTデータ列を抽出して、分離部132に出力する。
 分離部132において、トランスポート処理部1102aは、前記入力したMMTデータ列からパケットIDが『0』であるMMTPパケットを取得し(S209)、更に、前記取得したMMTPパケットに含まれるMPTを取得する(S210)。次に、トランスポート処理部1102aは、前記取得したMPTが有する『MMT_package_id_byte』パラメータを参照し、前記『MMT_package_id_byte』パラメータの下位16ビットが前記サービスIDと同一値か否かを確認する。図17に示すMPTのデータ構造の一例において、前記『MMT_package_id_byte』パラメータの下位16ビットが前記サービスIDと同一値である場合(S211:Yes)、前記パケットIDが『0』であるMMTPパケットが前記サービスIDに対応する番組のデータを有するMMTPパケットであるものと判断し、前記取得したMPTの有する情報に基づいてMFUの取得を実行する(S216)。
 一方、前記『MMT_package_id_byte』パラメータの下位16ビットが前記サービスIDと同一値でない場合(S211:No)、前記パケットIDが『0』であるMMTPパケットは前記サービスIDに対応する番組のデータを有するMMTPパケットではないと判断する。この場合、トランスポート処理部1102aは、あらためてPLTを取得し(S212)、前記取得したPLTを確認することにより、前記サービスIDに対応する『MMT_package_id_byte』パラメータを有するMPTを伝送するMMTPパケットのパケットID(xとする)を確認する(S213)。更に、トランスポート処理部1102aは、前記入力したMMTデータ列からパケットIDが『x』であるMMTPパケットを取得し(S214)、前記取得したMMTPパケットに含まれるMPTを取得する(S215)。更に、前記取得したMPTの有する情報に基づいて、MFUを取得する(S216)。
 なお、S209~S211の処理を行わず、常にS212~S215の処理を行うようにしても良い。この場合、前記サービスIDに対応する番組のデータがパケットID『0』以外のMMTPパケットに格納されている際に、処理時間の短縮が可能となる。
 S216の処理でMFUを取得すると、トランスポート処理部1102aは、前記取得したMFUから符号化映像データや符号化音声データ等を抽出し、映像デコーダ141や音声デコーダ143等に出力する。以下、AVデコード処理部1102bの制御に基づく映像/音声デコード処理や、提示処理部1102hの制御に基づく提示処理が行われるが、前記各処理に関しては公知であるため、詳細の説明を省略する。
 以上の一連の処理により、本実施例の放送受信装置100は、選局(チャンネル切り替え)動作を実行することが可能である。特に、図14および図16を用いて説明したように、初期設定の際のチャンネルスキャン時に、或いは、設定変更のための再スキャン時に、サービスリストやIP関連情報を作成して、ROM103やストレージ部110等の不揮発性メモリに記憶させて常時参照可能とし、選局(チャンネル切り替え)時に、ROM103やストレージ部110等の不揮発性メモリに記憶させた前記サービスリストやIP関連情報を参照することにより、選局(チャンネル切り替え)時の動作の効率向上を可能とする。即ち、選局(チャンネル切り替え)時にAMTやTLV-NITの再取得を行う場合と比較して、選局(チャンネル切り替え)開始から選局(チャンネル切り替え)終了までの時間を短縮することが可能となる。
 [放送受信装置の画面レイアウト制御]
 本実施例の放送受信装置100では、LCTの記述に基づいた画面レイアウト制御が可能であるものとする。図18にLCTのデータ構造の一例を示す。
 図中、特に、『left_top_pos_x』パラメータと『right_down_pos_x』パラメータは、全画面表示の左側を『0』/右側を『100』とした場合の、領域の左上の水平位置と右下の水平位置を、それぞれ水平方向の全画素数に対する割合で示すものとする。『left_top_pos_y』パラメータと『right_down_pos_y』パラメータは、全画面表示の上側を『0』/下側を『100』とした場合の、領域の左上の垂直位置と右下の垂直位置を、それぞれ垂直方向の全画素数に対する割合で示すものとする。また、『layer_order』パラメータは、領域の奥行き方向の相対位置を示すものとする。
 前記各パラメータの設定に基づいた、レイアウト番号へのレイアウトの割当の例を、前記各パラメータの設定値と共に、図19A~Dに示す。
 図19Aは、本実施例の放送受信装置100のデフォルトのレイアウト設定であり、全画面に1つの領域のみを設定する例である。図19Bは、全画面を三つの領域に分割し、それぞれの領域を『領域0』、『領域1』、『領域2』とした場合の例である。例えば、全画面の画素数を水平7680画素/垂直4320画素とした場合、『領域0』は、『left_top_pos_x』パラメータが『0』、『left_top_pos_y』パラメータが『0』、『right_down_pos_x』パラメータが『80』、『right_down_pos_y』パラメータが『80』であることから、(0,0)-(6143,3455)の範囲に設定される。同様に、『領域1』は、(6144,0)-(7679,4319)の範囲に設定され、『領域2』は、(0,3456)-(6143,4319)の範囲に設定される。
 図19Cは、図19Bと同様に三つの領域を設定する例であるが、『領域0』は、(0,0)-(7679,4319)の範囲に設定され、『領域1』と『領域2』は前述と同様の範囲で、『layer_order』パラメータの設定に応じて、『領域0』の前面に配置される。図19Dは、デバイス0(デフォルトのデバイス:本実施例では放送受信装置100)に『領域0』が設定され、デバイス1(本実施例においては、携帯情報端末700)に『領域1』が設定される場合の例である。
 前述のように、本実施例の放送システムにおいては、LCTを用いることにより、マルチメディアサービスを受信機上でサービス提供者の意図通りに表示するための画面レイアウト制御を行うことが可能となる。
 なお、前記『left_top_pos_x』等のパラメータの設定値に応じて画面を分割する際に生じた小数点以下の端数は、切り上げ若しくは切り捨て等の処理を行えば良い。四捨五入(或いは、二進数における零捨一入)の処理でも良い。例えば、全画面の画素数が7680画素/垂直4320画素で、『領域0』の『left_top_pos_x』パラメータが『0』、『left_top_pos_y』パラメータが『0』、『right_down_pos_x』パラメータが『51』、『right_down_pos_y』パラメータが『51』の場合、切り上げ処理により(0,0)-(3916,2203)の範囲に『領域0』を設定しても良いし、切り捨て処理により(0,0)-(3915,2202)の範囲に『領域0』を設定しても良い。また、映像圧縮処理の際のマクロブロックを考慮して、8画素単位や16画素単位等での切り上げ/切り捨て処理を行うようにしても良い。前記処理により、LCTに基づく領域設定や、前記領域におけるマルチメディアコンテンツの解像度変換処理を効率的に行うことが可能となる。
 [放送受信装置の画面レイアウト制御の例外処理]
 本実施例の放送受信装置100においては、前述のLCTにより画面レイアウトの領域制御が行われている場合であっても、ユーザによりEPG画面の表示が指示された場合等には、例外処理として、前記LCTの記述内容を無視した画面レイアウト制御を行うことが可能であるものとする。図20Aに、LCTに基づく画面レイアウト制御の例外処理の動作の一例を示す。
 LCTの記述により図19Bと同様の画面レイアウト制御が行われ、『領域0』に放送番組映像が表示され、『領域1』および『領域2』に前記放送番組に連携する番組連携データ等の放送コンテンツが表示されている状態で、ユーザが図示を省略したリモコンによりEPG画面の表示を指示した場合、本実施例の放送受信装置100では、図20A(A)に示したように、LCTの記述内容に関わらず画面レイアウト設定をデフォルトの設定(即ち、図19Aと同様の画面レイアウト制御が行われている状態)に戻し、EPG画面を画面全体に表示するように制御するものとする。更に、ユーザがEPG画面の表示終了を指示した場合に、LCTの記述内容に従った画面レイアウト制御を再実行するようにする。
 前述の制御を行うことにより、図20A(B)に示したような、画面レイアウトの領域制御を維持したままEPG画面の表示を行う場合と比較して、EPG画面を大きく表示することができ、見易さを向上させることが可能である。
 なお、前記画面レイアウト制御の例外処理は、EPG画面の表示を行う際にのみ適用されるものではなく、図20Bに示すように、放送受信装置100の各種設定画面(図示の例では録画設定画面)の子画面表示時や二画面表示時に適用されても良い。
 同図(A)に示した録画設定画面の場合、放送コンテンツの表示エリアは画面全体から画面右下の子画面部分のみに変更される。同様に、同図(B)に示した二画面表示の場合、放送コンテンツの表示エリアは画面全体から画面中段左側の分割画面部分のみに変更される。何れの場合も、放送コンテンツを表示するための表示エリアが、画面全体を使用する場合と比較して狭くなるため、前記表示エリア内で画面レイアウトの領域制御を維持したまま(即ち、領域分割を行って複数の放送コンテンツを同時に表示したまま)とすることは視認上好ましくはない。従って、本実施例の放送受信装置100においては、前記状況の際には、前記表示エリアに『領域0』の放送コンテンツのみを選択して表示するようにする。なお、直前の領域選択状況に応じて、『領域1』や『領域2』の放送コンテンツを選択して表示するようにしても良い。
 前述の制御を行うことにより、画面レイアウトの領域制御を維持したまま各種放送コンテンツの表示を行う場合と比較して、前記放送コンテンツの見易さを向上させることが可能となる。録画番組一覧画面における子画面表示やインターネットコンテンツのブラウザ表示時、等においても同様である。
 [放送受信装置のEPG表示]
 本実施例の放送システムでは、放送ネットワークを構成する各サービスに含まれるイベント(いわゆる番組)に関する時系列情報をMH-EITで伝送するものとする。図21に、本実施例のMH-EITのデータ構造の一例を示す。MH-EITは、テーブルID(図中の『talbe_id』パラメータに対応)により二つのクラスに識別され、自TLVストリームの現在/次のイベントの情報と自TLVストリームの各イベントのスケジュール情報を示すことが可能であるものとする。本実施例の放送受信装置100は、前記MH-EIT等を参照してサービスID(図中の『service_id』パラメータに対応)による識別を行うことにより、各イベントの開始時間や放送時間等の情報を取得してEPG画面を作成することが可能であり、前記作成したEPGを映像合成部161で映像情報等に重畳してモニタ部162に表示することが可能であるものとする。
 図22Aは、本実施例の放送受信装置100におけるEPG画面の一例を示す図である。EPG画面162aは、縦軸を時間表示、横軸をサービスID(チャンネル)表示としたマトリクス形状で、各時間帯に各チャンネルで放送される放送番組の詳細情報を表示するものとする。また、各放送番組の詳細情報162a1は、主としてタイトル領域162a2と詳細説明領域162a3で構成される。
 タイトル領域162a2には、前記放送番組の番組タイトルおよび前記放送番組の属性を表す記号等を表示する。前記放送番組の属性を表す記号等とは、例えば、新番組であることを示す記号/文字や、再放送番組であることを示す記号/文字、等である。或いは、放送サービスによるデータ放送に対応していることを意味する『data』を記号化した印等でも良い。また、前記放送番組に関連するコンテンツやアプリケーション等をネットワーク上から取得可能であることを意味する『NetWork』を記号化した印162a4等であっても良い。また、詳細情報162a1の背景色を他と差別化することにより、或いは、太枠で詳細情報162a1の表示領域を囲むことにより、前記放送番組の属性を表す記号等を代替しても良い。
 なお、本実施例の放送システムにおける各制御情報(メッセージ、テーブル、記述子、等)が、前記放送番組に関連するコンテンツやアプリケーション等がネットワーク上から取得可能であることを示している場合であっても、放送受信装置100のLAN通信部121にLANケーブルが接続されていない等、ネットワーク上の各サーバ装置へのアクセスができない状態である場合には、前記『NetWork』を記号化した印162a4等を表示しないように制御しても良い。
 また、前記放送番組がインターネット200を介して配信される配信番組であり、放送波のみからの取得ができない場合であって、更に、前述と同様に、放送受信装置100がネットワーク上の各サーバ装置へアクセスできない状態である場合等には、図22Bに示すように、EPG画面162b上に表示される詳細情報162b1の部分をグレーアウトするように制御しても良い。即ち、視聴できない配信番組の詳細情報は表示しないように制御する。また、詳細情報162b1の背景色を他と差別化することにより、前記グレーアウト処理の代替としても良い。図示を省略したリモコンの操作により詳細情報162b1を選択した場合に、放送受信装置100がネットワーク上の各サーバ装置へアクセスできない状態である旨を、或いは、詳細情報162b1に関連付けられた配信番組を視聴できない旨を、ポップアップ等によりユーザに報知するようにしても良い。
 前述の各制御により、放送受信装置100は、ネットワーク接続状況に応じて、ユーザに対してより違和感のない形式で各放送番組の番組情報を提供することが可能となる。
 図22Cは、本実施例の放送受信装置100におけるEPG画面の別の一例を示す図である。図中、『M1テレビ』、『M2放送』、『M3チャンネル』、『M4TV』、『テレビM5』等は、各チャンネルの放送局名称であり、特に、『M2放送』局は、放送波により配信される放送番組とインターネット200を介して配信される配信番組(図中の『ネット放送』で示される枠の情報162c1)を同時に提供しているものとする。
 同図に示したように、インターネット200を介して配信する配信番組のみを有するチャンネルがある場合、通常時は同図(A)のEPG画面162cに示すように(情報162c1を含む)全てのチャンネルの情報を表示するように制御する。一方、放送受信装置100がネットワーク上の各サーバ装置へアクセスできない状態である場合等には、同図(B)のEPG画面162dに示すように、インターネット200を介して配信する配信番組のみを有する『M2放送(ネット放送)』のチャンネルの情報(同図(A)における情報162c1)を表示しないように制御しても良い。
 前述の各制御により、放送受信装置100のユーザは、自分の視聴できないチャンネルの情報の確認を不要とすることが可能となる。
 [放送受信装置の緊急警報放送表示]
 本実施例の放送受信装置100は、TLVストリームを含む伝送データに含まれるTMCC信号の緊急警報放送起動制御信号ビットが『0』から『1』になった場合に、緊急警報放送の受信処理を行うことが可能であるものとする。
 前記緊急警報放送は、全画面表示のアプリケーションとして提供されても良いし、文字情報として文字スーパーで提供されても良い。前記緊急警報放送が文字情報として文字スーパーで提供されている場合、緊急警報放送の受信直前の放送受信装置100の状態に関わらず、前記文字スーパーの文字情報を表示することが好ましい。即ち、図23に示すように、ユーザが通常の放送番組を視聴し、モニタ部162に前記放送番組の番組画面162eが表示されている状態で緊急警報放送を受信した場合、前記緊急警報放送による文字情報162e1を番組画面162eに重畳して表示するようにする。同様に、ユーザがEPG画面の表示を指示し、モニタ部162にEPG画面162fが表示されている状態で緊急警報放送を受信した場合、前記緊急警報放送による文字情報162f1をEPG画面162fに重畳して表示するように制御する。
 前述の制御により、本実施例の放送受信装置100においては、ユーザがEPG画面や各種設定画面、録画番組一覧画面、インターネットブラウザ等を選択して表示させている場合であっても、緊急警報放送を受信した際には、前記緊急警報放送に基づく重要な文字情報の見逃しを回避することが可能となる。なお、この制御は、緊急警報放送によらない通常の文字スーパーの文字情報に対して行われても良い。
 [各種例外処理]
 本実施例の放送受信装置100は、同一パッケージ内のTLVストリーム外データが取得できない場合、例えは、下記の様な例外処理を行っても良い。
 図6Eで説明した通り、本実施例の放送受信装置100が対応する放送システムにおいては、MPTに格納されるロケーション情報(図17の『MMT_general_location_info()』に対応)に基づいて、TLVストリーム内で取得するデータとTLVストリーム以外の経路で取得するデータとを同一のパッケージに含めることができる。しかしながら、ロケーション情報が指し示す、TLVストリーム以外のデータ伝送経路(例えば、IPv4データフロー、IPv6データフロー、放送のMPEG2-TSなど)は、TLV/MMTストリームの受信機能とは別の受信機能である。よって、放送受信装置100の動作中であっても、これらの伝送経路の受信機能が動作していない状況や、受信機能自体は動作していても中継装置等が動作していない状況や、これらの伝送経路の有線または無線接続がされていない状況や、そもそもこれらの伝送経路の接続できない環境に放送受信装置100が設置されている状況など、これらの伝送経路からデータが取得できない状況もありうる。
 このような状況下で、MPTに格納されるロケーション情報が、TLVストリーム内で取得するデータとTLVストリーム以外の経路で取得するデータとを同一のパッケージに含めるように対応付けることを示しているイベントを受信した場合、本実施例の放送受信装置100は、例えば以下のような動作を行っても良い。
 例えば、LCTが、図19Bや図19Cのように、画面内に複数の領域を設定しており、『領域0』にTLVストリーム内に含まれる映像を表示し、『領域1』や『領域2』にTLVストリーム以外の伝送経路で取得したデータが表示されるように対応付けられている場合であって、『領域1』や『領域2』に表示すべきTLVストリーム以外の伝送経路のデータが取得できない場合、LCTが指定する複数領域のレイアウト表示を禁止しても良い。具体的には、当該LCTを受信しても図19Aに示すデフォルトレイアウト表示の『領域0』にTLVストリーム内で受信する当該コンテンツの映像を表示した状態のままとし、図19Bや図19Cのような複数領域のレイアウト表示に移行しないようにすれば良い。また、更にこの状態で、デフォルトレイアウトからLCTの示すレイアウトへの変更指示が図7Aの操作入力部170に入力されたとしても、図19Aに示すデフォルトレイアウト表示のままとしたり、その他のデータ放送画面に切り替えるなどして、図19Bや図19Cのような複数領域のレイアウト表示に移行しないようにしても良い。
 LCTが、図19Bや図19Cのように、画面内に複数の領域を設定しており、『領域0』にTLVストリーム内に含まれる映像を表示し、『領域1』や『領域2』にTLVストリーム以外の伝送経路で取得したデータが表示されるように対応付けられている場合であって、『領域1』や『領域2』に表示すべきTLVストリーム以外の伝送経路のデータが取得できない場合の別の動作例としては、一旦、LCTが示す図19Bや図19Cの複数領域の表示枠を表示し、『領域1』や『領域2』については背景色や所定の静止画を表示しておき、所定時間を経過してもMPTのロケーション情報が示すTLVストリーム以外の伝送経路のデータが取得できない場合は、図19Aに示すデフォルトレイアウト表示の状態に戻す表示切り替えを行っても良い。この場合は、図19A、図19B、図19Cのレイアウトの変更時も『領域0』にはTLVストリーム内に含まれる番組映像が継続して表示されるように動作すれば、ユーザの番組映像自体は継続するので好ましい。
 また、『領域1』や『領域2』に表示すべきTLVストリーム以外の伝送経路のデータが取得できないことにより、図19Aに示すデフォルトレイアウト表示の『領域0』にTLVストリーム内で受信する当該コンテンツの映像を表示した状態となっているときに、本実施例の放送受信装置100の各種通信機能や各種受信機能の動作が開始したり、各種通信機能の通信環境、通信状況や各種受信機能の受信環境や受信状況が変化したことにより、『領域1』や『領域2』に表示すべきTLVストリーム以外の伝送経路のデータが取得できる状況になることもありうる。この場合、本実施例の放送受信装置100は、ただちに、図19Aに示すデフォルトレイアウト表示から、LCTが示す図19Bや図19Cに示すような複数領域のレイアウトに切り替えて、『領域0』にTLVストリーム内で受信する当該コンテンツの映像を表示し、『領域1』や『領域2』にTLVストリーム以外の伝送経路から取得したデータを表示するように切り替えても良い。また、当該レイアウト変更をすぐには行わずに、デフォルトレイアウトからLCTの示すレイアウトへの変更指示が操作入力部170から入力されてから当該レイアウト変更を実行しても良い。
 [著作権保護機能]
 本実施例の放送受信装置100が対応するデジタル放送システムにおいて、MPTにコピー制御情報を含めて伝送することにより、例えば、当該コピー制御情報により『無制限にコピー可』(『無制限にコピー可かつ蓄積および出力時に暗号化処理要』と『無制限にコピー可かつ蓄積および出力時に暗号化処理不要』の2種類に分けても良い)、『1世代のみコピー可』、『所定複数回数コピー可』(例えば、9回コピー可+ムーブ1回可ならいわゆる『ダビング10』)、『コピー禁止』など、MPTが参照するコンテンツのコピー制御状態を示して伝送するように構成しても良い。この場合、本実施例の放送受信装置100は当該コピー制御情報に応じて、当該コンテンツのストレージ(蓄積)部110への蓄積、リムーバブル記録媒体への記録、外部機器への出力、外部機器へのコピー、外部機器へのムーブ処理などを制御するように構成しても良い。なお、蓄積処理の対象は放送受信装置100内部のストレージ(蓄積)部110のみならず、放送受信装置100のみで再生可能となるように暗号化処理等の保護処理を施した記録を含んでも良い。具体的には、蓄積処理の対象には外付けの記録装置などのうち、放送受信装置100のみで記録再生可能な状態にしたものなどが含まれる。
 当該コピー制御情報に基づく処理の具体例を以下に説明する。
 まず、MPTに含まれるコピー制御情報が『無制限にコピー可』を示す場合は、本実施例の放送受信装置100は、ストレージ(蓄積)部110への蓄積、リムーバブル記録媒体への記録、外部機器への出力、外部機器へのコピー、外部機器へのムーブ処理を制限なしに行ってかまわない。ただし、『無制限にコピー可かつ蓄積および出力時に暗号化処理要』と『無制限にコピー可かつ蓄積および出力時に暗号化処理不要』とが分かれている場合は、『無制限にコピー可かつ蓄積および出力時に暗号化処理要』の際には、ストレージ(蓄積)部110への蓄積、リムーバブル記録媒体への記録、外部機器への出力、外部機器へのコピー、外部機器へのムーブ処理を回数に制限なく行うことができるが、何れも暗号化処理を施す必要がある。
 また、MPTに含まれるコピー制御情報が『1世代のみコピー可』を示す場合は、本実施例の放送受信装置100は、ストレージ(蓄積)部110への暗号化しての蓄積を可能とするが、蓄積後のコンテンツを外部機器へ視聴用に出力する場合には、『コピー禁止』のコピー制御情報とともに暗号化して出力することとする。ただし、外部機器へのいわゆるムーブ処理(外部機器へコンテンツをコピーし、放送受信装置100のストレージ(蓄積)部110内のコンテンツは消去処理などにより再生不能化する処理)は可能とする。
 また、MPTに含まれるコピー制御情報が『所定複数回数コピー可』を示す場合は、本実施例の放送受信装置100は、ストレージ(蓄積)部110へ暗号化して蓄積することを可能とするが、蓄積後のコンテンツを外部機器へ視聴用に出力する場合には、『コピー禁止』のコピー制御情報とともに暗号化して出力することとする。ただし、外部機器へ予め定められた数のコピーとムーブ処理を可能として良い。いわゆる『ダビング10』規定の場合は、外部機器へ9回のコピーと1回のムーブ処理を行って良い。
 また、MPTに含まれるコピー制御情報が『コピー禁止』を示す場合は、本実施例の放送受信装置100は、ストレージ(蓄積)部110へのコピーを禁止する。ただし、放送受信装置100は予め定められた所定時間または放送信号に含まれる制御情報(例えば、図6Dに示したMH-Expire記述子等による)により指定される所定時間のみストレージ(蓄積)部110への保持を可能とする『一時蓄積』モードを有するように構成する場合には、MPTに含まれるコピー制御情報が『コピー禁止』を示す場合であっても、ストレージ(蓄積)部110への当該コンテンツの一時的な保持を可能とする。MPTに含まれるコピー制御情報が『コピー禁止』の当該コンテンツを外部機器への視聴用として出力する場合には、『コピー禁止』のコピー制御情報とともに暗号化して出力することとする。
 なお、前述の外部機器への視聴用の出力は、図7Aの映像出力部163と音声出力部166、或いは、デジタルI/F部125やLAN通信部121などを介して行えば良い。前述の外部機器へコピーまたはムーブ処理は、図7AのデジタルI/F部125やLAN通信部121などを介して行えば良い。
 以上説明した処理によれば、コンテンツと対応付けられたコピー制御情報に応じて、適切なコンテンツ保護を実現することができる。
 また、コピー制御情報が、『1世代のみコピー可』、『所定複数回数コピー可』、『コピー禁止』などのコピー制限を示しているコンテンツのLAN通信部121を介した外部機器へのコピー処理については、放送受信装置100からの送信パケットの宛先である外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット内にある場合のみ可能とし、外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット外にある場合は、禁止しても良い。コピー制御情報が『無制限にコピー可かつ蓄積および出力時に暗号化処理要』のコンテンツも同様に扱っても良い。
 同様に、コピー制御情報が、『1世代のみコピー可』、『所定複数回数コピー可』、『無制限にコピー可かつ蓄積および出力時に暗号化処理要』などのコピー制限を示しているコンテンツを一度ストレージ(蓄積)部110へ蓄積した後、LAN通信部121を介して外部機器へムーブする処理についても、放送受信装置100からの送信パケットの宛先である外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット内にある場合のみ可能とし、外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット外にある場合は、禁止しても良い。
 放送受信装置100のストレージ(蓄積)部110へ蓄積したコンテンツについての視聴用映像出力、音声出力は、原則として、放送受信装置100からの送信パケットの宛先である外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット内にある場合のみ可能とし、外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット外にある場合は禁止する。ただし、当該外部機器が所定期間以内に、放送受信装置100のIPアドレスと同一サブネット内で接続されており、かつ、放送受信装置100のIPアドレスと同一サブネット外でも視聴可能な機器としての登録処理(ペアリング)がなされている機器の場合は、外部機器のIPアドレスが、放送受信装置100のIPアドレスと同一サブネット外であっても、当該外部機器への放送受信装置100のストレージ(蓄積)部110へ蓄積したコンテンツについての視聴用映像出力、音声出力を可能とするように構成しても良い。この場合、当該視聴用映像出力、音声出力はコンテンツに暗号化を施して行う。
 以上説明した処理によれば、外部機器が放送受信装置100のIPアドレスと同一サブネット内にあるか同一サブネット外にあるかに対応して異なる処理を行うことでユーザの利便性とコンテンツ保護の両立を実現できる。
 次に、図6Eで説明したように、本実施例の放送受信装置100が対応するデジタル放送システムでは、MPT内のロケーション情報(図17の『MMT_general_location_info()』)により、放送経路のTLVストリームで取得したデータと違う経路(IPv4、IPv6、MPEG2-TS、URL、等)で取得したデータもTLVストリームで取得したデータと同一パッケージかつ同一イベントに含まれることがありうるが、このときMPTにコピー制御情報が含められている場合のコンテンツ保護について説明する。
 まず、MPTにコピー制御情報が含まれる場合、ロケーション情報で同一パッケージかつ同一イベントに含まれるデータは、放送経路のTLVストリームで取得したデータと違う経路(IPv4、IPv6、MPEG2-TS、URL、等)で取得したデータであっても、TLVストリームに含まれるコピー制御情報に従って、制御するようにしても良い。これらのコピー制御情報によって、指定されるコンテンツのコピー制御状態としては、前述の通り、『無制限にコピー可』(『無制限にコピー可かつ蓄積および出力時に暗号化処理要』と『無制限にコピー可かつ蓄積および出力時に暗号化処理不要』の2種類に分けても良い)、『1世代のみコピー可』、『所定複数回数コピー可』(例えば、9回コピー可+ムーブ1回可ならいわゆる『ダビング10』)、『コピー禁止』などを指定可能とする。
 ここで、ロケーション情報が示すデータの位置が、他のデジタル放送信号で伝送されるMPEG2-TSのデータを含む場合、当該MPEG2-TSのデータは、他のデジタル放送信号でもコピー制御情報と対応付けられて放送されている。すると、当該MPEG2-TSのデータのコピー制御をどの情報に従ってどのように行うか(TLV/MMTストリームに含まれるコピー制御情報に従うのか、MPEG2-TSに含まれるコピー制御情報に従うのか)が問題となる。
 本実施例のデジタル放送システムでは、この課題の解決策として、放送受信装置100において、下記複数の解決策の何れかの動作を行うようにすれば良い。
 <動作例1>
 第一の動作例では、MPTにコピー制御情報が含まれ、ロケーション情報で同一パッケージかつ同一イベントに含まれるデータに他のデジタル放送信号で伝送されるMPEG2-TSのデータを含む場合に、MPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態よりも、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態を優先して制御する。
 例えば、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態が『1世代コピー可』であり、MPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態が『所定複数回コピー可』であれば、TLVストリームで取得したデータと違う経路(MPEG2-TS伝送形式のデジタル放送)で取得したデータであっても、『1世代コピー可』のコンテンツとしてコピー制御を行っても良い。例えば、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態が『無制限にコピー可』であり、MPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態が『所定複数回コピー可』であれば、TLVストリームで取得したデータと違う経路(MPEG2-TS伝送形式のデジタル放送)で取得したデータであっても、『無制限にコピー可』のコンテンツとしてコピー制御を行っても良い。
 この動作の場合、TLVストリーム以外の経路で取得したデータについても本実施例の放送受信装置100が対応する放送システムにおいて管理したいコピー状態にすることができる。
 <動作例2>
 第二の動作例では、MPTにコピー制御情報が含まれ、ロケーション情報で同一パッケージかつ同一イベントに含まれるデータに他のデジタル放送信号で伝送されるMPEG2-TSのデータを含む場合に、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態とMPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態とを比較し、MPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態の方がTLVストリームに含まれるコピー制御情報により示されるコピー制御状態よりも厳しい場合は、ストレージ(蓄積)部110などへの蓄積処理、リムーバブル記録媒体への記録処理、またはデジタルインタフェースからの出力処理をする際に、当該MPEG2-TSのデータを処理対象コンテンツから除外するように動作する。
 この動作の場合、TLVストリーム以外の経路で取得したデータについては、当該データを伝送する放送システムで設定されたオリジナルのコピー制御情報を尊重しながら、本実施例の放送受信装置100上でのコピー制御状態の重複を解消することができる。
 また、当該比較の結果、MPEG2-TSに含まれるコピー制御情報により示されるコピー制御状態が、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態と同じ状態または、より緩いコピー制御状態の場合は、当該ロケーション情報で同一パッケージかつ同一イベントに含まれるMPEG2-TSのデータについても、TLVストリームに含まれるコピー制御情報により示されるコピー制御状態のコンテンツとしてコピー制御を行えば良い。
 この動作の場合、TLVストリーム以外の経路で取得したデータについては、当該データを伝送する放送システムで設定されたオリジナルのコピー制御情報を尊重しながら、本実施例の放送受信装置100上でのコピー制御状態の重複を解消することができる。
 以上の説明において、本実施例の放送受信装置100の著作権保護機能は、MPTに含まれるコピー制御情報に基づいて行うこととして説明した。しかし、コピー制御情報を配置するテーブルはMPTに限定されない。MPT以外にも、図6Bで説明したMH-サービス記述テーブル(MH-SDT)やMH-イベント情報テーブル(MH-EIT)、或いはその他のテーブルに配置して伝送し、放送受信装置100はこれらに従って著作権保護処理を行っても良い。
 以上説明した本実施例によれば、MMTのデジタル放送に対応した放送受信機を提供することができる。
 (実施例2)
 以下では、本発明の実施例2に関して説明する。なお、本実施例における構成、処理および効果等は特に断りのない限り実施例1と同様であるものとする。このため、以下では、本実施例と実施例1との相違点を主に説明し、共通する点については重複を避けるため極力説明を省略する。また、本実施例の放送受信装置は、メディアトランスポート方式として、MMT方式とMPEG2-TS方式の双方に対応するテレビ受信機であるものとして、以下、説明を行う。
 [放送受信装置のハードウェア構成]
 図24は、放送受信装置800の内部構成の一例を示すブロック図である。放送受信装置800は、主制御部801、システムバス802、ROM803、RAM804、ストレージ部810、LAN通信部821、拡張インタフェース部824、デジタルインタフェース部825、第一チューナ/復調部831、第二チューナ/復調部832、MMTデコード処理部841、MPEG2-TSデコード処理部842、映像合成部861、モニタ部862、映像出力部863、音声合成部864、スピーカ部865、音声出力部866、操作入力部870、で構成される。
 主制御部801、システムバス802、ROM803、RAM804、ストレージ部810、拡張インタフェース部824、デジタルインタフェース部825、モニタ部862、映像出力部863、スピーカ部865、音声出力部866、操作入力部870、等は、実施例1の放送受信装置100における主制御部101、システムバス102、ROM103、RAM104、ストレージ(蓄積)部110、拡張インタフェース部124、デジタルインタフェース部125、モニタ部162、映像出力部163、スピーカ部165、音声出力部166、操作入力部170、等とそれぞれ同等の機能を有するものとし、詳細な説明を省略する。
 第一チューナ/復調部831は、図示を省略したアンテナを介して、メディアトランスポート方式としてMMTを採用した放送サービスの放送波を受信し、主制御部801の制御に基づいてユーザの所望するサービスのチャンネルに同調(選局)する。更に、第一チューナ/復調部831は、受信した放送信号を復調してMMTデータ列を取得し、MMTデコード処理部841に出力する。第二チューナ/復調部832は、図示を省略したアンテナを介して、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスの放送波を受信し、主制御部801の制御に基づいてユーザの所望するサービスのチャンネルに同調(選局)する。更に、第二チューナ/復調部832は、受信した放送信号を復調してMPEG2-TSデータ列を取得し、MPEG2-TSデコード処理部842に出力する。
 MMTデコード処理部841は、第一チューナ/復調部831から出力されたMMTデータ列を入力し、前記MMTデータ列に含まれる制御信号に基づいてリアルタイム提示要素である映像データ列、音声データ列、文字スーパーデータ列、字幕データ列、等の分離処理、および復号処理等を行う。MMTデコード処理部841は、実施例1の放送受信装置100における、分離部132、映像デコーダ141、映像色域変換部142、音声デコーダ143、文字スーパーデコーダ144、字幕デコーダ145、字幕合成部146、字幕色域変換部147、データデコーダ151、キャッシュ部152、アプリケーション制御部153、ブラウザ部154、アプリケーション色域変換部155、音源部156、等に相当する機能を備えるものとする。MMTデコード処理部841は、実施例1で説明した各種処理を行うことが可能である。なお、前記各種処理の詳細は実施例1で説明した通りであるので、説明を省略する。
 MPEG2-TSデコード処理部842は、第二チューナ/復調部832から出力されたMPEG2-TSデータ列を入力し、前記MPEG2-TSデータ列に含まれる制御信号に基づいてリアルタイム提示要素である映像データ列、音声データ列、文字スーパーデータ列、字幕データ列、等の分離処理、および復号処理等を行う。MPEG2-TSデコード処理部842は、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスの放送波を受信する従来のテレビ受信機のIRD(Integrated Receiver Decoder)部と同等の機能を備えるものとし、詳細な説明を省略する。
 映像合成部861は、MMTデコード処理部841から出力された映像情報や字幕情報やアプリケーション情報と、MPEG2-TSデコード処理部842から出力された映像情報や字幕情報やアプリケーション情報と、を入力し、適宜選択および/または重畳等の処理を行う。映像合成部861は図示を省略したビデオRAMを備え、前記ビデオRAMに入力された映像情報等に基づいてモニタ部862等が駆動される。また、映像合成部861は、主制御部801の制御に基づいて、必要に応じて、スケーリング処理やEPG画面情報の重畳処理等を行う。音声合成部164は、MMTデコード処理部841から出力された音声情報とMPEG2-TSデコード処理部842から出力された音声情報を入力し、適宜選択および/またはミックス等の処理を行う。
 LAN通信部821は、ルータ装置200rを介してインターネット200と接続され、インターネット200上の各サーバ装置やその他の通信機器とデータの送受信を行う。また、通信回線を介して伝送される番組のMMTデータ列(或いは、その一部)やMPEG2-TSデータ列(或いは、その一部)を取得し、適宜、MMTデコード処理部841やMPEG2-TSデコード処理部842に出力する。
 [放送受信装置の時刻表示]
 本実施例の放送受信装置800では、EPG画面や各種設定画面等において、現在日付や現在時刻を表示可能であるものとする。前記現在日付や現在時刻に関する情報は、メディアトランスポート方式としてMMTを採用した放送サービスにおいてはMH-TOT等により送信され、また、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスにおいてはMPEG-2システムに規定されたSI(Service Information)が備えるTOT(Time Offset Table)等により送信される。放送受信装置800は、前記MH-TOTや前記TOTを参照することにより、前記現在日付や現在時刻に関する情報を取得可能である。
 また、一般的には、映像合成部861がMMTデコード処理部841から出力された映像情報等を主として選択している場合には、前記MH-TOTから取得した現在日付や現在時刻に関する情報を前記映像情報等に重畳し、映像合成部861がMPEG2-TSデコード処理部842から出力された映像情報等を主として選択している場合には、前記TOTから取得した現在日付や現在時刻に関する情報を前記映像情報等に重畳するように制御すれば良い。
 しかしながら、メディアトランスポート方式としてMMTを採用した放送サービスとメディアトランスポート方式としてMPEG2-TSを採用した放送サービスとでは、符号化処理/復号処理や伝送経路等に差異があるため、特に現在時刻表示において、メディアトランスポート方式としてMMTを採用した放送サービスの選択時とメディアトランスポート方式としてMPEG2-TSを採用した放送サービスの選択時とで、不整合を生じる可能性がある。例えば、図25に示すように、メディアトランスポート方式としてMMTを採用した放送サービスのチャンネル情報を表示するEPG画面162gからメディアトランスポート方式としてMPEG2-TSを採用した放送サービスのチャンネル情報を表示するEPG画面162hに画面表示を切り替えた際に、現在時刻の表示が現在時刻表示162g1から現在時刻表示162h1に切り替わることによる不整合によって、視覚的違和感をユーザに覚えさせる可能性を有するものである。
 本実施例の放送受信装置800では、前記ユーザの視覚的違和感を防止するために、映像合成部861がMMTデコード処理部841から出力された映像情報等を主として選択している場合であっても、前記TOTから取得した現在日付や現在時刻に関する情報を前記映像情報等に重畳するように制御する。即ち、メディアトランスポート方式としてMMTを採用した放送サービスのコンテンツに、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスで提供される現在時刻情報を重畳するように制御するものである。
 前記制御を行うことにより、本実施例の放送受信装置800は、現在時刻を表示する際に、常に前記TOTを参照して取得した現在時刻情報を表示するようになる。従って、メディアトランスポート方式としてMMTを採用した放送サービスとメディアトランスポート方式としてMPEG2-TSを採用した放送サービスとを切り替えた際にも、現在時刻の表示の不整合による視覚的違和感をユーザに覚えさせることを防止することが可能となる。
 なお、図26Aに、本実施例の放送受信装置800における、各放送サービスの受信状況に応じた現在時刻情報参照元の選択制御の一例を示す。本実施例の放送受信装置800では、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスの受信が可能な状態にある場合には、常に前記TOTを参照して現在時刻情報を取得するようにし、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスの受信が不可の状態で、かつメディアトランスポート方式としてMMTを採用した放送サービスの受信が可能な状態にある場合にのみ、前記MH-TOTを参照して現在時刻情報を取得するように制御する。
 また、前述の制御とは逆に、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスのコンテンツに、メディアトランスポート方式としてMMTを採用した放送サービスで提供される現在時刻情報を重畳するように制御しても、前述と同様の効果が得られる。
 なお、前述のように、メディアトランスポート方式としてMMTを採用した放送サービスのコンテンツに、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスで提供される現在時刻情報を重畳するように制御する場合と、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスのコンテンツに、メディアトランスポート方式としてMMTを採用した放送サービスで提供される現在時刻情報を重畳するように制御する場合の、何れの場合においても、実施例1の[放送受信装置の時刻管理]での説明と同様に、前記TMCC拡張情報領域の時刻情報の『delta』パラメータを参照することにより、前記現在時刻情報を補正することが可能である。
 また、メディアトランスポート方式としてMMTを採用した放送サービスとメディアトランスポート方式としてMPEG2-TSを採用した放送サービスの何れの場合においても、ネットワークを構成する各放送サービスが伝送するMH-TOTまたはTOTが送信側システムの不具合や伝送エラー等による誤りを有する可能性が考えられる。本実施例の放送受信装置800では、前記MH-TOTまたはTOTの前記誤りに対する対策として、受信中のサービスから取得したMH-TOTまたはTOTが誤りを有すると判断した場合には、同一ネットワークの他の放送サービスから、或いは、他のネットワークの任意の放送サービスから、MH-TOTまたはTOTを取得して現在時刻情報を参照することにより、内蔵クロックの時刻情報の更新処理を行うよう機能を有するものとする。
 図26Bに、本実施例の放送受信装置800における、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスを受信している際の、現在時刻情報の更新処理の一例を示す。なお、メディアトランスポート方式としてMMTを採用した放送サービスを受信している際であっても、同図に示した処理と同様の処理が可能である。
 本実施例の放送受信装置800において内蔵クロックの時刻情報を更新する場合、まず、受信機能実行部1102が現在受信中の放送サービス(メディアトランスポート方式としてMPEG2-TSを採用した放送サービス)のMPEG2-TSデータ列からTOTを取得し(S301)、更に、前記取得したTOTを参照することにより、現在時刻情報を取得する(S302)。次に、受信機能実行部1102はS302の処理で取得した前記現在時刻情報と内蔵クロックの時刻情報を比較する処理を行う。
 前記比較処理の結果、S302の処理で取得した前記現在時刻情報と内蔵クロックの時刻情報の差が所定値以内(例えば、3分以内)の場合(S303:Yes)、受信機能実行部1102は、S302の処理で取得した前記現在時刻情報を以って、内蔵クロックの時刻情報の更新を行う(S306)。一方、前記比較処理の結果、S302の処理で取得した前記現在時刻情報と内蔵クロックの時刻情報の差が所定値以内ではない場合(S303:No)、或いは、S301で取得したTOTがデータ内にエラーがあることを示すフラグ等を有している場合、受信機能実行部1102は、同一ネットワーク内の他の放送サービスのMPEG2-TSデータ列からTOTを取得し、或いは、他のネットワークの任意の放送サービス(メディアトランスポート方式としてMMTを採用した放送サービス)のMMTデータ列からMH-TOTを取得し(S304)、更に、前記取得したTOTまたはMH-TOTから現在時刻情報を取得する(S305)。受信機能実行部1102は、S305の処理で取得した現在時刻情報を以って、再度S303の比較処理を行うようにすれば良い。
 以上の処理により、本実施例の放送受信装置800は、受信中のサービスから取得したMH-TOTまたはTOTが誤りを有すると判断した場合には、同一ネットワークの他の放送サービスから、或いは、他のネットワークの任意の放送サービスから、MH-TOTまたはTOTを取得して現在時刻情報を参照することにより、内蔵クロックの時刻情報の更新処理を行うことが可能となる。
 なお、工場出荷後の初期設定時等、S304~S305の処理の繰り返しで内蔵クロックの時刻情報との差が所定範囲内となる現在時刻情報を取得できなかった場合には、S302の処理で取得した現在時刻情報を以って、あらためて内蔵クロックの時刻情報を設定するようにすれば良い。このようにすれば、本実施例の放送受信装置800の内蔵クロックの時刻情報側に誤りがある場合も対応することが可能となる。
 [放送受信装置のEPG表示]
 メディアトランスポート方式としてMMTを採用した放送サービスのイベントスケジュール情報はMH-EIT等により伝送される。一方、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスのイベントスケジュール情報はMPEG-2システムに規定されたSIが備えるEIT(Event Information Table)等により伝送される。従って、一般的には、メディアトランスポート方式としてMMTを採用した放送サービスで提供される映像情報等の表示を行っている際には、前記MMTを採用した放送サービスのイベントスケジュール情報(MH-EIT)が取得可能であり、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスで提供される映像情報等の表示を行っている際には、前記MPEG2-TSを採用した放送サービスのイベントスケジュール情報(EIT)が取得可能である。
 しかしながら、本実施例の放送受信装置800は、メディアトランスポート方式としてMMTを採用した放送サービスで提供される映像情報等の表示を行っている際にも、或いは、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスで提供される映像情報等の表示を行っている際にも、前記MH-EITと前記EITの双方を取得可能とし、ユーザにとっての使い勝手を向上させている。
 図27Aに、本実施例の放送受信装置800におけるEPG画面の一例を示す。図中、EPG画面162iはメディアトランスポート方式としてMMTを採用した放送サービスのMH-EITに基づいて作成されたEPG画面であり、『M1テレビ』、『M2放送』、『M3チャンネル』、『M4TV』、『テレビM5』等は、それぞれメディアトランスポート方式としてMMTを採用した放送サービスの放送局名称であるものとする。また、EPG画面162jはメディアトランスポート方式としてMPEG2-TSを採用した放送サービスのEITに基づいて作成されたEPG画面であり、『T6テレビ』、『T7放送』、『T8チャンネル』、『T9TV』、『テレビTA』等は、それぞれメディアトランスポート方式としてMPEG2-TSを採用した放送サービスの放送局名称であるものとする。
 例えば、ユーザがメディアトランスポート方式としてMMTを採用した放送サービスで提供される放送番組を視聴中に、図示を省略したリモコンを操作してEPG画面の表示を指示すると、EPG画面の初期画面(図示省略)が表示される。前記EPG画面の初期画面は、メディアトランスポート方式としてMMTを採用した放送サービスのMH-EITに基づいて作成されたEPG画面であり、『2014年10月7日(今日)』の『17時~(現在時刻の近隣)』の各チャンネルの放送番組の詳細情報が表示される。次に、ユーザが『2014年10月9日』の『20時~』の各チャンネルの放送番組の詳細情報を確認したいと所望し、図示を省略したリモコンを操作してEPG画面の更新を指示すると、EPG画面162iが表示される。
 更に、ユーザがメディアトランスポート方式としてMPEG2-TSを採用した放送サービスで提供される放送番組の詳細情報を確認したいと所望し、図示を省略したリモコンを操作してネットワークの切り替えを指示すると、EPG画面162jが表示される。この際、本実施例の放送受信装置800においては、メディアトランスポート方式としてMPEG2-TSを採用した放送サービスのEITに基づいて作成されたEPG画面の初期画面(即ち、『2014年10月7日』の『17時~』の各チャンネルの放送番組の詳細情報)ではなく、直前に表示されていたEPG画面162iと同日同時間帯(即ち、『2014年10月9日』の『20時~』)の各チャンネルの放送番組の詳細情報を表示するように制御する。
 前述の制御により、ユーザは、メディアトランスポート方式の異なる複数のネットワークの同日同時間帯の放送番組に関する詳細情報を、簡便な操作で、連続的に、確認することが可能となる。即ち、放送受信装置800の使い勝手が向上する。
 図27Bは、本実施例の放送受信装置800におけるEPG画面の前述とは異なる一例を示す図である。EPG画面162kは、図27Aに示したEPG画面162iが表示された状態から、図示を省略したリモコンの操作により、チャンネル方向(横方向)にスクロールさせた状態を示している。即ち、図27Bに示した例では、EPG画面をチャンネル方向(横方向)にスクロールさせることにより、メディアトランスポート方式としてMMTを採用した放送サービスのMH-EITに基づいて作成されたチャンネル情報とメディアトランスポート方式としてMPEG2-TSを採用した放送サービスのEITに基づいて作成されたチャンネル情報とが、同一時間軸上でシームレスに表示される。
 従って、ユーザがメディアトランスポート方式としてMMTを採用した放送サービスのMH-EITに基づいて作成されたチャンネル情報の確認中にメディアトランスポート方式としてMPEG2-TSを採用した放送サービスのEITに基づいて作成されたチャンネル情報を確認したいと所望した場合においても、図示を省略したリモコンの操作によるネットワークの切り替えの指示等を不要とすることができる。更に、ユーザは、メディアトランスポート方式の異なる複数のネットワークの同日同時間帯の放送番組に関する詳細情報を、同時に確認することが可能となる。即ち、放送受信装置800の使い勝手が向上する。
 (実施例3)
 以下では、本発明の実施例3に関して説明する。なお、本実施例における構成および効果等は特に断りのない限り実施例1と同様であるものとする。このため、以下では、本実施例と実施例1との相違点を主に説明し、共通する点については重複を避けるため極力説明を省略する。
 本実施例の放送受信装置100は、映像コンテンツの持つ色の輝度幅を拡大する技術であるHDR(High Dynamic Range)や色域の拡大に対応可能であるものとする。また、本実施例の放送受信装置100が対応するメディアトランスポート方式であるMMTでは、ユーザが使用するモニタ装置(本実施例における放送受信装置100等)においてコンテンツ製作者の意図通りの映像再現を可能とするために、番組コンテンツの符号化データと併せて前記HDRや色域拡大に係るコンテンツ情報を伝送可能であるものとする。
 [システム構成]
 本実施例におけるシステム構成は、基本的に、図1に示したシステム構成と同様であるものとする。なお、電波塔300tから送出される放送波に含まれる番組コンテンツの符号化データは、図28に示すように、撮影機器390cから出力されたコンテンツデータを、放送局サーバ300への一時的な蓄積処理を行わずに、符号化処理および変調処理等を適宜施して送出したものであっても良い。或いは、撮影機器390cから出力されたコンテンツデータを放送局サーバ300へ蓄積処理し、前記蓄積処理を行ったコンテンツデータに編集機器390eで種々の映像/音声の編集加工を施して、更に、符号化処理および変調処理等を適宜施して送出したものであっても良い。
 また、前記放送波には、番組コンテンツの符号化データや文字情報、その他のアプリケーション、汎用データ、等の他、前記番組コンテンツの輝度情報や前記番組コンテンツの作成/編集の際に使用した機器(撮影機器390c、編集機器390eのモニタ装置、等)の色再現性能等に関する情報を記載するコンテンツ情報記述子が、前記番組コンテンツに関する制御情報(コンテンツ情報)として、前述のMMT-SIの各メッセージ/テーブル/記述子と併せて送信されるものとする。
 [コンテンツ情報記述子のデータ構造]
 図29Aに、コンテンツ情報記述子のデータ構造の一例を示す。なお、コンテンツ情報記述子は、MPTまたはMH-EITに配置されて良い。コンテンツ情報記述子のデータ構造における各パラメータは、それぞれ、以下に説明する機能を有するものとする。
・『descriptor_tag(記述子タグ)』
 記述子タグは、16ビットのフィールドで各記述子を一意に識別する機能を有するものとする。
・『descriptor_length(記述子長)』
 記述子長は、このフィールドより後に続く各パラメータのデータバイトの総数を示すものとする。
・『component_tag(コンポーネントタグ)』
 コンポーネントタグは、コンポーネントストリームを一意に識別するためのラベルであり、16ビットのフィールドで記述する。MH-ストリーム識別記述子に記述されたコンポーネントタグと同一の値とする。
・『content_type(コンテンツタイプ)』
 コンテンツタイプは、コンポーネントストリームに含まれる映像コンテンツのタイプを、図29Bに従って表す。このパラメータが『0』の場合、映像コンテンツは、編集機器390eで映像の編集加工を施されたもの(録画番組等)であることを示すものとする。このパラメータが『1』の場合、映像コンテンツは、編集機器390eで映像の編集加工を施されたもの(録画番組等)であり、かつ、このコンテンツがHDRに対応していることを示すものとする。このパラメータが『2』である場合、映像コンテンツは、撮影機器390cから出力されたコンテンツデータ(生中継番組等)であることを示すものとする。このパラメータが『3』である場合、映像コンテンツは、撮影機器390cから出力されたコンテンツデータ(生中継番組等)であり、かつ、このコンテンツがHDRに対応していることを示すものとする。更に、その他の分類をこのパラメータを用いて行っても良い。
・『source_primaries_rx(ソース機器原色色度座標(Rx))』
 『source_primaries_ry(ソース機器原色色度座標(Ry))』
 『source_primaries_gx(ソース機器原色色度座標(Gx))』
 『source_primaries_gy(ソース機器原色色度座標(Gy))』
 『source_primaries_bx(ソース機器原色色度座標(Bx))』
 『source_primaries_by(ソース機器原色色度座標(By))』
 ソース機器原色色度座標は、ソース機器の色再現性能等に関する情報を示すパラメータであり、前記ソース機器が対応可能な色域をR(赤)/G(緑)/B(青)の各原色のCIE色度図(CIExy色度図)上における座標値で示すものとする。なお、前記ソース機器は、『content_type』パラメータが『0』または『1』の場合には編集機器390eのモニタ装置である。この場合、ソース機器原色色度座標は、前記編集機器390eのモニタ装置で表示可能な色域の色度座標値を示すものとする。また、『content_type』パラメータが『2』または『3』の場合には、前記ソース機器は撮影機器390cである。この場合、ソース機器原色色度座標は、前記撮影機器390cで出力可能な色域の色度座標値を示すものとする。
 前記CIE色度図上における各座標値は、それぞれ『0.000』~『1.000』の範囲の値で示されるものとし、10ビットのフィールドで『0000000000b』~『1111101000b』の範囲で記述されるものとする。例えば、図29Cに示すように、BT.709規格におけるR(赤)の色度座標値であれば、『x=0.640(1010000000b)』、『y=0.330(0101001010b)』となり、BT.2020規格におけるG(緑)の色度座標値であれば、『x=0.170(0010101010b)』、『y=0.797(1100011101b)』となる。
・『source_white_point_x(ソース機器白色色度座標(x))』
 『source_white_point_y(ソース機器白色色度座標(y))』
 ソース機器白色色度座標は、ソース機器の色再現性能等に関する情報を示すパラメータであり、前記ソース機器が対応可能な白色基準点のCIE色度図上における座標値を示すものとする。なお、前記ソース機器は、『content_type』パラメータが『0』または『1』の場合には編集機器390eのモニタ装置である。この場合、ソース機器白色色度座標は、前記編集機器390eのモニタ装置の白色基準点の色度座標値を示すものとする。また、『content_type』パラメータが『2』または『3』の場合には、前記ソース機器は撮影機器390cである。この場合、ソース機器白色色度座標は、前記撮影機器390cが出力可能な白色基準点の色度座標値を示すものとする。
 前記CIE色度図上における各座標値は、それぞれ『0.0000』~『1.0000』の範囲の値で示されるものとし、14ビットのフィールドで『00000000000000b』~『10011100010000b』の範囲で記述されるものとする。例えば、図29Cに示したように、BT.709規格やBT.2020規格における白色基準点の色度座標値であれば、『x=0.3127(00110000110111b)』、『y=0.3290(00110011011010b)』となる。
・『source_luminance_max(ソース機器最大輝度)』
 『source_luminance_min(ソース機器最小輝度)』
 ソース機器最大輝度およびソース機器最小輝度は、ソース機器が対応可能な最大輝度および最小輝度に関する情報を示すパラメータである。なお、前記ソース機器は、『content_type』パラメータが『0』または『1』の場合には編集機器390eのモニタ装置である。この場合、ソース機器最大輝度およびソース機器最小輝度は、前記編集機器390eのモニタ装置で表示可能な輝度の最大値および最小値を示すものとする。また、『content_type』パラメータが『2』または『3』の場合には、前記ソース機器は撮影機器390cである。この場合、ソース機器最大輝度およびソース機器最小輝度は、前記撮影機器390cが出力可能な輝度の最大値および最小値を示すものとする。
 ソース機器最大輝度は、『1(cd/m:カンデラ/平方メートル)』~『65535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。ソース機器最小輝度は、『0.0001(cd/m2)』~『6.5535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。
・『num_of_scene(シーン数)』
 シーン数は、コンポーネントストリームに含まれる映像コンテンツを構成するシーン(チャプタ等と称しても良い)の数を示すものとする。シーン数が『1』の場合、このパラメータは記述を省略しても良い。
・『scene_start_time(シーン開始時刻)』
 シーン開始時刻は、シーン(チャプタ)の開始時刻を40ビットのフィールドで示すものとする。このフィールドの上位16ビットは修正ユリウス日(MJD)の下位16ビットを示し、下位24ビットは日本標準時(JST)の時分秒を六桁のBCD化符号で示す。シーン数が『1』の場合、このパラメータは記述を省略しても良い。
・『scene_duration(シーン継続時間)』
 シーン継続時間は、シーン(チャプタ)の継続時間を24ビットのフィールドで示すものとする。このフィールドは、継続時間の時分秒を六桁のBCD化符号で示す。シーン数が『1』の場合、このパラメータは記述を省略しても良い。
・『max_light_level_of_content(コンテンツ最大輝度)』
 コンテンツ最大輝度は、各シーン(チャプタ)内における最大輝度を16ビットのフィールドで示すものとする。シーン数が『1』の場合、このパラメータはコンテンツ全体を通した輝度の最大値を示すものとなる。コンテンツ最大輝度は、『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。
・『max_frame_ave_light_level(最大フレーム平均輝度)』
 最大フレーム平均輝度は、各シーン(チャプタ)内におけるフレーム平均輝度の最大値を16ビットのフィールドで示すものとする。シーン数が『1』の場合、このパラメータはコンテンツ全体を通したフレーム平均輝度の最大値を示すものとなる。最大フレーム平均輝度は、『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。
・『max_light_level_of_frame(フレーム内最大輝度)』
 フレーム内最大輝度は、各フレーム内における最大輝度を16ビットのフィールドで示すものとする。フレーム内最大輝度は、『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。
・『frame_average_light_level(フレーム内平均輝度)』
 フレーム内平均輝度は、各フレームの平均輝度を16ビットのフィールドで示すものとする。フレーム内平均輝度は、『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示されるものとし、16ビットのフィールドで『0000h』~『FFFFh』の範囲で記述されるものとする。
・『EOTF_identification(EOTF識別)』
 EOTF(Electro-Optical Transfer Function)識別は、コンポーネントストリームに含まれる映像コンテンツの映像信号に施されたガンマ補正等の電気信号と光信号との変換特性(伝達特性)の種別を識別するものとする。例えば、図29Dに示す例では、このパラメータが『0』の場合、映像コンテンツは、BT.709準拠のディスプレイ特性のモニタ装置に適したガンマ補正が施されていることを示す。また、このパラメータが『2』の場合、映像コンテンツは、BT.2020準拠のディスプレイ特性のモニタ装置に適した10bit処理のガンマ補正が施されていることを示す。また、このパラメータが『3』の場合、映像コンテンツは、BT.2020準拠のディスプレイ特性のモニタ装置に適した12bit処理のガンマ補正が施されていることを示す。また、このパラメータが『4』の場合、映像コンテンツは、SMPTE2084準拠のディスプレイ特性のモニタ装置に適したガンマ補正が施されていることを示す。更に、その他の分類をこのパラメータを用いて行っても良い。また、前記『EOTF識別』パラメータは、カラリメトリの種別等が識別可能であって良い。なお、図29Dに示した電気信号と光信号の変換特性(伝達特性)の種別は一例であり、映像コンテンツの映像信号にその他の電気信号と光信号の変換特性(伝達特性)の処理を施し、その特性を前記『EOTF識別』パラメータで識別するようにしても良い。
 ここで、映像コンテンツと『EOTF識別』パラメータを受信した放送受信装置100は、前記映像コンテンツに関連付けられた『EOTF識別』パラメータを参照し、更に、前記映像コンテンツの表示を行うモニタ装置のディスプレイ特性を参照して、両者に基づいて適切な電気-光変換等の処理を行うことにより、前記モニタ装置に好適な状態で前記各映像コンテンツの表示を行うことが可能となる。例えば、前記映像コンテンツに関連付けられた『EOTF識別』パラメータで識別される伝達特性が、前記映像コンテンツの表示を行うモニタ装置のディスプレイ特性に対応するものである場合、表示処理において『EOTF識別』パラメータで識別される電気-光変換をそのまま行えば良い。また、前記映像コンテンツに関連付けられた『EOTF識別』パラメータで識別される伝達特性が、前記映像コンテンツの表示を行うモニタ装置のディスプレイ特性に対応するものでない場合、『EOTF識別』パラメータで識別される電気-光変換をそのまま行うのではなく、『EOTF識別』パラメータの識別に応じた電気信号と光信号との変換処理が施された映像信号を前記モニタ装置のディスプレイ特性に対応する電気-光変換の処理に適した映像信号に変換する変換処理を行った後に、前記モニタ装置のディスプレイ特性に対応する電気-光変換を行う表示処理を行うようにすれば良い。
 前述の、『EOTF識別』パラメータの識別に応じた電気信号と光信号との変換処理が施された映像信号を前記モニタ装置のディスプレイ特性に対応する電気-光変換の処理に適した映像信号に変換する変換処理に関して、以下に説明する。なお、以下では、前述の処理を伝達特性変換処理と称する。
 なお、『EOTF識別』パラメータに『2』、『3』、『4』の値を有する映像コンテンツは、表現可能な明暗の範囲や色域等が広いHDR映像コンテンツである。これに対し、『EOTF識別』パラメータに『0』の値を有する映像コンテンツは、表現可能な明暗の範囲や色域等がHDR映像コンテンツよりも狭いSDR(Standard Dynamic Range)映像コンテンツである。
 また、BT.2020準拠のディスプレイ特性の表示装置や、SMPTE2084準拠のディスプレイ特性の表示装置は、HDR対応表示装置と称することができる。これに対し、BT.709準拠のディスプレイ特性の表示装置はSDR対応表示装置と称することができる。更に、BT.709準拠のディスプレイ特性の表示装置であって、BT.2020やSMPTE2084などのHDRのディスプレイ特性に対応していない表示装置は、SDR対応表示装置の下位概念として、SDR対応表示装置(HDR非対応表示装置)と称しても良い。
 ここで、前記HDR映像コンテンツをBT.709準拠のディスプレイ特性のモニタ装置などのSDR対応表示装置(HDR非対応表示装置)に表示する際に、前記伝達特性変換処理を行わない場合、前記HDR映像コンテンツの有する広い明暗の範囲や色域等を前記モニタ装置で表現しきれず、輝度つぶれや色つぶれを有する見づらい表示画像になってしまう。即ち、この場合、前記伝達特性変換処理において、前記HDR映像コンテンツの有する広い明暗の範囲や色域等を前記モニタ装置で表現可能な明暗の範囲や色域等に収まるように変換する処理を行えば良い。当該処理は、明暗のダイナミックレンジ縮小変換、色域縮小変換と表現しても良い。また、表現可能な明暗の範囲や色域等が広いHDR映像コンテンツを表現可能な明暗の範囲や色域等が狭いSDR映像コンテンツに変換する処理であるので、HDR-SDR変換処理と表現しても良い。
 一方、『EOTF識別』パラメータに『0』の値を有する映像コンテンツは、表現可能な明暗の範囲や色域等が狭いSDR映像コンテンツである。前記SDR映像コンテンツをBT.2020準拠のディスプレイ特性のモニタ装置等のHDR対応表示装置に表示する際に、前記伝達特性変換処理を行わない場合、前記モニタ装置の有する広い明暗表示性能や色域表示性能等を充分に生かすことができない。即ち、この場合、前記伝達特性変換処理において、前記モニタ装置の有する広い明暗表示性能や色域表示性能等を充分に生かすことができるように前記SDR映像コンテンツに対して変換処理を行えば良い。当該処理は、明暗のダイナミックレンジ拡大変換、色域拡大変換と表現しても良い。また、表現可能な明暗の範囲や色域等が狭いSDR映像コンテンツを表現可能な明暗の範囲や色域等が広いHDR映像コンテンツに変換する処理であるので、SDR-HDR変換処理と表現しても良い。なお、当該SDR-HDR変換処理は必ずしも必要ではなく、前記SDR映像コンテンツをBT.2020準拠のディスプレイ特性のモニタ装置などのHDR対応表示装置に表示する際に、SDR-HDR変換処理を行わなくとも良い。この場合、明暗表示性能や色域表示性能はSDRのディスプレイ特性の範囲のままであるが輝度つぶれや色つぶれを有する見づらい表示画像となることはなく問題はない。
 なお、放送受信装置100が受信した映像コンテンツに『EOTF識別』パラメータが関連付けられておらず取得できない場合(もともと伝送されていない場合)、または放送受信装置100が受信した映像コンテンツに関連付けられた『EOTF識別』パラメータの値が伝送エラー等により取得できず判別できない場合の処理の例としては、以下の処理を行えば良い。
 第1の処理例としては、前記受信した映像コンテンツの『EOTF識別』パラメータの値を、例えば、『2』または『3』であるものとして扱うようにしても良い。即ち、『EOTF識別』パラメータの値が識別できない場合には、前記映像コンテンツをHDR映像コンテンツとして扱うようにすれば良い。このようにすれば、前記モニタ装置がBT.2020準拠のディスプレイ特性のモニタ装置などのHDR対応表示装置では前記伝達特性変換処理を行わないが、実際のコンテンツがHDR映像コンテンツであれば適切な表示がなされ、実際のコンテンツがSDR映像コンテンツであっても、明暗表示性能や色域表示性能はSDRのディスプレイ特性の範囲のままであるが輝度つぶれや色つぶれを有する見づらい表示画像となることはない。また、前記モニタ装置がBT.709準拠のディスプレイ特性のモニタ装置などのSDR対応表示装置(HDR非対応表示装置)である場合は、前記映像コンテンツをHDR映像コンテンツとして扱うことにより前記伝達特性変換処理を行うことになるが、実際のコンテンツがHDR映像コンテンツであれば適切にHDR-SDR変換処理がなされて表示され、実際のコンテンツがSDR映像コンテンツであっても、明暗表示性能や色域表示性能がSDRのディスプレイ特性の範囲よりも更に制限されてしまうが、少なくとも映像コンテンツの有する明暗の範囲や色域等を表現しきれない輝度つぶれや色つぶれのある見づらい表示映像になることは回避される。(実際のコンテンツがHDR映像コンテンツの場合にSDR-HDR変換処理を行ってしまう場合や、実際のコンテンツがHDR映像コンテンツの場合にSDR対応表示装置(HDR非対応表示装置)にHDR-SDR変換を行わずにそのまま表示する場合に、このような輝度つぶれや色つぶれのある見づらい表示映像が表示される可能性が生じるが、第1の処理例ではこの状況を回避できる。)
 以上説明した第1の処理例によれば、『EOTF識別』パラメータの値が識別できない場合には、前記映像コンテンツをHDR映像コンテンツとして扱うことにより、前記モニタ装置がHDR対応表示装置であってもSDR対応表示装置(HDR非対応表示装置)であっても、実際のコンテンツがHDR映像コンテンツであってもSDR映像コンテンツであっても、ユーザにとって問題の少ない映像表示が可能となる。
 また、『EOTF識別』パラメータの値が取得できない場合(伝送されていない場合、伝送エラー等の場合、無効な値の場合を含む)の処理の別の第2の処理例として、映像コンポーネント記述子等が有する映像信号の解像度に関するパラメータを参照して、HDR映像コンテンツとして扱うか、SDR映像コンテンツとして扱うかを決定するようにしても良い。
 例えば、『EOTF識別』パラメータの値が識別できない場合であっても、前記映像信号の解像度に関するパラメータが前記映像コンテンツの解像度が3840×2160画素或いは7680×4320画素等の高解像度コンテンツであることを示している場合には、HDR映像コンテンツであると判断しても良い。具体的には、『EOTF識別』パラメータの値が『2』または『3』であると解釈すれば良い。3840×2160画素或いは7680×4320画素の高解像度コンテンツは、今後HDR映像コンテンツとして準備される運用が多いと予想されるため、このような処理により確率的に適切な表示が行われやすくなる。
 また、『EOTF識別』パラメータの値が識別できない場合であっても、前記映像信号の解像度に関するパラメータが前記映像コンテンツの解像度が1920×1080画素以下であることを示している場合には、SDR映像コンテンツであると判断しても良い。具体的には、『EOTF識別』パラメータの値が『0』であると解釈すれば良い。1920×1080画素以下の解像度のコンテンツは、既存のSDRコンテンツが多数存在するため、このような処理により確率的に適切な表示が行われやすくなる。
 以上説明した第2の処理例によれば、『EOTF識別』パラメータの値が識別できない場合に、前記解像度に関するパラメータを参照して判断することにより、確率的に適切な表示が行われやすくなる。
 次に、放送受信装置100が受信した映像コンテンツに関連付けられた『EOTF識別』パラメータの値が、図29Dの表においてディスプレイ特性との関係が用意されていない値である場合の処理について説明する。ここで、図29Dの表においてディスプレイ特性との関係が用意されていない値とは、図29Dの表における『EOTF識別』パラメータの値が『1』や『5』~『15』のような将来のためのリザーブになっている値や想定していない値などが格納されている場合である。これらの値は無効な値と表現しても良い。このような無効の値(ディスプレイ特性との関係が用意されていない値)の場合も、上述の第1の処理例または第2の処理例の何れかを行うようにすれば、それぞれ同様の効果が得られる。
 以上説明した『EOTF識別』パラメータに応じた各種映像処理は、図7Aの構成図では、分離部132で分離したデータに基づく主制御部101の制御により制御された映像色域変換部142が行えば良い。
 ここで、番組の変わり目やチャンネル切り替えで、表示すべき映像コンテンツがHDR映像コンテンツとSDR映像コンテンツで切り替わる場合、図7Aの映像デコーダ141からのデコード映像がHDR映像コンテンツとSDR映像コンテンツとで切り替わるタイミングと、映像色域変換部142の映像処理がHDR映像コンテンツ用の処理とSDR映像コンテンツ用の処理とで切り替わるタイミングとが揃うことが理想的である。しかしながら、実際には少なからずタイミングのずれを生じることが考えられる。
 SDR映像コンテンツに対してSDR-HDR変換処理を行うHDR対応表示装置において、HDR映像コンテンツからSDR映像コンテンツに切り替わる際に、映像色域変換部142の映像処理の切り替わるタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも早くなってしまうと、HDR映像コンテンツにSDR-HDR変換処理を行ってしまう時間が生じ、輝度つぶれや色つぶれのある見づらい表示映像が表示される可能性が生じてしまう。よって、HDR映像コンテンツからSDR映像コンテンツに切り替わる際には、映像色域変換部142の映像処理の切り替わりタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも遅くなるように主制御部101が映像デコーダ141と映像色域変換部142の処理タイミングを制御すれば良い。または、両者の切り替えが処理を開始する前に映像を黒表示などの映像ミュート状態とし、両者の切り替えが完了したあとに映像の黒表示などの映像ミュート状態を解除するように制御しても良い。
 また、SDR映像コンテンツに対してSDR-HDR変換処理を行うHDR対応表示装置において、SDR映像コンテンツからHDR映像コンテンツに切り替わる際に、映像色域変換部142の映像処理の切り替わるタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも遅くなってしまうと、HDR映像コンテンツにSDR-HDR変換処理を行ってしまう時間が生じ、輝度つぶれや色つぶれのある見づらい表示映像が表示される可能性が生じてしまう。よって、SDR映像コンテンツからHDR映像コンテンツに切り替わる際には、映像色域変換部142の映像処理の切り替わりタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも早くなるように主制御部101が映像デコーダ141と映像色域変換部142の処理タイミングを制御すれば良い。または、両者の切り替えが処理を開始する前に映像を黒表示などの映像ミュート状態とし、両者の切り替えが完了したあとに映像の黒表示などの映像ミュート状態を解除するように制御しても良い。
 HDR映像コンテンツに対してHDR-SDR変換処理を行い、SDR映像コンテンツに対しては伝達特性変換処理を行わずに表示するSDR対応表示装置において、HDR映像コンテンツからSDR映像コンテンツに切り替わる際に、映像色域変換部142の映像処理の切り替わるタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも早くなってしまうと、HDR映像コンテンツを伝達特性変換処理を行わずにそのままSDR対応表示装置に表示してしまう時間が生じ、輝度つぶれや色つぶれのある見づらい表示映像が表示される可能性が生じてしまう。よって、HDR映像コンテンツからSDR映像コンテンツに切り替わる際には、映像色域変換部142の映像処理の切り替わりタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも遅くなるように主制御部101が映像デコーダ141と映像色域変換部142の処理タイミングを制御すれば良い。または、両者の切り替えが処理を開始する前に映像を黒表示などの映像ミュート状態とし、両者の切り替えが完了したあとに映像の黒表示などの映像ミュート状態を解除するように制御しても良い。
 HDR映像コンテンツに対してHDR-SDR変換処理を行い、SDR映像コンテンツに対しては伝達特性変換処理を行わずに表示するSDR対応表示装置において、SDR映像コンテンツからHDR映像コンテンツに切り替わる際に、映像色域変換部142の映像処理の切り替わるタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも遅くなってしまうと、HDR映像コンテンツを伝達特性変換処理を行わずにそのままSDR対応表示装置に表示してしまう時間が生じ、輝度つぶれや色つぶれのある見づらい表示映像が表示される可能性が生じてしまう。よって、SDR映像コンテンツからHDR映像コンテンツに切り替わる際には、映像色域変換部142の映像処理の切り替わりタイミングが、映像デコーダ141からのデコード映像の切り替わりタイミングよりも早くなるように主制御部101が映像デコーダ141と映像色域変換部142の処理タイミングを制御すれば良い。または、両者の切り替えが処理を開始する前に映像を黒表示などの映像ミュート状態とし、両者の切り替えが完了したあとに映像の黒表示などの映像ミュート状態を解除するように制御しても良い。
 以上説明したようにデコード映像の切り替わりタイミングと伝達特性変換処理の切り替えのタイミングに関する処理を行うことにより、ユーザに対して輝度つぶれや色つぶれのある見づらい表示映像を提示することを回避することが可能となる。
 以上説明したコンテンツ情報記述子内の『EOTF_identification』パラメータを用いた識別処理と各種映像処理に替えて、またはこれに加えて、符号化映像ストリーム内に前述の『EOTF_identification』パラメータと同様の識別を可能とするフラグを挿入し、前記挿入されたフラグを用いた識別処理と各種映像処理を行うようにしても良い。当該符号化映像ストリーム内フラグとしての『EOTF_identification』フラグを用いた場合の識別処理と各種映像処理は、前述のコンテンツ情報記述子内の『EOTF_identification』パラメータを用いた場合の識別処理と各種映像処理の説明において、コンテンツ情報記述子内の『EOTF_identification』パラメータを参照することに代替して、符号化映像ストリーム内に挿入された『EOTF_identification』フラグを参照することにより行えば良いので、詳細の説明を省略する。
 ただし、符号化映像ストリーム内フラグとしての『EOTF_identification』フラグを、例えば、フレーム単位やGOP単位等で符号化映像ストリーム内に挿入すれば、アセット単位や番組単位で設定されるコンテンツ情報記述子内の『EOTF_identification』パラメータを用いた場合よりも細かい時間単位で、HDR映像コンテンツとSDR映像コンテンツとの切り替えと、各映像コンテンツに対応する各種映像処理の切り替えと、を実現することが可能となる。即ち、映像デコーダ141がフレーム単位やGOP単位等でHDR映像コンテンツとSDR映像コンテンツの切り替えを把握でき、更に、後段の映像色域変換部142がフレーム単位やGOP単位等でHDR映像コンテンツとSDR映像コンテンツの識別情報を参照することが可能となるので、映像色域変換部142における映像処理の切り替えタイミングの同期精度もコンテンツ情報記述子内の『EOTF_identification』パラメータを用いる場合に比べて向上するという効果がある。
 また、符号化映像ストリーム内の『EOTF_identification』フラグの伝送とコンテンツ情報記述子内の『EOTF_identification』パラメータの伝送とを併用する場合は、符号化映像ストリーム内の『EOTF_identification』フラグを用いた識別処理は映像色域変換部142の映像処理の切り替えに用いて、コンテンツ情報記述子内の『EOTF_identification』パラメータは、例えば、番組単位で番組表での表示や番組情報の表示において当該番組がHDR映像コンテンツ番組かSDR映像コンテンツ番組か等をユーザに伝えるための表示用に用いれば、より好適に両者の識別情報を使い分けることができる。
 また、符号化映像ストリーム内の『EOTF_identification』フラグの伝送とコンテンツ情報記述子内の『EOTF_identification』パラメータの伝送とを併用する場合で、前記両者の識別情報に不整合がある場合の処理としては、以下が考えられる。第一の処理例としては、符号化映像ストリーム内の『EOTF_identification』フラグを優先的に使用する例である。この場合は、前述のようなHDR映像コンテンツとSDR映像コンテンツとの切り替えを、対応する映像処理の切り替えタイミングと精度良く同期可能であるという利点がある。第二の処理例としては、コンテンツ情報記述子内の『EOTF_identification』パラメータを優先的に使用する例である。この場合は、符号化映像ストリームを参照することなく迅速に前記伝達特性等の識別が可能であるという利点がある。
 なお、前述のコンテンツ情報記述子は、図29Aに示したものと異なるデータ構造を有していても良い。例えば、前記各パラメータと異なる別のパラメータを更に備えていても良いし、前記各パラメータの全てを備えなくとも良い。また、前記各パラメータは、異なる名称を用いていても良い。また、前記各パラメータは、必ずしも1つの記述子に記述される必要はなく、例えば、二つの異なる記述子に分けて記述されても良い。また、前記各パラメータは、記述子に記述されてテーブルに配置されても良いし、テーブルに直接記述されていても良い。
 [放送受信装置のEPG表示]
 本実施例の放送受信装置100においても、実施例1と同様に、MH-EIT等を参照してサービスIDによる識別を行うことにより、各イベント(放送番組)の開始時間や放送時間等の情報を取得してEPG画面を作成することが可能であり、前記作成したEPGを映像合成部161で映像情報等に重畳してモニタ部162に表示することが可能であるものとする。
 更に、本実施例の放送受信装置100においては、前記コンテンツ情報記述子の『content_type』パラメータ等を参照し、各放送番組の映像コンテンツのタイプが『1』または『3』の場合には、図30に示すように、前記放送番組がHDRに対応した番組であることを示す属性を表す記号等を表示するようにしても良い。前記属性を表す記号等とは、例えば、HDRに対応した放送番組であることを示す記号/文字であっても良いし、HDRに対応した放送番組であることを意味する『HDR』を記号化した印162a5であっても良い。前記属性を表す記号等は、詳細情報162a1のタイトル領域162a2に表示されて良い。或いは、詳細情報162a1にカーソルを合わせた場合に、ポップアップで表示されるようにしても良い。その他の方法で表示されても良い。
 また、前記コンテンツ情報記述子が、前記放送番組の映像コンテンツがHDRに対応しているか否かを示すパラメータである『HDR_flag』等を別途有している場合には、前記『HDR_flag』パラメータを参照することにより、前記放送番組がHDRに対応した番組であることを示す属性を表す記号等を表示するか否かの制御を行うようにしても良い。なお、前記『HDR_flag』パラメータの名称は一例であり、異なる名称を用いても良い。
 また、前記コンテンツ情報記述子の『source_luminance_max』パラメータや『max_light_level_of_content』パラメータや『max_light_level_of_frame』パラメータ等の全て或いは何れかが所定値(例えば、『100(cd/m2)』等)を超える場合に、前記放送番組がHDRに対応した番組であることを示す属性を表す記号等を表示するように制御を行っても良い。
 なお、前記コンテンツ情報記述子の『content_type』パラメータ等を参照し、各放送番組の映像コンテンツのタイプが『1』または『3』の場合であっても、或いは、前記コンテンツ情報記述子の『source_luminance_max』パラメータや『max_light_level_of_content』パラメータや『max_light_level_of_frame』パラメータ等の全て或いは何れかが所定値(例えば、『100(cd/m2)』等)を超える場合であっても、放送受信装置100のモニタ部162がHDRに対応していなければ、前記HDRに対応した放送番組であることを示す記号/文字や前記HDRに対応した放送番組であることを意味する『HDR』を記号化した印162a5は表示しないように制御を行っても良い。
 また、本実施例の放送受信装置100が、前記コンテンツ情報記述子の『EOTF_identification』パラメータを参照し、各放送番組の映像コンテンツに施されたガンマ補正の種別が放送受信装置100のモニタ部162のディスプレイ特性で対応可能な種別である場合には、前記放送番組が正しい輝度表現で表示可能な番組であることを示す属性を表す記号等を表示するようにしても良い。前記属性を表す記号等とは、例えば、正しい輝度表現で表示可能な番組であることを示す記号/文字であっても良いし、正しい輝度表現で表示可能な番組であることを意味する『True Contrast』を記号化した印162a6であっても良い。なお、前述の、各放送番組の映像コンテンツに施されたガンマ補正の種別が放送受信装置100のモニタ部162のディスプレイ特性で対応可能な種別である場合とは、例えば、映像コンテンツに係る『EOTF_identification』パラメータが『0』であり、放送受信装置100のモニタ部162のディスプレイ特性がBT.709に準拠している場合、等である。
 前述のような属性を表す記号等をEPG画面162aの詳細情報162a1に表示することにより、ユーザはEPG画面162aに表示されている各放送番組が、HDRに対応しているか否か、正しい輝度表現で表示可能な番組であるか否か、等を簡単に把握することが可能となる。
 [放送受信装置の色域変換処理]
 本実施例において、録画番組である映像コンテンツは、図28に示したように、編集機器390eで映像/音声の編集加工を施されているものとする。即ち、映像コンテンツの提供者は、編集機器390eのモニタ装置で確認しながら映像コンテンツの編集加工を行っており、従って、前記映像コンテンツは編集機器390eのモニタ装置が有する色再現性能の下において好適な表示が行われるものとなっている可能性が高い。一方、ユーザが前記映像コンテンツの視聴に使用するモニタ装置である放送受信装置100のモニタ部162も、生産メーカや型式毎に異なる色再現性能を有することが一般的である。この場合、前記編集機器390eのモニタ装置が有する色再現性能と放送受信装置100のモニタ部162が有する色再現性能とが大きく異なると、放送受信装置100のモニタ部162上に前記映像コンテンツを表示する際に、映像コンテンツの提供者が意図した映像表現を正しく行えないという問題が発生する可能性が考えられる。
 即ち、本実施例の放送システムでは、前述のように、MMT-SIの記述子としてコンテンツ情報記述子の送信を行っている。このコンテンツ情報記述子には、ソース機器の色再現性能に関する情報を示すパラメータとして、前記ソース機器が対応可能な色域のR/G/Bの各原色および白色基準点のCIE色度図上における座標値が示されている。
 また、本実施例の放送受信装置100は、ストレージ部110の各種情報記憶領域に、モニタ部162の色再現性能に関する情報を示すパラメータとして、モニタ部162が対応可能な色域のR/G/Bの各原色および白色基準点のCIE色度図上における座標値を記憶しているものとする。前記状況で、前記コンテンツ情報記述子に記述された前記ソース機器が対応可能な色域のR/G/Bの各原色および白色基準点の座標が、それぞれ、図31Aに示すように、R0/G0/B0およびW0であり、ストレージ部110の各種情報記憶領域に記憶されたモニタ部162が対応可能な色域のR/G/Bの各原色および白色基準点の座標が、それぞれ、R1/G1/B1およびW1である場合、特に前記ソース機器が対応可能な色域であるR0/G0/B0で構成される領域のうちの、モニタ部162が対応可能な色域であるR1/G1/B1で構成される領域と重ならない部分が、前記モニタ部162で正しく表示されない可能性を有する領域である。
 本実施例の放送受信装置100は、前述の問題を解決するために、前記コンテンツ情報記述子に記述された前記ソース機器が対応可能な色域とストレージ部110の各種情報記憶領域に記憶されたモニタ部162が対応可能な色域との間にずれがある場合に、前記映像コンテンツの映像データをモニタ部162での表示に好適な映像データに変換する色域変換処理機能を備えるものとする。以下では、放送受信装置100が備える前記色域変換機能に関して説明を行う。
 本実施例の放送受信装置100が備える前記色域変換処理機能は、即ち、前記映像データが有する色域(図31Aに示した前記ソース機器が対応可能な色域であるR0/G0/B0で構成される領域と同等)をモニタ部162の色再現性能に基づく色域(図31Aに示したR1/G1/B1で構成される領域)に対応可能なように変換する機能である。
 本実施例の放送受信装置100が備える前記色域変換処理機能は、前記映像データが有する色域を、前記コンテンツ情報記述子に記述された前記ソース機器が対応可能な色域のR/G/Bの各原色の座標値とストレージ部110の各種情報記憶領域に記憶された前記モニタ部162が対応可能な色域のR/G/Bの各原色の座標値とを参照することにより、前記モニタ部162での正しい色再現が可能なように変換するものであって良い。
 なお、線分R0/G0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のR/Gの原色座標値と前記モニタ部162が対応可能な色域のR/Gの原色の座標値のみを参照することにより、色域変換処理を行う様にしても良い。線分G0/B0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のG/Bの原色の座標値と前記モニタ部162が対応可能な色域のG/Bの原色の座標値のみを参照することにより、色域変換処理を行う様にしても良い。線分R0/B0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のR/Bの原色の座標値と前記モニタ部162が対応可能な色域のR/Bの原色の座標値のみを参照することにより、色域変換処理を行う様にしても良い。
 或いは、図31Bに示すように、前記映像データが有する色域を三つの領域に分割して、分割領域毎に色域変換処理を異ならせても良い。例えば、前記映像データが有する色域のうちのR0/G0/W0で構成される領域では、前記ソース機器が対応可能な色域のR/Gの各原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のR/Gの各原色および白色基準点の座標値とを参照することにより、色域変換処理を行う。前記映像データが有する色域のうちのG0/B0/W0で構成される領域では、前記ソース機器が対応可能な色域のG/Bの各原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のG/Bの各原色および白色基準点の座標値とを参照することにより、色域変換処理を行う。前記映像データが有する色域のうちのR0/B0/W0で構成される領域では、前記ソース機器が対応可能な色域のR/Bの各原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のR/Bの各原色および白色基準点の座標値とを参照することにより、色域変換処理を行う。
 また、前記分割領域毎に色域変換処理を異ならせる場合、更に、線分R0/W0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のRの原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のRの原色および白色基準点の座標値のみを参照することにより、色域変換処理を行う様にしても良い。線分G0/W0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のGの原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のGの原色および白色基準点の座標値のみを参照することにより、色域変換処理を行う様にしても良い。線分B0/W0上(若しくはその近傍領域)では、前記ソース機器が対応可能な色域のBの原色および白色基準点の座標値と前記モニタ部162が対応可能な色域のBの原色および白色基準点の座標値のみを参照することにより、色域変換処理を行う様にしても良い。
 前記色域変換処理の一例を、図31Cを用いて説明する。同図において、R0、G0、B0は、前記コンテンツ情報記述子に記述された前記ソース機器が対応可能な色域のR/G/Bの各原色の座標であり、それぞれ(R0x,R0y)、(G0x,G0y)、(B0x,B0y)の座標値を有するものとする。また、R1、G1、B1は、ストレージ部110の各種情報記憶領域に記憶された前記モニタ部162が対応可能な色域のR/G/Bの各原色の座標であり、それぞれ(R1x,R1y)、(G1x,G1y)、(B1x,B1y)の座標値を有するものとする。また、P0は、前記映像コンテンツの所定の色域データであり、(P0x,P0y)の座標値を有するものとする。この場合、前記P0の色域データは、前記色域変換処理により、P1に示す色域データに変換される。なお、P1は、(P1x,P1y)の座標値を有するものとし、下記に一例を示す前記色域変換処理の演算式により算出される。
 <色域変換処理の演算式の例>
  P1=αR1+βG1+γB1
  ただし、
   α={(G0y-B0y)(P0x-B0x)+(B0x-G0x)(P0y-B0y)}/{(G0y-B0y)(R0x-B0x)
     +(B0x-G0x)(R0y-B0y)}
   β={(B0y-R0y)(P0x-B0x)+(R0x-B0x)(P0y-B0y)}/{(G0y-B0y)(R0x-B0x)
     +(B0x-G0x)(R0y-B0y)}
   γ=1-α-β
 なお、前記演算式は、映像コンテンツが有する色域の領域内の全ての色域データの色域変換処理を、前記コンテンツ情報記述子に記述された前記ソース機器が対応可能な色域のR/G/Bの各原色の座標値とストレージ部110の各種情報記憶領域に記憶された前記モニタ部162が対応可能な色域のR/G/Bの各原色の座標値とを参照することにより行う場合の例である。前記映像データが有する色域を三つの領域に分割して、分割領域毎に色域変換処理を異ならせる場合であっても同様な演算が可能である。(ただし、参照するパラメータは異なる。)また、前記演算式は重心座標系を用いた公知の演算式であるため、前記演算式の導出に係る詳細の説明は省略する。また、前記演算式はあくまでも一例であり、異なる演算式を用いて前記P1の座標値の算出を行っても良い。
 また、前記映像コンテンツが有する色域の領域の全てが、モニタ装置(放送受信装置100等)が対応可能な色域の領域内に含まれる場合には、前記色域変換処理を行わなくとも良い。例えば、映像コンテンツが有する色域が、図29Cに示したBT.709系の色域と同等であり、モニタ装置(放送受信装置100等)が対応可能な色域が、同BT.2020系の色域と同等である場合、前記BT.709系の色域の領域の全てが前記BT.2020系の色域の領域内に含まれるため、前記色域変換処理を行う必要はない。即ち、モニタ装置(放送受信装置100等)は、映像コンテンツの有する全ての色域データを表示可能であるからである。
 以上説明したように、本実施例の放送受信装置100の色域変換処理機能によれば、前記ソース機器が有する色再現性能と放送受信装置100のモニタ部162が有する色再現性能とが異なっている場合であっても、放送受信装置100のモニタ部162上に前記映像コンテンツを表示する際に、前記映像コンテンツを好適に表示することが可能となる。
 [放送受信装置の輝度調整処理]
 本実施例の放送受信装置100は、図32に示すような、画質調整項目を備えているものとする。前記各画質調整項目は、それぞれ、ユーザの操作により、ユーザの好みに応じた調整を可能とする。一方、前記画質調整項目のうち輝度調整に関する項目においては、前記コンテンツ情報記述子の記述を参照した自動輝度調整が可能であって良い。以下では、前記自動輝度調整の処理に関して説明を行う。
 本実施例の放送受信装置100では、前記コンテンツ情報記述子の、(1)『source_luminance_max』パラメータおよび『source_luminance_min』パラメータを参照して自動輝度調整を行う、(2)『max_light_level_of_content』パラメータおよび『source_luminance_min』パラメータを参照して自動輝度調整を行う、(3)『max_light_level_of_content』パラメータのみを参照して自動調整を行う、ことが可能であるものとする。
 本実施例の放送受信装置100は、ストレージ部110の各種情報記憶領域に、モニタ部162の輝度表示性能に関する情報を示すパラメータとして、モニタ部162で表示可能な輝度の最大値および最小値を記憶しているものとする。
 前記(1)の方式の自動輝度調整は、前記コンテンツ情報記述子に記述された『source_luminance_max』パラメータと『source_luminance_min』パラメータ、および、ストレージ部110の各種情報記憶領域に記憶されたモニタ部162で表示可能な輝度の最大値/最小値を参照して行うものである。
 即ち、図33Aに示すように、前記『source_luminance_max』パラメータに示される輝度レベルが前記モニタ部162で表示可能な輝度の最大値の輝度レベルに概略一致するように、かつ、前記『source_luminance_min』パラメータに示される輝度レベルが前記モニタ部162で表示可能な輝度の最小値の輝度レベルに概略一致するように、映像コンテンツの輝度表現範囲の変換処理を行うものである。前記輝度表現範囲の変換処理を行うことにより、ユーザは、コンテンツ提供者がコンテンツの編集加工に使用した編集機器390eのモニタ装置と同様の輝度表現をなされた映像コンテンツを放送受信装置100のモニタ部162で視聴することが可能となる。
 前記(2)の方式の自動輝度調整は、前記コンテンツ情報記述子に記述された『max_light_level_of_content』パラメータと『source_luminance_min』パラメータ、および、ストレージ部110の各種情報記憶領域に記憶されたモニタ部162で表示可能な輝度の最大値/最小値を参照して行うものである。
 即ち、図33Bに示すように、前記『max_light_level_of_content』パラメータに示される輝度レベルが前記モニタ部162で表示可能な輝度の最大値の輝度レベルに概略一致するように、かつ、前記『source_luminance_min』パラメータに示される輝度レベルが前記モニタ部162で表示可能な輝度の最小値の輝度レベルに概略一致するように、映像コンテンツの輝度表現範囲の変換処理を行うものである。前記輝度表現範囲の変換処理を行うことにより、ユーザは、放送受信装置100のモニタ部162が有するコントラスト性能を充分に生かして映像コンテンツの視聴を行うことが可能となる。
 なお、前記コンテンツ情報記述子が、各シーン(チャプタ)内における最少輝度を示すパラメータ(例えば、『min_light_level_of_content(コンテンツ最小輝度)』等)を更に有している場合、前記『source_luminance_min』パラメータに代替して前記『min_light_level_of_content』パラメータを参照すれば、放送受信装置100のモニタ部162が有するコントラスト性能を更に有効に活用することが可能となる。
 また、前記(2)の方式における輝度表現範囲の変換処理は、『num_of_scene』パラメータが『1』でない場合、シーン(チャプタ)毎に参照するパラメータを変えて行う様にしても良い。この場合、シーン(チャプタ)毎に放送受信装置100のモニタ部162における好適なコントラスト性能を確保することが可能となる。
 前記(3)の方式の自動輝度調整は、前記コンテンツ情報記述子に記述された『max_light_level_of_content』パラメータおよび、ストレージ部110の各種情報記憶領域に記憶されたモニタ部162で表示可能な輝度の最大値を参照して行うものである。輝度の最小値側は、それぞれ『0(cd/m2)』を基準とする。この場合、前記(2)の方式の自動輝度調整と同様の効果を得ることができ、更に、少ないパラメータの参照による簡易な演算で輝度表現範囲の変換処理を行うことが可能となる。
 また、前記輝度表現範囲の変換処理は、それぞれ、前記コンテンツ情報記述子に記述された『source_luminance_max』パラメータや『max_light_level_of_content』パラメータがストレージ部110の各種情報記憶領域に記憶されたモニタ部162で表示可能な輝度の最大値よりも大きい場合にのみ行う様にしても良い。
 即ち、前記コンテンツ情報記述子に記述された『source_luminance_max』パラメータや『max_light_level_of_content』パラメータがストレージ部110の各種情報記憶領域に記憶されたモニタ部162で表示可能な輝度の最大値よりも大きい場合には、受信した映像コンテンツをそのまま放送受信装置100のモニタ部に表示した場合に輝度つぶれを生じる可能性があるが、逆の場合には、前記輝度つぶれを生じる可能性がないからである。
 以上説明したように、本実施例の放送受信装置100の自動輝度調整の処理によれば、前記コンテンツ情報記述子を参照することにより、ユーザは、放送受信装置100のモニタ部162上における好適な輝度表現で映像コンテンツの視聴を行うことが可能となる。
 本実施例によれば、放送波に含まれる番組コンテンツに付随するコンテンツ情報を参照することにより、HDRや色域の拡大に対応した前述の各処理が可能な、より有用なMMT対応の放送受信装置を提供することができる。
 (実施例4)
 以下では、本発明の実施例4に関して説明する。なお、本実施例における構成および効果等は特に断りのない限り実施例3と同様であるものとする。このため、以下では、本実施例と実施例3との相違点を主に説明し、共通する点については重複を避けるため極力説明を省略する。
 [システム構成]
 図34は、本実施例の放送受信装置を含む放送通信システムの一例を示すシステム構成図である。本実施例の放送通信システムは、放送受信装置40100とアンテナ40100a、接続ケーブル40200、モニタ装置40300、インターネット200等のブロードバンドネットワークおよびルータ装置200r、放送局の電波塔300tと放送衛星(または通信衛星)300s、放送局サーバ300、サービス事業者サーバ400、その他のアプリケーションサーバ500、で構成される。図示は省略しているが、実施例1の放送通信システムのシステム構成図(図1参照)と同様の接続で、アクセスポイント200a、移動体電話通信サーバ600と移動体電話通信網の基地局600b、携帯情報端末700、を更に有していても良い。また、その場合、携帯情報端末700は、ルータ装置200r等を介さずに、放送受信装置40100と直接通信が可能であっても良い。
 また、図28に示したように、電波塔300tから送出される放送波に含まれる番組コンテンツの符号化データは、撮影機器390cから出力されたものであって良いし、編集機器390eで種々の映像/音声の編集加工を施されたものであって良い。
 放送受信装置40100は、電波塔300tから送出された放送波を、放送衛星(または通信衛星)300sおよびアンテナ40100aを介して受信する。或いは、電波塔300tから送出された放送波を、放送衛星(または通信衛星)300sを介さずに、直接アンテナ40100aから受信しても良い。また、放送受信装置40100は、ルータ装置200rを介してインターネット200と接続可能であり、インターネット200上の各サーバ装置やその他の通信機器との通信によるデータの送受信が可能である。
 接続ケーブル40200は、放送受信装置40100とモニタ装置40300を接続する通信ケーブルであり、放送受信装置40100から出力された符号化映像/音声データ等が伝送される。モニタ装置40300は、接続ケーブル40200を介して受信した符号化映像/音声データ等に対して所定の信号処理を施すことにより得た映像情報および音声情報を、液晶パネル等の表示デバイスおよびスピーカを介して、ユーザに提供する映像表示装置である。
 また、モニタ装置40300は、ルータ装置200rを介してインターネット200と接続可能であって、インターネット200上の各サーバ装置やその他の通信機器との通信によるデータの送受信が可能であっても良い。また、モニタ装置40300は、アンテナ40300a(ただし、図示省略)を介して、電波塔300tから送出された放送波を受信可能としても良い。
 [放送受信装置のハードウェア構成]
 図35Aは、放送受信装置40100の内部構成の一例を示すブロック図である。放送受信装置40100は、主制御部101、システムバス102、ROM103、RAM104、ストレージ(蓄積)部110、LAN通信部121、拡張インタフェース部124、デジタルインタフェース部40125、チューナ/復調部131、分離部132、映像デコーダ141、映像色域変換部142、音声デコーダ143、文字スーパーデコーダ144、字幕デコーダ145、字幕合成部146、字幕色域変換部147、データデコーダ151、キャッシュ部152、アプリケーション制御部153、ブラウザ部154、アプリケーション色域変換部155、音源部156、映像合成部161、映像出力部163、音声合成部164、音声出力部166、操作入力部170、トランスコード処理部40181、で構成される。
 本実施例の放送受信装置40100は、DVDレコーダやBDレコーダなどの光ディスクドライブレコーダ、HDDレコーダなどの磁気ディスクドライブレコーダ、STB等であるものとする。即ち、実施例1の放送受信装置100と比較して、モニタ部162とスピーカ部165が省略されて良い。
 デジタルインタフェース部40125は、符号化されたデジタル映像データおよび/またはデジタル音声データを出力若しくは入力するインタフェースである。デジタルインタフェース部40125は、チューナ/復調部131で復調して得たMMTデータ列やLAN通信部121を介して取得したMMTデータ列、或いは、前記各MMTデータ列の混合データをそのまま出力可能であるものとする。また、デジタルインタフェース部40125から入力したMMTデータ列を分離部132に入力するように制御しても良い。
 ストレージ(蓄積)部110に記憶したデジタルコンテンツの出力、或いは、ストレージ(蓄積)部110へのデジタルコンテンツの記憶を、デジタルインタフェース部40125を介して行っても良い。また、デジタルインタフェース部40125は、DVI端子やHDMI(登録商標)端子やDisplay Port(登録商標)端子等であって、DVI仕様やHDMI仕様やDisplay Port仕様等に準拠した形式で、映像合成部161および音声合成部164から出力された映像データおよび音声データ等を出力するように制御されても良い。
 トランスコード処理部40181は、コンテンツを構成する各コンポーネントの符号化形式やビットレート、メディアトランスポート方式等を変換するトランスコード演算処理を行う信号処理部である。例えば、トランスコード処理部40181は、分離部132から出力されたMPEG-H HEVC形式の映像コンポーネントを含む放送番組のコンテンツのMMTデータ列をMPEG-2やMPEG-4 AVC(Advanced Video Coding)形式の映像コンポーネントを含む番組コンテンツのMPEG2-TSデータ列(或いは、MPEG2-PSデータ列)等に変換することが可能であるものとする。
 また、コンポーネントの符号化形式やメディアトランスポート方式は変更せずにビットレートのみを変更する処理等も可能であるものとする。なお、前記トランスコード演算処理を施された番組コンテンツは、録画コンテンツとしてストレージ(蓄積)部110に記憶させることや、デジタルインタフェース部40125等から出力して外部のモニタ装置等に供給することが可能であるものとする。
 [放送受信装置のソフトウェア構成]
 図35Bは、本実施例の放送受信装置40100のソフトウェア構成図であり、ROM103、RAM104およびストレージ(蓄積)部110におけるソフトウェアの構成を示す。実施例1の放送受信装置100のソフトウェア構成図(図7D参照)と比較して、ストレージ(蓄積)部110にトランスコード処理プログラム41003と記録再生処理プログラム41004が追加されるものとする。
 ストレージ(蓄積)部110に記憶されたトランスコード処理プログラム41003と記録再生処理プログラム41004は、それぞれRAM104に展開され、更に主制御部101が前記展開されたトランスコード処理プログラムと記録再生処理プログラムを実行することにより、トランスコード処理実行部41103と記録再生処理実行部41104を構成する。トランスコード処理実行部41103は、トランスコード処理部40181におけるトランスコード演算処理を主として制御する。記録再生処理実行部41104は、放送番組のコンテンツのコンテンツ記憶領域1200への録画処理およびコンテンツ記憶領域1200からの記録済みコンテンツの再生処理を主として制御する。
 また、RAM104に展開された受信機能実行部1102は、出力制御部41102iを更に有するものとする。受信機能実行部1102の出力制御部41102iは、映像出力部163や音声出力部166、デジタルインタフェース部40125からのデータ出力に関連する各処理の制御を行うものとする。
 なお、図35Bに示したソフトウェア構成はあくまでも一例であり、本実施例においては、図示した全てのプログラムおよび実行部を備えなくとも良い。
 [放送受信装置とモニタ装置のインタフェース構成]
 図36は、放送受信装置40100とモニタ装置40300の間のインタフェース構成の一例を示すシステム構成図である。本実施例においては、放送受信装置40100側のデジタルインタフェース部40125の図示を省略した接続端子とモニタ装置40300側の図示を省略したデジタルインタフェース部の接続端子とが接続ケーブル40200で接続される場合に関して説明する。なお、モニタ装置40300は、図7Aに示した放送受信装置100と同様の構成であっても良い。この場合、デジタルインタフェース部125が前述のモニタ装置40300側のデジタルインタフェース部に相当し、その接続端子に接続ケーブル40200が接続される。
 接続ケーブル40200は、図36に示したように、CH1~CHnのnペアの差動伝送レーンと、VESA(Video Electronics Standard Association)で標準化されたDDC(Display Data Channel)ライン、HPD(Hot Plug Detect)ライン、CEC(Consumer Electronics Control)ライン、等で構成されるものとする。なお、前記差動伝送レーンは、差動伝送ラインと称しても良い。
 前記nペアの差動伝送レーンは、1ペアのクロックレーンと(n-1)ペアのデータレーンであっても良い。例えば、n=4であって、1ペアのクロックレーンと3ペアのデータレーンとしても良いし、n=2であって、1ペアのクロックレーンと1ペアのデータレーンとしても良い。また、前記nペアの差動伝送レーンの全てが、クロックを重畳したデータを送信するデータレーンであっても良い。例えば、n=4であって、4ペアのデータレーンとしても良い。なお、前記クロックレーンおよびデータレーンは、それぞれ、クロックラインおよびデータラインと称しても良い。
 前記データレーンには、映像合成部161や音声合成部164から、放送受信装置40100側のデジタルインタフェース部40125の送信処理部40125bを介して、デジタル映像(R/G/B/Vsync/Hsync、Y/Pb(Cb)/Pr(Cr)、等)/音声信号やその他の制御信号等が所定の形式で出力されて良い。前記所定の形式はHDMI(登録商標)等の仕様に準拠して良く、詳細の説明を省略する。前記デジタル映像/音声信号やその他の制御信号等は、モニタ装置40300側のデジタルインタフェース部の受信処理部40325bで受信され、図示を省略した映像処理部や音声処理部で画質調整や音量調整等の必要な処理を適宜施されて、モニタ装置40300の表示部およびスピーカから出力される。
 また、接続ケーブル40200は、図示は省略しているが、電源ラインやGNDラインや予備ラインを更に含んでいても良い。前記nペアの差動伝送レーンや通信ライン等は、GNDラインによりシールドされていても良い。前記予備ラインやDDCラインやHPDラインやCECラインの全部或いは一部は、ネットワーク通信を行う通信ラインの一部として兼用されても良い。例えば、前記予備ラインとHPDラインを以って、前記通信ラインの1本の送信線と1本の受信線、または、1ペアの送受信ラインを構成しても良い。前記CECライン等は省略されても良い。前記DDCラインは、放送受信装置40100の主制御部101とモニタ装置40300の図示を省略した主制御部の間のI2C(I-squared-C)通信ラインとして使用されても良い。
 放送受信装置40100側のデジタルインタフェース部40125の送信処理部40125bは、前記DDCラインを介してモニタ装置40300側のデジタルインタフェース部の受信処理部40325bと通信し、更に、EDID記憶部40325cからEDID(Extended Display Identification Data)を読み取ることが可能であるものとする。即ち、放送受信装置40100は、EDIDを取得することにより、モニタ装置40300のディスプレイ性能を把握することが可能である。
 なお、前記ディスプレイ性能とは、本実施例においては、モニタ装置40300で対応可能な入力解像度やフレームレート、ビデオ規格、3D映像表示への対応可否、または、モニタ装置40300がHDRや色域の拡大に対応した処理が可能であるか否か、等の項目であるものとする。
 また、本実施例においては、放送受信装置40100がモニタ装置40300のディスプレイ性能を把握するための手段として、前記EDIDを取得する処理を例に、以下の説明を行う。しかしながら、前記取得する情報はEDIDに限られるものではない。例えば、EDIDとは異なる情報であって、モニタ装置40300のディスプレイ性能や機能を識別する性能識別情報を取得するようにしても良い。また、前記性能識別情報を取得する以外の手段でモニタ装置40300のディスプレイ性能を把握するようにしても良い。
 また、放送受信装置40100側のデジタルインタフェース部40125の送信制御部40125aは、送信処理部40125bの制御を行うと共に、前記HPDラインを介して、モニタ装置40300が接続されたことやモニタ装置40300の電源がオンされたこと等を検出することが可能であるものとする。また、放送受信装置40100側のデジタルインタフェース部40125の送信制御部40125aは、前記CECライン等を介して、モニタ装置40300の電源をオンする処理等を行うことが可能であるものとする。また、モニタ装置40300側のデジタルインタフェース部の受信制御部40325aは、受信処理部40325bの制御も行うものとする。
 なお、図36に示した接続ケーブル40200の構成や放送受信装置40100のデジタルインタフェース部40125の内部構成やモニタ装置40300のデジタルインタフェース部の内部構成は、あくまでも一例であり、異なる構成であっても良い。
 [マスタリング情報の各パラメータ]
 本実施例においても、実施例3と同様に、図29Aに示したコンテンツ情報記述子が、前記番組コンテンツに関する制御情報として、前述のMMT-SIの各メッセージ/テーブル/記述子と併せて送信されるものとする。一方、本実施例の放送受信装置40100は、ユーザに対して最終的に映像信号や音声信号を提供するモニタ部やスピーカを備えておらず、接続ケーブル40200を介してモニタ装置40300へ符号化映像/音声データ等を送信し、モニタ装置40300からユーザへの映像信号や音声信号の提供を行わせるものである。即ち、実施例3で説明したような色域変換処理や輝度調整処理等の処理は、モニタ装置40300側で、モニタ装置40300の表示部のディスプレイ性能に応じて行われることになる。
 本実施例の放送受信装置40100は、モニタ装置40300側における前記各処理を可能とするために、放送波から前記コンテンツ情報記述子を受信し、前記受信したコンテンツ情報記述子に記述された各パラメータを適宜選択して、所定の形式のマスタリング情報として、接続ケーブル40200を介して、モニタ装置40300に送信する機能を有するものとする。なお、例えば、接続ケーブル40200がHDMI(登録商標)ケーブルであり、デジタルインタフェース部40125から出力される映像データや音声データやその他の制御信号等がHDMI(登録商標)仕様に準拠した形式である場合、前記マスタリング情報は、前記その他の制御信号等の一部として出力されて良い。
 図37に、マスタリング情報として、本実施例の放送受信装置40100がモニタ装置40300に送信する各パラメータの一覧を示す。
 『source_primaries_R[x,y]』、『source_primaries_G[x,y]』、『source_primaries_B[x,y]』は、ソース機器の色再現性能等に関する情報を示すパラメータであり、前記ソース機器が対応可能な色域をR(赤)/G(緑)/B(青)の各原色のCIE色度図上における座標値で示すものとする。前記コンテンツ情報記述子に記載された『source_primaries_rx』、『source_primaries_ry』、『source_primaries_gx』、『source_primaries_gy』、『source_primaries_bx』、『source_primaries_by』の各パラメータを選択して、前記マスタリング情報の『source_primaries_R[x,y]』、『source_primaries_G[x,y]』、『source_primaries_B[x,y]』パラメータとして出力して良い。
 『white_point_x,y』は、ソース機器の色再現性能等に関する情報を示すパラメータであり、前記ソース機器が対応可能な白色基準点のCIE色度図上における座標値を示すものとする。前記コンテンツ情報記述子に記載された『source_white_point_x』および『source_white_point_y』パラメータを選択して、前記マスタリング情報の『white_point_x,y』パラメータとして出力して良い。
 『max_source_mastering_luminance』は、ソース機器が対応可能な最大輝度に関する情報を示すパラメータである。『1(cd/m2:カンデラ/平方メートル)』~『65535(cd/m2)』の範囲の値で示すものとする。前記コンテンツ情報記述子に記載された『source_luminance_max』パラメータを選択して、前記マスタリング情報の『max_source_mastering_luminance』パラメータとして出力して良い。
 『min_source_mastering_luminance』は、ソース機器が対応可能な最小輝度に関する情報を示すパラメータである。『0.0001(cd/m2)』~『6.5535(cd/m2)』の範囲の値で示すものとする。前記コンテンツ情報記述子に記載された『source_luminance_min』パラメータを選択して、前記マスタリング情報の『min_source_mastering_luminance』パラメータとして出力して良い。
 『Maximum_Content_Light_Level』は、コンテンツ内における最大輝度を示すパラメータである。『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示すものとする。前記コンテンツ情報記述子に記載された『max_light_level_of_content』パラメータを選択して、前記マスタリング情報の『Maximum_Content_Light_Level』パラメータとして出力して良い。
 『Maximum_Frame-average_Light_Level』は、コンテンツ内におけるフレーム平均輝度の最大値を示すパラメータである。『1(cd/m2)』~『65535(cd/m2)』の範囲の値で示すものとする。前記コンテンツ情報記述子に記載された『max_frame_ave_light_level』パラメータを選択して、前記マスタリング情報の『Maximum_Frame-average_Light_Level』パラメータとして出力して良い。
 『Light Level Status』は、2ビットのフラグ信号であり、『Maximum_Content_Light_Level』パラメータおよび『Maximum_Frame-average_Light_Level』パラメータの状況を表すものとする。
 このフラグの値が『00b』の場合、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータは、コンテンツ全体を通しての最大輝度およびフレーム平均輝度の最大値を示す。このフラグの値が『01b』の場合、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータは、シーン(チャプタ)毎の最大輝度およびフレーム平均輝度の最大値を示す。
 このフラグの値が『10b』の場合、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータが省略されていることを示す。このフラグの値を『10b』とする代わりに、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータの値を『0』としても良い。
 以上説明した各パラメータを、マスタリング情報として、本実施例の放送受信装置40100がモニタ装置40300に、接続ケーブル40200を介して送信することにより、モニタ装置40300は、放送受信装置40100から送信された符号化映像/音声データ等に対して、モニタ装置40300の表示部が有するディスプレイ性能に応じた色域変換処理や輝度調整処理等の処理を施すことが可能となる。なお、前述のマスタリング情報の各パラメータは、図37に示した各パラメータと異なる別のパラメータを更に備えていても良いし、前記各パラメータの全てを備えなくとも良い。また、前記各パラメータは、異なる名称を用いていても良い。
 [放送受信装置のマスタリング情報生成処理]
 本実施例においては、前記コンテンツ情報記述子の『content_type』パラメータが『2』または『3』である場合、映像コンテンツは撮影機器390cから出力されたコンテンツデータ(生中継番組等)であり、前記コンテンツ情報記述子は、『max_light_level_of_content』パラメータおよび『max_frame_ave_light_level』パラメータを有しない。即ち、生中継番組等においては、番組コンテンツの終端になるまでコンテンツ全体を通した最大輝度および平均輝度の最大値が確定しないからである。
 この場合、本実施例の放送受信装置40100は、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータの値をそれぞれ『0』として、マスタリング情報の出力を行う。或いは、前記コンテンツ情報記述子の『max_light_level_of_frame』パラメータおよび『frame_average_light_level』パラメータを以って、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータの代替としても良い。
 一方、ストレージ(蓄積)部110のコンテンツ記憶領域1200に前記映像コンテンツの記録を行った場合、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータを、放送受信装置40100が作成しても良い。即ち、前記映像コンテンツの録画処理を行うことにより、放送受信装置40100は、前記映像コンテンツを始端から終端までスキャンすることが可能であり、従って、コンテンツ全体を通した最大輝度および平均輝度の最大値を確定させることが可能であるからである。
 また、録画処理によりストレージ(蓄積)部110のコンテンツ記憶領域1200に記録した映像コンテンツを再生処理によりデジタルインタフェース部40125から接続ケーブル40200を介してモニタ装置40300に出力する場合には、放送受信装置40100が前記映像コンテンツを始端から終端までスキャンして作成した、コンテンツ全体を通した最大輝度および平均輝度の最大値を、前記『Maximum_Content_Light_Level』パラメータおよび前記『Maximum_Frame-average_Light_Level』パラメータとして出力するように制御を行っても良い。即ち、一旦録画処理を行った映像コンテンツの場合、前記コンテンツ情報記述子の『content_type』パラメータの値によらず、マスタリング情報の全てのパラメータを、モニタ装置40300に対して出力することが可能となる。
 [放送受信装置のマスタリング情報出力制御]
 前述のマスタリング情報の各パラメータは、接続ケーブル40200を介して接続されたモニタ装置40300に対して、常に出力されるものであっても良い。或いは、放送受信装置40100側のデジタルインタフェース部40125の送信処理部40125bがモニタ装置40300のEDID記憶部40325cから取得したEDIDを参照し、モニタ装置40300がHDRや色域の拡大に対応した処理が可能であることを把握した場合にのみ、前記マスタリング情報の各パラメータを、接続ケーブル40200を介してモニタ装置40300に出力するようにしても良い。或いは、前記コンテンツ情報記述子が、前記放送番組の映像コンテンツがHDRに対応している番組であることを示している場合にのみ、前記マスタリング情報の各パラメータを、接続ケーブル40200を介してモニタ装置40300に出力するようにしても良い。
 なお、前述の前記コンテンツ情報記述子が、前記放送番組の映像コンテンツがHDRに対応している番組であることを示している場合とは、前記コンテンツ情報記述子の『content_type』パラメータが『1』または『3』の場合、前記コンテンツ情報記述子の『HDR_flag』パラメータが前記放送番組の映像コンテンツのHDR対応を示している場合、前記コンテンツ情報記述子の『source_luminance_max』パラメータや『max_light_level_of_content』パラメータや『max_light_level_of_frame』パラメータ等の全て或いは何れかが所定値(例えば、『100(cd/m2)』等)を超える場合、等である。
 また、デジタルインタフェース部40125のインタフェース種別に応じて、前記マスタリング情報の各パラメータの出力を制御するようにしても良い。例えば、デジタルインタフェース部40125のインタフェース種別がHDMIインタフェースである場合には前記マスタリング情報の各パラメータを出力するように制御を行い、DVIインタフェースである場合には前記マスタリング情報の各パラメータを出力しないように制御を行う、等である。
 或いは、放送受信装置40100側のデジタルインタフェース部40125のインタフェース種別とモニタ装置40300側のデジタルインタフェース部のインタフェース種別とに応じて、前記マスタリング情報の各パラメータの出力を制御するようにしても良い。例えば、放送受信装置40100側のデジタルインタフェース部40125のインタフェース種別とモニタ装置40300側のデジタルインタフェース部のインタフェース種別がともにHDMIインタフェースである場合には前記マスタリング情報の各パラメータを出力するように制御を行い、放送受信装置40100側のデジタルインタフェース部40125のインタフェース種別がHDMIインタフェースであってもモニタ装置40300側のデジタルインタフェース部のインタフェース種別がHDMIインタフェースではない場合(例えば、DVIインタフェースやDisplay Portインタフェース等である場合、即ち、接続ケーブル40200がインタフェース変換ケーブルである場合)には前記マスタリング情報の各パラメータを出力しないように制御を行う、等である。
 また、デジタルインタフェース部40125が第一のデジタルインタフェース端子と第二のデジタルインタフェース端子で構成されている場合、前記第一のデジタルインタフェース端子と前記第二のデジタルインタフェース端子の何れの端子からデータ出力を行うかにより、出力するデータの形式を異ならせるように制御を行っても良い。なお、この場合、前記それぞれのデジタルインタフェース端子が、図36に示した構成若しくはその他の構成を有するものとする。
 例えば、前記第一のデジタルインタフェース端子がHDMIインタフェースであり、前記第二のデジタルインタフェースがHDMIインタフェースではない場合、前記第一のデジタルインタフェース端子からデータ出力を行う際には、映像信号と音声信号と前記マスタリング情報とを含む出力データを生成して前記第一のデジタルインタフェース端子からデータ出力を行い、前記第二のデジタルインタフェース端子からデータ出力を行う際には、映像信号と音声信号とを含み前記マスタリング情報を含まない出力データを生成して前記第二のデジタルインタフェース端子からデータ出力を行う様に、出力データの生成処理およびデータ出力処理を制御すれば良い。
 以上、本実施例の放送受信装置40100によれば、モニタ装置40300に対して、符号化映像/音声データと共にマスタリング情報を送信することにより、モニタ装置40300側における色域変換処理や輝度調整処理等を好適に実行させることができるようになる。即ち、より付加価値の高い機能を実行可能な放送受信装置を提供することが可能となる。
 (実施例5)
 以下では、本発明の実施例5に関して説明する。なお、本実施例における構成および効果等は特に断りのない限り実施例4と同様であるものとする。このため、以下では、本実施例と実施例4との相違点を主に説明し、共通する点については重複を避けるため極力説明を省略する。
 [システム構成]
 図38は、本実施例の放送受信装置を含む放送通信システムの一例を示すシステム構成図である。図38の放送通信システムは、図34の放送通信システムと同じ構成を有しているが、放送受信装置40100がコンテンツを出力する出力先を、モニタ装置40300に替えて外部映像処理装置50300としている。これは、コンテンツの出力先に、表示装置に加えてレコーダなどの映像再生装置も含める意味である。さらに、本実施例の放送受信装置を含む放送通信システムでは、放送局の電波塔300tと放送衛星(または通信衛星)300s、放送局サーバ300を介して放送受信装置40100が受信するコンテンツとともに伝送される制御情報を「受信制御情報」と称している。これは、実施例1で説明した各種制御情報および本実施例において追加で説明する制御情報が含まれる。さらに本実施例の放送受信装置を含む放送通信システムでは、放送受信装置40100がコンテンツをルータ装置200rを介するネットワーク経由で外部映像処理装置50300に出力する場合に、コンテンツとともに伝送する制御情報を「出力制御情報」と称している。
 放送受信装置のハードウェア構成、放送受信装置のソフトウェア構成、放送受信装置とモニタ装置のインタフェース構成などについては、実施例4と同様であるため、再度の説明は省略する。
 図35Aにおいて、LAN通信部121のハードウェアを用いてデジタルインタフェース部40125を構成することにより、ネットワーク上の出力先にデジタルインタフェース部40125出力を行うことができる。ここで、デジタルインタフェース部40125出力はMMTデータ列に限らず、トランスコード処理部40181でMMTデータ列からトランスコードしたMPEG2-TSデータ列(或いは、MPEG2-PSデータ列)等でも良い。これは、実施例1で説明した「IPインタフェース」として構成する例である。
 ここで、図38の放送通信システムにおいて、放送受信装置40100がコンテンツをルータ装置200rを介するネットワーク経由で外部映像処理装置50300に出力する場合とは、放送受信装置40100が当該IPインタフェースを介してコンテンツを外部映像処理装置50300に出力する場合を意味している。
 本発明の実施例3および実施例4で説明したように、本実施例の放送通信システムでは、解像度が1920×1080画素以下のSDR映像コンテンツだけでなく、解像度が1920×1080画素を超えるコンテンツや、HDR映像コンテンツなど、高品位コンテンツを伝送することが可能となる。ここで、放送通信システムで放送したこれらの高品位映像コンテンツを受信機がインタフェースを介して外部機器に再出力する際のコンテンツ保護は、解像度が1920×1080画素以下のSDR映像のコンテンツよりも高いコンテンツ保護が要求されている。
 これを実現するために、インタフェース伝送技術としてDTCP-IPよりも高度なコンテンツ保護システムであるDTCP2(参考文献1に記載されている)によるコンテンツ保護が開発されている。
 〔参考文献1: Digital Transmission Licensing Administrator DTCP2 Presentation to CPTWG January 27, 2016〕
 具体的には、DTCP2には、図39に示す4つのフラグ(“L2-Only” Flag、“EI” Flag、“HDR” Flag、“SDO” Flag)が新たに用意される。例えば、図39の“L2-Only” Flagは、“0”であれば「DTCP-IP(L1レベルコンテンツ保護)でもDTCP2(L2レベルコンテンツ保護)でも何れのコンテンツ保護も適用可能」を示すものであり、“1”であれば「DTCP-IP(L1レベルコンテンツ保護)よりも高いレベルのコンテンツ保護(例えば、DTCP2などの L2レベルコンテンツ保護)が必要である」ことを示す。なお、DTCP-IP(L1レベルコンテンツ保護)については、以下の説明において「DTCP2」と区別するために「DTCP1」と称する。また、“EI” Flagは、“0”であれば、「コンテンツが“Non-Enhanced Image”である」ことを示すものであり、“1”であれば、「コンテンツが“Enhanced Image”である」ことを示す。ここで、“Enhanced Image”とは、画素数が1920×1080を超えている、または、 HDレベルの色空間(BT.709などのSDR)を超える色空間(例えばBT.2020やSMPTE2084などのHDR)の映像を有するコンテンツを意味する。また、“Non-Enhanced Image”とは、HD映像画質以下の映像(例えば、画素数が1920×1080以下、かつ、 HDレベルの色空間(BT.709などのSDR)を有する映像など。)の映像を有するコンテンツ意味する。また、“HDR” Flagは、“0”であれば「HDRからSDRに変換しても良い映像のコンテンツである」ことを示すものであり、“1”であれば「HDRからSDRへの変換が禁止されている映像のコンテンツである」ことを示す。また、“SDO” Flagは、“0”であれば、「“Enhanced Image”の場合は L2レベルコンテンツ保護でなければ再出力できないが、“Enhanced Image”を“Non-Enhanced Image”に変換した場合は、L1レベルコンテンツ保護で再出力が可能である」ことを示すものであり、“1”であれば、「コンテンツが、“Enhanced Image”または“Non-Enhanced Image”の何れの場合でも L2レベルコンテンツ保護でも L1レベルコンテンツ保護でも再出力可能であること」を示す。
 以上説明したDTCP2によるコンテンツ保護を、本実施例のIPインタフェース出力に適用しようとする場合、図38の出力制御情報50200として、どのコンテンツにどのフラグを付けるべきかが問題となる。例えば、図39の4つのフラグと実質的に対応するフラグを図38の受信制御情報50100側にも用意するという考え方もあり得る。このようにすれば、実質的に、放送局のサーバをDTCP2のSink装置にすることが可能である。しかしながら、上記4つのフラグは1bitずつあり、これらのフラグを放送局側や制作側の意図で自由に設定可能とした場合、4つのフラグのすべての組み合わせを考慮すれば、2の4乗とおり、すなわち16とおりのコンテンツの保護状態があり、非常に複雑となる。これは、多数の視聴者が同時受信し、さらに、選局されているサービスにおいて番組の開始、終了が繰り返される「放送」技術においては、好適ではないと言わざるを得ない。「放送」技術が対象とする視聴者の数は膨大であり、視聴者が有するモニタ等もさまざまである。例えば、一部の視聴者が有するモニタがHDR非対応であった場合に、フラグによるコンテンツ保護制御により、当該コンテンツをこれらの視聴者に全く視聴できなくするということは、「放送」技術としてはできるだけ避けたい状況である。また、受信機器の普及のためにも「放送」技術で伝送されるコンテンツは、種類の体系がシンプルで多数の視聴者に理解しやすい必要がある。
 また、受信制御情報50100に新たなフラグを用意するとコンテンツ制作側の設備も複雑化することとなる。
 以上を考慮して本実施例の放送通信システムでは、図38の受信制御情報50100にDTCP2の上記4つのフラグに実質的に対応するフラグをそのまま導入しないこととする。そのうえで、放送受信装置40100からのIPインタフェース出力の際に、出力制御情報50200としてDTCP2のフラグを運用してより好適なコンテンツ保護を行うこととする。具体的には、本実施例の放送通信システムでは、受信制御情報50100として、コンテンツの映像の解像度の情報、コンテンツのデジタルコピーに関する制御情報、コンテンツの蓄積や出力に関する制御情報、および実施例3、4で説明したEOTF識別情報(伝達特性識別情報)を用いることとし、放送受信装置40100が、IPインタフェース出力の際に、これらの情報に応じて、DTCP2のフラグの付加を含めてそれぞれのコンテンツの出力保護を決定するものとする。
 ここで、受信制御情報50100の一つとして用いるコンテンツの映像の解像度の情報について説明する。コンテンツの映像の解像度の情報は、本実施例の放送通信システムにおいて複数種類の情報が伝送されている。放送受信装置40100はこれら複数種類の情報の何れかを用いてコンテンツの映像の解像度(画素数)を判別すれば良い。例えば、本実施の放送システムのコンテンツの映像符号化方式であるHEVCの符号化ストリーム内に格納されている符号化パラメータを取得して判断しても良い。または、MPTに配置されるMH-HEVCビデオ記述子に記載の符号化パラメータを取得して判断しても良い。または、映像コンポーネント記述子に記載の映像解像度情報を取得して判断しても良い。
 次に、受信制御情報50100の一つとして用いるコンテンツのデジタルコピーに関する制御情報とコンテンツの蓄積や出力に関する制御情報について説明する。図40に、本実施例の放送通信システムで伝送するコンテンツのデジタルコピーに関する制御情報とコンテンツの蓄積や出力に関する制御情報に関する記述子を示す。ここで、コンテンツコピー制御記述子には、コンテンツのデジタルコピーに関する制御情報または最大伝送レートを示す情報などが格納されている。また、コンテンツ利用制御記述子には、コンテンツの蓄積や出力に関する制御情報を記述した情報が格納されている。コンテンツコピー制御記述子とコンテンツ利用制御記述子とは例えばMPTに配置されて伝送される。
 図41Aに、本実施例の放送システムにおけるコンテンツコピー制御記述子のデータ構造の一例を示す。図中の『digital_recording_control_data』パラメータがデジタルコピー制御情報であり、コンテンツのコピー世代を制御する情報を示すものとする。また、図41Bに前記デジタルコピー制御情報のパラメータ値とその意味の一例を示す。例えば、前記パラメータが『00』の場合には『制約条件なしにコピー可能(「無制限にコピー可」と同義)』を示し、前記パラメータが『01』の場合には事業者による定義が可能であり、前記パラメータが『10』の場合には『1世代のみコピー可』を示し、前記パラメータが『11』の場合には『コピー禁止』を示すものとする。前記パラメータが『00』の場合で『制約条件なしにコピー可能』を示す場合のみ、デジタルコピー制御情報による保護が指定されていない状態といえる。前記パラメータが『01』、『10』、『11』の場合は、デジタルコピー制御情報によるなんらかの保護が指定されている状態といえる。
 また、図42に、本実施例の放送システムにおけるコンテンツ利用制御記述子のデータ構造の一例を示す。図中の『copy_restriction_mode』パラメータがコピー制限モードであり、個数制限コピーが可能(実施例1の『所定複数回数コピー可』に対応する)か否かを示すものとする。図42に示したコンテンツ利用制御記述子の『encryption_mode』パラメータの値はIPインタフェース出力時の保護(暗号化)の制御に用いられる。前記『encryption_mode』パラメータの値が”0”で保護を要する(暗号化要)ことを示している場合にはコンテンツの出力時に暗号化処理を行うこととし、値が”1”で保護を要しない(暗号化不要)ことを示している場合にはコンテンツの出力時に保護(暗号化処理)を行わずに出力を行うこととして良い。
 以上説明した、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータと、コンテンツ利用制御記述子の『encryption_mode』パラメータと、コンテンツ利用制御記述子の『copy_restriction_mode』パラメータの組み合わせが、実施例1で説明した「コピー制御情報」の具体的な構成例である。
 本実施例の放送受信装置40100は、上述のコンテンツコピー制御記述子の『digital_recording_control_data』パラメータやコンテンツ利用制御記述子の『copy_restriction_mode』パラメータなどを取得して、IPインタフェース出力のコンテンツの出力保護を決定の判断に用いれば良い。
 次に、受信制御情報50100の一つとして用いるEOTF識別情報は、実施例3、4で既に詳細を説明したため、再度の説明を省略する。さらに、本実施例の放送受信装置40100は、受信制御情報50100としてのEOTF識別情報だけでなく、放送受信装置40100において、コンテンツの映像の解像度変換処理の有無または結果、または実施例3、4で説明した伝達特性変換処理の有無または結果、またはコンテンツの蓄積処理の有無または蓄積後の状態を用いて、IPインタフェース出力のコンテンツの出力保護の決定を行っても良い。
 [放送受信装置におけるIPインタフェース出力のコンテンツの出力保護の決定処理]
 図43、図44、図45を用いて、放送受信装置におけるIPインタフェース出力のコンテンツの出力保護の決定処理の一例を示す。
 まず、図43は放送受信装置40100が、受信制御情報50100とともにコンテンツを受信し、コンテンツの映像について解像度変換処理や伝達特性変換処理を行わずにIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理を示したものである。
 図43において、本実施例の放送受信装置40100の主制御部101は、受信制御情報50100に含まれる情報に基づいて、IPインタフェース出力を行う場合のコンテンツの出力保護の決定を行う。具体的には、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータと、コンテンツ利用制御記述子の『encryption_mode』パラメータと、受信コンテンツの映像の解像度と、伝達特性(EOTF)識別情報の組み合わせに基づいて、IPインタフェース出力を行う場合のコンテンツの出力保護の決定を行う。以下、それぞれの組合せにおける決定例について説明する。
 [図43組合せ1]
 図43の組合せ1の例では、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「制約条件なしにコピー可能」を示しており、コンテンツ利用制御記述子の『encryption_mode』パラメータが、IPインタフェース出力時の保護状態が「保護しない」であることを示している。すなわちこの場合、何れのパラメータによっても、コンテンツのコピー制限や出力保護が指定されていない状況と言える。
 この場合、映像の解像度が水平1920×垂直1080画素を超えるコンテンツ(水平、垂直の何れかが当該画素数を超えるコンテンツ。以下「2K超コンテンツ」と称する)でも、水平1920×垂直1080画素以下のコンテンツ(水平、垂直の何れもが当該画素数以下のコンテンツ。以下「2K以下コンテンツ」と称する)でも、伝達特性識別情報がHDRを示す場合でも、SDRを示す場合でも、IPインタフェース出力を行う場合のコンテンツの出力保護は不要である。出力時のコピー制御も不要(実質的なCopy Free)であり、出力時の暗号化も不要であり、当然DTCP2の出力制御情報を付加する必要はない。ただし、当該コンテンツをDTCP1(上述の「DTCP-IP」)またはDTCP2の保護を行って出力しても構わない。その場合は、出力時のコピー制御状態を「Copy Free」とし、暗号化をなしとすれば良い。さらに、DTCP2の保護を行って出力する場合は、以下のように出力制御情報を決定すれば良い。“L2-Only” Flagを0とする。“EI” Flagは2K以下コンテンツで伝達特性がSDRの場合は0、それ以外のコンテンツの場合は1とする。“HDR” Flagは0とする。“SDO” Flagは1とする。すなわち、IPインタフェース出力のDTCPの保護レベルはL1レベルでもL2レベルでもよく、コピー制御はCopy Freeであり、伝達特性変換は禁止されず、解像度や伝達特性の状態にかかわらず、L1レベルでもL2レベルの何れの保護状態でも再出力が可能な状態で出力されることとなる。これは、本実施例おけるIPインタフェース出力の出力制御状態のうち保護状態が最も低い状態で出力されることを意味する。
 [図43組合せ2から5]
 図43の組合せ2から5の例では、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「制約条件なしにコピー可能」を示しており、コンテンツ利用制御記述子の『encryption_mode』パラメータが、IPインタフェース出力時の保護状態が「保護する」であることを示している。
 この場合、コンテンツ利用制御記述子の『encryption_mode』パラメータにより、IPインタフェース出力時に保護を行うことが指定されていることから、何れの組み合わせにおいても、DTCP2またはDTCP1の何れかによる出力保護を行う。その場合のコピー制御状態は何れも、コピー制限はないが暗号化する必要がある状態を示す「EPN」とし、暗号化保護処理を行う。ここで、DTCP2またはDTCP1の何れのレベルの出力保護処理を行うかについては、受信コンテンツの映像の解像度と、伝達特性(EOTF)識別情報の組み合わせに応じて決定する。
 例えば、組合せ5では、受信コンテンツの映像の解像度が2K以下コンテンツであり、伝達特性(EOTF)識別情報がSDRである。これはいわゆるHD画質コンテンツであるので、従来レベルの出力保護で十分であり、DTCP1を用いた出力保護を行う。この場合は、当然DTCP2の出力制御情報は付加しない。
 また、組合せ2、3、4では、受信コンテンツの映像の解像度が2K超コンテンツであるか、伝達特性(EOTF)識別情報がHDRであるかの何れかの条件を満たす。この場合はHD画質を超える画質のコンテンツであるため、DTCP1よりも高度なレベルの出力保護であるDTCP2を用いてコンテンツ保護を行う。この場合に出力コンテンツに付加するDTCP2の出力制御情報は以下のように決定する。
 ここで、“L2-Only” Flagについては、組合せ2、3、4の何れにおいても、“L2-Only” Flagを0とする。ここで、“L2-Only” Flagを1としてしまうと、出力先の機器でたとえ画素数変換や伝達特性変換処理を行ってHD画質に画質を下げた場合でもDTCP2などのL2レベルのコンテンツ保護行わなければ再出力ができないこととなる。視聴者が保有する機器によっては視聴が不可能となる可能性(視聴者が保有する機器がDTCP2非対応の場合など)があり、この状況は多数の視聴者が同時受信する「放送」コンテンツの保護としては望ましくない。以上が“L2-Only” Flagを0とする理由である。本実施例の以降の説明の何れのDTCP2の出力制御情報の決定においても、同様の理由で原則として“L2-Only” Flagを0とする。ただし、変形例として、放送コンテンツまたは放送サービスが「無料放送」と「有料放送」とに分けられており、放送受信装置40100においてこれが識別可能な場合、「無料放送」については“L2-Only” Flagを0とし、「有料放送」については“L2-Only” Flagを1としても良い。「有料放送」の視聴者は限定されるものであり、「有料放送」のコンテンツについては特に高い保護レベルが求められるためである。
 また、“EI” Flagについては、組合せ2、3、4の何れにおいても、“EI” Flagは1とする。受信コンテンツの映像の解像度が2K超コンテンツであるか、伝達特性(EOTF)識別情報がHDRであるかの何れかの条件を満たすためである。
 また、“HDR” Flagについては、組合せ2、3では、“HDR” Flagは0とする。これらの組合せは伝達特性(EOTF)識別情報がHDRであり、そのまま出力すると、IPインタフェース出力時のコンテンツの伝達特性もHDRである。ここで、“HDR” Flagを1としてしまうと、出力先の機器で伝達特性変換処理を行ってSDRコンテンツに変換することができなくなってしまう。この場合視聴者が保有する機器によっては視聴が不可能となる可能性(視聴者が保有する機器がHDRコンテンツ非対応の場合など)がある。この状況は多数の視聴者が同時受信する「放送」コンテンツの保護としては望ましくない。以上が“HDR” Flagを0とする理由である。本実施例の以降の説明の何れのDTCP2の出力制御情報の決定においても、同様の理由で原則として“HDR” Flagを0とする。ただし、変形例として、放送コンテンツまたは放送サービスが「無料放送」と「有料放送」とに分けられており、放送受信装置40100においてこれが識別可能な場合、「無料放送」については“HDR” Flagを0とし、「有料放送」については“HDR” Flagを1としても良い。「有料放送」の視聴者は限定されるものであり、「有料放送」のコンテンツは、高画質なHDR画質のまま視聴することに価値があると考えるサービス事業者が存在するためである。
 また、“HDR” Flagについては、組合せ4では、伝達特性(EOTF)識別情報がSDRであり、そのまま出力すると、IPインタフェース出力時のコンテンツの伝達特性もSDRである。そのため、HDRコンテンツのSDRへの伝達特性変換処理の可否を示す“HDR” Flagは付加する必要はない。
 また、“SDO” Flagについては、組合せ2、3、4の何れにおいても、“SDO” Flagは0とする。コンテンツ利用制御記述子の『encryption_mode』パラメータにより、IPインタフェース出力時の保護が指定されている以上、解像度が2K超コンテンツや伝達特性がHDRのコンテンツには高い保護レベルで保護されることが望ましい。一方、多数の視聴者が同時受信することを前提とする「放送」技術において、L2レベルのコンテンツ保護に対応しない機器を使用する一部の視聴者がコンテンツを全く視聴できなくなる状況はできるだけ避けたい。ここで、“SDO” Flagを0としておけば、解像度が2K超コンテンツや伝達特性がHDRのコンテンツではL2レベルの高いコンテンツ保護が可能である一方、解像度変換処理や伝達特性変換処理により、コンテンツをHD画質まで下げた場合には、対応機器の多い従来のDTCP-IPレベル(L1レベル)のコンテンツ保護が許容されるので、「放送」技術により受信したコンテンツの出力の保護処理に求められるこの二つの要件と整合性が高い。以上が“SDO” Flagを0とする理由である。本実施例の以降の説明の何れのDTCP2の出力制御情報の決定においても、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータやコンテンツ利用制御記述子の『encryption_mode』パラメータによってコピー制限やコンテンツの出力保護が指定されている場合、またはコンテンツの蓄積処理の状態がコピー制限やコンテンツ出力保護を示している場合は、同様の理由で “SDO” Flagを0とする。
 [図43組合せ6から9]
 図43の組合せ6から9の例では、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「1世代のみコピー可」を示している。この場合、コピー制限があることが指定されていることから、コンテンツ利用制御記述子の『encryption_mode』パラメータが何れの値を示す場合でも、IPインタフェース出力時にもコンテンツ保護を行うことが望ましい。よって、DTCP2またはDTCP1の何れかによる出力保護を行う。その場合のコピー制御状態は何れも、1世代のみコピー可を示す「Copy One Generation」とし、暗号化保護処理を行う。
 ここで、(1)DTCP2またはDTCP1の何れのレベルの出力保護処理を行うかの点、と(2)DTCP2で出力保護処理を行う場合の出力制御情報の決定、については、受信コンテンツの映像の解像度と、伝達特性(EOTF)識別情報の組み合わせに応じて決定する。しかし、図43の組合せ6、7、8、9におけるこれらの決定方法は、それぞれ図43の組合せ2、3、4、5と同様であるため、再度の説明は省略する。
 [図43組合せ10から13]
 図43の組合せ10から13の例では、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「コピー禁止」を示している。この場合、コピー制限があることが指定されていることから、コンテンツ利用制御記述子の『encryption_mode』パラメータが何れの値を示す場合でも、IPインタフェース出力時にもコンテンツ保護を行うことが望ましい。よって、DTCP2またはDTCP1の何れかによる出力保護を行う。その場合のコピー制御状態は何れも、コピー禁止を示す「Copy Never」とし、暗号化保護処理を行う。
 ここで、(1)DTCP2またはDTCP1の何れのレベルの出力保護処理を行うかの点、と(2)DTCP2で出力保護処理を行う場合の出力制御情報の決定、については、受信コンテンツの映像の解像度と、伝達特性(EOTF)識別情報の組み合わせに応じて決定する。しかし、図43の組合せ10、11、12、13におけるこれらの決定方法は、それぞれ図43の組合せ2、3、4、5と同様であるため、再度の説明は省略する。
 以上説明した図43のIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理によれば、受信制御情報50100とともにコンテンツを受信し、コンテンツの映像について解像度変換処理や伝達特性変換処理を行わずにIPインタフェース出力を行う場合に、コンテンツの映像の画質に対する出力保護の観点と放送コンテンツの視聴者の利便性の観点の両者の観点においてバランスの良いコンテンツ出力保護を実現できる。
 次に、図44は放送受信装置40100が、受信制御情報50100とともにコンテンツを受信し、コンテンツの映像について解像度変換処理や伝達特性変換処理を行ってIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理を示したものである。
 図44の例においては、本実施例の放送受信装置40100が、受信したコンテンツの映像について解像度変換処理および/または伝達特性変換処理を行う。解像度変換処理は、図35Aの放送受信装置40100の映像デコーダ141と映像色域変換部142の間に解像度処理部を設けて、ここで実行すれば良い。伝達特性変換処理は実施例3および4で既に説明したとおり、映像色域変換部142で実行すれば良い。
 ここで、図44の例においては、IPインタフェース出力を行う前に、コンテンツの映像の解像度変換処理および/または伝達特性変換処理がなされてしまうため、受信制御情報50100に含まれる情報だけでは、適切なコンテンツの出力保護の決定ができない。
 そこで、受信制御情報50100に含まれる情報に加えて、解像度変換処理後の映像の解像度および/または伝達特性変換処理後の伝達特性も考慮してIPインタフェース出力を行う際のコンテンツの出力保護の決定をおこなう。具体的には、図43の「受信制御情報」の「映像解像度」に換えて「出力時状態」の「出力時映像解像度」との項目を設け、「受信制御情報」の「伝達特性識別情報(ETOF)」に換えて「出力時状態」の「出力時伝達特性」の項目を設けている。ここで、受信制御情報50100の主制御部101は、以下の判断により、「出力時状態」の「出力時映像解像度」と「出力時状態」の「出力時伝達特性」を決定する。
 まず、本実施例の放送受信装置40100が、受信したコンテンツの映像について解像度変換処理を行って伝達特性変換処理を行わない場合は、解像度変換処理後の映像の解像度を「出力時状態」の「出力時映像解像度」と判断し、「受信制御情報」の「伝達特性識別情報(ETOF)」に示される伝達特性を「出力時状態」の「出力時伝達特性」と判断すれば良い。
 また、本実施例の放送受信装置40100が、受信したコンテンツの映像について解像度変換処理を行なわずに伝達特性変換処理を行う場合は、「受信制御情報」の「映像解像度」を「出力時状態」の「出力時映像解像度」と判断し、伝達特性変換処理後の伝達特性を「出力時状態」の「出力時伝達特性」と判断すれば良い。
 また、本実施例の放送受信装置40100が、受信したコンテンツの映像について解像度変換処理と伝達特性変換処理の両者を行う場合は、解像度変換処理後の映像の解像度を「出力時状態」の「出力時映像解像度」と判断し、伝達特性変換処理後の伝達特性を「出力時状態」の「出力時伝達特性」と判断すれば良い。
 図44の例において本実施例の放送受信装置40100は、以上説明した判断により決定した「出力時状態」の「出力時映像解像度」と「出力時状態」の「出力時伝達特性」を用いて、図44に示されるIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理を行う。しかし、既に説明した図43において、「受信制御情報」の「映像解像度」を「出力時状態」の「出力時映像解像度」に読み替え、「受信制御情報」の「伝達特性識別情報(ETOF)」を「出力時状態」の「出力時伝達特性」に読み替えた場合、図44の例と同様の制御となる。よって、図44の「受信制御情報」のコンテンツコピー制御記述子の『digital_recording_control_data』パラメータとコンテンツ利用制御記述子の『encryption_mode』パラメータと、「出力時状態」の「出力時映像解像度」と「出力時伝達特性」の組合せ1から13のそれぞれにおけるIPインタフェース出力制御は、図43の「受信制御情報」のコンテンツコピー制御記述子の『digital_recording_control_data』パラメータとコンテンツ利用制御記述子の『encryption_mode』パラメータと、「映像解像度」と「伝達特性識別情報(ETOF)」の組合せ1から13のそれぞれにおけるIPインタフェース出力制御と同様であるため、再度の説明は省略する。
 以上説明した図44のIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理によれば、受信制御情報50100とともにコンテンツを受信し、コンテンツの映像について解像度変換処理および/または伝達特性変換処理を行ってIPインタフェース出力を行う場合に、コンテンツの映像の画質に対する出力保護の観点と放送コンテンツの視聴者の利便性の観点の両者の観点においてバランスの良いコンテンツ出力保護を実現できる。
 次に、図45は放送受信装置40100が、受信制御情報50100とともにコンテンツを受信し、コンテンツについて蓄積処理を行ってその後にIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理を示したものである。蓄積処理の概要については、実施例1で既に説明したため、再度の説明は省略する。
 まず、放送受信装置40100は、受信制御情報50100に含まれるコンテンツコピー制御記述子の『digital_recording_control_data』パラメータとコンテンツ利用制御記述子の『encryption_mode』パラメータとコンテンツ利用制御記述子の『copy_restriction_mode』パラメータとを用いて、蓄積対象コンテンツの蓄積制御状態を決定する。
 ここで、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「制約条件なしにコピー可能」を示し、コンテンツ利用制御記述子の『encryption_mode』パラメータが「保護しない」を示す場合(図45の組合せ1の例)には、コンテンツ利用制御記述子の『copy_restriction_mode』パラメータの値にかかわらず、「コピーの制限なしに蓄積、かつencryption_mode保護なし」という蓄積制御状態とする。
 また、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「制約条件なしにコピー可能」を示し、コンテンツ利用制御記述子の『encryption_mode』パラメータが「保護する」を示す場合(図45の組合せ2から5の例)には、コンテンツ利用制御記述子の『copy_restriction_mode』パラメータの値にかかわらず、「コピーの制限なしに蓄積、かつencryption_mode保護あり」という蓄積制御状態とする。
 また、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「1世代のみコピー可」を示し、コンテンツ利用制御記述子の『copy_restriction_mode』パラメータが「1世代のみコピー可」を示す場合(図45の組合せ6から9の例)には、コンテンツ利用制御記述子の『encryption_mode』パラメータが何れの値を示す場合にも、「再コピー禁止」という蓄積制御状態とする。
 また、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「1世代のみコピー可」を示し、コンテンツ利用制御記述子の『copy_restriction_mode』パラメータが「個数制限コピー可」が運用できることを示す場合(図45の組合せ10から13の例)には、コンテンツ利用制御記述子の『encryption_mode』パラメータが何れの値を示す場合にも、「個数制限コピー可」の蓄積制御状態を可能とする。
 また、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータが「コピー禁止」を示す場合(図45の組合せ14から17の例)の場合においてコンテンツが蓄積可能な状態は、コンテンツコピー制御記述子の『digital_recording_control_data』パラメータとコンテンツ利用制御記述子の『copy_restriction_mode』とが何れの値を示す場合でも、「一時蓄積」の蓄積制御状態に限られる。「一時蓄積」の概要は実施例1で既に説明したため、再度の説明は省略する。
 以上説明したとおり、放送受信装置40100は、受信制御情報50100に含まれるコンテンツコピー制御記述子の『digital_recording_control_data』パラメータとコンテンツ利用制御記述子の『encryption_mode』パラメータとコンテンツ利用制御記述子の『copy_restriction_mode』パラメータとを用いて、蓄積対象コンテンツの蓄積制御状態を決定する。
 次に、放送受信装置40100は、蓄積されているコンテンツをIPインタフェースから出力する際に、該コンテンツの蓄積制御状態と、該コンテンツを出力する際の「出力時映像解像度」と「出力時伝達特性」とに応じて、IPインタフェース出力のコンテンツの出力保護の決定をおこなう。ここで、図45の例においては、コンテンツの蓄積処理前後にコンテンツの映像について解像度変換処理および/または伝達特性変換処理がなされる可能性がある。これは、放送受信装置40100がコンテンツを受信してIPインタフェースから出力する前に解像度変換処理および/または伝達特性変換処理がなされる可能性がある点で図44の例と共通である。よって、放送受信装置40100における「出力時映像解像度」と「出力時伝達特性」の判断は、図44の例と同様に行えば良いため、再度の説明は省略する。
 次に、図45のそれぞれの組合せにおけるIPインタフェース出力を行う場合のコンテンツの出力保護の決定について説明する。
 [図45組合せ1]
 図45に示される組合せ1の例、すなわち、「コピーの制限なしに蓄積、かつencryption_mode保護なし」という蓄積制御状態のコンテンツをIPインタフェース出力する場合には、図44の組合せ1と同様のコンテンツの出力制御を行えば良い。繰り返しになるため、再度の説明は省略する。
 [図45組合せ2から5]
 図45に示される組合せ2から5の例、すなわち、「コピーの制限なしに蓄積、かつencryption_mode保護あり」という蓄積制御状態のコンテンツをIPインタフェース出力する場合には、図44の組合せ2から5と同様のコンテンツの出力制御を行えば良い。繰り返しになるため、再度の説明は省略する。
 [図45組合せ6から9]
 図45に示される組合せ6から9の例、すなわち、「再コピー禁止」という蓄積制御状態のコンテンツをIPインタフェース出力する場合には、該出力処理が出力先の機器で視聴するための視聴用出力であるか、出力先の機器へのコンテンツのムーブであるかにより、出力時のコピー制御状態が異なる。具体的には、当該IPインタフェース出力が視聴用出力である場合には、コピー制御状態を、再コピー禁止を示す「No More Copies」として出力する。当該IPインタフェース出力がムーブである場合には、コピー制御状態を、「Move」として出力する。図45に示される組合せ6、7、8、9のそれぞれにおいて、IPインタフェース出力におけるその他のコンテンツ保護制御については、図44に示される組合せ6、7、8、9のそれぞれと同様であるため、再度の説明を省略する。
 [図45組合せ10から13]
 図45の組合せ10、11、12、13のそれぞれの例、すなわち、「個数制限コピー可」という蓄積制御状態のコンテンツをIPインタフェース出力する場合のコンテンツ保護制御は図45の組合せ6、7、8、9のそれぞれの例とほぼ同様である。相違する点は、以下のとおりである。蓄積制御状態が「再コピー禁止」のコンテンツをIPインタフェース出力する場合ムーブ処理を1回行うと放送受信装置40100において当該コンテンツを再生不能化する必要がある(なおコンテンツが再生不能化されるまでは何回でも視聴用出力が可能である)。これに対し、蓄積制御状態が「個数制限コピー可」はIPインタフェース出力を介して出力先の機器に対して複数回のコピー処理と最後にムーブ処理が1回可能である。例えば、一例としてコピー処理を9回行い、最後にムーブ処理が1回可能となる。最後のムーブ処理の際に放送受信装置40100において当該コンテンツを再生不能化する必要がある。ここで、放送受信装置40100としては、数回のコピー処理の一つ一つをコピー処理として扱うが、そのコピー処理の一つ一つのコンテンツは、IPインタフェース出力の保護処理においてはコピー制御状態を「Move」として出力される。
 すなわち、蓄積制御状態「個数制限コピー可」のコンテンツのコピー処理は、放送受信装置40100において当該コンテンツを予め複数個蓄積している状態を仮想的に設定し、蓄積した複数個のコンテンツの一つ一つを、IPインタフェース出力を介してムーブする処理として実行されるものである。ここで、実際に同一のコンテンツを予め複数個蓄積するとストレージ部の容量に対して非効率な蓄積状態となる。よって、実際には、当該コンテンツは一つだけ蓄積しておき、その蓄積個数情報を管理情報としてストレージ部やメモリ部に格納して管理するようにすれば良い。これが上記の「仮想的に」という説明の意味である。
 以上説明した点以外は、図45の組合せ10、11、12、13の例におけるIPインタフェース出力する場合のコンテンツ保護制御は図45の組合せ6、7、8、9のそれぞれの例と同様であるため、再度の説明は省略する。
 [図45組合せ14から17]
 図45の組合せ14、15、16、17のそれぞれの例、すなわち、「一時蓄積」という蓄積制御状態のコンテンツをIPインタフェース出力する場合のコンテンツ保護制御は図45の組合せ6、7、8、9のそれぞれの例とほぼ同様である。相違する点は、「一時蓄積」という蓄積制御状態のコンテンツは他の機器にムーブすることができない(ムーブ不可)であるという点である。その他の点についてのIPインタフェース出力する場合のコンテンツ保護制御は図45の組合せ6、7、8、9のそれぞれの例と同様であるため、再度の説明は省略する。
 以上説明した図45のIPインタフェース出力を行う場合のコンテンツの出力保護の決定処理によれば、受信制御情報50100とともにコンテンツを受信し、コンテンツの蓄積を行ってIPインタフェース出力を行う場合に、コンテンツの映像の画質に対する出力保護の観点と放送コンテンツの視聴者の利便性の観点の両者の観点においてバランスの良いコンテンツ出力保護を実現できる。
 以上、本実施例の放送通信システムおよび放送受信装置40100によれば、コンテンツのデジタルコピーに関する制御情報およびコンテンツの蓄積や出力に関する制御情報、またはコンテンツの蓄積状態、およびコンテンツの映像の解像度およびコンテンツの映像の伝達特性などに応じて、コンテンツの映像の画質に対する出力保護の観点と放送コンテンツの視聴者の利便性の観点の両者の観点においてバランスの良いコンテンツ出力保護制御をおこなうことが可能となる。すなわち、本実施例の放送通信システムおよび放送受信装置40100によれば、より好適なコンテンツ出力保護制御をおこなうことが可能となる。
 以上、本発明の実施形態の例を、実施例1~5を用いて説明したが、本発明の技術を実現する構成は前記実施例に限られるものではなく、様々な変形例が考えられる。例えば、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、マイクロプロセッサユニット等がそれぞれの機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実現しても良い。ハードウェアとソフトウェアを併用しても良い。
 なお、放送受信装置100を制御する前記ソフトウェアは、製品出荷の時点で予め放送受信装置100のROM103および/またはストレージ(蓄積)部110等に格納された状態であっても良い。製品出荷後にインターネット200上のその他のアプリケーションサーバ500等からLAN通信部121を介して取得するものであっても良い。また、メモリカードや光ディスク等に格納された前記ソフトウェアを、拡張インタフェース部124等を介して取得しても良い。
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えても良い。
 100,800,40100…放送受信装置、100a,40100a…アンテナ、101,801…主制御部、102,802…システムバス、103,803…ROM、104,804…RAM、110,810…ストレージ部、121,821…LAN通信部、124,824…拡張インタフェース部、125,825,40125…デジタルインタフェース部、131,831,832…チューナ/復調部、132…分離部、141…映像デコーダ、142…映像色域変換部、143…音声デコーダ、144…文字スーパーデコーダ、145…字幕デコーダ、146…字幕合成部、147…字幕色域変換部、151…データデコーダ、152…キャッシュ部、153…アプリケーション制御部、154…ブラウザ部、155…アプリケーション色域変換部、156…音源部、161,861…映像合成部、162,862…モニタ部、163,863…映像出力部、164,864…音声合成部、165,865…スピーカ部、166,866…音声出力部、170,870…操作入力部、40181…トランスコード処理部、841…MMTデコード処理部、842…MPEG2-TSデコード処理部、200…インターネット、200r…ルータ装置、200a…アクセスポイント、300t…電波塔、300s…放送衛星(または通信衛星)、300…放送局サーバ、390c…撮影機器、390e…編集機器、400…サービス事業者サーバ、500…その他のアプリケーションサーバ、600…移動体電話通信サーバ、600b…基地局、700…携帯情報端末、40200…接続ケーブル、40300…モニタ装置。
 

Claims (11)

  1.  番組コンテンツと前記番組コンテンツが対応する色域または輝度に関する伝達識別情報とを少なくとも含む放送データを受信可能な放送受信装置であって、
     前記放送データを受信する放送受信部と、
     前記放送受信装置受信した番組コンテンツを表示する表示部が対応可能な色域または輝度に関する表示特性情報を記憶するストレージ部と、
     前記放送受信部で受信した前記伝達識別情報と前記ストレージ部から読みだした前記表示特性情報とに基づいて、前記放送受信部で受信した前記番組コンテンツの色域変換処理または輝度変換処理を行う映像変換処理部と、
    を備える、
    放送受信装置。
  2.  前記映像変換処理部における色域変換処理は、
     前記伝達識別情報で示される色域が前記表示特性情報で示される色域に包含される場合には実行されず、前記伝達識別情報で示される色域が前記表示特性情報で示される色域に包含されない場合に実行される、
    請求項1に記載の放送受信装置。
  3.  前記映像変換処理部における輝度変換処理は、
     前記表示特性情報に示される前記表示部が対応可能な最大輝度が前記伝達識別情報に示される前記番組コンテンツの最大輝度よりも大きくない場合に実行され、前記表示特性情報に示される前記表示部が対応可能な最大輝度が前記伝達識別情報に示される前記番組コンテンツの最大輝度よりも大きい場合には実行されない、
    請求項1に記載の放送受信装置。
  4.  前記映像変換処理部における輝度変換処理は、
     前記表示特性情報に示される前記表示部が対応可能な最大輝度が前記伝達識別情報に示される前記番組コンテンツの編集に用いた編集機器が対応可能な最大輝度よりも大きくない場合に実行され、前記表示特性情報に示される前記表示部が対応可能な最大輝度が前記伝達識別情報に示される前記番組コンテンツの編集に用いた編集機器が対応可能な最大輝度よりも大きい場合には実行されない、
    請求項1に記載の放送受信装置。
  5.  デジタル放送の放送データを受信可能な放送受信装置であって、
     前記デジタル放送の放送番組に関する符号化番組映像データと前記符号化番組映像データが輝度幅拡大に対応しているか否かを示すHDR情報とイベントスケジュール情報とを含む放送データを受信する放送受信部と、
     前記放送受信部で受信した前記符号化番組映像データを復号して番組映像情報を再生する映像復号部と、
     前記放送受信部で受信した前記イベントスケジュール情報に基づいて作成した電子番組表を表示可能な表示部と、
     制御部と、
    を備える、放送受信装置。
  6.  前記制御部は、
     前記HDR情報を参照することにより、前記符号化番組映像データが輝度幅拡大に対応している場合には、前記電子番組表情報の前記符号化番組映像データに対応する位置に輝度幅拡大に対応した番組であることを示す記号または文字または印を表示するように前記表示部を制御する、
    請求項5に記載の放送受信装置。
  7.  前記制御部は、
     前記HDR情報に記載された前記符号化番組映像データの形式が輝度幅拡大に対応していることを示す場合に、前記電子番組表情報の前記符号化番組映像データに対応する位置に輝度幅拡大に対応した番組であることを示す記号または文字または印を表示するように前記表示部を制御する、
    請求項5に記載の放送受信装置。
  8.  前記制御部は、
     前記HDR情報に記載された前記符号化番組映像データが対応する輝度の最大値が所定値以上の場合に、前記電子番組表情報の前記符号化番組映像データに対応する位置に輝度幅拡大に対応した番組であることを示す記号または文字または印を表示するように前記表示部を制御する、
    請求項5に記載の放送受信装置。
  9.  前記制御部は、
     前記HDR情報に記載された前記符号化番組映像データの編集に用いた編集機器が輝度幅拡大に対応していることを示す場合に、前記電子番組表情報の前記符号化番組映像データに対応する位置に輝度幅拡大に対応した番組であることを示す記号または文字または印を表示するように前記表示部を制御する、
    請求項5に記載の放送受信装置。
  10.  前記制御部は、
     前記符号化番組映像データが輝度幅拡大に対応している場合であっても、前記表示部が輝度幅拡大に対応していなければ、前記電子番組表情報の前記符号化番組映像データに対応する位置に輝度幅拡大に対応した番組であることを示す記号または文字または印を表示しないように前記提示処理部を制御する、
    請求項5に記載の放送受信装置。
  11.  コンテンツを受信する放送受信装置であって、
     前記コンテンツを受信する受信部と、
     前記受信部で受信したコンテンツを出力するためのインタフェースと、
     前記インタフェースからのコンテンツの出力状態を制御する制御部と、を備え、
     前記制御部は、前記受信部で前記コンテンツともに受信する、前記コンテンツのコピー制御状態を示す制御情報と、前記コンテンツの出力時の保護の要否を指定する制御情報と、前記コンテンツの映像の解像度を示す情報と、前記コンテンツの映像の伝達特性を示す情報の組み合わせに応じて、前記インタフェースからのコンテンツの出力状態を決定する、
    放送受信装置。
     
PCT/JP2016/077739 2015-09-25 2016-09-20 放送受信装置 WO2017051808A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/762,495 US10708647B2 (en) 2015-09-25 2016-09-20 Broadcast receiving apparatus
CN201680055583.5A CN108028958B (zh) 2015-09-25 2016-09-20 广播接收装置
US16/884,560 US11102541B2 (en) 2015-09-25 2020-05-27 Broadcast receiving apparatus
US17/381,812 US11445239B2 (en) 2015-09-25 2021-07-21 Broadcast receiving apparatus
US17/880,151 US11895353B2 (en) 2015-09-25 2022-08-03 Broadcast receiving apparatus

Applications Claiming Priority (22)

Application Number Priority Date Filing Date Title
JP2015188314 2015-09-25
JP2015-188314 2015-09-25
JP2015189084 2015-09-28
JP2015-189084 2015-09-28
JP2015191342 2015-09-29
JP2015-191342 2015-09-29
JP2015192381 2015-09-30
JP2015-192381 2015-09-30
JP2015195543 2015-10-01
JP2015-195543 2015-10-01
JP2016037677A JP6616211B2 (ja) 2015-09-25 2016-02-29 放送受信装置
JP2016-037677 2016-02-29
JP2016038577A JP6616212B2 (ja) 2015-09-28 2016-03-01 表示制御方法
JP2016-038577 2016-03-01
JP2016040170A JP6645869B2 (ja) 2015-09-29 2016-03-02 放送システム
JP2016-040170 2016-03-02
JP2016-040577 2016-03-03
JP2016040577A JP6645871B2 (ja) 2015-09-30 2016-03-03 放送システム
JP2016-042234 2016-03-04
JP2016042234A JP6441247B2 (ja) 2015-10-01 2016-03-04 表示制御方法
JP2016-176428 2016-09-09
JP2016176428A JP6734742B2 (ja) 2016-09-09 2016-09-09 コンテンツの保護方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/762,495 A-371-Of-International US10708647B2 (en) 2015-09-25 2016-09-20 Broadcast receiving apparatus
US16/884,560 Continuation US11102541B2 (en) 2015-09-25 2020-05-27 Broadcast receiving apparatus

Publications (1)

Publication Number Publication Date
WO2017051808A1 true WO2017051808A1 (ja) 2017-03-30

Family

ID=58386730

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077739 WO2017051808A1 (ja) 2015-09-25 2016-09-20 放送受信装置

Country Status (2)

Country Link
US (1) US11895353B2 (ja)
WO (1) WO2017051808A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109691122A (zh) * 2016-09-12 2019-04-26 麦克赛尔株式会社 广播接收装置
EP3522547A1 (en) * 2018-02-06 2019-08-07 Funai Electric Co., Ltd. Playback device
EP3582504A4 (en) * 2017-04-21 2019-12-18 Huawei Technologies Co., Ltd. IMAGE PROCESSING METHOD, DEVICE AND TERMINAL DEVICE

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177267A (ja) * 2008-01-22 2009-08-06 Hitachi Ltd 受信装置
JP2012178622A (ja) * 2011-02-25 2012-09-13 Hitachi-Lg Data Storage Inc コンテンツ送信装置/受信装置、コンテンツ送信方法/受信方法
WO2014178286A1 (ja) * 2013-04-30 2014-11-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2014534719A (ja) * 2011-10-20 2014-12-18 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオ等化のための方法およびシステム
WO2015034188A1 (ko) * 2013-09-06 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 광역 밝기 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016140293A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160871A (ja) * 1993-12-09 1995-06-23 Mieko Nagashima 色画像補正方法及びその装置
JPH07222009A (ja) * 1994-01-31 1995-08-18 Canon Inc 画像処理装置及び方法
JP2000333088A (ja) 1999-05-21 2000-11-30 Toshiba Corp デジタルtv受像機
JP3639761B2 (ja) 1999-12-27 2005-04-20 財団法人エヌエイチケイサービスセンター テレビジョン放送におけるデータ放送の放送方法
US6700624B2 (en) * 1999-12-30 2004-03-02 Lg Electronics Inc. Combined terrestrial wave/cable broadcast receiver and program information processing method therefor
US8782705B2 (en) 2000-04-17 2014-07-15 Lg Electronics Inc. Information descriptor and extended information descriptor data structures for digital television signals
JP4138614B2 (ja) * 2003-09-05 2008-08-27 株式会社東芝 情報記憶媒体、情報再生装置、情報再生方法
JP4561482B2 (ja) 2005-06-01 2010-10-13 株式会社日立製作所 映像表示装置
KR100763206B1 (ko) 2006-04-03 2007-10-04 삼성전자주식회사 이용 가능한 코덱 정보를 제공하는 장치 및 그 방법
EP2090051B1 (en) 2006-10-02 2012-06-13 Nxp B.V. Method and apparatus for generating data packets for transmission in an ofdm communication system
US9633426B2 (en) 2014-05-30 2017-04-25 General Electric Company Remote visual inspection image capture system and method
JP5043513B2 (ja) * 2007-05-28 2012-10-10 キヤノン株式会社 色処理装置および方法
US8516521B2 (en) * 2008-01-14 2013-08-20 Verizon Patent And Licensing Inc. Interactive learning
US20090187942A1 (en) 2008-01-22 2009-07-23 Noboru Wakabayashi Receiving apparatus
JP5094690B2 (ja) 2008-12-01 2012-12-12 日立コンシューマエレクトロニクス株式会社 記録制御方法
JP2010141757A (ja) 2008-12-15 2010-06-24 Hitachi Ltd コンテンツ管理装置
JP5267325B2 (ja) * 2009-05-22 2013-08-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20110154404A1 (en) 2009-12-17 2011-06-23 At & T Intellectual Property I, L.P. Systems and Methods to Provide Data Services for Concurrent Display with Media Content Items
CN102893602B (zh) * 2010-02-22 2016-08-10 杜比实验室特许公司 具有使用嵌入在比特流中的元数据的呈现控制的视频显示
US9595297B2 (en) 2010-03-03 2017-03-14 Koninklijke Philips N.V. Apparatuses and methods for defining color regimes
US9565466B2 (en) 2010-03-26 2017-02-07 Mediatek Inc. Video processing method and video processing system
WO2011136621A2 (en) 2010-04-30 2011-11-03 Lg Electronics Inc. An apparatus of processing an image and a method of processing thereof
US20120062554A1 (en) 2010-08-06 2012-03-15 Takamasa Ueno Reproducing apparatus
US8866838B2 (en) * 2010-12-01 2014-10-21 Apple Inc. Color management for multiple display presentation of visual media
US20120236173A1 (en) * 2011-03-17 2012-09-20 Telek Michael J Digital camera user interface which adapts to environmental conditions
US8978078B2 (en) 2011-05-02 2015-03-10 At&T Intellectual Property I, L.P. System and method of selecting a multimedia stream
US8745668B2 (en) 2011-05-09 2014-06-03 Lg Electronics Inc. Service system and method of providing service in digital receiver thereof
WO2012169204A1 (ja) 2011-06-08 2012-12-13 パナソニック株式会社 送信装置、受信装置、送信方法及び受信方法
WO2012172460A1 (en) 2011-06-14 2012-12-20 Koninklijke Philips Electronics N.V. Graphics processing for high dynamic range video
KR101843450B1 (ko) 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2013081062A (ja) 2011-10-04 2013-05-02 Mitsubishi Electric Corp 伝送システム、送信装置、受信装置、制御情報送信装置、伝送方法、送信方法、受信方法、および制御情報送信方法
US20140130099A1 (en) 2012-11-08 2014-05-08 General Instrument Corporation User-intiated feedback and correction of program metadata through an electronic program guide
JP6122626B2 (ja) 2012-12-06 2017-04-26 日本放送協会 復号装置およびプログラム
EP2959672B1 (en) 2013-02-21 2019-12-04 Koninklijke Philips N.V. Improved hdr image encoding and decoding methods and devices
US9363446B2 (en) 2013-04-15 2016-06-07 Htc Corporation Automatic exposure control for sequential images
MY178948A (en) * 2013-06-20 2020-10-23 Sony Corp Reproduction device, reproduction method, and recording medium
JP2015005878A (ja) * 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
TWI711310B (zh) 2013-06-21 2020-11-21 日商新力股份有限公司 送訊裝置、高動態範圍影像資料送訊方法、收訊裝置、高動態範圍影像資料收訊方法及程式
JP2015015706A (ja) 2013-07-03 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America データ送信方法、データ再生方法、データ送信装置およびデータ再生装置
JP2016530780A (ja) * 2013-07-14 2016-09-29 エルジー エレクトロニクス インコーポレイティド デジタル放送システムにおける高品質の色感表現のための超高画質放送信号送受信方法及び装置
JP5872515B2 (ja) * 2013-09-30 2016-03-01 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR101797505B1 (ko) 2013-11-13 2017-12-12 엘지전자 주식회사 Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
EP3094096B1 (en) * 2014-01-06 2018-09-26 LG Electronics Inc. Method and device for transmitting and receiving broadcast signal on basis of color gamut resampling
JP5812127B2 (ja) 2014-02-03 2015-11-11 株式会社ニコン 画像再生装置
KR101785671B1 (ko) * 2014-05-20 2017-11-06 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
WO2015198560A1 (ja) 2014-06-27 2015-12-30 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
MX366401B (es) 2014-06-30 2019-07-08 Panasonic Ip Man Co Ltd Metodo de reproduccion de datos y dispositivo de reproduccion de datos.
EP2978226A1 (en) 2014-07-21 2016-01-27 Thomson Licensing Method of acquiring of electronic program guide information and corresponding apparatus
WO2016031911A1 (ja) 2014-08-29 2016-03-03 シャープ株式会社 制御情報生成装置、受信装置、映像信号伝送システム、および制御プログラム
CN105934939B (zh) 2014-09-22 2018-10-19 松下知识产权经营株式会社 再现方法以及再现装置
WO2016072693A1 (ko) * 2014-11-04 2016-05-12 엘지전자 주식회사 컨텐츠의 색 범위 조정을 위한 방송 신호를 송수신하는 방법 및 장치
HUE056171T2 (hu) 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
US10594978B2 (en) 2015-02-11 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
WO2016171510A1 (ko) * 2015-04-24 2016-10-27 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
WO2016182371A1 (ko) 2015-05-12 2016-11-17 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US10356451B2 (en) 2015-07-06 2019-07-16 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US10171849B1 (en) 2015-07-08 2019-01-01 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
CN107925784B (zh) * 2015-08-06 2021-07-09 麦克赛尔株式会社 广播接收装置、输出影像信息生成方法、广播接收方法和录像方法
CN112866754A (zh) 2015-09-07 2021-05-28 Lg 电子株式会社 广播信号发送设备和方法以及广播信号接收设备和方法
WO2017043943A1 (ko) 2015-09-11 2017-03-16 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP6441247B2 (ja) 2015-10-01 2018-12-19 マクセル株式会社 表示制御方法
US9960981B2 (en) 2015-10-08 2018-05-01 Sony Corporation Communication device, communication method, program, and communication system
US9800819B2 (en) 2016-02-19 2017-10-24 Sony Corporation Methodologies and apparatus for reducing delays when receiving, processing, or switching content
JP6161222B1 (ja) * 2016-03-17 2017-07-12 シャープ株式会社 受信装置および放送システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177267A (ja) * 2008-01-22 2009-08-06 Hitachi Ltd 受信装置
JP2012178622A (ja) * 2011-02-25 2012-09-13 Hitachi-Lg Data Storage Inc コンテンツ送信装置/受信装置、コンテンツ送信方法/受信方法
JP2014534719A (ja) * 2011-10-20 2014-12-18 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオ等化のための方法およびシステム
WO2014178286A1 (ja) * 2013-04-30 2014-11-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015034188A1 (ko) * 2013-09-06 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 광역 밝기 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016140293A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109691122A (zh) * 2016-09-12 2019-04-26 麦克赛尔株式会社 广播接收装置
CN109691122B (zh) * 2016-09-12 2022-08-09 麦克赛尔株式会社 广播接收装置
EP3582504A4 (en) * 2017-04-21 2019-12-18 Huawei Technologies Co., Ltd. IMAGE PROCESSING METHOD, DEVICE AND TERMINAL DEVICE
US11263730B2 (en) 2017-04-21 2022-03-01 Huawei Technologies Co., Ltd. Image processing method and apparatus and terminal device
EP3522547A1 (en) * 2018-02-06 2019-08-07 Funai Electric Co., Ltd. Playback device
US10755672B2 (en) 2018-02-06 2020-08-25 Funai Electric Co., Ltd. Playback device

Also Published As

Publication number Publication date
US11895353B2 (en) 2024-02-06
US20220377405A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
JP6739316B2 (ja) コンテンツの出力方法
JP6666410B2 (ja) 表示制御方法および受信装置
JP6668550B2 (ja) 表示制御方法
WO2018047623A1 (ja) 放送受信装置
JP6734743B2 (ja) コンテンツの保護方法
WO2017051808A1 (ja) 放送受信装置
JP6710346B2 (ja) 受信装置
JP2018074454A (ja) 放送受信装置
JP6734742B2 (ja) コンテンツの保護方法
JP6736432B2 (ja) 受信装置
JP2018074377A (ja) 放送受信装置
JP2018074230A (ja) 放送受信装置
JP2018046350A (ja) 放送受信装置
JP6711962B2 (ja) 放送システム
JP6616211B2 (ja) 放送受信装置
JP6734758B2 (ja) コンテンツの保護方法
JP6734755B2 (ja) コンテンツの保護方法
JP6739315B2 (ja) コンテンツの出力方法
JP2018074495A (ja) 放送受信装置
JP2018074181A (ja) 放送受信装置
JP2018046323A (ja) 放送受信装置
JP2018074270A (ja) 放送受信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16848596

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15762495

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16848596

Country of ref document: EP

Kind code of ref document: A1