WO2016185794A1 - 送信装置及び送信方法、並びに受信装置及び受信方法 - Google Patents

送信装置及び送信方法、並びに受信装置及び受信方法 Download PDF

Info

Publication number
WO2016185794A1
WO2016185794A1 PCT/JP2016/059406 JP2016059406W WO2016185794A1 WO 2016185794 A1 WO2016185794 A1 WO 2016185794A1 JP 2016059406 W JP2016059406 W JP 2016059406W WO 2016185794 A1 WO2016185794 A1 WO 2016185794A1
Authority
WO
WIPO (PCT)
Prior art keywords
emergency
subtitle
control information
information
signal
Prior art date
Application number
PCT/JP2016/059406
Other languages
English (en)
French (fr)
Inventor
北里 直久
義治 出葉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016185794A1 publication Critical patent/WO2016185794A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Definitions

  • the technology disclosed in this specification relates to a transmission apparatus and transmission method for transmitting emergency information, and a reception apparatus and reception method for receiving emergency information.
  • An object of the technology disclosed in the present specification is to provide a transmitting device and a transmitting method for transmitting emergency information, and a receiving device and a receiving method for receiving emergency information.
  • a transmission unit that transmits an emergency caption signal together with each broadcast signal constituting the broadcast service;
  • a control information transmission unit for transmitting control information of each broadcast signal including the emergency caption signal;
  • a transmission apparatus comprising: It is the transmitter which comprises.
  • the transmission unit of the transmission device transmits the emergency subtitle signal separately from a normal subtitle signal, and transmits the control.
  • the information transmission unit is configured to designate that the caption type is emergency caption in the control information of the normal caption signal as the emergency caption signal control information.
  • control information transmission unit of the transmission device specifies information related to emergency subtitles in the additional information of the emergency subtitle control information. It is configured as follows.
  • control information transmission unit of the transmission device includes information on an emergency caption display area in the additional information of the emergency caption control information. Is configured to specify.
  • control information transmitting unit of the transmission device is configured to display an emergency caption in the additional information of the emergency caption control information. It is configured to specify information about.
  • control information transmission unit of the transmission device performs live as an emergency subtitle operation mode in the additional information of the emergency subtitle control information. It is configured to specify the mode.
  • control information transmission unit of the transmission device specifies immediate presentation of emergency subtitles in the additional information of the emergency subtitle control information Is configured to do.
  • control information transmission unit of the transmission device performs automatic display and recording at the time of reception in the additional information of the emergency caption control information. It is configured to specify automatic hiding during playback.
  • the ninth aspect of the technology disclosed in this specification is: A transmission step of adding and transmitting the emergency subtitle signal separately from the normal subtitle signal; A control information transmission step for designating that the subtitle type is emergency subtitle in the control information of the normal subtitle signal; Is a transmission method.
  • the tenth aspect of the technology disclosed in this specification is: A receiving unit that receives an emergency caption signal together with each broadcast signal constituting the broadcast service; A control information receiving unit for receiving control information of each broadcast signal including the emergency caption signal; A control unit that controls screen display of a broadcast service based on the control information; It is the receiver which comprises.
  • the reception unit of the reception device has the emergency subtitle signal added thereto in addition to the normal subtitle signal included in the broadcast service.
  • the broadcast information is received, and the control information receiving unit is configured to receive control information in which the caption type is designated as an emergency caption in the control information of a normal caption signal.
  • the receiving device includes a screen for emergency subtitles based on the additional information of the control information whose subtitle type indicates emergency subtitles. It is configured to control the display.
  • control unit of the receiving device can determine whether the broadcast service is based on information related to an emergency caption display area specified in the additional information.
  • the screen is reduced so that emergency subtitles are displayed in an empty area.
  • control unit of the reception device displays emergency subtitles only when the target area is specified by the additional information. Configured to do.
  • a receiving step of receiving an emergency subtitle signal together with each broadcast signal constituting the broadcast service A control information receiving step for receiving control information of each broadcast signal including the emergency caption signal; A control step for controlling the screen display of the broadcast service based on the control information; Is a receiving method.
  • a receiving device and a receiving device that can display emergency subtitle signals received during an emergency notification period on a broadcast video screen and notify emergency information to a user (viewer).
  • a method can be provided.
  • FIG. 1 is a diagram schematically illustrating a configuration example of a digital broadcasting system 10.
  • FIG. 2 is a diagram showing a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • FIG. 3 is a diagram showing an image of a broadcast signal 300 according to the MMT method.
  • FIG. 4 is a diagram showing a mechanism for designating each asset related to the broadcast service from the MP table in the PA message.
  • FIG. 5 is a diagram illustrating a syntax example 500 of a PA message.
  • FIG. 6 is a diagram illustrating a syntax example 600 of the MP table.
  • FIG. 7 is a diagram illustrating a configuration example of MPU and MFU of a caption signal.
  • FIG. 1 is a diagram schematically illustrating a configuration example of a digital broadcasting system 10.
  • FIG. 2 is a diagram showing a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • FIG. 3 is a diagram showing an image of a broadcast signal 300 according to the MMT
  • FIG. 8 is a diagram illustrating a syntax example 800 of the MH-data encoding scheme descriptor arranged in the second loop of the MP table.
  • FIG. 9 is a diagram showing a configuration example 900 of additional identification information in the caption / text super transmission system.
  • FIG. 10 is a diagram illustrating a syntax example 1000 of emergency caption additional information.
  • FIG. 11 is a diagram showing a syntax 1100 of a region designator for region designation.
  • FIG. 12 is a diagram illustrating a configuration example of the broadcast transmission system 11.
  • FIG. 13 is a diagram illustrating a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11.
  • FIG. 14 is a diagram for explaining a mechanism for generating a display screen in the receiver 12.
  • FIG. 15 is a diagram for explaining a mechanism for generating a display screen in the receiver 12.
  • FIG. 16 is a diagram illustrating an example of emergency subtitle screen display control.
  • FIG. 17 is a diagram illustrating an example of regional filtering for emergency subtitle display.
  • FIG. 18 is a diagram illustrating an emergency subtitle display switching scenario.
  • FIG. 19 is a flowchart illustrating an example of a procedure for controlling the display of emergency subtitles.
  • One of the responsibilities of the requirement broadcasting of the technology disclosed in this specification is to promptly transmit emergency information for various disasters and incidents.
  • the digital broadcasting standard also defines a technical support function for transmitting emergency information.
  • the present applicant considers that the current broadcasting service does not sufficiently play a role in the notification of emergency information.
  • Urgent information has regional characteristics. In the event of an emergency, there is a demand for prompt notification of emergency information by subtitles, etc., on a regional basis. However, when a normal broadcast screen such as a TV program video or a data broadcast display overlaps with subtitles, emergency information is difficult to see or becomes inconspicuous, so it does not function effectively.
  • the Applicant lists the following (1) to (3) as requirements for announcing emergency information with captions in broadcasting services.
  • Subtitles for emergency information can be displayed promptly and in an easily viewable position.
  • the video can be displayed at a position that does not overlap with the display of the broadcast program video or the application linked to the broadcast program, as specified.
  • stream media of broadcast programs such as video, audio, and subtitles are transmitted in a synchronized MPU (Media Processing Unit) format, while a data broadcasting application is asynchronous (Non timed).
  • MPU Media Processing Unit
  • a system for transmitting in the MPU format is also defined.
  • the broadcasting station performs signaling (notification) of MMT-SI (Signaling Information), which is control information related to the broadcast service (see, for example, Patent Document 2).
  • FIG. 1 schematically shows a configuration example of the digital broadcasting system 10.
  • the illustrated digital broadcast system 10 includes a broadcast transmission system 11 and a receiver 12.
  • the broadcast transmission system 11 applies the MMT system for transmission of broadcast signals, and transmits each component constituting the broadcast service as an IP (Internet Protocol) packet. Specifically, the broadcast transmission system 11 puts the video signal and audio signal codes of a broadcast program, content (data broadcast application, etc.) related to the broadcast program, and subtitle signals into an MMTP payload into an MMTP packet. Further, it is converted into an IP packet and transmitted in the form of a TLV (Type Length Value) packet on the broadcast transmission path.
  • the components related to the broadcast program body such as video, audio, and subtitles are synchronous media.
  • content that is, a data broadcasting application encoded in HTML (Hyper Text Transfer Protocol) 5 format or the like is an asynchronous medium.
  • the broadcast transmission system 11 also performs MMT-SI signaling, which is control information related to a broadcast service that distributes synchronous and asynchronous media.
  • the MMT-SI includes a message, a table, and a descriptor.
  • the table is transmitted as a container for messages. Some parameters shown in messages and tables are described in descriptor format.
  • the receiver 12 receives the TLV packet sent from the broadcast transmission system 11 through the broadcast transmission path. And the receiver 12 decodes transmission media, such as an image
  • an application engine such as an HTML browser and displays the data broadcast linked to the broadcast program and the video of the TV program. Display in part or all of the screen area.
  • the receiver 12 also receives MMT-SI that is control information related to the broadcast service. Based on the MMT-SI, the receiver 12 performs reception control of transmission media such as video, audio, captions, and data broadcasting, and output (display, audio output) control on the receiver 12.
  • MMT-SI that is control information related to the broadcast service.
  • the receiver 12 Based on the MMT-SI, the receiver 12 performs reception control of transmission media such as video, audio, captions, and data broadcasting, and output (display, audio output) control on the receiver 12.
  • FIG. 2 shows a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • One broadcast service is composed of video 201, audio 202, subtitle 203, application 204, and content / download 205 components.
  • the video 201 is encoded 211 in the HEVC (High Efficiency Video Coding) format
  • the audio 202 is encoded 212 in the AAC (Advanced Audio Coding) format
  • the subtitle 203 is subtitle encoded 213.
  • the application 204 includes EPG (Electric Program Guide), but is encoded 214 in, for example, HTML5 format.
  • the video signal and audio signal encoding components 211 and 212 of the broadcast program are MFUs (Media Fragment Units) and MPUs, which are MMTP packetized on the MMTP payload.
  • the subtitle signal of the broadcast program and the application (data / content) encoding components 213 and 214 related to the broadcast program are also made MFU and MPU, and are put into the MMTP packet on the MMTP payload.
  • MMT-SI 221 which is control information related to MMT which is a media transport system (indicating the configuration of a broadcast program) is also put into an MMTP packet on the MMTP payload. Details of the control information MMT-SI related to the MMT will be described later.
  • MPU is a unit of processing
  • MFU is a unit smaller than MPU.
  • the MMTP packet is converted into an IP packet.
  • An NTP (Network Time Protocol) packet 206 including information on the current time for the synchronous media is also converted into an IP packet. Further, these IP packets are converted into TLV packets in the TLV layer 240 and transmitted through the broadcast transmission path 250 which is the lowermost physical layer.
  • a TLV-SI 241 related to a TLV multiplexing format for multiplexing IP packets is also converted into a TLV packet and transmitted through the broadcast transmission path 250.
  • the transmission slot in which the TLV packet is multiplexed is specified by using TLV stream identification information (TLV_stream_id) from a TMCC (Transmission and Multiplexing Configuration Control) signal 251 of the transmission path.
  • TLV_stream_id TLV stream identification information
  • TMCC Transmission and Multiplexing Configuration Control
  • FIG. 3 shows an image of a broadcast signal 300 transmitted from the broadcast transmission system 11 to the broadcast transmission path according to the MMT method.
  • a broadcast signal of one service is composed of a synchronous medium related to a main part of a broadcast program such as video, audio, and subtitles and an asynchronous medium such as a data broadcast (however, one broadcast service has one channel, that is, Corresponding to broadcast programs).
  • Media data obtained by encoding these media is converted into MMTP packets in the MPU format and transmitted as IP packets.
  • MMT-SI which is control information related to MMT, which is a media transport system (indicating the configuration of a broadcast program)
  • IP packets are transmitted as TLV streams in the form of TLV packets on the broadcast transmission path.
  • Signaling information (TLV-SI) related to the TLV multiplexing format for multiplexing IP packets is also transmitted in the TLV packet format.
  • MMT transmission paths 301 to 305 for each type of data such as video, audio, caption, data broadcast, and control information (MMT-SI) related to broadcast service are used.
  • MMT-SI control information
  • Each MMT transmission line corresponds to one IP data flow.
  • the IP data flow referred to here is that the values of the five types of fields of the IP header and the UDP header in the source IP address, destination IP address, IP header protocol type, source port number, and destination port number are all the same. Is a set of IP packets.
  • One broadcasting service can be said to be a “package” composed of a plurality of different types of assets such as video, audio, captions, and data broadcasting applications.
  • the “package” referred to here is a logical set of media data transmitted using the MMT transmission path.
  • “Assets” have a corresponding relationship with components (video assets correspond to video components, audio assets correspond to audio components, and data file assets for data broadcasting applications correspond to data file components. Corresponding to).
  • Each asset is identified by unique asset identification information (asset_id).
  • Each asset is composed of a set (logical group) of one or more MPUs sharing the same asset identification information.
  • MPU is a format that is a transmission unit in the MMT system.
  • Each MPU is specified by asset identification information and the sequence number of the MPU on the corresponding transmission path. Further, the MMT transmission path for transmitting each medium can be identified by asset identification information.
  • Each MPU related to the same broadcast service is transmitted on a dedicated ES (Elementary Stream), that is, MMT transmission paths 301 to 305 to each asset in the package, that is, the broadcast signal 300.
  • the transmission path 301 transmits an MMTP packet of an encoded video signal composed of an MPU logical group having common asset identification information for a video signal.
  • an MMT packet of an encoded audio signal composed of an MPU logical group having common asset identification information for audio signals is transmitted on the transmission path 302, and has common asset identification information for subtitle signals on the transmission path 303.
  • An MMTP packet of an encoded subtitle signal composed of an MPU group is transmitted, and an MMT packet of an encoded application composed of an MPU logical group having common asset identification information for data broadcasting applications is transmitted on the transmission paths 304-1 and 304-2. Is done.
  • a plurality of assets having the same type may be transmitted.
  • a data broadcast application is provided independently from two or more delivery segments for the same broadcast program
  • different asset identification information is allocated and transmitted for each delivery segment.
  • Broadcast applications for example, weather forecasts and news
  • transmission paths 304-1 and 304-2 are drawn for two data broadcasting applications to which different asset identification information is allocated.
  • the MMT method can be used in common for a plurality of broadcast and communication transmission paths.
  • asynchronous media such as data broadcasts (HTML5 documents, etc.) are transmitted together with synchronous media of the same broadcast service using the transmission paths 304-1 and 304-2 of the broadcast signal 300 as shown in FIG.
  • a communication transmission path (not shown) such as an IP network.
  • the transmission path 305 is used for signaling in the MMT system, that is, for transmitting MMT-SI, which is control information indicating information related to the configuration of the MMT package and the broadcast service.
  • MMT-SI which is control information indicating information related to the configuration of the MMT package and the broadcast service.
  • an MMT message including MMT-SI is converted into an MMTP packet and repeatedly transmitted by the carousel method.
  • FIG. 3 the illustration of the transmission line for TLV-SI is omitted.
  • MMT-SI has messages, tables, and descriptors.
  • Examples of the MMT message transmitted through the transmission path 305 or 306 include a PA (Package Access) message 310, an M2 section message 320, and a data transmission message 330.
  • PA Package Access
  • the PA message 310 is control information indicating the configuration of a broadcast program and the like, and is a container that stores an MP (MMT Package) table 311 that describes information that configures a package such as an asset list and its position.
  • MP MMT Package
  • the MP (MMT Package) table 311 is a table indicating basic reception control information for each broadcast service, and specifically provides information constituting the package, such as an asset list and asset location information.
  • the MP table 311 includes MPT descriptors such as application service descriptors.
  • the application service descriptor indicates location information of control information necessary or important for the operation of the data broadcasting application (for example, location information of each M2 section message that transmits a data transmission message, MH-AIT, and EMT, respectively).
  • the PA message 310 is an entry point of the broadcast service, and fixed packet identification information (for example, 0x0000) is assigned to the MMTP packet that transmits the PA message 310. Therefore, on the receiver side, the PA message 310 can be acquired by directly specifying the fixed packet identification information on the MMT transmission path 304. Then, with reference to the MP table 311 transmitted by the PA message 310, each asset (video, audio, caption, data broadcast location information) constituting the package (broadcast program) can be indirectly specified.
  • fixed packet identification information for example, 0x0000
  • examples of tables stored in the PA message 310 include a PL (Package List) table (PLT) and an LC (Layout Configuration) table (LCT) in addition to the MP table.
  • PLT indicates a list of IP data flows and packet IDs for transmitting PA messages of MMT packages provided as broadcasting services, and IP data flows for transmitting IP services.
  • the LCT is used to associate layout information for presentation with a layout number.
  • the PA message is a container that can store up to three tables: an MP table, a PL table, and an LC table.
  • the M2 section message 320 is a message that transmits the section extension format of MPEG-2 Systems, and is a container that stores the section format signaling table one by one.
  • tables such as an MH-AIT (Application Information Table) 321 and an EMT (Event Message Table) 322 are stored one by one.
  • the MH-AIT 321 is a table for designating dynamic control information related to an application and additional information necessary for execution.
  • the MH-AIT 321 is a method for processing each data broadcast application (file data) sent through the MMT transmission path. Specify the location information (URL: Uniform Resource Locator) of each data broadcasting application (such as the activation state applied to the application).
  • URL Uniform Resource Locator
  • AS AUTOSTART
  • PR PRESENT
  • KILL indicating the end of the application
  • pre-cache acquisition and holding
  • the EMT 322 is a signaling table used for the event message transmission method, and stores information (event message descriptor) regarding the event message (synchronous / asynchronous message from the broadcasting station to the application on the receiver).
  • the event / message transmission system provides a means for sending message information from a broadcasting station to a data broadcasting application operating on a receiver immediately or at a specified time.
  • the data transmission message 330 is a message for transmitting control information related to transmission of the data broadcasting application.
  • the data transmission message 530 includes a data directory management table (Data Directory management Table: DDMT) 331, a data asset management table (Data Asset Management Table: DAMT) 332, a data content management table (Data Content ConfigurationTable 33: DCT).
  • DDMT Data Directory management Table
  • DAMT Data Asset Management Table
  • DCT Data Content ConfigurationTable
  • the data directory management table 331 is a table for managing the data broadcast application in a directory unit (in other words, a production unit of the data broadcast application).
  • the table describes the directory structure for items (directories and subdirectories and files included in a directory) included in one package, so that the file structure of the application and the structure for file transmission can be separated. it can.
  • the table shows the correspondence between the path name of each node, such as a directory or file, and the node tag that identifies each node in the data transmission message.
  • the data / asset management table 332 is a table for managing the data broadcasting application in units of assets, and describes version information for each MPU including the configuration of the MPU in the asset. Specifically, the table shows download identification information of each component, and a node tag and node on the MMT transmission path that identify a node (file or directory) included in each MPU that transmits the component in the data transmission message. The correspondence with the item identification information to identify is shown.
  • the data / content management table 333 is a table for managing a data broadcasting application for each presentation unit (PU).
  • the table shows presentation unit identification information for identifying a data broadcasting application for each presentation unit, and a node tag for identifying a node (file or directory) included in each presentation unit in a data transmission message.
  • the table can include link destination presentation unit identification information for identifying a presentation unit linked to the presentation unit, and information on cache control of each presentation unit. Can be used for flexible and effective cache control.
  • the transmission data structure of the file unit and the directory structure in contents (data broadcasting application) production can independently represent the data structure of usage units such as application units and presentation units.
  • the configuration of each of the signaling tables 331 to 333 is defined by ARIB STD B-60.
  • Packet identification information of messages and tables transmitted as MMT-SI may be fixed or indirectly specified from other tables.
  • the PA message is an entry point of the broadcast service, and fixed packet identification information (for example, 0x0000) is assigned.
  • the MP table transmitted by the PA message indicates asset identification information and location information of each asset (video, audio, caption, data broadcasting application, etc.) constituting the package (broadcast program). Therefore, on the receiver side, the PA message can be acquired by directly specifying the fixed packet identification information on the MMT transmission path. Then, referring to the MP table transmitted in the PA message, as shown in FIG. 4, each asset (video, audio, caption, data broadcasting application, etc.) related to the broadcasting service and other signaling messages are indirectly Can be specified.
  • an MH-data encoding scheme descriptor is arranged to identify a data encoding scheme for each asset other than video and audio.
  • FIG. 5 shows a syntax example 500 of a PA message that becomes a container of the MP table.
  • each parameter of the PA message will be described.
  • Message_id is a 16-bit fixed value for identifying a PA message in various signaling information.
  • the version is an 8-bit integer value parameter indicating the version of the PA message. For example, when some parameters constituting the PA message are also updated, version is incremented by +1.
  • the length is a 32-bit parameter indicating the size of the PA message in bytes, which is counted immediately after this field.
  • attribute information of a table arranged in the payload (message_payload) field is arranged.
  • the number_of_table field indicates the number of tables to be stored in the PA message, and in the index information loop of the following table, as attribute information of each table to be stored, 8-bit table identification information (table_id), An 8-bit table version (table_version) and a 16-bit table length (table_length) are arranged.
  • table_id is a fixed value for identifying the table.
  • table_version indicates the version of the table.
  • table_length indicates the size of the table in bytes.
  • the message_payload field of the PA message As shown by the reference number 501, as many table storage areas as the number indicated by number_of_tables are arranged.
  • the MP table stored in this field shows information related to the package including a list of all assets.
  • an LC (Layput Configuration) table and a PL (Package List) table are also stored in the PA message table storage area, but these are not directly related to the technology disclosed in this specification. Detailed description is omitted.
  • FIG. 6 shows a syntax example 600 of the MP table. Hereinafter, each parameter of the MP table will be described.
  • Table_id is an 8-bit fixed value (0x20) for identifying that the table is an MP table.
  • version is an 8-bit integer value indicating the version number of the MP table. For example, when some parameters (descriptors) constituting the MP table are also updated, version is incremented by +1.
  • the length is a 32-bit parameter indicating the size of the MP table in bytes, which is counted immediately after this field.
  • MPT_mode indicates an operation when this MP table is divided into subsets.
  • MMT_package_id_length indicates the size of the text information of the package identification information (MMT_package_id) in bytes.
  • MMT_package_id indicates package identification information in bytes (MMT_package_id_byte).
  • the package identification information is identification information as an entire package including assets such as all signals (video, audio, subtitles) and file data transmitted as broadcast signals (IP data flow). This identification information is text information, and the upper 16 bits have the same value as the service identification information for identifying the service.
  • MPT_descriptor_length indicates the size of the MP table descriptor area in bytes.
  • the contents of the MP table descriptor are described in units of bytes (MPT_descriptors_byte).
  • MPT_descriptors_byte In the MPT descriptor, basic information related to reception control of the entire corresponding broadcast service (package) is described.
  • Number_of_assets is an 8-bit parameter indicating the number of assets (signals, files) as elements constituting a broadcast service (package).
  • asset information loops There are as many asset information loops as number_of_assets.
  • asset identification information assert_id
  • MMT_general_location_info general location information
  • asset descriptor asset descriptor
  • Identifier_type indicates the ID system of the MMTP packet flow. If the ID system indicates asset identification information (asset_id), 0x00 is set.
  • asset_id_scheme indicates the format of asset identification information.
  • asset_id_length indicates the size of the text information of the asset identification information in bytes. In the subsequent asset identification information loop, the asset identification information is indicated in units of bytes (asset_id_byte).
  • Asset_type indicates the type of asset (video, audio, text super / caption, application, etc.) as a 32-bit character string.
  • asset_clock_relation_flag is a flag indicating the presence or absence of an asset clock information field. When the flag is 1, there are a clock information identification field (asset_clock_relation_id) and a time scale flag field (asset_timescale_flag). When the flag is 0, these fields do not exist.
  • location_count indicates the number of location information of the asset, and in a loop of location information repeated for the number of subsequent location_counts, MMT_general_location_info which is the location information of the corresponding asset is indicated.
  • Asset_type indicates the type of asset (video, audio, text super / caption, application, etc.) as a 32-bit character string.
  • the types of assets represented by asset_type (characters) are shown in Table 1 below.
  • Asset_clock_relation_flag is a flag indicating the presence / absence of an asset clock information field.
  • the flag is 1, there are a clock information identification field (asset_clock_relation_id) and a time scale flag field (asset_timescale_flag). When the flag is 0, these fields do not exist.
  • location_count indicates the number of location information of the asset, and in a loop of location information repeated for the number of subsequent location_counts, MMT_general_location_info which is the location information of the corresponding asset is indicated.
  • the asset location information is described in the form of packet identification information (packet_id: PID) on the MMT transmission path from which the asset is acquired. Therefore, the asset identification information can be pulled on the MP table to extract the corresponding packet identification information on the MMT transmission path (IP data flow) (see FIG. 4).
  • Asset_descriptor_length indicates the size of the text information of the asset descriptor (asset_descriptor) in bytes. In the asset descriptor loop that follows, the contents of the descriptor for each asset are indicated in units of bytes (asset_descriptors_byte).
  • notification of emergency information is performed using a caption signal.
  • the caption signal used for notifying emergency information is also referred to as “emergency caption signal” below.
  • Broadcasters transmit emergency caption signals separately from normal caption signals during the emergency notification period.
  • the broadcaster further indicates that the subtitle type of the subtitle signal is emergency subtitles in the control data integrated with the normal subtitles as the emergency subtitle control information.
  • the size information of the emergency caption display area is designated, and further information related to the target area where the emergency caption is displayed is designated.
  • the screen for displaying the broadcast video and the normal subtitle is reduced and scaled according to the specified size information, and is freed Display emergency subtitles in the area.
  • “emergency information captions can be displayed quickly and easily in a position that is easy to see” as described in requirement (1) of the emergency notification, and “the designation of the broadcast program video or It is possible to realize that “can be displayed at a position that does not overlap with the display of an application linked with a broadcast program”.
  • the receiver performs the emergency caption display operation only in the target area specified by the emergency caption control data, so that the above-described “3. It is possible to realize “displaying the subtitles of the emergency information only in the area targeted for the emergency notification”.
  • An MH-data encoding method descriptor is arranged in the MP table for each of the caption and the character super transmitted using the caption / character super transmission method (see FIG. 4 and FIG. 4), and the data_component_id is Assigned.
  • additional identification information stored in the MH-data encoding scheme descriptor arranged for the emergency subtitle signal, information indicating that the subtitle type of the corresponding subtitle signal is emergency subtitle, and The emergency subtitle control information such as the size and target area of the emergency subtitle display area is designated.
  • Control information related to transmission of subtitle signal is transmitted by MP table.
  • a series of files including a TTML (Time Text Markup Language) document file to be presented in a certain time range is encapsulated in a synchronous MPU and transmitted.
  • the outline of acquiring the caption signal is as already described with reference to FIG.
  • the receiver refers to the MP table and detects the presence / absence of an asset that transmits a caption signal.
  • subtitles When subtitles are transmitted, there is an asset whose asset type is stpp (see Table 1), and additional identification information related to subtitle signals is described in the MH-data encoding scheme descriptor.
  • the receiver identifies the location information of the asset by referring to the MP table, and identifies the packet identification information of the asset that transmits the caption signal (see FIG. 4). Then, data in the MPU transmitted within the asset of the specified packet identification information can be expanded to obtain a file sent as subtitles.
  • the subtitle signal is transmitted using a synchronous MPU defined in the MMT standard.
  • the MPU is a unit of processing.
  • the MPU includes data of a TTML document file, an image file, an audio file, and an external character file to be presented in a certain time range, and can perform caption presentation processing in units of MPU.
  • FIG. 7 schematically shows a configuration example of MPU and MFU of the caption signal.
  • the MPU of the caption signal is composed of one or more MFUs.
  • the MFU includes a subtitle sample / header section and a subsample data section.
  • a TTML document is always arranged in the first MFU in the MPU, and when there is an external resource to be referred to from the TTML document, a file of the external resource is arranged as a subsample in the subsequent MFU.
  • Each of the TTML document, the image file, the audio file, and the external character file is stored as a subsample of one MFU. It is assumed that the configuration is the same when the caption type is emergency caption.
  • FIG. 8 shows a syntax example 800 of the MH-data encoding scheme descriptor arranged in the second loop of the MP table.
  • the MH-data encoding scheme descriptor is an asset descriptor used for identifying a data encoding scheme for assets other than video and audio, such as captions.
  • each parameter of the MH-data encoding scheme descriptor will be described.
  • Descriptor_tag indicates a 16-bit fixed value for identifying that the descriptor is an event message descriptor.
  • Descriptor_length is an 8-bit field indicating the byte length from immediately after this field to the end of the descriptor.
  • the data_component_id indicated by reference number 801 is a 16-bit length field used to identify the data encoding method. An example of assignment of this field value is shown in Table 2 below.
  • “Additional_data_component_info” indicated by reference number 802 is an 8-bit field used for extending the identifier number or storing additional identification information defined for each encoding method.
  • the data structure of information described in this area is defined for each data encoding method.
  • FIG. 9 shows a configuration example 900 of the additional identification information of the caption / character super transmission system stored in the MH-data encoding system descriptor arranged in the MP table.
  • each parameter of the additional identification information will be described.
  • subtitle_tag (subtitle identification tag) is a label for identifying a subtitle / superimposed stream.
  • subtitle_info_version (subtitle information version) indicates the version of the additional identification information of the subtitle / superimpose.
  • start_mpu_sequence_number_flag (start MPU sequence number flag) is “1” when the subsequent start_mpu_sequence_number field is arranged, and is “0” when it is not arranged.
  • ISO_639_language_code (language code) is a 24-bit field that represents the language code for the language identified by the caption identification tag as an alphabetic three-character code defined by ISO639-2.
  • the type (subtitle type) indicated by reference number 901 indicates the distinction between subtitles and superimpose according to Table 3 below. In this embodiment, it should be noted that the type is “10”, indicating that it is an emergency caption.
  • Subtitle_format (caption description format identification) specifies the description format of subtitles and superimposes, including version and profile.
  • OPM operation mode
  • OPM 00 (live mode) is fixed.
  • TMD time control mode indicates a time control mode at the time of reception and reproduction, and designates a presentation time by an MPU time stamp added to the MPU, a time code described in a TTML document, or other information.
  • the meaning of the time control mode is shown in Table 5 below.
  • TMD 1111 (no time specified) is fixed.
  • DMF display mode
  • presentation operation during reception and recording / reproduction is represented by 2 bits each.
  • the meaning of the display mode is shown in Table 6 below.
  • DMF 0010 (automatic display at reception / automatic display at recording / reproduction) is fixed.
  • “compression_type” indicates a compression method of caption data.
  • the caption data to be compressed is only the TTML document arranged as the first of the transmitted sample data.
  • Start_mpu_sequence_number indicates the first MPU sequence number of the caption / superimpose when this descriptor is set to be valid by start_mpu_sequence_number_flag (start MPU sequence number flag).
  • the reference_start_time (reference start time) is a UTC (Coordinated Universal Time: Agreement) that is the origin of the time code in the TTML document when the TMD (time control mode) is set to 0010, that is, the TTML description (reference start time start point). (Universal Time) Indicates the time in NTP long format.
  • control information for emergency subtitles is added to the corresponding subtitle asset, as indicated by reference numeral 902, in addition to the normal parameters described above.
  • Emergency subtitle additional information emergency_caption_control_info is shown.
  • FIG. 10 shows a syntax example 1000 of the emergency subtitle additional information specified by the additional identification information when the emergency subtitle is specified as the subtitle type.
  • each parameter of the emergency caption additional information will be described.
  • Display_area_size indicated by reference number 1001 designates the display location and size for arranging emergency subtitles on the entire broadcast screen by the number of pixels.
  • the broadcast screen is reduced, and an emergency subtitle display area of a specified size is secured at a location specified by display_area_size. Therefore, according to the parameter display_area_size, the “emergency information subtitles can be quickly displayed in an easily viewable position” described above as the emergency notification requirement (1), and the “program broadcast video and broadcast” described above as the requirement (2). It is possible to realize that “the application can be displayed at a position that does not overlap with the display of the application linked to the program”.
  • the region_spec_type indicated by the reference number 1002 specifies the region description method in the subsequent target_region_spec () structure, and is encoded according to Table 7 below. When all regions are targeted (in other words, when region filtering is not performed), region_spec_type is set to all “1”.
  • Target_region_spec indicated by reference number 1003 indicates a data structure for specifying a region specified for each region description method specification.
  • FIG. 11 shows a syntax 1100 of a region designator designated by a prefecture.
  • Prefecture_bitmap is a 55-bit bitmap indicating 1 and 0 whether or not the area corresponding to each bit position is a target (for an emergency message).
  • FIG. 12 shows a configuration example of a broadcast transmission system 11 that integrates and transmits information related to an emergency caption signal into normal caption signal control information (MH-data encoding scheme descriptor).
  • the broadcast transmission system 11 shown in the figure includes a clock unit 1201, a signal transmission unit 1202, a video encoder 1203, an audio encoder 1204, a caption / character super encoder 1205, a signaling encoder 1206, and a file encoder 1207.
  • An electronic data processing system (Electronic Data Processing System: EDPS) 1208, a TLV signaling encoder 1209, an IP service multiplexer (MUX) 1210, a TLV multiplexer (MUX) 1211, and a modulation / transmission unit 1212.
  • EDPS Electronic Data Processing System
  • the clock unit 1201 generates time information synchronized with the time information acquired from the NTP server (not shown), and sends an IP packet including the time information to the IP service multiplexer 1210.
  • the signal transmission unit 1202 is a recording / playback device such as a studio or VTR of a TV broadcasting station, for example, and stream data such as video, audio, subtitles, and character supers that are synchronous media, and a data broadcasting application that is asynchronous media.
  • stream data such as video, audio, subtitles, and character supers that are synchronous media
  • a data broadcasting application that is asynchronous media.
  • the signal transmission unit 1202 transmits the emergency subtitle stream data to the subtitle / character super encoder 1205.
  • the electronic data processing system 1208 is a scheduler for TV broadcast stations and a file supply source.
  • the electronic data processing system 1208 sends the data broadcast application, which is an asynchronous medium, to the file encoder 1207. Also, the electronic data processing system 1208 sends control information indicating the configuration of the broadcast service to the signaling encoder 1206. Also, the electronic data processing system 1208 sends control information related to emergency captions to the signaling encoder 1206 during the emergency notification period.
  • the electronic data processing system 1208 also sends control information related to multiplexing of IP packets to the TLV signaling encoder 1209.
  • the video encoder 1203 HEVC-encodes the video signal transmitted from the signal transmission unit 1202, further packetizes it, and sends an IP packet including the MMT packet of the video signal to the IP service multiplexer 1210.
  • the audio encoder 1204 AAC-encodes the audio signal transmitted from the signal transmission unit 1202, further packetizes it, and sends an IP packet including the MMT packet of the audio signal to the IP service multiplexer 1210.
  • the subtitle / character super encoder 1205 encodes the subtitle signal and the character super signal transmitted from the signal transmission unit 1202, further generates an MPU in units of presentation processing, and outputs an IP packet including the MMT packet of the subtitle. Send to IP service multiplexer 1210.
  • HEVC encoding of the video signal When the broadcast transmission system 11 transmits a plurality of broadcast services, HEVC encoding of the video signal, AAC encoding of the audio signal, and subtitle / character super encoding processing are performed for each broadcast service.
  • IP service multiplexer 1210 To the corresponding IP service multiplexer 1210.
  • the signaling encoder 1206 generates control information (MMT-SI) indicating the configuration of a broadcast program based on information sent from the electronic data processing system 1208, and an MMT packet in which the MMT-SI is arranged in the payload portion Is sent to the IP service multiplexer 1210.
  • MMT-SI includes messages, tables, and descriptors (described above).
  • the signaling encoder 1206 generates MMT-SI for each broadcast service, and also generates MMT-SI across broadcast services.
  • the subtitle type is designated as emergency subtitles in the child additional identification information, and information relating to the display area and target area of the emergency subtitles is designated, and this MP table is stored in the PA message and sent to the signaling encoder 1206.
  • the file encoder 1207 encodes the data broadcast application transmitted from the signal transmission unit 1202 or the electronic data processing system 1208 into an HTML5 format data file, further packetizes the IP packet including the MMT packet, Send to multiplexer 1210.
  • the broadcast transmission system 11 is equipped with a plurality of IP service multiplexers 1210-1,..., 1210-N for each broadcast channel (broadcast service) to be transmitted.
  • the IP service multiplexer 1210 for each broadcast service channel receives IP packets including video, audio, subtitles, (broadcast service unit) MMT-SI, and data broadcast applications sent from the encoders 1203 to 1207. Multiplexed to generate a TLV packet including a broadcast signal for each broadcast service and MMT-SI across the broadcast service.
  • the TLV signaling encoder 1209 Based on the information sent from the electronic data processing system 1208, the TLV signaling encoder 1209 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion.
  • TLV-SI control information
  • the TLV multiplexer 1211 multiplexes the TLV packets generated by the IP service multiplexers 1210-1 to 1210-N and the TLV signaling encoder 1209, and generates a TLV stream identified by the TLV stream identification information. .
  • the modulation / transmission unit 1212 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 1211 and sends it to the broadcast transmission path.
  • the clock unit 1201 generates time information synchronized with time information acquired from an NTP server (not shown), and generates an IP packet including this time information.
  • the video signal sent from the signal sending unit 1202 is supplied to the video encoder 1203.
  • the video signal is HEVC encoded and further packetized to generate an IP packet including an MMT packet of the HEVC encoded video signal. This IP packet is sent to the IP service multiplexer 1210.
  • an IP packet including the MMT packet of the AAC encoded audio signal generated by the audio encoder 1204 is sent to the IP service multiplexer 1210 and the subtitle encoded signal generated by the subtitle / character super encoder 1205 is transmitted.
  • An IP packet containing the MMT packet is sent to the IP service multiplexer 1210.
  • emergency subtitle stream data is created from the signal transmission unit 1202, and is converted into IP packets by the subtitle / character super encoder 1205 and sent to the IP service multiplexer 1210 in the same manner as normal subtitle signals. It is done.
  • the signaling encoder 1206 generates control information (MMT-SI) indicating the configuration of the broadcast program based on information transmitted from the electronic data processing system 1208, and the MMT-SI is arranged in the payload portion.
  • An IP packet including the MMT packet is generated.
  • the subtitle type is designated as the emergency subtitle
  • the information regarding the display area and the target area of the emergency subtitle is designated
  • the IP packet including the PA message storing the MP table is generated.
  • the data broadcast application transmitted from the signal transmission unit 1202 or the electronic data processing system 1208 is supplied to the file encoder 1207.
  • the data broadcasting application is encoded in, for example, HTML5 format, further packetized, and an IP packet including this MMT packet is generated. This IP packet is sent to the IP service multiplexer 1210.
  • Each IP service multiplexer 1210 includes video, audio, subtitles, MMT-SI (broadcast service unit and service crossing), and data broadcast application (HTML5 document) sent from each encoder 1203-1207.
  • the IP packet is multiplexed to generate a TLV packet that constitutes one channel.
  • the TLV signaling encoder 1209 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion based on the information transmitted from the electronic data processing system 1208.
  • TLV-SI control information
  • the TLV multiplexer 1211 multiplexes the TLV packets generated by the IP service multiplexers 1210-1 to 1210-N and the TLV signaling encoder 1209 to generate a TLV stream.
  • the modulation / transmission unit 1212 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 1211 and sends the RF modulation signal to the broadcast transmission path.
  • FIG. 13 shows a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11.
  • the illustrated receiver 12 includes a tuner / demodulator 1301, an MMT demultiplexer (DEMUX) 1302, a clock recovery unit 1303, a video decoder 1304, an audio decoder 1305, a character super decoder 1306, a subtitle.
  • Tuner / demodulator 1301 selects and receives a broadcast signal, performs demodulation processing, and obtains a TLV stream.
  • the MMT demultiplexer 1302 performs demultiplex processing and depacketization processing on this TLV stream.
  • the demultiplexer 1302 includes a packet filter 1302-1 and an SI filter 1302-2.
  • the packet filter 1302-1 performs filtering of the IP packet based on the TLV stream identification information and the IP address, and further filters the MMTP packet from the IP packet based on the information in the MMTP header, so that the video, audio, subtitle , And multimedia (data broadcasting application) encoding components and MMTP packets carrying signaling information are converted into a video decoder 1304, an audio decoder 1305, a character super decoder 1306, a subtitle decoder 1307, and an emergency subtitle decoder 1308, respectively.
  • the multimedia (MM) cache 1309 and the SI filter 1302-2 To the multimedia (MM) cache 1309 and the SI filter 1302-2.
  • the MH-data encoding scheme descriptor see FIG.
  • the subtitle type is specified by the additional identification information of the descriptor. (See above and FIG. 9). If the subtitle type value is “00” (normal subtitle), it is distributed to the subtitle decoder 1307, and if the subtitle type value is “01” (character super), it is distributed to the character super decoder 1306. 10 ”(emergency subtitle), it is distributed to the emergency subtitle decoder 1308.
  • the SI filter 1302-2 filters the signaling information SI and caches it in the SI cache 1310.
  • the clock recovery unit 1303 Based on the current time information included in the NTP packet filtered by the packet filter 1302-1 in the MMT demultiplexer 1302, the clock recovery unit 1303 generates time information synchronized with this time information, In order to decode the synchronous media, they are output to a video decoder 1304, an audio decoder 1305, a character super decoder 1306, a subtitle decoder 1307, and an emergency subtitle decoder 1308, respectively.
  • the video decoder 1304 decodes the encoded video signal obtained by the MMT demultiplexer 1302 to obtain a baseband video signal.
  • the audio decoder 1305 decodes the encoded audio signal obtained by the MMT demultiplexer 1302 to obtain a baseband audio signal.
  • the character super decoder 1306 and the caption decoder 1307 decode the character super and normal caption encoded signals obtained by the MMT demultiplexer 1302, respectively, and obtain the character super and normal caption display signals, respectively.
  • the emergency caption decoder 1308 decodes the emergency caption signal obtained by the MMT demultiplexer 1302 to obtain an emergency caption display signal.
  • the broadcast system control unit 1311 controls the broadcast service reception operation of the entire receiver 12 based on the MMT-SI cached in the SI cache 1310. For example, when the broadcast system control unit 1311 analyzes MMT-SI (MH-AIT) and finds a data broadcast application set in the default entry, the broadcast system control unit 1311 performs a data broadcast presentation process on the application engine 1313. Instruct.
  • MMT-SI MH-AIT
  • the application engine 1313 is, for example, an HTML browser or the like, and processes a data broadcast application (HTML5 document or the like) cached in the multimedia cache 1309 to generate a data broadcast display signal and an audio signal.
  • the application engine 1313 obtains a data file (media data used for data broadcast display, a link destination application, etc.) necessary for data broadcast display from the IP network via the communication interface 1312. You can also.
  • the scaler 1314 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 1304 in accordance with the screen size of the receiver 12.
  • the synthesizer 1315 synthesizes the audio signal decoded by the audio decoder 1305 and the audio signal for data broadcasting reproduced by the application engine 1313 to generate an audio signal for output.
  • the synthesizing unit 1316 synthesizes the character super display decoded by the character super decoder 1306 and the normal subtitle display decoded by the subtitle decoder 1307.
  • the combining unit 1317 combines the broadcast video scaled by the scaler 1314 and the data broadcast display signal generated by the application engine 1313. Further, the composition unit 1318 at the subsequent stage synthesizes the broadcast video on which the display of the data broadcast is superimposed, the character super display output from the composition unit 1316, and the normal caption display.
  • the scaler 1319 includes emergency caption additional information (see FIG. 9) inserted in the additional identification information (see FIG. 9) of the MH-data encoding scheme descriptor (see FIG. 8) of the second loop of the MP table.
  • additional identification information see FIG. 9
  • MH-data encoding scheme descriptor see FIG. 8
  • scaling processing for emergency subtitle display is performed on the broadcast video output from the synthesis unit 1318.
  • the synthesizing unit 1320 synthesizes the emergency subtitle output from the emergency subtitle decoder 1308 with the broadcast video scaled by the scaler 1319 to generate an output video signal.
  • the tuner / demodulator 1301 receives a broadcast signal, performs demodulation processing, and obtains a TLV stream.
  • the MMT demultiplexer 1302 performs demultiplexing processing and packetization processing on the TLV stream, and each encoded signal of NTP time information, video, audio, text super, subtitle, emergency subtitle, and data broadcasting Is extracted.
  • each demultiplexed packet is converted into a video decoder 1304, an audio decoder 1305, a character super decoder 1306, a caption decoder 1307, an emergency caption decoder 1308, a multimedia (MM) cache. 1309.
  • the MH-data encoding scheme descriptor see FIG.
  • the subtitle type is specified by the additional identification information of the descriptor. (See above and FIG. 9). If the subtitle type value is “00” (normal subtitle), it is distributed to the subtitle decoder 1307, and if the subtitle type value is “01” (character super), it is distributed to the character super decoder 1306. 10 ”(emergency subtitle), it is distributed to the emergency subtitle decoder 1308.
  • the packet of signaling information extracted by the packet filter 1302-1 is distributed to the SI filter 1302-1, filtered, and cached in the SI cache 1310.
  • the NTP packet extracted by the demultiplexer 1302 is distributed to the clock recovery unit 1303.
  • the clock recovery unit 1303 generates time information synchronized with this time information based on the time information placed in the NTP packet. That is, the clock recovery unit 1303 generates time information that matches the time information generated by the clock unit 1201 on the broadcast transmission system 11 side.
  • the encoded video signal extracted by the MMT demultiplexer 1302 is sent to the video decoder 1304 and decoded to obtain a baseband video signal.
  • the character super-encoded signal extracted by the demultiplexer 1302 is sent to the character super-decoder 1306 and decoded to obtain a character super display signal.
  • the caption encoded signal extracted by the demultiplexer 1302 is sent to the caption decoder 1307 and decoded to obtain a normal caption display signal.
  • the emergency subtitle encoded signal extracted by the demultiplexer 1302 is sent to the emergency subtitle decoder 1308 and decoded, and an emergency subtitle display signal is obtained.
  • the broadcasting system control unit 1311 controls the entire reception processing operation by the receiver 12 including the processing of the data broadcasting application based on the MMT-SI received via the SI filter 1302-2 and the SI cache 1310.
  • Application engine 1313 performs processing of a data broadcast application (HTML5 document or the like) cached in multimedia cache 1309, and generates a data broadcast display signal and an audio signal.
  • a data broadcast application HTML5 document or the like
  • the scaler 1314 performs scaling processing of the video signal (broadcast video) decoded by the video decoder 1304.
  • the synthesizing unit 1316 synthesizes the character super display decoded by the character super decoder 1306 and the subtitle display decoded by the normal subtitle decoder 1307. Subsequently, the synthesizing unit 1317 combines the broadcast video scaled by the scaler 1314 and the display signal of the data broadcast generated by the application engine 1313. Further, in the subsequent synthesis unit 1318, the broadcast video on which the display of the data broadcast is superimposed, the character super display output from the synthesis unit 1316, and the normal caption display are synthesized.
  • the emergency caption additional information (see FIG. 9) inserted in the additional identification information (see FIG. 9) of the MH-data coding scheme descriptor (see FIG. 8) of the second loop of the MP table.
  • the display area information (display_area_size) specified in FIG. 10
  • the synthesizing unit 1320 synthesizes the emergency subtitle output from the emergency subtitle decoder 1308 with the broadcast video scaled by the scaler 1319 to generate an output video signal.
  • the synthesizing unit 1315 synthesizes the audio signal decoded by the audio decoder 1305 and the audio signal for data broadcasting reproduced by the application engine 1313 to generate an audio signal for output.
  • the scaler 1314 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 1304 in accordance with the screen size of the receiver 12.
  • the combining unit 1317 combines the broadcast video 1411 scaled by the scaler 1314 and the data broadcast display signal (graphics) 1412 generated by the application engine 1313 to generate a multimedia plane 1402.
  • the synthesis unit 1316 synthesizes the character super plane 1404 including the character super display decoded by the character super decoder 1306 and the subtitle plane 1403 including the normal subtitle display decoded by the subtitle decoder 1307.
  • the combining unit 1318 combines a plane obtained by combining the multimedia plane 1402 in which the data broadcast display is superimposed on the broadcast video, the character super plane 1414 output from the combining unit 1316, and the normal subtitle plane 1413 into a background plane.
  • a broadcast screen is generated by superimposing them in order on 1401.
  • FIG. 15 shows an example of a screen 1500 that displays emergency subtitles on the broadcast screen.
  • reference numeral 1501 corresponds to a broadcast screen generated according to the procedure shown in FIG.
  • Emergency subtitle additional information (see FIG. 10) inserted in the additional identification information (see FIG. 9) of the MH-data encoding scheme descriptor (see FIG. 8) of the second loop of the MP table
  • the parameter display_area_size the location and size for displaying the emergency subtitles on the entire broadcast screen are specified (described above).
  • the scaler 1319 degenerates the broadcast screen 1501 and secures an emergency caption display area 1502 of a specified size at a location specified by display_area_size.
  • the synthesizing unit 1320 superimposes the emergency subtitle output from the emergency subtitle decoder 1308 on the emergency subtitle display area 1502.
  • FIG. 16 shows an example of emergency subtitle screen display control using the MH-data encoding scheme descriptor arranged for the subtitle and the character superimpose in the second loop of the MP table.
  • FIG. 16A illustrates a display screen 1600 of the receiver before emergency notification.
  • the illustrated screen 1600 is a reception screen for a normal broadcast service.
  • a normal subtitle “A player, hit a timely hit in the left middle!” As indicated by reference numeral 1601 may be displayed superimposed.
  • FIG. 16B illustrates a screen 1610 in which the receiver displays emergency subtitles based on information specified in the emergency notification table during the emergency notification period.
  • the subtitle type is designated as the emergency subtitle by the additional identification information (see FIG. 9) of the MH-data encoding scheme descriptor arranged in the second loop relating to the emergency subtitle of the MP table,
  • the position and size of the area for displaying the emergency subtitle is specified by the parameter display_area_size in the emergency subtitle additional information (see FIG. 10) inserted in the additional identification information.
  • the screen of the normal broadcast service is reduced in order to provide an emergency caption display area having the location and size specified by the display_area_size. (Scaling). Then, an emergency subtitle “An earthquake has occurred! A tsunami warning is issued! Please evacuate to the hill immediately!” Is displayed in the emergency subtitle area 1612 that is vacated by reducing the normal broadcast reception screen.
  • the emergency caption additional information (see FIG. 10) inserted in the additional identification information of the MH-data encoding scheme descriptor includes parameters region_spec_type and target_region_spec that specify the target area for emergency caption display. .
  • the receiver can perform regional filtering of emergency caption display based on the target area specified by the emergency caption additional information.
  • FIG. 17 shows an example of regional filtering for emergency subtitle display.
  • the emergency subtitle signal is designated by the TTML document as the character string “An earthquake has occurred! Tsunami warning is issued! Immediately evacuate to the hill!”
  • the receiver in the Kanto region is switched to a screen including emergency subtitles, as shown in FIG.
  • FIG. 18 illustrates an emergency subtitle display switching scenario.
  • a broadcast signal (TLV stream) 1800 transmitted from a certain broadcaster (broadcast station) is illustrated, and the horizontal axis is a time axis.
  • the broadcaster provides one broadcast service, and broadcast service # 1 is transmitted in the illustrated TLV stream 1800.
  • This broadcast service # 1 includes each asset (component) 1801-1805 for video, audio, (normal) subtitles, text super, and data broadcast in a normal broadcast period (a period other than the emergency notification period), and a broadcast service unit Control information (MMT-SI) transmission line 1806.
  • the broadcaster may provide two or more broadcast services, but broadcast service # 1 is shown for the sake of simplicity of the drawing.
  • the period t1 to t2 is an emergency notification period.
  • an emergency caption asset is transmitted as indicated by reference numeral 1810 separately from the normal caption asset 1803.
  • transmission of the emergency subtitle asset 1810 stops.
  • a PA message transmitted by broadcast service unit control information (MMT-SI) 1806 is an entry point of broadcast service # 1, and fixed packet identification information (for example, 0x0000) is assigned. Therefore, the receiver side can directly specify the fixed packet identification information and acquire the PA message 310 (described above). Further, the MP table transmitted by the PA message indicates asset identification information and location information of each of the assets 1801 to 1805 and 1810 constituting the broadcast service # 1. Accordingly, the receiver side can directly specify the fixed packet identification information to acquire the PA message, and further refer to the MP table in the PA message to refer to the assets 1801 to 180- 1805 and 1810 can be specified indirectly (see FIG. 4).
  • MMT-SI broadcast service unit control information
  • the MP table stores data codes for assets other than video and audio (in the example shown in FIG. 18, normal subtitle asset 1803, text super asset 1804, data broadcast asset 1805, and emergency subtitle asset 1810).
  • an MH-data encoding scheme descriptor is arranged as an asset descriptor in the second loop.
  • the additional identification information arranged in the MH-data encoding scheme descriptor of the emergency subtitle asset 1810 indicates that the subtitle type is emergency subtitle (see FIG. 9).
  • emergency subtitle additional information (emergency_caption_control_info) is arranged as additional identification information when the subtitle type is emergency subtitle, and the position size of the emergency subtitle display area and the target area for emergency subtitle display are designated. (See FIG. 10).
  • the receiver that receives the broadcast signal (TLV stream) 1800 shown in FIG.
  • the receiver is installed in the target area specified by the emergency caption additional information.
  • the emergency caption transmitted in the emergency caption asset 1810 is “An earthquake has occurred! Tsunami warning is issued! Please evacuate immediately to the hill!”.
  • the receiver Before the emergency notification period t1, the receiver receives the broadcast service # 1 and displays it on the full screen as indicated by reference numeral 1821.
  • the receiver receives the PA message to which fixed packet identification information is assigned on the control information (MMT-SI) transmission line 1806 for each broadcast service, and based on the MP table stored in the PA message, Each asset constituting # 1 can be acquired. Therefore, when the emergency notification period t1 is entered, the receiver can receive the emergency subtitle asset 1810.
  • MMT-SI control information
  • the receiver refers to the additional identification information of the MH-data encoding scheme descriptor of the emergency caption asset 1810 arranged in the second loop of the MP table stored in the PA message received in the emergency notification period, and Detect that the type is emergency subtitles. Further, when the receiver acquires the position size of the emergency caption display area specified by the emergency caption additional information in the additional identification information and the target area for the emergency caption display, the receiver performs a switching operation to the emergency caption screen. In the illustrated example, in order to provide an emergency caption display area having the location and size specified by display_area_size in accordance with the designation of emergency caption additional information, the screen of a normal broadcast service is reduced (scaled) to an empty area. The emergency subtitle “An earthquake has occurred! Tsunami warning is issued! Please evacuate to the hill immediately!” Is displayed.
  • the receiver detects that the emergency notification period has ended. Then, as indicated by reference numeral 1823, the receiver returns the normal broadcast service screen to full screen display.
  • FIG. 19 shows an example of a procedure for controlling the display of emergency subtitles in the receiver 12 shown in FIG. 13 in the form of a flowchart.
  • the receiver 12 every time the additional identification information of the caption / superimpose is updated in the MH-data encoding scheme descriptor arranged in the second loop of the received MP table (when subtitle_info_version is updated), Start this processing routine.
  • the broadcast system control unit 1311 refers to the parameters region_spec_type and target_region_spec in the emergency subtitle additional information (emergency_caption_control_info) inserted in the additional identification information. Then, region filtering is performed to determine whether or not the receiver 12 is the target region for the emergency caption (step S1902).
  • step S1902 If the receiver 12 is not in the target area for emergency subtitles (No in step S1902), the processing routine ends.
  • the broadcast system control unit 1311 determines the scaler based on the parameter display_area_size in the emergency caption additional information.
  • a broadcast screen scaling (degeneration) process for emergency subtitle display is instructed to 1319 (step S1903).
  • the broadcast system control unit 1311 instructs the synthesizing unit 1320 to display emergency subtitles in an area vacated by screen scaling (degeneration) processing (step S1904).
  • the technology disclosed in this specification can be applied not only to the display of emergency subtitles but also to the display of outscreen subtitles.
  • a transmission apparatus comprising: (2) The transmitter transmits the emergency subtitle signal separately from the normal subtitle signal, The control information transmission unit specifies that the subtitle type is emergency subtitle in the control information of the normal subtitle signal as the control information of the emergency subtitle signal.
  • the control information transmission unit specifies information related to emergency subtitles in the additional information of the emergency subtitle control information.
  • the control information transmission unit specifies information related to an emergency caption display area in the additional information of the emergency caption control information.
  • the control information transmission unit specifies information related to a target area for displaying the emergency caption in the additional information of the emergency caption control information.
  • the control information transmission unit specifies a live mode as an emergency caption operation mode.
  • the control information transmission unit specifies immediate presentation of emergency subtitles in the additional information of the emergency subtitle control information.
  • the control information transmission unit designates automatic display at the time of reception and automatic non-display at the time of recording / reproduction in the additional information of the control information of the emergency caption.
  • (9) a transmission step of transmitting the emergency subtitle signal separately from the normal subtitle signal; A control information transmission step for designating that the subtitle type is emergency subtitle in the control information of the normal subtitle signal; A transmission method.
  • (10) a receiving unit that receives an emergency caption signal together with each broadcast signal constituting the broadcast service; A control information receiving unit for receiving control information of each broadcast signal including the emergency caption signal; A control unit that controls screen display of a broadcast service based on the control information;
  • a receiving apparatus comprising: (11) The receiving unit receives a broadcast signal to which the emergency subtitle signal is added separately from a normal subtitle signal included in a broadcast service, The control information receiving unit receives control information in which the subtitle type is designated as an emergency subtitle in the control information of a normal subtitle signal, The receiving device according to (10) above.
  • the control unit controls screen display of emergency subtitles based on additional information of the control information in which the subtitle type indicates emergency subtitles.
  • the receiving device according to (11) above.
  • the control unit degenerates the screen of the broadcast service based on information on the emergency caption display area specified in the additional information, and displays the emergency caption in the vacant area.
  • the receiving device according to (12) above.
  • the control unit displays emergency subtitles only when the target area is specified by the additional information.
  • the receiving device according to any one of (12) and (13). a reception step of receiving an emergency subtitle signal together with each broadcast signal constituting the broadcast service; A control information receiving step for receiving control information of each broadcast signal including the emergency caption signal; A control step for controlling the screen display of the broadcast service based on the control information; Receiving method.
  • DESCRIPTION OF SYMBOLS 10 ... Digital broadcasting system, 11 ... Broadcast transmission system 12 ... Receiver, 1201 ... Clock part 1202 ... Signal transmission part 1203 ... Video encoder 1204 ... Audio encoder 1205 ... Subtitle / text super encoder 1206 ... Signaling encoder 1207 ... File encoder 1208 ... Electronic data processing system 1209 ... TLV signaling encoder 1210 ... IP service multiplexer 1211 ... TLV multiplexer, 1212 ... Modulation / transmission unit 1301 ... Tuner demodulation unit 1302 ... MMT demultiplexer 1303 ... Clock recovery 1304 ... Video decoder 1305 ... Audio decoder 1306 ... Character super decoder 1307 ...
  • Subtitle decoder 130 8 Emergency subtitle decoder 1309: Multimedia cache, 1310 ... SI cache, 1311 ... Broadcast system control unit 1312 ... Communication interface 1313 ... Application engine 1314 ... Scaler, 1315 to 1318 ... Composition unit 1319 ... Scaler, 1320 ... Composition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

緊急情報を送信する送信装置及び送信方法、並びに、緊急情報を受信する受信装置及び受信方法を提供する。 放送局は、通常の字幕信号とは別に緊急字幕信号を伝送し、緊急字幕の制御情報として、通常の字幕と統合した制御データで、字幕信号の字幕タイプが緊急字幕であることを示す。受信機側では、字幕信号の制御データを参照して、字幕タイプが緊急字幕であること、さらには対象地域であることを検知すると、指定されたサイズ情報に従って放送映像及び通常字幕を表示する画面を縮小スケーリングして、空いた領域に緊急字幕を表示する。

Description

送信装置及び送信方法、並びに受信装置及び受信方法
 本明細書で開示する技術は、緊急情報を送信する送信装置及び送信方法、並びに、緊急情報を受信する受信装置及び受信方法に関する。
 さまざまな災害(地震、津波、暴風など)や事件に対して緊急情報を速やかに伝達することは、放送の責務の1つである。欧米や日本を始め世界各国でディジタル放送サービスの標準化が進められており、緊急情報の伝達に関する技術的なサポート機能に関しても規定されている。例えば、待機状態にある放送受信機を自動的に起動にして行なわれる放送サービス(EWS:Emergency Warning System)が知られている(例えば、特許文献1を参照のこと)。
特開2007-281957号公報 特開2014-230154号公報
 本明細書で開示する技術の目的は、緊急情報を送信する送信装置及び送信方法、並びに、緊急情報を受信する受信装置及び受信方法を提供することにある。
 本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 放送サービスを構成する各放送信号とともに緊急字幕信号を送信する送信部と、
 前記緊急字幕信号を含む各放送信号の制御情報を送信する制御情報送信部と、
を具備する送信装置。
を具備する送信装置である。
 本明細書で開示する技術の第2の側面によれば、第1の側面に係る送信装置の前記送信部は、通常の字幕信号とは別に前記緊急字幕信号を付加して送信し、前記制御情報送信部は、前記緊急字幕信号の制御情報として、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定するように構成されている。
 本明細書で開示する技術の第3の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕に関する情報を指定するように構成されている。
 本明細書で開示する技術の第4の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の表示領域に関する情報を指定するように構成されている。
 本明細書で開示する技術の第5の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕を表示する対象地域に関する情報を指定するように構成されている。
 本明細書で開示する技術の第6の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の動作モードとしてライブモードを指定するように構成されている。
 本明細書で開示する技術の第7の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の即時提示を指定するように構成されている。
 本明細書で開示する技術の第8の側面によれば、第2の側面に係る送信装置の前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、受信時の自動表示及び記録再生時の自動非表示を指定するように構成されている。
 また、本明細書で開示する技術の第9の側面は、
 通常の字幕信号とは別に前記緊急字幕信号を付加して送信する送信ステップと、
 通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定する制御情報送信ステップと、
を有する送信方法である。
 また、本明細書で開示する技術の第10の側面は、
 放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信部と、
 前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信部と、
 前記制御情報に基づいて放送サービスの画面表示を制御する制御部と、
を具備する受信装置である。
 本明細書で開示する技術の第11の側面によれば、第10の側面に係る受信装置の前記受信部は、放送サービスに含まれる通常の字幕信号とは別に前記緊急字幕信号が付加された放送信号を受信し、前記制御情報受信部は、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることが指定された制御情報を受信するように構成されている。
 本明細書で開示する技術の第12の側面によれば、第11の側面に係る受信装置前記制御部は、字幕タイプが緊急字幕を示す前記制御情報の付加情報に基づいて、緊急字幕の画面表示を制御するように構成されている。
 本明細書で開示する技術の第13の側面によれば、第12の側面に係る受信装置の前記制御部は、前記付加情報において指定される緊急字幕の表示領域に関する情報に基づいて放送サービスの画面を縮退して、空いた領域に緊急字幕を表示するように構成されている。
 本明細書で開示する技術の第14の側面によれば、第12の側面に係る受信装置の前記制御部は、前記付加情報で指定された対象地域である場合に限り、緊急字幕の表示を行なうように構成されている。
 また、本明細書で開示する技術の第15の側面は、
 放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信ステップと、
 前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信ステップと、
 前記制御情報に基づいて放送サービスの画面表示を制御する制御ステップと、
を有する受信方法である。
 本明細書で開示する技術によれば、緊急情報を通知する緊急字幕信号を送信することができる送信装置及び送信方法を提供することができる。
 また、本明細書で開示する技術によれば、緊急告知期間に受信した緊急字幕信号を放送映像の画面に表示して、ユーザー(視聴者)に緊急情報を通知することができる受信装置及び受信方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ディジタル放送システム10の構成例を模式的に示した図である。 図2は、MMT方式を用いるディジタル放送システム10におけるプロトコル・スタック200を示した図である。 図3は、MMT方式に従った放送信号300のイメージを示した図である。 図4は、PAメッセージ内のMPテーブルから放送サービスに関連する各アセットを指定する仕組みを示した図である。 図5は、PAメッセージのシンタックス例500を示した図である。 図6は、MPテーブルのシンタックス例600を示した図である。 図7は、字幕信号のMPU及びMFUの構成例を示した図である。 図8は、MPテーブルの第2ループに配置されるMH-データ符号化方式記述子のシンタックス例800を示した図である。 図9は、字幕・文字スーパー伝送方式の付加識別情報の構成例900を示した図である。 図10は、緊急字幕付加情報のシンタックス例1000を示した図である。 図11は、域指定の地域指定子のシンタックス1100を示した図である。 図12は、放送送出システム11の構成例を示した図である。 図13は、放送送出システム11からの放送信号を受信する受信機12の構成例を示した図である。 図14は、受信機12において表示画面を生成する仕組みを説明するため図である。 図15は、受信機12において表示画面を生成する仕組みを説明するための図である。 図16は、緊急字幕の画面表示制御例を示した図である。 図17は、緊急字幕表示の地域フィルタリング例を示した図である。 図18は、緊急字幕表示の切り替えシナリオを例示した図である。 図19は、緊急字幕の表示を制御するための手順の一例を示したフローチャートである。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.本明細書で開示する技術の要件
 放送の責務の1つとして、さまざまな災害や事件に対して緊急情報を速やかに伝達することが挙げられる。ディジタル放送規格では、緊急情報の伝達に関して技術的なサポート機能も規定されている。しかしながら、現状の放送サービスでは、緊急情報の告知に関して役割を十分に果たしていない、と本出願人は思料する。
 緊急情報には地域性がある。緊急時には、地域単位で、緊急情報を字幕などでいち早く通知する、という要求がある。しかしながら、TV番組の映像やデータ放送の表示など通常の放送画面と字幕が重なると、緊急情報が見え難く又は目立たなくなるため、有効に機能しない。
 本出願人は、放送サービスにおいて字幕により緊急情報の告知を行なう要件として、以下の(1)~(3)を挙げる。
(1)緊急情報の字幕は、速やかに、見易い位置に表示できること。
(2)指定により、放送番組の映像や放送番組に連動するアプリケーションなどの表示と重ならない位置に表示できること。
(3)緊急情報の字幕を、緊急告知の対象となる地域のみに限定して表示すること。
 本明細書では、放送全画面表示や緊急字幕により緊急告知を行なう上記要件(1)~(3)を実現するための、放送サービスに関する技術について、以下で開示する。
 なお、便宜上、メディア伝送にMMT(MPEG Media Transport)方式を採用した放送システムに本明細書で開示する技術を適用した実施形態について説明する。
B.システム構成
 次世代のディジタル放送方式として、MPEGで新たなメディア・トランスポート方式として規格化されたMMT方式による超高解像度TV放送規格が検討されている。MMT方式では、異なる伝送路の組み合わせで利用することが容易であり、放送や通信の複数の伝送路に共通に用いることができる。
 MMT方式のTV放送規格では、映像や音声、字幕などの放送番組本体のストリーム・メディアを同期型(Timed)MPU(Media Processing Unit)フォーマットで伝送する一方、データ放送アプリケーションを非同期型(Non timed)MPUフォーマットで伝送する方式も規定されている。また、MMT方式のデータ放送システムでは、放送局からは、放送サービスに関する制御情報であるMMT-SI(Signaling Information)のシグナリング(通知)が行なわれる(例えば、特許文献2を参照のこと)。
 図1には、ディジタル放送システム10の構成例を模式的に示している。図示のディジタル放送システム10は、放送送出システム11と、受信機12で構成される。
 放送送出システム11は、放送信号の伝送にMMT方式を適用しており、放送サービスを構成する各コンポーネントをIP(Internet Protocol)パケットにして伝送する。具体的には、放送送出システム11は、放送番組の映像信号や音声信号の符号、並びに、放送番組に関連するコンテンツ(データ放送アプリケーションなど)や字幕の信号を、MMTPペイロードに乗せてMMTPパケット化し、さらにIPパケット化し、放送伝送路ではTLV(Type Length Value)パケットの形式で伝送する。ここで、映像や音声、字幕などの放送番組本体に関わるコンポーネントは、同期型メディアである。また、コンテンツ、すなわちHTML(Hyper Text Transfer Protocol)5形式などで符号化されるデータ放送アプリケーションは、非同期型メディアである。
 また、放送送出システム11は、同期型及び非同期型のメディアを配信する放送サービスに関する制御情報であるMMT-SIのシグナリングも行なう。MMT-SIには、メッセージ、テーブル、記述子(descriptor)がある。テーブルは、メッセージをコンテナーとして伝送される。メッセージやテーブルで示すパラメーターの一部は記述子の形式で記述される。
 一方、受信機12は、放送送出システム11から放送伝送路で送られてくるTLVパケットを受信する。そして、受信機12は、受信パケットから映像や音声、字幕などの伝送メディアを復号して、画像や音声を提示する。また、受信機12は、受信パケットからデータ放送用の各データ・ファイルを取得すると、HTMLブラウザーなどのアプリケーション・エンジンを起動して、放送番組に連動したデータ放送を、TV番組の映像を表示するスクリーンの一部又は全部の領域に表示する。
 また、受信機12は、放送サービスに関する制御情報であるMMT-SIも受信する。受信機12は、MMT-SIに基づいて、映像や音声、字幕、データ放送などの伝送メディアの受信制御や受信機12上での出力(表示、音声出力)制御を行なう。
 図2には、MMT方式を用いるディジタル放送システム10におけるプロトコル・スタック200を示している。
 1つの放送サービスは、映像201、音声202、字幕203、アプリケーション204、コンテンツ・ダウンロード205の各コンポーネントで構成される。映像201はHEVC(High Efficiency Video Coding)形式で符号化211され、音声202はAAC(Advanced Audio Coding)形式で符号化212され、字幕203は字幕符号化213される。また、アプリケーション204は、EPG(Electric Program Guide)を含むが、例えばHTML5形式で符号化214される。
 MMTレイヤー220上では、放送番組の映像信号及び音声信号の符号化コンポーネント211、212は、MFU(Media Fragment Unit)及びMPUとし、MMTPペイロードに乗せてMMTPパケット化される。また、放送番組の字幕信号や放送番組に関連するアプリケーション(データ・コンテンツ)符号化コンポーネント213、214についても、MFU及びMPUとし、MMTPペイロードに乗せてMMTPパケット化される。また、メディア・トランスポート方式であるMMTに関わる(放送番組の構成などを示す)制御情報であるMMT-SI221も、MMTPペイロードに乗せてMMTPパケット化される。MMTに関わる制御情報MMT-SIの詳細については、後述に譲る。MPUは処理の単位となり、MFUはMPUよりも小さな単位である。なお、コンテンツ・ダウンロード205のデータ伝送方式215として、字幕・文字スーパー伝送方式、アプリケーション伝送方式、イベント・メッセージ伝送方式、汎用データ伝送方式の4種類が挙げられるが、詳細な説明は省略する。
 UDP(User Datagram Protocol)/IPレイヤー230では、MMTPパケットはIPパケット化される。また、同期型メディアのための現在時刻の情報を含むNTP(Network Time Protocol)パケット206も、IPパケット化される。さらに、これらのIPパケットは、TLVレイヤー240でTLVパケット化され、最下層の物理レイヤーである放送伝送路250で伝送される。また、IPパケットの多重のためのTLV多重化形式に関わるTLV-SI241も、TLVパケット化され、放送伝送路250で伝送される。TLVパケットを多重した伝送スロットは、伝送路のTMCC(Transmission and Multiplexing Configuration Control)信号251から、TLVストリーム識別情報(TLV_stream_id)を用いて特定される。
C.放送信号の構成
 図3には、MMT方式に従って放送送出システム11から放送伝送路に送出される放送信号300のイメージを示している。
 1つのサービスの放送信号は、映像、音声、字幕などの放送番組本編に関わる同期型メディアと、データ放送のような非同期型メディアで構成される(但し、1つの放送サービスは、1つのチャンネルすなわち放送番組に対応するものとする)。これらのメディアを符号化したメディア・データは、MPUフォーマットにしてMMTPパケット化され、IPパケットで伝送される。また、メディア・トランスポート方式であるMMTに関わる(放送番組の構成などを示す)制御情報であるMMT-SIも、IPパケットで伝送される。これらのIPパケットは、放送伝送路ではTLVパケットの形式でTLVストリームとして伝送される。IPパケットの多重のためのTLV多重化形式に関わるシグナリング情報(TLV-SI)も、TLVパケットの形式で伝送される。
 MMT方式では、1つの放送サービスを構成する各メディア・データを異なる伝送路の組み合わせで利用することが容易である。図3に示す例では、放送信号300として、映像、音声、字幕、データ放送、放送サービスに関する制御情報(MMT-SI)など、データのタイプ毎のMMT伝送路301~305が利用されている。各MMT伝送路は、それぞれ1つのIPデータ・フローに相当する。ここで言うIPデータ・フローとは、IPヘッダー及びUDPヘッダーの送信元IPアドレス、宛先IPアドレス、IPヘッダーのプロトコル種別、送信元ポート番号、宛先ポート番号の5種類のフィールドの値がすべて同じとなるIPパケットの集合である。
 1つの放送サービスは、映像、音声、字幕、データ放送アプリケーションなどタイプの異なる複数のアセットで構成される「パッケージ」と言うことができる。ここで言う「パッケージ」は、MMT伝送路を使って伝送されるメディア・データの論理集合である。また、「アセット」は、コンポーネントと対応関係がある(映像のアセットは映像コンポーネントに対応し、音声のアセットは音声コンポーネントに対応し、データ放送アプリケーション用のデータ・ファイルのアセットはデータ・ファイルのコンポーネントに対応する)。各アセットは、固有のアセット識別情報(asset_id)で識別される。
 各アセットは、それぞれ同じアセット識別情報を共有する1又はそれ以上のMPUの集合(論理グループ)で構成される。MPUは、MMT方式における伝送単位となるフォーマットである。各MPUは、アセット識別情報と、該当する伝送路上でのMPUのシーケンス番号で特定される。また、各メディアを伝送するMMT伝送路は、アセット識別情報で識別することができる。
 同じ放送サービスに関わる各MPUは、パッケージすなわち放送信号300内のそれぞれのアセットに専用のES(Elementary Stream)すなわちMMT伝送路301~305上で伝送される。図3に示す例では、伝送路301では、映像信号用として共通のアセット識別情報を持つMPU論理グループからなる符号化映像信号のMMTPパケットが伝送される。同様に、伝送路302では音声信号用として共通のアセット識別情報を持つMPU論理グループからなる符号化音声信号のMMTパケットが伝送され、伝送路303では字幕信号用としての共通のアセット識別情報を持つMPUグループからなる符号化字幕信号のMMTPパケットが伝送され、伝送路304-1並びに304-2ではデータ放送アプリケーション用として共通のアセット識別情報を持つMPU論理グループからなる符号化アプリケーションのMMTパケットが伝送される。
 1つのパッケージ(放送番組)内で、タイプが同じ(すなわち、アセット識別情報が異なる)アセットが複数伝送されることもある。例えば、同じ放送番組に対して、2以上のデリバリー・セグメントからそれぞれ独立してデータ放送アプリケーションが提供される場合であり、デリバリー・セグメント毎に異なるアセット識別情報が割り振られて伝送される。より具体的に言えば、番組を制作したキー局から提供される放送番組に連動する番組連動型データ放送アプリケーションと、番組を配信する地方局から提供される放送番組に連動しない番組非連動型データ放送アプリケーション(例えば、天気予報やニュースなど)は、通常、別のアセットとして別々のアセット識別情報が割り振られ、別々のMPU論理グループとして異なるMMT伝送路で伝送される。図3に示す例では、異なるアセット識別情報が割り振れられた2つのデータ放送アプリケーション用として伝送路304-1、304-2が描かれている。
 また、MMT方式は、放送や通信の複数の伝送路に共通に用いることができる。例えば、データ放送(HTML5文書など)のような非同期型メディアは、図3に示したように放送信号300の伝送路304-1や304-2を用いて同じ放送サービスの同期型メディアとともに伝送される以外に、IPネットワークなど通信伝送路(図示しない)を介して提供することもできる。
 伝送路305は、MMT方式におけるシグナリング、すなわち、MMTのパッケージの構成や放送サービスに関連する情報を示す制御情報であるMMT-SIの伝送に使用される。伝送路305では、MMT-SIを含んだMMTメッセージがMMTPパケット化され、カルーセル方式により繰り返し伝送される。なお、図3では、TLV-SI用の伝送路の図示を省略している。
 MMT-SIには、メッセージ、テーブル、記述子がある。伝送路305又は306で伝送されるMMTメッセージとして、PA(Package Access)メッセージ310、M2セクション・メッセージ320、データ伝送メッセージ330を挙げることができる。
 PAメッセージ310は、放送番組の構成などを示す制御情報であり、アセットのリストやその位置などパッケージを構成する情報を記述するMP(MMT Package)テーブル311を格納するコンテナーである。
 MP(MMT Package)テーブル311は、放送サービス単位の基本的な受信制御情報を示すテーブルであり、具体的には、アセットのリストや、アセットのロケーション情報など、パッケージを構成する情報を与える。また、MPテーブル311は、アプリケーション・サービス記述子などのMPT記述子を含む。アプリケーション・サービス記述子は、データ放送アプリケーションの運用に必要又は重要な制御情報のロケーション情報(例えば、データ伝送メッセージ、MH-AIT及びEMTをそれぞれ伝送する各M2セクション・メッセージのロケーション情報)を示す。
 PAメッセージ310は、放送サービスのエントリー・ポイントであり、PAメッセージ310を伝送するMMTPパケットには、固定のパケット識別情報(例えば、0x0000)が割り当てられている。したがって、受信機側では、MMT伝送路304上で、上記固定のパケット識別情報を直接指定してPAメッセージ310を取得することができる。そして、PAメッセージ310で伝送されるMPテーブル311を参照して、パッケージ(放送番組)を構成する各アセット(映像、音声、字幕、データ放送の各ロケーション情報を間接指定することができる。
 なお、図3では省略したが、PAメッセージ310に格納されるテーブルとして、MPテーブル以外に、PL(Package List)テーブル(PLT)、LC(Layout Configuration)テーブル(LCT)を挙げることができる。PLTは、放送サービスとして提供されるMMTパッケージのPAメッセージを伝送するIPデータ・フロー及びパケットID並びにIPサービスを伝送するIPデータ・フローの一覧を示す。また、LCTは、提示のためのレイアウト情報をレイアウト番号に対応付けるために用いる。PAメッセージは、MPテーブル、PLテーブル、LCテーブルという最大3つのテーブルを格納することができるコンテナーである。
 M2セクション・メッセージ320は、MPEG-2 Systemsのセクション拡張形式を伝送するメッセージであり、セクション形式のシグナリング・テーブルを1つずつ格納するコンテナーである。M2セクション・メッセージ320内には、MH-AIT(Application Information Table)321や、EMT(Event Message Table)322といったテーブルが1つずつ格納される。
 MH-AIT321は、アプリケーションに関する動的制御情報及び実行に必要な付加情報を指定するテーブルであり、具体的には、MMT伝送路で送られてくる各データ放送アプリケーション(ファイル・データ)の処理方法(アプリケーションに適用される起動状態など)、並びに、各データ放送アプリケーションのロケーション情報(URL:Uniform Resource Locator)を指定する。アプリケーションの処理方法として、アプリケーションの自動起動を示すAUTOSTART(AS)、アプリケーションが実行可能の状態であることを示すPRESENT(PR)、アプリケーションの終了を示すKILL、アプリケーションの取得及び保持(事前キャッシュ)を示すPREFETCH(PF)を挙げることができる。
 EMT322は、イベント・メッセージ伝送方式に用いるシグナリング・テーブルであり、イベント・メッセージ(放送局から受信機上のアプリケーションに対する同期・非同期のメッセージ)に関する情報(イベント・メッセージ記述子)を格納する。イベント・メッセージ伝送方式は、放送局から受信機で動作しているデータ放送アプリケーションに対して、即座にあるいは指定した時刻に、メッセージ情報を送る手段を提供する。
 データ伝送メッセージ330は、データ放送アプリケーションの伝送に関する制御情報を伝送するためのメッセージである。データ伝送メッセージ530は、データ・ディレクトリー管理テーブル(Data Directory management Table:DDMT)331、データ・アセット管理テーブル(Data Asset Management Table:DAMT)332、データ・コンテンツ管理テーブル(Data Content Configuration Table:DCCT)333という、最大3つのテーブルを同時に格納することができるコンテナーである。データ・ディレクトリー管理テーブル及びデータ・アセット管理テーブルはデータ放送サービスに必須であるが、データ・コンテンツ管理テーブルは任意である。
 ここで、データ・ディレクトリー管理テーブル331は、ディレクトリー単位(言い換えれば、データ放送アプリケーションの制作単位)でデータ放送アプリケーションを管理するためのテーブルである。同テーブル内は、1つのパッケージに含まれるアイテム(ディレクトリー並びにディレクトリーに含まれるサブディレクトリーやファイル)に関するディレクトリー構造を記述しているので、アプリケーションのファイル構成とファイル伝送のための構成を分離することができる。同テーブルは、ディレクトリーやファイルなどの各ノードのパス名と、データ伝送メッセージ内で各ノードを識別するノード・タグとの対応関係を示している。
 また、データ・アセット管理テーブル332は、アセット単位でデータ放送アプリケーションを管理するためのテーブルであり、アセット内のMPUの構成とのMPU毎のバージョン情報を記述している。具体的には、同テーブルは、各コンポーネントのダウンロード識別情報や、コンポーネントを伝送する各MPUに含まれるノード(ファイル又はディレクトリー)をデータ伝送メッセージ内で識別するノード・タグとMMT伝送路上でノードを識別するアイテム識別情報との対応関係を示している。
 また、データ・コンテンツ管理テーブル333は、提示単位(Presentation Unit:PU)毎にデータ放送アプリケーションを管理するためのテーブルである。同テーブルは、データ放送アプリケーションを提示単位毎に識別する提示単位識別情報と、各提示単位に含まれるノード(ファイル又はディレクトリー)をデータ伝送メッセージ内で識別するノード・タグを示している。また、同テーブルは、提示単位にリンクする提示単位を識別するリンク先提示単位識別情報や、各提示単位のキャッシュ制御に関する情報を含めることができ、受信機側ではデータ放送アプリケーション用のファイル・データの柔軟で有効なキャッシュ制御に利用することができる。
 MMTによるデータ放送アプリケーションの伝送方式において、データ伝送メッセージで伝送する上記3種類のシグナリング・テーブル331~333を活用することにより、ファイル単位の伝送データ構造やコンテンツ(データ放送アプリケーション)制作におけるディレクトリー構造とは独立して、アプリケーション単位、提示単位といった利用単位のデータ構造を表現することができる。各シグナリング・テーブル331~333の構成は、ARIB STD B-60で規定されている。
 MMT-SIとして伝送されるメッセージやテーブルのパケット識別情報は、固定されているものや、他のテーブルから間接指定されるものがある。このうち、PAメッセージは、放送サービスのエントリー・ポイントであり、固定のパケット識別情報(例えば、0x0000)が割り当てられている。PAメッセージで伝送されるMPテーブルでは、パッケージ(放送番組)を構成する各アセット(映像、音声、字幕、データ放送アプリケーションなど)のアセット識別情報とロケーション情報を示している。したがって、受信機側では、MMT伝送路上で、上記固定のパケット識別情報を直接指定してPAメッセージを取得することができる。そして、図4に示すように、PAメッセージで伝送されるMPテーブルを参照して、放送サービスに関連する各アセット(映像、音声、字幕、データ放送アプリケーションなど)や他のシグナリング・メッセージを間接的に指定することができる。なお、MPテーブルは、映像及び音声以外の各アセットに対して、データ符号化方式を識別するために、MH-データ符号化方式記述子を配置する。
 図5には、MPテーブルのコンテナーとなるPAメッセージのシンタックス例500を示している。以下、PAメッセージの各パラメーターについて説明する。
 message_idは、各種シグナリング情報において、PAメッセージを識別する16ビットの固定値である。versionは、PAメッセージのバージョンを示す、8ビットの整数値のパラメーターである。例えばPAメッセージを構成する一部のパラメーターでも更新した場合には、versionは+1だけインクリメントされる。lengthは、このフィールドの直後からカウントされる、当該PAメッセージのサイズをバイト単位で示す、32ビット長のパラメーターである。
 extensionフィールドには、ペイロード(message_payload)のフィールドに配置されるテーブルの属性情報が配置される。具体的には、number_of_tableフィールドには当該PAメッセージに格納するテーブルの数を示し、続くテーブルのインデックス情報のループでは、格納する各テーブルの属性情報として、8ビットのテーブル識別情報(table_id)と、8ビットのテーブル・バージョン(table_version)と、16ビットのテーブル長(table_length)が配置される。table_idは、テーブルを識別する固定値である。table_versionは、テーブルのバージョンを示す。table_lengthは、テーブルのサイズをバイト単位で示す。
 PAメッセージのmessage_payloadフィールドには、参照番号501で示すように、number_of_tablesで示される数分だけテーブル格納領域が配置される。このフィールドに格納されるMPテーブルは、すべてのアセットのリストを含むパッケージに関連する情報を示す。なお、MPテーブルの他にも、LC(Layoput Configuration)テーブルやPL(Package List)テーブルもPAメッセージのテーブル格納領域に格納されるが、これらは本明細書で開示する技術に直接関連しないので、詳細な説明は省略する。
 図6には、MPテーブルのシンタックス例600を示している。以下、MPテーブルの各パラメーターについて説明する。
 table_idは、当該テーブルがMPテーブルであることを識別する8ビットの固定値(0x20)である。versionは、MPテーブルのバージョン番号を示す8ビットの整数値である。例えば、MPテーブルを構成する一部のパラメーター(記述子)でも更新した場合には、versionは+1だけインクリメントされる。lengthは、このフィールドの直後からカウントされる、MPテーブルのサイズをバイト単位で示す、32ビット長のパラメーターである。また、MPT_modeは、このMPテーブルがサブセットに分割されているときの動作を示す。
 MMT_package_id_lengthは、パッケージ識別情報(MMT_package_id)のテキスト情報のサイズをバイト単位で示す。続くパッケージ識別情報のループでは、MMT_package_idをバイト単位(MMT_package_id_byte)でパッケージ識別情報を示す。パッケージ識別情報は、放送信号(IPデータ・フロー)で伝送されるすべての信号(映像、音声、字幕)、並びにファイル・データなどのアセットをコンポーネントとする全体のパッケージとしての識別情報である。この識別情報は、テキスト情報であり、上位16ビットはサービスを識別するためのサービス識別情報と同じ値とする。
 MPT_descriptor_lengthは、MPテーブル記述子領域のサイズをバイト単位で示す。MPテーブル記述子のループでは、MPテーブル記述子の内容をバイト単位(MPT_descriptors_byte)で記述する。MPT記述子には、対応する放送サービス(パッケージ)全体の受信制御に関わる基本的な情報が記述される。
 number_of_assetsは、放送サービス(パッケージ)を構成する要素としてのアセット(信号、ファイル)の数を示す、8ビットのパラメーターである。number_of_assetの数分だけ、アセット情報のループが配置される。1つのアセット情報のループ内には、個々のアセットの情報としてのアセット識別情報(asset_id)と、一般ロケーション情報(MMT_general_location_info)と、アセット記述子(asset_descriptor)の各パラメーターが配置される。アセット情報のループ内に配置される情報について、以下に説明しておく。
 identifier_typeは、MMTPパケット・フローのID体系を示す。アセット識別情報(asset_id)を示すID体系であれば0x00とする。asset_id_schemeは、アセット識別情報の形式を示す。asset__id_lengthは、アセット識別情報のテキスト情報のサイズをバイト単位で示す。続くアセット識別情報のループでは、アセット識別情報をバイト単位(asset_id_byte)で示す。
 asset_typeは、アセットの種類(映像、音声、文字スーパー・字幕、アプリケーションなど)を32ビット長の文字列で示す。asset_clock_relation_flagは、アセットのクロック情報フィールドの有無を示すフラグである。当該フラグが1のときは、クロック情報識別フィールド(asset_clock_relation_id)とタイムスケール・フラグ・フィールド(asset_timescale_flag)が存在し、0のときはこれらのフィールドは存在しない。location_countは、アセットのロケーション情報の数を示し、続くlocation_countの数だけ繰り返されるロケーション情報のループでは、該当するアセットのロケーション情報であるMMT_general_location_infoが示される。
 asset_typeは、アセットの種類(映像、音声、文字スーパー・字幕、アプリケーションなど)を32ビット長の文字列で示す。asset_type(文字)が表すアセットの種類を、以下に表1に示しておく。
Figure JPOXMLDOC01-appb-T000001
 asset_clock_relation_flagは、アセットのクロック情報フィールドの有無を示すフラグである。当該フラグが1のときは、クロック情報識別フィールド(asset_clock_relation_id)とタイムスケール・フラグ・フィールド(asset_timescale_flag)が存在し、0のときはこれらのフィールドは存在しない。location_countは、アセットのロケーション情報の数を示し、続くlocation_countの数だけ繰り返されるロケーション情報のループでは、該当するアセットのロケーション情報であるMMT_general_location_infoが示される。アセットのロケーション情報は、アセットの取得先となるMMT伝送路上のパケット識別情報(packet_id:PID)の形式で記述される。したがって、MPテーブル上でアセット識別情報を引いて、MMT伝送路(IPデータ・フロー)上の該当するパケット識別情報を取り出すことができる(図4を参照のこと)。
 asset_descriptor_lengthは、アセット記述子(asset_descriptor)のテキスト情報のサイズをバイト単位で示す。続くアセット記述子のループでは、アセット毎の記述子の内容をバイト単位(asset_descriptors_byte)で示す。アセット情報のループ(MPテーブルの第2ループ)内に配置されるアセット記述子として、データ符号化方式を識別するために使用する「MH-データ符号化方式記述子」や、MPUの提示時刻を提供する「MPUタイムスタンプ記述子」、MPU内のアクセス・ユニットの復号時刻などを提供する「MPU拡張タイムスタンプ記述子」、アセットのグループ関係とグループ内での優先度を提供する「アセット・グループ記述子」、MPUの提示位置を提供する「MPU提示領域指定記述子」、依存関係にあるアセットのアセットIDを提供する「依存関係記述子」を挙げることができる。
D.本明細書で開示する技術の骨子
 本明細書で開示する技術では、字幕信号を用いて緊急情報の通知を行なう。緊急情報を通知するために使用する字幕信号のことを、以下では「緊急字幕信号」とも呼ぶ。
 放送事業者(放送局)は、緊急告知期間において、通常の字幕信号とは別に緊急字幕信号を伝送する。また、放送事業者は、緊急字幕の制御情報として、通常の字幕と統合した制御データにおいて、字幕信号の字幕タイプが緊急字幕であることをさらに示すようにする。また、字幕タイプを緊急字幕に指定した制御データにおいて、緊急字幕の表示領域のサイズ情報を指定し、さらに緊急字幕を表示する対象地域に関する情報を指定するようにする。
 受信機側では、字幕信号の制御データを参照して、字幕タイプが緊急字幕であることを検知すると、指定されたサイズ情報に従って放送映像及び通常字幕を表示する画面を縮小スケーリングして、空いた領域に緊急字幕を表示する。このようにして、緊急告知の要件(1)として前述した「緊急情報の字幕は、速やかに、見易い位置に表示できること」、並びに、要件(2)として前述した「指定により、放送番組の映像や放送番組に連動するアプリケーションなどの表示と重ならない位置に表示できること」を実現することができる。
 また、受信機は、緊急字幕の制御データで指定された対象地域である場合に限り、上記の緊急字幕の表示動作を実施するようにすることで、緊急告知の要件(3)として前述した「緊急情報の字幕を、緊急告知の対象となる地域のみに限定して表示すること」を実現することができる。
 字幕・文字スーパー伝送方式を用いて伝送される字幕並びに文字スーパーの各々に対して、MPテーブルでMH-データ符号化方式記述子を配置して(前述並びに図4を参照のこと)、data_component_idが割り当てられる。本実施形態では、緊急字幕信号に対して配置されるMH-データ符号化方式記述子内に格納される付加識別情報で、対応する字幕信号の字幕タイプが緊急字幕であることを示す情報、並びに、緊急字幕の表示領域のサイズや対象地域といった緊急字幕の制御情報を指定するようにしている。
 ここで、字幕信号の伝送方式について、簡単に説明しておく。なお、文字スーパー信号の伝送方式も同様であるが、本明細書で開示する技術に直接関連しないので、以下では言及しない。
 字幕信号の伝送に関する制御情報はMPテーブルにより伝送される。ある時間範囲に提示するTTML(Time Text Markup Language)文書ファイルを含む一連のファイルを同期型MPUにカプセル化して伝送する。字幕信号を取得する概要は、図4を参照しながら既に説明した通りである。
 受信機は、MPテーブルを参照して、字幕信号を伝送するアセットの有無を検知する。字幕が伝送される場合、アセット・タイプがstppであるアセットが存在し(表1を参照のこと)、MH-データ符号化方式記述子には字幕信号に関する付加識別情報が記述される。また、受信機は、MPテーブルを参照することで、アセットのロケーション情報を識別し、字幕信号を伝送するアセットのパケット識別情報を特定する(図4を参照のこと)。そして、特定されたパケット識別情報のアセット内で伝送されるMPU内のデータを展開して、字幕として送られたファイルを取得することができる。
 字幕信号は、MMT規格にて定義される同期型MPUを用いて伝送される。字幕信号の処理では、MPUが処理の単位となる。MPUは、ある時間範囲に提示するTTML文書ファイル、画像ファイル、音声ファイル、外字ファイルのデータを含み、MPU単位で字幕の提示処理を行なうことができる。
 図7には、字幕信号のMPU及びMFUの構成例を模式的に示している。図示のように、字幕信号のMPUは、1以上のMFUで構成される。MFUは、字幕サンプル・ヘッダー部と、サブサンプル・データ部で構成される。MPU中の先頭のMFUには必ずTTML文書が配置され、TTML文書から参照する外部リソースがある場合には、後続のMFUに外部リソースのファイルがサブサンプルとして配置される。TTML文書、画像ファイル、音声ファイル、外字ファイルは、それぞれ1つのMFUのサブサンプルとして格納される。字幕タイプが緊急字幕の場合も同様の構成であるものとする。
 図8には、MPテーブルの第2ループに配置されるMH-データ符号化方式記述子のシンタックス例800を示している。MH-データ符号化方式記述子は、字幕など、映像及び音声以外のアセットに対して、データ符号化方式を識別するために使用されるアセット記述子である。以下、MH-データ符号化方式記述子の各パラメーターについて説明する。
 descriptor_tagは、当該記述子がイベント・メッセージ記述子であることを識別する16ビットの固定値を示す。descriptor_lengthは、このフィールドの直後から記述子の末尾までのバイト長を示す8ビットのフィールドである。
 参照番号801で示すdata_component_idは、データの符号化方式を識別するのに使用される、16ビット長のフィールドである。このフィールド値の割り当て例を、以下の表2に示しておく。
Figure JPOXMLDOC01-appb-T000002
 参照番号802で示すadditional_data_component_infoは、識別子番号の拡張、又は、符号化方式毎に規定される付加識別情報の格納に使用される、8ビットのフィールドである。この領域に記述される情報のデータ構造は、データ符号化方式毎に規定される。
 図9には、MPテーブルに配置されるMH-データ符号化方式記述子に格納される、字幕・文字スーパー伝送方式の付加識別情報の構成例900を示している。以下、付加識別情報の各パラメーターについて説明する。
 subtitle_tag(字幕識別タグ)は、字幕・文字スーパーのストリームを識別するためのラベルである。subtitle_info_version(字幕情報バージョン)は、字幕・文字スーパーの付加識別情報のバージョンを示す。
 start_mpu_sequence_number_flag(開始MPUシーケンス番号フラグ)は、後続のstart_mpu_sequence_numberフィールドを配置する場合に「1」、配置しない場合に「0」とする。
 ISO_639_language_code(言語コード)は、字幕識別タグで識別される言語に対する言語コードをISO639-2で規定されるアルファベット3文字コードで表す24ビットのフィールドである。
 参照番号901で示すtype(字幕タイプ)は、字幕・文字スーパーの区別を、以下の表3に従って示す。本実施形態では、typeが「10」で緊急字幕であることを示すという点に十分留意されたい。
Figure JPOXMLDOC01-appb-T000003
 subtitle_format(字幕記述方式識別)は、字幕及び文字スーパーの記述方式をバージョンやプロファイルなども含めて指定する。
 OPM(動作モード)は、字幕伝送及び符号化を含むシステム全体の動作モードを示す。動作モードの意味を以下の表4に示す。緊急字幕ではOPM=00(ライブモード)で固定とする。
Figure JPOXMLDOC01-appb-T000004
 TMD(時刻制御モード)は、受信再生時の時刻制御モードを示し、MPUに付加されるMPUタイムスタンプ、TTML文書内に記述されるタイムコードあるいはその他の情報により提示時刻を指定する。時刻制御モードの意味を以下の表5に示す。緊急字幕ではTMD=1111(時刻指定なし)で固定とする。
Figure JPOXMLDOC01-appb-T000005
 DMF(表示モード)は、字幕分の表示モードを、受信時及び記録再生時の提示動作を各2ビットで表す。表示モードの意味を以下の表6に示す。緊急字幕ではDMF=0010(受信時自動表示/記録再生時自動非表示)で固定とする。
Figure JPOXMLDOC01-appb-T000006
 resolution(表示解像度)は、字幕表示画面の表示解像度の初期状態を示す。compresstion_type(圧縮方式)は、字幕データの圧縮方式を示す。圧縮する対象となる字幕データは、伝送されるサンプルデータのうち1つ目に配置されるTTML文書のみである。
 start_mpu_sequence_number(開始MPUシーケンス番号)は、start_mpu_sequence_number_flag(開始MPUシーケンス番号フラグ)により本記述子が有効と設定されている場合に、字幕・文字スーパーの最初のMPUシーケンス番号を示す。
 reference_start_time(参照開始時刻)は、TMD(時刻制御モード)が0010すなわちTTML記述(参照開始時刻起点)に設定されている場合に、TTML文書内のタイムコードの起点となるUTC(Coordinated Universal Time:協定世界時)時刻をNTP長形式で示す。
 字幕タイプとして緊急字幕(type=10)が指定されている場合には、該当する字幕アセットに対して、上記の通常のパラメーターに加え、参照番号902で示すように、緊急字幕のための制御情報としての緊急字幕付加情報emergency_caption_control_infoを示す。
 図10には、字幕タイプとして緊急字幕を指定した場合の付加識別情報で指定される緊急字幕付加情報のシンタックス例1000を示している。以下、緊急字幕付加情報の各パラメーターについて説明する。
 参照番号1001で示すdisplay_area_sizeは、放送全画面に緊急字幕を配置する表示する場所と大きさを、ピクセル数で指定する。受信機側では、放送画面を縮退させて、display_area_sizeで指定された場所に、指定された大きさの緊急字幕の表示領域を確保する。したがって、パラメーターdisplay_area_sizeにより、緊急告知の要件(1)として前述した、「緊急情報の字幕は、速やかに、見易い位置に表示できること」、及び、要件(2)として前述した「放送番組の映像や放送番組に連動するアプリケーションなどの表示と重ならない位置に表示できること」を実現することができる。
 参照番号1002で示すregion_spec_typeは、後続のtarget_region_spec()構造体における地域記述の方式を指定し、以下の表7に従って符号化される。なお、すべての地域を対象とする場合(言い換えれば、地域フィルタリングしない場合)は、region_spec_typeをオール‘1’に設定する。
Figure JPOXMLDOC01-appb-T000007
 参照番号1003で示すtarget_region_specは、地域記述方式指定毎に指定される地域指定のためのデータ構造を示す。図11には、県域指定の地域指定子のシンタックス1100を示している。prefecture_bitmapは、各ビット位置に該当する地域が(緊急メッセージの)対象であるか否かを1と0で示す、55ビットのビットマップである。
 各パラメーターregion_spec_type及びtarget_region_specにより、緊急告知の要件(3)として前述した、緊急告知の対象となる地域のみに限定した緊急告知動作を実現することができる。
 なお、図8~図10に示したようなシグナリングは、緊急字幕の表示だけでなく、アウトスクリーン字幕の表示にも適用可能であるという点を、十分理解されたい。
 図12には、通常の字幕信号の制御情報(MH-データ符号化方式記述子)に緊急字幕信号に関する情報を統合して送信する放送送出システム11の構成例を示している。図示の放送送出システム11は、時計部1201と、信号送出部1202と、ビデオ・エンコーダー1203と、オーディオ・エンコーダー1204と、字幕/文字スーパー・エンコーダー1205と、シグナリング・エンコーダー1206と、ファイル・エンコーダー1207と、電子データ処理システム(Electronic Data Processing System:EDPS)1208と、TLVシグナリング・エンコーダー1209と、IPサービス・マルチプレクサー(MUX)1210と、TLVマルチプレクサー(MUX)1211と、変調・送信部1212を備えている。
 時計部1201は、NTPサーバー(図示しない)から取得した時刻情報に同期した時刻情報を生成し、この時刻情報を含むIPパケットをIPサービス・マルチプレクサー1210に送る。
 信号送出部1202は、例えばTV放送局のスタジオやVTRなどの記録再生機であり、同期型メディアである映像、音声、字幕及び文字スーパーなどのストリーム・データや、非同期型メディアであるデータ放送アプリケーションをそれぞれ、ビデオ・エンコーダー1203、オーディオ・エンコーダー1204、字幕/文字スーパー・エンコーダー1205、ファイル・エンコーダー1207に送る。また、緊急告知期間において、信号送出部1202が緊急字幕のストリーム・データを字幕/文字スーパー・エンコーダー1205に送出する。
 電子データ処理システム1208は、TV放送局のスケジューラー並びにファイルの供給源である。電子データ処理システム1208は、非同期型メディアであるデータ放送アプリケーションをファイル・エンコーダー1207に送る。また、電子データ処理システム1208は、放送サービスの構成などを示す制御情報をシグナリング・エンコーダー1206に送る。また、電子データ処理システム1208は、緊急告知期間において、緊急字幕に関する制御情報をシグナリング・エンコーダー1206に送る。また、電子データ処理システム1208は、IPパケットの多重に関する制御情報をTLVシグナリング・エンコーダー1209に送る。
 ビデオ・エンコーダー1203は、信号送出部1202から送出される映像信号をHEVC符号化し、さらにパケット化して、映像信号のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー1210に送る。また、オーディオ・エンコーダー1204は、信号送出部1202から送出される音声信号をAAC符号化し、さらにパケット化して、音声信号のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー1210に送る。また、字幕/文字スーパー・エンコーダー1205は、信号送出部1202から送出される字幕信号及び文字スーパー信号を符号化し、さらに提示処理の単位でMPUを生成して、字幕のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー1210に送る。
 放送送出システム11が複数の放送サービスを送信する場合、放送サービス毎に映像信号のHEVC符号化、音声信号のAAC符号化、及び字幕/文字スーパーの符号化処理が行なわれ、それぞれの放送サービスに対応するIPサービス・マルチプレクサー1210に送られる。
 シグナリング・エンコーダー1206は、電子データ処理システム1208から送出される情報に基づいて、放送番組の構成などを示す制御情報(MMT-SI)を生成し、ペイロード部にMMT-SIが配置されたMMTパケットを含むIPパケットをIPサービス・マルチプレクサー1210に送る。MMT-SIには、メッセージ、テーブル、記述子がある(前述)。シグナリング・エンコーダー1206は、放送サービス単位のMMT-SIを生成する他、放送サービス横断のMMT-SIを生成する。また、シグナリング・エンコーダー1206は、緊急告知期間に電子データ処理システム1208から供給される緊急字幕に関する制御情報に基づいて、MPテーブルの緊急字幕に関する第2ループ内に配置するMH-データ符号化方式記述子の付加識別情報で、字幕タイプを緊急字幕に指定するとともに、緊急字幕の表示領域や対象地域に関する情報を指定し、このMPテーブルをPAメッセージに格納して、シグナリング・エンコーダー1206に送る。
 ファイル・エンコーダー1207は、信号送出部1202又は電子データ処理システム1208から送出されるデータ放送アプリケーションをHTML5形式のデータ・ファイルに符号化し、さらにパケット化して、このMMTパケットを含むIPパケットをIPサービス・マルチプレクサー1210に送る。
 放送送出システム11は、送出する放送チャンネル(放送サービス)毎に、複数のIPサービス・マルチプレクサー1210―1、…、1210-Nを装備する。放送サービス毎のチャンネルのIPサービス・マルチプレクサー1210は、各エンコーダー1203~1207から送られてくる映像、音声、字幕、(放送サービス単位)MMT-SI、及びデータ放送アプリケーションの各々を含むIPパケットをマルチプレクスして、放送サービス単位の放送信号、並びに、放送サービス横断のMMT-SIを含んだTLVパケットを生成する。
 TLVシグナリング・エンコーダー1209は、電子データ処理システム1208から送出される情報に基づいて、上記のIPパケットの多重に関する制御情報(TLV-SI)をペイロード部に配置するTLVパケットを生成する。
 TLVマルチプレクサー1211は、各IPサービス・マルチプレクサー1210-1~1210-N及びTLVシグナリング・エンコーダー1209で生成されるTLVパケットをマルチプレクスして、TLVストリーム識別情報で識別されるTLVストリームを生成する。
 変調・送信部1212は、TLVマルチプレクサー1211で生成されたTLVストリームに対してRF変調処理を行なって、放送伝送路に送出する。
 図12に示した放送送出システム11の動作について説明しておく。
 時計部1201では、NTPサーバー(図示しない)から取得した時刻情報に同期した時刻情報が生成され、この時刻情報を含むIPパケットが生成される。
 信号送出部1202から送出される映像信号は、ビデオ・エンコーダー1203に供給される。ビデオ・エンコーダー1203では、映像信号がHEVC符号化され、さらにパケット化されて、HEVC符号化映像信号のMMTパケットを含むIPパケットが生成される。このIPパケットは、IPサービス・マルチプレクサー1210に送られる。
 また、信号送出部1202から送出される音声信号並びに字幕及び文字スーパー信号に対しても、同様の処理が行なわれる。すなわち、オーディオ・エンコーダー1204で生成されるAAC符号化音声信号のMMTパケットを含むIPパケットがIPサービス・マルチプレクサー1210に送られるとともに、字幕/文字スーパー・エンコーダー1205で生成される字幕符号化信号のMMTパケットを含むIPパケットがIPサービス・マルチプレクサー1210に送られる。また、緊急告知期間において、信号送出部1202から緊急字幕のストリーム・データが創出され、字幕/文字スーパー・エンコーダー1205で通常の字幕信号と同様にIPパケット化されてIPサービス・マルチプレクサー1210に送られる。
 また、シグナリング・エンコーダー1206では、電子データ処理システム1208から送出される情報に基づいて放送番組の構成などを示す制御情報(MMT-SI)が生成され、ペイロード部にこのMMT-SIが配置されたMMTパケットを含むIPパケットが生成される。緊急告知期間には、シグナリング・エンコーダー1206では、電子データ処理システム1208から供給される緊急字幕に関する情報に基づいて、MPテーブルの緊急字幕に関する第2ループ内に配置するMH-データ符号化方式記述子の付加識別情報で、字幕タイプが緊急字幕に指定されるとともに、緊急字幕の表示領域や対象地域に関する情報が指定され、このMPテーブルを格納したPAメッセージを含むIPパケットが生成される。これらのIPパケットは、IPサービス・マルチプレクサー1210に送られる。
 また、信号送出部1202又は電子データ処理システム1208から送出されるデータ放送アプリケーションは、ファイル・エンコーダー1207に供給される。ファイル・エンコーダー1207では、データ放送アプリケーションが例えばHTML5形式に符号化され、さらにパケット化され、このMMTパケットを含むIPパケットが生成される。このIPパケットは、IPサービス・マルチプレクサー1210に送られる。
 各IPサービス・マルチプレクサー1210では、各エンコーダー1203~1207から送られてくる映像、音声、字幕、(放送サービス単位及びサービス横断の)MMT-SI、及びデータ放送アプリケーション(HTML5文書)の各々を含むIPパケットがマルチプレクスされて、1つのチャンネルを構成するTLVパケットが生成される。
 TLVシグナリング・エンコーダー1209では、電子データ処理システム1208から送出される情報に基づいて、上記のIPパケットの多重に関する制御情報(TLV-SI)をペイロード部に配置するTLVパケットが生成される。
 TLVマルチプレクサー1211では、各IPサービス・マルチプレクサー1210-1~1210-N及びTLVシグナリング・エンコーダー1209で生成されるTLVパケットがマルチプレクスされて、TLVストリームが生成される。変調・送信部1212では、TLVマルチプレクサー1211で生成されたTLVストリームに対してRF変調処理が行なわれ、そのRF変調信号が放送伝送路に送出される。
 図13には、放送送出システム11からの放送信号を受信する受信機12の構成例を示している。図示の受信機12は、チューナー・復調部1301と、MMTデマルチプレクサー(DEMUX)1302と、時計回復部1303と、ビデオ・デコーダー1304と、オーディオ・デコーダー1305と、文字スーパー・デコーダー1306と、字幕デコーダー1307と、緊急字幕デコーダー1308と、マルチメディア(MM)キャッシュ1309と、SIキャッシュ1310と、放送システム制御部1311と、通信インターフェース(IF)1312と、アプリケーション(App)・エンジン1313と、スケーラー1314と、合成部1315~1318と、スケーラー1319と、合成部1320とを備えている。
 チューナー・復調部1301は、放送信号を選局受信し、復調処理を行なって、TLVストリームを得る。MMTデマルチプレクサー1302は、このTLVストリームに対して、デマルチプレクス処理及びデパケット化処理を行なう。本実施形態では、デマルチプレクサー1302は、パケット・フィルター1302-1とSIフィルター1302-2を備えている。
 パケット・フィルター1302-1は、TLVストリーム識別情報及びIPアドレスに基づいてIPパケットのフィルタリングを行ない、さらにMMTPヘッダー内の情報に基づいて、IPパケットからMMTPパケットをフィルタリングして、映像、音声、字幕、並びにマルチメディア(データ放送アプリケーション)の各符号化コンポーネント、及びシグナリング情報を乗せたMMTPパケットを、それぞれビデオ・デコーダー1304、オーディオ・デコーダー1305、文字スーパー・デコーダー1306、字幕デコーダー1307、緊急字幕デコーダー1308、マルチメディア(MM)キャッシュ1309、並びにSIフィルター1302-2に振り分ける。MPテーブルでは、映像及び音声以外のアセットに対して第2ループでMH-データ符号化方式記述子(図8を参照のこと)が配置され、同記述子の付加識別情報で字幕タイプが指定されている(前述並びに図9を参照のこと)。字幕タイプ値が「00」(通常の字幕)であれば字幕デコーダー1307に振り分けられ、字幕タイプ値が「01」(文字スーパー)であれば文字スーパー・デコーダー1306に振り分けられ、字幕タイプ値が「10」(緊急字幕)であれば緊急字幕デコーダー1308に振り分けられる。また、SIフィルター1302-2は、シグナリング情報SIをフィルタリングして、SIキャッシュ1310にキャッシュする。
 時計回復部1303は、MMTデマルチプレクサー1302内のパケット・フィルター1302-1でフィルタリングされたNTPパケットに含まれる現在時刻の情報に基づいて、この時刻情報に同期した時刻情報を生成して、各同期型メディアをデコードするにビデオ・デコーダー1304、オーディオ・デコーダー1305、文字スーパー・デコーダー1306、字幕デコーダー1307、緊急字幕デコーダー1308にそれぞれ出力する。
 ビデオ・デコーダー1304は、MMTデマルチプレクサー1302で得られる符号化映像信号をデコードして、ベースバンドの映像信号を得る。また、オーディオ・デコーダー1305は、MMTデマルチプレクサー1302で得られる符号化音声信号をデコードして、ベースバンドの音声信号を得る。また、文字スーパー・デコーダー1306並びに字幕デコーダー1307は、MMTデマルチプレクサー1302で得られる文字スーパー及び通常の字幕符号化信号をそれぞれデコードして、文字スーパー及び通常の字幕の表示信号をそれぞれ得る。また、緊急字幕デコーダー1308は、MMTデマルチプレクサー1302で得られる緊急字幕信号をデコードして、緊急字幕の表示信号を得る。
 放送システム制御部1311は、SIキャッシュ1310にキャッシュされているMMT-SIに基づいて、受信機12全体の放送サービス受信動作を制御する。例えば、放送システム制御部1311は、MMT-SI(MH-AIT)を解析して、デフォルト・エントリーに設定されているデータ放送アプリケーションを見つけると、アプリケーション・エンジン1313に対してデータ放送の提示処理を指示する。
 アプリケーション・エンジン1313は、例えばHTMLブラウザーなどであり、マルチメディア・キャッシュ1309にキャッシュされているデータ放送アプリケーション(HTML5文書など)の処理を行なって、データ放送の表示信号並びに音声信号を生成する。また、アプリケーション・エンジン1313は、データ放送の表示に必要なデータ・ファイル(データ放送の表示に使用するメディア・データや、リンク先のアプリケーションなど)を、通信インターフェース1312経由でIPネットワークから取得することもできる。
 スケーラー1314は、ビデオ・デコーダー1304でデコードされた映像信号(放送映像)を、受信機12の画面サイズに応じてスケーリング処理する。
 合成部1315は、オーディオ・デコーダー1305でデコードされた音声信号と、アプリケーション・エンジン1313が再生したデータ放送用の音声信号を合成して、出力用の音声信号を生成する。
 合成部1316は、文字スーパー・デコーダー1306がデコードした文字スーパー表示と、字幕デコーダー1307がデコードした通常の字幕表示を合成する。また、合成部1317は、スケーラー1314でスケーリング処理された放送映像と、アプリケーション・エンジン1313が生成したデータ放送の表示信号を合成する。さらに後段の合成部1318は、データ放送の表示が重畳された放送映像と、合成部1316から出力される文字スーパー表示及び通常の字幕表示とを合成する。
 スケーラー1319は、MPテーブルの第2ループのMH-データ符号化方式記述子(図8を参照のこと)の付加識別情報(図9を参照のこと)に挿入されている緊急字幕付加情報(図10を参照のこと)で指定されている表示領域情報(display_area_size)に従って、合成部1318から出力される放送映像に対し、緊急字幕表示のためのスケーリング処理を行なう。
 合成部1320は、スケーラー1319でスケーリング処理された放送映像に、緊急字幕デコーダー1308から出力される緊急字幕を合成して、出力用の映像信号を生成する。
 図13に示した受信機12の動作について説明しておく。
 チューナー・復調部1301では、放送信号が受信され、復調処理が行なわれて、TLVストリームが得られる。MMTデマルチプレクサー1302では、このTLVストリームに対して、デマルチプレクス処理及びでパケット化処理を行なわれ、NTP時刻情報、映像、音声、文字スーパー、字幕、緊急字幕、データ放送の各符号化信号が抽出される。そして、パケット・フィルター1302-1では、デマルチプレクスされた各パケットが、ビデオ・デコーダー1304、オーディオ・デコーダー1305、文字スーパー・デコーダー1306、字幕デコーダー1307、緊急字幕デコーダー1308、マルチメディア(MM)キャッシュ1309にそれぞれ振り分けられる。MPテーブルでは、映像及び音声以外のアセットに対して第2ループでMH-データ符号化方式記述子(図8を参照のこと)が配置され、同記述子の付加識別情報で字幕タイプが指定されている(前述並びに図9を参照のこと)。字幕タイプ値が「00」(通常の字幕)であれば字幕デコーダー1307に振り分けられ、字幕タイプ値が「01」(文字スーパー)であれば文字スーパー・デコーダー1306に振り分けられ、字幕タイプ値が「10」(緊急字幕)であれば緊急字幕デコーダー1308に振り分けられる。
 また、パケット・フィルター1302-1で抽出されたシグナリング情報のパケットは、SIフィルター1302-1に振り分けられ、フィルタリングされて、SIキャッシュ1310にキャッシュされる。
 また、デマルチプレクサー1302で抽出されたNTPパケットは、時計回復部1303に振り分けられる。時計回復部1303では、NTPパケットに載せられた時刻情報に基づいて、この時刻情報に同期した時刻情報が生成される。つまり、時計回復部1303では、放送送出システム11側の時計部1201で生成された時刻情報に合った時刻情報が生成される。
 MMTデマルチプレクサー1302で抽出された符号化映像信号は、ビデオ・デコーダー1304に送られてデコードされ、ベースバンドの映像信号が得られる。デマルチプレクサー1302で抽出された文字スーパー符号化信号は文字スーパー・デコーダー1306に送られてデコードされ、文字スーパーの表示信号が得られる。また、デマルチプレクサー1302で抽出された字幕符号化信号は字幕デコーダー1307に送られてデコードされ、通常の字幕の表示信号が得られる。また、デマルチプレクサー1302で抽出された緊急字幕符号化信号は緊急字幕デコーダー1308に送られてデコードされ、緊急字幕の表示信号が得られる。
 放送システム制御部1311では、SIフィルター1302-2並びにSIキャッシュ1310を介して受け取るMMT-SIに基づいて、データ放送アプリケーションの処理を始め受信機12による受信処理動作全体が制御される。
 アプリケーション・エンジン1313では、マルチメディア・キャッシュ1309にキャッシュされているデータ放送アプリケーション(HTML5文書など)の処理が行なわれ、データ放送の表示信号並びに音声信号が生成される。
 スケーラー1314では、ビデオ・デコーダー1304でデコードされた映像信号(放送映像)のスケーリング処理が行なわれる。また、合成部1316は、文字スーパー・デコーダー1306でデコードされた文字スーパー表示と、通常の字幕デコーダー1307でデコードされた字幕表示が合成される。続いて、合成部1317では、スケーラー1314でスケーリング処理された放送映像と、アプリケーション・エンジン1313で生成されたデータ放送の表示信号が合成される。さらに後段の合成部1318では、データ放送の表示が重畳された放送映像と、合成部1316から出力される文字スーパー表示及び通常の字幕表示が合成される。
 スケーラー1319では、MPテーブルの第2ループのMH-データ符号化方式記述子(図8を参照のこと)の付加識別情報(図9を参照のこと)に挿入されている緊急字幕付加情報(図10を参照のこと)で指定されている表示領域情報(display_area_size)に従って、合成部1318から出力される放送映像に対し、緊急字幕表示のためのスケーリング処理が行なわれる。そして、合成部1320では、スケーラー1319でスケーリング処理された放送映像に、緊急字幕デコーダー1308から出力される緊急字幕が合成されて、出力用の映像信号が生成される。
 また、合成部1315では、オーディオ・デコーダー1305でデコードされた音声信号と、アプリケーション・エンジン1313で再生されたデータ放送用の音声信号を合成して、出力用の音声信号が生成される。
 図13に示した受信機12において表示画面を生成する仕組みについて、図14、図15を参照しながら説明する。
 図14に示すように、スケーラー1314は、ビデオ・デコーダー1304でデコードされた映像信号(放送映像)を、受信機12の画面サイズに応じてスケーリング処理する。そして、合成部1317は、スケーラー1314でスケーリング処理された放送映像1411と、アプリケーション・エンジン1313が生成したデータ放送の表示信号(グラフィックス)1412を合成して、マルチメディア・プレーン1402を生成する。
 また、合成部1316は、文字スーパー・デコーダー1306がデコードした文字スーパー表示を含む文字スーパー・プレーン1404と、字幕デコーダー1307がデコードした通常の字幕表示を含む字幕プレーン1403とを合成する。
 さらに合成部1318は、放送映像にデータ放送の表示が重畳されたマルチメディア・プレーン1402と、合成部1316から出力される文字スーパー・プレーン1414及び通常の字幕プレーン1413を合成したプレーンを、背景プレーン1401上に順に重畳して、放送画面を生成する。
 図15には、放送画面に緊急字幕を表示した画面1500を例示している。同図中、参照番号1501は、図14に示した手順に従って生成された放送画面に相当する。
 MPテーブルの第2ループのMH-データ符号化方式記述子(図8を参照のこと)の付加識別情報(図9を参照のこと)に挿入されている緊急字幕付加情報(図10を参照のこと)は、パラメーターdisplay_area_sizeで、放送全画面に緊急字幕を配置する表示する場所と大きさを指定している(前述)。スケーラー1319は、放送画面1501を縮退させて、display_area_sizeで指定された場所に、指定された大きさの緊急字幕の表示領域1502を確保する。
 そして、合成部1320が、この緊急字幕表示領域1502に、緊急字幕デコーダー1308から出力される緊急字幕を重畳する。
 図16には、MPテーブルの第2ループにおいて字幕及び文字スーパーに対して配置されるMH-データ符号化方式記述子を利用した緊急字幕の画面表示制御例を示している。図16(A)には、緊急告知前の受信機の表示画面1600を例示している。図示の画面1600は、通常の放送サービスの受信画面である。この通常の放送受信画面1600には、参照番号1601で示すような、通常の字幕「A選手、左中間にタイムリーヒットを打ちました!」が重畳して表示されることもある。また、図16(B)には、受信機が、緊急告知期間に、緊急告知テーブルで指定された情報に基づいて、緊急字幕を表示した画面1610を例示している。
 既に説明したように、MPテーブルの緊急字幕に関する第2ループ内に配置するMH-データ符号化方式記述子の付加識別情報(図9を参照のこと)で字幕タイプを緊急字幕に指定するとともに、付加識別情報に挿入されている緊急字幕付加情報(図10を参照のこと)内のパラメーターdisplay_area_sizeで緊急字幕を表示する領域の位置及び大きさを指定している。
 図16(B)に示した画面表示例1610では、display_area_sizeで指定された場所と大きさの緊急字幕の表示領域を設けるために、参照番号1611で示すように、通常の放送サービスの画面が縮退(スケーリング)される。そして、通常の放送受信画面を縮退して空けられた緊急字幕領域1612に、緊急字幕「地震が発生しました!津波警報発令!ただちに高台に避難してください!」が表示されている。
 また、MH-データ符号化方式記述子の付加識別情報に挿入されている緊急字幕付加情報(図10を参照のこと)は、緊急字幕表示の対象地域を指定するパラメーターregion_spec_type及びtarget_region_specを含んでいる。受信機は、緊急字幕付加情報で指定される対象地域に基づいて、緊急字幕表示の地域フィルタリングを行なうことができる。
 図17には、緊急字幕表示の地域フィルタリング例を示している。
 日本全国の各地域の受信機がすべて、緊急告知前には、図16(A)に示したような、通常の放送サービスの受信画面を表示しているとする。
 そして、緊急告知期間に入り、全国各地の受信機が同じ緊急字幕信号及び緊急字幕信号の付加識別情報を示したMPテーブルを受信したとする。緊急字幕信号は、TTML文書によって文字列「地震が発生しました!津波警報発令!ただちに高台に避難してください!」が指定されている。また、この緊急字幕信号の付加識別情報は、緊急字幕付加情報の中で、対象地域として関東(target_region_spec=(only kanto))が指定されていることを想定している。
 関東地域の受信機は、参照番号1701で示すように、図16(B)に示したと同様の、放送サービスの画面が縮退し、緊急字幕を含んだ画面に切り替えられる。他方、関東地域以外の受信機は、地域指定の記述(target_region_spec=(only kanto))に基づいて当該緊急サービス記述子の対象外であることを検知して、参照番号1702で示すように、画面表示の切り替えを行なうことはない。
 図18には、緊急字幕表示の切り替えシナリオを例示している。同図では、ある放送事業者(放送局)から送信される放送信号(TLVストリーム)1800を例示しており、横軸を時間軸とする。
 放送事業者は、1つの放送サービスを提供しており、図示のTLVストリーム1800では、放送サービス#1が伝送される。この放送サービス#1は、通常の放送期間(緊急告知期間以外の期間)において映像、音声、(通常の)字幕、文字スーパー、及びデータ放送の各アセット(コンポーネント)1801~1805と、放送サービス単位の制御情報(MMT-SI)伝送路1806で構成される。放送事業者は、2以上の放送サービスを提供してもよいが、図面の簡素化のため、放送サービス#1を図示している。
 期間t1~t2は、緊急告知期間である。緊急告知期間には、通常の字幕アセット1803とは別に、参照番号1810で示すように、緊急字幕アセットが伝送される。また、時刻t2で緊急告知期間が終了すると、緊急字幕アセット1810の伝送は停止する。
 放送サービス単位の制御情報(MMT-SI)1806で伝送されるPAメッセージは、放送サービス#1のエントリー・ポイントであり、固定のパケット識別情報(例えば、0x0000)が割り当てられている。したがって、受信機側では、上記固定のパケット識別情報を直接指定してPAメッセージ310を取得することができる(前述)。また、PAメッセージで伝送されるMPテーブルは、放送サービス#1を構成する各アセット1801~1805並びに1810のアセット識別情報とロケーション情報を示している。したがって、受信機側では、上記固定のパケット識別情報を直接指定してPAメッセージを取得することができ、さらにPAメッセージ内のMPテーブルを参照して,放送サービス#1を構成する各アセット1801~1805並びに1810を間接的に指定することができる(図4を参照のこと)。
 また、MPテーブルは、映像及び音声以外のアセット(図18に示す例では、通常の字幕アセット1803、文字スーパー・アセット1804、データ放送アセット1805、並びに、緊急字幕アセット1810)に対して、データ符号化方式を識別するために、第2ループ内のアセット記述子としてMH-データ符号化方式記述子を配置する。
 本実施形態では、緊急字幕アセット1810のMH-データ符号化方式記述子に配置する付加識別情報で、字幕タイプが緊急字幕であることを示すようにしている(図9を参照のこと)。また、字幕タイプが緊急字幕である場合の付加識別情報には、緊急字幕付加情報(emergency_caption_control_info)を配置して、緊急字幕の表示領域の位置大きさと、緊急字幕表示の対象領域を指定するようになっている(図10を参照のこと)。
 ここで、図18に示す放送信号(TLVストリーム)1800を受信する受信機の動作について考察してみる。但し、受信機は、緊急字幕付加情報で指定されている対象地域に設置されているものとする。また、緊急字幕アセット1810で伝送される緊急字幕は「地震が発生しました!津波警報発令!ただちに高台に避難してください!」であるとする。
 受信機は、緊急告知期間t1に入る前は、参照番号1821で示すように、放送サービス#1を受信して全画面で表示している。
 受信機は、放送サービス単位の制御情報(MMT-SI)伝送路1806上の固定のパケット識別情報が割り当てられたPAメッセージを受信して、PAメッセージに格納されたMPテーブルに基づいて、放送サービス#1を構成する各アセットを取得することができる。したがって、緊急告知期間t1に入ると、受信機は、緊急字幕アセット1810を受信することができる。
 受信機は、緊急告知期間に受信するPAメッセージに格納されたMPテーブルの第2ループに配置されている緊急字幕アセット1810のMH-データ符号化方式記述子の付加識別情報を参照して、字幕タイプが緊急字幕であることを検知する。また、受信機は、付加識別情報内の緊急字幕付加情報で指定されている緊急字幕の表示領域の位置大きさと、緊急字幕表示の対象領域を取得すると、緊急字幕画面への切り替え動作を行なう。図示の例では、緊急字幕付加情報の指定に従って、display_area_sizeで指定された場所と大きさの緊急字幕の表示領域を設けるために、通常の放送サービスの画面が縮退(スケーリング)され、空いた領域に緊急字幕「地震が発生しました!津波警報発令!ただちに高台に避難してください!」が表示される。
 その後、受信機は、時刻t2で緊急字幕アセット1810を受信できなくなると、緊急告知期間が終了したことを検知する。そして、受信機は、参照番号1823で示すように、通常の放送サービスの画面を全画面表示に戻す。
 図19には、図13に示した受信機12において、緊急字幕の表示を制御するための手順の一例をフローチャートの形式で示している。受信機12内では、受信したMPテーブルの第2ループに配置されるMH-データ符号化方式記述子において、字幕・文字スーパーの付加識別情報が更新される度(subtitle_info_versionが更新されとき)に、本処理ルーチンを起動する。
 まず、放送システム制御部1311は、字幕・文字スーパーの付加識別情報(Additional_Arib_Subtitle_info)内で、字幕タイプとして緊急字幕が指定されているか否か(すなわち、type=10)をチェックする(ステップS1901)。字幕タイプが緊急字幕でない場合には(ステップS1901のNo)、本処理ルーチンを終了する。
 一方、字幕タイプが緊急字幕である場合には(ステップS1901のYes)、放送システム制御部1311は、付加識別情報内に挿入される緊急字幕付加情報(emergency_caption_control_info)内のパラメーターregion_spec_type及びtarget_region_specを参照して、当該受信機12がこの緊急字幕の対象地域であるか否かを地域フィルタリングする(ステップS1902)。
 受信機12が緊急字幕の対象地域でない場合には(ステップS1902のNo)、本処理ルーチンを終了する。
 受信機12が緊急字幕の対象地域である場合並びにすべての地域を対象とする場合には(ステップS1902のYes)、放送システム制御部1311は、緊急字幕付加情報内のパラメーターdisplay_area_sizeに基づいて、スケーラー1319に対して、緊急字幕表示のための放送画面のスケーリング(縮退)処理を指示する(ステップS1903)。
 次いで、放送システム制御部1311は、画面のスケーリング(縮退)処理により空いた領域に緊急字幕を表示するように、合成部1320に指示する(ステップS1904)。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、メディア伝送にMMT方式を採用した放送システムに本明細書で開示する技術を適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。映像及び音声とともに、字幕信号を伝送するさまざまなタイプの放送システムに、同様に本明細書で開示する技術を適用することができ、受信機における緊急時などの放送全画面表示や緊急字幕表示の制御を実現することができる。
 また、本明細書で開示する技術は、緊急字幕の表示だけでなく、アウトスクリーン字幕の表示にも適用することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)放送サービスを構成する各放送信号とともに緊急字幕信号を送信する送信部と、
 前記緊急字幕信号を含む各放送信号の制御情報を送信する制御情報送信部と、
を具備する送信装置。
(2)前記送信部は、通常の字幕信号とは別に前記緊急字幕信号を付加して送信し、
 前記制御情報送信部は、前記緊急字幕信号の制御情報として、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定する、
上記(1)に記載の送信装置。
(3)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕に関する情報を指定する、
上記(2)に記載の送信装置。
(4)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の表示領域に関する情報を指定する、
上記(2)に記載の送信装置。
(5)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕を表示する対象地域に関する情報を指定する、
上記(2)乃至(4)のいずれかに記載の送信装置。
(6)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の動作モードとしてライブモードを指定する、
上記(2)乃至(5)のいずれかに記載の送信装置。
(7)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の即時提示を指定する、
上記(2)乃至(6)のいずれかに記載の送信装置。
(8)前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、受信時の自動表示及び記録再生時の自動非表示を指定する、
上記(2)乃至(7)のいずれかに記載の送信装置。
(9)通常の字幕信号とは別に前記緊急字幕信号を付加して送信する送信ステップと、
 通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定する制御情報送信ステップと、
を有する送信方法。
(10)放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信部と、
 前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信部と、
 前記制御情報に基づいて放送サービスの画面表示を制御する制御部と、
を具備する受信装置。
(11)前記受信部は、放送サービスに含まれる通常の字幕信号とは別に前記緊急字幕信号が付加された放送信号を受信し、
 前記制御情報受信部は、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることが指定された制御情報を受信する、
上記(10)に記載の受信装置。
(12)前記制御部は、字幕タイプが緊急字幕を示す前記制御情報の付加情報に基づいて、緊急字幕の画面表示を制御する、
上記(11)に記載の受信装置。
(13)前記制御部は、前記付加情報において指定される緊急字幕の表示領域に関する情報に基づいて放送サービスの画面を縮退して、空いた領域に緊急字幕を表示する、
上記(12)に記載の受信装置。
(14)前記制御部は、前記付加情報で指定された対象地域である場合に限り、緊急字幕の表示を行なう、
上記(12)又は(13)のいずれかに記載の受信装置。
(15)放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信ステップと、
 前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信ステップと、
 前記制御情報に基づいて放送サービスの画面表示を制御する制御ステップと、
を有する受信方法。
 10…ディジタル放送システム、11…放送送出システム
 12…受信機、1201…時計部、1202…信号送出部
 1203…ビデオ・エンコーダー
 1204…オーディオ・エンコーダー
 1205…字幕/文字スーパー・エンコーダー
 1206…シグナリング・エンコーダー
 1207…ファイル・エンコーダー
 1208…電子データ処理システム
 1209…TLVシグナリング・エンコーダー
 1210…IPサービス・マルチプレクサー
 1211…TLVマルチプレクサー、1212…変調・送信部
 1301…チューナー復調部
 1302…MMTデマルチプレクサー
 1303…時計回復部、1304…ビデオ・デコーダー
 1305…オーディオ・デコーダー
 1306…文字スーパー・デコーダー、1307…字幕デコーダー
 1308…緊急字幕デコーダー
 1309…マルチメディア・キャッシュ、
 1310…SIキャッシュ、1311…放送システム制御部
 1312…通信インターフェース
 1313…アプリケーション・エンジン
 1314…スケーラー、1315~1318…合成部
 1319…スケーラー、1320…合成部

Claims (15)

  1.  放送サービスを構成する各放送信号とともに緊急字幕信号を送信する送信部と、
     前記緊急字幕信号を含む各放送信号の制御情報を送信する制御情報送信部と、
    を具備する送信装置。
  2.  前記送信部は、通常の字幕信号とは別に前記緊急字幕信号を付加して送信し、
     前記制御情報送信部は、前記緊急字幕信号の制御情報として、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定する、
    請求項1に記載の送信装置。
  3.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕に関する情報を指定する、
    請求項2に記載の送信装置。
  4.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の表示領域に関する情報を指定する、
    請求項2に記載の送信装置。
  5.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕を表示する対象地域に関する情報を指定する、
    請求項2に記載の送信装置。
  6.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の動作モードとしてライブモードを指定する、
    請求項2に記載の送信装置。
  7.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、緊急字幕の即時提示を指定する、
    請求項2に記載の送信装置。
  8.  前記制御情報送信部は、前記緊急字幕の制御情報の付加情報において、受信時の自動表示及び記録再生時の自動非表示を指定する、
    請求項2に記載の送信装置。
  9.  通常の字幕信号とは別に前記緊急字幕信号を付加して送信する送信ステップと、
     通常の字幕信号の制御情報において字幕タイプが緊急字幕であることを指定する制御情報送信ステップと、
    を有する送信方法。
  10.  放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信部と、
     前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信部と、
     前記制御情報に基づいて放送サービスの画面表示を制御する制御部と、
    を具備する受信装置。
  11.  前記受信部は、放送サービスに含まれる通常の字幕信号とは別に前記緊急字幕信号が付加された放送信号を受信し、
     前記制御情報受信部は、通常の字幕信号の制御情報において字幕タイプが緊急字幕であることが指定された制御情報を受信する、
    請求項10に記載の受信装置。
  12.  前記制御部は、字幕タイプが緊急字幕を示す前記制御情報の付加情報に基づいて、緊急字幕の画面表示を制御する、
    請求項11に記載の受信装置。
  13.  前記制御部は、前記付加情報において指定される緊急字幕の表示領域に関する情報に基づいて放送サービスの画面を縮退して、空いた領域に緊急字幕を表示する、
    請求項12に記載の受信装置。
  14.  前記制御部は、前記付加情報で指定された対象地域である場合に限り、緊急字幕の表示を行なう、
    請求項12に記載の受信装置。
  15.  放送サービスを構成する各放送信号とともに緊急字幕信号を受信する受信ステップと、
     前記緊急字幕信号を含む各放送信号の制御情報を受信する制御情報受信ステップと、
     前記制御情報に基づいて放送サービスの画面表示を制御する制御ステップと、
    を有する受信方法。
PCT/JP2016/059406 2015-05-20 2016-03-24 送信装置及び送信方法、並びに受信装置及び受信方法 WO2016185794A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-102378 2015-05-20
JP2015102378 2015-05-20

Publications (1)

Publication Number Publication Date
WO2016185794A1 true WO2016185794A1 (ja) 2016-11-24

Family

ID=57319810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/059406 WO2016185794A1 (ja) 2015-05-20 2016-03-24 送信装置及び送信方法、並びに受信装置及び受信方法

Country Status (1)

Country Link
WO (1) WO2016185794A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001257957A (ja) * 2000-03-13 2001-09-21 Sanyo Electric Co Ltd デジタルテレビ放送受信機

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001257957A (ja) * 2000-03-13 2001-09-21 Sanyo Electric Co Ltd デジタルテレビ放送受信機

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Kinkyu Jishin Sokuho no Sumiyaka na Denso ni Tsuite", KENTO HOKOKUSHO (SHOSAI), ASSOCIATION OF RADIO INDUSTRIES AND BUSINESSES, 4 September 2009 (2009-09-04), pages 1 - 10, XP055330979, Retrieved from the Internet <URL:http://www.soumu.go.jp/main_content/000037088.pdf> [retrieved on 20160427] *
"Operational Guidelines For Digital Terrestrial Television Broadcasting", TECHNICAL REPORT ARIB TR -B14, vol. 1, no. 1/2, September 2012 (2012-09-01), pages 31 - 35, Retrieved from the Internet <URL:http://www.arib.or.jp/english/html/overview/doc/4-TR-B14v5_0-1p3-1.pdf> [retrieved on 20160427] *

Similar Documents

Publication Publication Date Title
KR101991321B1 (ko) 멀티미디어 서비스 송수신 방법 및 장치
CA3007464C (en) Broadcast system with a watermark payload
KR101805538B1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP6825656B2 (ja) 送信方法
JP6406415B2 (ja) 送信装置及び送信方法
JP6304016B2 (ja) 受信装置並びに受信方法
TWI640195B (zh) 具有統一資源識別符訊息浮水印有效負載之廣播系統
WO2016194549A1 (ja) 送信装置及び送信方法、並びに受信装置及び受信方法
KR20180040571A (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP7176588B2 (ja) 受信装置並びに受信方法
JP6303969B2 (ja) 受信装置並びに受信方法
JP6551558B2 (ja) 受信装置並びに受信方法
WO2016185794A1 (ja) 送信装置及び送信方法、並びに受信装置及び受信方法
EP3435679A1 (en) Broadcast signal transmission and reception method and device
EP3407614A1 (en) Method and apparatus for transmitting and receiving broadcast signal
JP6988974B2 (ja) 送信方法及び送信装置
WO2016185821A1 (ja) 送信装置及び送信方法、並びに受信装置及び受信方法
KR20190073586A (ko) 멀티미디어 서비스 송수신 방법 및 장치
JP7243799B2 (ja) 受信方法及び受信装置
WO2016185814A1 (ja) 送信装置及び送信方法、並びに受信装置及び受信方法
JP6566059B2 (ja) 受信装置並びに受信方法
JP2016174239A (ja) 送信装置及び送信方法、並びに受信装置及び受信方法
JP2019161677A (ja) 受信装置及び受信方法、並びに送信方法
KR20080004317A (ko) 방송 신호 수신 장치 및 방송 신호 송수신 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16796188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16796188

Country of ref document: EP

Kind code of ref document: A1