WO2018003540A1 - 受信装置、送信装置、及び、データ処理方法 - Google Patents

受信装置、送信装置、及び、データ処理方法 Download PDF

Info

Publication number
WO2018003540A1
WO2018003540A1 PCT/JP2017/022247 JP2017022247W WO2018003540A1 WO 2018003540 A1 WO2018003540 A1 WO 2018003540A1 JP 2017022247 W JP2017022247 W JP 2017022247W WO 2018003540 A1 WO2018003540 A1 WO 2018003540A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information
signal
data
broadcast
Prior art date
Application number
PCT/JP2017/022247
Other languages
English (en)
French (fr)
Inventor
高橋 和幸
ロックラン ブルース マイケル
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/300,294 priority Critical patent/US11122331B2/en
Priority to JP2018525050A priority patent/JP7011586B2/ja
Priority to EP17819900.6A priority patent/EP3481071B1/en
Publication of WO2018003540A1 publication Critical patent/WO2018003540A1/ja
Priority to JP2022004340A priority patent/JP7227407B2/ja
Priority to JP2023018499A priority patent/JP7494338B2/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/20Arrangements for broadcast or distribution of identical information via plural systems
    • H04H20/22Arrangements for broadcast of identical information via plural broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/11Arrangements for counter-measures when a portion of broadcast information is unavailable
    • H04H60/12Arrangements for counter-measures when a portion of broadcast information is unavailable wherein another information is substituted for the portion of broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44245Monitoring the upstream path of the transmission network, e.g. its availability, bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel

Definitions

  • the present technology relates to a receiving device, a transmitting device, and a data processing method, and more particularly, to a receiving device, a transmitting device, and a data processing method capable of performing seamless reproduction when switching a broadcast signal.
  • a receiver capable of receiving a plurality of broadcast signals of a program being simulcast, such as a program of one segment broadcasting and a program of full segment broadcasting (for example, see Patent Document 1).
  • the present technology has been made in view of such a situation, and enables seamless reproduction at the time of switching of broadcast signals.
  • the receiving device selects a target broadcast signal from the plurality of broadcast signals based on a reception unit that receives a plurality of broadcast signals and a result of processing on the broadcast signal. And a control unit.
  • the receiving device may be an independent device or an internal block that constitutes one device.
  • a data processing method is a data processing method corresponding to the receiving device according to the first aspect of the present technology described above.
  • a plurality of broadcast signals are received, and a target broadcast is selected from among the plurality of broadcast signals based on a result of processing on the broadcast signals.
  • a signal is selected.
  • the transmission device transmits the content, and a generation unit that generates video boundary information that is information indicating the video boundary of the content having the same or corresponding content, and the video boundary information. And a transmitter configured to transmit a plurality of broadcast signals to be transmitted.
  • the transmission device of the second aspect of the present technology may be an independent device or an internal block that constitutes one device. Further, a data processing method according to a second aspect of the present technology is a data processing method corresponding to the transmission device according to the second aspect of the present technology described above.
  • video boundary information is generated, which is information indicating a video boundary of content of the same or corresponding content, and the video boundary information is The content is transmitted by being included in a plurality of broadcast signals for transmitting each content.
  • reproduction can be performed seamlessly when switching broadcast signals.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of a transmission system to which the present technology is applied. It is a figure which shows the structural example of a transmitter. It is a figure which shows the structural example of a receiver. It is a figure explaining the principle of seamless reproduction. It is a figure which shows the structural example of the receiver which performs seamless reproduction
  • FIG. 1 is a diagram showing the configuration of an embodiment of a transmission system to which the present technology is applied.
  • a system is a system in which a plurality of devices are logically gathered.
  • the transmission system 1 includes a transmitting device 10 and a receiving device 20.
  • this transmission system 1 data transmission conforming to a predetermined broadcast system is performed.
  • the transmission device 10 is a transmitter corresponding to a predetermined broadcast system, and transmits content via the transmission path 30.
  • the transmitting apparatus 10 transmits, as a broadcast wave, a broadcast stream including video and audio (components of the video and audio) constituting content such as a broadcast program and the like via the transmission path 30.
  • the receiving device 20 is a receiver compatible with a predetermined broadcast system, and receives and outputs content transmitted from the transmitting device 10 via the transmission path 30.
  • the receiving device 20 receives a broadcast wave from the transmitting device 10, processes video and audio (components of the content), and signaling included in the broadcast stream, and outputs the video of the content such as a broadcast program. And play audio.
  • the transmission path 30 may be, for example, satellite broadcasting using a broadcasting satellite (BS: Broadcasting Satellite) or a communication satellite (CS: Communications Satellite) or a cable in addition to terrestrial waves (terrestrial broadcasting). May be cable broadcasting (CATV) or the like.
  • BS Broadcasting Satellite
  • CS Communications Satellite
  • CATV cable broadcasting
  • FIG. 2 is a diagram showing a configuration example of the transmission device 10 of FIG.
  • the transmission apparatus 10 includes a component processing unit 111, a signaling processing unit 112, a processing unit 113, and a modulation unit 114.
  • the component processing unit 111 acquires the content input thereto.
  • the content is composed of components such as video, audio and subtitles.
  • the same or corresponding content for example, a plurality of content having different screen resolutions or content having only audio can be prepared.
  • the component processing unit 111 processes (for example, encoding and the like) data of video and audio of content, and supplies a video signal and audio signal obtained as a result to the processing unit 113.
  • the signaling processing unit 112 acquires data, which is input thereto, for generating control information used in demodulation processing and reproduction processing on the receiving apparatus 20 side.
  • the signaling processing unit 112 generates signaling (control information) based on the data for control information, and supplies the signaling (processing information) to the processing unit 113.
  • the processing unit 113 performs necessary processing on the video signal and audio signal supplied from the component processing unit 111 and the signaling supplied from the signaling processing unit 112, and the multiplexed stream obtained as a result thereof is modulated by the modulation unit 114.
  • the modulation unit 114 performs modulation processing on the multiplexed stream supplied from the processing unit 113, and transmits a signal obtained as a result as a broadcast signal via the antenna 121.
  • the transmitter 10 is configured as described above. In FIG. 2, for convenience of explanation, although the transmitter 10 is described as if it were configured as one device, the transmitter 10 on the transmission side has each function of the block in FIG. It can be a system composed of a plurality of devices.
  • FIG. 3 is a diagram showing a configuration example of the receiving device 20 of FIG.
  • the receiving apparatus 20 includes a control unit 210, a tuner 211, a demodulation unit 212, a filter 213, a decoding unit 214, and an output unit 215.
  • the control unit 210 includes, for example, a central processing unit (CPU), a microprocessor, and the like.
  • the control unit 210 controls the operation of each unit of the receiving device 20.
  • the tuner 211 processes a broadcast signal in a predetermined frequency band received via the antenna 221 according to the control from the control unit 210, and supplies the resultant received signal to the demodulation unit 212.
  • the demodulation unit 212 includes, for example, a demodulation LSI (Large Scale Integration) or the like.
  • the demodulation unit 212 demodulates the reception signal supplied from the tuner 211 according to the control from the control unit 210, and supplies the multiplexed stream obtained as a result to the filter 213.
  • the filter 213 processes the multiplexed stream supplied from the demodulation unit 212 according to control from the control unit 210, and supplies a video signal and an audio signal obtained as a result to the decoding unit 214.
  • the decoding unit 214 decodes the video signal and the audio signal supplied from the filter 213 according to the control from the control unit 210, and supplies the video and audio data obtained as a result to the output unit 215.
  • the filter 213 and the decoding unit 214 are configured by, for example, a main SoC (System On Chip) or the like.
  • the output unit 215 includes, for example, an output interface circuit or the like.
  • the output unit 215 processes video and audio data supplied from the decoding unit 214, and outputs the processed data to a display device (not shown) or a speaker (not shown). Thereby, in the receiving device 20, the content such as a broadcast program is reproduced, and the video and audio thereof are output.
  • the receiving device 20 has a display or a speaker such as an LCD (Liquid Crystal Display) or an OELD (Organic Electroluminescence Display), and outputs video and audio according to the data from the output unit 215. You may do it.
  • a display or a speaker such as an LCD (Liquid Crystal Display) or an OELD (Organic Electroluminescence Display)
  • LCD Liquid Crystal Display
  • OELD Organic Electroluminescence Display
  • the receiving device 20 is configured as described above.
  • ISDB-T Integrated Services Digital Broadcasting-Terrestrial
  • one segment broadcasting main segment broadcasting service for mobile phones and mobile terminals
  • terrestrial digital television broadcasting simultaneous broadcasting in which the same broadcast program (content) is broadcast is performed for full segment broadcasting and one segment broadcasting.
  • This type of mobile receiver receives a full segment broadcast when the reception environment is good, while receiving a one segment broadcast when the reception environment is bad, such as receiving a broadcast signal according to the reception environment.
  • full-segment broadcasting is an image of HD resolution (image corresponding to a screen resolution of approximately 1920 ⁇ 1080 pixels)
  • one-segment broadcasting is an image of QVGA resolution (image corresponding to a screen resolution of approximately 320 ⁇ 240 pixels) ).
  • the mobile receiver when switching the broadcast signal to be received according to the reception environment, for example, disturbance of video and audio such as freeze and block error may occur.
  • disturbance of video and audio such as freeze and block error
  • the timing of switching of the signal processed in the physical layer in the protocol stack of the broadcast system and the GOP (Group of Pictures) obtained from the signal processed in the upper layer B) the boundary of the structure is not identical.
  • the GOP is composed of an I picture, a B picture, or a P picture and includes at least one I picture.
  • an I picture is an image encoded using only current image information.
  • B pictures are images encoded using current, past and future image information.
  • P pictures are images encoded using current and past image information.
  • ATSC Advanced Television Systems Committee
  • formulation of ATSC 3.0 which is one of the next-generation terrestrial broadcasting standards, is in progress.
  • ATSC 3.0 by preparing a plurality of signals having different bit rates and robustness as broadcast signals, it is assumed that the receiver switches the broadcast signals to be received according to the reception environment.
  • video with 4K resolution video corresponding to a screen resolution of approximately 4000 ⁇ 2000 pixels
  • audio are transmitted at high bit rate and low robustness
  • HD resolution It is possible to transmit video (video corresponding to a screen resolution of approximately 1920 x 1080 pixels) and audio at medium bit rate and medium robustness, and to transmit only audio at low bit rate and high robustness.
  • FIG. 4 shows the relationship between the quality of the received signal and the receivable broadcast signal when the horizontal axis is time and the vertical axis is C / N ratio (Carrier to Noise Ratio).
  • the C / N ratio represented by the solid line L fluctuates with the passage of time.
  • FIG. 4 three types of broadcast signals are prepared as broadcast signals that can be received by the receiving device 20, and the respective broadcast signals have different required bit rates and robustness. That is, a broadcast signal for transmitting 4K resolution video and audio at a high bit rate and low robustness is represented by “4K” in the figure. Also, a broadcast signal that transmits HD resolution video and audio at medium bit rate and medium robustness is represented by “HD” in the figure, and only audio is transmitted at low bit rate and high robustness. The signal is represented by "voice” in the figure.
  • bit rate becomes higher in the order of low bit rate, medium bit rate, and high bit rate. It also means that the robustness increases in the order of low robustness, medium robustness and high robustness.
  • the receiving apparatus 20 since the receivable broadcast signal changes in accordance with the quality of the received signal, even when the "4K” broadcast signal is received when the quality of the received signal is good, If the quality of the received signal deteriorates, the "4K” broadcast signal can not be received, and the "HD” broadcast signal is received. Conversely, if the quality of the received signal is good, the receiving apparatus 20 can receive the broadcast signal of “4K” even if the quality of the received signal is good even if the quality of the received signal is poor. , "4K" broadcast signal will be received.
  • the broadcast signal to be received is switched according to the change of the C / N ratio, for example, when switching from 4K resolution video to HD resolution video, or from HD resolution video to 4K resolution video As described above, when switching to, there may be cases where video or audio disturbance occurs. Then, in the present technology, when the broadcast signal is switched, the occurrence of the disturbance of the video and the audio is suppressed, and the reproduction can be performed seamlessly.
  • the seamless reproduction control of the present technology can be roughly divided into a case using video boundary information which is information indicating a video boundary (RAP: Random Access Point) and a case not using video boundary information.
  • video boundary information which is information indicating a video boundary (RAP: Random Access Point)
  • RAP Random Access Point
  • video border information which is information indicating the video border (RAP)
  • RAP video border information
  • the receiving apparatus 20 switches the target broadcast signal based on the video border information to match the switching timing with the video border (RAP) obtained from the signal processed in the upper layer. be able to.
  • the case of using the image boundary information will be described with reference to FIGS. 6 to 19.
  • FIG. 5 shows a configuration example of the receiving device 20 for realizing the case where the video boundary information is not used.
  • a plurality of demodulators 212 and filters 213 are required to process a plurality of broadcast signals. The case where image boundary information is not used will be described with reference to FIG.
  • the video boundary information can include, for example, the position of the head (the position of I picture) in the GOP cycle as the video boundary (RAP).
  • the switching timing of the target broadcast signal can be matched with the video border (RAP) such as the border of the GOP structure according to the quality of the received signal.
  • FIG. 6 shows the quality of the received signal when the horizontal axis is time and the vertical axis is C / N ratio, and the timing of switching of the broadcast signal.
  • the receiving apparatus 20 transmits the broadcast signal of “HD” from the broadcast signal of “4K” (in FIG. It is switched to “S 2 ” and HD video and audio are reproduced.
  • the video boundary information is included in the signal processed in the physical layer in (the demodulation unit 212 of) of the receiving device 20, the signal is processed in the physical layer at a timing according to the video boundary information. Switching the signal to match the timing of the image obtained from the signal processed in the upper layer (for example, the boundary of the GOP structure).
  • the decoding unit 214 in the latter stage can decode the video signal and the audio signal continuously, and as a result, the broadcast signal of "4 K"("S 1 " in the figure) , it is possible to perform broadcast signal of "HD” at the time of switching the ( “S 2" in the figure), the playback seamlessly.
  • the reception apparatus 20 continues to select the broadcast signal of "HD"("S 2 ", “S 3 " in the figure) according to the quality of the received signal. , HD video and audio are played back.
  • the receiving apparatus 20 selects “4K from the broadcast signal of“ HD ”(“ S 3 ”in the figure).
  • broadcast signal of “switched on (“ S 4 "in FIG.), 4K video and audio are reproduced.
  • the signal processed in the physical layer is switched at the timing according to the video boundary information included in the signal processed in the physical layer in (the demodulation unit 212 of, etc. in) the receiving device 20, so that the timing is changed.
  • the boundary of the video obtained from the signal processed in the upper layer for example, the boundary of the GOP structure).
  • the decoding unit 214 in the latter stage can decode the video signal and the audio signal continuously, and as a result, the broadcast signal of "HD"("S 3 " in the figure) , And can be played back seamlessly when the "4 K” broadcast signal ("S 4 " in the figure) is switched.
  • the receiving apparatus 20 when switching the broadcast signal according to the quality of the received signal, the video included in the signal processed in the physical layer By switching the broadcast signal according to the boundary information, the timing of switching the broadcast signal and the video boundary (RAP) can be made to coincide, and the reproduction can be performed seamlessly.
  • the video boundary information should be included as a signal to be processed in the physical layer, for example, in the preamble of the physical layer frame, the header of the physical layer packet (the baseband packet after demodulation), additional information on broadcasting, etc. Can.
  • a control method according to the arrangement position of the video border information will be described.
  • FIG. 7 is a diagram showing a relationship between a physical layer frame and a video signal in the case where switching of a broadcast signal according to the quality of a received signal is performed in physical layer frame units which are units of data transmission.
  • FIG. 7 shows the configuration of the physical layer frame
  • the lower part of FIG. 7 shows the configuration of the video signal.
  • the direction of time is a direction from the left side to the right side in the drawing. Note that these relationships are the same in the other corresponding drawings described later.
  • streams of “4K” video and audio signals, “HD” video and audio signals, and “audio” audio signals are prepared, respectively. There is. That is, these streams are streams of content of the same or corresponding content.
  • the positions indicated by the arrows P1 and P2 in the drawing are, for example, the boundaries ("RAP" in the drawing) of the video such as the position of the head (position of I picture) in the GOP cycle.
  • a physical layer frame is composed of a bootstrap (BS: Bootstrap), a preamble (Preamble), and a data part (Data).
  • BS bootstrap
  • Preamble preamble
  • Data data part
  • the bootstrap corresponds to, for example, a P1 symbol constituting a T2 frame of DVB-T2 (Digital Video Broadcasting-Second Generation Terrestrial), and the preamble corresponds to, for example, a P2 symbol constituting a T2 frame of DVB-T2 doing.
  • the bootstrap can also be said to be a preamble.
  • the frame length of the physical layer frame is, for example, 100 to 200 ms.
  • the data part contains data for each PLP (Physical Layer Pipe).
  • the stream of the “4K” video signal and audio signal is transmitted as PLP of PLPID which is “1” (hereinafter also described as “PLP # 1”).
  • PLP # 1 the data 4K-1 whose position indicated by the arrow P1 in the figure is the video border (RAP) is the data 4K-11 according to the time axis.
  • Data 4K-12 and data 4K-13 which are respectively included in the data portions of physical layer frames F-1 to F-3.
  • a stream of video signals and audio signals of “HD” is transmitted as PLP of PLPID which is “2” (hereinafter, also described as PLP # 2). Then, in the stream of “HD” transmitted by PLP # 2, the data HD-1 whose position indicated by the arrow P1 in the figure is the video boundary (RAP) is the data HD-11 along with its time axis. , Data HD-12 and data HD-13, which are respectively included in the data portions of physical layer frames F-1 to F-3.
  • the stream of the voice signal of "voice” is transmitted as PLP of PLPID which is "3" (hereinafter, also described as PLP # 3).
  • PLP # 3 data A-1 at which the position indicated by the arrow P1 in the figure corresponds to the video border (RAP) is data according to the time axis. It is divided into A-11, data A-12, and data A-13, and is included in the data portion of physical layer frames F-1 to F-3.
  • the switching timing is the upper layer.
  • the image boundary of the data 4K-1 and the data HD-1 processed in step (the position indicated by the arrow P1 in the figure).
  • the demodulation unit 212 and the filter 213 are operated, and seamless reproduction can be performed. It is possible to realize low power consumption by limiting operation. For example, since the demodulation LSI has a large circuit size and a large power consumption, the effect of low power consumption when the operation of only one system of circuits is minimized is extremely large.
  • FIG. 8 is a diagram showing an example of the data structure for each layer when the IP transmission method is adopted.
  • a layer 1 (L1) which is a physical layer, a layer 2 (L2) which is an upper layer of the layer 1 and a layer 3 (L3) which is an upper layer of the layer 2 form a hierarchical structure.
  • An IP packet is processed as Layer 3 data.
  • An IP packet is composed of an IP header (IP Header) and a payload (Payload).
  • IP Header IP header
  • Payload Payload
  • a UDP packet is stored in the payload of the IP packet. That is, it can be said that the IP packet is an IP / UDP packet.
  • video and audio data of content, data of signaling as control information, and the like are stored.
  • a Generic packet is processed.
  • the Generic packet is composed of a Generic header (Generic Header) and a payload (Payload).
  • Generic Header Generic Header
  • Payload Payload
  • a BB packet (Baseband Packet) is processed as layer 1 data.
  • the BB packet is composed of a BBP header (Baseband Packet Header) and a payload (Payload).
  • BBP header Basic Packet Header
  • Payload Payload
  • In the payload of the BB packet one or more Generic packets are placed and encapsulated.
  • data (Data) obtained by scrambling one or more BB packets is mapped to an FEC frame (FEC Frame), and a parity (Parity) for error correction of the physical layer is added.
  • FEC Frame FEC frame
  • Parity parity
  • the physical layer frame (Physical Frame) of layer 1 is composed of a bootstrap (Bootstrap), a preamble (Preamble), and a data part (Data). Then, in the data portion of the physical layer frame, after performing bit interleaving on a plurality of FEC frames, mapping processing is performed, and further interleaving in the time direction and frequency direction is performed (modulation (modulation) Data obtained by performing the processing is mapped.
  • Bootstrap bootstrap
  • Preamble preamble
  • Data data part
  • the preamble of the physical layer frame includes signaling.
  • L1 signaling is defined as the signaling included in the preamble.
  • L1 signaling is configured from L1 basic information (L1 Basic Signaling) and L1 detailed information (L1 Detail Signaling).
  • L1 basic information is composed of about 200 bits, but L1 detailed information is composed of 400 to several thousand bits. Are different. Further, in the preamble of the physical layer frame, since the L1 basic information and the L1 detailed information are read out in that order, the L1 basic information is read out earlier than the L1 detailed information. Furthermore, L1 basic information is also different in that it is transmitted more robustly than L1 detailed information.
  • FIG. 9 is a diagram illustrating an example of syntax of L1 basic information (L1 Basic Signaling).
  • L1 basic information The detailed contents of L1 basic information are described in “Table 9.2 L1-Basic Signaling Fields and Syntax” of Non-Patent Document 1 below. Therefore, in the syntax of FIG. 9, a portion particularly related to the present technology is extracted and described among the L1 basic information.
  • Non-Patent Document 1 ATSC Candidate Standard: Physical Layer Protocol (A / 322) Doc. S32-230r45 6 April 2016
  • L1B_RAP_EXIST_FLAG is a flag indicating whether or not video image boundary information exists in L1 detailed information.
  • FIG. 10 is a diagram illustrating an example of a syntax of L1 detail information (L1 Detail Signaling).
  • the 1-bit RAP is a flag indicating that the corresponding physical layer frame includes the video boundary (RAP). For example, when “0” is set as the RAP, it indicates that the corresponding physical layer frame does not include the video boundary (RAP).
  • the corresponding physical layer frame includes the video boundary (RAP). That is, in this case, the data portion of the corresponding physical layer frame includes, for example, data of I picture arranged at the top position in the GOP cycle.
  • AdaptationSet including a video boundary (RAP) is specified.
  • RAP video boundary
  • AdaptationSet corresponds to an AdaptationSet element described in MPD (Media Presentation Description) metadata, which is used to perform streaming delivery compliant with MPEG-DASH (Dynamic Adaptive Streaming over HTTP).
  • MPD Media Presentation Description
  • Period elements Period elements, AdaptationSet elements, Representation elements, etc. are described in a hierarchical structure.
  • the Period element is a unit that describes the configuration of content such as a broadcast program.
  • the AdaptationSet element or the Representation element is used for each stream of video, audio, subtitles, etc., so that attributes of each stream can be described.
  • the AdaptationSet element represents a stream encoded from various sources. Then, in order to cause the receiving apparatus 20 to select the stream in accordance with a parameter such as a bit rate, a Representation element is disposed in an AdaptationSet element, and a plurality of options having different parameters such as a bit rate may be selected. Lists the streams that Usually, AdaptationSet element and Representation element correspond to single stream such as video, audio and subtitle stream.
  • FIG. 11 is a diagram showing the relationship between the physical layer and data handled in the upper layer.
  • ROUTE Real-Time Object Delivery over Unidirectional Transport
  • FLUTE File Delivery over Unidirectional Transport
  • This ROUTE session can be used to transmit video and audio, subtitle components, signaling and so on.
  • PLP # 0 PLP # 1
  • PLP # 2 are included in a broadcast stream (Broadcast Stream) of a predetermined frequency band (for example, 6 MHz).
  • PLP # 0 includes a stream of LLS (Low Level Signaling).
  • LLS streams are stored in IP packets and transmitted.
  • LLS Low Level Signaling
  • SLS Service Layer Signaling
  • the LLS is signaling acquired prior to the SLS, and the SLS for each service is acquired according to the information included in the LLS.
  • LLS for example, metadata such as SLT (Service List Table) is included.
  • SLT Service List Table
  • the SLT metadata includes basic information indicating the configuration of streams and services in the broadcast network, such as information necessary for channel selection of services.
  • PLP # 1 includes, for example, a stream of "4K” provided as Service # 1.
  • the “4K” stream includes a video signal (Video Segments), an audio signal (Audio Segments), and SLS (Service Signaling), and is specified by an IP address, a port number, PLP ID or the like included in SLT metadata.
  • the SLS is signaling per service.
  • the SLS includes metadata such as a user service bundle description (USBD), a service-based transport session instance description (S-TSID), and a media presentation description (MPD).
  • USBD user service bundle description
  • S-TSID service-based transport session instance description
  • MPD media presentation description
  • the USBD metadata includes information such as acquisition destinations of other metadata.
  • the S-TSID metadata is an extension of LSID (LCT Session Instance Description) for ATSC 3.0, and is control information of the ROUTE protocol. Also, the S-TSID metadata can identify an EFDT (Extended FDT) transmitted in a ROUTE session.
  • the EFDT is an extension of a File Delivery Table (FDT) introduced by FLUTE, and is control information for transfer.
  • the MPD metadata is control information of video and audio files used to perform streaming distribution compliant with MPEG-DASH.
  • MPEG-DASH is a streaming delivery standard according to OTT-V (Over The Top Video), and is a standard regarding adaptive streaming delivery using a streaming protocol based on HTTP (Hypertext Transfer Protocol).
  • a manifest file for describing metadata which is control information of a video or audio file
  • a file format for transmitting moving image content are defined.
  • the former manifest file is referred to as MPD (Media Presentation Description)
  • the latter file format is also referred to as segment format.
  • the MP4 file format is a derived format of the ISO Base Media File Format (ISOBMFF) defined in ISO / IEC 14496-12.
  • ISOBMFF ISO Base Media File Format
  • the receiving device 20 specifies a stream to be reproduced from the IP address, port number, and PLP ID of the service to be selected (Service # 1) according to the SLT metadata acquired in advance. Further, in the receiving apparatus 20, MPD metadata and S-TSID metadata transmitted on the SLS channel among LCT channels of the ROUTE session are analyzed for the stream to be reproduced, and AV (Audio Video) is analyzed according to the analysis result. ) A stream (segment file) of video and audio transmitted on a channel is obtained. Thus, the receiving device 20 reproduces the 4K video and audio provided as Service # 1.
  • MMT MPEG Media Transport
  • the video boundary information in the receiving device 20 can be obtained by including video boundary information indicating video boundaries (RAP) in the preamble of the physical layer frame as L1 signaling.
  • RAP video boundary information indicating video boundaries
  • TDM Time Division Multiplexing
  • FDM Frequency Division Multiplexing
  • a predetermined frequency band for example, 6 MHz
  • hierarchical transmission using a band for one or a plurality of segments is performed.
  • the content having the same or corresponding content such as "4 K", “HD”, "voice”, etc., is transmitted for each hierarchy made of frequency bands of one or more segments obtained by frequency division. be able to.
  • the receiving apparatus 20 by including video boundary information which is information indicating a video boundary (RAP) as signaling of a physical layer frame, By switching the target broadcast signal based on the video border information, the switching timing can be made to coincide with the video border (RAP) obtained from the signal processed in the upper layer.
  • video boundary information which is information indicating a video boundary (RAP) as signaling of a physical layer frame
  • FDM frequency division multiplexing
  • the frequency band of one channel (6 MHz) is frequency divided into 13 segments, and the mobile receiver is used using the frequency band of one central segment.
  • a broadcast signal of one segment broadcasting is transmitted, and a broadcast signal of a broadcast for fixed receivers is transmitted using the remaining 12 segment frequency bands.
  • video boundary information which is information indicating video boundaries (RAP)
  • RAP video boundaries
  • the L1 signaling of the preamble is based on the premise that the video boundary cycle (for example, the GOP cycle) and the integer multiple of the physical layer frame cycle are equal. , Including video border information.
  • the control in the physical layer frame unit can not be performed. Therefore, next, a control method in the case where the cycle of the video border does not become an integral multiple of the cycle of the physical layer frame will be described.
  • Time Division Multiplexing (TDM) and Frequency Division Multiplexing (FDM) are available as multiplexing methods for a plurality of broadcast signals.
  • TDM Time Division Multiplexing
  • FDM Frequency Division Multiplexing
  • a control method in the case of adopting time division multiplexing (TDM) will be described with reference to FIG. 17, and then frequency division multiplexing (FDM) is adopted with reference to FIGS. 18 to 19.
  • a control method of the case is also described.
  • FIG. 12 is a diagram showing the relationship between the physical layer frame and the video signal in the case where switching of the broadcast signal according to the quality of the received signal is performed in BB packet units which are baseband packets after demodulation.
  • streams of “4K” video and audio signals, “HD” video and audio signals, and “audio” audio signals are prepared, respectively. There is. That is, these streams are streams of content of the same or corresponding content.
  • the positions indicated by the arrows P1 and P2 in the figure become video boundaries ("RAP" in the figure), such as the position at the beginning of the GOP cycle (the position of I picture).
  • the data 4K-2 is divided along the time axis and is included in the data part of the physical layer frames F-1 to F-3, but the GOP Since the cycle and the integral multiple of the cycle of the physical layer frame do not match, the data 4K-12 of the physical layer frame F-1 is data 4K-1 in addition to the data 4K-2 as the data of PLP # 1. Part of the data is included.
  • data 4K-22 of the physical layer frame F-2 includes only the data 4K-2 as the data of PLP # 1.
  • data 4K-23 of the physical layer frame F-3 includes, as data of PLP # 1, part of data 4K-3 in addition to data 4K-2.
  • data HD-2 is divided along the time axis and is included in the data part of physical layer frames F-1 to F-3, respectively, but the GOP period and the period of physical layer frame are Since the integer multiple does not match, the data HD-12 of the physical layer frame F-1 includes, as data of PLP # 2, part of data of the data HD-1 in addition to the data HD-2.
  • the data HD-22 of the physical layer frame F-2 includes only the data of the data HD-2 as the data of PLP # 2.
  • the data HD-23 of the physical layer frame F-3 includes, as data of PLP # 2, part of data of the data HD-3 in addition to the data HD-2.
  • data A-2 is divided along the time axis and is included in the data portion of physical layer frames F-1 to F-3, respectively, but the GOP period and the physical layer frame period are Since the integer multiple does not match, the data A-12 of the physical layer frame F-1 includes, as data of PLP # 3, part of data of data A-1 in addition to data A-2.
  • the data A-22 of the physical layer frame F-2 includes only the data of the data A-2 as the data of PLP # 3.
  • the data A-23 of the physical layer frame F-3 includes, as data of PLP # 3, a part of data of the data A-3 in addition to the data A-2.
  • the period of the video boundary does not match the integral multiple of the physical layer frame period. Even in this case, it is possible to match the switching timing of the signal processed in the physical layer with the boundary of the video obtained from the signal processed in the upper layer (the boundary of the GOP structure).
  • FIG. 13 is a diagram showing the relationship between the BB packet and the video signal when switching of the broadcast signal according to the quality of the received signal is performed in BB packet units which are baseband packets after demodulation.
  • the upper physical layer frames F-1 to F-3 correspond to the physical layer frames F-1 to F-3 shown in FIG.
  • the data 4K-12 of the physical layer frame F-1 includes the data 4K-1 and the data 4K-2 in the stream of "4K” as the data of PLP # 1.
  • data HD-12 includes data HD-1 of the stream of “HD” and data of data HD-2 as data of PLP # 2, and data A-12 is included in data A-12.
  • the stream data of "4K”, "HD”, and "audio” are identical.
  • the data is included as data within the GOP period or data across the GOP period.
  • the data 4K-12 included in the data portion thereof is BB packet 4K-12-1, BB packet 4K-12-2, and BB packet 4K-12-3.
  • the BB packet is a layer 1 (physical layer) packet, and one or more packets obtained by processing the data portion of the physical layer frame (demodulated) Baseband packet). Therefore, in the processing in the physical layer, by performing control in BB packet units, the timing with the cycle (GOP cycle) of the boundary of the video in finer units than in the case of performing control in physical layer frame units It becomes possible to match.
  • data HD-12 included in the data portion of physical layer frame F-1 corresponds to BB packets HD-12-1 to HD-12-3
  • data A-12 corresponds to BB packet A-12. -1 to A-12-3. Therefore, by performing control in BB packet units in the processing in the physical layer, even if the period (GOP period) of the video boundary does not match the integral multiple of the physical layer frame period, the video boundary It is possible to match the timing with the cycle (GOP cycle).
  • BB packet 4K-12-1 is a BBP header and Composed of payloads.
  • the BBP header in addition to the header (Header), optional fields (Optional Field) and extension fields (Extension Field) can be arranged.
  • the BBP header include video boundary information indicating the video boundary (RAP)
  • the BB packet to which the BBP header is added includes data corresponding to the video boundary (RAP). It can be shown.
  • the data 4K-12 included in the data part of the physical layer frame F-1 corresponds to the BB packets 4K-12-1 to 4K-12-3
  • the data of the stream "4K" (FIG. 12)
  • data 4K-1 is stored in BB packet 4K-12-1
  • data 4K-2 is stored in BB packet 4K-12-2 and BB packet 4K-12-3. It is assumed that
  • the data 4K-2 stored in the BB packet 4K-12-2 corresponds to the data corresponding to the video border (RAP) such as the head (I picture) of the GOP cycle
  • this BB packet By including the video boundary information in the header of 4K-12-2, it can be shown that the BB packet 4K-12-2 includes data corresponding to the video boundary (RAP).
  • the switching timing is the upper level. It coincides with the boundary (RAP) of the image of data 4K-2 and data HD-2 processed in the layer (the position indicated by the arrow P1 in the figure).
  • RAP boundary of the image of data 4K-2 and data HD-2 processed in the layer
  • seamless reproduction can be performed only by operating only one circuit (the demodulator 212 and the filter 213), for example.
  • Low power consumption can be realized by operating.
  • the demodulation LSI since the demodulation LSI has a large circuit size and a large power consumption, the effect of low power consumption when the operation of only one system of circuits is minimized is extremely large.
  • FIG. 14 shows the configuration of a BB packet (Baseband Packet).
  • the BB packet is composed of a BBP header and a payload.
  • the BBP header in addition to a 1-byte or 2-byte header (Header), an optional field (Optional Field) and an extension field (Extension Field) can be arranged.
  • the pointer information is information for indicating the position of the Generic packet arranged in the payload of the BB packet. For example, when the data of a Generic packet placed last in a certain BB packet is placed across the next BB packet, the position of the Generic packet placed at the beginning of the next BB packet as pointer information Information can be set.
  • the optional flag is information indicating whether or not to extend the header by arranging an optional field and an extension field.
  • the optional field and the extension field when the optional field and the extension field are not expanded, "00" is set in the optional flag. Further, when the 1-byte optional field and the extension field are to be expanded, “01” is set in the optional flag, and the short expansion mode is set (frame A in the figure). On the other hand, in the case of extending the 2-byte optional field and the extension field, the optional flag is set to "10" or "11” to be in the long extension mode or the mix extension mode (box B in the figure).
  • 3-bit extension type information (EXT_TYPE) is set.
  • EXT_TYPE 3-bit extension type information
  • extension length information EXT_Length (LSB)
  • LSB extension length information
  • video border information is placed in the extension field
  • 001 is set in the extension type information.
  • the video border information includes RAP, AdaptationSet, and Sequence Number.
  • FIG. 17 shows an example of the syntax of the video boundary information included in the header of the BB packet.
  • RAP One bit of RAP is a flag indicating that the corresponding BB packet includes the video boundary (RAP). For example, when “0” is set as the RAP, it indicates that the corresponding BB packet does not include the video boundary (RAP).
  • the payload of the corresponding BB packet includes, for example, data of an I picture arranged at the head position in the GOP cycle.
  • an AdaptationSet including a video boundary is specified.
  • the AdaptationSet corresponds to the AdaptationSet element described in the MPD metadata, which is used to perform streaming delivery compliant with MPEG-DASH.
  • RAP video boundary
  • the 15-bit Sequence Number specifies the sequence number of the BB packet. This sequence number is incremented by one for each BB packet regardless of the presence or absence of the video border (RAP). Note that, by using the sequence number, for example, it is possible to identify the corresponding BB packet between different PLPs.
  • extension type information when private user data is placed in the extension field, “110” is set in the extension type information. Furthermore, when padding the extension field, “111” is set in the extension type information. In FIG. 16, extended type information from “010” to “101” is an area for future extension (Reserved).
  • the receiver of BB packet includes video boundary information indicating video boundary (RAP) in the header of the BB packet.
  • RAP video boundary
  • the switching timing can be made to coincide with the video border (RAP) obtained from the signal processed in the upper layer.
  • FDM frequency division multiplexing
  • FIG. 18 is a diagram showing the relationship between the hierarchy and the video signal in the case where switching of the broadcast signal according to the quality of the received signal is performed in hierarchy units when hierarchical transmission is performed.
  • a predetermined frequency band for example, 6 MHz
  • a predetermined frequency band for example, 6 MHz
  • hierarchical transmission using a band for each one or a plurality of segments is used. It can be carried out.
  • the frequency band of one channel (6 MHz) is divided into 13 segments, and the central one-segment frequency band is used to transmit the broadcast signal of one segment broadcasting for mobile receivers, and the rest A broadcast signal for broadcast to a fixed receiver is transmitted using a 12-segment frequency band of
  • FIG. 18 shows the configuration of layers when performing layer transmission in the transmission system 1 (FIG. 1), where time is in the horizontal direction and frequency is in the vertical direction.
  • three layers, ie, layer 1, layer 2 and layer 3, are configured using the frequency bands of one or more segments obtained by frequency division.
  • FIG. 18 shows the configuration of the video signal as in FIG. 7 etc. described above, but the stream of the “4K” video signal and audio signal is transmitted in layer 1. Furthermore, the stream of the “HD” video signal and the audio signal is transmitted in layer 2, and the stream of the “audio” audio signal is transmitted in layer 3. Therefore, for example, the hierarchy 2 has a larger number of segments than the hierarchy 3 and the hierarchy 1 has a larger number of segments than the hierarchy 2.
  • the position indicated by arrows P1 and P2 in the figure is the video boundary such as the position of the head (position of I picture) in the GOP cycle.
  • RAP video border
  • the receiving apparatus 20 processes (detects) the video boundary information transmitted for each hierarchy, and the switching timing is processed in the upper layer. And the boundary (RAP) of the GOP structure of the data 4K-2 and the data HD-2 (the position indicated by the arrow P1 in the figure).
  • the broadcast signal of “4K” transmitted in layer 1 is switched to the broadcast signal of “HD” transmitted in layer 2 or “HD” transmitted in layer 2
  • reproduction can be performed seamlessly.
  • FIG. 19 shows the configuration of an OFDM segment when the carrier number is in the horizontal direction and the OFDM symbol number is in the vertical direction.
  • OFDM Orthogonal Frequency Division Multiplexing
  • subcarriers orthogonal subcarriers
  • the OFDM segment in FIG. 19 includes TMCC and AC.
  • TMCC Transmission Multiplexing Configuration Control
  • AC Alternative Channel
  • AC1 is present in the same number in all segments. For example, video border information can be included in the additional information (AC (AC1)).
  • FIG. 19 shows an example of the syntax of the video border information included in the additional information (AC) on broadcasting.
  • the 1-bit RAP is a flag indicating that the corresponding segment includes the video boundary (RAP). For example, when “1” is set as RAP, it indicates that the corresponding segment includes the video boundary (RAP).
  • an AdaptationSet including a video boundary is specified.
  • RAP video boundary
  • the 15-bit Sequence Number specifies a sequence number.
  • the additional information (AC) that can be specified in segment units is the video border (RAP).
  • Image boundary information indicating) is included.
  • the target broadcast signal is switched based on the video border information included in the additional information (AC), and the switching timing is the border of the video obtained from the signal processed in the upper layer ( (RAP) can be matched. Thereby, in the receiving device 20, reproduction can be performed seamlessly when switching the broadcast signal.
  • the video border information may be included in other control information such as transmission control information (TMCC) as well as the additional information (AC) on broadcasting.
  • TMCC transmission control information
  • AC additional information
  • FIG. 20 is a diagram for describing selection control of a decoding target according to the quality or the like of a received signal.
  • the receiving apparatus 20 includes a tuner 211, demodulation units 212-1 to 212-3, filters 213-1 to 213-3, a selection unit 220, and a decoding unit 214.
  • the control unit 210 and the output unit 215 are not shown in the configuration example of the receiving device 20 in FIG. 20, the selection unit 220 is a part of the functions of the control unit 210.
  • the tuner 211 processes a broadcast signal in a predetermined frequency band received via the antenna 221 according to the control from the control unit 210, and supplies the resultant received signal to the demodulation units 212-1 to 212-3. Do.
  • the received signal of “4K” is demodulated by the demodulator 212.
  • the received signal of “HD” is supplied to the demodulator unit 212-2 and the received signal of “voice” is supplied to the demodulator unit 212-3.
  • the demodulation unit 212-1 performs demodulation processing on the reception signal supplied from the tuner 211 according to the control from the control unit 210, and supplies the stream of “4K” obtained as a result to the filter 213-1.
  • the filter 213-1 processes the stream of “4K” from the demodulation unit 212-1 under the control of the control unit 210. Thereby, the "4K" video signal and audio signal can be obtained.
  • the demodulation unit 212-2 performs demodulation processing on the reception signal supplied from the tuner 211 under the control of the control unit 210, and supplies the stream of “HD” obtained as a result to the filter 213-2.
  • the filter 213-2 processes the stream of “HD” from the demodulation unit 212-2 under the control of the control unit 210. As a result, video and audio signals of "HD" can be obtained.
  • the demodulation unit 212-3 performs demodulation processing on the reception signal supplied from the tuner 211 according to the control from the control unit 210, and supplies a stream of "voice” obtained as a result to the filter 213-3.
  • the filter 213-3 processes the stream of “voice” from the demodulation unit 212-3 under the control of the control unit 210. As a result, an audio signal of "audio" is obtained.
  • control unit 210 is supplied with the processing result obtained by the processing of the tuner 211 and the processing result obtained by the processing of the demodulation units 212-1 to 212-3.
  • the control unit 210 selects a signal to be decoded based on at least one of the processing result from the tuner 211 and the demodulation unit 212.
  • control unit 210 can obtain information indicating the quality of the received signal such as the C / N ratio and the error rate of the signal obtained by the demodulation process as the processing result, for example, based on the information A signal to be decoded can be selected.
  • the control unit 210 controls the selection unit 220 based on the selection result of the signal to be decoded so that the signal to be selected is supplied to the decoding unit 214.
  • the control unit 210 supplies the video signal and audio signal of “4K” from the filter 213-1 to the decoding unit 214.
  • the decoding unit 214 decodes the “4K” video signal and audio signal supplied from the filter 213-1.
  • the receiving device 20 reproduces the 4K video and audio.
  • the control unit 210 causes the video signal and audio signal of “HD” from the filter 213-2 to be supplied to the decoding unit 214.
  • the decoding unit 214 decodes the “HD” video signal and audio signal supplied from the filter 213-2.
  • the receiving device 20 reproduces the HD video and audio.
  • the control unit 210 causes the voice signal of “voice” from the filter 213-3 to be supplied to the decoding unit 214.
  • the decoding unit 214 decodes the audio signal of "audio” supplied from the filter 213-3. Thus, only the voice is reproduced at the receiving device 20.
  • the control unit 210 uses the MPD based on the information on the segment file (for example, a template, a time stamp of ISOBMFF, etc.) obtained by the processing of the filters 213-1 to 213-3.
  • the segment file for example, a template, a time stamp of ISOBMFF, etc.
  • the "4K" broadcast signal is switched to the "HD” broadcast signal or the "HD” broadcast according to the quality of the received signal.
  • playback can be performed seamlessly.
  • the information related to the segment file described here and the control method for switching the stream using MPD metadata is an example, and another control method may be used if seamless reproduction is possible.
  • FIG. 20 illustrates the configuration in the case where the demodulator 212 and the filter 213 are provided in a plurality of systems (three systems), one system or one system or a system of operating the demodulator 212 and the filter 213 in time division It is possible to perform the same processing by the demodulation unit 212 and the filter 213 of fewer systems.
  • the first seamless reproduction process corresponds to the case of using video border information.
  • the processing of steps S111 to S113 is processing on the transmission side which is executed by the transmission device 10 of FIG. 1.
  • the processing of steps S211 to S220 is processing on the receiving side executed by the receiving device 20 of FIG.
  • step S111 the signaling processing unit 112 generates video image boundary information indicating video image boundaries (RAP) according to the stream to be processed.
  • RAP video image boundaries
  • the modulation unit 114 processes the multiplexed stream generated by the processing unit 113 to generate a physical layer frame.
  • the multiplexed stream includes, for example, a stream of content of the same or corresponding content, such as a stream of “4K”, “HD”, and “audio”.
  • the modulation unit 114 includes video boundary information indicating the video boundary (RAP) of each content in a physical layer frame unit, a BB packet unit, or a hierarchical unit according to the stream to be processed.
  • RAP video boundary information indicating the video boundary (RAP) of each content in a physical layer frame unit, a BB packet unit, or a hierarchical unit according to the stream to be processed.
  • video boundary information is included in L1 signaling included in the preamble of the physical layer frame. Also, when control is performed on a BB packet basis, video border information is included in the header of the BB packet. Furthermore, when control is performed in hierarchical units (segment units), video boundary information is included in the additional information (AC) related to broadcasting.
  • AC additional information
  • the physical layer frame generated in the process of step S112 is transmitted as a broadcast signal via the transmission path 30 (S113).
  • streams of the same or corresponding content such as “4K”, “HD”, and “audio” streams are transmitted as a plurality of broadcast signals for each stream.
  • step S211 the tuner 211 receives the broadcast signal transmitted from the transmission device 10 via the antenna 221 according to the control from the control unit 210.
  • step S212 the control unit 210 determines whether the quality of the broadcast signal (received signal) received in the process of step S211 has changed.
  • the quality of the received signal can be determined by comparing the C / N ratio obtained from the received signal with a predetermined threshold.
  • step S212 If it is determined in step S212 that the quality of the received signal has not changed, the process proceeds to step S213.
  • step S213 the demodulation unit 212 processes a physical layer frame obtained from the broadcast signal received in the process of step S211.
  • the data obtained from the physical layer frame is processed by the filter 213 to obtain a video signal and an audio signal.
  • step S214 the decoding unit 214 decodes the video signal and the audio signal obtained in the process of step S213.
  • the video and audio data decoded by the decoding unit 214 is output by the output unit 215, and for example, HD video and audio are reproduced.
  • step S215 it is determined whether to end the process. If it is determined in step S215 that the process is not ended, the process returns to step S211. Then, the process of steps S211 to S215 is repeated until it is determined in the determination process of step S212 that the quality of the received signal has changed, and, for example, reproduction of HD video and audio is continued.
  • step S212 determines whether the quality of the received signal has changed.
  • the process proceeds to step S216.
  • step S216 the demodulation unit 212 processes a physical layer frame obtained from the broadcast signal.
  • step S217 the demodulation unit 212 detects the video boundary information based on the signal processed in the physical layer obtained in the process of step S216 according to the control from the control unit 210.
  • video border information is detected from L1 signaling included in the preamble of the physical layer frame.
  • video boundary information is detected from the header of the BB packet.
  • video image boundary information is detected from additional information (AC) on broadcasting.
  • step S218 the control unit 210 determines whether video boundary information is detected from the signal processed in the physical layer based on the detection result obtained in the process of step S217.
  • step S218 If it is determined in step S218 that the video border information is not detected, the process proceeds to step S219.
  • step S219 the decoding unit 214 decodes the video signal and the audio signal obtained in the process of step S216.
  • the video and audio data decoded by the decoding unit 214 is output by the output unit 215, and, for example, reproduction of HD video and audio is continued.
  • step S219 ends, the process returns to step S216. Then, the process of steps S216 to S219 is repeated until it is determined in the determination process of step S218 that the video boundary information is detected, and, for example, the reproduction of the HD video and audio is continued.
  • step S2128 when it is determined that the video border information is detected, the process proceeds to step S220.
  • the control unit 210 controls the tuner 211 or the demodulation unit 212 to switch the broadcast signal received from the transmission device 10.
  • the “HD” broadcast signal is switched to the “4K” broadcast signal according to the change in the quality of the received signal.
  • step S220 When the broadcast signal is switched in the process of step S220, the process proceeds to step S213.
  • steps S213 to S214 the physical layer frame obtained from the switched broadcast signal is processed, and the video signal and the audio signal are decoded to reproduce, for example, 4K video and audio, and the video of the same content. There is a switch from HD resolution video to 4K resolution video.
  • step S2128 the switching timing of the signal processed in the physical layer in the process of step S220 matches the boundary (RAP) of the image processed in step S214. Therefore, for example, when the C / N ratio is increased and the quality of the received signal is improved, no disturbance of the video and audio occurs when switching from the HD resolution video to the 4K resolution video, and the smooth operation is achieved. Reproduction will take place.
  • step S215 when it is determined that the process is to be ended, the first seamless reproduction process of FIG. 21 is ended.
  • the second seamless reproduction process corresponds to the case where the video boundary information is not used.
  • the processes of steps S131 to S132 are processes on the transmission side which are executed by the transmitting device 10 of FIG.
  • the processes of steps S231 to S235 are processes on the receiving side executed by the receiving device 20 of FIG.
  • step S131 the multiplexed stream generated by the processing unit 113 is processed to generate a physical layer frame.
  • the multiplexed stream includes, for example, a stream of content of the same or corresponding content, such as a stream of “4K”, “HD”, and “audio”.
  • the physical layer frame generated in the process of step S131 is transmitted as a broadcast signal via the transmission path 30 (S132).
  • step S231 the tuner 211 receives the broadcast signal transmitted from the transmission device 10 via the antenna 221 according to the control from the control unit 210.
  • step S232 the demodulators 212-1 to 212-3 process physical layer frames obtained from the broadcast signal received in the process of step S231. Signals obtained from the physical layer frame are processed by filters 213-1 to 213-3 to obtain video signals and audio signals.
  • the signal of “4K” is processed by the demodulation unit 212-1 and the filter 213-1.
  • the signal of “HD” is processed by the demodulator 212-2 and the filter 213-2, and the signal of “voice” is processed by the demodulator 212-3 and the filter 213-3.
  • step S233 for example, based on the information indicating the quality of the received signal such as the C / N ratio, and the information such as the error rate of the signal obtained by the demodulation process, the control unit 210 performs the filters 213-1 to 213-3.
  • the signal to be decoded is selected from the signals output from.
  • step S234 the decoding unit 214 decodes one of the signals output from the filters 213-1 to 213-3 based on the selection result of the decoding target obtained in the process of step S233.
  • the receiving device 20 reproduces the 4K video and audio.
  • the receiving device 20 reproduces the HD video and audio.
  • the “voice” signal is selected as the signal to be decoded, the “voice” sound signal from the filter 213-3 is decoded. Thus, only the voice is reproduced at the receiving device 20.
  • step S235 it is determined whether to end the process. If it is determined in step S235 that the process is not ended, the process returns to step S231, and the processes of steps S231 to S235 are repeated.
  • the control unit 210 performs the filter 213-1 Disruption of video and audio by switching the stream described in the AdaptationSet element of the MPD metadata based on the information (for example, a template, a timestamp of ISOBMFF, etc.) obtained by the processing of to 213-3. You can switch the stream without causing
  • the "4K” broadcast signal is switched to the “HD” broadcast signal or the “HD” broadcast signal is switched to the “4K” broadcast signal according to the quality of the received signal, etc. Can be played back seamlessly.
  • step S235 If it is determined in step S235 that the process is to be ended, the second seamless reproduction process of FIG. 22 is ended.
  • ISDB in particular, ISDB-T
  • ATSC in particular, ATSC 3.0
  • DVB digital video broadcasting
  • the ATSC 3.0 in which the IP transmission method is adopted has been described as an example, but the present invention is not limited to the IP transmission method, and is applied to other methods such as the MPEG2-TS (Transport Stream) method. You may do so.
  • BS Broadcasting Satellite
  • CS Communications Satellite
  • CATV cable television
  • BB packet Basic Packet
  • BB stream Baseband Stream
  • ALP AccessC Link-layer Protocol
  • frames and packets may be used interchangeably.
  • the broadcast program has been described as the content in the above description, the present invention is not limited thereto.
  • any content such as an electronic book, a game, and an advertisement can be included.
  • the present invention is not limited to a broadcast program, but may be content distributed via communication. Also, some of the components that make up the content may be distributed via communication.
  • the present technology is a predetermined standard that is defined on the assumption that a transmission line other than a broadcast network, ie, a communication line (communication network) such as the Internet or a telephone network, is used as a transmission line.
  • a communication line such as the Internet or a telephone network
  • the transmission device 10 may be a server provided on the Internet. Then, the communication server and the receiving device 20 perform bi-directional communication via the transmission path 30 (communication line).
  • FIG. 23 is a diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 1001, a read only memory (ROM) 1002, and a random access memory (RAM) 1003 are mutually connected by a bus 1004.
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010 are connected to the input / output interface 1005.
  • the input unit 1006 includes a keyboard, a mouse, a microphone and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the recording unit 1008 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 1009 includes a network interface or the like.
  • the drive 1010 drives a removable recording medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads the program stored in the ROM 1002 or the recording unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004, and executes the program. A series of processing is performed.
  • the program executed by the computer 1000 can be provided by being recorded on, for example, a removable recording medium 1011 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 1008 via the input / output interface 1005 by attaching the removable recording medium 1011 to the drive 1010. Also, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the recording unit 1008.
  • the processing performed by the computer according to the program does not necessarily have to be performed chronologically in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or separately (for example, parallel processing or processing by an object). Further, the program may be processed by one computer (processor) or may be distributed and processed by a plurality of computers.
  • the present technology can have the following configurations.
  • a receiver for receiving a plurality of broadcast signals A control unit that selects a target broadcast signal from among the plurality of broadcast signals based on a result of processing on the broadcast signal.
  • the plurality of broadcast signals respectively transmit the same or corresponding content.
  • the plurality of broadcast signals are transmitted by Time Division Multiplexing (TDM), The receiving device according to (2), wherein the video border information is included in a header of a baseband packet after demodulation.
  • the plurality of broadcast signals are transmitted by Frequency Division Multiplexing (FDM), The receiving device according to (2), wherein the video boundary information is included in additional information in units of segments.
  • TDM Time Division Multiplexing
  • FDM Frequency Division Multiplexing
  • the receiving apparatus wherein the video boundary information is included in a preamble of a physical layer frame.
  • the video border information includes information for specifying a stream including the border of the video.
  • the control unit switches a target broadcast signal based on a result of demodulation of the plurality of demodulation units.
  • the video border information is information indicating the beginning of a cycle of a GOP (Group of Pictures).
  • the receiver according to any one of (1) to (8), wherein bit rates and robustness are different for each of the plurality of broadcast signals.
  • the receiving device Receive multiple broadcast signals, Selecting a target broadcast signal from the plurality of broadcast signals based on a result of processing on the broadcast signal.
  • a generation unit that generates video boundary information that is information indicating the video boundaries of the content having the same or corresponding content; And a transmitter configured to transmit the video boundary information included in a plurality of broadcast signals for transmitting the content.
  • the plurality of broadcast signals are transmitted by time division multiplexing (TDM), The transmission apparatus according to (11), wherein the video boundary information is included in a header of a baseband packet before modulation.
  • the plurality of broadcast signals are transmitted by frequency division multiplexing (FDM), The transmission apparatus according to (11), wherein the video boundary information is included in additional information in units of segments. (14) The transmission apparatus according to (11), wherein the video boundary information is included in a preamble of a physical layer frame. (15) The transmission apparatus according to any one of (11) to (14), wherein the video border information includes information for specifying a stream including the border of the video. (16) The video image boundary information is information indicating the beginning of the cycle of a GOP. (17) The transmitter according to any one of (11) to (16), wherein bit rates and robustness are different for each of the plurality of broadcast signals.
  • FDM frequency division multiplexing
  • the transmitting device Generate video border information which is information indicating the video border of the content of the same or corresponding content, A data processing method including the step of transmitting the video boundary information included in a plurality of broadcast signals for transmitting the content respectively.
  • Reference Signs List 1 transmission system 10 transmitting apparatus, 20 receiving apparatus, 30 transmission path, 111 component processing unit, 112 signaling processing unit, 113 processing unit, 114 modulation unit, 210 control unit, 211 tuner, 212 demodulation unit, 213 filter, 214 decoding Unit, 215 output unit, 1000 computer, 1001 CPU

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本技術は、放送信号の切り替え時に、シームレスに再生を行うことができるようにする受信装置、送信装置、及び、データ処理方法に関する。 受信装置は、複数の放送信号を受信し、放送信号に対する処理の結果に基づいて、複数の放送信号の中から、対象の放送信号を選択することで、放送信号の切り替え時に、シームレスに再生を行うことができる。本技術は、例えば、デジタルテレビ放送を受信可能な受信機に適用することができる。

Description

受信装置、送信装置、及び、データ処理方法
 本技術は、受信装置、送信装置、及び、データ処理方法に関し、特に、放送信号の切り替え時に、シームレスに再生を行うことができるようにした受信装置、送信装置、及び、データ処理方法に関する。
 例えば、ワンセグ放送の番組とフルセグ放送の番組など、サイマル放送されている番組の複数の放送信号を受信可能な受信機が知られている(例えば、特許文献1参照)。
特開2008-300910号公報
 ところで、受信機においては、サイマル放送されている放送番組の切り替えを行う場合などに、映像や音声の乱れが発生するときがある。そのため、受信する放送信号の切り替え時に、シームレスに再生を行うための提案が要請されていた。
 本技術はこのような状況に鑑みてなされたものであり、放送信号の切り替え時に、シームレスに再生を行うことができるようにするものである。
 本技術の第1の側面の受信装置は、複数の放送信号を受信する受信部と、前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する制御部とを備える受信装置である。
 本技術の第1の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面のデータ処理方法は、上述した本技術の第1の側面の受信装置に対応するデータ処理方法である。
 本技術の第1の側面の受信装置、及び、データ処理方法においては、複数の放送信号が受信され、前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号が選択される。
 本技術の第2の側面の送信装置は、同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成する生成部と、前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する送信部とを備える送信装置である。
 本技術の第2の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面のデータ処理方法は、上述した本技術の第2の側面の送信装置に対応するデータ処理方法である。
 本技術の第2の側面の送信装置、及び、データ処理方法においては、同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報が生成され、前記映像境界情報が、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信される。
 本技術の第1の側面、及び、第2の側面によれば、放送信号の切り替え時に、シームレスに再生を行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した伝送システムの一実施の形態の構成を示す図である。 送信装置の構成例を示す図である。 受信装置の構成例を示す図である。 シームレス再生の原理を説明する図である。 シームレス再生を行う受信装置の構成例を示す図である。 受信信号の品質と、放送信号の切り替えタイミングの例を示す図である。 物理層フレーム単位での制御を行う場合の物理層フレームと映像信号との関係を示す図である。 IP伝送方式を採用した場合のレイヤごとのデータ構造の例を示す図である。 L1基本情報のシンタックスの例を示す図である。 L1詳細情報のシンタックスの例を示す図である。 物理層とその上位層で取り扱われるデータの関係を示す図である。 BBパケット単位での制御を行う場合の物理層フレームと映像信号との関係を示す図である。 BBパケット単位での制御を行う場合のBBパケットと映像信号との関係を示す図である。 BBパケットの拡張ヘッダを説明する図である。 BBパケットの拡張ヘッダを説明する図である。 BBパケットの拡張ヘッダを説明する図である。 映像境界情報のシンタックスの例を示す図である。 階層単位での制御を行う場合の階層と映像信号との関係を示す図である。 映像境界情報を、放送に関する付加情報(AC)に配置する場合の例を示す図である。 受信信号の品質等に応じた復号対象の選択制御を説明する図である。 第1のシームレス再生処理の流れを説明するフローチャートである。 第2のシームレス再生処理の流れを説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システムの構成
2.本技術の概要
3.本技術のシームレス再生制御
(1)物理層フレーム単位での制御
(2-1)BBパケット単位での制御(TDM)
(2-2)階層単位での制御(FDM)
(3)受信信号の品質等に応じた復号対象の選択制御
4.シームレス再生処理の流れ
5.変形例
6.コンピュータの構成
<1.システムの構成>
(伝送システムの構成例)
 図1は、本技術を適用した伝送システムの一実施の形態の構成を示す図である。なお、システムとは、複数の装置が論理的に集合したものをいう。
 図1において、伝送システム1は、送信装置10と受信装置20から構成される。この伝送システム1では、所定の放送方式に準拠したデータ伝送が行われる。
 送信装置10は、所定の放送方式に対応した送信機であって、伝送路30を介してコンテンツを送信する。例えば、送信装置10は、放送番組等のコンテンツを構成する映像や音声等(のコンポーネント)とシグナリングを含む放送ストリームを、放送波として、伝送路30を介して送信する。
 受信装置20は、所定の放送方式に対応した受信機であって、送信装置10から伝送路30を介して伝送されてくる、コンテンツを受信して出力する。例えば、受信装置20は、送信装置10からの放送波を受信して、放送ストリームに含まれる、コンテンツを構成する映像や音声等(のコンポーネント)とシグナリングを処理し、放送番組等のコンテンツの映像や音声を再生する。
 なお、伝送システム1において、伝送路30は、地上波(地上波放送)のほか、例えば、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)を利用した衛星放送、あるいは、ケーブルを用いた有線放送(CATV)などであってもよい。
(送信装置の構成例)
 図2は、図1の送信装置10の構成例を示す図である。
 図2において、送信装置10は、コンポーネント処理部111、シグナリング処理部112、処理部113、及び変調部114から構成される。
 コンポーネント処理部111は、そこに入力されるコンテンツを取得する。ここで、コンテンツは、映像や音声、字幕等のコンポーネントから構成される。また、コンテンツとしては、同一の又は対応する内容であって、例えば、画面解像度の異なるものや、音声のみのものを複数用意することができる。
 コンポーネント処理部111は、コンテンツの映像や音声のデータを処理(例えば、符号化処理等)し、その結果得られる映像信号や音声信号を、処理部113に供給する。
 シグナリング処理部112は、そこに入力される、受信装置20側での復調処理や再生処理等で用いられる制御情報を生成するためのデータを取得する。シグナリング処理部112は、制御情報用のデータに基づいて、シグナリング(制御情報)を生成し、処理部113に供給する。
 処理部113は、コンポーネント処理部111から供給される映像信号や音声信号と、シグナリング処理部112から供給されるシグナリングに対し、必要な処理を施し、その結果得られる多重化ストリームを、変調部114に供給する。
 変調部114は、処理部113から供給される多重化ストリームに対し、変調処理を行い、その結果得られる信号を、アンテナ121を介して、放送信号として送信する。
 送信装置10は、以上のように構成される。なお、図2においては、説明の都合上、送信装置10が、あたかも1つの装置から構成されるように記載されているが、送信側の送信装置10は、図2のブロックの各機能を有する複数の装置から構成されるシステムとすることができる。
(受信装置の構成例)
 図3は、図1の受信装置20の構成例を示す図である。
 図3において、受信装置20は、制御部210、チューナ211、復調部212、フィルタ213、復号部214、及び出力部215から構成される。
 制御部210は、例えば、CPU(Central Processing Unit)やマイクロプロセッサ等から構成される。制御部210は、受信装置20の各部の動作を制御する。
 チューナ211は、制御部210からの制御に従い、アンテナ221を介して受信される所定の周波数帯域の放送信号を処理し、その結果得られる受信信号を、復調部212に供給する。
 復調部212は、例えば、復調LSI(Large Scale Integration)等から構成される。復調部212は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる多重化ストリームを、フィルタ213に供給する。
 フィルタ213は、制御部210からの制御に従い、復調部212から供給される多重化ストリームを処理し、その結果得られる映像信号や音声信号を、復号部214に供給する。
 復号部214は、制御部210からの制御に従い、フィルタ213から供給される映像信号や音声信号を復号し、その結果得られる映像や音声のデータを出力部215に供給する。なお、フィルタ213や復号部214は、例えば、メインSoC(System On Chip)等から構成される。
 出力部215は、例えば、出力インターフェース回路等から構成される。出力部215は、復号部214から供給される映像や音声のデータを処理し、表示装置(不図示)やスピーカ(不図示)などに出力する。これにより、受信装置20では、放送番組等のコンテンツが再生され、その映像や音声が出力される。
 なお、図3においては、受信装置20が、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescence Display)等のディスプレイやスピーカを有するようにして、出力部215からのデータに応じた映像や音声を出力するようにしてもよい。
 受信装置20は、以上のように構成される。
<2.本技術の概要>
 例えば、日本等が採用する放送方式であるISDB-T(Integrated Services Digital Broadcasting - Terrestrial)においては、地上デジタルテレビ放送として、主に固定受信機向けの放送であり、12セグメントを使用したハイビジョン放送(以下、フルセグ放送という)と、主にモバイル受信機向けの放送であり、1セグメントを使用した「携帯電話・移動体端末向けの1セグメント部分受信サービス」(以下、ワンセグ放送という)が規定されている。また、地上デジタルテレビ放送では、フルセグ放送とワンセグ放送とで、同一の放送番組(コンテンツ)を放送するサイマル放送が行われる。
 近年、携帯電話機やスマートフォンなど、地上デジタルテレビ放送のチューナを搭載したモバイル受信機として、ワンセグ放送に限らず、いわゆるフルセグ放送も受信可能なものが普及しつつある。
 この種のモバイル受信機では、受信環境が良い場合には、フルセグ放送を受信する一方で、受信環境が悪い場合には、ワンセグ放送を受信するなど、その受信環境に応じて、受信する放送信号を切り替えることができるものがある。例えば、フルセグ放送は、HD解像度の映像(概ね1920×1080ピクセル前後の画面解像度に対応した映像)とされ、ワンセグ放送は、QVGA解像度の映像(概ね320×240ピクセル前後の画面解像度に対応した映像)とされる。
 しかしながら、モバイル受信機では、受信環境に応じて受信する放送信号の切り替えを行う際に、例えば、フリーズやブロックエラーなどの映像や音声の乱れが発生する場合がある。このような現象が発生する原因の一つとして、例えば、放送システムのプロトコルスタックにおける物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られるGOP(Group of Pictures)構造の境界とが、一致していないことが挙げられる。
 なお、GOPは、Iピクチャ、Bピクチャ、又はPピクチャにより構成され、少なくとも1枚のIピクチャを含むものである。また、Iピクチャは、現在の画像情報のみを使用して符号化された画像である。Bピクチャは、現在、過去及び未来の画像情報を使用して符号化された画像である。Pピクチャは、現在及び過去の画像情報を使用して符号化された画像である。
 一方で、米国等が採用する放送方式であるATSC(Advanced Television Systems Committee)においては、次世代地上放送規格の1つであるATSC3.0の策定が進められている。ATSC3.0では、放送信号として、ビットレートやロバスト性が異なる複数の信号を用意することで、受信機において、受信環境に応じて受信する放送信号の切り替えを行うという運用が想定されている。
 このような運用を行う場合には、例えば、4K解像度の映像(概ね4000×2000ピクセル前後の画面解像度に対応した映像)と音声を、高ビットレート、かつ低ロバスト性で伝送し、HD解像度の映像(概ね1920×1080ピクセル前後の画面解像度に対応した映像)と音声を、中ビットレート、かつ中ロバスト性で伝送し、音声のみを、低ビットレート、かつ高ロバスト性で伝送することができる。
 この場合において、受信機の受信環境が良ければ、4K解像度の映像と音声の放送信号を選択して受信することができるが、受信機の受信環境が悪くなれば、HD解像度の映像と音声を選択するか、あるいは最悪の場合に音声のみを選択して受信することになる。その際に、例えば、4K解像度の映像とHD解像度の映像との切り替えで、フリーズ等の映像や音声の乱れが発生する場合があり、その原因の一つとして、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られるGOP構造の境界とが一致していないことが挙げられる。
 このように、放送信号の切り替え時に、物理層での信号の切り替えのタイミングと、その上位層の信号から得られる映像の境界とが一致していないと、映像や音声に乱れが発生するので、本技術では、このような点に着目して、放送信号の切り替え時に発生する映像や音声の乱れを抑制し、シームレスに再生を行うための提案を行う。
(シームレス再生の原理)
 ここで、図4及び図5を参照して、本技術を適用したシームレス再生の原理を説明する。
 図4には、横軸を時間とし、縦軸をC/N比(Carrier to Noise Ratio)としたときの受信信号の品質と、受信可能な放送信号との関係を示している。図4においては、時間の経過とともに、実線Lで表されたC/N比が変動している。
 また、図4においては、受信装置20により受信可能な放送信号として、3種類の放送信号が用意され、それぞれの放送信号は、必要なビットレートとロバスト性が異なっている。すなわち、4K解像度の映像と音声を、高ビットレート、かつ低ロバスト性で伝送する放送信号を、図中の「4K」で表している。また、HD解像度の映像と音声を、中ビットレート、かつ中ロバスト性で伝送する放送信号を、図中の「HD」で表し、音声のみを、低ビットレート、かつ高ロバスト性で伝送する放送信号を、図中の「音声」で表している。
 なお、ここでは具体的な値を示していないが、低ビットレート、中ビットレート、高ビットレートの順に、ビットレートが高くなることを意味している。また、低ロバスト性、中ロバスト性、高ロバスト性の順に、ロバスト性が高くなることを意味している。
 ここで、C/N比が高ければ、伝送における雑音の影響が小さいので、受信信号の品質が良いと言える。一方で、C/N比が小さければ雑音の影響が大きいので、受信信号の品質が悪いと言える。そのため、図4に示すように、C/N比が高ければ、「4K」、「HD」、及び「音声」の放送信号を受信可能となるが、C/N比が低くなると、「HD」及び「音声」の放送信号が受信可能となり、さらにC/N比が低くなると、「音声」の放送信号しか受信できなくなる。
 このように、受信装置20では、受信信号の品質に応じて、受信可能な放送信号が変化するため、受信信号の品質が良い場合に、「4K」の放送信号を受信していたときでも、受信信号の品質が悪くなると、「4K」の放送信号を受信できなくなって、「HD」の放送信号を受信することになる。逆に、受信装置20では、受信信号の品質が少し悪い場合に、「HD」の放送信号を受信していたときでも、受信信号の品質が良くなると、「4K」の放送信号を受信できるので、「4K」の放送信号を受信することになる。
 すなわち、受信装置20では、C/N比の変動に応じて、受信する放送信号を切り替えるが、例えば、4K解像度の映像からHD解像度の映像に切り替える場合や、HD解像度の映像から4K解像度の映像に切り替える場合に、映像や音声の乱れが発生するときがあるのは、先に述べた通りである。そして、本技術では、放送信号の切り替え時に、映像や音声の乱れが発生することを抑制して、シームレスに再生を行うことができるようにする。
 本技術のシームレス再生制御では、大別すると、映像の境界(RAP:Random Access Point)を示す情報である映像境界情報を用いるケースと、映像境界情報を用いないケースとに分けられる。
 映像境界情報を用いるケースでは、物理層で処理される信号に、映像の境界(RAP)を示す情報である映像境界情報を含めるようにする。これにより、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。映像境界情報を用いるケースは、図6乃至図19を参照して説明する。
 一方で、映像境界情報を用いないケースでは、受信可能な複数の放送信号のすべてを処理し、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレートなどの情報に基づいて、復号対象の信号が選択されるようにする。図5には、映像境界情報を用いないケースを実現するための受信装置20の構成例を示している。図5に示すように、映像境界情報を用いないケースを採用する場合には、複数の放送信号を処理するために、複数系統の復調部212とフィルタ213が必要となる。映像境界情報を用いないケースは、図20を参照して説明する。
<3.本技術のシームレス再生制御>
 次に、本技術のシームレス再生制御について説明するが、ここでは、まず、映像境界情報を用いるケースを説明する。
 ここで、映像境界情報には、映像の境界(RAP)として、例えば、GOP周期における先頭の位置(Iピクチャの位置)を含めることができる。これにより、受信装置20では、受信信号の品質に応じて、対象の放送信号の切り替えのタイミングを、GOP構造の境界等の映像の境界(RAP)と一致させることができる。
(放送信号の切り替えタイミングの例)
 図6には、横軸を時間とし、縦軸をC/N比としたときの受信信号の品質と、放送信号の切り替えのタイミングを示している。
 図6においては、時間の経過とともに、実線Lで表されたC/N比が変動しているが、時刻t1の直前に、ユーザによって、チャネル(サービス)の選局操作が行われた場合を想定する。この場合において、時刻t1乃至時刻t2の間は、C/N比が高く、受信信号の品質が良いので、受信装置20では、「4K」の放送信号(図中の「S1」)が選択され、4Kの映像と音声が再生される。
 その後、時刻t2において、C/N比が徐々に低下し、受信信号の品質が悪くなってきたとき、受信装置20では、「4K」の放送信号から、「HD」の放送信号(図中の「S2」)に切り替えられ、HDの映像と音声が再生される。このとき、受信装置20(の復調部212等)において、物理層で処理される信号には、映像境界情報が含まれているため、この映像境界情報に応じたタイミングで、物理層で処理される信号を切り替えることにより、そのタイミングが、上位層で処理される信号から得られる映像の境界(例えばGOP構造の境界)と一致することになる。
 これにより、受信装置20において、後段の復号部214では、映像信号と音声信号を連続して復号することが可能となり、結果として、「4K」の放送信号(図中の「S1」)から、「HD」の放送信号(図中の「S2」)の切り替え時に、シームレスに再生を行うことができる。
 その後、時刻t2乃至時刻t4の間においては、受信装置20では、受信信号の品質に応じて、「HD」の放送信号(図中の「S2」、「S3」)の選択が継続され、HDの映像と音声が再生される。
 また、時刻t4において、C/N比が高くなり、受信信号の品質が良くなってきたとき、受信装置20ででは、「HD」の放送信号(図中の「S3」)から、「4K」の放送信号(図中の「S4」)に切り替えられ、4Kの映像と音声が再生される。このとき、受信装置20(の復調部212等)において、物理層で処理される信号に含まれる映像境界情報に応じたタイミングで、物理層で処理される信号が切り替えられることにより、そのタイミングが、上位層で処理される信号から得られる映像の境界(例えばGOP構造の境界)と一致することになる。
 これにより、受信装置20において、後段の復号部214では、映像信号と音声信号を連続して復号することが可能となり、結果として、「HD」の放送信号(図中の「S3」)から、「4K」の放送信号(図中の「S4」)の切り替え時に、シームレスに再生を行うことができる。
 以降の時間帯については、繰り返しになるので、その説明は省略するが、受信装置20では、受信信号の品質に応じて放送信号の切り替えを行うに際し、物理層で処理される信号に含まれる映像境界情報に従い、放送信号を切り替えることで、放送信号の切り替えのタイミングと映像の境界(RAP)とを一致させることが可能となり、シームレスに再生を行うことができる。
 このように、受信装置20では、映像境界情報を用いることで、シームレスに再生を行うことができる。ここで、映像境界情報は、物理層で処理される信号として、例えば、物理層フレームのプリアンブルや、物理層のパケット(復調後のベースバンドのパケット)のヘッダ、放送に関する付加情報などに含めることができる。以下、映像境界情報の配置位置に応じた制御方法について説明する。
(1)物理層フレーム単位での制御
(物理層フレームと映像信号との関係)
 図7は、受信信号の品質に応じた放送信号の切り替えを、データを伝送する単位である物理層フレーム単位で行う場合における、物理層フレームと映像信号との関係を示す図である。
 ただし、図7の上段に、物理層フレームの構成を示し、図7の下段に、映像信号の構成を示している。また、図7において、時間の方向は、図中の左側から右側に向かう方向とされる。なお、これらの関係は、後述の対応する他の図でも同様とされる。
 図7においては、3種類の放送信号を送信するために、「4K」の映像信号と音声信号、「HD」の映像信号と音声信号、及び「音声」の音声信号のストリームがそれぞれ用意されている。つまり、これらのストリームは、同一の又は対応する内容のコンテンツのストリームである。これらのストリームにおいて、図中の矢印P1,P2が示す位置が、例えば、GOP周期における先頭の位置(Iピクチャの位置)などの映像の境界(図中の「RAP」)となる。
 これらのストリームは、放送信号として送信される場合、物理層フレーム単位で伝送される。例えば、ATSC3.0において、物理層フレームは、ブートストラップ(BS:Bootstrap)と、プリアンブル(Preamble)と、データ部(Data)から構成される。
 なお、ブートストラップは、例えば、DVB-T2(Digital Video Broadcasting - Second Generation Terrestrial)のT2フレームを構成するP1シンボルに対応し、プリアンブルは、例えば、DVB-T2のT2フレームを構成するP2シンボルに対応している。したがって、ブートストラップは、プリアンブルであると言うこともできる。また、物理層フレームのフレーム長は、例えば、100~200msなどとされる。
 物理層フレームにおいて、データ部には、PLP(Physical Layer Pipe)ごとにデータが含まれる。
 すなわち、「4K」の映像信号と音声信号のストリームは、"1"であるPLPIDのPLP(以下、PLP#1とも記述する)として伝送される。そして、PLP#1で伝送される「4K」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)となるデータ4K-1は、その時間軸に従い、データ4K-11と、データ4K-12と、データ4K-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
 「HD」の映像信号と音声信号のストリームは、"2"であるPLPIDのPLP(以下、PLP#2とも記述する)として伝送される。そして、PLP#2で伝送される「HD」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)となるデータHD-1は、その時間軸に従い、データHD-11と、データHD-12と、データHD-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
 「音声」の音声信号のストリームは、"3"であるPLPIDのPLP(以下、PLP#3とも記述する)として伝送される。そして、PLP#3で伝送される「音声」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)に対応した位置となるデータA-1は、その時間軸に従い、データA-11と、データA-12と、データA-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
 なお、繰り返しになるので、これ以上は説明しないが、図中の矢印P2が示す位置が映像の境界(RAP)となるデータ4K-2、データHD-2、及びデータA-2についても同様に、分割されたデータが、物理層フレームF-3以降の物理層フレーム(不図示)に含まれることになる。
 このように、図7の例では、映像の境界の周期(例えばGOP周期)と、物理層フレームの周期の整数倍とが等しくなる関係を有している。そのため、例えば、GOP周期の先頭(Iピクチャ)等の映像の境界(RAP)に対応するデータ(データ4K-11、HD-11、及びA-11)を含む物理層フレーム(物理層フレームF-1)のプリアンブルに、映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、当該物理層フレーム(物理層フレームF-1)が、映像の境界(RAP)に対応するデータを含むことを示すことができる。
 これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、例えば、映像境界情報が含まれる物理層フレームF-1を処理することで、その切り替えのタイミングが、上位層で処理されるデータ4K-1やデータHD-1の映像の境界(図中の「RAP」)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
 また、物理層フレームのプリアンブルに含まれる映像境界情報を用いることで、例えば、1系統の回路(復調部212とフィルタ213)のみを動作させるだけで、シームレス再生が可能となるので、回路を最小限動作させて、低消費電力を実現することができる。例えば、復調LSIは、回路規模が大きく、消費電力が大きいので、1系統の回路のみの最小限の動作とすることでの低消費電力の効果は非常に大きなものとなる。
 なお、詳細は後述するが、ATSC3.0では、トランスポート・プロトコルとして、ROUTEを用いる場合には、MPEG-DASHに準拠したストリーミング配信が行われることになるが、MPEG-DASHでは、映像や音声のストリームが、セグメントファイルとして伝送される。そして、セグメントファイルは、その先頭に、RAP(Random Access Point)を含んでいるので、図7の例で、映像の境界(RAP)は、セグメントファイルの先頭に相当し、セグメントファイル単位での切り替えを行うことで、シームレス再生が行われるとも言える。
(データ構造の例)
 ところで、伝送方式として、現在広く普及しているMPEG2-TS(Transport Stream)方式ではなく、通信の分野で用いられているIP(Internet Protocol)パケットをデジタルテレビ放送に用いたIP伝送方式を導入することで、より高度なサービスを提供することが期待されている。例えば、次世代地上放送規格の1つであるATSC3.0では、IP伝送方式の採用が決定されている。
 図8は、IP伝送方式を採用した場合のレイヤごとのデータ構造の例を示す図である。
 図8においては、物理層であるレイヤ1(L1)と、レイヤ1の上位層であるレイヤ2(L2)と、レイヤ2の上位層であるレイヤ3(L3)が階層構造をなしている。
 レイヤ3のデータとしては、IPパケットが処理される。IPパケットは、IPヘッダ(IP Header)とペイロード(Payload)から構成される。IPパケットのペイロードには、UDPパケットが格納される。すなわち、IPパケットは、IP/UDPパケットであるとも言える。IP/UDPパケットのペイロードには、コンテンツの映像や音声のデータ、制御情報としてのシグナリングのデータ等が格納される。
 レイヤ2のデータとしては、Genericパケットが処理される。Genericパケットは、Genericヘッダ(Generic Header)とペイロード(Payload)から構成される。Genericパケットのペイロードには、1又は複数のIP/UDPパケットが配置され、カプセル化(encapsulation)される。
 レイヤ1のデータとしては、BBパケット(Baseband Packet)が処理される。BBパケットは、BBPヘッダ(Baseband Packet Header)と、ペイロード(Payload)から構成される。BBパケットのペイロードには、1又は複数のGenericパケットが配置され、カプセル化される。また、レイヤ1においては、1又は複数のBBパケットをスクランブルして得られるデータ(Data)がFECフレーム(FEC Frame)にマッピングされ、物理層のエラー訂正用のパリティ(Parity)が付加される。
 ここで、レイヤ1の物理層フレーム(Physical Frame)は、ブートストラップ(Bootstrap)と、プリアンブル(Preamble)と、データ部(Data)から構成される。そして、物理層フレームのデータ部には、複数のFECフレームに対して、ビットインターリーブを行った後に、マッピング処理を行い、さらに、時間方向と周波数方向にインターリーブを行うなどの物理層の処理(変調処理)が行われることで得られるデータがマッピングされる。
 物理層フレームのプリアンブルには、シグナリングが含まれる。例えば、ATSC3.0では、プリアンブルに含まれるシグナリングとして、L1シグナリングが規定されている。L1シグナリングは、L1基本情報(L1 Basic Signaling)と、L1詳細情報(L1 Detail Signaling)から構成される。
 ここで、L1基本情報とL1詳細情報とを比較すれば、L1基本情報は、200ビット程度のビットから構成されるが、L1詳細情報は、400~数千ビットから構成される点でそのサイズが異なっている。また、物理層フレームのプリアンブルでは、L1基本情報とL1詳細情報がその順に読み出されるため、L1詳細情報よりもL1基本情報のほうが先に読み出される。さらに、L1基本情報は、L1詳細情報と比べて、よりロバストに伝送される点でも異なっている。
(L1基本情報の構成)
 図9は、L1基本情報(L1 Basic Signaling)のシンタックスの例を示す図である。
 なお、L1基本情報については、下記の非特許文献1の「Table 9.2 L1-Basic Signaling Fields and Syntax」にその詳細な内容が記載されている。そのため、図9のシンタックスには、L1基本情報のうち、特に本技術に関係する部分を抜粋して記述している。
 非特許文献1:ATSC Candidate Standard:Physical Layer Protocol (A/322) Doc. S32-230r45 6 April 2016
 1ビットのL1B_RAP_EXIST_FLAGは、L1詳細情報に、映像境界情報が存在するかどうかを示すフラグである。
 例えば、L1B_RAP_EXIST_FLAGとして、"0"が設定された場合、L1詳細情報に、映像境界情報が含まれていないことを示す。一方で、L1B_RAP_EXIST_FLAGとして、"1"が設定された場合、L1詳細情報に、映像境界情報が含まれていることを示す。
 L1B_RAP_EXIST_FLAG以外の説明は、ここでは省略するものとする。
(L1詳細情報の構成)
 図10は、L1詳細情報(L1 Detail Signaling)のシンタックスの例を示す図である。
 なお、L1詳細情報については、上述した非特許文献1の「Table 9.8 L1-Detail Signaling Fields and Syntax」にその詳細な内容が記載されている。そのため、図10のシンタックスには、L1詳細情報のうち、特に本技術に関係する部分を抜粋して記述している。
 例えば、図9のL1基本情報において、L1B_RAP_EXIST_FLAGとして、"1"が設定された場合、映像境界情報が存在していることを示しているので、図10のL1詳細情報には、映像境界情報として、1ビットのRAPと、8ビットのAdaptationSetが配置される。
 1ビットのRAPは、該当の物理層フレームに、映像の境界(RAP)が含まれることを示すフラグである。例えば、RAPとして、"0"が設定された場合、該当の物理層フレームに、映像の境界(RAP)が含まれていないことを示す。
 一方で、RAPとして、"1"が設定された場合、該当の物理層フレームに、映像の境界(RAP)が含まれていることを示す。すなわち、この場合、該当の物理層フレームのデータ部には、例えば、GOP周期における先頭の位置に配置されるIピクチャのデータが含まれることになる。
 8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。ここで、AdaptationSetは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)に準拠したストリーミング配信を行うために用いられる、MPD(Media Presentation Description)メタデータに記述されるAdaptationSet要素に対応している。
 すなわち、MPDメタデータは、Period要素、AdaptationSet要素、及びRepresentation要素等が階層構造で記述されている。Period要素は、放送番組等のコンテンツの構成を記述する単位となる。AdaptationSet要素又はRepresentation要素は、映像や音声、字幕等のそれぞれのストリームごとに利用され、ぞれぞれのストリームの属性を記述できるようになっている。
 具体的には、AdaptationSet要素は、各種のソースからエンコードされたストリームを表している。そして、当該ストリームを、例えばビットレート等のパラメトリックに応じて、受信装置20側で選択させるために、AdaptationSet要素内に、Representation要素を配置して、例えばビットレート等のパラメータが異なる複数の選択肢となるストリームを列挙している。通常、AdaptationSet要素やRepresentation要素は、映像や音声、字幕のストリームなど、単一のストリームに対応させている。
 例えば、ATSC3.0では、トランスポート・プロトコルとして、ROUTE(Real-Time Object Delivery over Unidirectional Transport)を用いることが想定され、その場合には、MPEG-DASHに準拠したストリーミング配信が行われることになる。この場合、L1詳細情報に配置されるAdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。
 RAPと、AdaptationSet以外の説明は、ここでは省略するものとする。
 なお、図9及び図10において、フォーマット(Format)として、uimsbf(unsigned integer most significant bit first)が指定された場合、ビット演算をして、整数として扱われることを意味している。
(物理層と上位層の関係)
 図11は、物理層とその上位層で取り扱われるデータの関係を示す図である。
 上述したように、ATSC3.0では、トランスポート・プロトコルとして、ROUTE(Real-Time Object Delivery over Unidirectional Transport)を用いることが想定されている。ここで、ROUTEは、バイナリファイルを一方向でマルチキャスト転送するのに適したプロトコルであるFLUTE(File Delivery over Unidirectional Transport)を拡張したプロトコルである。このROUTEセッションを利用して、映像や音声、字幕のコンポーネント、シグナリングなどを伝送することができる。
 図11において、所定の周波数帯域(例えば6MHz)の放送ストリーム(Broadcast Stream)には、PLP#0,PLP#1,PLP#2が含まれる。PLP#0は、LLS(Low Level Signaling)のストリームを含む。ただし、LLSのストリームは、IPパケットに格納されて伝送される。
 ここで、ATSC3.0では、シグナリングとして、LLS(Low Level Signaling)と、SLS(Service Layer Signaling)が規定されている。LLSは、SLSに先行して取得されるシグナリングであって、LLSに含まれる情報に従い、サービスごとのSLSが取得される。LLSとしては、例えば、SLT(Service List Table)等のメタデータが含まれる。SLTメタデータは、サービスの選局に必要な情報など、放送ネットワークにおけるストリームやサービスの構成を示す基本情報を含む。
 PLP#1は、例えば、Service#1として提供される「4K」のストリームを含んでいる。「4K」のストリームは、映像信号(Video Segments)、音声信号(Audio Segments)、及びSLS(Service Signaling)を含み、SLTメタデータに含まれるIPアドレスやポート番号、PLP ID等により特定される。
 SLSは、サービス単位のシグナリングである。SLSは、USBD(User Service Bundle Description),S-TSID(Service-based Transport Session Instance Description),MPD(Media Presentation Description)等のメタデータを含む。
 USBDメタデータは、他のメタデータの取得先などの情報を含む。
 S-TSIDメタデータは、LSID(LCT Session Instance Description)をATSC3.0向けに拡張したものであって、ROUTEプロトコルの制御情報である。また、S-TSIDメタデータは、ROUTEセッションで伝送されるEFDT(Extended FDT)を特定することができる。EFDTは、FLUTEで導入されていたFDT(File Delivery Table)を拡張したものであって、転送用の制御情報である。
 MPDメタデータは、上述したように、MPEG-DASHに準拠したストリーミング配信を行うために用いられる、映像や音声のファイルの制御情報である。ここで、MPEG-DASHは、OTT-V(Over The Top Video)に従ったストリーミング配信規格であって、HTTP(Hypertext Transfer Protocol)をベースとしたストリーミングプロトコルを用いたアダプティブストリーミング配信に関する規格である。
 このMPEG-DASHの規格では、映像や音声のファイルの制御情報であるメタデータを記述するためのマニフェストファイルと、動画のコンテンツを伝送するためのファイルフォーマットが規定されている。ここでは、前者のマニフェストファイルが、MPD(Media Presentation Description)と称され、後者のファイルフォーマットは、セグメントフォーマットとも称される。
 また、トランスポート・プロトコルとして、ROUTEを用いる場合には、ストリーミングのファイルフォーマットとして、MP4ファイルフォーマットを用いることが想定される。MP4ファイルフォーマットは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISOBMFF:ISO Base Media File Format)の派生フォーマットである。
 受信装置20においては、選局時に、あらかじめ取得されたSLTメタデータに従い、選局対象のサービス(Service#1)のIPアドレスやポート番号、PLP IDから、再生対象のストリームを特定する。また、受信装置20においては、再生対象のストリームについて、ROUTEセッションのLCTチャネルのうち、SLSチャネルで伝送されるMPDメタデータやS-TSIDメタデータが解析され、その解析結果に従い、AV(Audio Video)チャネルで伝送される映像と音声のストリーム(セグメントファイル)が取得される。これにより、受信装置20では、Service#1として提供される4Kの映像と音声が再生される。
 なお、ATSC3.0では、トランスポート・プロトコルとして、ROUTEとともに、MMT(MPEG Media Transport)を用いることも想定されている。図11の例では、PLP#2で、Service#2として提供されるサービスが、MMT方式に対応している。
 以上のように、物理層フレーム単位での制御では、物理層フレームのプリアンブルに、L1シグナリングとして、映像の境界(RAP)を示す映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
 なお、上述した物理層フレーム単位での制御の説明では、例えばATSC3.0など、複数の放送信号の多重化の方式として、時分割多重化方式(TDM:Time Division Multiplexing)が採用されている場合を説明したが、周波数分割多重化方式(FDM:Frequency Division Multiplexing)についても同様に行うことができる。
 すなわち、周波数分割多重化方式(FDM)を採用した場合には、所定の周波数帯域(例えば6MHz)が、複数のセグメントに周波数分割され、1又は複数のセグメントごとの帯域を利用した階層伝送が行われる。この場合に、周波数分割で得られる、1又は複数のセグメントの周波数帯域からなる階層ごとに、例えば、「4K」、「HD」、「音声」など、同一の又は対応する内容のコンテンツを伝送することができる。
 そして、このような周波数分割多重化方式(FDM)を採用した場合でも、物理層フレームのシグナリングとして、映像の境界(RAP)を示す情報である映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。
 例えば、ISDB-Tでは、周波数分割多重化方式(FDM)が採用され、1チャネルの周波数帯域(6MHz)が、13セグメントに周波数分割され、中心の1セグメントの周波数帯域を用いて、モバイル受信機向けのワンセグ放送の放送信号が伝送され、残りの12セグメントの周波数帯域を用いて、固定受信機向けの放送の放送信号が伝送される。この場合においても、映像の境界(RAP)を示す情報である映像境界情報を用いることで、例えば、モバイル受信機において、受信環境に応じて、フルセグ放送の放送信号と、ワンセグ放送の放送信号とを切り替える際に、映像や音声の乱れが生じることなく、シームレスに再生を行うことができる。
(2-1)BBパケット単位での制御(TDM)
 ところで、上述の物理層フレーム単位での制御では、映像の境界の周期(例えばGOP周期)と、物理層フレームの周期の整数倍とが等しくなる関係を有することを前提に、プリアンブルのL1シグナリングに、映像境界情報を含めた。しかしながら、映像の境界の周期と、物理層フレームの周期の整数倍とが異なる場合には、物理層フレーム単位での制御を行うことはできない。そこで、次に、映像の境界の周期が、物理層フレームの周期の整数倍とはならない場合の制御方法について説明する。
 ただし、複数の放送信号の多重化の方式として、時分割多重化方式(TDM)と周波数分割多重化方式(FDM)があるのは先に述べた通りであるが、ここでは、まず、図12乃至図17を参照して、時分割多重化方式(TDM)を採用した場合の制御方法を説明してから、図18乃至図19を参照して、周波数分割多重化方式(FDM)を採用した場合の制御方法についても説明する。
(物理層フレームと映像信号との関係)
 図12は、受信信号の品質に応じた放送信号の切り替えを、復調後のベースバンドのパケットであるBBパケット単位で行う場合における、物理層フレームと映像信号との関係を示す図である。
 図12においては、3種類の放送信号を送信するために、「4K」の映像信号と音声信号、「HD」の映像信号と音声信号、及び「音声」の音声信号のストリームがそれぞれ用意されている。つまり、これらのストリームは、同一の又は対応する内容のコンテンツのストリームである。これらのストリームにおいて、図中の矢印P1,P2が示す位置が、GOP周期における先頭の位置(Iピクチャの位置)など、映像の境界(図中の「RAP」)となる。
 すなわち、PLP#1で伝送される「4K」のストリームは、矢印P1,P2が示す映像の境界(RAP)ごとに、異なるGOP周期となるので、例えば、データ4K-1と、データ4K-2と、データ4K-3は、異なるGOP周期用のデータとなる。同様に、PLP#2で伝送される「HD」のストリームにおいて、データHD-1と、データHD-2と、データHD-3は、異なるGOP周期用のデータとなる。
 ここで、図12の例では、「4K」のストリームにおいて、データ4K-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータ4K-12には、PLP#1のデータとして、データ4K-2のほかに、データ4K-1の一部のデータが含まれる。
 また、物理層フレームF-2のデータ4K-22には、PLP#1のデータとして、データ4K-2のデータのみが含まれる。さらに、物理層フレームF-3のデータ4K-23には、PLP#1のデータとして、データ4K-2のほかに、データ4K-3の一部のデータが含まれる。
 「HD」のストリームにおいて、データHD-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータHD-12には、PLP#2のデータとして、データHD-2のほかに、データHD-1の一部のデータが含まれる。
 また、物理層フレームF-2のデータHD-22には、PLP#2のデータとして、データHD-2のデータのみが含まれる。さらに、物理層フレームF-3のデータHD-23には、PLP#2のデータとして、データHD-2のほかに、データHD-3の一部のデータが含まれる。
 「音声」のストリームにおいて、データA-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータA-12には、PLP#3のデータとして、データA-2のほかに、データA-1の一部のデータが含まれる。
 また、物理層フレームF-2のデータA-22には、PLP#3のデータとして、データA-2のデータのみが含まれる。さらに、物理層フレームF-3のデータA-23には、PLP#3のデータとして、データA-2のほかに、データA-3の一部のデータが含まれる。
 このように、図12の例では、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない関係を有している。この場合、上述の物理層フレーム単位での制御を行っても、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られる映像の境界(GOP構造の境界)とを一致させることはできない。
 そこで、ここでは、物理層フレーム単位よりもさらに細かい単位であるBBパケット単位での制御を行うことで、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない場合でも、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られる映像の境界(GOP構造の境界)とを一致させることができるようにする。
(BBパケットと映像信号との関係)
 図13は、受信信号の品質に応じた放送信号の切り替えを、復調後のベースバンドのパケットであるBBパケット単位で行う場合における、BBパケットと映像信号との関係を示す図である。
 図13において、上段の物理層フレームF-1乃至F-3は、図12に示した物理層フレームF-1乃至F-3に対応している。
 すなわち、物理層フレームF-1のデータ4K-12には、PLP#1のデータとして、「4K」のストリームにおける、データ4K-1とデータ4K-2のデータが含まれる。また、物理層フレームF-1において、データHD-12には、PLP#2のデータとして、「HD」のストリームのデータHD-1とデータHD-2のデータが含まれ、データA-12には、PLP#3のデータとして、「音声」のストリームのデータA-1とA-2のデータが含まれる。
 物理層フレームF-2や物理層フレームF-3など、物理層フレームF-1以降の物理層フレームについても同様に、「4K」、「HD」、及び「音声」のストリームのデータが、同一のGOP周期内のデータ又はGOP周期を跨いだデータとして含まれている。
 ここで、物理層フレームF-1に注目すれば、そのデータ部に含まれるデータ4K-12は、BBパケット4K-12-1、BBパケット4K-12-2、及びBBパケット4K-12-3に対応している。つまり、上述の図8に示したように、BBパケットは、レイヤ1(物理層)のパケットであって、物理層フレームのデータ部を処理することで得られる1又は複数のパケット(復調後のベースバンドのパケット)である。したがって、物理層での処理において、BBパケット単位での制御を行うことで、物理層フレーム単位での制御を行う場合よりもさらに細かい単位で、映像の境界の周期(GOP周期)とのタイミングを合わせることが可能となる。
 同様に、物理層フレームF-1のデータ部に含まれる、データHD-12は、BBパケットHD-12-1乃至HD-12-3に対応し、データA-12は、BBパケットA-12-1乃至A-12-3に対応している。そのため、物理層での処理において、BBパケット単位での制御を行うことで、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない場合でも、映像の境界の周期(GOP周期)とのタイミングを合わせることが可能となる。
 また、物理層フレームF-1のデータ部に含まれる複数のBBパケットのうち、データ4K-12のBBパケット4K-12-1に注目すれば、BBパケット4K-12-1は、BBPヘッダとペイロードから構成される。BBPヘッダには、ヘッダ(Header)のほか、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置することができる。そして、このBBPヘッダに、映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、当該BBPヘッダが付加されたBBパケットが、映像の境界(RAP)に対応するデータを含むことを示すことができる。
 例えば、物理層フレームF-1のデータ部に含まれるデータ4K-12が、BBパケット4K-12-1乃至4K-12-3に対応する場合に、「4K」のストリーム(図12)のデータのうち、データ4K-1のデータが、BBパケット4K-12-1に格納され、データ4K-2のデータが、BBパケット4K-12-2と、BBパケット4K-12-3に格納されている場合を想定する。
 この場合、BBパケット4K-12-2に格納されたデータ4K-2のデータが、GOP周期の先頭(Iピクチャ)等の映像の境界(RAP)に対応するデータに相当するので、このBBパケット4K-12-2のヘッダに、映像境界情報が含まれるようにすることで、当該BBパケット4K-12-2が、映像の境界(RAP)に対応するデータを含むことを示すことができる。
 これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、例えば、映像境界情報が含まれるBBパケット4K-12-2を処理することで、その切り替えのタイミングが、上位層で処理されるデータ4K-2やデータHD-2の映像の境界(RAP)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
 また、BBパケットのヘッダに含まれる映像境界情報を用いることで、例えば、1系統の回路(復調部212とフィルタ213)のみを動作させるだけで、シームレス再生が可能となるので、回路を最小限動作させて、低消費電力を実現することができる。例えば、復調LSIは、回路規模が大きく、消費電力が大きいので、1系統の回路のみの最小限の動作とすることでの低消費電力の効果は非常に大きなものとなる。
 なお、上述したように、ATSC3.0では、トランスポート・プロトコルとして、ROUTEを用いる場合には、MPEG-DASHに準拠したストリーミング配信が行われることになるが、MPEG-DASHでは、映像や音声のストリームが、セグメントファイルとして伝送される。そして、セグメントファイルは、その先頭に、RAPを含んでいるので、図12の例で、映像の境界(RAP)は、セグメントファイルの先頭に相当し、セグメントファイル単位での切り替えを行うことで、シームレス再生が行われるとも言える。
(映像境界情報をBBパケット拡張ヘッダに配置)
 次に、図14乃至図17を参照して、映像境界情報を、BBパケット拡張ヘッダに配置する場合の例を説明する。
 図14は、BBパケット(Baseband Packet)の構成を示している。図14において、BBパケットは、BBPヘッダとペイロード(Payload)から構成される。BBPヘッダには、1又は2バイトのヘッダ(Header)のほか、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置することができる。
 すなわち、ヘッダ(Header)において、1ビットのモード(MODE)として、"0"が設定された場合には、7ビットのポインタ情報(Pointer(LSB))が配置される。なお、ポインタ情報は、BBパケットのペイロードに配置されるGenericパケットの位置を示すための情報である。例えば、あるBBパケットに最後に配置されたGenericパケットのデータが、次のBBパケットに跨がって配置される場合に、ポインタ情報として、次のBBパケットの先頭に配置されるGenericパケットの位置情報を設定することができる。
 また、モード(MODE)として、"1"が設定された場合には、7ビットのポインタ情報(Pointer(LSB))の他に、6ビットのポインタ情報(Pointer(MSB))と、2ビットのオプショナルフラグ(OPTI:OPTIONAL)が配置される。オプショナルフラグは、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置して、ヘッダを拡張するかどうかを示す情報である。
 すなわち、図15に示すように、オプショナルフィールドと拡張フィールドの拡張を行わない場合、オプショナルフラグには、"00"が設定される。また、1バイトのオプショナルフィールドと、拡張フィールドの拡張を行う場合、オプショナルフラグには、"01"が設定され、ショート拡張モードとなる(図中の枠A)。一方で、2バイトのオプショナルフィールドと、拡張フィールドの拡張を行う場合、オプショナルフラグは、"10"又は"11"が設定され、ロング拡張モード又はミックス拡張モードとなる(図中の枠B)。
 オプショナルフィールドの先頭には、3ビットの拡張タイプ情報(EXT_TYPE)が設定される。このタイプ情報は、図16に示すように、拡張フィールドのタイプ(Extension type)に関する情報が設定される。
 すなわち、拡張フィールドに、拡張レングス情報(EXT_Length(LSB))のカウンタを配置する場合、拡張タイプ情報には、"000"が設定される。また、拡張フィールドに、映像境界情報を配置する場合、拡張タイプ情報には、"001"が設定される。この映像境界情報には、RAP,AdaptationSet,Sequence Numberが含まれる。
 図17には、BBパケットのヘッダに含まれる、映像境界情報のシンタックスの例を示している。
 1ビットのRAPは、該当のBBパケットに、映像の境界(RAP)が含まれていることを示すフラグである。例えば、RAPとして、"0"が設定された場合、該当のBBパケットに、映像の境界(RAP)が含まれていないことを示す。
 一方で、RAPとして、"1"が設定された場合、該当のBBパケットに、映像の境界(RAP)が含まれていることを示す。すなわち、この場合、該当のBBパケットのペイロードには、例えば、GOP周期における先頭の位置に配置されるIピクチャのデータが含まれることになる。
 8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。上述したように、AdaptationSetは、MPEG-DASHに準拠したストリーミング配信を行うために用いられる、MPDメタデータに記述されるAdaptationSet要素に対応している。AdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。
 15ビットのSequence Numberは、BBパケットのシーケンス番号が指定される。このシーケンス番号は、映像の境界(RAP)の有無に関わらず、BBパケットごとに1ずつ加算される。なお、シーケンス番号を用いることで、例えば、異なるPLPの間で、対応するBBパケットを識別することが可能となる。
 図16の説明に戻り、拡張フィールドに、プライベートユーザデータを配置する場合、拡張タイプ情報には、"110"が設定される。さらに、拡張フィールドをパディング(Padding)する場合、拡張タイプ情報には、"111"が設定される。なお、図16において、"010"~"101"の拡張タイプ情報は、将来の拡張用の領域(Reserved)となっている。
 以上のように、時分割多重化方式(TDM)を採用した場合のBBパケット単位での制御では、BBパケットのヘッダに、映像の境界(RAP)を示す映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
(2-2)階層単位での制御(FDM)
 次に、映像の境界の周期(GOP周期)が、物理層フレームの周期の整数倍と一致しない場合の制御方法として、複数の放送信号の多重化の方式に、周波数分割多重化方式(FDM)を採用した場合の制御方法について説明する。
(階層と映像信号との関係)
 図18は、受信信号の品質に応じた放送信号の切り替えを、階層伝送を行う際の階層単位で行う場合における、階層と映像信号との関係を示す図である。
 ここで、周波数分割多重化方式(FDM)を採用した場合には、所定の周波数帯域(例えば6MHz)が、複数のセグメントに周波数分割され、1又は複数のセグメントごとの帯域を利用した階層伝送を行うことができる。例えば、ISDB-Tでは、1チャネルの周波数帯域(6MHz)が、13セグメントに周波数分割され、中心の1セグメントの周波数帯域を用いて、モバイル受信機向けのワンセグ放送の放送信号が伝送され、残りの12セグメントの周波数帯域を用いて、固定受信機向けの放送の放送信号が伝送される。
 図18の上段には、横方向を時間とし、縦方向を周波数としたときの、伝送システム1(図1)での階層伝送を行う際の各階層の構成を示している。図18の例では、周波数分割で得られる1又は複数のセグメントの周波数帯域を用いて、階層1、階層2、及び階層3の3つの階層が構成されている。
 また、図18の下段には、上述の図7等と同様に、映像信号の構成を示しているが、「4K」の映像信号と音声信号のストリームが、階層1で伝送される。さらに、「HD」の映像信号と音声信号のストリームが、階層2で伝送され、「音声」の音声信号のストリームが、階層3で伝送されることになる。したがって、例えば、階層3よりも階層2のほうが、セグメント数が多い構成となり、階層2よりも階層1のほうが、セグメント数が多い構成となる。
 ここで、「4K」、「HD」、及び「音声」の各ストリームにおいては、図中の矢印P1,P2が示す位置が、GOP周期における先頭の位置(Iピクチャの位置)等の映像の境界(RAP)となるが、階層ごとに、当該映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、映像の境界(RAP)を特定することが可能となる。
 これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、階層ごとに伝送される映像境界情報を処理(検出)することで、その切り替えのタイミングが、上位層で処理されるデータ4K-2やデータHD-2のGOP構造の境界(RAP)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、階層1で伝送される「4K」の放送信号から、階層2で伝送される「HD」の放送信号に切り替えたり、あるいは階層2で伝送される「HD」の放送信号から、階層1で伝送される「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
(映像境界情報を放送に関する付加情報に配置)
 次に、図19を参照して、映像境界情報を、放送に関する付加情報(AC)に配置する場合の例を説明する。
 図19には、横方向をキャリア番号とし、縦方向をOFDMシンボル番号としたときのOFDMセグメントの構成を示している。ここで、OFDM(Orthogonal Frequency Division Multiplexing)(直交周波数分割多重)では、伝送帯域内に多数の直交するサブキャリア(副搬送波)が設けられ、デジタル変調が行われる。
 図19のOFDMセグメントには、TMCCとACが含まれている。TMCC(Transmission Multiplexing Configuration Control)は、複数の伝送パラメータが混在する階層伝送において、受信装置20における復調処理や復号処理などを行うための伝送制御情報である。また、AC(Auxiliary Channel)は、放送に関する付加情報である。AC1は、すべてのセグメントに同一数存在している。例えば、この付加情報(AC(AC1))に、映像境界情報を含めることができる。
 図19には、放送に関する付加情報(AC)に含まれる、映像境界情報のシンタックスの例が示されている。
 1ビットのRAPは、該当のセグメントに、映像の境界(RAP)が含まれていることを示すフラグである。例えば、RAPとして、"1"が設定された場合、該当のセグメントに、映像の境界(RAP)が含まれていることを示す。
 8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。AdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。15ビットのSequence Numberは、シーケンス番号が指定される。
 以上のように、周波数分割多重化方式(FDM)を採用した場合の階層単位(セグメント単位)での制御では、セグメント単位での指定が可能となる付加情報(AC)に、映像の境界(RAP)を示す映像境界情報が含まれるようにする。受信装置20では、この付加情報(AC)に含まれる映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
 なお、映像境界情報は、放送に関する付加情報(AC)に限らず、例えば、伝送制御情報(TMCC)などの他の制御情報に含めるようにしてもよい。
(3)受信信号の品質等に応じた復号対象の選択制御
 次に、図20を参照して、映像境界情報を用いないケースを説明する。図20は、受信信号の品質等に応じた復号対象の選択制御を説明するための図である。
 図20において、受信装置20は、チューナ211、復調部212-1乃至212-3、フィルタ213-1乃至213-3、選択部220、及び復号部214から構成されている。ただし、図20の受信装置20の構成例では、制御部210及び出力部215の記載を省略しているが、選択部220は、制御部210の機能の一部である。
 チューナ211は、制御部210からの制御に従い、アンテナ221を介して受信される所定の周波数帯域の放送信号を処理し、その結果得られる受信信号を、復調部212-1乃至212-3に供給する。
 ここで、送信装置10から送信される放送信号として、例えば、「4K」、「HD」、及び「音声」の放送信号が受信された場合には、「4K」の受信信号が、復調部212-1に供給され、「HD」の受信信号が、復調部212-2に供給され、「音声」の受信信号が、復調部212-3に供給される。
 復調部212-1は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「4K」のストリームをフィルタ213-1に供給する。フィルタ213-1は、制御部210からの制御に従い、復調部212-1からの「4K」のストリームを処理する。これにより、「4K」の映像信号や音声信号が得られる。
 復調部212-2は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「HD」のストリームをフィルタ213-2に供給する。フィルタ213-2は、制御部210からの制御に従い、復調部212-2からの「HD」のストリームを処理する。これにより、「HD」の映像信号や音声信号が得られる。
 復調部212-3は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「音声」のストリームをフィルタ213-3に供給する。フィルタ213-3は、制御部210からの制御に従い、復調部212-3からの「音声」のストリームを処理する。これにより、「音声」の音声信号が得られる。
 このとき、制御部210には、チューナ211の処理で得られる処理結果と、復調部212-1乃至212-3の処理で得られる処理結果が供給される。制御部210は、チューナ211及び復調部212からの処理結果の少なくとも一方に基づいて、復号対象の信号を選択する。
 すなわち、制御部210は、処理結果として、例えば、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレートなどが得られるので、それらの情報に基づいて、復号対象の信号を選択することができる。制御部210は、復号対象の信号の選択結果に基づいて、選択部220を制御して、選択対象の信号が、復号部214に供給されるようにする。
 制御部210は、復号対象の信号として、「4K」の信号が選択された場合、フィルタ213-1からの「4K」の映像信号や音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-1から供給される「4K」の映像信号や音声信号を復号する。これにより、受信装置20では、4Kの映像と音声が再生される。
 制御部210は、復号対象の信号として、「HD」の信号が選択された場合、フィルタ213-2からの「HD」の映像信号や音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-2から供給される「HD」の映像信号や音声信号を復号する。これにより、受信装置20では、HDの映像と音声が再生される。
 制御部210は、復号対象の信号として、「音声」の信号が選択された場合、フィルタ213-3からの「音声」の音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-3から供給される「音声」の音声信号を復号する。これにより、受信装置20では、音声のみが再生される。
 ここで、制御部210は、復号対象の信号を切り替える場合に、フィルタ213-1乃至213-3の処理で得られるセグメントファイルに関する情報(例えば、テンプレートやISOBMFFのタイムスタンプなど)に基づいて、MPDメタデータのAdaptationSet要素内に記述されるストリームを切り替えることで、映像や音声の乱れが発生することなく、ストリームを切り替えることができる。
 その結果、受信装置20において、例えば、図20の下段に示すように、受信信号の品質に応じて、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。なお、ここで説明したセグメントファイルに関する情報と、MPDメタデータを用いてストリームを切り替える制御方法は一例であり、シームレス再生が可能であれば、他の制御方法を用いるようにしてもよい。
 なお、図20の例では、復調部212とフィルタ213が、複数系統(3系統)設けられる場合の構成を例示したが、復調部212とフィルタ213が時分割で動作することで、1系統又はより少ない系統の復調部212とフィルタ213により同等の処理を行うことが可能である。
<4.シームレス再生処理の流れ>
 次に、図21及び図22のフローチャートを参照して、図1の伝送システムで実現されるシームレス再生処理の流れを説明する。
(第1のシームレス再生処理)
 まず、図21のフローチャートを参照して、第1のシームレス再生処理の流れを説明する。
 この第1のシームレス再生処理は、映像境界情報を用いるケースに対応している。なお、図21において、ステップS111乃至S113の処理は、図1の送信装置10により実行される送信側の処理である。また、ステップS211乃至S220の処理は、図1の受信装置20により実行される受信側の処理である。
 ステップS111において、シグナリング処理部112は、処理対象のストリームに応じて、映像の境界(RAP)を示す映像境界情報を生成する。
 ステップS112において、変調部114は、処理部113により生成される多重化ストリームを処理し、物理層フレームを生成する。ただし、多重化ストリームには、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが含まれている。
 また、変調部114は、処理対象のストリームに応じて、物理層フレーム単位、BBパケット単位、又は階層単位のいずれかの単位で、各コンテンツの映像の境界(RAP)を示す映像境界情報が含まれるように処理を行う。
 すなわち、物理層フレーム単位での制御が行われる場合、物理層フレームのプリアンブルに含まれるL1シグナリングに、映像境界情報が含められる。また、BBパケット単位での制御が行われる場合、BBパケットのヘッダに、映像境界情報が含められる。さらに、階層単位(セグメント単位)での制御が行われる場合、放送に関する付加情報(AC)に、映像境界情報が含められる。
 ステップS112の処理で生成された物理層フレームは、放送信号として、伝送路30を介して送信される(S113)。ただし、ここでは、説明の都合上、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが、ストリームごとに、複数の放送信号として送信されるとして表現する。
 ステップS211において、チューナ211は、制御部210からの制御に従い、アンテナ221を介して、送信装置10から送信されてくる放送信号を受信する。
 ステップS212において、制御部210は、ステップS211の処理で受信された放送信号(受信信号)の品質が変化したかどうかを判定する。ここでは、例えば、受信信号から得られるC/N比を、所定の閾値と比較することで、受信信号の品質を判定することができる。
 ステップS212において、受信信号の品質が変化していないと判定された場合、処理は、ステップS213に進められる。ステップS213において、復調部212は、ステップS211の処理で受信された放送信号から得られる物理層フレームを処理する。物理層フレームから得られるデータは、フィルタ213により処理され、映像信号や音声信号が得られる。
 ステップS214において、復号部214は、ステップS213の処理で得られる映像信号や音声信号を復号する。復号部214により復号された映像や音声のデータは、出力部215により出力され、例えば、HDの映像と音声が再生されることになる。
 ステップS215においては、処理を終了するかどうかが判定される。ステップS215において、処理を終了しないと判定された場合、処理は、ステップS211に戻される。そして、ステップS212の判定処理で、受信信号の品質が変化したと判定されるまで、ステップS211乃至S215の処理が繰り返され、例えば、HDの映像と音声の再生が継続される。
 その後、ステップS212において、受信信号の品質が変化したと判定された場合、処理は、ステップS216に進められる。ステップS216において、復調部212は、放送信号から得られる物理層フレームを処理する。
 ステップS217において、復調部212は、制御部210からの制御に従い、ステップS216の処理で得られる、物理層で処理される信号に基づいて、映像境界情報の検出を行う。
 すなわち、ここでは、物理層フレーム単位での制御が行われる場合、物理層フレームのプリアンブルに含まれるL1シグナリングから、映像境界情報が検出される。また、BBパケット単位での制御が行われる場合、BBパケットのヘッダから、映像境界情報が検出される。さらに、階層単位(セグメント単位)での制御が行われる場合、放送に関する付加情報(AC)から、映像境界情報が検出される。
 ステップS218において、制御部210は、ステップS217の処理で得られる検出結果に基づいて、物理層で処理される信号から、映像境界情報が検出されたかどうかを判定する。
 ステップS218において、映像境界情報が検出されていないと判定された場合、処理は、ステップS219に進められる。ステップS219において、復号部214は、ステップS216の処理で得られる映像信号や音声信号を復号する。復号部214により復号された映像や音声のデータは、出力部215により出力され、例えば、HDの映像と音声の再生が継続される。
 ステップS219の処理が終了すると、処理は、ステップS216に戻される。そして、ステップS218の判定処理で、映像境界情報が検出されたと判定されるまで、ステップS216乃至S219の処理が繰り返され、例えば、HDの映像と音声の再生が継続される。
 そして、ステップS218において、映像境界情報が検出されたと判定された場合、処理は、ステップS220に進められる。ステップS220において、制御部210は、チューナ211又は復調部212を制御して、送信装置10から受信する放送信号を切り替える。ここでは、例えば、受信信号の品質の変化に応じて、「HD」の放送信号から、「4K」の放送信号に切り替えられる。
 ステップS220の処理で、放送信号が切り替えられると、処理は、ステップS213に進められる。ステップS213乃至S214においては、切り替え後の放送信号から得られる物理層フレームが処理され、映像信号や音声信号が復号されることで、例えば、4Kの映像と音声が再生され、同一のコンテンツの映像が、HD解像度の映像から、4K解像度の映像に切り替わる。
 ここでは、ステップS218の判定処理によって、ステップS220の処理による、物理層で処理される信号の切り替えのタイミングと、ステップS214で処理される映像の境界(RAP)とが一致している。そのため、例えば、C/N比が高くなって、受信信号の品質が良くなったときに、HD解像度の映像から、4K解像度の映像に切り替えるに際し、映像や音声の乱れが生じることはなく、スムーズに再生が行われる。
 なお、ステップS215の判定処理で、処理を終了すると判定されるまで、上述した処理が繰り返される。そして、ステップS215において、処理を終了すると判定された場合、図21の第1のシームレス再生処理は終了される。
 以上、第1のシームレス再生処理の流れを説明した。
(第2のシームレス再生処理)
 次に、図22のフローチャートを参照して、第2のシームレス再生処理の流れを説明する。
 この第2のシームレス再生処理は、映像境界情報を用いないケースに対応している。なお、図22において、ステップS131乃至S132の処理は、図1の送信装置10により実行される送信側の処理である。また、ステップS231乃至S235の処理は、図1の受信装置20により実行される受信側の処理である。
 ステップS131において、処理部113により生成される多重化ストリームを処理し、物理層フレームを生成する。ただし、多重化ストリームには、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが含まれている。
 ステップS131の処理で生成された物理層フレームは、放送信号として、伝送路30を介して送信される(S132)。
 ステップS231において、チューナ211は、制御部210からの制御に従い、アンテナ221を介して、送信装置10から送信されてくる放送信号を受信する。
 ステップS232において、復調部212-1乃至212-3は、ステップS231の処理で受信された放送信号から得られる物理層フレームを処理する。物理層フレームから得られる信号は、フィルタ213-1乃至213-3により処理され、映像信号や音声信号が得られる。
 ここでは、例えば、復調部212-1とフィルタ213-1により、「4K」の信号が処理される。また、例えば、復調部212-2とフィルタ213-2により、「HD」の信号が処理される、復調部212-3とフィルタ213-3により、「音声」の信号が処理される。
 ステップS233において、制御部210は、例えば、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレート等の情報に基づいて、フィルタ213-1乃至213-3から出力される信号の中から、復号対象の信号を選択する。
 ステップS234において、復号部214は、ステップS233の処理で得られる復号対象の選択結果に基づいて、フィルタ213-1乃至213-3から出力される信号のいずれかの信号を復号する。
 ここでは、例えば、復号対象の信号として、「4K」の信号が選択された場合、フィルタ213-1からの「4K」の映像信号や音声信号が復号される。これにより、受信装置20では、4Kの映像と音声が再生される。
 また、例えば、復号対象の信号として、「HD」の信号が選択された場合、フィルタ213-2からの「HD」の映像信号や音声信号が復号される。これにより、受信装置20では、HDの映像と音声が再生される。また、例えば、復号対象の信号として、「音声」の信号が選択された場合、フィルタ213-3からの「音声」の音声信号が復号される。これにより、受信装置20では、音声のみが再生される。
 ステップS235においては、処理を終了するかどうかが判定される。ステップS235において、処理を終了しないと判定された場合、処理は、ステップS231に戻り、ステップS231乃至S235の処理が繰り返される。
 ステップS231乃至S235が繰り返されることで、ステップS233の処理で選択された復号対象の信号が復号されることになるが、復号対象の信号を切り替える場合には、制御部210が、フィルタ213-1乃至213-3の処理で得られるセグメントファイルに関する情報(例えば、テンプレートやISOBMFFのタイムスタンプなど)に基づいて、MPDメタデータのAdaptationSet要素内に記述されるストリームを切り替えることで、映像や音声の乱れが発生することなく、ストリームを切り替えることができる。
 例えば、受信装置20においては、受信信号の品質等に応じて、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
 なお、ステップS235の判定処理で、処理を終了すると判定された場合、図22の第2のシームレス再生処理は終了される。
 以上、第2のシームレス再生処理の流れを説明した。
<5.変形例>
 上述した説明としては、デジタルテレビ放送の規格として、日本等が採用する方式であるISDB(特に、ISDB-T)と、米国等で採用されている方式であるATSC(特に、ATSC3.0)を中心に説明したが、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などに適用するようにしてもよい。また、上述した説明では、IP伝送方式が採用されるATSC3.0を例にして説明したが、IP伝送方式に限らず、例えば、MPEG2-TS(Transport Stream)方式等の他の方式に適用するようにしてもよい。
 また、デジタルテレビ放送の規格としては、地上波放送のほか、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)等を利用した衛星放送や、ケーブルテレビ(CATV)等の有線放送などの規格に適用することができる。
 また、上述したシグナリングやパケットなどの名称は、一例であって、他の名称が用いられる場合がある。ただし、これらの名称の違いは、形式的な違いであって、対象のシグナリングやパケットなどの実質的な内容が異なるものではない。例えば、BBパケット(Baseband Packet)は、BBストリーム(Baseband Stream)などと称される場合がある。また、例えば、Genericパケットは、ALP(ATSC Link-layer Protocol)パケットなどと称される場合がある。また、フレームとパケットは、同じ意味で用いられる場合がある。
 上述した説明では、コンテンツとして、放送番組を説明したが、それに限らず、例えば、動画や音楽のほか、例えば、電子書籍やゲーム、広告など、あらゆるコンテンツを含めることができる。また、放送番組に限らず、通信経由で配信されるコンテンツであってもよい。また、コンテンツを構成するコンポーネントの一部が、通信経由で配信されるようにしてもよい。
 また、本技術は、伝送路として、放送網以外の伝送路、すなわち、例えば、インターネットや電話網等の通信回線(通信網)などを利用することを想定して規定されている所定の規格(デジタルテレビ放送の規格以外の規格)などにも適用することができる。その場合には、伝送システム1(図1)の伝送路30として、インターネットや電話網などの通信回線が利用され、送信装置10は、インターネット上に設けられたサーバとすることができる。そして、当該通信サーバと、受信装置20とが、伝送路30(通信回線)を介して双方向の通信を行うことになる。
<6.コンピュータの構成>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
 入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 複数の放送信号を受信する受信部と、
 前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する制御部と
 を備える受信装置。
(2)
 前記複数の放送信号は、同一の又は対応する内容のコンテンツをそれぞれ伝送しており、
 前記制御部は、前記コンテンツの映像の境界を示す情報である映像境界情報に基づいて、対象の放送信号を切り替える
 (1)に記載の受信装置。
(3)
 前記複数の放送信号は、時分割多重化方式(TDM:Time Division Multiplexing)で伝送され、
 前記映像境界情報は、復調後のベースバンドのパケットのヘッダに含まれる
 (2)に記載の受信装置。
(4)
 前記複数の放送信号は、周波数分割多重化方式(FDM:Frequency Division Multiplexing)で伝送され、
 前記映像境界情報は、セグメント単位の付加情報に含まれる
 (2)に記載の受信装置。
(5)
 前記映像境界情報は、物理層フレームのプリアンブルに含まれる
 (2)に記載の受信装置。
(6)
 前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
 (2)乃至(5)のいずれかに記載の受信装置。
(7)
 前記複数の放送信号を復調するための複数の復調部をさらに備え、
 前記制御部は、前記複数の復調部の復調の結果に基づいて、対象の放送信号を切り替える
 (1)に記載の受信装置。
(8)
 前記映像境界情報は、GOP(Group of Pictures)の周期の先頭を示す情報である
 (2)乃至(6)のいずれかに記載の受信装置。
(9)
 前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
 (1)乃至(8)のいずれかに記載の受信装置。
(10)
 受信装置のデータ処理方法において、
 前記受信装置が、
 複数の放送信号を受信し、
 前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する
 ステップを含むデータ処理方法。
(11)
 同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成する生成部と、
 前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する送信部と
 を備える送信装置。
(12)
 前記複数の放送信号は、時分割多重化方式(TDM)で伝送され、
 前記映像境界情報は、変調前のベースバンドのパケットのヘッダに含まれる
 (11)に記載の送信装置。
(13)
 前記複数の放送信号は、周波数分割多重化方式(FDM)で伝送され、
 前記映像境界情報は、セグメント単位の付加情報に含まれる
 (11)に記載の送信装置。
(14)
 前記映像境界情報は、物理層フレームのプリアンブルに含まれる
 (11)に記載の送信装置。
(15)
 前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
 (11)乃至(14)のいずれかに記載の送信装置。
(16)
 前記映像境界情報は、GOPの周期の先頭を示す情報である
 (11)乃至(15)のいずれかに記載の送信装置。
(17)
 前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
 (11)乃至(16)のいずれかに記載の送信装置。
(18)
 送信装置のデータ処理方法において、
 前記送信装置が、
 同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成し、
 前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する
 ステップを含むデータ処理方法。
 1 伝送システム, 10 送信装置, 20 受信装置, 30 伝送路, 111 コンポーネント処理部, 112 シグナリング処理部, 113 処理部, 114 変調部, 210 制御部, 211 チューナ, 212 復調部, 213 フィルタ, 214 復号部, 215 出力部, 1000 コンピュータ, 1001 CPU

Claims (18)

  1.  複数の放送信号を受信する受信部と、
     前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する制御部と
     を備える受信装置。
  2.  前記複数の放送信号は、同一の又は対応する内容のコンテンツをそれぞれ伝送しており、
     前記制御部は、前記コンテンツの映像の境界を示す情報である映像境界情報に基づいて、対象の放送信号を切り替える
     請求項1に記載の受信装置。
  3.  前記複数の放送信号は、時分割多重化方式(TDM:Time Division Multiplexing)で伝送され、
     前記映像境界情報は、復調後のベースバンドのパケットのヘッダに含まれる
     請求項2に記載の受信装置。
  4.  前記複数の放送信号は、周波数分割多重化方式(FDM:Frequency Division Multiplexing)で伝送され、
     前記映像境界情報は、セグメント単位の付加情報に含まれる
     請求項2に記載の受信装置。
  5.  前記映像境界情報は、物理層フレームのプリアンブルに含まれる
     請求項2に記載の受信装置。
  6.  前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
     請求項2に記載の受信装置。
  7.  前記複数の放送信号を復調するための複数の復調部をさらに備え、
     前記制御部は、前記複数の復調部の復調の結果に基づいて、対象の放送信号を切り替える
     請求項1に記載の受信装置。
  8.  前記映像境界情報は、GOP(Group of Pictures)の周期の先頭を示す情報である
     請求項2に記載の受信装置。
  9.  前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
     請求項8に記載の受信装置。
  10.  受信装置のデータ処理方法において、
     前記受信装置が、
     複数の放送信号を受信し、
     前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する
     ステップを含むデータ処理方法。
  11.  同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成する生成部と、
     前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する送信部と
     を備える送信装置。
  12.  前記複数の放送信号は、時分割多重化方式(TDM)で伝送され、
     前記映像境界情報は、変調前のベースバンドのパケットのヘッダに含まれる
     請求項11に記載の送信装置。
  13.  前記複数の放送信号は、周波数分割多重化方式(FDM)で伝送され、
     前記映像境界情報は、セグメント単位の付加情報に含まれる
     請求項11に記載の送信装置。
  14.  前記映像境界情報は、物理層フレームのプリアンブルに含まれる
     請求項11に記載の送信装置。
  15.  前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
     請求項11に記載の送信装置。
  16.  前記映像境界情報は、GOPの周期の先頭を示す情報である
     請求項11に記載の送信装置。
  17.  前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
     請求項11に記載の送信装置。
  18.  送信装置のデータ処理方法において、
     前記送信装置が、
     同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成し、
     前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する
     ステップを含むデータ処理方法。
PCT/JP2017/022247 2016-06-30 2017-06-16 受信装置、送信装置、及び、データ処理方法 WO2018003540A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/300,294 US11122331B2 (en) 2016-06-30 2017-06-16 Receiving device, transmitting device, and data processing method
JP2018525050A JP7011586B2 (ja) 2016-06-30 2017-06-16 受信装置
EP17819900.6A EP3481071B1 (en) 2016-06-30 2017-06-16 Reception device, transmission device, and data processing method
JP2022004340A JP7227407B2 (ja) 2016-06-30 2022-01-14 受信装置、及び送信装置
JP2023018499A JP7494338B2 (ja) 2016-06-30 2023-02-09 受信方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-130849 2016-06-30
JP2016130849 2016-06-30

Publications (1)

Publication Number Publication Date
WO2018003540A1 true WO2018003540A1 (ja) 2018-01-04

Family

ID=60786840

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022247 WO2018003540A1 (ja) 2016-06-30 2017-06-16 受信装置、送信装置、及び、データ処理方法

Country Status (4)

Country Link
US (1) US11122331B2 (ja)
EP (1) EP3481071B1 (ja)
JP (2) JP7011586B2 (ja)
WO (1) WO2018003540A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122082A1 (ja) 2018-12-10 2020-06-18 株式会社 東芝 コンテンツ配信システム、コンテンツ配信装置、及び方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101863904B1 (ko) * 2016-11-17 2018-06-01 주식회사 에어코드 지상파 uhd 방송 서비스에서 복수의 av 인코더의 시그널링을 통합하여 송출하는 방송 시스템 및 그 방법
JP7311347B2 (ja) * 2019-08-02 2023-07-19 マクセル株式会社 放送受信装置および表示制御方法
US20220329883A1 (en) * 2019-09-03 2022-10-13 Koninklijke Kpn N.V. Combining Video Streams in Composite Video Stream with Metadata
US11564018B2 (en) * 2019-10-02 2023-01-24 Qualcomm Incorporated Random access at resync points of dash segments
WO2023008283A1 (ja) 2021-07-30 2023-02-02 花王株式会社 パンツ型吸収性物品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288683A (ja) * 2006-04-19 2007-11-01 Pioneer Electronic Corp 画像処理装置及び画像処理方法
JP2008206015A (ja) * 2007-02-22 2008-09-04 Alpine Electronics Inc デジタル放送受信装置
WO2014196336A1 (ja) * 2013-06-07 2014-12-11 ソニー株式会社 送信装置、伝送ストリームの送信方法および処理装置
JP2016039629A (ja) * 2014-08-06 2016-03-22 パナソニックIpマネジメント株式会社 送信方法、受信方法、送信装置及び受信装置
WO2016063731A1 (ja) * 2014-10-21 2016-04-28 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5953506A (en) * 1996-12-17 1999-09-14 Adaptive Media Technologies Method and apparatus that provides a scalable media delivery system
JP4615958B2 (ja) * 2004-10-15 2011-01-19 クラリオン株式会社 デジタル放送の送出装置、受信装置およびデジタル放送システム
JP2006319701A (ja) 2005-05-13 2006-11-24 Hitachi Ltd デジタル放送受信装置及び受信方法
US8335873B2 (en) * 2006-09-14 2012-12-18 Opentv, Inc. Method and systems for data transmission
JP2008300910A (ja) 2007-05-29 2008-12-11 Sony Corp 送受信システム、送信装置および送信方法、受信装置および受信方法、並びにプログラム
US20100150245A1 (en) 2008-12-15 2010-06-17 Sony Ericsson Mobile Communications Ab Multimedia Stream Selection
US8902995B2 (en) * 2009-07-02 2014-12-02 Qualcomm Incorporated Transmitter quieting and reduced rate encoding
US8918533B2 (en) * 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
JP5981915B2 (ja) 2011-07-01 2016-08-31 パナソニック株式会社 送信装置、受信再生装置、送信方法及び受信再生方法
BR112014000632A2 (pt) * 2011-08-05 2017-02-14 Panasonic Corp dispositivo de recebimento/reprodução, dispositivo de transmissão, método de recebimento/reprodução e método de transmissão
WO2013028565A1 (en) * 2011-08-19 2013-02-28 General Instrument Corporation Encoder-aided segmentation for adaptive streaming
ITTO20120273A1 (it) 2012-03-27 2013-09-28 Inst Rundfunktechnik Gmbh Metodo per l
US9060184B2 (en) * 2012-04-27 2015-06-16 Sonic Ip, Inc. Systems and methods for adaptive streaming with augmented video stream transitions using a media server
JP2014060470A (ja) 2012-09-14 2014-04-03 Sharp Corp 放送受信装置、再生方法、および、プログラム
US9813325B2 (en) * 2012-12-27 2017-11-07 Comcast Cable Communications, Llc Information stream management
US9357248B2 (en) * 2013-03-13 2016-05-31 Arris Enterprises, Inc. Method and apparatus for adaptive bit rate content delivery
EP3018912B1 (en) * 2013-07-02 2018-09-12 Sony Corporation Content provision device, content provision method, program, terminal device, and content provision system
JP2015192401A (ja) 2014-03-28 2015-11-02 船井電機株式会社 番組再生装置および番組再生方法
JP6604719B2 (ja) 2014-11-25 2019-11-13 シャープ株式会社 受信装置、映像表示方法、及びプログラム
MX368831B (es) * 2014-12-17 2019-10-18 Sony Corp Aparato de transmisión, método de transmisión, aparato de recepción y método de recepción.
JP6489682B2 (ja) 2015-02-09 2019-03-27 シャープ株式会社 受信装置、放送システム、受信方法、及びプログラム
US10666961B2 (en) * 2016-01-08 2020-05-26 Qualcomm Incorporated Determining media delivery event locations for media transport

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288683A (ja) * 2006-04-19 2007-11-01 Pioneer Electronic Corp 画像処理装置及び画像処理方法
JP2008206015A (ja) * 2007-02-22 2008-09-04 Alpine Electronics Inc デジタル放送受信装置
WO2014196336A1 (ja) * 2013-06-07 2014-12-11 ソニー株式会社 送信装置、伝送ストリームの送信方法および処理装置
JP2016039629A (ja) * 2014-08-06 2016-03-22 パナソニックIpマネジメント株式会社 送信方法、受信方法、送信装置及び受信装置
WO2016063731A1 (ja) * 2014-10-21 2016-04-28 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122082A1 (ja) 2018-12-10 2020-06-18 株式会社 東芝 コンテンツ配信システム、コンテンツ配信装置、及び方法

Also Published As

Publication number Publication date
US20190124397A1 (en) 2019-04-25
EP3481071A1 (en) 2019-05-08
JPWO2018003540A1 (ja) 2019-04-18
JP2022044669A (ja) 2022-03-17
EP3481071A4 (en) 2019-05-08
JP2023054060A (ja) 2023-04-13
US11122331B2 (en) 2021-09-14
JP7011586B2 (ja) 2022-01-26
EP3481071B1 (en) 2022-07-27
JP7227407B2 (ja) 2023-02-21

Similar Documents

Publication Publication Date Title
JP7227407B2 (ja) 受信装置、及び送信装置
CN109716777B (zh) 发送设备及其发送方法
JP7120423B2 (ja) 受信装置、及び、受信方法
US11343549B2 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
JP6202712B2 (ja) 受信装置およびプログラム
JP2011521558A (ja) 複数のデジタル放送チャンネルにわたる複数のサービスに対するデータをアップデートするためのチャンネル飛び越え機構
KR102634779B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
JP2008535374A (ja) 無線通信システムでロバスト受信を提供する方法及び装置
WO2018008428A1 (ja) 受信装置、送信装置、及び、データ処理方法
CN109792556B (zh) 接收装置、发送装置和数据处理方法
US11742971B2 (en) Broadcast receiving apparatus and method of processing transmission waves
CN107925491B (zh) 接收装置、发送装置和数据处理方法
US11553245B1 (en) Techniques for receiving non-real time (NRT) data whilst traversing a multi-frequency network boundary
JP7494338B2 (ja) 受信方法
JP6386353B2 (ja) 受信装置、テレビジョン装置、プログラム、記憶媒体、及び受信方法
JP6448073B2 (ja) 受信装置、テレビジョン装置、記憶媒体、受信方法、及びプログラム
CN114128301B (zh) 广播信号发送设备、广播信号发送方法、广播信号接收方法和广播信号接收设备
JP6576539B2 (ja) 受信装置、テレビジョン装置、記憶媒体、受信方法、及びプログラム
Noland ATSC 3.0 Standards Usher in Next Gen TV Era
JP2007142677A (ja) 携帯通信端末、デジタル放送補完装置、およびデジタル放送補完システム
WO2023012748A1 (en) Techniques for receiving non-real time (nrt) data whilst traversing a multi-frequency network boundary
CN116724554A (zh) Atsc 3应用上下文切换和共享

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018525050

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17819900

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017819900

Country of ref document: EP

Effective date: 20190130