WO2015064082A1 - パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末 - Google Patents

パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末 Download PDF

Info

Publication number
WO2015064082A1
WO2015064082A1 PCT/JP2014/005437 JP2014005437W WO2015064082A1 WO 2015064082 A1 WO2015064082 A1 WO 2015064082A1 JP 2014005437 W JP2014005437 W JP 2014005437W WO 2015064082 A1 WO2015064082 A1 WO 2015064082A1
Authority
WO
WIPO (PCT)
Prior art keywords
packet
video
information
data
terminal
Prior art date
Application number
PCT/JP2014/005437
Other languages
English (en)
French (fr)
Inventor
村上 豊
知弘 木村
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to JP2015544798A priority Critical patent/JP6576827B2/ja
Priority to EP21204307.9A priority patent/EP3985985A3/en
Priority to EP19217026.4A priority patent/EP3657809B1/en
Priority to CN201480055236.3A priority patent/CN105612757B/zh
Priority to EP14858136.6A priority patent/EP3065412B1/en
Publication of WO2015064082A1 publication Critical patent/WO2015064082A1/ja
Priority to US15/134,409 priority patent/US9967602B2/en
Priority to US15/942,845 priority patent/US10945010B2/en
Priority to US17/160,738 priority patent/US11350146B2/en
Priority to US17/727,243 priority patent/US11653045B2/en
Priority to US18/131,933 priority patent/US20230247242A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/18Arrangements for synchronising broadcast or distribution via plural systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Definitions

  • the present disclosure relates to a packet transmission method, a content reproduction method, a packet transmission system, and a terminal.
  • the present invention relates to a packet transmission method, a packet transmission system, and a terminal for transmitting high-quality video information in a broadcasting / communication cooperation service.
  • the broadcasting / communication cooperation service is “contents of a broadcast program transmitted from a broadcasting station by a terminal and contents distributed by a service provider via a telecommunication line such as the Internet (here,“ line contents ”). This is a service that links broadcast program content and line content.
  • Patent Document 1 discloses a method for distributing real-time broadcast program content and line content to a terminal.
  • a method is a method of transmitting broadcast content and line content that are displayed in synchronization, wherein a line parity packet is generated from a plurality of line data packets storing the line content, and the line data packet and The line parity packet is transmitted via a communication line, a plurality of broadcast data packets storing the broadcast content are transmitted from a base station using a broadcast wave, and the broadcast content transmission time is determined from the line content transmission time.
  • another method is a method of receiving and reproducing broadcast content and line content that are displayed synchronously, and a line data packet storing the line content via a communication line, A line parity packet generated from a line data packet is received, a broadcast data packet storing the broadcast content is received via a broadcast wave, and the broadcast content transmission time is delayed by a predetermined time from the line content transmission time When a part of the line data packet is not received, packet level decoding is performed using the received line data packet and the line parity packet to generate the unreceived line data packet. And decoding the broadcast content and line content and displaying them synchronously It is.
  • FIG. 1 is a diagram illustrating an example of a relationship between a broadcasting station, a telecommunication network operator, and a terminal.
  • FIG. 2 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication line company.
  • FIG. 3 is a diagram illustrating a configuration example of a terminal.
  • FIG. 4 is a diagram illustrating a configuration example of a portion related to an error correction coding method of a transmission device of a telecommunication line company.
  • FIG. 5 is a diagram showing a configuration example of a portion related to an error correction coding method of a transmission device of a telecommunication line company.
  • FIG. 6 is a diagram illustrating an example of a packet configuration method.
  • FIG. 1 is a diagram illustrating an example of a relationship between a broadcasting station, a telecommunication network operator, and a terminal.
  • FIG. 2 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcast
  • FIG. 7 is a diagram illustrating an example of a packet configuration method.
  • FIG. 8 is a diagram illustrating a configuration example in the case where the control information addition unit is in the preceding stage of the error detection code addition unit and a configuration example in the case of being in the subsequent stage.
  • FIG. 9 is a diagram illustrating an example of packet transmission status and packet reception status.
  • FIG. 10 is a diagram illustrating an example of a packet transmission state.
  • FIG. 11 is a diagram illustrating an example of a packet reception status.
  • FIG. 12 is a diagram illustrating an example of packet reception status.
  • FIG. 13 is a diagram illustrating an example of a packet reception status.
  • FIG. 14 is a diagram illustrating an example of a processing flow of the packet (or frame) processing unit of the terminal.
  • FIG. 14 is a diagram illustrating an example of a processing flow of the packet (or frame) processing unit of the terminal.
  • FIG. 15 is a diagram illustrating an example of a processing flow of the packet (or frame) processing unit of the terminal.
  • FIG. 16 is a diagram illustrating an example of a packet transmission status and a packet reception status.
  • FIG. 17 is a diagram illustrating an example of a packet transmission status.
  • FIG. 18 is a diagram illustrating an example of packet reception status.
  • FIG. 19 is a diagram illustrating an example of packet reception status.
  • FIG. 20 is a diagram illustrating an example of packet reception status.
  • FIG. 21 is a diagram illustrating a configuration example of a packet (or frame) processing unit in a transmission apparatus owned by a broadcasting station and a telecommunication line provider.
  • FIG. 21 is a diagram illustrating a configuration example of a packet (or frame) processing unit in a transmission apparatus owned by a broadcasting station and a telecommunication line provider.
  • FIG. 22 is a diagram illustrating a configuration example when performing error correction decoding of a packet layer in a packet (or frame) processing unit in a terminal.
  • FIG. 23 is a diagram illustrating a configuration example of a packet (or frame) processing unit in a terminal when packet layer error correction coding is not performed.
  • FIG. 24 is a diagram illustrating an example of a relationship between a broadcasting station, a telecommunication line company, and a terminal.
  • FIG. 25 is a diagram illustrating an example of a relationship between a broadcasting station, a telecommunication line company, and a terminal.
  • FIG. 26 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication line company.
  • FIG. 27 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication carrier.
  • FIG. 28 is a diagram illustrating a configuration example of a terminal.
  • FIG. 29 is a diagram illustrating an example of a packet transmission status.
  • FIG. 30 is a diagram illustrating an example of packet reception status.
  • FIG. 31 is a diagram illustrating an example of a packet transmission status.
  • FIG. 32 is a diagram illustrating an example of packet reception status.
  • FIG. 33 is a diagram illustrating a configuration example of a terminal.
  • FIG. 34 is a diagram illustrating an example of a relationship between a broadcasting station, a telecommunication line company, and a terminal.
  • FIG. 35 is a diagram illustrating an example of a packet transmission status.
  • FIG. 36 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication carrier.
  • FIG. 37 is a diagram illustrating a configuration example of a terminal.
  • FIG. 38 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication carrier.
  • FIG. 39 is a diagram illustrating a configuration example of a terminal.
  • FIG. 40 is a diagram illustrating an example of a packet transmission status.
  • FIG. 41 is a diagram illustrating a configuration example of a transmission device owned by a broadcasting station and a telecommunication carrier.
  • FIG. 42 is a diagram illustrating a configuration example of a terminal.
  • FIG. 42 is a diagram illustrating a configuration example of a terminal.
  • FIG. 43 is a diagram illustrating a configuration example of a transmission apparatus owned by a broadcasting station and a telecommunication carrier.
  • FIG. 44 is a diagram illustrating an example of a packet transmission status.
  • FIG. 45 is a diagram illustrating an example of a packet transmission status.
  • FIG. 46 is a diagram illustrating a configuration example of a broadcasting station.
  • FIG. 47 is a diagram illustrating an example of the relationship between a video packet group and video and / or audio.
  • FIG. 48 is a diagram illustrating an example of a relationship between a video packet group and video and / or audio.
  • FIG. 49 is a diagram illustrating a configuration example of a terminal.
  • FIG. 50 is a diagram illustrating an example of a packet transmission status.
  • FIG. 44 is a diagram illustrating an example of a packet transmission status.
  • FIG. 45 is a diagram illustrating an example of a packet transmission status.
  • FIG. 46 is a diagram illustrating a configuration example of a
  • FIG. 51 is a diagram illustrating a configuration example of a transmission device owned by a broadcasting station and a telecommunication carrier.
  • FIG. 52 is a diagram illustrating a configuration example of a terminal.
  • FIG. 53 is a diagram illustrating a configuration example around the display unit.
  • FIG. 54 is a diagram illustrating a configuration example around the display unit.
  • FIG. 55 is a diagram illustrating a configuration example around the display unit.
  • FIG. 56 is a diagram illustrating a configuration example around the display unit.
  • FIG. 57 is a diagram illustrating a configuration example around the display unit.
  • FIG. 58 is a diagram illustrating a configuration example around the display unit.
  • FIG. 59 is a diagram illustrating a configuration example around the display unit.
  • FIG. 60 is a diagram illustrating a configuration example around the display unit.
  • a terminal receives real-time broadcast program content and real-time line content and displays them on a display unit (display unit) provided in the terminal or a display device (display) connected to the terminal.
  • a display unit display unit
  • the content of the real-time broadcast program and the real-time line content are displayed separately.
  • video display can be controlled in consideration of packet delay and packet loss of the line content.
  • the terminal displays the real-time broadcast program content and the real-time line content on the display unit (or display device) at the same time
  • the video of the broadcast program content and the video of the line content are often not synchronized in time. It becomes a problem.
  • a broadcasting station considers the case of transmitting real-time broadcast program content to a terminal.
  • Broadcast program content is transmitted via wireless (terrestrial digital broadcast, satellite digital broadcast, etc.) or wired (cable broadcast, etc.).
  • the quality of the content of the program may be deteriorated depending on the situation of the propagation path.
  • the program is introduced by introducing an error correction code to cope with the poor situation of the propagation path. To keep the quality of content high. It should be noted that it is difficult to consider a situation in which a part of broadcast program content information is delayed.
  • the terminal delays the video display of the content of the real-time broadcast program. Then, it is necessary to provide a data storage unit for the arrival delay in the terminal, which causes a problem of increasing the system scale of the terminal.
  • the present disclosure reduces the system scale of a transmission system and a terminal, and realizes high-quality video display when simultaneously displaying real-time broadcast program content and real-time line content on a display unit (or display device).
  • a transmission system and a terminal for realizing this are provided.
  • the broadcast content transmission time is delayed by a predetermined time from the line content transmission time, compared with the case where the broadcast content transmission time is not delayed with respect to the line content transmission time, the broadcast content is broadcasted on the receiving side. It is possible to reduce the capacity of the storage unit that temporarily holds the.
  • FIG. 1 shows an example of the relationship between a broadcasting station, a telecommunications carrier, and a terminal in this embodiment.
  • reference numeral 101 denotes a site, and a baseball field and a soccer field are considered as examples.
  • Reference numerals 102A and 102B denote cameras. Assume that the cameras 102A and 102B are shooting images of different angles, for example.
  • the broadcast station 103 receives the “first video and / or audio (audio) information” photographed by the camera 102A, and the “first video and / or audio (audio) information” is a cable or the like. It is assumed that the data is transmitted to the terminal 105 via wired or wireless.
  • the broadcast station 103 receives the “second video and / or audio (audio) information” photographed by the camera 102B, and the “second video and / or audio (audio) information” It is assumed that the data is transmitted to the terminal 105 via 104.
  • second video and / or audio (audio) information may be transmitted directly to the telecommunications carrier 104 without passing through the broadcast station 103, and then transmitted to the terminal 105.
  • FIG. 2 shows an example of the configuration of the transmitting apparatus owned by the broadcasting station and the telecommunication line provider in the present embodiment.
  • the portion surrounded by a dotted line 240 is a broadcasting station, and the portion surrounded by a dotted line 250 Is a transmitter owned by a telecommunications carrier.
  • the control unit 232 may exist separately from the transmission device owned by the broadcasting station or the telecommunication line provider, may be provided by the broadcasting station, or owned by the telecommunication line company. A transmission device may be included.
  • FIG. 2 the block diagram in the case of existing separately is described.
  • the packet (or frame) processing unit 202 receives the “first video and / or audio (audio) information” 201 and the first control signal 211 and inputs the packet (or frame) according to the first control signal 211. ) Processing, and outputs the first video and / or audio (audio) information 203 after the packet (or frame) processing. Detailed operations will be described later.
  • the physical layer error correction encoding unit 204 receives the first video and / or audio (audio) information 203 after the packet (or frame) processing and the first control signal 211 as inputs, and receives the first control signal. According to 211, encoding of an error correction code method (specific error correction code, coding rate) is performed, and data 205 after error correction coding is output.
  • an error correction code method specific error correction code, coding rate
  • Modulation section 206 receives data 205 after error correction coding and first control signal 211 as input, performs modulation using a modulation scheme according to first control signal 211, and outputs baseband signal 207. .
  • the transmission unit 208 receives the baseband signal 207 and the first control signal 211, performs signal processing based on the transmission method according to the first control signal 211, outputs a modulated signal 209, and outputs a modulated signal.
  • 209 is output from the antenna 210 as radio waves, for example. Then, the data transmitted with the modulated signal 209 is delivered to the terminal.
  • the present invention is not limited to this, and a plurality of modulated signals shown in Patent Document 1, Patent Document 2, and the like are used.
  • a transmission method of transmitting using the same antenna and the same time and the same frequency may be used.
  • a transmission method a single carrier method, a multicarrier method such as an OFDM (orthogonal frequency division) method, a spread spectrum communication method, or the like is used.
  • the broadcasting station 240 has been described with an example of wireless transmission, but a wired transmission method such as a cable may be used.
  • the control unit 232 receives the second video and / or audio (audio) information 231 and outputs the second video and / or audio (audio) information 212 and the second control signal 228. At this time, it is assumed that the second control signal 228 includes information on the transmission method. The second video and / or audio (audio) information 212 is assumed to pass through the broadcast station 240.
  • the packet (or frame) processing unit 222 includes the second video and / or audio (audio) information 212 and the second video and / or audio (audio) information 221 when reaching the telecommunications carrier directly.
  • the second control signal 228 is input, and the second control signal 228 is used to select the second video and / or audio (audio) information 212 and the second video and / or audio (audio) information 221.
  • Selecting valid second video and / or audio (audio) information, applying packet (or frame) processing, and second video and / or audio (audio) information after packet (or frame) processing 223 is output. Detailed operations will be described later.
  • the signal processing unit 224 receives the second video and / or audio (audio) information 223 and the second control signal 228 after the packet (or frame) processing, and inputs each layer (based on the second control signal 228). For example, a MAC (Media Access Control) layer, a physical layer, etc. (which is, of course, not limited to this) is processed, and a signal 225 after signal processing is output.
  • MAC Media Access Control
  • the transmission unit 226 receives the signal 225 after signal processing and the second control signal 228 as inputs, generates a transmission signal 227 based on the second control signal 228, and outputs it. Then, the data transmitted by the transmission signal 227 is delivered to the terminal.
  • the data transmitted by the transmission signal 227 may be delivered to the terminal by applying another transmission method / standard.
  • wireless LAN Local Area Network
  • PLC Power Line Communications
  • wireless transmission system using millimeter wave cellular system (cellular communication system), wireless MAN (Metropolitan Area Network), etc.
  • TCP transmission Control Protocol
  • UDP user Datagram Protocol
  • TCP Transmission Control Protocol
  • IP Internet Protocol
  • FIG. 3 shows a configuration example of the terminal.
  • the antenna 301 receives the modulated signal transmitted from the broadcasting station, and the receiving unit 303 receives the received signal 302 received by the antenna 301, performs processing such as frequency conversion and orthogonal demodulation, and outputs a baseband signal 304.
  • the time / frequency synchronization unit 305 receives the baseband signal 304 and extracts, for example, a preamble, a pilot symbol, a reference symbol, etc. included in the modulated signal transmitted by the broadcasting station, and performs time synchronization, frequency synchronization, frequency offset estimation.
  • the synchronization signal 306 is output.
  • the channel estimation unit 307 receives the baseband signal 304, extracts, for example, a preamble, a pilot symbol, a reference symbol, and the like included in the modulated signal transmitted by the broadcast station, and estimates a channel state (channel estimation). And output a channel estimation signal 308.
  • the control information extraction unit 309 receives the baseband signal 304, extracts control information symbols included in the modulation signal transmitted by the broadcast station, performs control information symbol demodulation, error correction decoding, and the like, and performs control information signal processing. 310 is output.
  • the demodulator 311 receives the baseband signal 304, the synchronization signal 306, the channel estimation signal 308, and the control information signal 310 as input, and based on the modulation signal information included in the control information signal 310, the demodulation unit 311
  • the channel estimation signal 308 is demodulated, the log likelihood ratio of each bit is obtained, and the log likelihood ratio signal 312 is output.
  • the operation at this time is described in Patent Document 2, Patent Document 3, and the like.
  • the physical layer error correction decoding unit 313 receives the log-likelihood ratio signal 312 and the control information signal 310 as input, and information about the error correction code included in the control information signal 310 (for example, error correction code information, code length (block length ), Coding rate, etc.), error correction decoding is performed, and received data 314 is output.
  • information about the error correction code included in the control information signal 310 for example, error correction code information, code length (block length ), Coding rate, etc.
  • the packet (or frame) processing unit 315 receives the received data 314 and the control information signal 310, performs packet (or frame) processing based on the information of the control information signal 310, and data after packet (or frame) processing. 316 is output. The detailed operation will be described later in detail.
  • transmission by wireless is described as an example, but a wired transmission method such as a cable may be used.
  • a wired transmission method such as a cable
  • the present invention is not limited to this, and a plurality of modulated signals shown in Patent Document 1, Patent Document 2, and the like are used by using a plurality of antennas.
  • a transmission method of transmitting using the same time and the same frequency may be used.
  • a transmission method a single carrier method, a multicarrier method such as an OFDM (orthogonal frequency division) multiplexing method, a spread spectrum communication method, or the like is used, and processing corresponding to this is performed in each unit. become.
  • the receiving unit 353 receives the signal 352 connected to the connecting unit 351, for example, transmitted via a cable, and outputs a received signal 354.
  • the signal processor 355 receives the received signal 354, separates information and control information, and outputs received data 356 and control information 357.
  • the packet (or frame) processing unit 358 receives the received data 356 and the control information 357, performs packet (or frame) processing on the received data based on the control information 357, and performs data after the packet (or frame) processing. 359 is output. The detailed operation will be described later in detail.
  • connection unit 351 the transmission method corresponding to the connection unit 351 is used is described as an example, but either a wired communication method or a wireless communication method may be used.
  • the signal processing unit 380 receives the data 316 after the packet (or frame) processing, the control information signal 310, the data 359 after the packet (or frame) processing, and the control information 357 as inputs, and displays two images on the display unit 384. Data is generated and data 381 is output.
  • the decoder 382 decodes video / audio, and outputs a video signal 383 and an audio signal 385.
  • the video signal 383 is output to the display unit 384 or output from an external output terminal, and the audio signal 385 is output. Sound is output from the speaker 386 or output from an external output terminal.
  • FIG. 4 shows a configuration of a part related to an error correction coding method that enables restoration when a packet or frame loss occurs in a transmission device of a telecommunication carrier. (Here, it is referred to as “error correction coding at the packet level.” However, the method of calling is not limited to this.)
  • the configuration of FIG. 4 is a transmission owned by the telecommunications carrier in FIG. In the device 250, the packet (or frame) processing unit 222 is included.
  • the packet generator 402 receives the information 401 and the control information signal 414, and outputs the information packet 403 based on information on the packet size (the number of bits constituting one packet) included in the control information signal 414.
  • FIG. 4 shows an example, and it is assumed that information packet # 1, information packet # 2,..., Information packet # (n ⁇ 1), and information packet #n are generated. (That is, information packet #k (k is an integer not less than 1 and not more than n. (N is an integer not less than 2))) Also, the number of bits of information for generating information packets # 1 to #n In this case, information packets # 1 to #n are generated by inserting known data, for example.
  • Reordering section 404 receives information packet 403 and control information signal 414 as input, performs data reordering based on reordering method information included in control information signal 414, and outputs a reordered data series 405. . Note that rearrangement is not necessarily performed. For example, the information packets # 1 to #n are input, and the rearrangement is performed within the range of the bit sequences constituting the information packets # 1 to #n.
  • Encoding section 408 receives data sequence 405 after rearrangement and control information signal 414 as input, and includes an error (erasure) correction encoding method (for example, an error (erasure) correction encoding method to be used) included in control information 414. Encoding based on information, code length (block length), coding rate, etc.) and outputting a parity packet 407.
  • FIG. 4 shows an example, and it is assumed that parity packet # 1, parity packet # 2,..., Parity packet # (h-1), and parity packet #h are generated (that is, parity packet # k (k is an integer of 1 or more and h or less (h is an integer of 1 or more))).
  • the error detection code adding unit 408 receives the parity packet 407, adds a CRC (Cyclic Redundancy Check), for example, and outputs a parity packet 409 after CRC addition so that error detection can be performed in units of packets. At this time, by adding the CRC, the receiving apparatus can determine whether all the data in the packet is correct or the packet is lost.
  • CRC Cyclic Redundancy Check
  • the receiving apparatus can determine whether all the data in the packet is correct or the packet is lost.
  • CRC is described as an example. However, any code can be used as long as it is a block code or check code that can determine whether all data in a packet is correct or a packet is lost. May be used.
  • FIG. 4 shows an example.
  • Parity packet # 1 after CRC addition parity packet # 2 after CRC addition, parity packet # (h ⁇ 1) after CRC addition, CRC addition It is assumed that parity packet #h is generated (that is, parity packet #k after CRC is added (k is an integer not less than 1 and not more than h (h is an integer not less than 1))).
  • error detection code adding section 410 receives information packet 403, adds, for example, a CRC (Cyclic Redundancy Check) so that error detection can be performed on a packet basis, and outputs information packet 411 after the CRC is added. .
  • CRC Cyclic Redundancy Check
  • the receiving apparatus can determine whether all the data in the packet is correct or the packet is lost.
  • CRC is described as an example.
  • any code can be used as long as it is a block code or check code that can determine whether all data in a packet is correct or a packet is lost. May be used.
  • FIG. 4 shows an example. Information packet # 1 after CRC addition, information packet # 2,...
  • Information packet #n is generated (that is, information packet #k after CRC is added (k is an integer of 1 or more and n or less (n is an integer of 2 or more))).
  • control information for example, information on the type of information, information on the encoding method of the video encoding (frame rate, compression rate, compression method), etc., is not limited to the information 401 in FIG. 4. ) May be included. This will be described later.
  • FIG. 5 shows a configuration different from that of FIG. 4 in a portion related to an error correction coding method that enables restoration when a packet or frame loss occurs in a transmission device of a telecommunication carrier.
  • the configuration shown in FIG. 5 is included in the packet (or frame) processing unit 222 in the transmission device 250 owned by the telecommunications carrier in FIG.
  • the rearrangement unit 502 receives the information 501 and the control information signal 510, performs data rearrangement based on information on the rearrangement method included in the control information signal 510, and outputs rearranged information 503.
  • the encoding unit 504 receives the rearranged information 503 and the control information signal 510 as input, and includes an error (erasure) correction encoding method (for example, information on an error (erasure) correction encoding method to be used) included in the control information 510. Encoding based on the code length (block length), coding rate, etc.), and outputs the encoded data 505.
  • the code used for encoding may be a systematic code (a code in which an information sequence is included in the codeword as it is) or a non-systematic code.
  • the packet generation unit 506 receives the encoded data 505 and the control information signal 510 as inputs, and outputs a packet 507 based on information on the packet size (number of bits constituting one packet) included in the control information signal 503.
  • FIG. 5 shows an example, and it is assumed that packet # 1, packet # 2,..., Packet # (m ⁇ 1), and information packet #m are generated. (That is, packet #k (k is an integer greater than or equal to 1 and less than or equal to m. (M is an integer greater than or equal to 2))) Also, the number of bits of information sufficient to generate packets # 1 to #m is insufficient. In such a case, the encoding unit 504 performs encoding by inserting known data, for example.
  • the error detection code adding unit 508 receives the packet 507, adds, for example, a CRC (Cyclic Redundancy Check) so that error detection can be performed in units of packets, and outputs a packet 509 after the CRC is added. At this time, by adding the CRC, the receiving apparatus can determine whether all the data in the packet is correct or the packet is lost.
  • CRC Cyclic Redundancy Check
  • the receiving apparatus can determine whether all the data in the packet is correct or the packet is lost.
  • CRC is described as an example. However, any code can be used as long as it is a block code or check code that can determine whether all data in a packet is correct or a packet is lost. May be used.
  • FIG. 5 shows an example.
  • Packet # 1 after CRC addition packet # 2, after CRC addition, packet # (m-1) after CRC addition, packet #m after CRC addition (That is, packet #k after CRC is added (k is an integer of 1 to m (m is an integer of 2 or more))).
  • control information eg, information type information, coding method information (frame rate, compression rate, compression method), etc. (not limited to this) is included in information 501 in FIG. ) May be included. This will be described later.
  • FIG. 6 shows an example of the packet configuration method described above.
  • Reference numeral 601 denotes a CRC, which can be used to detect an error.
  • the 602 is “information on the number of packets obtained by error correction code”. For example, in the case of FIG. 4, since the number of information packets is n and the number of parity packets is h, this information is “n + h”. In the case of FIG. 5, the information regarding the number of packets obtained by the error correction code is “m”.
  • packet ID (identification) information For example, in FIG. 4, the number of packets obtained by the error correction code is “n + h”. Therefore, “0” to “n + h ⁇ 1” are prepared as packet IDs (identifications). Then, any number among the identifiers “0” to “n + h ⁇ 1” is given to each packet. Specifically, one of IDs “0” to “n + h ⁇ 1” is assigned to each of the n information packets and the h parity packets shown in FIG. In the case of FIG. 5, the number of packets obtained by the error correction code is “m”. Therefore, “0” to “m ⁇ 1” are prepared as packet IDs. Each packet is given a number from among the identifiers “0” to “m ⁇ 1”. Specifically, one of IDs “0” to “m ⁇ 1” is assigned to each of the m packets shown in FIG.
  • control information is control information other than “information on the number of packets obtained by error correction code” and “packet ID (identification)”. For example, information on the error correction coding method at the packet level, and if the packet length is variable, the number of bits (or the number of bytes) of the packet length may be used as the control information.
  • 605 is data, which is data to be transmitted to the terminal (in this case, for example, video and audio data).
  • FIG. 7 shows an example different from FIG. 6 of the packet configuration method described above.
  • a CRC 701 can be used to detect an error.
  • 702 is first control information
  • 703 is second control information.
  • information belonging to the first control information and the second control information include “information on the number of packets obtained by error correction code”, “information on packet ID (identification) (identifier)”, packet level If the error correction coding method information and the packet length are variable, there are the number of bits (or the number of bytes) of the packet length, but the present invention is not limited to this.
  • data 704 is data, which is data to be transmitted to the terminal (in this case, for example, video and audio data).
  • control information 604 and data 605 are packets before addition of the error detection code in FIGS. Therefore, the control information 604 and data 605 are input to error correction coding (encoding unit 406 or encoding unit 504).
  • error correction coding encoding unit 406 or encoding unit 504
  • information 602 regarding the number of packets obtained by error correction coding, packet ID (identification) information 603, and CRC 601 as an example of an error detection code are added to control information 604 and data 605.
  • a packet with an error detection code is obtained.
  • the packet ID takes any value from 0 to 31.
  • a control information addition unit is required either before or after the error detection code addition units 408, 410, and 508 in FIGS.
  • the configuration is shown in FIG.
  • control information adding section 802 receives control information 604 and data 605 (corresponding to 801) as input, information 602 regarding the number of packets obtained by error correction coding, and packet ID (identification) ( Identifier) information 603 is added, and a data group 803 is output.
  • the error detection code adding unit 804 receives the data group 803, adds a CRC 601 and outputs a packet 805 with an error detection code.
  • error detection code adding section 812 receives control information 604 and data 605 (corresponding to 811), adds CRC 601 and outputs data group 813.
  • the control information adding unit 814 receives the data group 813, adds information 602 regarding the number of packets obtained by error correction coding, and information 603 of packet ID (identification) (identifier), and adds a packet with an error detection code. 815 is output.
  • the data 605 is a packet before addition of the error detection code in FIGS. Therefore, the data 605 is input to error correction coding (encoding unit 406 or encoding unit 504).
  • error correction coding encoding unit 406 or encoding unit 504
  • information 602 regarding the number of packets obtained by error correction coding, packet ID (identification) information 603, control information 604, and CRC 601 as an example of an error detection code are added to data 605.
  • packet ID (identification) information 603, control information 604, and CRC 601 as an example of an error detection code
  • the packet ID takes any value from 0 to 31.
  • a control information addition unit is required either before or after the error detection code addition units 408, 410, and 508 in FIGS.
  • the configuration is shown in FIG.
  • control information adding unit 802 receives data 605 (corresponding to 801) as input, information 602 regarding the number of packets obtained by error correction coding, and information on packet ID (identification) (identifier). 603 and control information 604 are added, and a data group 803 is output.
  • the error detection code adding unit 804 receives the data group 803, adds a CRC 601 and outputs a packet 805 with an error detection code.
  • error detection code adding section 812 receives data 605 (corresponding to 811) as input, adds CRC 601 and outputs data group 813.
  • the control information adding unit 814 receives the data group 813, adds information 602 regarding the number of packets obtained by error correction coding, information (603) of packet ID (identification) (identifier), and control information 604 to detect errors.
  • a signed packet 815 is output.
  • the data 704 and the second control information 703 are packets before addition of the error detection code in FIGS. Therefore, the data 704 and the second control information 703 are input to error correction coding (the coding unit 406 or the coding unit 504).
  • first control information 702 and CRC 701 as an example of an error detection code are added to data 704 and second control information 703 to form a packet with an error detection code.
  • the packet ID takes any value from 0 to 31.
  • a control information addition unit is required either before or after the error detection code addition units 408, 410, and 508 in FIGS.
  • the configuration is shown in FIG.
  • control information adding unit 802 receives the data 704 and the second control information 703 (corresponding to 801), adds the first control information 702, and outputs a data group 803.
  • the error detection code adding unit 804 receives the data group 803, adds a CRC 601 and outputs a packet 805 with an error detection code.
  • error detection code adding section 812 receives data 704 and second control information 703 (corresponding to 811), adds CRC 601 and outputs data group 813.
  • the control information adding unit 814 receives the data group 813, adds the first control information 702, and outputs a packet 815 with an error detection code.
  • the data 704 is a packet before addition of the error detection code in FIGS. Therefore, the data 704 becomes an input for error correction coding (the coding unit 406 or the coding unit 504).
  • first control information 702, second control information 703, and CRC 701, which is an example of an error detection code, are added to data 704 to form a packet with an error detection code.
  • the packet ID takes any value from 0 to 31.
  • a control information addition unit is required either before or after the error detection code addition units 408, 410, and 508 in FIGS.
  • the configuration is shown in FIG.
  • control information adding unit 802 receives data 704 (corresponding to 801) as input, adds first control information 702 and second control information 703, and outputs a data group 803.
  • the error detection code adding unit 804 receives the data group 803, adds a CRC 601 and outputs a packet 805 with an error detection code.
  • error detection code adding section 812 receives data 704 (corresponding to 811) as input, adds CRC 601 and outputs data group 813.
  • the control information adding unit 814 receives the data group 813, adds the first control information 702 and the second control information 703, and outputs a packet 815 with an error detection code.
  • information on time may be included in each packet or a part of the packets. At this time, information regarding time may be included in all the packets, or information regarding time may be included in a specific packet.
  • information related to time may be included in the modulated signal transmitted by the broadcast station.
  • information regarding time may be included in all the packets or frames, or information regarding time may be included in a specific packet or frame.
  • the terminal uses the information related to the time included in the packet transmitted by the telecommunications carrier and the information related to the time included in the modulation signal transmitted from the broadcasting station, and the video transmitted from the telecommunications carrier and the video transmitted from the broadcasting station.
  • two synchronized videos can be displayed on the display unit of the terminal, and the possibility of giving viewers an unpleasant feeling is reduced.
  • the information transmitted by the telecommunications carrier includes information regarding the time
  • the information transmitted by the broadcaster also includes information regarding the time.
  • the terminal can perform time synchronization of decoding and display of the first video and the second video. Also, information regarding these times can be used for adjusting the timing of error correction decoding to the packet level described in this embodiment.
  • the modulation signal transmitted by the broadcasting station does not necessarily have a packet-based data structure (the packet may be based.
  • the packet length and the configuration of control information are the packets transmitted by the telecommunications carrier.
  • the configuration may be the same or may not be the same).
  • the broadcasting station transmits a packet.
  • the information does not necessarily have to be transmitted in units of packets, and may be in units of frames or streams. Good.
  • an example in which information is transmitted in packet units will be described.
  • FIG. 9 in FIG. 9 shows an example when the information of two videos at different angles at the same time is transmitted by the broadcasting station and the telecommunication line company.
  • the horizontal axis represents time. It is assumed that the broadcasting station transmits data of the first video, and the telecommunications carrier transmits data of the second video (the first video and the second video are videos of the same time at different angles. Suppose it is).
  • the first video includes packet “# 1”, packet “# 2”, packet “# 3”, packet “# 4”, packet “# 5”, packet “# 6”, packet
  • the second video is composed of packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 7”, and packet “$ 7”. It is assumed that the packet is composed of “$ 6” and packet “$ 7”.
  • the broadcast station transmits packets in the same manner thereafter. (However, this point is not described in FIG. 9.)
  • the second video includes a packet “$ 1”, a packet “$ 2”, a packet “$ 3”, a packet “$ 4”, and a packet. It is not necessarily composed of “$ 5”, packet “$ 6”, and packet “$ 7”.
  • the telecommunications carrier transmits the packet (however, in FIG. Is not listed).
  • FIG. 9 shows a situation in which a broadcast station and a telecommunication carrier trade a packet.
  • the broadcast station transmits packet “# 1”, packet “# 2”, packet “# 3”, packet “# 4”. ”, Packet“ # 5 ”, packet“ # 6 ”, packet“ # 7 ”, and the telecommunications carrier is packet“ $ 1 ”, packet“ $ 2 ”, packet“ $ 3 ”, packet“ $ 4 ” ”, Packet“ $ 5 ”, packet“ $ 6 ”, and packet“ $ 7 ”.
  • the packet “# 1” and the packet “$ 1” transmitted from the time T 1 shown in FIG. 9 are packets including the video at the same time. Assume that you are sending.
  • Reference numeral 910 in FIG. 9 indicates that the terminal is receiving a packet.
  • the packet “# 1”, the packet “# 2”, the packet “# 3”, the packet “# 4”, the packet “# 5”, the packet “# 6”, and the packet “# 7” transmitted by the broadcasting station are transmitted to the terminal. If the broadcast station continuously transmits packets in the same order, it will arrive continuously. Therefore, as shown in FIG. 9, the terminal transmits packet “# 1”, packet “# 2”, packet “# 3”, packet “# 4”, packet “# 5”, packet “# 6”, packet “# 7”. ”Is received, and the reception is completed at time R 1 .
  • the telecommunication carrier is transmitting a packet to the terminal using TCP (TCP / IP) or UDP. Therefore, as shown by 900 in FIG. 9, even if the information of two images at different angles at the same time is transmitted by the broadcasting station and the telecommunications carrier, the telecommunications carrier is shown as 910 in FIG. In the transmitted packet, the arrival delay of the packet and the order of arrival of the packet are changed. This is shown at 910 in FIG. As described above, the terminal can easily predict how to reach the terminal of the packet transmitted by the broadcasting station, but it is difficult for the terminal to predict the arrival of the packet transmitted by the telecommunications carrier.
  • the time when the terminal completes receiving the final packet of the broadcasting station is R 1
  • the time when the terminal completes receiving the final packet of the telecommunications carrier is R 2.
  • R 1 ⁇ R 2 .
  • the first video and the second video are two videos of different angles at the same time
  • the first video and the second video are synchronized in the display unit 384 provided in the terminal of FIG. If it is not displayed, the viewer is likely to feel uncomfortable.
  • the first video is the overall angle of soccer and the second video is the angle of an individual player
  • the first video is the moment when player A is shooting with the overall angle of soccer.
  • the second video the viewer is likely to be dissatisfied when the goal is already determined.
  • the first video is decoded and the second video is decoded at time R 1 , the first video is displayed on the terminal, but the second video has the packet “$ 1”. Since the packet “$ 3” and the packet “$ 6” have not arrived, it is difficult for the terminal to display the second video with little disturbance.
  • the terminal At time R 2 time, decoding of the first image, and, when performing the decoding of the second picture, the terminal, in order to synchronize the display of the first image and the second image, the first image It is necessary to delay the time for displaying. Therefore, a storage unit (buffer) for the delay of the first video data is required. At this time, if the delay amount is small (or within a certain allowable range), this method may be used. However, in the case of TCP (TCP / IP) or UDP, the delay amount is not constant. When a terminal obtains a packet via a wireless LAN or the like, the delay amount may be further increased.
  • FIG. 10 shows an example in which information of two videos at different angles at the same time is transmitted by the broadcasting station and the telecommunication line company, and the horizontal axis is time.
  • the difference from 900 in FIG. 9 is that the packet transmitted by the broadcasting station is delayed in consideration of the arrival delay at the terminal of the packet transmitted by the telecommunication carrier.
  • the electric communication line skilled starts transmission of a packet from the time T 1. Then, packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” are sequentially transmitted.
  • the packet (or frame) processing units 202 and 222 in FIG. 2 have a packet (or frame) storage function for transmitting the generated packet with a delay, and the packet or frame is delayed by the storage capacity. Can be sent.
  • the broadcast station starts transmission of the packet from time T 2 (T 1 ⁇ T 2, where T 1 ⁇ T 2 , but T 1 > T 2 may be considered). Then, packet “# 1”, packet “# 2”, packet “# 3”, packet “# 4”, packet “# 5”, packet “# 6”, and packet “# 7” are sequentially transmitted.
  • FIG. 11 shows an example (1100) of the packet reception status of the terminal when the broadcasting station and the telecommunication carrier trade the packet as shown in FIG.
  • the terminal receives packets “# 1” to “# 7” transmitted by the broadcast station, as in FIG. At this time, all received complete time a packet and R 2.
  • the terminal receives a packet transmitted by the telecommunications carrier.
  • the time when the terminal completes reception of all the packets transmitted by the telecommunications carrier is R 1 .
  • R 1 ⁇ R 2 is satisfied.
  • the difference between “when the terminal completes receiving all the packets transmitted by the broadcasting station” and “when the terminal completes receiving all the packets transmitted by the telecommunications carrier” is Compared to the case of transmitting a packet as in 9, it is highly possible that the packet can be reduced. Therefore, there is a possibility that the terminal can reduce the circuit scale for storing and storing packets. In the case of Figure 11, at time R 2, it is sufficient to start decoding of the first image and the second image.
  • broadcast stations and telecommunications network operators require a packet storage unit for delay transmission of packets, leading to an increase in circuit scale.
  • an increase in the circuit scale of a terminal is an increase in the total circuit scale compared to an increase in the circuit scale of a broadcasting station or a transmission station of a telecommunications carrier. In that respect, the challenges are significant. Therefore, the above-described method is an effective method that can suppress image disturbance while suppressing an increase in circuit scale.
  • the terminal receives the packet as shown in FIG. 12, that is, the packet received by the telecommunications carrier may be received with a delay, as shown at 910 in FIG.
  • the difference between “when the terminal completes receiving all the packets transmitted by the broadcasting station” and “when the terminal completes receiving all the packets transmitted by the telecommunications carrier”. Is small, but when the packet “$ 3” and the packet “$ 7” are lost, in order to display the first video and the second video in synchronization with each other, When decoding is started, the second video is disturbed again.
  • the signal processing unit 380 of the terminal shown in FIG. 3 obtains information on the arrival time difference (or statistical information) of the packet transmitted by the telecommunication carrier at the same time as the packet transmitted by the broadcast station, and the time difference information 399. Output as. Then, the time difference information 399 is transmitted from, for example, a transmission device provided in the terminal to a telecommunication line company.
  • the packet (or frame) processing units 202 and 222 receive the time difference information 299 as input, change the amount of the packet or frame storage unit to control the transmission timing, and the packet whose delay amount is controlled, or A frame will be output.
  • the packet (or frame) processing unit 222 of the transmission device 250 of the telecommunications network operator controls the delay amount for each terminal.
  • the broadcast station 240 controls the delay time (packet transmission timing).
  • the telecommunications carrier may control the delay time (packet transmission timing).
  • the number of bits of information constituting one packet is 16384 bits.
  • 65536/16384 information bits from which 4 packets can be obtained.
  • an error correction code error correction coding at the packet level
  • the error correction code used at this time is assumed to have a code length of 114688 bits and a coding rate of 4/7.
  • the error correction code is a systematic code, for example, packet generation as shown in FIG. 4 is performed, and when the error correction code is a non-systematic code, for example, packet generation as shown in FIG. 5 is performed.
  • the error correction code is a non-systematic code
  • packet generation as shown in FIG. 5 is performed.
  • one of the encodings of FIGS. 4 and 5 is performed on the information of the second video composed of 65536 bits
  • seven packets are generated (the number of bits of information constituting one packet). Because it is 16384 bits).
  • the seven packets at this time are packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7”. It shall be.
  • the terminal can receive a number larger than the number of bits of information before encoding, that is, 5 or more packets, all packets can be restored. Therefore, as described above, for example, it is assumed that the broadcast station and the telecommunication carrier trade the packet as indicated by reference numeral 901 in FIG. 9 (detailed description is omitted because it is as described above).
  • the packet reception status of the terminal in FIG. 3 is as shown in FIG.
  • the error correction code is decoded at the packet level at the time point Rc in FIG. (That is, the packet (or frame) processing units 315 and 358 of the terminal in FIG. 3 have storage units (buffers), and when the terminal receives the packet (or frame) of the broadcasting station, The frame processing unit 315 sequentially stores the data of the packet or the frame and delays the processing of the data, so that the reception of all the packets is completed, and the packet level Error-correction decoding will be performed in the above).
  • the terminal has lost the packet “$ 3” and the packet “$ 6”. (However, for the sake of clarity, FIG. 13 illustrates this.) However, as described above, since the terminal has obtained 5 or more packets, all the packets, that is, the packet “$ 1”, Packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” can be obtained.
  • the terminal can obtain the first video and the second video by decoding the first video and the second video after the time point Rc, and thus the terminal Can display the first video and the second video on the display unit in synchronization.
  • the terminal does not need to wait.
  • the circuit scale of the storage unit for accumulating the data of the packets or frames of the first video is reduced.
  • the effect that it can reduce significantly is acquired.
  • video disturbance has occurred in the terminal due to the packet loss of the second video, but there is also an effect that the video is not disturbed even if the packet loss within the specified range occurs. Can do.
  • the terminal may receive a packet (or a frame) transmitted from the broadcasting station and the telecommunication carrier as described above with reference to FIG. Also in this case, at the time point Rc, the packet “$ 3” and the packet “$ 6” are lost, but as described above, the terminal has obtained 5 packets or more. , All packets, that is, packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” are obtained. be able to.
  • the terminal can obtain the first video and the second video by decoding the first video and the second video after the time point Rc, and thus the terminal Can display the first video and the second video on the display unit in synchronization.
  • the terminal does not need to wait.
  • FIG. 14 shows an example of a flowchart of processing of the packet (or frame) processing unit 358 of the terminal.
  • time point Rc in FIG. 13 be a specific time. Then, first check the following.
  • the terminal (all packets transmitted by the telecommunications carrier) (to execute video decoding) all packets (or video decoding) Are the necessary packets) received?
  • the terminal does not perform packet level decoding on the packet transmitted by the telecommunication carrier. Since the terminal can start decoding the first video and the second video, the terminal may start decoding.
  • the terminal performs packet level decoding on a packet transmitted by a telecommunications carrier. (Note that the packet-level decoding may be started at or before the time point Rc.) Then, the terminal starts decoding the first video and the second video. Since it is possible, decoding may be started.
  • the terminal performs packet level decoding, it can restore the lost packet among the packets transmitted by the telecommunications carrier, so it performs packet level decoding. Then, since the terminal can start decoding the first video and the second video, the terminal starts decoding.
  • FIG. 15 which simplified FIG. (The feature of FIG. 15 is that no determination is made before a specific time (time point Rc)). “At a specific time (time point Rc), has the terminal received more than the required number of packets (5 packets in this case) (of packets transmitted by the telecommunications carrier)?” In the case of “No”, the terminal does not perform the packet level decoding because the lost packet cannot be restored among the packets transmitted by the telecommunications carrier even if the packet level decoding is performed.
  • the terminal performs packet level decoding, it can restore the lost packet among the packets transmitted by the telecommunications carrier, so it performs packet level decoding. Then, since the terminal can start decoding the first video and the second video, the terminal starts decoding.
  • FIG. 16 in FIG. 16 shows an example when a broadcast station and a telecommunications carrier trade two pieces of video information at different angles at the same time.
  • the horizontal axis represents time.
  • the broadcasting station transmits the first video data
  • the telecommunications carrier transmits the second video data (the first video and the second video have different angles at the same time). Video).
  • the difference between 1600 in FIG. 16 and 900 in FIG. 9 is that the first video transmitted by the broadcast station is considered in the frame unit of the modulation signal when the broadcast station applies the wireless transmission method and the wired transmission method. It is a point.
  • the first video is composed of a frame “* 1”
  • the second video is a packet “$ 1”, a packet “$ 2”, and a packet “$ 3”.
  • the first video is not composed of only the frame “* 1”, and the broadcast station transmits the frame in the same manner thereafter. (However, in FIG. 16, this point is not described.)
  • the second video includes a packet “$ 1”, a packet “$ 2”, a packet “$ 3”, a packet “$ 4”, and a packet. It is not necessarily composed of “$ 5”, packet “$ 6”, and packet “$ 7”.
  • the telecommunications carrier transmits the packet (however, in FIG. Is not listed).
  • FIG. 1610 in FIG. 16 shows a state in which the terminal receives frames and packets.
  • the frame “* 1” transmitted by the broadcasting station is received.
  • the terminal will receive at R 1 is completed.
  • the telecommunication carrier is transmitting a packet to the terminal using TCP (TCP / IP) or UDP. Therefore, as shown at 1600 in FIG. 16, even if the information of two images at different angles at the same time is transmitted by the broadcasting station and the telecommunications carrier, the telecommunications carrier is shown as 1610 in FIG. In the transmitted packet, the arrival delay of the packet and the order of arrival of the packet are changed. This is shown at 1610 in FIG. As described above, the terminal can easily predict how to reach the terminal of the packet transmitted by the broadcasting station, but it is difficult for the terminal to predict the arrival of the packet transmitted by the telecommunications carrier.
  • the first video and the second video are two videos of different angles at the same time
  • the first video and the second video are synchronized in the display unit 384 provided in the terminal of FIG. If it is not displayed, the viewer is likely to feel uncomfortable.
  • the first video is the overall angle of soccer and the second video is the angle of an individual player
  • the first video is the moment when player A is shooting with the overall angle of soccer.
  • the second video the viewer is likely to be dissatisfied when the goal is already determined.
  • the first video is decoded and the second video is decoded at time R 1 , the first video is displayed on the terminal, but the second video has the packet “$ 1”. Since the packet “$ 3” and the packet “$ 6” have not arrived, it is difficult for the terminal to display the second video with little disturbance.
  • the terminal At time R 2 time, decoding of the first image, and, when performing the decoding of the second picture, the terminal, in order to synchronize the display of the first image and the second image, the first image It is necessary to delay the time for displaying. Therefore, a storage unit (buffer) for the delay of the first video data is required. At this time, if the delay amount is small (or within a certain allowable range), this method may be used. However, in the case of TCP (TCP / IP) or UDP, the delay amount is not constant. When a terminal obtains a packet via a wireless LAN or the like, the delay amount may be further increased.
  • Reference numeral 1700 in FIG. 17 shows an example in which the information of two videos at different angles at the same time is transmitted by the broadcasting station and the telecommunication carrier, and the horizontal axis is time.
  • the difference from 1600 in FIG. 16 is that the frame transmitted by the broadcasting station is delayed in consideration of the arrival delay at the terminal of the packet transmitted by the telecommunication carrier. 17, the electric communication line skilled starts transmission of a packet from the time T 1. Then, packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” are sequentially transmitted.
  • the packet (or frame) processing units 202 and 222 in FIG. 2 have a packet (or frame) storage function for transmitting the generated packet with a delay, and the packet or frame is delayed by the storage capacity. Can be sent.
  • the broadcast station starts frame transmission from time T 2 (T 1 ⁇ T 2, where T 1 ⁇ T 2 , but T 1 > T 2 may be considered). Then, the frame “* 1” is transmitted.
  • FIG. 18 shows an example (1800) of the packet reception status of the terminal when the broadcasting station and the telecommunication carrier trade the packet as shown in FIG.
  • the terminal receives the frame “* 1” transmitted by the broadcast station, as in FIG. At this time, the reception completion time and R 2.
  • the terminal receives a packet transmitted by the telecommunications carrier.
  • the time when the terminal completes reception of all the packets transmitted by the telecommunications carrier is R 1 .
  • R 1 ⁇ R 2 is satisfied.
  • the difference between “when the terminal completes receiving all the packets transmitted by the broadcasting station” and “when the terminal completes receiving all the packets transmitted by the telecommunications carrier” is Compared with the case of transmitting a packet as in FIG. Therefore, there is a possibility that the terminal can reduce the circuit scale for storing and storing packets.
  • at time R 2 it is sufficient to start decoding of the first image and the second image.
  • broadcast stations and telecommunications network operators require a packet storage unit for delay transmission of packets, leading to an increase in circuit scale.
  • an increase in the circuit scale of a terminal is an increase in the total circuit scale compared to an increase in the circuit scale of a broadcasting station or a transmission station of a telecommunications carrier. In that respect, the challenges are significant. Therefore, the above-described method is an effective method that can suppress image disturbance while suppressing an increase in circuit scale.
  • the terminal receives the packet as shown in FIG. 19, that is, the terminal may receive the packet transmitted by the telecommunications carrier as shown in 1610 in FIG.
  • the difference between “when the terminal completes receiving all the packets transmitted by the broadcasting station” and “when the terminal completes receiving all the packets transmitted by the telecommunications carrier”. Is small, but when the packet “$ 3” and the packet “$ 7” are lost, in order to display the first video and the second video in synchronization with each other, When decoding is started, the second video is disturbed again.
  • the signal processing unit 380 of the terminal in FIG. 3 obtains information on the difference (or statistical information) of arrival times of packets transmitted by the telecommunication carrier at the same time as the frame transmitted by the broadcast station, and the time difference information 399. Output as. Then, the time difference information 399 is transmitted from, for example, a transmission device provided in the terminal to a telecommunication line company.
  • the packet (or frame) processing units 202 and 222 receive the time difference information 299 as input, change the amount of the packet or frame storage unit to control the transmission timing, and the packet whose delay amount is controlled, or A frame will be output.
  • the packet (or frame) processing unit 222 of the transmission device 250 of the telecommunications network operator controls the delay amount for each terminal.
  • the broadcast station 240 controls the delay time (packet transmission timing).
  • the telecommunications carrier may control the delay time (packet transmission timing).
  • the number of bits of information constituting one packet is 16384 bits.
  • 65536/16384 information bits from which 4 packets can be obtained.
  • an error correction code error correction coding at the packet level
  • the error correction code used at this time is assumed to have a code length of 114688 bits and a coding rate of 4/7.
  • the error correction code is a systematic code, for example, packet generation as shown in FIG. 4 is performed, and when the error correction code is a non-systematic code, for example, packet generation as shown in FIG. 5 is performed.
  • the error correction code is a non-systematic code
  • packet generation as shown in FIG. 5 is performed.
  • one of the encodings of FIGS. 4 and 5 is performed on the information of the second video composed of 65536 bits
  • seven packets are generated (the number of bits of information constituting one packet). Because it is 16384 bits).
  • the seven packets at this time are packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7”. It shall be.
  • the terminal can receive a number larger than the number of bits of information before encoding, that is, 5 or more packets, all packets can be restored. Therefore, as described above, for example, a broadcasting station and a telecommunication network provider transmit frames and packets as indicated by 1601 in FIG. 16 (detailed description is omitted because it has been described above). .
  • the packet reception status of the terminal in FIG. 3 is as shown in FIG.
  • the error correction code is decoded at the packet level.
  • the packet (or frame) processing units 315 and 358 of the terminal in FIG. 3 have storage units (buffers)
  • the packet (or frame) processing unit 315 sequentially stores the data of the frame and delays the processing of the data, and then completes reception of the frame, and performs error correction decoding at the packet level for the packet transmitted by the telecommunications carrier after a certain period of time. Will be.
  • the terminal has lost the packet “$ 3” and the packet “$ 6”. (However, for the sake of clarity, FIG. 20 illustrates this.) However, as described above, since the terminal has obtained 5 or more packets, all the packets, that is, the packet “$ 1”, Packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” can be obtained.
  • the terminal can obtain the first video and the second video by decoding the first video and the second video after the time point Rc, and thus the terminal Can display the first video and the second video on the display unit in synchronization.
  • the terminal does not need to wait.
  • the circuit scale of the storage unit for storing the data of the frame of the first video is greatly increased.
  • the effect that it can reduce is acquired.
  • video disturbance has occurred in the terminal due to the packet loss of the second video, but there is also an effect that the video is not disturbed even if the packet loss within the specified range occurs. Can do.
  • the second video packet at the same time may be transmitted by the broadcast station and the telecommunication line company with a time difference.
  • the terminal may receive a packet (or a frame) transmitted from the broadcasting station and the telecommunication carrier as described above with reference to FIG.
  • the packet “$ 3” and the packet “$ 6” are lost, but as described above, the terminal has obtained 5 packets or more.
  • All packets that is, packet “$ 1”, packet “$ 2”, packet “$ 3”, packet “$ 4”, packet “$ 5”, packet “$ 6”, and packet “$ 7” are obtained. be able to.
  • the terminal can obtain the first video and the second video by decoding the first video and the second video after the time point Rc, and thus the terminal Can display the first video and the second video on the display unit in synchronization.
  • the terminal does not need to wait.
  • FIG. 14 shows an example of a flowchart of processing of the packet (or frame) processing unit 358 of the terminal.
  • time point Rc in FIG. 20 be a specific time. Then, first check the following.
  • the terminal (all packets transmitted by the telecommunications carrier) (to execute video decoding) all packets (or video decoding) Are the necessary packets) received?
  • the terminal does not perform packet level decoding on the packet transmitted by the telecommunication carrier. Since the terminal can start decoding the first video and the second video, the terminal may start decoding.
  • the terminal performs packet level decoding on a packet transmitted by a telecommunications carrier. (Note that the packet-level decoding may be started at or before the time point Rc.) Then, the terminal starts decoding the first video and the second video. Since it is possible, decoding may be started.
  • the terminal performs packet level decoding, it can restore the lost packet among the packets transmitted by the telecommunications carrier, so it performs packet level decoding. Then, since the terminal can start decoding the first video and the second video, the terminal starts decoding.
  • FIG. 15 simplified as shown in FIG. 14 may be implemented (in FIG. 15, the determination is not performed before a specific time (time point Rc)). “At a specific time (time point Rc), has the terminal received more than the required number of packets (5 packets in this case) (of packets transmitted by the telecommunications carrier)?” In the case of “No”, the terminal does not perform the packet level decoding because the lost packet cannot be restored among the packets transmitted by the telecommunications carrier even if the packet level decoding is performed.
  • the terminal performs packet level decoding, it can restore the lost packet among the packets transmitted by the telecommunications carrier, so it performs packet level decoding. Then, since the terminal can start decoding the first video and the second video, the terminal starts decoding.
  • the processing unit is described in units of packets or frames, but is not limited to this. Further, the occurrence of delay by the storage unit may not be in units of frames or packets, and the delay time may be generated in time intervals in units of a plurality of frames or in units of time in units of a plurality of packets.
  • FIG. 21 shows an example of the configuration of the packet (or frame) processing units 202 and 222 in the transmission apparatus owned by the broadcasting station and the telecommunications carrier in FIG.
  • the packet or frame generation unit 2102 receives video and / or audio (audio) information 2101 and a control signal 2105 as inputs. Then, the packet or frame generation unit 2102 performs processing based on the control signal 2105. For example, when performing packet layer error correction coding, the packet or frame generation unit 2102 performs the processing shown in FIGS. 4 and 5 on the video and / or audio (audio) information 2101. , Packetized or framed data 2103 is output. When packetizing or framing, the packet or frame generation unit 2102 packetizes or frames the video and / or audio (audio) information 2101 to packetize or frame the information. Data 2103 is output.
  • the storage unit 2104 receives the packetized or framed data 2103 and the control signal 2105, and stores the packetized or framed data 2103 based on the control signal 2105, delays it, and delays the packet. Or framed data 2106 is output.
  • FIG. 21 An example of the configuration of the storage unit 2104 is as shown in FIG. 21, and the storage blocks are connected in series.
  • the storage block stores the input data group, and the stored data group is stored at that time. The operation of outputting is performed.
  • FIG. 22 shows a configuration example in the case of performing packet layer error correction decoding in the packet (or frame) processing units 315 and 358 in the terminal of FIG. The operation will be described with reference to FIG.
  • Error detection unit 2202 receives received data 2201 and control signal 2208 as inputs.
  • the error detection unit 2202 performs error detection on the packet “$ 2”. “$ 2” is output as packet information 2203.
  • the error detection unit (for example, CRC check unit) 2202 outputs the packet “$ 4” as the packet information 2203 because there is no error as a result of performing error detection on the packet “$ 4”.
  • the error detection unit 2202 outputs the packet “$ 5” as the packet information 2203 because there is no error as a result of performing error detection on the packet “$ 5”.
  • the error detection unit 2202 outputs the packet “$ 7” as the packet information 2203 because there is no error as a result of performing error detection on the packet “$ 7”.
  • the error detection unit 2202 outputs the packet “$ 1” as the packet information 2203 because there is no error as a result of performing error detection on the packet “$ 1”.
  • the error detection unit 2202 receives the packet “$ 3” and the packet “$ 6”. If it does, it will be discarded.
  • the storage unit 2204 receives the packet information 2203 and the control signal 2208, and controls storage and output of the packet based on the control signal 2208.
  • the packet “$ 2”, the packet “$ 4”, the packet “$ 5”, the packet “$ 7”, and the packet “$ 1” are input to the storage unit 2204. Therefore, the packet “$ 2”, the packet “$ 4”, the packet “$ 5”, the packet “$ 7”, and the packet “$ 1” are stored.
  • the control signal 2208 indicates the time point Rc
  • the packet “$ 2”, the packet “$ 4”, the packet “$ 5”, the packet “$ 7”, the packet stored in the storage unit 2204 are stored. Instructs to output “$ 1”. Accordingly, the storage unit 2204 outputs the packet “$ 2”, the packet “$ 4”, the packet “$ 5”, the packet “$ 7”, and the packet “$ 1” as the packet 2205 stored therein.
  • the packet layer decoding unit (erasure correction decoding unit) 2206 receives the stored packet 2205 and control signal 2208 as inputs. When the control signal 2208 indicates the time point Rc, the packet “$ 2”, the packet “$ 4”, the packet “$ 5”, the packet “$ 7”, and the packet “$ 1” output from the storage unit 2204 are output. When the packet layer decoding unit (erasure correction decoding unit) 2206 uses erasure correction decoding (for example, LDPC (Low-Density Parity-Check) code as an error correction code), Reliable reliability propagation decoding). At this time, since the packet layer decoding unit (erasure correction decoding unit) 2206 can restore all the information, it outputs the received video and / or audio (audio) information 2207.
  • erasure correction decoding for example, LDPC (Low-Density Parity-Check) code
  • a broadcast station transmits a packet or a frame to a terminal by using a wireless transmission method or a wired transmission method, but due to a change in a propagation path, the physical layer error correction decoding is performed by the terminal in FIG. However, not all packets can be received correctly. For example, the packet “# 1” can be received without error, the packet “# 2” has an error, the packet “# 3” can be received without error, and so on.
  • the error detection unit 2202 in FIG. 22 determines whether there is an error in packet units or no error based on the error detection code. As a result, it is determined that the packet “# 1” is correct, the packet “# 2” is incorrect, that is, the packet loss, the packet “# 3” is correct, and so on.
  • the packet layer decoding unit 2208 in FIG. 22 performs error correction decoding (loss correction decoding) using a correct packet, restores the packet lost packet, and receives received video and / or audio (audio) information 2207. Output.
  • error correction decoding loss correction decoding
  • FIG. 23 shows the configuration of the packet (or frame) processing unit 315 in FIG. 3 when the packet layer error correction coding is not performed in the transmission of the broadcasting station in FIG. The operation will be described with reference to FIG.
  • the storage unit 2302 receives the reception data 2301 and the control signal 2304.
  • the storage unit 2302 receives and stores the received data of the frame “* 1”.
  • the control signal 2304 indicates that the time is Rc
  • the storage unit 2302 outputs the stored data (reception data of the frame “* 1”) 2303.
  • the broadcast station transmits the first video and the telecommunication carrier transmits the second video for the multi-angle first video and the second video.
  • the transmission method for performing error correction coding at the packet level during the transmission of the second video will be described so that the terminal can display the synchronized first video and second video. In addition, it is possible to obtain an effect that the image is less disturbed.
  • the terminal receiving device and the antenna may be separated.
  • the receiving apparatus has an interface for inputting a signal received by an antenna or a signal obtained by performing frequency conversion on a signal received by an antenna through a cable, and the receiving apparatus performs subsequent processing. .
  • data / information obtained by the receiving device is then converted into video or sound and displayed on a display (monitor) or sound is output from a speaker. Further, the data / information obtained by the receiving device is subjected to signal processing related to video and sound (signal processing may not be performed), and the RCA terminal (video terminal, sound terminal), USB ( It may be output from Universal (Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), a digital terminal, or the like.
  • the first embodiment is different from the case where there are a plurality of broadcasting stations or the broadcasting station transmits information via a plurality of media (for example, satellite broadcasting, terrestrial broadcasting, cable broadcasting). The case where it is applied will be described.
  • a plurality of media for example, satellite broadcasting, terrestrial broadcasting, cable broadcasting.
  • FIG. 24 is an example of the relationship between a broadcasting station, a telecommunication network operator, and a terminal different from FIG. 1, and those that operate in the same way as in FIG. 1 are given the same numbers.
  • a characteristic part is a method in which the broadcast station 103 transmits an angle (first image) captured by the camera 102A to the terminal 105 through the same route as in FIG. 1 (from the broadcast station 103 to the terminal 105).
  • the broadcast station 103 is connected to the terminal 105 via the repeater 2401. There is a way to send to.
  • FIG. 24 there are three paths, but the number of paths is not limited to this.
  • FIG. 25 in addition to the method in which the broadcast station 103 transmits the angle (first image) captured by the camera 102A to the terminal 105 through the same route as in FIG. 1 (solid line arrow from the broadcast station 103 to the terminal 105). There is a method in which the broadcast station 2501 transmits to the terminal 105 through a different route (a dotted arrow pointing from the broadcast station 2501 to the terminal 105), and the broadcast station 2501 transmits to the terminal 105 via the repeater 2401. Shall. In FIG. 25, there are three paths, but the number of paths is not limited to this.
  • FIG. 26 shows an example of the configuration of the transmitting apparatus held by the broadcasting station and the telecommunication carrier in the states of FIGS. 24 and 25, and those that operate in the same way as in FIG. Yes. Therefore, the transmission device 250 owned by the telecommunications carrier can perform all the operations described in the first embodiment (packet level encoding, delayed transmission, etc.).
  • the transmission apparatus 2602 receives the first video and / or audio (audio) information 2601 and the control signal 2603, determines a transmission method based on the control signal 2603, outputs a modulation signal 2604, and the modulation signal 2604 is Output from antenna 2605.
  • the transmission device 2612 receives the first video and / or audio (audio) information 2601 and the control signal 2613, determines a transmission method based on the control signal 2613, outputs a modulation signal 2614, and performs modulation.
  • a signal 2614 is output from the antenna 2615.
  • the transmission device 2622 receives the first video and / or audio (audio) information 2601 and the control signal 2623, determines the transmission method based on the control signal 2613, and outputs the modulation signal 2624. However, the modulated signal 2624 is transmitted to the terminal by wire.
  • the transmission devices 2602, 2612 and 2622 are transmission devices related to the broadcasting station. The characteristic operation of each transmission apparatus will be described later.
  • FIG. 27 shows an example of the configuration of the transmission apparatus owned by the broadcasting station and the telecommunications carrier in FIG. 24 and FIG. 25, which is different from FIG. The same number is attached.
  • FIG. 27 is different from FIG. 26 in that the first video and / or audio (audio) information is separately transmitted from the camera side to the transmission devices 2602, 2612, and 2622.
  • Reference numerals 2701, 2712, and 2721 are all information of the first video and / or audio (audio), and the operations of the transmission devices 2602, 2612, and 2622 are the same as those in FIG.
  • the transmission devices 2602, 2612 and 2622 are transmission devices related to the broadcasting station.
  • FIG. 28 shows a configuration example of the terminal, and the same numbers are assigned to components that operate in the same manner as FIG.
  • Reference numerals 351 to 359 in FIG. 28 denote configurations for receiving a packet transmitted by a telecommunication carrier as in FIG.
  • the operations described in the first embodiment are performed.
  • the receiving device 2823 is a device for receiving the modulated signal transmitted by the transmitting device 2622 in FIGS.
  • Receiving device 2803 receives received signal 2802 received by antenna 2801 (the received signal of the modulated signal transmitted by transmitting device 2602 in FIGS. 26 and 27), extracts control information contained in the received signal, demodulates, Processing such as physical layer error correction decoding (or packet level decoding if packet level error correction coding is performed) is performed, and data 2704 and control information signal 2705 after packet (or frame) processing are obtained. Output.
  • the reception device 2813 receives the reception signal 2812 received by the antenna 2811 (the reception signal of the modulated signal transmitted by the transmission device 2612 in FIGS. 26 and 27) and extracts control information included in the reception signal. , Demodulation, physical layer error correction decoding, (when packet level error correction encoding is performed, packet level decoding), and the like, and data 2714 and control information after packet (or frame) processing The signal 2715 is output.
  • the reception device 2823 receives the reception signal 2822 (the reception signal of the modulated signal transmitted by the transmission device 2622 in FIGS. 26 and 27) from a cable or the like connected to the connection unit 2821, and receives control information included in the reception signal.
  • data 2724 after packet (or frame) processing is performed, such as demodulation, physical layer error correction decoding, and packet level decoding if packet level error correction encoding is performed.
  • a control information signal 2725 is output.
  • not all of the receiving devices 2803, 2813, and 2823 are operating simultaneously. For example, if there is a broadcast channel selection unit as an interface of the terminal, a receiving apparatus related to a channel set by the user using the selection unit operates. A signal for realizing this is a selection signal 2850, and the receiving apparatuses 2803, 2813, and 2823 determine whether to operate based on the selection signal 2850.
  • the signal processing unit 380 receives data (2804, 2814, 2824) after packet (or frame) processing, control information signals 2805, 2815, 2825, and a selection signal 2850 as input, and becomes a valid packet (or frame) based on the selection signal 2850 ) Data after processing will be selected.
  • the signal processing unit 380 receives the data 359 after the packet (or frame) processing and the control information 357 as input, and the data after the packet (or frame) processing and the data 359 after the packet (or frame) processing become valid. Data for displaying two images on the display unit 384 is generated, and data 381 is output.
  • the first video (and / or audio (audio) information) is transmitted from the transmission devices 2602, 2612, and 2622.
  • the packets transmitted by the transmission devices 2602, 2612, and 2622 may be different from each other instead of the same packet.
  • the first video data transmitted from the transmission devices 2602, 2612, and 2622 may be different in video (audio) encoding method, frame rate, and video size (resolution).
  • FIG. 29 illustrates an example of a situation in which the transmission devices 2602, 2612, and 2622 in FIGS. 26 and 27 transmit packets relating to the first video (and / or audio (audio) information) (in FIG. 29). 2900).
  • the horizontal axis represents time.
  • the transmission apparatus 2602 in FIGS. 26 and 27 includes a packet “# 0-1”, a packet “# 0-2”, a packet “# 0-3”, a packet “# 0-4”, and a packet “# 0-5”.
  • FIG. 26 the transmitting apparatus 2602 in FIG. 27, the transmitting apparatus 2612, transmission unit 2622, both are from time T 1 shall send the packets of the same time.
  • FIG. 30 shows a state in which the terminal in FIG. 28 has received the packet when the transmitting devices 2602, 2612, and 2622 in FIG. 26 and FIG. 27 transmit the packet as in FIG. 29 (3000 in FIG. 30). .
  • R 1 indicates the time when the receiving device 2803 of FIG. 28 completes receiving the packet “# 0-7”, and the time when the receiving device 2813 of FIG. 28 completes receiving the packet “# 1-7”.
  • R 2 is defined as R 3 when the receiving device 2823 of FIG. 28 completes reception of the packet “# 2-7”.
  • R 1 , R 2 , and R 3 are different values, and the difference between them may be large.
  • the receiving apparatuses 2803, 2813, and 2823 are operating at the same time. That is, when the user selects a channel (or a transmission medium (terrestrial broadcasting, cable broadcasting, satellite broadcasting)), only the receiving device corresponding to the channel operates.
  • the terminal displays only the first video (and / or audio (audio) information), there is no problem, but as described in the first embodiment, the first video and the second video are displayed.
  • the terminal displays only the first video (and / or audio (audio) information)
  • the first video and the second video are displayed.
  • the terminal transmits the second video (and / or audio (audio)) transmitted through the telecommunication carrier so that the user does not feel uncomfortable with the multi-angle video.
  • Information) and the first video (and / or audio (audio) information) are synchronized in time to display the video on the display unit.
  • the user selects a channel (or transmission medium (terrestrial broadcast, cable broadcast, satellite broadcast)), and only the receiving apparatus corresponding to the channel is operated.
  • the arrival time of the first video (and / or audio (audio) information) packet varies greatly depending on the channel selected by the user (terminal). For this reason, in particular, when the user (terminal) selects a channel (channel transmitting the first video) that is significantly different from the arrival time of the second video packet, the terminal can synchronize the video.
  • the circuit of the storage unit becomes large.
  • transmitting devices 2602, 2612 that transmit the first video (and / or audio (audio) information) in FIGS. 26 and 27, 2622 makes the timing for transmitting information of the first video (and / or audio (audio) information) different. This is shown in FIG.
  • the transmission device 2602 illustrated in FIGS. 26 and 27 starts transmitting a packet of the first video (and / or audio (audio) information) at time T 0 .
  • the transmitting apparatus 2612 in FIG. 27 the time T 1, the transmission of the packets of the first video (information and / or voice (audio)) starts, FIG. 26, the transmitting apparatus of Figure 27 2622 It is the time T 2, starts to transmit the packets of the first video (information and / or voice (audio)).
  • FIG. 32 shows a state when the packet arrives at the receiving device of the terminal of FIG. 28 when the transmitting devices 2602, 2612, and 2622 of FIG. 26 and FIG. 27 transmit the packet as shown in FIG.
  • Z 1 indicates the time when the receiving device 2823 of FIG. 28 completes receiving the packet “# 2-7”, and the time when the receiving device 2823 of FIG. 28 completes receiving the packet “# 1-7”.
  • Z be 2 .
  • the receiving apparatus 2803 of FIG. 28 receives the packet "# 0-7" between the point Z 1 of the Z 2.
  • the transmission timing of the packet of the first video (and / or audio (audio) information) as shown in FIG. , 2612, and 2622 have adjusted, the arrival time difference of the packets of the first video (and / or audio (audio) information) arriving at the receiving devices 2803, 2813, and 2823 of the terminal is compared with that in FIG. It is getting smaller. Thereby, the effect which can reduce the circuit scale of the memory
  • the receiving device of the terminal stores the first video (and / or audio (audio) information) and the second video transmitted by the transmitting device 2602 in FIGS. 26 and 27 in time synchronization. 27, and the first video (and / or audio (audio) information) transmitted by the transmission device 2612 of FIGS. 26 and 27 and the second video are temporally synchronized.
  • the circuit of the storage unit can be reduced, and the first video (and / or audio (audio) information) and the second video transmitted by the transmission device 2622 in FIGS. In order to synchronize, the memory circuit can be made smaller.
  • FIG. 32 it is assumed that the receiving apparatuses 2803, 2813, and 2823 are operating at the same time. That is, when the user selects a channel (or a transmission medium (terrestrial broadcasting, cable broadcasting, satellite broadcasting)), only the receiving device corresponding to the channel operates.
  • a channel or a transmission medium (terrestrial broadcasting, cable broadcasting, satellite broadcasting)
  • first video (and / or audio (audio) information) transmitted by the transmission device 2602 in FIGS. 26 and 27 and the second video packet transmitted by the telecommunications carrier are synchronized in time.
  • Packet processing, signal processing, and decoding processing for display can be realized by performing the same processing as that described in the first embodiment.
  • the packet of the second video is decoded at the packet level, and the processing method is as described in the first embodiment.
  • the first video (and / or audio (audio) information) transmitted by the transmission device 2612 of FIGS. 26 and 27 and the second video packet transmitted by the telecommunication carrier are temporally synchronized.
  • the packet processing, the signal processing, and the decoding processing for displaying the image can be realized in the same manner as the method described in the first embodiment.
  • the packet of the second video is decoded at the packet level, and the processing method is as described in the first embodiment.
  • the first video (and / or audio (audio) information) transmitted by the transmission device 2622 of FIGS. 26 and 27 and the second video packet transmitted by the telecommunication carrier are synchronized in time.
  • Packet processing, signal processing, and decoding processing for display can be realized by performing the same processing as that described in the first embodiment.
  • the packet of the second video is decoded at the packet level, and the processing method is as described in the first embodiment.
  • the amount of delay may be controlled on the transmission side in order to reduce the problem of the second video disturbance.
  • the signal processing unit 380 of the terminal shown in FIG. 28 receives the packet transmitted by the telecommunication carrier at the same time as the frame transmitted by each broadcasting station (the transmitting devices 2602, 2612, and 2622 described in FIGS. 26 and 27). Information regarding the difference in arrival times (or statistical information thereof) is obtained and output as time difference information 399. Then, the time difference information 399 is transmitted from, for example, a transmission device provided in the terminal to a telecommunication line company.
  • the transmission device 250 of the telecommunications carrier is equipped with a receiving unit, and acquires the time difference information transmitted by the terminal (299 in FIG. 2). Then, the packet (or frame) processing units 202 and 222 receive the time difference information 299 as input, change the amount of the packet or frame storage unit to control the transmission timing, and the packet whose delay amount is controlled, or A frame will be output.
  • each broadcasting station the transmission devices 2602, 2612, and 2622 described in FIG. 26 and FIG. 27
  • the packet (or frame) processing unit 222 of the transmission device 250 of the telecommunications network operator controls the delay amount for each terminal.
  • each broadcast station the transmission device 2602 described in FIGS. 26 and 27.
  • 2612, and 2622 may control the delay time (packet transmission timing), or the telecommunication carrier may control the delay time (packet transmission timing).
  • the terminal may automatically select the channel transmitted by the broadcasting station. For example, as illustrated in FIGS. 26 and 27, it is assumed that the transmission devices 2602, 2612, and 2622 transmit information on the first video (and / or audio (audio) information).
  • FIG. 33 shows the configuration of the terminal when automatic selection is performed. 33 that operate in the same manner as in FIGS. 3 and 28 are given the same reference numerals, and detailed descriptions thereof are omitted.
  • the signal processing unit 380 includes a delay time between a packet (or frame) of the first video (and / or audio (audio) information) and a second video packet output from the receiving device 2803, and , The delay time of the packet (or frame) of the first video (and / or audio (audio) information) output from the receiving device 2813 and the packet of the second video, and the first output from the receiving device 2823
  • a signal 3301 including information on the delay time of the packet (or frame) of the video (and / or audio (audio) information) and the packet of the second video is output.
  • the delay time analysis unit 3302 receives the signal 3301 and outputs information 3303 of packets (2804, 2814, 2824) suitable for displaying the first video and the second video in time synchronization.
  • the selection unit 3306 includes information 3303 of packets (2804, 2814, and 2824) suitable for displaying the first video and the second video in time synchronization, channel information 3304 set by the user, control signal 3305 as an input, and by using a control signal 3305, information 3303 of a packet (2804, 2814, 2824) suitable for displaying the first video and the second video in time synchronization, the channel of the channel set by the user One of the information 3304 is selected and output as a selection signal 3307.
  • the delay time analysis unit The result analyzed in 3302 is reflected.
  • the receiving apparatuses 2803, 2813, and 2823 determine whether to operate based on the selection signal 3307.
  • the terminal when the broadcast station transmits the first video and the telecommunication carrier transmits the second video for the multi-angle first video and the second video.
  • error correction coding at the packet level is performed, and the timing at which the information of the first video is transmitted is controlled at each broadcasting station.
  • the terminal has a function capable of selecting a broadcasting station from which the first video is obtained. Thereby, the terminal can display the synchronized first video and the second video, and can obtain an effect that the video is less disturbed.
  • Embodiment 3 when the broadcast station transmits the first video and the telecommunications carrier transmits the second video to the multi-angle first video and the second video.
  • the transmission method for performing error correction coding at the packet level when transmitting the second video has been described.
  • the telecommunications carrier sends a second video packet by TCP (TCP / IP) or UDP, and in order to reduce the effects of packet delay and packet loss, packet level errors A correction code is introduced.
  • FIG. 34 shows an example of the relationship between a broadcasting station, a telecommunication line provider, and a terminal in the present embodiment.
  • 101 indicates a site, and a baseball field and a soccer field are considered as examples.
  • Reference numerals 102A and 102B denote cameras. Assume that the cameras 102A and 102B are shooting images of different angles, for example.
  • the broadcast station 103 receives the “first video and / or audio (audio) information” photographed by the camera 102A, and the “first video and / or audio (audio) information” is a cable or the like. It is assumed that the data is transmitted to the terminal 105 via wired or wireless.
  • the broadcast station 103 receives the “second video and / or audio (audio) information” photographed by the camera 102B, and the “second video and / or audio (audio) information” It is assumed that the data is transmitted to the terminal 105 via 104.
  • second video and / or audio (audio) information may be transmitted directly to the telecommunications carrier 104 without passing through the broadcast station 103, and then transmitted to the terminal 105.
  • the information provider 3401 provides information to the broadcast station, and the broadcast station transmits information based on this information to the terminal together with “first video and / or audio (audio) information”.
  • FIG. 35 shows an example 3500 of the transmission status of packets transmitted by the broadcasting station and the telecommunication line provider in the present embodiment.
  • a plurality of broadcasting stations can transmit a packet of the first video
  • FIG. 35 shows only a transmission packet (frame) of one broadcasting station.
  • the contents described below can also be implemented when a plurality of transmitting stations transmit the first video packet.
  • the broadcast station transmits “first video and / or audio (audio) information”, and the electric network operator transmits “second video and / or audio”. (Audio) information "shall be transmitted.
  • the first video packet group transmitted by the broadcasting station and the second video packet group transmitted by the telecommunications carrier are videos of the same time, which are described in the first and second embodiments.
  • the terminal displays the first video and the second video on the display unit in time synchronization.
  • the broadcasting station in addition to the packet group of the first video, the broadcasting station, as shown in FIG. 35, “character information (telegram information)” and / or “still image information” and / or “URL ( Uniform (Resource-Locator) information ".
  • This information is used when the terminal cannot restore the information of the first video, and accordingly, it is difficult to display the first video on the display unit, and a screen serving as a substitute for the first video is displayed. It is displayed on the display unit of the terminal.
  • this information is used when the terminal cannot restore the information of the second video, and accordingly, it is difficult to display the second video on the display unit. Will be displayed on the display unit of the terminal.
  • the broadcasting station transmits “character information (telegram information)”, “still image information”, and “URL (Uniform ResourceatorLocator) information”, but it does not have to transmit all the information. It is also possible to send one piece of information of “character information (message information)”, “still image information”, “URL (Uniform Resource Locator) information”, or “character information (message information)”, “ Two pieces of information of “still image information” and “URL (Uniform Resource Locator) information” may be transmitted.
  • these pieces of information may not always be included in the frame unit of the transmission frame. For example, these pieces of information may be transmitted for each of a plurality of frames. Therefore, any timing may be used for transmitting these pieces of information.
  • FIG. 36 shows a configuration of a transmission device of a broadcasting station and a telecommunication carrier when transmitting the information of FIG. 35, and the same numbers are given to those operating in the same manner as in FIG. Since the implementation method is the same as that described in the first and second embodiments, the description thereof is omitted.
  • the packet (or frame) processing unit 3602 receives character information (telegram information) and / or still image information and / or URL information 3601 and the first control signal 211 as input, and receives the first control signal. Based on 211, packetization and framing are performed, and information 3603 after packet (or frame) processing is output.
  • the physical layer error correction encoding unit 3604 receives information 3603 after packet (or frame) processing and the first control signal 211 as input, and information on the error correction encoding method of the physical layer included in the first control signal 211. Based on the above, error correction coding is performed, and data 3605 after error correction coding is output.
  • the modulation unit 206 receives the data 205 and 3605 after error correction coding and the first control signal 211 as inputs, and based on the information on the frame configuration and the information on the modulation scheme and transmission method included in the first control signal 211, Mapping is performed on the data 205 and 3605 after error correction coding, and a baseband signal 207 is output.
  • FIG. 37 shows an example of the configuration of the receiving device of the terminal that receives the transmitted signal as shown in FIG. 36, and those that operate in the same way as in FIG. Since it is the same as the description in Embodiment 1 and Embodiment 2, the description is omitted.
  • the demodulator 311 receives the baseband signal 304, the synchronization signal 306, the channel estimation signal 308, and the control information signal 310 as inputs, and performs synchronization based on information on the frame configuration and information on the modulation scheme / transmission method included in the control information signal 310.
  • the baseband signal 304 is demodulated using the signal 306 and the channel estimation signal 308, the log likelihood ratio signal 312, and “text information (telegram information) and / or still image information and / or URL information Log likelihood ratio signal 3701 ".
  • the physical layer error correction decoding unit 3702 receives “character information (telegram information) and / or log image likelihood ratio signal 3701 of still image information and / or URL information” and the control information signal 310 as input. Decoding is performed based on information relating to the error correction coding method included in the signal 310, and "character information (telegram information) and / or still image information and / or URL information reception data 3703" is output.
  • the packet (or frame) processing unit 3704 receives “character information (telegram information) and / or still image information and / or URL information received data 3703” and the control information signal 310 as an input. Based on the above, the packet (or frame) processing is performed to output “character information (telegram information) and / or still image information and / or URL information 3705 after the packet (or frame) processing”.
  • the decoder 3706 receives “character information (telegram information) and / or still image information and / or URL information 3705 after packet (or frame) processing” as input, and character information (telegram information) and still image information. , URL information is decoded, and display screen information 3707 is output.
  • the decoder 3706 operates as follows.
  • the display screen information 3707 is “character information (message information) to be displayed on the display unit”.
  • the display screen information 3707 is “still image information to be displayed on the display unit”.
  • URL information information (3708) from the URL destination is obtained and output.
  • the signal processing unit 380 determines whether a synchronized video of the first video and the second video is obtained, and outputs a determination result 3700.
  • the display unit 384 receives the video signal 383, the display screen information 3707, and the determination result 3700, and the determination result 3700 indicates that "the synchronized video of the first video and the second video is obtained”. If so, the video signal 383 is displayed.
  • the determination result 3700 is information that “the synchronized video of the first video and the second video is not obtained”, and the first video is not obtained, the display is performed instead of the first video.
  • the screen information 3707 is displayed and the second video is displayed. If the second video is not obtained, the display screen information 3707 is displayed instead of the second video.
  • FIG. 38 shows the configuration of the transmission apparatus of the broadcasting station and the telecommunication carrier when transmitting the information of FIG. 35, and the same numbers are assigned to those that operate in the same way as in FIGS.
  • the implementation method is the same as that described in the first embodiment, the second embodiment, and FIG.
  • FIG. 38 differs from FIG. 36 in that the error correction code and character information (telegram information) of the physical layer and / or still image information used when transmitting the first video packet group of FIG. / Or the error correction code of the physical layer used when transmitting the URL information is the same code. Therefore, in FIG. 38, the physical layer error correction encoding unit 3604 in FIG. The error correction encoding unit 204 also performs encoding related to character information (telegram information) and / or still image information and / or URL information.
  • FIG. 39 shows an example of the configuration of the receiving device of the terminal when the information of FIG. 35 is transmitted in FIG. 38, and the same numbers are given to those operating in the same manner as in FIGS.
  • the implementation method is the same as that described in the first embodiment, the second embodiment, and FIG.
  • FIG. 39 differs from FIG. 38 in that the error correction code and character information (telegram information) of the physical layer and / or still image information used when transmitting the first video packet group of FIG. / Or the error correction code of the physical layer used when transmitting the URL information is the same code. Therefore, in FIG. 39, the physical layer error correction decoding unit 3702 in FIG. The correction decoding unit 313 also performs decoding regarding character information (telegram information) and / or still image information and / or URL information.
  • first packet group “character information (telegram information)”, and “still image information” are transmitted in time division. It is not limited, but when there are multiple channels on the multi-carrier transmission method or frequency axis, the “first packet group”, “text information (telegram information)”, and “still image information” are used as frequencies. You may divide and transmit. Further, both time division and frequency division may be used in combination.
  • FIG. 40 shows an example 4000 of a transmission situation of transmission packets by a broadcasting station and a telecommunications carrier different from FIG.
  • a plurality of broadcasting stations can transmit a packet of the first video
  • FIG. 40 shows only transmission packets (frames) of one broadcasting station.
  • the contents described below can also be implemented when a plurality of transmitting stations transmit the first video packet.
  • the broadcast station transmits “first video and / or audio (audio) information”, and the electric network operator transmits “second video and / or audio”. (Audio) information "shall be transmitted.
  • the first video packet group transmitted by the broadcasting station and the second video packet group transmitted by the telecommunications carrier are videos of the same time, which are described in the first and second embodiments.
  • the terminal displays the first video and the second video on the display unit in time synchronization.
  • the telecommunications network operator in addition to the second video packet group, the telecommunications network operator, as shown in FIG. 40, “character information (telegram information)” and / or “still image information” and / or “ It is assumed that “URL (Uniform Resource Locator) information” is transmitted.
  • This information is used when the terminal cannot restore the information of the first video, and accordingly, it is difficult to display the first video on the display unit, and a screen serving as a substitute for the first video is displayed. It is displayed on the display unit of the terminal.
  • this information is used when the terminal cannot restore the information of the second video, and accordingly, it is difficult to display the second video on the display unit. Will be displayed on the display unit of the terminal.
  • the telecommunications carrier transmits “text information (message information)”, “still image information”, and “URL (Uniform (Resource Locator) information”, but does not send all information.
  • text information messages information
  • still image information images
  • URL Uniform Resource Locator
  • one piece of information of “character information (message information)”, “still image information”, “URL (Uniform Resource Locator) information” may be transmitted, or “character information (message information)”.
  • “Still image information” and “URL (Uniform Resource Locator) information” may be transmitted.
  • these pieces of information may not always be included in the frame unit of the transmission frame. For example, these pieces of information may be transmitted for each of a plurality of frames. Therefore, any timing may be used for transmitting these pieces of information.
  • the information provision 3401 in FIG. 34 provides the information of the telecommunications carrier 104 as shown by the dotted line, and the telecommunications carrier 104 indicates that the information is transmitted to the terminal 105 as indicated by a dotted line.
  • FIG. 41 shows the configuration of the transmission device of the broadcasting station and the telecommunication line provider when transmitting the information of FIG. 40, and the same numbers are given to those that operate in the same manner as in FIG. Since the implementation method is the same as that described in the first and second embodiments, the description thereof is omitted.
  • the packet (or frame) processing unit 4102 receives character information (telegram information) and / or still image information and / or URL information 4101 and the second control signal 228 as input, and receives the second control signal. Based on H.228, packetization and framing are performed, and information 4103 after packet (or frame) processing is output.
  • the signal processing unit 224 receives the second video and / or audio information 223 after the packet (or frame) processing, the information 4103 after the packet (or frame) processing, and the second control signal 228 as inputs, and receives the second control signal. Based on the transmission frame information of the telecommunications carrier in FIG. 40 included in 228, signal processing for transmission signal generation is performed, and a signal 225 after signal processing is output.
  • FIG. 42 shows an example of the configuration of the receiving device of the terminal that receives the transmitted signal as shown in FIG. 41, and those that operate in the same way as in FIG. Since it is the same as the description in Embodiment 1 and Embodiment 2, the description is omitted.
  • the signal processing unit 355 receives the received signal 354, separates the second video packet group, control information, character information (telegram information), still image information, and URL information, and receives received data (second video packet group). 356, control information 357, "logarithmic likelihood ratio signal 4202 of character information (message information) and / or still image information and / or URL information" is output.
  • the packet (or frame) processing unit 4203 receives “character information (telegram information) and / or still image information and / or log information log likelihood ratio signal 4202” and control information 357 as control information. Signal processing based on information relating to the transmission method and error correction coding method included in 357, etc., and "character information (telegram information) and / or still image information and / or URL information reception data 4204" Output.
  • the decoder 4205 receives “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” as input, and character information (telegram information), Either the still image information or the URL information is decoded, and display screen information 4206 is output.
  • the decoder 4205 operates as follows.
  • character information (message information)
  • the information 4206 on the display screen is “character information to be displayed on the display section (message information)”.
  • the display screen information 4206 is “still image information to be displayed on the display unit”.
  • URL information the information (4210) from the URL destination is obtained and output.
  • the signal processing unit 380 determines whether a synchronized video of the first video and the second video is obtained, and outputs a determination result 4201.
  • the display unit 384 receives the video signal 383, the display screen information 4206, and the determination result 4201, and the determination result 4201 indicates that “the synchronized video of the first video and the second video is obtained”. If so, the video signal 383 is displayed.
  • the determination result 4201 is information that “the synchronized video of the first video and the second video is not obtained”, and the first video is not obtained, the display is performed instead of the first video.
  • the screen information 4206 is displayed and the second video is displayed. When the second video is not obtained, display screen information 4206 is displayed instead of the second video.
  • Embodiment 4 when the broadcast station transmits the first video and the telecommunications carrier transmits the second video to the multi-angle first video and the second video.
  • the transmission method for performing error correction coding at the packet level when transmitting the second video has been described.
  • the telecommunications carrier sends a second video packet by TCP (TCP / IP) or UDP, and in order to reduce the effects of packet delay and packet loss, packet level errors A correction code is introduced.
  • FIG. 43 shows an example of a configuration of a transmission apparatus of a broadcasting station and a telecommunication line company in the present embodiment.
  • the same number is attached
  • the control unit 232 receives the transmission data 4300 and outputs the transmission data 4301 and the second control signal 228. Detailed operation will be described later with reference to FIG.
  • the control information generation unit 4303 receives the transmission data 4301 and the transmission data 4302 as input, and generates and outputs the control information 4302. Detailed operation will be described later with reference to FIG.
  • the packet (or frame) processing unit 222 receives the transmission data 4301, the transmission data 4302 when reaching the telecommunications carrier directly, and the second control signal 228, and the transmission data 4301 and the transmission are transmitted by the second control signal 228. From the data 4302, valid transmission data is selected, packet (or frame) processing is performed, and data 4304 after packet (or frame) processing is output. Detailed operation will be described later with reference to FIG.
  • FIG. 44 shows an example 4400 of a transmission state of a packet transmitted by a transmission device of a broadcasting station and a telecommunication line company in the present embodiment.
  • the broadcast station transmits “first video packet group # 1” (4401)
  • the telecommunication carrier transmits control information 4405 and “second video packet group # 1” (4406).
  • erasure correction coding error correction coding at the packet level
  • Control information 4405 includes “information indicating that erasure correction encoding (error correction encoding at the packet level) has been performed”.
  • Control information 4405 includes “information indicating that erasure correction coding (error correction coding at the packet level) is not performed”.
  • erasure correction coding error correction coding at the packet level
  • the control information generation unit 4303 in FIG. It is determined that “erasure correction encoding is not performed”.
  • the compression rate of video encoding is low and / or the number of pixels is large (that is, the data size is large)
  • the number of packets to be transmitted increases, so the control information generation unit 4303 in FIG. It is determined that “correction encoding is performed”.
  • Control information 4409 includes “information indicating that erasure correction coding (error correction coding at the packet level) is not performed”.
  • the data in the “data packet group” (4410) has a smaller amount of data to be transmitted than the video data.
  • the unit 4303 determines that “erasure correction encoding is not performed”.
  • the packet (or frame) processing unit 222 in FIG. 43 performs erasure correction coding on the data based on the information “whether to perform erasure correction coding” included in the control information 4302. And erasure correction coding is performed or processing based on when it is not performed is performed.
  • FIG. 42 shows an example of the configuration of the receiving device of the terminal that receives the transmitted signals as shown in FIGS. 43 and 44, and the implementation method is the same as in the first embodiment, the second embodiment, and the third embodiment. It becomes the same as the explanation of.
  • the signal processing unit 355 receives the received signal 354 as an input, and from the control information (symbol) in FIG. 44, the type of information (video data, character information (telegram information), or still image transmitted from the telecommunication carrier. Information or URL information), received data (second video packet group) 356, control information 357, “character information (telegram information) and / or still image information and / or URL information
  • the log likelihood ratio signal 4202 is output.
  • the packet (or frame) processing unit 4203 receives “character information (telegram information) and / or still image information and / or log information log likelihood ratio signal 4202” and control information 357 as control information. If the information type of information 357 is character information (telegram information), still image information, or URL information, signal processing based on information on the transmission method / error correction encoding method, etc. is performed, and “character information (Message information) and / or still image information and / or URL information received data 4204 ".
  • the decoder 4205 receives “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” as input, and character information (telegram information), Either the still image information or the URL information is decoded, and display screen information 4206 is output.
  • the decoder 4205 operates as follows.
  • character information (message information)
  • the information 4206 on the display screen is “character information to be displayed on the display section (message information)”.
  • the display screen information 4206 is “still image information to be displayed on the display unit”.
  • URL information the information (4210) from the URL destination is obtained and output.
  • the signal processing unit 380 determines whether the second video is obtained from the control information (symbol) in FIG. 44 and outputs a determination result 4201.
  • the display unit 384 receives the video signal 383, the display screen information 4206, and the determination result 4201, and displays the video signal 383 when the determination result 4201 indicates that “the second video is obtained”. .
  • the determination result 4201 is information that “the second video is not obtained”
  • the display screen information 4206 is displayed.
  • the terminal can achieve both the high data reception quality and the improvement of the data transmission speed. (When erasure correction coding is performed, the data transmission speed is reduced).
  • Embodiment 5 >> In the first to fourth embodiments, application examples of erasure correction codes (packet level error correction coding) have been described. In this embodiment, erasure correction codes (packet level error correction coding) are described. ) Will be described.
  • FIG. 45 shows a state of a packet transmitted by the broadcasting station in the present embodiment, and the horizontal axis is time.
  • reference numeral 4501 denotes a pre-transmission packet group
  • a terminal receiving this packet group (4501) temporarily stores this packet group (4501). It is assumed that the terminal cannot obtain video (and audio) even if it receives the pre-transmission packet group 4501 and performs error correction decoding at the packet level. (The characteristics at this time will be described in detail later.) Thus, the reception time zone of the program including the video can be uniquely set.
  • the terminal can display video (and audio) by obtaining the video packet group 4502. (The features at this time will be described in detail later.) Further, the terminal performs packet-level error correction decoding using the pre-transmission packet group 4501 stored as the video packet group 4502, so that High data (packet) reception quality can be obtained, and video can be decoded with little video disturbance.
  • both the terminal holding the pre-transmission packet group 4501 and the terminal not holding the pre-transmission packet group 4501 can decode the video by obtaining the video packet group 4502.
  • FIG. 46 shows an example of the configuration of a broadcasting station that realizes the transmission of a packet by the broadcasting station as shown in FIG. 45, and those that operate in the same way as in FIG. The description is omitted.
  • the packet (or frame) processing unit 202 receives the first video and / or audio information 201 and the first control signal 211 and inputs a packet level error correction code based on the first control signal 211.
  • the first video after packet (or frame) processing and / or audio information 203 is output. Note that in this embodiment, the first video and / or audio information 203 after packet (or frame) processing is composed of the pre-transmission packet group 4501 and the video packet group 4502 in FIG. At this time, the pre-transmission packet group 4501 and the video packet group 4502 in FIG. 45 do not show control information (information necessary for the terminal to perform processing such as demodulation, decoding, and signal processing).
  • control information is also transmitted (the control information is included in the pre-transmission packet group 4501), and when the broadcast station transmits the video packet group 4502, the control information is also transmitted. It is transmitted (control information is included in the video packet group 4502).
  • the packet distribution unit 4600 receives the first video and / or audio information 203 after the packet (or frame) processing and the first control signal 211 as input. If it is indicated that “the transmission method is adopted”, a prior (transmission) packet group 4602 and a video packet group 4603 are output. If the first control signal 211 indicates that “the transmission method as shown in FIG. 45 is not adopted”, the packet group 4601 is output.
  • the prior (transmission) packet accumulation unit 4604, the prior transmission packet group 4602, and the first control signal 211 are input, and the prior transmission packet group is temporarily accumulated (however, if operation is possible without accumulation, Do not accumulate.) Then, based on the first control signal 211, the advance (transmission) packet accumulation unit 4604 outputs the accumulated advance transmission packet group as the advance transmission packet group 4605.
  • the video packet storage unit 4607 receives the video packet group 4603 and the first control signal 211 as input, and temporarily stores the video packet group. Then, based on the first control signal 211, the video packet storage unit 4607 outputs the stored video packet group as a video packet group 4608.
  • the physical layer error correction encoding unit 204 receives the packet group 4601, the prior (transmission) packet group 4605, the video packet group 4608, and the first control signal 211, and in the first control signal 211, "as shown in FIG. If it is indicated that “no transmission method is used”, the physical layer error correction encoding is performed on the packet group 4601 and the data 205 after the error correction encoding is output.
  • the physical layer error correction encoding unit 204 follows the frame shown in FIG. Output data after error correction encoding with physical layer error correction encoding for 4605 and data after error correction encoding with physical layer error correction encoding for video packet group 4608. become.
  • FIG. 47 shows an example of the relationship between the packet group 4602 (4605) (4501) and the video packet group 4603 (4608) (4502) and the first video and / or audio information 201.
  • FIG. 48 is different from FIG. 47 in that “the packet group 4602 (4605) (4501), the video packet group 4603 (4608) (4502) and the relationship between the first video and / or audio information 201”.
  • 4701 indicates “first video and / or audio information”, and the number of bits of “first video and / or audio information” 4701 is X bits (X is Natural number).
  • the number of bits of “first video and / or audio information” 4701 is X bits (X is Natural number).
  • the number of bits of “first video and / or audio information” 4702 is X bits (X is a natural number). It is assumed that the number of bits of the parity 4703 is Y bits (Y is a natural number), and the relationship of Y ⁇ X is established.
  • the video packet group 4502 in FIG. 45 is generated from the “first video and / or audio information” 4702, and the prior (transmission) packet group 4501 in FIG. 45 is generated from the parity 4703 (for example, In each packet, additional information such as control information may be added).
  • the terminal can display video (and audio) by obtaining the video packet group 4502” from the configuration of the video packet group in FIG.
  • the above-mentioned “terminal performs error correction decoding at the packet level using the pre-transmission packet group 4501 stored as the video packet group 4502, thereby achieving higher data (packet) reception quality.
  • the video can be decoded in a state in which the video is less disturbed. ”.
  • 4801 indicates “first video and / or audio information”, and the number of bits of “first video and / or audio information” 4801 is X bits (X is Natural number).
  • first data 4802 is Z bits (Z is a natural number), and Z> X is satisfied.
  • second data 4803 is assumed to be Y bits (Y is a natural number), and the relationship of Y ⁇ X is established.
  • the video packet group 4502 in FIG. 45 is generated from the “first data” 4802, and the prior (transmission) packet group 4501 in FIG. 45 is generated from the “second data” 4803 (for example, in each packet, Additional information such as control information may be added).
  • the configuration of the video packet group in FIG. 48 satisfies the above-described “terminal can display video (and audio) by obtaining video packet group 4502”.
  • the above-mentioned “terminal performs error correction decoding at the packet level using the pre-transmission packet group 4501 stored as the video packet group 4502, thereby achieving higher data (packet) reception quality.
  • the video can be decoded in a state in which the video is less disturbed. ”.
  • FIG. 49 shows an example of the configuration of a terminal that receives a packet group transmitted as shown in FIG. 45. Elements that operate in the same way as in FIG. To do.
  • the storage unit 4901 receives the reception data 314 and the control information signal 310. If the control information signal 310 indicates that “the reception data 314 is the data of the prior (transmission) packet group 4501 in FIG. Data 314 is stored. Then, when instructed, the storage unit 4901 outputs data (stored data 4902) stored in the storage unit.
  • the packet (or frame) processing unit 315 receives the received data 314, the stored data 4902, and the control information signal 310.
  • the packet (or frame) processing unit 315 ignores the reception data 314.
  • control information signal 310 indicates that “the received data 314 is data of the video packet group 4502 of FIG. 45”.
  • the packet (or frame) processing unit 315 uses the received data 314 and the stored data 4902 to perform packet-level error correction decoding. To output data 316 after packet (or frame) processing.
  • the packet (or frame) processing unit 315 performs packet-level error correction decoding using the received data 314, and the packet The data 316 after the (or frame) processing is output.
  • the packet (or frame) processing unit 315 performs packet (or frame) processing based on the control information signal 310, and the packet (or frame) )
  • the processed data 316 is output.
  • the terminal can obtain the effect of being able to obtain a high data reception quality and to construct a highly flexible broadcast system (multicast system).
  • FIG. 50 shows a state of a packet transmitted by a broadcasting station and a transmission device of a telecommunication line company in the present embodiment, and the horizontal axis is time.
  • reference numeral 5001 denotes a pre-transmission packet group
  • this packet group (5001) is transmitted by the transmission device of the telecommunications carrier.
  • the terminal that has received this packet group (5001) temporarily stores this packet group (5001). It is assumed that the terminal cannot obtain video (and audio) even if it receives the pre-transmission packet group 5001 and performs error correction decoding at the packet level. (The characteristics at this time will be described in detail later.) Thus, the reception time zone of the program including the video can be uniquely set.
  • 5002 is a video packet group, and the broadcast station transmits this packet group (5002). Then, it is assumed that the terminal can display video (and audio) by obtaining the video packet group 5002. (The characteristics at this time will be described in detail later.) Further, the terminal performs packet-level error correction decoding using the pre-transmission packet group 5001 stored as the video packet group 5002, and more, High data (packet) reception quality can be obtained, and video can be decoded with little video disturbance.
  • the terminal that holds the pre-transmission packet group 5001 and the terminal that does not hold the pre-transmission packet group 5001 can decode the video by obtaining the video packet group 5002.
  • FIG. 51 shows an example of the configuration of the transmission device of the broadcasting station and the telecommunications carrier that realizes the transmission of the packet by the transmission device of the broadcasting station and the telecommunications carrier as shown in FIG. Components that operate in the same manner are given the same numbers, and descriptions thereof are omitted.
  • the packet (or frame) processing unit 202 receives the first video and / or audio information 201 and the first control signal 211 and inputs a packet level error correction code based on the first control signal 211.
  • the first video after packet (or frame) processing and / or audio information 203 is output.
  • the pre-transmission packet group 5001 and the video packet group 5002 of FIG. 50 are configured for the first video and / or audio information 203 after packet (or frame) processing.
  • the pre-transmission packet group 5001 and the video packet group 5002 in FIG. 50 do not show control information (information necessary for the terminal to perform processing such as demodulation, decoding, and signal processing).
  • the transmission device of the trader transmits the pre-transmission packet group 5001
  • the control information is also transmitted (the control information is included in the pre-transmission packet group 5001)
  • the broadcast station transmits the video packet group 5002.
  • the control information is also transmitted (the control information is included in the video packet group 5002).
  • the packet distribution unit 5100 receives the first video and / or audio information 203 after the packet (or frame) processing and the first control signal 211 as input. If it is indicated that “the transmission method is adopted”, a prior (transmission) packet group 5103 and a video packet group 5102 are output. When the first control signal 211 indicates that “the transmission method as shown in FIG. 50 is not adopted”, the packet group 5101 is output.
  • the broadcasting station is configured to include a packet (or frame) processing unit 202 and a packet distribution unit 5100.
  • a packet (or frame) processing unit 202 and a packet distribution unit 5100 are not limited to this, and a transmission device of a telecommunications carrier is used.
  • the packet (or frame) processing unit 202 and the packet distribution unit 5100 may be included, or another device may include the packet (or frame) processing unit 202 and the packet distribution unit 5100.
  • the video packet storage unit 5104 receives the video packet group 5102 and the first control signal 211 as input, and temporarily stores the video packet group. Based on the first control signal 211, the video packet storage unit 5104 outputs the stored video packet group as a video packet group 5105.
  • the physical layer error correction encoding unit 204 receives the packet group 5101, the video packet group 5105, and the first control signal 211 as input, and does not adopt the transmission method as shown in FIG. 50 in the first control signal 211. Is applied to the packet group 5101, error correction coding of the physical layer is performed, and data 205 after error correction coding is output.
  • the physical layer error correction encoding unit 204 applies the video packet group 5105 to the video packet group 5105.
  • the data after error correction coding that has been subjected to error correction coding of the physical layer is output.
  • the signal processing unit 224 in the transmission device of the telecommunications carrier receives as input the information 223 after packet (or frame) processing, the prior (transmission) packet group 5103, the first control signal 211, and the second control signal 228, When the first control signal 211 indicates that “the transmission method shown in FIG. 50 is adopted”, signal processing is performed on the prior (transmission) packet group 5103 according to the frame shown in FIG. The processed signal 225 is output.
  • the signal processing unit 224 performs signal processing on the information 223 after packet (or frame) processing, and outputs a signal 225 after signal processing. .
  • FIG. 47 shows an example of the relationship between the packet group 5103 (5001) and the video packet group 5102 (5105) (5002) and the first video and / or audio information 201.
  • FIG. 48 shows “an example of the relationship between the packet group 5103 (5001), the video packet group 5102 (5105) (5002) and the first video and / or audio information 201”, which is different from FIG. Show.
  • 4701 indicates “first video and / or audio information”, and the number of bits of “first video and / or audio information” 4701 is X bits (X is Natural number).
  • the number of bits of “first video and / or audio information” 4701 is X bits (X is Natural number).
  • the number of bits of “first video and / or audio information” 4702 is X bits (X is a natural number). It is assumed that the number of bits of the parity 4703 is Y bits (Y is a natural number), and the relationship of Y ⁇ X is established.
  • the video packet group 5002 in FIG. 50 is generated from “first video and / or audio information” 4702, and the prior (transmission) packet group 5001 in FIG. 50 is generated from the parity 4703 (for example, In each packet, additional information such as control information may be added).
  • terminal 47 satisfies the above-mentioned “terminal can display video (and audio) by obtaining video packet group 5002” from the configuration of the video packet group in FIG.
  • the above-mentioned “terminal performs error correction decoding at the packet level using the pre-transmission packet group 5001 stored as the video packet group 5002, so that the reception quality of higher data (packets) can be improved.
  • the video can be decoded in a state in which the video is less disturbed. ”.
  • 4801 indicates “first video and / or audio information”, and the number of bits of “first video and / or audio information” 4801 is X bits (X is Natural number).
  • the error correction encoding at the packet level when the systematic code or the non-systematic code is used, by encoding the “first video and / or audio information” 4801, the “first data 4802 and “second data” 4803 are obtained (for example, additional information such as control information may be added to each packet).
  • first data 4802 is Z bits (Z is a natural number), and Z> X is satisfied.
  • second data 4803 is assumed to be Y bits (Y is a natural number), and the relationship of Y ⁇ X is established.
  • the video packet group 5002 in FIG. 50 is generated from the “first data” 4802, and the prior (transmission) packet group 5001 in FIG. 50 is generated from the “second data” 4803.
  • the configuration of the video packet group in FIG. 48 satisfies the above-described “the terminal can display video (and audio) by obtaining the video packet group 5002”.
  • the above-mentioned “terminal performs error correction decoding at the packet level using the pre-transmission packet group 5001 stored as the video packet group 5002, so that the reception quality of higher data (packets) can be improved.
  • the video can be decoded in a state in which the video is less disturbed. ”.
  • FIG. 52 shows an example of the configuration of a terminal that receives a group of packets transmitted as shown in FIG. 50. Elements that operate in the same way as in FIG. To do.
  • the storage unit 5201 receives the control information signal 310, the reception data 356, and the control information 357, and the control information 357 indicates that “the reception data 356 is the data of the prior (transmission) packet group 5001 in FIG. 50”. If so, the received data 356 is stored. Then, when instructed from the control information signal 310, the storage unit 5201 outputs data (storage data 5202) stored in the storage unit.
  • the packet (or frame) processing unit 358 receives the received data 314 and the control information 357, and when the control information 357 indicates “not the transmission method of FIG. 50”, based on the control information 357, the packet (or frame) ) Process and output data 359 after packet (or frame) processing.
  • the packet (or frame) processing unit 315 receives the received data 314, the stored data 5202, and the control information signal 310.
  • control information signal 310 indicates that “the received data 314 is data of the video packet group 5002 in FIG. 50”.
  • the packet (or frame) processing unit 315 uses the received data 314 and the stored data 5202 to perform packet-level error correction decoding. To output data 316 after packet (or frame) processing.
  • the packet (or frame) processing unit 315 performs packet-level error correction decoding using the received data 314, and the packet The data 316 after the (or frame) processing is output.
  • the packet (or frame) processing unit 315 performs packet (or frame) processing based on the control information signal 310, and the packet (or frame) )
  • the processed data 316 is output.
  • the terminal can obtain the effect of being able to obtain a high data reception quality and to construct a highly flexible broadcast system (multicast system).
  • the broadcasting station may be able to take a transmission method other than this embodiment, and in that case, the broadcasting station may use the transmission method of this embodiment and the transmission method other than this embodiment. It will be implemented by switching.
  • Embodiment 6 a configuration in which a terminal includes a display portion is described.
  • the configuration of the terminal is not limited to this configuration, and the terminal has a display unit and can be connected to another device having a display unit (named display device), and the terminal has a display unit.
  • the terminal has a display unit.
  • the terminal has a display device and can be connected to another device having a display unit (named as a display device) will be described.
  • FIG. 53 shows an example of the configuration around the display unit in the terminals of FIGS. 3, 28, 33, 37, 39, 52, etc. Is attached.
  • the decoder 382 receives data 381 and a control signal 5301 as inputs.
  • the control signal 5301 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units
  • the decoder 382 Outputs, for example, video data after decoding “first video and / or audio information” as 383 in FIG. 53, and outputs audio data after decoding “first video and / or audio information”. Assume that the data is output as 385 in FIG. At this time, the display unit 384 displays the first video.
  • the decoder Reference numeral 382 denotes video data after decoding "second video and / or audio information” 5302 in FIG. 53, and audio data after decoding "second video and / or audio information” 5303 in FIG. As the output. 53.
  • the decoded video data of “second video and / or audio information” is 5302 of FIG. 53, and the decoded audio data of “second video and / or audio information” is FIG. It is assumed that 5303 is delivered to the display device 5306 via the connection unit 5304. (Note that the connection 5305 may be wireless or wired.)
  • the display device 5306 displays the second video (note that the second sound may be played from the speaker).
  • the decoder 382 receives data 381 and a control signal 5301 as inputs.
  • the control signal 5301 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units.
  • the decoder 382 For example, the video data after decoding “second video and / or audio information” is output as 383 in FIG. 53, and the audio data after decoding “second video and / or audio information” is output. Assume that the data is output as 385 in FIG. At this time, the display unit 384 displays the second video.
  • the decoder Reference numeral 382 denotes video data after decoding “first video and / or audio information” 5302 in FIG. 53, and audio data after decoding “first video and / or audio information” 5303 in FIG.
  • FIG. 53 shows the video data after decoding “first video and / or audio information”
  • FIG. 53 shows the audio data after decoding “first video and / or audio information”. It is assumed that 5303 is delivered to the display device 5306 via the connection unit 5304. (Note that the connection 5305 may be either wireless or wired.) The display device 5306 displays the first video (note that the first sound may be played from the speaker).
  • the display unit 384 may display either the first video or the second video, and the display device 5306 also displays either the first video or the second video. It may be displayed.
  • the display method may be controlled by the control signal 5301, for example.
  • control signal 5301 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5301 may include control information for adjusting the display timing of the display unit 384 and the display device 5306.
  • FIG. 54 shows an example of the configuration around the display unit in the terminals of FIGS. 3, 28, 33, 37, 39, 52, etc. The same number is attached.
  • Data separator 5402 receives data 381 and control signal 5401 as inputs.
  • control signal 5401 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units, data separation is performed.
  • the unit (data control unit) 5402 for example, separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “first video and / or audio information” is output as data 5407, and data related to “second video and / or audio information” is output as data 5403.
  • the decoder 382 receives the data 5407, performs decoding, and displays the first video on the display unit 384.
  • connection 5305 may be wireless or wired.
  • the display device 5306 displays the second video (note that the second sound may be played from the speaker).
  • Data separator 5402 receives data 381 and control signal 5401 as inputs.
  • control signal 5401 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units, data separation is performed.
  • the unit (data control unit) 5402 for example, separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “second video and / or audio information” is output as data 5407, and data related to “first video and / or audio information” is output as data 5403.
  • the decoder 382 receives the data 5407, performs decoding, and displays the second video on the display unit 384.
  • data related to “first video and / or audio information” is delivered to the display device 5306 via the connection unit 5404.
  • the connection 5305 may be either wireless or wired.
  • the display device 5306 displays the first video (note that the first sound may be played from the speaker).
  • the display unit 384 may display either the first video or the second video, and the display device 5306 also displays either the first video or the second video. It may be displayed.
  • the display method may be controlled by the control signal 5401, for example.
  • control signal 5401 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5401 may include control information for adjusting the display timing of the display unit 384 and the display device 5306.
  • the display device 5308 has a video decoder.
  • FIG. 55 shows an example of the configuration around the display unit in the terminal of FIG. 42 and the like, and components that operate in the same manner as in FIGS. 3 and 42 are given the same numbers.
  • the display unit 384 displays “displays first video”, “displays second video”, “both first video and second video”. , “Display ⁇ first video ⁇ and ⁇ display information based on text information (telegram information) and / or still image information and / or URL information ⁇ ”, “ ⁇ second Video ⁇ and ⁇ display text information (telegram information) and / or display screen based on still image information and / or URL information ⁇ "," ⁇ character information (telegram information) and / or still image Display the information and / or the display screen based on the URL information ⁇ .
  • the display device 5510 “displays the first video”, “displays the second video”, “displays both the first video and the second video”, “ ⁇ first video ⁇ And ⁇ display character information (message information) and / or display screen based on still image information and / or URL information ⁇ , “ ⁇ second video ⁇ and ⁇ character information (message information), And / or “display screen based on still image information and / or URL information ⁇ ”, “ ⁇ display based on character information (message information) and / or still image information and / or URL information” "Display screen ⁇ " is performed.
  • the decoder 382 receives data 381 and a control signal 5504 as inputs.
  • the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are to be displayed on separate display units, the decoder 382.
  • the decoder Reference numeral 382 denotes video data after decoding “second video and / or audio information” 5501 in FIG. 55, and audio data after decoding “second video and / or audio information” 5502 in FIG. As the output.
  • FIG. 55 shows the video data after decoding “second video and / or audio information” in FIG. 55 and the audio data after decoding “second video and / or audio information” in FIG. 5302 is delivered to the display device 5510 via the selection unit 5505 and the connection unit 5508. (Note that the connection 5509 may be wireless or wired.)
  • the display device 5510 displays the second video (note that the second sound may be played from the speaker).
  • the decoder 382 receives data 381 and a control signal 5504 as inputs.
  • the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are to be displayed on separate display units.
  • the decoder 382. For example, the video data after decoding “second video and / or audio information” is output as 383 in FIG. 55, and the audio data after decoding “second video and / or audio information” is output. It is assumed that the data is output as 385 in FIG. At this time, the display unit 384 displays the second video.
  • the decoder Reference numeral 382 denotes video data after decoding "first video and / or audio information” 5501 in FIG. 55, and audio data after decoding "first video and / or audio information” 5502 in FIG. As the output.
  • the display device 55 shows the video data after decoding “first video and / or audio information” in FIG. 55 and the audio data after decoding “first video and / or audio information” in FIG. 5302 is delivered to the display device 5510 via the selection unit 5505 and the connection unit 5508. (Note that the connection 5509 may be wireless or wired.)
  • the display device 5510 displays the first video (note that the first sound may be played from the speaker).
  • the decoder 4205 receives “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204”, information 4210 from the URL, and control signal 5504. As input.
  • the control signal 5504 is either “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL. Is displayed on the display unit 384, the display screen information 4206 is output.
  • the control signal 5504 is either “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL. Is displayed on the display device 5510, the display screen information 5503 is output.
  • the selection unit 5505 receives the signals 5501, 5502, and 5505, and the control signal 5504, and outputs the display information displayed on the display device 5510 and the information of the sound that flows from the speaker as 5506 and 5507 based on the control signal 5504.
  • the signals 5506 and 5507 are transmitted to the display device 5510 via the connection unit 5508.
  • the display unit 384 may display a plurality of screens, and the terminal transmits a part of the display information to the display device 5306, and the display device 5306 displays the video (or screen). ) May be displayed.
  • the display method may be controlled by the control signal 5504, for example.
  • control signal 5504 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5504 may include control information for adjusting the display timing of the display unit 384 and the display device 5510.
  • FIG. 56 shows an example of the configuration around the display unit in the terminal shown in FIG. 42 and the like, and components that operate in the same manner as FIGS. 3 and 42 are given the same numbers.
  • the display unit 384 displays “displays the first video”, “displays the second video”, “both the first video and the second video. , “Display ⁇ first video ⁇ and ⁇ display information based on text information (telegram information) and / or still image information and / or URL information ⁇ ”, “ ⁇ second Video ⁇ and ⁇ display text information (telegram information) and / or display screen based on still image information and / or URL information ⁇ "," ⁇ character information (telegram information) and / or still image Display the information and / or the display screen based on the URL information ⁇ .
  • the display device 5510 “displays the first video”, “displays the second video”, “displays both the first video and the second video”, “ ⁇ first video ⁇ And ⁇ display character information (message information) and / or display screen based on still image information and / or URL information ⁇ , “ ⁇ second video ⁇ and ⁇ character information (message information), And / or “display screen based on still image information and / or URL information ⁇ ”, “ ⁇ display based on character information (message information) and / or still image information and / or URL information” "Display screen ⁇ " is performed.
  • Data separation unit (data control unit) 5602 receives data 381 and control signal 5601 as input. If the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on different display units, data separation is performed. For example, the unit (data control unit) 5602 separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “first video and / or audio information” is output as data 5603, and data related to “second video and / or audio information” is output as data 5604.
  • the decoder 382 receives the data 5407 and performs decoding.
  • the first video is a candidate displayed on the display unit 384 (the determination result 4201 displays the candidate video from the candidate video on the display unit 384. Selected video).
  • data related to “second video and / or audio information” is delivered to the display device 5613 via the selection unit 5608 and the connection unit 5611.
  • the connection 5612 may be wireless or wired.
  • the display device 5613 displays the second video (note that the second sound may be played from the speaker).
  • Data separation unit (data control unit) 5602 receives data 381 and control signal 5601 as input. If the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on different display units, data separation is performed. For example, the unit (data control unit) 5602 separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “second video and / or audio information” is output as data 5603, and data related to “first video and / or audio information” is output as data 5604.
  • the decoder 382 receives the data 5407 and performs decoding.
  • the second video is a candidate displayed on the display unit 384 (the determination result 4201 displays the candidate video from the candidate video on the display unit 384. Selected video).
  • data related to “first video and / or audio information” is delivered to the display device 5613 via the selection unit 5608 and the connection unit 5611.
  • the connection 5612 may be wireless or wired.
  • the display device 5613 displays the first video (note that the first sound may be played from the speaker).
  • the data separation unit (data control unit) 5605 displays “character information (message information) and / or still image information and / or URL information reception data 4204 after packet (or frame) processing” from the URL.
  • Information 4210 and control signal 5601 are input.
  • the control signal 5601 is either “text information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL.
  • the data separation unit (data control unit) 5605 “character information (message information) after packet (or frame) processing, and / or still image information, and / or Alternatively, the URL information received data 4204 ”or the information 4210 from the URL is output as a signal 5606.
  • the control signal 5601 is either “text information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL.
  • the data separation unit (data control unit) 5605 “character information (telegram information) after packet (or frame) processing and / or still image information and / or Alternatively, the URL information received data 4204 ”or the information 4210 from the URL is output as a signal 5607.
  • the selection unit 5608 receives the signals 5604, 5607, and the control signal 5601 as inputs, and outputs display information displayed on the display device 5613 and information about the sound from the speaker as 5609 and 5610 based on the control signal 5601.
  • the signals 5609 and 5610 are transmitted to the display device 5613 through the connection unit 5611.
  • the display unit 384 may display a plurality of screens, and the terminal transmits a part of the display information to the display device 5613, and the display device 5613 displays the video (or screen). ) May be displayed.
  • the display method may be controlled by a control signal 5601, for example.
  • control signal 5601 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5601 may include control information for adjusting the display timing of the display unit 384 and the display device 5613.
  • the terminal has a display unit and the terminal can be connected to another display device
  • the embodiment has been described.
  • the terminal may be different from the above-described embodiment.
  • Two images may be displayed using both the display unit and another display device.
  • an image transmitted by a broadcaster is displayed on the display unit of the terminal, and an image linked with the image, character information, or a still image (which may be provided with characters) is displayed on another display device. It may be displayed.
  • the video transmitted by the broadcaster is displayed on another display device, and the video linked with the video, character information, or still image (may be with text) is displayed on the display unit of the terminal. May be.
  • the transmission method described in Embodiment 5 may be applied.
  • FIG. 57 shows an example of the configuration around the display unit in the terminals of FIG. 3, FIG. 28, FIG. 33, FIG. 37, FIG. 39, FIG. The same number is attached.
  • the decoder 382 receives data 381 and a control signal 5301 as inputs.
  • the control signal 5301 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units
  • the decoder 382 Outputs, for example, video data after decoding “first video and / or audio information” as 383 in FIG. 53, and outputs audio data after decoding “first video and / or audio information”. 53, and is transmitted to the display device 5703 via the connection unit 5701.
  • the display device 5703 displays the first video and outputs audio (note that the connection 5702 is wireless, wired) Or any).
  • the decoder Reference numeral 382 denotes video data after decoding "second video and / or audio information” 5302 in FIG. 53, and audio data after decoding "second video and / or audio information” 5303 in FIG. As the output. 53.
  • the decoded video data of “second video and / or audio information” is 5302 of FIG. 53
  • the decoded audio data of “second video and / or audio information” is FIG. 5303 is delivered to the display device 5306 via the connection unit 5304 (the connection 5305 may be either wireless or wired).
  • the display device 5306 displays the second video (note that the second sound may be played from the speaker).
  • the decoder 382 receives data 381 and a control signal 5301 as inputs.
  • the control signal 5301 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units
  • the decoder 382 For example, the video data after decoding “second video and / or audio information” is output as 383 in FIG. 53, and the audio data after decoding “second video and / or audio information” is output. 53, and transmitted to the display device 5703 via the connection unit 5701.
  • the display device 5703 displays the second video and outputs audio (note that the connection 5702 is wireless, wired) Or any).
  • the decoder Reference numeral 382 denotes video data after decoding “first video and / or audio information” 5302 in FIG. 53, and audio data after decoding “first video and / or audio information” 5303 in FIG.
  • FIG. 53 shows the video data after decoding “first video and / or audio information”
  • FIG. 53 shows the audio data after decoding “first video and / or audio information”.
  • 5303 is delivered to the display device 5306 via the connection unit 5304 (the connection 5305 may be either wireless or wired).
  • the display device 5306 displays the first video (note that the first sound may be played from the speaker).
  • the display device 5306 may display either the first image or the second image, and the display device 5306 also displays either the first image or the second image. It may be displayed.
  • the display method may be controlled by the control signal 5301, for example.
  • control signal 5301 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5301 may include control information for adjusting the display timing of the display device 5306 and the display device 5306.
  • FIGS. 3, 28, 33, 37, 39, 52, etc. shows an example of the configuration around the display unit in the terminals of FIGS. 3, 28, 33, 37, 39, 52, etc., and operates in the same manner as FIGS. 3, 53, and 54.
  • the same numbers are assigned to the objects.
  • Data separator 5402 receives data 381 and control signal 5401 as inputs.
  • control signal 5401 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units, data separation is performed.
  • the unit (data control unit) 5402 for example, separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “first video and / or audio information” is output as data 5407, and data related to “second video and / or audio information” is output as data 5403.
  • the decoder 382 receives the data 5407 and outputs decoded data (video and audio) 383 and 395.
  • Decoded data (video, audio) 383 and 395 and data 5407 are transmitted to the display device 5803 via the connection unit 5801 (note that the connection 5802 may be either wireless or wired).
  • the display device 5803 displays the first video (note that the first sound may be played from the speaker).
  • connection 5305 may be wireless or wired.
  • the display device 5306 displays the second video (note that the second sound may be played from the speaker).
  • Data separator 5402 receives data 381 and control signal 5401 as inputs.
  • control signal 5401 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on separate display units, data separation is performed.
  • the unit (data control unit) 5402 for example, separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “second video and / or audio information” is output as data 5407, and data related to “first video and / or audio information” is output as data 5403.
  • the decoder 382 receives the data 5407 and outputs decoded data (video and audio) 383 and 395.
  • Decoded data (video, audio) 383 and 395 and data 5407 are transmitted to the display device 5803 via the connection unit 5801 (note that the connection 5802 may be either wireless or wired).
  • the display device 5803 displays the second video (note that the second sound may be played from the speaker).
  • data related to “first video and / or audio information” is delivered to the display device 5306 via the connection unit 5404.
  • the connection 5305 may be either wireless or wired.
  • the display device 5306 displays the first video (note that the first sound may be played from the speaker).
  • the display device 5803 may display either the first image or the second image, and the display device 5306 also displays either the first image or the second image. It may be displayed.
  • the display method may be controlled by the control signal 5401, for example.
  • control signal 5401 displays the first video and the second video as described above, and the display device displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 5803 and the like may be included. Further, the control signal 5401 may include control information for adjusting display timings of the display device 5803 and the display device 5306.
  • the display device 5308 has a video decoder.
  • FIG. 59 shows an example of the configuration around the display unit in the terminal of FIG. 42 and the like, and components that operate in the same manner as in FIG. 3, FIG. 42, and FIG.
  • display device 5903 displays “display first video”, “display second video”, “both first video and second video”. , “Display ⁇ first video ⁇ and ⁇ display information based on text information (telegram information) and / or still image information and / or URL information ⁇ ”, “ ⁇ second Video ⁇ and ⁇ display text information (telegram information) and / or display screen based on still image information and / or URL information ⁇ "," ⁇ character information (telegram information) and / or still image Display the information and / or the display screen based on the URL information ⁇ .
  • the display device 5510 “displays the first video”, “displays the second video”, “displays both the first video and the second video”, “ ⁇ first video ⁇ And ⁇ display character information (message information) and / or display screen based on still image information and / or URL information ⁇ , “ ⁇ second video ⁇ and ⁇ character information (message information), And / or “display screen based on still image information and / or URL information ⁇ ”, “ ⁇ display based on character information (message information) and / or still image information and / or URL information” "Display screen ⁇ " is performed.
  • the decoder 382 receives data 381 and a control signal 5504 as inputs.
  • the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are to be displayed on separate display units, the decoder 382.
  • Outputs for example, video data after decoding “first video and / or audio information” as 383 in FIG. 59, and outputs audio data after decoding “first video and / or audio information”. Assume that the data is output as 385 in FIG.
  • the signals 383, 385, and 4206 are transmitted to the display device 5903 via the connection unit 5901 (the connection 5902 may be either wireless or wired).
  • the decoder Reference numeral 382 denotes video data after decoding "second video and / or audio information” 5501 in FIG. 59, and audio data after decoding "second video and / or audio information" 5502 in FIG. As the output.
  • the decoded video data of “second video and / or audio information” is 5501 in FIG. 59
  • the decoded audio data of “second video and / or audio information” is shown in FIG. 5302 is delivered to the display device 5510 via the selection unit 5505 and the connection unit 5508.
  • the connection 5509 may be wireless or wired.
  • the display device 5510 displays the second video (note that the second sound may be played from the speaker).
  • the decoder 382 receives data 381 and a control signal 5504 as inputs.
  • the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are to be displayed on separate display units.
  • the decoder 382. For example, the video data after decoding “second video and / or audio information” is output as 383 in FIG. 59, and the audio data after decoding “second video and / or audio information” is output. Assume that the data is output as 385 in FIG.
  • the signals 383, 385, and 4206 are transmitted to the display device 5903 via the connection unit 5901 (the connection 5902 may be either wireless or wired).
  • the decoder Reference numeral 382 denotes video data after decoding “first video and / or audio information” 5501 in FIG. 59, and audio data after decoding “first video and / or audio information” 5502 in FIG. As the output.
  • the decoded video data of “first video and / or audio information” is 5501 in FIG. 59
  • the decoded audio data of “first video and / or audio information” is shown in FIG. 5302 is delivered to the display device 5510 via the selection unit 5505 and the connection unit 5508.
  • the connection 5509 may be wireless or wired.
  • the display device 5510 displays the first video (note that the first sound may be played from the speaker).
  • the decoder 4205 receives “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204”, information 4210 from the URL, and control signal 5504. As input.
  • the control signal 5504 is either “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL. Is displayed, the display screen information 4206 is output.
  • the control signal 5504 is either “character information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL. Is displayed on the display device 5510, the display screen information 5503 is output.
  • the selection unit 5505 receives the signals 5501, 5502, and 5505, and the control signal 5504, and outputs the display information displayed on the display device 5510 and the information of the sound that flows from the speaker as 5506 and 5507 based on the control signal 5504.
  • the signals 5506 and 5507 are transmitted to the display device 5510 via the connection unit 5508.
  • the display device 5510 may display a plurality of screens, and the terminal transmits a part of the display information to the display device 5306, and the display device 5306 displays the video (or screen). ) May be displayed.
  • the display method may be controlled by the control signal 5504, for example.
  • control signal 5504 displays the first video and the second video as described above, and the display unit displays the first video and the second video as described in other embodiments. Control information that can be switched between the case of display on 384 and the like may be included. Further, the control signal 5504 may include control information for adjusting the display timing of the display unit 384 and the display device 5510.
  • FIG. 60 shows an example of the configuration around the display unit in the terminal shown in FIG. 42 and the like, and components that operate in the same manner as in FIGS. 3, 42, and 56 are given the same numbers.
  • the display device 6003 “displays the first video”, “displays the second video”, “both the first video and the second video” , “Display ⁇ first video ⁇ and ⁇ display information based on text information (telegram information) and / or still image information and / or URL information ⁇ ", “ ⁇ second Video ⁇ and ⁇ display text information (telegram information) and / or display screen based on still image information and / or URL information ⁇ "," ⁇ character information (telegram information) and / or still image Display the information and / or the display screen based on the URL information ⁇ .
  • the display device 5510 “displays the first video”, “displays the second video”, “displays both the first video and the second video”, “ ⁇ first video ⁇ And ⁇ display character information (message information) and / or display screen based on still image information and / or URL information ⁇ , “ ⁇ second video ⁇ and ⁇ character information (message information), And / or “display screen based on still image information and / or URL information ⁇ ”, “ ⁇ display based on character information (message information) and / or still image information and / or URL information” "Display screen ⁇ " is performed.
  • Data separation unit (data control unit) 5602 receives data 381 and control signal 5601 as input. If the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on different display units, data separation is performed. For example, the unit (data control unit) 5602 separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “first video and / or audio information” is output as data 5603, and data related to “second video and / or audio information” is output as data 5604.
  • the decoder 382 receives the data 5407, performs decoding, and outputs first video data 383 and audio data 385.
  • data related to “second video and / or audio information” is delivered to the display device 5613 via the selection unit 5608 and the connection unit 5611.
  • the connection 5612 may be wireless or wired.
  • the display device 5613 displays the second video (note that the second sound may be played from the speaker).
  • Data separation unit (data control unit) 5602 receives data 381 and control signal 5601 as input. If the control signal 5504 indicates that “first video and / or audio information” and “second video and / or audio information” are displayed on different display units, data separation is performed. For example, the unit (data control unit) 5602 separates the data 381 into data related to “first video and / or audio information” and data related to “second video and / or audio information”. Then, “second video and / or audio information” is output as data 5603, and data related to “first video and / or audio information” is output as data 5604.
  • the decoder 382 receives the data 5407, performs decoding, and outputs second video data 383 and audio data 385.
  • data related to “first video and / or audio information” is delivered to the display device 5613 via the selection unit 5608 and the connection unit 5611.
  • the connection 5612 may be wireless or wired.
  • the display device 5613 displays the first video (note that the first sound may be played from the speaker).
  • the data separation unit (data control unit) 5605 displays “character information (message information) and / or still image information and / or URL information reception data 4204 after packet (or frame) processing” from the URL.
  • Information 4210 and control signal 5601 are input.
  • the control signal 5601 is either “text information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL.
  • the data separation unit (data control unit) 5605 “character information (message information) after packet (or frame) processing, and / or still image information, and / or Alternatively, the URL information received data 4204 ”or the information 4210 from the URL is output as a signal 5606.
  • the control signal 5601 is either “text information (telegram information) after packet (or frame) processing and / or still image information and / or URL information reception data 4204” or information 4210 from the URL.
  • the data separation unit (data control unit) 5605 “character information (telegram information) after packet (or frame) processing and / or still image information and / or Alternatively, the URL information received data 4204 ”or the information 4210 from the URL is output as a signal 5607.
  • the selection unit 5608 receives the signals 5604, 5607, and the control signal 5601 as inputs, and outputs display information displayed on the display device 5613 and information about the sound from the speaker as 5609 and 5610 based on the control signal 5601.
  • the signals 5609 and 5610 are transmitted to the display device 5613 through the connection unit 5611.
  • connection unit 5901 is connected to the display device 5903 (5902), and the display device 5903 displays video and outputs sound from a speaker (the connection 5902 may be either wireless or wired). .
  • the display device 5903 may display a plurality of screens, and the terminal transmits a part of the display information to the display device 5613, and the display device 5613 displays the video (or screen). ) May be displayed.
  • the display method may be controlled by a control signal 5601, for example.
  • control signal 5601 the first video and the second video are displayed as described above, and the first video and the second video are displayed as described in other embodiments.
  • Control information that can be switched between when it is displayed on 5903 may be included.
  • the control signal 5601 may include control information for adjusting display timings of the display device 5903 and the display device 5613.
  • Two images may be displayed using both the display device and the second display device.
  • an image transmitted by a broadcaster is displayed on the first display device, and an image linked with the image, character information, or a still image (which may be provided with characters) is displayed on the second display. It may be displayed on the device.
  • the video transmitted by the broadcaster is displayed on the second display device, and the video linked with the video, character information, or still image (may be provided with text) is displayed on the first display device. May be displayed.
  • the transmission method described in Embodiment 5 may be applied.
  • the terminal can obtain the effect of being able to obtain a high data reception quality and to construct a highly flexible broadcast system (multicast system).
  • the broadcasting station may be able to take a transmission method other than this embodiment, and in that case, the broadcasting station may use the transmission method of this embodiment and the transmission method other than this embodiment. It will be implemented by switching.
  • FIGS. 3, 28, 33, 37, 39, 42, 49, and 52 show a display unit.
  • the terminal may not include the display unit.
  • “terminal having a terminal for outputting video and / or audio data” “storage unit for recording video and / or audio data (hard disk, semiconductor memory)
  • the video and / or audio data may be the data itself obtained by the receiving operation, or the terminal may receive the receiving operation. It may be data obtained by format conversion of the obtained data).
  • the display unit is described.
  • the terminal includes an output unit that outputs “video and / or audio data”. By connecting the display unit of the output unit, the user can display the video and Or, audio can be viewed.
  • each embodiment and other contents are merely examples.
  • the same configuration can be used. Is possible.
  • each packet and each frame in addition to data (information), a symbol for transmitting control information (information on a transmission method, etc.), a preamble for performing demodulation, a pilot symbol, a reference symbol, a unique word , Postamble, and the like may be included (however, these symbols may be named in any way, and the function itself is important).
  • a broadcasting station transmits data wirelessly.
  • the transmission method at that time may be any transmission method, such as a single carrier transmission method, OFDM (Orthogonal Frequency Division Multiplexing). ) Multi-carrier transmission method, transmission method using spread spectrum communication method, precoding and space-time (or time-frequency) coding (eg space-time block coding (space-time block coding))
  • a transmission method such as a transmission method for transmitting a plurality of modulated signals using the same time and the same frequency is used.
  • the broadcasting station may use a method of transmitting data using a cable such as a cable.
  • the receiving apparatus has an interface for inputting a signal received by an antenna or a signal obtained by performing frequency conversion on a signal received by an antenna through a cable, and the receiving apparatus performs subsequent processing. .
  • data / information obtained by the receiving device is then converted into video or sound and displayed on a display (monitor) or sound is output from a speaker. Further, the data / information obtained by the receiving device is subjected to signal processing related to video and sound (signal processing may not be performed), and the RCA terminal (video terminal, sound terminal), USB ( It may be output from Universal (Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), HDMI (registered trademark) 2.0 digital terminal, or the like.
  • the receiving device is equipped with a communication device such as a television, a radio, a terminal, a personal computer, a mobile phone, an access point, and a base station.
  • a communication device such as a television, a radio, a terminal, a personal computer, a mobile phone, an access point, and a base station.
  • the transmission device and the reception device in the present disclosure are devices having a communication function, and the devices provide some interface to a device for executing an application such as a television, a radio, a personal computer, or a mobile phone. It is also conceivable that the connection is possible.
  • Both the transmitting antenna of the transmitting device and the receiving antenna of the receiving device may be configured by a plurality of antennas.
  • a program for executing the communication method may be stored in a ROM (Read Only Memory) in advance, and the program may be operated by a CPU (Central Processor Unit).
  • ROM Read Only Memory
  • CPU Central Processor Unit
  • a program for executing the above communication method is stored in a computer-readable storage medium, the program stored in the storage medium is recorded in a RAM (Random Access Memory) of the computer, and the computer is operated according to the program. You may do it.
  • Each configuration such as the above embodiments may be typically realized as an LSI (Large Scale Integration) that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include all or part of the configurations of the respective embodiments.
  • LSI Large Scale Integration
  • LSI Integrated Circuit
  • IC Integrated Circuit
  • system LSI system LSI
  • super LSI super LSI
  • ultra LSI ultra LSI
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • telecommunications carrier # 1 and telecommunications carrier # 2 may transmit content via a plurality of routes (transmission media), or broadcast station # 1 and broadcast station # 2 via a plurality of routes (transmission media). Content may be transmitted. Note that. Although the number of transmission stations is two, more broadcast stations may transmit content via a plurality of routes (transmission media).
  • a telecommunications carrier transmits content through a plurality of different routes including the first route and the second route
  • the transmission device possessed by the telecommunications carrier. Is the first time from when the transmitting device transmits data until it arrives at the terminal via the first route, and after the transmitting device transmits data, it arrives at the terminal via the second route
  • the transmission timing of either one or both of the packet group transmitted on the first route and the packet group transmitted on the second route may be controlled. (That is, a plurality of communication paths are used and time division is performed (however, at least some of the packets may be transmitted simultaneously), and the packet group is delivered to the terminal. Is shown here As such, if error correction coding at the packet level is being performed, it will contain information that indicates whether the error correction coding is performed at the packet level).
  • the transmission timing may be controlled by considering the paths different from each other.
  • the time difference between the transmission device transmitting data and the arrival at the terminal is small even if it actually passes through different relay devices, they are treated as the same route. Also good. For example, although content is actually transmitted via three or more routes, the time from when the transmitting device transmits data until it arrives at the terminal is within the first range. If the first group included and the time from when the transmitting device transmits data until it arrives at the terminal can be classified into the second group included in the second range different from the first range, The transmission timing may be controlled by regarding the one group and the second group as the first route and the second route, respectively.
  • the transmission device that transmits the packet group to the first route and the transmission device that transmits the packet group to the second route may be the same or different.
  • Embodiment 1 By performing the transmission timing control described in (3) to (3), it is possible to obtain the effect of suppressing the occurrence of disturbance of the content that is reproduced in synchronization.
  • audio and video that are played back in synchronization may be transmitted through different paths, or encoded data generated by encoding video is separated into a first stream and a second stream, and is separated.
  • the first stream and the second stream may be transmitted through different paths.
  • the first stream includes encoded data of the first layer that can be reproduced as low-quality video alone, and the second stream can be reproduced as high-quality video in combination with the encoded data of the first layer.
  • 2nd layer encoded data may be included, and both the first stream and the second stream may include encoded data that needs to be reproduced in combination with the encoded data included in the other stream.
  • the second stream may include the same encoded data for at least part of the encoded data included in the first stream.
  • the transmission timing control method described in Supplement 2 may be implemented by combining any one or more of the fourth to sixth embodiments.
  • a packet group may be transmitted by a plurality of telecommunication carriers through a plurality of routes. At this time, there is terminal feedback to each telecommunication carrier, and the telecommunication carrier accepts a request for retransmission of the packet. Also good.
  • This disclosure is useful when transmitting high-quality video information in, for example, a broadcasting / communication cooperation service.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

 同期して表示される放送コンテンツと回線コンテンツを送信する方法であって、前記回線コンテンツを格納した複数の回線データパケットから回線パリティパケットを生成し、前記回線データパケット及び前記回線パリティパケットを通信回線を介して送信し、前記放送コンテンツを格納した複数の放送データパケットを基地局から放送波を用いて送信し、前記放送コンテンツの送出時刻は、回線コンテンツの送出時刻より所定の時間遅延されている。それによって、リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを同時に表示する際、映像の品質を向上することができる。

Description

パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末
 本開示は、パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末に関する。例えば、放送通信連携サービスにおいて、品質のよい映像の情報を伝送するためのパケット送信方法、パケット送信システム及び端末に関する。
 新しいアプローチとして、放送通信連携サービスを実現するための開発が行われている。放送通信連携サービスは、「端末は放送局から送信される放送番組のコンテンツと、サービス事業者が、例えば、インターネットなどの電気通信回線を介して配信されるコンテンツ(ここでは、「回線コンテンツ」と名付けるが、呼び方はこれに限ったものではない。)を受信する」という、放送番組のコンテンツと回線コンテンツを連携させるサービスである。
 このようなサービスを実現するにあたり、特許文献1では、端末に、リアルタイムの放送番組のコンテンツと回線コンテンツを配信するための方法について開示されている。
国際公開第2013/031556号 特開2012-120140号公報 特開2012-129579号公報
 本開示に係る方法は、同期して表示される放送コンテンツと回線コンテンツを送信する方法であって、前記回線コンテンツを格納した複数の回線データパケットから回線パリティパケットを生成し、前記回線データパケット及び前記回線パリティパケットを通信回線を介して送信し、前記放送コンテンツを格納した複数の放送データパケットを基地局から放送波を用いて送信し、前記放送コンテンツの送出時刻は、回線コンテンツの送出時刻より所定の時間遅延されている、方法である。
 また、本開示に係る他の方法は、同期して表示される放送コンテンツと回線コンテンツを受信して再生する方法であって、通信回線を介して前記回線コンテンツを格納した回線データパケットと、前記回線データパケットから生成された回線パリティパケットを受信し、放送波を介して前記放送コンテンツを格納した放送データパケットを受信し、前記放送コンテンツの送出時刻は前記回線コンテンツの送出時刻より所定の時間遅延されており、前記回線データパケットの一部が受信されていない場合に、受信した前記回線データパケット及び前記回線パリティパケットを用いてパケットレベルの復号を行い、受信されていない前記回線データパケットを生成し、前記放送コンテンツ及び回線コンテンツをデコードし、同期して表示する方法である。
図1は、放送局、電気通信回線業者、端末の関係例を示す図である。 図2は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図3は、端末の構成例を示す図である。 図4は、電気通信回線業者の送信装置の誤り訂正符号化方法に関連する部分の構成例を示す図である。 図5は、電気通信回線業者の送信装置の誤り訂正符号化方法に関連する部分の構成例を示す図である。 図6は、パケットの構成方法の例を示す図である。 図7は、パケットの構成方法の例を示す図である。 図8は、制御情報付加部が誤り検出符号付加部の前段にある場合の構成例と後段にある場合の構成例を示す図である。 図9は、パケットの送信状況及びパケットの受信状況の例を示す図である。 図10は、パケットの送信状況の例を示す図である。 図11は、パケットの受信状況の例を示す図である。 図12は、パケットの受信状況の例を示す図である。 図13は、パケットの受信状況の例を示す図である。 図14は、端末のパケット(またはフレーム)処理部の処理フローの例を示す図である。 図15は、端末のパケット(またはフレーム)処理部の処理フローの例を示す図である。 図16は、パケットの送信状況及びパケットの受信状況の例を示す図である。 図17は、パケットの送信状況の例を示す図である。 図18は、パケットの受信状況の例を示す図である。 図19は、パケットの受信状況の例を示す図である。 図20は、パケットの受信状況の例を示す図である。 図21は、放送局と電気通信回線業者が保有する送信装置におけるパケット(またはフレーム)処理部の構成例を示す図である。 図22は、端末におけるパケット(またはフレーム)処理部におけるパケットレイヤーの誤り訂正復号を行う場合の構成例を示す図である。 図23は、パケットレイヤーの誤り訂正符号化を行っていない場合の端末におけるパケット(またはフレーム)処理部の構成例を示す図である。 図24は、放送局、電気通信回線業者、端末の関係例を示す図である。 図25は、放送局、電気通信回線業者、端末の関係例を示す図である。 図26は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図27は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図28は、端末の構成例を示す図である。 図29は、パケットの送信状況の例を示す図である。 図30は、パケットの受信状況の例を示す図である。 図31は、パケットの送信状況の例を示す図である。 図32は、パケットの受信状況の例を示す図である。 図33は、端末の構成例を示す図である。 図34は、放送局、電気通信回線業者、端末の関係例を示す図である。 図35は、パケットの送信状況の例を示す図である。 図36は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図37は、端末の構成例を示す図である。 図38は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図39は、端末の構成例を示す図である。 図40は、パケットの送信状況の例を示す図である。 図41は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図42は、端末の構成例を示す図である。 図43は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図44は、パケットの送信状況の例を示す図である。 図45は、パケットの送信状況の例を示す図である。 図46は、放送局の構成例を示す図である。 図47は、映像パケット群と映像および/または音声の関係の例を示す図である。 図48は、映像パケット群と映像および/または音声の関係の例を示す図である。 図49は、端末の構成例を示す図である。 図50は、パケットの送信状況の例を示す図である。 図51は、放送局と電気通信回線業者が保有する送信装置の構成例を示す図である。 図52は、端末の構成例を示す図である。 図53は、表示部周辺の構成例を示す図である。 図54は、表示部周辺の構成例を示す図である。 図55は、表示部周辺の構成例を示す図である。 図56は、表示部周辺の構成例を示す図である。 図57は、表示部周辺の構成例を示す図である。 図58は、表示部周辺の構成例を示す図である。 図59は、表示部周辺の構成例を示す図である。 図60は、表示部周辺の構成例を示す図である。
 (本開示の基礎となった知見)
 端末で、リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを高品質に受信したいと要求がある。このとき、特に、回線コンテンツの場合、パケットの遅延、パケット欠損(パケットロス)が課題となる可能性が高い。以下ではこの点について説明する。
 リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを端末が受信し、端末が具備する表示部(ディスプレイ部)、または、端末が接続する表示装置(ディスプレイ)に表示する場合を考える。このとき、リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを別々に表示するものとする。このとき、回線コンテンツを表示する場合、回線コンテンツのパケット遅延、パケット欠損を考慮し、映像の表示を制御することができる。
 しかし、端末がリアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを表示部(または、表示装置)に同時に表示する場合、放送番組のコンテンツの映像と回線コンテンツの映像が時間的に同期しないことが大きな課題となる。
 放送局は、リアルタイムの放送番組のコンテンツを端末に伝送する場合を考える。放送番組のコンテンツを、無線(地上デジタル放送、衛星デジタル放送など)、または、有線(ケーブル放送など)を介して送信する。このとき、伝搬路の状況により、番組のコンテンツの品質を劣化させることがあるが、これを克服するために、伝搬路の劣悪な状況に対応するための誤り訂正符号を導入することで、番組のコンテンツの品質を高品質に保つようにしている。なお、放送番組のコンテンツの情報の一部が遅延して届くような状況は考えづらい。
 一方、電気通信回線を介して、端末に伝送される回線コンテンツの場合、例えば、UDP(User Datagram Protocol)などのプロトコルを利用した場合、パケットの遅延、パケット欠損(パケットロス)により、回線コンテンツの品質の劣化を招くことになる。特に、リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを表示部(または、表示装置)に同時に表示する場合、放送番組のコンテンツの映像と回線コンテンツの映像が時間的に同期させるといくつかの課題が発生する。
 例えば、回線コンテンツのパケットの到達遅延を考慮して、端末は、リアルタイムの放送番組のコンテンツの映像表示を遅延させるものとする。すると、端末に、到達遅延分のデータの記憶部を設ける必要があり、端末のシステム規模の増大を招くという課題が発生する。
 また、リアルタイムの放送番組のコンテンツの映像表示にあわせて回線コンテンツの映像を表示すると、回線コンテンツのパケット遅延やパケット欠損により、回線コンテンツの映像が大きく乱れる可能性が高い。
 本開示は、送信システムおよび端末のシステム規模を小さくするとともに、リアルタイムの放送番組のコンテンツとリアルタイムの回線コンテンツを表示部(または、表示装置)に同時に表示する際、高品質な映像の表示を実現することを目的し、これを実現するための送信システムおよび端末を提供する。
 本開示の方法によると、所定の数以上の回線データパケット及び回線パリティパケットが受信されていれば、回線コンテンツのデコードを開始することができるので、パケット遅延やパケッの欠落が発生し得る通信回線を介して伝送される回線コンテンツの品質を向上させることができる。また、放送コンテンツの送出時刻が回線コンテンツの送出時刻より所定の時間遅延されているので、放送コンテンツの送出時刻を回線コンテンツの送出時刻に対して遅延させない場合と比較して、受信側において放送コンテンツを一時的に保持する記憶部の容量を少なくすることができる。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。
 ≪実施の形態1≫
 図1は、本実施の形態における放送局、電気通信回線業者、端末の関係の一例を示している。図1において、101は現場を示しており、例として、野球場、サッカー場を考える。102A、102Bはカメラを示している。カメラ102A、102Bによって、例えば、異なるアングルの映像を撮影しているものとする。
 このとき、カメラ102Aで撮影した「第1の映像および/または音声(オーディオ)の情報」を放送局103は受け取り、「第1の映像および/または音声(オーディオ)の情報」は、ケーブルなどの有線、または、無線を介して、端末105に伝送されるものとする。
 そして、カメラ102Bで撮影した「第2の映像および/または音声(オーディオ)の情報」を放送局103は受け取り、「第2の映像および/または音声(オーディオ)の情報」は、電気通信回線業者104を介して、端末105に伝送されるものとする。
 なお、「第2の映像および/または音声(オーディオ)の情報」は、放送局103を介さずに、電気通信回線業者104に直接伝送され、その後、端末105に伝送されてもよい。
 図2は、本実施の形態における放送局と電気通信回線業者が保有する送信装置の構成の一例を示しており、点線240で囲まれた部分は放送局であり、点線250で囲まれた部分は電気通信回線業者が保有している送信装置である。なお、制御部232は、放送局、電気通信回線業者が保有している送信装置とは、別に存在してもよいし、放送局が具備してもよいし、電気通信回線業者が保有している送信装置が具備していてもよい。なお、図2では、別に存在している場合の構成図を記載している。
 パケット(またはフレーム)処理部202は、「第1の映像および/または音声(オーディオ)の情報」201および第1の制御信号211を入力とし、第1の制御信号211にしたがって、パケット(またはフレーム)処理を施し、パケット(またはフレーム)処理後の第1の映像および/または音声(オーディオ)の情報203を出力する。なお、詳細の動作については、後で説明する。
 物理層誤り訂正符号化部204は、パケット(またはフレーム)処理後の第1の映像および/または音声(オーディオ)の情報203、および、第1の制御信号211を入力とし、第1の制御信号211にしたがって、誤り訂正符号の方式(具体的な誤り訂正符号、符号化率)の符号化を行い、誤り訂正符号化後のデータ205を出力する。
 変調部206は、誤り訂正符号化後のデータ205、および、第1の制御信号211を入力とし、第1の制御信号211にしたがった変調方式で、変調を行い、ベースバンド信号207を出力する。
 送信部208は、ベースバンド信号207、および、第1の制御信号211を入力とし、第1の制御信号211にしたがった伝送方法に基づいた信号処理を施し、変調信号209を出力し、変調信号209はアンテナ210から例えば電波として出力する。そして、変調信号209で伝送されているデータは、端末に届けられることになる。
 なお、上述の説明では、一つの変調信号を送信する例で説明しているが、これに限ったものではなく、特許文献1、特許文献2などに示されている、複数の変調信号を複数のアンテナを用いて、同一時刻、同一周波数を用いて送信する送信方法を用いてもよい。また、伝送方法としては、シングルキャリア方式、OFDM(orthogonal frequency division multiplexing)方式などのマルチキャリア方式、スペクトル拡散通信方式などを用いていることになる。加えて、図2では、放送局240は、無線での伝送を例で説明しているが、ケーブル等の有線による伝送方法を用いてもよい。
 制御部232は、第2の映像および/または音声(オーディオ)の情報231を入力とし、第2の映像および/または音声(オーディオ)の情報212、および、第2の制御信号228を出力する。このとき、第2の制御信号228は、送信方法に関する情報を含んでいるものとする。そして、第2の映像および/または音声(オーディオ)の情報212は放送局240を経由するものとする。
 パケット(またはフレーム)処理部222は、第2の映像および/または音声(オーディオ)の情報212、および、直接電気通信回線業者に届く際の第2の映像および/または音声(オーディオ)の情報221、第2の制御信号228を入力とし、第2の制御信号228により、第2の映像および/または音声(オーディオ)の情報212、第2の映像および/または音声(オーディオ)の情報221のうち、有効な第2の映像および/または音声(オーディオ)の情報を選択し、パケット(またはフレーム)処理を施し、パケット(またはフレーム)処理後の第2の映像および/または音声(オーディオ)の情報223を出力する。なお、詳細の動作については、後で説明する。
 信号処理部224は、パケット(またはフレーム)処理後の第2の映像および/または音声(オーディオ)の情報223、第2の制御信号228を入力とし、第2の制御信号228に基づき各レイヤー(例えば、MAC(Media Access Control)レイヤーや物理レイヤーなど。ただし、当然であるが、これに限ったものではない。)の処理を施し、信号処理後の信号225を出力する。
 送信部226は、信号処理後の信号225および第2の制御信号228を入力とし、第2の制御信号228に基づいて送信信号227を生成し、出力する。そして、送信信号227で伝送されているデータは端末に届けられることになる。
 なお、送信信号227で伝送されているデータは、さらに、別の送信方式・規格を適用して、端末に届けられてもよい。例えば、無線LAN(Local Area Network)、PLC(Power Line Communications)、ミリ波を用いた無線伝送方式、セルラー方式(cellular communication system)、無線MAN(Metropolitan Area Network)などがあげられるが、これに限ったものではない。ただし、一般的には、インターネット・プロトコールが用いられることになり、転送プロトコルとして、TCP(transmission Control Protocol)、または、UDP(user Datagram Protocol)が用いられることになる(なお、TCPはスイートのコンポーネントの一つであり、もう一つのコンポーネントとしてIP(Internet Protocol)があり、スイート全体をTCP/IPと呼ぶ)。
 図3は端末の構成例を示している。アンテナ301は放送局が送信した変調信号を受信し、受信部303は、アンテナ301で受信した受信信号302を入力とし、周波数変換、直交復調等の処理を施し、ベースバンド信号304を出力する。
 時間・周波数同期部305は、ベースバンド信号304を入力とし、放送局が送信した変調信号に含まれる、例えば、プリアンブル、パイロットシンボル、リファレンスシンボルなどを抽出し、時間同期、周波数同期、周波数オフセット推定等を行い、同期信号306を出力する。
 チャネル推定部307は、ベースバンド信号304を入力とし、放送局が送信した変調信号に含まれる、例えば、プリアンブル、パイロットシンボル、リファレンスシンボルなどを抽出し、伝搬路の状態の推定(チャネル推定)を行い、チャネル推定信号308を出力する。
 制御情報抽出部309は、ベースバンド信号304を入力とし、放送局が送信した変調信号に含まれる制御情報シンボルを抽出し、制御情報シンボルの復調、誤り訂正復号等の処理を行い、制御情報信号310を出力する。
 復調部311は、ベースバンド信号304、同期信号306、チャネル推定信号308、制御情報信号310を入力とし、制御情報信号310に含まれる変調信号の情報に基づき、ベースバンド信号304を同期信号306、チャネル推定信号308を利用して復調し、各ビットの対数尤度比を求め、対数尤度比信号312を出力する。なお、このときの動作については、特許文献2、特許文献3などに記載されている。
 物理層誤り訂正復号部313は、対数尤度比信号312、制御情報信号310を入力とし、制御情報信号310に含まれる誤り訂正符号に関する情報(例えば、誤り訂正符号の情報、符号長(ブロック長)、符号化率など)に基づき、誤り訂正復号を行い、受信データ314を出力する。
 パケット(またはフレーム)処理部315は、受信データ314、制御情報信号310を入力とし、制御情報信号310の情報に基づき、パケット(またはフレーム)の処理を行い、パケット(またはフレーム)処理後のデータ316を出力する。なお、詳細の動作については、後で詳しく説明する。
 上述の説明において、無線による伝送を例に説明しているが、ケーブル等の有線による伝送方法を用いてもよい。また、一つの変調信号を送信する例で説明しているが、これに限ったものではなく、特許文献1、特許文献2などに示されている、複数の変調信号を複数のアンテナを用いて、同一時刻、同一周波数を用いて送信する送信方法を用いてもよい。また、伝送方法としては、シングルキャリア方式、OFDM(orthogonal frequency division multiplexing)方式などのマルチキャリア方式、スペクトル拡散通信方式などを用いていることになり、これに対応する処理が、各部で行われることになる。
 受信部353は、接続部351に接続されている、例えば、ケーブルを介して伝送されている信号352を入力とし、受信信号354を出力する。
 信号処理部355は、受信信号354を入力とし、情報、および、制御情報の分離を行い、受信データ356および制御情報357を出力する。
 パケット(またはフレーム)処理部358は、受信データ356および制御情報357を入力とし、制御情報357に基づき、受信データに対し、パケット(またはフレーム)処理を施し、パケット(またはフレーム)処理後のデータ359を出力する。なお、詳細の動作については、後で詳しく説明する。
 上述の説明において、接続部351に対応した伝送方式を用いた場合を例に説明しているが有線の通信方式、無線通信方式、いずれであってもよい。
 信号処理部380は、パケット(またはフレーム)処理後のデータ316、制御情報信号310、パケット(またはフレーム)処理後のデータ359、制御情報357を入力とし、表示部384に2つの映像を表示するためのデータを生成し、データ381を出力する。
 デコーダ382は、映像・オーディオのデコードを行い、映像信号383、オーディオ信号385を出力し、映像信号383は、表示部384に出力される、または、外部出力端子から出力され、また、オーディオ信号385はスピーカ386から音が出力される、または、外部出力端子から出力される。
 ここでは、「パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号を放送局では使用せず、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号を電気通信回線業者の送信装置は使用する」送信方法について以下で説明する。
 図4は、電気通信回線業者の送信装置において、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号化方法に関連する部分の構成を示している。(ここでは、「パケットレベルでの誤り訂正符号化」と呼ぶ。ただし、呼び方はこれに限ったものではない。)なお、図4の構成は、図2の電気通信回線業者が保有する送信装置250において、パケット(またはフレーム)処理部222に含まれることになる。
 パケット生成部402は、情報401、制御情報信号414を入力とし、制御情報信号414に含まれる、パケットサイズ(1パケットを構成するビット数)に関する情報に基づいて、情報パケット403を出力とする。なお、図4に例を示しており、情報パケット#1、情報パケット#2,・・・、情報パケット#(n-1)、情報パケット#nを生成するものとする。(つまり、情報パケット#k(kは1以上n以下の整数とする。(nは2以上の整数とする。)))また、情報パケット#1から#nを生成するだけの情報のビット数が不足していた場合、例えば既知のデータを挿入することにより、情報パケット#1から#nを生成することになる。
 並び替え部404は、情報パケット403、制御情報信号414を入力とし、制御情報信号414に含まれる並び替え方法の情報に基づき、データの並び替えを行い、並び替え後のデータ系列405を出力する。なお、必ずしも並び替えを行わなくてもよい。例えば、情報パケット#1から#nを入力とし、情報パケット#1から#nを構成するビット系列の範囲内で、並び変えを行うことになる。
 符号化部408は、並び変え後のデータ系列405、制御情報信号414を入力とし、制御情報414に含まれる誤り(消失)訂正符号化方式(例えば、使用する誤り(消失)訂正符号化方式の情報、符号長(ブロック長)、符号化率など)に基づいた符号化を行い、パリティパケット407を出力する。なお、図4に例を示しており、パリティパケット#1、パリティパケット#2,・・・、パリティパケット#(h-1)、パリティパケット#hを生成するものとする(つまり、パリティパケット#k(kは1以上h以下の整数とする。(hは1以上の整数とする)))。
 誤り検出符号付加部408は、パリティパケット407を入力とし、パケット単位で誤り検出ができるように、例えば、CRC(Cyclic Redundancy Check)を付加し、CRC付加後のパリティパケット409を出力する。このとき、CRCを付加することで、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断を受信装置は行うことができることになる。なお、ここでは、CRCを例に説明しているが、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断が可能となるブロック符号、検査符号であれば、どのような符号を用いてもよい。なお、図4に例を示しており、CRC付加後のパリティパケット#1、CRC付加後のパリティパケット#2,・・・、CRC付加後のパリティパケット#(h-1)、CRC付加後のパリティパケット#hを生成するものとする(つまり、CRC付加後のパリティパケット#k(kは1以上h以下の整数とする。(hは1以上の整数とする)))。
 同様に、誤り検出符号付加部410は、情報パケット403を入力とし、パケット単位で誤り検出ができるように、例えば、CRC(Cyclic Redundancy Check)を付加し、CRC付加後の情報パケット411を出力する。このとき、CRCを付加することで、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断を受信装置は行うことができることになる。なお、ここでは、CRCを例に説明しているが、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断が可能となるブロック符号、検査符号であれば、どのような符号を用いてもよい。なお、図4に例を示しており、CRC付加後の情報パケット#1、CRC付加後の情報パケット#2,・・・、CRC付加後の情報パケット#(n-1)、CRC付加後の情報パケット#nを生成するものとする(つまり、CRC付加後の情報パケット#k(kは1以上n以下の整数とする。(nは2以上の整数とする)))。
 なお、図4における情報401に制御情報(例えば、情報の種類の情報、映像符号化の符号化方式の情報(フレームレート、圧縮率、圧縮方法)など(ただしこれに限ったものではない。))を含んでいてもよい。この点については、後で説明を行う。
 図5は、電気通信回線業者の送信装置において、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号化方法に関連する部分の、図4とは異なる構成を示している。なお、図5の構成は、図2の電気通信回線業者が保有する送信装置250において、パケット(またはフレーム)処理部222に含まれることになる。
 並び替え部502は、情報501、制御情報信号510を入力とし、制御情報信号510に含まれる並び替え方法の情報に基づき、データの並び替えを行い、並び変え後の情報503を出力する。
 符号化部504は、並び変え後の情報503、制御情報信号510を入力とし、制御情報510に含まれる誤り(消失)訂正符号化方式(例えば、使用する誤り(消失)訂正符号化方式の情報、符号長(ブロック長)、符号化率など)に基づいた符号化を行い、符号化後のデータ505を出力する。この場合、符号化に使用する符号は、組織符号(符号語に情報系列がそのままの形で含まれる符号)、非組織符号いずれであってもよい。
 パケット生成部506は、符号化後のデータ505、制御情報信号510を入力とし、制御情報信号503に含まれる、パケットサイズ(1パケットを構成するビット数)に関する情報に基づいて、パケット507を出力とする。なお、図5に例を示しており、パケット#1、パケット#2,・・・、パケット#(m-1)、情報パケット#mを生成するものとする。(つまり、パケット#k(kは1以上m以下の整数とする。(mは2以上の整数とする。)))また、パケット#1から#mを生成するだけの情報のビット数が不足していた場合、符号化部504において、例えば既知のデータを挿入することにより、符号化を行うことになる。
 誤り検出符号付加部508は、パケット507を入力とし、パケット単位で誤り検出ができるように、例えば、CRC(Cyclic Redundancy Check)を付加し、CRC付加後のパケット509を出力する。このとき、CRCを付加することで、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断を受信装置は行うことができることになる。なお、ここでは、CRCを例に説明しているが、パケット内のデータがすべて正しいか、あるいは、パケットが欠損したかの判断が可能となるブロック符号、検査符号であれば、どのような符号を用いてもよい。なお、図5に例を示しており、CRC付加後のパケット#1、CRC付加後のパケット#2,・・・、CRC付加後のパケット#(m-1)、CRC付加後のパケット#mを生成するものとする(つまり、CRC付加後のパケット#k(kは1以上m以下の整数とする。(mは2以上の整数とする)))。
 なお、図5における情報501に制御情報(例えば、情報の種類の情報、映像符号化の符号化方式の情報(フレームレート、圧縮率、圧縮方法)など(ただしこれに限ったものではない。))を含んでいてもよい。この点については、後で説明を行う。
 以下では、上述で記載したパケットの構成方法の例を説明する。
 図6は、上述で説明したパケットの構成方法の一例を示している。601はCRCであり、誤りを検出するために使用することが可能である。
 602は、「誤り訂正符号によって得られるパケット数に関する情報」である。例えば、図4の場合、情報パケットの数がn、パリティパケットの数がhであるので、この情報は「n+h」となる。また、図5の場合、誤り訂正符号によって得られるパケット数に関する情報は「m」となる。
 603は「パケットのID(identification)(識別子)の情報」である。例えば、図4のとき、誤り訂正符号によって得られるパケット数は「n+h」である。したがって、パケットのID(identification)(識別子)として、「0」から「n+h-1」を用意する。そして、各パケットに「0」から「n+h-1」の識別子のうち、いずれかの番号を与える。具体的には、図4に示すn個の情報パケット、h個のパリティパケットのそれぞれに「0」から「n+h-1」のIDのいずれかを付与することになる。図5のとき、誤り訂正符号によって得られるパケット数は「m」である。したがって、パケットのIDとして「0」から「m-1」を用意する。そして、各パケットに「0」から「m-1」の識別子のうちのいずれかの番号を与える。具体的には、図5に示すm個のパケットのそれぞれに「0」から「m-1」のIDのいずれかを付与することになる。
 604は制御情報であり、「誤り訂正符号によって得られるパケット数に関する情報」および「パケットのID(identification)(識別子)」以外の制御情報である。例えば、パケットレベルでの誤り訂正符号化の方式の情報、パケット長が可変であれば、パケット長のビット数(または、バイト数)などを、制御情報としてもよい。
 605はデータとなり、端末に伝送したいデータ(ここでは、例えば、映像、オーディオのデータ)となる。
 図7は、上述で説明したパケットの構成方法の図6とは異なる例を示している。701はCRCであり、誤りを検出するために使用することが可能である。
 702は、第1の制御情報であり、703は、第2の制御情報である。第1の制御情報、第2の制御情報に属する情報の例としては、「誤り訂正符号によって得られるパケット数に関する情報」、「パケットのID(identification)(識別子)の情報」、パケットレベルでの誤り訂正符号化の方式の情報、パケット長が可変であれば、パケット長のビット数(または、バイト数)などがあるが、これに限ったものではない。
 704はデータとなり、端末に伝送したいデータ(ここでは、例えば、映像、オーディオのデータ)となる。
 このとき、図6において、「CRC」601、「誤り訂正符号化によって得られるパケットの数に関する情報」602、「パケットのID(識別子)の情報」603、「制御情報」604、「データ」605により構成されたデータ群を図4、図5の「誤り検出符号付きのパケット一つ」とするものとする。
 そして、図7の場合、「CRC」701、「第1の制御情報」702、「第2の制御情報」703、「データ」704により構成されたデータ群を図4、図5の「誤り検出符号付きのパケットの一つ」とするものとする。
 このとき、図4、図5におけるパケットの構成方法として、以下の4つの方法を例として考える。
 第1の方法:
 図6に示しているように、制御情報604、データ605を図4、図5における誤り検出符号付加前のパケットとする。したがって、制御情報604、データ605は誤り訂正符号化(符号化部406、または、符号化部504)の入力となる。一方、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603、および、誤り検出符号の例となるCRC601が、制御情報604、データ605に付加され、誤り検出符号付きパケットとなる。
 なお、誤り訂正符号化によって得られるパケットの数が、例えば、32となっていた場合、パケットのIDとしては、0から31のいずれかの値をとることになる。
 このとき、図4、図5の誤り検出符号付加部408、410、508の前後いずれかに、制御情報付加部が必要となる。その構成を図8に示す。
 図8の800は、制御情報付加部が誤り検出符号付加部の前段にある場合の構成の一例を示している。第1の方法の場合、制御情報付加部802は、制御情報604およびデータ605(801に相当)を入力とし、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603を付加し、データ群803を出力する。
 誤り検出符号付加部804は、データ群803を入力とし、CRC601を付加し、誤り検出符号付きのパケット805を出力する。
 図8の810は、制御情報付加部が誤り検出符号付加部の後段にある場合の構成の一例を示している。第1の方法の場合、誤り検出符号付加部812は、制御情報604およびデータ605(811に相当)を入力とし、CRC601を付加し、データ群813を出力する。
 制御情報付加部814は、データ群813を入力とし、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603を付加し、誤り検出符号付きのパケット815を出力する。
 第2の方法:
 図6に示しているように、データ605を図4、図5における誤り検出符号付加前のパケットとする。したがって、データ605は誤り訂正符号化(符号化部406、または、符号化部504)の入力となる。一方、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603と制御情報604、および、誤り検出符号の例となるCRC601が、データ605に付加され、誤り検出符号付きパケットとなる。
 なお、誤り訂正符号化によって得られるパケットの数が、例えば、32となっていた場合、パケットのIDとしては、0から31のいずれかの値をとることになる。
 このとき、図4、図5の誤り検出符号付加部408、410、508の前後いずれかに、制御情報付加部が必要となる。その構成を図8に示す。
 図8の800は、制御情報付加部が誤り検出符号付加部の前段にある場合の構成の一例を示している。第2の方法の場合、制御情報付加部802は、データ605(801に相当)を入力とし、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603と制御情報604を付加し、データ群803を出力する。
 誤り検出符号付加部804は、データ群803を入力とし、CRC601を付加し、誤り検出符号付きのパケット805を出力する。
 図8の810は、制御情報付加部が誤り検出符号付加部の後段にある場合の構成の一例を示している。第2の方法の場合、誤り検出符号付加部812は、データ605(811に相当)を入力とし、CRC601を付加し、データ群813を出力する。
 制御情報付加部814は、データ群813を入力とし、誤り訂正符号化によって得られるパケットの数に関する情報602とパケットのID(identification)(識別子)の情報603と制御情報604を付加し、誤り検出符号付きのパケット815を出力する。
 第3の方法:
 図7に示しているように、データ704および第2の制御情報703を図4、図5における誤り検出符号付加前のパケットとする。したがって、データ704および第2の制御情報703は誤り訂正符号化(符号化部406、または、符号化部504)の入力となる。一方、第1の制御情報702、および、誤り検出符号の例となるCRC701が、データ704および第2の制御情報703に付加され、誤り検出符号付きパケットとなる。
 なお、誤り訂正符号化によって得られるパケットの数が、例えば、32となっていた場合、パケットのIDとしては、0から31のいずれかの値をとることになる。
 このとき、図4、図5の誤り検出符号付加部408、410、508の前後いずれかに、制御情報付加部が必要となる。その構成を図8に示す。
 図8の800は、制御情報付加部が誤り検出符号付加部の前段にある場合の構成の一例を示している。第3の方法の場合、制御情報付加部802は、データ704および第2の制御情報703(801に相当)を入力とし、第1の制御情報702を付加し、データ群803を出力する。
 誤り検出符号付加部804は、データ群803を入力とし、CRC601を付加し、誤り検出符号付きのパケット805を出力する。
 図8の810は、制御情報付加部が誤り検出符号付加部の後段にある場合の構成の一例を示している。第3の方法の場合、誤り検出符号付加部812は、データ704および第2の制御情報703(811に相当)を入力とし、CRC601を付加し、データ群813を出力する。
 制御情報付加部814は、データ群813を入力とし、第1の制御情報702を付加し、誤り検出符号付きのパケット815を出力する。
 第4の方法:
 図7に示しているように、データ704を図4、図5における誤り検出符号付加前のパケットとする。したがって、データ704は誤り訂正符号化(符号化部406、または、符号化部504)の入力となる。一方、第1の制御情報702と第2の制御情報703、および、誤り検出符号の例となるCRC701が、データ704に付加され、誤り検出符号付きパケットとなる。
 なお、誤り訂正符号化によって得られるパケットの数が、例えば、32となっていた場合、パケットのIDとしては、0から31のいずれかの値をとることになる。
 このとき、図4、図5の誤り検出符号付加部408、410、508の前後いずれかに、制御情報付加部が必要となる。その構成を図8に示す。
 図8の800は、制御情報付加部が誤り検出符号付加部の前段にある場合の構成の一例を示している。第4の方法の場合、制御情報付加部802は、データ704(801に相当)を入力とし、第1の制御情報702、第2の制御情報703を付加し、データ群803を出力する。
 誤り検出符号付加部804は、データ群803を入力とし、CRC601を付加し、誤り検出符号付きのパケット805を出力する。
 図8の810は、制御情報付加部が誤り検出符号付加部の後段にある場合の構成の一例を示している。第4の方法の場合、誤り検出符号付加部812は、データ704(811に相当)を入力とし、CRC601を付加し、データ群813を出力する。
 制御情報付加部814は、データ群813を入力とし、第1の制御情報702、第2の制御情報703を付加し、誤り検出符号付きのパケット815を出力する。
 上述では、説明していないが、各パケット、または、一部のパケットに、時刻に関する情報が含まれていてもよい。このとき、すべてのパケットに時刻に関する情報が含まれていてもよいし、ある特定のパケットに時刻に関する情報が含まれていてもよい。
 また、放送局が送信する変調信号の中に、時刻に関する情報が含まれていてもよい。このとき、パケットやフレームにおいて、パケットまたはフレームすべてに時刻に関する情報が含まれていてもよいし、ある特定のパケットやフレームに時刻に関する情報が含まれていてもよい。
 電気通信回線業者が送信するパケットに含まれる時刻に関する情報と放送局が送信する変調信号に含まれる時刻に関する情報を、端末は用いて、電気通信回線業者が送信した映像と放送局が送信した映像の時間的な同期をとり、端末が具備する表示部に、同期した2つの映像を表示することができ、視聴者に不快感を与える可能性が低くなる。
 この点については、上記で説明したとおりで、電気通信回線業者が送信する情報の中には、時刻に関する情報が含まれており、また、放送業者が送信する情報の中にも時刻に関する情報が含まれており、これらの情報を活用することで、第1の映像と第2の映像のデコード、表示の時間的な同期を、端末は行うことができる。また、本実施の形態で述べているパケットレベルに誤り訂正復号のタイミングの調整についても、これらの時刻に関する情報を活用することができる。
 なお、上述では、「パケット」という語句を用いているが、「フレーム」「ブロック」など、別の呼び方をしてもよく、「パケット」、「フレーム」「ブロック」などは、複数のビットで構成されていることになる。
 また、放送局が送信する変調信号は、必ずしもパケットをベースとするデータ構造である必要はない(パケットをベースとしてもよい。ただし、パケット長、制御情報の構成は、電気通信業者が送信するパケットの構成と同一であってもよいし、同一でなくてもよい)。
 次に、放送局と電気通信回線業者が送信するパケットのタイミングと、端末が、放送局が送信したパケットと電気通信業者が送信したパケットを受信したときの受信状況を説明する。なお、以下の説明では、放送局はパケットを送信するとしているが、必ずしもパケットという単位で、情報を伝送しなければならないというわけではなく、フレーム単位であってもよいし、ストリームであってもよい。説明を簡略化するために、パケット単位で情報を伝送する例で説明する。
 図9の900は、同一時刻の別アングルの2つ映像の情報を放送局と電気通信回線業者が送信する時の例を示している。なお、図9において、横軸は時間とする。放送局は第1の映像のデータを送信し、電気通信回線業者は第2の映像のデータを送信するものとする(第1の映像と第2の映像は、別アングルの同一時刻の映像であるものとする)。
 図9に示すように、第1の映像は、パケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」で構成されているものとし、第2の映像は、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」で構成されているものとする。
 なお、第1の映像は、パケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」だけで構成されているわけではなく、以降も同様に、放送局はパケットを送信する。(ただし、図9では、この点については記載していない。)そして、第2の映像は、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」だけで構成されているわけではなく、以降も同様に、電気通信回線業者はパケットを送信する(ただし、図9では、この点については記載していない)。
 図9の900は放送局、および、電気通信回線業者がパケットを送信する状況を示しており、放送局はパケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」を送信し、電気通信回線業者はパケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を送信するものとする。
 このとき、図9に示す時刻Tから送信するパケット「#1」およびパケット「$1」が、同一時刻の映像を含んだパケットであるものとし、放送局および電気通信回線業者は、パケットの送信しているものとする。
 図9の910は、端末がパケットを受信している様子を示している。放送局が送信したパケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」は、端末に同一の順番で、放送局がパケットを連続的に送信していれば、連続的に届くことになる。したがって、図9のように端末は、パケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」を受信することになり、時点Rで受信が完了することになる。
 前にも記載したとおり、電気通信回線業者は、端末に対し、TCP(TCP/IP)、または、UDPを用いてパケットを送信している。したがって、図9の900に示すように、同一時刻の別アングルの2つ映像の情報を放送局と電気通信回線業者が送信しても、図9の910に示すように、電気通信回線業者が送信したパケットは、パケットの到達の遅延、パケットの到達の順序の入れ替えが発生する。その様子を図9の910に示している。このように、放送局が送信したパケットの端末に到達する方法を、端末は予測が容易であるが、電気通信回線業者が送信したパケットの到達予想を端末が行うのが難しい。
 例えば、図9の910のようにパケットを受信した場合、端末が放送局の最終パケットを受信完了した時刻をR、端末が電気通信回線業者の最終パケットを受信完了した時刻をRとすると、多くのケースでは、R<Rとなる。
 ところで、第1の映像と第2の映像は同一時刻の別アングルの2つ映像であるので、第1の映像と第2の映像が図3の端末が具備している表示部384において、同期して表示されないと、視聴者は違和感を抱く可能性が高い。例えば、第1の映像がサッカーの全体アングル、第2の映像が個別の選手のアングルだとした場合、第1の映像がサッカーの全体アングルで選手Aがシュートをしている瞬間であるのに対し、第2の映像では、すでにゴールが決まっている瞬間であると、視聴者は不満を抱く可能性が高い。
 時刻Rの時点で、第1の映像のデコード、および、第2映像のデコードのを行った場合、第1の映像は端末で表示されるが、第2の映像は、パケット「$1」、パケット「$3」、パケット「$6」が届いていないため、端末は、乱れの少ない第2の映像を表示するのが難しい。
 時刻R時点で、第1の映像のデコード、および、第2映像のデコードのを行った場合、端末は、第1の映像と第2の映像の表示を同期させるために、第1の映像を表示する時刻を遅延させる必要がある。したがって、第1の映像のデータの遅延分の記憶部(バッファ)が必要となる。このとき、遅延量が小さい場合(または、ある程度の許容範囲内)であれば、この方法でもよいが、TCP(TCP/IP)、または、UDPの場合、遅延量は一定でなく、また、さらに無線LANなどを介して端末はパケットを得ている場合、遅延量がさらに大きくなる可能性がある。よって、この方法で、乱れを少なく第1の映像と第2の映像の表示を同期させる場合、端末の記憶部の規模を大きくする必要がある。この点を考慮すると、端末が、デコードの開始時刻を遅延させる方法を採用した場合、遅延時間を短くしても、映像の乱れを少なくできる手法の導入が望まれる。
 上記課題に対する一つの方法として、図10のような送信方法を提案する。図10の1000は、同一時刻の別アングルの2つの映像の情報を放送局と電気通信回線業者が送信する例を示しており、横軸は時間とする。図9の900と異なる点は、電気通信回線業者が送信するパケットの端末への到着遅延を考慮し、放送局が送信するパケットを遅延させている点である。図10において、電気通信回線業者は、時刻Tからパケットの送信を開始する。そして、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を順次送信する。
 よって、図2のパケット(またはフレーム)処理部202、222は、生成したパケットを遅延して送信するためのパケット(またはフレーム)蓄積機能を有し、蓄積容量分遅延して、パケットまたはフレームを送信することができる。
 そして、放送局は、時刻T(T≠Tここでは、T<Tとしているが、T>Tとなることも考えられる。)からパケットの送信を開始する。そして、パケット「#1」、パケット「#2」、パケット「#3」、パケット「#4」、パケット「#5」、パケット「#6」、パケット「#7」を順次送信する。
 図11は、放送局および電気通信回線業者がパケットを図10のように送信したときの端末のパケットの受信状況の例(1100)を示している。
 図11において、端末は、図9のときと同様に、放送局が送信したパケット「#1」から「#7」を受信することになる。このとき、すべてのパケットを受信完了する時刻をRとする。
 そして、端末は、電気通信回線業者が送信したパケットを受信することになる。このとき、電気通信回線業者が送信したパケットすべてを端末が受信完了する時刻をRとする。すると、図10のように送信しているため、図11の例では、R<Rが成立している。他の例を考えた場合、「放送局が送信したパケットを、端末がすべて受信完了する時点」と「電気通信回線業者が送信したパケットを、端末がすべて受信完了する時点」の差は、図9のようにパケットを送信する場合と比較して、小さくすることができる可能性が高い。したがって、端末は、パケット蓄積・記憶するための回路規模が削減できる可能性がある。なお、図11の場合、時刻Rの時点で、第1の映像と第2の映像のデコードを開始すればよいことになる。しかし、放送局や電気通信回線業者は、パケットを遅延送信するためのパケット蓄積部が必要となり、回路規模の増大につながる。
 端末は実際には複数(非常に多い)存在しているため、放送局や電気通信回線業者の送信局の回路規模の増大に比べ、端末の回路規模の増大は、トータルの回路規模の増大という点では、課題が大きいことになる。したがって、上述の方法は、回路規模の増大を抑えながら、映像の乱れを抑制できる有効な方法である。
 ただし、必ず映像に乱れが発生しないというわけではない。例えば、図12のように端末が受信する、つまり、図9の910のように、電気通信回線業者が送信したパケットを端末は遅延して受信することがある。このとき、図9のときと比較すると、「放送局が送信したパケットを、端末がすべて受信完了する時点」と「電気通信回線業者が送信したパケットを、端末がすべて受信完了する時点」の差は、小さくなっているが、パケット「$3」、パケット「$7」をロスしている時点で、第1の映像と第2の映像を同期して表示するために、第2の映像のデコードを開始した場合、やはり、第2の映像の乱れが発生する。
 さらに、第2の映像の乱れの課題を軽減するために、送信側で、遅延量を制御することにより実現することができる。
 例えば、図3の端末の信号処理部380は、放送局が送信したパケットと同時刻の電気通信回線業者が送信したパケットの到達時間の差(または、その統計情報)に関する情報を求め時間差情報399として出力する。そして、時間差情報399は、端末が具備する送信装置から、例えば、電気通信回線業者に送信する。
 図2の電気通信回線業者の送信装置250は受信部を具備し、端末が送信した時間差情報を取得する(図2の299)。そして、パケット(またはフレーム)処理部202、222は、時間差情報299を入力とし、パケットまたはフレーム記憶部の量を変化させることで、送信するタイミングを制御し、遅延量を制御したパケット、または、フレームを出力することになる。
 なお、図2において、放送局240は、端末ごとに遅延量を制御することは難しい。(マルチキャストのため)したがって、電気通信回線業者の送信装置250のパケット(またはフレーム)処理部222が各端末に対する遅延量を制御することになる。ただし、電気通信回線業者の送信装置250は、各端末に対し個別にパケットを送信していない場合、つまり、マルチキャストしている場合は、放送局240が遅延時間(パケットの送信タイミング)の制御を行ってもよいし、電気通信回線業者が遅延時間(パケットの送信タイミング)を制御してもよい。
 「パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号を電気通信回線業者の送信装置は使用する(パケットレベルでの誤り訂正符号化)」場合について説明する。
 電気通信回線業者は、16384×4=65536ビットで構成された第2の映像の情報を伝送したいものとする。このとき、1パケットを構成する情報のビット数を16384ビットとする。(これに加え、上述で説明したように制御情報を別途伝送するものとする。)すると、65536/16384=4パケットを得ることができる情報ビットとなる。このとき、図4、図5で説明したように、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号(パケットレベルでの誤り訂正符号化)を行うものとする。このとき使用する誤り訂正符号は、符号長114688ビット、符号化率4/7であるものとする。
 誤り訂正符号が組織符号の場合、例えば、図4のようなパケット生成を行い、誤り訂正符号が非組織符号の場合、例えば、図5のようなパケット生成を行うことになる。このとき、65536ビットで構成された第2の映像の情報に対し、図4、図5のいずれかの符号化を行うと、7つのパケットが生成される(1パケットを構成する情報のビット数を16384ビットであるので)。このときの7つのパケットを、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」とするものとする。このとき、符号化前の情報のビット数より多い数、つまり、5パケット以上端末が受信できれば、すべてのパケットを復元することができる。よって、前述のとおり、例えば、図9の901のように放送局および電気通信回線業者がパケットを送信するものとする(詳細の説明については、上述で説明したとおりであるので省略する)。
 このとき、図3の端末のパケットの受信状況は、図13のとおりであるものとする。そして、図13の時点Rcにおいて、パケットレベルでの誤り訂正符号の復号を行うものとする。(つまり、図3の端末のパケット(またはフレーム)処理部315、358は、記憶部(バッファ)を有しており、端末が、放送局のパケット(またはフレーム)を受信した際、パケット(またはフレーム)処理部315は、パケットまたはフレームのデータを順次記憶し、データの処理を遅延させる。すると、パケットすべてを受信完了し、ある期間すぎ、電気通信回線業者が送信したパケットに対し、パケットレベルでの誤り訂正復号を行うことになる)。
 図13の時点Rcでは、パケット「$3」、パケット「$6」を端末はロスしていることになる。(ただし、図13ではわかりやすくするため、図示している。)しかし、前述にも記載したように、端末が5パケット以上を得ているので、すべてのパケット、つまり、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を得ることができる。
 したがって、端末は、時点Rcを過ぎたところで、第1の映像のデコード、第2の映像のデコードを行うことで、第1の映像、および、第2の映像を得ることができ、したがって、端末は、第1の映像と第2の映像を同期して表示部に表示することができる。よって、第2の映像のすべてのパケットを得ることができる図13に示す時点Rまで、端末は、待つ必要がなくなる。
 以上のように実施することで、端末は第2の映像のすべてのパケットを得るための待機時間が短くなるため、第1映像のパケットまたはフレームのデータを蓄積するための記憶部の回路規模が大幅に削減することができるという効果が得られる。さらに、これまでは、第2の映像のパケットロスにより、端末において、映像の乱れが発生していたが、規定以内のパケットロスが発生しても、映像の乱れが発生しないという効果も得ることができる。
 なお上述の説明で、「図9の901のように放送局および電気通信回線業者がパケットを送信する」としていたが、例えば、図10のように同一時刻の第1の映像のパケット(またはフレーム)と同一時刻の第2の映像のパケットを、時間差をあけて放送局と電気通信回線業者が送信してもよい。このとき、やはり、上述で説明した、図13のように端末が、放送局および電気通信回線業者が送信したパケット(またはフレーム)を受信することになることがある。この場合についても、時点Rcでは、パケット「$3」、パケット「$6」を端末はロスしていることになるが、前述にも記載したように、端末が5パケット以上を得ているので、すべてのパケット、つまり、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を得ることができる。
 したがって、端末は、時点Rcを過ぎたところで、第1の映像のデコード、第2の映像のデコードを行うことで、第1の映像、および、第2の映像を得ることができ、したがって、端末は、第1の映像と第2の映像を同期して表示部に表示することができる。よって、第2の映像のすべてのパケットを得ることができる図13に示す時点Rまで、端末は、待つ必要がなくなる。
 次に、図3の端末のパケット(またはフレーム)処理部358の動作について説明する。図14が端末のパケット(またはフレーム)処理部358の処理のフローチャートの一例を示している。
 例えば、図13の時点Rcを特定の時刻とする。すると、まず、以下の確認をする。
 (1)「特定の時刻(時点Rc)前に、端末は(電気通信回線業者が送信したパケットのうち)(映像デコードを実行するための)すべてのパケット(または、映像デコードを実行するのに必要なパケット)の受信が完了しているか?」
 「はい」の場合、パケットレベルの符号化に組織符号を用いている場合、端末は、電気通信回線業者が送信したパケットに対し、パケットレベル復号を行わない。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能であるので、デコードを開始してもよい。パケットレベルの符号化に非組織符号を用いている場合、端末は、電気通信回線業者が送信したパケットに対し、パケットレベルの復号を行う。(なお、パケットレベルの復号は、時点Rcの時点で開始してもよいし、その前で、開始してもよい。)そして、端末は、第1の映像、第2の映像のデコードを開始することが可能であるので、デコードを開始してもよい。
 「いいえ」の場合、以下にすすむ。
 (2)「特定の時刻(時点Rc)において、端末は(電気通信回線業者が送信したパケットのうち)必要な数のパケット数(ここでは5パケット)以上のパケットを受信しているか?」
 「いいえ」の場合、端末は、パケットレベルの復号を行っても、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができないので、パケットレベルの復号を実施しない。
 「はい」の場合、端末はパケットレベルの復号を行うと、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができるので、パケットレベルの復号を実施する。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能でありので、デコードを開始する。
 なお、図14の簡略化した、図15を実施してもよい。(図15では、特定の時刻(時点Rc)前での判断は行わないことを特徴としている)。
・「特定の時刻(時点Rc)において、端末は(電気通信回線業者が送信したパケットのうち)必要な数のパケット数(ここでは5パケット)以上のパケットを受信しているか?」
 「いいえ」の場合、端末は、パケットレベルの復号を行っても、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができないので、パケットレベルの復号を実施しない。
 「はい」の場合、端末はパケットレベルの復号を行うと、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができるので、パケットレベルの復号を実施する。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能でありので、デコードを開始する。
 ただし、上述では、放送局で、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号の導入についての説明を行っていないが、導入しても同様に実施することができる。
 次に、放送局が送信する変調信号のフレーム単位に対し、上述の説明を適用したときの実施について説明する。
 図16の1600は、同一時刻の別アングルの2つの映像情報を放送局と電気通信回線業者が送信する時の例を示している。なお、図16において、横軸は時間とする。このとき、放送局は第1の映像データを送信し、電気通信回線業者は第2の映像のデータを送信するものとする(第1の映像と第2の映像は、別アングルの同一時刻の映像であるものとする)。
 図16の1600が図9の900と異なる点は、放送局が送信する第1の映像は、放送局が無線による送信方法、有線による送信方法を適用したときの変調信号のフレーム単位で考えている点である。
 図16の1600に示すように第1の映像は、フレーム「※1」で構成されているものとし、第2の映像は、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」で構成されているものとする。
 なお、第1の映像は、フレーム「※1」だけで構成されているわけではなく、以降も同様に、放送局はフレームを送信する。(ただし、図16では、この点については記載していない。)そして、第2の映像は、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」だけで構成されているわけではなく、以降も同様に、電気通信回線業者はパケットを送信する(ただし、図9では、この点については記載していない)。
 このとき、図16に示す時刻Tから送信するフレーム「※1」およびパケット「$1」が、同一時刻の映像を含んでいるものとし、放送局および電気通信回線業者は、フレーム、パケットの送信しているものとする。
 図16の1610は、端末がフレーム、パケットを受信している様子を示している。放送局が送信したフレーム「※1」を受信することになる。このとき、端末は、時点Rで受信が完了することになる。
 前にも記載したとおり、電気通信回線業者は、端末に対し、TCP(TCP/IP)、または、UDPを用いてパケットを送信している。したがって、図16の1600に示すように、同一時刻の別アングルの2つ映像の情報を放送局と電気通信回線業者が送信しても、図16の1610に示すように、電気通信回線業者が送信したパケットは、パケットの到達の遅延、パケットの到達の順序の入れ替えが発生する。その様子を図16の1610に示している。このように、放送局が送信したパケットの端末に到達する方法を、端末は予測が容易であるが、電気通信回線業者が送信したパケットの到達予想を端末が行うのが難しい。
 例えば、図16の1610のようにパケットを受信した場合、端末が放送局の最終パケットを受信完了した時刻をR、端末が電気通信回線業者の最終パケットを受信完了した時刻をRとすると、多くのケースでは、R<Rとなる。
 ところで、第1の映像と第2の映像は同一時刻の別アングルの2つ映像であるので、第1の映像と第2の映像が図3の端末が具備している表示部384において、同期して表示されないと、視聴者は違和感を抱く可能性が高い。例えば、第1の映像がサッカーの全体アングル、第2の映像が個別の選手のアングルだとした場合、第1の映像がサッカーの全体アングルで選手Aがシュートをしている瞬間であるのに対し、第2の映像では、すでにゴールが決まっている瞬間であると、視聴者は不満を抱く可能性が高い。
 時刻Rの時点で、第1の映像のデコード、および、第2映像のデコードのを行った場合、第1の映像は端末で表示されるが、第2の映像は、パケット「$1」、パケット「$3」、パケット「$6」が届いていないため、端末は、乱れの少ない第2の映像を表示するのが難しい。
 時刻R時点で、第1の映像のデコード、および、第2映像のデコードのを行った場合、端末は、第1の映像と第2の映像の表示を同期させるために、第1の映像を表示する時刻を遅延させる必要がある。したがって、第1の映像のデータの遅延分の記憶部(バッファ)が必要となる。このとき、遅延量が小さい場合(または、ある程度の許容範囲内)であれば、この方法でもよいが、TCP(TCP/IP)、または、UDPの場合、遅延量は一定でなく、また、さらに無線LANなどを介して端末はパケットを得ている場合、遅延量がさらに大きくなる可能性がある。よって、この方法で、乱れを少なく第1の映像と第2の映像の表示を同期させる場合、端末の記憶部の規模を大きくする必要がある。この点を考慮すると、端末が、デコードの開始時刻を遅延させる方法を採用した場合、遅延時間を短くしても、映像の乱れを少なくできる手法の導入が望まれる。
 上記課題に対する一つの方法として、図17のような送信方法を提案する。図17の1700は、同一時刻の別アングルの2つの映像の情報を放送局と電気通信回線業者が送信する例を示しており、横軸は時間とする。図16の1600と異なる点は、電気通信回線業者が送信するパケットの端末への到着遅延を考慮し、放送局が送信するフレームを遅延させている点である。図17において、電気通信回線業者は、時刻Tからパケットの送信を開始する。そして、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を順次送信する。
 よって、図2のパケット(またはフレーム)処理部202、222は、生成したパケットを遅延して送信するためのパケット(またはフレーム)蓄積機能を有し、蓄積容量分遅延して、パケットまたはフレームを送信することができる。
 そして、放送局は、時刻T(T≠Tここでは、T<Tとしているが、T>Tとなることも考えられる。)からフレームの送信を開始する。そして、フレーム「※1」を送信する。
 図18は、放送局および電気通信回線業者がパケットを図17のように送信したときの端末のパケットの受信状況の例(1800)を示している。
 図18において、端末は、図16のときと同様に、放送局が送信したフレーム「※1」を受信することになる。このとき、受信完了する時刻をRとする。
 そして、端末は、電気通信回線業者が送信したパケットを受信することになる。このとき、電気通信回線業者が送信したパケットすべてを端末が受信完了する時刻をRとする。すると、図17のように送信しているため、図19の例では、R<Rが成立している。他の例を考えた場合、「放送局が送信したパケットを、端末がすべて受信完了する時点」と「電気通信回線業者が送信したパケットを、端末がすべて受信完了する時点」の差は、図16のようにパケットを送信する場合と比較して、小さくすることができる可能性が高い。したがって、端末は、パケット蓄積・記憶するための回路規模が削減できる可能性がある。なお、図19の場合、時刻Rの時点で、第1の映像と第2の映像のデコードを開始すればよいことになる。しかし、放送局や電気通信回線業者は、パケットを遅延送信するためのパケット蓄積部が必要となり、回路規模の増大につながる。
 端末は実際には複数(非常に多い)存在しているため、放送局や電気通信回線業者の送信局の回路規模の増大に比べ、端末の回路規模の増大は、トータルの回路規模の増大という点では、課題が大きいことになる。したがって、上述の方法は、回路規模の増大を抑えながら、映像の乱れを抑制できる有効な方法である。
 ただし、必ず映像に乱れが発生しないというわけではない。例えば、図19のように端末が受信する、つまり、図16の1610のように、電気通信回線業者が送信したパケットを端末は遅延して受信することがある。このとき、図16のときと比較すると、「放送局が送信したパケットを、端末がすべて受信完了する時点」と「電気通信回線業者が送信したパケットを、端末がすべて受信完了する時点」の差は、小さくなっているが、パケット「$3」、パケット「$7」をロスしている時点で、第1の映像と第2の映像を同期して表示するために、第2の映像のデコードを開始した場合、やはり、第2の映像の乱れが発生する。
 さらに、第2の映像の乱れの課題を軽減するために、送信側で、遅延量を制御することにより実現することができる。
 例えば、図3の端末の信号処理部380は、放送局が送信したフレームと同時刻の電気通信回線業者が送信したパケットの到達時間の差(または、その統計情報)に関する情報を求め時間差情報399として出力する。そして、時間差情報399は、端末が具備する送信装置から、例えば、電気通信回線業者に送信する。
 図2の電気通信回線業者の送信装置250は受信部を具備し、端末が送信した時間差情報を取得する(図2の299)。そして、パケット(またはフレーム)処理部202、222は、時間差情報299を入力とし、パケットまたはフレーム記憶部の量を変化させることで、送信するタイミングを制御し、遅延量を制御したパケット、または、フレームを出力することになる。
 なお、図2において、放送局240は、端末ごとに遅延量を制御することは難しい。(マルチキャストのため)したがって、電気通信回線業者の送信装置250のパケット(またはフレーム)処理部222が各端末に対する遅延量を制御することになる。ただし、電気通信回線業者の送信装置250は、各端末に対し個別にパケットを送信していない場合、つまり、マルチキャストしている場合は、放送局240が遅延時間(パケットの送信タイミング)の制御を行ってもよいし、電気通信回線業者が遅延時間(パケットの送信タイミング)を制御してもよい。
 「パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号を電気通信回線業者の送信装置は使用する(パケットレベルでの誤り訂正符号化)」場合について説明する。
 電気通信回線業者は、16384×4=65536ビットで構成された第2の映像の情報を伝送したいものとする。このとき、1パケットを構成する情報のビット数を16384ビットとする。(これに加え、上述で説明したように制御情報を別途伝送するものとする。)すると、65536/16384=4パケットを得ることができる情報ビットとなる。このとき、図4、図5で説明したように、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号(パケットレベルでの誤り訂正符号化)を行うものとする。このとき使用する誤り訂正符号は、符号長114688ビット、符号化率4/7であるものとする。
 誤り訂正符号が組織符号の場合、例えば、図4のようなパケット生成を行い、誤り訂正符号が非組織符号の場合、例えば、図5のようなパケット生成を行うことになる。このとき、65536ビットで構成された第2の映像の情報に対し、図4、図5のいずれかの符号化を行うと、7つのパケットが生成される(1パケットを構成する情報のビット数を16384ビットであるので)。このときの7つのパケットを、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」とするものとする。このとき、符号化前の情報のビット数より多い数、つまり、5パケット以上端末が受信できれば、すべてのパケットを復元することができる。よって、前述のとおり、例えば、図16の1601のように放送局および電気通信回線業者がフレーム、パケットを送信するものとする(詳細の説明については、上述で説明したとおりであるので省略する)。
 このとき、図3の端末のパケットの受信状況は、図20のとおりであるものとする。そして、図20の時点Rcにおいて、パケットレベルでの誤り訂正符号の復号を行うものとする。(つまり、図3の端末のパケット(またはフレーム)処理部315、358は、記憶部(バッファ)を有しており、端末が、放送局のフレームを受信した際、パケット(またはフレーム)処理部315は、フレームのデータを順次記憶し、データの処理を遅延させる。すると、フレームを受信完了し、ある期間すぎ、電気通信回線業者が送信したパケットに対し、パケットレベルでの誤り訂正復号を行うことになる)。
 図20の時点Rcでは、パケット「$3」、パケット「$6」を端末はロスしていることになる。(ただし、図20ではわかりやすくするため、図示している。)しかし、前述にも記載したように、端末が5パケット以上を得ているので、すべてのパケット、つまり、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を得ることができる。
 したがって、端末は、時点Rcを過ぎたところで、第1の映像のデコード、第2の映像のデコードを行うことで、第1の映像、および、第2の映像を得ることができ、したがって、端末は、第1の映像と第2の映像を同期して表示部に表示することができる。よって、第2の映像のすべてのパケットを得ることができる図20に示す時点Rまで、端末は、待つ必要がなくなる。
 以上のように実施することで、端末は第2の映像のすべてのパケットを得るための待機時間が短くなるため、第1映像のフレームのデータを蓄積するための記憶部の回路規模が大幅に削減することができるという効果が得られる。さらに、これまでは、第2の映像のパケットロスにより、端末において、映像の乱れが発生していたが、規定以内のパケットロスが発生しても、映像の乱れが発生しないという効果も得ることができる。
 なお上述の説明で、「図16の1601のように放送局および電気通信回線業者がフレーム、パケットを送信する」としていたが、例えば、図17のように同一時刻の第1の映像のフレームと同一時刻の第2の映像のパケットを、時間差をあけて放送局と電気通信回線業者が送信してもよい。このとき、やはり、上述で説明した、図20のように端末が、放送局および電気通信回線業者が送信したパケット(またはフレーム)を受信することになることがある。この場合についても、時点Rcでは、パケット「$3」、パケット「$6」を端末はロスしていることになるが、前述にも記載したように、端末が5パケット以上を得ているので、すべてのパケット、つまり、パケット「$1」、パケット「$2」、パケット「$3」、パケット「$4」、パケット「$5」、パケット「$6」、パケット「$7」を得ることができる。
 したがって、端末は、時点Rcを過ぎたところで、第1の映像のデコード、第2の映像のデコードを行うことで、第1の映像、および、第2の映像を得ることができ、したがって、端末は、第1の映像と第2の映像を同期して表示部に表示することができる。よって、第2の映像のすべてのパケットを得ることができる図13に示す時点Rまで、端末は、待つ必要がなくなる。
 次に、図3の端末のパケット(またはフレーム)処理部358の動作について説明する。図14が端末のパケット(またはフレーム)処理部358の処理のフローチャートの一例を示している。
 例えば、図20の時点Rcを特定の時刻とする。すると、まず、以下の確認をする。
 (1)「特定の時刻(時点Rc)前に、端末は(電気通信回線業者が送信したパケットのうち)(映像デコードを実行するための)すべてのパケット(または、映像デコードを実行するのに必要なパケット)の受信が完了しているか?」
 「はい」の場合、パケットレベルの符号化に組織符号を用いている場合、端末は、電気通信回線業者が送信したパケットに対し、パケットレベル復号を行わない。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能であるので、デコードを開始してもよい。パケットレベルの符号化に非組織符号を用いている場合、端末は、電気通信回線業者が送信したパケットに対し、パケットレベルの復号を行う。(なお、パケットレベルの復号は、時点Rcの時点で開始してもよいし、その前で、開始してもよい。)そして、端末は、第1の映像、第2の映像のデコードを開始することが可能であるので、デコードを開始してもよい。
 「いいえ」の場合、以下にすすむ。
 (2)「特定の時刻(時点Rc)において、端末は(電気通信回線業者が送信したパケットのうち)必要な数のパケット数(ここでは5パケット)以上のパケットを受信しているか?」
 「いいえ」の場合、端末は、パケットレベルの復号を行っても、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができないので、パケットレベルの復号を実施しない。
 「はい」の場合、端末はパケットレベルの復号を行うと、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができるので、パケットレベルの復号を実施する。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能でありので、デコードを開始する。
 なお、図14の簡略化した、図15を実施してもよい(図15では、特定の時刻(時点Rc)前での判断は行わないことを特徴としている)。
・「特定の時刻(時点Rc)において、端末は(電気通信回線業者が送信したパケットのうち)必要な数のパケット数(ここでは5パケット)以上のパケットを受信しているか?」
 「いいえ」の場合、端末は、パケットレベルの復号を行っても、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができないので、パケットレベルの復号を実施しない。
 「はい」の場合、端末はパケットレベルの復号を行うと、電気通信回線業者が送信したパケットのうち、ロスしているパケットを復元することができるので、パケットレベルの復号を実施する。そして、端末は、第1の映像、第2の映像のデコードを開始することが可能でありので、デコードを開始する。
 ただし、上述では、放送局で、パケットまたはフレーム損失が発生した際に復元を可能とする誤り訂正符号の導入についての説明を行っていないが、導入しても同様に実施することができる。
 なお、本実施の形態において、処理単位をパケットや、フレーム単位で説明しているが、これに限ったものではない。また、記憶部による遅延の発生は、フレームやパケット単位でなくてもよく、また、遅延時間は、複数フレーム単位の時間間隔や複数パケット単位の時間間隔で発生させてもよい。
 上述の説明における図2の放送局と電気通信回線業者が保有する送信装置におけるパケット(またはフレーム処理部)202、222の構成について説明する。
 図21は、図2の放送局と電気通信回線業者が保有する送信装置におけるパケット(またはフレーム)処理部202、222の構成の一例を示している。
 パケット、または、フレーム生成部2102は、映像および/または音声(オーディオ)の情報2101、制御信号2105を入力とする。そして、パケット、または、フレーム生成部2102は、制御信号2105に基づく処理を行うことになる。例えば、パケットレイヤーの誤り訂正符号化を行う場合、パケット、または、フレーム生成部2102は、映像および/または音声(オーディオ)の情報2101に対し、図4,図5で示したような処理を行い、パケット化、または、フレーム化したデータ2103を出力する。また、パケット化、フレーム化する場合、パケット、または、フレーム生成部2102は、映像および/または音声(オーディオ)の情報2101に対し、パケット化またはフレーム化を行い、パケット化、または、フレーム化したデータ2103を出力する。
 記憶部2104は、パケット化、または、フレーム化したデータ2103、制御信号2105を入力とし、制御信号2105に基づいて、パケット化、または、フレーム化したデータ2103を記憶し、遅延させ、遅延したパケット化、または、フレーム化したデータ2106を出力する。
 なお、記憶部2104の構成の例は、図21に示したとおりで、記憶ブロックが直列に連接されており、記憶ブロックは、入力データ群を記憶し、その際、記憶しているデータ群を出力する、という動作を行うことになる。
 次に、図3の端末におけるパケット(またはフレーム)処理部315、358の構成について説明する。
 図22は、図3の端末におけるパケット(またはフレーム)処理部315、358において、パケットレイヤーの誤り訂正復号を行う場合の構成例を示している。なお、動作については、図20を例にして説明する。
 誤り検出部(例えば、CRCチェック部)2202は、受信データ2201、制御信号2208を入力とする。
 例えば、図20のように、パケットを受信している場合、誤り検出部(例えば、CRCチェック部)2202は、パケット「$2」に対し、誤り検出を行った結果、誤りがないので、パケット「$2」をパケット情報2203として出力する。
 同様に、誤り検出部(例えば、CRCチェック部)2202は、パケット「$4」に対し、誤り検出を行った結果、誤りがないので、パケット「$4」をパケット情報2203として出力する。
 また、誤り検出部(例えば、CRCチェック部)2202は、パケット「$5」に対し、誤り検出を行った結果、誤りがないので、パケット「$5」をパケット情報2203として出力する。
 また、誤り検出部(例えば、CRCチェック部)2202は、パケット「$7」に対し、誤り検出を行った結果、誤りがないので、パケット「$7」をパケット情報2203として出力する。
 また、誤り検出部(例えば、CRCチェック部)2202は、パケット「$1」に対し、誤り検出を行った結果、誤りがないので、パケット「$1」をパケット情報2203として出力する。
 なお、前述で説明したように、時点Rcの時点でパケットレイヤーの復号を行ってしまうため、誤り検出部(例えば、CRCチェック部)2202は、パケット「$3」、パケット「$6」を受信したとしても、破棄することになる。
 記憶部2204は、パケット情報2203、制御信号2208を入力とし、制御信号2208にもとづき、パケットの記憶、出力を制御することになる。
 例えば、図20のような場合、パケット「$2」、パケット「$4」、パケット「$5」、パケット「$7」、パケット「$1」は、記憶部2204に入力されることになり、したがって、パケット「$2」、パケット「$4」、パケット「$5」、パケット「$7」、パケット「$1」を記憶する。そして、制御信号2208が時点Rcの時点を示したとき、記憶部2204に対し、記憶しているパケット「$2」、パケット「$4」、パケット「$5」、パケット「$7」、パケット「$1」を出力するように指示する。したがって、記憶部2204は、パケット「$2」、パケット「$4」、パケット「$5」、パケット「$7」、パケット「$1」を記憶しているパケット2205として出力する。
 パケットレイヤー復号部(消失訂正復号部)2206は、記憶しているパケット2205、制御信号2208を入力とする。そして、制御信号2208が時点Rcの時点を示したとき、記憶部2204が出力したパケット「$2」、パケット「$4」、パケット「$5」、パケット「$7」、パケット「$1」を用いて、パケットレイヤー復号部(消失訂正復号部)2206は、消失訂正復号(例えば、誤り訂正符号として、LDPC(Low-Density Parity-Check)符号を用いていた場合、sum-product復号のような信頼度伝播復号)を実施する。このとき、パケットレイヤー復号部(消失訂正復号部)2206は、すべての情報を復元できるので、受信映像および/または音声(オーディオ)の情報2207を出力する。
 なお、図2の放送局の送信において、パケットレイヤーの誤り訂正符号化を行った場合、図22の動作は上述と若干異なる。この点について、説明する。
 放送局は、無線の伝送方式、有線の伝送方式を用いて、端末にパケット、または、フレームを送信することになるが、伝搬路の変動により、図3の端末で、物理層の誤り訂正復号を行っても、すべてのパケットが正しく受信できるわけではない。例えば、パケット「#1」は誤りなく受信でき、パケット「#2」は誤りを有する、パケット「#3」は誤りなく受信でき、・・・、というようになる。
 このとき、図22の誤り検出部(例えば、CRCチェック部)2202は、誤り検出符号により、パケット単位で誤りがあるか、誤りがないか、を判別することになる。これにより、パケット「#1」は正しい、パケット「#2」は誤り、つまり、パケットロス、パケット「#3」は正しい、・・・、という判断を行うことになる。
 そして、図22のパケットレイヤー復号部2208は、正しいパケットを用いて、誤り訂正復号(消失訂正復号)を行い、パケットロスしたパケットを復元し、受信映像および/または音声(オーディオ)の情報2207を出力する。
 図2の放送局の送信において、パケットレイヤーの誤り訂正符号化を行っていない場合、図3のパケット(またはフレーム)処理部315の構成を図23に示す。なお、動作については、図20を例にして説明する。
 記憶部2302は、受信データ2301、制御信号2304を入力とする。
 例えば、図20のように、フレーム「※1」を端末が受信している場合、記憶部2302は、フレーム「※1」の受信データが入力となり、記憶することになる。そして、制御信号2304が、時点Rcであることを示したとき、記憶部2302は、記憶しているデータ(フレーム「※1」の受信データ)2303を出力することになる。
 以上のように、本実施の形態では、マルチアングルの第1の映像と第2の映像に対し、放送局が第1の映像を送信し、電気通信回線業者が第2の映像を送信する際、第2の映像の伝送の際に、パケットレベルでの誤り訂正符号化を行う送信方法を説明し、これにより、端末は、同期した第1の映像と第2の映像を表示することができ、また、乱れが少ない映像となるという効果を得ることができる。
 なお、本実施の形態において、端末の受信装置とアンテナが別々となっている構成であってもよい。例えば、アンテナで受信した信号、または、アンテナで受信した信号に対し、周波数変換を施した信号を、ケーブルを通して、入力するインターフェースを受信装置が具備し、受信装置はその後の処理を行うことになる。
 また、受信装置が得たデータ・情報は、その後、映像や音に変換され、ディスプレイ(モニタ)に表示されたり、スピーカから音が出力されたりする。さらに、受信装置が得たデータ・情報は、映像や音に関する信号処理が施され(信号処理を施さなくてもよい)、受信装置が具備するRCA端子(映像端子、音用端子)、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、デジタル用端子等から出力されてもよい。
 ≪実施の形態2≫
 本実施の形態では、放送局が複数存在する、または、放送局が複数の媒体を介して(例えば、衛星放送、地上放送、ケーブル放送)、情報を伝送する場合に対し、実施の形態1を適用した場合について説明する。
 図24は、図1とは異なる放送局、電気通信回線業者、端末の関係の一例であり、図1と同様に動作するものについては、同一番号を付している。
 図24において、特徴的な部分は、カメラ102Aで撮影したアングル(第1の映像)を、図1と同様の経路で放送局103は端末105に送信する方法(放送局103から端末105に向かう実線の矢印)に加え、これとは別の経路で放送局103は端末105に送信する方法(放送局103から端末105に向かう点線の矢印)、放送局103は中継器2401を介し、端末105に送信する方法があるものとする。図24では3つの経路が存在しているが、経路の個数はこれに限ったものではない。
 図25は、図24と同様にカメラ102Aで撮影したアングル(第1の映像)を3つの経路で端末105に伝送する方法があるが、新たに、別の放送局2501を配置している。なお、図1、図24と同様に動作するものについては、同一番号を付している。
 図25では、カメラ102Aで撮影したアングル(第1の映像)を、図1と同様の経路で放送局103は端末105に送信する方法(放送局103から端末105に向かう実線の矢印)に加え、これとは別の経路で放送局2501は端末105に送信する方法(放送局2501から端末105に向かう点線の矢印)、放送局2501は中継器2401を介し、端末105に送信する方法があるものとする。図25では3つの経路が存在しているが、経路の個数はこれに限ったものではない。
 図26は、図24、図25の状態における放送局と電気通信回線業者が保有する送信装置の構成の一例を示しており、図2と同様に動作するものについては、同一番号を付している。したがって、電気通信回線業者が保有する送信装置250は、実施の形態1で説明した動作(パケットレベルの符号化を行う点、遅延送信をする点など)すべてを実施することができることになる。
 送信装置2602は、第1の映像および/または音声(オーディオ)の情報2601、制御信号2603を入力とし、制御信号2603に基づき、送信方法を決定し、変調信号2604を出力し、変調信号2604はアンテナ2605から出力される。同様に、送信装置2612は、第1の映像および/または音声(オーディオ)の情報2601、制御信号2613を入力とし、制御信号2613に基づき、送信方法を決定し、変調信号2614を出力し、変調信号2614はアンテナ2615から出力される。
 送信装置2622は、第1の映像および/または音声(オーディオ)の情報2601、制御信号2623を入力とし、制御信号2613に基づき、送信方法を決定し、変調信号2624を出力する。ただし、変調信号2624は有線で端末に伝送されるものとする。
 このとき、送信装置2602、2612、2622は放送局に関連する送信装置である。なお、各送信装置の特徴的な動作については、後で説明する。
 図27は、図26とは異なる、図24、図25における放送局と電気通信回線業者が保有する送信装置の構成の一例を示しており、図2、図26と同様に動作するものについては、同一番号を付している。
 図27が、図26と異なる点は、第1の映像および/または音声(オーディオ)の情報がカメラ側から別々に送信装置2602、2612、2622に伝送される点であり、したがって、図27における2701、2712、2721はいずれも第1の映像および/または音声(オーディオ)の情報であり、送信装置2602、2612、2622の動作については、図26と同様となる。
 このとき、送信装置2602、2612、2622は放送局に関連する送信装置である。
 なお、各送信装置の特徴的な動作については、後で説明する。
 図28は、端末の構成例を示しており、図3と同様に動作するものについては同一番号を付している。図28における351から359は、図3と同様、電気通信回線業者が送信したパケットを受信する部分の構成であり。実施の形態1で説明した動作(パケットレベルの復号を行う点、データを記憶する点など)を行うことになる。
 図28の受信装置2803は、図26、図27の送信装置2602が送信した変調信号を受信するための装置、受信装置2813は、図26、図27の送信装置2612が送信した変調信号を受信するための装置、受信装置2823は、図26、図27の送信装置2622が送信した変調信号を受信するための装置となる。
 受信装置2803は、アンテナ2801で受信した受信信号2802(図26、図27の送信装置2602が送信した変調信号の受信信号)を入力とし、受信信号に含まれる制御情報を抽出するとともに、復調、物理層の誤り訂正復号、(パケットレベルの誤り訂正符号化が行われている場合は、パケットレベルの復号)等の処理を施し、パケット(またはフレーム)処理後のデータ2704と制御情報信号2705を出力する。
 同様に、受信装置2813は、アンテナ2811で受信した受信信号2812(図26、図27の送信装置2612が送信した変調信号の受信信号)を入力とし、受信信号に含まれる制御情報を抽出するとともに、復調、物理層の誤り訂正復号、(パケットレベルの誤り訂正符号化が行われている場合は、パケットレベルの復号)等の処理を施し、パケット(またはフレーム)処理後のデータ2714と制御情報信号2715を出力する。
 受信装置2823は、接続部2821に接続されたケーブルなどからの受信信号2822(図26、図27の送信装置2622が送信した変調信号の受信信号)を入力とし、受信信号に含まれる制御情報を抽出するとともに、復調、物理層の誤り訂正復号、(パケットレベルの誤り訂正符号化が行われている場合は、パケットレベルの復号)等の処理を施し、パケット(またはフレーム)処理後のデータ2724と制御情報信号2725を出力する。
 このとき、受信装置2803、2813、2823すべてが同時に動作しているとは限らない。例えば、端末のインターフェースとして、放送チャネルの選択部があれば、選択部を用いてユーザが設定したチャネルに関連する受信装置が動作することになる。これを実現するための信号が、選択信号2850であり、受信装置2803、2813、2823は、選択信号2850に基づき、動作するかどうかを決定することになる。
 信号処理部380は、パケット(またはフレーム)処理後のデータ2804、2814、2824、制御情報信号2805、2815、2825、選択信号2850を入力とし、選択信号2850に基づき、有効となるパケット(またはフレーム)処理後のデータを選択することになる。
 加えて、信号処理部380は、パケット(またはフレーム)処理後のデータ359、制御情報357を入力とし、有効となるパケット(またはフレーム)処理後のデータとパケット(またはフレーム)処理後のデータ359から表示部384に2つの映像を表示するためのデータを生成し、データ381を出力する。
 なお、各受信装置の特徴的な動作については、後で説明する。
 次に、図26、図27のように、第1の映像(および/または音声(オーディオ)の情報)を送信装置2602、2612、2622から送信するときの課題について説明する。なお、以下では、同一パケットを伝送したと仮定して説明するが、同一パケットではなく、送信装置2602、2612、2622が送信するパケットは異なる構成であってもよい。また、送信装置2602、2612、2622から送信する第1の映像のデータは、映像(オーディオ)符号化の方法、フレーム率、映像のサイズ(解像度)が異なっていてもよい。
 図29は、図26、図27の送信装置2602、2612、2622が、第1の映像(および/または音声(オーディオ)の情報)に関するパケットを送信する状況の例を示している(図29の2900)。なお、図29において、横軸は時間である。
 図26、図27の送信装置2602は、パケット「#0-1」、パケット「#0-2」、パケット「#0-3」、パケット「#0-4」、パケット「#0-5」、パケット「#0-6」、パケット「#0-7」、図26、図27の送信装置2612は、パケット「#1-1」、パケット「#1-2」、パケット「#1-3」、パケット「#1-4」、パケット「#1-5」、パケット「#1-6」、パケット「#1-7」、図26、図27の送信装置2622は、パケット「#2-1」、パケット「#2-2」、パケット「#2-3」、パケット「#2-4」、パケット「#2-5」、パケット「#2-6」、パケット「#2-7」を送信するものとする。
 このとき、図26、図27の送信装置2602、送信装置2612、送信装置2622は、いずれも、時点Tから同一時刻のパケットを送信するものとする。
 図30は、図26、図27の送信装置2602、2612、2622が図29のようにパケットを送信したときの、図28の端末がパケットを受信した様子を示している(図30の3000)。
 図30に示すように、図28の受信装置2803がパケット「#0-7」を受信完了する時点をR、図28の受信装置2813がパケット「#1-7」を受信完了する時点をR、図28の受信装置2823がパケット「#2-7」を受信完了する時点をRとする。このとき、R、R、Rは異なる値であり、それぞれの差は大きいことがある。なお、図30では、受信装置2803、2813、2823が同時に動作していると仮定しているが、実際には、同時に動作しなくてもよい。つまり、ユーザがチャネル(または送信媒体(地上放送、ケーブル放送、衛星放送))を選択した場合、それに対応する受信装置のみが動作することになる。
 このとき、第1の映像(および/または音声(オーディオ)の情報)のみを端末が表示する場合は、問題はないが、実施の形態1で説明したように、第1の映像と第2の映像とを同期させて表示する場合、端末の回路規模という点で課題が発生する。
 実施の形態1で説明したように、ユーザがマルチアングルの映像に対する違和感を感じないように、端末は、電気通信回線業者を介して伝送された第2の映像(および/または音声(オーディオ)の情報)と第1の映像(および/または音声(オーディオ)の情報)を時間的に同期させて、表示部に映像を表示させようとすることになる。このとき、ユーザがチャネル(または送信媒体(地上放送、ケーブル放送、衛星放送))を選択し、それに対応する受信装置のみが動作することになる。しかし、上記のように(図30参照)、ユーザ(端末)が選択するチャネルによって、第1の映像(および/または音声(オーディオ)の情報)のパケットの到達時間が大きく異なる。このため、特に、第2の映像のパケットの到達時間と大きく異なるチャネル(第1の映像を伝送しているチャネル)をユーザ(端末)が選択した場合、端末は、映像の同期をとるための記憶部の回路大きくなることになる。
 この課題を解決するために、図30のパケットの到達の時間差を考慮し、図26、図27の第1の映像(および/または音声(オーディオ)の情報)を伝送する送信装置2602、2612、2622が、第1の映像(および/または音声(オーディオ)の情報)の情報を送信するタイミングを異なるようにする。その様子を図31に示す。
 図31のように、図26、図27の送信装置2602は、時点Tに、第1の映像(および/または音声(オーディオ)の情報)のパケットの送信を開始する。そして、図26、図27の送信装置2612は、時点Tに、第1の映像(および/または音声(オーディオ)の情報)のパケットの送信を開始し、図26、図27の送信装置2622は、時点Tに、第1の映像(および/または音声(オーディオ)の情報)のパケットの送信を開始する。
 図32は、図31のように、図26、図27の送信装置2602、2612、2622がパケットを送信したとき、図28の端末の受信装置にパケットが到達するときの様子を示している。
 図32に示すように、図28の受信装置2823がパケット「#2-7」を受信完了する時点をZ、図28の受信装置2823がパケット「#1-7」を受信完了する時点をZとする。このとき、図28の受信装置2803がパケット「#0-7」を時点ZからZの間で受信するものとする。
 図30と図32を比較すればわかるように、図31のように、第1の映像(および/または音声(オーディオ)の情報)のパケットを送信するタイミングを図26、図27の送信装置2602、2612、2622が調整したため、端末の受信装置2803、2813、2823にそれぞれ到達する第1の映像(および/または音声(オーディオ)の情報)のパケットの到達時間差が図30のときと比較して小さくなっている。これにより、端末の記憶部の回路規模を削減することができる効果を得ることができる。
 つまり、端末の受信装置は、図26、図27の送信装置2602が送信する第1の映像(および/または音声(オーディオ)の情報)と第2の映像を時間的に同期させるのに、記憶部の回路を小さくすることができ、また、図26、図27の送信装置2612が送信する第1の映像(および/または音声(オーディオ)の情報)と第2の映像を時間的に同期させるのに、記憶部の回路を小さくすることができ、図26、図27の送信装置2622が送信する第1の映像(および/または音声(オーディオ)の情報)と第2の映像を時間的に同期させるのに、記憶部の回路を小さくすることができることになる。
 なお、図32では、受信装置2803、2813、2823が同時に動作していると仮定しているが、実際には、同時に動作しなくてもよい。つまり、ユーザがチャネル(または送信媒体(地上放送、ケーブル放送、衛星放送))を選択した場合、それに対応する受信装置のみが動作することになる。
 なお、図26、図27の送信装置2602が送信した第1の映像(および/または音声(オーディオ)の情報)と電気通信回線業者が送信した第2の映像のパケットを時間的に同期して表示するためのパケット処理、信号処理、復号処理については、実施の形態1で説明した方法と同様に実施することで実現することができる。第2の映像のパケットについては、パケットレベルの復号を行うことになり、その処理方法は、実施の形態1で説明したとおりである。
 同様に、図26、図27の送信装置2612が送信した第1の映像(および/または音声(オーディオ)の情報)と電気通信回線業者が送信した第2の映像のパケットを時間的に同期して表示するためのパケット処理、信号処理、復号処理については、実施の形態1で説明した方法と同様に実施することで実現することができる。第2の映像のパケットについては、パケットレベルの復号を行うことになり、その処理方法は、実施の形態1で説明したとおりである。
 また、図26、図27の送信装置2622が送信した第1の映像(および/または音声(オーディオ)の情報)と電気通信回線業者が送信した第2の映像のパケットを時間的に同期して表示するためのパケット処理、信号処理、復号処理については、実施の形態1で説明した方法と同様に実施することで実現することができる。第2の映像のパケットについては、パケットレベルの復号を行うことになり、その処理方法は、実施の形態1で説明したとおりである。
 なお、実施の形態1でも説明したように、さらに、第2の映像の乱れの課題を軽減するために、送信側で、遅延量を制御してもよい。
 例えば、図28の端末の信号処理部380は、各放送局(図26、図27に記載した送信装置2602、2612、2622)が送信したフレームと同時刻の電気通信回線業者が送信したパケットのそれぞれの到達時間の差(または、その統計情報)に関する情報を求め時間差情報399として出力する。そして、時間差情報399は、端末が具備する送信装置から、例えば、電気通信回線業者に送信する。
 図26、図27の電気通信回線業者の送信装置250は受信部を具備し、端末が送信した時間差情報を取得する(図2の299)。そして、パケット(またはフレーム)処理部202、222は、時間差情報299を入力とし、パケットまたはフレーム記憶部の量を変化させることで、送信するタイミングを制御し、遅延量を制御したパケット、または、フレームを出力することになる。
 なお、図26、図27において、各放送局(図26、図27に記載した送信装置2602、2612、2622)は、端末ごとに遅延量を制御することは難しい。(マルチキャストのため)したがって、電気通信回線業者の送信装置250のパケット(またはフレーム)処理部222が各端末に対する遅延量を制御することになる。ただし、電気通信回線業者の送信装置250は、各端末に対し個別にパケットを送信していない場合、つまり、マルチキャストしている場合は、各放送局(図26、図27に記載した送信装置2602、2612、2622)が遅延時間(パケットの送信タイミング)の制御を行ってもよいし、電気通信回線業者が遅延時間(パケットの送信タイミング)を制御してもよい。
 別の方法として、放送局が送信したチャネルを、端末が自動選択してもよい。例えば、図26、図27のように、第1の映像(および/または音声(オーディオ)の情報)の情報を、送信装置2602、2612、2622が送信するものとする。自動選択を行うときの端末の構成を図33に示す。なお、図33において、図3、図28と同様に動作するものについては、同一番号を付しており、詳細の説明は、省略する。
 図33において、信号処理部380は、受信装置2803が出力した第1の映像(および/または音声(オーディオ)の情報)のパケット(または、フレーム)と第2の映像のパケットの遅延時間、および、受信装置2813が出力した第1の映像(および/または音声(オーディオ)の情報)のパケット(または、フレーム)と第2の映像のパケットの遅延時間、および、受信装置2823が出力した第1の映像(および/または音声(オーディオ)の情報)のパケット(または、フレーム)と第2の映像のパケットの遅延時間に関する情報を含む信号3301を出力する。
 遅延時間解析部3302は、信号3301を入力とし、第1の映像と第2の映像を時間的に同期して表示するのに適したパケット(2804、2814、2824)の情報3303を出力する。
 選択部3306は、第1の映像と第2の映像を時間的に同期して表示するのに適したパケット(2804、2814、2824)の情報3303、ユーザが設定したチャネルの情報3304、制御信号3305を入力とし、制御信号3305により、第1の映像と第2の映像を時間的に同期して表示するのに適したパケット(2804、2814、2824)の情報3303、ユーザが設定したチャネルの情報3304のいずれかを選択し、選択信号3307として出力する。なお、制御信号3305により、第1の映像と第2の映像を時間的に同期して表示するのに適したパケット(2804、2814、2824)の情報3303が選択された場合、遅延時間解析部3302で解析した結果が反映することになる。
 そして、受信装置2803、2813、2823は、選択信号3307に基づき、動作するかどうかの判定を行うことになる。
 このようにすることで、「放送局が送信したチャネルを、端末が自動選択」が可能となる。
 以上のように、本実施の形態では、マルチアングルの第1の映像と第2の映像に対し、放送局が第1の映像を送信し、電気通信回線業者が第2の映像を送信する際、第2の映像の伝送の際に、パケットレベルでの誤り訂正符号化を行うとともに、各放送局で、第1の映像の情報を送信するタイミングを制御する。さらに、端末は、第1の映像を入手する放送局を選択することが可能な機能を有する。これにより、端末は、同期した第1の映像と第2の映像を表示することができ、また、乱れが少ない映像となるという効果を得ることができる。
 ≪実施の形態3≫
 実施の形態1、実施の形態2において、マルチアングルの第1の映像と第2の映像に対し、放送局が第1の映像を送信し、電気通信回線業者が第2の映像を送信する際、第2の映像の伝送の際に、パケットレベルでの誤り訂正符号化を行う送信方法について説明した。このとき、電気通信回線業者が、TCP(TCP/IP)、または、UDPによって、第2の映像のパケットを送信し、パケットの遅延、パケットの欠損の影響を少なくするために、パケットレベルの誤り訂正符号を導入している。
 しかし、パケットレベルの誤り訂正符号を導入しても、パケットの遅延、パケットの欠損の影響は小さいながらあり、その際、映像に乱れが生じる。特に、端末が、無線LANやセルラー方式(cellular communication system)などの無線通信を介して、第2の映像のパケットを受信した場合、映像の乱れは大きくなる可能性があり、映像が乱れた際、視聴者は、不快に感じる可能性が高い。
 本実施の形態では、この映像の乱れに対し、ユーザに与える不快感を低減する方法について説明する。
 図34は、本実施の形態における放送局、電気通信回線業者、端末の関係の一例を示している。なお、図1と同様に動作するものについては同一番号を付している。図34において、101は現場を示しており、例として、野球場、サッカー場を考える。102A、102Bはカメラを示している。カメラ102A、102Bによって、例えば、異なるアングルの映像を撮影しているものとする。
 このとき、カメラ102Aで撮影した「第1の映像および/または音声(オーディオ)の情報」を放送局103は受け取り、「第1の映像および/または音声(オーディオ)の情報」は、ケーブルなどの有線、または、無線を介して、端末105に伝送されるものとする。
 そして、カメラ102Bで撮影した「第2の映像および/または音声(オーディオ)の情報」を放送局103は受け取り、「第2の映像および/または音声(オーディオ)の情報」は、電気通信回線業者104を介して、端末105に伝送されるものとする。
 なお、「第2の映像および/または音声(オーディオ)の情報」は、放送局103を介さずに、電気通信回線業者104に直接伝送され、その後、端末105に伝送されてもよい。
 さらに情報提供者3401は、放送局に対し情報を提供し、放送局は、この情報に基づいた情報を「第1の映像および/または音声(オーディオ)の情報」とあわせて端末に送信するものとする。
 図35は、本実施の形態における、放送局と電気通信回線業者が送信するパケットの送信状況の例3500を示している。ただし、実施の形態2に示したように、複数の放送局が第1の映像のパケットを送信することができるが、図35では、一つの放送局の送信パケット(フレーム)しか示していないが、実施の形態2と同様に、複数の送信局が第1の映像パケットを送信する場合についても、以下で説明する内容を実施することは可能である。
 実施の形態1、実施の形態2と同様に、放送局は、「第1の映像および/または音声(オーディオ)の情報」送信し、電気回線通信業者は、「第2の映像および/または音声(オーディオ)の情報」を送信するものとする。
 図35において、放送局が送信する第1の映像のパケット群と電気通信回線業者が送信する第2映像のパケット群は、同一時間の映像であり、実施の形態1、実施の形態2で述べたように、端末は、時間的に同期させて、第1の映像と第2の映像を表示部に表示することになる。
 そして、放送局は、第1映像のパケット群に加え、図35に示しているように、「文字情報(電文情報)」、および/または、「静止画情報」、および/または、「URL(Uniform Resource Locator)情報」を送信するものとする。この情報は、端末が第1の映像の情報を復元できず、これに伴い、第1の映像を表示部に表示するのが困難なときに用いられ、第1の映像の代わりとなる画面を端末の表示部に表示することになる。同様に、この情報は、端末が第2の映像の情報を復元できず、これに伴い、第2の映像を表示部に表示するのが困難なときに用いられ、第2の映像の代わりとなる画面を端末の表示部に表示することになる。
 なお、図35では、放送局は、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」を送信しているが、すべての情報を送信しなくてもよく、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」のうちの一つの情報を送信してもよいし、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」のうちの二つの情報を送信してもよい。
 また、これらの情報は、送信フレームのフレーム単位に常に含むものでなくてもよい、例えば、これらの情報を、複数のフレームごとに送信してもよい。したがって、これらの情報を送信するタイミングどのようなものであってもよい。
 図36は、図35の情報を送信するときの、放送局と電気通信回線業者の送信装置の構成を示しており、図2と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2での説明と同様となるので、説明は省略する。
 パケット(またはフレーム)処理部3602は、文字情報(電文情報)、および/または、静止画情報、および/または、URL情報3601、および、第1の制御信号211を入力とし、第1の制御信号211に基づいて、パケット化・フレーム化を行い、パケット(またはフレーム)処理後の情報3603を出力する。
 物理層誤り訂正符号化部3604は、パケット(またはフレーム)処理後の情報3603、第1の制御信号211を入力とし、第1の制御信号211に含まれる物理層の誤り訂正符号化方式の情報に基づき、誤り訂正符号化を行い、誤り訂正符号化後のデータ3605を出力する。
 変調部206は、誤り訂正符号化後のデータ205、3605、第1の制御信号211を入力とし、第1の制御信号211に含まれるフレーム構成に関する情報、変調方式・送信方法に関する情報に基づき、誤り訂正符号化後のデータ205、3605に対し、マッピングを施し、ベースバンド信号207を出力する。
 図37は、図36のように送信した信号を受信する端末の受信装置の構成の一例を示しており、図3と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2での説明と同様となるので、説明は省略する。
 復調部311は、ベースバンド信号304、同期信号306、チャネル推定信号308、制御情報信号310を入力とし、制御情報信号310に含まれるフレーム構成に関する情報、変調方式・送信方法に関する情報に基づき、同期信号306、チャネル推定信号308を用いて、ベースバンド信号304を復調し、対数尤度比信号312、および、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号3701」を出力する。
 物理層誤り訂正復号部3702は、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号3701」、制御情報信号310を入力とし、制御情報信号310に含まれる誤り訂正符号化方法に関する情報に基づく復号を行い、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ3703」を出力する。
 パケット(またはフレーム)処理部3704は、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ3703」、制御情報信号310を入力とし、制御情報信号310に基づいて、パケット(またはフレーム)処理を施し、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報3705」を出力する。
 デコーダ3706は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報3705」を入力とし、文字情報(電文情報)、静止画情報、URL情報いずれかのデコードを行い、表示画面の情報3707を出力する。
 このとき、デコーダ3706は、以下のような動作となる。「文字情報(電文情報)」の場合、表示画面の情報3707は「表示部に表示する文字情報(電文情報)」となる。「静止画情報」の場合、表示画面の情報3707は「表示部に表示する静止画情報」となる。URL情報」の場合、URL先からの情報(3708)を入手し、出力することになる。
 信号処理部380は、第1の映像、第2の映像の同期した映像が得られたかどうか、を判定し、判定結果3700を出力する。
 表示部384は、映像信号383、表示画面の情報3707、判定結果3700を入力とし、判定結果3700が「第1の映像、第2の映像の同期した映像が得られた」ということを示している場合、映像信号383を表示する。判定結果3700が「第1の映像、第2の映像の同期した映像が得られていない」という情報の場合、第1の映像が得られていない場合は、第1の映像に代わって、表示画面の情報3707を表示するとともに、第2の映像を表示する。第2の映像が得られていない場合、第2の映像に代わって、表示画面の情報3707を表示する。
 図38は、図35の情報を送信するときの放送局と電気通信回線業者の送信装置の構成を示しており、図2、図36と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2、図36の説明と同様となるので説明は省略する。
 図38が図36と異なる点は、図35の第1の映像パケット群を送信する際に使用される物理層の誤り訂正符号と文字情報(電文情報)、および/または、静止画情報、および/または、URL情報を送信する際に使用される物理層の誤り訂正符号とが同一の符号であり、このため、図38では、図36における物理層誤り訂正符号化部3604がなく、物理層誤り訂正符号化部204において、文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に関する符号化も行う点である。
 図39は、図38で図35の情報を送信したときの端末の受信装置の構成の一例を示しており、図3、図37と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2、図37の説明と同様となるので説明は省略する。
 図39が図38と異なる点は、図35の第1の映像パケット群を送信する際に使用される物理層の誤り訂正符号と文字情報(電文情報)、および/または、静止画情報、および/または、URL情報を送信する際に使用される物理層の誤り訂正符号とが同一の符号であり、このため、図39では、図37における物理層誤り訂正復号部3702がなく、物理層誤り訂正復号部313において、文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に関する復号も行う点である。
 なお、図35における放送局の送信フレームにおいて、「第1のパケット群」、「文字情報(電文情報)」、「静止画情報」を時間分割で送信する例を記載しているが、これに限ったものではなく、マルチキャリア伝送方式、周波数軸上にチャネルが複数存在している場合などでは、「第1のパケット群」、「文字情報(電文情報)」、「静止画情報」を周波数分割して送信してもよい。また、時間分割、周波数分割の両者を併用してもよい。
 図40は、図35と異なる放送局と電気通信回線業者が送信パケットの送信状況の例4000を示している。ただし、実施の形態2に示したように、複数の放送局が第1の映像のパケットを送信することができるが、図40では、一つの放送局の送信パケット(フレーム)しか示していないが、実施の形態2と同様に、複数の送信局が第1の映像パケットを送信する場合についても、以下で説明する内容を実施することは可能である。
 実施の形態1、実施の形態2と同様に、放送局は、「第1の映像および/または音声(オーディオ)の情報」送信し、電気回線通信業者は、「第2の映像および/または音声(オーディオ)の情報」を送信するものとする。
 図40において、放送局が送信する第1の映像のパケット群と電気通信回線業者が送信する第2映像のパケット群は、同一時間の映像であり、実施の形態1、実施の形態2で述べたように、端末は、時間的に同期させて、第1の映像と第2の映像を表示部に表示することになる。
 そして、電気通信回線業者は、第2映像のパケット群に加え、図40に示しているように、「文字情報(電文情報)」、および/または、「静止画情報」、および/または、「URL(Uniform Resource Locator)情報」を送信するものとする。この情報は、端末が第1の映像の情報を復元できず、これに伴い、第1の映像を表示部に表示するのが困難なときに用いられ、第1の映像の代わりとなる画面を端末の表示部に表示することになる。同様に、この情報は、端末が第2の映像の情報を復元できず、これに伴い、第2の映像を表示部に表示するのが困難なときに用いられ、第2の映像の代わりとなる画面を端末の表示部に表示することになる。
 なお、図40では、電気通信回線業者は、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」を送信しているが、すべての情報を送信しなくてもよく、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」のうちの一つの情報を送信してもよいし、「文字情報(電文情報)」、「静止画情報」、「URL(Uniform Resource Locator)情報」のうちの二つの情報を送信してもよい。
 また、これらの情報は、送信フレームのフレーム単位に常に含むものでなくてもよい、例えば、これらの情報を、複数のフレームごとに送信してもよい。したがって、これらの情報を送信するタイミングどのようなものであってもよい。
 なお、図40のようにフレームを送信する場合、図34における情報提供3401は、点線で示しているように電気通信回線業者104の情報を提供していることになり、そして、電気通信回線業者104は、点線で示しているように、その情報を端末に105に送信していることになる。
 図41は、図40の情報を送信するときの、放送局と電気通信回線業者の送信装置の構成を示しており、図2と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2での説明と同様となるので、説明は省略する。
 パケット(またはフレーム)処理部4102は、文字情報(電文情報)、および/または、静止画情報、および/または、URL情報4101、および、第2の制御信号228を入力とし、第2の制御信号228に基づいて、パケット化・フレーム化を行い、パケット(またはフレーム)処理後の情報4103を出力する。
 信号処理部224は、パケット(またはフレーム)処理後の第2の映像および/または音声情報223、パケット(またはフレーム)処理後の情報4103、第2の制御信号228を入力とし、第2制御信号228に含まれる図40の電気通信回線業者の送信フレームの情報に基づき、送信信号生成のための信号処理を施し、信号処理後の信号225を出力する。
 図42は、図41のように送信した信号を受信する端末の受信装置の構成の一例を示しており、図3と同様に動作するものについては、同一番号を付しており、実施方法は、実施の形態1、実施の形態2での説明と同様となるので、説明は省略する。
 信号処理部355は、受信信号354を入力とし、第2の映像パケット群、制御情報、文字情報(電文情報)、静止画情報、URL情報の分離を行い、受信データ(第2の映像パケット群)356、制御情報357、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号4202」を出力する。
 パケット(またはフレーム)処理部4203は、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号4202」、制御情報357を入力とし、制御情報357に含まれる送信方法・誤り訂正符号化方法に関する情報等に基づく信号処理を施し、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」を出力する。
 デコーダ4205は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」を入力とし、文字情報(電文情報)、静止画情報、URL情報いずれかのデコードを行い、表示画面の情報4206を出力する。
 このとき、デコーダ4205は、以下のような動作となる。「文字情報(電文情報)」の場合、表示画面の情報4206は「表示部に表示する文字情報(電文情報)」となる。「静止画情報」の場合、表示画面の情報4206は「表示部に表示する静止画情報」となる。URL情報」の場合、URL先からの情報(4210)を入手し、出力することになる。
 信号処理部380は、第1の映像、第2の映像の同期した映像が得られたかどうか、を判定し、判定結果4201を出力する。
 表示部384は、映像信号383、表示画面の情報4206、判定結果4201を入力とし、判定結果4201が「第1の映像、第2の映像の同期した映像が得られた」ということを示している場合、映像信号383を表示する。判定結果4201が「第1の映像、第2の映像の同期した映像が得られていない」という情報の場合、第1の映像が得られていない場合は、第1の映像に代わって、表示画面の情報4206を表示するとともに、第2の映像を表示する。第2の映像が得られていない場合、第2の映像に代わって、表示画面の情報4206を表示する。
 以上のように、マルチアングルの第1の映像と第2の映像の表示に乱れが発生した場合、乱れる可能性のある映像に代わる情報を表示することにより、ユーザに与える不快感を低減できる可能性を高くすることができるという効果を得ることができる。
 ≪実施の形態4≫
 実施の形態1、実施の形態2において、マルチアングルの第1の映像と第2の映像に対し、放送局が第1の映像を送信し、電気通信回線業者が第2の映像を送信する際、第2の映像の伝送の際に、パケットレベルでの誤り訂正符号化を行う送信方法について説明した。このとき、電気通信回線業者が、TCP(TCP/IP)、または、UDPによって、第2の映像のパケットを送信し、パケットの遅延、パケットの欠損の影響を少なくするために、パケットレベルの誤り訂正符号を導入している。
 しかし、放送局が送信する第1の映像と電気通信回線業者が送信するデータを時間的に同期させる場合、消失訂正符号(パケットレベルでの誤り訂正符号化)を導入しなくてもよい場合もある。本実施の形態では、この点について説明する。
 図43は、本実施の形態における、放送局と電気通信回線業者の送信装置の構成の一例を示している。図43において、図2と同様に動作するものについては、同一番号を付している。制御部232は、送信データ4300を入力とし、送信データ4301と第2の制御信号228を出力する。なお、詳細の動作については、図44を用いて後で説明する。
 制御情報生成部4303は、送信データ4301、送信データ4302を入力とし、制御情報4302を生成し出力する。なお、詳細の動作については、図44を用いて後で説明する。
 パケット(またはフレーム)処理部222は、送信データ4301、直接電気通信回線業者に届く際の送信データ4302、第2の制御信号228を入力とし、第2の制御信号228により、送信データ4301、送信データ4302のうち、有効な送信データを選択し、パケット(またはフレーム)処理を施し、パケット(またはフレーム)処理後のデータ4304を出力する。なお、詳細の動作については、図44を用いて後で説明する。
 図44は、本実施の形態における、放送局と電気通信回線業者の送信装置送信するパケットの送信状況の例4400を示している。放送局が「第1映像のパケット群#1」(4401)を送信する際、電気通信回線業者は、制御情報4405、および、「第2映像のパケット群#1」(4406)を送信する。このとき、図43に示す電気通信回線業者の送信装置において、「第2映像のパケット群#1」(4406)生成のための消失訂正符号化(パケットレベルでの誤り訂正符号化)を実施するものとする。そして、制御情報4405には、「消失訂正符号化(パケットレベルでの誤り訂正符号化)を行ったことを示す情報」を含んでいるものとする。
 図43に示す放送局が「第1映像のパケット群#2」(4402)を送信する際、電気通信回線業者は、制御情報4407、および、「第2映像のパケット群#2」(4408)を送信する。このとき、図43に示す電気通信回線業者の送信装置において、「第2映像のパケット群#2」(4406)生成のために消失訂正符号化(パケットレベルでの誤り訂正符号化)を実施しないものとする。そして、制御情報4405には、「消失訂正符号化(パケットレベルでの誤り訂正符号化)を行っていないことを示す情報」を含んでいるものとする。
 上述で説明したように、第2の映像のパケットを送信する際、消失訂正符号化(パケットレベルでの誤り訂正符号化)を行う場合と行わない場合がある。例えば、映像符号化の圧縮率が高く、および/または、画面数が少ない(つまり、データサイズが小さい)場合、送信するパケット数を少なくすることができるので、図43の制御情報生成部4303は「消失訂正符号化を行わない」と判断することになる。逆に、映像符号化の圧縮率が低く、および/または、画素数が多い(つまり、データサイズが大きい)場合、送信するパケット数が多くなるので、図43の制御情報生成部4303は「消失訂正符号化を行う」と判断することになる。
 図43に示す放送局が「第1映像のパケット群#3」(4403)を送信する際、電気通信回線業者は、制御情報4409、および、「データパケット群」(4410)を送信する。このとき、「データパケット群」(4410)のデータは、「文字情報」「静止画情報」「URLの情報」などとなる。このとき、図43に示す電気通信回線業者の送信装置において「データパケット群」(4410)生成のために消失訂正符号化(パケットレベルでの誤り訂正符号化)を実施しないものとする。そして、制御情報4409には、「消失訂正符号化(パケットレベルでの誤り訂正符号化)を行っていないことを示す情報」を含んでいるものとする。
 「データパケット群」(4410)のデータは、「文字情報」「静止画情報」「URLの情報」などの場合、映像データと比較し、送信するデータ量が少ないため、図43の制御情報生成部4303は「消失訂正符号化を行わない」と判断することになる。
 なお、消失訂正符号化を行うか、の情報は、制御情報4302に含まれることになる。
 したがって、図43のパケット(またはフレーム)処理部222は、上記で説明したように、制御情報4302に含まれる「消失訂正符号化を行うか」の情報にもとづき、データに対し、消失訂正符号化を行うかを判断し、消失訂正符号化を行う、または行わないときに基づく処理を行うことになる。
 図42は、図43、図44のように送信した信号を受信する端末の受信装置の構成の一例を示しており、実施方法は、実施の形態1、実施の形態2、実施の形態3での説明と同様となる。
 信号処理部355は、受信信号354を入力とし、図44の制御情報(シンボル)から、電気通信回線業者が送信した情報の種類(映像データ、または、文字情報(電文情報)、または、静止画情報、または、URL情報)を判断し、受信データ(第2の映像パケット群)356、制御情報357、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号4202」を出力する。
 パケット(またはフレーム)処理部4203は、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の対数尤度比信号4202」、制御情報357を入力とし、制御情報357の情報の種類の情報が、文字情報(電文情報)、または、静止画情報、または、URL情報の場合、送信方法・誤り訂正符号化方法に関する情報等に基づく信号処理を施し、「文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」を出力する。
 デコーダ4205は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」を入力とし、文字情報(電文情報)、静止画情報、URL情報いずれかのデコードを行い、表示画面の情報4206を出力する。
 このとき、デコーダ4205は、以下のような動作となる。「文字情報(電文情報)」の場合、表示画面の情報4206は「表示部に表示する文字情報(電文情報)」となる。「静止画情報」の場合、表示画面の情報4206は「表示部に表示する静止画情報」となる。URL情報」の場合、URL先からの情報(4210)を入手し、出力することになる。
 パケット(またはフレーム)処理部358は、受信データ356、制御情報357を入力とし、制御情報357に含まれる情報の種類の情報が、第2の映像であることを示していたとき、さらに、消失訂正符号が適用されているという情報を得た場合、消失訂正復号(パケットレベルの誤り訂正復号)を行う。そして、消失訂正復号が適用されていないという情報を得た場合、消失訂正復号(パケットレベルの誤り訂正復号)は行われない。
 信号処理部380は、第2の映像が得られたかどうか、図44の制御情報(シンボル)から判定し、判定結果4201を出力する。
 表示部384は、映像信号383、表示画面の情報4206、判定結果4201を入力とし、判定結果4201が「第2の映像が得られた」ということを示している場合、映像信号383を表示する。判定結果4201が「第2の映像が得られていない」という情報の場合、表示画面の情報4206を表示する。
 以上のように、消失訂正符号(パケットレベルでの誤り訂正符号化)の適用をする場合としない場合を切り替えることで、端末は、高いデータの受信品質とデータ伝送速度の向上の両立を図ることができる(消失訂正符号化を行った場合、データの伝送速度は低下することになる)。
 ≪実施の形態5≫
 実施の形態1から実施の形態4で、消失訂正符号(パケットレベルでの誤り訂正符号化)の適用例について説明したが、本実施の形態では、消失訂正符号(パケットレベルでの誤り訂正符号化)を適用する別の例について説明する。
 図45は、本実施の形態における放送局が送信するパケットの様子を示しており、横軸は時間である。図45において、4501は事前送信パケット群であり、このパケット群(4501)を受信した端末は、このパケット群(4501)を一時的に記憶しておくことになる。なお、端末は、事前送信パケット群4501を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできないものとする。(このときの特徴については後で詳しく説明する。)これにより、映像を含む番組の受信時間帯は、一意に設定することができるという特徴をもつことになる。
 4502は映像パケット群であり、端末は、映像パケット群4502を得ることで、映像(および、音声)を表示することが可能であるものとする。(このときの特徴については後で詳しく説明する。)また、端末は、映像パケット群4502と記憶していた事前送信パケット群4501を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。
 よって、事前送信パケット群4501を保持している端末、事前送信パケット群4501を保持していない端末、いずれも、映像パケット群4502を得ることで、映像のデコードが可能となる。
 図46は、図45のように放送局がパケットを送信するのを実現する放送局の構成の一例を示しており、図2と同様に動作するものについては、同一番号を付しており、その説明は省略する。
 パケット(またはフレーム)処理部202は、第1の映像、および/または、音声の情報201、第1の制御信号211を入力とし、第1の制御信号211に基づいて、パケットレベルの誤り訂正符号化を行い、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203を出力する。なお、本実施の形態では、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203は、図45の事前送信パケット群4501と映像パケット群4502は構成されている。このとき、図45の事前送信パケット群4501と映像パケット群4502では、制御情報(端末が復調、復号、信号処理等の処理を行うのに必要となる情報)を示していないが、放送局が事前送信パケット群4501を送信する際、制御情報も送信しており(事前送信パケット群4501に制御情報は含まれている)、また、放送局が映像パケット群4502を送信する際、制御情報も送信していることになる(映像パケット群4502に制御情報は含まれている)。
 パケット振り分け部4600は、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203、第1の制御信号211を入力とし、第1の制御信号211において、「図45のような送信方法を採る」ことが示されている場合、事前(送信)パケット群4602、および、映像パケット群4603を出力する。そして、第1の制御信号211において、「図45のような送信方法を採らない」ことが示されている場合、パケット群4601を出力する。
 事前(送信)パケット蓄積部4604、事前送信パケット群4602、第1の制御信号211を入力とし、一時的に事前送信パケット群を蓄積する(ただし、蓄積しなくても動作が可能であれば、蓄積を行わない。)。そして、第1の制御信号211にもとづき、事前(送信)パケット蓄積部4604は、蓄積している事前送信パケット群を事前送信パケット群4605として出力する。
 映像パケット記憶部4607は、映像パケット群4603、第1の制御信号211を入力とし、一時的に映像パケット群を記憶する。そして、第1の制御信号211にもとづき、映像パケット記憶部4607は、記憶している映像パケット群を映像パケット群4608として出力する。
 物理層誤り訂正符号化部204は、パケット群4601、事前(送信)パケット群4605、映像パケット群4608、第1の制御信号211を入力とし、第1の制御信号211において、「図45のような送信方法を採らない」ことが示されている場合、パケット群4601に対し、物理層の誤り訂正符号化を施し、誤り訂正符号化後のデータ205を出力する。
 物理層誤り訂正符号化部204は、第1の制御信号211において、「図45のような送信方法を採る」ことが示されている場合、図45のフレームにしたがって、事前(送信)パケット群4605に対して物理層の誤り訂正符号化を施した誤り訂正符号化後のデータ、映像パケット群4608に対して物理層の誤り訂正符号化を施した誤り訂正符号化後のデータを出力することになる。
 次に、事前(送信)パケット群4602(4605)(4501)、映像パケット群4603(4608)(4502)と第1の映像、および/または、音声の情報201の関係について説明する。
 図47に、パケット群4602(4605)(4501)、映像パケット群4603(4608)(4502)と第1の映像、および/または、音声の情報201の関係の一例を示している。また、図48に、図47とは異なる、「パケット群4602(4605)(4501)、映像パケット群4603(4608)(4502)と第1の映像、および/または、音声の情報201の関係の一例」を示している。
 図47において、4701は、「第1の映像、および/または、音声の情報」を示しており、「第1の映像、および/または、音声の情報」4701のビット数をXビット(Xは自然数)とする。そして、パケットレベルでの誤り訂正符号化において、組織符号を用いる際、「第1の映像、および/または、音声の情報」4701を符号化することにより、「第1の映像、および/または、音声の情報」4702とパリティ4703を得ることになる。なお、「第1の映像、および/または、音声の情報」4701と「第1の映像、および/または、音声の情報」4702は同一のデータとなる。よって、「第1の映像、および/または、音声の情報」4702のビット数をXビット(Xは自然数)となる。そして、パリティ4703のビット数をYビット(Yは自然数)とし、Y<Xの関係が成立するものとする。
 そして、「第1の映像、および/または、音声の情報」4702から図45における映像パケット群4502を生成し、パリティ4703から図45の事前(送信)パケット群4501を生成するものとする(例えば、各パケットでは、制御情報などの付加情報を付加することになることがある)。
 図47のようにして映像パケット群と事前送信パケット群を生成した場合、上述の「端末は、事前送信パケット群4501を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできない」を満たすことになる(Y<Xを満たすので)。
 また、図47の映像パケット群の構成から、上述の「端末は、映像パケット群4502を得ることで、映像(および、音声)を表示することが可能であるものとする。」を満たすことになり、また、上述の「端末は、映像パケット群4502と記憶していた事前送信パケット群4501を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。」を実現することができる。
 図48において、4801は、「第1の映像、および/または、音声の情報」を示しており、「第1の映像、および/または、音声の情報」4801のビット数をXビット(Xは自然数)とする。
 そして、パケットレベルでの誤り訂正符号化において、組織符号、または、非組織符号を用いる際、「第1の映像、および/または、音声の情報」4801を符号化することにより、「第1データ」4802と「第2データ」4803を得るものとする。
 なお、「第1データ」4802のビット数をZビット(Zは自然数)とし、Z>Xが成立するものとする。そして、「第2データ」4803のビット数をYビット(Yは自然数)とし、Y<Xの関係が成立するものとする。
 そして、「第1データ」4802から図45における映像パケット群4502を生成し、「第2データ」4803から図45の事前(送信)パケット群4501を生成するものとする(例えば、各パケットでは、制御情報などの付加情報を付加することになることがある)。
 図48のようにして映像パケット群と事前送信パケット群を生成した場合、上述の「端末は、事前送信パケット群4501を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできない」を満たすことになる(Y<Xを満たすので)。
 また、図48の映像パケット群の構成から、上述の「端末は、映像パケット群4502を得ることで、映像(および、音声)を表示することが可能であるものとする。」を満たすことになり、また、上述の「端末は、映像パケット群4502と記憶していた事前送信パケット群4501を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。」を実現することができる。
 図49は、図45のように送信されるパケット群を受信する端末の構成の一例を示しており、図3と同様に動作するものについては、同一番号を付しており、その説明は省略する。
 記憶部4901は、受信データ314、制御情報信号310を入力とし、制御情報信号310が「受信データ314が図45の事前(送信)パケット群4501のデータである」ことを示している場合、受信データ314を記憶する。そして、記憶部4901は、指示があった場合、記憶部に記憶しているデータ(記憶データ4902)を出力する。
 パケット(またはフレーム)処理部315は、受信データ314、記憶データ4902、制御情報信号310を入力とする。
 制御情報信号310が「受信データ314が図45の事前(送信)パケット群4501のデータである」ことを示している場合、パケット(またはフレーム)処理部315は、受信データ314を無視する。
 制御情報信号310が「受信データ314が図45の映像パケット群4502のデータである」ことを示している場合。
 <a>記憶部4901が、図45の事前送信パケット群4501を記憶している場合、パケット(またはフレーム)処理部315は、受信データ314と記憶データ4902を用いて、パケットレベルの誤り訂正復号を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 <b>記憶部4901が、図45の事前送信パケット群4501を記憶していない場合、パケット(またはフレーム)処理部315は、受信データ314を用いて、パケットレベルの誤り訂正復号を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 制御情報信号310が「図45の送信方法でない」ことを示している場合、パケット(またはフレーム)処理部315は、制御情報信号310に基づき、パケット(またはフレーム)処理を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 以上のように実施することで、端末は、高いデータの受信品質を得ることができると共に、柔軟性の高い放送システム(マルチキャストシステム)を構築することができるという効果を得ることができる。
 上述では、事前(送信)パケットを放送局が送信する場合について説明したが、この方法に限ったものではない。したがって、以降では、他の送信方法を用いた場合について説明する。
 図50は、本実施の形態における放送局および電気通信回線業者の送信装置が送信するパケットの様子を示しており、横軸は時間である。図50において、5001は事前送信パケット群であり、このパケット群(5001)を電気通信回線業者の送信装置が送信する。そして、このパケット群(5001)を受信した端末は、このパケット群(5001)を一時的に記憶しておくことになる。なお、端末は、事前送信パケット群5001を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできないものとする。(このときの特徴については後で詳しく説明する。)これにより、映像を含む番組の受信時間帯は、一意に設定することができるという特徴をもつことになる。
 5002は映像パケット群であり、このパケット群(5002)を放送局が送信する。そして、端末は、映像パケット群5002を得ることで、映像(および、音声)を表示することが可能であるものとする。(このときの特徴については後で詳しく説明する。)また、端末は、映像パケット群5002と記憶していた事前送信パケット群5001を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。
 よって、事前送信パケット群5001を保持している端末、事前送信パケット群5001を保持していない端末、いずれも、映像パケット群5002を得ることで、映像のデコードが可能となる。
 図51は、図50のように放送局および電気通信回線業者の送信装置がパケットを送信するのを実現する放送局および電気通信回線業者の送信装置の構成の一例を示しており、図2と同様に動作するものについては、同一番号を付しており、その説明は省略する。
 パケット(またはフレーム)処理部202は、第1の映像、および/または、音声の情報201、第1の制御信号211を入力とし、第1の制御信号211に基づいて、パケットレベルの誤り訂正符号化を行い、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203を出力する。
 なお、本実施の形態では、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203は、図50の事前送信パケット群5001と映像パケット群5002は構成されている。このとき、図50の事前送信パケット群5001と映像パケット群5002では、制御情報(端末が復調、復号、信号処理等の処理を行うのに必要となる情報)を示していないが、電気通信回線業者の送信装置が事前送信パケット群5001を送信する際、制御情報も送信しており(事前送信パケット群5001に制御情報は含まれている)、また、放送局が映像パケット群5002を送信する際、制御情報も送信していることになる(映像パケット群5002に制御情報は含まれている)。
 パケット振り分け部5100は、パケット(またはフレーム)処理後の第1の映像、および/または、音声の情報203、第1の制御信号211を入力とし、第1の制御信号211において、「図50のような送信方法を採る」ことが示されている場合、事前(送信)パケット群5103、および、映像パケット群5102を出力する。そして、第1の制御信号211において、「図50のような送信方法を採らない」ことが示されている場合、パケット群5101を出力する。
 なお、図51では、放送局が、パケット(またはフレーム)処理部202、パケット振り分け部5100を具備している構成としているが、これに限ったものではなく、電気通信回線業者の送信装置が、パケット(またはフレーム)処理部202、パケット振り分け部5100を具備していてもよいし、別の装置が、パケット(またはフレーム)処理部202、パケット振り分け部5100を具備していてもよい。
 映像パケット記憶部5104は、映像パケット群5102、第1の制御信号211を入力とし、一時的に映像パケット群を記憶する。そして、第1の制御信号211にもとづき、映像パケット記憶部5104は、記憶している映像パケット群を映像パケット群5105として出力する。
 物理層誤り訂正符号化部204は、パケット群5101、映像パケット群5105、第1の制御信号211を入力とし、第1の制御信号211において、「図50のような送信方法を採らない」ことが示されている場合、パケット群5101に対し、物理層の誤り訂正符号化を施し、誤り訂正符号化後のデータ205を出力する。
 物理層誤り訂正符号化部204は、第1の制御信号211において、「図50のような送信方法を採る」ことが示されている場合、図50のフレームにしたがって、映像パケット群5105に対して物理層の誤り訂正符号化を施した誤り訂正符号化後のデータを出力することになる。
 電気通信回線業者の送信装置における信号処理部224は、パケット(またはフレーム)処理後の情報223、事前(送信)パケット群5103、第1の制御信号211、第2の制御信号228を入力とし、第1の制御信号211において、「図50のような送信方法を採る」ことが示されている場合、図50のフレームにしたがって、事前(送信)パケット群5103に対して信号処理を施し、信号処理後の信号225を出力する。
 それ以外の場合は、第2の制御信号228の情報にもとづき、信号処理部224は、パケット(またはフレーム)処理後の情報223に対して信号処理を施し、信号処理後の信号225を出力する。
 次に、事前(送信)パケット群5103(5001)、映像パケット群5102(5105)(5002)と第1の映像、および/または、音声の情報201の関係について説明する。
 図47に、パケット群5103(5001)、映像パケット群5102(5105)(5002)と第1の映像、および/または、音声の情報201の関係の一例を示している。また、図48に、図47とは異なる、「パケット群5103(5001)、映像パケット群5102(5105)(5002)と第1の映像、および/または、音声の情報201の関係の一例」を示している。
 図47において、4701は、「第1の映像、および/または、音声の情報」を示しており、「第1の映像、および/または、音声の情報」4701のビット数をXビット(Xは自然数)とする。そして、パケットレベルでの誤り訂正符号化において、組織符号を用いる際、「第1の映像、および/または、音声の情報」4701を符号化することにより、「第1の映像、および/または、音声の情報」4702とパリティ4703を得ることになる。なお、「第1の映像、および/または、音声の情報」4701と「第1の映像、および/または、音声の情報」4702は同一のデータとなる。よって、「第1の映像、および/または、音声の情報」4702のビット数をXビット(Xは自然数)となる。そして、パリティ4703のビット数をYビット(Yは自然数)とし、Y<Xの関係が成立するものとする。
 そして、「第1の映像、および/または、音声の情報」4702から図50における映像パケット群5002を生成し、パリティ4703から図50の事前(送信)パケット群5001を生成するものとする(例えば、各パケットでは、制御情報などの付加情報を付加することになることがある)。
 図47のようにして映像パケット群と事前送信パケット群を生成した場合、上述の「端末は、事前送信パケット群5001を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできない」を満たすことになる(Y<Xを満たすので)。
 また、図47の映像パケット群の構成から、上述の「端末は、映像パケット群5002を得ることで、映像(および、音声)を表示することが可能であるものとする。」を満たすことになり、また、上述の「端末は、映像パケット群5002と記憶していた事前送信パケット群5001を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。」を実現することができる。
 図48において、4801は、「第1の映像、および/または、音声の情報」を示しており、「第1の映像、および/または、音声の情報」4801のビット数をXビット(Xは自然数)とする。
 そして、パケットレベルでの誤り訂正符号化において、組織符号、または、非組織符号を用いる際、「第1の映像、および/または、音声の情報」4801を符号化することにより、「第1データ」4802と「第2データ」4803を得るものとする(例えば、各パケットでは、制御情報などの付加情報を付加することになることがある)。
 なお、「第1データ」4802のビット数をZビット(Zは自然数)とし、Z>Xが成立するものとする。そして、「第2データ」4803のビット数をYビット(Yは自然数)とし、Y<Xの関係が成立するものとする。
 そして、「第1データ」4802から図50における映像パケット群5002を生成し、「第2データ」4803から図50の事前(送信)パケット群5001を生成するものとする。
 図48のようにして映像パケット群と事前送信パケット群を生成した場合、上述の「端末は、事前送信パケット群5001を受信し、パケットレベルの誤り訂正復号を行っても、映像(および、音声)を得ることはできない」を満たすことになる(Y<Xを満たすので)。
 また、図48の映像パケット群の構成から、上述の「端末は、映像パケット群5002を得ることで、映像(および、音声)を表示することが可能であるものとする。」を満たすことになり、また、上述の「端末は、映像パケット群5002と記憶していた事前送信パケット群5001を用いて、パケットレベルの誤り訂正復号を行うことで、より、高いデータ(パケット)の受信品質を得ることができ、映像の乱れが少ない状態での映像のデコードが可能となる。」を実現することができる。
 図52は、図50のように送信されるパケット群を受信する端末の構成の一例を示しており、図3と同様に動作するものについては、同一番号を付しており、その説明は省略する。
 記憶部5201は、制御情報信号310、受信データ356、制御情報357を入力とし、制御情報357が「受信データ356が、図50の事前(送信)パケット群5001のデータである」ことを示している場合、受信データ356を記憶する。そして、記憶部5201は、制御情報信号310から指示があった場合、記憶部に記憶しているデータ(記憶データ5202)を出力する。
 パケット(またはフレーム)処理部358は、受信データ314、制御情報357を入力とし、制御情報357が「図50の送信方法でない」ことを示している場合、制御情報357に基づき、パケット(またはフレーム)処理を行い、パケット(またはフレーム)処理後のデータ359を出力する。
 パケット(またはフレーム)処理部315は、受信データ314、記憶データ5202、制御情報信号310を入力とする。
 制御情報信号310が「受信データ314が図50の映像パケット群5002のデータである」ことを示している場合。
 <a>記憶部5201が、図50の事前送信パケット群5001を記憶している場合、パケット(またはフレーム)処理部315は、受信データ314と記憶データ5202を用いて、パケットレベルの誤り訂正復号を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 <b>記憶部5201が、図50の事前送信パケット群5001を記憶していない場合、パケット(またはフレーム)処理部315は、受信データ314を用いて、パケットレベルの誤り訂正復号を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 制御情報信号310が「図50の送信方法でない」ことを示している場合、パケット(またはフレーム)処理部315は、制御情報信号310に基づき、パケット(またはフレーム)処理を行い、パケット(またはフレーム)処理後のデータ316を出力する。
 以上のように実施することで、端末は、高いデータの受信品質を得ることができると共に、柔軟性の高い放送システム(マルチキャストシステム)を構築することができるという効果を得ることができる。
 当然であるが、放送局は、本実施の形態以外の送信方法をとることができてもよく、その際、放送局は、本実施の形態の送信方法と本実施の形態以外の送信方法を切り替えて実施することになる。
 ≪実施の形態6≫
 実施の形態1から実施の形態5において、端末が表示部を具備する構成について説明している。しかし、端末の構成は、この構成に限ったものではなく、端末が表示部を具備するとともに表示部をもつ他の装置(表示装置と名付ける)と接続可能である構成、端末が表示部を具備しない構成などが考える。
 このような構成の端末を用いて、実施の形態1から実施の形態5を実施する場合の端末の詳細の構成について、以下では説明する。
 まず、端末が表示装置を具備し、表示部をもつ他の装置(表示装置と名付ける)と接続可能である構成の場合について説明する。
 図53は、図3、図28、図33、図37、図39、図52などの端末における表示部周辺の構成の一例を示しており、図3と同様に動作するものについては、同一番号を付している。
 デコーダ382は,データ381、制御信号5301を入力とする。そして、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第1の映像および/または音声の情報」のデコード後の映像データを図53の383として出力し、「第1の映像および/または音声の情報」のデコード後の音声データを図53の385として出力するものとする。このとき、表示部384は、第1の映像を表示する。
 加えて、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第2の映像および/または音声の情報」のデコード後の映像データを図53の5302、「第2の映像および/または音声の情報」のデコード後の音声データを図53の5303として出力するものとする。そして、「第2の映像および/または音声の情報」のデコード後の映像データを図53の5302、および、「第2の映像および/または音声の情報」のデコード後の音声データを図53の5303は、接続部5304を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 デコーダ382は,データ381、制御信号5301を入力とする。そして、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第2の映像および/または音声の情報」のデコード後の映像データを図53の383として出力し、「第2の映像および/または音声の情報」のデコード後の音声データを図53の385として出力するものとする。このとき、表示部384は、第2の映像を表示する。
 加えて、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第1の映像および/または音声の情報」のデコード後の映像データを図53の5302、「第1の映像および/または音声の情報」のデコード後の音声データを図53の5303として出力するものとする。そして、「第1の映像および/または音声の情報」のデコード後の映像データを図53の5302、および、「第1の映像および/または音声の情報」のデコード後の音声データを図53の5303は、接続部5304を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 上述の例のように、表示部384において、第1の映像、第2の映像、どちらを表示してもよいし、また、表示装置5306も、第1の映像、第2の映像、どちらを表示してもよい。表示方法については、例えば、制御信号5301により、制御すればよい。
 なお、制御信号5301には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5301に、表示部384と表示装置5306の表示タイミングを調整するための制御情報を含んでいてもよい。
 図54は、図3、図28、図33、図37、図39、図52などの端末における表示部周辺の構成の一例を示しており、図3、図53と同様に動作するものについては、同一番号を付している。
 データ分離部(「データ制御部」と呼んでもよい)5402は、データ381、制御信号5401を入力とする。そして、制御信号5401が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5402は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第1の映像および/または音声の情報」をデータ5407として出力し、「第2の映像および/または音声の情報」に関連するデータをデータ5403として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、表示部384に第1の映像が表示される。
 また、「第2の映像および/または音声の情報」に関連するデータは、接続部5404を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 データ分離部(「データ制御部」と呼んでもよい)5402は、データ381、制御信号5401を入力とする。そして、制御信号5401が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5402は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第2の映像および/または音声の情報」をデータ5407として出力し、「第1の映像および/または音声の情報」に関連するデータをデータ5403として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、表示部384に第2の映像が表示される。
 また、「第1の映像および/または音声の情報」に関連するデータは、接続部5404を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 上述の例のように、表示部384において、第1の映像、第2の映像、どちらを表示してもよいし、また、表示装置5306も、第1の映像、第2の映像、どちらを表示してもよい。表示方法については、例えば、制御信号5401により、制御すればよい。
 なお、制御信号5401には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5401に、表示部384と表示装置5306の表示タイミングを調整するための制御情報を含んでいてもよい。
 また、図54の場合、表示装置5308が、映像のデコーダを有していることになる。
 図55は、図42などの端末における表示部周辺の構成の一例を示しており、図3、図42と同様に動作するものについては、同一番号を付している。
 端末が図55の構成を具備している場合、表示部384は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 そして、表示装置5510は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 デコーダ382は、データ381、制御信号5504を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第1の映像および/または音声の情報」のデコード後の映像データを図55の383として出力し、「第1の映像および/または音声の情報」のデコード後の音声データを図55の385として出力するものとする。このとき、表示部384は、第1の映像を表示する。
 加えて、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第2の映像および/または音声の情報」のデコード後の映像データを図55の5501、「第2の映像および/または音声の情報」のデコード後の音声データを図55の5502として出力するものとする。
 そして、「第2の映像および/または音声の情報」のデコード後の映像データを図55の5501、および、「第2の映像および/または音声の情報」のデコード後の音声データを図55の5302は、選択部5505、接続部5508を介して、表示装置5510に届けられるものとする。(なお、接続5509は、無線、有線、いずれであってもよい。)表示装置5510は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 デコーダ382は、データ381、制御信号5504を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第2の映像および/または音声の情報」のデコード後の映像データを図55の383として出力し、「第2の映像および/または音声の情報」のデコード後の音声データを図55の385として出力するものとする。このとき、表示部384は、第2の映像を表示する。
 加えて、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第1の映像および/または音声の情報」のデコード後の映像データを図55の5501、「第1の映像および/または音声の情報」のデコード後の音声データを図55の5502として出力するものとする。
 そして、「第1の映像および/または音声の情報」のデコード後の映像データを図55の5501、および、「第1の映像および/または音声の情報」のデコード後の音声データを図55の5302は、選択部5505、接続部5508を介して、表示装置5510に届けられるものとする。(なお、接続5509は、無線、有線、いずれであってもよい。)表示装置5510は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 デコーダ4205は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」、URLからの情報4210、制御信号5504を入力とする。
 制御信号5504が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示部384に表示するということを示している場合、表示画面の情報4206を出力する。
 制御信号5504が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示装置5510に表示するということを示している場合、表示画面の情報5503を出力する。
 選択部5505は、信号5501、5502、5505、制御信号5504を入力とし、制御信号5504に基づいて、表示装置5510に表示する表示情報とスピーカから流す音の情報を5506、5507として出力する。
 そして、信号5506、5507は、接続部5508を介して、表示装置5510に伝送される。
 上述の例のように、表示部384において、複数の画面を表示してもよいし、また、端末は、表示装置5306に表示の一部の情報を伝送し、表示装置5306が映像(または画面)を表示してもよい。表示方法については、例えば、制御信号5504により、制御すればよい。
 なお、制御信号5504には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5504に、表示部384と表示装置5510の表示タイミングを調整するための制御情報を含んでいてもよい。
 図56は、図42などの端末における表示部周辺の構成の一例を示しており、図3、図42と同様に動作するものについては、同一番号を付している。
 端末が図56の構成を具備している場合、表示部384は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 そして、表示装置5510は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 データ分離部(データ制御部)5602は、データ381、制御信号5601を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5602は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第1の映像および/または音声の情報」をデータ5603として出力し、「第2の映像および/または音声の情報」に関連するデータをデータ5604として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、第1の映像は、表示部384に表示される候補となる(判定結果4201により、候補の映像のなかから表示部384に表示される映像が選択される)。
 そして、「第2の映像および/または音声の情報」に関連するデータは、選択部5608、接続部5611を介して、表示装置5613に届けられるものとする。(なお、接続5612は、無線、有線、いずれであってもよい。)表示装置5613は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 データ分離部(データ制御部)5602は、データ381、制御信号5601を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5602は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第2の映像および/または音声の情報」をデータ5603として出力し、「第1の映像および/または音声の情報」に関連するデータをデータ5604として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、第2の映像は、表示部384に表示される候補となる(判定結果4201により、候補の映像のなかから表示部384に表示される映像が選択される)。
 そして、「第1の映像および/または音声の情報」に関連するデータは、選択部5608、接続部5611を介して、表示装置5613に届けられるものとする。(なお、接続5612は、無線、有線、いずれであってもよい。)表示装置5613は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 データ分離部(データ制御部)5605は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」、URLからの情報4210、制御信号5601を入力とする。
 制御信号5601が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示部384に表示するということを示している場合、データ分離部(データ制御部)5605「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を信号5606として出力する。
 制御信号5601が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示装置5510に表示するということを示している場合、データ分離部(データ制御部)5605「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を信号5607として出力する。
 選択部5608は、信号5604、5607、制御信号5601を入力とし、制御信号5601に基づいて、表示装置5613に表示する表示情報とスピーカから流す音の情報を5609、5610として出力する。
 そして、信号5609、5610は、接続部5611を介して、表示装置5613に伝送される。
 上述の例のように、表示部384において、複数の画面を表示してもよいし、また、端末は、表示装置5613に表示の一部の情報を伝送し、表示装置5613が映像(または画面)を表示してもよい。表示方法については、例えば、制御信号5601により、制御すればよい。
 なお、制御信号5601には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5601に、表示部384と表示装置5613の表示タイミングを調整するための制御情報を含んでいてもよい。
 上述の例では、端末が表示部を具備するとともに、端末は他の表示装置と接続可能である場合の、実施例について説明したが、このとき、上述の実施例とは異なる場合についても、端末の表示部と他の表示装置の両者を利用し、二つの映像を表示してもよい。例えば、端末の表示部に、放送業者が送信した映像を表示し、その映像と連動した映像、または、文字情報、または、静止画(文字付きであってもよい)を、他の表示装置に表示してもよい。また、他の表示装置に放送業者が送信した映像を表示し、その映像と連動した映像、または、文字情報、または、静止画(文字付きであってもよい)を、端末の表示部に表示してもよい。そして、データ伝送の際、実施の形態5で述べたような伝送方法を適用してもよい。
 次に、端末が表示部を具備しない構成について説明する。
 図57は、図3、図28、図33、図37、図39、図52などの端末における表示部周辺の構成の一例を示しており、図3、図53と同様に動作するものについては、同一番号を付している。
 デコーダ382は,データ381、制御信号5301を入力とする。そして、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第1の映像および/または音声の情報」のデコード後の映像データを図53の383として出力し、「第1の映像および/または音声の情報」のデコード後の音声データを図53の385として出力し、接続部5701を介して、表示装置5703に伝送され、表示装置5703は、第1の映像を表示するとともに、音声を出力する(なお、接続5702は、無線、有線、いずれであってもよい)。
 加えて、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第2の映像および/または音声の情報」のデコード後の映像データを図53の5302、「第2の映像および/または音声の情報」のデコード後の音声データを図53の5303として出力するものとする。そして、「第2の映像および/または音声の情報」のデコード後の映像データを図53の5302、および、「第2の映像および/または音声の情報」のデコード後の音声データを図53の5303は、接続部5304を介して、表示装置5306に届けられるものとする(なお、接続5305は、無線、有線、いずれであってもよい)。表示装置5306は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 デコーダ382は,データ381、制御信号5301を入力とする。そして、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第2の映像および/または音声の情報」のデコード後の映像データを図53の383として出力し、「第2の映像および/または音声の情報」のデコード後の音声データを図53の385として出力し、接続部5701を介して、表示装置5703に伝送され、表示装置5703は、第2の映像を表示するとともに、音声を出力する(なお、接続5702は、無線、有線、いずれであってもよい)。
 加えて、制御信号5301が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第1の映像および/または音声の情報」のデコード後の映像データを図53の5302、「第1の映像および/または音声の情報」のデコード後の音声データを図53の5303として出力するものとする。そして、「第1の映像および/または音声の情報」のデコード後の映像データを図53の5302、および、「第1の映像および/または音声の情報」のデコード後の音声データを図53の5303は、接続部5304を介して、表示装置5306に届けられるものとする(なお、接続5305は、無線、有線、いずれであってもよい)。表示装置5306は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 上述の例のように、表示装置5306において、第1の映像、第2の映像、どちらを表示してもよいし、また、表示装置5306も、第1の映像、第2の映像、どちらを表示してもよい。表示方法については、例えば、制御信号5301により、制御すればよい。
 なお、制御信号5301には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5301に、表示装置5306と表示装置5306の表示タイミングを調整するための制御情報を含んでいてもよい。
 図58は、図3、図28、図33、図37、図39、図52などの端末における表示部周辺の構成の一例を示しており、図3、図53、図54と同様に動作するものについては、同一番号を付している。
 データ分離部(「データ制御部」と呼んでもよい)5402は、データ381、制御信号5401を入力とする。そして、制御信号5401が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5402は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第1の映像および/または音声の情報」をデータ5407として出力し、「第2の映像および/または音声の情報」に関連するデータをデータ5403として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコード後のデータ(映像、音声)383、395を出力する。そして、デコード後のデータ(映像、音声)383、395、データ5407は、接続部5801を介して、表示装置5803に伝送され(なお、接続5802は、無線、有線、いずれであってもよい。)、表示装置5803は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 また、「第2の映像および/または音声の情報」に関連するデータは、接続部5404を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 データ分離部(「データ制御部」と呼んでもよい)5402は、データ381、制御信号5401を入力とする。そして、制御信号5401が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5402は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第2の映像および/または音声の情報」をデータ5407として出力し、「第1の映像および/または音声の情報」に関連するデータをデータ5403として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコード後のデータ(映像、音声)383、395を出力する。そして、デコード後のデータ(映像、音声)383、395、データ5407は、接続部5801を介して、表示装置5803に伝送され(なお、接続5802は、無線、有線、いずれであってもよい。)、表示装置5803は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 また、「第1の映像および/または音声の情報」に関連するデータは、接続部5404を介して、表示装置5306に届けられるものとする。(なお、接続5305は、無線、有線、いずれであってもよい。)表示装置5306は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 上述の例のように、表示装置5803において、第1の映像、第2の映像、どちらを表示してもよいし、また、表示装置5306も、第1の映像、第2の映像、どちらを表示してもよい。表示方法については、例えば、制御信号5401により、制御すればよい。
 なお、制御信号5401には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示装置5803に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5401に、表示装置5803と表示装置5306の表示タイミングを調整するための制御情報を含んでいてもよい。
 また、図58の場合、表示装置5308が、映像のデコーダを有していることになる。
 図59は、図42などの端末における表示部周辺の構成の一例を示しており、図3、図42、図55と同様に動作するものについては、同一番号を付している。
 端末が図59の構成を具備している場合、表示装置5903は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 そして、表示装置5510は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 デコーダ382は、データ381、制御信号5504を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第1の映像および/または音声の情報」のデコード後の映像データを図59の383として出力し、「第1の映像および/または音声の情報」のデコード後の音声データを図59の385として出力するものとする。
 そして、信号383、385、4206は、接続部5901を介して、表示装置5903に伝送される(なお、接続5902は、無線、有線、いずれであってもよい)。
 加えて、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第2の映像および/または音声の情報」のデコード後の映像データを図59の5501、「第2の映像および/または音声の情報」のデコード後の音声データを図59の5502として出力するものとする。
 そして、「第2の映像および/または音声の情報」のデコード後の映像データを図59の5501、および、「第2の映像および/または音声の情報」のデコード後の音声データを図59の5302は、選択部5505、接続部5508を介して、表示装置5510に届けられるものとする。(なお、接続5509は、無線、有線、いずれであってもよい。)表示装置5510は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 デコーダ382は、データ381、制御信号5504を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、デコーダ382は、例えば、「第2の映像および/または音声の情報」のデコード後の映像データを図59の383として出力し、「第2の映像および/または音声の情報」のデコード後の音声データを図59の385として出力するものとする。
 そして、信号383、385、4206は、接続部5901を介して、表示装置5903に伝送される(なお、接続5902は、無線、有線、いずれであってもよい)。
 加えて、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示しているので、デコーダ382は、「第1の映像および/または音声の情報」のデコード後の映像データを図59の5501、「第1の映像および/または音声の情報」のデコード後の音声データを図59の5502として出力するものとする。
 そして、「第1の映像および/または音声の情報」のデコード後の映像データを図59の5501、および、「第1の映像および/または音声の情報」のデコード後の音声データを図59の5302は、選択部5505、接続部5508を介して、表示装置5510に届けられるものとする。(なお、接続5509は、無線、有線、いずれであってもよい。)表示装置5510は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 デコーダ4205は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」、URLからの情報4210、制御信号5504を入力とする。
 制御信号5504が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示するということを示している場合、表示画面の情報4206を出力する。
 制御信号5504が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示装置5510に表示するということを示している場合、表示画面の情報5503を出力する。
 選択部5505は、信号5501、5502、5505、制御信号5504を入力とし、制御信号5504に基づいて、表示装置5510に表示する表示情報とスピーカから流す音の情報を5506、5507として出力する。
 そして、信号5506、5507は、接続部5508を介して、表示装置5510に伝送される。
 上述の例のように、表示装置5510において、複数の画面を表示してもよいし、また、端末は、表示装置5306に表示の一部の情報を伝送し、表示装置5306が映像(または画面)を表示してもよい。表示方法については、例えば、制御信号5504により、制御すればよい。
 なお、制御信号5504には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示部384に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5504に、表示部384と表示装置5510の表示タイミングを調整するための制御情報を含んでいてもよい。
 図60は、図42などの端末における表示部周辺の構成の一例を示しており、図3、図42、図56と同様に動作するものについては、同一番号を付している。
 端末が図56の構成を具備している場合、表示装置6003は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 そして、表示装置5510は、「第1の映像を表示する」、「第2の映像を表示する」、「第1の映像および第2の映像の両者を表示する」、「{第1の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{第2の映像}および{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」、「{文字情報(電文情報)、および/または、静止画情報、および/または、URL情報に基づく表示画面}を表示する」のいずれかを実施することになる。
 データ分離部(データ制御部)5602は、データ381、制御信号5601を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5602は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第1の映像および/または音声の情報」をデータ5603として出力し、「第2の映像および/または音声の情報」に関連するデータをデータ5604として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、第1の映像のデータ383、音声データ385を出力する。
 そして、「第2の映像および/または音声の情報」に関連するデータは、選択部5608、接続部5611を介して、表示装置5613に届けられるものとする。(なお、接続5612は、無線、有線、いずれであってもよい。)表示装置5613は、第2の映像を表示する(なお、第2の音声をスピーカから流してもよい)。
 別の例を記載する。
 データ分離部(データ制御部)5602は、データ381、制御信号5601を入力とする。そして、制御信号5504が、「第1の映像および/または音声の情報」と「第2の映像および/または音声の情報」を別々の表示部に表示する、ことを示していた場合、データ分離部(データ制御部)5602は、例えば、データ381を、「第1の映像および/または音声の情報」に関連するデータと「第2の映像および/または音声の情報」に関連するデータに分離し、「第2の映像および/または音声の情報」をデータ5603として出力し、「第1の映像および/または音声の情報」に関連するデータをデータ5604として出力する。
 そして、デコーダ382は、データ5407を入力とし、デコードを行い、第2の映像のデータ383、音声データ385を出力する。
 そして、「第1の映像および/または音声の情報」に関連するデータは、選択部5608、接続部5611を介して、表示装置5613に届けられるものとする。(なお、接続5612は、無線、有線、いずれであってもよい。)表示装置5613は、第1の映像を表示する(なお、第1の音声をスピーカから流してもよい)。
 データ分離部(データ制御部)5605は、「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」、URLからの情報4210、制御信号5601を入力とする。
 制御信号5601が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示部384に表示するということを示している場合、データ分離部(データ制御部)5605「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を信号5606として出力する。
 制御信号5601が「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を表示装置5510に表示するということを示している場合、データ分離部(データ制御部)5605「パケット(またはフレーム)処理後の文字情報(電文情報)、および/または、静止画情報、および/または、URL情報の受信データ4204」またはURLからの情報4210のいずれかの情報を信号5607として出力する。
 選択部5608は、信号5604、5607、制御信号5601を入力とし、制御信号5601に基づいて、表示装置5613に表示する表示情報とスピーカから流す音の情報を5609、5610として出力する。
 そして、信号5609、5610は、接続部5611を介して、表示装置5613に伝送される。
 接続部5901は、表示装置5903と接続(5902)され、表示装置5903は、映像を表示するとともに、音声をスピーカから出力する(なお、接続5902は、無線、有線、いずれであってもよい)。
 上述の例のように、表示装置5903において、複数の画面を表示してもよいし、また、端末は、表示装置5613に表示の一部の情報を伝送し、表示装置5613が映像(または画面)を表示してもよい。表示方法については、例えば、制御信号5601により、制御すればよい。
 なお、制御信号5601には、上述のように第1の映像と第2の映像を表示する場合と、他の実施の形態で説明したように、第1の映像と第2の映像を表示装置5903に表示する場合とを切り替えることができるような制御情報を含んでいてもよい。また、制御信号5601に、表示装置5903と表示装置5613の表示タイミングを調整するための制御情報を含んでいてもよい。
 上述の例では、端末が、第1の表示装置と第2の表示装置と接続可能である場合の、実施例について説明したが、このとき、上述の実施例とは異なる場合についても、第1の表示装置と第2の表示装置の両者を利用し、二つの映像を表示してもよい。例えば、第1の表示装置に、放送業者が送信した映像を表示し、その映像と連動した映像、または、文字情報、または、静止画(文字付きであってもよい)を、第2の表示装置に表示してもよい。また、第2の表示装置に放送業者が送信した映像を表示し、その映像と連動した映像、または、文字情報、または、静止画(文字付きであってもよい)を、第1の表示装置に表示してもよい。そして、データ伝送の際、実施の形態5で述べたような伝送方法を適用してもよい。
 以上のように実施することで、端末は、高いデータの受信品質を得ることができると共に、柔軟性の高い放送システム(マルチキャストシステム)を構築することができるという効果を得ることができる。
 当然であるが、放送局は、本実施の形態以外の送信方法をとることができてもよく、その際、放送局は、本実施の形態の送信方法と本実施の形態以外の送信方法を切り替えて実施することになる。
 (補足1)
 本明細書のなかで、「映像(および/または音声(オーディオ)の情報)」という表現を行っているが、送信/受信する情報の中には映像の情報が含まれていることが前提となるケースが主の実施の形態となる。
 本明細書の中で、「音声」と記載しているが、「音声」が、オーディオ、音などであっても同様に実施することができる。
 本明細書のなかで、端末の受信装置の構成として、例えば、図3、図28、図33、図37、図39、図42、図49、図52などでは、表示部を記載しているが、端末は、表示部を具備していなくてもよい。このとき、例えば、端末として、「映像、および/または、音声のデータを出力する端子を具備する端末」、「映像、および/または、音声のデータを記録するための記憶部(ハードディスク、半導体メモリー、ディスク)を具備する端末」の構成が考えられる(このとき、映像、および/または、音声のデータとしては、端末が受信動作により得たデータ自身であってもよいし、端末が受信動作により得たデータをフォーマット変換したデータであってもよい)。
 また、端末の受信装置の構成として、例えば、図3、図28、図33、図37、図39、図42、図49、図52などでは、表示部を記載しているが、端末は、表示部を具備していないとき、端末は、「映像、および/または、音声のデータ」を出力する出力部を具備し、この出力部の表示装置を接続することで、ユーザは、映像、および/または、音声を視聴することができることになる。
 当然であるが、本明細書において説明した実施の形態、その他の内容を複数組み合わせて、実施してもよい。
 また、各実施の形態、その他の内容については、あくまでも例であり、例えば、「変調方式、誤り訂正符号化方式(使用する誤り訂正符号、符号長、符号化率等)、制御情報など」を例示していても、別の「変調方式、誤り訂正符号化方式(使用する誤り訂正符号、符号長、符号化率等)、制御情報など」を適用した場合でも同様の構成で実施することが可能である。
 そして、各パケット、各フレームには、データ(情報)に加えて、制御情報(送信方法に関する情報など)を伝送するためのシンボル、復調を実施するためのプリアンブル、パイロットシンボル、リファレンスシンボル、ユニークワード、ポストアンブル、などのシンボルが含まれていてもよい(ただし、これらのシンボルは、どのような名付け方を行ってもよく、その機能自身が重要となっている)。
 本明細書において、放送局は、無線によりデータを伝送することになるが、そのときの送信方法は、どのような送信方法であってもよく、シングルキャリアによる送信方法、OFDM(Orthogonal Frequency Division Multiplexing)方式のようなマルチキャリア伝送方法、スペクトル拡散通信方式を用いた伝送方法、プリコーディングや時空間(または時間-周波数)符号化(例えば時空間ブロック符号化(space-time block codes))の処理を行い複数の変調信号を同一時刻・同一周波数を用いて送信する伝送方法などの送信方法を用いることになる。また、放送局は、ケーブルなどの有線を用いてデータを伝送する方法を用いてもよい。
 本明細書において、電気通信回線業者の送信装置が送信するデータを有線で伝送する場合を例について説明しているが、無線によりデータを伝送する方法であってもよい。また、有線による伝送と無線による伝送の両者を用いる方式であってもよい。
 本明細書において、端末の受信装置とアンテナが別々となっている構成であってもよい。例えば、アンテナで受信した信号、または、アンテナで受信した信号に対し、周波数変換を施した信号を、ケーブルを通して、入力するインターフェースを受信装置が具備し、受信装置はその後の処理を行うことになる。
 また、受信装置が得たデータ・情報は、その後、映像や音に変換され、ディスプレイ(モニタ)に表示されたり、スピーカから音が出力されたりする。さらに、受信装置が得たデータ・情報は、映像や音に関する信号処理が施され(信号処理を施さなくてもよい)、受信装置が具備するRCA端子(映像端子、音用端子)、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、HDMI(登録商標)2.0デジタル用端子等から出力されてもよい。
 本明細書において、受信装置を具備しているのは、テレビ、ラジオ、端末、パーソナルコンピュータ、携帯電話、アクセスポイント、基地局等の通信機器であることが考えられる。また、本開示における送信装置、受信装置は、通信機能を有している機器であって、その機器が、テレビ、ラジオ、パーソナルコンピュータ、携帯電話等のアプリケーションを実行するための装置に何らかのインターフェースを解して接続できるような形態であることも考えられる。
 なお、本開示は各実施の形態に限定されず、種々変更して実施することが可能である。例えば、各実施の形態では、通信装置として行う場合について説明しているが、これに限られるものではなく、この通信方法をソフトウェアとして行うことも可能である。
 送信装置の送信アンテナ、受信装置の受信アンテナ、共に、図面で記載されている1つのアンテナは、複数のアンテナにより構成されていても良い。
 なお、例えば、上記通信方法を実行するプログラムを予めROM(Read Only Memory)に格納しておき、そのプログラムをCPU(Central Processor Unit)によって動作させるようにしても良い。
 また、上記通信方法を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAM(Random Access Memory)に記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
 そして、上記の各実施の形態などの各構成は、典型的には集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらは、個別に1チップ化されてもよいし、各実施の形態の全ての構成または一部の構成を含むように1チップ化されてもよい。
 ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
 さらに、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適応等が可能性としてあり得る。
 (補足2)
 なお、上記の実施の形態1から3では、放送局及び電気通信事業者がそれぞれ1または複数の経路(送信媒体)でコンテンツを伝送する場合を例に挙げて説明したが、例えば放送局が複数の送信媒体を用いてコンテンツを送信する場合や、電気通信事業者が複数の経路を介してコンテンツを伝送する場合においても、上記の実施の形態1から3で説明した送信タイミングの制御を適用できることは言うまでもない。
 例えば、電気通信業者#1と電気通信事業者#2が複数の経路(送信媒体)でコンテンツを伝送してもよいし、放送局#1と放送局#2が複数の経路(送信媒体)でコンテンツを伝送してもよい。なお。送信局を2としたが、それ以上の数の放送局が複数の経路(送信媒体)でコンテンツを伝送してもよい。
 また、例えば、電気通信事業者(送信局、基地局)が第1の経路を第2の経路を含む、互いに異なる複数の経路でコンテンツを送信する場合に、電気通信事業者の保有する送信装置は、送信装置がデータを送信してから第1の経路を経由して端末に到着するまでの第1の時間と送信装置がデータを送信してから第2の経路を経由して端末に到着するまでの第2の時間の差分に応じて、第1の経路で送信されるパケット群と第2の経路で送信されるパケット群のいずれか一方、または両方の送信タイミングを制御してもよい(つまり、複数の通信経路を用い、かつ、時間分割を行い(ただし、少なくとも一部のパケットが同時に送信されていてもよい)、パケット群が、端末に届けられることになる。ただし、パケット群は、本明細書で示したように、パケットレベルでの誤り訂正符号化が行われているか、パケットレベルでの誤り訂正符号化が行われているか否かを示す情報を含むことになる)。
 ここで、第1の経路と第2の経路は少なくとも経路上の一部が異なっていれば、経路上のその他の部分が同一であってもよい。また、一部の中継装置間で互いに異なる伝送媒体や互いに異なるプロトコルを使用することによって、送信装置がデータを送信してから端末に到着するまでの時間に差が生じる場合は、経路上の装置がいずれも同一であっても互いに異なる経路であるとみなして、送信タイミングの制御を行っても良い。
 一方、実際には異なる中継装置を経由する場合であっても、送信装置がデータを送信してから端末に到着するまでの時間の差が小さい場合は、それらを同一の経路であるとして扱っても良い。例えば、実際には3以上の経路を経由してコンテンツの伝送が行われるものの、当該3以上の経路を、送信装置がデータを送信してから端末に到着するまでの時間が第1の範囲に含まれる第1のグループと、送信装置がデータを送信してから端末に到着するまでの時間が第1の範囲とは異なる第2の範囲に含まれる第2のグループに分類できる場合は、第1のグループ及び第2のグループをそれぞれ第1の経路及び第2の経路とみなして、送信タイミングの制御を行っても良い。
 また、第1の経路に対してパケット群を送信する送信装置と、第2の経路に対してパケット群を送信する送信装置とは、同じであっても良いし、異なっていても良い。
 これにより、同期して再生されるコンテンツの乱れの発生を抑制することができる。また、端末における回路の規模を削減することができる。
 また、上記の実施の形態1から3では、複数のカメラで撮影されたマルチアングルの第1の映像と第2の映像を、それぞれ放送局及び電気通信事業者が送信する場合を例に挙げて説明したが、送信されるコンテンツはマルチアングルの第1の映像と第2の映像である必要は無く、それぞれの経路で伝送されたデータを同期して再生する必要があれば、実施の形態1から3で説明した送信タイミングの制御を行うことにより、同期して再生されるコンテンツの乱れの発生を抑制するという効果を得ることができる。
 例えば、同期して再生される音声と映像がそれぞれ異なる経路で伝送されてもよいし、映像を符号化して生成された符号化データを第1のストリームと第2のストリームに分離し、分離された第1のストリームと第2のストリームがそれぞれ異なる経路で送信されてもよい。ここで、第1のストリームが単独で低品質の映像として再生可能な第1階層の符号化データを含み、第2のストリームが第1階層の符号化データと組み合わせて高品質の映像として再生可能な第2階層の符号化データを含むとしてもよいし、第1のストリームと第2のストリームは共に他方のストリームに含まれる符号化データと組み合わせて再生する必要のある符号化データを含むとしてもよい。また、第1のストリームが含む符号化データの少なくとも一部について、同じ符号化データを第2のストリームが含んでいてもよい。
 なお、本補足2で説明した送信タイミングの制御方法に、実施の形態4から6のいずれか一つまたは複数を組み合わせて実施しても良いことは言うまでもない。
 なお、本開示では、マルチキャストで提供されるサービスの例を中心に説明したが、ユニキャストで提供されるサービスに適用可能なことは言うまでもない。つまり、複数の電気通信業者により、パケット群が複数の経路で送信されてもよく、このとき、各電気通信業者に対し、端末のフィードバックがあり、パケットの再送の要求を電気通信業者が受け付けてもよい。
 本開示は、例えば、放送通信連携サービスにおいて、品質のよい映像の情報を伝送する際に有用である。
 102A,102B カメラ
 103 放送局
 104 電気通信回線業者
 105 端末

Claims (2)

  1.  同期して表示される放送コンテンツと回線コンテンツを送信する方法であって、
     前記回線コンテンツを格納した複数の回線データパケットから回線パリティパケットを生成し、
     前記回線データパケット及び前記回線パリティパケットを通信回線を介して送信し、
     前記放送コンテンツを格納した複数の放送データパケットを基地局から放送波を用いて送信し、前記放送コンテンツの送出時刻は、回線コンテンツの送出時刻より所定の時間遅延されている、方法。
  2.  同期して表示される放送コンテンツと回線コンテンツを受信して再生する方法であって、
     通信回線を介して前記回線コンテンツを格納した回線データパケットと、前記回線データパケットから生成された回線パリティパケットを受信し、
     放送波を介して前記放送コンテンツを格納した放送データパケットを受信し、前記放送コンテンツの送出時刻は前記回線コンテンツの送出時刻より所定の時間遅延されており、
     前記回線データパケットの一部が受信されていない場合に、受信した前記回線データパケット及び前記回線パリティパケットを用いてパケットレベルの復号を行い、受信されていない前記回線データパケットを生成し、
     前記放送コンテンツ及び回線コンテンツをデコードし、同期して表示する、方法。
PCT/JP2014/005437 2013-10-31 2014-10-28 パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末 WO2015064082A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2015544798A JP6576827B2 (ja) 2013-10-31 2014-10-28 パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末
EP21204307.9A EP3985985A3 (en) 2013-10-31 2014-10-28 Packet reception method and apparatus
EP19217026.4A EP3657809B1 (en) 2013-10-31 2014-10-28 Packet reception method and apparatus
CN201480055236.3A CN105612757B (zh) 2013-10-31 2014-10-28 一种发送被同步显示的广播内容和线路内容的方法及内容再现方法
EP14858136.6A EP3065412B1 (en) 2013-10-31 2014-10-28 Content transmission method and content playback method
US15/134,409 US9967602B2 (en) 2013-10-31 2016-04-21 Content transmission method and content playback method
US15/942,845 US10945010B2 (en) 2013-10-31 2018-04-02 Content transmission method and content playback method
US17/160,738 US11350146B2 (en) 2013-10-31 2021-01-28 Content transmission method and content playback method
US17/727,243 US11653045B2 (en) 2013-10-31 2022-04-22 Content transmission method and content playback method
US18/131,933 US20230247242A1 (en) 2013-10-31 2023-04-07 Content transmission method and content playback method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013227397 2013-10-31
JP2013-227397 2013-10-31
JP2014-000902 2014-01-07
JP2014000902 2014-01-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/134,409 Continuation US9967602B2 (en) 2013-10-31 2016-04-21 Content transmission method and content playback method

Publications (1)

Publication Number Publication Date
WO2015064082A1 true WO2015064082A1 (ja) 2015-05-07

Family

ID=53003711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005437 WO2015064082A1 (ja) 2013-10-31 2014-10-28 パケット送信方法、コンテンツ再生方法、パケット送信システム及び端末

Country Status (5)

Country Link
US (5) US9967602B2 (ja)
EP (3) EP3985985A3 (ja)
JP (5) JP6576827B2 (ja)
CN (1) CN105612757B (ja)
WO (1) WO2015064082A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160021515A1 (en) * 2014-07-18 2016-01-21 Samsung Electro-Mechanics Co., Ltd. Electronic shelf label gateway, electronic shelf label system and communications method thereof
US11606264B2 (en) * 2021-03-24 2023-03-14 Cisco Technology, Inc. Application of network layer FEC during predicted network events

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060761A (ja) * 2006-08-30 2008-03-13 Nippon Television Network Corp 放送中継システム及びその方法
JP2012120140A (ja) 2010-11-08 2012-06-21 Panasonic Corp 送信方法、送信装置、受信方法および受信装置
JP2012129579A (ja) 2010-12-10 2012-07-05 Panasonic Corp 送信装置および受信装置
WO2012161129A1 (ja) * 2011-05-20 2012-11-29 日本放送協会 放送通信連携システム、アプリケーション管理サーバー、受信機、受信機における受信方法、および、アプリケーション管理サーバーにおけるアプリケーション管理方法
JP2013009358A (ja) * 2011-05-20 2013-01-10 Nippon Hoso Kyokai <Nhk> 放送通信連携受信装置
JP2013031556A (ja) 2011-08-02 2013-02-14 Daikoku Denki Co Ltd 遊技機用電源ユニット

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178419A (ja) * 1996-12-18 1998-06-30 Nippon Telegr & Teleph Corp <Ntt> 誤り訂正方法および装置
CN1324851C (zh) * 2002-06-11 2007-07-04 汤姆森许可贸易公司 适用于动态网络丢失条件的数据通信方法
JP4252324B2 (ja) * 2003-01-28 2009-04-08 三菱電機株式会社 受信機、放送送出装置及び補助コンテンツサーバ
JP2004266741A (ja) * 2003-03-04 2004-09-24 Sony Corp 配信システム、送信装置および方法、受信装置および方法、記録媒体、並びにプログラム
JP4328602B2 (ja) * 2003-11-20 2009-09-09 富士通株式会社 パケットエラー訂正装置及び方法
US7328393B2 (en) * 2004-04-13 2008-02-05 Cisco Technology, Inc. Forward error correction in packet networks
JP4500137B2 (ja) * 2004-09-07 2010-07-14 日本放送協会 パリティ時差送信システム、送信装置、及び受信装置
GB2440979A (en) * 2006-08-18 2008-02-20 Siemens Ag Achieving coding gain in soft handover using incremental redundancy and bit mapping techniques
JP4570602B2 (ja) * 2006-10-05 2010-10-27 株式会社タイトー 画像代替表示法,画像代替表示システムおよび該システムに用いる端末装置
KR101405975B1 (ko) * 2007-07-23 2014-06-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
AU2008298602A1 (en) * 2007-09-12 2009-03-19 Digital Fountain, Inc. Generating and communicating source identification information to enable reliable communications
US8145975B2 (en) * 2008-02-28 2012-03-27 Ip Video Communications Corporation Universal packet loss recovery system for delivery of real-time streaming multimedia content over packet-switched networks
KR101558562B1 (ko) * 2008-05-26 2015-10-07 엘지전자 주식회사 터보코드를 이용한 데이터 전송장치 및 방법
EP2214340A1 (en) * 2009-01-30 2010-08-04 Panasonic Corporation HARQ operation for macro-diversity transmissions in the downlink
WO2011001008A1 (en) * 2009-07-03 2011-01-06 Nokia Corporation A method, apparatuses and service for media transmission
FR2949931B1 (fr) * 2009-09-10 2011-08-26 Canon Kk Procedes et dispositifs de transmission d'un flux de donnees, produit programme d'ordinateur et moyen de stockage correspondants.
WO2011030477A1 (ja) * 2009-09-11 2011-03-17 パナソニック株式会社 コンテンツ送信装置、コンテンツ受信装置、コンテンツ送信プログラム、コンテンツ受信プログラム、コンテンツ送信方法、及びコンテンツ受信方法
CN102036123A (zh) * 2009-09-27 2011-04-27 科腾科技(北京)有限公司 用于单频网络数字广播电视系统的同步方法及系统
US8516333B1 (en) * 2009-11-19 2013-08-20 Viasat, Inc. Pre-interleaving for forward error correction codes
CN101702667B (zh) * 2009-11-19 2011-09-14 杭州竞天数码科技有限公司 一种基于多个网络模式的多信道同步工作方法
US8839078B2 (en) * 2010-03-05 2014-09-16 Samsung Electronics Co., Ltd. Application layer FEC framework for WiGig
KR20120084252A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
JP6018799B2 (ja) * 2011-05-20 2016-11-02 日本放送協会 放送通信連携システム
US20140214967A1 (en) 2011-08-26 2014-07-31 Nippon Hoso Kyokai Receiver and reception method
JPWO2013061526A1 (ja) * 2011-10-26 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 放送受信装置、放送受信方法およびプログラム
KR20150027891A (ko) * 2013-08-30 2015-03-13 삼성전자주식회사 전자 장치들을 이용한 콘텐트 표현 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060761A (ja) * 2006-08-30 2008-03-13 Nippon Television Network Corp 放送中継システム及びその方法
JP2012120140A (ja) 2010-11-08 2012-06-21 Panasonic Corp 送信方法、送信装置、受信方法および受信装置
JP2012129579A (ja) 2010-12-10 2012-07-05 Panasonic Corp 送信装置および受信装置
WO2012161129A1 (ja) * 2011-05-20 2012-11-29 日本放送協会 放送通信連携システム、アプリケーション管理サーバー、受信機、受信機における受信方法、および、アプリケーション管理サーバーにおけるアプリケーション管理方法
JP2013009358A (ja) * 2011-05-20 2013-01-10 Nippon Hoso Kyokai <Nhk> 放送通信連携受信装置
JP2013031556A (ja) 2011-08-02 2013-02-14 Daikoku Denki Co Ltd 遊技機用電源ユニット

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MASARU TAKECHI ET AL.: "Hybridcast o Sasaeru Gijutsu", NHK SCIENCE AND TECHNICAL RESEARCH LABORATORIES R&D REPORT, 15 May 2012 (2012-05-15), pages 20 - 27, XP055251359 *
WATARU KAMEYAMA ET AL.: "MPEG-1/MPEG-2/MPEG-4 Digital Hoso Kyokasho", vol. FIRST VO, no. 1ST ED, 1 February 2003 (2003-02-01), pages 297 - 299 , 307 TO 309, XP008182539 *

Also Published As

Publication number Publication date
EP3065412B1 (en) 2020-08-05
EP3985985A2 (en) 2022-04-20
JP2024019272A (ja) 2024-02-08
JP7092844B2 (ja) 2022-06-28
US9967602B2 (en) 2018-05-08
US20180227613A1 (en) 2018-08-09
JP7397916B2 (ja) 2023-12-13
CN105612757B (zh) 2020-06-23
US11350146B2 (en) 2022-05-31
JP6785928B2 (ja) 2020-11-18
JPWO2015064082A1 (ja) 2017-03-09
EP3985985A3 (en) 2022-05-04
US20230247242A1 (en) 2023-08-03
EP3657809A1 (en) 2020-05-27
US20160234540A1 (en) 2016-08-11
EP3065412A4 (en) 2016-09-07
JP2020010356A (ja) 2020-01-16
US20210152861A1 (en) 2021-05-20
JP2021016181A (ja) 2021-02-12
EP3065412A1 (en) 2016-09-07
US20220248070A1 (en) 2022-08-04
US10945010B2 (en) 2021-03-09
JP2022121493A (ja) 2022-08-19
US11653045B2 (en) 2023-05-16
CN105612757A (zh) 2016-05-25
JP6576827B2 (ja) 2019-09-18
EP3657809B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
US11457098B2 (en) Transmitting apparatus, receiving apparatus, and signal processing method thereof
US9900364B2 (en) Multimedia streams which use control information to associate audiovisual streams
US8151305B2 (en) Mobile television broadcast system
JP7397916B2 (ja) 受信方法および端末
JP6298305B2 (ja) 放送信号ip伝送システムおよび放送信号ip伝送方法
TW201136184A (en) Receiving apparatus, receiving method, program, and receiving system
CN106416154B (zh) 用于在广播和通信系统中发送和接收分组的方法和装置
JP6535718B2 (ja) ストリーミングサービスを提供する方法及び装置
US10448088B2 (en) Apparatus and method for transmitting and receiving signaling information in digital broadcast system
CN111447242A (zh) 发送装置和接收装置及其信号处理方法
KR102383598B1 (ko) 방송 수신 장치 및 그 신호 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14858136

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015544798

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014858136

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014858136

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE