WO2013136754A1 - 表示装置、及び送信装置 - Google Patents

表示装置、及び送信装置 Download PDF

Info

Publication number
WO2013136754A1
WO2013136754A1 PCT/JP2013/001538 JP2013001538W WO2013136754A1 WO 2013136754 A1 WO2013136754 A1 WO 2013136754A1 JP 2013001538 W JP2013001538 W JP 2013001538W WO 2013136754 A1 WO2013136754 A1 WO 2013136754A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
unit
video
display
timing
Prior art date
Application number
PCT/JP2013/001538
Other languages
English (en)
French (fr)
Inventor
泰治 佐々木
宗續 敏彦
由巳 西井
由佳 小澤
琢士 平本
良浩 氏家
智輝 小川
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/115,967 priority Critical patent/US20140079368A1/en
Publication of WO2013136754A1 publication Critical patent/WO2013136754A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • H04N5/0736Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations using digital storage buffer techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet

Definitions

  • the present invention relates to a technology for reproducing broadcast content and content accompanying it in synchronization.
  • broadcast video Video received through broadcast waves
  • communication video There is known a display device that displays them in synchronization with each other.
  • a broadcast station that transmits broadcast video is displayed so that the broadcast video is displayed in synchronization with the communication video at a timing as intended by the video producer.
  • a communication service providing station that provides display timing information (for example, PTS (Presentation Time Stamp)) indicating the timing to be displayed to each of the video frames constituting the broadcast video, transmits the broadcast video, and transmits the communication video Transmits the communication video by adding display timing information to each of the video frames constituting the communication video so that the communication video is displayed in synchronization with the broadcast video at a timing as intended by the video producer. Then, the display device displays each of the video frames constituting the received broadcast video and each of the video frames constituting the received communication video at a timing indicated by the assigned display timing information.
  • PTS Presentation Time Stamp
  • this display device displays the broadcast video and the communication video in synchronization with the timing as intended by the video producer.
  • the broadcast time of a program when the display device has already received and stored the communication video corresponding to the program transmitted from the communication service providing station, the broadcast video of the program is configured. Even if each of the video frames and each of the video frames constituting the communication video are displayed at the timing indicated by the given display timing information, these videos are displayed at the timing as intended by the video producer. They are not displayed synchronously.
  • the present invention has been made in view of such problems, and when the broadcast time of a program is changed, even when a communication video corresponding to the program has already been received and stored, the broadcast is performed. It is an object of the present invention to provide a display device that can display a video and a communication video in synchronization with each other at a timing intended by the video producer.
  • a display device that displays a separately acquired and stored image in a received stream including a plurality of video frames.
  • a receiving unit that receives a stream including a video frame and first display timing information that determines display timing for each of the video frames, and a plurality of video frames included in the stream received by the receiving unit,
  • the display timing determined by the second display timing information stored in the storage unit An acquisition unit that acquires correction information for determining a correction amount for displaying an image stored in the storage unit in synchronization with a video frame displayed on the display unit by correcting the display unit; Is further stored in the storage unit at a correction timing obtained by correcting the display timing determined by the second display timing information stored in the storage unit by a correction amount determined by the correction information acquired by the acquisition unit
  • the display device When the broadcast time of a program is changed, the display device according to the present invention having the above-described configuration communicates with the broadcast video even when the communication video corresponding to the program has already been received and stored. It is possible to display the video in synchronization with the timing as intended by the video producer.
  • Conceptual diagram of broadcasting system 100 Schematic diagram showing schematic configurations of broadcasting station 120 and communication service providing station 130 Schematic diagram showing an example of video handled by the broadcasting station 120 and the communication service providing station 130
  • A External view of display device 110
  • B Schematic diagram showing scene displaying broadcast video on screen
  • c Broadcast video and communication video are superimposed and displayed on screen synchronously.
  • a broadcast video transmitted from a broadcast station is received via a broadcast wave, and a communication video transmitted via an Internet line is received from a communication service providing station.
  • a display device that displays the received broadcast video and the received communication video synchronously at the timing intended by the video producer will be described.
  • This display device receives a communication stream including a communication video and a PTS indicating a display timing of each video frame constituting the communication video (hereinafter referred to as “communication video PTS”) from the communication service providing station.
  • a correction for correcting the display timing indicated by the broadcast video and the PTS indicating the display timing of each video frame constituting the broadcast video hereinafter referred to as “broadcast video PTS” and the communication video PTS.
  • a broadcast stream including STC_offset (System Time Counter offset) indicating the amount is received.
  • each of the video frames constituting the received broadcast video is displayed at the display timing indicated by the broadcast video PTS, and each of the video frames constituting the received communication video is displayed with respect to the display timing indicated by the communication video PTS.
  • display is performed at the display timing corrected by the correction amount indicated by STC_offset.
  • the display timing of the video frame constituting the broadcast video indicated by the broadcast video PTS is deviated from the display timing intended by the video producer for some reason.
  • the received broadcast video and the received communication video can be displayed in synchronization with the timing as intended by the video producer.
  • FIG. 1 is a conceptual diagram of a broadcasting system 100 including a broadcasting station 120, a communication service providing station 130, and a display device 110.
  • the broadcast station 120 includes a broadcast video, a broadcast video PTS, and an STC_offset indicating a correction amount for correcting the display timing indicated by the communication video PTS.
  • MPEG Motion Picture Experts Group
  • -2 TS Transport Stream
  • STC_offset is stored in PSI / SI (Program Specific Information / Service Information) such as PMT (Program Map Table) and EIT (Event Information Table).
  • PSI / SI Program Specific Information / Service Information
  • PMT Program Map Table
  • EIT Event Information Table
  • the communication service providing station 130 generates an MPEG-2 TS format communication stream including a communication video to be displayed in synchronization with the broadcast video and the communication video PTS, and the generated communication stream is transmitted to the Internet communication network 140.
  • the communication service providing station 130 generates an MPEG-2 TS format communication stream including a communication video to be displayed in synchronization with the broadcast video and the communication video PTS, and the generated communication stream is transmitted to the Internet communication network 140.
  • the display device 110 receives the broadcast stream transmitted from the broadcast station 120 from the reception antenna 111 to restore the broadcast video, and receives the communication stream transmitted from the communication service providing station 130 from the Internet communication network 140 and broadcasts it. Restore the video. Then, each video frame constituting the broadcast video is displayed at a display timing indicated by the broadcast video PTS, and each video frame constituting the communication video is displayed by STC_offset with respect to the display timing indicated by the communication video PTS. Displayed at the display timing corrected by the indicated correction amount.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the broadcasting station 120 and the communication service providing station 130.
  • the broadcast station 120 includes a broadcast video photographing unit 210, a broadcast video editing unit 211, a broadcast stream generation unit 212, a PTS timing determination unit 213, a broadcast stream storage unit 214, and an output unit 215.
  • the output unit 215 further includes an STC offset applying unit 216.
  • the communication service providing station 130 includes a communication video photographing unit 220, a communication video editing unit 221, a communication stream generation unit 222, a communication stream storage unit 224, and an output unit 225.
  • Broadcast video photographing means 210 includes a photographing device such as a video camera and has a function of photographing video and audio.
  • the broadcast video photographing means 210 is not necessarily fixed inside the broadcast station 120, and can capture video and audio outside the broadcast station 120 as necessary.
  • the broadcast video editing unit 211 includes a computer system including a processor, a memory, and the like, and has a function of editing video and audio shot by the broadcast video shooting unit 210.
  • the communication video photographing means 220 includes a photographing device such as a video camera and has a function of photographing video and audio.
  • the communication video photographing means 220 is not necessarily fixed inside the communication service providing station 130, and can take video and audio outside the communication service providing station 130 as necessary. Is.
  • the communication video editing unit 221 includes a computer system including a processor, a memory, and the like, and has a function of editing video and audio shot by the communication video shooting unit 220.
  • FIG. 3 is a schematic diagram showing an example of a video handled by the broadcasting station 120 and the communication service providing station 130.
  • the broadcast video shooting means 210 captures a video with a relatively wide field of view
  • the communication video shooting means 220 captures a video from a different viewpoint than the shooting by the broadcast video shooting means 210 (for example, a specific player) Is a zoomed-up video)
  • a video frame in which a video shot by the broadcast video shooting means 210 and a video shot by the communication video shooting means 220 are shot at the same time A case where these videos are edited assuming that they are displayed at the same time will be described as an example.
  • description of audio will be omitted and description about video will be mainly performed so that the description will not be more complicated than necessary.
  • the broadcast video photographing means 210 shoots a photographed video 301 that is a video with a relatively wide field of view.
  • the broadcast video editing unit 211 cuts out a broadcast scene from the shot video 301 shot by the broadcast video shooting unit 210 and superimposes graphics such as score information 303 on the cut out video.
  • the communication video photographing means 220 shoots a video from a different viewpoint from that taken by the broadcast video photographing means 210.
  • the communication video editing unit 221 cuts out a scene in the same time zone as the scene cut out by the broadcast video editing unit 211 from the shot video 311 shot by the communication video shooting unit 220. Graphics such as player information 313 are superimposed.
  • the PTS timing determination unit 213 includes a computer system including a processor, a memory, and the like, and has a function of determining a value of a PTS to be assigned to each of video frames constituting a video edited by the broadcast video editing unit 211.
  • the broadcast stream generation unit 212 includes a computer system including a processor, a memory, and the like.
  • the video stream is generated from the video and audio edited by the broadcast video editing unit 211 and the PTS value determined by the PTS timing determination unit 213.
  • an MPEG-2 TS format broadcast stream in which an audio stream, a subtitle stream, and a system packet are multiplexed.
  • the broadcast stream generation means 212 generates a video stream by encoding with a video codec such as MPEG-2, MPEG-4, or AVC for video, for example, and for example AC3 (Audio Code It is encoded with an audio codec such as number 3) or AAC (Advanced Audio Coding).
  • a video codec such as MPEG-2, MPEG-4, or AVC for video
  • AC3 Audio Code It is encoded with an audio codec such as number 3) or AAC (Advanced Audio Coding).
  • the broadcast stream storage unit 214 includes a storage device such as a hard disk drive, and has a function of storing the broadcast stream generated by the broadcast stream generation unit 212.
  • the communication stream generation unit 222 includes a computer system including a processor, a memory, and the like. From the video edited by the communication video editing unit 221 and the PTS determined by the PTS timing determination unit 213, a video stream and an audio stream Has a function of generating a communication stream of MPEG-2 TS format in which is multiplexed.
  • the communication stream generation unit 222 performs, for each of the video frames constituting the video edited by the communication video editing unit 221, at the same time among the video frames constituting the video edited by the broadcast video editing unit 211.
  • a communication stream is generated so that a PTS having the same value as the PTS value given to the captured video frame is given.
  • the communication stream generation unit 222 generates a video stream by encoding with a video codec such as MPEG-2 or MPEG-4 AVC, for example, for video, If it is a voice, it is encoded by an audio codec such as AC3 or AAC.
  • a video codec such as MPEG-2 or MPEG-4 AVC, for example, for video, If it is a voice, it is encoded by an audio codec such as AC3 or AAC.
  • the communication stream storage unit 224 includes a storage device such as a hard disk drive, and has a function of storing the communication stream generated by the communication stream generation unit 222.
  • the STC offset providing means 216 includes a computer system including a processor, a memory, and the like, and has the following STC offset providing function.
  • STC offset addition function (1) When the broadcast time of a program corresponding to the video stream stored in the broadcast stream storage unit 214 is changed, the broadcast video PTS for each video frame before the broadcast time is changed And the value of the broadcast video PTS for each video frame after the broadcast time is changed, and the calculated difference amount is set as STC_offset and included in the new broadcast stream.
  • the STC_offset in which the difference value is “0” is set to PSI. Function to store in / SI.
  • the output unit 215 includes a computer system including a processor, a memory, an output amplifier, and the like.
  • a broadcast stream in which STC_offset is stored in the PSI / SI by the STC offset adding unit 216 is broadcast in a predetermined format in a predetermined frequency band. It has a function of modulating to a signal and transmitting the modulated broadcast signal from the broadcast antenna 121.
  • the output unit 225 includes a computer system including a processor, a memory, and the like.
  • the output unit 225 outputs a communication stream stored in the communication stream storage unit 224 to the display device 110 via the Internet communication network 140.
  • ATC_delay Arriv Time Counter delay
  • FIG. 4A is an external view of the display device 110
  • FIG. 4B is a diagram in which the display device 110 restores the broadcast video from the received broadcast stream and displays the restored broadcast video on the screen.
  • FIG. 4C is a schematic diagram showing a scene in which the display device 110 restores the broadcast video and the communication video from the received broadcast stream and the communication stream, and restores the restored broadcast video to the restored broadcast video. It is a schematic diagram which shows the scene which superimposes an image
  • a remote controller 410 is attached to the display device 110.
  • a user who uses the display device 110 operates the display device 110 using the remote controller 410.
  • the display device 110 displays the communication video in a part of the broadcast video when the broadcast video and the communication video are displayed in synchronization with each other. Are superimposed and displayed.
  • FIG. 5 is a configuration diagram showing the configuration of the display device 110.
  • the display device 110 includes a tuner 501, a communication interface 502, an external device interface 503, a remote control interface 504, a broadcast stream decoding unit 510, a communication stream decoding unit 520, an application execution control unit 530, and a synchronization start packet.
  • the composition processing unit 570 includes a display 580 and a speaker 590.
  • the broadcast stream decoding unit 510 includes a first demultiplexing unit 511, a first audio decoder 512, a caption decoder 513, a first video decoder 514, and a system packet manager 515
  • the communication stream decoding unit 520 includes a second The multiplexer / demultiplexer 521, the second video decoder 523, and the second audio decoder 522 are configured.
  • the tuner 501 has a function of receiving and demodulating the broadcast signal transmitted from the broadcast station 120 using the reception antenna 111 and outputting the broadcast stream obtained by the demodulation to the broadcast stream decoding means 510.
  • the communication interface 502 includes, for example, a NIC (Network Interface Card), a function of receiving a communication stream output from the communication service providing station 130 from the Internet communication network 140 and outputting it to the buffer 542, and a communication service providing station.
  • the buffer 542 has a function of delaying the communication stream sent from the communication interface 502 by a delay designated by the ATC delay unit 543 and outputting the delayed signal to the communication stream decoding unit 520.
  • the ATC delay unit 543 delays the communication stream sent from the communication interface 502 to the buffer 542 by a delay value specified by the ATC_delay. It has a function of causing the stream decoding means 520 to output.
  • the external device interface 503 includes, for example, a USB (Universal Serial Bus) port and the like, receives a signal from a connected external device (for example, a camera, a motion sensor, a USB memory, etc.), and receives the received signal as an application execution control unit 530. It has the function to output to.
  • a USB Universal Serial Bus
  • the remote control interface 504 has a function of receiving a signal sent from the remote control 410 and outputting the received signal to the application execution control unit 530.
  • the first demultiplexing unit 511 separates the video stream, the audio stream, the subtitle stream, and the system packet from the broadcast stream sent from the tuner 501, and outputs the separated video stream to the first video decoder 514.
  • the separated audio stream is output to the first audio decoder 512
  • the separated caption stream is output to the caption decoder 513
  • the separated system packet is output to the system packet manager 515.
  • the second demultiplexing unit 521 separates the video stream and the audio stream from the broadcast stream sent from the buffer 542, outputs the separated video stream to the second video decoder 523, and outputs the separated audio stream to the first stream. 2 has a function of outputting to the audio decoder 522.
  • the first video decoder 514 decodes the video stream sent from the first demultiplexing unit 511, generates an uncompressed video frame, and generates the generated video frame at the PTS timing associated with the frame. And has a function of outputting to the first video plane 552.
  • the second video decoder 523 decodes the video stream sent from the second demultiplexing unit 521 to generate an uncompressed video frame, and generates the generated video frame at the PTS timing associated with the frame. It has a function of outputting to the second video plane 555.
  • the first audio decoder 512 decodes the audio stream sent from the first demultiplexing unit 511 to generate an uncompressed LPCM (Linear ⁇ ⁇ ⁇ ⁇ ⁇ Pulse1Code Modulation) type audio frame, and the generated audio frame is converted into the frame.
  • LPCM Linear ⁇ ⁇ ⁇ ⁇ ⁇ Pulse1Code Modulation
  • the second audio decoder 522 decodes the audio stream sent from the second demultiplexing unit 521, generates an uncompressed LPCM audio frame, and associates the generated audio frame with the frame. It has a function of outputting to the speech synthesis processing unit 570 at the PTS timing.
  • the subtitle decoder 513 decodes the subtitle frame sent from the first demultiplexing unit 511 to generate an uncompressed image frame, and the generated image frame is subtitled at the PTS timing associated with the image frame. It has a function of outputting to the plane 551.
  • the system packet manager 515 has the following two functions.
  • Data providing function A function that analyzes a system packet sent from the first demultiplexing unit 511 and provides data required by the application execution control unit 530 in response to a request from the application execution control unit 530.
  • the provided data includes, for example, program information stored in an EIT (encoded information type) packet, stream attribute information stored in a PMT (program map table) packet, DSM-CC (digital storage medium)? BML (broadcast Markup Language) content information provided by Command (and Control) and the like.
  • EIT encoded information type
  • PMT program map table
  • PMT program map table
  • DSM-CC digital storage medium
  • BML broadcast Markup Language
  • the system execution packet sent from the first demultiplexing unit 511 includes an application execution control signal (for example, an application execution start signal, an application execution end signal, etc.) for the application execution control unit 530
  • an application execution control signal for example, an application execution start signal, an application execution end signal, etc.
  • the application execution control unit 530 has a function of executing an application acquired by the communication interface 502.
  • the application is HTML (Hyper Text Markup Language) content
  • it is a Web browser
  • Java registered trademark
  • the application acquires program information of a currently displayed broadcast program, stream attribute information, and the like from the system packet manager 515 via a broadcast resource access API (Application Programming Interface).
  • the application controls the operation, stop, and the like of the broadcast stream decoding unit 510 and the communication stream decoding unit 520 via the playback control API.
  • the application outputs the CG image to the background plane 553 and the graphics plane 554 via the graphics drawing API.
  • the application controls the plane synthesis method in the plane synthesis processing unit 560. As a method of combining the planes, scaling such as enlargement and reduction, positioning, and the like are included with respect to the video plane.
  • the application acquires data from the external device interface 503 and the remote control interface 504, and changes the display content of the image in accordance with the user's operation to realize a graphical user interface.
  • the subtitle plane 551 is a buffer for storing the frame sent from the subtitle decoder 513
  • the first video plane 552 is a buffer for storing the frame sent from the first video decoder 514
  • the background plane 553 is a buffer for storing the background image sent from the application execution control unit 530
  • the graphics plane 554 stores the CG image sent from the application execution control unit 530.
  • the second video plane 555 is a buffer for storing the frames sent from the second video decoder 523.
  • the plane composition processing unit 560 synthesizes the images stored in the subtitle plane 551, the first video plane 552, the background plane 553, the graphics plane 554, and the second video plane 555, and generates one image. A function of outputting the generated image to a display;
  • the plane synthesis processing unit 560 superimposes the background plane 553, the first video plane 552, the second video plane 555, the caption plane 551, and the graphics plane 554 in order from the back side. Perform image composition.
  • scaling such as enlargement and reduction, positioning, and the like are performed on the video plane.
  • the speech synthesis processing unit 570 has a function of mixing the audio frame output from the first audio decoder 512 and the audio frame output from the second audio decoder 522 (superimposing sounds) and outputting the result to the speaker 590.
  • FIG. 6 shows parts of the first demultiplexing unit 511, the second demultiplexing unit 521, the first video decoder 514, the second video decoder 523, the synchronization start packet determining unit 540, and the input start control unit 541 in FIG.
  • this part is referred to as a “main video decoding unit”.
  • the first demultiplexing unit 511 includes a data buffer 601, a decoder input unit 602, a PID (Packet ID) filter 603, and a first ATC counter 620.
  • the second demultiplexing unit 521 includes a data buffer 611 and a decoder input unit 612. , A PID filter 613 and a second ATC counter 640, a first video decoder 514 is composed of TB 604, MB 605, EB 606 and video decoder 607, and a second video decoder 524 is composed of TB 614, MB 615, EB 616 and video decoder. 617.
  • a crystal resonator 660, a first STC counter 630, and a second STC counter 650, which are not described in FIG. 5, are added to the main video decoding unit.
  • Data buffer 601 and data buffer 611, decoder input device 602 and decoder input device 612, PID filter 603 and PID filter 613, first ATC counter 620 and second ATC counter 640, first STC counter 630 and second STC counter 650, TB 604 and TB 014, MB605 and MB615, EB606 and EB616, video decoder 607 and video decoder 617 have the same configuration. Therefore, here, the data buffer 601, the decoder input device 602, the PID filter 603, the first ATC counter 620, the first STC counter 630, the TB 604, the MB 605, the EB 606, and the video decoder 607 will be described.
  • the crystal resonator 660 is a resonator that oscillates at a frequency of 27 MHz using the piezoelectric effect of crystal.
  • the first ATC counter 620 is a counter that ticks the ATC time axis using the transmission of the crystal resonator 660 and has a function of incrementing the value at a frequency of 27 MHz.
  • the first STC counter 630 is a counter that ticks the STC time axis using the transmission of the crystal resonator 660 and has a function of incrementing the value at a frequency of 90 KHz.
  • the first STC counter 630 calibrates the STC time axis with the PCR value of the PCR packet at the arrival timing of the PCR (Program Clock Reference) packet output from the PID filter 603.
  • the PCR packet is continuously input, and the STC value of the STC counter is continuously calibrated with the PCR value at the timing when the PCR packet arrives. Become.
  • the data buffer 601 is a buffer for temporarily storing a stream, and has a function of outputting the stored stream to the decoder input device 602 at a timing determined by the input start control unit 541.
  • the data buffer 601 includes, for example, a DRAM (Dynamic Random Access Memory), a hard disk, and the like.
  • the decoder input unit 602 has a function of inputting a TS packet for calibrating a stream stored in the data buffer 601 to the PID filter 603 at a timing stored in the data buffer 601. If the stream stored in the data buffer 601 is a TTS (Timestamped TS) stream, the corresponding TS packet is sent to the PID filter at the timing when the ATS given to the TS packet matches the value of the ATC counter. Input to 603. In the following description, it is assumed that both the broadcast stream and the communication stream are TTS streams.
  • TTS Timestamped TS
  • the PID filter 603 has a function of outputting the TS packet sent from the decoder input device 602 to the decoder corresponding to the PID, the system packet manager 515 or the first STC counter 630 according to the PID of the TS packet. For example, if the PID value indicates an audio stream, it is output to the first audio decoder 512, and if the PID value indicates a video stream, it is output to the first video decoder 514, and the PID value is a PCR packet. Is output to the first STC counter 630.
  • TB 604 is a buffer for accumulating TS packets sent from the PID filter 603.
  • the MB 605 is a buffer for temporarily storing PES packets when outputting TS packets from the TB 604 to the EB 606.
  • a TP packet is transmitted from the TB 604 to the MB 605
  • the TS header and the adaptation field are displayed from the TS packet.
  • EB 606 is a buffer for storing a picture in an encoded state, and has a function of removing a PES packet header from a PES packet when a PES packet is transmitted from MB 605 to EB 606.
  • the video decoder 607 has a function of decoding a picture in an encoded state stored in the EB 606 for each corresponding decoding time (DTS: Decode Time Stamp), and the decoded picture corresponding to a display time (PTS). Each of the decoders has a function of outputting to the first video plane 552.
  • DTS Decode Time Stamp
  • PTS display time
  • the synchronization start packet determination unit 540 synchronizes from the packets included in the stream stored in the data buffer 601 and the packets included in the stream stored in the data buffer 611, respectively. Thus, it has a function of determining a packet for starting display (hereinafter referred to as “synchronization start TS packet”).
  • FIG. 7A is a schematic diagram showing a state in which the TTS stream of the broadcast stream is buffered in the data buffer 601 and the TTS stream of the communication stream is buffered in the data buffer 611.
  • Each box labeled V in FIG. 7A represents the first TS packet of a GOP (Group Of Pictures) included in the stream, and the number above the box stores the packet.
  • the first frame of a GOP is an I picture.
  • the box written as SI in FIG. 7A represents the SI included in the stream, and here, the STC_Offset stored in the SI is assumed to be “ ⁇ 2000”.
  • the synchronization start packet determination unit 540 stores, from the broadcast stream stored in the data buffer 601, the memory address of the TS packet at the head of the GOP, the PTS value of the TS packet of the GOP head packet, and SI. STC_Offset is acquired and a first GOP information table is generated.
  • FIG. 7B shows a first GOP information table 710 that is an example of the first GOP information table generated by the synchronization start packet determination unit 540.
  • the first GOP information table 710 is a table in which an address 711, a PTS 712, and a PTS + STC_offset 713 are associated with each other.
  • Address 711 is a memory address of the first TS packet of the GOP acquired by the synchronization start packet determination unit 540.
  • PTS 712 is the PTS value of the first TS packet of the GOP stored in the corresponding address 711.
  • PTS + STC_offset 713 is a value obtained by adding the value of STC_offset acquired by the synchronization start packet determining unit 540 to the PTS value of the corresponding PTS 712 (hereinafter referred to as “PTS + STC_offset value”).
  • the synchronization start packet determination unit 540 acquires the memory address of the first TS packet of the GOP and the PTS value of the TS packet of the GOP first packet from the communication stream stored in the data buffer 611, and A 2GOP information table is generated.
  • FIG. 7B shows a second GOP information table 720 that is an example of the second GOP information table generated by the synchronization start packet determining unit 540.
  • the second GOP information table 720 is a table in which an address 721 and a PTS 722 are associated with each other.
  • the address 721 is the same as the address 711 of the first GOP information table 710, and the PTS 722 is the same as the PTS 712 of the first GOP information table 710.
  • the synchronization start packet determining unit 540 compares the first GOP information table 710 and the second GOP information table 720, and the value of the PTS 712 is the smallest among the combinations in which the value of the PTS 712 matches the value of the PTS + STC_offset 713. Find a combination.
  • the TS packet stored at the address 711 associated with the combination of PTS + STC_offset 713 and the TS packet stored at the address 721 associated with the combination of PTS 722 are respectively transmitted in the broadcast stream.
  • the synchronization start TS packet is calculated as the synchronization start TS packet in the communication stream.
  • the TS packet stored in the memory address “500” of the data buffer 601 is calculated as the synchronization start TS packet in the broadcast stream and stored in the memory address “150” of the data buffer 611.
  • the selected TS packet is selected as the synchronization start TS packet in the communication stream.
  • the input start control unit 541 has a function of determining the timing for outputting the broadcast stream stored in the data buffer 601 to the decoder input unit 602 and the communication stream stored in the data buffer 611 to the decoder input unit 612. And a function for determining the output timing.
  • FIG. 8 illustrates the timing at which the decoder input unit 602 and the decoder input unit 612 output the TS packet sequence of the broadcast stream and the TS packet sequence of the communication stream to the PID filter 603 and the PID filter 613, respectively, It is a timing diagram which shows the timing which the video frame obtained by decoding a row
  • the broadcast stream and the communication stream are each composed of only video streams, and will be described later, such as ATC1, ATC2, STC1, STC2, and the like.
  • the numerical value, the frame rate, etc. are set ignoring the actual time unit. When actually calculating, it is necessary to consider the actual numerical unit, frame rate, and the like.
  • ATC 1 indicates an ATC time axis determined by the first ATC counter 620.
  • a TS packet string 801 of the broadcast stream indicates the timing of each TS packet output from the decoder input unit 602 on the ATC1 time axis.
  • the width of each box indicates that each TS packet has a PID filter from the decoder input unit 602.
  • the time transmitted to 603 is shown.
  • the TS packet 820 is output from the decoder input device 602 at time 1300 on the ATC 1 time axis.
  • the TS packet 820 denoted as V1 indicates the synchronization start TS packet of the broadcast stream
  • the TS packet 810 denoted as PCR1 indicates the PCR packet nearest to the synchronization start TS packet of the broadcast stream.
  • a video frame obtained by decoding the TS packet 820 is assumed to have a frame ID of 30.
  • ATC2 indicates an ATC time axis determined by the second ATC counter 640.
  • the TS packet sequence 802 of the communication stream indicates the timing of each TS packet output from the decoder input unit 612 on the ATC2 time axis, and the width of each box indicates that each TS packet is transmitted from the decoder input unit 612 to the PID filter. The time transmitted to 613 is shown.
  • the TS packet 840 is output from the decoder input unit 612 at time 3400 on the ATC2 time axis.
  • the TS packet 840 denoted by V2 indicates the synchronization start TS packet of the communication stream
  • the TS packet 830 denoted by PCR2 indicates the PCR packet nearest to the synchronization start TS packet of the communication stream.
  • the video frame obtained by decoding the TS packet 840 is assumed to have a frame ID of 30.
  • STC1 indicates an STC time axis determined by the first STC counter 630.
  • the broadcast stream frame ID 803 indicates the timing at which the video frame obtained by decoding the TS packet sequence of the broadcast stream is output to the first video plane 552.
  • a video frame having a frame ID of 30 obtained by decoding TS packet 810 is output to first video plane 552 at time 2600 on the STC1 time axis, that is, time 1600 on the ATC1 time axis. It is shown.
  • D1 is the time taken from when the TS packet is output from the decoder input unit 612 to when the corresponding decoded video frame is output to the first video plane 552. In this example, it is shown that it takes 300 on the ATC1 time axis and 300 on the STC1 time axis. A formula for calculating D1 will be described later.
  • STC2 indicates an STC time axis determined by the second STC counter 650.
  • the video stream frame ID 804 indicates the timing at which the video frame obtained by decoding the TS packet sequence of the broadcast stream is output to the second video plane 555.
  • a video frame having a frame ID of 30 obtained by decoding TS packet 840 is output to second video plane 555 at time 6600 on the STC2 time axis, that is, at time 3600 on the ATC2 time axis. It is shown.
  • D2 is the time taken from when the TS packet is output from the decoder input unit 622 until the corresponding decoded video frame is output to the second video plane 555. In this example, it is shown that it takes 200 on the ATC2 time axis and 200 on the STC2 time axis. A formula for calculating D2 will be described later.
  • a video frame obtained by decoding the TS packet 820 and a video frame obtained by decoding the TS packet 840 are simultaneously output to the first video plane 552 and the second video plane 555, respectively.
  • the timing at which the TS packet 820 is output from the decoder input unit 602 and the timing at which the TS packet 840 is output from the decoder input unit 612 need to be shifted by D1-D2.
  • the input start control unit 541 calculates the value of D1-D2, and starts synchronization of the communication stream and the synchronization start TS packet (TS packet 820 in FIG. 8) determined by the synchronization start packet determination unit 540.
  • the timing at which the TS packet 820 is output from the decoder input device 602 so that the TS packet (TS packet 840 in FIG. 8) is simultaneously output to the first video plane 552 and the second video plane 555, and TS The timing at which the broadcast stream stored in the data buffer 601 is output to the decoder input device 602, and the data buffer so that the timing at which the packet 840 is output from the decoder input device 612 is shifted by the calculated value D1-D2.
  • the communication stream stored in 611 is Determining a timing for outputting the over da input device 612.
  • a function that returns the ATS value assigned to the TS packet X is ATS (X), and a function that obtains the PCR value assigned to the TS packet X is PCR (X), and a video frame obtained by decoding the TS packet 820 is obtained.
  • D1 SyncPTS1? PCR (PCR1)? ATS (V1) + ATS (PCR1)
  • D2 SyncPTS2?
  • the broadcast video included in the TS packet sequence of the broadcast stream and the communication video included in the TS packet sequence of the communication stream are synchronized according to the timing intended by the video producer.
  • the output start timing to the decoder input device 602 for the TS packet sequence of the broadcast stream and the output start timing to the decoder input device 612 for the TS packet sequence of the communication stream were calculated and calculated.
  • output start processing for starting output of the TS packet sequence of the broadcast stream and the TS packet sequence of the communication stream is performed.
  • FIG. 9 is a flowchart of the output start process.
  • the output start process is started when the input of the broadcast stream to the data buffer 601 and the input of the communication stream to the data buffer 611 are started.
  • the synchronization start packet determination unit 540 determines the memory address of the first TS packet of the GOP and the GOP first packet from the TS packet sequence stored in the data buffer 601 in the broadcast stream.
  • the PTS value of the TS packet and the STC_Offset stored in the SI are acquired (step S900), and a first GOP information table is generated (step S910).
  • the synchronization start packet determination unit 540 determines the memory address of the first TS packet of the GOP and the PTS value of the TS packet of the GOP first packet from the TS packet sequence stored in the data buffer 611 in the communication stream. (Step S920) and a second GOP information table is generated (step S930).
  • the synchronization start packet determination unit 540 compares the first GOP information table 710 and the second GOP information table 720 to check whether or not there is a combination in which the value of the PTS 712 matches the value of the PTS + STC_offset 713 (step). S940).
  • step S940 when there is a matching combination (step S940: Yes), the synchronization start packet determining unit 540 searches for a combination having the smallest value of PTS712 from the matching combinations. Then, the TS packet stored at the address 711 associated with the combination of PTS + STC_offset 713 and the TS packet stored at the address 721 associated with the combination of PTS 722 are respectively transmitted in the broadcast stream. The synchronization start TS packet is calculated as the synchronization start TS packet in the communication stream (step S950).
  • the input start control unit 541 calculates D1-D2 (step S960), and outputs the synchronization start TS packet in the broadcast stream.
  • the output start timing to the decoder input device 612 is calculated, and output of the TS packet sequence of the broadcast stream and the TS packet sequence of the communication stream is started at the calculated output start timing (step S970).
  • the display device 110 ends the output start process when the process of step S970 ends and when there is no matching combination in the process of step S940 (step S940: No).
  • the display device 110 configured as described above displays each of the video frames constituting the communication stream at a timing obtained by adding the STC_Offset value to the PTS associated with each video frame.
  • the received broadcast video and the received communication video are displayed synchronously at the timing as intended by the video producer.
  • Display device 110 in the embodiment includes two counters, a first ATC counter 620 and a second ATC counter 640, as ATC counters, and two counters, a first STC counter 630 and a second STC counter 650, as STC counters. It was a configuration.
  • the first modified display device in the modified example 1 is an example of a configuration including one ATC counter and one STC counter.
  • the first modified display device is modified from the display device 110 in the embodiment so that the main video decoding unit is changed to the first modified main video decoding unit.
  • FIG. 10 is a block diagram of the first modified main video decoding unit.
  • the second ATC counter 640 and the second STC counter 650 are deleted from the main video modifying unit (see FIG. 6) in the embodiment, and the ATC_Offset adder 1040 is deleted. And an STC_Offset adder 1050 are added.
  • the ATC_Offset adder 1040 has a function of calculating ATC_Offset indicating the ATC offset value of the communication stream with respect to the broadcast stream, adding the calculated ATC_Offset to the ATC time sent from the first ATC counter 620, and outputting the result. .
  • the STC_Offset adder 1050 has a function of adding the STC_Offset included in the broadcast stream to the STC time sent from the first STC counter 630 and outputting it.
  • the first modified display device having the above configuration decodes the broadcast stream along the STC1 time axis, and decodes the video stream along the STC2 time axis obtained by adding STC_Offset to the STC1 time axis.
  • the received broadcast video and the received communication video are displayed synchronously at the timing as intended by the video producer.
  • the first modified display device in the first modification has a configuration corresponding to the case where the communication stream transmitted from the communication service providing station 130 is a TTS stream in the MPEG-2 TS format.
  • the second modified display device in the modified example 2 is an example of a configuration corresponding to the case where the communication stream transmitted by the communication service providing station 130 is a PES stream configured by a PES packet sequence.
  • the second modified display device is modified such that the first modified main video decoding unit is changed to the second modified main video decoding unit from the first modified display device in Modification 1.
  • FIG. 11 is a block diagram of the second modified main video decoding unit.
  • the decoder input unit 612, the PID filter 613, and the ATC_Offset adder 1040 are deleted from the first modified main video decoding unit (see FIG. 10) in Modification 1.
  • the second video decoder 523 is modified to be changed to the second video decoder 1123.
  • the second video decoder 1123 is modified such that the TB 614 and the MB 615 are deleted from the second video decoder 523 in the first modification, and the EB 616 is changed to the EB 1116.
  • the EB 1116 is a buffer for storing a picture in an encoded state, and has a function of removing a PES packet header from the PES packet when the PES packet is transmitted from the data buffer 611 to the EB 606.
  • the input start control unit 541 starts the output of the broadcast stream from the data buffer 601 to the decoder input device 602 until sufficient data is accumulated in the EB 1116 (for example, 1 second in the EB 616). This may be done after waiting until the storage capacity of the EB 1116 is full). Then, regarding the output of the communication stream from the data buffer 611 to the EB 1116, data is continuously output so that the EB 1116 does not underflow.
  • the second modified display device having the above configuration decodes the broadcast stream along the STC1 time axis, and STC2 time axis obtained by adding STC_Offset to the STC1 time axis.
  • the video stream is decoded according to the above.
  • the received broadcast video and the received communication video are displayed synchronously at the timing as intended by the video producer.
  • the display device 110 in the embodiment has a configuration in which the plane synthesis processing unit 560 synthesizes the video frame output from the first video decoder 514 and the video frame output from the second video decoder 523.
  • the third modified display device is an example of a configuration in which the video frame output from the first video decoder 514 and the video frame output from the second video decoder 523 are multiplexed again.
  • the third modified display device is modified such that the main video decoding unit is changed to the third modified main video decoding unit from the display device 110 in the embodiment.
  • FIG. 12 is a block diagram of the third modified main video decoding unit.
  • the plane synthesis processing unit 560, the video decoder 607, and the video decoder 617 are deleted from the main video deformation unit (see FIG. 6) in the embodiment.
  • a multiplexer 1260 and a TS player 1270 are modified to be added.
  • the multiplexer 1260 generates a TS packet sequence (hereinafter referred to as “second broadcast stream”) from the video frame sequence in the encoded state output from the EB 606, and outputs the encoded state from the EB 616.
  • second broadcast stream a TS packet sequence
  • the multiplexer 1260 multiplexes the second broadcast stream and the second communication stream
  • the multiplexer 1260 doubles the system rate of the second broadcast stream and the system rate of the second communication stream.
  • FIG. 13 (a) is a timing chart showing the timing of the TS packet sequence of the second broadcast stream and the TS packet sequence of the second communication stream before the system rate is doubled.
  • the system rate before double speed is 24 Mbps.
  • Each box indicates a TS packet constituting a TS packet sequence, and dt which is the width of each box indicates a time from when each TS packet is input to the PID filter until it is output.
  • dt It is 188 ⁇ 8/240000000.
  • FIG. 13B is a timing diagram showing the timing of the TS packet sequence of the second broadcast stream and the TS packet sequence of the second communication stream after the system rate is doubled.
  • the system rate is doubled from 24 Mbps to 48 Mbps.
  • dt 188 ⁇ 8/480000000.
  • FIG. 13C is a timing diagram showing the timing of the TS packet sequence of the composite stream.
  • the second broadcast stream and the second broadcast stream can be multiplexed with the second broadcast stream by multiplexing the system rate of the second broadcast stream and the system rate of the second communication stream. Multiplexing with two communication streams can be performed relatively easily.
  • the conversion method from ATC2 to ATC1 includes, for example, a method of calculating ATC_Offset described in the first modification.
  • the TS player 1270 separates the second broadcast stream and the second communication stream from the combined stream sent from the multiplexer 1260 and includes the video frame and the second communication stream included in the second broadcast stream. The function of outputting in synchronization with the video frame to be output.
  • the combined stream generated by the multiplexer 1260 is multiplexed with the STC_offset added.
  • the composite stream generated by the multiplexer 1260 is the same as a normal TS stream. Therefore, the composite stream generated by the multiplexer 1260 can be stored on an optical disk or the like and played back by another playback device.
  • the display device 110 in the embodiment is configured to perform synchronous display of broadcast video and communication video using four time axes of ATC1, ATC2, STC1, and STC2.
  • the fourth modified display device in the modified example 4 is configured to perform synchronized display of broadcast video and communication video using a total of five time axes obtained by adding the AbsTime time axis to these four time axes. It is an example.
  • the fourth modified display device is modified so that the main video decoding unit is changed to the fourth modified main video decoding unit from the display device 110 in the embodiment.
  • FIG. 14 is a block diagram of the fourth modified main video decoding unit.
  • the synchronization start packet determination unit 540 and the input start control unit 541 are deleted from the main video deformation unit (see FIG. 6) in the embodiment, and synchronization is performed.
  • the start packet determination unit 1440, the synchronization start packet determination unit 1450, the input start control unit 1441, the input start control unit 1451, the crystal resonator 1460, the AbsTime counter 1410, and the AbsTime counter 1411 are modified.
  • the components above the broken line are stored in a first housing (for example, a television receiver), and the components below the broken line are stored in a second housing (for example, a tablet terminal).
  • a first housing for example, a television receiver
  • a second housing for example, a tablet terminal
  • the crystal resonator 1460 is an oscillator that oscillates at a frequency of 27 MHz by utilizing the piezoelectric effect of crystal, similarly to the crystal resonator 660.
  • the AbsTime counter 1410 and the AbsTime counter 1411 are counters that divide the AbsTime time axis using the transmission of the crystal resonator 660 and the crystal resonator 1460, respectively, and have a function of incrementing the value at a frequency of 27 MHz.
  • AbsTime is RTC (Real Time Clock).
  • the AbsTime counter 1410 and the AbsTime counter 1411 have a function of communicating with each other, and using NTP (Network14Time Protocol) or the like, AbsTime countered by the AbsTime counter 1410 and AbsTime counter recorded by the AbsTime counter 1410 are It is matched.
  • NTP Network14Time Protocol
  • the synchronization start packet determination unit 1440 and the synchronization start packet determination unit 1450 have a function of communicating with each other, and the block including the synchronization start packet determination unit 1440 and the synchronization start packet determination unit 1450 is the synchronization start packet in the embodiment.
  • a function equivalent to that of the determination unit 540 is realized.
  • the input start control unit 1441 and the input start control unit 1451 have a function of communicating with each other, and a block including the input start control unit 1441 and the input start control unit 1451 is equivalent to the input start control unit 541 in the embodiment. Realize the function.
  • the input start control unit 1441 and the input start control unit 1451 realize the function of determining the timing to output the broadcast stream stored in the data buffer 601 to the decoder input unit 602 and store it in the data buffer 611.
  • a total of five time axes are used by adding the AbsTime time axis to the four time axes of ATC1, ATC2, STC1, and STC2. To do.
  • FIG. 15 is a timing diagram in which a time axis AbsTime is added to the timing diagram of FIG. This figure shows a case where SyncAbsTime, which is a value on the AbsTime time axis at which synchronous playback is started, is 5600.
  • the input start timing of the broadcast stream synchronization start TS packet (V1) to the decoder input device 602 on the AbsTime time axis is InputAbsTime1.
  • the input start timing on the AbsTime time axis of the broadcast stream synchronization start TS packet (V2) to the decoder input unit 612 is InputAbsTime2.
  • the input start control unit 1441 starts inputting the synchronization start TS packet (V1) of the broadcast stream to the decoder input device 602 at the timing of InputAbsTime1.
  • the input start control unit 1451 starts input of the synchronization start TS packet (V2) of the communication stream to the decoder input device 612 at the timing of InputAbsTime2. Thereby, it becomes possible to start displaying each video frame in synchronization with each other at the timing of SyncAbsTime.
  • the image stored in the first video plane 552 is displayed on the display provided in the first housing, and the image stored in the second video plane 555 is displayed in the first display.
  • the received broadcast video and the received communication video are synchronized with the timing as intended by the video producer, respectively, It is possible to display with two housings.
  • the first modified display device in the modified example 1 has a configuration corresponding to the case where the communication stream transmitted by the communication service providing station 130 is in the MPEG-2 TS format.
  • the fifth modified display device in the modified example 5 is an example of a configuration corresponding to the case where the communication service providing station 130 transmits graphics data to be displayed in synchronization with the broadcast video.
  • graphics data for example, information on players such as player names when the broadcast video is a soccer game can be considered.
  • the fifth modified display device is modified such that the first modified main video decoding unit is changed to the fifth modified main video decoding unit from the first modified display device in Modification 1.
  • FIG. 16 is a block diagram of the fifth modified main video decoding unit.
  • the fifth modified main video decoding unit includes a data buffer 611, a decoder input unit 612, a PID filter 613, and a TB 614 from the first modified main video decoding unit (see FIG. 10) in Modification 1.
  • the MB 615, the EB 616, the video decoder 617, the second video plane 555, and the ATC_Offset adder 1040 are deleted, and the application execution control unit 530 and the graphics plane 554 are added.
  • the application execution control unit 530 executes the application, draws a CG image from the CG image data acquired by the communication interface 502, and outputs the CG image to the graphics plane 554.
  • FIG. 17A is a data configuration diagram showing an example of the data configuration of CG image data.
  • the CG image data is drawing instruction data to which DTS and PTS are assigned.
  • the drawing instruction data is script code.
  • the application format is HTML, it is a drawing code for JavaScript (registered trademark) graphics.
  • the application execution control unit 530 starts drawing at the DTS timing on the time axis of STC2 output from the STC_Offset adder 1050 by executing the application, and outputs the drawn CG image to the graphics plane 554.
  • the application acquires the current time with a function such as GetCurrentTime (stc) and starts drawing at the timing indicated by DTS.
  • a function such as GetCurrentTime (stc)
  • the application draws at a specified time (outputPTS) with a function such as SyncBuffer (outputPTS).
  • outputPTS SyncBuffer
  • the graphics plane 554 has a double buffer structure.
  • FIG. 17B is a timing chart showing the timing of drawing and displaying a CG image.
  • the application execution control unit 530 starts drawing in one of the double buffers of the graphics plane 554 at the timing indicated by the DTS, and the graphics plane 554 The drawn CG image is displayed at the timing indicated by PTS.
  • the graphics plane 554 has a double buffer structure, so that a smooth display of a CG image can be realized.
  • the application execution control unit 530 may realize these functions by executing an application instead of the synchronization start packet determination unit 540 and the input start control unit 541.
  • a GOP information table is acquired by a function such as GetGOPTable (gop_table)
  • a synchronization start TS packet is determined based on PTS or the like included in the acquired GOP information table
  • SetStartPTS pts
  • SetStartFrameID frameID
  • the fifth modified display device having the above configuration decodes the broadcast stream along the STC1 time axis and, similarly to the first modified display device in the first modification, STC2 time axis obtained by adding STC_Offset to the STC1 time axis. A CG image is drawn and output along the line. Thus, the received broadcast video and the received CG image are displayed in synchronization with the timing as intended by the video producer.
  • STC2 time axis obtained by adding STC_Offset to the STC1 time axis.
  • a CG image is drawn and output along the line.
  • the received broadcast video and the received CG image are displayed in synchronization with the timing as intended by the video producer.
  • the sixth modified display device is an example of a configuration in which a graphics engine, which is a hardware accelerator for drawing a CG image, is added to the fifth modified display device in the modified example 5.
  • the sixth modified display device is modified such that the fifth modified main video decoding unit is changed to the sixth modified main video decoding unit from the fifth modified display device in the modified example 5.
  • FIG. 18 is a block diagram of the sixth modified main video decoding unit.
  • the sixth modified main video decoding unit is modified from the fifth modified main video decoding unit (see FIG. 16) in Modification 5 so that an EB 1840 and a graphics engine 1850 are added. ing.
  • EB 1840 is a buffer for storing CG image data.
  • the application execution control unit 530 stores the CG image data acquired by the communication interface 502 in the EB 1840 by executing the application.
  • the graphics engine 1850 has a function of drawing from the CG image data stored in the EB 1840 at the timing indicated by the DTS and outputting it to the graphics plane 554.
  • ⁇ Modification 7> ⁇ Overview>
  • a seventh modified display device obtained by modifying a part of the display device 110 in the embodiment will be described.
  • Display device 110 in the embodiment corresponds to a case in which the frame ID of the first video frame of the GOP that starts synchronization in the broadcast stream matches the frame ID of the first video frame of the GOP that starts synchronization in the communication stream. Met.
  • the frame ID of the first video frame of the GOP that starts synchronization in the broadcast stream and the frame ID of the first video frame of the GOP that starts synchronization in the communication stream are obtained.
  • An ID is given.
  • each video frame is given a frame ID incremented from the top side in the display order
  • each video frame is given a frame ID incremented from the top side in the display order.
  • the addition of the frame ID to the video frame included in the broadcast stream and the addition of the frame ID to the video frame included in the communication stream have the same frame ID for the video frames displayed in synchronization with each other. Done to be granted.
  • the seventh modified display device is modified from the display device 110 in the embodiment so that the main video decoding unit is changed to a seventh modified main video decoding unit.
  • the seventh modified main video decoding unit will be described with reference to FIG. 6 showing the main video decoding unit in the embodiment, without showing the seventh modified main video decoding unit.
  • the synchronization start packet determination unit 540 determines, from the broadcast stream stored in the data buffer 601, the memory address of the first TS packet of the GOP, the PTS value of the TS packet of the GOP, and the head of the GOP.
  • the frame ID of the TS packet and the STC_Offset stored in the SI are obtained, and from the communication stream stored in the data buffer 611, the memory address of the first TS packet of the GOP and the TS packet of the GOP first packet
  • the PTS value and the frame ID of the first TS packet of the GOP are acquired, and a modified first GOP information table and a modified second GOP information table are generated.
  • FIG. 19 shows an example of a modified first GOP information table 1910, which is an example of a modified first GOP information table generated by the synchronization start packet determining unit 540, and an example of a modified second GOP information table generated by the synchronization start packet determining unit 540.
  • the modified second GOP information table 1920 is shown.
  • the modified first GOP information table 1910 is a table in which an address 1911, a PTS 1912, a PTS + STC_offset 1913, and a frame ID 1914 are associated with each other.
  • Address 1911, PTS 1912, and PTS + STC_offset 1913 are the same as address 711, PTS712, and PTS + STC_offset 713 in the embodiment, respectively (see FIG. 7B).
  • the frame ID 1914 is the frame ID of the first TS packet of the GOP stored in the corresponding address 1911.
  • the modified second GOP information table 1910 is a table in which an address 1921, a PTS 1922, and a frame ID 1924 are associated with each other.
  • Address 1921, PTS 1922, and frame ID 1924 are the same as address 1911, PTS 1912, and frame ID 1914, respectively (see FIG. 7B).
  • the frame ID of the entry of address 500 in the GOP table information of the broadcast stream is 30, whereas the frame ID of the entry of address 150 in the GOP table information of the communication stream is 32.
  • FIG. 20 shows that in the seventh modified display device, the decoder input unit 602 and the decoder input unit 612 convert the TS packet sequence of the broadcast stream and the TS packet sequence of the communication stream to the PID filter 603 and the PID filter 613, respectively. It is a timing diagram which shows the timing which outputs and the video frame obtained by decoding a packet sequence is output to a video plane.
  • the input start control unit 541 determines the input timing to the decoder as shown in FIG. First, D1 and D2 are calculated in the same manner as the method described in FIG. Next, a difference value (D3) is calculated when the broadcast stream synchronization start PTS (SyncPTS1) and the communication stream synchronization start PTS (SyncPTS2) are projected on the same time axis.
  • the input start control unit 541 starts input to the V1 decoder, then delays by the value of D1 + D3-D2, and starts input to the V2 decoder. With this configuration, when the start time of the GOP at which synchronization is started does not match between the broadcast stream and the communication stream, the broadcast stream and the communication stream can be synchronously reproduced.
  • the broadcast stream is not displayed until the display time at the head of the GOP of the communication stream, which is the later time axis. Also good.
  • the broadcast stream may be started first. Alternatively, the user may be able to select.
  • the value of the frame ID may be a common PTS or TimeCode value for the broadcast stream and the communication stream.
  • the display device 110 in the embodiment has a configuration corresponding to the case where the broadcast stream transmitted by the broadcast station 120 is a TTS stream in the MPEG-2 TS format.
  • the eighth modified display device in the modified example 8 is an example of a configuration corresponding to the case where the broadcast stream transmitted by the broadcast station 120 is a TS stream in the MPEG-2 TS format.
  • the configuration of the eighth modified display device in the modified example 8 will be described focusing on differences from the display device 110 in the embodiment with reference to the drawings.
  • the eighth modified display device is modified such that a converter 2100 is added between the tuner 501 and the first demultiplexing unit 511 (see FIG. 5) in the display device 110 in the embodiment.
  • FIG. 21 is a configuration diagram showing the configuration of the converter 2100.
  • the converter 2100 includes a crystal resonator 2130, an ATC counter 2140, a TS packet filter 2110, and an ATS adder 2120.
  • the crystal unit 2130 and the ATC counter 2140 are the same as the crystal unit 660 (see FIG. 6) and the first ATC counter 620 in the embodiment, respectively.
  • the TS packet filter 2110 uses the EIT program information and the stream configuration information in the PMT packet program to filter only the TS packets that make up the program selected by the user, and inputs them to the ATS adder 2120. .
  • the ATS adder 2120 refers to the ATC value of the ATC counter 2140 with respect to the 188-byte TS packet input via the TS packet filter 2110, adds an ATS value to the head of the TS packet, and 192 A byte TS packet is generated. Since the ATS field is 4 bytes, a value from 0x0 to 0xFFFFFF0 is taken, and when the ATC value becomes a value equal to or greater than 0xFFFFFFFF, it returns to 0 as Wrap-around again. In the case of Blu-ray, since the first 2 bits of the first 4 bytes of the TS packet are used for copy control information, the ATS value is 30 bits and Wrap-around is performed with 30 bits.
  • the converter 2100 has a function of giving an ATS to the head of each TS packet of the broadcast stream by adopting the configuration shown in FIG.
  • the converter 2100 is disposed between the tuner 501 and the first demultiplexing unit 511, so that the broadcast stream input to the first demultiplexing unit 511 becomes a TTS stream.
  • the converter 2100 is disposed between the tuner 501 and the first demultiplexing unit 511, so that the broadcast stream input to the first demultiplexing unit 511 becomes a TTS stream.
  • FIG. 22 shows a problem during delayed reproduction.
  • a timeline A is a display time (AbsTime) and indicates terminal common time information such as RTC synchronized by means such as NTP.
  • the display time (AbsTime) Shows the PTS of the video of the broadcast stream displayed by.
  • the timeline C indicates the PTS of the video of the broadcast stream displayed at the display time (AbsTime) when performing delayed playback when realizing synchronized playback.
  • An arrow written between the timeline B and the timeline C indicates a reproduction route for synchronous reproduction. First, buffering is performed between AbsTime 100 and 200, and the data of the broadcast stream and the communication stream is stored in the data buffer.
  • FIG. 23 shows a stream decoding means for dealing with this problem.
  • a selector 2302 is added in front of the broadcast stream decoder input unit 602, and not only the broadcast stream but also the supplemental stream data can be input.
  • the supplemental stream is a stream for making up for the lack of broadcast stream data due to delayed reproduction.
  • the supplemental stream is preferably downloaded and stored in advance in a data buffer 2301 (for example, HDD).
  • the supplementary stream is played back during the buffering period of the broadcast stream and the communication stream, the selector 2302 added in FIG. 23 is switched, and the broadcast stream and the communication stream are played back synchronously at the same time as the buffering is completed. To do. If the content of the PTS 1400-1500 of the broadcast stream is matched with the content of the supplemental stream, the user can view the video of the broadcast stream without loss.
  • the display time (AbsTime) at which the synchronization is started can be set by an application API or the like.
  • the information may be stored in communication data obtained from a broadcast stream, a communication stream, or an application.
  • the method for controlling the display time for starting the synchronization may be realized by the method shown in FIG.
  • the playback speed of the synchronous playback may be increased so that the PTSs of the broadcast streams at the display time AbsTime at the end of the synchronous playback match.
  • fast-forward playback is performed from the PTS 1100 to the PTS 1500 in the timeline C for delayed playback, and ends at the same timing as the timeline B for normal playback.
  • information for identifying the delay stop prohibition period may be stored in a broadcast stream, a communication stream, communication data acquired from an application, or the like.
  • a delay stop prohibition section is set in PTS1400 to PTS1500 in the broadcast stream.
  • the AbsTime 500 is instructed by the user to end the synchronized playback
  • the synchronized playback process is not terminated, and the delayed playback is continued until the delay stop prohibition period ends, and then the normal playback is resumed.
  • the buffering period is 1000 to 1100 and the length is 100, it is processed as a delay stop prohibition section between AbsTime 400 and 500, that is, during playback of broadcast streams 1300 to 1400. .
  • information for identifying a delay permitted / prohibited section for a broadcast stream may be stored in a broadcast stream, a communication stream, communication data acquired from an application, or the like.
  • the PTS 1100 to PTS 1500 are set as a delay permission section, and the PTS 1500 and later are set as a delay prohibition section.
  • delayed playback is executed from AbsTime200 to AbsTime600, and normal playback is resumed after AbsTime600.
  • synchronization may be stopped when an STC discontinuity occurs in the middle of the broadcast stream, or when another video is inserted in the middle of the broadcast stream.
  • a synchronization stop signal is stored in a broadcast stream, a communication stream, communication data, and the like, and when the signal is received, the stream decoding means stops synchronous reproduction and returns to normal reproduction.
  • an API and an Event are prepared on the application side. The application will restart as needed.
  • the synchronous playback stream decoding means provides an API for acquiring a delay time to an application control unit for displaying graphics.
  • the delay time may be calculated by calculating the difference between AbsTime of the decoding start time and the buffering start time.
  • a rough delay time can be calculated by comparing the current time (AbsTime) with the time data of the TOT packet of the stream currently being decoded.
  • Internet information for example, Twitter comments
  • the data necessary for the program to be synchronized playback must be downloaded as much as possible. Therefore, in the playback device, when a broadcast program viewing reservation or recording reservation is made, data necessary for synchronous playback may be downloaded to an HDD or the like. It should be noted that the recording process is performed without delay in a recorded program that performs synchronous reproduction.
  • the delayed playback may be stopped immediately and the normal broadcast playback may be resumed.
  • the broadcast stream stored in the data buffer is always realized by monitoring the emergency broadcast signal.
  • FIG. 27 shows an API list of the synchronous playback control module provided by the application execution unit for realizing the synchronous playback in this embodiment.
  • the application is HTML content.
  • the first column is the method name
  • the second column is the API description
  • the third column is the argument
  • the fourth column is the comment.
  • AddVideo is an API that adds a stream entry including a video stream specified by an HTML5 video tag or the like.
  • a video object VideoObject
  • bMaster master
  • start PTS on the stream StarttPTS
  • ptsOffset a PTS difference with the master
  • AddAudio is an API that adds a stream entry including an audio stream specified by an HTML5 audio tag or the like. As an argument, an audio object (audioObject), a start PTS (StartPTS) on the stream, and a PTS difference (ptsOffset) from the master are specified. Other parameters include a flag indicating whether or not to return to the stream head at the end of the stream and loop playback, a mixing coefficient with the master audio, and the like.
  • AddCanvas is an API that adds a canvas object that is a graphics drawing module of HTML5.
  • a canvas object is specified as an argument.
  • RemoveVideo, RemoveAudio, and RemoveCanvas are APIs that delete the added video object, audio object, and canvas object, respectively.
  • Play is an API for instructing the start of synchronous playback.
  • the argument specifies a playback delay time (StartUpDelay) and a playback mode (Mode).
  • the playback mode includes a 3D playback mode with the broadcast stream as the left eye and the communication stream as the right eye.
  • Stop is a synchronized playback stop
  • Pause is a synchronized playback pause.
  • GetStartUpDelay is an API that acquires a delay time.
  • FIG. 28 shows an example of HTML5 content expansion when a broadcast stream (video stream + audio stream) and a communication stream (video stream) are reproduced in synchronization.
  • the video tag defines three videos. The first is a supplementary stream, the first is a broadcast stream, and the third is a communication stream.
  • the first is a supplementary stream
  • the first is a broadcast stream
  • the third is a communication stream.
  • FIG. 29 shows an example of HTML5 content extension when a broadcast stream (video stream + audio stream) and a communication stream (audio stream) are synchronously reproduced.
  • a broadcast stream is specified by a video tag
  • a communication stream is specified by an audio tag.
  • FIG. 30 shows an example of HTML5 content extension when a broadcast stream (video stream + audio stream) and graphics data are played back synchronously. Specify the broadcast stream with the video tag and the graphics drawing area with the canvas tag. In the explanation of Javascript operation, comments are described in FIG.
  • the method for synchronous playback of the broadcast stream and the communication stream has been described. However, the same is achieved by changing the input stream in the synchronous playback of the broadcast stream and the broadcast stream and the communication stream and the communication stream. Needless to say, this configuration can be realized.
  • the encoded stream can be applied to a case where a video stream compressed with reference to a video stream of a broadcast stream (inter-view reference) is stored in a communication stream.
  • the compressed video stream such as the inter-view reference can be synchronously reproduced.
  • MPEG-2 TS Digital stream in MPEG-2 TS format is used for transmission on digital TV broadcast waves.
  • MPEG-2 TS is a standard for multiplexing and transmitting various streams such as video and audio. It is standardized in ISO / IEC13818-1 and ITU-T recommendation H222.0.
  • FIG. 32 shows the structure of a digital stream in the MPEG-2 TS format.
  • MPEG-2 TS is obtained by multiplexing a video stream, an audio stream, a subtitle stream, and the like.
  • the video stream stores the main video of the program
  • the audio stream stores the main audio portion and sub-audio of the program
  • the subtitle stream stores the subtitle information of the program.
  • the video stream is encoded and recorded using a method such as MPEG-2 or MPEG4-AVC.
  • the audio stream is compressed and encoded and recorded by a method such as Dolby AC-3, MPEG-2 AAC, MPEG-4 AAC, HE-AAC.
  • moving picture compression coding such as MPEG-2, MPEG-4 AVC, SMPTE VC-1, etc.
  • data amount is compressed using redundancy in the spatial direction and temporal direction of moving images.
  • inter-picture predictive coding is used as a method of using temporal redundancy.
  • inter-picture predictive coding when a certain picture is coded, a picture that is forward or backward in display time order is used as a reference picture. Then, the amount of motion from the reference picture is detected, and the amount of data is compressed by removing the redundancy in the spatial direction from the difference value between the motion compensated picture and the picture to be coded.
  • FIG. 38 shows a picture reference structure of a general video stream. The arrow indicates that it is compressed by reference.
  • a picture that does not have a reference picture and performs intra-picture predictive coding using only a picture to be coded is called an I picture.
  • a picture is a unit of encoding that includes both a frame and a field.
  • a picture that is inter-picture prediction encoded with reference to one already processed picture is called a P picture
  • a picture that is inter-picture predictively encoded with reference to two already processed pictures at the same time is called a B picture.
  • a picture that is referred to by other pictures in the B picture is called a Br picture.
  • a field having a frame structure and a field having a field structure are referred to as a video access unit here.
  • the video stream has a hierarchical structure as shown in FIG.
  • a video stream is composed of a plurality of GOPs, and by using this as a basic unit for encoding processing, editing of a moving image and random access are possible.
  • a GOP is composed of one or more video access units.
  • the video access unit is a unit for storing coded data of a picture, and stores data of one frame in the case of a frame structure and one field in the case of a field structure.
  • Each video access unit includes an AU identification code, a sequence header, a picture header, supplementary data, compressed picture data, padding data, a sequence end code, a stream end code, and the like.
  • each data is stored in units called NAL units.
  • AU identification code is a start code indicating the head of the access unit.
  • the sequence header is a header that stores common information in a playback sequence composed of a plurality of video access units, and stores information such as resolution, frame rate, aspect ratio, and bit rate.
  • the picture header is a header that stores information such as the coding method of the entire picture.
  • the supplemental data is additional information that is not essential for decoding the compressed data, and stores, for example, closed caption character information displayed on the TV in synchronization with the video, GOP structure information, and the like.
  • the compressed picture data stores compression-encoded picture data.
  • the padding data stores meaningless data for formatting. For example, it is used as stuffing data for maintaining a predetermined bit rate.
  • the sequence end code is data indicating the end of the reproduction sequence.
  • the stream end code is data indicating the end of the bit stream.
  • the contents of the AU identification code, sequence header, picture header, supplementary data, compressed picture data, padding data, sequence end code, and stream end code differ depending on the video encoding method.
  • the AU identification code is AU delimiter (Access Unit Delimiter)
  • the sequence header is SPS (Sequence Parameter Set)
  • the picture header is PPS (Picture Parameter Set)
  • supplemental data is SEI (Supplemental Enhancement Information)
  • padding data is FillerData
  • sequence end code is End of Sequence
  • stream end code is End of Stream.
  • the sequence header is sequence_Header, sequence_extension, group_of_picture_header, the picture header is picture_header, picture_coding_extension, the compressed_data is a plurality of slices, the supplemental data is a sequence_decode .
  • the start code of each header is used, the break of the access unit can be determined.
  • the sequence header may be necessary only in the video access unit at the head of the GOP and may not be present in other video access units.
  • the picture header may refer to that of the previous video access unit in the code order, and there is no picture header in its own video access unit.
  • I picture data is stored as compressed picture data
  • an AU identification code, a sequence header, a picture header, and compressed picture data are always stored
  • supplementary data, padding Data, sequence end code, and stream end code are stored.
  • Video access units other than the head of the GOP always store AU identification code and compressed picture data, and store supplementary data, padding data, sequence end code, and stream end code.
  • Each stream included in the transport stream is identified by a stream identification ID called PID.
  • PID stream identification ID
  • the composite apparatus can extract the target stream.
  • the correspondence between the PID and the stream is stored in the descriptor of the PMT packet described later.
  • FIG. 32 schematically shows how the transport stream is multiplexed.
  • a video stream 3201 composed of a plurality of video frames and an audio stream 3204 composed of a plurality of audio frames are converted into PES packet sequences 3202 and 3205, respectively, and converted into TS packets 3203 and 3206.
  • the data of the subtitle stream 3207 is converted into a PES packet sequence 3208 and further converted into a TS packet 3209.
  • the MPEG-2 transport stream 3213 is configured by multiplexing these TS packets into one stream.
  • FIG. 35 shows in more detail how the video stream is stored in the PES packet sequence.
  • the first level in the figure shows a video frame sequence of the video stream.
  • the second level shows a PES packet sequence.
  • a plurality of Video Presentation Units in the video stream are divided for each picture, and stored in the payload of the PES packet.
  • Each PES packet has a PES header, and a PTS that is a picture display time and a DTS that is a picture decoding time are stored in the PES header.
  • FIG. 36 shows the data structure of TS packets constituting the transport stream.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header, an adaptation field, and a TS payload.
  • the TS header is composed of transport_priority, PID, adaptation_field_control, and the like.
  • the PID is an ID for identifying the stream multiplexed in the transport stream as described above.
  • the transport_priority is information for identifying the type of packet in TS packets having the same PID.
  • Adaptation_field_control is information for controlling the configuration of the adaptation field and the TS payload. There are cases where only one of the adaptation field and the TS payload exists or both, and adaptation_field_control indicates the presence / absence thereof. When adaptation_field_control is 1, only the TS payload is present, when adaptation_field_control is 2, only the adaptation field is present, and when adaptation_field_control is 3, both the TS payload and the adaptation field are present.
  • the adaptation field is a storage area for storing information such as PCR and stuffing data for making the TS packet a fixed length of 188 bytes.
  • a PES packet is divided and stored in the TS payload.
  • TS packets included in a transport stream include PAT (Program Association Table), PMT, PCR, and the like in addition to video, audio, and subtitle streams. These packets are called PSI.
  • PAT indicates what the PID of the PMT used in the transport stream is, and the PID of the PAT itself is registered as 0.
  • the PMT has PID of each stream such as video / audio / subtitles included in the transport stream and stream attribute information corresponding to each PID, and has various descriptors related to the transport stream.
  • the descriptor includes copy control information for instructing permission / non-permission of copying of the AV stream.
  • the PCR has STC time information corresponding to the timing at which the PCR packet is transferred to the decoder in order to synchronize the arrival time of the TS packet to the decoder and the STC which is the time axis of the PTS / DTS.
  • FIG. 37 is a diagram for explaining the data structure of the PMT in detail.
  • a PMT header describing the length of data included in the PMT is arranged at the head of the PMT. After that, a plurality of descriptors related to the transport stream are arranged.
  • the copy control information described above is described as a descriptor.
  • a plurality of pieces of stream information regarding each stream included in the transport stream are arranged after the descriptor.
  • the stream information includes a stream descriptor in which a stream type, a stream PID, and stream attribute information (frame rate, aspect ratio, etc.) are described to identify a compression codec of the stream.
  • the transport stream shown in the lower part of FIG. 36 is a stream in which TS packets are arranged, and a stream generally used for a broadcast wave is in this format, and is hereinafter referred to as a TS stream.
  • the transport stream shown in the lower part of FIG. 39 is a stream in which source packets each having a 4-byte time stamp are arranged at the head of a 188-byte TS packet, and a stream generally transmitted by communication is in this format.
  • TTS stream The first time stamp attached to the TS packet is hereinafter referred to as ATS, and ATS indicates the transfer start time of the attached TS packet to the decoder of the stream.
  • ATS indicates the transfer start time of the attached TS packet to the decoder of the stream.
  • SPN Source Packet Number
  • a normal broadcast wave is transmitted as a full TS in which TSs for a plurality of channels are multiplexed.
  • a full TS is a TS stream composed of a 188-byte fixed-length TS packet sequence.
  • a storage medium such as a BD-RE or HDD
  • only necessary channel data is extracted from the full TS and recorded as a partial TS.
  • the partial TS is a TTS stream.
  • the display device according to the embodiment, the modification, or the like has been described as an example of the display device according to the present invention.
  • the display device is not limited to the one exemplified in the form, the modification, and the like.
  • the display device 110 is an example of a configuration that receives the communication video transmitted from the communication service providing station 130 via the Internet communication network 140.
  • the communication video transmitted via the Internet communication network 140 is not necessarily received.
  • a configuration for receiving a communication video transmitted via a broadcast wave, a configuration for receiving a communication video transmitted via a dedicated line, and the like can be considered.
  • the STC_Offset value stored in the PSI / SI of the broadcast stream is “0”.
  • the value of STC_Offset stored in the PSI / SI of the broadcast stream is necessarily “0”. It is not necessary to have a configuration. As an example, a configuration in which STC_Offset is not stored in the PSI / SI of the broadcast stream is conceivable only when it is not necessary to correct the display timing of the communication video included in the communication stream. In the case of such a configuration, when STC_Offset is not stored in the PSI / SI of the received broadcast stream, the display device 110 performs the same processing as when the value of STC_Offset is “0”.
  • FIG. 17A illustrates an example in which both the broadcast stream and the communication stream are stored in the data buffer.
  • the broadcast wave is transmitted.
  • the synchronization start PTS of the communication stream to be synchronized may be determined, the data at that point may be inquired of the server, and buffering may be started.
  • the synchronization start PTS or frame ID of the communication stream to be synchronized is determined based on the GOP table information and the frame ID of the broadcast wave, and the data at that point is determined.
  • the server may be queried to start buffering.
  • the PCR value of the corresponding packet may be stored in the video packet at the head of each GOP as an adaptation field.
  • D1 and D2 may not be calculated by the playback device, but may be transmitted as information in a system wave or video stream of a broadcast wave or a communication stream as information. Alternatively, it may be simply provided as data by communication from the server.
  • the communication stream may be an MP4 stream.
  • management information indicating the PTS and DTS corresponding to each frame is separately prepared in the MP4 header information and processed using the timing information.
  • the frame ID is unique for each video stream, and there is no relationship between the streams (that is, even if the same frame ID is given, it does not indicate that it is in a synchronous relationship) If the offset information of the frame ID included in the broadcast stream and the ID of the frame ID included in the communication stream is separately transmitted, the frame ID of the broadcast stream and the frame ID of the communication stream are synchronized. Relationships can be identified.
  • One piece of information necessary for realizing the embodiment, modification, etc. such as STC_Offset, GOP information table, frame ID, D1, D2, D3, and ATC_Offset described in the embodiment, modification, etc.
  • the part or all of the information may be stored in a broadcast stream, a communication stream, or communication data acquired from an application.
  • a PSI / SI packet such as PMT or EIT, a BML event message, user data of each frame of video, or the like.
  • information regarding the frames in the GOP may be stored in a lump only at the GOP head, or only the GOP head information may be stored.
  • a display device is a display device that displays a separately acquired and stored image in a received stream including a plurality of video frames, A receiving unit that receives a stream including a video frame and first display timing information that determines display timing for each of the video frames, and a plurality of video frames included in the stream received by the receiving unit, A display unit for displaying at a display timing determined by the first display timing information included in the stream received by the receiving unit, a storage unit for storing an image, and second display timing information for determining the display timing of the image; The display timing determined by the second display timing information stored in the storage unit is corrected.
  • the acquisition unit that acquires correction information for determining a correction amount for displaying an image stored in the storage unit in synchronization with a video frame displayed on the display unit, and the display unit includes: Further, the image stored in the storage unit is corrected at a correction timing obtained by correcting the display timing determined by the second display timing information stored in the storage unit by a correction amount determined by the correction information acquired by the acquisition unit. It is characterized by displaying.
  • the display device having the above-described configuration communicates with a broadcast video even when a communication video corresponding to the program is already received and stored when the broadcast time of the program is changed. It is possible to display the video in synchronization with the timing as intended by the video producer.
  • FIG. 40 is a configuration diagram of the display device 4000 in the above modification.
  • the display device 4000 includes a reception unit 4010, a display unit 4020, a storage unit 4030, and an acquisition unit 4040.
  • the receiving unit 4010 has a function of receiving a stream including a plurality of video frames and first display timing information that determines display timing for each of the video frames.
  • it is realized as the tuner 501 in the embodiment.
  • the display unit 4020 has a function of displaying each of a plurality of video frames included in the stream received by the receiving unit 4010 at a display timing determined by the first display timing information included in the stream received by the receiving unit 4010.
  • Have As an example, in the embodiment, as a block including a broadcast stream decoding unit 510, a communication stream decoding unit 520, a first video plane 552, a second video plane 555, a plane composition processing unit 560, a display 580, and an input start control unit 541. Realized.
  • the storage unit 4030 has a function of storing an image and second display timing information that determines the display timing of the image. As an example, it is realized as the buffer 542 in the embodiment.
  • the acquisition unit 4040 corrects the display timing determined by the second display timing information stored in the storage unit 4030, thereby synchronizing the image stored in the storage unit 4030 with the video frame displayed on the display unit 4020.
  • a correction information for determining a correction amount for display is realized as the synchronization start packet determination unit 540 in the embodiment.
  • the display unit 4020 then further corrects the display timing determined by the second display timing information stored in the storage unit 4030 by the correction amount determined by the correction information acquired by the acquisition unit 4040 at the correction timing.
  • 4030 has a function of displaying an image stored in 4030.
  • the stream received by the receiving unit may further include the correction information, and the acquiring unit may acquire the correction information from the stream received by the receiving unit.
  • the correction information can be acquired from the stream received by the receiving unit.
  • the display unit includes a display for displaying each of a plurality of video frames included in the stream received by the reception unit and an image stored in the storage unit, and the display The unit may superimpose the image on the video frame when the video frame included in the stream received by the receiving unit and the image stored in the storage unit are displayed on the display.
  • the image stored in the storage unit can be superimposed and displayed on the video received by the reception unit.
  • the image processing apparatus further includes a sub-reception unit that receives a stream including a plurality of video frames and information that determines display timing for each of the video frames, and the image stored in the storage unit is stored by the sub-reception unit.
  • the plurality of received video frames, and the second display timing information stored in the storage unit may be information received by the sub reception unit.
  • the video received by the sub-receiving unit can be displayed in synchronization with the video received by the receiving unit.
  • the receiving unit includes a broadcast wave receiving unit that receives a broadcast wave transmitted from a broadcasting station and transmitting data including a stream, and the sub-receiving unit receives the stream from an external network.
  • a transmission signal receiving unit for receiving a transmission signal for transmitting data including the stream received by the receiving unit is a stream transmitted by a broadcast wave received by the broadcast wave receiving unit;
  • the stream received by may be a stream transmitted by a transmission signal received by the transmission signal receiving unit.
  • the stream transmitted by the broadcast wave received by the broadcast wave receiver and the stream transmitted by the transmission signal received by the transmission signal receiver are MPEG (MovingMoPicture Experts Group) -2. It may be a TS (TransportTransStream) format stream.
  • the receiving unit and the sub-receiving unit can be realized by a relatively general method.
  • the image processing apparatus further includes a sub-reception unit that receives a stream including a plurality of video frames and information that determines display timing for each of the video frames, and the image stored in the storage unit is stored by the sub-reception unit.
  • the plurality of received video frames, and the second display timing information stored in the storage unit is information received by the sub-reception unit, and is received by the sub-reception unit and the stream received by the reception unit.
  • the stream is an MPEG-2 TS format stream
  • the display unit includes a first decoder that restores a video frame from the stream received by the receiving unit, and a stream received by the sub-receiving unit. A second decoder for restoring a video frame; and a stream received by the receiving unit.
  • a first arrival time counter that gives a first arrival time according to a timing at which the stream is input to the first decoder, a stream received by the sub-receiving unit, and a stream to the second decoder
  • a second arrival time counter that gives a second arrival time according to the input timing, a first arrival time given to the stream received by the receiving unit, and a stream received by the sub-receiving unit.
  • the stream received by the sub-receiving unit at a timing delayed by a predetermined time with respect to the timing at which the stream received by the receiving unit is input to the first decoder.
  • the video received by the sub-receiving unit can be displayed in synchronization with the video received by the receiving unit.
  • a multiplexing unit that generates a stream by multiplexing the video frame restored by the first decoder and the video frame restored by the second decoder may be further provided.
  • the image processing apparatus further includes a sub-receiving unit that receives a stream including a plurality of video frames and information that determines display timing for each of the video frames, and the image stored in the storage unit is stored by the sub-receiving unit.
  • the plurality of received video frames, and the second display timing information stored in the storage unit is information received by the sub-reception unit, and is received by the sub-reception unit and the stream received by the reception unit.
  • the stream is an MPEG-2 TS format stream
  • the display unit includes a first decoder that restores a video frame from the stream received by the receiving unit, and a stream received by the sub-receiving unit. A second decoder for restoring a video frame; and a stream received by the receiving unit.
  • an arrival time counter that gives a second arrival time
  • the second decoder receives the corrected timing by the display unit. In the output timing is displayed, may output the video frame.
  • the image processing apparatus further includes a sub-reception unit that receives a stream including a plurality of video frames and information for determining display timing for each of the video frames, and the image stored in the storage unit is stored by the sub-reception unit.
  • the plurality of received video frames, the second display timing information stored in the storage unit is information received by the sub-receiving unit, and the stream received by the receiving unit is in MPEG-2 TS format
  • the display unit includes a first decoder that restores a video frame from the stream received by the receiver, and a second decoder that restores a video frame from the stream received by the sub-receiver.
  • the second decoder causes the display unit to display the corrected timing of the restored video frame. In the output timing as displayed in grayed, may output the video frame.
  • the image processing apparatus further includes a sub-reception unit that receives a stream including a plurality of video frames and information for determining display timing for each of the video frames, and the image stored in the storage unit is stored by the sub-reception unit.
  • the plurality of received video frames, and the second display timing information stored in the storage unit is information received by the sub-reception unit, and is received by the sub-reception unit and the stream received by the reception unit.
  • the stream is an MPEG-2 TS format stream
  • the display unit includes a first decoder that restores a video frame from the stream received by the receiving unit, and a stream received by the sub-receiving unit. A second decoder for restoring a video frame; and a stream received by the receiving unit.
  • a first arrival time counter that gives a first arrival time according to a timing at which the stream is input to the first decoder, a stream received by the sub-receiving unit, and a stream to the second decoder
  • a second arrival time counter that assigns a second arrival time according to the input timing
  • the second decoder has a first arrival time assigned to the stream received by the receiving unit on a reference time axis.
  • the restored video frame is displayed at the correction timing by the display unit using the correction amount determined by the correction information.
  • In the output timing may output the video frame.
  • the image stored in the storage unit is a computer graphics image
  • the display unit is stored in the storage unit and a decoder that restores a video frame from the stream received by the reception unit.
  • An image output unit that outputs the image at an output timing such that the image is displayed by the display unit at the correction timing.
  • a transmission apparatus includes: a video storage unit that stores a plurality of video frames; a plurality of video frames stored in the video storage unit; and a display timing for each of the video frames.
  • a video storage unit that stores a plurality of video frames
  • a plurality of video frames stored in the video storage unit By correcting the display timing determined by the second display timing information in the external device that stores the display timing information and the second display timing information that determines the timing for displaying the image, the image is stored in the video storage unit.
  • a generation unit that generates a stream by multiplexing correction information that determines a correction amount for display in synchronization with a stored video frame; and a transmission unit that transmits a stream generated by the multiplexing unit.
  • the transmission apparatus in the present modification having the above-described configuration, it is possible to provide a transmission apparatus that can multiplex and transmit a plurality of video frames, first display timing information, and correction information.
  • the present invention can be widely used in devices that play back broadcast content and accompanying content in synchronization.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 複数の映像フレームと、映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、複数の映像フレームのそれぞれを、第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、第2表示タイミング情報によって定められる表示タイミングを補正することで、記憶部に記憶される画像を、表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、表示部は、さらに、第2表示タイミング情報によって定められる表示タイミングを補正情報によって定められる補正量分補正した補正タイミングで、記憶部に記憶される画像を表示することを特徴とする表示装置。

Description

表示装置、及び送信装置
 本発明は、放送コンテンツとそれに付随するコンテンツとを同期して再生する技術に関する。
 放送波によって伝送される映像(以下、「放送映像」と呼ぶ。)と、インターネット回線等の通信網によって伝送される映像(以下、「通信映像」と呼ぶ。)とを受信し、これらの映像を互いに同期させて表示する表示装置が知られている。
 例えば、非特許文献1記載のHybridcast(登録商標)システムにおいて、放送映像を送信する放送局は、放送映像が映像製作者の意図した通りのタイミングで通信映像と同期して表示されるように、放送映像を構成する映像フレームのそれぞれに、表示されるべきタイミングを示す表示タイミング情報(例えば、PTS(Presentation Time Stamp))を付与して放送映像を送信し、通信映像を送信する通信サービス提供局は、通信映像が映像製作者の意図した通りのタイミングで放送映像と同期して表示されるように、通信映像を構成する映像フレームのそれぞれに表示タイミング情報を付与して通信映像を送信する。そして、表示装置は、受信した放送映像を構成する映像フレームのそれぞれと、受信した通信映像を構成する映像フレームのそれぞれとを、付与された表示タイミング情報で示されるタイミングで表示する。
 このことによって、この表示装置は、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示する。
NHK技研 R&D No.124 "Hybridcast TMの概要と技術"
 ところで、放送局が放送する番組の放送時刻が、急遽変更されてしまう場合がある。これは、例えば、急遽、緊急ニュース放送が放送されることになり、後続番組の放送時刻が変更される場合等が該当する。
 このような場合に、放送時刻が変更された番組の放送映像は、当初映像製作者が意図していた表示タイミングと異なる表示タイミングで表示されなければならなくなるため、この放送映像を構成する映像フレームのそれぞれには、当初付与しようとしていた表示タイミング情報とは異なる表示タイミング情報が付与されることとなる。
 番組の放送時刻が変更された場合において、表示装置が、通信サービス提供局から送信された、その番組に対応する通信映像を既に受信して記憶しているときには、その番組の放送映像を構成する映像フレームのそれぞれと、その通信映像を構成する映像フレームのそれぞれとを、付与された表示タイミング情報で示されるタイミングで表示したとしても、これらの映像は、映像製作者の意図した通りのタイミングで同期して表示されない。
 そこで、本発明は係る問題に鑑みてなされたものであり、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とする表示装置を提供することを目的とする。
 上記課題を解決するために本発明に係る表示装置は、受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示することを特徴とする。
 上述の構成を備える本発明に係る表示装置は、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とすることができる。
放送システム100の概念図 放送局120と通信サービス提供局130との概略構成を示す模式図 放送局120と通信サービス提供局130とで取り扱われる映像の一例を示す模式図 (a)表示装置110の外観図、(b)放送映像を画面上に表示しているシーンを示す模式図、(c)放送映像と通信映像とを画面上に同期させて重畳して表示しているシーンを示す模式図 表示装置110の構成図 主要ビデオデコード部の構成図 (a)ストリームがバッファリングされている様子を示す模式図、(b)第1GOP情報テーブルと第2GOP情報テーブルとの構成図 タイミング図 出力開始処理のフローチャート 第1変形主要ビデオデコード部の構成図 第2変形主要ビデオデコード部の構成図 第3変形主要ビデオデコード部の構成図 (a)倍速前のTSパケット列のタイミング図、(b)倍速後のTSパケット列のタイミング図、(c)合成ストリームのTSパケット列のタイミング図 第4変形主要ビデオデコード部の構成図 タイミング図 第5変形主要ビデオデコード部の構成図 (a)CG画像データのデータ構成図、(b)タイミング図 第6変形主要ビデオデコード部の構成図 変形第1GOP情報テーブルと変形第2GOP情報テーブルとの構成図 タイミング図 変換器2100の構成図 タイミング図 主要ビデオデコード部の構成図 タイミング図 タイミング図 タイミング図 同期再生制御モジュールのAPI一覧 HTML5コンテンツ拡張例 HTML5コンテンツ拡張例 HTML5コンテンツ拡張例 主要ビデオデコード部の構成図 MPEG-2 TS形式のデジタルストリームの構成図 ビデオストリームの階層構造図 アクセスユニットの構成図 ESパケット列にビデオストリームがどのように格納されるかを示す模式図 TSパケットのデータ構造図 PMTのデータ構造図 ピクチャの参照構造図 TTSストリームの構造図 表示装置4000の構成図
<実施の形態>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、放送局から、放送波を介して送信される放送映像を受信し、通信サービス提供局から、インターネット回線を介して送信される通信映像を受信し、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する表示装置について説明する。
 この表示装置は、通信サービス提供局から、通信映像と、通信映像を構成する映像フレームそれぞれの表示タイミングを示すPTS(以下、「通信映像PTS」と呼ぶ。)とを含む通信ストリームを受信する。また、放送局から、放送映像と、放送映像を構成する映像フレームそれぞれの表示タイミングを示すPTS(以下、「放送映像PTS」と呼ぶ。)と、通信映像PTSによって示される表示タイミングを補正する補正量を示すSTC_offset(System Time Counter offset)とを含む放送ストリームを受信する。そして、受信した放送映像を構成する映像フレームのそれぞれを、放送映像PTSによって示される表示タイミングで表示し、受信した通信映像を構成する映像フレームのそれぞれを、通信映像PTSによって示される表示タイミングに対して、STC_offsetによって示される補正量だけ補正した表示タイミングで表示する。
 このことによって、この表示装置は、放送映像PTSによって示される、放送映像を構成する映像フレームの表示タイミングが、なんらかの事情によって、映像製作者の意図した通りの表示タイミングからずれてしまう場合であっても、そのずれを補正する補正量を示すSTC_offsetを受信することで、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示することができる。
 以下、この表示装置の構成について図面を参照しながら説明する。
 <構成>
 図1は、放送局120と通信サービス提供局130と表示装置110とを含む放送システム100の概念図である。
 同図において、放送局120は、放送映像と、放送映像PTSと、通信映像PTSによって示される表示タイミングを補正する補正量を示すSTC_offsetとを含む、MPEG(Moving Picture Experts Group)-2 TS(Transport Stream)形式の放送ストリームを生成し、生成した放送ストリームを、放送アンテナ121から放送波を介して送信する。
 ここで、STC_offsetは、例えば、PMT(Program Map Table)、EIT(Event Information Table)といった、PSI/SI(Program Specific Information / Service Information)に格納される。
 通信サービス提供局130は、放送映像と同期して表示されるべき通信映像と、通信映像PTSとを含む、MPEG-2 TS形式の通信ストリームを生成し、生成した通信ストリームを、インターネット通信網140を介して表示装置110に送信する。
 表示装置110は、放送局120から送信される放送ストリームを、受信アンテナ111から受信して放送映像を復元し、通信サービス提供局130から送信される通信ストリームをインターネット通信網140から受信して放送映像を復元する。そして、放送映像を構成する映像フレームのそれぞれを、放送映像PTSによって示される表示タイミングで表示し、通信映像を構成する映像フレームのそれぞれを、通信映像PTSによって示される表示タイミングに対して、STC_offsetによって示される補正量だけ補正した表示タイミングで表示する。
 図2は、放送局120と通信サービス提供局130との概略構成を示す模式図である。
 同図に示されるように、放送局120は、放送映像撮影手段210と放送映像編集手段211と放送ストリーム生成手段212とPTSタイミング決定手段213と放送ストリーム記憶手段214と出力手段215とから構成される。出力手段215は、さらに、STCオフセット付与手段216を含む。
 そして、通信サービス提供局130は、通信映像撮影手段220と通信映像編集手段221と通信ストリーム生成手段222と通信ストリーム記憶手段224と出力手段225とから構成される。
 放送映像撮影手段210は、ビデオカメラ等といった撮影機器を含み、映像、音声を撮影する機能を有する。この放送映像撮影手段210は、必ずしも、放送局120内部に固定されているものではなく、必要に応じて、放送局120外部においても、映像、音声の撮影を行うことが可能なものである。
 放送映像編集手段211は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像撮影手段210によって撮影された、映像、音声を編集する機能を有する。
 通信映像撮影手段220は、ビデオカメラ等といった撮影機器を含み、映像、音声を撮影する機能を有する。この通信映像撮影手段220は、必ずしも、通信サービス提供局130内部に固定されているものではなく、必要に応じて、通信サービス提供局130外部においても、映像、音声の撮影を行うことが可能なものである。
 通信映像編集手段221は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信映像撮影手段220によって撮影された、映像、音声を編集する機能を有する。
 以下では、放送映像編集手段211と通信映像編集手段221とによってなされる編集の具体例について、図面を参照しながら説明する。
 図3は、放送局120と通信サービス提供局130とで取り扱われる映像の一例示す模式図である。
 以下では、サッカーの試合において、放送映像撮影手段210が比較的視野の広い映像を撮影し、通信映像撮影手段220が、放送映像撮影手段210による撮影とは別視点からの映像(例えば、特定選手がズームアップされた映像)を撮影する場合であって、放送映像撮影手段210によって撮影された映像と、通信映像撮影手段220によって撮影された映像とが、同時刻に撮影された映像フレームが、同時刻に表示されることを想定して、これらの映像が編集される場合を例として説明する。また、以下では、説明が必要以上に煩雑になってしまわないように、音声についての説明を省略して、映像についての説明を中心に行う。
 図3に示されるように、放送映像撮影手段210は、比較的視野の広い映像である撮影映像301を撮影する。
 放送映像編集手段211は、放送映像撮影手段210によって撮影された撮影映像301から、放送するシーンを切り出して、切り出した映像に対して、例えば、スコア情報303といったグラフィックスを重ね合わせる。
 通信映像撮影手段220は、放送映像撮影手段210による撮影とは別視点からの映像を撮影する。
 通信映像編集手段221は、放送映像編集手段211によって切り出されたシーンと同時刻帯のシーンを、通信映像撮影手段220によって撮影された撮影映像311から切り出して、切り出した映像に対して、例えば、選手情報313といったグラフィックスを重ね合わせる。
 再び図2に戻って、放送局120と通信サービス提供局130との説明を続ける。
 PTSタイミング決定手段213は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像編集手段211によって編集された映像を構成する映像フレームのそれぞれについて、付与するPTSの値を決定する機能を有する。
 放送ストリーム生成手段212は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像編集手段211によって編集された映像、音声と、PTSタイミング決定手段213によって決定されたPTSの値とから、ビデオストリームとオーディオストリームと字幕ストリームとシステムパケットとが多重化された、MPEG-2 TS形式の放送ストリームを生成する機能を有する。
 ここで、放送ストリーム生成手段212は、例えば、映像であれば、MPEG-2、MPEG-4 AVC等のビデオコーデックで符号化してビデオストリームと生成し、例えば、音声であれば、AC3(Audio Code number 3)、AAC(Advanced Audio Coding)等のオーディオコーデックで符号化する。
 放送ストリーム記憶手段214は、ハードディスクドライブ等の記憶装置を含み、放送ストリーム生成手段212によって生成された放送ストリームを記憶する機能を有する。
 通信ストリーム生成手段222は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信映像編集手段221によって編集された映像と、PTSタイミング決定手段213によって決定されたPTSとから、ビデオストリームとオーディオストリームとが多重化された、MPEG-2 TS形式の通信ストリームを生成する機能を有する。ここで、通信ストリーム生成手段222は、通信映像編集手段221によって編集された映像を構成する映像フレームのそれぞれについて、放送映像編集手段211によって編集された映像を構成する映像フレームのうちの同時刻に撮影された映像フレームに付与されるPTSの値と同じ値のPTSが付与されるように、通信ストリームの生成を行う。
 ここで、通信ストリーム生成手段222は、放送ストリーム生成手段212と同様に、例えば、映像であれば、MPEG-2、MPEG-4 AVC等のビデオコーデックで符号化してビデオストリームと生成し、例えば、音声であれば、AC3、AAC等のオーディオコーデックで符号化する。
 通信ストリーム記憶手段224は、ハードディスクドライブ等の記憶装置を含み、通信ストリーム生成手段222によって生成された通信ストリームを記憶する機能を有する。
 STCオフセット付与手段216は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、以下のSTCオフセット付与機能を有する。
 STCオフセット付与機能:(1)放送ストリーム記憶手段214に記憶される映像ストリームに対応する番組の放送時刻が変更になった場合に、放送時刻が変更になる前における各映像フレームについての放送映像PTSの値と、放送時刻が変更になった後における各映像フレームについての放送映像PTSの値との差分量を算出し、算出した差分量を、STC_offsetとして、新たな放送ストリームに含まれる、PSI/SIに格納し、(2)放送ストリーム記憶手段214に記憶される映像ストリームに対応する番組の放送時刻が変更にならなかった場合には、差分量の値が“0”となるSTC_offsetを、PSI/SIに格納する機能。
 出力手段215は、プロセッサ、メモリ等を具備するコンピュータシステム、出力アンプ等を含み、STCオフセット付与手段216によってPSI/SIにSTC_offsetが格納された放送ストリームを、所定のフォーマットで所定の周波数帯の放送信号に変調し、変調した放送信号を、放送アンテナ121から送信する機能を有する。
 出力手段225は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信ストリーム記憶手段224に記憶される通信ストリームを、インターネット通信網140を介して表示装置110に出力する機能と、表示装置110に含まれる後述のバッファ542において、入力される通信ストリームを遅延させる場合における遅延量(ディレイ値)を指定するATC_delay(Arrival Time Counter delay)を、インターネット通信網140を介して表示装置110に出力する機能とを有する。
 図4(a)は、表示装置110の外観図であり、図4(b)は、表示装置110が、受信した放送ストリームから放送映像を復元し、復元した放送映像を画面上に表示しているシーンを示す模式図であり、図4(c)は、表示装置110が、受信した放送ストリームと通信ストリームとから放送映像と通信映像とを復元して、復元した放送映像に、復元した通信映像を重畳させて、放送映像と通信映像とを画面上に同期させて表示しているシーンを示す模式図である。
 図4(a)に示されるように表示装置110には、リモコン410が付属している。そして、表示装置110を利用するユーザは、リモコン410を利用して、表示装置110を操作する。
 図4(c)に示されるように、この表示装置110は、放送映像と通信映像とを同期させて表示する場合に、放送映像の一部の領域に、通信映像を、Picture-In-Pictureとして重畳させて表示する。
 図5は、表示装置110の構成を示す構成図である。
 同図に示されるように、表示装置110は、チューナ501と通信インターフェース502と外部機器インターフェース503とリモコンインターフェース504と放送ストリームデコード手段510と通信ストリームデコード手段520とアプリケーション実行制御部530と同期開始パケット決定部540と入力開始制御部541とバッファ542とATCディレイ部543と字幕プレーン551と第1ビデオプレーン552と背景プレーン553とグラフィックスプレーン554と第2ビデオプレーン555とプレーン合成処理部560と音声合成処理部570とディスプレイ580とスピーカ590とから構成される。
 さらに、放送ストリームデコード手段510は、第1多重分離部511と第1オーディオデコーダ512と字幕デコーダ513と第1ビデオデコーダ514とシステムパケットマネージャ515とから構成され、通信ストリームデコード手段520は、第2多重分離部521と第2ビデオデコーダ523と第2オーディオデコーダ522とから構成される。
 チューナ501は、放送局120から送信された放送信号を、受信アンテナ111を利用して受信して復調し、復調で得られた放送ストリームを放送ストリームデコード手段510に出力する機能を有する。
 通信インターフェース502は、例えば、NIC(Network Interface Card)等を含み、通信サービス提供局130から出力された通信ストリームを、インターネット通信網140から受信してバッファ542に出力する機能と、通信サービス提供局130から出力されたATC_delayを受信してATCディレイ部543に出力する機能と、アプリケーション実行制御部530が実行するアプリケーション、アプリケーション実行制御部530が描画するCG(Computer Graphics)画像等を、インターネット通信網140から取得して、アプリケーション実行制御部530に出力する機能とを有する。
 バッファ542は、通信インターフェース502から送られて来る通信ストリームを、ATCディレイ部543から指定されるディレイだけ遅延させて、通信ストリームデコード手段520に出力する機能を有する。
 ATCディレイ部543は、通信インターフェース502からATC_delayが送られて来た場合に、バッファ542に、通信インターフェース502から送られて来る通信ストリームを、そのATC_delayによって指定されるディレイ値だけディレイさせて、通信ストリームデコード手段520に出力させる機能を有する。
 外部機器インターフェース503は、例えば、USB(Universal Serial Bus)ポート等を含み、接続される外部機器(例えば、カメラ、モーションセンサー、USBメモリ等)から信号を受け取り、受け取った信号をアプリケーション実行制御部530に出力する機能を有する。
 リモコンインターフェース504は、リモコン410から送られて来る信号を受信し、受信した信号をアプリケーション実行制御部530に出力する機能を有する。
 第1多重分離部511は、チューナ501から送られて来る放送ストリームから、ビデオストリームとオーディオストリームと字幕ストリームとシステムパケットとを分離して、分離したビデオストリームを第1ビデオデコーダ514に出力し、分離したオーディオストリームを第1オーディオデコーダ512に出力し、分離した字幕ストリームを字幕デコーダ513に出力し、分離したシステムパケットをシステムパケットマネージャ515に出力する機能を有する。
 第2多重分離部521は、バッファ542から送られて来る放送ストリームから、ビデオストリームとオーディオストリームとを分離して、分離したビデオストリームを第2ビデオデコーダ523に出力し、分離したオーディオストリームを第2オーディオデコーダ522に出力する機能を有する。
 第1ビデオデコーダ514は、第1多重分離部511から送られて来るビデオストリームをデコードして、非圧縮の映像フレームを生成し、生成した映像フレームを、そのフレームに対応付けられたPTSのタイミングで第1ビデオプレーン552に出力する機能を有する。
 第2ビデオデコーダ523は、第2多重分離部521から送られて来るビデオストリームをデコードして非圧縮の映像フレームを生成し、生成した映像フレームを、そのフレームに対応付けられたPTSのタイミングで第2ビデオプレーン555に出力する機能を有する。
 第1オーディオデコーダ512は、第1多重分離部511から送られて来るオーディオストリームをデコードして非圧縮のLPCM(Linear Pulse Code Modulation)方式のオーディオフレームを生成し、生成したオーディオフレームを、そのフレームに対応付けられたPTSのタイミングで音声合成処理部570に出力する機能を有する。
 第2オーディオデコーダ522は、第2多重分離部521から送られて来るオーディオストリームをデコードして、非圧縮のLPCM方式のオーディオフレームを生成し、生成したオーディオフレームを、そのフレームに対応付けられたPTSのタイミングで音声合成処理部570に出力する機能を有する。
 字幕デコーダ513は、第1多重分離部511から送られて来る字幕フレームをデコードして非圧縮のイメージフレームを生成し、生成したイメージフレームを、そのイメージフレームに対応付けられたPTSのタイミングで字幕プレーン551に出力する機能を有する。
 システムパケットマネージャ515は、以下の2つの機能を有する。
 データ提供機能:第1多重分離部511から送られて来るシステムパケットを解析して、アプリケーション実行制御部530からの要求に応じて、アプリケーション実行制御部530が必要とするデータを提供する機能。
 ここで、提供するデータには、例えば、EIT(Encoded information type)パケット等に格納される番組情報、PMT(Program Map Table)パケットに格納されるストリームの属性情報、DSM-CC(Digital Storage Media ? Command and Control)等で提供されるBML(broadcast Markup Language)コンテンツの情報等がある。
 通知機能:第1多重分離部511から送られて来るシステムパケットの中に、アプリケーション実行制御部530に対する、アプリケーションの実行制御信号(例えば、アプリケーションの実行開始信号、アプリケーションの実行終了信号等)を含むパケットが含まれている場合に、そのパケットを受け取ったタイミングで、アプリケーション実行制御部530に、アプリケーションの制御信号を通知する機能。
 アプリケーション実行制御部530は、通信インターフェース502によって取得されたアプリケーションを実行する機能を有する。例えば、アプリケーションがHTML(Hyper Text Markup Language)コンテンツである場合には、Webブラウザであり、アプリケーションがJava(登録商標)である場合には、JavaVMである。
 ここで、アプリケーションは、放送リソースアクセスAPI(Application Programming Interface)を経由して、システムパケットマネージャ515より、現在表示中の放送番組の番組情報や、ストリームの属性情報等を取得する。また、アプリケーションは、再生制御APIを経由して、放送ストリームデコード手段510、通信ストリームデコード手段520の動作、停止等を制御する。また、アプリケーションは、グラフィックス描画APIを経由して、CG画像を、背景プレーン553、グラフィックスプレーン554に出力する。また、アプリケーションは、プレーン合成処理部560におけるプレーンの合成方法を制御する。プレーンの合成方法としては、ビデオプレーンに対して拡大、縮小等のスケーリングや、ポジショニング等が含まれる。また、アプリケーションは、外部機器インターフェース503、リモコンインターフェース504からのデータを取得して、ユーザの操作に合わせて、画像の表示内容を変更してグラフィカルユーザインターフェースを実現する。
 字幕プレーン551は、字幕デコーダ513から送られて来たフレームを格納するためのバッファであり、第1ビデオプレーン552は、第1ビデオデコーダ514から送られて来たフレームを格納するためのバッファであり、背景プレーン553は、アプリケーション実行制御部530から送られて来た背景画像を格納するためのバッファであり、グラフィックスプレーン554は、アプリケーション実行制御部530から送られて来たCG画像を格納するためのバッファであり、第2ビデオプレーン555は、第2ビデオデコーダ523から送られて来たフレームを格納するためのバッファである。
 プレーン合成処理部560は、字幕プレーン551と第1ビデオプレーン552と背景プレーン553とグラフィックスプレーン554と第2ビデオプレーン555とに格納されている画像を合成して1枚の画像を生成し、生成した画像をディスプレイに出力する機能を有する。
 ここで、プレーン合成処理部560は、画像の合成において、背面側から順に、背景プレーン553、第1ビデオプレーン552、第2ビデオプレーン555、字幕プレーン551、グラフィックスプレーン554の順で重畳して画像の合成を行う。また、アプリケーション実行制御部530によって実行されるアプリケーションからの合成方法の制御に応じて、ビデオプレーンに対して拡大、縮小等のスケーリングや、ポジショニング等を行う。
 音声合成処理部570は、第1オーディオデコーダ512から出力されたオーディオフレームと第2オーディオデコーダ522から出力されたオーディオフレームとをミキシング(音の重ね合わせ)してスピーカ590に出力する機能を有する。
 図6は、図5中の第1多重分離部511と第2多重分離部521と第1ビデオデコーダ514と第2ビデオデコーダ523と同期開始パケット決定部540と入力開始制御部541との部分(以下、この部分を「主要ビデオデコード部」と呼ぶ。)の構成を、さらに詳細に示した詳細構成図である。
 第1多重分離部511は、データバッファ601とデコーダ入力器602とPID(Packet ID)フィルタ603と第1ATCカウンタ620とから構成され、第2多重分離部521は、データバッファ611とデコーダ入力器612とPIDフィルタ613と第2ATCカウンタ640とから構成され、第1ビデオデコーダ514は、TB604とMB605とEB606とビデオデコーダ607とから構成され、第2ビデオデコーダ524は、TB614とMB615とEB616とビデオデコーダ617とから構成される。
 また、この主要ビデオデコード部には、図5中に記載されていなかった、水晶振動子660と第1STCカウンタ630と第2STCカウンタ650とが追加されている。
 データバッファ601とデータバッファ611、デコーダ入力器602とデコーダ入力器612、PIDフィルタ603とPIDフィルタ613、第1ATCカウンタ620と第2ATCカウンタ640、第1STCカウンタ630と第2STCカウンタ650、TB604とTB014、MB605とMB615、EB606とEB616、ビデオデコーダ607とビデオデコーダ617は、それぞれ互いに同様の構成となっている。よってここでは、これらのうちの一方である、データバッファ601とデコーダ入力器602とPIDフィルタ603と第1ATCカウンタ620と第1STCカウンタ630とTB604とMB605とEB606とビデオデコーダ607とについて説明する。
 水晶振動子660は、水晶の圧電効果を利用して、27MHzの周波数で発振する振動子である。
 第1ATCカウンタ620は、水晶振動子660の発信を利用して、ATC時間軸を刻むカウンタであって、27MHzの周波数で値をインクリメントする機能を有する。
 第1STCカウンタ630は、水晶振動子660の発信を利用して、STC時間軸を刻むカウンタであって、90KHzの周波数で値をインクリメントする機能を有する。この第1STCカウンタ630は、PIDフィルタ603から出力されたPCR(Program Clock reference)パケットの到着タイミングで、このPCRパケットのPCR値で、STC時間軸を校正する。第1多重分離部511にストリームが入力され続けている期間には、PCRパケットが入力され続けることとなり、PCRパケットが到着するタイミングで、STCカウンタのSTC値が、PCR値で校正され続けることとなる。
 データバッファ601は、ストリームを一時的に格納するためのバッファであって、入力開始制御部541によって定められるタイミングで、格納するストリームをデコーダ入力器602に出力する機能を有する。データバッファ601は、例えば、DRAM(Dynamic Random Access Memory)、ハードディスク等を含む。
 デコーダ入力器602は、データバッファ601に格納されるストリームを校正するTSパケットを、データバッファ601に格納されるタイミングで、PIDフィルタ603に入力する機能を有する。なお、データバッファ601に格納されるストリームがTTS(Timestamped TS)ストリームである場合には、TSパケットに付与されるATSと、ATCカウンタの値とが一致するタイミングで、該当するTSパケットをPIDフィルタ603に入力する。なお、ここでは、放送ストリームと通信ストリームとの双方が、TTSストリームであるとして、以下説明する。
 PIDフィルタ603は、デコーダ入力器602から送られて来たTSパケットを、そのTSパケットのPIDに従って、そのPIDに対応するデコーダ、システムパケットマネージャ515又は第1STCカウンタ630に出力する機能を有する。例えば、PIDの値がオーディオストリームを示す場合には、第1オーディオデコーダ512に出力し、PIDの値がビデオストリームを示す場合には、第1ビデオデコーダ514に出力し、PIDの値がPCRパケットを示す場合には、第1STCカウンタ630に出力する。
 TB604は、PIDフィルタ603から送られて来るTSパケットを蓄積するためのバッファである。
 MB605は、TB604からEB606にTSパケットを出力するにあたって、一旦PESパケットを蓄積するためのバッファであって、TB604からMB605にTPパケットが送信される際に、TSパケットからTSヘッダとアダプテーションフィールドとを取り除く機能を有する。
 EB606は、符号化状態にあるピクチャを格納するためのバッファであって、MB605からEB606にPESパケットが送信される際に、PESパケットからPESパケットヘッダを取り除く機能を有する。
 ビデオデコーダ607は、EB606に格納されている、符号化状態にあるピクチャを、対応する復号時刻(DTS:Decode Time Stamp)毎にデコードする機能と、デコードしたピクチャを、対応する表示時刻(PTS)毎に、第1ビデオプレーン552に出力する機能とを有するデコーダである。
 同期開始パケット決定部540は、データバッファ601に格納されているストリームに含まれているパケットの中と、データバッファ611に格納されているストリームに含まれているパケットの中とから、それぞれ、同期して表示を開始するパケット(以下、「同期開始TSパケット」と呼ぶ。)を決定する機能を有する。
 以下、図面を用いて、同期開始パケット決定部540の行う開始表示TSパケットの決定の方法について説明する。
 図7(a)は、データバッファ601に放送ストリームのTTSストリームがバッファリングされ、データバッファ611に通信ストリームのTTSストリームがバッファリングされている様子を示す模式図である。
 図7(a)中のVと書かれている箱は、それぞれ、ストリームに含まれるGOP(Group Of Pictures)の先頭のTSパケットを表わし、箱の上の数字は、そのパケットが記憶されている、データバッファ601又はデータバッファ611のメモリアドレスを表わしている。一般に、GOPの先頭フレームは、Iピクチャである。
 図7(a)中のSIと書かれている箱は、ストリームに含まれるSIを表わし、ここではSIに格納されているSTC_Offsetが“-2000”であるとして説明する。
 同期開始パケット決定部540は、まず、データバッファ601に記憶されている放送ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、SIに格納されているSTC_Offsetとを取得して、第1GOP情報テーブルを生成する。
 図7(b)に、同期開始パケット決定部540によって生成される第1GOP情報テーブルの一例である第1GOP情報テーブル710を示す。
 図7(b)に示されるように、第1GOP情報テーブル710は、アドレス711とPTS712とPTS+STC_offset713とが対応付けられたテーブルである。
 アドレス711は、同期開始パケット決定部540によって取得された、GOPの先頭のTSパケットのメモリアドレスである。
 PTS712は、対応するアドレス711に記憶されている、GOPの先頭のTSパケットのPTS値である。
 PTS+STC_offset713は、対応するPTS712のPTS値に、同期開始パケット決定部540によって取得されたSTC_offsetの値を加算して得られた値(以下、「PTS+STC_offset値」と呼ぶ。)である。
 次に、同期開始パケット決定部540は、データバッファ611に記憶されている通信ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値とを取得して、第2GOP情報テーブルを生成する。
 図7(b)に、同期開始パケット決定部540によって生成される第2GOP情報テーブルの一例である第2GOP情報テーブル720を示す。
 図7(b)に示されるように、第2GOP情報テーブル720は、アドレス721とPTS722とが対応付けられたテーブルである。
 アドレス721は、第1GOP情報テーブル710のアドレス711と同様のものであり、PTS722は、第1GOP情報テーブル710のPTS712と同様のものである。
 そして、同期開始パケット決定部540は、第1GOP情報テーブル710と第2GOP情報テーブル720とを比較して、PTS712の値と、PTS+STC_offset713の値とが一致する組み合わせの中から、PTS712の値が最も小さい組み合わせを探す。
 そして、その組み合わせのPTS+STC_offset713に対応付けられているアドレス711に格納されているTSパケットと、その組み合わせのPTS722に対応付けられているアドレス721に格納されているTSパケットとを、それぞれ、放送ストリームにおける同期開始TSパケット、通信ストリームにおける同期開始TSパケットとして算定する。
 図7(b)の例では、データバッファ601のメモリアドレス“500”に格納されているTSパケットが、放送ストリームにおける同期開始TSパケットとして算定され、データバッファ611のメモリアドレス“150”に格納されているTSパケットが、通信ストリームにおける同期開始TSパケットとして選定されることとなる。
 入力開始制御部541は、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングを決定する機能と、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングを決定する機能とを有する。
 以下、図面を用いて、入力開始制御部541の行う、出力タイミングの決定の方法について説明する。
 図8は、デコーダ入力器602とデコーダ入力器612とが、それぞれ、放送ストリームのTSパケット列と通信ストリームのTSパケット列とを、PIDフィルタ603とPIDフィルタ613とに出力するタイミング、及び、パケット列がデコードされて得られる映像フレームが、ビデオプレーンに出力されるタイミングを示すタイミング図である。
 ここでは、説明が必要以上に煩雑になってしまうことを避けるために、放送ストリームと通信ストリームとが、それぞれ映像ストリームのみによって構成されているとして説明し、後述のATC1、ATC2、STC1、STC2等の数値、フレームレート等は、実際の時間単位を無視して設定されている。実際に計算する場合には、実際の数値単位や、フレームレート等を考慮に入れた上で計算する必要がある。
 同図において、ATC1は、第1ATCカウンタ620によって定められるATC時間軸を示す。
 放送ストリームのTSパケット列801は、ATC1時間軸における、デコーダ入力器602から出力される各TSパケットのタイミングを示しており、各箱の幅は、各TSパケットが、デコーダ入力器602からPIDフィルタ603へ伝送される時間を示している。
 例えば、TSパケット820は、ATC1時間軸における時刻1300において、デコーダ入力器602から出力されることが示されている。
 ここでは、V1と記されているTSパケット820は、放送ストリームの同期開始TSパケットを示しており、PCR1と記されているTSパケット810は、放送ストリームの同期開始TSパケットの直近のPCRパケットを示している。そして、TSパケット820がデコードされて得られる映像フレームは、フレームIDが30であるものとする。
 ATC2は、第2ATCカウンタ640によって定められるATC時間軸を示す。
 通信ストリームのTSパケット列802は、ATC2時間軸における、デコーダ入力器612から出力される各TSパケットのタイミングを示しており、各箱の幅は、各TSパケットが、デコーダ入力器612からPIDフィルタ613へ伝送される時間を示している。
 例えば、TSパケット840は、ATC2時間軸における時刻3400において、デコーダ入力器612から出力されることが示されている。
 ここでは、V2と記されているTSパケット840は、通信ストリームの同期開始TSパケットを示しており、PCR2と記されているTSパケット830は、通信ストリームの同期開始TSパケットの直近のPCRパケットを示している。そして、TSパケット840がデコードされて得られる映像フレームは、フレームIDが30であるものとする。
 STC1は、第1STCカウンタ630によって定められるSTC時間軸を示す。
 放送ストリームのフレームID803は、放送ストリームのTSパケット列がデコードされて得られる映像フレームが、第1ビデオプレーン552に出力されるタイミングを示している。
 ここでは、TSパケット810がデコードされて得られるフレームIDが30となる映像フレームは、STC1時間軸における時刻2600、すなわち、ATC1時間軸における時刻1600に、第1ビデオプレーン552に出力されることが示されている。
 D1は、TSパケットがデコーダ入力器612から出力されてから、対応するデコードされた映像フレームが第1ビデオプレーン552に出力されるまでにかかる時間である。この例では、ATC1時間軸において300、STC1時間軸において300だけかかることが示されている。D1の算出式については後述する。
 STC2は、第2STCカウンタ650によって定められるSTC時間軸を示す。
 映像ストリームのフレームID804は、放送ストリームのTSパケット列がデコードされて得られる映像フレームが、第2ビデオプレーン555に出力されるタイミングを示している。
 ここでは、TSパケット840がデコードされて得られるフレームIDが30となる映像フレームは、STC2時間軸における時刻6600、すなわち、ATC2時間軸における時刻3600に、第2ビデオプレーン555に出力されることが示されている。
 D2は、TSパケットがデコーダ入力器622から出力されてから、対応するデコードされた映像フレームが第2ビデオプレーン555に出力されるまでにかかる時間である。この例では、ATC2時間軸において200、STC2時間軸において200だけかかることが示されている。D2の算出式については後述する。
 同図から、TSパケット820がデコードされて得られる映像フレームと、TSパケット840がデコードされて得られる映像フレームとが、それぞれ同時に、第1ビデオプレーン552と第2ビデオプレーン555とに出力されるためには、TSパケット820をデコーダ入力器602から出力するタイミングと、TSパケット840をデコーダ入力器612から出力するタイミングとを、D1-D2だけずらす必要があることがわかる。
 入力開始制御部541は、D1-D2の値を算出して、同期開始パケット決定部540によって決定された、放送ストリームの同期開始TSパケット(図8におけるTSパケット820)と、通信ストリームの同期開始TSパケット(図8におけるTSパケット840)とが、それぞれ同時に、第1ビデオプレーン552と第2ビデオプレーン555とに出力されるように、TSパケット820をデコーダ入力器602から出力するタイミングと、TSパケット840をデコーダ入力器612から出力するタイミングとが、算出したD1-D2の値だけずれるように、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングと、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングとを決定する。
 以下、D1-D2の値の算出方法について説明する。
 TSパケットXに付与されるATS値を返す関数をATS(X)とし、TSパケットXに付与されるPCR値を取得する関数をPCR(X)とし、TSパケット820がデコードされて得られる映像フレームが、第1ビデオプレーン552に出力されるタイミングをSyncPTS1とすると、D1は、次式のように表わすことができる。

[数1]
 D1 = SyncPTS1 ? PCR(PCR1) ? ATS(V1) + ATS(PCR1)

 また、TSパケット840がデコードされて得られる映像フレームが、第2ビデオプレーン555に出力されるタイミングをSyncPTS2とすると、D2は、次式のように表わすことができる。

[数2]
 D2 = SyncPTS2 ? PCR(PCR2) ? ATS(V2) + ATS(PCR2)

 従って、D1-D2は、

[数3]
 D1 ? D2 = SyncPTS1 ? PCR(PCR1) ? ATS(V1) + ATS(PCR1)
      [ SyncPTS2 ? PCR(PCR2) - ATS(V2) + ATS(PCR2)]

 と表わされる。
 この式に、図8に示される各値を代入すると、

[数4]
 D1 ? D2 = 2600 ? 2200 ? 1300 + 1200
      ? [ 600 ? 300 ? 3400 + 3600 ]
          = 300 ? 200
          = 100
 となる。
 以上のように構成される表示装置110の行う動作について、以下図面を参照しながら説明する。
 <動作>
 表示装置110は、その特徴的な動作として、放送ストリームのTSパケット列に含まれる放送映像と、通信ストリームのTSパケット列に含まれる通信映像とが、映像製作者の意図したタイミング通りに同期して表示されるように、放送ストリームのTSパケット列についてのデコーダ入力器602への出力開始タイミングと、通信ストリームのTSパケット列についてのデコーダ入力器612への出力開始タイミングとを算定し、算定した出力開始タイミングで、放送ストリームのTSパケット列と通信ストリームのTSパケット列との出力を開始する出力開始処理を行う。
 以下、この出力開始処理について説明する。
  <出力開始処理>
 図9は、出力開始処理のフローチャートである。
 出力開始処理は、データバッファ601への放送ストリームの入力と、データバッファ611への通信ストリームの入力とが開始されたことで開始される。
 出力開始処理が開始されると、同期開始パケット決定部540は、放送ストリームのうちの、データバッファ601へ格納済みのTSパケット列から、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、SIに格納されているSTC_Offsetとを取得して(ステップS900)、第1GOP情報テーブルを生成する(ステップS910)。
 次に、同期開始パケット決定部540は、通信ストリームのうちの、データバッファ611へ格納済みのTSパケット列から、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値とを取得して(ステップS920)、第2GOP情報テーブルを生成する(ステップS930)。
 そして、同期開始パケット決定部540は、第1GOP情報テーブル710と第2GOP情報テーブル720とを比較して、PTS712の値と、PTS+STC_offset713の値とが一致する組み合わせが存在するか否かを調べる(ステップS940)。
 ステップS940の処理において、一致する組み合わせが存在する場合に(ステップS940:Yes)、同期開始パケット決定部540は、一致する組み合わせの中から、PTS712の値が最も小さい組み合わせを探す。そして、その組み合わせのPTS+STC_offset713に対応付けられているアドレス711に格納されているTSパケットと、その組み合わせのPTS722に対応付けられているアドレス721に格納されているTSパケットとを、それぞれ、放送ストリームにおける同期開始TSパケット、通信ストリームにおける同期開始TSパケットとして算定する(ステップS950)。
 放送ストリームにおける同期開始TSパケットと、通信ストリームにおける同期開始TSパケットとが算定されると、入力開始制御部541は、D1-D2を算出し(ステップS960)、放送ストリームの同期開始TSパケットの出力タイミングと、通信ストリームの同期開始TSパケットの出力タイミングとが算出したD1-D2となるように、放送ストリームのTSパケット列についてのデコーダ入力器602への出力開始タイミングと、通信ストリームのTSパケット列についてのデコーダ入力器612への出力開始タイミングとを算定し、算定した出力開始タイミングで、放送ストリームのTSパケット列と通信ストリームのTSパケット列との出力を開始する(ステップS970)。
 ステップS970の処理が終了した場合、及び、ステップS940の処理において、一致する組み合わせが存在しない場合に(ステップS940:No)、表示装置110は、その出力開始処理を終了する。
 <考察>
 上記構成の表示装置110は、通信ストリームを構成する映像フレームのそれぞれを、各映像フレームに対応付けられているPTSに対して、STC_Offsetの値だけ加算して得られるタイミングで表示することとなる。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例1>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第1変形表示装置について説明する。
 実施の形態における表示装置110は、ATCカウンタとして、第1ATCカウンタ620と第2ATCカウンタ640との2つのカウンタを備え、STCカウンタとして、第1STCカウンタ630と第2STCカウンタ650との2つのカウンタを備える構成であった。
 これに対して、変形例1における第1変形表示装置は、ATCカウンタを1つ、STCカウンタを1つ備える構成の例である。
 以下、変形例1における第1変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
 <構成>
 第1変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第1変形主要ビデオデコード部に変更されるように変形されている。
 図10は、第1変形主要ビデオデコード部の構成図である。
 同図に示されるように、第1変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、第2ATCカウンタ640と第2STCカウンタ650とが削除され、ATC_Offset加算器1040とSTC_Offset加算器1050とが追加されるように変形されている。
 ATC_Offset加算器1040は、放送ストリームに対する通信ストリームのATCオフセット値を示すATC_Offsetを算出し、第1ATCカウンタ620から送られて来たATC時刻に対して、算出したATC_Offsetを加算して出力する機能を有する。
 ここで、放送ストリームのSTC時間軸における値Xに対応するATC値を返す関数をATC1(X)とし、通信ストリームの時間軸における値Xに対応するATC値を返す関数をATC2(X)とすると、ATC_Offsetは、次式のように表わすことができる。

[数5]
 ATC_Offset = ATC2(SyncPTS2) ? ATC1(SyncPTS1)

 この式は、以下のように変形することができる。

[数6]
 ATC_Offset = [ SyncPTS2 + ATC2(PCR2) ? PCR(PCR2) ]
                 ? [SyncPTS1 + ATC(PCR1) ? PCR(PCR1) ]
              = STC_Offset + [ ATC2(PCR2) ? PCR(PCR2) ]
                 ? [ ATC1(PCR1) ? PCR(PCR1) ]

 この式に、図8に示される各値を代入すると、

[数7]
 ATC_Offset = ?2000 + [ 3300 ? 300 ] ? [ 1200 -2200 ]
               = 2000
 となる。
 STC_Offset加算器1050は、第1STCカウンタ630から送られて来たSTC時刻に対して、放送ストリームに含まれるSTC_Offsetを加算して出力する機能を有する。
 <考察>
 上記構成の第1変形表示装置は、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、映像ストリームのデコードを行う。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例2>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、変形例1における第1変形表示装置の一部を変形した第2変形表示装置について説明する。
 変形例1における第1変形表示装置は、通信サービス提供局130が送信する通信ストリームがMPEG-2 TS形式であるTTSストリームである場合に対応する構成であった。
 これに対して、変形例2における第2変形表示装置は、通信サービス提供局130が送信する通信ストリームがPESパケット列で構成されるPESストリームである場合に対応する構成の例である。
 以下、変形例2における第2変形表示装置の構成について、図面を参照しながら、変形例1における第1変形表示装置との相違点を中心に説明する。
 <構成>
 第2変形表示装置は、変形例1における第1変形表示装置から、第1変形主要ビデオデコード部が第2変形主要ビデオデコード部に変更されるように変形されている。
 図11は、第2変形主要ビデオデコード部の構成図である。
 同図に示されるように、第2変形主要ビデオデコード部は、変形例1における第1変形主要ビデオデコード部(図10参照)から、デコーダ入力器612とPIDフィルタ613とATC_Offset加算器1040が削除され、第2ビデオデコーダ523が第2ビデオデコーダ1123に変更されるように変形されている。
 第2ビデオデコーダ1123は、変形例1における第2ビデオデコーダ523から、TB614とMB615とが削除され、EB616がEB1116に変更されるように変形されている。
 EB1116は、符号化状態にあるピクチャを格納するためのバッファであって、データバッファ611からEB606にPESパケットが送信される際に、PESパケットからPESパケットヘッダを取り除く機能を有する。
 第2変形表示装置において、入力開始制御部541は、放送ストリームの、データバッファ601からデコーダ入力器602への出力の開始について、EB1116に十分なデータが溜まるまで(例えば、EB616に1秒分のデータが溜まるまで、EB1116の記憶容量がフルになるまで等が考えられる)待ってから行う。そして、通信ストリームのデータバッファ611からEB1116への出力について、EB1116がアンダーフローしてしまわないように、連続的にデータの出力を行う。
 <考察>
 上記構成の第2変形表示装置は、変形例1における第1変形表示装置と同様に、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、映像ストリームのデコードを行う。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例3>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第3変形表示装置について説明する。
 実施の形態における表示装置110は、第1ビデオデコーダ514から出力される映像フレームと、第2ビデオデコーダ523から出力される映像フレームとを、プレーン合成処理部560が合成する構成であった。
 これに対して、第3変形表示装置は、第1ビデオデコーダ514から出力される映像フレームと、第2ビデオデコーダ523から出力される映像フレームとを再び多重化する構成の例である。
 以下、変形例3における第3変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
 <構成>
 第3変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第3変形主要ビデオデコード部に変更されるように変形されている。
 図12は、第3変形主要ビデオデコード部の構成図である。
 同図に示されるように、第3変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、プレーン合成処理部560とビデオデコーダ607とビデオデコーダ617とが削除され、多重化器1260とTS再生機1270とが追加されるように変形されている。
 多重化器1260は、EB606から出力される、符号化状態にある映像フレーム列からTSパケット列(以下、「第2放送ストリーム」と呼ぶ。)を生成し、EB616から出力される、符号化状態にある映像フレーム列からTSパケット列(以下、「第2通信ストリーム」と呼ぶ。)を生成し、生成した第2放送ストリームと第2通信ストリームとを多重化して、合成ストリームを出力する機能を有する。
 ここでは、多重化器1260は、第2放送ストリームと第2通信ストリームとを多重化する際に、例えば、第2放送ストリームのシステムレートと、第2通信ストリームのシステムレートとを倍速化して多重化する。
 図13(a)は、システムレートが倍速化される前における、第2放送ストリームのTSパケット列と第2通信ストリームのTSパケット列とのタイミングを示すタイミング図である。ここでは、倍速前のシステムレートが24Mbpsであるとする。
 各箱は、TSパケット列を構成するTSパケットを示し、各箱の幅であるdtは、各TSパケットが、PIDフィルタへ入力されてから出力されるまでの時間を示し、ここでは、dt=188×8/240000000となっている。
 図13(b)は、システムレートが倍速化された後における、第2放送ストリームのTSパケット列と第2通信ストリームのTSパケット列とのタイミングを示すタイミング図である。ここでは、システムレートが24Mbpsから48Mbpsへと倍速化されている。そして、このことによって、dt=188×8/480000000となっている。
 図13(c)は、合成ストリームのTSパケット列のタイミングを示すタイミング図である。
 図13(b)と図13(c)とからわかるように、第2放送ストリームのシステムレートと、第2通信ストリームのシステムレートとを倍速化して多重化することで、第2放送ストリームと第2通信ストリームとの多重化を、比較的容易に行うことができる。
 ATC2からATC1への変換方法は、例えば、変形例1で説明したATC_Offsetを算出する方法等がある。
 再び、図12に戻って、第3変形主要ビデオデコード部の説明を続ける。
 TS再生機1270は、多重化器1260から送られて来た合成ストリームから、第2放送ストリームと第2通信ストリームとを分離し、第2放送ストリームに含まれる映像フレームと第2通信ストリームに含まれる映像フレームと同期して出力する機能を有する。
 <考察>
 上記構成の第3変形表示装置によると、多重化器1260が生成する合成ストリームは、STC_offsetが加味された上で多重化されたものとなる。このことにより、多重化器1260が生成する合成ストリームは、通常のTSストリームと同様のものとなる。従って、多重化器1260が生成する合成ストリームを光ディスク等に記憶させて、別の再生機器で再生させることが可能となる。
<変形例4>
 <概要>
 以下、本実施の形態に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第4変形表示装置について説明する。
 実施の形態における表示装置110は、放送映像と通信映像との同期表示を、ATC1、ATC2、STC1、STC2の4つの時間軸を利用して行う構成であった。
 これに対して、変形例4における第4変形表示装置は、放送映像と通信映像との同期表示を、これら4つの時間軸にAbsTime時間軸を加えた計5つの時間軸を利用して行う構成の例である。
 以下、変形例4における第4変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
 <構成>
 第4変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第4変形主要ビデオデコード部に変更されるように変形されている。
 図14は、第4変形主要ビデオデコード部の構成図である。
 同図に示されるように、第4変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、同期開始パケット決定部540と入力開始制御部541とが削除され、同期開始パケット決定部1440と同期開始パケット決定部1450と入力開始制御部1441と入力開始制御部1451と水晶振動子1460とAbsTimeカウンタ1410とAbsTimeカウンタ1411とが追加されるように変形されている。
 そして、破線より上の構成要素が第1の筐体(例えば、テレビ受像機)に格納され、破線より下の構成要素が第2の筐体(例えば、タブレット端末)に格納されている。
 水晶振動子1460は、水晶振動子660と同様に、水晶の圧電効果を利用して、27MHzの周波数で発振する振動子である。
 AbsTimeカウンタ1410とAbsTimeカウンタ1411とは、それぞれ、水晶振動子660、水晶振動子1460の発信を利用して、AbsTime時間軸を刻むカウンタであって、27MHzの周波数で値をインクリメントする機能を有する。
 ここで、AbsTimeは、RTC(Real Time Clock)である。
 また、AbsTimeカウンタ1410とAbsTimeカウンタ1411とは、互いに通信する機能を有し、NTP(Network Time Protocol)等を利用して、AbsTimeカウンタ1410の刻むAbsTimeとAbsTimeカウンタ1410の刻むAbsTimeとは、時刻が合わせられている。
 同期開始パケット決定部1440と同期開始パケット決定部1450とは、互いに通信する機能を有し、同期開始パケット決定部1440と同期開始パケット決定部1450とからなるブロックが、実施の形態における同期開始パケット決定部540と同等の機能を実現する。
 入力開始制御部1441と入力開始制御部1451とは、互いに通信する機能を有し、入力開始制御部1441と入力開始制御部1451とからなるブロックが、実施の形態における入力開始制御部541と同等の機能を実現する。ここで、入力開始制御部1441と入力開始制御部1451とは、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングを決定する機能の実現と、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングを決定する機能の実現とにおいて、ATC1、ATC2、STC1、STC2の4つの時間軸にAbsTime時間軸を加えた計5つの時間軸を利用する。
 以下、図面を用いて、入力開始制御部541の行う、出力タイミングの決定について説明する。
 図15は、図9のタイミング図に、時間軸AbsTimeが追加されたタイミング図である。この図は、同期再生を開始するAbsTime時間軸上の値であるSyncAbsTimeが5600である場合の図となっている。
 この場合に、放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602への入力開始タイミングは、AbsTime時間軸上では、SyncAbsTime - D1で計算でき、5600-300=5300となる。この放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602へのAbsTime時間軸上の入力開始タイミングをInputAbsTime1とする。また、この場合に、通信ストリームの同期開始TSパケット(V2)のデコーダ入力器612への入力開始タイミングは、AbsTime時間軸上では、SyncAbsTime - D2で計算でき、5600-200=5400となる。この放送ストリームの同期開始TSパケット(V2)のデコーダ入力器612へのAbsTime時間軸上の入力開始タイミングをInputAbsTime2とする。入力開始制御部1441は、InputAbsTime1のタイミングで、放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602への入力を開始する。入力開始制御部1451は、InputAbsTime2のタイミングで、通信ストリームの同期開始TSパケット(V2)のデコーダ入力器612への入力を開始する。これにより、SyncAbsTimeのタイミングで、それぞれ同期してそれぞれのビデオフレームの表示開始することが可能となる。
 <考察>
 上記構成の第4変形表示装置によると、第1ビデオプレーン552に格納される画像を、第1の筐体に備えられたディスプレイで表示し、第2ビデオプレーン555に格納される画像を、第2の筐体に備えられたディスプレイで表示することで、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して、それぞれ、第1の筐体と第2の筐体とで表示することが可能となる。
<変形例5>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、変形例1における第1変形表示装置の一部を変形した第5変形表示装置について説明する。
 変形例1における第1変形表示装置は、通信サービス提供局130が送信する通信ストリームがMPEG-2 TS形式である場合に対応する構成であった。
 これに対して、変形例5における第5変形表示装置は、通信サービス提供局130が、放送映像に同期して表示するグラフィックスデータを送信する場合に対応する構成の例である。グラフィックスデータとして、例えば、放送映像がサッカーの試合の場合における、選手名等の選手に関する情報等が考えられる。
 以下、変形例5における第5変形表示装置の構成について、図面を参照しながら、変形例1における第1変形表示装置との相違点を中心に説明する。
 <構成>
 第5変形表示装置は、変形例1における第1変形表示装置から、第1変形主要ビデオデコード部が第5変形主要ビデオデコード部に変更されるように変形されている。
 図16は、第5変形主要ビデオデコード部の構成図である。
 同図に示されるように、第5変形主要ビデオデコード部は、変形例1における第1変形主要ビデオデコード部(図10参照)から、データバッファ611とデコーダ入力器612とPIDフィルタ613とTB614とMB615とEB616とビデオデコーダ617と第2ビデオプレーン555とATC_Offset加算器1040とが削除され、アプリケーション実行制御部530とグラフィックスプレーン554とが追加されるように変形されている。
 変形例5において、アプリケーション実行制御部530は、アプリケーションを実行することで、通信インターフェース502によって取得されたCG画像データからCG画像を描画して、グラフィックスプレーン554に出力する。
 図17(a)は、CG画像データのデータ構成の一例を示すデータ構成図である。
 同図に示されるように、CG画像データは、DTSとPTSとが付与された描画指示データとなっている。描画指示データとは、スクリプトコードであって、例えば、アプリケーションフォーマットがHTMLの場合には、JavaScript(登録商標)のグラフィックスの描画コードである。
 アプリケーション実行制御部530は、アプリケーションを実行することで、STC_Offset加算器1050から出力されるSTC2の時間軸におけるDTSのタイミングで描画を開始し、描画したCG画像をグラフィックスプレーン554に出力する。
 ここで、アプリケーションは、例えば、GetCurrentTime(stc)といった関数で現在時刻を取得して、DTSで示されるタイミングで描画を開始し、例えば、SyncBuffer(outputPTS)といった関数で、指定時刻(outputPTS)に描画したCG画像を出力する。
 変形例5において、グラフィックスプレーン554は、ダブルバッファ構造になっている。
 図17(b)は、CG画像の描画と表示とのタイミングを示すタイミング図である。
 図17(b)に示されるように、アプリケーション実行制御部530は、グラフィックスプレーン554のダブルバッファのうちの一方のバッファに、DTSで示されるタイミングで描画を開始し、グラフィックスプレーン554は、PTSで示されるタイミングで、描画されたCG画像を表示する。
 このように、グラフィックスプレーン554をダブルバッファ構造とすることで、滑らかなCG画像の表示を実現することができる。
 なお、アプリケーション実行制御部530は、同期開始パケット決定部540と入力開始制御部541との替わりに、アプリケーションを実行することでこれらの機能を実現するとしてもよい。この場合、例えば、GetGOPTable(gop_table)といった関数でGOP情報テーブルを取得し、取得したGOP情報テーブルに含まれるPTS等を元に同期開始TSパケットを決定し、SetStartPTS(pts)やSetStartFrameID(frameID)といった関数で、実行開始を指示する。
 <考察>
 上記構成の第5変形表示装置は、変形例1における第1変形表示装置と同様に、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、CG画像の描画と出力とを行う。そして、このことによって、受信した放送映像と受信したCG画像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例6>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、変形例5における第5変形表示装置の一部を変形した第6変形表示装置について説明する。
 第6変形表示装置は、変形例5における第5変形表示装置に対して、CG画像を描画するハードウエアアクセラレータであるグラフィックスエンジンが追加された構成の例である。
 以下、変形例6における第6変形表示装置の構成について、図面を参照しながら、変形例5における第5変形表示装置との相違点を中心に説明する。
 <構成>
 第6変形表示装置は、変形例5における第5変形表示装置から、第5変形主要ビデオデコード部が第6変形主要ビデオデコード部に変更されるように変形されている。
 図18は、第6変形主要ビデオデコード部の構成図である。
 同図に示されるように、第6変形主要ビデオデコード部は、変形例5における第5変形主要ビデオデコード部(図16参照)から、EB1840とグラフィックスエンジン1850とが追加されるように変形されている。
 EB1840は、CG画像データを格納するためのバッファである。
 変形例6において、アプリケーション実行制御部530は、アプリケーションを実行することで、通信インターフェース502によって取得されたCG画像データをEB1840に蓄える。
 グラフィックスエンジン1850は、EB1840に格納されたCG画像データから、DTSで示されるタイミングで描画して、グラフィックスプレーン554に出力する機能を有する。
<変形例7>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第7変形表示装置について説明する。
 実施の形態における表示装置110は、放送ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDと、通信ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDとが一致する場合に対応する構成であった。
 これに対して、変形例7における第7変形表示装置は、放送ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDと、通信ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDとが一致しない場合に対応する構成の例となっている。
 この例では、放送局120が送信する放送ストリームに含まれる映像フレームのそれぞれと、通信サービス提供局130が送信する通信ストリームに含まれる映像フレームのそれぞれとに、自映像フレームを識別するためのフレームIDが付与される。
 ここでは、放送ストリームにおいて、映像フレームのそれぞれは、先頭側から表示順にインクリメントされたフレームIDが付与され、通信ストリームにおいて、映像フレームのそれぞれは、先頭側から表示順にインクリメントされたフレームIDが付与される。そして、放送ストリームに含まれる映像フレームへのフレームIDの付与と、通信ストリームに含まれる映像フレームへのフレームIDの付与とは、互いに同期して表示される映像フレームに対して同一のフレームIDが付与されるように行われる。
 以下、変形例7における第7変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
 <構成>
 第7変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第7変形主要ビデオデコード部に変更されるように変形されている。
 ここでは、第7変形主要ビデオデコード部を図示せずに、実施の形態における主要ビデオデコード部を示す図6を用いて、第7変形主要ビデオデコード部の説明を行う。
 第7変形例において、同期開始パケット決定部540は、データバッファ601に記憶されている放送ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭のTSパケットのPTS値と、GOPの先頭のTSパケットのフレームIDと、SIに格納されているSTC_Offsetとを取得し、データバッファ611に記憶されている通信ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、GOPの先頭のTSパケットのフレームIDとを取得して、変形第1GOP情報テーブルと変形第2GOP情報テーブルとを生成する。
 図19に、同期開始パケット決定部540によって生成される変形第1GOP情報テーブルの一例である変形第1GOP情報テーブル1910と、同期開始パケット決定部540によって生成される変形第2GOP情報テーブルの一例である変形第2GOP情報テーブル1920とを示す。
 同図に示されるように、変形第1GOP情報テーブル1910は、アドレス1911とPTS1912とPTS+STC_offset1913とフレームID1914とが対応付けられたテーブルである。
 アドレス1911とPTS1912とPTS+STC_offset1913とは、それぞれ、実施の形態におけるアドレス711とPTS712とPTS+STC_offset713と同様のものである(図7(b)参照)。
 フレームID1914は、対応するアドレス1911に記憶されている、GOPの先頭のTSパケットのフレームIDである。
 図19に示されるように、変形第2GOP情報テーブル1910は、アドレス1921とPTS1922とフレームID1924とが対応付けられたテーブルである。
 アドレス1921とPTS1922とフレームID1924とは、それぞれ、アドレス1911とPTS1912とフレームID1914と同様のものである(図7(b)参照)。
 ここでは、放送ストリームのGOPテーブル情報のアドレス500のエントリのフレームIDが30であるのに対して、通信ストリームのGOPテーブル情報のアドレス150のエントリのフレームIDが32となっている。
 このようなケースでは、同期開始パケット決定部540は、放送ストリームのGOPテーブル情報から、同期再生を開始するエントリを決め、図19の例ではフレームID=30とすると、通信ストリームの変形第2GOP情報テーブル1920から、該当フレームIDよりも後方にあるフレームIDのエントリを探索し、図19の例では、フレームID=32のエントリが対象となる。
 図20は、第7変形表示装置において、デコーダ入力器602とデコーダ入力器612とが、それぞれ、放送ストリームのTSパケット列と通信ストリームのTSパケット列とを、PIDフィルタ603とPIDフィルタ613とに出力するタイミング、及び、パケット列がデコードされて得られる映像フレームが、ビデオプレーンに出力されるタイミングを示すタイミング図である。
 入力開始制御部541は、図20のように、デコーダへの入力タイミングを決定する。まず、図8で説明した方法と同様に、D1、D2を計算する。次に、放送ストリームの同期開始PTS(SyncPTS1)と、通信ストリームの同期開始PTS(SyncPTS2)を同一時間軸に射影したときの差分値(D3)を算出する。D3の計算式は、D3=SyncPTS2+STC_Offset-SyncPTS1で算出される。入力開始制御部541は、V1のデコーダへの入力を開始した後、D1+D3-D2の値だけ遅らせて、V2のデコーダへの入力を開始する。このように構成することで、同期を開始するGOPの先頭時刻が、放送ストリームと通信ストリームとで一致しない場合において、放送ストリームと通信ストリームの同期再生が可能となる。
 なお、図19のように、放送ストリームと通信ストリームのGOP構造が一致しない場合には、時間軸の遅い方である通信ストリームのGOP先頭の表示時刻まで、放送ストリームの表示を行わないようにしてもよい。または、図20のように、放送ストリームから先に出し始めてもよい。もしくは、ユーザが選択できるようにしてもよい。
 なお、フレームIDの値が、放送ストリームと通信ストリームで共通のPTSやTimeCodeの値であってもよい。このように構成することで、例えば、図20におけるD3の計算が、その値を使うだけでよくなり、容易になる。
<変形例8>
 <概要>
 以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第8変形表示装置について説明する。
 実施の形態における表示装置110は、放送局120が送信する放送ストリームが、MPEG-2 TS形式のTTSストリームである場合に対応する構成であった。
 これに対して、変形例8における第8変形表示装置は、放送局120が送信する放送ストリームが、MPEG-2 TS形式のTSストリームである場合に対応する構成の例である。
 以下、変形例8における第8変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
 <構成>
 第8変形表示装置は、実施の形態における表示装置110において、チューナ501と第1多重分離部511との間に(図5参照)、変換器2100が追加されるように変形されている。
 図21は、変換器2100の構成を示す構成図である。
 同図に示されるように、変換器2100は、水晶振動子2130とATCカウンタ2140とTSパケットフィルタリング器2110とATS付与器2120とから構成される。
 水晶振動子2130とATCカウンタ2140とは、それぞれ、実施の形態における水晶振動子660(図6参照)と第1ATCカウンタ620と同様のものである。
 TSパケットフィルタリング器2110は、EITの番組情報、及びPMTパケットのプログラム内のストリーム構成情報を利用して、ユーザが選択する番組を構成するTSパケットのみをフィルタリングして、ATS付与器2120に入力する。
 ATS付与器2120は、TSパケットフィルタリング器2110を経由して入力される188バイトのTSパケットに対して、ATCカウンタ2140のATC値を参照して、TSパケットの先頭にATS値を付与し、192バイトのTSパケットを生成する。ATSのフィールドは4バイトなので、0x0から0xFFFFFFFF0の値を取り、ATC値が0xFFFFFFFF以上の値になった場合には、再びWrap-aroundとして0に戻る。なお、Blu-rayの場合には、TSパケットの先頭4Byteの先頭2bitはコピー制御情報に利用されるため、ATS値は30bitであり、30bitでWrap-aroundする。
 変換器2100は、図21に示される構成を取ることによって、放送ストリームの各TSパケットに対して、その先頭部にATSを付与する機能を有する。
 そして、チューナ501と第1多重分離部511との間に、変換器2100が配置されることで、第1多重分離部511に入力される放送ストリームは、TTSストリームとなる。
<他の変形例>
 放送ストリームと通信ストリームの同期再生を実現する上では、放送ストリームと通信ストリームをバッファリングしてデータがそろってから再生する必要があり、また通信ネットワークのネットワーク遅延を考慮して、遅延再生が必要となる。
 図22は遅延再生時の課題を示している。タイムラインAは、表示時刻(AbsTime)であり、NTP等の手段により同期が合わされたRTC等の端末共通時刻情報を示している。タイムラインBは、通常の放送波で再生する場合に、表示時刻(AbsTime)
で表示される放送ストリームのビデオのPTSを示している。タイムラインCは、同期再生を実現する際に、遅延再生する場合に、表示時刻(AbsTime)で表示される放送ストリームのビデオのPTSを示している。タイムラインBとタイムラインC間に記載される矢印は、同期再生の再生ルートを示している。まず、AbsTime100から200の間はバッファリングを行い、データバッファに放送ストリームと通信ストリームのデータを格納する。次に、AbsTime200から500の間は、放送ストリームと通信ストリームの同期再生を実行する。AbsTime500で同期再生を終了し、AbsTime500からは通常再生に戻る。このようなケースの場合には、放送ストリームにおいて、PTS1400からPTS1500までのデータが表示されなくなる問題が発生する。例えば、このシーンがCMである場合には、同期表示するユーザは、CMを見ないため、放送局のビジネスが成り立たなくなってしまう課題がある。
 そこで、この課題に対応するためのストリームのデコード手段を図23に示す。図23は放送ストリームのデコーダ入力器602の前にセレクタ2302が追加されており、放送ストリームだけでなく、補足ストリームのデータを入力可能としている。補足ストリームとは、遅延再生によって、放送ストリームのデータが欠けることを補うためのストリームである。補足ストリームはあらかじめデータバッファ2301(例えば、HDD等)にダウンロードして格納されていると好ましい。図24では、放送ストリームと通信ストリームのバッファリングの期間において、補足ストリームの再生を行い、図23で追加されたセレクタ2302を切り替え、バッファリングが完了と同時に放送ストリームと通信ストリームの同期再生を実行する。放送ストリームのPTS1400-1500のコンテンツと、補足ストリームのコンテンツを一致させておけば、ユーザは放送ストリームの映像を欠けることなく見ることが可能となる。
 なお、このようにバッファリング中の表示コンテンツを放送局の意図通りのコンテンツにするために、同期再生時刻を制御できることが好ましい。つまり、同期開始する表示時刻(AbsTime)をアプリケーションのAPI等でセットできることが好ましい。その情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。同期開始する表示時刻を制御する方法は、図14で示した方法で実現すればよい。
 なお、図26に示すように、同期再生の一部または全部において、同期再生の再生速度を上げて、同期再生終了時の表示時刻AbsTimeにおける放送ストリームのPTSが一致するように構成してもよい。図26の例では、遅延再生のタイムラインCにおいて、PTS1100からPTS1500まで早送り再生され、通常再生のタイムラインBと同じタイミングで終了する。
 なお、図25に示すように、放送ストリームに対して、遅延停止禁止期間を識別する情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。例えば、図25上段の例では、放送ストリームにおいて、PTS1400からPTS1500には、遅延停止禁止区間が設定されている。この場合には、AbsTime500にユーザから同期再生終了指示がされたとしても、同期再生処理を終了せず、遅延停止禁止区間が終了するまで遅延再生を継続させた後、通常再生に戻る。このような構成にすることによって、放送局が表示して欲しい映像を、同期再生においてもユーザに表示することが可能となる。なお、ユーザ終了指示のタイミングが、遅延停止禁止区間に入っているかどうかの判別は、バッファリング期間も考慮する必要がある。例えば、図25の例では、バッファリング期間は、1000から1100であり、長さは100であるため、AbsTime400から500の間、つまり放送ストリーム1300から1400再生中においても遅延停止禁止区間として処理する。
 なお、図25に示すように、放送ストリームに対して、遅延許可、禁止区間を識別する情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。例えば、図25下段の例では、放送ストリームにおいて、PTS1100からPTS1500までは、遅延許可区間、PTS1500以降は遅延禁止区間に設定されている。この場合には、AbsTime200からAbsTime600までは遅延再生を実行しAbsTime600以降は、通常再生に戻る。このような情報を再生装置に通知することによって、放送局の意図通りに遅延再生のOn/Offを制御でき、番組の切り替わり等をスムーズに遷移させることができる。
 なお、放送ストリームの途中で、STC不連続点が発生する場合や、放送ストリームの途中で、別映像が挿入される場合には同期を停止するようにしてもよい。このためには、放送ストリームや通信ストリームや通信データ等に、同期停止信号が格納され、その信号を受信するとストリームデコード手段は、同期再生を停止して、通常再生に戻る。このことをアプリケーションに通知するために、APIやEventがアプリケーション側に用意される。アプリケーションは、必要に応じてリスタートする。
 なお、例えば、サッカー中継を遅延再生している場合に、インターネットの情報(例えば、Twitterのコメント)を表示すると、インターネットの情報は遅延していないため、映像とインターネットの情報が同期しない問題が発生する。この問題を解決するためには、同期再生のストリームデコード手段は、グラフィックスを表示するアプリケーション制御部に、遅延時間を取得するAPIを提供する。遅延時間は、デコード開始時刻とバッファリング開始時刻のそれぞれAbsTimeを保持しておき、その差分を計算すればよい。もしくは、現在時刻(AbsTime)と、現在デコード中のストリームのTOTパケットの時刻データを比較することで、大まかな遅延時間は算出できる。この遅延時間を利用することで、インターネットの情報(例えば、Twitterのコメント)も、現在時刻-遅延時間までのデータを抽出して表示する。このようにすることで、表示する映像とインターネット情報の同期表示が可能となる。
 なお、同期再生をしている番組から、別の番組に移行する場合に、バッファリングをリセットしてしまうと、再度同期再生番組に戻った場合に、再度バッファリングをすると、ユーザにとって煩雑である。そこで、ザッピングをする場合には、ユーザにバッファリング継続するかどうかを尋ねるメニューを提示してもよい。バッファリング継続が選択される場合には、通信ストリームはデータバッファへのバッファリングを継続する。また、バッファリング継続するかどうかはプリファレンスメニューで設定できてもよい。
 なお、同期再生を行う番組に必要なデータは、できるだけあらかじめダウンロードすることが求められる。そこで、再生装置において、放送番組の視聴予約や録画予約をした場合に、同期再生に必要なデータをHDD等にダウンロードしておくようにしてもよい。なお、同期再生を行う録画番組においては、遅延せずに録画処理を行う。
 なお、同期再生において、緊急放送を正しくユーザに伝えるために、緊急放送の信号が放送ストリームに含まれる場合には、直ちに遅延再生を停止し、通常の放送再生に戻るようにしてもよい。データバッファに格納される放送ストリームは、常に、緊急放送信号を監視することで実現する。
 なお、本実施の形態における同期再生を実現するためのアプリケーション実行部が提供する同期再生制御モジュールのAPI一覧を図27に示す。ここではアプリケーションはHTMLコンテンツであるとして説明する。1列目はメソッド名、2列目はAPI概要説明、3列目は引数、4列目はコメントである。AddVideoは、HTML5のビデオタグ等で指定されるビデオストリームを含むストリームのエントリを追加するAPIである。引数には、ビデオオブジェクト(VideoObject)、マスターかどうか(bMaster)、ストリーム上の開始PTS(StartPTS)、マスターとのPTS差分(ptsOffset)を指定する。その他のパラメータとしては、ストリーム終了時にストリーム先頭に戻ってループ再生するかどうかのフラグ、プレーンの合成順番、透過度、STC_Offset等がある。AddAudioは、HTML5のオーディオタグ等で指定されるオーディオストリームを含むストリームのエントリを追加するAPIである。引数には、オーディオオブジェクト(audioObject)、ストリーム上の開始PTS(StartPTS)、マスターとのPTS差分(ptsOffset)を指定する。その他のパラメータとしては、ストリーム終了時にストリーム先頭に戻ってループ再生するかどうかのフラグ、マスター音声とのミキシング係数等がある。AddCanvasは、HTML5のグラフィックス描画モジュールであるcanvasオブジェクトを追加するAPIである。引数にはcanvasオブジェクトを指定する。RemoveVideo,RemoveAudio,RemoveCanvasは、それぞれ追加したビデオオブジェクト、オーディオオブジェクト、キャンバスオブジェクトを削除するAPIである。Playは同期再生開始を指示するAPIである。引数には、再生遅延時間(StartUpDelay)、再生モード(Mode)を指定する。再生モードは、PoutP、PinPの他に、放送ストリームを左目、通信ストリームを右目として3D再生をするモードなどがある。Stopは同期再生停止、Pauseは同期再生一時停止である。GetStartUpDelayは、遅延時間を取得するAPIである。
 図28は、放送ストリーム(ビデオストリーム+オーディオストリーム)と通信ストリーム(ビデオストリーム)を同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで、ビデオを3つ定義している。1番目は補足ストリーム、1番目は放送ストリーム、3番目は通信ストリームである。Javascriptの動作説明は、図28にコメントを記載している。
 図29は、放送ストリーム(ビデオストリーム+オーディオストリーム)と通信ストリーム(オーディオストリーム)を同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで放送ストリーム、オーディオタグで通信ストリームを指定する。Javascriptの動作説明は、図29にコメントを記載している。
 図30は、放送ストリーム(ビデオストリーム+オーディオストリーム)とグラフィックスデータを同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで放送ストリーム、キャンバスタグでグラフィックス描画領域を指定する。Javascriptの動作説明は、図30にコメントを記載している。
 なお、本実施の形態において、放送ストリームと通信ストリームの同期再生方法を説明したが、放送ストリームと放送ストリーム、及び、通信ストリームと通信ストリームの同期再生において、入力ストリームをそれぞれ変更することで、同等の構成で実現できることは言うまでもない。
 なお、図6、図10、図11、図12、図14で説明した同期再生を実現するためのストリームデコード手段の構成で説明した放送ストリームと通信ストリームに含まれるビデオストリームは、それぞれ独立に圧縮符号化されたストリームであったが、放送ストリームのビデオストリームを参照して圧縮される(ビュー間参照)ビデオストリームを通信ストリームに格納するようなケースにも適用できることは言うまでもない。図31のように、通信ストリームが格納されるEBからDTSで放送ストリーム側のデコーダに入力するように構成すれば、ビュー間参照のような圧縮されたビデオストリームの同期再生も可能である。
<利用技術についての説明>
 以下、上記した実施の形態、変形例等において利用されている技術について説明する。
 まず、デジタルテレビの放送波等で伝送される一般的なストリームの構造について説明する。
 デジタルテレビの放送波等での伝送では、MPEG-2 TS形式のデジタルストリームが使われている。MPEG-2 TSとは、ビデオやオーディオなど様々なストリームを多重化して伝送するための規格である。ISO/IEC13818-1及びITU-T勧告H222.0において標準化されている。
 図32は、MPEG-2 TS形式のデジタルストリームの構成を示す図である。同図に示すようにMPEG-2 TSは、ビデオストリーム、オーディオストリーム、字幕ストリームなどを多重化することで得られる。ビデオストリームは番組の主映像を、オーディオストリームは番組の主音声部分や副音声を、字幕ストリームは番組の字幕情報を格納している。ビデオストリームは、MPEG-2、MPEG4-AVCなどの方式を使って符号化記録される。オーディオストリームは、ドルビーAC-3、MPEG-2 AAC、MPEG-4 AAC、HE-AACなどの方式で圧縮・符号化記録されている。
 ビデオストリームの構成について説明する。MPEG-2、MPEG-4 AVC、SMPTE VC-1などの動画圧縮符号化においては、動画像の空間方向及び時間方向の冗長性を利用してデータ量の圧縮を行う。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対照のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。図38に一般的なビデオストリームのピクチャの参照構造を示す。矢印は参照して圧縮されていることを示す。
 ここでは、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレーム及びフィールドの両者を包含する1つの符号化の単位である。また、既に処理済みの1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと呼び、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼び、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
 また、ビデオストリームは、図33に示すような階層構造を有している。ビデオストリームは、複数のGOPから構成されており、これを符合化処理の基本単位とすることで動画像の編集やランダムアクセスが可能となっている。GOPは1つ以上のビデオアクセスユニットにより構成されている。ビデオアクセスユニットは、ピクチャの符合化データを格納する単位であり、フレーム構造の場合は1フレーム、フィールド構造の場合の1フィールドのデータが格納される。各ビデオアクセスユニットは、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードなどから構成される。各データはMPEG-4 AVCの場合は、NALユニットと呼ばれる単位で格納される。
 AU識別コードはアクセスユニットの先頭を示す開始符号である。シーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダであり、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。ピクチャヘッダはピクチャ全体の符合化の方式などの情報を格納したヘッダである。補足データは圧縮データの復号に必須ではない付加情報であり、例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。圧縮ピクチャデータには、圧縮符号化されたピクチャのデータが格納される。パディングデータは、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コードは、再生シーケンスの終端を示すデータである。ストリーム終端コードは、ビットストリームの終端を示すデータである。
 AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードの中身の構成は、ビデオの符合化方式によって異なる。
 例えば、MPEG-4 AVCの場合であれば、AU識別コードは、AUデリミタ(Access Unit Delimiter)、シーケンスヘッダはSPS(Sequence Parameter Set)に、ピクチャヘッダはPPS(Picture Parameter Set)に、圧縮ピクチャデータは複数個のスライス、補足データはSEI(Supplemental Enhancement Information)、パディングデータはFillerData、シーケンス終端コードはEnd of Sequence、ストリーム終端コードはEnd of Streamに対応する。
 例えば、MPEG-2の場合であれば、シーケンスヘッダはsequence_Header、sequence_extension、group_of_picture_headerに、ピクチャヘッダはpicture_header、picture_coding_extension、圧縮ピクチャデータは複数個のスライス、補足データはuser_data、シーケンス終端コードはsequence_end_codeに対応する。AU識別コードは存在しないが、それぞれのヘッダのスタートコードを使えば、アクセスユニットの切れ目を判断できる。
 各データは常に必要ではなく、例えば、シーケンスヘッダはGOP先頭のビデオアクセスユニットでのみ必要で、それ以外のビデオアクセスユニットにはなくてもよい、としてもよい。また、符号化方式によっては、ピクチャヘッダは符号順で前のビデオアクセスユニットのものを参照して、自身のビデオアクセスユニット内にピクチャヘッダがなくてもよい。
 また、図34に示すようにGOP先頭のビデオアクセスユニットは、圧縮ピクチャデータとしてIピクチャのデータが格納され、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず格納され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードが格納されている。GOP先頭以外のビデオアクセスユニットは、AU識別コード、圧縮ピクチャデータが必ず格納され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードが格納されている。
 トランスポートストリームに含まれる各ストリームはPIDと呼ばれるストリーム識別IDによって識別される。このPIDのパケットを抽出することで複合装置は、対象のストリームを抽出することができる。PIDとストリームの対応は以降で説明するPMTパケットのディスクリプタに格納される。
 図32は、トランスポートストリームがどのように多重化されるかを模式的に示している。まず、複数のビデオフレームからなるビデオストリーム3201、複数のオーディオフレームからなるオーディオストリーム3204を、それぞれPESパケット列3202及び3205に変換し、TSパケット3203及び3206に変換する。同じく字幕ストリーム3207のデータをそれぞれPESパケット列3208に変換し、さらにTSパケット3209に変換する。MPEG-2トランスポートストリーム3213はこれらのTSパケットを1本のストリームに多重化することで構成される。
 図35は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。同図における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。同図の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTSやピクチャの復号時刻であるDTSが格納される。
 図36は、トランスポートストリームを構成するTSパケットのデータ構造を示している。TSパケットは、4ByteのTSヘッダと、アダプテーションフィールドとTSペイロードから構成される188Byte固定長のパケットである。TSヘッダは、transport_priority、PID、adaptaion_field_controlなどから構成される。PIDは前述した通りトランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priorityは、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。adaptation_field_controlは、アダプテーションフィールドとTSペイロードの構成を制御するための情報である。アダプテーションフィールドとTSペイロードはどちらかだけが存在する場合と両方が存在する場合があり、adaptation_field_controlはその有無を示す。adaptation_field_controlが1の場合は、TSペイロードのみが存在し、adaptation_field_controlが2の場合は、アダプテーションフィールドのみが存在し、adaptation_field_controlが3の場合は、TSペイロードとアダプテーションフィールドの両方が存在することを示す。
 アダプテーションフィールドは、PCRなどの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロードにはPESパケットが分割されて格納される。
 トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT、PCR等がある。これらのパケットはPSIと呼ばれる。PATはトランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、トランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またトランスポートストリームに関する各種ディスクリプタを持つ。ディスクリプタにはAVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、TSパケットのデコーダへの到着時刻とPTS・DTSの時間軸であるSTCの同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
 図37はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、トランスポートストリームに関するディスクリプタが複数配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。
 ここで、図36下段に示すトランスポートストリームは、TSパケットが並ぶストリームであり、一般的に放送波に使われるストリームはこの形式であり、以降ではTSストリームと呼ぶことにする。一方で、図39下段に示すトランスポートストリームは、188バイトのTSパケットの先頭に4Byteのタイムスタンプを付与したソースパケットが並ぶストリームであり、一般的に通信で伝送されるストリームはこの形式であり、以降ではTTSストリームと呼ぶことにする。TSパケットに付与される先頭のタイムスタンプは、以降ではATSと呼び、ATSは付与されるTSパケットの、ストリームのデコーダへの転送開始時刻を示す。TTSストリームは図14下段に示すようにソースパケットが並ぶこととなり、TTSストリームの先頭からインクリメントする番号はSPN(Source Packet Number)と呼ぶ。
 通常の放送波では複数チャンネル分のTSが多重化されたフルTSで送出される。フルTSは188バイトの固定長TSパケット列で構成されるTSストリームである。一方で、BD-REやHDD等の蓄積メディアに放送番組を記録する場合には、フルTSの中から、必要なチャンネルのデータのみを抜き出しパーシャルTSとして記録する。パーシャルTSは、TTSストリームである。ここでTSストリームをTTSストリームに変換する場合に、フルTSから不要となったTSパケットを単純につめて記録してしまうと、TSパケット間の時間間隔情報がなくなるため、デコーダへの入力タイミングが、送出時に想定していたタイミングとずれるため、デコーダが正しく再生できなくなってしまう。そこで、フルTSから不要となったTSパケットの時間間隔情報を残すために、ATSを付与する。このように構成し、デコーダへのデータの入力タイミングを、ATSで制御することによって、デコーダを破綻させることなく、再生することが可能となる。
<補足>
 以上、本発明に係る表示装置の一実施形態として、実施の形態、変形例等における表示装置を例として説明したが、以下のように変形することも可能であり、本発明は上述した実施の形態、変形例等で例示した通りの表示装置に限られないことはもちろんである。
 (1)実施の形態において、表示装置110は、通信サービス提供局130から送信された通信映像を、インターネット通信網140を介して受信する構成の例であった。しかしながら、通信サービス提供局130から送信された通信映像を受信することができる構成であれば、必ずしもインターネット通信網140を介して送信された通信映像を受信する構成である必要はない。一例として、放送波を介して送信された通信映像を受信する構成、専用回線を介して送信された通信映像を受信する構成等が考えられる。
 (2)実施の形態において、通信映像の表示タイミングを補正する必要がない場合には、放送ストリームのPSI/SIに格納されるSTC_Offsetの値が“0”となる構成の例であった。しかしながら、通信ストリームに含まれる通信映像の表示タイミングを補正する必要がないという情報を、放送ストリームに含ませることができれば、必ずしも、放送ストリームのPSI/SIに格納されるSTC_Offsetの値が“0”となる構成である必要はない。一例として、通信ストリームに含まれる通信映像の表示タイミングを補正する必要がない場合に限って、放送ストリームのPSI/SIにSTC_Offsetを格納しないという構成等が考えられる。このような構成の場合、表示装置110は、受信した放送ストリームのPSI/SIにSTC_Offsetが格納されていないときには、STC_Offsetの値が“0”であるときと同様の処理を行う。
 (3)実施の形態において、図17(a)では放送ストリームと通信ストリームがともにデータバッファに格納されている例を説明したが、放送ストリームのみがデータバッファに格納されている場合に、放送波のGOPテーブル情報とSTC_Offsetを元に、同期開始する通信ストリームの同期開始PTSを決定し、その地点のデータをサーバに問い合わせて、バッファリングを開始してもよい。同様に、放送ストリームのみがデータバッファに格納されている場合に、放送波のGOPテーブル情報とフレームIDを元に、同期開始する通信ストリームの同期開始PTSもしくはフレームIDを決定し、その地点のデータをサーバに問い合わせて、バッファリングを開始してもよい。
 (4)実施の形態において、各GOP先頭のビデオパケットにアダプテーションフィールドとして、該当パケットのPCR値を格納するようにしてもよい。このように構成すれば、ビデオパケット付近のPCRパケットをサーチする必要がないため、D1やD2の算出が容易になる。
 (5)実施の形態において、D1やD2を再生装置が計算するのではなく、情報として放送波や通信ストリームのシステムパケットやビデオストリームにて伝送するようにしてもよい。もしくは単にデータとしてサーバから通信で提供するようにしてもよい。
 (6)変形例2において、通信ストリームがMP4ストリームであってもよい。この場合には、PTS、DTSが付与されていないため、各フレームに対応するPTSとDTSを示す管理情報をMP4ヘッダ情報に別途用意して、そのタイミング情報を使って処理する。
 (7)変形例4において、異なる2台の筐体で同期再生を実現する構成を説明したが、同様の構成で、ストリームデコード手段を追加することによって、3台以上の筐体での同期再生できることは言うまでもない。また、1つの筐体で同期再生できることは言うまでもない。
 (8)変形例7において、フレームIDはビデオストリームごとにユニークで、ストリーム間で関連を持たないとする場合(つまり、同一のフレームIDが付与されても同期関係であることを示さない場合)には、放送ストリームに含まれるフレームIDと、通信ストリームに含まれるフレームIDの同期関係を示すためのIDのオフセット情報を別途伝送すれば、放送ストリームのフレームIDと、通信ストリームのフレームIDの同期関係を特定することができる。
 (9)実施の形態、変形例等で説明した、STC_Offset、GOP情報テーブル、フレームID、D1、D2、D3、ATC_Offset等の、実施の形態、変形例等を実現するために必要な情報の一部または全部は、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。ストリームに格納される場合には、PMTやEIT等のPSI/SIパケットや、BMLのイベントメッセージ、ビデオの各フレームのユーザデータ等に格納される。ビデオに格納される場合には、GOP先頭のみにGOP内のフレームに関する情報が一括で格納されていてもよいし、GOP先頭のみの情報だけでもよい。
 (10)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 (11)以下、さらに本発明の一実施形態に係る表示装置の構成及びその変形例と各効果について説明する。
 (a)本発明の一実施形態に係る表示装置は、受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示することを特徴とする。
 上述の構成を備える本変形例における表示装置は、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とすることができる。
 図40は、上記変形例における表示装置4000の構成図である。
 同図に示されるように、表示装置4000は、受信部4010と表示部4020と記憶部4030と取得部4040とを備える。
 受信部4010は、複数の映像フレームと、それら映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する機能を有する。一例として、実施の形態におけるチューナ501として実現される。
 表示部4020は、受信部4010によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、受信部4010によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する機能を有する。一例として、実施の形態における、放送ストリームデコード手段510と通信ストリームデコード手段520と第1ビデオプレーン552と第2ビデオプレーン555とプレーン合成処理部560とディスプレイ580と入力開始制御部541からなるブロックとして実現される。
 記憶部4030は、画像と、その画像の表示タイミングを定める第2表示タイミング情報とを記憶する機能を有する。一例として、実施の形態におけるバッファ542として実現される。
 取得部4040は、記憶部4030に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、記憶部4030に記憶される画像を、表示部4020に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する機能を有する。一例として、実施の形態における同期開始パケット決定部540として実現される。
 そして、表示部4020は、さらに、記憶部4030に記憶される第2表示タイミング情報によって定められる表示タイミングを取得部4040に取得された補正情報によって定められる補正量分補正した補正タイミングで、記憶部4030に記憶される画像を表示する機能を有する。
 (b)また、前記受信部によって受信されるストリームは、さらに、前記補正情報を含み、前記取得部は、前記補正情報の取得を、前記受信部によって受信されたストリームから行うとしてもよい。
 このような構成にすることによって、補正情報を、受信部が受信するストリームから取得することができるようになる。
 (c)また、前記表示部は、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれと、前記記憶部に記憶される画像とを表示するためのディスプレイを有し、前記表示部は、前記受信部によって受信されたストリームに含まれる映像フレームと、前記記憶部に記憶される画像とを前記ディスプレイに表示する場合に、当該映像フレームに当該画像を重畳させるとしてもよい。
 このような構成にすることで、受信部が受信する映像に、記憶部が記憶する画像を重畳して表示することができるようになる。
 (d)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であるとしてもよい。
 このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
 (e)また、前記受信部は、放送局から放送された、ストリームを含むデータを伝送する放送波を受信する放送波受信部を有し、前記サブ受信部は、外部のネットワークから、ストリームを含むデータを伝送する伝送信号を受信する伝送信号受信部を有し、前記受信部の受信するストリームは、前記放送波受信部によって受信される放送波によって伝送されるストリームであり、前記サブ受信部の受信するストリームは、前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームであるとしてもよい。
 このような構成にすることで、放送波によって伝送される映像に、ネットワークによって伝送される映像を同期させて表示することができるようになる。
 (f)また、前記放送波受信部によって受信される放送波によって伝送されるストリームと前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームとは、MPEG(Moving Picture Experts Group)-2 TS(Transport Stream)形式のストリームであるとしてもよい。
 このような構成にすることで、受信部とサブ受信部との実現を、比較的汎用的な手法で行うことができるようになる。
 (g)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタと、前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
 このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
 (h)また、前記第1デコーダによって復元された映像フレームと、前記第2デコーダによって復元された映像フレームとを多重化することでストリームを生成する多重化部をさらに備えるとしてもよい。
 このような構成にすることで、受信部が受信する映像と、サブ受信部が受信する映像とが多重化されてなるストリームを生成することができるようになる。
 (i)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与し、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する到着時刻カウンタと、前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
 このような構成にすることで、到着時刻カウンタの数を1つにすることができる。
 (j)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームは、MPEG-2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダとを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
 このような構成にすることで、受信部との実現を、比較的汎用的な手法で行うことができるようになる。
 (k)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタとを備え、前記第2デコーダは、基準時間軸における、前記受信部によって受信されるストリームに付与された第1到着時刻に対応する第1基準時間軸時刻と、当該準時間軸における、前記サブ受信部によって受信されるストリームに付与された第2到着時刻に対応する第2基準時間軸時刻と、前記取得部に取得された補正情報によって定められる補正量とを用いて、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
 このような構成にすることで、基準時間軸を利用して、このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
 (l)また、前記記憶部の記憶する画像は、コンピュータグラフィックス画像であり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元するデコーダと、前記記憶部に記憶される画像が前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該画像を出力する画像出力部とを有するとしてもよい。
 このような構成にすることで、受信部が受信する映像に、コンピュータグラフィックス画像を同期して表示することができるようになる。
 本発明の一実施形態に係る送信装置は、複数の映像フレームを記憶する映像記憶部と、前記映像記憶部に記憶される複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報と、画像を表示するタイミングを定める第2表示タイミング情報を記憶する外部装置に、当該第2表示タイミング情報によって定められる表示タイミングを補正することで、当該画像を、前記映像記憶部に記憶する映像フレームと同期させて表示させるための補正量を定める補正情報とを多重化してストリームを生成する生成部と、前記多重化部によって生成されるストリームを送信する送信部とを備えることを特徴とする。
 上述の構成を備える本変形例における送信装置によると、複数の映像フレームと第1表示タイミング情報と補正情報とを多重化して送信することができる送信装置を提供することができるようになる。
 本発明は、放送コンテンツとそれに付随するコンテンツとを同期して再生する機器に広く利用することができる。
 501 チューナ
 502 通信インターフェース
 510 放送ストリームデコード手段
 511 第1多重分離部
 512 第1オーディオデコーダ
 513 字幕デコーダ
 514 第1ビデオデコーダ
 515 システムパケットマネージャ
 520 通信ストリームデコード手段
 521 第2多重分離部
 523 第2ビデオデコーダ
 522 第2オーディオデコーダ
 530 アプリケーション実行制御部
 540 同期開始パケット決定部
 541 入力開始制御部
 552 第1ビデオプレーン
 554 グラフィックスプレーン
 555 第2ビデオプレーン
 560 プレーン合成処理部

Claims (13)

  1.  受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、
     複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、
     前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、
     画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、
     前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、
     前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示する
     ことを特徴とする表示装置。
  2.  前記受信部によって受信されるストリームは、さらに、前記補正情報を含み、
     前記取得部は、前記補正情報の取得を、前記受信部によって受信されたストリームから行う
     ことを特徴とする請求項1記載の表示装置。
  3.  前記表示部は、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれと、前記記憶部に記憶される画像とを表示するためのディスプレイを有し、
     前記表示部は、前記受信部によって受信されたストリームに含まれる映像フレームと、前記記憶部に記憶される画像とを前記ディスプレイに表示する場合に、当該映像フレームに当該画像を重畳させる
     ことを特徴とする請求項2記載の表示装置。
  4.  複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
     前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
     前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報である
     ことを特徴とする請求項3記載の表示装置。
  5.  前記受信部は、放送局から放送された、ストリームを含むデータを伝送する放送波を受信する放送波受信部を有し、
     前記サブ受信部は、外部のネットワークから、ストリームを含むデータを伝送する伝送信号を受信する伝送信号受信部を有し、
     前記受信部の受信するストリームは、前記放送波受信部によって受信される放送波によって伝送されるストリームであり、
     前記サブ受信部の受信するストリームは、前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームである
     ことを特徴とする請求項4記載の表示装置。
  6.  前記放送波受信部によって受信される放送波によって伝送されるストリームと前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームとは、MPEG(Moving Picture Experts Group)-2 TS(Transport Stream)形式のストリームである
     ことを特徴とする請求項5記載の表示装置。
  7.  複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
     前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
     前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
     前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、
     前記表示部は、
     前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
     前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
     前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、
     前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタと、
     前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、
     前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
     ことを特徴とする請求項1記載の表示装置。
  8.  前記第1デコーダによって復元された映像フレームと、前記第2デコーダによって復元された映像フレームとを多重化することでストリームを生成する多重化部をさらに備える
     ことを特徴とする請求項7記載の表示装置。
  9.  複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
     前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
     前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
     前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、
     前記表示部は、
     前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
     前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
     前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与し、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する到着時刻カウンタと、
     前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、
     前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
     ことを特徴とする請求項1記載の表示装置。
  10.  複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
     前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
     前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
     前記受信部によって受信されるストリームは、MPEG-2 TS形式のストリームであり、
     前記表示部は、
     前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
     前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダとを備え、
     前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
     ことを特徴とする請求項1記載の表示装置。
  11.  複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
     前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
     前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
     前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG-2 TS形式のストリームであり、
     前記表示部は、
     前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
     前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
     前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、
     前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタとを備え、
     前記第2デコーダは、基準時間軸における、前記受信部によって受信されるストリームに付与された第1到着時刻に対応する第1基準時間軸時刻と、当該準時間軸における、前記サブ受信部によって受信されるストリームに付与された第2到着時刻に対応する第2基準時間軸時刻と、前記取得部に取得された補正情報によって定められる補正量とを用いて、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
     ことを特徴とする請求項1記載の表示装置。
  12.  前記記憶部の記憶する画像は、コンピュータグラフィックス画像であり、
     前記表示部は、
     前記受信部によって受信されるストリームから映像フレームを復元するデコーダと、
     前記記憶部に記憶される画像が前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該画像を出力する画像出力部とを有する
     ことを特徴とする請求項1記載の表示装置。
  13.  複数の映像フレームを記憶する映像記憶部と、
     前記映像記憶部に記憶される複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報と、画像を表示するタイミングを定める第2表示タイミング情報を記憶する外部装置に、当該第2表示タイミング情報によって定められる表示タイミングを補正することで、当該画像を、前記映像記憶部に記憶する映像フレームと同期させて表示させるための補正量を定める補正情報とを多重化してストリームを生成する生成部と、
     前記多重化部によって生成されるストリームを送信する送信部とを備える
     ことを特徴とする送信装置。
PCT/JP2013/001538 2012-03-12 2013-03-08 表示装置、及び送信装置 WO2013136754A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/115,967 US20140079368A1 (en) 2012-03-12 2013-03-08 Display device and transmission device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261609492P 2012-03-12 2012-03-12
US61/609,492 2012-03-12

Publications (1)

Publication Number Publication Date
WO2013136754A1 true WO2013136754A1 (ja) 2013-09-19

Family

ID=49160686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001538 WO2013136754A1 (ja) 2012-03-12 2013-03-08 表示装置、及び送信装置

Country Status (3)

Country Link
US (1) US20140079368A1 (ja)
JP (1) JPWO2013136754A1 (ja)
WO (1) WO2013136754A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016192741A (ja) * 2015-03-31 2016-11-10 日本放送協会 放送装置、マッピング情報送信装置、受信機、提示対象データ送信装置、放送通信データ同期システムおよびプログラム
JP2017508327A (ja) * 2013-12-23 2017-03-23 エルジー エレクトロニクス インコーポレイティド 一つ以上のネットワークで放送コンテンツを送受信する装置及び方法
JP2018129844A (ja) * 2018-03-23 2018-08-16 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2019146188A (ja) * 2019-03-26 2019-08-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2020188497A (ja) * 2019-03-26 2020-11-19 ソニー株式会社 送信方法
JP2021166396A (ja) * 2020-07-29 2021-10-14 ソニーグループ株式会社 送信方法
US11259070B2 (en) 2019-04-11 2022-02-22 Kabushiki Kaisha Toshiba Packet generation apparatus and method
US11405679B2 (en) 2015-02-02 2022-08-02 Maxell, Ltd. Broadcast receiving apparatus, broadcast receiving method, and contents outputting method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2713371A3 (en) * 2012-09-27 2014-08-06 JVC KENWOOD Corporation Imaging device, image processing device, imaging method, image processing method, and computer program product
EP3697100A1 (en) * 2013-06-05 2020-08-19 Sun Patent Trust Data decoding method, data decoding apparatus, and data transmitting method
KR20150033827A (ko) * 2013-09-24 2015-04-02 삼성전자주식회사 영상표시장치, 서버 및 그 동작방법
KR20150057149A (ko) * 2013-11-18 2015-05-28 한국전자통신연구원 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
EP2919458A1 (en) * 2014-03-11 2015-09-16 Axis AB Method and system for playback of motion video
US20150334471A1 (en) * 2014-05-15 2015-11-19 Echostar Technologies L.L.C. Multiple simultaneous audio video data decoding
GB201421304D0 (en) * 2014-12-01 2015-01-14 Pace Plc Improvements to television service and system
CN111711851B (zh) 2015-07-24 2022-11-22 麦克赛尔株式会社 广播接收装置和接收装置
US11445223B2 (en) 2016-09-09 2022-09-13 Microsoft Technology Licensing, Llc Loss detection for encoded video transmission
US10979785B2 (en) * 2017-01-20 2021-04-13 Hanwha Techwin Co., Ltd. Media playback apparatus and method for synchronously reproducing video and audio on a web browser
US10834298B1 (en) * 2019-10-14 2020-11-10 Disney Enterprises, Inc. Selective audio visual synchronization for multiple displays
CN111510772B (zh) * 2020-03-23 2022-03-29 珠海亿智电子科技有限公司 一种平衡视频帧率误差的方法、装置、设备及存储介质
CN115720292B (zh) * 2021-08-23 2024-08-23 北京字跳网络技术有限公司 视频录制方法、设备、存储介质及程序产品
EP4199525A1 (de) * 2021-12-20 2023-06-21 The Color Grading Company GmbH Computerimplementiertes verfahren zur wahlweisen oder gleichzeitigen anzeige zumindest zweier videos

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010009A (ja) * 2010-06-23 2012-01-12 Nippon Hoso Kyokai <Nhk> 送信装置、サーバ装置、および受信装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090051759A1 (en) * 2005-05-27 2009-02-26 Adkins Sean M Equipment and methods for the synchronization of stereoscopic projection displays
KR20120107258A (ko) * 2011-03-21 2012-10-02 삼성전자주식회사 디스플레이장치 및 그 제어방법과, 셔터 안경 및 그 제어방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010009A (ja) * 2010-06-23 2012-01-12 Nippon Hoso Kyokai <Nhk> 送信装置、サーバ装置、および受信装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017508327A (ja) * 2013-12-23 2017-03-23 エルジー エレクトロニクス インコーポレイティド 一つ以上のネットワークで放送コンテンツを送受信する装置及び方法
US10080055B2 (en) 2013-12-23 2018-09-18 Lg Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
US11871071B2 (en) 2015-02-02 2024-01-09 Maxell, Ltd. Broadcast receiving apparatus, broadcast receiving method, and contents outputting method
US11405679B2 (en) 2015-02-02 2022-08-02 Maxell, Ltd. Broadcast receiving apparatus, broadcast receiving method, and contents outputting method
JP2016192741A (ja) * 2015-03-31 2016-11-10 日本放送協会 放送装置、マッピング情報送信装置、受信機、提示対象データ送信装置、放送通信データ同期システムおよびプログラム
JP2018129844A (ja) * 2018-03-23 2018-08-16 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2019146188A (ja) * 2019-03-26 2019-08-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2020188497A (ja) * 2019-03-26 2020-11-19 ソニー株式会社 送信方法
US11259070B2 (en) 2019-04-11 2022-02-22 Kabushiki Kaisha Toshiba Packet generation apparatus and method
JP2021166396A (ja) * 2020-07-29 2021-10-14 ソニーグループ株式会社 送信方法
JP2022159374A (ja) * 2020-07-29 2022-10-17 ソニーグループ株式会社 送信方法
JP7371734B2 (ja) 2020-07-29 2023-10-31 ソニーグループ株式会社 送信方法
JP7120399B2 (ja) 2020-07-29 2022-08-17 ソニーグループ株式会社 送信方法

Also Published As

Publication number Publication date
US20140079368A1 (en) 2014-03-20
JPWO2013136754A1 (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
WO2013136754A1 (ja) 表示装置、及び送信装置
JP5137345B2 (ja) ローカル3次元ビデオを具現するためのエンコーディング/デコーディング方法及び装置
KR100782835B1 (ko) 캡션 정보의 출력시점 및 출력 우선순위를 조절하는 방법및 그 장치
JP6184408B2 (ja) 受信装置及びその受信方法
KR100711328B1 (ko) 데이터 처리 장치 및 방법
US7266288B2 (en) Video/audio playback apparatus and video/audio playback method
JP2008011404A (ja) コンテンツ処理装置及びコンテンツ処理方法
JP2014504083A (ja) マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法
US20060203287A1 (en) Reproducing apparatus and method, and recording medium
WO2013175718A1 (ja) 受信装置、送信装置、受信方法、及び送信方法
WO2013099290A1 (ja) 映像再生装置、映像再生方法、映像再生プログラム、映像送信装置、映像送信方法及び映像送信プログラム
US20080037956A1 (en) Systems and Methods of Generating Encapsulated MPEG Program Streams
WO2013011696A1 (ja) 送信装置、受信再生装置、送信方法及び受信再生方法
JP4613860B2 (ja) Mpeg符号化ストリーム復号装置
WO2004086396A1 (en) Reproducing apparatus and method, and recording medium
WO2015174207A1 (ja) 受信装置、および送信装置、並びにデータ処理方法
JP2009044282A (ja) デジタル映像データ再生装置及び表示装置
JPH099215A (ja) データ多重方法、データ伝送方法、及び多重データ復号方法、多重データ復号装置
JP3671969B2 (ja) データ多重方法及び多重データ復号方法
JP5016335B2 (ja) 再生装置、および、再生方法
KR100539731B1 (ko) 전송스트림저장장치및방법
KR100708377B1 (ko) 디지털 방송 수신시 동시 화면을 위한 디코더
JP2019186732A (ja) レコーダおよび録画情報の再生方法
JP2008066770A (ja) コンテンツ受信装置、コンテンツ送受信システム、及びコンテンツ送受信方法
JP2003284069A (ja) 多重データ復号方法及び多重データ復号装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014504687

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13761815

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14115967

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13761815

Country of ref document: EP

Kind code of ref document: A1