WO2006064689A1 - 無線通信システム - Google Patents

無線通信システム Download PDF

Info

Publication number
WO2006064689A1
WO2006064689A1 PCT/JP2005/022379 JP2005022379W WO2006064689A1 WO 2006064689 A1 WO2006064689 A1 WO 2006064689A1 JP 2005022379 W JP2005022379 W JP 2005022379W WO 2006064689 A1 WO2006064689 A1 WO 2006064689A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
video
audio
time
reproduction
Prior art date
Application number
PCT/JP2005/022379
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Yurugi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/793,009 priority Critical patent/US20080013512A1/en
Priority to JP2006548777A priority patent/JPWO2006064689A1/ja
Publication of WO2006064689A1 publication Critical patent/WO2006064689A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6181Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network

Definitions

  • the present invention relates to a wireless communication system.
  • the present invention relates to a wireless communication system for synchronously reproducing video data and audio data of the same program and a synchronous reproduction method using the same.
  • a server device that records a number of moving images (for example, a TV program), a display that reproduces video, and a speaker that reproduces audio are connected to each other via a wireless network.
  • a wireless video audio playback system has been proposed in which video data is transmitted, video data included in the video data is output with playback power, and audio data is played back from a speaker.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-193868.
  • the wireless transmission / reception system described in Patent Document 1 provides a common reference time for all devices constituting the system, and transmits / receives a time stamp request and a response packet before starting playback of a moving image. It measures the delay time required for data transmission and determines the playback time of video and audio based on the result.
  • the delay caused by wireless data transmission can be absorbed by intentionally delaying the output timing of the video, and the difference between the playback time of the video and audio can be reduced. Although effective, it has the following problems at the same time.
  • An object of the present invention is to solve the above-described problems, and is configured to include a server device that transmits moving image data, a display that reproduces and outputs video data, and a speaker that reproduces and outputs audio data. It is an object of the present invention to provide a radio communication system capable of executing synchronized reproduction of video data and audio data with higher accuracy than conventional techniques and a synchronized reproduction method using the same.
  • a wireless communication system is a server device that wirelessly transmits video data with time data and audio data with time data,
  • the above-mentioned server device power wirelessly receives video data with time data transmitted wirelessly,
  • a video playback device that plays back and outputs video of the video data;
  • the audio playback device that wirelessly receives audio data with time data transmitted wirelessly and reproduces and outputs the audio of the audio data.
  • the video playback device When the video playback device plays back and outputs the video data, the video playback device adds a known data processing time tl required to play back and output the video data to the time data T1 of the video data.
  • the estimated reproduction time information TT1 is calculated and wirelessly transmitted to the server device,
  • the audio playback device When the audio of the audio data is played back and output, the audio playback device adds a known data processing time t2 necessary for playback and output of the audio data to the time data T2 of the audio data. Estimated playback time information TT 2 is calculated and transmitted to the server device,
  • the server apparatus wirelessly receives the reproduction estimated time information TT1 from the video reproduction apparatus, and after wirelessly receiving the audio reproduction apparatus power reproduction estimated time information TT2, the reproduction estimated time information TT1 and the reproduction estimated time information Calculate the playback estimation time difference information ⁇ t with TT2 and wirelessly transmit it to the video playback device and audio playback device,
  • the video playback device receives video data reproduced and output from the video playback device based on the wirelessly received playback estimated time difference information At after wirelessly receiving the playback estimated time difference information ⁇ t. And the time at which the video data is played back and output so that the audio of the audio data played back and output from the audio playback device is substantially synchronized and played back.
  • the audio reproduction device wirelessly receives the reproduction estimated time difference information ⁇ t from the server device, and then reproduces and outputs from the audio reproduction device based on the wirelessly received reproduction estimated time difference information At.
  • the time for reproducing and outputting the audio data is controlled so that the audio of the audio data and the video of the video data to be reproduced and reproduced are substantially reproduced and output in synchronization with each other.
  • the estimated reproduction time information by the video reproduction device is also provided. Calculating and transmitting the information TTl and controlling the time for reproducing and outputting the video of the video data based on the wirelessly received reproduction estimated time difference information ⁇ t;
  • It is characterized by being repeatedly executed periodically at predetermined time intervals.
  • the video data is video data compressed and encoded
  • the video reproduction device decompresses and decodes the video data received wirelessly
  • the data processing time tl Includes the time for the decompression decoding
  • the audio data is audio data that has been compression-encoded, and the audio reproduction device decompresses and decodes audio data received wirelessly, and the data processing time t2 includes a time related to the decompression decoding. To do.
  • a synchronized playback method includes a server device that wirelessly transmits video data with time data and audio data with time data,
  • the above-mentioned server apparatus power A video playback apparatus that wirelessly receives video data with time data that is wirelessly transmitted and plays back and outputs video of the video data;
  • the server apparatus power according to a synchronous reproduction method using a wireless communication system including an audio reproduction apparatus that wirelessly receives audio data with time data transmitted wirelessly and reproduces and outputs audio of the audio data.
  • the playback device when the video of the video data is played back and output, the playback is made by adding the known data processing time tl necessary for playback and output of the video data to the time data T1 of the video data. Calculating estimated time information TT1 and wirelessly transmitting to the server device;
  • the known data processing time t2 required to play back and output the audio data is added to the time data T2 of the audio data. Calculating the estimated reproduction time information TT2 and wirelessly transmitting to the server device;
  • the estimated playback time information TT1 is wirelessly transmitted from the video playback device.
  • the estimated playback time difference information ⁇ t between the estimated playback time information TT1 and the estimated playback time information TT2 is calculated and Wirelessly transmitting to the video playback device and the audio playback device;
  • the video playback device after wirelessly receiving the reproduction estimated time difference information At from the server device, the video reproduced and output from the video playback device based on the wirelessly received playback estimated time difference information At Controlling the time of reproducing and outputting the video data so that the video of the data and the audio of the audio data reproduced and output from the audio reproducing device are substantially reproduced and output;
  • the audio reproduction device After the wireless reproduction reception time difference information ⁇ t from the server device is wirelessly received by the audio reproduction device, the audio reproduction device is based on the wirelessly received reproduction estimated time difference information ⁇ t.
  • the estimated playback time information T T1 by the video playback device is calculated and wirelessly transmitted, and the video data based on the estimated playback time difference information ⁇ t received wirelessly is transmitted. Controlling the time of playback output;
  • the method further includes the step of periodically repeating the process at predetermined time intervals.
  • the video data is compressed and encoded video data
  • the video playback device decompresses and decodes the video data received wirelessly, and performs the data processing time.
  • tl includes the time related to the decompression decoding
  • the audio data is audio data that has been compression-encoded, and the audio reproduction device decompresses and decodes the audio data received wirelessly and performs the data processing.
  • the interval t2 includes a time related to the decompression decoding.
  • a server device that transmits moving image data, a display that reproduces and outputs video data, and a speaker that reproduces and outputs audio data are provided.
  • synchronized playback of video data and audio data can be executed with higher accuracy than in the prior art.
  • FIG. 1 is a block diagram showing a configuration of a wireless communication system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of packet signals transmitted and received in the wireless communication system of FIG.
  • FIG. 3 is a flowchart showing a synchronized playback output control process executed by the audio playback device 110 and the video playback device 120 of FIG.
  • FIG. 4 is a sequence diagram showing a synchronized reproduction output control process executed in the wireless communication system of FIG. 1.
  • FIG. 5 is a sequence diagram showing a synchronized playback output control process executed in a wireless communication system according to a modification of the present invention.
  • FIG. 1 is a block diagram showing a configuration of a wireless communication system according to an embodiment of the present invention.
  • the wireless communication system according to the present embodiment is applied to a wireless video / audio reproduction system.
  • a server device 100 such as a DVD recorder or a personal computer
  • an audio reproduction device 110
  • a video playback device 120 which are connected via a wireless network such as a wireless LAN.
  • a server device 100 is configured to include a wireless transmission / reception circuit 101 to which an antenna 101A is connected, a system controller 102, a noffer memory 103, and a moving image data memory 104 such as a hard disk drive.
  • the audio playback device 110 includes a radio transmission / reception circuit 111 to which an antenna 111A is connected, a system controller 112, a noffer memory 113, an audio decoder 114, and a digital Z analog conversion (hereinafter referred to as “digital Z analog conversion”). , D / A transformation. ) 115, a speaker 116, and a decoder controller 117.
  • the system controller 112 controls the operation of the other circuit elements 111 to 115 of the audio playback device 110.
  • the video playback device 120 includes a wireless transmission / reception circuit 121 to which an antenna 121A is connected, a system controller 122, a nota memory 123, a video decoder 124, a DZA converter 125, a display 126, and a decoder controller. LA 127.
  • the system controller 122 controls the operation of the other circuit elements 121 to 125 of the video reproduction apparatus 120.
  • moving image data stored in advance in moving image data memory 104 by a user operation for example, a plurality of program data is included, and each program data includes image data and audio data.
  • a wireless transmission / reception circuit 101 having a wireless communication function compliant with a wireless network standard such as Bluetooth or wireless LAN, and the wireless transmission / reception circuit 101 determines a wireless carrier wave according to the input video data.
  • the digital signal is digitally modulated into a wireless signal using the digital modulation method, and then transmitted to the audio playback device 110 and the video playback device 120 using the antenna 101A.
  • the moving image data recorded in the moving image data memory 104 is, for example, compression-encoded video audio data (for example, moving image data formed in conformity with the Moving Picture Expert Group (MPEG) method, etc.).
  • MPEG Moving Picture Expert Group
  • the present invention is not limited to this, and may be data encoded by other methods.
  • FIG. 2 is a block diagram showing a configuration of packet signals transmitted and received in the wireless communication system of FIG.
  • information for transmitting and receiving in the wireless network (information such as a source address and a destination address) is added to the preceding stage of the one packet signal.
  • the packet signal includes video data parameter information 301 including an ID related to video data, a compression encoding method, and specification information related thereto, and an ID, compression code key method related to audio data, and a specification related thereto.
  • Audio data parameter information 302 including information, a video data packet 303, an audio data packet 304, and subsequent video data packet 303 and audio data packet 304 are configured.
  • the video data packet 303 is timed with the first time of one program set to 0: 0: 0 and the first data of the video data 313 that has been compressed and encoded is recorded.
  • Time stamp information 311 that is data time information
  • key frame information 312 that is frame information of an I picture, for example, when compressed in MPEG format
  • the audio data packet 304 includes time stamp information 321 which is time information of the first data of the audio data 322 which is timed with the first time of one program set to 0: 0: 0 and is compressed and encoded.
  • audio data (audio content data) 322 that has been compressed and encoded. That is, as shown in FIG. 2, the compression-coded video data and audio data include time stamp information for determining the playback time.
  • the audio playback device 110 receives a radio signal including moving image data wirelessly transmitted from the server device 100 using the antenna 111 A and outputs it to the radio transmission / reception circuit 111.
  • the wireless transmission / reception circuit 111 has a wireless transmission / reception function similar to that of the wireless transmission / reception circuit 101.
  • the wireless transmission / reception circuit 111 receives an input wireless signal and uses a digital demodulation method opposite to the above digital modulation method to convert it into moving image data. After demodulating, the data is stored in the buffer memory 113 through the system controller 112.
  • the audio decoder 114 extracts the compression-coded audio data from the moving image data card stored in the buffer memory 113 and performs extension and decoding processing to convert the audio data into decompressed audio data. Later output to DZA Transform 115.
  • the DZA conversion 115 converts the input audio data into analog audio data, and then outputs it to the speaker 116 to reproduce it as audio sound.
  • the video reproduction device 120 receives a wireless signal including moving image data wirelessly transmitted from the server device 100 using the antenna 121 A, and outputs it to the wireless transmission / reception circuit 121.
  • the wireless transmission / reception circuit 121 has the same wireless transmission / reception function as the wireless transmission / reception circuit 101, receives an input wireless signal, demodulates it into video data using a digital demodulation method opposite to the digital modulation method, The data is stored in the buffer memory 123 through the system controller 122.
  • the video decoder 124 extracts the compressed and encoded video data from the moving image data stored in the buffer memory 123, performs decompression and decoding processing, converts the video data into decompressed video data, and then converts the video data to DZA. Output to variable 125.
  • the DZA converter 125 converts the input video data to analog video data, and then displays 12 Output to 6 and play and display the video of the video data.
  • the buffer memories 113 and 123 play a role of storing data so that video reproduction is not interrupted due to a transmission error in wireless communication.
  • the data to be reproduced is stored in each of the buffer memories 113 and 123, so that the moving image data transmitted from the server device 100 is not always output from the speaker 116 and the display 126 at the same time. There was no problem. In order to solve this problem, the following radio reproduction output control process is executed in the radio communication system according to the present embodiment.
  • FIG. 3 is a flowchart showing a synchronized playback output control process executed by the audio playback device 110 and the video playback device 120 of FIG.
  • step S1 a T3 timer that measures time T3 (as shown in the processing of NO in step S10 in FIG. 3, within a predetermined time T3, the playback time at the time of decoding)
  • the T3 timer is provided in order to control so that it is not necessary to correct and immediately decode.)
  • step S4 it is determined whether or not the wirelessly received data is time difference information (At). If YES, the process proceeds to step S5. If NO, that is, if it is moving image data, the process proceeds to step S7. In step S5, it is determined based on the received time difference information (At) whether or not it is necessary to correct the decoding time. Here, for example, when IA t I> 100 milliseconds, it is determined that the user can recognize as a time difference between a noticeable video and audio, and in step S6, based on the received time difference information (A t). After the decoder 114 or 124 is controlled to delay the reproduction time of each data, the process returns to step S2. On the other hand, if NO in step S5, the process returns to step S2 without executing the process of step S6.
  • step S7 the moving image data is stored in the buffer memory 113 or 123, and in step S8, a certain amount of moving image data such as 10 MB is stored in the buffer memory 113 or 123. If YES, the process proceeds to step S9. If NO, the process returns to step S2.
  • step S9 the video data to be decoded is read from the buffer memory 113 or 123, and in step S10, the T3 timer counts for a fixed time T3 to determine whether it has timed out. Proceeds to step S11, while if NO, proceeds to step S14.
  • step S11 the time stamp information T1 or T2 is also extracted from the read data force.
  • tl is obtained from the video data extraction and decompression decoding processing by the video decoder 124 with respect to the video data amount that has been subjected to the predetermined compression coding.
  • This is a known data processing time which can be determined in advance depending on the apparatus, which is required from the DZA conversion process to the playback output process by the display 126.
  • t2 is the DZA conversion by the DZA converter 125 from the audio data extraction and decompression decoding processing by the audio decoder 114 for the predetermined compression-coded audio data amount.
  • This is a known data processing time that can be determined in advance depending on the apparatus, which is required for the reproduction output processing by the speaker 116 after the processing.
  • the known data processing time tl, t2 is almost constant regardless of the surrounding radio wave environment, temperature, humidity, etc.
  • step S 13 the T3 timer is reset, and the process proceeds to step S 14.
  • step S 14 the data to be decompressed and decoded is transferred to the decoder 114 or 124 to execute the decompression decoding process, and then the process returns to step S 2.
  • FIG. 4 is a sequence diagram showing a synchronized playback output control process executed in the wireless communication system of FIG.
  • the synchronized playback output control process for synchronizing the video and audio will be described.
  • the server device 100 extracts moving image data to be played back (step 201), and wirelessly transmits it to the audio playback device 110 and the video playback device 120 (step 202).
  • the audio playback device 110 wirelessly receives the moving image data wirelessly transmitted from the server device 100 (step 204) and stores it in the buffer memory 113 (step 206). Also, Similarly, the video reproduction device 120 wirelessly receives moving image data wirelessly transmitted from the server device 100 (step 203) and stores it in the buffer memory 123 (step 205).
  • the audio decoder 114 of the audio playback device 110 extracts audio data that has been compression-encoded from the moving image data stored in the buffer memory 113, and extracts the compressed and encoded audio data. In this case, the decompression decoding process is performed, but the time stamp information T2 included in the audio data to be subjected to the decompression decoding process is notified to the decoder controller 117.
  • the decoder controller 117 performs extraction, decompression decoding processing and DZA conversion processing on the notified time stamp information T2 after the compressed encoded audio data is read from the buffer memory 113, and the speaker 116
  • the video decoder 124 of the video playback device 120 extracts the compressed and encoded video data from the video data stored in the buffer memory 123 and extracts the compressed and encoded video data.
  • the decoder performs the decompression decoding process, and notifies the decoder controller 127 of the time stamp information T1 included in the video data to be subjected to the decompression decoding process.
  • the decoder controller 127 reads out the compressed and encoded video data from the buffer memory 123 with respect to the notified time stamp information T1, extracts the force, performs decompression decoding processing, and DZA conversion processing, and displays the display 126.
  • Estimated reproduction time information TT1 T1 + tl calculated by adding known data processing time tl required for display to output from TT1, and then calculating the estimated reproduction time information TT1 from the system controller 122 and the wireless transmission / reception circuit Wireless transmission is performed to the server apparatus 100 via 121 (step 207).
  • video data extraction, decompression decoding processing, DZA conversion processing, and reproduction output processing are executed on the read video data (steps 209, 211, 213).
  • Wireless transmission is performed to the audio playback device 120 and the audio playback device 110 (step 216).
  • the system controller 112 of the audio playback device 110 controls the audio decoder 114 so that the time difference becomes small according to the wirelessly received playback estimation time difference information At (step 218). ).
  • the decoder controller 127 controls the audio decoder 124 so that the time difference becomes small according to the wirelessly received estimated reproduction time difference information At (step 217).
  • Each of the decoder controllers 117 and 127 corrects the operation clock of the audio decoder 114 or the video decoder 124 to be about several ppm earlier, or omits the decoding of several packets of data to control the playback time.
  • the playback time can be delayed by correcting the operation clock of the audio decoder 114 or the video decoder 124 to be delayed by several ppm.
  • a wireless communication system for reproducing audio with two left and right or more speakers as in a home theater, or a wireless with a plurality of displays.
  • the present invention can also be applied to a communication system or the like.
  • the playback time of the video data and the audio data can be controlled, in the case of a wireless communication system including a plurality of speakers, By intentionally delaying the time played from each speaker, it is possible to produce a realistic surround effect.
  • the power described by using the wireless communication system as the moving image data including the video data and the audio data is described as the moving image data. It can also be applied to an audio system or the like that does not require video output, such as a mini-component that is not limited to this, or a radio receiver.
  • FIG. 5 is a sequence diagram showing a synchronized playback output control process executed in a radio communication system according to a modification of the present invention.
  • the modification is characterized in that the following points are different from the above embodiment.
  • the server device 100 broadcasts a playback time recording request to the audio playback device 110 and the video playback device 120 at predetermined time intervals. Further, when receiving the playback time recording request from the server device 100, the audio playback device 110 and the video playback device 120 calculate the estimated playback time information TT1 and TT2, respectively.
  • the server device 100 wirelessly transmits a reproduction estimated time information transmission request to the audio reproduction device 110 and the video reproduction device 120 at predetermined time intervals.
  • the audio playback device 110 and the video playback device 120 receive the playback estimated time information TT1 and TT2 calculated when the playback estimated time information transmission request from the server device 100 is received, to the server device 100. Each transmits wirelessly.
  • the server apparatus 100 performs a reproduction time recording request, a reproduction estimation time information transmission request to the audio reproduction apparatus 110, and a reproduction estimation time information transmission request to the video reproduction apparatus 120, for example, 10 seconds. Wireless transmission at intervals.
  • (3C) Server device 100 wirelessly transmits a playback time recording request to audio playback device 110 and video playback device 120 (step 301).
  • (3C1) The video decoder 124 of the video playback device 120 extracts the compressed and encoded video data from the moving image data stored in the buffer memory 123, and extracts the compressed and encoded video data.
  • the decoding process is performed, and the time stamp information T1 included in the video data to be subjected to the decompression decoding process is notified to the decoder controller 127.
  • the system controller 122 receives the reproduction time recording request wirelessly transmitted from the server apparatus 100 via the antenna 121A and the wireless transmission / reception circuit 121, and instructs the decoder controller 127 to calculate the estimated reproduction time information TT1.
  • the decoder controller 127 receives a command for instructing the calculation of the estimated reproduction time information TT1
  • the video data that has been compression-coded is read from the buffer memory 123 for the time stamp information T1 that is also notified of the video decoder 124 output.
  • Estimated playback time information obtained by cal-calculating the known data processing time tl required to be displayed and output from the display 126 after being extracted, decompressed and decoded, and DZA converted.
  • TTl Tl + tl is calculated and recorded in the temporary memory of the video playback device 120 (step 302).
  • the audio decoder 114 of the audio playback device 110 extracts the compression-coded audio data from the moving image data stored in the nother memory 113, and performs the compression-coding on the audio data. Although the decompression decoding process is performed, the time stamp information T2 included in the audio data to be subjected to the decompression decoding process is notified to the decoder controller 117.
  • the system controller 112 receives the reproduction time recording request wirelessly transmitted from the server apparatus 100 via the antenna 111A and the wireless transmission / reception circuit 111, and sends a command for instructing the decoder controller 117 to calculate the reproduction estimated time information TT2. I believe.
  • the decoder controller 117 When the decoder controller 117 receives the instruction to calculate the estimated reproduction time information TT2, the audio data compressed and encoded for the time stamp information T2 notified from the audio decoder 114 is received from the buffer memory 113.
  • Estimated playback time information TT2 T2 + t2 calculated by adding the known data processing time t2 required for extraction, decompression decoding, DZA conversion, and output from the speaker 116 after reading. Then, it is recorded in a temporary memory of the audio playback device 110 (step 303).
  • server apparatus 100 wirelessly transmits a reproduction estimated time information transmission request to video reproduction apparatus 120 (step 304).
  • (3D1) The system controller 122 of the video playback device 120 receives the playback estimated time information transmission request wirelessly transmitted from the server device 100 via the antenna 121A and the wireless transmission / reception circuit 121, and plays back to the decoder controller 127. Estimated time information TT1 transmission command is transmitted.
  • the decoder controller 127 wirelessly transmits the calculated reproduction estimated time information TT1 to the server apparatus 100 via the system controller 122 and the wireless transmission / reception circuit 121 (step 305).
  • video data extraction, decompression decoding processing, DZA conversion processing, and reproduction output processing are executed on the read video data (steps 209, 211, 213).
  • server device 100 wirelessly transmits a reproduction estimated time information transmission request to audio reproduction device 110 (step 306).
  • the system controller 112 of the audio playback device 110 receives the playback estimated time information transmission request wirelessly transmitted from the server device 100 via the antenna 111A and the wireless transmission / reception circuit 111, and sends it to the decoder controller 117.
  • Estimated playback time information TT2 transmission command is transmitted.
  • the decoder controller 117 wirelessly transmits the calculated reproduction estimated time information TT2 to the server apparatus 100 via the system controller 112 and the wireless transmission / reception circuit 111 (step 208).
  • audio data extraction, decompression decoding processing, DZA conversion processing, and reproduction output processing are executed on the read audio data (steps 210, 212, 214).
  • the server apparatus 100 broadcasts a reproduction time recording request to the audio reproduction apparatus 110 and the video reproduction apparatus 120.
  • the present invention is not limited to this, and the server apparatus 100 100 may cast the playback time recording request to the audio playback device 110 and the video playback device 120.
  • the server device 100 records the difference in time when the reproduction time recording request is wirelessly transmitted to each device, and adds or subtracts it to the reproduction estimated time difference information ⁇ t.
  • the server device that transmits moving image data, the display that reproduces and outputs video data, and the speaker that reproduces and outputs audio data.
  • a wireless communication system configured with Therefore, synchronized playback of video data and audio data can be performed with higher accuracy than in the prior art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

 映像再生装置120は映像データの時刻データT1に処理時間T1を加算してなる再生推定時刻情報TT1をサーバ装置100に無線送信し、オーディオ再生装置110はオーディオデータの時刻データT2に処理時間T2を加算してなる再生推定時刻情報TT2をサーバ装置100に無線送信する。サーバ装置100は再生推定時刻情報TT1,TT2を無線受信しこれらの再生推定時刻差情報Δtを計算して無線送信する。映像再生装置120は再生推定時刻差情報Δtに基づき映像とオーディオが実質的に同期して再生するように映像データを再生する時刻を制御し、オーディオ再生装置110は再生推定時刻差情報Δtに基づき映像とオーディオが実質的に同期して再生するようにオーディオデータを再生する時刻を制御する。

Description

明 細 書
無線通信システム
技術分野
[0001] 本発明は、無線通信システムに関する。特に、本発明は、同一のプログラムの映像 データやオーディオデータを同期再生するための無線通信システム及びそれを用い た同期再生方法に関する。
背景技術
[0002] 近年、インターネットのブロードバンドィ匕ゃ無線 LANに代表される各種無線通信シ ステムの普及に伴い、家庭内で機器間の配線が不要で、かつ設置場所に制限され ないワイヤレスのディジタル家庭電ィ匕製品が注目を集めている。その例として、いくつ もの動画 (例えば、 TV番組など)を記録したサーバ装置と、映像を再生するディスプ レイと、オーディオを再生するスピーカとを相互に無線ネットワークを介して接続して、 サーバ装置力 動画データを送信して、当該動画データに含まれる映像データの映 像をディスプレイ力も再生して出力し、オーディオデータのオーディオをスピーカから 再生して出力するワイヤレス映像オーディオ再生システムが提案されている。
[0003] 上述のワイヤレス映像オーディオ再生システムでは、無線ネットワークを介して送受 信されるデータはディジタル符号化されて ヽるため、データの復号ィ匕に要する時間 や、無線ネットワークを介するデータ伝送に要する時間などにより、映像データ及び オーディオデータの送信力 再生出力までにはある程度の遅延時間が存在する。こ こで、映像データに要する遅延時間と、オーディオデータに要する遅延時間はそれ ぞれ異なり、映像データとオーディオデータが同時刻にサーバ装置から送信されたと しても、そのデータがディスプレイ及びスピーカから同時刻に再生出力されるとは限ら ない。このような映像データとオーディオデータとの再生時間差は、 100ミリ秒以下程 度のわずかな時間であれば視聴者は気にならな 、が、 100ミリ秒を超える再生時間 差は視聴者に違和感を覚えさせてしまう。そのため、遅延時間の差による映像とォー ディォの再生時間差を小さくし、極力映像とオーディオを同期させて再生する必要が ある。このような無線通信を利用した映像とオーディオの同期再生に関する従来技術 として、例えば特許文献 1に記載された無線送受信システムが知られて 、る。
[0004] 特許文献 1:特開 2004— 193868号公報。
発明の開示
発明が解決しょうとする課題
[0005] 特許文献 1に記載された無線送受信システムは、当該システムを構成する全ての 機器に共通の基準時刻を設け、動画の再生を始める前にタイムスタンプ要求及び応 答パケットを送受信し、無線のデータ伝送に要する遅延時間を計測し、その結果に 基づ 、て映像とオーディオの再生時間を定めることを特徴として 、る。このような方法 を用いた場合、無線のデータ伝送によって発生する遅延を、映像の出力タイミングを 意図的に遅延させることにより吸収し、映像とオーディオの再生時間差を小さくするこ とができ、一定の効果があるが、同時に以下に示す問題点を有している。
[0006] (1)実際の無線通信システムでは、無線通信路におけるデータの誤り率が有線通信 路に比べて大きいことから、送受信機器の双方で十分なバッファメモリを用意し、無 線通信路において多少の誤りが発生しても映像やオーディオの再生が途切れないよ うな工夫がなされている。このバッファメモリによって発生する遅延時間が考慮されて いない。
[0007] (2)システムを使用する機器周辺の電波環境は常に一定であるとは限らず、無線の データ伝送時間も一定であるとは限らないが、電波環境の変化によって映像又はォ 一ディォの再生時間を随時補正する手段を有して 1、な 、。
[0008] 本発明の目的は以上の問題点を解決し、動画データを送信するサーバ装置と、映 像データを再生出力するディスプレイと、オーディオデータを再生出力するスピーカ とを備えて構成される無線通信システムにお ヽて、映像データとオーディオデータの 同期再生を、従来技術に比較して高精度で実行できる無線通信システム及びそれを 用いた同期再生方法を提供することにある。
課題を解決するための手段
[0009] 第 1の発明に係る無線通信システムは、時刻データ付き映像データと、時刻データ 付きオーディオデータとをそれぞれ無線送信するサーバ装置と、
上記サーバ装置力 無線送信される時刻データ付き映像データを無線受信して、 上記映像データの映像を再生出力する映像再生装置と、
上記サーバ装置力 無線送信される時刻データ付きオーディオデータを無線受信 して、上記オーディオデータのオーディオを再生出力するオーディオ再生装置とを備 えた無線通信システムにお 、て、
上記映像再生装置は、上記映像データの映像を再生出力するときに、当該映像デ ータの時刻データ T1に、当該映像データを再生出力するために必要な既知のデー タ処理時間 tlを加算してなる再生推定時刻情報 TT1を計算して上記サーバ装置に 無線送信し、
上記オーディオ再生装置は、上記オーディオデータのオーディオを再生出力する ときに、当該オーディオデータの時刻データ T2に、当該オーディオデータを再生出 力するために必要な既知のデータ処理時間 t2を加算してなる再生推定時刻情報 TT 2を計算して上記サーバ装置に無線送信し、
上記サーバ装置は、上記映像再生装置から再生推定時刻情報 TT1を無線受信す るとともに、上記オーディオ再生装置力 再生推定時刻情報 TT2を無線受信した後 、上記再生推定時刻情報 TT1と上記再生推定時刻情報 TT2との間の再生推定時 刻差情報 Δ tを計算して上記映像再生装置及び上記オーディオ再生装置に無線送 信し、
上記映像再生装置は、上記サーバ装置力 上記再生推定時刻差情報 Δ tを無線 受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記映像再生 装置から再生出力される映像データの映像と、上記オーディオ再生装置から再生出 力されるオーディオデータのオーディオとが実質的に同期して再生出力するように上 記映像データを再生出力する時刻を制御し、
上記オーディオ再生装置は、上記サーバ装置から上記再生推定時刻差情報 Δ tを 無線受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記ォー ディォ再生装置から再生出力されるオーディオデータのオーディオと、上記映像再 生装置力 再生出力される映像データの映像とが実質的に同期して再生出力するよ うに上記オーディオデータを再生出力する時刻を制御することを特徴とする。
また、上記無線通信システムにおいて、上記映像再生装置による再生推定時刻情 報 TTlを計算して無線送信すること及び上記無線受信した再生推定時刻差情報 Δ t に基づく上記映像データの映像の再生出力する時刻を制御することと、
上記オーディオ再生装置による再生推定時刻情報 TT2を計算して無線送信するこ と及び上記無線受信した再生推定時刻差情報 A tに基づく上記オーディオデータの 映像の再生出力する時刻を制御することとを、
所定の時間間隔で周期的に繰り返して実行することを特徴とする。
[0011] さらに、上記無線通信システムにおいて、上記映像データは圧縮符号ィ匕された映 像データであり、上記映像再生装置は無線受信した映像データを伸張復号ィ匕し、上 記データ処理時間 tlは上記伸張復号化に係る時間を含み、
上記オーディオデータは圧縮符号化されたオーディオデータであり、上記オーディ ォ再生装置は無線受信したオーディオデータを伸張復号化し、上記データ処理時 間 t2は上記伸張復号化に係る時間を含むことを特徴とする。
[0012] 第 2の発明に係る同期再生方法は、時刻データ付き映像データと、時刻データ付き オーディオデータとをそれぞれ無線送信するサーバ装置と、
上記サーバ装置力 無線送信される時刻データ付き映像データを無線受信して、 上記映像データの映像を再生出力する映像再生装置と、
上記サーバ装置力 無線送信される時刻データ付きオーディオデータを無線受信 して、上記オーディオデータのオーディオを再生出力するオーディオ再生装置とを備 えた無線通信システムを用いた同期再生方法にぉ 、て、
上記映像再生装置において、上記映像データの映像を再生出力するときに、当該 映像データの時刻データ T1に、当該映像データを再生出力するために必要な既知 のデータ処理時間 tlを加算してなる再生推定時刻情報 TT1を計算して上記サーバ 装置に無線送信するステップと、
上記オーディオ再生装置にお 、て、上記オーディオデータのオーディオを再生出 力するときに、当該オーディオデータの時刻データ T2に、当該オーディオデータを 再生出力するために必要な既知のデータ処理時間 t2を加算してなる再生推定時刻 情報 TT2を計算して上記サーバ装置に無線送信するステップと、
上記サーバ装置において、上記映像再生装置から再生推定時刻情報 TT1を無線 受信するとともに、上記オーディオ再生装置から再生推定時刻情報 TT2を無線受信 した後、上記再生推定時刻情報 TT1と上記再生推定時刻情報 TT2との間の再生推 定時刻差情報 Δ tを計算して上記映像再生装置及び上記オーディオ再生装置に無 線送信するステップと、
上記映像再生装置において、上記サーバ装置から上記再生推定時刻差情報 A t を無線受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記映 像再生装置から再生出力される映像データの映像と、上記オーディオ再生装置から 再生出力されるオーディオデータのオーディオとが実質的に同期して再生出力する ように上記映像データを再生出力する時刻を制御するステップと、
上記オーディオ再生装置にお!、て、上記サーバ装置から上記再生推定時刻差情 報 Δ tを無線受信した後、上記無線受信した再生推定時刻差情報 Δ tに基づ 、て、 上記オーディオ再生装置から再生出力されるオーディオデータのオーディオと、上 記映像再生装置力 再生出力される映像データの映像とが実質的に同期して再生 出力するように上記オーディオデータを再生出力する時刻を制御するステップとを含 むことを特徴とする。
[0013] また、上記同期再生方法において、上記映像再生装置による再生推定時刻情報 T T1を計算して無線送信すること及び上記無線受信した再生推定時刻差情報 Δ tに 基づく上記映像データの映像の再生出力する時刻を制御することと、
上記オーディオ再生装置による再生推定時刻情報 TT2を計算して無線送信するこ と及び上記無線受信した再生推定時刻差情報 A tに基づく上記オーディオデータの 映像の再生出力する時刻を制御することとを、
所定の時間間隔で周期的に繰り返して実行するステップをさらに含むことを特徴とす る。
[0014] さらに、上記同期再生方法において、上記映像データは圧縮符号化された映像デ ータであり、上記映像再生装置は無線受信した映像データを伸張復号ィ匕し、上記デ ータ処理時間 tlは上記伸張復号化に係る時間を含み、
上記オーディオデータは圧縮符号化されたオーディオデータであり、上記オーディ ォ再生装置は無線受信したオーディオデータを伸張復号化し、上記データ処理時 間 t2は上記伸張復号化に係る時間を含むことを特徴とする。
発明の効果
[0015] 従って、本発明に係る無線通信システム及び同期再生方法によれば、動画データ を送信するサーバ装置と、映像データを再生出力するディスプレイと、オーディオデ ータを再生出力するスピーカとを備えて構成される無線通信システムにおいて、映像 データとオーディオデータの同期再生を、従来技術に比較して高精度で実行できる 図面の簡単な説明
[0016] [図 1]本発明の一実施形態に係る無線通信システムの構成を示すブロック図である。
[図 2]図 1の無線通信システムにおいて送受信されるパケット信号の構成を示すプロ ック図である。
[図 3]図 1のオーディオ再生装置 110及び映像再生装置 120によって実行される同 期再生出力制御処理を示すフローチャートである。
[図 4]図 1の無線通信システムにお 、て実行される同期再生出力制御処理を示すシ 一ケンス図である。
[図 5]本発明の変形例に係る無線通信システムにおいて実行される同期再生出力制 御処理を示すシーケンス図である。
符号の説明
[0017] 100…サーバ装置、
101, 111, 121…無線送受信回路、
101A, 111A, 121Α···アンテナ、
102, 112, 122···システムコントローラ、
103, 113, 123···ノ ッファメモリ、
104···動画データメモリ、
110·· 'オーディオ再生装置、
114·· 'オーディオデコーダ、
115, 125- DZA変 、
116···スピーカ、 117, 127· ··デコーダコントローラ、
120· ··映像再生装置、
124· ··映像デコーダ、
126· "ディスプレイ、
301· ··映像データパラメータ情報、
302· • -オーディオデータパラメータ情報、
303· "映像データパケット、
304· "オーディオデータパケット、
311· · ·タイムスタンプ†青報、
312· ··キーフレーム情報、
313· • -圧縮符号化された映像データ、
321· · ·タイムスタンプ†青報、
322· • '圧縮符号化されたオーディオデータ。
発明を実施するための最良の形態
[0018] 以下、本発明に係る実施形態について図面を参照して説明する。なお、同様の構 成要素にっ 、ては同一の符号を付して 、る。
[0019] 実施形態.
図 1は本発明の一実施形態に係る無線通信システムの構成を示すブロック図であ る。本実施形態に係る無線通信システムは、ワイヤレス映像オーディオ再生システム に適用されるものであり、図 1に示すように、例えば DVDレコーダ又はパーソナルコ ンピュータなどのサーバ装置 100と、オーディオ再生装置 110と、映像再生装置 120 とを備えて構成され、それらは無線 LANなどの無線ネットワークを介して接続されて いる。
[0020] 図 1において、サーバ装置 100は、アンテナ 101Aが接続された無線送受信回路 1 01と、システムコントローラ 102と、ノッファメモリ 103と、例えばハードディスクドライブ などの動画データメモリ 104とを備えて構成される。また、オーディオ再生装置 110は 、アンテナ 111Aが接続された無線送受信回路 111と、システムコントローラ 112と、 ノッファメモリ 113と、オーディオデコーダ 114と、ディジタル Zアナログ変翻(以下 、 D/ A変翻という。) 115と、スピーカ 116と、デコーダコントローラ 117とを備えて 構成される。ここで、システムコントローラ 112はオーディオ再生装置 110の他の回路 要素 111乃至 115の動作を制御する。さらに、映像再生装置 120は、アンテナ 121A が接続された無線送受信回路 121と、システムコントローラ 122と、ノ ッファメモリ 123 と、映像デコーダ 124と、 DZA変^^ 125と、ディスプレイ 126と、デコーダコント口 ーラ 127とを備えて構成される。ここで、システムコントローラ 122は映像再生装置 12 0の他の回路要素 121乃至 125の動作を制御する。
[0021] サーバ装置 100において、ユーザの操作により動画データメモリ 104に予め格納さ れた動画データ(例えば複数のプログラムデータを含み、各プログラムデータは、映 像データと、オーディオデータとを含む。)は、例えばブルートゥース(Bluetooth)や 無線 LAN等の無線ネットワークの規格に準拠した無線通信機能を有する無線送受 信回路 101に入力され、無線送受信回路 101は入力される動画データに従って、無 線搬送波を所定のディジタル変調方式を用いて無線信号にディジタル変調した後、 アンテナ 101Aを用いて、オーディオ再生装置 110、及び映像再生装置 120に対し て送信する。ここで、動画データメモリ 104に記録された動画データは、例えば、圧縮 符号化された映像オーディオデータ(例えば、 MPEG (Moving Picture Expert Group)方式などに準拠して形成された動画データである。)であるが、本発明はこ れに限らず、その他の方式で符号ィ匕されたデータであってもよ 、。
[0022] 図 2は図 1の無線通信システムにおいて送受信されるパケット信号の構成を示すブ ロック図である。なお、当該 1つのパケット信号の前段には、無線ネットワークにおい て送受信するための情報 (発信元アドレスや、宛作アドレスなどの情報)が付加される 。当該パケット信号は、図 2に示すように、映像データに関する IDや圧縮符号化方式 及びそれに関する仕様情報などを含む映像データパラメータ情報 301と、オーディ ォデータに関する IDや圧縮符号ィ匕方式及びそれに関する仕様情報などを含むォー ディォデータパラメータ情報 302と、映像データパケット 303と、オーディオデータパ ケット 304と、それに続く映像データパケット 303及びオーディオデータパケット 304と を含み構成される。ここで、映像データパケット 303は、 1つのプログラムの最初の時 刻を 0時 0分 0秒として計時され当該圧縮符号ィ匕された映像データ 313の最初のデ ータの時刻情報であるタイムスタンプ情報 311と、例えば MPEG方式で圧縮符号ィ匕 されているときは Iピクチャのフレーム情報であるキーフレーム情報 312と、圧縮符号 化された映像データ(映像コンテンツデータ) 313とを含む。また、オーディオデータ パケット 304は、 1つのプログラムの最初の時刻を 0時 0分 0秒として計時され当該圧 縮符号ィ匕されたオーディオデータ 322の最初のデータの時刻情報であるタイムスタ ンプ情報 321と、圧縮符号ィ匕されたオーディオデータ (オーディオコンテンツデータ) 322とを含む。すなわち、図 2に示すように、圧縮符号化された映像データ及びォー ディォデータには、再生時刻を定めるためのタイムスタンプ情報が含まれて 、る。
[0023] 図 1において、オーディオ再生装置 110では、サーバ装置 100から無線送信された 動画データを含む無線信号をアンテナ 111 Aを用いて受信して無線送受信回路 11 1に出力する。無線送受信回路 111は無線送受信回路 101と同様の無線送受信機 能を有し、入力される無線信号を受信して、上記ディジタル変調方式とは逆のディジ タル復調方式を用 Vヽて動画データに復調した後、システムコントローラ 112を介して ー且バッファメモリ 113に格納する。次いで、オーディオデコーダ 114はバッファメモ リ 113に格納された動画データカゝら圧縮符号ィ匕されたオーディオデータを抽出し、伸 張及び復号ィ匕処理を行って伸張復号化されたオーディオデータに変換した後 DZA 変翻 115に出力する。 DZA変翻115は入力されるオーディオデータをアナ口 グオーディオデータに変換した後、スピーカ 116に出力してオーディオの音として再 生する。
[0024] また、映像再生装置 120では、サーバ装置 100から無線送信された動画データを 含む無線信号をアンテナ 121 Aを用 、て受信して無線送受信回路 121に出力する。 無線送受信回路 121は無線送受信回路 101と同様の無線送受信機能を有し、入力 される無線信号を受信して、上記ディジタル変調方式とは逆のディジタル復調方式を 用いて動画データに復調した後、システムコントローラ 122を介してー且バッファメモ リ 123に格納する。次いで、映像デコーダ 124はバッファメモリ 123に格納された動画 データカゝら圧縮符号化された映像データを抽出し、伸張及び復号ィ匕処理を行って伸 張復号化された映像データに変換した後 DZA変 125に出力する。 DZA変換 器 125は入力される映像データをアナログ映像データに変換した後、ディスプレイ 12 6に出力して当該映像データの映像を再生して表示する。
[0025] ここで、バッファメモリ 113, 123は、無線通信における伝送誤りによって映像ゃォ 一ディォの再生が途切れな 、ようにデータを格納しておく役割を担って 、る。一方で このバッファメモリ 113, 123のそれぞれに再生すべきデータが格納されることにより、 サーバ装置 100から送信された動画データがスピーカ 116とディスプレイ 126から同 時にオーディオと映像が出力されるとは限らないという問題点があった。この問題点 を解決するために、本実施形態に係る無線通信システムでは、以下の同期再生出力 制御処理を実行する。
[0026] 図 3は図 1のオーディオ再生装置 110及び映像再生装置 120によって実行される 同期再生出力制御処理を示すフローチャートである。
[0027] 図 3において、まず、ステップ S1では、時間 T3を計時する T3タイマ(図 3のステップ S 10での NOの処理に示すように、所定の時間 T3以内では、復号化時の再生時刻 の補正は不要で即時に復号ィ匕するように制御するために、 T3タイマが設けられて ヽ る。)の計時をスタートさせ、ステップ S2において動画再生の開始か又は動画の再生 中であるか否かが判断され、 YESのときはステップ S3に進む一方、 NOのときは当該 同期再生出力制御処理を終了する。ステップ S3において、データを無線受信したか 否かが判断され、 YESのときはステップ S4に進む一方、 NOのときはステップ S2に戻 る。次いで、ステップ S4では、無線受信したデータは時間差情報(A t)である否かが 判断され、 YESのときはステップ S5に進む一方、 NOのとき、すなわち動画データの ときはステップ S7に進む。ステップ S5では、受信された時間差情報(A t)に基づいて 復号ィ匕再生時刻の補正が必要である力否かが判断される。ここでは、例えば I A t I > 100ミリ秒であるときにユーザが顕著な映像とオーディオの時間差として認識可能 であると判断して、ステップ S6において、受信された時間差情報(A t)に基づいて、 デコーダ 114又は 124を制御して各データの再生時刻を遅延させた後、ステップ S2 に戻る。一方、ステップ S5で NOであるときは、ステップ S6の処理を実行させずに、ス テツプ S2に戻る。
[0028] ステップ S7では、動画データをバッファメモリ 113又は 123に格納し、ステップ S8で は、バッファメモリ 113又は 123に例えば 10MBなど一定量の動画データが格納され たか否かが判断され、 YESのときはステップ S9に進む一方、 NOのときはステップ S2 に戻る。次いで、ステップ S9では、復号ィ匕すべき動画データをバッファメモリ 113又 は 123から読み出し、ステップ S10では、 T3タイマは一定時間 T3だけ計時してタイ ムオーバーしたか否かが判断され、 YESのときはステップ S11に進む一方、 NOのと きはステップ S14に進む。ステップ S11では、読み出したデータ力もタイムスタンプ情 報 T1又は T2を取り出し、ステップ S12では、再生推定時刻情報 TTl =Tl +tl又は TT2=T2+t2を計算し、計算した再生推定時刻情報 TT1又は TT2をサーバ装置 1 00に無線送信する。
[0029] ここで、 tlは、図 4に示すように、所定の圧縮符号ィ匕された映像データ量に対して、 映像デコーダ 124による映像データの抽出及び伸張復号化処理から、 DZA変換器 125による DZA変換処理を経て、ディスプレイ 126による再生出力処理までに要す る、装置に依存して予め決定可能な既知のデータ処理時間である。また、 t2は、図 4 に示すように、所定の圧縮符号化されたオーディオデータ量に対して、オーディオデ コーダ 114によるオーディオデータの抽出及び伸張復号ィ匕処理から、 DZA変換器 125による DZA変換処理を経て、スピーカ 116による再生出力処理までに要する、 装置に依存して予め決定可能な既知のデータ処理時間である。ここで、既知のデー タ処理時間 tl, t2は周囲の電波環境や温度、湿度などによらずほぼ一定である。
[0030] そして、ステップ S 13では、 T3タイマをリセットしステップ S 14に進む。ステップ S 14 では、デコーダ 114又は 124に伸張復号化すべきデータを転送して伸張復号化処 理を実行させた後、ステップ S2に戻る。
[0031] 図 4は図 1の無線通信システムにおいて実行される同期再生出力制御処理を示す シーケンス図である。以下、図 4を参照して、映像とオーディオを同期再生させるため の同期再生出力制御処理について説明する。
[0032] (1)まず、サーバ装置 100は、再生すべき動画データを抽出して (ステップ 201)、ォ 一ディォ再生装置 110及び映像再生装置 120に対して無線送信する (ステップ 202
) o
(2)オーディオ再生装置 110は、サーバ装置 100から無線送信された動画データを 無線受信して (ステップ 204)、バッファメモリ 113に格納する(ステップ 206)。また、 映像再生装置 120でも同様に、サーバ装置 100から無線送信された動画データを無 線受信して (ステップ 203)、バッファメモリ 123に格納する(ステップ 205)。
[0033] (3A)オーディオ再生装置 110のオーディオデコーダ 114は、バッファメモリ 113に格 納された動画データカゝら圧縮符号化されたオーディオデータを抽出して、当該圧縮 符号化されたオーディオデータに対して伸張復号化処理を行うが、当該伸張復号ィ匕 処理を行うオーディオデータに含まれるタイムスタンプ情報 T2をデコーダコントローラ 117に通知する。デコーダコントローラ 117は、通知されたタイムスタンプ情報 T2に 対して、圧縮符号ィ匕されたオーディオデータがバッファメモリ 113から読み出されてか ら抽出及び伸張復号化処理、 DZA変換処理を施してスピーカ 116から出力される までに要する既知のデータ処理時間 t2を加算してなる再生推定時刻情報 TT2=T2 +t2を計算して、計算された再生推定時刻情報 TT2をシステムコントローラ 112及び 無線送受信回路 111を介してサーバ装置 100に対して無線送信する (ステップ 208) 。当該無線送信の後、上記読み出したオーディオデータに対して、オーディオデータ の抽出及び伸張復号化処理、 DZA変換処理並びに再生出力処理を実行する (ス テツプ 210, 212, 214)。
[0034] (3B)映像再生装置 120の映像デコーダ 124は、バッファメモリ 123に格納された動 画データカゝら圧縮符号化された映像データを抽出して、当該圧縮符号化された映像 データに対して伸張復号化処理を行うが、当該伸張復号化処理を行う映像データに 含まれるタイムスタンプ情報 T1をデコーダコントローラ 127に通知する。デコーダコン トローラ 127は、通知されたタイムスタンプ情報 T1に対して、圧縮符号化された映像 データがバッファメモリ 123から読み出されて力も抽出及び伸張復号ィ匕処理、 DZA 変換処理を施してディスプレイ 126から表示出力されるまでに要する既知のデータ処 理時間 tlを加算してなる再生推定時刻情報 TT1 =T1 +tlを計算して、計算された 再生推定時刻情報 TT1をシステムコントローラ 122及び無線送受信回路 121を介し てサーバ装置 100に対して無線送信する (ステップ 207)。当該無線送信の後、上記 読み出した映像データに対して、映像データの抽出及び伸張復号ィ匕処理、 DZA変 換処理並びに再生出力処理を実行する (ステップ 209, 211, 213)。
[0035] (4)サーバ装置 100の無線送受信回路 101は、オーディオ再生装置 110及び映像 再生装置 120より送信された再生推定時刻情報 TT1, TT2を受信し、映像データの 再生推定時刻情報 TT1と、オーディオデータの再生推定時刻情報 TT2とを比較し て再生推定時刻差情報 A t=TTl— TT2を計算し (ステップ 215)、計算した再生推 定時刻差情報 A t (例えば、 A t= 100ミリ秒であれば、映像データの出力の方が 100 ミリ秒遅いことを示す。 )をオーディオ再生装置 120及びオーディオ再生装置 110に 対して無線送信する (ステップ 216)。
[0036] (5)オーディオ再生装置 110のシステムコントローラ 112は、無線受信した再生推定 時刻差情報 A tに応じて、その時間差が小さくなるようにデコーダコントローラ 117が オーディオデコーダ 114を制御する(ステップ 218)。一方、映像再生装置 120のシス テムコントローラ 122でも、同様に、無線受信した再生推定時刻差情報 A tに応じて、 その時間差が小さくなるようにデコーダコントローラ 127がオーディオデコーダ 124を 制御する(ステップ 217)。デコーダコントローラ 117又は 127はそれぞれ、オーディオ デコーダ 114又は映像デコーダ 124の動作クロックを数 ppm程度早くなるように補正 したり、数パケットのデータの復号ィ匕を省略して制御することにより、再生時刻を早め ることができ、逆にオーディオデコーダ 114又は映像デコーダ 124の動作クロックを 数 ppm程度遅くなるように補正することにより、再生時刻を遅らせることができる。
[0037] 以上説明したように、本発明に係る実施形態によれば、無線通信システムを利用し て送受信される動画データを再生する際に、容易に映像データとオーディオデータ の再生を実質的に同期させることが可能となる。また、再生推定時刻情報及び再生 推定生時間差情報の送受信、並びに、オーディオデコーダ 114及び映像デコーダ 1 24の制御処理を、例えば上記 T3タイマを用いて一定時間間隔で周期的に繰り返し 行うことにより、周囲の電波環境の変化に随時対応した同期再生を実現させることが 可能となる。
[0038] また、本発明に係る実施形態にお!、て、例えばホームシアターのようにオーディオ を左右 2つ、もしくは、さらに多数のスピーカを備えて再生する無線通信システムや、 複数のディスプレイを備える無線通信システム等にも適用することができる。
[0039] さらに、本発明に係る実施形態にお!、て、映像データとオーディオデータの再生時 刻を制御できるので、複数のスピーカによって構成される無線通信システムの場合、 それぞれのスピーカから再生される時刻を意図的に遅延させることにより、臨場感あ るサラウンド'効果を演出させることち可會となる。
[0040] またさらに、本発明に係る実施形態では、無線通信システムを利用して送受信され るデータを映像データとオーディオデータを含む動画データとして説明した力 本発 明はこれに限らず、動画データであることに限定するものではなぐミニコンポなどや 、ラジオ受信機のように映像出力を必要としな 、オーディオシステム等にも適用する ことができる。
[0041] 変形例.
図 5は、本発明の変形例に係る無線通信システムにお ヽて実行される同期再生出 力制御処理を示すシーケンス図である。変形例は、上記の実施形態に比較して、以 下の点が異なることを特徴として 、る。
[0042] (1)サーバ装置 100は、再生時刻記録要求をオーディオ再生装置 110及び映像再 生装置 120に対して所定の時間間隔でブロードキャスト送信する。また、オーディオ 再生装置 110及び映像再生装置 120は、サーバ装置 100からの再生時刻記録要求 を受信したときに、再生推定時刻情報 TT1及び TT2をそれぞれ計算する。
[0043] (2)サーバ装置 100は、再生推定時刻情送信要求をオーディオ再生装置 110及び 映像再生装置 120に対して所定の時間間隔でそれぞれ無線送信する。また、ォー ディォ再生装置 110及び映像再生装置 120は、サーバ装置 100からの再生推定時 刻情報送信要求を受信したときに、計算された再生推定時刻情報 TT1及び TT2を サーバ装置 100に対してそれぞれ無線送信する。
[0044] ここで、サーバ装置 100は、再生時刻記録要求と、オーディオ再生装置 110への再 生推定時刻情送信要求と、映像再生装置 120への再生推定時刻情送信要求とを、 例えば 10秒間隔でそれぞれ無線送信する。
[0045] 変形例におけるシーケンスは、実施形態におけるシーケンスの(3A)及び(3B)を、 以下の(3C) , (3C1) , (3C2) , (3D) , (3D1) , (3E)及び(3E1)に置き換えたもの である。以下、実施形態との相違点について詳述する。
[0046] (3C)サーバ装置 100は、再生時刻記録要求をオーディオ再生装置 110と映像再生 装置 120に対して無線送信する (ステップ 301)。 [0047] (3C1)映像再生装置 120の映像デコーダ 124は、バッファメモリ 123に格納された 動画データカゝら圧縮符号化された映像データを抽出して、当該圧縮符号化された映 像データに対して伸張復号化処理を行うが、当該伸張復号化処理を行う映像データ に含まれるタイムスタンプ情報 T1をデコーダコントローラ 127に通知する。システムコ ントローラ 122は、サーバ装置 100から無線送信された再生時刻記録要求をアンテ ナ 121 A及び無線送受信回路 121を介して受信して、デコーダコントローラ 127に再 生推定時刻情報 TT1の計算を指示する指令を送信する。デコーダコントローラ 127 は、再生推定時刻情報 TT1の計算を指示する指令を受信すると、映像デコーダ 124 力も通知されたタイムスタンプ情報 T1に対して、圧縮符号ィ匕された映像データがバッ ファメモリ 123から読み出されてカゝら抽出及び伸張復号ィ匕処理、 DZA変換処理を施 してディスプレイ 126から表示出力されるまでに要する既知のデータ処理時間 tlをカロ 算してなる再生推定時刻情報 TTl =Tl +tlを計算し、映像再生装置 120の一時メ モリに記録する (ステップ 302)。
[0048] (3C2)オーディオ再生装置 110のオーディオデコーダ 114は、ノッファメモリ 113に 格納された動画データカゝら圧縮符号化されたオーディオデータを抽出して、当該圧 縮符号化されたオーディオデータに対して伸張復号化処理を行うが、当該伸張復号 化処理を行うオーディオデータに含まれるタイムスタンプ情報 T2をデコーダコント口 ーラ 117に通知する。システムコントローラ 112は、サーバ装置 100から無線送信さ れた再生時刻記録要求をアンテナ 111A及び無線送受信回路 111を介して受信し て、デコーダコントローラ 117に再生推定時刻情報 TT2の計算を指示する指令を送 信する。デコーダコントローラ 117は、再生推定時刻情報 TT2の計算を指示する指 令を受信すると、オーディオデコーダ 114から通知されたタイムスタンプ情報 T2に対 して、圧縮符号ィ匕されたオーディオデータがバッファメモリ 113から読み出されてから 抽出及び伸張復号化処理、 DZA変換処理を施してスピーカ 116から出力されるま でに要する既知のデータ処理時間 t2を加算してなる再生推定時刻情報 TT2=T2 +t2を計算し、オーディオ再生装置 110の一時メモリに記録する (ステップ 303)。
[0049] (3D)次に、サーバ装置 100は、再生推定時刻情送信要求を映像再生装置 120に 対して無線送信する (ステップ 304)。 [0050] (3D1)映像再生装置 120のシステムコントローラ 122は、サーバ装置 100から無線 送信された再生推定時刻情送信要求をアンテナ 121A及び無線送受信回路 121を 介して受信して、デコーダコントローラ 127に再生推定時刻情報 TT1の送信指令を 送信する。デコーダコントローラ 127は、計算された再生推定時刻情報 TT1をシステ ムコントローラ 122及び無線送受信回路 121を介してサーバ装置 100に対して無線 送信する (ステップ 305)。当該無線送信の後、上記読み出した映像データに対して 、映像データの抽出及び伸張復号ィ匕処理、 DZA変換処理並びに再生出力処理を 実行する(ステップ 209, 211, 213)。
[0051] (3E)次に、サーバ装置 100は、再生推定時刻情送信要求をオーディオ再生装置 1 10に対して無線送信する (ステップ 306)。
[0052] (3E1)オーディオ再生装置 110のシステムコントローラ 112は、サーバ装置 100か ら無線送信された再生推定時刻情送信要求をアンテナ 111A及び無線送受信回路 111を介して受信して、デコーダコントローラ 117に再生推定時刻情報 TT2の送信 指令を送信する。デコーダコントローラ 117は、計算された再生推定時刻情報 TT2を システムコントローラ 112及び無線送受信回路 111を介してサーバ装置 100に対し て無線送信する (ステップ 208)。当該無線送信の後、上記読み出したオーディオデ ータに対して、オーディオデータの抽出及び伸張復号ィヒ処理、 DZA変換処理並び に再生出力処理を実行する (ステップ 210, 212, 214)。
[0053] 以上の変形例においては、サーバ装置 100は再生時刻記録要求をオーディオ再 生装置 110及び映像再生装置 120に対してブロードキャスト送信して 、るが、本発明 はこれに限らず、サーバ装置 100は再生時刻記録要求をオーディオ再生装置 110 及び映像再生装置 120に対してュ-キャスト送信しても良い。この場合は、サーバ装 置 100は、再生時刻記録要求を各装置に対して無線送信した時刻の差を記録して おき、再生推定時間差情報 Δ tに加算し又は減算する。
産業上の利用可能性
[0054] 以上詳述したように、本発明に係る無線通信システム及び同期再生方法によれば 、動画データを送信するサーバ装置と、映像データを再生出力するディスプレイと、 オーディオデータを再生出力するスピーカとを備えて構成される無線通信システムに おいて、映像データとオーディオデータの同期再生を、従来技術に比較して高精度 で実行できる。

Claims

請求の範囲
時刻データ付き映像データと、時刻データ付きオーディオデータとをそれぞれ無線 送信するサーバ装置と、
上記サーバ装置力 無線送信される時刻データ付き映像データを無線受信して、 上記映像データの映像を再生出力する映像再生装置と、
上記サーバ装置力 無線送信される時刻データ付きオーディオデータを無線受信 して、上記オーディオデータのオーディオを再生出力するオーディオ再生装置とを備 えた無線通信システムにお 、て、
上記映像再生装置は、上記映像データの映像を再生出力するときに、当該映像デ ータの時刻データ T1に、当該映像データを再生出力するために必要な既知のデー タ処理時間 tlを加算してなる再生推定時刻情報 TT1を計算して上記サーバ装置に 無線送信し、
上記オーディオ再生装置は、上記オーディオデータのオーディオを再生出力する ときに、当該オーディオデータの時刻データ T2に、当該オーディオデータを再生出 力するために必要な既知のデータ処理時間 t2を加算してなる再生推定時刻情報 TT 2を計算して上記サーバ装置に無線送信し、
上記サーバ装置は、上記映像再生装置から再生推定時刻情報 TT1を無線受信す るとともに、上記オーディオ再生装置力 再生推定時刻情報 TT2を無線受信した後 、上記再生推定時刻情報 TT1と上記再生推定時刻情報 TT2との間の再生推定時 刻差情報 Δ tを計算して上記映像再生装置及び上記オーディオ再生装置に無線送 信し、
上記映像再生装置は、上記サーバ装置力 上記再生推定時刻差情報 Δ tを無線 受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記映像再生 装置から再生出力される映像データの映像と、上記オーディオ再生装置から再生出 力されるオーディオデータのオーディオとが実質的に同期して再生出力するように上 記映像データを再生出力する時刻を制御し、
上記オーディオ再生装置は、上記サーバ装置から上記再生推定時刻差情報 Δ tを 無線受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記ォー ディォ再生装置から再生出力されるオーディオデータのオーディオと、上記映像再 生装置力 再生出力される映像データの映像とが実質的に同期して再生出力するよ うに上記オーディオデータを再生出力する時刻を制御することを特徴とする無線通 信システム。
[2] 上記映像再生装置による再生推定時刻情報 TT1を計算して無線送信すること及 び上記無線受信した再生推定時刻差情報 Δ tに基づく上記映像データの映像の再 生出力する時刻を制御することと、
上記オーディオ再生装置による再生推定時刻情報 TT2を計算して無線送信するこ と及び上記無線受信した再生推定時刻差情報 A tに基づく上記オーディオデータの 映像の再生出力する時刻を制御することとを、
所定の時間間隔で周期的に繰り返して実行することを特徴とする請求項 1記載の無 線通信システム。
[3] 上記映像データは圧縮符号化された映像データであり、上記映像再生装置は無線 受信した映像データを伸張復号化し、上記データ処理時間 tlは上記伸張復号化〖こ 係る時間を含み、
上記オーディオデータは圧縮符号化されたオーディオデータであり、上記オーディ ォ再生装置は無線受信したオーディオデータを伸張復号化し、上記データ処理時 間 t2は上記伸張復号化に係る時間を含むことを特徴とする請求項 1又は 2記載の無 線通信システム。
[4] 時刻データ付き映像データと、時刻データ付きオーディオデータとをそれぞれ無線 送信するサーバ装置と、
上記サーバ装置力 無線送信される時刻データ付き映像データを無線受信して、 上記映像データの映像を再生出力する映像再生装置と、
上記サーバ装置力 無線送信される時刻データ付きオーディオデータを無線受信 して、上記オーディオデータのオーディオを再生出力するオーディオ再生装置とを備 えた無線通信システムを用いた同期再生方法にぉ 、て、
上記映像再生装置において、上記映像データの映像を再生出力するときに、当該 映像データの時刻データ T1に、当該映像データを再生出力するために必要な既知 のデータ処理時間 tlを加算してなる再生推定時刻情報 TT1を計算して上記サーバ 装置に無線送信するステップと、
上記オーディオ再生装置にお 、て、上記オーディオデータのオーディオを再生出 力するときに、当該オーディオデータの時刻データ T2に、当該オーディオデータを 再生出力するために必要な既知のデータ処理時間 t2を加算してなる再生推定時刻 情報 TT2を計算して上記サーバ装置に無線送信するステップと、
上記サーバ装置において、上記映像再生装置から再生推定時刻情報 TT1を無線 受信するとともに、上記オーディオ再生装置から再生推定時刻情報 TT2を無線受信 した後、上記再生推定時刻情報 TT1と上記再生推定時刻情報 TT2との間の再生推 定時刻差情報 Δ tを計算して上記映像再生装置及び上記オーディオ再生装置に無 線送信するステップと、
上記映像再生装置において、上記サーバ装置から上記再生推定時刻差情報 A t を無線受信した後、上記無線受信した再生推定時刻差情報 A tに基づいて、上記映 像再生装置から再生出力される映像データの映像と、上記オーディオ再生装置から 再生出力されるオーディオデータのオーディオとが実質的に同期して再生出力する ように上記映像データを再生出力する時刻を制御するステップと、
上記オーディオ再生装置にお!、て、上記サーバ装置から上記再生推定時刻差情 報 Δ tを無線受信した後、上記無線受信した再生推定時刻差情報 Δ tに基づ 、て、 上記オーディオ再生装置から再生出力されるオーディオデータのオーディオと、上 記映像再生装置力 再生出力される映像データの映像とが実質的に同期して再生 出力するように上記オーディオデータを再生出力する時刻を制御するステップとを含 むことを特徴とする同期再生方法。
上記映像再生装置による再生推定時刻情報 TT1を計算して無線送信すること及 び上記無線受信した再生推定時刻差情報 Δ tに基づく上記映像データの映像の再 生出力する時刻を制御することと、
上記オーディオ再生装置による再生推定時刻情報 TT2を計算して無線送信するこ と及び上記無線受信した再生推定時刻差情報 A tに基づく上記オーディオデータの 映像の再生出力する時刻を制御することとを、 所定の時間間隔で周期的に繰り返して実行するステップをさらに含むことを特徴とす る請求項 4記載の同期再生方法。
上記映像データは圧縮符号ィヒされた映像データであり、上記映像再生装置は無線 受信した映像データを伸張復号化し、上記データ処理時間 tlは上記伸張復号化〖こ 係る時間を含み、
上記オーディオデータは圧縮符号化されたオーディオデータであり、上記オーディ ォ再生装置は無線受信したオーディオデータを伸張復号化し、上記データ処理時 間 t2は上記伸張復号化に係る時間を含むことを特徴とする請求項 4又は 5記載の同 期再生方法。
PCT/JP2005/022379 2004-12-16 2005-12-06 無線通信システム WO2006064689A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/793,009 US20080013512A1 (en) 2004-12-16 2005-12-06 Wireless Communication System
JP2006548777A JPWO2006064689A1 (ja) 2004-12-16 2005-12-06 無線通信システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-364056 2004-12-16
JP2004364056 2004-12-16

Publications (1)

Publication Number Publication Date
WO2006064689A1 true WO2006064689A1 (ja) 2006-06-22

Family

ID=36587746

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022379 WO2006064689A1 (ja) 2004-12-16 2005-12-06 無線通信システム

Country Status (4)

Country Link
US (1) US20080013512A1 (ja)
JP (1) JPWO2006064689A1 (ja)
CN (1) CN101080926A (ja)
WO (1) WO2006064689A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541354A (ja) * 2007-09-28 2010-12-24 トムソン ライセンシング 他の装置に送信された受信ストリームを同期可能な通信技術
JP2017528009A (ja) * 2015-06-17 2017-09-21 シャオミ・インコーポレイテッド マルチメディアファイルを再生するための方法及び装置
US9819839B2 (en) 2012-10-30 2017-11-14 Mitsubishi Electric Corporation Audio/video reproduction system, video display device, and audio output device for synchronizing decoding of video frames by the video display device to decoding of audio frames by the audio output device
JP2018502533A (ja) * 2015-10-29 2018-01-25 シャオミ・インコーポレイテッド メディア同期方法、装置、プログラム及び記録媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
JP2011216178A (ja) * 2010-03-18 2011-10-27 Panasonic Corp 再生装置、再生システム及びサーバ
US9088818B2 (en) * 2011-06-21 2015-07-21 Harman International Industries, Incorporated Adaptive media delay matching
KR20180068069A (ko) * 2016-12-13 2018-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN111132087B (zh) * 2018-10-31 2023-06-20 阿尔卑斯通信器件技术(上海)有限公司 通信装置、车载音频装置及车载音频系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084261A (ja) * 2000-09-07 2002-03-22 Sony Corp 無線受信装置及び方法
JP2002094950A (ja) * 2000-09-13 2002-03-29 Matsushita Electric Ind Co Ltd 映像音声伝送装置および映像符号化装置および音声符号化装置および多重伝送装置
WO2003086003A1 (fr) * 2002-04-04 2003-10-16 Fujitsu Limited Organe de commande de synchronisation et procede de commande dans un reseau radio
JP2004193868A (ja) * 2002-12-10 2004-07-08 Alps Electric Co Ltd 無線送受信システム及び無線送受信方法
JP2004254149A (ja) * 2003-02-21 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> データ伝送制御方法およびシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3578069B2 (ja) * 2000-09-13 2004-10-20 日本電気株式会社 長時間用画像・音声圧縮装置及びその方法
KR100782234B1 (ko) * 2001-10-08 2007-12-05 엘지전자 주식회사 피브이알에서의 방송장애구간 자동처리 방법
EP1615433A4 (en) * 2003-03-19 2010-05-26 Panasonic Corp DATA PROCESSING DEVICE
WO2005109815A1 (ja) * 2004-05-10 2005-11-17 Fujitsu Limited 通信装置、通信方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084261A (ja) * 2000-09-07 2002-03-22 Sony Corp 無線受信装置及び方法
JP2002094950A (ja) * 2000-09-13 2002-03-29 Matsushita Electric Ind Co Ltd 映像音声伝送装置および映像符号化装置および音声符号化装置および多重伝送装置
WO2003086003A1 (fr) * 2002-04-04 2003-10-16 Fujitsu Limited Organe de commande de synchronisation et procede de commande dans un reseau radio
JP2004193868A (ja) * 2002-12-10 2004-07-08 Alps Electric Co Ltd 無線送受信システム及び無線送受信方法
JP2004254149A (ja) * 2003-02-21 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> データ伝送制御方法およびシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541354A (ja) * 2007-09-28 2010-12-24 トムソン ライセンシング 他の装置に送信された受信ストリームを同期可能な通信技術
US9819839B2 (en) 2012-10-30 2017-11-14 Mitsubishi Electric Corporation Audio/video reproduction system, video display device, and audio output device for synchronizing decoding of video frames by the video display device to decoding of audio frames by the audio output device
JP2017528009A (ja) * 2015-06-17 2017-09-21 シャオミ・インコーポレイテッド マルチメディアファイルを再生するための方法及び装置
US9961393B2 (en) 2015-06-17 2018-05-01 Xiaomi Inc. Method and device for playing multimedia file
JP2018502533A (ja) * 2015-10-29 2018-01-25 シャオミ・インコーポレイテッド メディア同期方法、装置、プログラム及び記録媒体

Also Published As

Publication number Publication date
CN101080926A (zh) 2007-11-28
US20080013512A1 (en) 2008-01-17
JPWO2006064689A1 (ja) 2008-06-12

Similar Documents

Publication Publication Date Title
WO2006064689A1 (ja) 無線通信システム
JP4182437B2 (ja) オーディオビデオ同期システム及びモニター装置
US20080198930A1 (en) Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method
US6862045B2 (en) Moving image decoding and reproducing apparatus, moving image decoding and reproducing method, time control method, computer program product for decoding and reproducing moving image and multimedia information receiving apparatus
JP2006186580A (ja) 再生装置およびデコード制御方法
JP2007274607A (ja) デジタル信号処理装置及びデータストリーム処理方法
JP2007095163A (ja) マルチメディア符号化データ分離伝送装置
JP4359024B2 (ja) 同期制御方法と装置およびそれを用いた同期再生装置およびテレビジョン受信装置
JP4096915B2 (ja) デジタル情報再生装置及び方法
JP4564350B2 (ja) 信号処理装置
EP1533925A2 (en) Synchronization of a stream data communication system
JP2006019888A (ja) 記録装置および記録制御方法
JP4823960B2 (ja) 再生制御方法および受信装置
JP2011004015A (ja) 再生装置およびコンテンツ再生方法
JP2004172864A (ja) 字幕表示制御装置
JP4953707B2 (ja) デジタル放送受信機
JP2014127213A (ja) 同期再生制御装置及び同期再生制御方法
JP2001245292A (ja) データ受信装置、データ送受信システム及び記録媒体
JP5857840B2 (ja) エンコーダおよび制御方法
JP6596363B2 (ja) 時刻マッピング情報生成装置、同期再生システム、時刻マッピング情報生成方法及び時刻マッピング情報生成プログラム
JP3773892B2 (ja) デジタル記録再生装置
JP2008136027A (ja) 映像音声再生システムと映像再生装置
JP4127799B2 (ja) 復号再生装置
KR100527427B1 (ko) 고출력 및 고음질의 오디오를 재생하는 동영상 재생장치및 방법
JP2005267172A (ja) コンテンツ受信システム、コンテンツ受信装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006548777

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200580043166.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11793009

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11793009

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05814214

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5814214

Country of ref document: EP