WO2004084553A1 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
WO2004084553A1
WO2004084553A1 PCT/JP2004/002424 JP2004002424W WO2004084553A1 WO 2004084553 A1 WO2004084553 A1 WO 2004084553A1 JP 2004002424 W JP2004002424 W JP 2004002424W WO 2004084553 A1 WO2004084553 A1 WO 2004084553A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
audio
time
video
difference value
Prior art date
Application number
PCT/JP2004/002424
Other languages
English (en)
French (fr)
Inventor
Shinichi Saeki
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/548,774 priority Critical patent/US7567746B2/en
Priority to JP2005503643A priority patent/JP4439468B2/ja
Priority to EP04715569A priority patent/EP1615433A4/en
Publication of WO2004084553A1 publication Critical patent/WO2004084553A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Definitions

  • the present invention relates to compression encoded audio data and video data.
  • the present invention relates to a technology for decoding data and reproducing audio and video.
  • the International Organization for Standardization has standardized audio and video coding schemes by the Moving Picture Image Coding Experts Group (MPEG) of the International Electrotechnical Commission (IEC).
  • MPEG Moving Picture Image Coding Experts Group
  • IEC International Electrotechnical Commission
  • S0 / IEC 13818-2 specifies the video compression method
  • IS0 / IEC 13818-3 specifies the audio compression method
  • IS0 / IEC 13818-1 integrates these methods. Stipulated.
  • the last method is known as the MPEG system standard.
  • data streams related to long-term video and audio such as movies can be transferred to a single recording medium (eg, Recording on optical discs).
  • a single recording medium eg, Recording on optical discs.
  • the standard for recording on a recording medium is also being advanced.
  • the DVD standard DVD Specification for Read-Only Disc Version 1.0
  • the DVD Video Recording standard DVD Specifications for Rewritable / Re-recordable Discs; Defined.
  • FIG. 1 shows a configuration of functional blocks of a conventional reproducing apparatus 10 capable of reproducing a system stream.
  • the system stream is a program stream and includes information of the system time reference SCR.
  • the playback device 10 includes an AV processor 1, a video decoder 2, an audio decoder 3, and an STC register 4.
  • the AV parser 1 receives a system stream from the outside and separates the system stream into audio and video data (hereinafter, an audio data stream is referred to as an audio stream, and a video data stream is referred to as an audio stream). Video stream).
  • the AV parser 1 extracts system time reference SCR, audio playback time information (APTS) and video playback time information (VPT S) from the system stream.
  • AV parser 1 sets a reference value in STC register 4 based on the system time reference SCR.
  • eight parsers 1 convert the video stream and VPTS Output to video decoder 2. Output the audio stream APT S to the audio decoder 3.
  • the STC register 4 generates a synchronization signal STC based on the reference value.
  • the video decoder 2 decodes the video stream according to the synchronization signal S; TC and video decoding time information (VDT S), and outputs the decoded video data at the time when the synchronization signals STC and VPTS match. I do.
  • playback time information VPTS is added at intervals equivalent to about 16.7 milliseconds. This is because the display timing of the field image is adjusted.
  • 30 frames of video are displayed per second, and one frame is composed of two fields, so one field is rewritten every 16.7 mm. .
  • the audio decoder 3 decodes the video stream according to the synchronization signal STC and the decoding time information (ADTS) of the audio, and decodes the decoded audio data at the timing when the synchronization signal STC and the APTS match. To output.
  • the playback time information APTS is added at intervals corresponding to the playback timing of one audio frame (about 32 milliseconds).
  • the synchronization signal STC is generated based on the system time reference SCR. It receives digital broadcasts in real time The same is true when it is necessary to synchronize the clocks on the transmitting side and the receiving side when playing back the data (However, when digital broadcasting uses a transport stream, the program time reference PCR is used). .
  • the synchronization signal STC may be set using audio APTS.
  • FIG. 2 shows a configuration of functional blocks of a conventional reproducing apparatus 20.
  • the playback device 20 decodes the audio stream and the video stream based on the system stream recorded on the recording medium, and outputs a video based on the audio playback time information (APTS) to output the audio. Synchronize with The reproducing apparatus 20 is disclosed in, for example, Japanese Patent Application Laid-Open No. H10-136308.
  • the AV separation unit 12 reads the digitally encoded system stream stored in the data recording device 11, and separates the multiplexed and recorded audio data and video data.
  • the video processing unit 13 decodes the video data and sends the video header information obtained at that time to the delay detection unit 16.
  • the playback time information VPTS of the video is described in the header information.
  • the video processing unit 13 integrates the video data reproduced from the start of the reproduction to the present.
  • the number of frames is stored in video frame counter 18.
  • the audio processing unit 14 decodes the audio data and sends the audio header information obtained at that time to the clock generation unit 17.
  • the header information describes audio playback time information VPTS.
  • the audio processing unit 14 stores the integrated data amount of the audio data reproduced from the start of the audio reproduction to the present time in the audio data counter 19.
  • the clip generation unit 17 indicates the elapsed playback time of the audio based on the integrated data amount stored in the audio data counter 19 and the audio header information obtained from the audio processing unit 14.
  • the calculated reference time is calculated.
  • the delay detecting unit 16 calculates the ideal number of frames of video data to be output based on the reference time information obtained from the clock generating unit 17 and the video header information received from the video processing unit 13. .
  • the delay detector 16 compares the ideal number of frames with the actual number of frames obtained by the video frame counter, and detects the progress of video playback with respect to audio playback.
  • the frame drop control unit 15 determines a frame not to be output (frame drop frame) and outputs the information to the AV separation unit 12. And to the video processing section 13.
  • the video processing unit 13 skips the output of the frame drop frame and outputs the subsequent frame. This eliminates the video delay by one frame's worth of display time (for example, 33 milliseconds for NTSC) and reduces audio output. The delay that occurs is eliminated.
  • the playback device 20 realizes synchronous playback of audio and video by the above-described method.
  • the relationship between video playback and audio playback is as follows.
  • the state where video and audio are being reproduced at the timing intended by the producer at the time of encoding is defined as an ideal state.
  • an ideal state In general, when a video is played in the range of 150 milliseconds to +30 milliseconds from the ideal state with respect to the playback of audio, humans perceive that audio and video are synchronized. Therefore, if the video playback time falls within the allowable range with respect to the audio playback time, it is determined that the video output is not behind the audio output, and if not, the video output is delayed. It is only necessary to determine that
  • the conventional playback device determines whether audio and video are played back in synchronization. In the determination of, there is a possibility that the difference between the audio and the video is within the allowable range, but that the difference is out of the allowable range.
  • the video may be out of audio by up to 52 ms. Go.
  • the timing for comparing VPTS and APTS is limited to just after VPT s is updated, the video will be played +20 to +52 ms later than the audio.
  • a delay of +30 ms to +52 ms gives the viewer a sense of discomfort that the video and audio are being played out of sync.
  • the conventional playback device if the audio playback ends before the video playback, the video playback cannot be continued thereafter. This is because when audio playback ends, the audio playback elapsed time stops and the audio no longer functions as a time reference for playing the video. In particular, audio data and video data are mixed in the system stream, and the playback time of the audio data and the video data are not always the same. Since the playback end time of the audio data and the video data is different, the audio playback may end before the video playback, which causes inconvenience.
  • An object of the present invention is to reliably synchronize audio and video when a video is played based on an audio playback time. It is another object of the present invention to continuously play back a video even if the playback of the audio has ended first. Disclosure of the invention
  • a data processing apparatus receives a data stream, performs video data including data of a plurality of pictures from the data stream, first time information defining a reproduction time of each picture, and data of a plurality of audio frames.
  • a parser that separates audio data including the audio data and second time information that defines the reproduction time of each audio frame; and a video data and audio data unit for reproducing the plurality of pictures and the plurality of audio frames.
  • a first difference register for calculating and holding as a first difference value; and
  • a second difference register that calculates a difference value between the second time information of each audio frame and the elapsed time and stores the difference value as a second difference value; and a magnitude of the first difference value with respect to the second difference value.
  • a control unit for controlling the output of the video data in response.
  • the reference register may count an elapsed time using the output start time of the audio data as the predetermined reference time.
  • the control unit may control the video data of the picture currently output to the output unit. good c the controller also be output again, the second difference value, the first difference value and is smaller than the difference between the second plant value is picture of the video to the output unit Data output may be skipped.
  • the control unit may control the output of the video data based on the first time information and the second time information when receiving the instruction of the pause of reproduction.
  • the control unit upon receiving an instruction to cancel the reproduction pause, when the second time information is larger than the sum of the first time information and a third predetermined value, the control unit
  • the audio data may be output earlier than the video data.
  • the control unit upon receiving an instruction to release the playback pause, when the second time information is smaller than the difference between the first time information and a fourth predetermined value, the control unit
  • the video data may be output earlier than the audio data.
  • the control unit may output the video data and the audio data to the output unit at the same time when receiving the instruction to cancel the pause of the reproduction.
  • the data processing method includes: a step of receiving a data stream; video data including data of a plurality of pictures from the data stream; first time information defining a reproduction time of each picture; Separating the audio data including the data and the second time information defining the reproduction time of each audio frame; and reproducing the plurality of pictures and the plurality of audio frames, Outputting the audio data; controlling an elapsed time from a predetermined reference time; outputting each picture; Calculating a difference value between the first time information of the audio frame and the elapsed time, and holding the difference value as a first difference value; and outputting the second time information of the audio frame and the elapsed time at the time of outputting each audio frame. Calculating the difference value of the second difference value and storing the difference value as a second difference value; and controlling the output of the video data according to the magnitude of the first difference value with respect to the second difference value.
  • the step of counting the elapsed time may include counting the elapsed time using the output start time of the audio overnight as the predetermined reference time.
  • the outputting step includes outputting video data of a picture that is being output at that time again. Is also good.
  • the outputting may skip outputting video data of pictures.
  • the data processing method may further include a step of receiving a reproduction pause instruction, and the outputting step responds to the instruction based on the first time information and the second time information.
  • the output of the video data may be controlled.
  • the data processing method may further include a step of receiving an instruction of a pause for reproduction, and the step of outputting includes, in response to the instruction, the second time information being the first time information and the third time information. If the audio data is larger than the sum of the predetermined value and the video data, The output may be performed before the output.
  • the data processing method may further include a step of receiving an instruction for a pause of reproduction, and the step of outputting includes, in response to the instruction, the second time information being the first time information and the fourth time information.
  • the video data may be output before the audio data.
  • the data processing method may further include a step of receiving a playback pause instruction.
  • the outputting step may include outputting the video data and the audio data simultaneously in response to the instruction. Good.
  • the data processing program according to the present invention can be executed by a computer.
  • the data processing device equipped with a computer executes the following procedure according to this program.
  • FIG. 1 is a diagram showing a configuration of a function block of a conventional reproducing apparatus 10 capable of reproducing a system stream.
  • FIG. 2 shows a configuration of functional blocks of a conventional reproducing apparatus 20.
  • FIG. 3 is a diagram showing a data structure of the MPEG2 program stream 30 conforming to the DVD video recording standard.
  • FIG. 4 is a diagram showing a data structure of the video pack 32.
  • FIG. 5 shows a configuration of functional blocks of the data processing apparatus 50 according to the present embodiment.
  • FIG. 6 is a flowchart showing a procedure of processing of the video decoder.
  • FIG. 7 is a flowchart showing the processing procedure of the audio decoder 61.
  • FIG. 8 is a flowchart showing the procedure of the process of the data processing device 50.
  • Figure 9 6 is a graph showing the transition of the values held in the D3 Register 56, the VPTS difference register 57, the APTS register 58, and the APTS difference register 59, respectively.
  • Figure 10 is a graph showing the transition of the values held at the various registers 56, 57, 58 and 59 when the output of the audio frame ends before the output of the video frame. .
  • FIG. 11 is a graph showing the transition of the values held in the various registers 56, 57, 58 and 59 when the reproduction is paused.
  • FIG. 12 is a flowchart showing the processing procedure of the data processing device 50 during the reproduction pause.
  • FIG. 13 is a block diagram illustrating another configuration example of the data processing device. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 3 shows the data structure of the MPEG2 program stream 30 conforming to the DVD video recording standard (hereinafter, this stream is referred to as “data stream 30”).
  • the data stream 30 includes a plurality of video objects (Video OBject; VOB) # 1, # 2,..., #K.
  • VOB video objects
  • each VOB stores moving image data generated by a single recording operation from when the user starts recording until the user stops recording.
  • Each VOB is composed of multiple VOB units (Video OBject units; BU) Includes # 1, # 2, ..., #n.
  • Each VOBU is mainly in units of data including video data in the range of 0.4 second to 1 second in video playback time.
  • V ⁇ BU # 1 placed first in FIG. 3
  • VOBU # 2 placed next to it as an example.
  • VOBU # l is composed of a plurality of packs, which are lower layers of the MPEG program stream.
  • the data length (pack length) of each pack in the data stream 30 is constant (2 kilobytes (2,048 bytes)).
  • RDI pack real-time information pack
  • each pack stores the following information.
  • the RDI pack 31 is information used to control the playback of the data stream 30, for example, information indicating the playback timing of the VOBU. And the information for controlling the copy of the data stream 30.
  • the video pack 32 stores the video data which has been compressed and encoded by the MPEG2.
  • MP EG 2 accordinging to audio standards Stores compressed audio files.
  • VOBU # 2 also consists of multiple packs. At the beginning of VOB U # 2, an RDI pack 34 is arranged, and thereafter, a plurality of video packs 35 and audio packs 36 are arranged. The content of the information stored in each pack is the same as V ⁇ BU # 1.
  • Video and audio decoding and playback are performed on the basis of a unit called an access unit.
  • the access unit is, for example, one video frame for video and one audio frame for audio.
  • a time stamp specifying the timing of decoding and reproduction is added to each access unit. That is, there are two types of time information: DTS (Decoding Time Stamp) indicating when decoding should be performed, and PTS (Presentation Time Stamp) indicating time when playback should be performed.
  • DTS Decoding Time Stamp
  • PTS Presentation Time Stamp
  • a playback device capable of playing back a system stream conforming to the MPEG system standard including the data stream 30 generates a synchronization signal STC (System Time Clock) inside the playback device and determines the operation timing of a decoder. Used as a reference.
  • the synchronization signal STC is generated based on a system clock reference (SCR) value added in the stream, and when the system stream is a transport stream. In the case of, it is generated based on the program clock reference (PCR) value added to the stream.
  • SCR system clock reference
  • PCR program clock reference
  • Video and audio are played back synchronously at the timing intended by the 30 producers.
  • FIG. 4 shows the data structure of the video pack 32.
  • the video pack 32 includes a video bucket 41 and a padding packet 42. Since the padding packet 42 is a bucket provided for adjusting the pack length of the data pack, it does not exist when there is no need to adjust the pack length. In this case, the video pack 32 includes only the video packet 41.
  • the video packet 41 consists of, in order from the beginning, a 14-byte pack header (Pack-H), a 24-byte system header (system-H), a packet header (Packet_H) 41 a and It has a payload.
  • Pack-H 14-byte pack header
  • system-H 24-byte system header
  • Packet_H packet header
  • It has a payload.
  • pack header information for specifying the type of the pack (here, a video packet) is described.
  • the system header is always added to the first pack of VOBU.
  • the packet header 41a will be described later in detail.
  • the payload describes the video data that has been compressed and encoded.
  • the padding packet 42 is a packet header (Packe then H).
  • Packet header 4 In 2a in addition to the information specifying that the packet is a padding bucket, the data length (byte length) of the padding packet 42a is described in the fifth and sixth byte fields (PES—packet_length). You. A predetermined value is stored in the padding data 42b. This value is, for example, a sequence of meaningless values "0 XFF" (hexadecimal), and is necessary to adjust the pack length of the video pack 32 to 2048 bytes as described above. Is arranged for a large amount of data.
  • the packet header 4la has a packet length field 43 flag field 44 and a header data length field 45.
  • the packet header 41a may be provided with an additional field 46 depending on the value of the time flag field 44a and the value of the PES extension flag field 44b.
  • the flag field 44 includes a time flag field 44a (PTS-DTS-flag), a PES extension flag field (PES_extension_flag) 44b, and the like.
  • PES-DTS-flag a time flag field 44a
  • PES_extension_flag a PES extension flag field 44b
  • the header data length field 45 stores the sum of the field lengths of the additional field 46 and the stuffing byte field 49.
  • a 5-byte PTSZDTS field 47 is provided as the field 46.
  • PTS is display time information of video data
  • DTS information is time information for decoding. Either field is provided according to the value of the time flag field 44a.
  • a PES extension field 48 may be provided as an additional field 46.
  • the PES extension field 48 describes information necessary for decoding the program stream 30, such as the capacity of a data buffer for decoding.
  • the PES extension field 48 indicates that each VO
  • the PES extension field 48 is present, for example, when the PES extension flag field 44b is 1 and not present when it is 0.
  • the packet header 41 a may be provided with a stuffing peer field 49.
  • the stuffing byte field 49 stores a stuffing byte for adjusting the pack length.
  • the stuffing byte is byte data such as "0 XFF" (hexadecimal) which has no meaning.
  • Stuffing byte field The 49 and the padding packet 42 are provided for the same purpose for adjusting the pack length. Therefore, the condition is set that the stuffing byte of the DVD video standard is 7 bytes or less, and that the stuffing byte 49 and the padding packet 42 cannot coexist in the same pack. In the example shown in FIG. 4, since the padding bucket 42 exists in the video pack 32, the stuffing byte field 49 is 0 byte and does not exist.
  • FIG. 4 shows a functional block configuration of the data processing device 50 according to the present embodiment.
  • the data processing device 50 manages the output timing of the video frame based on the playback time of the audio frame. You. Therefore, it should be noted that the process is different from the process in which the output of video and audio is managed by the STC register 4 as in the playback device 10 shown in FIG. Note that in this specification, It is assumed that the time when the audio and audio frame data is output is the same as the time when the frame is reproduced, displayed as video, and output as audio.
  • the outline of the operation of the data processing device 50 is as follows. First, the data processing device 50 reads the data stream 30 from the recording medium, and performs compression-encoded video data including data of a plurality of pictures, VPTS of each picture, and data of a plurality of frames. Separate the audio data and APTS of each frame and frame. Then, the data processing device 50 decodes the video data and the audio data in order to reproduce the plurality of pictures and the plurality of frames. In conjunction with this processing, the data processing device 50 counts the elapsed time from the reference time (eg, audio playback start time), and calculates the difference between the VPTS of each picture and the elapsed time when each picture is output.
  • the reference time eg, audio playback start time
  • a difference value between the APTS of each audio frame and the elapsed time is calculated. Then, the reproduction output of the video data is controlled according to the magnitude of each difference value between the video and the audio. For example, when the difference value of the video is larger than the difference value of the audio by a predetermined value or more, the output of one picture of the video is skipped.
  • a picture is a concept representing both a frame and a field.
  • the data processing unit 50 includes an optical pickup 51 and a reproduction processing unit 52 , AV parser 53, reference counter register 54, AV synchronization controller 55,? Ding 3 register 56, VP TS difference register 57, and eight? It has a register 3 58, an APTS difference register 59, a video decoder 60, and an audio decoder 61.
  • the optical pickup 51 reads the data stream 30 from the recording medium.
  • the recording medium is, for example, an optical disk such as DVD or BD (B1 u-ray D i sc).
  • the reproduction processing section 52 digitizes and outputs the data stream 30 obtained as an analog signal.
  • the AV parser 53 separates the data stream 30 into a video stream and an audio stream.
  • the AV parser 53 extracts the SCR from the system stream, and furthermore, the video playback time information VPT S and the audio pack included in the video packs 32, 35, etc. of the data stream 30.
  • 33 Extract audio playback time information APTS contained in 3, 36, etc.
  • the video decoder 60 decodes the video stream and performs video decoding.
  • the video decoder 60 sets the value.
  • the picture data to which the DTS is added is decoded.
  • the VPTS value and the reference count value match or a predetermined difference occurs, the picture data to which the PTS is added is output.
  • the video decoder 60 skips the output of the next frame and skips the subsequent frame. Output from the system again.
  • the audio decoder 61 decodes the audio stream to generate audio data.
  • the audio decoder 61 decodes audio frame data and outputs audio data.
  • the reference counter register 54 counts the elapsed time on the basis of the audio data output timing, in other words, at the same speed as the reproduction reference time. It is assumed that the elapsed time is represented, for example, with an accuracy of 90 kHz. This accuracy allows the reference time to be updated at a time interval much shorter than the video and audio frames.
  • the VP TS register 56 holds V PTS corresponding to the video playback time.
  • the VPTS difference register 57 holds a difference value (VPTS difference value) between the VPTS value held by the register register 56 and the value of the reference count register 54.
  • Hatcho 3 register 58 holds APTS corresponding to the audio playback time.
  • the APTS difference register 59 holds the difference value between the APTS register 58 and the reference counter register 54 (APTS difference value).
  • the A V synchronization control unit 55 stores the value of the VP TS difference register 57 and AP T
  • FIG. 6 shows the processing procedure of the video decoder.
  • the video decoder 60 Upon receiving from the AV synchronization control unit 55 an instruction specifying a video frame to be output in step S61, the video decoder 60 decodes and outputs the frame in step S62.
  • the video decoder 60 writes the VPTS value corresponding to the output video frame into the VPTS register 56.
  • step S64 the video decoder 60 subtracts the counter value that the reference count register 54 has at that time from the value held in the VPTS register 56, and calculates the obtained VPTS difference value as VPTS Write to difference register 57.
  • the values held in the VPTS register 56 and the VPTS difference register 57 are updated respectively.
  • V PTS register 56? Writing to the S difference register 57 may be performed before video output. At the time of output, the values of the V PTS register 56 and the V PTS difference register 57 may be updated using the V PTS value one frame ahead.
  • FIG. 7 shows a processing procedure of the audio decoder 61.
  • the audio decoder 61 decodes the audio stream and outputs it.
  • the audio decoder 61 writes an APTS value corresponding to the audio frame into the APTS register.
  • the audio decoder 61 receives the APTS The counter value of the reference count register 54 at that time is subtracted from the value held in the register 58, and the obtained APTS difference value is written to the APTS difference register 59.
  • Writing to the APTS register 58 and the APTS difference register 59 may be performed before audio output.
  • the values of the APTS register 58 and the APTS differential register 59 may be updated using the APTS value one audio frame (32 milliseconds) ahead.
  • FIG. 8 shows a processing procedure of the data processing device 50.
  • the optical pickup 51 reads a data stream from the optical disc, and the reproduction processing unit 52 performs digitization processing.
  • the AV parser 53 separates the video stream and the VPTS and the audio stream and the APTS from the read data stream 30.
  • step S83 the video decoder 60 outputs the video frame, writes the VPTS value into the VPTS register 56, and writes the VPTS difference value into the VPTS difference register 57.
  • step S84 the audio decoder 61 outputs the audio frame, writes the APTS value into the APTS register 58, and writes the APTS difference value into the APTS difference register 59.
  • step S85 the AV synchronization control unit 55
  • the VP TS difference value held in the S difference register 57 is compared with the AP TS difference value held in the APTS difference register 59.
  • the meaning of the comparison in step S85 will be described with reference to FIG.
  • FIG. 9 is a graph showing the transition of the values held in the VPT S register 56, the VPTS difference register 57, the APT S register 58, and the APTS difference register 59, respectively. This graph is an example of the case where the video is ahead of the audio by 20 ms and the output continues in synchronization.
  • the APTS value discretely increases every 32 milliseconds
  • the VPTS value discretely increases every 16.7 milliseconds.
  • the timing at which the APTS and APTS difference values are updated is indicated by “ ⁇ ”
  • the evening at which the VPTS and VPTS difference values are updated is indicated by “ ⁇ ”.
  • an audio frame and a video frame are output. Note that the reference count starts counting from ⁇ 50 milliseconds at the time of starting playback of the APTS for convenience of explanation, but the starting count value at the start of playback is arbitrary.
  • the APTS register 58 and the VPTS register 56 hold the previous value until the next value is input, so the values held by the APTS register 58 and the VPTS register 56
  • the graph becomes step-like (step-like). Therefore, the difference between the eight-three value and the third-order S value greatly changes depending on the timing at which the difference is calculated. Therefore, based on this difference, audio and video synchronization It is not reasonable to confirm.
  • An audio frame and a video frame are output when the APTS value and the VPTS value match the reference force value or when a predetermined difference occurs.
  • it is output when a difference of —50 ms occurs. Therefore, under the conditions of this embodiment in which the reference count value is generated based on the playback time of the audio frame, the difference between the APTS value and the reference counter value (APTS difference value) is always constant. become. This is as shown in the APTS difference graph.
  • the difference value (VPTS difference value) between the VPTS value and the reference counter value is constant when the output of the video frame is not too slow and not too early. For example, if video is output in the range of 50 ms to +30 ms for audio, it will be approximately constant. This is as shown in the VPT S difference graph. At this time, the viewer feels that the video is synchronized with the audio. However, if a video frame is output beyond the range and output with a delay, the VPTS difference value decreases and increases as the video frame advances.
  • the delay of the output of the video frame with respect to the output of the audio frame can be accurately specified without depending on the timing of the comparison.
  • FIG. 8 is referred to again.
  • the process proceeds to step S86. Proceed to S87.
  • step S86 since the video frame is output earlier, the video decoder 60 outputs the current video frame again based on the instruction from the AV synchronization control unit 55. As a result, the output of the video frame is paused, and the output of the audio frame catches up with the output of the video frame, so that audio and video are synchronized. Thereafter, the process proceeds to step S89.
  • step S88 based on the instruction from the AV synchronization control unit 55, the video decoder 60 skips one video frame and outputs a subsequent video frame. As a result, the output of the video frame catches up with the output of the audio frame, and the audio and video are synchronized.
  • step S89 the AV synchronization control section 55 determines whether or not a video frame remains. If it remains, the process from step S83 is repeated, and if it does not remain, the process ends.
  • VPT S (2) The value of the VPT S register 56 at this time is shown as VPT S (2).
  • the difference keeps increasing during the pause period.
  • the AV synchronization control unit 55 erroneously recognizes that the reproduction of the video frame is delayed, resulting in a malfunction.
  • the AV synchronization control unit 55 may continue outputting the video frame using the APT S value in the APT S register 58 and the VPTS value in the VPTS register 56. . That is, since the APTS value in the APTS register 58 and the VPTS value in the VPTS register 56 continue to be exactly the same value, the difference is constant during the pause period. Therefore, based on this difference, the AV synchronization control unit 55 does not judge that the reproduction timing of the video frame is shifted.
  • FIG. 12 shows the processing procedure of the data processing device 50 when the reproduction pause is released.
  • the AV synchronization control unit 55 receives a pause release instruction from a viewer or the like.
  • the AV synchronization control unit 55 first releases the pause of the audio reproduction, and then releases the pause of the video reproduction. By releasing the pause for audio playback first, the output of the audio frame will catch up with the output of the video frame, and audio and video will be synchronized. After that, the processing in FIG. 12 ends, and the processing moves to the processing shown in FIG.
  • 50 milliseconds
  • step S124 the AV synchronization control unit 55 releases the pause in video playback, and then releases the pause in audio playback.
  • the output of the video frame catches up with the output of the audio frame, and synchronization of audio and video is realized.
  • step S125 pause video playback and audio playback. Cancel the pause at the same time. Then, the processing in FIG. 12 ends, and the flow proceeds to the processing shown in FIG. It is also possible to synchronize audio and video by comparing the value obtained by adding the VP TS difference register and the reference counter register to the APT S register.
  • the data processing device 50 has been described above.
  • the overnight processing device 50 may have, for example, the configuration shown in FIG. 13 in addition to the configuration shown in FIG. FIG. 13 shows another configuration example of the data processing device.
  • the function of the AV synchronization control unit 55 is realized by the general-purpose CPU 131, which operates based on the reproduction processing program 130, except for the optical pickup 51, the reproduction processing unit 52, and the AV synchronization control unit 55.
  • the components of the data processing device are realized by one decoder chip 13 1.
  • the illustration of the optical pickup 51 and the reproduction processing unit 52 is omitted.
  • the reproduction processing program 130 is described so as to operate the data processing device in accordance with the procedures shown in FIGS. 8 and 12, and is executed by the general-purpose CPU 131.
  • the function of the AV synchronization processing unit 55 is realized by the CPU executing software, there is an advantage that the real-time request for the processing of the AV synchronization control unit 55 can be reduced. That is, the general-purpose CPU 13 1
  • it is naturally necessary to execute other processing for example, the movement processing of the optical pickup 51, the binarization processing in the reproduction processing unit 52, and the like.
  • the processing in Fig. 8 and Fig. 12 has no restrictions on the timing of the comparison operation between the VPTS difference value and the APTS difference value, and accurate synchronization can be realized at any time. There are fewer restrictions on the scheduling ring. This advantage is remarkable when compared with the conventional reproducing apparatus 20 or the like in which the general-purpose CPU 1331 needs to execute the PTS update at a strict timing in order to improve the synchronization accuracy.
  • audio and video can be reliably synchronized by comparing the progress status of audio and video output using the APTS differential register and the VPTS differential register. Furthermore, even if the video is interrupted earlier than the video, the video output can be continued based on the video.
  • the provision of an APTS register allows you to compare the progress of audio and video output during a pause, and synchronize audio and video even after the pause is released. As a result, it is possible to provide an apparatus capable of realizing reproduction without discomfort for the viewer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 データ処理装置は、データストリームを受け取って、データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のフレームのデータを含むオーディオデータおよび各フレームの再生時刻を規定する第2時刻情報を分離するパーサと、複数のピクチャおよび複数のフレームを再生するために、ビデオデータおよびオーディオデータを出力する出力部と、所定の基準時刻からの経過時間をカウントする基準レジスタと、各ピクチャの出力時に、各ピクチャの第1時刻情報と経過時間との差分値を計算し、第1差分値として保持する第1差分レジスタと、各フレームの出力時に、各フレームの第2時刻情報と経過時間との差分値を計算し、第2差分値として格納する第2差分レジスタと、第2差分値に対する第1差分値の大きさに応じて、ビデオデータの出力を制御する制御部とを備えている。

Description

デ一夕処理装置
技術分野 本発明は、 圧縮符号化されたオーディォデータおよびビデオデー 明
タを復号化して、 音声および映像を再生する技術に関する。
細 背景技術
近年、 長時間の映像 (ビデオ) および音声 (オーディオ) の各デ 一夕を圧縮符号化してデータ量を抑え、 記録媒体に記録する手法の 開発が進んでいる。 国際標準化機構 ( I S O) においては、 国際電 気標準会議 ( I E C ) の M P E G (Moving Picture Image Coding Experts Group) によるオーディオおよびビデオの符号化方式の標 準化が行われている。 例えば S0/IEC 13818-2」 においてビデオ の圧縮方式が規定され、 「IS0/IEC 13818-3」 でオーディオの圧縮 方式が規定され、 「IS0/IEC 13818-1」 でこれらを統合化する方式 が規定されている。 最後に掲げた方式は、 MP E Gシステム規格と して知られている。 このような圧縮符号化技術を利用することによ り、 映画等の長時間のビデオおよびオーディオに関するデータスト リーム (MP E Gシステムストリーム) を、 高品質を保ちつつ、 1 枚の記録媒体 (例えば、 光ディスク) に記録することが可能になつ ている。 さらに、 記録媒体へ記録する方式についても標準化が進んでいる 例えば、 D V D規格 (DVD Specification for Read- Only Disc Version 1.0) が知られている。 また、 ビデオおよびオーディオの データを記録媒体に記録するための規格として、 1 9 9 9年 9月に は D VDビデオレコーディング (DVD Video Recording) 規格 (DVD Specifications for Rewritable/Re - recordable Discs; が ¾¾定 れている。
次に、 記録媒体に記録されたデ一夕ストリームから、 ビデオおよ びオーディオを同期させて再生する処理を説明する。 図 1は、 シス テムストリームを再生可能な従来の再生装置 1 0の機能ブロックの 構成を示す。 ここでは、 システムストリームはプログラムストリー ムであり、 システム時刻基準 S C Rの情報を含むとする。
再生装置 1 0は、 AVパ一サ 1、 ビデオデコーダ 2、 オーディオ デコーダ 3および S TCレジスタ 4を含む。
AVパーサ 1は外部からシステムストリームを受け取り、 そのシ ステムストリームをォ一ディォおよびビデオの各データに分離する (以下、 ォ一ディォに関するデータストリームをオーディォストリ ームといい、 ビデオに関するデータストリームをビデオストリーム という) 。 AVパーサ 1は、 システムストリームからシステム時刻 基準 S CR、 オーディオの再生時刻情報 (AP T S) およびビデオ の再生時刻情報 (VPT S) を抽出する。 AVパーザ 1は、 システ ム時刻基準 S C Rに基づいて、 S T Cレジスタ 4に基準値を設定す る。 そして、 八 パーサ 1は、 ビデオストリームおよび V P T Sを ビデオデコーダ 2に出力し。 オーディオス 'トリームおょぴ APT S をオーディオデコーダ 3に出力する。 S TCレジスタ 4は、 基準値 に基づいて同期信号 S TCを生成する。
ビデオデコーダ 2は、 同期信号 S;T Cおよびビデオの復号時刻情 報 (VDT S) にしたがってビデオストリームを復号化し、 復号化 したビデオデ一夕を同期信号 S T Cと V P T Sとが一致した夕イミ ングで出力する。 例えばビデオでは、 NT S C方式の場合には約 1 6. 7ミリ秒に相当する間隔で再生時刻情報 VP TSが付加されて いる。 これは、 フィールド画像の表示タイミングに合わせているか らである。 なお、 NT S C方式では、 ビデオは 1秒に 3 0フレーム が表示され、 かつ、 1フレームが 2フィールドから構成されている ため、 1フィ一ルドは約 1 6. 7ミリごとに書き換えられている。 オーディォデコーダ 3は、 同期信号 S TCおよびォ一ディォの復 号時刻情報 (ADT S) にしたがってビデオストリームを複号化し, 復号化したオーディォデ一夕を同期信号 S T Cと AP T Sとが一致 したタイミングで出力する。 例えば、 再生時刻情報 APT Sは、 1 オーディオフレームの再生タイミング (約 3 2ミリ秒) に相当する 間隔で付加されている。
以上の処理により、 システムストリーム製作者がエンコード時に 意図した夕イミングでオーディォおよびビデオの同期再生が実現さ れる。
上述の例は、 システム時刻基準 S C Rに基づいて同期信号 S TC が生成されるとした。 これは、 デジタル放送をリアルタイムで受信 して再生する場合において、 送信側と受信側のクロックを同期させ る必要があるときにも同様である (ただし、 デジタル放送がトラン スポートストリームを利用する場合にはプログラム時刻基準 P C R が用いられる) 。
一方、 光ディスク等の記録媒体に既に記録されているシステムス トリームを読み出してビデオおよびオーディオを再生する場合には、 必ずしもシステム時刻基準 S C Rを用いてエンコード時のクロック を再現する必要はない。 例えば、 オーディオの A P T Sを用いて同 期信号 S T Cを設定してもよい。 そこで、 そのような再生例を図 2 を参照しながら説明する。
図 2は、 従来の再生装置 2 0の機能ブロックの構成を示す。 再生 装置 2 0は記録媒体に記録されたシステムストリ一ムに基づいてォ 一ディォストリームおよびビデオストリ一ムを復号化し、 オーディ ォの再生時刻情報 (A P T S ) に基づいてビデオを出力してオーデ ィォと同期させる。 再生装置 2 0は、 例えば、 日本国特開平 1 0— 1 3 6 3 0 8号公報において開示されている。
A V分離部 1 2は、 データ記録装置 1 1に格納された、 デジタル エンコードされたシステムストリームを読み出し、 多重化されて記 録されているオーディォデータとビデオデータを分離する。
ビデオ処理部 1 3は、 ビデオデータを復号化し、 その際に得られ たビデオヘッダ情報を遅延検出部 1 6に送る。 ヘッダ情報にはビデ ォの再生時刻情報 V P T Sが記述されている。 さらに、 ビデオ処理 部 1 3は、 再生の開始から現在までに再生したビデオデータの積算 フレーム数をビデオフレームカウンタ 1 8へ保存する。 オーディオ 処理部 1 4は、 オーディオデータを復号化するとともに、 その際に 得られたオーディォヘッダ情報をクロック生成部 1 7に送る。 へッ ダ情報にはオーディオの再生時刻情報 V P T Sが記述されている。 さらに、 オーディオ処理部 1 4は、 オーディオ再生の開始から現在 までに再生したオーディォデータの積算データ量をォ一ディォデー 夕カウンタ 1 9へ保存する。
ク口ック生成部 1 7は、 オーディオデータカウンタ 1 9に保存さ れている積算デ一夕量と、 オーディォ処理部 1 4より得たオーディ ォヘッダ情報に基づいて、 オーディオの再生経過時間として示され る基準時刻を算出する。 遅延検出部 1 6は、 クロック生成部 1 7か ら得られた基準時刻の情報およびビデオ処理部 1 3から受け取った ビデオヘッダ情報に基づいて、 本来出力すべきビデオデータの理想 フレーム数を算出する。 遅延検出部 1 6は、 理想フレーム数と、 ビ デォフレームカウンタで得られた実フレーム数を比較し、 オーディ ォの再生に対するビデオの再生の進渉を検出する。
遅延検出部 1 6によってビデオ出力がオーディォ出力より遅れて いると検出されると、 コマ落とし制御部 1 5は、 出力しないフレー ム (コマ落としフレーム) を決定してその情報を A V分離部 1 2お よびビデオ処理部 1 3に伝える。 ビデオ処理部 1 3は、 コマ落とし フレームの出力をスキップしてその後続のフレームを出力する。 こ れにより、 ビデオの遅延が 1フレームの表示時間相当分 (例えば、 N T S Cの場合は 3 3ミリ秒) だけ解消され、 オーディオ出力に対 する遅れが解消される。 再生装置 2 0は、 上述の手法により、 ォー ディォおよびビデオの同期再生を実現する。
オーディォの再生に対するビデオの再生の関係は以下のとおりで ある。 製作者がェンコ一ド時に意図したタイミングでビデオおよび オーディオが再生されている状態を理想状態とする。 一般に、 ォー ディォの再生を基準にしてビデオが理想状態から一 5 0ミリ秒〜 + 3 0ミリ秒の範囲で再生されると、 人間はオーディオとビデオが同 期していると感じる。 そこで、 オーディオ再生時刻に対してビデオ 再生時刻がこの許容範囲に入っている場合には、 ビデオ出力はォー ディォ出力より遅れていないと判断し、 許容範囲に入っていない場 合には、 遅れていると判断すればよい。
しかしながら、 従来の再生装置において、 オーディオの再生経過 時間を基準にしてビデオを再生すると、 以下のような問題が生じる すなわち、 従来の再生装置は、 オーディオおよびビデオが同期し て再生されているか否かの判定において、 オーディオとビデオのず れが許容範囲内にあるにもかかわらず、 その許容範囲を超えている と誤まって判定するおそれがある。
例えば、 オーディオに対してビデオが許容範囲内の 2 0ミリ秒遅 れて再生されているとする。 上述のように、 オーディオのフレーム には約 3 2ミリ秒ごとに A P T Sが付加されており、 ビデオのフィ 一ルドには約 1 6 . 7ミリ秒ごとに V P T Sが付加されている。 そ のため、 A P T Sに対して V P T Sを比較する夕イミングによって は、 ビデオはオーディォょりも最大 5 2ミリ秒ずれて再生されてし まう。 特に、 V P T Sと A P T Sを比較するタイミングを V P T s の更新直後に限定すると、 ビデオはオーディォに対して + 2 0ミリ 秒〜 + 5 2ミリ秒遅れて再生される。 よって、 + 3 0ミリ秒〜 + 5 2ミリ秒の遅れに対しては、 視聴者にはビデオとオーディオとがず れて再生されているという違和感を与える。
また、 従来の再生装置では、 オーディオの再生がビデオの再生よ りも先に終了するとそれ以後はビデオの再生を継続することができ ない。 これは、 オーディオの再生が終了するとオーディオの再生経 過時間の進行が停止し、 オーディォがビデオを再生するための時間 基準として機能しなくなるからである。 特に、 システムストリーム にはオーディォデータおよびビデオデータが混在しており、 かつ、 オーディォデ一夕およびビデオデータの再生時刻が同じとは限らな レ よって、 データの読み出しを終了した時点で得られているォー ディォデータおよびビデオデータの再生終了時刻が異なり、 オーデ ィォの再生がビデオの再生よりも先に終了することがあるため、 不 都合を生じる。
本発明の目的は、 オーディォの再生時間を基準としてビデオの再 生を行った場合において、 オーディオとビデオとを確実に同期させ ることである。 また、 本発明の他の目的は、 オーディオの再生がビ デォょりも先に終了した場合であってもビデオを継続して再生する ことである。 発明の開示 本発明によるデータ処理装置は、 データストリームを受け取って, 前記データストリームから複数のピクチャのデータを含むビデオデ 一夕、 各ピクチャの再生時刻を規定する第 1時刻情報、 複数のォー ディオフレームのデータを含むオーディォデータおよび各オーディ オフレームの再生時刻を規定する第 2時刻情報を分離するパーザと, 前記複数のピクチャおよび前記複数のオーディオフレームを再生す るために、 前記ビデオデータおよび前記オーディォデ一夕を出力す る出力部と、 所定の基準時刻からの経過時間をカウントする基準レ ジス夕と、 前記各ピクチャの出力時に、 前記各ピクチャの第 1時刻 情報と前記経過時間との差分値を計算し、 第 1差分値として保持す る第 1差分レジス夕と、 前記各オーディオフレームの出力時に、 前 記各オーディオフレームの第 2時刻情報と前記経過時間との差分値 を計算し、 第 2差分値として格納する第 2差分レジスタと、 前記第 2差分値に対する前記第 1差分値の大きさに応じて、 前記ビデオデ 一夕の出力を制御する制御部とを備えている。
前記基準レジスタは、 前記オーディォデータの出力開始時刻を前 記所定の基準時刻として経過時間をカウントしてもよい。
前記制御部は、 前記前記第 2差分値が、 前記第 1差分値と第 1所 定値 との和よりも大きい場合には、 前記出力部に対してその時点 で出力されているピクチャのビデオデータを再度出力させてもよい c 前記制御部は、 前記前記第 2差分値が、 前記第 1差分値と第 2所 定値 との差よりも小さい場合には、 前記出力部に対してピクチャ のビデオデータの出力をスキップさせてもよい。 前記制御部は、 再生のポーズの指示を受け取ると、 前記第 1時刻 情報および前記第 2時刻情報に基づいて前記ビデオデータの出力を 制御してもよい。
前記制御部は、 前記再生のポーズを解除する指示を受け取ると、 前記第 2時刻情報が前記第 1時刻情報と第 3所定値との和よりも大 きい場合には、 前記出力部に対して前記オーディォデータを前記ビ デォデ一夕よりも先に出力させてもよい。
前記制御部は、 前記再生のポーズを解除する指示を受け取ると、 前記第 2時刻情報が前記第 1時刻情報と第 4所定値との差よりも小 さい場合には、 前記出力部に対して前記ビデオデ一夕をオーディオ データよりも先に出力させてもよい。
前記制御部は、 前記再生のポーズを解除する指示を受け取ると、 前記出力部に対して前記ビデオデータとオーディォデータとを同時 に出力させてもよい。
本発明によるデータ処理方法は、 データストリームを受け取るス テツプと、 前記データストリームから複数のピクチャのデ一夕を含 むビデオデータ、 各ピクチャの再生時刻を規定する第 1時刻情報、 複数のオーディオフレームのデータを含むオーディォデータおよび 各オーディオフレームの再生時刻を規定する第 2時刻情報を分離す るステップと、 前記複数のピクチャおよび前記複数のオーディオフ レームを再生するために、 前記ビデオデ一夕および前記オーディォ データを出力するステップと、 所定の基準時刻からの経過時間を力 ゥン卜するステップと、 前記各ピクチャの出力時に、 前記各ピクチ ャの第 1時刻情報と前記経過時間との差分値を計算し、 第 1差分値 として保持するステツプと、 前記各オーディオフレームの出力時に, 前記各オーディオフレームの第 2時刻情報と前記経過時間との差分 値を計算し、 第 2差分値として格納するステップと、 前記第 2差分 値に対する前記第 1差分値の大きさに応じて、 前記ビデオデータの 出力を制御するステップとを包含する。
前記経過時間をカウントするステップは、 前記オーディォデ一夕 の出力開始時刻を前記所定の基準時刻として経過時間をカウントし てもよい。
前記前記第 2差分値が、 前記第 1差分値と第 1所定値との和より も大きい場合には、 前記出力するステップは、 その時点で出力され ているピクチャのビデオデータを再度出力してもよい。
前記前記第 2差分値が、 前記第 1差分値と第 2所定値との差より も小さい場合には、 前記出力するステップは、 ピクチャのビデオデ 一夕の出力をスキップしてもよい。
前記データ処理方法は、 再生のポーズの指示を受け取るステップ をさらに包含してもよく、 前記出力するステップは、 前記指示に応 答して、 前記第 1時刻情報および前記第 2時刻情報に基づいて前記 ビデオデータの出力を制御してもよい。
前記データ処理方法は、 再生のポーズの指示を受け取るステップ をさらに包含してもよく、 前記出力するステップは、 前記指示に応 答して、 前記第 2時刻情報が前記第 1時刻情報と第 3所定値との和 よりも大きい場合には、 前記オーディオデータを前記ビデオデータ よりも先に出力してもよい。
前記データ処理方法は、 再生のポーズの指示を受け取るステップ をさらに包含してもよく、 前記出力するステップは、 前記指示に応 答して、 前記第 2時刻情報が前記第 1時刻情報と第 4所定値との差 よりも小さい場合には、 前記ビデオデータをオーディオデータより も先に出力してもよい。
前記データ処理方法は、 再生のポーズの指示を受け取るステップ をさらに包含してもよく、 前記出力するステップは、 前記指示に応 答して、 前記ビデオデータとオーディォデータとを同時に出力して もよい。
本発明によるデータ処理プログラムは、 コンピュータにより実行 可能である。 コンピュータが実装されたデータ処理装置は、 このプ ログラムにしたがって、 以下の手順を実行する。 すなわち、 データ ストリームを受け取るステップと、 前記データ,ストリームから複数 のピクチャのデータを含むビデオデータ、 各ピクチャの再生時刻を 規定する第 1時刻情報、 複数のオーディオフレームのデータを含む オーディォデータおよび各オーディオフレームの再生時刻を規定す る第 2時刻情報を分離するステツプと、 前記複数のピクチャおよび 前記複数のオーディオフレームを再生するために、 前記ビデオデー 夕および前記オーディオデータを出力するステップと、 所定の基準 時刻からの経過時間をカウントするステップと、 前記各ピクチャの 出力時に、 前記各ピクチャの第 1時刻情報と前記経過時間との差分 値を計算し、 第 1差分値として保持するステップと、 前記各オーデ ィォフレームの出力時に、 前記各オーディオフレームの第 2時刻情 報と前記経過時間との差分値を計算し、 第 2差分値として格納する ステップと、 前記第 2差分値に対する前記第 1差分値の大きさに応 じて、 前記ビデオデータの出力を制御するステップとを実行する。 図面の簡単な説明
図 1は、 システムストリ一ムを再生可能な従来の再生装置 1 0の 機能プロックの構成を示す図である。
図 2は、 従来の再生装置 2 0の機能ブロックの構成を示す。
図 3は、 D V Dビデオレコーディング規格に準拠した M P E G 2 プログラムストリーム 3 0のデータ構造を示す図である。
図 4は、 ビデオパック 3 2のデータ構造を示す図である。
図 5は、 本実施形態によるデ一夕処理装置 5 0の機能ブロックの 構成を示す。
図 6は、 ビデオデコーダの処理の手順を示すフローチャートであ る。
図 7は、 オーディオデコーダ 6 1の処理の手順を示すフローチヤ —卜である。
図 8は、 データ処理装置 5 0の処理の手順を示すフローチャート である。
図 9は、 ?丁3レジス夕 5 6、 V P T S差分レジスタ 5 7、 A P T Sレジスタ 5 8、 A P T S差分レジスタ 5 9においてそれぞれ 保持された値の変遷を示すグラフである。 図 1 0は、 オーディオフレームの出力がビデオフレームの出力よ りも先に終了したときの、 各種レジス夕 5 6、 5 7、 58および 5 9においてそれぞれ保持された値の変遷を示すグラフである。
図 1 1は、 再生をポーズさせたときの、 各種レジスタ 5 6、 5 7、 5 8および 5 9においてそれぞれ保持された値の変遷を示すグラフ である。
図 1 2は、 再生ポーズ時のデータ処理装置 5 0の処理の手順を示 すフローチヤ一トである。
図 1 3は、 データ処理装置の他の構成例を示すブロック図である。 発明を実施するための最良の形態
以下では、 まずデータストリームのデータ構造を説明し、 その後, そのデータストリームを処理の対象とする本実施形態によるデータ 処理装置を説明する。
図 3は、 D VDビデオレコ一ディング規格に準拠した MP E G 2 プログラムストリーム 3 0のデータ構造を示す (以下、 このストリ ームを 「データストリーム 3 0」 と記述する) 。
データス トリーム 3 0は、 複数のビデオオブジェク ト (Video OBject ; VOB) # 1、 # 2、 ■ · ·、 # kを含んでいる。 例えば、 データストリーム 3 0がカムコーダで撮影されたコンテンツとする と、 各 VOBは、 ユーザが録画を開始してから録画を停止するまで の 1回の録画動作によって生成された動画データが格納されている ( 各 VO Bは、 複数の VOBュニッ ト (Video OBject unit ; V O B U) # 1、 # 2、 · · ·、 # nを含んでいる。 各 VOBUは、 主 として、 ビデオの再生時間にして 0. 4秒から 1秒までの範囲内の ビデオデ一夕を含むデ一夕単位である。
以下、 図 3において最初に配置された VO B U# 1とその次に配 置された VO B U# 2を例にして、 V〇 B Uのデータ構造を説明す る。 '
VOBU# lは、 MP E Gプログラムストリ一ムの下位階層であ るパックが複数集まって構成されている。 データストリーム 3 0内 の各パックのデ一夕長 (パック長) は一定 (2キロバイト ( 2 0 4 8バイ ト) ) である。 VO BUの先頭には、 図 1に "R" で示され るリアルタイムインフォメーションパック (RD Iパック) 1 1が 配置されている。 RD Iパック 3 1の後には、 "V" で示されるビ デォパック (ビデオパック 3 2等) および "A" で示されるオーデ ィォパック (オーディオパック 3 3等) が複数含まれている。 なお- 各 VO BUのデータサイズは、 再生時間が同じであってもビデオデ 一夕が可変ビットレートであれば最大記録再生レ一ト以下の範囲で 変動し、 ビデオデータが固定ビッ トレートであればほぼ一定である ( 各パックは以下の情報を格納している。 RD Iパック 3 1は、 デ 一夕ストリーム 3 0の再生を制御するために用いられる情報、 例え ば VOBUの再生タイミングを示す情報や、 データストリーム 3 0 のコピーを制御するための情報を格納している。 ビデオパック 3 2 は、 MP E G 2圧縮符号化されたビデオデータを格納している。 ォ 一ディォパック 3 3は、 例えば MP E G 2—オーディォ規格によつ て圧縮されたオーディォデ一夕を格納している。
VOBU# 2もまた、 複数のパックから構成されている。 VOB U# 2の先頭には、 RD Iパック 34が配置され、 その後、 ビデオ パック 3 5およびオーディオパック 3 6等が複数配置されている。 各パックに格納される情報の内容は V〇 B U# 1と同様である。
ビデオおよびオーディォの復号化および再生は、 アクセスュニッ トと呼ばれる単位を基準として行われる。 アクセスユニットは、 例 えば、 ビデオでは 1ビデオフレーム、 ォ ディォでは 1オーディオ フレームである。 MP E Gシステム規格では、 このアクセスュニッ 卜ごとに復号化および再生のタイミングを指定するタイムスタンプ が付加される。 すなわち、 いつ復号化すべきかを示す時刻情報 DT S (Decoding Time Stamp) およびいつ再生すべきかを示す時刻情 報 PT S (Presentation Time Stamp) の 2種類である。
一般に、 デ一タストリーム 3 0を含む MP E Gシステム規格のシ ステムストリームを再生可能な再生装置は、 その内部で同期信号 S T C (System Time Clock) を生成し、 復号器 (デコーダ) の動作 タイミングの基準として用いている。 同期信号 S TCは、 システム ス小リームがプログラムストリームの場合にはそのストリ一ム中に 付加されたシステム時刻基準 S C R (System Clock Reference) 値 に基づいて生成され、 また、 システムストリームがトランスポート ストリームの場合にはそのストリーム中に付加されたプログラム時 刻基準 P C R (Program Clock Reference) 値に基づいて生成され る。 再生装置のデコーダは、 同期信号 S T Cが示す時刻と復号時刻情 報 D T Sとが一致したとき、 その D T Sが付加されたアクセスュニ ットをデコードする。 その後、 デコーダは、 同期信号 S T Cが示す 時刻と再生時刻情報 P T Sとが一致したとき、 その P T Sが付加さ れたアクセスユニッ トを出力する。 これにより、 デ一タストリーム
3 0の製作者が意図したタイミングでビデオおよびオーディォが同 期して再生される。
次に、 ビデオパックのデータ構造を説明する。 図 4は、 ビデオパ ック 3 2のデータ構造を示す。 ビデオパック 3 2は、 ビデオバケツ ト 4 1およびパディングパケット 4 2を含む。 なお、 パディングパ ケット 4 2はデータパックのパック長を調整するために設けられた バケツ トであるため、 パック長を調整する必要がないときは存在し ない。 このときは、 ビデオパック 3 2にはビデオパケット 4 1のみ が含まれる。
ビデオパケット 4 1は、 先頭から順に、 1 4バイ トのパックへッ ダ (Pack— H) 、 2 4バイ トのシステムヘッダ (sys t em— H) 、 パケッ トヘッダ (Packe t_H) 4 1 aおよびペイロードを有する。 パックへ ッダには、 パックの種類 (ここではビデオパケッ ト) を特定する情 報が記述される。 システムヘッダは、 V O B Uの先頭のパックに必 ず付加される。 パケットヘッダ 4 1 aは後に詳述する。 ペイロード には、 圧縮符号化されたビデオデータが記述される。
一方、 パディングパケット 4 2は、 パケッ トヘッダ (Packeし H)
4 2 aおよびパディングデータ 4 2 bを有する。 パケットヘッダ 4 2 aには、 パディングバケツトであることを特定する情報の他に、 5および 6バイ ト目のフィールド (PES— packet_length) において パディングパケット 42 aのデ一夕長 (バイ ト長) が記述される。 パディングデータ 42 bには、 予め定められた値が格納される。 こ の値は、 例えば、 意味を持たない値 " 0 X F F" ( 1 6進数) の羅 列であり、 上述のようにビデオパック 3 2のパック長を 2 048バ ィ トに調整するために必要なデータ量だけ配置される。
次に、 ビデオパケッ卜 4 1のパケットヘッダ 4 1 aのデータ構造 を説明する。 パケッ トヘッダ 4 l aは、 パケッ ト長フィールド 4 3 フラグフィ一ルド 44およびヘッダデータ長フィールド 4 5を有す る。 さらに、 パケッ トヘッダ 4 1 aには、 時間フラグフィールド 4 4 aおよび P E S拡張フラグフィールド 44 bの値に応じて、 追加 のフィ一ルド 46が設けられることがある。
パケット長フィールド 43には、 そのフィールド以降からそのビ デォパケッ ト 4 1の最後までのパケット長 (バイ ト長) が記述され る。 よって、 パディングパケッ ト 42が存在するときにはビデオパ ケッ ト 4 1のパケッ ト長は短くなり、 パケッ ト長フィールド 43に 記述されるパケッ ト長の値は小さくなる。 続いて、 フラグフィール ド 44は、 時間フラグフィールド 44 a (PTS— DTS— flag)、 P E S 拡張フラグフィールド (PES_extension_flag) 44 b等を含む。 時 間フラグフィールド 44 aには、 後述するプレゼンテーションタイ ムスタンプ (P T S) およびでコーディングタイムスタンプ (DT S) の有無を示すフラグが記述される。 また、 P E S拡張フラグフ ィ一ルド 4 bには、 後述する P E S拡張フィールドの有無を示す フラグが記述される。 ヘッダデータ長フィールド 4 5には、 追加の フィールド 46およびスタッフィングバイ トフィールド 4 9のフィ ールド長の和が格納される。
次に、 追加のフィールド 46を説明する。 例えば、 時間フラグフ ィ一ルド 44 aが PT Sおよび DTSを有することを示すときは、 フィールド 46として各 5バイ トの P T SZDT Sフィールド 4 7 が設けられる。 PT Sは映像データの表示時間情報であり、 DT S 情報は復号のための時間情報で,ある。 時間フラグフィールド 44 a の値に応じて、 いずれか一方のフィールドが設けられる。
また、 追加のフィールド 46として P E S拡張フィ一ルド 48が 設けられることもある。 P E S拡張フィ一ルド 48にはプログラム ストリーム 3 0の復号に必要な情報、 例えば復号用のデータバッフ ァの容量等が記述される。
P E S拡張フィールド 48は、 データストリーム 3 0では各 VO
BUにおいて最初に現れるビデオパックおよびオーディォパックに 設けられる。 P E S拡張フィールド 48は、 例えば P E S拡張フラ グフィールド 44 bが 1のときに存在し、 0のときは存在しない。 パケットヘッダ 4 1 aには、 スタッフイングパイ トフィールド 4 9が設けられることがある。 スタッフイングバイ トフィールド 4 9 には、 パック長を調整するためのスタッフィングバイ トが格納され る。 スタッフイングバイ トは、 意味を持たない " 0 X F F" ( 1 6 進数) 等のバイ トデータである。 スタッフィングバイ トフィールド 4 9とパディングパケット 42とは、 パック長を調整するための同 じ目的で設けられる。 よって、 DVDビデオ規格のスタッフイング バイ トは 7バイト以下という条件、 および、 スタッフイングバイ ト 49とパディングパケット 42は同一のパック内に共存できないと いう条件が定められている。 図 4に示す例では、 ビデオパック 3 2 にはパディングバケツト 42が存在しているため、 スタッフィング バイ トフィールド 4 9は 0バイ トであり存在しない。
なお、 図 4ではビデオパックのデ一夕構造を示したが、 ォ一ディ ォパックのデータ構造も同様である。 「ビデオパケット」 を 「ォー ディォパケット」 に読み替え、 ペイロードに格納される 「ビデオデ 一夕」 を 「オーディオデータ」 に読み替えればよい。 よって、 ォ一 ディォパケットのバケツトヘッダ 4 1 aには、 追加のフィールド 4 6に P T S/DT Sフィールド 47が記述され、 その再生 (出力) のタイミングを示す P T Sまたは D T Sが記述される。 なお、 以下 では、 オーディオの再生時刻情報 (PT S) は 「APT S」 と記す, そして、 ビデオの再生時刻情報 (P T S) は 「VP TS」 と記す。 次に、 図 5を参照しながら、 データ処理装置を説明する。 図 5は. 本実施形態によるデータ処理装置 5 0の機能ブロックの構成を示す < 本実施形態では、 データ処理装置 5 0はオーディオフレームの再生 時刻を基準としてビデオフレームの出力のタイミングを管理してい る。 したがって、 図 1に示す再生装置 1 0のように、 S TCレジス タ 4によってビデオおよびオーディォの出力が管理されている処理 とは異なっている点に留意されたい。 なお、 本明細書では、 ビデオ およびオーディォのフレームデータを出力した時刻と、 そのフレー ムが再生されて映像として表示され、 音声として出力される時刻と は同じであるとする。
データ処理装置 5 0の動作の概要は以下のとおりである。 まず、 データ処理装置 5 0は、 データストリーム 3 0を記録媒体から読み 出し、 複数のピクチャのデ一夕を含む圧縮符号化されたビデオデー 夕、 各ピクチャの V P T S、 複数のフレームのデ一夕を含むオーデ イ ^データおよび各フ,レームの A P T Sを分離する。 そして、 デー 夕処理装置 5 0は、 複数のピクチャおよび複数のフレームを再生す るために、 ビデオデータおよびオーディオデ一夕を復号化する。 この処理と併せて、 データ処理装置 5 0は、 基準時刻からの経過 時間 (例えばオーディオの再生開始時刻) をカウントし、 各ピクチ ャの出力時には各ピクチャの V P T Sと経過時間との差分値を計算 し、 各オーディオフレームの出力時には各ォ一ディオフレームの A P T Sと経過時間との差分値を計算する。 そして、 ビデオおよびォ 一ディォの各差分値の大きさに応じてビデオデータの再生出力を制 御する。 例えば、 ビデオの差分値がオーディオの差分値よりも所定 値以上大きくなったときは、 ビデオの一枚のピクチャの出力をスキ ップする。 なお、 ピクチャは、 フレームおよびフィールドの両方を 表す概念である。
以下、 データ処理装置 5 0の各構成要素を説明し、 その後、 デ一 夕処理装置 5 0の動作を説明する。
データ処理装置 5 0は、 光ピックアップ 5 1と、 再生処理部 5 2 と、 AVパーザ 5 3と、 基準カウンタレジスタ 54と、 AV同期制 御部 5 5と、 ?丁 3レジスタ 5 6と、 VP T S差分レジス夕 5 7 と、 八?丁 3レジスタ 5 8と、 AP T S差分レジスタ 5 9と、 ビデ ォデコーダ 6 0と、 オーディオデコーダ 6 1とを有する。
光ピックアップ 5 1は、 記録媒体からデータストリーム 3 0を読 み出す。 記録媒体は、 例えば D VD、 B D (B 1 u - r a y D i s c) 等の光ディスクである。 再生処理部 5 2は、 アナログ信号と して得られたデ一タストリ一ム 3 0をデジタル化して出力する。
A Vパーサ 5 3は、 データストリーム 3 0をビデオストリームと オーディオストリームに分離する。 また、 A Vパーザ 5 3は、 シス テムストリームから S C Rを抽出し、 さらに、 データストリ一ム 3 0のビデオパック 3 2、 3 5等に含まれているビデオ再生時刻情報 VPT S、 および、 オーディオパック 3 3、 3 6等に含まれている オーディォ再生時刻情報 AP T Sを抽出する。
ビデオデコーダ 6 0は、 ビデオストリ一ムを復号化してビデオデ
—タを生成する。 具体的には、 ビデオデコーダ 6 0は、 時刻情報 D T Sによって示される値と、 後述の基準カウン夕レジスタ 54によ つて示される基準カウンタ値とがー致しまたは所定の差が生じたと きに、 その DTSが付加されたピクチャデータを復号化する。 そし て、 VP T S値と基準カウン夕値とがー致しまたは所定の差が生じ たときに、 その P T Sが付加されたピクチャデータを出力する。 ま た、 ビデオデコーダ 6 0は、 フレームの出力をスキップする指示を 受け取ると、 その次のフレームの出力をスキップして後続のフレー ムから再び出力を開始する。
オーディオデコーダ 6 1は、 オーディオストリームをデコードし てオーディオデータを生成する。 オーディオデコ一ダ 6 1は、 ォー ディオフレームデータを復号化し、 オーディォデータを出力する。 基準カウンタレジスタ 54は、 オーディオデータの出力タイミン グを基準として、 換言すれば、 再生の基準時間と同じ早さで経過時 間をカウントする。 経過時間は、 例えば 9 0 k H zの精度で表され るとする。 この精度により、 ビデオフレームやオーディオフレーム より充分に短い時間間隔で基準時間を更新できる。
VP TSレジス夕 5 6は、 ビデオの再生時間に対応する V P T S を保持する。 V P T S差分レジス夕 5 7は、 ¥?丁3レジス夕 5 6 が保持する V P T S値と基準カウン夕レジスタ 54の値の差分値 (VP TS差分値) を保持する。 八 丁 3レジスタ 5 8は、 オーデ ィォの再生時間に対応する AP T Sを保持する。 AP T S差分レジ ス夕 5 9は、 AP T Sレジス夕 5 8と基準カウンタレジス夕 54の 差分値 (AP T S差分値) を保持する。 上述した VP T Sレジスタ 5 6、 VP T S差分レジスタ 5 7、 AP T Sレジスタ 5 8および A P T S差分レジスタ 5 9の各レジスタは、 ある値を受け取ると、 次 の値が入力されるまでその値を保持している。
A V同期制御部 5 5は、 VP TS差分レジスタ 5 7の値と AP T
S差分レジスタ 5 8の値とを比較して、 ビデオデコーダ 6 0を制御 してビデオデータの再生出力を調整する。 これにより、 オーディオ に対してビデオを同期させている。 ここで、 ビデオデコーダ 6 0の動作およびオーディォデコーダ 6 1の動作を具体的に説明する。 図 6は、 ビデオデコーダの処理の手 順を示す。 ビデオデコーダ 6 0は、 ステップ S 6 1において出力す べきビデオフレームを特定する指示を A V同期制御部 5 5から受け 取ると、 ステップ S 6 2においてそのフレームを復号化して出力す る。 次に、 ステップ S 6 3において、 ビデオデコーダ 6 0は出力し たビデオフレームに対応する V P T S値を V P T Sレジス夕 5 6に 書き込む。 そして、 ステップ S 6 4において、 ビデオデコーダ 6 0 は V P T Sレジスタ 5 6に保持された値から、 基準カウン夕レジス 夕 5 4がその時点で有するカウンタ値を減算し、 得られた V P T S 差分値を V P T S差分レジスタ 5 7に書き込む。 ビデオデコーダ 6 0のこのような動作により、 V P T Sレジスタ 5 6および V P T S 差分レジスタ 5 7に保持されている値がそれぞれ更新される。
なお、 V P T Sレジスタ 5 6ぉょび ?丁 S差分レジスタ 5 7へ の書き込みをビデオ出力の前に行ってもよい。 また、 出力時に、 1 フレーム先の V P T S値を用いて V P T Sレジスタ 5 6および V P T S差分レジス夕 5 7の値を更新してもよい。
次に、 図 7は、 オーディオデコーダ 6 1の処理の手順を示す。 ス テツプ S 7 1において、 オーディオデコーダ 6 1は、 オーディオデ コーダはオーディオストリームを復号化して出力する。 次に、 ステ ップ S 7 2において、 オーディオデコーダ 6 1は、 オーディオフレ ームに対応する A P T Sの値を A P T Sレジスタに書き込む。 そし て、 ステップ S 7 3において、 オーディオデコーダ 6 1は A P T S レジスタ 5 8に保持された値から、 基準カウン夕レジスタ 54がそ の時点で有するカウンタ値を減算し、 得られた A P T S差分値を A P T S差分レジスタ 5 9に書き込む。
なお、 AP T Sレジスタ 5 8および A P T S差分レジスタ 5 9へ の書き込みを、 オーディオ出力の前に行ってもよい。 また、 出力時 に、 1オーディオフレーム (3 2ミリ秒) 先の AP T S値を用いて. APT Sレジスタ 5 8および A P T S差分レジス夕 5 9の値を更新 してもよい。
次に、 データ処理装置 5 0の処理を説明する。 図 8は、 データ処 理装置 5 0の処理の手順を示す。 まずステップ S 8 1において、 光 ピックアップ 5 1が光ディスクからデ一タストリームを読み出し、 再生処理部 5 2がデジタル化処理を行う。 そして、 ステップ S 8 2 において、 AVパーザ 5 3は、 読み出したデータストリーム 3 0か らビデオストリームと V P T Sおよびオーディオストリームと A P TSを分離する。
ステップ S 8 3において、 ビデオデコーダ 6 0は、 ビデオフレー ムを出力するとともに、 その VPT S値を VP T Sレジスタ 5 6に 書き込み、 その VP T S差分値を V P T S差分レジスタ 5 7に書き 込む。 次に、 ステップ S 84において、 オーディオデコーダ 6 1は オーディオフレームを出力するとともに、 その AP T S値を APT Sレジスタ 5 8に書き込み、 その APT S差分値を APT S差分レ ジス夕 5 9に書き込む。
続いて、 ステップ S 8 5において、 A V同期制御部 5 5は VP T S差分レジスタ 5 7に保持されている VP TS差分値と、 APTS 差分レジスタ 5 9に保持されている AP T S差分値とを比較する。 ステップ S 8 5の比較の意味を図 9を参照しながら説明する。 図 9は、 VPT Sレジス夕 5 6、 V P T S差分レジスタ 5 7、 APT Sレジスタ 5 8、 A P T S差分レジス夕 5 9においてそれぞれ保持 された値の変遷を示すグラフである。 このグラフは、 オーディオに 対してビデオが 2 0ミリ秒進んだ状態で同期して出力を継続してい る場合の例である。
本実施形態では、 AP T S値は 3 2ミリ秒ごとに離散的に増加し VP TS値は 1 6. 7ミリ秒ごとに離散的に増加する。 図 9では、 AP TSおよび AP T S差分値が更新されるタイミングを "·" に よって示し、 VP T Sおよび VP T S差分値が更新される夕イミン グを "▲" によって示している。 これらのタイミングにおいて、 ォ 一ディオフレームおよびビデオフレームが出力されている。 なお、 基準カウン夕は、 説明の便宜上、 AP T Sの再生開始時において— 5 0ミリ秒からカウントを開始しているが、 再生開始時における開 始カウント値は任意である。
先に述べたように、 A P T Sレジスタ 5 8および V P T Sレジス 夕 5 6は次の値が入力されるまでは前の値を保持しているため、 A P T Sレジスタ 5 8および V P T Sレジスタ 5 6が保持する値のグ ラフは階段状 (ステップ状) になる。 よって、 八 丁 3値と¥ 丁 S値との差は、 その差を計算するタイミングによって大きく変化し てしまう。 よって、 この差に基づいてオーディオとビデオとの同期 を確認することは妥当ではない。
オーディオフレームおよびビデオフレームは、 AP T S値および VP T S値が基準力ゥン夕値と一致しまたは所定の差が生じたとき に出力されている。 図 9に示す例では、 — 5 0ミリ秒の差が生じた ときに出力されている。 よって、 オーディオフレームの再生時刻に 基づいて基準カウン夕値を生成している本実施形態の条件の下では. AP T S値と基準カウンタ値との差分値 (APT S差分値) を計算 すると常に一定になる。 これは AP T S差分のグラフに示すとおり である。
一方、 VPTS値と基準カウンタ値との差分値 (VPTS差分 値) は、 ビデオフレームの出力が遅すぎず、 かつ、 早すぎない場合 には、 一定になる。 例えば、 オーディオに対して一 5 0ミリ秒〜 + 3 0ミリ秒の範囲でビデオが出力されると、 概ね一定になる。 これ は VPT S差分のグラフに示すとおりである。 このときは、 視聴者 はビデオがオーディオに同期していると感じる。 ただし、 その範囲 を超'えてビデオフレームが遅れて出力されると VP T S差分値は小 さくなり、 進むと大きくなる。
よって、 AP T S差分値と VP TS差分値とを比較すれば、 その 比較を行う夕イミングに依存することなく、 正確にオーディオフレ ームの出力に対するビデオフレームの出力の遅れを特定できる。
再び図 8を参照する。 ステップ S 8 5における比較の結果、 VP T S差分値が APTS差分値よりも所定時間 α (例えばひ = 3 0ミ リ秒) 以上大きければステップ S 8 6に進み、 そうでなければステ ップ S 8 7に進む。
ステップ S 8 6では、 ビデオフレームが早く出力されているため A V同期制御部 5 5からの指示に基づいて、 ビデオデコーダ 6 0は 現在のビデオフレームを再度出力する。 これにより、 ビデオフレー ムの出力がポーズされてオーディオフレームの出力がビデオフレー ムの出力に追いつくことになり、 オーディオとビデオの同期が実現 される。 その後、 処理はステップ S 8 9に進む。
ステップ S 8 7では、 V P T S差分値が A P T S差分値—所定時 間 /3 (例えば /3 = 5 0ミリ秒) よりも小さいか否かが判断される。 小さい場合にはステップ S 8 8に進み、 小さくない場合には V P T S差分値が A P T S差分値と概ね等しいことを意味する。 この後処 理はステツプ S 8 9に進む。
ステップ S 8 8では、 A V同期制御部 5 5からの指示に基づいて, ビデオデコーダ 6 0は 1ビデオフレームをスキップし後続のビデオ フレームを出力する。 これにより、 ビデオフレームの出力がオーデ ィオフレームの出力に追いつくことになりオーディォとビデオの同 期が実現される。
ステップ S 8 9では、 A V同期制御部 5 5はビデオフレームが残 つているか否かを判断する。 残っている場合にはステップ S 8 3以 降の処理を繰り返し、 残っていない場合には処理を終了する。
次に、 図 1 0を参照しながら、 オーディオフレームの出力がビデ オフレームの出力よりも先に終了した場合の処理を説明する。
図 1 0は、 オーディオフレームの出力がビデオフレームの出力よ りも先に終了したときの、 各種レジスタ 5 6、 5 7、 58および 5 9においてそれぞれ保持された値の変遷を示すグラフである。 時刻 t = t 1においてオーディオフレームの出力が終了し、 出力が途切 れているとする。 時刻 t = t 1以降は AP T Sの更新はないため、 AP T Sレジスタの値が増加しなくなることに留意されたい。 仮に AP T Sレジスタ 5 8の値を基準にビデオを同期させるとすると、 点線で示した VP T S ( 1) のようにビデオの出力も進まなくなる しかし、 APT S差分レジスタ 5 7および V P T S差分レジスタ 5 9を利用すると、 オーディオデータが途切れても APT S差分レ ジス夕の値は同じ値が継続して出力されるため、 オーディオの出力 が継続している場合と同じ状態を維持できる。 よって、 先に説明し たと同じ処理によってビデオフレームの出力を確実に継続すること ができる。 このときの VPT Sレジスタ 5 6の値を VPT S (2) として示す。
次に、 図 1を参照しながら、 オーディオおよびビデオの再生が
' 視聴者からの指示等に基づいてポーズされた場合の処理を説明する 図 1 1は、 再生をポーズさせたときの、 各種レジス夕 56、 5 7、 5 8および 5 9においてそれぞれ保持された値の変遷を示すグラフ である。 時刻 t = t 3において再生がポーズされたとする。 時刻!; = t 3以降のポーズ期間中は、 ビデオは同じフレームの出力を繰り 返す。 そのため、 V P T Sレジスタ 5 6には、 ポーズ直前の時刻に おける VPTS値と同じ値が入力され続ける。 また、 VPT S値が 一定で、 かつ基準カウンタ値は増加するため、 VPT S差分レジス 夕 5 7に入力される VP T S差分値は徐々に階段状に減少する。 一 方、 オーディオは出力を停止する。 よって、 AP T S値および AP T S差分値は、 ポーズされた時刻 t = t 3の直前の時刻 t = t 2に おいて更新された AP T S値および AP T S差分値が保持される。 AP TS差分値と VPTS差分値とを比較すると、 ポーズ期間中は その差は大きくなり続ける。 その結果、 正常な表示であるにもかか わらず、 AV同期制御部 5 5はビデオフレームの再生が遅れている と誤って認識してしまい、 誤動作を招く。
そこで、 この場合には、 A V同期制御部 5 5は、 APT Sレジス 夕 5 8内の APT S値と、 V P T Sレジスタ 5 6内の V P T S値と を利用してビデオフレームの出力を継続すればよい。 すなわち、 A P T Sレジスタ 5 8内の A P T S値、 および、 VP T Sレジスタ 5 6内の VP T S値は全く同じ値をとりつづけるため、 ポーズ期間中 はその差も一定である。 よって、 この差に基づけば、 AV同期制御 部 5 5はビデオフレームの再生タイミングがずれていると判断する こともない。 ビデオフレームの出力タイミングは、 NTS C方式に よれば、 ポーズされた時刻 t = t 3の直前に表示されたフレームを 基準として 1 2 9. 9 7秒 (約 1Z3 0秒) ごとである。 なお、 インターレースで表示される場合には、 出力タイミングは、 直前に 表示された 2枚のフィールドを 5 9. 94秒 (約 1ノ 6 0秒) ごと である。 なお、 これらのタイミングの決定にあたっては、 APT S レジスタ 5 8内の AP T S値は特に利用されない。
その後、 ポーズが解除されたときは、 データ処理装置 5 0は、 図 1 2に示すように処理して、 オーディオとビデオの同期を取ること ができる。 図 1 2は、 再生ポーズが解除されたときのデータ処理装 置 5 0の処理の手順を示す。 まず、 ステップ S 1 2 0において、 A V同期制御部 5 5は視聴者等からポーズ解除の指示を受け取る。 そ して、 ステップ S 1 2 1において、 ¥ ?丁3値が八?丁3値+所定 時間ァ (例えばァ = 3 0ミリ秒) よりも大きければステップ S 1 2 2に進み、 そうでなければステップ S 1 2 3に進む。 ステップ S 1 2 2において、 A V同期制御部 5 5はまずオーディォ再生のポーズ を解除し、 その後、 ビデオ再生のポ一ズを解除する。 オーディオ再 生のポーズを先に解除することにより、 オーディオフレームの出力 がビデオフレームの出力に追いつくことになり、 オーディオとビデ ォの同期が実現される。 その後、 図 1 2の処理は終了し、 図 8に示 す処理へと移る。
ステップ S 1 2 3において、 V P T S値が A P T S値—所定時間 δ (例えば δ = 5 0ミリ秒) よりも小さいか否かが判断される。 小 さい場合にはステツプ S 1 2 4に進み、 小さくない場合 はステツ プ S 1 2 5に進む。
ステップ S 1 2 4では、 A V同期制御部 5 5はビデオ再生のポー ズを解除し、 その後、 オーディオ再生のポーズを解除する。 これに より、 ビデオフレームの出力がオーディオフレームの出力に追いつ くことになりオーディオとビデオの同期が実現される。 その後、 図 1 2の処理は終了し、 図 8に示す処理へと移る。
ステップ S 1 2 5では、 ビデオ再生のポーズとオーディオ再生の ポーズとを同時に解除する。 そして図 1 2の処理は終了し、 図 8に 示す処理へと移る。 なお、 VP T S差分レジス夕と基準カウンタレ ジス夕を加算した値と、 APT Sレジス夕とを比較してオーディオ とビデオの同期を取ることも可能である。
なお、 VP TS差分レジス夕 5 7と基準カウン夕レジス夕 54の みでは、 現在出力中のフレームを特定することが困難であるが、 V P T Sレジス夕 5 6を備えることにより、 出力されているビデオフ レームを容易に特定することができる。
以上、 本発明の実施形態によるデータ処理装置 5 0を説明した。 デ一夕処理装置 5 0は、 図 5に示す構成の他に、 例えば図 1 3に示 す構成をとることもできる。 図 1 3は、 データ処理装置の他の構成 例を示す。 AV同期制御部 5 5の機能は、 再生処理プログラム 1 3 0に基づいて動作する汎用 C P U 1 3 1によって実現され、 光ピッ クアップ 5 1、 再生処理部 5 2および A V同期制御部 5 5を除くデ 一夕処理装置の構成要素が、 1つのデコーダチップ 1 3 1によって 実現されている。 なお、 光ピックアップ 5 1および再生処理部 5 2 の図示は省略している。
再生処理プログラム 1 3 0は、 図 8および図 1 2に示す手順に従 つてデータ処理装置を動作させるように記述され、 汎用 c P U 1 3 1によって実行される。 A V同期処理部 5 5の機能が C PUがソフ トウエアを実行することによって実現される場合には、 AV同期制 御部 5 5の処理に対するリアルタイム要求を低くすることができる という利点が存在する。 すなわち、 汎用 C P U 1 3 1は上述した処 理に加えて、 当然に他の処理、 例えば光ピックアップ 5 1の移動処 理、 再生処理部 5 2における 2値化処理等を実行する必要がある。 図 8および図 1 2における処理は、 V P T S差分値と A P T S差分 値との比較演算等の夕イミングの制約はなく、 いつ行っても正確な 同期を実現できるため、 汎用 C P U 1 3 1の動作に関するスケジュ 一リングに対する制限は少なくなる。 この利点は、 従来の再生装置 2 0等において、 同期の精度を向上するために汎用 C P U 1 3 1に 対して P T S更新を厳密なタイミングで実行させなければならない 場合と比較すると、 顕著である。 産業上の利用可能性
本発明によれば、 A P T S差分レジス夕と V P T S差分レジスタ を利用してオーディオとビデオの出力の進渉状態を比較することに より、 確実にオーディオとビデオの同期を取ることができる。 さら に、 ォ一ディォデ一夕がビデオデ一夕よりも先に途切れても、 ォ一 ディォを基準にビデオの出力を継続させることが可能になる。 さら に、 A P T Sレジス夕を備えることにより、 ポ一ズ中にもオーディ ォとビデオの出力の進渉具合を比較するとともに、 ポーズの解除後 にもオーディオとビデオの同期をとることができる。 これにより、 視聴者にとって違和感のない再生を実現できる装置を提供できる。

Claims

請 求 の 範 囲
1 . データストリームを受け取って、 前記データストリームから 複数のピクチャのデータを含むビデオデ一夕、 各ピクチャの再生時 刻を規定する第 1時刻情報、 複数のオーディオフレームのデータを 含むオーディォデータおよび各オーディオフレームの再生時刻を規 定する第 2時刻情報を分離するパーザと、
前記複数のピクチャおよび前記複数のオーディオフレームを再生 するために、 前記ビデオデータおよび前記オーディォデ一タを出力 する出力部と、
所定の基準時刻からの経過時間をカウントする基準レジス夕と、 前記各ピクチャの出力時に、 前記各ピクチャの第 1時刻情報と前 記経過時間との差分値を計算し、 第 1差分値として保持する第 1差 分レジスタと、
前記各オーディオフレームの出力時に、 前記各オーディオフレー ムの第 2時刻情報と前記経過時間との差分値を計算し、 第 2差分値 として格納する第 2差分レジス夕と、 .
前記第 2差分値に対する前記第 1差分値の大きさに応じて、 前記 ビデオデータの出力を制御する制御部と
を備えたデータ処理装置。
2 . 前記基準レジスタは、 前記オーディオデ一夕の出力開始 時刻を前記所定の基準時刻として経過時間をカウントする、 請 求項 1に記載のデータ処理装置。
3 . 前記制御部は、 前記第 2差分値が、 前記第 1差分値と第 1所定値との和よりも大きい場合には、 前記出力部に対してそ の時点で出力されているピクチャのビデオデータを再度出力さ せる、 請求項 1 に記載のデータ処理装置。
4 . 前記制御部は、 前記前記第 2差分値が、 前記第 1差分値 と第 2所定値との差よりも小さい場合には、 前記出力部に対し てピクチャのビデオデータの出力をスキップさせる、 請求項 1 に記載のデータ処理装置。
5 . 前記制御部は、 再生のポーズの指示を受け取ると、 前記 第 1時刻情報および前記第 2時刻情報に基づいて前記ビデオデ 一夕の出力を制御する、 請求項 1に記載のデータ処理装置。
6 . 前記制御部は、 前記再生のポーズを解除する指示を受け取 ると、 前記第 2時刻情報が前記第 1時刻情報と第 3所定値との 和よりも大きい場合には、 前記出力部に対して前記オーディオ データを前記ビデオデータより も先に出力させる、 請求項 5に 記載のデータ処理装置。
7 . 前記制御部は、 前記再生のポーズを解除する指示を受け 取ると、 前記第 2時刻情報が前記第 1時刻情報と第 4所定値と の差より も小さい場合には、 前記出力部に対して前記ビデオデ 一夕をオーディオデ一夕よりも先に出力させる、 請求項 5に記 載のデータ処理装置。
8 . 前記制御部は、 前記再生のポーズを解除する指示を受け 取ると、 前記出力部に対して前記ビデオデータとオーディオデ 一夕とを同時に出力させる、 請求項 5 に記載のデ一夕処理装置 <
9 . デ一夕ストリームを受け取るステップと、
前記デ一タストリームから複数のピクチャのデ一夕を含むビデオ データ、 各ピクチャの再生時刻を規定する第 1時刻情報、 複数のォ 一ディオフレームのデータを含むオーディォデータおよび各オーデ ィオフレームの再生時刻を規定する第 2時刻情報を分離するステツ プと、
前記複数のピクチャおよび前記複数のオーディオフレームを再生 するために、 前記ビデオデータおよび前記オーディォデ一夕を出力 するステップと、 '
所定の基準時刻からの経過時間をカウントするステップと、 前記各ピクチャの出力時に、 前記各ピクチャの第 1時刻情報と前 記経過時間との差分値を計算し、 第 1差分値として保持するステツ プと、
前記各オーディオフレームの出力時に、 前記各オーディオフレー ムの第 2時刻情報と前記経過時間との差分値を計算し、 第 2差分値 として格納するステップと、
前記第 2差分値に対する前記第 1差分値の大きさ【こ応じて、 前記 ビデオデータの出力を制御するステップと
を包含するデータ処理方法。
1 0 . 前記経過時間をカウントするステップは、 前記オーデ ィォデータの出力開始時刻を前記所定の基準時刻として経過時 間をカウントする、 請求項 9に記載のデータ処理方法。
1 1 . 前記前記第 2差分値が、 前記第 1差分値と第 1所定値 との和よりも大きい場合には、 前記出力するステップは、 その 時点で出力されているピクチャのビデオデータを再度出力する、 請求項 9に記載のデータ処理方法。
1 2 . 前記前記第 2差分値が、 前記第 1差分値と第 2所定値 との差より も小さい場合には、 前記出力するステップは、 ピク チヤのビデオデータの出力をスキップする、 請求項 9 に記載の データ処理方法。
1 3 . 再生のポーズの指示を受け取るステップをさらに包含 し、
前記出力するステップは、 前記指示に応答して、 前記第 1時 刻情報および前記第 2時刻情報に基づいて前記ビデオデータの 出力を制御する、 請求項 9に記載のデータ処理方法。
1 4 . 再生のポーズの指示を受け取るステップをさらに包含 し、
前記出力するステップは、 前記指示に応答して、 前記第 2時 刻情報が前記第 1時刻情報と第 3所定値との和よりも大きい場 合には、 前記オーディオデータを前記ビデオデータより も先に 出力する、 請求項 1 3に記載のデータ処理方法。
1 5 . 再生のポーズの指示を受け取るステップをさらに包含 し、
前記出力するステップは、 前記指示に応答して、 前記第 2時刻 情報が前記第 1時刻情報と第 4所定値との差よりも小さい場合 には、 前記ビデオデータをオーディオデータよりも先に出力す る、 請求項 1 3に記載のデータ処理方法。
1 6 . 再生のポーズの指示を受け取るステップをさらに包含 し、
前記出力するステップは、 前記指示に応答して、 前記ビデオデ 一夕とオーディオデ一夕とを同時に出力する、 請求項 1 3 に記 載のデータ処理方法。
PCT/JP2004/002424 2003-03-19 2004-02-27 データ処理装置 WO2004084553A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/548,774 US7567746B2 (en) 2003-03-19 2004-02-27 Data processing device
JP2005503643A JP4439468B2 (ja) 2003-03-19 2004-02-27 データ処理装置
EP04715569A EP1615433A4 (en) 2003-03-19 2004-02-27 DATA PROCESSING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-075669 2003-03-19
JP2003075669 2003-03-19

Publications (1)

Publication Number Publication Date
WO2004084553A1 true WO2004084553A1 (ja) 2004-09-30

Family

ID=33027868

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/002424 WO2004084553A1 (ja) 2003-03-19 2004-02-27 データ処理装置

Country Status (6)

Country Link
US (1) US7567746B2 (ja)
EP (1) EP1615433A4 (ja)
JP (1) JP4439468B2 (ja)
KR (1) KR100705887B1 (ja)
CN (1) CN100536555C (ja)
WO (1) WO2004084553A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141802A (ja) * 2007-12-07 2009-06-25 Toshiba Corp 再生装置および分離回路
JP2011142421A (ja) * 2010-01-06 2011-07-21 Sony Corp 受信装置及び方法、プログラム、並びに受信システム
JP2011142422A (ja) * 2010-01-06 2011-07-21 Sony Corp 受信装置及び方法、プログラム、並びに受信システム
JP2012244529A (ja) * 2011-05-23 2012-12-10 Renesas Electronics Corp データ処理システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8868772B2 (en) * 2004-04-30 2014-10-21 Echostar Technologies L.L.C. Apparatus, system, and method for adaptive-rate shifting of streaming content
US7818444B2 (en) 2004-04-30 2010-10-19 Move Networks, Inc. Apparatus, system, and method for multi-bitrate content streaming
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
JPWO2006064689A1 (ja) * 2004-12-16 2008-06-12 松下電器産業株式会社 無線通信システム
KR100639110B1 (ko) * 2005-09-09 2006-10-31 주식회사 코아로직 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보산출방법
JP4777224B2 (ja) * 2006-12-01 2011-09-21 三菱電機株式会社 データ再生装置及びデータ再生方法
US20080178243A1 (en) * 2007-01-19 2008-07-24 Suiwu Dong Multimedia client/server system with audio synchronization and methods for use therewith
US20100091188A1 (en) * 2008-07-11 2010-04-15 Stmicroelectronics Pvt. Ltd. Synchronization of secondary decoded media streams with a primary media stream
CN101340591B (zh) * 2008-08-11 2011-04-06 华为终端有限公司 解码系统中接收视音频数据的处理方法及装置
JP5476981B2 (ja) * 2009-12-25 2014-04-23 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
JP5476997B2 (ja) * 2010-01-06 2014-04-23 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US8682139B2 (en) * 2011-05-02 2014-03-25 Netflix, Inc. L-cut stream startup
JP6521330B2 (ja) * 2014-08-29 2019-05-29 ソニー株式会社 受信装置、及び、受信方法
US10158905B2 (en) * 2016-09-14 2018-12-18 Dts, Inc. Systems and methods for wirelessly transmitting audio synchronously with rendering of video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08168044A (ja) * 1994-12-13 1996-06-25 Toshiba Corp 映像/音声記録再生装置
JP2000236519A (ja) * 1999-02-16 2000-08-29 Nec Corp 映像/音声再生装置
JP2001128171A (ja) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd 映像音声同期再生装置
JP2004015553A (ja) * 2002-06-07 2004-01-15 Sanyo Electric Co Ltd 同期制御方法と装置およびそれを用いた同期再生装置およびテレビジョン受信装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5598352A (en) * 1994-09-30 1997-01-28 Cirrus Logic, Inc. Method and apparatus for audio and video synchronizing in MPEG playback systems
US5771075A (en) * 1994-12-08 1998-06-23 Lg Electronics Inc. Audio/video synchronizer
JPH09284759A (ja) * 1996-04-11 1997-10-31 Fujitsu Ltd タイミング制御回路
JP3063824B2 (ja) 1996-10-29 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
JP3063841B2 (ja) * 1997-11-26 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
US6583821B1 (en) * 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
JP4602089B2 (ja) * 2002-12-04 2010-12-22 エヌエックスピー ビー ヴィ 音声/映像同期の自動検査方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08168044A (ja) * 1994-12-13 1996-06-25 Toshiba Corp 映像/音声記録再生装置
JP2000236519A (ja) * 1999-02-16 2000-08-29 Nec Corp 映像/音声再生装置
JP2001128171A (ja) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd 映像音声同期再生装置
JP2004015553A (ja) * 2002-06-07 2004-01-15 Sanyo Electric Co Ltd 同期制御方法と装置およびそれを用いた同期再生装置およびテレビジョン受信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1615433A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141802A (ja) * 2007-12-07 2009-06-25 Toshiba Corp 再生装置および分離回路
JP2011142421A (ja) * 2010-01-06 2011-07-21 Sony Corp 受信装置及び方法、プログラム、並びに受信システム
JP2011142422A (ja) * 2010-01-06 2011-07-21 Sony Corp 受信装置及び方法、プログラム、並びに受信システム
US8873679B2 (en) 2010-01-06 2014-10-28 Sony Corporation Reception apparatus and method, program and reception system
JP2012244529A (ja) * 2011-05-23 2012-12-10 Renesas Electronics Corp データ処理システム

Also Published As

Publication number Publication date
CN1723704A (zh) 2006-01-18
JPWO2004084553A1 (ja) 2006-06-29
EP1615433A4 (en) 2010-05-26
JP4439468B2 (ja) 2010-03-24
US20060168524A1 (en) 2006-07-27
CN100536555C (zh) 2009-09-02
KR100705887B1 (ko) 2007-04-09
EP1615433A1 (en) 2006-01-11
US7567746B2 (en) 2009-07-28
KR20050086444A (ko) 2005-08-30

Similar Documents

Publication Publication Date Title
KR100865826B1 (ko) 정보 기록 매체 및 데이터 재생 장치
JP4439468B2 (ja) データ処理装置
KR100825548B1 (ko) 정보 기록 매체, 데이터 분별 장치, 및 데이터 재생 장치
JP5059301B2 (ja) 同期再生装置および同期再生方法
WO2004008759A1 (ja) データ処理装置
KR100565869B1 (ko) 동기지연제어장치및방법
JP5262796B2 (ja) バッファ制御装置、バッファ制御方法およびプログラム
JP4426800B2 (ja) Avデータ記録再生装置及び方法、並びに当該avデータ記録再生装置又は方法で記録された記録媒体
US6816444B1 (en) Method and apparatus for digital information processing
JP2008312008A (ja) オーディオストリーム処理方法および再生装置と出力装置
JP3592906B2 (ja) データ処理同期装置
JP2006352587A (ja) 情報処理装置
JP3769330B2 (ja) 再生装置及び再生方法
WO2004030358A1 (ja) データ処理装置
JP3579386B2 (ja) フォーマット変換装置及びフォーマット変換方法
JP2008166965A (ja) 圧縮データ転送装置および圧縮データ転送方法
JPH10262211A (ja) 情報再生装置及び再生方法
US20070297765A1 (en) Reproducing apparatus for multiple AV streams and reproducing method for the same
JP2011077846A (ja) 情報処理装置
JP2006524952A (ja) 複数のデータストリーム間の連続再生を保証する再生方法及びその再生装置
KR20070032030A (ko) 정보 기록 매체, 및 다중화 장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005503643

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020057008218

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048018391

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057008218

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2006168524

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10548774

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004715569

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004715569

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10548774

Country of ref document: US