JP2006148679A - Data processing device - Google Patents

Data processing device Download PDF

Info

Publication number
JP2006148679A
JP2006148679A JP2004337508A JP2004337508A JP2006148679A JP 2006148679 A JP2006148679 A JP 2006148679A JP 2004337508 A JP2004337508 A JP 2004337508A JP 2004337508 A JP2004337508 A JP 2004337508A JP 2006148679 A JP2006148679 A JP 2006148679A
Authority
JP
Japan
Prior art keywords
data
stream
time information
time
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004337508A
Other languages
Japanese (ja)
Inventor
Kazuo Fujimoto
和生 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004337508A priority Critical patent/JP2006148679A/en
Publication of JP2006148679A publication Critical patent/JP2006148679A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce audio and video to be both synchronized as being intended initially about each output path. <P>SOLUTION: A data processing device has a receiving unit for receiving a data stream and for outputting as an original stream or as a copied stream after being copied, a separating unit for extracting first data, its first time information, second data, and its second time data from the original stream, and for extracting first data, its first time information, second data, and its second time information from the copied stream, a first decoding unit for outputting the first data based on the first time information after decoding with respect to each stream, and a second decoding unit for outputting the second data based on the second time information. For synchronous reproduction of the first and second data, the device further has a delay setting unit for holding delay quantity information of a reproducing time of each stream, and for correcting the second time information based on the information and delaying the reproducing time of the second data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

圧縮符号化されたオーディオデータおよびビデオデータを再生する際に、オーディオとビデオとを同期して再生する技術に関する。   The present invention relates to a technique for reproducing audio and video in synchronization when reproducing compression-coded audio data and video data.

従来、圧縮符号化されて記録されたビデオ信号およびオーディオ信号をCD−ROM、DVD−ROM、ハードディスク等の記録媒体から読み出し、デコード(伸張)して出力するデータ再生装置が知られている。データ再生装置が伸張されたデータをその装置に接続されたモニタ、音響スピーカ等に送ることにより、ビデオおよびオーディオの再生が実現される。   2. Description of the Related Art Conventionally, a data reproducing apparatus that reads a video signal and an audio signal recorded by compression encoding from a recording medium such as a CD-ROM, a DVD-ROM, and a hard disk, decodes (expands), and outputs the data is known. Video and audio reproduction is realized by sending the decompressed data to a monitor, an acoustic speaker, or the like connected to the data reproduction device.

圧縮符号化に関しては、多くの規格が規定されている。例えばMPEG(Motion Picture Experts Group)は、ビデオ信号およびオーディオ信号の両方を圧縮符号化する規格として知られている。MPEG規格では、ビデオ信号が表すビデオおよびオーディオ信号が表すオーディオが同期して再生されることを保証するために、オーディオ信号およびビデオ信号のそれぞれに再生されるべき時刻を表す時刻情報が付加される。これにより、伸張時にはシステム機器が有するシステム時刻基準参照値に対し、これらの時刻情報を参照してオーディオ信号とビデオ信号とを同期させて再生することができる。   Many standards are defined for compression coding. For example, MPEG (Motion Picture Experts Group) is known as a standard for compressing and encoding both video signals and audio signals. In the MPEG standard, in order to ensure that the video represented by the video signal and the audio represented by the audio signal are reproduced synchronously, time information representing the time to be reproduced is added to each of the audio signal and the video signal. . Thereby, at the time of expansion, the audio signal and the video signal can be reproduced in synchronization with the system time base reference value of the system device by referring to the time information.

以下従来の再生方法について説明する。なお、出願人は、特許文献1に開示されている信号再生装置を認識しており、本発明の課題を明確にするために、先行技術の内容を従来例として、簡単に説明する。この方法では、音声の遅延及び画像の遅延用として各々デコードに遅延部を設け、所定の遅延を行ってリップシンクをとりながら再生を実現する。   A conventional reproducing method will be described below. Note that the applicant has recognized the signal reproduction device disclosed in Patent Document 1, and in order to clarify the problem of the present invention, the contents of the prior art will be briefly described as a conventional example. In this method, a delay unit is provided in each decoding for audio delay and image delay, and reproduction is realized while taking a lip sync by performing a predetermined delay.

以下従来の信号再生装置について説明する。図11は、従来の信号再生装置の実装形態を示す。図11を参照して、オーディオ遅延部187は、制御部194から入力されるオフセット幅をビデオ遅延部190と共通の所定の遅延時間に加算した時間だけ、オーディオデコーダ186から入力される音声信号を遅延した後、オーディオディジタルアナログコンバータ(ADACと略)188に出力する。ビデオ遅延部190は、ビデオデコーダ189から入力される映像信号を所定時間だけ遅延した後、ミキサ191に出力し、ビデオディジタルアナログコンバータ(VDACと略)192に出力する。制御部194は、コマンド入力部193から遅延コマンド等を受け付け指定されるリップシンクのオフセット幅等を設定する。   A conventional signal reproducing apparatus will be described below. FIG. 11 shows an implementation of a conventional signal reproduction device. Referring to FIG. 11, audio delay unit 187 outputs the audio signal input from audio decoder 186 for a time obtained by adding the offset width input from control unit 194 to a predetermined delay time common to video delay unit 190. After the delay, it is output to an audio digital-analog converter (abbreviated as ADAC) 188. The video delay unit 190 delays the video signal input from the video decoder 189 by a predetermined time, and then outputs the video signal to the mixer 191 and the video digital-analog converter (abbreviated as VDAC) 192. The control unit 194 receives a delay command or the like from the command input unit 193 and sets the offset width of the lip sync designated.

オーディオの再生と、ビデオの表示タイミングの同期がずれると、視聴者は、違和感を覚える。特に、オーディオ再生がビデオ再生よりも一定時間(概ね30ミリ秒)以上先行すると、映像中の人物の口の動きと音声の同期のずれが目立ち、視聴者に違和感を与える。また接続する外部機器の処理において、さらに時間を要する処理を行うとさらにビデオおよびオーディオの再生タイミングがずれてしまう。そこで、ビデオ遅延部190及びオーディオ遅延部187を用いて、出力タイミングを調整する。   When the audio playback and the video display timing are out of synchronization, the viewer feels uncomfortable. In particular, if audio reproduction precedes video reproduction for a certain time (approximately 30 milliseconds) or more, the movement of the mouth of the person in the video and the synchronization of the audio are conspicuous, giving the viewer a sense of discomfort. In addition, if processing that requires more time is performed in the processing of the connected external device, the video and audio playback timing will be further shifted. Therefore, the output timing is adjusted using the video delay unit 190 and the audio delay unit 187.

この従来の信号再生装置の構成を用い、第1の出力部だけでなく、第2の出力部を追加した場合について、図12を用いて説明する。図12は、複数の出力経路を有する従来の信号再生装置の構成を示す。例えば第1の出力は大画面のシアター向けの高精細画像及び外部オーディオアンプに接続される系として、第2の出力は、標準画質でビデオデッキなどの録画機や手元のモニタ出力に接続される系を想定する。図15において、201のオーディオデコーダは、オーディオデコーダ186と同等の機能を有する。202のビデオデコーダは、ビデオデコーダ189と同等。203のオーディオ遅延部Aは、オーディオ遅延部187と同等、204のビデオ遅延部Aは、ビデオ遅延部190と同等、205のADACは、ADAC188と同等。206のVDACは、VDAC192と同等。さらにエンコーダ209に入力するために各々を遅延させるオーディオ遅延部B207と、ビデオ遅延部B208から構成される。   A case where not only the first output unit but also the second output unit is added using the configuration of the conventional signal reproduction device will be described with reference to FIG. FIG. 12 shows a configuration of a conventional signal reproducing apparatus having a plurality of output paths. For example, the first output is connected to a high-definition image for a large-screen theater and an external audio amplifier, and the second output is connected to a recorder such as a video deck or a monitor output at hand with standard image quality. A system is assumed. In FIG. 15, the audio decoder 201 has the same function as the audio decoder 186. The video decoder 202 is equivalent to the video decoder 189. The audio delay unit A 203 is equivalent to the audio delay unit 187, the video delay unit 204 is equivalent to the video delay unit 190, and the ADAC 205 is equivalent to the ADAC 188. The 206 VDAC is equivalent to the VDAC192. Further, the audio delay unit B207 delays each of them for input to the encoder 209 and a video delay unit B208.

ビデオデコーダ202における標準画質用の画像処理時間と、高精細画質用の画像処理時間とは、遅延設定に違いが生じる。さらに、IP変換(インタレースからプログレッシブ)などを行う場合の遅延設定、サラウンド音声処理の有無に伴う場合の遅延設定など、各々の出力のための処理内容に適した遅延設定が必要である。制御部から各々の遅延部の設定を行うことにより、オーディオとビデオとを同期させることができる。遅延部として半導体メモリを設けることで、複数の出力部を有していてもこれに対応できる。
特開2001−101803号公報(第3−5頁、第1図、第2図)
There is a difference in the delay setting between the image processing time for standard image quality in the video decoder 202 and the image processing time for high-definition image quality. Furthermore, delay settings suitable for the processing contents for each output, such as delay settings when performing IP conversion (interlace to progressive), delay settings when there is surround sound processing, and the like are necessary. Audio and video can be synchronized by setting each delay unit from the control unit. By providing a semiconductor memory as the delay unit, even if a plurality of output units are provided, this can be accommodated.
JP 2001-101803 A (page 3-5, FIGS. 1 and 2)

従来の信号再生装置のように遅延部に半導体メモリを用いると、遅延量を多くとるためには半導体メモリのメモリサイズを大きくせざるを得ない。しかし、一般にはメモリサイズが大きくなると半導体メモリのコストが増加し、信号再生装置の価格にも大きな影響を与える。よって、できるだけメモリサイズを小さくすることが必要である。   When a semiconductor memory is used for the delay unit as in the conventional signal reproducing apparatus, the memory size of the semiconductor memory must be increased in order to increase the delay amount. However, generally, as the memory size increases, the cost of the semiconductor memory increases, and the price of the signal reproducing device is greatly affected. Therefore, it is necessary to make the memory size as small as possible.

本発明の目的は、メモリコストの増加を極力抑えながら、当初意図されたとおりにオーディオとビデオとを同期して再生することである。特に、オーディオとビデオの出力経路が複数存在し、出力先の外部接続機器の相違、処理種別の相違等によって出力経路の遅延量が異なる場合であっても、各出力経路について当初意図されたとおりにオーディオとビデオとを同期して再生することである。   An object of the present invention is to reproduce audio and video in a synchronized manner as originally intended while suppressing an increase in memory cost as much as possible. In particular, even when there are multiple output paths for audio and video, and the delay amount of the output path differs due to differences in output destination externally connected devices, processing types, etc., each output path is as originally intended. The audio and video are played back synchronously.

本発明によるデータ処理装置は、データストリームを受信してオリジナルストリームとして出力するとともに、受信された前記データストリームを複製して複製ストリームとして出力し、かつ、出力に際して前記オリジナルストリームおよび前記複製ストリームの各々を識別可能な識別情報を付与する受信部を備えている。前記データストリームは、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有する。またデータ処理装置は、前記オリジナルストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出し、前記複製ストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、前記オリジナルストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、前記オリジナルストリームに関し、第2時刻情報に基づいて前記第2データを出力する第2デコード部と、前記複製ストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第3デコード部と、前記複製ストリームに関し、前記第2時刻情報に基づいて前記第2データを出力する第4デコード部と、第1遅延設定部および第2遅延設定部とを有する。   The data processing apparatus according to the present invention receives a data stream and outputs it as an original stream, copies the received data stream and outputs it as a duplicate stream, and outputs each of the original stream and the duplicate stream. The receiving part which provides the identification information which can identify is provided. The data stream includes first data relating to compression-encoded video content, first time information defining a reproduction time of the first data, second data relating to content different from the video content, and reproduction time of the second data. The second time information that defines The data processing apparatus extracts the first data, the first time information, the second data, and the second time information from the original stream, and extracts the first data, the first time from the duplicate stream. A separator that extracts information, the second data, and the second time information; a first decoder that decodes the first data and outputs the first stream based on the first time information with respect to the original stream; A second decoding unit that outputs the second data with respect to the original stream based on second time information; and a third decoding unit that decodes the first data with respect to the duplicate stream and outputs the decoded data based on the first time information. A decoding unit; a fourth decoding unit that outputs the second data based on the second time information with respect to the duplicate stream; and a first delay And a tough and second delay setting unit.

前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、前記第1遅延設定部は、前記オリジナルストリームの再生時刻の遅延量を規定する第1遅延情報を保持し、かつ、前記第1遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させ、前記第2遅延設定部は、前記複製ストリームの再生時刻の遅延量を規定する第2遅延情報を保持し、かつ、前記第2遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる。   In the case where the first time information and the second time information define a time for reproducing the first data and the second data in synchronization, the first delay setting unit is configured to reproduce the original stream. First delay information for defining a delay amount of the second data, and correcting the second time information based on the first delay information, delaying the reproduction time of the second data, and the second delay setting unit Holds second delay information that defines a delay amount of the reproduction time of the duplicate stream, corrects the second time information based on the second delay information, and delays the reproduction time of the second data Let

前記データ処理装置は、前記オリジナルストリームの第2データ、および、前記複製ストリームの第2データの各々を格納する少なくとも1つのデータバッファをさらに備えていてもよい。前記オリジナルストリームの前記第2データは圧縮符号化されており、前記少なくとも1つのデータバッファは、修正された第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された第2データを取り出し、前記第2デコード部および前記第4デコード部に出力してもよい。   The data processing apparatus may further include at least one data buffer storing each of the second data of the original stream and the second data of the duplicate stream. The second data of the original stream is compressed and encoded, and the at least one data buffer stores the compressed and encoded second data before the reproduction time defined by the modified second time information. You may take out and output to the said 2nd decoding part and the said 4th decoding part.

前記少なくとも1つのデータバッファは、前記オリジナルストリームの第2データを格納する第1バッファと、前記複製ストリームの第2データを格納する第2バッファとから構成されていてもよい。前記第1バッファは、前記第1遅延設定部によって修正された第2時刻情報によって規定される再生時刻の前に、前記オリジナルストリームの第2データを取り出して前記第2デコード部に出力し、前記第2バッファは、前記第2遅延設定部によって修正された第2時刻情報によって規定される再生時刻の前に、前記複製ストリームの第2データを取り出して前記第4デコード部に出力してもよい。   The at least one data buffer may include a first buffer that stores second data of the original stream and a second buffer that stores second data of the duplicate stream. The first buffer takes out the second data of the original stream and outputs the second data to the second decoding unit before the reproduction time defined by the second time information corrected by the first delay setting unit, The second buffer may extract the second data of the duplicate stream and output it to the fourth decoding unit before the reproduction time defined by the second time information modified by the second delay setting unit. .

本発明によるデータ処理装置は、データストリームを受信してオリジナルストリームとして出力する受信部を有している。前記データストリームは、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有する。またデータ処理装置は、前記オリジナルストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を複製する複製部と、前記オリジナルストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、前記オリジナルストリームに関し、第2時刻情報に基づいて前記第2データを出力する第2デコード部と、複製された第1データをデコードして、複製された第1時刻情報に基づいて出力する第3デコード部と、複製された第2時刻情報に基づいて、複製された第2データを出力する第4デコード部と、第1遅延設定部および第2遅延設定部とを有している。前記オリジナルストリームから抽出された前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、前記第1遅延設定部は、前記オリジナルストリームの再生時刻の遅延量を規定する第1遅延情報を保持し、かつ、前記第1遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させ、前記第2遅延設定部は、複製された第1データの再生時刻の遅延量を規定する第2遅延情報を保持し、かつ、前記第2遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる。   The data processing apparatus according to the present invention has a receiving unit that receives a data stream and outputs it as an original stream. The data stream includes first data relating to compression-encoded video content, first time information defining a reproduction time of the first data, second data relating to content different from the video content, and reproduction time of the second data. The second time information that defines In addition, the data processing device includes a separation unit that extracts the first data, the first time information, the second data, and the second time information from the original stream, the first data, the first time information, A duplicating unit that duplicates the second data and the second time information; a first decoding unit that decodes the first data and outputs the original data based on the first time information; and the original stream A second decoding unit that outputs the second data based on second time information, a third decoding unit that decodes the copied first data and outputs the first data based on the copied first time information, and And a fourth decoding unit that outputs the duplicated second data based on the duplicated second time information, and a first delay setting unit and a second delay setting unit.In the case where the first time information and the second time information extracted from the original stream define a time for reproducing the first data and the second data in synchronization, the first delay setting unit is , Holding first delay information that defines a delay amount of the reproduction time of the original stream, correcting the second time information based on the first delay information, and delaying the reproduction time of the second data The second delay setting unit holds second delay information that defines a delay amount of the reproduction time of the copied first data, and corrects the second time information based on the second delay information. The reproduction time of the second data is delayed.

前記オリジナルストリームの前記第2データは圧縮符号化されている。前記データ処理装置は、前記オリジナルストリームの第2データ、および、複製された第2データの各々を格納する少なくとも1つのデータバッファをさらに備えていてもよい。前記少なくとも1つのデータバッファは、修正された第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された第2データを取り出し、前記第2デコード部および前記第4デコード部に出力する。   The second data of the original stream is compression encoded. The data processing apparatus may further include at least one data buffer for storing each of the second data of the original stream and the duplicated second data. The at least one data buffer extracts the compression-encoded second data before the reproduction time defined by the modified second time information, and outputs the second data to the second decoding unit and the fourth decoding unit. .

前記少なくとも1つのデータバッファは、前記オリジナルストリームの第2データを格納する第1バッファと、複製された第2データを格納する第2バッファとから構成されていてもよい。   The at least one data buffer may include a first buffer that stores second data of the original stream and a second buffer that stores duplicated second data.

本発明によれば、入力されたビデオ及びオーディオのデータを含む圧縮符号化されたコンテンツデータに基づいて、オリジナルのデータと複製後のデータを作成する。圧縮符号化されたままのデータを遅延出力のために保持させることにより、各々の同期信号に基づいて、別々にデコードされた映像と音声に対し、経路毎の遅延を独自に設定して同期再生を実行できるという利点がある。   According to the present invention, original data and copied data are created based on compression-encoded content data including input video and audio data. By holding the compressed and encoded data for delay output, synchronized playback is performed by independently setting the delay for each path for video and audio decoded separately based on each sync signal. There is an advantage that can be executed.

以下、添付の図面を参照しながら、本発明によるデータ処理装置の実施形態を説明する。   Embodiments of a data processing apparatus according to the present invention will be described below with reference to the accompanying drawings.

(実施形態1)
まず図1を主として参照しながら、本発明の実施形態1によるデータ処理装置の構成を説明する。図1は、本実施形態によるデータ処理装置100の機能ブロックの構成を示す。図1はまた、データ処理装置100と接続された映像/音響機器13〜16を示す。データ処理装置100は、DVD−ROM等の光ディスクから光ピックアップを介して読み出されたデータストリームに2値化処理等を行って、デジタルデータストリームとして出力する。その後で、このストリームをビデオデータおよびオーディオデータに分離し、各々をデコードして映像音響機器に出力する。
(Embodiment 1)
First, the configuration of the data processing apparatus according to the first embodiment of the present invention will be described with reference mainly to FIG. FIG. 1 shows a functional block configuration of a data processing apparatus 100 according to the present embodiment. FIG. 1 also shows video / audio equipment 13-16 connected to the data processing device 100. The data processing apparatus 100 performs binarization processing on a data stream read from an optical disc such as a DVD-ROM via an optical pickup, and outputs the data stream as a digital data stream. Thereafter, the stream is separated into video data and audio data, each of which is decoded and output to the audiovisual apparatus.

データ処理装置100は、DVDプレーヤ、DVDレコーダ、PC等であるが、光ディスクに代えてハードディスクを用いたときはハードディスクレコーダである。または、アンテナ等を介してデジタル放送のデータストリームを受け取るときには、データ処理装置100はセットトップボックス、デジタル衛星放送受像機等として実現される。一方、映像音響機器は、例えばTV等のモニタ出力機器、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプ等のインタフェース機器である。図1では映像を表示する機器、音声等を出力する機器等が複数存在している例を示している。   The data processing apparatus 100 is a DVD player, a DVD recorder, a PC, or the like, but is a hard disk recorder when a hard disk is used instead of the optical disk. Alternatively, when a digital broadcast data stream is received via an antenna or the like, the data processing apparatus 100 is realized as a set-top box, a digital satellite broadcast receiver, or the like. On the other hand, the audiovisual apparatus is an interface apparatus such as a monitor output apparatus such as a TV, an audio output amplifier, and an AV amplifier having an AV selector function. FIG. 1 shows an example in which there are a plurality of devices that display video, devices that output audio, and the like.

各種符号化方式されたコンテンツや、デジタル放送等のデジタル圧縮符号化されたオーディオ・ビデオ信号を格納する光ディスク装置等や、デジタル放送チューナ装置等からデータの供給を受ける受信部1、多重化されて記録されているオーディオ・ビデオ信号を分離し、圧縮ビデオデータ及び圧縮オーディオデータの分離とビデオ再生時刻情報とオーディオ再生時刻情報を抽出する入力解析を行う分離部2を有する。   Receiving unit 1 that receives data supplied from various encoding methods, an optical disk device that stores digital compression encoded audio / video signals such as digital broadcasts, and a digital broadcast tuner device, etc. It has a separation unit 2 that separates recorded audio / video signals, separates compressed video data and compressed audio data, and performs input analysis to extract video playback time information and audio playback time information.

MPEGでは、ビデオおよびオーディオの同期再生を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれるデコードの単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ再生すべきかの時刻を管理するためのタイムスタンプ値が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、オーディオ用はオーディオPTS(以下「APTS」と記述する)およびビデオ用はビデオPTS(以下「VPTS」と記述する)が規定されている。なお、本明細書では、オーディオとビデオとが同期している状態を「AV同期」と称する。   In MPEG, in order to realize synchronized playback of video and audio, the time of playback is managed for each decoding unit called video and audio access units (one frame for video and one audio frame for audio). A time stamp value is added. This time stamp value is called PTS (Presentation Time Stamp), and audio PTS (hereinafter referred to as “APTS”) for audio and video PTS (hereinafter referred to as “VPTS”) for video are defined. . In this specification, a state where audio and video are synchronized is referred to as “AV synchronization”.

PTSが上述のシステム時刻基準STCに一致したときに、そのPTSが付加されたアクセスユニットが再生のために出力される。PTSの精度は、SCRと同様、90kHzのクロックで計測した値であり、33ビット長で表されている。90kHzで計測する理由は、NTSC、PALの両方のビデオ方式のフレーム周波数の公倍数であることと、オーディオの1サンプル周期よりも高い精度を得るためである。   When the PTS matches the above-mentioned system time reference STC, the access unit to which the PTS is added is output for reproduction. Like the SCR, the accuracy of the PTS is a value measured with a 90 kHz clock and is represented by a 33-bit length. The reason for measuring at 90 kHz is that it is a common multiple of the frame frequency of both NTSC and PAL video systems, and to obtain higher accuracy than one sample period of audio.

本実施形態によるデータ処理装置100の特徴のひとつは、映像音響機器において行われる種々の演算処理等により、本来同期して再生すべきビデオおよびオーディオがずれて再生されてしまう場合に、先行する出力を遅延して出力することにある。例えば、映像音響機器においてビデオデータのインターレース/プログレッシブ変換を行うためにビデオデータの再生がオーディオの再生よりも遅延してしまう場合に、ビデオデータの再生時刻の遅延量相当時間だけ、先行するオーディオデータを遅延して出力する。これにより、ビデオデータとオーディオデータとの同期再生が可能になる。なお、オーディオデータの遅延出力は、オーディオデータの再生時刻を規定するPTSを修正することによって実現される。遅延量は、予想される時間、ユーザによって設定された時間、映像音響機器を特定して判断することができる映像音響機器におけるビデオ処理の所要時間等に基づいて設定される。   One of the features of the data processing apparatus 100 according to the present embodiment is that the output that precedes when the video and audio that should be reproduced in synchronization with each other are reproduced due to various arithmetic processes performed in the audiovisual apparatus. Is output with a delay. For example, when video data playback is delayed from audio playback in order to perform interlace / progressive conversion of video data in an audiovisual apparatus, the audio data preceding by the time corresponding to the delay amount of the playback time of the video data Is output with a delay. Thereby, synchronized reproduction of video data and audio data becomes possible. The delayed output of audio data is realized by correcting the PTS that defines the playback time of the audio data. The amount of delay is set based on the expected time, the time set by the user, the time required for video processing in the audiovisual apparatus that can identify and determine the audiovisual apparatus, and the like.

上述のデータ処理装置100の特徴は、主としてデータ処理装置100のデコード部101によって実現される。以下、デコード部101を詳細に説明する。   The characteristics of the data processing apparatus 100 described above are mainly realized by the decoding unit 101 of the data processing apparatus 100. Hereinafter, the decoding unit 101 will be described in detail.

図2は、デコード部101の詳細な機能ブロックの構成例を示す。デコード部101は、分離部2からの入力により、ビデオバッファ部(図示せず)と、ビデオ再生時刻情報管理部A301と、システム時刻参照部11と、圧縮ビデオバッファ部A17と、ビデオデコード部A3と、圧縮オーディオバッファ部A7と、オーディオ再生時刻情報管理部A401と、オーディオデコード部A4と、オーディオ遅延設定部A9とを有する。   FIG. 2 shows a detailed functional block configuration example of the decoding unit 101. The decoding unit 101 receives a video buffer unit (not shown), a video playback time information management unit A301, a system time reference unit 11, a compressed video buffer unit A17, and a video decoding unit A3 in response to an input from the separation unit 2. A compressed audio buffer unit A7, an audio reproduction time information management unit A401, an audio decoding unit A4, and an audio delay setting unit A9.

分離部2は、データストリームから、デジタル圧縮符号化されたオーディオおよびビデオデータを分離して抽出するとともに、ビデオパックに付加されたPTSをビデオ再生時刻情報として抽出し、オーディオパックに付加されたPTSをオーディオ再生時刻情報として抽出する。   The separation unit 2 separates and extracts the digital compression encoded audio and video data from the data stream, extracts the PTS added to the video pack as video playback time information, and adds the PTS added to the audio pack. Are extracted as audio playback time information.

まず、ビデオ処理に関する構成要素を説明する。圧縮ビデオバッファ部A17は、分離部2によって分離されたビデオデータを一次格納する。ビデオ再生時刻情報管理部A301は、圧縮ビデオバッファ部A17に格納されたビデオデータとビデオ再生時刻情報を関連づけたテーブルを生成し、管理する。   First, components related to video processing will be described. The compressed video buffer unit A17 primarily stores the video data separated by the separation unit 2. The video playback time information management unit A301 generates and manages a table that associates video data stored in the compressed video buffer unit A17 with video playback time information.

ビデオデコード部A3は、圧縮符号化されたビデオデータの属性情報(ビデオヘッダ情報)を解析するとともに、圧縮ビデオバッファ部A17に格納されているビデオデータをビデオ再生時刻情報に従ってデコードする。ビデオデコード部A3にはフレームバッファ部303およびビデオ出力部304が設けられている。フレームバッファ部303は、デコードしたビデオデータを格納する。ビデオ出力部304は、外部へビデオデータを出力する。このビデオデータは、さらにデータ処理装置100に接続された映像音響機器(例えば外部映像機器13)に出力される。   The video decoding unit A3 analyzes the attribute information (video header information) of the compressed and encoded video data, and decodes the video data stored in the compressed video buffer unit A17 according to the video playback time information. The video decoding unit A3 is provided with a frame buffer unit 303 and a video output unit 304. The frame buffer unit 303 stores the decoded video data. The video output unit 304 outputs video data to the outside. This video data is further output to an audiovisual apparatus (for example, the external video apparatus 13) connected to the data processing apparatus 100.

次に、オーディオ処理に関する構成要素を説明する。圧縮オーディオバッファ部A7は、分離部2によって分離されたオーディオデータを格納することができる半導体メモリである。そのバッファサイズは、取り扱う符号化オーディオデータの圧縮率等によって異なり、例えば数キロバイトから数十キロバイト程度である。オーディオ再生時刻情報管理部A401は、圧縮オーディオバッファ部A7に格納されたオーディオデータとオーディオ再生時刻情報を関連づけるテーブルを生成し、管理する。このテーブルは後に図5を参照しながら詳述する。   Next, components related to audio processing will be described. The compressed audio buffer unit A7 is a semiconductor memory that can store the audio data separated by the separation unit 2. The buffer size varies depending on the compression rate of the encoded audio data to be handled, and is, for example, about several kilobytes to several tens of kilobytes. The audio playback time information management unit A401 generates and manages a table associating audio data stored in the compressed audio buffer unit A7 with audio playback time information. This table will be described in detail later with reference to FIG.

遅延設定部A9は、オーディオの再生時刻の遅延量を規定する遅延情報を保持し、かつ、遅延情報に基づいてオーディオの再生時刻情報を修正して、その再生時刻を遅延させる。遅延設定部A9は、例えば遅延情報を保持するメモリ(図示せず)を有しており、映像音響機器の処理に鑑みて想定される時間が予め設定されている。そしてさらに、ユーザによって設定された数ミリ秒単位またはビデオフレーム単位の遅延時間に関する情報も保持できる。これにより、映像音響機器において発生する処理遅延に応じた微調整が可能になる。   The delay setting unit A9 holds delay information that defines a delay amount of the audio playback time, corrects the audio playback time information based on the delay information, and delays the playback time. The delay setting unit A9 has, for example, a memory (not shown) that holds delay information, and a time that is assumed in view of the processing of the audiovisual equipment is set in advance. Further, it is possible to hold information on delay time set by the user in units of several milliseconds or video frames. Thereby, fine adjustment according to the processing delay generated in the audiovisual apparatus becomes possible.

オーディオデコード部A4は、圧縮符号化されたオーディオデータの属性情報(オーディオヘッダ情報)を解析するとともに、圧縮オーディオバッファ部A7に格納されているオーディオデータをオーディオ再生時刻情報に従ってデコードする。オーディオデコード部A4にはPCMバッファ部403およびオーディオ出力部404が設けられている。PCMバッファ部403は、デコードしたオーディオデータを格納する。オーディオ出力部404は、外部へオーディオデータを出力する。このオーディオデータは、さらにデータ処理装置100に接続された映像音響機器(例えば外部音響機器14)に出力される。   The audio decoding unit A4 analyzes the attribute information (audio header information) of the compression-coded audio data, and decodes the audio data stored in the compressed audio buffer unit A7 according to the audio reproduction time information. The audio decoding unit A4 is provided with a PCM buffer unit 403 and an audio output unit 404. The PCM buffer unit 403 stores the decoded audio data. The audio output unit 404 outputs audio data to the outside. The audio data is further output to a video / audio device (for example, the external audio device 14) connected to the data processing apparatus 100.

なお、上述のビデオデコード部A3およびオーディオデコード部A4は、各々別々の半導体集積回路等とその制御用のプログラムにより実現することができる。しかし、それぞれの機能を実現できる限り、1つの半導体集積回路等とその制御用のプログラムによって実現してもよい。   Note that the video decoding unit A3 and the audio decoding unit A4 described above can be realized by separate semiconductor integrated circuits or the like and a control program thereof. However, as long as each function can be realized, it may be realized by one semiconductor integrated circuit and the control program.

次に、ビデオ出力部304およびオーディオ出力部404から出力されるビデオデータおよびオーディオデータを、同期して再生するための構成を説明する。デコードタイミングおよび再生タイミングは、システム時刻参照部A11によって実現される。システム時刻参照部A11は、MPEGシステムのデータ処理装置100の内部においてシステム時刻基準STCを生成する。データ処理装置100側でSTCを生成するためには、DVDディスク等で使用されるプログラムストリーム(PS)に規定されるSCR(System Clock Reference;システム時刻基準参照値)の値を用いる。SCRはパックヘッダに記述されている。なお、入力されるデータストリームがBSデジタル放送で使用されるトランスポートストリーム(TS)のときは、PCR(Program Clock Reference:プログラム時刻基準参照値)が用いられる。   Next, a configuration for reproducing video data and audio data output from the video output unit 304 and the audio output unit 404 in synchronization will be described. The decoding timing and the reproduction timing are realized by the system time reference unit A11. The system time reference unit A11 generates a system time reference STC inside the data processing apparatus 100 of the MPEG system. In order to generate an STC on the data processing apparatus 100 side, an SCR (System Clock Reference) value defined in a program stream (PS) used in a DVD disk or the like is used. The SCR is described in the pack header. When the input data stream is a transport stream (TS) used in BS digital broadcasting, PCR (Program Clock Reference) is used.

システム時刻参照部A11は、ビデオデータの最終バイトの到着時に、SCRの値をシステム時刻基準STCと同じ値に設定する。これにより基準となる時刻を設定することができる。さらに、このSTCの値の設定と、PLL(位相ロックループ)回路(図示せず)を組み合わせることにより、デコード部60の基準時刻用システムクロックと完全に周波数が一致したSTCをもつことができる。システム時刻基準STCのシステムクロックの周波数は27MHzである。このSTCからカウンタ等により分周することにより、各PTS(周波数:90kHz)が参照される。   The system time reference unit A11 sets the SCR value to the same value as the system time reference STC when the last byte of the video data arrives. Thereby, a reference time can be set. Further, by combining this STC value setting and a PLL (phase locked loop) circuit (not shown), it is possible to have an STC whose frequency completely matches the reference time system clock of the decoding unit 60. The system clock frequency of the system time reference STC is 27 MHz. Each PTS (frequency: 90 kHz) is referred to by dividing the STC by a counter or the like.

データ処理装置100が従来の処理を行う場合には、ビデオデコード部A3は、システム時刻基準STCがVPTSに一致したときそのPTSが付加されていたアクセスユニットを出力し再生させる。またオーディオデコード部A4は、STCがAPTSに一致したときにそのPTSが付加されていたアクセスユニットを出力し再生させる。PTSの周波数は90kHzであるから、この精度の範囲内で、STCとVPTSおよびAPTSとの同期をとれるようにビデオデータおよびオーディオデータの各々をデコードする。これにより、ビデオおよびオーディオの同期再生を実現できる。   When the data processing apparatus 100 performs conventional processing, the video decoding unit A3 outputs and reproduces the access unit to which the PTS is added when the system time reference STC matches VPTS. The audio decoding unit A4 outputs and reproduces the access unit to which the PTS is added when the STC matches the APTS. Since the frequency of the PTS is 90 kHz, each of the video data and the audio data is decoded so that the STC can be synchronized with the VPTS and the APTS within this accuracy range. As a result, synchronized playback of video and audio can be realized.

一方、本実施形態による処理によれば、映像音響機器におけるビデオ処理の遅延を考慮した上で、データ処理装置100はビデオおよびオーディオの同期再生を実現する。以下、図3を参照しながらその概略を説明し、その後、図4を参照しながらその動作を実現するための処理の手順を説明する。   On the other hand, according to the processing according to the present embodiment, the data processing apparatus 100 realizes synchronized playback of video and audio in consideration of video processing delay in the audiovisual apparatus. Hereinafter, an outline thereof will be described with reference to FIG. 3, and thereafter, a processing procedure for realizing the operation will be described with reference to FIG.

図3は、ビデオとオーディオとの同期再生を実現する再生タイミングを示す。再生タイミングは、ビデオ再生時刻情報およびオーディオ再生時刻情報に基づいて規定される。図3では、再生時刻情報によって示されるタイミングが4段に分けて記載されている。1段目は、データストリームに規定されていたビデオ再生時刻情報(VPTS)のタイミングを示す。データストリームを生成したエンコーダ(図示せず)では、時刻Tv1、Tv2、・・・において、ビデオが再生されることを意図して圧縮符号化を行っている。また、データストリームには時刻Ta1、Ta2、・・・において再生されるべきオーディオの再生時刻情報(APTS)も存在している。エンコーダは、ビデオとオーディオについて各々VPTS、APTSを付すことにより、システムクロックSTCに同期して再生されることを要求している。   FIG. 3 shows playback timings for realizing synchronized playback of video and audio. The playback timing is defined based on video playback time information and audio playback time information. In FIG. 3, the timing indicated by the reproduction time information is described in four stages. The first level shows the timing of video playback time information (VPTS) defined in the data stream. An encoder (not shown) that has generated a data stream performs compression encoding with the intention of reproducing a video at times Tv1, Tv2,. The data stream also includes audio reproduction time information (APTS) to be reproduced at times Ta1, Ta2,. The encoder requests video and audio to be reproduced in synchronization with the system clock STC by attaching VPTS and APTS, respectively.

次に、図3の2段目は、映像音響機器におけるビデオ処理によって遅延したビデオの再生タイミングを示す。例えば、最初に表示されるビデオについてみると、ビデオ処理に起因する遅延により、本来時刻Tv1で表示されるはずの映像が、時刻Tv1より後の時刻Tp1において再生されている。その時間差をΔtとする。   Next, the second row in FIG. 3 shows the playback timing of the video delayed by the video processing in the audiovisual apparatus. For example, regarding the video displayed first, a video that should originally be displayed at time Tv1 is reproduced at time Tp1 after time Tv1 due to a delay caused by video processing. Let the time difference be Δt.

次に、4段目は、本実施形態の遅延設定部A9が元の再生時刻情報(APTS)を修正した後の、オーディオの再生タイミングを示す。オーディオ遅延設定部9は、時刻Ta1において再生されるべきことを示すオーディオの再生時刻情報(APTS)を、ビデオが遅延する時間(Δt)だけずらした時刻情報(NAPTS)に修正し、オーディオの再生時刻を遅延させている。したがって、ビデオ出力は2段目のタイミング(時刻Tp1、Tp2、・・・)において再生され、オーディオ出力は4段目のタイミング(時刻Tna1、Tna2、・・・)において出力されて再生される。これにより、ビデオとオーディオの同期再生を実現できる。   Next, the fourth level shows the audio reproduction timing after the delay setting unit A9 of the present embodiment corrects the original reproduction time information (APTS). The audio delay setting unit 9 corrects the audio playback time information (APTS) indicating that it should be played back at the time Ta1 to time information (NAPTS) shifted by the video delay time (Δt), and plays back the audio. The time is delayed. Therefore, the video output is reproduced at the second stage timing (time Tp1, Tp2,...), And the audio output is output and reproduced at the fourth stage timing (time Tna1, Tna2,...). As a result, synchronized playback of video and audio can be realized.

なお、ビデオおよびオーディオの「同期再生」とは、ビデオの再生タイミングがオーディオの再生タイミングに対して、一定の時間範囲(例えば50ミリ秒先行から30ミリ秒遅延の間)に入っていることをいう。ビデオおよびオーディオのPTSが一致している場合に限られない。   Note that “synchronous playback” of video and audio means that the video playback timing is within a certain time range (for example, between 50 ms ahead and 30 ms delay) relative to the audio playback timing. Say. It is not limited to the case where the video and audio PTS match.

図4は、本実施形態によるデコード処理手順を示す。まず分離部1にて、符号化データストリームを符号化ビデオデータおよび符号化オーディオデータに分離し、ステップS101及びステップS102において、符号化データ(ビデオ/オーディオ)から、符号化フレームデータおよび再生時刻情報(VPTS/APTS)を抽出する。ビデオおよびオーディオの各符号化フレームデータは、それぞれ圧縮ビデオバッファ部A17および圧縮オーディオバッファ部A7に格納され、再生時刻情報(VPTS/APTS)はビデオ再生時刻情報管理部A301およびオーディオ再生時刻情報管理部A401に送られる。   FIG. 4 shows a decoding processing procedure according to this embodiment. First, the separation unit 1 separates the encoded data stream into encoded video data and encoded audio data. In steps S101 and S102, the encoded frame data and reproduction time information are encoded from the encoded data (video / audio). Extract (VPTS / APTS). The encoded frame data of video and audio are respectively stored in the compressed video buffer unit A17 and the compressed audio buffer unit A7, and the reproduction time information (VPTS / APTS) is the video reproduction time information management unit A301 and the audio reproduction time information management unit. Sent to A401.

図5は、オーディオ再生時刻情報管理部A401において生成されるテーブルの構成を示す。このテーブルは、圧縮オーディオバッファ部7に格納されたオーディオデータとオーディオ再生時刻情報とを関連づける。まず、オーディオ再生時刻情報管理部A401は、例えばAPTSごとにスロットという単位に分割する。そして、各スロットとオーディオアドレス情報とを対応付ける。オーディオアドレス情報は、オーディオバッファ部A7に格納されたオーディオデータの先頭アドレスを参照するデータとして、各スロットに対応づけられて格納される。そして、格納されたオーディオデータのデータ配置と、オーディオアドレス情報によって参照されるデータ位置の関係を示す。   FIG. 5 shows a configuration of a table generated in the audio reproduction time information management unit A401. This table associates audio data stored in the compressed audio buffer unit 7 with audio reproduction time information. First, the audio reproduction time information management unit A401 divides into units called slots for each APTS, for example. Each slot is associated with audio address information. The audio address information is stored in association with each slot as data referring to the head address of the audio data stored in the audio buffer unit A7. The relationship between the data arrangement of the stored audio data and the data position referred to by the audio address information is shown.

更に圧縮オーディオバッファ部A7は、圧縮オーディオデータを書き込んだ最後の位置(バッファ内のアドレス)を特定するライトポインタを有している。ライトポインタが示す位置はデータの書き込みが行われるとその最後の位置を示すように更新される。圧縮オーディオバッファA7はデータをバッファの最終アドレスまで書き込むと、書き込み位置を最初のアドレスまで戻す。すなわちバッファのアドレス管理はリング状(ラップアラウンド状)に行われる。   Furthermore, the compressed audio buffer unit A7 has a write pointer for specifying the last position (address in the buffer) where the compressed audio data is written. The position indicated by the write pointer is updated to indicate the last position when data is written. When the compressed audio buffer A7 writes the data up to the final address of the buffer, the compressed audio buffer A7 returns the write position to the first address. That is, buffer address management is performed in a ring (wraparound) manner.

また圧縮オーディオバッファ部A7は、圧縮オーディオデータを読み出した最終位置(バッファ内の最終アドレス)を特定するリードポインタを有している。オーディオデコード部A4によって圧縮オーディオデータが読み出されると、圧縮オーディオデータのリードポインタが示す位置を更新する。従って、読み出された位置までは、後続のデータを書き込むことができる。ライトポインタの位置がリードポインタの位置を追い越さないよう管理しながら、保持された圧縮オーディオデータが読み出され、分離部2によって分離された後続の圧縮オーディオデータが書き込まれる。   The compressed audio buffer unit A7 has a read pointer for specifying the final position (final address in the buffer) from which the compressed audio data is read. When the compressed audio data is read by the audio decoding unit A4, the position indicated by the read pointer of the compressed audio data is updated. Therefore, subsequent data can be written up to the read position. The managed compressed audio data is read while managing so that the position of the write pointer does not overtake the position of the read pointer, and the subsequent compressed audio data separated by the separation unit 2 is written.

再び図4を参照する。ステップS103において、ビデオデコード部A3は、VPTSがシステム時刻基準STCに達する前に、ビデオの符号化フレームデータをデコードし、デコードされたビデオデータをフレームバッファ部303に格納する。   Refer to FIG. 4 again. In step S103, the video decoding unit A3 decodes the encoded frame data of the video before the VPTS reaches the system time reference STC, and stores the decoded video data in the frame buffer unit 303.

次にステップS104及びステップS105において、遅延設定部A9は、予め設定された遅延時間に対応するPTS値ΔtをAPTSの値に加算し、新たなオーディオ再生時刻情報NAPTS値を求める(NAPTS=APTS+Δt)。以上の処理によって、オーディオの再生時刻情報(APTS)を修正した新たな再生時刻情報(NAPTS)が得られる。本実施形態においては、遅延時間は利用者により予め設定される場合を想定して説明する。利用者は、遅延設定部A9として設けられた入力ボタン、リモコン(図示せず)等によって設定したい項目を選択することができる。例えば、遅延させたい時間が“60ms”と設定する。PTS値Δtは設定された遅延時間に基づいて得ることができる。   Next, in step S104 and step S105, the delay setting unit A9 adds the PTS value Δt corresponding to the preset delay time to the APTS value to obtain a new audio reproduction time information NAPTS value (NAPTS = APTS + Δt). . Through the above processing, new reproduction time information (NAPTS) obtained by correcting the reproduction time information (APTS) of audio is obtained. In the present embodiment, description will be made assuming that the delay time is preset by the user. The user can select an item to be set using an input button, a remote controller (not shown), or the like provided as the delay setting unit A9. For example, the time to be delayed is set to “60 ms”. The PTS value Δt can be obtained based on the set delay time.

なお、遅延時間の設定はAV同期を実現するために必要であるが、現実の再生前に遅延時間を予め設定することができる根拠は以下のとおりである。すなわちビデオデコード部A3においては、例えば標準画質の映像を出力するための処理時間は概ね一定であり、また高精細画質の映像を出力するための処理時間もまた概ね一定である(ただし両方の処理時間は異なっていてもよい)。よって、どの程度オーディオを遅延させればよいかは、映像の処理内容に応じて予めほぼ特定できるといえる。この結果、利用者が現実の再生前に遅延時間を予め設定できる。   Although the setting of the delay time is necessary for realizing the AV synchronization, the reason why the delay time can be set in advance before actual reproduction is as follows. That is, in the video decoding unit A3, for example, the processing time for outputting a standard-definition image is substantially constant, and the processing time for outputting a high-definition image is also substantially constant (however, both processes are performed). Time may be different). Therefore, it can be said that how much audio should be delayed can be specified in advance according to the processing content of the video. As a result, the user can set a delay time before actual reproduction.

ステップS106において、オーディオデコード部A4は、NAPTSがシステム時刻基準STCに達する前に、オーディオの符号化フレームデータをデコードし、ステップS108において、デコードされたオーディオデータをPCMバッファ部403に格納する。   In step S106, the audio decoding unit A4 decodes the encoded frame data of the audio before the NAPTS reaches the system time reference STC. In step S108, the audio decoding unit A4 stores the decoded audio data in the PCM buffer unit 403.

ステップS107において、ビデオデコード部A3は、システム時刻基準STCがVPTSに達したか否かを判断する。「達した」とは、STCがVPTSに一致したとき、またはSTCがVPTSを超過したときを示す。達していれば、ステップS107においてビデオ出力部304はフレームバッファからビデオデータを出力する。達していなければ、達するまで待つ。   In step S107, the video decoding unit A3 determines whether or not the system time reference STC has reached VPTS. “Achieved” indicates when the STC matches the VPTS or when the STC exceeds the VPTS. If it has reached, the video output unit 304 outputs the video data from the frame buffer in step S107. If not, wait until it reaches.

次に、ステップS108において、オーディオデコード部A4は、STCがNAPTSに達したか否かを判断する。ここでいう「達した」もビデオと同様であり、STCがNAPTSに一致したとき、またはSTCがNAPTSを超過したときを示す。達していれば、オーディオ出力部404はPCMバッファからオーディオデータを出力する。達していなければ、達するまで待つ。   Next, in step S108, the audio decoding unit A4 determines whether or not the STC has reached NAPTS. “Reached” here is the same as video, and indicates when STC matches NAPTS or when STC exceeds NAPTS. If it has reached, the audio output unit 404 outputs audio data from the PCM buffer. If not, wait until it reaches.

そして、ステップS109において、ビデオデコード部A3およびオーディオデコード部A4はデコードが終了したか否かを判断する。終了したときは処理を終了し、していなければステップS101もしくはステップS102に戻って処理を継続する。なお、ユーザから再生の停止が指示された場合にも処理は終了する。なお、ステップS101とS102は、どちらの入力が先かで適時順序が変更になる。   In step S109, the video decoding unit A3 and the audio decoding unit A4 determine whether the decoding is finished. If it has been completed, the process is terminated. If not, the process returns to step S101 or step S102 to continue the process. Note that the processing is also ended when the user instructs the stop of reproduction. Note that the order of steps S101 and S102 is changed in a timely manner depending on which input is first.

なお、装置によっては、光出力端子からドルビーデジタル等のストリームのままで出力する場合もある。このような場合、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、NAPTSが一致もしくは超過した時点で、オーディオ出力する。   Depending on the device, there may be a case where the optical output terminal is output as a Dolby Digital stream. In such a case, the data is temporarily stored in a stream buffer (not shown), the STC is referred to, and the audio is output when the NAPTS matches or exceeds.

STCに対して、VPTS及びNAPTSを同期させるよう、ビデオデコード及びオーディオデコードを実施する。特に、NAPTSにVPTSが、50ミリ秒先行から、30ミリ秒遅延までの間にあわせれば、リップシンクのずれは気にならない程度に収まる。   Video decoding and audio decoding are performed so that VPTS and NAPTS are synchronized with the STC. In particular, if the VPTS is set to NAPTS between the time of 50 milliseconds preceding and the time of 30 milliseconds delay, the lip sync shift will not be noticed.

次に、データ処理装置100と複数種類の外部映像機器、外部音響機器等との接続について説明する。各種符号化方式によって(圧縮)符号化されたコンテンツデータ、デジタル放送等のデジタル圧縮符号化されたオーディオ・ビデオデータ等は、データ処理装置100において復号化され、外部映像機器、外部音響機器等において再生される。   Next, connection between the data processing apparatus 100 and a plurality of types of external video equipment, external audio equipment, and the like will be described. Content data encoded (compressed) by various encoding methods, digital compression encoded audio / video data such as digital broadcasts, and the like are decoded by the data processing apparatus 100, and are then used by external video equipment, external audio equipment, and the like. Played.

まず、デジタル圧縮符号化されたオーディオ/ビデオデータストリームを供給される受信部1の処理を以下に説明する。以下では、受信部1は、例えばオーディオデータストリームとビデオデータストリームとを含むトランスポートストリーム(TS)を受信するとして説明する。   First, the processing of the receiving unit 1 to which a digital compression encoded audio / video data stream is supplied will be described below. In the following description, it is assumed that the receiving unit 1 receives a transport stream (TS) including, for example, an audio data stream and a video data stream.

受信部1に入力されるオーディオデータストリームとビデオデータストリームには、各々のストリームを識別するための識別番号(以下IDと略す)が付されている。従来の衛星放送用のセットトップボックスに内蔵される受信部1は、衛星放送等を受信する場合においては、利用者が選択した番組を特定する番組IDに基づいて、その番組に関するオーディオ/ビデオデータストリームのIDを特定する。そして、特定されたIDを有するオーディオ/ビデオデータストリームを、複数のデータストリームの中から抽出して分離部2に供給する。   An identification number (hereinafter abbreviated as ID) for identifying each stream is attached to the audio data stream and video data stream input to the receiving unit 1. When receiving a satellite broadcast or the like, the receiving unit 1 built in a conventional set-top box for satellite broadcasting uses audio / video data related to the program based on a program ID that identifies the program selected by the user. Specify the stream ID. Then, an audio / video data stream having the specified ID is extracted from the plurality of data streams and supplied to the separation unit 2.

本実施形態による受信部1は、上記動作に加えてさらに、抽出したオーディオ/ビデオデータストリームのデータストリームの複製を作成するとともに、複製されたデータストリームに対して先のデータストリームの抽出時に特定したIDとは異なるIDを作成し、複製されたデータストリームに付与する。すなわち複製の対象となるオリジナルのデータストリームのIDと、複製されたデータストリームのIDとは異なっている。   In addition to the above operation, the receiving unit 1 according to the present embodiment further creates a duplicate of the data stream of the extracted audio / video data stream and specifies the duplicated data stream when extracting the previous data stream An ID different from the ID is created and assigned to the duplicated data stream. That is, the ID of the original data stream to be duplicated is different from the ID of the duplicated data stream.

次に分離部2は、IDを利用して映像データストリームおよび音声データストリームを分離し、圧縮ビデオデータ及び圧縮オーディオデータの分離とビデオ再生時刻情報とオーディオ再生時刻情報を抽出する入力解析を行う。   Next, the separation unit 2 separates the video data stream and the audio data stream using the ID, and performs input analysis for separating the compressed video data and the compressed audio data and extracting the video reproduction time information and the audio reproduction time information.

分離部2においても、複数の圧縮オーディオデータと複数の圧縮ビデオデータを扱い、複数のデコード部に対して、各データを供給する働きを有する。分離部2は、データ処理装置の中の複数のデコード部の各々に対し、指定されたIDを有する圧縮データを供給する。   The separation unit 2 also handles a plurality of compressed audio data and a plurality of compressed video data, and has a function of supplying each data to a plurality of decoding units. The separation unit 2 supplies compressed data having a designated ID to each of a plurality of decoding units in the data processing device.

よって、分離部2に対して、下記の2つは区別なく処理できるようになり、複数のデコード部によって、別々のデコード処理が行われる。   Therefore, the following two can be processed without distinction with respect to the separation unit 2, and separate decoding processing is performed by a plurality of decoding units.

(1)利用者が同時に複数の番組再生を指定した場合で、複数の番組IDが指定されて複数番組のデータストリームが供給される。   (1) When a user designates reproduction of a plurality of programs at the same time, a plurality of program IDs are designated and a data stream of the plurality of programs is supplied.

(2)利用者が単一の番組のIDを指定することにより、結果として受信部1が複製前及びの複製後の各々のデータストリームが供給される。   (2) When the user designates the ID of a single program, as a result, the receiving unit 1 is supplied with each data stream before duplication and after duplication.

本実施形態のデータ処理装置100は、複数の外部接続機器への出力経路が設けられている場合においても、各々の外部接続機器において、AV同期をとりながらコンテンツを再生することができる。例えば、一方の端子からBSデジタル放送のハイビジョン放送を高画質で再生出力しながら、標準画質のビデオレコーダに接続されたもう一方の端子から、録画のための再生出力することができる。この例では、ハイビジョン放送画面(第1画面)を作成するには、より高画質で表示するための画像処理を行う必要がありその分ビデオ出力処理に時間がかかる。一方標準画質のビデオレコーダへの出力映像画面(第2画面)を作成するためには、ハイビジョン映像を標準の映像にフォーマット変換するための画像処理を行う必要がある。第1画面と第2画面の各々の画像処理時間は、外部接続機器に接続する形態において各々設定され、同一である必要はない。従って先に説明したオーディオ再生を遅延させる処理を行い、各々AV同期をはかったうえで、ビデオとオーディオ信号を出力する。   The data processing apparatus 100 according to the present embodiment can play back content while synchronizing AV in each external connection device even when output paths to a plurality of external connection devices are provided. For example, a high-definition broadcast of BS digital broadcasting can be reproduced and output from one terminal with high image quality, and can be reproduced and output for recording from the other terminal connected to a standard-definition video recorder. In this example, in order to create a high-definition broadcast screen (first screen), it is necessary to perform image processing for display with higher image quality, and accordingly video output processing takes time. On the other hand, in order to create an output video screen (second screen) to a standard-definition video recorder, it is necessary to perform image processing for converting the format of a high-definition video into a standard video. The image processing times of the first screen and the second screen are set in the form of connection to the external device, and need not be the same. Therefore, the above-described processing for delaying audio reproduction is performed, and after AV synchronization is achieved, video and audio signals are output.

本実施形態によるデータ処理装置の特徴は、受信部1を従来の指定IDを有するデータストリームのみを分離部2へ通過させるだけでなく、指定IDのデータストリームの複製を作成し、かつ異なるIDを複製データストリームに付与し、異なるID情報を分離部2へ通知することにより、分離部2より後処理は、複数の番組のデコード処理と全く同一の処理を行うところにある。   The feature of the data processing apparatus according to the present embodiment is that not only the data stream having the conventional designated ID is passed through the receiving unit 1 to the separating unit 2, but also a copy of the data stream with the designated ID is created and a different ID is assigned. By giving the duplicate data stream and notifying the separation unit 2 of different ID information, the post-processing by the separation unit 2 is exactly the same as the decoding processing of a plurality of programs.

さらに、データ処理装置の一方の出力を記録処理装置(内蔵ビデオ装置等)に接続し、残りの出力を外部接続機器用に準備する場合においても同様な構成で対応できる。またデータ処理装置がデジタル放送受信機で、デジタル放送のトランスポートストリーム形式であるデータストリームを再生しながら、内部にDVD記録用にプログラムストリーム方式にエンコードしながらDVD記録するためのエンコード装置を有する場合に対しても同様な構成で対応できる。   Further, when one output of the data processing device is connected to a recording processing device (built-in video device or the like) and the remaining output is prepared for an external connection device, the same configuration can be used. Also, when the data processing apparatus is a digital broadcast receiver and has an encoding apparatus for recording a DVD while reproducing the data stream in the digital broadcast transport stream format and encoding it in the program stream format for DVD recording. Can be handled with the same configuration.

エンコード装置でDVDなどのメディアに記録する際には、AV同期が必ずあっていないといけない。これは記録したメディアが、エンコード記録した機器と同じ機器でデコード再生するとは限らないからである。AV同期がずれた状態で、ビデオ用のVPTSと、オーディオ用のAPTSをつけてしまうと、再生側では、ずれた状態のPTSを正規の時刻情報と思って再生するからである。   When recording on a medium such as a DVD with an encoding device, AV synchronization must be present. This is because the recorded medium is not always decoded and reproduced by the same device as the device that performed the encoding and recording. This is because if the VPTS for video and the APTS for audio are attached in a state where the AV synchronization is shifted, the playback side assumes that the shifted PTS is regular time information and plays back.

上述のように、外部接続した映像機器と音響機器に出力するために設定した遅延時間と、内部エンコード用の遅延時間とはそれぞれ異なっている。利用者が外部接続機器を利用する場合には、AV同期が実現されているか否かは、ニュース番組などでアナウンサーの映像(口の動き)と音声とが合致しているかなどに基づいて確認することができる。しかし内部エンコード用の映像及び音声は、それらの映像や音声をモニタ出力しない限り、AV同期が実現されているかどうかを直に確認することはできない。特に、衛星デジタル放送を受信記録する場合などで、デコードするデータストリームの元々の画質が、番組途中などで、放送局側の都合により変更される場合がある。ハイビジョン画質(以下高精細画質)から標準画質へ、もしくはその逆の場合もある。   As described above, the delay time set for output to an externally connected video device and audio device is different from the delay time for internal encoding. When a user uses an externally connected device, whether or not AV synchronization is realized is confirmed based on whether the announcer's video (mouth movement) matches the sound in a news program or the like. be able to. However, it is not possible to directly check whether AV synchronization is realized for the internal encoding video and audio unless the video and audio are output on a monitor. In particular, when receiving and recording a satellite digital broadcast, the original image quality of a data stream to be decoded may be changed due to the convenience of the broadcasting station during the program. In some cases, high-definition image quality (hereinafter, high-definition image quality) is changed to standard image quality, or vice versa.

このような場合には、画質を変換するために現実に要する画像処理時間と当初想定していた処理時間とは相違する。この画像処理時間の相違を考慮せずにそのままの同じ遅延時間を設定し続ければ、番組途中の画質が変わった時点から後はAV同期が図れていない状態が継続する。   In such a case, the image processing time actually required for converting the image quality is different from the processing time originally assumed. If the same delay time is continuously set without taking this difference in image processing time into consideration, a state in which AV synchronization is not achieved continues from the time when the image quality during the program changes.

そこで本実施形態では、画像処理の遅延情報を取得した時点で遅延情報を変更し、再度遅延設定を行い直す。これにより、変更発生後においてもAV同期を図ることができる。なお外部接続に出力する経路においても、画像処理内容がかわり遅延時間の変更が認知されれば、遅延時間の変更を実行すればよい。   Therefore, in the present embodiment, the delay information is changed when the delay information of the image processing is acquired, and the delay setting is performed again. As a result, AV synchronization can be achieved even after a change has occurred. Even in the path to be output to the external connection, if the change of the delay time is recognized instead of the content of the image processing, the delay time may be changed.

上述の説明では、圧縮符号化されたオーディオデータをデコードした後PCMデータをバッファするとした。これはオーディオ出力部へ出力するための出力信号の準備処理に相当する。オーディオ信号を遅延するためには、従来例のデコードされたPCMデータを遅延させるオーディオ遅延部187(図11)の構成と比較すると、本実施形態によるオーディオバッファ部A7(図1)はデコード前の圧縮符号化された状態のオーディオデータを保持しているためデータ量が小さく、バッファサイズが少なくてすむ。   In the above description, it is assumed that the PCM data is buffered after decoding the compression-encoded audio data. This corresponds to preparation processing of an output signal for output to the audio output unit. In order to delay the audio signal, the audio buffer unit A7 (FIG. 1) according to the present embodiment is compared with the configuration of the audio delay unit 187 (FIG. 11) that delays the decoded PCM data of the conventional example. Since the compressed and encoded audio data is held, the amount of data is small and the buffer size is small.

オーディオバッファ部A7に必要なバッファ容量は、当初のAPTSによって規定される再生時刻の到達前までに受け取る符号化オーディオデータのデータ量と、再生時刻の遅延量(Δt)に応じた時間の経過までに受け取る符号化オーディオデータのデータ量との和以上である。例えば、遅延のために必要なバッファとして、最大100ミリ秒のデータを追加的に格納できる追加バッファが必要である場合を考える。これは、遅延時間が最大100ミリ秒の場合に相当し、ビデオではNTSC方式出力のときのビデオ約3フレームの表示時間に相当する。この場合に必要な追加バッファの容量は、BSデジタル放送で使用されているオーディオ圧縮フォーマットのAAC方式では約22キロバイトである(1チャンネルあたり288キロビット秒として6チャンネル分のデータ量を算出した)。この容量は、デコード後のPCMデータを追加的に保存するときの容量の数分の1ですむ。   The buffer capacity required for the audio buffer unit A7 is the amount of encoded audio data received before the reproduction time defined by the original APTS and the elapse of time corresponding to the reproduction time delay amount (Δt). Is equal to or greater than the sum of the amount of encoded audio data received. For example, consider a case where an additional buffer capable of additionally storing data of a maximum of 100 milliseconds is necessary as a buffer necessary for delay. This corresponds to a case where the delay time is a maximum of 100 milliseconds, and in video, it corresponds to a display time of about 3 frames of video at the time of NTSC format output. The capacity of the additional buffer required in this case is about 22 kilobytes in the AAC format of the audio compression format used in BS digital broadcasting (data amount for 6 channels is calculated as 288 kilobit seconds per channel). This capacity can be reduced to a fraction of the capacity for additionally storing PCM data after decoding.

本実施形態では、ビデオデコード部A3およびオーディオデコード部A4は、圧縮符号化されたビデオデータおよびオーディオデータをデコードして、フレームバッファ部303およびPCMバッファ部403に保持しておくとした。しかし、例えばDVDにはリニアPCMデータがオーディオデータとして含まれている場合には、デコード動作は不要である。リニアPCMデータは、符号化はされているが圧縮はされていないからである。ただし、オーディオデータがリニアPCMデータであっても、ストリームに含まれる同期情報に従ってビデオと同期して再生されるため、先の説明をそのまま適用できる。また、データ処理装置100が光出力端子からドルビーデジタル等の符号化ストリームをそのまま出力する場合には、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、NAPTSがSTCに達した時点で、オーディオ出力部404から出力すればよい。   In the present embodiment, the video decoding unit A3 and the audio decoding unit A4 decode the compressed and encoded video data and audio data and store them in the frame buffer unit 303 and the PCM buffer unit 403. However, for example, when linear PCM data is included as audio data in a DVD, the decoding operation is not necessary. This is because the linear PCM data is encoded but not compressed. However, even if the audio data is linear PCM data, it is reproduced in synchronization with the video in accordance with the synchronization information included in the stream, so the above description can be applied as it is. Further, when the data processing apparatus 100 outputs an encoded stream such as Dolby Digital from the optical output terminal as it is, it is temporarily stored in a stream buffer (not shown), and the STC is referred to, and when the NAPTS reaches the STC. Thus, the output from the audio output unit 404 may be performed.

次に、オーディオの遅延を発生させる外部映像機器13への出力のためのビデオ処理の具体例を説明する。想定されるビデオ処理は、
(1)毎秒24フレームのフィルム素材から毎秒30フレームのビデオ素材への変換処理、
(2)インターレース走査・プログレッシブ走査間の変換処理、標準画質(Standard Definition;SD)のD1規格信号・高精細画質(High Definition;HD)のD3規格信号間の変換処理、NTSC方式・PAL方式間の変換処理
(3)ユーザからの指示等に基づく映像の拡大、縮小、編集処理
(4)複数の映像の合成処理
等である。上述の処理が不要な通常の再生時には、オーディオデータを遅延して出力する必要はない。しかし、ビデオ処理のオン/オフによって遅延が発生しうるため、遅延量の設定およびその設定に基づくオーディオデータの遅延出力が必要になる。
Next, a specific example of video processing for output to the external video equipment 13 that generates audio delay will be described. The expected video processing is
(1) Conversion from film material at 24 frames per second to video material at 30 frames per second,
(2) Conversion processing between interlace scanning and progressive scanning, conversion processing between standard definition (SD) D1 standard signal and high definition image quality (HD) D3 standard signal, between NTSC system and PAL system Conversion processing (3) video enlargement / reduction based on an instruction from the user, editing processing, and (4) synthesis processing of a plurality of videos. During normal playback that does not require the above processing, there is no need to output audio data with a delay. However, since a delay may occur due to on / off of the video processing, it is necessary to set a delay amount and output a delay of audio data based on the setting.

そのようなときは、遅延設定部A9に遅延時間が異なる複数の遅延情報を設け、行われる処理種別に応じて対応付けておくことが好ましい。さらに、外部映像機器13で実行される画像処理の種別をユーザが入力すると、その種別応じて遅延時間を変えるように構成すればよい。   In such a case, it is preferable to provide a plurality of pieces of delay information having different delay times in the delay setting unit A9 and associate them according to the type of processing to be performed. Furthermore, when the user inputs the type of image processing to be executed by the external video device 13, the delay time may be changed according to the type.

図6は、ビデオ処理を行う処理回路を搭載したビデオ出力部304の機能ブロックの構成を示す。ビデオ出力部304は、フレームバッファ部303からデコードされたフレームデータを受け取り、所定のビデオ処理を行ったビデオデータを出力する。ビデオ出力部304は、IP変換部371と、フォーマット変換部372と、拡大縮小部373と、他画面合成部374と、GUI重畳部375と、出力部376とを有する。これらの構成要素に関連して、ビデオデコード部A3には外部映像入力部377およびGUIデータ生成部378とが別途設けられる。   FIG. 6 shows a functional block configuration of the video output unit 304 equipped with a processing circuit for performing video processing. The video output unit 304 receives the decoded frame data from the frame buffer unit 303 and outputs video data that has undergone predetermined video processing. The video output unit 304 includes an IP conversion unit 371, a format conversion unit 372, an enlargement / reduction unit 373, another screen composition unit 374, a GUI superimposition unit 375, and an output unit 376. In relation to these components, an external video input unit 377 and a GUI data generation unit 378 are separately provided in the video decoding unit A3.

IP変換部371は、インターレース走査・プログレッシブ走査間の変換処理を行う。フォーマット変換部372は、480iビデオ信号・1080iビデオ信号間の変換処理およびNTSC方式・PAL方式間の変換処理を行う。拡大縮小部373は、ユーザからの指示等に基づく映像の拡大、縮小、編集処理を行う。他画面合成部374は、デコードされたビデオと外部映像入力部377から入力されるビデオとを合成する。GUI重畳部375は、これまでの処理によって得られたビデオに、GUIデータ生成部378によって生成されたGUIデータを重畳する。そして出力部376は、最終的に得られたビデオデータを出力する。この出力は、外部映像機器13に送られる。ビデオデコード部A3は、ビデオデータが得られたときの時刻をSTCに基づいて取得し、そのビデオデータのVPTSと比較することによって、遅延時間を特定することができる。   The IP conversion unit 371 performs a conversion process between interlace scanning and progressive scanning. The format conversion unit 372 performs a conversion process between the 480i video signal and the 1080i video signal and a conversion process between the NTSC system and the PAL system. The enlargement / reduction unit 373 performs enlargement, reduction, and editing processing of the video based on an instruction from the user. The other screen combining unit 374 combines the decoded video and the video input from the external video input unit 377. The GUI superimposing unit 375 superimposes the GUI data generated by the GUI data generating unit 378 on the video obtained by the processing so far. Then, the output unit 376 outputs the finally obtained video data. This output is sent to the external video equipment 13. The video decoding unit A3 can specify the delay time by acquiring the time when the video data is obtained based on the STC and comparing it with the VPTS of the video data.

さらに、図7に示すように、データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す。図7の例では、HDMI規格に従ってデータが授受される。まずHDMIトランスミッタ480は、映像音響機器120のHDMIレシーバ430に対して、映像音響機器120を特定する情報(機器固有情報)を求める制御コマンドを送信する。HDMIレシーバ430は、その制御コマンドに基づいて、自己の装置の機器IDを機器固有情報としてHDMIトランスミッタ480に送信する。機器IDは、例えば映像音響機器120内のROM431にメーカー固有情報(Vendor Specific Data)として格納されており、メーカー名、機種名等を特定することができる。   Furthermore, as shown in FIG. 7, the connection between the data processing apparatus 100 and the audiovisual equipment 120 and the types of data exchanged between them are shown. In the example of FIG. 7, data is exchanged according to the HDMI standard. First, the HDMI transmitter 480 transmits a control command for obtaining information (device-specific information) for specifying the audiovisual device 120 to the HDMI receiver 430 of the audiovisual device 120. Based on the control command, the HDMI receiver 430 transmits the device ID of its own device to the HDMI transmitter 480 as device specific information. The device ID is stored, for example, as manufacturer specific information (Vendor Specific Data) in the ROM 431 in the audiovisual device 120, and the manufacturer name, model name, and the like can be specified.

HDMIトランスミッタ480は、機器IDを受け取る。遅延設定部A9は、機器IDを受け取ると、内部メモリまたは外部のメモリカード等に規定されたテーブルを参照する。テーブルには、機器IDと遅延設定との対応が記述されている。そして、機器IDおよびそのテーブルに基づいて、映像音響機器120が実行するビデオ処理に起因する遅延時間を得ることができる。これにより、その遅延時間を特定できる。これら獲得した情報は、データ処理装置内でデフォルト設定値として保存しておく構成にしておけば、機器接続が変わらない限りいつも同じ状態でのAV鑑賞を行うことができる。接続機器ID等の変更があれば、その都度相手機器側の情報を受け、設定を変更すればよい。   The HDMI transmitter 480 receives the device ID. When the delay setting unit A9 receives the device ID, the delay setting unit A9 refers to a table defined in the internal memory or the external memory card. The table describes the correspondence between device IDs and delay settings. And based on apparatus ID and its table, the delay time resulting from the video processing which the audiovisual apparatus 120 performs can be obtained. Thereby, the delay time can be specified. If the acquired information is stored as a default setting value in the data processing apparatus, it is possible to always watch AV in the same state as long as the device connection is not changed. If there is a change in the connected device ID or the like, the setting may be changed by receiving information on the partner device each time.

これらの外部接続機器には、TVなどのモニタ出力機器や、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプなどのインタフェース機器、携帯型出力機器、車載用AV再生機器などが想定される。   As these externally connected devices, monitor output devices such as a TV, interface devices such as audio output amplifiers and AV amplifiers having an AV selector function, portable output devices, in-vehicle AV playback devices, and the like are assumed.

なお、実施形態1においては、複数の出力経路のそれぞれのAV同期を合わせるために、各々の圧縮前のバッファ部とデコード部を設ける構成としている。これは、デコード後に出力経路ごとにバッファ部用のメモリを有する場合より、半導体コストが安い場合に有効である。例えば、マイクロプロセッサが高機能となり、複数のデコード機能を同一の半導体により実現可能である場合を想定する。すると、出力経路ごとに、デコード後にバッファメモリをおくよりも、デコード前に圧縮された状態でバッファする方が装置全体のコストを低減できる。   In the first embodiment, in order to synchronize the AV synchronization of each of the plurality of output paths, a buffer unit and a decoding unit before compression are provided. This is effective when the semiconductor cost is lower than when a buffer memory is provided for each output path after decoding. For example, it is assumed that the microprocessor has a high function and a plurality of decoding functions can be realized by the same semiconductor. Then, it is possible to reduce the cost of the entire apparatus by buffering in a compressed state before decoding rather than placing a buffer memory after decoding for each output path.

他にも、1台のデータ処理装置に複数のデコード部が必要な場合がある。例えば、BSデジタル放送の圧縮符号化データストリームを再エンコードしてハードディスクや光ディスク等に書き込みつつ、そのデータストリームをその放送時刻よりも遅い時刻に再生する場合である。再エンコード処理は、圧縮符号化データストリームをデコード部において一旦復号化し、圧縮率をさらに高めてエンコード(圧縮符号化)する処理であり、復号化処理を含んでいる。また再生処理は、圧縮符号化データストリームをデコード部において復号化して出力する処理である。上述の例では同時に2つのデコード部が必要とされ、各々の出力用にAV同期用の遅延設定が必要となる。従って、デジタル放送を追いかけ再生する機能を有するデータ処理装置においては、複数のデコード部が必要となるため、実施形態1の複数の出力用の遅延設定を実現するために、特別のデコード部を追加する必要はない。遅延用のバッファのためのメモリサイズを低減することにより、コストの低減を図ることが第1の効果である。   In addition, a plurality of decoding units may be required for one data processing apparatus. For example, it is a case where a compression-encoded data stream of BS digital broadcasting is re-encoded and written on a hard disk or an optical disk, and the data stream is reproduced at a time later than the broadcasting time. The re-encoding process is a process in which a compression-encoded data stream is once decoded by a decoding unit and encoded (compression encoding) with a further increase in the compression rate, and includes the decoding process. The reproduction process is a process for decoding and outputting the compression-encoded data stream in the decoding unit. In the above example, two decoding units are required at the same time, and a delay setting for AV synchronization is required for each output. Therefore, in a data processing apparatus having a function of chasing and playing back a digital broadcast, a plurality of decoding units are required. Therefore, a special decoding unit is added to realize the delay setting for a plurality of outputs in the first embodiment. do not have to. The first effect is to reduce the cost by reducing the memory size for the delay buffer.

(実施形態2)
図8は、本実施形態によるデータ処理装置102の構成を示すブロック図である。以下、実施形態1によるデータ処理装置100との相違点を中心に説明する。なお図8には、実施形態1における圧縮ビデオバッファ部AおよびBに相当する構成要素は記載されていないが、この相違は簡略化のためであり本質的ではない。
(Embodiment 2)
FIG. 8 is a block diagram showing the configuration of the data processing apparatus 102 according to the present embodiment. Hereinafter, the description will focus on the differences from the data processing apparatus 100 according to the first embodiment. In FIG. 8, components corresponding to the compressed video buffer units A and B in the first embodiment are not described, but this difference is for simplification and not essential.

受信部21は、ビデオのデータストリームのみ複製を行い、複製前のデータストリームと複製後のデータストリームとを識別するIDを付与する。一方オーディオのデータストリームの複製は行わない。   The receiving unit 21 duplicates only the video data stream and assigns an ID for identifying the data stream before duplication and the data stream after duplication. On the other hand, the audio data stream is not duplicated.

従って分離部22は、IDの異なるビデオストリームデータをビデオデコード部A23と、ビデオデコード部B26に分割して供給するともに、オーディオストリームデータは、圧縮オーディオ共通バッファ部27に供給する。   Therefore, the separating unit 22 divides and supplies video stream data with different IDs to the video decoding unit A 23 and the video decoding unit B 26, and supplies the audio stream data to the compressed audio common buffer unit 27.

圧縮オーディオ共通バッファ部27は、圧縮オーディオデータを書き込むことにより、書き込んだ最終点まで最新の書き込み位置を移動するライトポインタを有している。また圧縮オーディオ共通バッファ部27はリードポインタAおよびBも有している。オーディオデコード部A24によって圧縮オーディオデータが読み出されることにより、圧縮オーディオデータのリードポインタAを更新する。またオーディオデコード部B25によって圧縮オーディオデータが読み出されることにより、圧縮オーディオデータのリードポインタBを更新する構成をとる。圧縮オーディオ共通バッファ部27は、最終アドレスまで書き込んでいけば、また最初のアドレスまで書き込み位置をもどす。すなわちバッファのアドレス管理はリング状(ラップアラウンド状)に行われる。従って、読み出された位置まで、次の書き込みが可能となり、分離部2によって、ライトポインタが2つのリードポインタのうちのまだ読み込みが完了していないほうのリードポインタを追い越さないようにしながら、次の圧縮オーディオデータの書きこみがバッファ管理される。上述のライトポインタおよびリードポインタの機能は実施形態1におけるライトポインタおよびリードポインタと同じである。   The compressed audio common buffer unit 27 has a write pointer that moves the latest writing position to the final written point by writing the compressed audio data. The compressed audio common buffer unit 27 also has read pointers A and B. By reading the compressed audio data by the audio decoding unit A24, the read pointer A of the compressed audio data is updated. Further, the compressed audio data is read by the audio decoding unit B25, whereby the read pointer B of the compressed audio data is updated. The compressed audio common buffer unit 27 returns the writing position to the first address if writing is performed up to the last address. That is, buffer address management is performed in a ring (wraparound) manner. Accordingly, the next writing can be performed up to the read position, and the separation unit 2 prevents the write pointer from overtaking the read pointer of the two read pointers that has not been read yet. The compressed audio data writing is managed as a buffer. The functions of the write pointer and read pointer described above are the same as the write pointer and read pointer in the first embodiment.

実施形態1に比べ、実施形態2には、圧縮オーディオデータのバッファ容量がおよそ半分ですむ。これは、実施形態1においては、各々のデコード部それぞれに固有のオーディオバッファを有していた。しかし、実施形態2では、このオーディオバッファに格納されるデータそのものは同一であり、各々の遅延時間の設定の差により、複数の読み出し位置の制御を行うことにより、バッファの共通利用を図っている。   Compared to the first embodiment, the second embodiment requires about half the buffer capacity of the compressed audio data. In the first embodiment, each decoding unit has its own audio buffer. However, in the second embodiment, the data itself stored in the audio buffer is the same, and the common use of the buffer is achieved by controlling a plurality of read positions by the difference in setting of each delay time. .

(実施形態3)
図9は、本実施形態によるデータ処理装置104の構成を示すブロック図である。以下、実施形態1との相違点を中心に説明する。なお図9には、実施形態1における圧縮ビデオバッファ部AおよびBに相当する構成要素は記載されていないが、この相違は簡略化のためであり本質的ではない。
(Embodiment 3)
FIG. 9 is a block diagram showing the configuration of the data processing apparatus 104 according to the present embodiment. Hereinafter, the difference from the first embodiment will be mainly described. In FIG. 9, components corresponding to the compressed video buffer units A and B in the first embodiment are not described, but this difference is for simplification and not essential.

受信部41は、利用者の指定した番組に対応するIDを有するビデオのデータストリームとオーディオのデータストリームを取得し、分離部42へ渡す。分離部42のあとにデータ複製部53を設け入力されたデータストリームの複製を行う。データ複製部53前のデータを第1のデコーダ部(ビデオデコード部A43及び圧縮オーディオバッファ部A47)へ、データ複製部53にて複製されたデータストリームを第2のデコーダ部(ビデオデコード部B45及び圧縮オーディオバッファ部B48)へ供給する。   The receiving unit 41 acquires a video data stream and an audio data stream having an ID corresponding to the program designated by the user, and passes them to the separating unit 42. A data replication unit 53 is provided after the separation unit 42 to replicate the input data stream. The data before the data duplicating unit 53 is sent to the first decoder unit (video decoding unit A43 and compressed audio buffer unit A47), and the data stream duplicated by the data duplicating unit 53 is sent to the second decoder unit (video decoding unit B45 and To the compressed audio buffer B48).

その後の処理については、実施形態1と同様である。これは、データ複製部53を設けることにより、データ処理装置104を半導体で構成する場合において、受信部41、分離部42と、デコーダ部には、手を加えなくても、実施形態1と同等の効果が得られる。   The subsequent processing is the same as in the first embodiment. This is the same as in the first embodiment even if the receiving unit 41, the separating unit 42, and the decoder unit are not modified when the data processing unit 104 is configured by a semiconductor by providing the data duplicating unit 53. The effect is obtained.

(実施形態4)
図10は、本実施形態によるデータ処理装置106の構成を示すブロック図である。以下、実施形態3によるデータ処理装置104との相違点を中心に説明する。
(Embodiment 4)
FIG. 10 is a block diagram showing the configuration of the data processing apparatus 106 according to the present embodiment. Hereinafter, the difference from the data processing apparatus 104 according to the third embodiment will be mainly described.

受信部81は、利用者の指定した番組に対応するIDを有するビデオのデータストリームとオーディオのデータストリームを取得し、分離部82へ渡す。分離部82のあとにデータ複製部93を設け入力されたビデオデータのデータストリームの複製を行う。データ複製前のデータを第1のデコーダ部(ビデオデコード部A83)へ、データ複製部93にて複製されたデータストリームを第2のデコーダ部(ビデオデコード部B85)へ供給する。   The receiving unit 81 acquires a video data stream and an audio data stream having an ID corresponding to the program designated by the user, and passes them to the separating unit 82. A data duplicating unit 93 is provided after the separating unit 82 to duplicate the data stream of the input video data. The data before data duplication is supplied to the first decoder unit (video decoding unit A83), and the data stream duplicated by the data duplicating unit 93 is supplied to the second decoder unit (video decoding unit B85).

従って分離部82は、オーディオストリームデータは、圧縮オーディオ共通バッファ部87に供給する。   Therefore, the separation unit 82 supplies the audio stream data to the compressed audio common buffer unit 87.

圧縮オーディオ共通バッファ部87へは、圧縮オーディオデータを書き込むことにより、書き込んだ最終点まで最新の書き込み位置を移動するライトポインタを有している。そして、オーディオデコード部A84によって圧縮オーディオデータが読み出されることにより、圧縮オーディオデータのリードポインタAを更新する構成をとる。またオーディオデコード部B86によって圧縮オーディオデータが読み出されることにより、圧縮オーディオデータのリードポインタBを更新する構成をとる。圧縮オーディオ共通バッファ部87は、最終アドレスまで書き込んでいけば、また最初のアドレスまで書き込み位置がもどるリング状の使用形態とする。従って、読み出された位置まで、次の書き込みが可能となり、分離部2によって、ライトポインタが2つのリードポインタのうちのまだ読み込みが完了していないほうのリードポインタを追い越さないようにしながら、次の圧縮オーディオデータの書きこみがバッファ管理される。   The compressed audio common buffer unit 87 has a write pointer that moves the latest writing position to the last written point by writing the compressed audio data. Then, the compressed audio data is read by the audio decoding unit A84, whereby the read pointer A of the compressed audio data is updated. Further, the compressed audio data is read out by the audio decoding unit B86, whereby the read pointer B of the compressed audio data is updated. The compressed audio common buffer unit 87 is in a ring-shaped usage form in which the writing position returns to the first address if writing is performed up to the last address. Accordingly, the next writing can be performed up to the read position, and the separation unit 2 prevents the write pointer from overtaking the read pointer of the two read pointers that has not been read yet. The compressed audio data writing is managed as a buffer.

実施形態3に比べ、実施形態4には、圧縮オーディオデータのバッファ容量がおよそ半分ですむ。これは、実施形態1においては、各々のデコード部それぞれに固有のオーディオバッファを有していた。しかし、実施形態4では、このオーディオバッファに格納されるデータそのものは同一であり、各々の遅延時間の設定の差により、複数の読み出し位置の制御を行うことにより、バッファの共通利用を図っている。その後の処理は実施形態1によるデータ処理装置100の処理と同様である。   Compared to the third embodiment, the fourth embodiment requires about half the buffer capacity of the compressed audio data. In the first embodiment, each decoding unit has its own audio buffer. However, in the fourth embodiment, the data itself stored in the audio buffer is the same, and the common use of the buffer is achieved by controlling a plurality of read positions by the difference in setting of each delay time. . The subsequent processing is the same as that of the data processing apparatus 100 according to the first embodiment.

なお上述の各実施形態においては、入力データは、外部から入力されるデータ、外部記録媒体から入力されるデータとして説明してきたが、予め機器内に存在するデータであってもよい。   In each of the above-described embodiments, the input data has been described as data input from the outside and data input from an external recording medium, but may be data existing in the apparatus in advance.

また上述の実施形態においては、分離部がビデオ信号とオーディオ信号とを分離するとして説明した。しかし、あらかじめ各々が分離されているファイルデータであってもよい。圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報を入力とし、各々の再生時刻情報に対し、同期情報とともに再生できる構成であれば、上述の各実施形態によるデータ処理装置を構成することができる。これは、ビデオカメラ等で撮影した信号をパーソナルコンピュータ上で編集した結果として、AV及びデータの混合ファイルもしくは、AVデータ独立のファイルどちらの場合でも、圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報、ファイル上のデータ情報を互いに関連づけた同期をとって再生する場合すべてに適応される。   In the above-described embodiment, the description has been made assuming that the separation unit separates the video signal and the audio signal. However, it may be file data that is separated in advance. If the playback time information related to the compressed video data, the compressed audio data and the playback time information are input and the playback time information can be played back with the synchronization information, the data processing device according to each of the above embodiments is configured. can do. This is because, as a result of editing a signal photographed by a video camera or the like on a personal computer, playback time information associated with compressed video data, compressed audio, in both AV and data mixed files or AV data independent files. The present invention is applied to all cases where data, reproduction time information, and data information on a file are reproduced in synchronization with each other.

上述の実施形態によるデータ処理装置の適用例としては、セットトップボックス、デジタル衛星放送受像機及びその記録機器、DVDプレーヤもしくはDVDレコーダの関連機器、ハードディスクレコーダ、パーソナルコンピュータなどがある。   Application examples of the data processing apparatus according to the above-described embodiment include a set-top box, a digital satellite broadcast receiver and its recording device, a DVD player or DVD recorder related device, a hard disk recorder, and a personal computer.

本発明におけるデータ処理装置は、デジタル符号化された映像信号と音声信号の同期信号を元に、表示などの目的で複数の出力経路を持つ場合に、各々の経路の遅延を、圧縮データのままバッファメモリに蓄え、さらに各々の信号処理による遅延時間を独自に設定することにより、各経路のAV同期を動的に合わす用途に使用することができる。   The data processing apparatus according to the present invention has a plurality of output paths for display and other purposes based on the digitally encoded video signal and audio signal synchronization signal. By storing in the buffer memory and further setting the delay time by each signal processing independently, it can be used for the purpose of dynamically adjusting the AV synchronization of each path.

実施形態1によるデータ処理装置100の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the data processor 100 by Embodiment 1. FIG. デコード部101の詳細な機能ブロックの構成例を示す図である。FIG. 3 is a diagram illustrating a detailed functional block configuration example of a decoding unit 101. ビデオとオーディオとの同期再生を実現する再生タイミングを示す図である。It is a figure which shows the reproduction | regeneration timing which implement | achieves the synchronous reproduction | regeneration of video and audio. 実施形態1によるデコード処理手順を示すフローチャートである。6 is a flowchart illustrating a decoding processing procedure according to the first embodiment. オーディオ再生時刻情報管理部A401において生成されるテーブルの構成を示す図である。It is a figure which shows the structure of the table produced | generated in audio reproduction time information management part A401. ビデオ処理を行う処理回路を搭載したビデオ出力部304の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the video output part 304 carrying the processing circuit which performs video processing. データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す図である。It is a figure which shows the kind of data transmitted / received between the data processing apparatus 100 and the audiovisual equipment 120, and them. 実施形態2によるデータ処理装置102の構成を示すブロック図である。It is a block diagram which shows the structure of the data processor 102 by Embodiment 2. 実施形態3によるデータ処理装置104の構成を示すブロック図である。It is a block diagram which shows the structure of the data processor 104 by Embodiment 3. 実施形態4によるデータ処理装置106の構成を示すブロック図である。It is a block diagram which shows the structure of the data processor 106 by Embodiment 4. 従来の信号再生装置の実装形態を示すブロック図である。It is a block diagram which shows the implementation form of the conventional signal reproducing | regenerating apparatus. 複数の出力経路を有する従来の信号再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional signal reproducing | regenerating apparatus which has several output paths.

符号の説明Explanation of symbols

1 受信部
2 入力部
3 ビデオデコード部A
4 オーディオデコード部A
5 ビデオデコード部B
6 オーディオデコード部B
7 圧縮オーディオバッファ部A
8 圧縮オーディオバッファ部B
9 遅延設定部A
10 遅延設定部B
11 システム時刻参照部A
12 システム時刻参照部B
13、16 外部映像機器
14、15 外部音響機器
17、18 圧縮ビデオバッファ部
100、102、104、106 データ処理装置
101 デコード部


1 receiving unit 2 input unit 3 video decoding unit A
4 Audio decoding part A
5 Video decoding part B
6 Audio decoding part B
7 Compressed audio buffer A
8 Compressed audio buffer B
9 Delay setting part A
10 Delay setting part B
11 System time reference part A
12 System time reference part B
13, 16 External video equipment 14, 15 External audio equipment 17, 18 Compressed video buffer section 100, 102, 104, 106 Data processing apparatus 101 Decoding section


Claims (6)

データストリームを受信してオリジナルストリームとして出力するとともに、受信された前記データストリームを複製して複製ストリームとして出力し、かつ、出力に際して前記オリジナルストリームおよび前記複製ストリームの各々を識別可能な識別情報を付与する受信部であって、前記データストリームは、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有する、受信部と、
前記オリジナルストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出し、前記複製ストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、
前記オリジナルストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、
前記オリジナルストリームに関し、第2時刻情報に基づいて前記第2データを出力する第2デコード部と、
前記複製ストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第3デコード部と、
前記複製ストリームに関し、前記第2時刻情報に基づいて前記第2データを出力する第4デコード部と、
第1遅延設定部および第2遅延設定部と
を有するデータ処理装置であって、
前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、
前記第1遅延設定部は、前記オリジナルストリームの再生時刻の遅延量を規定する第1遅延情報を保持し、かつ、前記第1遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させ、
前記第2遅延設定部は、前記複製ストリームの再生時刻の遅延量を規定する第2遅延情報を保持し、かつ、前記第2遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる、データ処理装置。
A data stream is received and output as an original stream, and the received data stream is duplicated and output as a duplicate stream. At the time of output, identification information for identifying each of the original stream and the duplicate stream is given. The data stream includes: first data relating to compression-encoded video content; first time information defining a reproduction time of the first data; second data relating to content different from the video content; A receiving unit having second time information defining a reproduction time of the second data;
The first data, the first time information, the second data, and the second time information are extracted from the original stream, and the first data, the first time information, and the second data are extracted from the duplicate stream. And a separation unit for extracting the second time information,
A first decoding unit that decodes the first data and outputs the first stream based on the first time information with respect to the original stream;
A second decoding unit that outputs the second data based on second time information with respect to the original stream;
A third decoding unit that decodes the first data and outputs the decoded data based on the first time information;
A fourth decoding unit that outputs the second data based on the second time information with respect to the duplicate stream;
A data processing apparatus having a first delay setting unit and a second delay setting unit,
In the case where the first time information and the second time information define a time for reproducing the first data and the second data in synchronization,
The first delay setting unit holds first delay information that defines a delay amount of the reproduction time of the original stream, corrects the second time information based on the first delay information, and Delay the data playback time,
The second delay setting unit holds second delay information that defines a delay amount of the reproduction time of the duplicate stream, corrects the second time information based on the second delay information, and A data processing apparatus that delays the reproduction time of data.
前記オリジナルストリームの第2データ、および、前記複製ストリームの第2データの各々を格納する少なくとも1つのデータバッファをさらに備え、
前記オリジナルストリームの前記第2データは圧縮符号化されており、
前記少なくとも1つのデータバッファは、修正された第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された第2データを取り出し、前記第2デコード部および前記第4デコード部に出力する、請求項1に記載のデータ処理装置。
At least one data buffer storing each of the second data of the original stream and the second data of the duplicate stream;
The second data of the original stream is compression encoded;
The at least one data buffer extracts the compression-encoded second data before the reproduction time defined by the corrected second time information, and outputs the second data to the second decoding unit and the fourth decoding unit The data processing apparatus according to claim 1.
前記少なくとも1つのデータバッファは、前記オリジナルストリームの第2データを格納する第1バッファと、前記複製ストリームの第2データを格納する第2バッファとから構成され、
前記第1バッファは、前記第1遅延設定部によって修正された第2時刻情報によって規定される再生時刻の前に、前記オリジナルストリームの第2データを取り出して前記第2デコード部に出力し、
前記第2バッファは、前記第2遅延設定部によって修正された第2時刻情報によって規定される再生時刻の前に、前記複製ストリームの第2データを取り出して前記第4デコード部に出力する、請求項2に記載のデータ処理装置。
The at least one data buffer includes a first buffer that stores second data of the original stream, and a second buffer that stores second data of the duplicate stream,
The first buffer takes out the second data of the original stream and outputs it to the second decoding unit before the reproduction time defined by the second time information corrected by the first delay setting unit,
The second buffer extracts the second data of the duplicate stream and outputs the second data to the fourth decoding unit before the reproduction time defined by the second time information corrected by the second delay setting unit. Item 3. A data processing apparatus according to Item 2.
データストリームを受信してオリジナルストリームとして出力する受信部であって、前記データストリームは、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有する、受信部と、
前記オリジナルストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、
前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を複製する複製部と、
前記オリジナルストリームに関し、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、
前記オリジナルストリームに関し、第2時刻情報に基づいて前記第2データを出力する第2デコード部と、
複製された第1データをデコードして、複製された第1時刻情報に基づいて出力する第3デコード部と、
複製された第2時刻情報に基づいて、複製された第2データを出力する第4デコード部と、
第1遅延設定部および第2遅延設定部と
を有するデータ処理装置であって、
前記オリジナルストリームから抽出された前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、
前記第1遅延設定部は、前記オリジナルストリームの再生時刻の遅延量を規定する第1遅延情報を保持し、かつ、前記第1遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させ、
前記第2遅延設定部は、複製された第1データの再生時刻の遅延量を規定する第2遅延情報を保持し、かつ、前記第2遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる、データ処理装置。
A receiving unit that receives a data stream and outputs the data stream as an original stream, wherein the data stream includes: first data relating to compression-encoded video content; first time information that defines a reproduction time of the first data; A receiving unit having second data relating to content different from video content and second time information defining a reproduction time of the second data;
A separation unit that extracts the first data, the first time information, the second data, and the second time information from the original stream;
A replication unit that replicates the first data, the first time information, the second data, and the second time information;
A first decoding unit that decodes the first data and outputs the first stream based on the first time information with respect to the original stream;
A second decoding unit that outputs the second data based on second time information with respect to the original stream;
A third decoding unit that decodes the replicated first data and outputs the decoded data based on the replicated first time information;
A fourth decoding unit for outputting the duplicated second data based on the duplicated second time information;
A data processing apparatus having a first delay setting unit and a second delay setting unit,
In the case where the first time information and the second time information extracted from the original stream define a time for reproducing the first data and the second data in synchronization,
The first delay setting unit holds first delay information that defines a delay amount of the reproduction time of the original stream, corrects the second time information based on the first delay information, and Delay the data playback time,
The second delay setting unit holds second delay information that defines a delay amount of the reproduction time of the replicated first data, and corrects the second time information based on the second delay information; A data processing device for delaying the reproduction time of the second data.
前記オリジナルストリームの前記第2データは圧縮符号化されており、
前記オリジナルストリームの第2データ、および、複製された第2データの各々を格納する少なくとも1つのデータバッファをさらに備え、前記少なくとも1つのデータバッファは、修正された第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された第2データを取り出し、前記第2デコード部および前記第4デコード部に出力する、請求項4に記載のデータ処理装置。
The second data of the original stream is compression encoded;
The apparatus further comprises at least one data buffer storing each of the second data of the original stream and the duplicated second data, wherein the at least one data buffer is a reproduction defined by the modified second time information. The data processing apparatus according to claim 4, wherein the second data that has been compression-encoded before time is extracted and output to the second decoding unit and the fourth decoding unit.
前記少なくとも1つのデータバッファは、前記オリジナルストリームの第2データを格納する第1バッファと、複製された第2データを格納する第2バッファとから構成される、請求項5に記載のデータ処理装置。




6. The data processing apparatus according to claim 5, wherein the at least one data buffer includes a first buffer that stores second data of the original stream, and a second buffer that stores duplicated second data. .




JP2004337508A 2004-11-22 2004-11-22 Data processing device Pending JP2006148679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004337508A JP2006148679A (en) 2004-11-22 2004-11-22 Data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004337508A JP2006148679A (en) 2004-11-22 2004-11-22 Data processing device

Publications (1)

Publication Number Publication Date
JP2006148679A true JP2006148679A (en) 2006-06-08

Family

ID=36627830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004337508A Pending JP2006148679A (en) 2004-11-22 2004-11-22 Data processing device

Country Status (1)

Country Link
JP (1) JP2006148679A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080075428A1 (en) * 2006-09-22 2008-03-27 Seiko Epson Corporation Synchronized reproduction system and synchronized reproduction method
WO2009078176A1 (en) * 2007-12-19 2009-06-25 Panasonic Corporation Video/audio output system
JP2010062947A (en) * 2008-09-04 2010-03-18 Sony Corp Audio-visual system and decoder
JP2010258568A (en) * 2009-04-22 2010-11-11 Canon Inc Video and audio editing device, control method, and program
JP2011015108A (en) * 2009-07-01 2011-01-20 Funai Electric Co Ltd Playback device
WO2011158474A1 (en) * 2010-06-16 2011-12-22 パナソニック株式会社 Digital-data recording-and-reproducing device
JP2014519769A (en) * 2011-06-10 2014-08-14 コニンクリジケ ケーピーエヌ エヌブィー Method and system for providing a synchronized user experience from multiple modules
WO2019031308A1 (en) * 2017-08-09 2019-02-14 シャープ株式会社 Display device, television receiver, video processing method, control program, and recording medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080075428A1 (en) * 2006-09-22 2008-03-27 Seiko Epson Corporation Synchronized reproduction system and synchronized reproduction method
US8509605B2 (en) 2006-09-22 2013-08-13 Seiko Epson Corporation Synchronized reproduction system and synchronized reproduction method
US8433085B2 (en) 2007-12-19 2013-04-30 Panasonic Corporation Video and audio output system
WO2009078176A1 (en) * 2007-12-19 2009-06-25 Panasonic Corporation Video/audio output system
US20100034403A1 (en) * 2007-12-19 2010-02-11 Ko Mizuno Video and audio output system
JP5366827B2 (en) * 2007-12-19 2013-12-11 パナソニック株式会社 Audiovisual output system
JP2010062947A (en) * 2008-09-04 2010-03-18 Sony Corp Audio-visual system and decoder
US8897374B2 (en) 2008-09-04 2014-11-25 Sony Corporation Audio visual system and decoder therefor
JP2010258568A (en) * 2009-04-22 2010-11-11 Canon Inc Video and audio editing device, control method, and program
JP2011015108A (en) * 2009-07-01 2011-01-20 Funai Electric Co Ltd Playback device
CN102934168A (en) * 2010-06-16 2013-02-13 松下电器产业株式会社 Digital-data recording-and-reproducing device
WO2011158474A1 (en) * 2010-06-16 2011-12-22 パナソニック株式会社 Digital-data recording-and-reproducing device
JP5700853B2 (en) * 2010-06-16 2015-04-15 パナソニック株式会社 Digital data recording / reproducing device
JP2014519769A (en) * 2011-06-10 2014-08-14 コニンクリジケ ケーピーエヌ エヌブィー Method and system for providing a synchronized user experience from multiple modules
WO2019031308A1 (en) * 2017-08-09 2019-02-14 シャープ株式会社 Display device, television receiver, video processing method, control program, and recording medium

Similar Documents

Publication Publication Date Title
JP4536653B2 (en) Data processing apparatus and method
US7266288B2 (en) Video/audio playback apparatus and video/audio playback method
US7305173B2 (en) Decoding device and decoding method
JP4257478B2 (en) Recording / playback device
JP2006148679A (en) Data processing device
US8224148B2 (en) Decoding apparatus and decoding method
EP1339233B1 (en) Audio/video data recording/reproducing device and method, and audio/video data reproducing device and method
US20050069289A1 (en) Transport stream recording/editing device and recording/editing method
JP2004040579A (en) Digital broadcast reception device and synchronous reproduction method for digital broadcast
JP4285099B2 (en) Data reproduction method and data reproduction apparatus
JP2004280994A (en) Data creation method and data recorder
CN101742342A (en) Recording and reproducing device
US20060132504A1 (en) Content combining apparatus and method
JP2009111955A (en) Stream reproducing device
JP2007174256A (en) Video image and audio sound recording device
JP2002374495A (en) Digital data recording and reproducing device
WO2018211613A1 (en) Encoded video reproduction device and encoded video reproduction method
JP4941128B2 (en) Video processing device
JP4288442B2 (en) Recording / reproducing apparatus and video processing method
JP2006217229A (en) Digital broadcast receiving device
JP2005203834A (en) Digital broadcast receiving and recording apparatus
JP2001216731A (en) Digital broadcasting recording and reproducing device and its controlling method
JP4893801B2 (en) Recording apparatus and recording method
JP2008125015A (en) Video/audio recording and reproducing device
JP2019186732A (en) Recorder and playback method of recorded information