JP2000184302A - Information processing unit, its method and providing medium - Google Patents

Information processing unit, its method and providing medium

Info

Publication number
JP2000184302A
JP2000184302A JP35297698A JP35297698A JP2000184302A JP 2000184302 A JP2000184302 A JP 2000184302A JP 35297698 A JP35297698 A JP 35297698A JP 35297698 A JP35297698 A JP 35297698A JP 2000184302 A JP2000184302 A JP 2000184302A
Authority
JP
Japan
Prior art keywords
data
timing
audio
decoding
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP35297698A
Other languages
Japanese (ja)
Inventor
Yuriko Kishidaka
百合子 岸高
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP35297698A priority Critical patent/JP2000184302A/en
Publication of JP2000184302A publication Critical patent/JP2000184302A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To allow an information processing unit to use only a memory with a small capacity. SOLUTION: Transport stream data in compliance with the MPEG are fed to an input buffer 32 of a memory 12, which stores the data. Then a CPU 11 detects a timing of a vertical synchronizing signal Vsync of video data (1 frame) outputted from an NTSC output encoder 17 by using a timing detector 15. The CPU 11 conducts demultiplex processing in the timing to extract MPEG video data and AC-3 audio data from the MPEG transport stream data and stores the extracted video data to a video code buffer 33 and stores the extracted audio data to an audio code buffer 34.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに提供媒体に関し、特に、入力されるMPEG
(Moving Picture Experts Group)2のTS(Transport Str
eam)データから、NTSC(National Television System Co
mmittee)ビデオデータとオーディオデータを抽出し、復
号する処理を、NTSCビデオデータの1フレームの出力タ
イミングに同期させて、ソフトウェアで実行することが
できるようにした情報処理装置および方法、並びに提供
媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, and a providing medium.
(Moving Picture Experts Group) 2 TS (Transport Str
eam) data from NTSC (National Television System Co.
The present invention relates to an information processing apparatus and method for extracting and decoding video data and audio data, which can be executed by software in synchronization with the output timing of one frame of NTSC video data, and a providing medium. .

【0002】[0002]

【従来の技術】従来、MPEG2のトランスポート・ストリ
ーム・データから、ビデオデータとオーディオデータを
抽出し、復号する処理を、ビデオデータの1フレームの
出力タイミングに同期させて実行する場合、複数の信号
処理のためのデバイスが必要とされていた。
2. Description of the Related Art Conventionally, when a process of extracting and decoding video data and audio data from MPEG-2 transport stream data and executing the process in synchronization with the output timing of one frame of video data, a plurality of signals are required. A device for processing was needed.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の手法では、複数のデバイスを用いて、信号を処理す
るため、コストが高くなるという課題があった。
However, in the above-mentioned conventional method, there is a problem that the cost is increased because signals are processed using a plurality of devices.

【0004】また、上記従来の手法では、信号処理をハ
ードウェア(デバイス)で実現しているため、仕様が変
更された場合、複数のデバイスを新たに設計し直さなけ
ればならないという課題があった。
Further, in the above-mentioned conventional method, since signal processing is realized by hardware (device), there is a problem that when the specification is changed, a plurality of devices must be newly designed. .

【0005】本発明は、このような状況に鑑みてなされ
たものであり、仕様等が変更された場合においても、コ
ストをかけないで対応できるプログラマブルな情報処理
装置を提供することを目的とする。
[0005] The present invention has been made in view of such circumstances, and has as its object to provide a programmable information processing apparatus that can cope with changes in specifications and the like without increasing costs. .

【0006】[0006]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、ストリームデータに含まれるビデオデータお
よびオーディオデータを復号する情報処理装置におい
て、ビデオデータを出力するタイミングを検出する検出
手段と、検出手段により検出されたタイミングに同期さ
せて、ストリームデータからビデオデータおよびオーデ
ィオデータを抽出する抽出手段と、抽出手段により抽出
されたビデオデータをタイミングに同期させて復号する
ビデオ復号手段と、抽出手段により抽出されたオーディ
オデータをタイミングに同期させて復号するオーディオ
復号手段とを備えることを特徴とする。
According to a first aspect of the present invention, there is provided an information processing apparatus for decoding video data and audio data included in stream data. Extracting means for extracting video data and audio data from the stream data in synchronization with the timing detected by the detecting means; video decoding means for decoding the video data extracted by the extracting means in synchronization with the timing; Audio decoding means for decoding the audio data extracted by the means in synchronization with the timing.

【0007】請求項2に記載の情報処理方法は、ストリ
ームデータに含まれるビデオデータおよびオーディオデ
ータを復号する情報処理装置の情報処理方法において、
ビデオデータを出力するタイミングを検出する検出ステ
ップと、検出ステップで検出されたタイミングに同期さ
せて、ストリームデータからビデオデータおよびオーデ
ィオデータを抽出する抽出ステップと、抽出ステップで
抽出されたビデオデータをタイミングに同期させて復号
するビデオ復号ステップと、抽出ステップで抽出された
オーディオデータをタイミングに同期させて復号するオ
ーディオ復号ステップとを含むことを特徴とする。
According to a second aspect of the present invention, in the information processing method for an information processing apparatus for decoding video data and audio data included in stream data,
A detection step of detecting a timing of outputting the video data; an extraction step of extracting video data and audio data from the stream data in synchronization with the timing detected in the detection step; and a timing of the video data extracted in the extraction step. And an audio decoding step of decoding the audio data extracted in the extraction step in synchronization with the timing.

【0008】請求項3に記載の提供媒体は、ストリーム
データに含まれるビデオデータおよびオーディオデータ
を復号する情報処理装置に、ビデオデータを出力するタ
イミングを検出する検出ステップと、検出ステップで検
出されたタイミングに同期させて、ストリームデータか
らビデオデータおよびオーディオデータを抽出する抽出
ステップと、抽出ステップで抽出されたビデオデータを
タイミングに同期させて復号するビデオ復号ステップ
と、抽出ステップで抽出されたオーディオデータをタイ
ミングに同期させて復号するオーディオ復号ステップと
を含む処理を実行させるコンピュータが読み取り可能な
プログラムを提供することを特徴とする。
According to a third aspect of the present invention, there is provided a providing medium, comprising: a detecting step for detecting a timing of outputting video data to an information processing apparatus for decoding video data and audio data included in stream data; An extraction step of extracting video data and audio data from the stream data in synchronization with the timing; a video decoding step of decoding the video data extracted in the extraction step in synchronization with the timing; and the audio data extracted in the extraction step And a computer-readable program for executing a process including an audio decoding step of decoding in synchronization with the timing.

【0009】請求項1に記載の情報処理装置、請求項2
に記載の情報処理方法、および請求項3に記載の提供媒
体においては、ビデオデータを出力するタイミングが検
出され、検出されたタイミングに同期させて、ストリー
ムデータからビデオデータおよびオーディオデータが抽
出され、抽出されたビデオデータがタイミングに同期さ
せて復号され、抽出されたオーディオデータがタイミン
グに同期させて復号される。
[0009] The information processing apparatus according to claim 1, claim 2
In the information processing method according to the aspect of the invention and the providing medium according to the aspect, the timing of outputting the video data is detected, and the video data and the audio data are extracted from the stream data in synchronization with the detected timing. The extracted video data is decoded in synchronization with the timing, and the extracted audio data is decoded in synchronization with the timing.

【0010】[0010]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と、以下
の実施の形態との対応関係を明らかにするために、各手
段の後の括弧内に、対応する実施の形態(但し一例)を
付加して本発明の特徴を記述すると、次のようになる。
但し、勿論この記載は、各手段を記載したものに限定す
ることを意味するものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, When the features of the present invention are described by adding the corresponding embodiments (however, examples) in parentheses after the means, the following is obtained.
However, of course, this description does not mean that each means is limited to those described.

【0011】即ち、請求項1に記載の情報処理装置は、
ストリームデータに含まれるビデオデータおよびオーデ
ィオデータを復号する情報処理装置において、ビデオデ
ータを出力するタイミングを検出する検出手段(例え
ば、図2のステップS11)と、検出手段により検出さ
れたタイミングに同期させて、ストリームデータからビ
デオデータおよびオーディオデータを抽出する抽出手段
(例えば、図2のステップS12)と、抽出手段により
抽出されたビデオデータをタイミングに同期させて復号
するビデオ復号手段(例えば、図2のステップS16)
と、抽出手段により抽出されたオーディオデータをタイ
ミングに同期させて復号するオーディオ復号手段(例え
ば、図2のステップS13)とを備えることを特徴とす
る。
That is, the information processing apparatus according to claim 1 is
In an information processing apparatus that decodes video data and audio data included in stream data, a detecting unit (for example, step S11 in FIG. 2) for detecting a timing for outputting video data is synchronized with a timing detected by the detecting unit. Then, extraction means (for example, step S12 in FIG. 2) for extracting video data and audio data from the stream data, and video decoding means for decoding the video data extracted by the extraction means in synchronization with timing (for example, FIG. Step S16)
And audio decoding means (for example, step S13 in FIG. 2) for decoding the audio data extracted by the extraction means in synchronization with the timing.

【0012】図1は、本発明を適用したデジタル信号処
理装置1の一実施の形態の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of an embodiment of a digital signal processing device 1 to which the present invention is applied.

【0013】CPU11は、後述するメモリ12のプログ
ラム領域31から、内部バス22を介して、プログラム
を読み出し、実行する。
The CPU 11 reads a program from a program area 31 of the memory 12 described later via the internal bus 22, and executes the program.

【0014】メモリ12は、プログラム領域31、イン
プットバッファ32、ビデオコードバッファ(VCB)3
3、オーディオコードバッファ(ACB)34、ビデオアウ
トプットバッファ35、およびオーディオアウトプット
バッファ36から構成されている。
The memory 12 includes a program area 31, an input buffer 32, and a video code buffer (VCB) 3.
3. It comprises an audio code buffer (ACB) 34, a video output buffer 35, and an audio output buffer 36.

【0015】プログラム領域31には、入力されるデジ
タル信号(MPEG2のトランスポート・ストリーム・デー
タ)から、MPEGビデオデータとAC-3オーディオデータを
抽出(デマルチプレクス処理)し、抽出したビデオデー
タとオーディオデータを復号(デコード処理)するプロ
グラムが記憶されている。尚、デマルチプレクス処理と
デコード処理は、ビデオデータの1フレームの出力タイ
ミングに同期させて行われる。
In the program area 31, MPEG video data and AC-3 audio data are extracted (demultiplexed) from an input digital signal (MPEG2 transport stream data), and the extracted video data and A program for decoding (decoding) audio data is stored. The demultiplexing process and the decoding process are performed in synchronization with the output timing of one frame of video data.

【0016】入力部13には、MPEG2のトランスポート
・ストリーム・データが入力される。MPEG2のトランス
ポート・ストリーム・データは、MPEGビデオデータとAC
-3オーディオデータがパケット化されており、それぞれ
のパケットにはPID(Packet Identifier)が付加されてい
る。入力されたMPEG2のトランスポート・ストリーム・
データは、DMA(Direct Memory Access)14に供給され
る。
The input unit 13 receives MPEG2 transport stream data. MPEG-2 transport stream data consists of MPEG video data and AC
-3 audio data is packetized, and a PID (Packet Identifier) is added to each packet. MPEG2 transport stream input
The data is supplied to a DMA (Direct Memory Access) 14.

【0017】DMA14は、供給されたデータを、内部バ
ス22を介して、メモリ12内のインプットバッファ3
2に一時的に記憶させる。CPU11は、インプットバッ
ファ32に記憶されているMPEG2のトランスポート・ス
トリーム・データを読み出し、PIDに基づいて、MPEGビ
デオデータとAC-3オーディオデータを抽出(デマルチプ
レクス処理)する。CPU11は、抽出したMPEGビデオデ
ータをビデオコードバッファ(VCB)33に記憶させると
ともに、AC-3オーディオデータをオーディオコードバッ
ファ(ACB)34に記憶させる。
The DMA 14 transfers the supplied data to the input buffer 3 in the memory 12 via the internal bus 22.
2 is temporarily stored. The CPU 11 reads the MPEG-2 transport stream data stored in the input buffer 32 and extracts MPEG video data and AC-3 audio data (demultiplex processing) based on the PID. The CPU 11 stores the extracted MPEG video data in the video code buffer (VCB) 33 and stores the AC-3 audio data in the audio code buffer (ACB) 34.

【0018】CPU11は、ビデオコードバッファ33に
記憶されているMPEGビデオデータを1フレーム単位で読
み出し、復号(ビデオデコード処理)し、復号した後の
ビデオデータをビデオアウトプットバッファ35に記憶
させる。また、CPU11は、オーディオコードバッファ
34に記憶されているAC-3オーディオデータを1フレー
ム単位で読み出し、復号(オーディオデコード処理)
し、復号した後のオーディオデータをオーディオアウト
プットバッファ36に記憶させる。
The CPU 11 reads the MPEG video data stored in the video code buffer 33 on a frame-by-frame basis, decodes (video decode processing), and stores the decoded video data in the video output buffer 35. Further, the CPU 11 reads out the AC-3 audio data stored in the audio code buffer 34 in units of one frame, and decodes the data (audio decoding processing).
The decoded audio data is stored in the audio output buffer 36.

【0019】DMA16は、ビデオアウトプットバッファ
35に記憶されている復号した後のビデオデータ(1フ
レーム単位)を、NTSCアウトプットエンコーダ17に転
送する。このとき、ビデオデータが転送されるタイミン
グは、NTSCアウトプットエンコーダ17が出力する1番
目のフィールドのVsyncのタイミングに同期させる。
The DMA 16 transfers the decoded video data (one frame unit) stored in the video output buffer 35 to the NTSC output encoder 17. At this time, the timing at which the video data is transferred is synchronized with the Vsync timing of the first field output from the NTSC output encoder 17.

【0020】タイミングディテクタ15は、DMA16が
ビデオデータを転送するタイミングを検出し、検出した
タイミングをCPU11に供給する。尚、DMA16がビデオ
データを転送するタイミングは、NTSCアウトプットエン
コーダ17が出力する1番目のフィールドのVsyncのタ
イミングに同期しているため、CPU11は、NTSCアウト
プットエンコーダ17が出力する1番目のフィールドの
syncのタイミングを検知することができる。
The timing detector 15 detects the timing at which the DMA 16 transfers video data, and supplies the detected timing to the CPU 11. Since the timing at which the DMA 16 transfers video data is synchronized with the timing of V sync of the first field output by the NTSC output encoder 17, the CPU 11 transmits the first data output by the NTSC output encoder 17. The timing of the field V sync can be detected.

【0021】NTSCアウトプットエンコーダ17は、供給
されたビデオデータをTVモニタ18に出力(1フレーム
周期33.33mS)し、映像として表示させる。
The NTSC output encoder 17 outputs the supplied video data to the TV monitor 18 (one frame period 33.33 mS) and displays it as a video.

【0022】DMA19は、オーディオアウトプットバッ
ファ36に記憶されている復号した後のオーディオデー
タ(1フレーム単位)を、オーディオアウトプットエン
コーダ20に転送する。このとき、オーディオデータが
転送されるタイミングは、オーディオデータのサンプリ
ングレートに同期させる。
The DMA 19 transfers the decoded audio data (one frame unit) stored in the audio output buffer 36 to the audio output encoder 20. At this time, the timing at which the audio data is transferred is synchronized with the sampling rate of the audio data.

【0023】オーディオアウトプットエンコーダ20
は、供給されたオーディオデータをD/A変換し、スピ
ーカ21に出力させる。
Audio output encoder 20
Performs D / A conversion of the supplied audio data and causes the speaker 21 to output the data.

【0024】次に、CPU11が、MPEG2のトランスポー
ト・ストリーム・データからMPEGビデオデータとAC-3オ
ーディオデータを抽出し、復号する際の処理動作につい
て、図2のフローチャートおよび図3のタイミングチャ
ートを参照して説明する。
Next, the processing operation when the CPU 11 extracts and decodes MPEG video data and AC-3 audio data from the MPEG-2 transport stream data will be described with reference to the flowchart of FIG. 2 and the timing chart of FIG. It will be described with reference to FIG.

【0025】図3において、(1)はNTSCアウトプット
エンコーダ17が出力するビデオデータ(1フレーム)
のVsyncのタイミングを示しており、(2)はCPU11
がタイミングディテクタ15からVsyncのタイミングを
検出する処理のタイミングを示している。(3)はCPU
11がデマルチプレクス処理を行うタイミングを示して
おり、(4)はCPU11がオーディオデコード処理を行
うタイミングを示しており、(5)はCPU11がビデオ
デコード処理を行うタイミングを示している。
In FIG. 3, (1) shows video data (one frame) output from the NTSC output encoder 17
Shows the timing of the V sync, (2) the CPU11
Shows the timing of the process of detecting the timing of V sync from the timing detector 15. (3) is CPU
Numeral 11 indicates the timing at which the demultiplexing process is performed, (4) indicates the timing at which the CPU 11 performs the audio decoding process, and (5) indicates the timing at which the CPU 11 performs the video decoding process.

【0026】先ず、メモリ12のインプットバッファ3
2に、MPEG2のトランスポート・ストリーム・データが
供給され、そのデータが記憶されると、ステップS11
において、CPU11は、タイミングディテクタ15か
ら、NTSCアウトプットエンコーダ17が出力するビデオ
データ(1フレーム)のVsyncのタイミングを検出する
処理を実行する(例えば、図3の時刻t1乃至t2)。
First, the input buffer 3 of the memory 12
2 is supplied with the MPEG-2 transport stream data, and when the data is stored, step S11 is performed.
In, CPU 11, from the timing detector 15 executes a process of detecting a timing of V sync of the video data (one frame) output from the NTSC output encoder 17 (e.g., time t 1 to t 2 in FIG. 3).

【0027】次に、ステップS12において、CPU11
は、デマルチプレクス処理を行う(例えば、図3の時刻
2乃至t3)。この処理により、MPEG2のトランスポー
ト・ストリーム・データから、MPEGビデオデータとAC-3
オーディオデータが抽出され、抽出されたビデオデータ
がビデオコードバッファ33に記憶され、抽出されたオ
ーディオデータがオーディオコードバッファ34に記憶
される。
Next, in step S12, the CPU 11
Performs demultiplexing (e.g., time t 2 to t 3 in FIG. 3). By this processing, the MPEG-2 transport stream data is converted into MPEG video data and AC-3 data.
The audio data is extracted, the extracted video data is stored in the video code buffer 33, and the extracted audio data is stored in the audio code buffer.

【0028】ステップS13において、CPU11は、オ
ーディオデコード処理を行う(例えば、図3の時刻t3
乃至t4)。即ち、CPU11は、メモリ12のオーディオ
コードバッファ34に記憶されているオーディオデータ
を、1フレーム分だけ読み出してから復号し、復号した
後のオーディオデータを、オーディオアウトプットバッ
ファ36に記憶させる。
In step S13, the CPU 11 performs an audio decoding process (for example, at time t 3 in FIG. 3).
To t 4 ). That is, the CPU 11 reads the audio data stored in the audio code buffer 34 of the memory 12 for one frame and then decodes the data, and stores the decoded audio data in the audio output buffer 36.

【0029】ステップS14において、CPU11は、さ
らに1フレーム分だけオーディオデコード処理を行う必
要があるか否かを判定する。この判定処理は、オーディ
オデータの1フレームの周期は32mSで、ビデオデー
タの1フレームの周期は33.33mSであるため、ビ
デオデータの出力タイミングに同期させてオーディオデ
ータを復号すると、オーディオデコード処理とオーディ
オデータの出力タイミングにずれが生じ、そのずれを補
正する(約25回に1度)必要があるために行われる。
In step S14, the CPU 11 determines whether it is necessary to perform the audio decoding process for one frame. In this determination processing, since the cycle of one frame of the audio data is 32 mS and the cycle of one frame of the video data is 33.33 mS, when the audio data is decoded in synchronization with the output timing of the video data, the audio decoding processing This is performed because a shift occurs in the output timing of audio data and it is necessary to correct the shift (about once every 25 times).

【0030】ステップS14において、さらに1フレー
ム分だけオーディオデコード処理を行う必要があると判
定された場合、ステップS15に進み、CPU11は、さ
らに1フレーム分だけオーディオデコード処理を行う
(例えば、図3の時刻t8乃至t9)。即ち、CPU11
は、メモリ12のオーディオコードバッファ34に記憶
されているオーディオデータを、さらに1フレーム分だ
け読み出してから復号し、復号した後のオーディオデー
タを、メモリ12のオーディオアウトプットバッファ3
6に記憶させる。
If it is determined in step S14 that the audio decoding process needs to be further performed for one frame, the process proceeds to step S15, and the CPU 11 further performs the audio decoding process for one frame (see, for example, FIG. 3). time t 8 to t 9). That is, the CPU 11
The audio data stored in the audio code buffer 34 of the memory 12 is read out for one frame and then decoded, and the decoded audio data is stored in the audio output buffer 3 of the memory 12.
6 is stored.

【0031】ステップS14において、さらに1フレー
ム分だけオーディオデコード処理を行う必要がないと判
定された場合、ステップS15の処理はスキップされ、
ステップS16に進む。
If it is determined in step S14 that it is not necessary to perform the audio decoding process for one frame, the process of step S15 is skipped,
Proceed to step S16.

【0032】ステップS16において、CPU11は、ビ
デオデコード処理を行う(例えば、図3の時刻t4乃至
5)。即ち、CPU11は、メモリ12のビデオコードバ
ッファ33に記憶されているビデオデータを、1フレー
ム分だけ読み出してから復号し、復号した後のビデオデ
ータを、ビデオアウトプットバッファ35に記憶させ
る。ステップS16の処理が終了されると、ステップS
11に戻り、それ以降の処理動作が繰り返し、実行され
る。
[0032] In step S16, CPU 11 performs the video decoding process (e.g., time t 4 to t 5 in FIG. 3). That is, the CPU 11 reads out the video data stored in the video code buffer 33 of the memory 12 for one frame and then decodes it, and stores the decoded video data in the video output buffer 35. When the processing in step S16 ends, step S
Returning to step 11, the subsequent processing operations are repeated and executed.

【0033】図4のタイミングチャートは、NTSCアウト
プットエンコーダ17が出力する1番目のフィールドの
syncの1周期内で、デマルチプレクス処理を4分割し
て行った場合を示している。デマルチプレクス処理を図
3の場合の4分の1周期で行うことにより、インプット
バッファ32の容量を4分の1にすることができる。
The timing chart of FIG. 4 shows a case where the demultiplexing process is divided into four within one cycle of Vsync of the first field output by the NTSC output encoder 17. The capacity of the input buffer 32 can be reduced to a quarter by performing the demultiplexing process in a quarter of the case of FIG.

【0034】尚、本明細書中において、上記処理を実行
するコンピュータプログラムをユーザに提供する提供媒
体には、磁気ディスク、CD-ROMなどの情報記録媒体の
他、インターネット、ディジタル衛星などのネットワー
クによる伝送媒体も含まれる。
In this specification, a medium for providing a user with a computer program for executing the above-mentioned processing includes information recording media such as a magnetic disk and a CD-ROM as well as networks such as the Internet and digital satellites. Transmission media is also included.

【0035】[0035]

【発明の効果】以上の如く、請求項1に記載の情報処理
装置、請求項2に記載の情報処理方法および請求項3に
記載の提供媒体によれば、ビデオデータの出力タイミン
グに同期させて、ストリームデータからビデオデータと
オーディオデータを抽出し、復号するようにしたので、
メモリの容量を小さくすることが可能となる。
As described above, according to the information processing apparatus according to the first aspect, the information processing method according to the second aspect, and the providing medium according to the third aspect, the information processing apparatus is synchronized with the output timing of the video data. Since video data and audio data are extracted from the stream data and decoded,
It is possible to reduce the capacity of the memory.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したデジタル信号処理装置1の一
実施の形態の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment of a digital signal processing device 1 to which the present invention is applied.

【図2】図1のCPU11がMPEG2のトランスポート・ス
トリーム・データからMPEGビデオデータとAC-3オーディ
オデータを抽出し、復号する際の処理動作を説明するた
めのフローチャートである。
FIG. 2 is a flowchart for explaining a processing operation when the CPU 11 of FIG. 1 extracts and decodes MPEG video data and AC-3 audio data from MPEG-2 transport stream data.

【図3】図1のCPU11がMPEG2のトランスポート・ス
トリーム・データからMPEGビデオデータとAC-3オーディ
オデータを抽出し、復号する際の処理動作を説明するた
めのタイミングチャートである。
FIG. 3 is a timing chart for explaining a processing operation when the CPU 11 of FIG. 1 extracts MPEG video data and AC-3 audio data from MPEG-2 transport stream data and decodes them.

【図4】図1のCPU11がMPEG2のトランスポート・ス
トリーム・データからMPEGビデオデータとAC-3オーディ
オデータを抽出し、復号する際の他の処理動作を説明す
るためのタイミングチャートである。
FIG. 4 is a timing chart for explaining another processing operation when the CPU 11 of FIG. 1 extracts MPEG video data and AC-3 audio data from MPEG-2 transport stream data and decodes them.

【符号の説明】[Explanation of symbols]

1 デジタル信号処理装置, 11 CPU, 12 メ
モリ, 13 入力部, 14,16,19 DMA,
15 タイミングディテクタ, 17 NTSCアウトプッ
トエンコーダ, 18 TVモニタ, 20 オーディオ
アウトプットエンコーダ, 21 スピーカ, 22
内部バス, 31 プログラム領域,32 インプット
バッファ, 33 ビデオコードバッファ, 34 オ
ーディオコードバッファ, 35 ビデオアウトプット
バッファ, 36 オーディオアウトプットバッファ
1 digital signal processing device, 11 CPU, 12 memory, 13 input unit, 14, 16, 19 DMA,
15 timing detector, 17 NTSC output encoder, 18 TV monitor, 20 audio output encoder, 21 speaker, 22
Internal bus, 31 program area, 32 input buffer, 33 video code buffer, 34 audio code buffer, 35 video output buffer, 36 audio output buffer

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 ストリームデータに含まれるビデオデー
タおよびオーディオデータを復号する情報処理装置にお
いて、 前記ビデオデータを出力するタイミングを検出する検出
手段と、 前記検出手段により検出されたタイミングに同期させ
て、前記ストリームデータから前記ビデオデータおよび
前記オーディオデータを抽出する抽出手段と、 前記抽出手段により抽出されたビデオデータを前記タイ
ミングに同期させて復号するビデオ復号手段と、 前記抽出手段により抽出されたオーディオデータを前記
タイミングに同期させて復号するオーディオ復号手段と
を備えることを特徴とする情報処理装置。
1. An information processing apparatus for decoding video data and audio data included in stream data, comprising: detecting means for detecting the timing of outputting the video data; and synchronizing with the timing detected by the detecting means. Extraction means for extracting the video data and the audio data from the stream data; video decoding means for decoding the video data extracted by the extraction means in synchronization with the timing; and audio data extracted by the extraction means And an audio decoding means for decoding the data in synchronization with the timing.
【請求項2】 ストリームデータに含まれるビデオデー
タおよびオーディオデータを復号する情報処理装置の情
報処理方法において、 前記ビデオデータを出力するタイミングを検出する検出
ステップと、 前記検出ステップで検出されたタイミングに同期させ
て、前記ストリームデータから前記ビデオデータおよび
前記オーディオデータを抽出する抽出ステップと、 前記抽出ステップで抽出されたビデオデータを前記タイ
ミングに同期させて復号するビデオ復号ステップと、 前記抽出ステップで抽出されたオーディオデータを前記
タイミングに同期させて復号するオーディオ復号ステッ
プとを含むことを特徴とする情報処理方法。
2. An information processing method for an information processing apparatus for decoding video data and audio data included in stream data, comprising: a detecting step of detecting a timing of outputting the video data; and a detecting step of detecting a timing of outputting the video data. An extracting step of synchronizing and extracting the video data and the audio data from the stream data; a video decoding step of synchronizing and decoding the video data extracted in the extracting step with the timing; and extracting in the extracting step An audio decoding step of decoding the obtained audio data in synchronization with the timing.
【請求項3】 ストリームデータに含まれるビデオデー
タおよびオーディオデータを復号する情報処理装置に、 前記ビデオデータを出力するタイミングを検出する検出
ステップと、 前記検出ステップで検出されたタイミングに同期させ
て、前記ストリームデータから前記ビデオデータおよび
前記オーディオデータを抽出する抽出ステップと、 前記抽出ステップで抽出されたビデオデータを前記タイ
ミングに同期させて復号するビデオ復号ステップと、 前記抽出ステップで抽出されたオーディオデータを前記
タイミングに同期させて復号するオーディオ復号ステッ
プとを含む処理を実行させるコンピュータが読み取り可
能なプログラムを提供することを特徴とする提供媒体。
3. An information processing apparatus for decoding video data and audio data included in stream data, comprising: a detecting step of detecting a timing of outputting the video data; and synchronizing with the timing detected in the detecting step. An extraction step of extracting the video data and the audio data from the stream data; a video decoding step of decoding the video data extracted in the extraction step in synchronization with the timing; and the audio data extracted in the extraction step Providing a computer-readable program for executing a process including an audio decoding step of decoding the data in synchronization with the timing.
JP35297698A 1998-12-11 1998-12-11 Information processing unit, its method and providing medium Withdrawn JP2000184302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35297698A JP2000184302A (en) 1998-12-11 1998-12-11 Information processing unit, its method and providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35297698A JP2000184302A (en) 1998-12-11 1998-12-11 Information processing unit, its method and providing medium

Publications (1)

Publication Number Publication Date
JP2000184302A true JP2000184302A (en) 2000-06-30

Family

ID=18427741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35297698A Withdrawn JP2000184302A (en) 1998-12-11 1998-12-11 Information processing unit, its method and providing medium

Country Status (1)

Country Link
JP (1) JP2000184302A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086485A1 (en) * 2004-03-09 2005-09-15 Matsushita Electric Industrial Co., Ltd. Encoded data decoding apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086485A1 (en) * 2004-03-09 2005-09-15 Matsushita Electric Industrial Co., Ltd. Encoded data decoding apparatus

Similar Documents

Publication Publication Date Title
US8620134B2 (en) Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams
KR100234265B1 (en) Caption data processing circuit and method therefor
US6163647A (en) Apparatus for synchronized playback of audio-video signals
TWI294085B (en) Method and apparatus for synchronizing multimedia data stream
JP4983923B2 (en) Decoder device and decoding method
KR100203262B1 (en) Interface device of video decoder for syncronization of picture
GB2324432A (en) MPEG-2 decoder and PES decoder
US8144791B2 (en) Apparatus, method, and medium for video synchronization
JP3438223B2 (en) Multiplexing device and multiplexing method, and transmission device and transmission method
JP2001101794A (en) Data processing unit and data processing method, recording medium, and digital broadcast receiver and recording and reproducing method in the digital broadcast receiver
KR20060099687A (en) Device of video-synchronization using time stamp and method thereof
US20080198921A1 (en) Method and apparatus for reproducing digital broadcasting
US8902991B2 (en) Decoding apparatus for encoded video signals
JP2872104B2 (en) Time stamp adding apparatus and method, and moving image compression / expansion transmission system and method using the same
JP2005524295A5 (en)
JP2002176643A (en) Synchronization recovery system for video/audio in video/ audio decoding processing
JP4186514B2 (en) Broadcast receiver
JP2000184302A (en) Information processing unit, its method and providing medium
JP2000308012A (en) Video/audio reproducing device
US20060257108A1 (en) Multimedia reproduction apparatus
JP2003179863A (en) Image processing apparatus and method, recording medium, and program
KR100826170B1 (en) Method for managing presentation time stamp in digital broadcasting receiver
JP2002281498A (en) Reception reproducing device
US8098657B2 (en) System and method for providing data commonality in a programmable transport demultiplexer engine
JP2009218696A (en) Data processing apparatus and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307