JPH09115251A - Method and device for processing audio data - Google Patents

Method and device for processing audio data

Info

Publication number
JPH09115251A
JPH09115251A JP29351495A JP29351495A JPH09115251A JP H09115251 A JPH09115251 A JP H09115251A JP 29351495 A JP29351495 A JP 29351495A JP 29351495 A JP29351495 A JP 29351495A JP H09115251 A JPH09115251 A JP H09115251A
Authority
JP
Japan
Prior art keywords
unit
encoding
audio
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP29351495A
Other languages
Japanese (ja)
Inventor
Kouichi Uchide
浩一 打出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP29351495A priority Critical patent/JPH09115251A/en
Publication of JPH09115251A publication Critical patent/JPH09115251A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To add precise encoding time information to audio encoding data with a simple constitution. SOLUTION: The encoding time information D5 related to respective unit encoding units are formed whenever the encoding related to respective unit encoding units by an encoding part 5 is started, and the relevant encoding time information D5 is registered successively in order of formation. Together with that, when the encoding data D2' of respective corresponding unit encoding unit are formed, the registered encoding time information D5 is read out by an FIFO system to be added to the relevant answering encoding data D2'.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術(図4及び図5) 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態(図1〜図3) 発明の効果[Table of Contents] The present invention will be described in the following order. TECHNICAL FIELD OF THE INVENTION Conventional Technology (FIGS. 4 and 5) Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (FIGS. 1 to 3)

【0002】[0002]

【発明の属する技術分野】本発明はオーデイオデータ処
理方法及びオーデイオデータ処理装置に関し、例えばM
PEG(Moving Picture Experts Group)の音声規格に
従つて符号化されたオーデイオ符号化データをパケツト
化する場合に適用して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio data processing method and an audio data processing device, for example, M
It is suitable for application when audio-encoded data encoded according to the PEG (Moving Picture Experts Group) audio standard is packetized.

【0003】[0003]

【従来の技術】従来、オーデイオ信号を高能率符号化し
かつ各機器間で共通性を持たせる規格としてMPEGオ
ーデイオ規格がある。このMPEGオーデイオ規格は、
高音質及び高能率のステレオ・オーデイオ符号化のため
のISO/IEC 標準方式で、国際標準となつているISO/IEC
IS 11172-3である。MPEGオーデイオ規格は符号化ア
ルゴリズムの違いによつて、レイヤ1、レイヤ2及びレ
イヤ3という3種類のモードを持つているが、データ構
造やビツトストリーム構成は共通となつている。
2. Description of the Related Art Conventionally, there is an MPEG audio standard as a standard for highly efficient coding of audio signals and for providing commonality among devices. This MPEG audio standard is
ISO / IEC standard method for stereo audio coding with high sound quality and high efficiency, which is an international standard.
IS 11172-3. The MPEG audio standard has three types of modes, layer 1, layer 2 and layer 3, depending on the encoding algorithm, but the data structure and bit stream configuration are common.

【0004】図4に示すように、MPEGオーデイオビ
ツトストリームの1フレームはAAU(Audio Access U
nit :オーデイオ復号単位)と呼ばれ、これが1つ1つ
単独で元のオーデイオ信号に復号できる最小単位となつ
ている。オーデイオアクセスユニツトのサイズは、サン
プリング周波数と伝送速度によつて決まるが、構造的に
は常に384 サンプルのデータを含むようになされてい
る。
As shown in FIG. 4, one frame of the MPEG audio-bit stream is AAU (Audio Access U).
nit: audio decoding unit), which is the minimum unit that can be independently decoded into the original audio signal. The size of the audio access unit depends on the sampling frequency and transmission rate, but it is structurally designed to always contain 384 samples of data.

【0005】ところで、MPEGオーデイオデータやM
PEGビデオデータなどの符号化されたビツトストリー
ムを実際のAV(音響・映像)機器に適用するために
は、これらのビツトストリームを同期化し多重化する必
要がある。一般にこの役割を行うのものがMPEGシス
テムと呼ばれている。
By the way, MPEG audio data and M
In order to apply an encoded bit stream such as PEG video data to an actual AV (audio / video) device, it is necessary to synchronize and multiplex these bit streams. Generally, a system that plays this role is called an MPEG system.

【0006】MPEGシステムには、MPEG1システ
ム、MPEG2システムの2種類の標準規格がある。M
PEG1システムは、ISO/IEC IS 11172-1で、主にCD
−ROM(Compact Disc−Read Only Memory)などの蓄
積メデイアのための標準規格である。またMPEG2シ
ステムは、蓄積メデイアに加え、放送、通信などさらに
広範囲な機器を対象にしている。
The MPEG system has two types of standards, that is, an MPEG1 system and an MPEG2 system. M
The PEG1 system is ISO / IEC IS 11172-1, mainly CD
-A standard for storage media such as ROM (Compact Disc-Read Only Memory). In addition to the storage media, the MPEG2 system is intended for a wider range of devices such as broadcasting and communication.

【0007】MPEGシステムの基本的なデータ構造
は、MPEG1、MPEG2ともに共通しており、図5
に示すようなパケツトによる多重方法が用いられてい
る。多重の際は、ビデオデータ、オーデイオデータそれ
ぞれのビツトストリームを適当な長さのパケツトに分割
し、各パケツトの属性やタイムスタンプ情報などを持つ
パケツトヘツダを加えた上で、パケツト切り替えによつ
て時分割伝送する。パケツト長はある長さの範囲であれ
ば、可変にするか固定にするかは任意である。MPEG
2では、このパケツトをPES(Program Elementary St
ream)パケツトと呼ぶ。
The basic data structure of the MPEG system is common to both MPEG1 and MPEG2.
A packet multiplexing method as shown in FIG. When multiplexing, divide each bit stream of video data and audio data into packets of appropriate length, add packet headers with attributes and time stamp information of each packet, and then time-share by packet switching. To transmit. The packet length may be variable or fixed within a certain length range. MPEG
In 2, the packet is called PES (Program Elementary St
ream) called a packet.

【0008】ここでタイムスタンプとは、MPEGオー
デイオデータ及びMPEGビデオデータをいつ復号再生
するかを示す情報であり、ビデオデータでは1フレー
ム、オーデイオデータでは1オーデイオフレームの再生
単位ごとに付加されるようになされている。このタイム
スタンプによつて復号再生側でのオーデイオとビデオの
同期をとることができる。復号時間を示すタイムスタン
プはDTS(Decoding Time Stamp)と呼ばれ、再生時間
を示すタイムスタンプはPTS(Presentation Time Sta
mp)と呼ばれており、実際の時間はSCR(System Cloc
k Reference)と呼ばれる時刻基準参照値を参照して求め
る。
Here, the time stamp is information indicating when the MPEG audio data and the MPEG video data are decoded and reproduced, and is added to each reproduction unit of one frame for video data and one audio frame for audio data. Has been done. With this time stamp, the audio and video can be synchronized on the decoding and reproducing side. The time stamp indicating the decoding time is called DTS (Decoding Time Stamp), and the time stamp indicating the reproduction time is PTS (Presentation Time Stamp).
mp) and the actual time is SCR (System Cloc
It is obtained by referring to a time reference reference value called k Reference).

【0009】SCRはパツクヘツダと呼ばれる、いくつ
かのパケツトで構成される単位(パツク)ごとに付加さ
れるヘツダ内に設けられ、システム復号器の時刻基準
(STC:System Clock)をセツト及び校正する。復号
器では、STCがDTSに一致したときに復号処理を行
い、PTSに一致したときにそのアクセスユニツトを再
生出力する。
The SCR is provided in a header called a pack header, which is added for each unit (pack) composed of several packets, and sets and calibrates the time reference (STC: System Clock) of the system decoder. The decoder performs a decoding process when STC matches DTS, and reproduces and outputs the access unit when STC matches PTS.

【0010】PTS、DTSは、あるパケツト内にアク
セスユニツトの先頭がある場合は、パケツトヘツダに付
加し、ない場合は付加しない。またパケツト内に2つ以
上のアクセスユニツトの先頭があつても、最初のアクセ
スユニツトに対応するタイムスタンプだけを付加する。
またMPEGビデオデータのように、エンコード時にフ
レーム入れ替えがあり復号順序と再生順序が異なる場
合、PTS、DTSの両方が付加されるが、MPEGオ
ーデイオデータのようにフレーム入れ替えがない場合は
PTSだけを付加するようになされている。
The PTS and DTS are added to the packet header when the head of the access unit is present in a certain packet, and are not added when they are not present. Further, even if there are two or more access units at the head in the packet, only the time stamp corresponding to the first access unit is added.
Also, like MPEG video data, both PTS and DTS are added when there is a frame exchange at the time of encoding and the decoding order and the playback order are different, but when there is no frame exchange such as MPEG audio data, only PTS is added. It is designed to do.

【0011】[0011]

【発明が解決しようとする課題】ところで、オーデイオ
データについて考えると、エンコード時と同じデコード
時の再生状態を実現するためには、多重化の際に付加す
るPTSを、対象のオーデイオアクセスユニツト(AA
U)の符号化が開始される瞬間のSCR値としなくては
ならない。しかし、各エンコーダから出力されるオーデ
イオアクセスユニツトがパケツト処理部に到着する時点
は、エンコードされる瞬間から見て、エンコード処理時
間、システム整合のためのデイレイ、バツフアデイレイ
及び伝送デイレイなど様々な時間遅延を経ているため、
その時点のSCR値は正確なPTSとはならない。
By the way, considering audio data, in order to realize a reproduction state at the same decoding time as encoding, the PTS added at the time of multiplexing is set to the target audio access unit (AA).
It must be the SCR value at the moment when U) encoding is started. However, when the audio access unit output from each encoder arrives at the packet processing unit, various time delays such as encoding processing time, system matching delay, buffer delay and transmission delay are seen from the moment of encoding. Because it has passed,
The SCR value at that time is not an accurate PTS.

【0012】この結果、この時間情報の誤差により符号
化と復号化の同期が正確にはとれなくなるため、良好な
復号を行うことが困難になる問題があつた。そこで正確
なPTSを符号化データに付加する必要があるが、上述
した遅延時間はシステムごとに異なるため、正確なPT
Sを生成するための回路はそのシステムごとに設計しな
ければならず、またその回路構成は非常に複雑なものと
なる問題がある。
As a result, the error in the time information makes it impossible to accurately synchronize the encoding and the decoding, which makes it difficult to perform good decoding. Therefore, it is necessary to add an accurate PTS to the encoded data. However, since the delay time described above differs from system to system, the correct PT
The circuit for generating S must be designed for each system, and the circuit configuration is very complicated.

【0013】またこれとは別に従来のオーデイオエンコ
ーダ及びデコーダにおいては、PTSを付加させずに暗
黙同期によつてエンコード時と同じ再生状態をデコーダ
時に得る方法がとられているものがある。暗黙同期方式
によれば、PTS等の時間情報を生成伝送する必要がな
いことにより回路構成を簡易化できる。しかしながら、
暗黙同期方式ではタイムスタンプを付加して伝送する場
合と比べて、デコード時の再生状態をエンコード時と同
じにするという点からすると、かなり精度が低下してし
まう。
In addition to this, in the conventional audio encoder and decoder, there is a method in which the same reproduction state as that at the time of encoding is obtained at the time of decoding by implicit synchronization without adding PTS. According to the implicit synchronization method, it is not necessary to generate and transmit time information such as PTS, so that the circuit configuration can be simplified. However,
In the implicit synchronization method, compared with the case where a time stamp is added and transmitted, the accuracy is considerably reduced in that the reproduction state at the time of decoding is the same as that at the time of encoding.

【0014】本発明は以上の点を考慮してなされたもの
で、簡易な構成で、オーデイオ符号化データに精度の良
い符号化時間情報を付加することができるオーデイオデ
ータ処理方法及びオーデイオデータ処理装置を提案しよ
うとするものである。
The present invention has been made in consideration of the above points, and has a simple structure and is capable of adding accurate coding time information to audio coded data, and an audio data processing method and an audio data processing apparatus. Is to propose.

【0015】[0015]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、符号化手段による各単位符号化ユ
ニツトについての符号化が開始されるごとに各単位符号
化ユニツトについての符号化時間情報を形成し、当該符
号化時間情報を形成された順に順次登録すると共に、対
応する各単位符号化ユニツトの符号化データが形成され
たときに、登録した符号化時間情報を先入れ先出し方式
により読み出して当該対応する符号化データに付加する
ようにする。
In order to solve such a problem, according to the present invention, the coding time information about each unit coding unit is started every time the coding unit starts coding for each unit coding unit. And sequentially register the coding time information in the order in which they are formed, and when the corresponding encoded data of each unit coding unit is formed, the registered coding time information is read by the first-in first-out method. It should be added to the corresponding encoded data.

【0016】この結果、符号化時間情報は、各単位符号
化ユニツトについての符号化が開始される時点で形成さ
れるため、符号化デイレイや伝送デイレイ等の遅延時間
を含まない値とすることができる。また対応する単位符
号化ユニツトの符号化データよりも時間的に早めに形成
された符号化時間情報は、対応する符号化データが形成
されたときに、先入れ先出し方式で読み出されることに
より対応する単位符号化ユニツトの符号化データに同期
されて付加される。
As a result, since the coding time information is formed at the time when the coding for each unit coding unit is started, it may be a value that does not include the delay time such as the coding delay and the transmission delay. it can. Also, the coding time information formed earlier in time than the coded data of the corresponding unit coding unit is the unit code that is read by the first-in first-out method when the corresponding coded data is formed. It is added in synchronization with the encoded data of the encoding unit.

【0017】[0017]

【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0018】図1において、1は全体としてオーデイオ
データ処理装置を示し、大きく分けて、エンコーダ2と
パケツト処理部3とにより構成されている。オーデイオ
データ処理装置1は入力オーデイオ信号S1をアナログ
デイジタル(A/D)変換部4を介してオーデイオデー
タD1に変換し、これをオーデイオ符号化部5に供給す
る。オーデイオ符号化部5は例えばサブバンド符号化等
の符号化手法によつてオーデイオデータD1を固定長符
号化することによりオーデイオ符号化データD2を形成
する。
In FIG. 1, reference numeral 1 denotes an audio data processing apparatus as a whole, which is roughly divided into an encoder 2 and a packet processing unit 3. The audio data processing device 1 converts the input audio signal S1 into audio data D1 via an analog digital (A / D) converter 4, and supplies the audio data D1 to an audio encoder 5. The audio encoding unit 5 forms audio encoded data D2 by performing fixed-length encoding on the audio data D1 using an encoding method such as subband encoding.

【0019】オーデイオ符号化データD2はシステムデ
イレイ部6を通過することにより、そのシステムに応じ
たある時間だけ遅延された後パケツト処理部3の多重部
7に入力される。ここでシステムデイレイ部6とは、実
際にこのような部分があるわけでなく、例えばオーデイ
オ符号化部5のエンコード処理に要する時間や、バツフ
アデイレイ、システムの整合をとるために必要なデイレ
イであり、これらのデイレイをブロツクによつて表した
ものである。
The audio coded data D2 passes through the system delay section 6 and is delayed by a certain time according to the system and then input to the multiplexing section 7 of the packet processing section 3. Here, the system delay unit 6 does not actually have such a part, and is, for example, a time required for the encoding process of the audio encoding unit 5, a buffer delay, or a delay necessary for system matching. These days are represented by blocks.

【0020】ここでオーデイオ符号化部5は、384 サン
プルから構成されたオーデイオアクセスユニツト(AA
U)を符号化単位として符号化を行い、オーデイオアク
セスユニツト単位のデータストリームをオーデイオ符号
化データD2として出力している。このときオーデイオ
符号化部5は各オーデイオアクセスユニツトの先頭位置
でデータパルス信号D3を発生しこれを出力する。デー
タパルス信号D3はシステムデイレイ部6を介してオー
デイオ符号化データD2と同じ時間だけ遅延された後パ
ケツト処理部3に入力される。
Here, the audio encoding unit 5 includes an audio access unit (AA) composed of 384 samples.
U) is encoded as an encoding unit, and a data stream in audio access unit units is output as audio encoded data D2. At this time, the audio encoder 5 generates a data pulse signal D3 at the head position of each audio access unit and outputs it. The data pulse signal D3 is delayed by the same time as the audio encoded data D2 via the system delay unit 6 and then input to the packet processing unit 3.

【0021】フレームパルス生成部8はアナログデイジ
タル変換部4からのオーデイオデータD1を入力し、1
つのオーデイオアクセスユニツトを構成する最初のデー
タを入力する度にフレームパルス信号D4を発生し、こ
れをパケツト処理部3のSCR(System Clock Referenc
e)カウンタ9に送出する。SCRカウンタ9は時間の経
過と共にカウントアツプされる時刻基準参照値を有し、
フレームパルス信号D4が入力されるとそのときの時刻
基準参照値を基にPTS(Presentation Time Stamp)信
号D5を形成し、これをメモリ10に送出する。
The frame pulse generator 8 receives the audio data D1 from the analog digital converter 4 and inputs 1
A frame pulse signal D4 is generated every time the first data constituting one audio access unit is input, and this is generated by the SCR (System Clock Referenc) of the packet processing unit 3.
e) Send to the counter 9. The SCR counter 9 has a time base reference value that counts up over time,
When the frame pulse signal D4 is input, a PTS (Presentation Time Stamp) signal D5 is formed based on the time reference reference value at that time, and this is sent to the memory 10.

【0022】メモリ10は先入れ先出し型のメモリすな
わちFIFOメモリでなり、供給されたPTS信号D5
を順次その順序で格納する。そしてデータパルス信号D
3′を読出し制御信号として当該データパルス信号D
3′が入力されると、格納された順に1つずつPTS信
号D5を出力する。
The memory 10 is a first-in first-out memory, that is, a FIFO memory, and is supplied with the PTS signal D5.
Are sequentially stored in that order. And the data pulse signal D
3'is used as a read control signal for the data pulse signal D
When 3'is input, PTS signals D5 are output one by one in the order in which they are stored.

【0023】PES(Program Elementary Stream)ヘツ
ダ生成部11はメモリ10から出力されたPTS信号D
5′を用いて、図5に示すようなPESヘツダを形成し
(なお実施例の場合には、オーデイオなので、図5にお
けるDTSは無くても良い)、データパルス信号D3′
が到来する時間に合わせて当該PESヘツダデータD6
を多重部7に送出する。多重部7はオーデイオ符号化デ
ータD2′の各オーデイオアクセスユニツトの先頭に、
対応するPESヘツダデータD6を付加することにより
オーデイオPESストリームD7を形成する。このオー
デイオPESストリームD7は、後段の多重化処理部
(図示せず)に供給され、ビデオパケツトデータと時分
割多重される。
The PES (Program Elementary Stream) header generator 11 outputs the PTS signal D output from the memory 10.
5'is used to form a PES header as shown in FIG. 5 (in the embodiment, since it is audio, DTS in FIG. 5 may be omitted), and data pulse signal D3 '
The PES header data D6 according to the arrival time of
To the multiplexing unit 7. The multiplexing unit 7 adds at the head of each audio access unit of the audio coded data D2 ',
An audio PES stream D7 is formed by adding the corresponding PES header data D6. The audio PES stream D7 is supplied to a multiplexing unit (not shown) in the subsequent stage and time-division multiplexed with the video packet data.

【0024】ここでパケツト処理部3は、図2に示すよ
うな手順に従つてパケツト化処理を実行する。パケツト
処理部3はステツプSP0でパケツト処理手順に入り、
続くステツプSP1においてフレームパルス信号D4を
受信すると、ステツプSP2においてSCRカウンタ9
の時刻基準参照値を基にPTS信号D5を形成し、ステ
ツプSP3において当該PTS信号D5をメモリ10に
書き込み、ステツプSP1に戻る。パケツト処理部3は
このステツプSP1−SP2−SP3−SP1のループ
を繰り返すことにより順次メモリ10にPTS信号D5
を書き込んでいく。
Here, the packet processing unit 3 executes the packetizing process according to the procedure shown in FIG. The packet processing unit 3 enters the packet processing procedure at step SP0,
When the frame pulse signal D4 is received in the following step SP1, the SCR counter 9 is received in step SP2.
The PTS signal D5 is formed based on the time reference reference value of, the PTS signal D5 is written in the memory 10 in step SP3, and the process returns to step SP1. The packet processing unit 3 repeats the loop of steps SP1-SP2-SP3-SP1 to sequentially store the PTS signal D5 in the memory 10.
I will write.

【0025】またパケツト処理部3はステツプSP4に
おいてデータパルス信号D3′を入力すると、続くステ
ツプSP5においてメモリ10に格納されたPTS信号
D5を読み出し、続くステツプSP6においてPESヘ
ツダ生成部11によつて当該PTS信号D5′を用いて
PESヘツダを生成し、ステツプSP7において多重部
7によつてオーデイオアクセスユニツトデータストリー
ムの所定位置(実施例の場合、各オーデイオアクセスユ
ニツトの先頭位置)にPESヘツダを多重することによ
りパケツトデータを形成し、ステツプSP4に戻る。パ
ケツト処理部3はこのステツプSP4−SP5−SP6
−SP7−SP4のループを繰り返すことによりメモリ
10に格納されたPTS信号D5′を対応するオーデイ
オアクセスユニツトに順次付加することによりパケツト
データを形成していく。
When the packet processing unit 3 receives the data pulse signal D3 'in step SP4, it reads the PTS signal D5 stored in the memory 10 in the following step SP5, and the PES header generating unit 11 reads it in the following step SP6. A PES header is generated using the PTS signal D5 ', and the multiplexing unit 7 multiplexes the PES header at a predetermined position of the audio access unit data stream (in the embodiment, the head position of each audio access unit) in step SP7. As a result, packet data is formed, and the process returns to step SP4. The packet processing unit 3 uses this step SP4-SP5-SP6.
By repeating the loop of -SP7-SP4, the PTS signal D5 'stored in the memory 10 is sequentially added to the corresponding audio access unit to form the packet data.

【0026】以上の構成において、パケツト処理部3に
入力される各オーデイオアクセスユニツトデータD2′
はシステムデイレイ6の分だけ遅延されている。またデ
ータパルス信号D3も同様にシステムデイレイ6の分だ
け遅延され、各オーデイオアクセスユニツトデータD
2′に同期してパケツト処理部3に入力される。これに
対してフレームパルス信号D4は、オーデイオ符号化部
3によつて対応するオーデイオアクセスユニツトデータ
D2の符号化が行われる時刻とほとんど同じ時刻にパケ
ツト処理部3のSCRカウンタ9に入力される。
In the above structure, each audio access unit data D2 'input to the packet processing section 3 is inputted.
Is delayed by 6 system delays. Similarly, the data pulse signal D3 is also delayed by the amount of the system delay 6, and each audio access unit data D
It is input to the packet processing unit 3 in synchronization with 2 '. On the other hand, the frame pulse signal D4 is input to the SCR counter 9 of the packet processing unit 3 at almost the same time as the time when the corresponding audio access unit data D2 is coded by the audio coding unit 3.

【0027】この結果SCRカウンタ9からは、符号化
時間を正確に表わすPTS信号D5が得られる。そして
このPTS信号D5がFIFOメモリ10に格納され
る。FIFOメモリ10からのPTS信号D5′の読み
出しは、データパルス信号D3′が到来したタイミング
で行われる。この結果対応するオーデイオアクセスユニ
ツトとPTS信号D5′との同期がとられ、多重部7に
おいて各オーデイオアクセスユニツトに対応したPTS
信号が多重されるようになる。従つて、パケツト単位
は、1AAU=1PESとなり、PESヘツダのPTS
とPESデータであるAAUは、常に1対1対応とな
る。
As a result, the SCR counter 9 provides the PTS signal D5 which accurately represents the coding time. Then, the PTS signal D5 is stored in the FIFO memory 10. The PTS signal D5 'is read from the FIFO memory 10 at the timing when the data pulse signal D3' arrives. As a result, the corresponding audio access unit is synchronized with the PTS signal D5 ', and the PTS corresponding to each audio access unit is multiplexed in the multiplexing unit 7.
The signals will be multiplexed. Therefore, the packet unit is 1AAU = 1PES, and the PTS header is PTS.
And AES, which is PES data, always has a one-to-one correspondence.

【0028】以上の構成によれば、各オーデイオアクセ
スユニツトの符号化開始時に発生させたフレームパルス
信号D4をオーデイオ符号化データD2、D2′とは別
に直接SCRカウンタ9に入力させて、各オーデイオア
クセスユニツトについてのPTS信号D5を形成するよ
うにしたことにより、オーデイオ符号化や伝送にかかる
遅延時間による悪影響のない正確なPTS信号D5を形
成することができる。
According to the above construction, the frame pulse signal D4 generated at the start of encoding of each audio access unit is directly input to the SCR counter 9 separately from the audio encoded data D2 and D2 ', and each audio access is performed. By forming the PTS signal D5 for the unit, it is possible to form an accurate PTS signal D5 that is not adversely affected by the delay time required for audio encoding or transmission.

【0029】またそのように形成したPTS信号D5を
FIFOメモリ10に一旦格納し、オーデイオ符号化デ
ータD2′と等しい遅延時間を有するデータパルス信号
D3′に同期させて、格納したPTS信号D5′を読み
出すようにしたことにより、オーデイオ符号化データD
2′とPTS信号D6の同期をとることができ、PTS
信号を対応するオーデイオアクセスユニツトに多重する
ことができる。
The PTS signal D5 thus formed is temporarily stored in the FIFO memory 10 and is synchronized with the data pulse signal D3 'having a delay time equal to that of the audio coded data D2' to store the PTS signal D5 '. Since the data is read, the audio coded data D
2'and the PTS signal D6 can be synchronized,
The signals can be multiplexed into the corresponding audio access unit.

【0030】かくして、簡易な構成により対応するオー
デイオアクセスユニツトに正確なPTS信号を付加する
ことができるオーデイオデータ処理装置1を実現し得
る。
Thus, it is possible to realize the audio data processing device 1 which can add an accurate PTS signal to the corresponding audio access unit with a simple structure.

【0031】なお上述の実施例においては、オーデイオ
符号化部5において各オーデイオアクセスユニツトの先
頭を表わすデータパルス信号D3を形成し、当該データ
パルス信号D3を各オーデイオアクセスユニツトと同様
の経路を通過させることにより各オーデイオアクセスユ
ニツトに等しい遅延時間を持たせ、これを対応するPT
S信号D5′及びPESヘツダ信号D6を読み出すため
の同期制御信号として用いた場合について述べたが、本
発明はこれに限らず、パケツト処理部2を例えば図3に
示すような構成とすることにより同期制御を行うように
しても良い。
In the above embodiment, the audio encoder 5 forms the data pulse signal D3 representing the beginning of each audio access unit, and the data pulse signal D3 is passed through the same path as each audio access unit. As a result, each audio access unit has a delay time equal to that of the corresponding PT.
The case where the S signal D5 'and the PES header signal D6 are used as the synchronization control signal for reading has been described, but the present invention is not limited to this, and the packet processing unit 2 may be configured, for example, as shown in FIG. You may make it perform a synchronous control.

【0032】すなわちパケツト処理部20にオーデイオ
アクセスユニツトヘツダ検出部21を設け、当該オーデ
イオアクセスユニツトヘツダ検出部21によつて各オー
デイオアクセスユニツトの先頭に付加されているヘツダ
(図4参照)を検出する度にデータパルス信号D10を
発生させるようにする。そしてこのデータパルス信号D
10をメモリ10及びPESヘツダ生成部11に送出す
るようにすれば、上述の実施例と同様にPTS信号D
5′及びPESヘツダ信号D6と対応するオーデイオア
クセスユニツトとの同期をとることができる。さらにこ
のようにすれば、エンコーダ部2からパケツト処理部2
0へデータパルスを伝送する必要がなくなり、これらの
間のインターフエースとエンコーダ部2の処理が簡単に
なる。
That is, an audio access unit header detection unit 21 is provided in the packet processing unit 20, and a header (see FIG. 4) added to the head of each audio access unit is detected by the audio access unit header detection unit 21. The data pulse signal D10 is generated each time it is detected. And this data pulse signal D
10 is sent to the memory 10 and the PES header generator 11, the PTS signal D
5'and PES header signal D6 can be synchronized with the corresponding audio access unit. Further, in this way, the encoder unit 2 is changed to the packet processing unit 2
It is not necessary to transmit the data pulse to 0, and the interface between them and the processing of the encoder unit 2 are simplified.

【0033】また上述の実施例においては、SCRカウ
ンタ9及びFIFOメモリ10をパケツト処理部3に設
けた場合について述べたが、本発明はこれに限らず、こ
れらをエンコード部2に設けるようにし、FIFOメモ
リ10から出力されたPTS信号D5′をパケツト処理
部3に送出するようにしても上述の実施例と同様の効果
を得ることができる。
In the above embodiment, the case where the SCR counter 9 and the FIFO memory 10 are provided in the packet processing section 3 has been described, but the present invention is not limited to this, and they are provided in the encoding section 2. Even if the PTS signal D5 'output from the FIFO memory 10 is sent to the packet processing unit 3, the same effect as that of the above embodiment can be obtained.

【0034】また上述の実施例においては、本発明を、
MPEGの音声規格に従つて符号化されたオーデイオ符
号化データD2′に符号化時間情報(PTS信号D5)
を付加する場合について述べたが、本発明はMPEGの
音声規格に限らずオーデイオ符号化データに符号化時間
情報を付加する場合に広く適用し得る。
In the above embodiment, the present invention is
Encoding time information (PTS signal D5) is added to audio encoded data D2 'encoded according to the MPEG audio standard.
However, the present invention is not limited to the MPEG audio standard and can be widely applied to the case where the coding time information is added to the audio coded data.

【0035】また上述の実施例においては、オーデイオ
符号化データD2′に付加する時間情報としてPTS情
報を用いた場合について述べたが、付加する符号化時間
情報はPTS情報に限らず、要は各単位符号化ユニツト
の符号化時間を表わすことがきるような時間情報であれ
ば良い。
In the above embodiment, the case where PTS information is used as the time information to be added to the audio coded data D2 'has been described, but the coded time information to be added is not limited to the PTS information, and the point is that Any time information can be used as long as it can represent the coding time of the unit coding unit.

【0036】また上述の実施例においては、符号化時間
情報(PTS信号D5)の先入れ先出しを行う手段とし
てFIFOメモリ10を用いた場合について述べたが、
本発明はこれに限らず、例えばコンピユータによつてF
IFO登録を行うようにしても良い。
Further, in the above-mentioned embodiment, the case where the FIFO memory 10 is used as the means for carrying out the first-in first-out of the coding time information (PTS signal D5) has been described.
The present invention is not limited to this.
IFO registration may be performed.

【0037】さらに上述の実施例においては、各オーデ
イオアクセスユニツトの先頭に符号化時間情報(PTS
信号D5′)を含むヘツダ情報D6を付加するようにし
た場合について述べたが、ヘツダ情報D6を付加する位
置はこれに限らない。
Further, in the above-mentioned embodiment, the coding time information (PTS) is added to the head of each audio access unit.
The case where the header information D6 including the signal D5 ') is added has been described, but the position where the header information D6 is added is not limited to this.

【0038】[0038]

【発明の効果】上述のように本発明によれば、各単位符
号化ユニツトについての符号化が開始された時間を表わ
す符号化時間情報を形成し、これを形成された順に順次
登録すると共に、対応する符号化データが形成されたと
きに、登録した時間情報を先入れ先出し方式により読み
出して対応する符号化データに付加するようにしたこと
により、簡易な構成で、オーデイオ符号化データに精度
の良い符号化時間情報を付加することができる。
As described above, according to the present invention, the coding time information representing the time when the coding for each unit coding unit is started is formed, and this is sequentially registered in the order in which it is formed. When the corresponding coded data is formed, the registered time information is read by the first-in first-out method and added to the corresponding coded data, so that the audio coded data can be coded with high accuracy with a simple configuration. Activation time information can be added.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例によるオーデイオデータ処理装置の構成
を示すブロツク図である。
FIG. 1 is a block diagram showing a configuration of an audio data processing device according to an embodiment.

【図2】パケツト処理部の動作の説明に供するフローチ
ヤートである。
FIG. 2 is a flow chart for explaining the operation of the packet processing unit.

【図3】パケツト処理部の変形例を示すブロツク図であ
る。
FIG. 3 is a block diagram showing a modified example of the packet processing unit.

【図4】MPEGオーデイオビツトストリームのフレー
ム構造を示す略線図である。
FIG. 4 is a schematic diagram showing a frame structure of an MPEG audio bitstream.

【図5】MPEGシステムストリームのパケツトデータ
構造を示す略線図である。
FIG. 5 is a schematic diagram showing a packet data structure of an MPEG system stream.

【符号の説明】[Explanation of symbols]

1……オーデイオデータ処理装置、2……エンコーダ、
3、20……パケツト処理部、5……オーデイオ符号化
部、7……多重部、8……フレームパルス生成部、9…
…SCRカウンタ、10……メモリ、11……PESヘ
ツダ生成部、21……オーデイオアクセスユニツトヘツ
ダ検出部、S1……入力オーデイオ信号、D1……オー
デイオデータ、D2、D2′……オーデイオ符号化デー
タ、D3、D3′……データパルス、D4……フレーム
パルス、D5、D5′……PTS信号、D6……PES
ヘツダ信号、D7……オーデイオPESストリーム。
1 ... Audio data processing device, 2 ... Encoder,
3, 20 ... Packet processing unit, 5 ... Audio encoding unit, 7 ... Multiplexing unit, 8 ... Frame pulse generating unit, 9 ...
... SCR counter, 10 ... memory, 11 ... PES header generation section, 21 ... audio access unit header detection section, S1 ... input audio signal, D1 ... audio data, D2, D2 '... audio encoding Data, D3, D3 '... Data pulse, D4 ... Frame pulse, D5, D5' ... PTS signal, D6 ... PES
Hezda signal, D7 ... Audio PES stream.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】入力オーデイオ信号を所定のデータ単位ご
とに符号化した後、形成された符号化データの各単位符
号化ユニツトごとに当該単位符号化ユニツトについての
情報でなるヘツダ情報を付加することによりオーデイオ
パケツトデータを形成するオーデイオデータ処理方法に
おいて、 上記入力オーデイオ信号を所定のデータ単位で符号化す
ることにより単位符号化ユニツトごとに区切られた上記
符号化データを形成し、 上記各単位符号化ユニツトについての符号化が開始され
た時間を表わす符号化時間情報を形成し、 上記符号化時間情報を形成された順に順次登録すると共
に、対応する上記単位符号化ユニツトの符号化データが
形成されたときに、登録した符号化時間情報を先入れ先
出し方式により読み出して当該対応する符号化データに
付加することを特徴とするオーデイオデータ処理方法。
Claims: 1. An input audio signal is encoded for each predetermined data unit, and then header information, which is information about the unit encoding unit, is added to each unit encoding unit of the formed encoded data. In the audio data processing method for forming audio packet data according to the above, the input audio signal is encoded in a predetermined data unit to form the encoded data divided for each unit encoding unit. Encoding time information representing the time when the encoding of the encoding unit is started is formed, and the encoding time information is sequentially registered in the order in which it is formed, and the corresponding encoded data of the unit encoding unit is formed. At the same time, the registered coding time information is read by the first-in first-out method, and the corresponding coding data is read. Audio data processing method characterized by adding to.
【請求項2】入力オーデイオ信号を所定のデータ単位ご
とに符号化するエンコード部と、 当該エンコード部により形成された符号化データの各単
位符号化ユニツトごとに当該単位符号化ユニツトについ
ての情報でなるヘツダ情報を付加することによりオーデ
イオパケツトデータを形成するパケツト処理部とを有す
るオーデイオデータ処理装置において、 上記エンコード部に設けられ、オーデイオデータを所定
のデータ単位で符号化することにより単位符号化ユニツ
トごとに区切られた上記符号化データを形成する符号化
手段と、 上記エンコード部に設けられ、上記符号化手段による上
記各単位符号化ユニツトについての符号化が開始される
ごとにパルス信号を発生させるパルス信号発生手段と、 上記パルス信号が入力されるごとに、各単位符号化ユニ
ツトの符号化時間情報を形成する時間情報形成手段と、 上記各符号化時間情報を入力した順に順次登録し、上記
単位符号化ユニツトの先頭が到来するごとに上記符号化
時間情報を入力した順に出力する先入れ先出し登録手段
と、 上記パケツト処理部に設けられ、少なくとも上記先入れ
先出し登録手段から出力された符号化時間情報を含むヘ
ツダ情報を形成するヘツダ情報形成手段と、 上記パケツト処理部に設けられ、上記ヘツダ情報形成手
段から出力される上記ヘツダ情報を、対応する上記各単
位符号化ユニツトに多重する多重手段とを具えることを
特徴とするオーデイオデータ処理装置。
2. An encoding section for encoding an input audio signal for each predetermined data unit, and information about the unit encoding unit for each unit encoding unit of encoded data formed by the encoding section. In an audio data processing device having a packet processing unit for forming audio packet data by adding header information, a unit encoding unit provided in the encoding unit and encoding audio data in a predetermined data unit. Encoding means for forming the encoded data, which is divided for each unit, and a pulse signal, which is provided in the encoding section, each time the encoding means starts encoding for each unit encoding unit. Pulse signal generating means, and each unit for each input of the pulse signal The time information forming means for forming the encoding time information of the encoding unit and the respective encoding time information are sequentially registered in the order of input, and the encoding time information is input each time the head of the unit encoding unit arrives. First-in first-out registration means for outputting in the order of, the header processing unit provided in the packet processing unit, and forming the header information containing at least the encoding time information output from the first-in first-out registration unit, and the packet processing unit. , An audio data processing device comprising: multiplexing means for multiplexing the header information output from the header information forming means into the corresponding unit encoding units.
【請求項3】上記エンコード部は、さらに、上記各単位
符号化ユニツトの先頭に同期した第2のパルス信号を発
生する第2のパルス信号発生手段を具え、 上記先入れ先出し登録手段及び上記ヘツダ情報形成手段
は、上記符号化時間情報及び上記ヘツダ情報を、上記第
2のパルス信号が到来するごとに出力することを特徴と
する請求項2に記載のオーデイオデータ処理装置。
3. The encoding section further comprises a second pulse signal generating means for generating a second pulse signal synchronized with the head of each unit encoding unit, the first-in first-out registration means and the header information formation. 3. The audio data processing device according to claim 2, wherein the means outputs the encoding time information and the header information each time the second pulse signal arrives.
JP29351495A 1995-10-16 1995-10-16 Method and device for processing audio data Abandoned JPH09115251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29351495A JPH09115251A (en) 1995-10-16 1995-10-16 Method and device for processing audio data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29351495A JPH09115251A (en) 1995-10-16 1995-10-16 Method and device for processing audio data

Publications (1)

Publication Number Publication Date
JPH09115251A true JPH09115251A (en) 1997-05-02

Family

ID=17795729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29351495A Abandoned JPH09115251A (en) 1995-10-16 1995-10-16 Method and device for processing audio data

Country Status (1)

Country Link
JP (1) JPH09115251A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000068946A1 (en) * 1999-05-07 2000-11-16 Kabushiki Kaisha Toshiba Data structure of stream data, and method of recording and reproducing stream data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000068946A1 (en) * 1999-05-07 2000-11-16 Kabushiki Kaisha Toshiba Data structure of stream data, and method of recording and reproducing stream data
US6456783B1 (en) 1999-05-07 2002-09-24 Kabushiki Kaisha Toshiba Data structure of stream data, and recording and playback method thereof
US7418194B2 (en) 1999-05-07 2008-08-26 Kabushiki Kaisha Toshiba Data structure of stream data, and recording and playback method thereof

Similar Documents

Publication Publication Date Title
US6359910B1 (en) Clock conversion apparatus and method
US5801781A (en) Apparatus for converting moving picture stream of MPEG1 to transport stream of MPEG2
US6493357B1 (en) Digital serial data interface
EP0668700B1 (en) Audio/video decoding system and method
CN100438635C (en) System for modifying the time-base of a video signal
RU2273111C2 (en) Method for transformation of packet stream of information signals to stream of information signals with time stamps and vice versa
US7359006B1 (en) Audio module supporting audio signature
JPH11275519A (en) Data recording method and data recorder
JP2002520760A (en) Transcoder for fixed and variable rate data streams
US6731658B1 (en) Data recording method and data recording apparatus
JPH0730886A (en) Method and device for processing picture and audio signal
JP3133630B2 (en) MPEG system decoder
US6243032B1 (en) Decode apparatus that can accommodate dynamic change in sample data attribute during decoding process
JP3491401B2 (en) Data encoding device and method, and data decoding device and method
JPH11205789A (en) Transmission rate converter of mpeg2 transport stream
JPH09115251A (en) Method and device for processing audio data
JPH0898160A (en) Data multiplexing device
JP3536493B2 (en) Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams
JPH10271482A (en) Synchronous reproduction control method and system for coded video
JP2001309307A (en) Device and method for recording, device and method for reproduction and recording medium
JP2000048487A (en) Method and device for reproducing digital audio data
JP2001339688A (en) Playback equipment of transport stream
TWI358723B (en) Reproducing apparatus and method, and recording me
KR0154005B1 (en) Apparatus for generating the presentation time stamp in the system encoder
JP2001309306A (en) Device and method for reproduction and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20050310

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050624

A762 Written abandonment of application

Effective date: 20050801

Free format text: JAPANESE INTERMEDIATE CODE: A762