JP2005245006A - Postrecording signal reproducing apparatus - Google Patents

Postrecording signal reproducing apparatus Download PDF

Info

Publication number
JP2005245006A
JP2005245006A JP2005074644A JP2005074644A JP2005245006A JP 2005245006 A JP2005245006 A JP 2005245006A JP 2005074644 A JP2005074644 A JP 2005074644A JP 2005074644 A JP2005074644 A JP 2005074644A JP 2005245006 A JP2005245006 A JP 2005245006A
Authority
JP
Japan
Prior art keywords
data
recording
audio
post
time stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005074644A
Other languages
Japanese (ja)
Inventor
Takayuki Sugawara
隆幸 菅原
Norihiko Fuchigami
徳彦 渕上
Harukuni Kohari
晴邦 小張
Toshio Kuroiwa
俊夫 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005074644A priority Critical patent/JP2005245006A/en
Publication of JP2005245006A publication Critical patent/JP2005245006A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To return a postrecording data to an original data, to record a plurality of the postrecording data by a user, and to reproduce them by replacing selectively with a main data at a reproduction time. <P>SOLUTION: A postrecording audio data is MPEG-encoded by an audio encoder 101b, the encoded postrecording audio data is packetized by adding an identification information to an element data of the postrecording audio at a PES packetizer 102b, and the PES packet of the postrecording audio records a time stamp data by a time stamp recorder 103b. The PES packet of the postrecording audio by which the identification information and the time stamp are recorded is recorded in a recording medium 108 by being streamed not through a multiplexer 104. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、少なくともオーディオ信号とビデオ信号により構成されるメインデータに対してオーディオ信号などを後で記録(アフターレコード、以下、アフレコ)・差し替えを行うアフレコシステムに好適なアフレコ信号再生装置に関する。   The present invention relates to an after-recording signal reproduction apparatus suitable for an after-recording system that performs recording (after-recording, hereinafter referred to as after-recording) / replacement of an audio signal or the like with respect to main data composed of at least an audio signal and a video signal.

従来例として、特開平11−144378号公報には、アフレコ用の新たな音声ビットストリームをデジタル記録媒体のうち、オリジナルデータの記録領域と略等しい時刻に対応する領域に書き込む方法が提案されている。また、特開平11−259992号公報には、あらかじめ用意した空きパックにアフレコデータを記録する方法が提案されている。また、特開2000−197005号公報には、無音と判定された音声パックにアフレコ音声を上書き記録する方法が開示されている。   As a conventional example, Japanese Patent Application Laid-Open No. 11-144378 proposes a method of writing a new audio bit stream for post-recording in an area corresponding to a time substantially equal to the recording area of the original data in the digital recording medium. . Japanese Patent Laid-Open No. 11-259992 proposes a method for recording post-recording data in an empty pack prepared in advance. Japanese Patent Laid-Open No. 2000-197005 discloses a method for overwriting recording after-recording sound on a sound pack determined to be silent.

ところで、最近のデジタル機器として、D−VHSやSTBではTS(トランスポート・ストリーム)、DVDではPS(プログラム・ストリーム)という多重化方式を用いて多重化されたデータを扱うようになっている。一方、いったん多重化すると、そのデータの一部を取り替えることが困難な形態となってしまうのも多重化の問題である。すなわち、音声のアフレコを行うために、多重化ストリームの音声部分のみを入れ替えるのは、簡単ではない。そこで記録メディア内での符号化データとしてアフレコなどへ簡単に対応できるフォーマットの必要性が高まっている。   By the way, as a recent digital device, data multiplexed using a multiplexing system called TS (transport stream) in D-VHS and STB and PS (program stream) in DVD are handled. On the other hand, once multiplexed, it is a problem of multiplexing that it becomes difficult to replace a part of the data. That is, it is not easy to replace only the audio portion of the multiplexed stream in order to perform audio after-recording. Therefore, there is an increasing need for a format that can easily cope with post-recording as encoded data in a recording medium.

しかしながら、上記の従来の方式では、アフレコを行う要素データに対して書き込みを行い、多重化されているメインストリームを書き換えてしまうことを前提としているため、書き換えた後は再度元に戻すことができない。また、複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムは構築できなかった。   However, since the above-described conventional method is based on the premise that the element data to be dubbed is written and the multiplexed main stream is rewritten, it cannot be restored again after rewriting. . In addition, after recording a plurality of post-recording sounds, a system in which the user can selectively enjoy post-recording data cannot be constructed.

本発明は上記従来例の問題点に鑑み、アフレコデータを元のデータに戻すことができ、また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とするアフレコ信号再生装置を提供することを目的とする。   In view of the above-described problems of the conventional example, the present invention can return the post-record data to the original data, and the user can record a plurality of post-record data and selectively replace the main data with the main data during playback. An object of the present invention is to provide an after-recording signal reproducing apparatus that can be used.

本発明は上記目的を達成するために、
メインデータを構成するオーディオ信号とビデオ信号との2つの信号の圧縮符号化データが、それぞれ所定の単位に前記オーディオ信号と前記ビデオ信号との同期再生用のタイムスタンプが付加され多重化されてなるメインデータのストリームが入力される入力手段と、
前記メインデータを構成するオーディオ信号に対する複数のアフレコ用圧縮符号化オーディオデータの1つを選択指定するための手段と、
前記複数のアフレコ用圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプ及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報が付加され、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームから、前記選択指定されたアフレコ用圧縮符号化オーディオデータを含むアフレコ用データのストリームを前記識別情報に基づき選択入力する入力手段と、
前記メインデータのストリームからメインデータを読み出すとともに、前記選択指定された1つのアフレコ用圧縮符号化オーディオデータを前記選択入力されたアフレコ用データのストリームから読み出して、前記選択指定されたアフレコ用圧縮符号化オーディオデータを当該アフレコ用圧縮符号化オーディオデータに対する前記メインデータ内のオーディオ信号と置き換え、前記メインデータのストリームから読み出したタイムスタンプと前記選択入力されたアフレコ用データのストリームから読み出したタイムスタンプとに基づいて、前記メインデータのビデオ信号と前記選択指定されたアフレコ用圧縮符号化オーディオデータとを同期再生する手段と、
を備えたことを特徴とするアフレコ信号再生装置、
を提供する。
In order to achieve the above object, the present invention
The compression-encoded data of two signals of the audio signal and the video signal constituting the main data are multiplexed by adding a time stamp for synchronous reproduction of the audio signal and the video signal to each predetermined unit. An input means for inputting a stream of main data;
Means for selecting and designating one of a plurality of post-recording compression-coded audio data for the audio signal constituting the main data;
The plurality of post-recording compressed and encoded audio data are added with a time stamp for synchronous reproduction with the main data and identification information for identifying the individual post-recording compressed and encoded audio data and multiplexed with the main data. An input means for selectively inputting a post-recording data stream including the selected post-recording compressed encoded audio data from the post-record data stream that has been streamed without being converted based on the identification information;
The main data is read from the main data stream, and the one selected after-recording compressed encoded audio data is read from the selected after-record data stream, and the selected after-recording compressed code is read out. Replacing the encoded audio data with the audio signal in the main data for the post-recording compressed encoded audio data, and a time stamp read from the main data stream and a time stamp read from the selected post-record data stream And means for synchronously reproducing the video signal of the main data and the selected and designated after-recording compressed encoded audio data;
An after-recording signal reproducing apparatus, comprising:
I will provide a.

以上説明したように本発明によれば、複数のアフレコ用の圧縮データは、メインデータと同期再生するためのタイムスタンプ及び個々のデータを識別するための識別情報を付加され、メインデータの多重化データと多重化することなくストリーム化されているので、アフレコデータを元のデータに戻すことが可能となる。また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とする。   As described above, according to the present invention, a plurality of post-recording compressed data is added with a time stamp for synchronous reproduction with main data and identification information for identifying individual data, and multiplexing of main data is performed. Since the data is streamed without being multiplexed with the data, it is possible to return the post-record data to the original data. In addition, the user can record a plurality of post-record data and selectively replace the main data with the main data during reproduction.

以下、図面を参照して本発明の実施の形態について説明する。
<MPEG>
まず、本実施例で使用されているMPEGビデオ(ビデオ符号化方式)及びMPEGシステム(オーディオビデオ多重化方式)について説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2,現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Picture Experts Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準であり、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCIT SGXV:現在のITU−T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISU/IEC 11172として成立している。また、MPEG2(MPEGフェーズ2)は通信や放送などの多様なアプリケーションに対応できるように汎用標準を目的として、1994年11月ISU/IEC 13818 H.262として成立している。
Embodiments of the present invention will be described below with reference to the drawings.
<MPEG>
First, an MPEG video (video encoding system) and an MPEG system (audio video multiplexing system) used in this embodiment will be described. MPEG is the name of the organization that examines video coding standards established in 1988 by ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Standards Meeting Technical Committee 1 / Technical Committee 2, now SC29). Abbreviation for Moving Picture Experts Group. MPEG1 (MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and JPEG for the purpose of encoding still images, and video compression for low transfer rates of ISDN video conferences and videophones. The target H.C. It inherits the basic technology of H.261 (CCIT SGXV: standardized by the current ITU-T SG15) and introduces a new technology for storage media. These were established in August 1993 as ISU / IEC 11172. In addition, MPEG2 (MPEG Phase 2) is an ISU / IEC 13818 H.264 standard in November 1994 for the purpose of general-purpose standards so as to be compatible with various applications such as communication and broadcasting. It is established as 262.

MPEGは幾つかの技術を組み合わせて作成されている。図12はMPEG圧縮装置を示す。まず、入力画像Vinは加算器1により、動き補償予測器11で復号化したリファレンスの画像との差分を取ることで時間冗長部分を削減する。予測の方向は、過去、未来、両方からの3モードが存在する。また、これらは16画素×16画素のMB(マクロブロック)ごとに切り替えて使用できる。予測方向は入力画像に与えられたピクチャタイプによって決定される。過去からの予測と、予測をしないでそのMBを独立で符号化する2モードが存在するのがPピクチャである。また未来からの予測、過去からの予測、両方からの予測、独立で符号化する4モードが存在するのがBピクチャである。そして、全てのMBが独立で符号化するのがIピクチャである。   MPEG is created by combining several technologies. FIG. 12 shows an MPEG compression apparatus. First, the input image Vin is reduced by the adder 1 by taking the difference from the reference image decoded by the motion compensation predictor 11 to reduce the time redundant portion. There are three modes of prediction from the past and the future. These can be switched and used for each 16 pixels × 16 pixels MB (macroblock). The prediction direction is determined by the picture type given to the input image. The P picture has two modes for predicting from the past and encoding the MB independently without prediction. In addition, there are four modes in which prediction from the future, prediction from the past, prediction from both, and four modes for encoding independently exist. It is the I picture that all MBs are encoded independently.

動き補償では、動き領域をMBごとにパターンマッチングを行ってハーフぺル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何れからの予測かを示すMC(Motion Compensation)モードと共にMBの付加情報として伝送される。Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Pictures)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が使用される。   In motion compensation, a motion region is subjected to pattern matching for each MB, a motion vector is detected with half-pel accuracy, and prediction is performed after shifting by the amount of motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating which one is predicted. From the I picture to the picture before the next I picture is called a GOP (Group Of Pictures), and when it is used in a storage medium or the like, generally about 15 pictures are used.

差分画像はDCT(Discrete Cosine Transform)器2において直交変換が行われる。DCTとは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGでは、MBを4分割して8×8のDCTブロックに対して、2次元DCTを行う。一般に、ビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。   The difference image is subjected to orthogonal transformation in a DCT (Discrete Cosine Transform) unit 2. DCT is an orthogonal transformation that discretely transforms an integral transformation with a cosine function as an integral kernel into a finite space. In MPEG, two-dimensional DCT is performed on an 8 × 8 DCT block by dividing MB into four. In general, a video signal has many low frequency components and few high frequency components. Therefore, when DCT is performed, the coefficients are concentrated in the low frequency.

DCTされた画像データ(DCT係数)は量子化器3で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で除算する。デコーダで逆量子化するときは、量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。   The quantized image data (DCT coefficient) subjected to DCT is quantized by the quantizer 3. Quantization is a quantized value obtained by multiplying a value obtained by weighting the 8 × 8 two-dimensional frequency called the quantization matrix with a visual characteristic and a value called a quantization scale that is a scalar multiplication of the whole, and the DCT coefficient is quantized. Divide by value. When inverse quantization is performed by the decoder, a value that approximates the original DCT coefficient is obtained by multiplying by the quantized value.

量子化されたデータはVLC器4で可変長符号化される。量子化された値のうち直流(DC)成分は、予測符号化のひとつであるDPCM(Differential Pulse Code Modulation)を使用して符号化する。また、交流(AC)成分は 低域から高域の方向にジグザグ・スキャンを行い、ゼロのラン長及び有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。可変長符号化されたデータは一時、バッファ5に蓄えられ、所定の転送レートで符号化データとして出力される。   The quantized data is variable length encoded by the VLC unit 4. The direct current (DC) component of the quantized value is encoded using DPCM (Differential Pulse Code Modulation) which is one of predictive encoding. In addition, alternating current (AC) components are zigzag scanned from low to high, and a zero run length and effective coefficient value are considered as one event, and codes with a short code length are assigned to those with a high probability of appearance. Huffman encoding is performed. The variable-length encoded data is temporarily stored in the buffer 5 and output as encoded data at a predetermined transfer rate.

また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器6に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器3にフィードバックして量子化スケールを調整することで符号量が制御される。また、量子化された画像データは逆量子化器7にて逆量子化され、次いで逆DCT器8にて逆DCTされて元のDCT係数が復元される。このDCT係数は加算器9により、動き補償予測器11で復号化したリファレンスの画像と加算され、この加算された画像データが一時、画像メモリ10に蓄えられた後、動き補償予測器11において、差分画像を計算するためのリファレンスの復号化画像として使用される。   The generated code amount for each macroblock of the output data is transmitted to the code amount controller 6, and the error code amount with respect to the generated code amount with respect to the target code amount is fed back to the quantizer 3 to quantize the scale. The amount of code is controlled by adjusting. The quantized image data is inversely quantized by the inverse quantizer 7 and then inversely DCTed by the inverse DCT 8 to restore the original DCT coefficients. This DCT coefficient is added to the reference image decoded by the motion compensation predictor 11 by the adder 9, and after the added image data is temporarily stored in the image memory 10, the motion compensated predictor 11 Used as a reference decoded image for calculating a difference image.

図13はMPEG復号装置を示す。符号化されたストリームはバッファリングされ、バッファ12からのデータはVLD(可変長復号)器13に入力される。VLD器13では可変長復号化され、直流(DC)成分及び交流(AC)成分を得る。交流(AC)成分データは低域から高域の方向にジグザグ・スキャンされて8×8のマトリックスに配置する。このデータは逆量子化器14に入力され、量子化マトリクスにて逆量子化される。逆量子化されたデータは逆DCT器15に入力されて逆DCTされ、このDCT係数は加算器16により、動き補償予測器18で復号化したリファレンスの画像と加算され、この加算された画像データが復号化データとして出力される。また、復号化データは一時、画像メモリ17に蓄えられた後、動き補償予測器18において差分画像を計算するためのリファレンスの復号化画像として使用される。   FIG. 13 shows an MPEG decoding apparatus. The encoded stream is buffered, and the data from the buffer 12 is input to a VLD (variable length decoder) 13. The VLD unit 13 performs variable length decoding to obtain a direct current (DC) component and an alternating current (AC) component. Alternating current (AC) component data is zigzag scanned from low to high and arranged in an 8 × 8 matrix. This data is input to the inverse quantizer 14 and is inversely quantized by a quantization matrix. The inversely quantized data is input to the inverse DCT unit 15 and subjected to inverse DCT, and this DCT coefficient is added by the adder 16 with the reference image decoded by the motion compensation predictor 18, and the added image data. Is output as decoded data. The decoded data is temporarily stored in the image memory 17 and then used as a reference decoded image for calculating a difference image in the motion compensation predictor 18.

MPEGシステムはMPEGビデオ及びオーディオなどで符号化されたビットストリームを1個のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディオのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオなどを識別する情報や、同期のための時間情報が存在する。パケット長は伝送媒体やアプリケーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いものまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている。
The MPEG system stipulates a method for multiplexing a bit stream encoded by MPEG video and audio into one bit stream and reproducing it while ensuring synchronization. The contents specified in the system are roughly divided into the following five points.
1) Synchronous playback of multiple encoded bitstreams 2) Multiplexing of multiple encoded bitstreams into a single bitstream 3) Buffer initialization at playback start 4) Continuous buffer management 5) Determination of time for decoding, reproduction, etc. Information must be packetized for multiplexing in the MPEG system. Packet multiplexing means, for example, when video and audio are multiplexed, each is divided into streams of appropriate length called packets, attached with additional information such as headers, and video and audio packets are switched appropriately. Time-division transmission. The header includes information for identifying video, audio, etc., and time information for synchronization. The packet length depends on the transmission medium and application, and ranges from 53 bytes as in ATM to 4 Kbytes as long as an optical disk. In MPEG, the packet length is variable and can be arbitrarily specified.

データはパック、パケット化され、1パックは数パケットで構成されている。各パックの先頭部分には、pack-start-codeやSCR(System Clock Reference)が記述されており、パケットの先頭部分にはStream IDやタイムスタンプが記述されている。タイムスタンプにはオーディオ、ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)とPTS(Presentation Time Stamp)の2種類が存在する。PCR(Program Clock Reference)は27MHzの時間精度で記述されており、デコーダの基準時計をロックする情報である。DTSはそのパケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例えば1152サンプル)のデコード開始時刻を示し、PTSは表示(再生)開始時刻を示している。   Data is packed and packetized, and one pack is composed of several packets. Pack-start-code and SCR (System Clock Reference) are described in the head part of each pack, and Stream ID and time stamp are described in the head part of the packet. The time stamp describes time information for synchronizing audio, video, etc., and there are two types of DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp). PCR (Program Clock Reference) is described with a time accuracy of 27 MHz and is information for locking the reference clock of the decoder. DTS indicates the decoding start time of the first access unit (1 picture for video, 1152 samples for audio) in the packet data, and PTS indicates the display (playback) start time.

図14に示すように、オーディオ、ビデオ、その他のデコーダは、PCRでロックした共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行う仕組みになっている。多重化されたデータが各デコーダでバッファリングされ、同期した表示を行うための仮想的なデコーダをSTD(System Target Decoder)と呼び、このSTDがオーバーフローやアンダーフローを起こさないように多重化されていなければならない。   As shown in FIG. 14, the audio, video, and other decoders are configured to constantly monitor a common reference clock locked by PCR and to perform decoding and display when the time matches with the time of DTS or PTS. . Multiplexed data is buffered by each decoder, and a virtual decoder for performing synchronized display is called STD (System Target Decoder), and this STD is multiplexed so as not to cause overflow or underflow. There must be.

また、MPEGシステムには、大きく分けてTS(Transport Stream)とPS(Program Stream)が存在する。これらはPES(Packetized Elementary Stream)、及びその他の必要な情報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの他、プライベートストリームなどをパケット化したものである。   The MPEG system is roughly divided into TS (Transport Stream) and PS (Program Stream). These are composed of packets including PES (Packetized Elementary Stream) and other necessary information. PES is defined as an intermediate stream for enabling conversion between both streams, and is a packet of a private stream or the like in addition to video and audio data encoded by MPEG.

PSは共通の基準時間を有するプログラムのビデオ、オーディオを多重化することが可能である。パケットレイヤはPESと呼ばれ、この構造は図15に示すように、後述するTSと共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリームはPESパケット内のStream IDによってスイッチされる。   PS can multiplex video and audio of programs having a common reference time. The packet layer is called PES, and this structure is used in common with a TS described later as shown in FIG. In the PS STD model, the stream is switched by the Stream ID in the PES packet.

TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチプログラムの多重化を可能としている。TSはATMセル長や誤り訂正符号化する場合を考慮し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用できるように考慮されている。TSパケット自体の構造はそれほど複雑ではないがマルチプログラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なことは、TSパケットが上位構造であるにも関わらず、PESパケットより(通常は)短く、PESパケットを分割してTSパケットに乗せて伝送する点である。   TS can also multiplex video and audio of programs with a common reference time as well as PS, but TS can also multiplex multi-programs such as communications and broadcasts with different reference times It is said. The TS is composed of a fixed-length packet of 188 bytes in consideration of the case of ATM cell length and error correction coding, and is considered so that it can be used even in a system in which an error exists. Although the structure of the TS packet itself is not so complicated, since it is a multi-program stream, its operation is complicated. What is characteristic compared to PS is that, although the TS packet has a higher structure, it is shorter (usually) than the PES packet, and the PES packet is divided and transmitted on the TS packet.

TSのSTDモデルでは、ストリームはTSパケット内のPID(パケットID)によってスイッチされる。TSパケットの構造を図15に示す。始めのヘッダには8ビットのSYNCバイトがあり、その後にエラー指示、ユニット先頭指示、破棄する場合の優先指示のビットが1ビットずつ記述される。その後にPIDと言って、このパケットのペイロードの種類を示すIDが記述される。その後にスクランブル情報(2ビット)、ペイロードにアダプテーションフィールドを伝送するかどうかを示す情報(2ビット)、パケットの連続性を示す情報(4ビット)がそれぞれ記述され、最後に要素符号化データもしくはアダプテーション情報の後に要素データを記述する。また無効データを伝送することもできるようになっている。   In the STD model of TS, the stream is switched by the PID (packet ID) in the TS packet. The structure of the TS packet is shown in FIG. The first header has an 8-bit SYNC byte, followed by an error instruction, a unit head instruction, and a priority instruction bit for discarding one bit at a time. Thereafter, an ID indicating the type of payload of this packet is described as PID. After that, scramble information (2 bits), information indicating whether the adaptation field is transmitted in the payload (2 bits), information indicating the continuity of the packet (4 bits) are respectively described, and finally, the element encoded data or the adaptation Describe the element data after the information. It is also possible to transmit invalid data.

MPEGシステムのTSには、その多重化されている番組の情報に関するパケットがどのPIDであるのかを指示する仕組みがある。それを図16を参照して説明する。まずTSパケット群の中からPID=0のものを探す。それはPAT(Program Association Table)と呼ばれる情報パケットであり、そのパケットの中にはプログラムナンバーPRに対応する情報PlDがリンクされた形で記述されている。次に目的のPRに対応するPIDのパケットを読みに行くと、PMT(Program Map Table)と呼ばれる情報パケットがあり、そのパケットの中にはそのプログラムナンバーPRに対応する番組のビデオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。PATとPMTのことをPSI(Program Specific Infomation)と呼び、目的の番組のチャンネルにアクセス(エントリ)することが可能な情報体系になっている。   The TS of the MPEG system has a mechanism for indicating which PID is a packet related to information of the multiplexed program. This will be described with reference to FIG. First, the TS packet group is searched for PID = 0. It is an information packet called a PAT (Program Association Table), in which information PlD corresponding to the program number PR is described in a linked form. Next, when reading the packet of the PID corresponding to the target PR, there is an information packet called PMT (Program Map Table), in which the PID of the video packet of the program corresponding to the program number PR and The PID information of the audio packet is described. PAT and PMT are called PSI (Program Specific Infomation), and it is an information system that allows access (entry) to a channel of a target program.

<アフレコ装置>
次に本発明の好適な実施の形態について説明する。まず、図1を用いて本発明のアフレコ信号再生装置にて再生されるアフレコ用データを生成するアフレコ装置の一例について説明する。ユーザインターフェース(User I/F)109はメインデータを記録するのか、アフレコ・オーディオデータを記録するのかが選択可能であり、その指示信号がCPU110から信号切り替え器105に伝送される。まず、メインのデータを生成して記録メディア108に記録する場合について説明する。ビデオデータとオーディオデータはそれぞれ、ビデオ符号化器101a、オーディオ符号化器101bに入力され、既に説明したMPEG符号化が行われる。符号化されたデータはそれぞれ、MPEGのシステム多重化を行うために、各要素ごとにそれぞれPESパケット化器102a、102bに伝送される。PESパケット化器で102a、102bはそれぞれ、ビデオ、オーディオの各要素データをパケット化する。
<Post-recording equipment>
Next, a preferred embodiment of the present invention will be described. First, an example of an after-recording apparatus that generates after-recording data to be played back by the after-recording signal playback apparatus of the present invention will be described with reference to FIG. A user interface (User I / F) 109 can select whether to record main data or after-recording audio data, and the instruction signal is transmitted from the CPU 110 to the signal switch 105. First, a case where main data is generated and recorded on the recording medium 108 will be described. Video data and audio data are respectively input to the video encoder 101a and the audio encoder 101b, and the MPEG encoding already described is performed. The encoded data is transmitted to the PES packetizers 102a and 102b for each element in order to perform MPEG system multiplexing. The PES packetizers 102a and 102b packetize video and audio element data, respectively.

各PESパケットにはそれぞれ、タイムスタンプ記録器103a、103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで各PESパケットの要素データは多重化器104においてPS多重もしくは図5に示すようにTS多重などのフォーマットで多重化される。多重化されたデータは、信号切り替え器105に入力される。   In each PES packet, time stamp data such as the above-described PCR, PTS, DTS, etc. is recorded in the time stamp recorders 103a and 103b. The time stamp is created using 27 MHz clock information. Next, element data of each PES packet is multiplexed in a format such as PS multiplexing or TS multiplexing as shown in FIG. The multiplexed data is input to the signal switch 105.

ここではメインデータを記録するために、信号切り替え器105では多重化器104からのデータが選択されて、いったんバッファ106aに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。メインデータは後述する情報フォーマットに従って、図2に示すPR0.dat というファイル名で記録される。   Here, in order to record the main data, the signal switch 105 selects the data from the multiplexer 104 and temporarily records it in the buffer 106a. The buffered data is recorded on the recording medium 108 by the recording controller 107. The main data is recorded with the file name PR0.dat shown in FIG. 2 according to the information format described later.

次に、アフレコ・オーディオデータを生成して記録メディア108に記録する場合について説明する。この場合には、ユーザインターフェース109においてアフレコ・オーディオデータの記録が選択されており、CPU110からその指示信号が信号切り替え器105に、また、アフレコデータ識別情報がPESパケット化器102bに伝送される。アフレコ・オーディオデータはオーディオ符号化器101bに入力され、同様にMPEG符号化が行われる。符号化されたアフレコ・オーディオデータは、MPEGのシステムのタイムスタンプ付加を行うために、PESパケット化器102bに伝送される。   Next, a case where after-recording audio data is generated and recorded on the recording medium 108 will be described. In this case, recording of the after-recording audio data is selected in the user interface 109, the instruction signal is transmitted from the CPU 110 to the signal switch 105, and the after-recording data identification information is transmitted to the PES packetizer 102b. After-recording audio data is input to the audio encoder 101b, and MPEG encoding is performed in the same manner. The encoded after-recording audio data is transmitted to the PES packetizer 102b in order to add the time stamp of the MPEG system.

PESパケット化器102bでは、アフレコ・オーディオの要素データに識別情報を付加してパケット化する。アフレコ・オーディオのPESパケットにはタイムスタンプ記録器103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで識別情報及びタイムスタンプが記録されたアフレコ・オーディオのPESパケットは多重化器104を経由することなく信号切り替え器105に伝送される。信号切り替え器105では、アフレコオーディオデータが記録されるので、タイムスタンプ記録器103bからのデータが選択されてバッファ106bに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。   The PES packetizer 102b adds the identification information to the after-recording audio element data and packetizes it. In the post-recording audio PES packet, the time stamp recorder 103b records time stamp data such as PCR, PTS, and DTS. The time stamp is created using 27 MHz clock information. Next, the post-recording audio PES packet in which the identification information and the time stamp are recorded is transmitted to the signal switch 105 without passing through the multiplexer 104. Since the after-recording audio data is recorded in the signal switcher 105, the data from the time stamp recorder 103b is selected and recorded in the buffer 106b. The buffered data is recorded on the recording medium 108 by the recording controller 107.

<フォーマット及び記録媒体>
アフレコ・オーディオデータは後述する情報フォーマットに従ってプレイリストという情報として記録される。ファイル名は第1番目のアフレコデータであれば、図2に示したPLOのフォルダ内のAF-1.datというファイル名として記録される。第M番目のアフレコオーディオデータであれば、AF-m.datというファイル名となる。図8に示したように、アフレコ用のデータとして記述できるAF_numberは8ビットあるので(0は使用しない)、254個までの独立したアフレコ・オーディオデータを記録することができる。
<Format and recording medium>
The post-recording audio data is recorded as information called a playlist according to an information format described later. If the file name is the first post-record data, it is recorded as the file name AF-1.dat in the PLO folder shown in FIG. For the Mth after-recording audio data, the file name is AF-m.dat. As shown in FIG. 8, since AF_number that can be described as data for after-recording is 8 bits (0 is not used), up to 254 independent after-recording audio data can be recorded.

次に、記録メディア108に記録する情報のフォーマットについて図2〜図9を用いて説明する。記録する情報はオーディオやビデオのサイド情報データである。情報データは図2のように、ROOTの下にLIBという名前のフォルダを作成し、その下に複数のプログラムに関するSIDE.ifoというファイルネームでサイド情報を記録する。SIDE.ifoのフォーマットは図3に示すように階層構造をもっている。一番上位にTOTAL_MANAGER_IFOが定義され、そのなかにはGENERAL_IFOとCNTNT_IFOがある。GENERAL_IFOは、この情報群全体に関するパラメータが記述される。GENERAL_IFOの詳細は図6に示すようなSYNTAX構造になっている。   Next, the format of information recorded on the recording medium 108 will be described with reference to FIGS. The information to be recorded is audio or video side information data. As shown in FIG. 2, a folder named LIB is created under ROOT as shown in FIG. 2, and side information is recorded under the file name SIDE.ifo relating to a plurality of programs. The format of SIDE.ifo has a hierarchical structure as shown in FIG. TOTAL_MANAGER_IFO is defined at the top, and GENERAL_IFO and CNTNT_IFO are among them. GENERAL_IFO describes parameters related to the entire information group. The details of GENERAL_IFO have a SYNTAX structure as shown in FIG.

次のCNTNT_IFOの中身は、複数のプログラムごとの情報としてPR_IFO_0からPL_IFO_nまでが記述されている。詳細は図7に示すようになっている。また、アフレコ編集した場合にはPLAYL_IFOというプレイリスト情報を記述する。これは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datとアフレコした場合の図2に示すPLnの中のアフレコオーディオデータAF-1.dat〜AF-m.datのストリームファイルをリンクさせるためのリスト情報である。   The contents of the next CNTNT_IFO describe PR_IFO_0 to PL_IFO_n as information for each of a plurality of programs. Details are as shown in FIG. When post-record editing is performed, playlist information called PLAYL_IFO is described. This is the post-record audio data AF-1.dat to AF-m. In the PLn shown in FIG. 2 when the audio video multiplexed stream PRn.dat in the folder PR shown in FIG. List information for linking dat stream files.

ユーザは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datに対して、1からmまでのm種類のアフレコ・オーディオデータを登録できる。mが0のときにはアフレコオーディオを使わないで、元の音声を使用する。1からmまでの番号を指示したときには、アフレコ・オーディオ音声を用いて、再生もしくは伝送を行う。PLAYL_IFOの構造の詳細は図8に示すようになっている。またこの下の階層に、プログラムの一部をインデックスとして登録できる構造INDEX_IFOがある。この構造のフォーマットは図4に示すようになっている。INDEX_のシンタックスは図9に示すようになっている。   The user can register m types of post-recording audio data from 1 to m in the audio video multiplexed stream PRn.dat in the folder PR shown in FIG. When m is 0, the original sound is used without using the after-recording audio. When a number from 1 to m is instructed, playback or transmission is performed using post-record audio audio. Details of the structure of PLAYL_IFO are as shown in FIG. In the lower hierarchy, there is a structure INDEX_IFO that allows a part of the program to be registered as an index. The format of this structure is as shown in FIG. The syntax of INDEX_ is as shown in FIG.

<再生装置>
次に、図10を用いて本発明のアフレコ信号再生装置の一実施例を適用した再生装置について説明する。ここで、CPU121はユーザインターフェース(User I/F)120から、通常のメインデータを再生するか又はアフレコ・オーディオデータを再生するかの指示が入力され、また識別情報が入力されると、入力に応じた指示信号を信号切り替え器114に出力し、また、その識別情報を識別情報検出器123に出力する。まず、通常のメインデータを再生する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によって読み取られてバッファ112aに記録される。バッファ112aに入力されたデータは分離器113によって、多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。
<Reproducing device>
Next, a reproducing apparatus to which one embodiment of the after-recording signal reproducing apparatus of the present invention is applied will be described with reference to FIG. Here, the CPU 121 receives from the user interface (User I / F) 120 an instruction for reproducing normal main data or dubbing audio data, and when identification information is inputted, the input is performed. The corresponding instruction signal is output to the signal switch 114 and the identification information is output to the identification information detector 123. First, a case where normal main data is reproduced will be described. The multiplexed stream data of the main data recorded on the recording medium 108 is read by the reading controller 111 and recorded in the buffer 112a. The data input to the buffer 112 a is separated by the separator 113 for each element, and the video signal is transmitted to the time stamp detector 115 a and the audio signal is transmitted to the signal switch 114.

信号切り替え器114ではメインデータを再生するので、分離器113からのオーディオ信号が選択され、タイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115bではそれぞれ、前述したPCRや、PTS、DTSなどのタイムスタンプデータを検出し、検出したタイムスタンプ関連の情報はタイムスタンプ比較器124に伝送される。   Since the signal switch 114 reproduces the main data, the audio signal from the separator 113 is selected and transmitted to the time stamp detector 115b. Each of the time stamp detectors 115a and 115b detects time stamp data such as the above-described PCR, PTS, and DTS, and the detected time stamp related information is transmitted to the time stamp comparator 124.

次にビデオ、オーディオの各PESパケットは、それぞれPESパケット解除器116a、116bによってパケットが解除され、それぞれビデオデータはビデオ復号化器117aへ、オーディオデータはオーディオ復号化器117bへ伝送される。ビデオ復号化器117aでは復号されたビデオデータをメモリ118aに一時記憶し、オーディオ復号器117bではオーディオデータをメモリ118bに一時記憶する。   Next, the video and audio PES packets are released by the PES packet releasers 116a and 116b, respectively, and the video data is transmitted to the video decoder 117a and the audio data is transmitted to the audio decoder 117b. The video decoder 117a temporarily stores the decoded video data in the memory 118a, and the audio decoder 117b temporarily stores the audio data in the memory 118b.

このとき、タイムスタンプ比較器124では、検出したPCR情報からシステムのクロックを同期させて、マスターとなるクロック情報を生成する一方、DTSの復号タイミング情報をシステムクロックと比較し、一致したときにビデオ復号器117aへ復号開始信号を伝送することにより、タイムスタンプデータが記述されていたパケットに対応するビデオをそのタイミングで復号する。またPTSについては、オーディオとビデオ共に表示タイミング情報をシステムクロックと比較し、一致したときにビデオデータは表示モニタ119aへ、オーディオデータはスピーカ119bへそのタイミングで出力する。タイムスタンプ比較器124においては、基準クロックをPCR信号にてPLLをロックするが、基準信号は27MHzのクロックを用いて行う。   At this time, the time stamp comparator 124 synchronizes the system clock from the detected PCR information to generate master clock information, and compares the DTS decoding timing information with the system clock. By transmitting a decoding start signal to the decoder 117a, the video corresponding to the packet in which the time stamp data is described is decoded at that timing. As for PTS, the display timing information for both audio and video is compared with the system clock, and when they match, the video data is output to the display monitor 119a and the audio data is output to the speaker 119b at that timing. In the time stamp comparator 124, the PLL is locked by a PCR signal as a reference clock, and the reference signal is generated using a 27 MHz clock.

次にアフレコ・オーディオ信号を再生する場合について説明する。アフレコ・オーディオ信号は、メインデータのビデオ信号を再生しつつ、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて再生する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて再生するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコ・オーディオデータの番号に相当する。識別情報検出器123は、CPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_numberを読み取り、読み取り制御器111に対して相当するファイル名のデータを読み取る指示信号を出す。CPU121はまた、信号切り替え器114に対してアフレコ選択信号を出す。   Next, a case where an after-recording audio signal is reproduced will be described. The after-recording audio signal is reproduced by replacing the audio signal portion of the main data with the after-recording audio signal while reproducing the video signal of the main data. First, the user interface 120 inputs what number of the post-recording audio is replaced with what number of the main data. PR_number in PLAYL_INFO () of the information format shown in FIG. 8 corresponds to the main data number, and AF_number corresponds to the post-recording audio data number. In response to an instruction signal from the CPU 121, the identification information detector 123 reads the PR_number and AF_number from the data structure shown in FIG. 8 of the information format, and sends an instruction signal for reading the corresponding file name data to the reading controller 111. put out. The CPU 121 also issues an after-recording selection signal to the signal switch 114.

これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a,バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114に伝送される。一方、バッファ112aに入力されたデータは分離器113によって多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。信号切り替え器114ではアフレコデータを再生するので、バッファ112bからの信号が選択されてタイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115b以下の動作は、メインデータ再生の場合と同じであるので説明を省略する。   As a result, the main data file in which the video and audio recorded on the recording medium 108 are multiplexed and the after-recording audio data file are read in a burst manner by the reading controller 111, and each element is read. Data is temporarily stored in the buffer 112a and the buffer 112b. The after-recording audio data stored in the buffer 112b is transmitted to the signal switch 114. On the other hand, the data input to the buffer 112 a separates the data multiplexed by the separator 113 for each element, and the video signal is transmitted to the time stamp detector 115 a and the audio signal is transmitted to the signal switch 114. Since the signal switch 114 reproduces the post-record data, the signal from the buffer 112b is selected and transmitted to the time stamp detector 115b. Since the operations after the time stamp detectors 115a and 115b are the same as those in the main data reproduction, the description thereof is omitted.

<伝送装置>
次に、図11を用いてメインデータとアフレコオーディオデータとを伝送する伝送装置について説明する。まず、普通のメインデータを伝送する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によってバッファ112aに記録される。バッファ112aに入力されたデータは、要素切り替え器125に伝送される。このとき、ユーザインターフェース120からメインデータを伝送することが入力され、CPU121から要素切り替え器125メインデータを伝送することを示す指示信号が伝送されている場合、要素切り替え器125では、バッファ112aからの信号をそのままバッファ126を介して伝送路に伝送する。
<Transmission equipment>
Next, a transmission apparatus that transmits main data and post-recording audio data will be described with reference to FIG. First, a case where normal main data is transmitted will be described. The multiplexed stream data of the main data recorded on the recording medium 108 is recorded in the buffer 112a by the reading controller 111. The data input to the buffer 112a is transmitted to the element switch 125. At this time, when the main data is transmitted from the user interface 120 and the instruction signal indicating that the main data is transmitted from the element switch 125 is transmitted from the CPU 121, the element switch 125 receives from the buffer 112a. The signal is transmitted to the transmission line via the buffer 126 as it is.

次に、アフレコ・オーディオ信号を伝送する場合について説明する。アフレコ・オーデイオ信号は、メインデータのビデオ信号を基に、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて伝送する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて、伝送するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコオーディオデータの番号に相当する。識別情報検出器123はCPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_number を読み取り、読み取り制御器11に対して相当するファイル名のデータを読み取る指示信号を出す。   Next, a case where an after-recording audio signal is transmitted will be described. The post-recording audio signal is transmitted by replacing the audio signal portion of the main data with the after-recording audio signal based on the video signal of the main data. First, the user interface 120 inputs what number of post-recording audio is replaced with what number of main data. PR_number in PLAYL_INFO () of the information format shown in FIG. 8 corresponds to the number of main data, and AF_number corresponds to the number of post-recording audio data. In response to an instruction signal from the CPU 121, the identification information detector 123 reads the PR_number and AF_number from the data structure shown in FIG. 8 of the information format, and issues an instruction signal for reading the corresponding file name data to the reading controller 11. .

これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a、バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114へ伝送され、一方、バッファ112aに入力されたデータは要素切り替え器125に伝送される。   As a result, the main data file in which the video and audio recorded on the recording medium 108 are multiplexed and the after-recording audio data file are read in a burst manner by the reading controller 111, and each element is read. Data is temporarily stored in the buffer 112a and the buffer 112b. The after-recording audio data stored in the buffer 112b is transmitted to the signal switch 114, while the data input to the buffer 112a is transmitted to the element switch 125.

このとき、ユーザインターフェース120からアフレコ・オーディオデータを伝送することが入力されて、CPUから信号切り替え器114、要素切り替え器125にアフレコオーディオデータを伝送することを示す指示信号が伝送されており、要素切り替え器125ではアフレコオーディオデータを伝送するので、メインデータの多重化データのオーディオ部分を信号切り替え器114から入力されたアフレコ・オーディオデータのオーディオ部分と入れ替えてバッファ126を介して伝送路に伝送する。PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよい。ただし、MPEG多重化規格で採用されているCRCコードはアフレコオーディオデータを入れ替えたパケット部分に応じて、再計算されて新しい値に変更する。   At this time, transmission of post-recording audio data is input from the user interface 120, and an instruction signal indicating transmission of post-recording audio data from the CPU to the signal switch 114 and the element switch 125 is transmitted. Since the switch 125 transmits the after-recording audio data, the audio part of the multiplexed data of the main data is replaced with the audio part of the after-recording audio data input from the signal switch 114, and is transmitted to the transmission path via the buffer 126. . Time stamps such as PCR, DTS, and PTS need not be changed at all. However, the CRC code adopted in the MPEG multiplexing standard is recalculated and changed to a new value in accordance with the packet part in which the after-recording audio data is replaced.

なお、本実施例はメインデータを作成するときに、アフレコデータの種類のデータをあらかじめ要素データの中に作成すること、及びアフレコデータの転送レートはメインデータに含まれるアフレコデータの種類と同じ要素データと同じであることを想定してるが、メインデータを作成するときに、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておいてもよい。   In this embodiment, when creating the main data, the data of the after-record data type is created in advance in the element data, and the transfer rate of the after-record data is the same element as the type of the after-record data included in the main data. Although it is assumed that the data is the same as the data, element data having the same transfer rate as the expected after-recording data may be multiplexed in advance with dummy data when the main data is created.

また、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておくか、ダミーでない要素データをメインデータ作成時に記録しておくときには、図11における要素切り替え器125においては、PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよいが、ダミーデータを記録しておかない場合や、アフレコデータの転送レートが違う場合には、要素切り替え器125が実質的に再多重化をして、新たなPCRやDTS、PTSなどのタイムスタンプを付け直すことが必要である。しかしながらその場合でも、本発明の効果は、十分に発揮される。   In addition, when the element data having the same transfer rate as the expected after-recording data is multiplexed in advance with dummy data, or when element data that is not dummy is recorded at the time of main data creation, the element switcher 125 in FIG. The time stamps of PCR, DTS, PTS, etc. need not be changed at all. However, if dummy data is not recorded or if the transfer rate of post-recording data is different, the element switch 125 substantially remultiplexes. It is necessary to re-add time stamps such as new PCR, DTS, and PTS. However, even in that case, the effects of the present invention are sufficiently exhibited.

以上のように、少なくともオーディオとビデオ信号を圧縮符号化し、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプを記録して、それぞれを多重化して記録するメインデータと、多重化された要素データの少なくとも1つの種類について、1つもしくは複数のアフレコ用の圧縮データを多重化しないで記録するので、簡単にアフレコデータを記録するフォーマットが実現でき、アフレコデータも多くの種類を記録することができる。   As described above, at least audio and video signals are compressed and encoded, and a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data, and each is multiplexed with main data to be recorded by multiplexing. Since at least one kind of element data is recorded without multiplexing one or more after-recording compressed data, a format for easily recording after-recording data can be realized, and many kinds of after-recording data can be recorded. be able to.

また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されない状態で記録されているアフレコデータを、時分割的に読み出し、再生するので、記録した複数のアフレコデータを簡単に識別することができ、しかも、再多重化することなく、アフレコデータを再生できる。   Also, at least audio and video signals are compressed and encoded, and data in which a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data is multiplexed with the main data recorded and multiplexed. Since at least one or a plurality of types of elemental data is recorded and read after-recorded in a time-division manner, the post-record data recorded in a state where the compressed data for post-recording is not multiplexed is recorded. The post-record data can be reproduced easily without being re-multiplexed.

また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されないで記録されているアフレコデータを時分割的に読み出し、多重化されて記録されているメインデータの要素データのデータと、アフレコ用のデータを入れ替えて伝送するので、伝送されるデータにおいては完全にMPEG多重化規格に準拠したデータを伝送可能となり、外部の伝送先に存在するMPEG対応の再生器で、本発明のアフレコデータを反映した伝送データを再生することができる。   Further, at least audio and video signals are compression-encoded, and data in which a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data is multiplexed with the main data recorded and multiplexed. For at least one or a plurality of types of component data, the post-record data recorded without being multiplexed is read in a time-sharing manner, and the component data of the main data is recorded after being multiplexed And the data for after-recording are exchanged and transmitted, so that the data that is completely compliant with the MPEG multiplexing standard can be transmitted in the transmitted data, and an MPEG compatible player that exists at an external transmission destination, Transmission data reflecting the post-recording data of the present invention can be reproduced.

また、すべてにおいて、この構成によって、アフレコを選択して記録、再生伝送した後でも、再度元に戻すことができ、かつ複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムを提供できる。   In addition, in all cases, with this configuration, even after the recording is selected, recorded, reproduced and transmitted, the system can be restored again, and the user can enjoy the after-recording data selectively after recording a plurality of after-recording sounds. Can provide.

さらにまた、上記したアフレコ装置の機能をプログラムによりコンピュータに実現させてもよいし、上記した再生装置の機能をプログラムによりコンピュータに実現させてもよい。これらのプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。   Furthermore, the function of the above-described after-recording apparatus may be realized by a computer by a program, and the function of the above-described playback apparatus may be realized by a computer by a program. These programs may be read from a recording medium and loaded into a computer, or may be transmitted via a communication network and loaded into a computer.

本発明に係るアフレコ信号再生装置にて再生されるアフレコ用データを生成するアフレコ装置の一例を示すブロック図である。It is a block diagram which shows an example of the after-recording apparatus which produces | generates the data for after-recording reproduced | regenerated with the after-recording signal reproduction | regeneration apparatus based on this invention. ライブラリ情報のファイル構成のフォーマット例を示す説明図である。It is explanatory drawing which shows the example of a format of the file structure of library information. ライブラリ情報におけるPROGRAMのフォーマット例を示す説明図である。It is explanatory drawing which shows the example of a format of PROGRAM in library information. ライブラリ情報におけるINDEXのフォーマット例を示す説明図である。It is explanatory drawing which shows the example of a format of INDEX in library information. ハードディスク上のTSストリームのフォーマットを示す説明図である。It is explanatory drawing which shows the format of TS stream on a hard disk. 本発明の一実施例に用いられるサイド情報のGENERAL_IFOテーブルを示す説明図である。It is explanatory drawing which shows the GENERAL_IFO table of the side information used for one Example of this invention. 本発明の一実施例に用いられるサイド情報のPROGRAM_IFOテーブルを示す説明図である。It is explanatory drawing which shows the PROGRAM_IFO table of the side information used for one Example of this invention. 本発明の一実施例に用いられるサイド情報のPLAYL_IFOテーブルを示す説明図である。It is explanatory drawing which shows the PLAYL_IFO table of the side information used for one Example of this invention. 本発明の一実施例に用いられるサイド情報のINDEX_IFOテーブルを示す説明図である。It is explanatory drawing which shows the INDEX_IFO table of the side information used for one Example of this invention. 本発明のアフレコ信号再生装置の一実施例を適用した再生装置を示すブロック図である。It is a block diagram which shows the reproducing | regenerating apparatus to which one Example of the after-recording signal reproducing | regenerating apparatus of this invention is applied. メインデータとアフレコオーディオデータとを伝送する伝送装置の一例を示すブロック図である。It is a block diagram which shows an example of the transmission apparatus which transmits main data and after-recording audio data. MPEG符号化器を示すブロック図である。It is a block diagram which shows an MPEG encoder. MPEG復号化器を示すブロック図である。It is a block diagram which shows an MPEG decoder. MPEG多重化システムを示すブロック図である。1 is a block diagram showing an MPEG multiplexing system. FIG. MPEGのTSとPS及びPESの関連を示す説明図である。It is explanatory drawing which shows the relationship of MPEG TS, PS, and PES. MPEGのTSのPSIの使用例を示す説明図である。It is explanatory drawing which shows the usage example of PSI of MPEG TS.

符号の説明Explanation of symbols

101a ビデオ符号化器
101b オーディオ符号化器
102a,102b PESパケット化器
103a,103b タイムスタンプ記録器
104 多重化器
105,114 信号切り替え器
108 記録メディア
109,120 ユーザインターフェース
123 識別情報検出器
124 タイムスタンプ比較器

101a Video encoder 101b Audio encoder 102a, 102b PES packetizer 103a, 103b Time stamp recorder 104 Multiplexer 105, 114 Signal switcher 108 Recording medium 109, 120 User interface 123 Identification information detector 124 Time stamp Comparator

Claims (1)

メインデータを構成するオーディオ信号とビデオ信号との2つの信号の圧縮符号化データが、それぞれ所定の単位に前記オーディオ信号と前記ビデオ信号との同期再生用のタイムスタンプが付加され多重化されてなるメインデータのストリームが入力される入力手段と、
前記メインデータを構成するオーディオ信号に対する複数のアフレコ用圧縮符号化オーディオデータの1つを選択指定するための手段と、
前記複数のアフレコ用圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプ及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報が付加され、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームから、前記選択指定されたアフレコ用圧縮符号化オーディオデータを含むアフレコ用データのストリームを前記識別情報に基づき選択入力する入力手段と、
前記メインデータのストリームからメインデータを読み出すとともに、前記選択指定された1つのアフレコ用圧縮符号化オーディオデータを前記選択入力されたアフレコ用データのストリームから読み出して、前記選択指定されたアフレコ用圧縮符号化オーディオデータを当該アフレコ用圧縮符号化オーディオデータに対する前記メインデータ内のオーディオ信号と置き換え、前記メインデータのストリームから読み出したタイムスタンプと前記選択入力されたアフレコ用データのストリームから読み出したタイムスタンプとに基づいて、前記メインデータのビデオ信号と前記選択指定されたアフレコ用圧縮符号化オーディオデータとを同期再生する手段と、
を備えたことを特徴とするアフレコ信号再生装置。
The compression-encoded data of two signals of the audio signal and the video signal constituting the main data are multiplexed by adding a time stamp for synchronous reproduction of the audio signal and the video signal to each predetermined unit. An input means for receiving a stream of main data;
Means for selecting and designating one of a plurality of post-recording compression-coded audio data for the audio signal constituting the main data;
The plurality of after-recording compressed and encoded audio data are added with a time stamp for synchronous reproduction with the main data and identification information for identifying the individual after-recording compressed and encoded audio data, and multiplexed with the main data. An input means for selecting and inputting a post-record data stream including the selected post-record compressed audio data from the post-record data stream that has been streamed without being converted based on the identification information;
The main data is read out from the main data stream, and the one selected after-recording compressed encoded audio data is read out from the selected after-recording data stream, and the selected after-recording compressed code is read out. Replacing the encoded audio data with the audio signal in the main data for the post-recording compressed encoded audio data, and a time stamp read from the main data stream and a time stamp read from the selected post-record data stream And means for synchronously playing back the video signal of the main data and the selected and designated after-recording compression-encoded audio data;
An after-recording signal reproducing apparatus comprising:
JP2005074644A 2005-03-16 2005-03-16 Postrecording signal reproducing apparatus Pending JP2005245006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005074644A JP2005245006A (en) 2005-03-16 2005-03-16 Postrecording signal reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005074644A JP2005245006A (en) 2005-03-16 2005-03-16 Postrecording signal reproducing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001367614A Division JP2003169292A (en) 2001-11-30 2001-11-30 After-recording device, computer program, recording medium, transmission method and reproducing device

Publications (1)

Publication Number Publication Date
JP2005245006A true JP2005245006A (en) 2005-09-08

Family

ID=35026140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005074644A Pending JP2005245006A (en) 2005-03-16 2005-03-16 Postrecording signal reproducing apparatus

Country Status (1)

Country Link
JP (1) JP2005245006A (en)

Similar Documents

Publication Publication Date Title
US8238383B2 (en) Method and apparatus for generating information signal to be recorded
US8244108B2 (en) After-recording apparatus
JP4092681B2 (en) MPEG recording device, playback device, and transmission device
JP2005198350A (en) After-recording signal reproducing method
JP2005198349A (en) Recording medium
JP2005245006A (en) Postrecording signal reproducing apparatus
JP2005237021A (en) After-recording signal reproduction program
JP2005253093A (en) After recording signal transmitting instrument
JP2005260979A (en) Method for transmitting after-recording signal
JP2005198351A (en) After-recording signal reproducing apparatus
JP2005260978A (en) Program for generating after-recording signal
JP2005198348A (en) Transmission method
JP2005198347A (en) Method for generating after-recording signal

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070706