JP2000287178A - Insert edit system for mpeg 2 data - Google Patents
Insert edit system for mpeg 2 dataInfo
- Publication number
- JP2000287178A JP2000287178A JP9106199A JP9106199A JP2000287178A JP 2000287178 A JP2000287178 A JP 2000287178A JP 9106199 A JP9106199 A JP 9106199A JP 9106199 A JP9106199 A JP 9106199A JP 2000287178 A JP2000287178 A JP 2000287178A
- Authority
- JP
- Japan
- Prior art keywords
- data
- audio
- mpeg2
- audio data
- editing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、MPEG2データ
のインサート編集システムに関し、特に、MPEG2デ
ータにおける音声データをリアルタイムに編集すること
ができるインサート編集システムに関する。The present invention relates to an insert editing system for MPEG2 data, and more particularly to an insert editing system capable of editing audio data in MPEG2 data in real time.
【0002】[0002]
【従来の技術】動画を高度に圧縮して、ディジタル動画
データとして扱うためには、MPEG(motion photogra
phic coding experts groupe)規格のデータフォーマッ
トが用いられる。このようなMPEGデータフォーマッ
トを用いるディジタル動画データ(以下、MPEGデー
タと称する)に対する編集処理では、画像と音声の編集
をそれぞれ個別に行い、最終的に画像と音声を組み合わ
せて、再び、MPEGデータとする。2. Description of the Related Art In order to highly compress a moving image and treat it as digital moving image data, MPEG (motion photograpy) is used.
The data format of the phic coding experts groupe) standard is used. In the editing processing for digital moving image data (hereinafter, referred to as MPEG data) using such an MPEG data format, editing of images and sounds is performed individually, and finally images and sounds are combined, and the MPEG data and I do.
【0003】図1は、従来におけるMPEGデータの編
集処理を行うインサート編集システムの構成の一例を示
す図である。図1において、1はMPEG2−TSデー
タファイル、2は音声データ変換・抽出部、3は音声デ
ータファイル、4は映像データ編集処理部、5は音声デ
ータ編集処理部、6は映像データ出力部、7は音声デー
タ出力部、8は同期処理部である。FIG. 1 is a diagram showing an example of the configuration of a conventional insert editing system for editing MPEG data. 1, 1 is an MPEG2-TS data file, 2 is an audio data conversion / extraction unit, 3 is an audio data file, 4 is a video data edit processing unit, 5 is an audio data edit processing unit, 6 is a video data output unit, 7, an audio data output unit; and 8, a synchronization processing unit.
【0004】MPEGデータは、符号化され高度に圧縮
された映像データと音声データとがそれぞれパケットデ
ータとして混じり合って存在しているので、MPEG2
データの編集処理を行うインサート編集システムでは、
その映像データの編集処理と、音声データの編集処理が
それぞれ個別に行われる。図1に示すように、映像デー
タの編集処理は、MPEG2−TSデータファイル1か
ら取り出されたMPEGデータの映像データのパケット
に対して、映像データ編集処理部4により行い、映像デ
ータ出力部6から、その編集した映像データリソースが
取り出される。この場合、映像データ編集処理部4で
は、映像データのフレーム画像をモニタ画面等に表示し
て映像の編集を行う。[0004] Since MPEG data contains coded and highly compressed video data and audio data mixed as packet data, the MPEG2 format is used.
In an insert editing system that edits data,
The editing process of the video data and the editing process of the audio data are individually performed. As shown in FIG. 1, video data editing processing is performed by a video data editing processing unit 4 on a packet of video data of MPEG data extracted from an MPEG2-TS data file 1, and is output from a video data output unit 6. Then, the edited video data resource is extracted. In this case, the video data editing processing unit 4 edits the video by displaying the frame image of the video data on a monitor screen or the like.
【0005】音声データの編集処理については、まず、
音声データ変換・抽出部2により、MPEG2−TSデ
ータファイル1からMPEG2−TSデータの音声デー
タ部分である音声データパケットを取り出し、それを他
のデータ形式(WAVEデータ、PCMデータ)の音声
データに変換して抽出し、音声データファイル3に格納
する。そして、音声データファイル3から音声データを
取りだし、音声データ編集処理部5により編集処理を行
い、音声データ出力部7から、その編集した音声データ
リソースを取り出す。そして、映像に対して音声を合わ
せるため、同期処理部8の制御により映像データ出力部
6と音声データ出力部7を制御し、編集結果を別々のリ
ソースから同期を取りながら出力することにより、イン
サート編集を行う。[0005] Regarding audio data editing processing, first,
The audio data conversion / extraction unit 2 extracts an audio data packet, which is an audio data portion of MPEG2-TS data, from the MPEG2-TS data file 1 and converts it into audio data of another data format (WAVE data, PCM data). And extracts it and stores it in the audio data file 3. Then, audio data is extracted from the audio data file 3, edited by the audio data editing unit 5, and the edited audio data resource is extracted from the audio data output unit 7. Then, in order to synchronize the audio with the video, the video data output unit 6 and the audio data output unit 7 are controlled by the control of the synchronization processing unit 8, and the edited results are output from different resources in synchronization with each other. Edit.
【0006】つまり、この場合、1つのMPEG2−T
Sデータを、その映像データと音声データとで別々の編
集処理(4,5)を施し、編集した結果を別々のデータ
リソース(6,7)として、同期(8)を取りながら出
力することによりインサート編集を実現している。That is, in this case, one MPEG2-T
S data is subjected to separate editing processing (4, 5) for its video data and audio data, and the edited results are output as separate data resources (6, 7) while being synchronized (8). Realizes insert editing.
【0007】ところで、このようなインサート編集シス
テムでは、映像データに対して音声データを追加するな
どのインサート編集した編集結果は、映像出力と音声出
力とが同期を取られて出力されるが、映像出力と音声出
力とが別系統の信号となっているため、また、データと
してもデータ量の大きな映像データと音声データに戻っ
ているため、これを1つのデータとしてまとめて、コン
パクトなMPEG2−TSデータとして扱えるようにす
るには、編集結果の映像データと音声データをMPEG
データに再エンコードしなければならない。In such an insert editing system, the result of insert editing, such as adding audio data to video data, is output with the video output and audio output synchronized. Since the output and the audio output are signals of different systems, and the data is also returned to the video data and the audio data having a large data amount, these are combined into one data to form a compact MPEG2-TS. In order to be able to handle as data, the video data and audio data
Must be re-encoded into data.
【0008】したがって、MPEG2−TSデータを扱
うインサート編集システムでは、映像データ(映像リソ
ース,映像出力)と音声データ(音声リソース,音声出
力)を、MPEGデータにエンコードするエンコード処
理部を設けている。Therefore, the insert editing system that handles MPEG2-TS data is provided with an encode processing unit that encodes video data (video resources, video output) and audio data (audio resources, audio output) into MPEG data.
【0009】図2は、従来のMPEG2データの編集処
理を行うインサート編集システムの別の構成例を示す図
である。図2において、10はMPEG2−TSデータ
ファイル、11は音声データ変換・抽出部、12は音声
データファイル、13は映像データ編集処理部、14は
音声データ編集処理部、15は映像データ出力部、16
は音声データ出力部、17は同期処理部、18はエンコ
ード処理部、19は編集されたMPEG2−TSデータ
ファイルである。FIG. 2 is a diagram showing another example of the configuration of a conventional insert editing system for editing MPEG2 data. In FIG. 2, 10 is an MPEG2-TS data file, 11 is an audio data conversion / extraction unit, 12 is an audio data file, 13 is a video data editing processing unit, 14 is an audio data editing processing unit, 15 is a video data output unit, 16
Is an audio data output unit, 17 is a synchronization processing unit, 18 is an encoding processing unit, and 19 is an edited MPEG2-TS data file.
【0010】図2に示すMPEG2データのインサート
編集システムは、図1に示したインサート編集システム
に対して、映像データ(映像リソース,映像出力)と音
声データ(音声リソース,音声出力)を、MPEGデー
タにエンコードするエンコード処理部を設けた構成とな
っている。The insert editing system for MPEG2 data shown in FIG. 2 is different from the insert editing system shown in FIG. 1 in that video data (video resources and video output) and audio data (audio resources and audio output) are In this configuration, an encoding processing unit for encoding is provided.
【0011】MPEG2データのインサート編集システ
ムは、図2に示すように、MPEG2−TSデータファ
イル10から取り出されたMPEGデータに対して、映
像データの編集処理を、映像データ編集処理部13によ
り行い、同期処理部17の制御によって映像データ出力
部15から編集した映像データリソースとして取り出
す。また、音声データの編集処理では、音声データ変換
・抽出部11により、MPEG2−TSデータファイル
10からMPEG2−TSデータの音声データ部分を他
のデータ形式(WAVEデータ、PCMデータ)の音声
データに変換して抽出し、音声データファイル12に格
納する。そして、音声データファイル12から音声デー
タを取り出し、音声データ編集処理部14により編集処
理を行い、同期処理部17の制御によって音声データ出
力部16から、編集した音声データが音声データリソー
スとして取り出される。その際、映像に対して音声を合
わせて出力するため、同期処理部17は、映像データ出
力部15と音声データ出力部16を制御して、映像デー
タと音声データとを同期を取りながら出力し、エンコー
ド処理部18に入力する。エンコード処理部18は、同
期して入力された映像データと音声データとをMPEG
2データにエンコードして出力し、MPEG2−TSデ
ータファイル19に格納する。As shown in FIG. 2, the MPEG2 data insert editing system performs video data editing processing on the MPEG data extracted from the MPEG2-TS data file 10 by a video data editing processing unit 13. It is taken out from the video data output unit 15 as an edited video data resource under the control of the synchronization processing unit 17. In the audio data editing process, the audio data conversion / extraction unit 11 converts the audio data portion of the MPEG2-TS data from the MPEG2-TS data file 10 into audio data of another data format (WAVE data, PCM data). And extracts it and stores it in the audio data file 12. Then, audio data is extracted from the audio data file 12, edited by the audio data editing processing unit 14, and the edited audio data is extracted from the audio data output unit 16 as an audio data resource under the control of the synchronization processing unit 17. At this time, in order to output the audio together with the video, the synchronization processing unit 17 controls the video data output unit 15 and the audio data output unit 16 to output the video data and the audio data while synchronizing them. , To the encoding processing unit 18. The encoding processing unit 18 converts the video data and the audio data input
The data is encoded into two data and output, and stored in the MPEG2-TS data file 19.
【0012】[0012]
【発明が解決しようとする課題】このように、従来のイ
ンサート編集システムにおいては、映像データの編集処
理と音声データの編集処理がそれぞれ別に行われ、ま
た、映像データに対して音声データを追加するなどのイ
ンサート編集した編集結果は、映像出力と音声出力とが
同期を取られて出力されるが、映像出力と音声出力とが
別系統の信号となっているため、これを1つのデータと
してまとめて簡易に扱えるようにするには、映像データ
と音声データを合わせてMPEGデータに再びエンコー
ドしなければならない。As described above, in the conventional insert editing system, the editing process of the video data and the editing process of the audio data are separately performed, and the audio data is added to the video data. The edit result of insert editing such as is output with the video output and the audio output synchronized, but since the video output and the audio output are signals of different systems, they are collected as one data. In order to be able to handle the video data and the audio data simply, the video data and the audio data must be encoded again into MPEG data.
【0013】MPEGデータへのエンコード処理は映像
データと音声データを高度に圧縮するため負荷が重く、
多くの処理時間を必要とし、リアルタイムなインサート
編集が行えないという問題があった。つまり、MPEG
データの映像データに対して音声データを付加するなど
の簡単なインサート編集を行う場合であっても、編集結
果の映像出力と音声出力とがそれぞれに別系統の信号と
なって出力され、これが1つのデータとしてまとめてM
PEGデータにするには、再度のエンコード処理を行わ
なければならず、多くの処理時間を必要とし、リアルタ
イムなインサート編集が行えないという問題があった。[0013] The encoding process to MPEG data has a heavy load because video data and audio data are highly compressed.
There is a problem that it requires a lot of processing time and cannot perform real-time insert editing. That is, MPEG
Even when performing simple insert editing such as adding audio data to video data of data, the video output and audio output of the edited result are output as signals of different systems, respectively. M
In order to convert to PEG data, re-encoding processing must be performed, which requires a lot of processing time, and there is a problem that real-time insert editing cannot be performed.
【0014】したがって、本発明の目的は、MPEG2
データの音声データをリアルタイムに編集することがで
きるインサート編集システムを提供することにある。Therefore, an object of the present invention is to provide an MPEG2
An object of the present invention is to provide an insert editing system that can edit audio data of data in real time.
【0015】[0015]
【課題を解決するための手段】上記のような目的を達成
するため、本発明によるMPEG2データのインサート
編集システムは、MPEG2−TSデータの音声データ
を、例えば、MPEG1 Audio レイヤII−ES
データ形式で抽出する抽出手段と、抽出した音声データ
を編集する編集手段と、編集した音声データをMPEG
2−TSデータの音声データ部分に上書きし、MPEG
2−TSデータとして出力する出力手段とを備えたこと
を特徴とする。In order to achieve the above object, an insert editing system for MPEG2 data according to the present invention converts audio data of MPEG2-TS data into, for example, MPEG1 Audio Layer II-ES.
Extracting means for extracting data in a data format; editing means for editing the extracted audio data;
2-Overwrite the audio data part of the TS data,
Output means for outputting 2-TS data.
【0016】本発明によるMPEG2データのインサー
ト編集システムでは、MPEG2のデータ形式を考慮し
て、MPEG2データにおける音声データ部分のパケッ
トデータを取り出して編集し、処理負荷の多いMPEG
データへのエンコード処理を行うことなく、音声データ
部分を編集したMPEG2データを出力する。これによ
り、リアルタイムでのインサート編集が可能となる。In the MPEG2 data insert editing system according to the present invention, the packet data of the audio data portion in the MPEG2 data is taken out and edited in consideration of the data format of the MPEG2 data, and the MPEG2 data having a large processing load is extracted.
The MPEG2 data obtained by editing the audio data portion is output without performing the encoding process on the data. This allows insert editing in real time.
【0017】つまり、抽出手段が、MPEG2−TSデ
ータの音声データをMPEG1 Audio レイヤII
−ESデータ形式で抽出し、編集手段により、抽出した
音声データを編集し、出力手段により、編集した音声デ
ータをMPEG2−TSデータの音声データ部分に上書
きし、MPEG2−TSデータとして出力する。これに
より、MPEG2データの音声データ部分をMPEGデ
ータ形式で抽出し編集処理を施し、編集結果をその都度
MPEG2データとして同一リソースから出力すること
ができる。That is, the extracting means converts the audio data of the MPEG2-TS data into the MPEG1 Audio layer II.
-Extracting in the ES data format, editing the extracted audio data by the editing means, overwriting the edited audio data on the audio data portion of the MPEG2-TS data by the output means, and outputting it as MPEG2-TS data. As a result, the audio data portion of the MPEG2 data can be extracted in the MPEG data format and edited, and the edited result can be output as MPEG2 data each time from the same resource.
【0018】[0018]
【発明の実施の形態】以下、本発明を実施する場合の一
形態について、図面を参照して具体的に説明する。本発
明によるインサート編集システムで扱うデータは、MP
EG2のデータ形式によるデータである。具体的に、M
PEG2データ形式は、MPEG2−TSのGOP=1
または2を前提としている。DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the drawings. The data handled by the insert editing system according to the present invention is MP
This is data in the data format of EG2. Specifically, M
PEG2 data format is MPEG2-TS GOP = 1
Or 2 is assumed.
【0019】図3は、本発明の一実施例のMPEGデー
タの編集処理を行うインサート編集システムの構成を示
す図である。図3において、20はMPEG2−TSデ
ータファイル、21は音声データ抽出部、22は「MP
EG1 Audio」の音声データファイル、23は映
像データ編集処理部、24は音声データ編集処理部、2
5はマージ処理部、26は編集されたMPEG2−TS
データファイル、27は出力処理部である。FIG. 3 is a diagram showing the configuration of an insert editing system for editing MPEG data according to an embodiment of the present invention. In FIG. 3, reference numeral 20 denotes an MPEG2-TS data file, reference numeral 21 denotes an audio data extraction unit, and reference numeral 22 denotes "MP
EG1 Audio "audio data file, 23 is a video data editing processor, 24 is an audio data editing processor, 2
5 is a merge processing unit, 26 is an edited MPEG2-TS
A data file 27 is an output processing unit.
【0020】編集されるMPEG2−TSデータは、図
3に示すように、MPEG2−TSデータファイル20
から取り出され、映像データ編集処理部23において、
必要であれば、MPEGデータの映像データのフレーム
画像に対して、映像データの編集処理を行う。この場
合、例えば、映像データ編集処理部23では、映像デー
タのフレーム画像をモニタ画面等に表示して映像データ
の編集を行う。The MPEG2-TS data to be edited is, as shown in FIG.
From the video data editing processing unit 23,
If necessary, edit processing of the video data is performed on the frame image of the video data of the MPEG data. In this case, for example, the video data editing processing unit 23 edits the video data by displaying a frame image of the video data on a monitor screen or the like.
【0021】音声データの編集処理は、音声データ抽出
部21により、MPEG2−TSデータファイル1から
MPEG2−TSデータの音声データ部分である音声デ
ータパケットを取り出す。ここでは、取り出した音声デ
ータは、他のデータ形式(WAVEデータ、PCMデー
タ)の音声データには変換しないので、取り出したMP
EG2−TSデータの音声データ部分は、「MPEG1
Audio」音声データのパケットデータとなってい
る。そのパケットデータを順に並べて、例えば、ヘッダ
部分を除き、「MPEG1 Audio」音声データと
し、同期ワードによる区別される音声データの1フレー
ム部分を判定するため、音声データファイル22に格納
する。後述するように、音声データの1フレームが復号
可能な最小単位となっているため、同期ワードにより1
フレームの音声データを判別して、音声データをフレー
ム単位で復号して、必要に応じて音声データの編集処理
を行う。In the audio data editing process, the audio data extraction unit 21 extracts an audio data packet which is an audio data portion of MPEG2-TS data from the MPEG2-TS data file 1. Here, the extracted audio data is not converted into audio data of another data format (WAVE data, PCM data),
The audio data portion of the EG2-TS data is “MPEG1
Audio "audio data packet data. The packet data is arranged in order and, for example, excluding the header portion, is set as “MPEG1 Audio” audio data, and is stored in the audio data file 22 in order to determine one frame portion of the audio data distinguished by the synchronization word. As will be described later, since one frame of the audio data is the minimum unit that can be decoded, one frame is determined by the synchronization word.
The audio data of the frame is determined, the audio data is decoded on a frame basis, and the audio data is edited as needed.
【0022】つまり、音声データの編集処理では、音声
データ編集処理部24により、音声データファイル22
から音声データを取り出し、同期ワードにより1フレー
ム単位の音声データを判別して、その音声データをフレ
ーム単位で復号して、必要に応じて音声データの編集処
理を行う。そして、音声データ編集処理部24では、再
び、編集された音声データに対して符号化し、ヘッダ部
分を付加し、「MPEG1 Audio」音声データの
パケットデータとして、パケットデータに分解して、マ
ージ処理部25により映像データ部分のパケットデータ
の対応位置に上書きしてマージする。これにより、その
ままインサート編集されたMPEG2−TSデータとな
る。編集されたMPEG2−TSデータは、編集結果を
格納するMPEG2−TSデータファイル26に格納さ
れ、MPEG2−TSデータをデコードして再生する出
力処理部27によって再生される。これにより、インサ
ート編集された映像出力および音声出力が得られる。こ
こでのインサート編集処理では、多くの負荷のかかるM
PEG2データへのエンコード処理は行っておらず、リ
アルタイム編集が可能となる。That is, in the audio data editing processing, the audio data editing processing unit 24 causes the audio data file 22
, Audio data of one frame unit is determined based on the synchronization word, the audio data is decoded in frame units, and the audio data is edited as necessary. Then, the audio data editing processing unit 24 encodes the edited audio data again, adds a header portion thereto, decomposes the data into packet data as packet data of “MPEG1 Audio” audio data, 25, overwrites and merges the corresponding position of the packet data in the video data portion. As a result, it becomes the MPEG2-TS data that has been insert-edited as it is. The edited MPEG2-TS data is stored in an MPEG2-TS data file 26 that stores the edited result, and is reproduced by an output processing unit 27 that decodes and reproduces the MPEG2-TS data. As a result, a video output and an audio output subjected to insert editing are obtained. In the insert editing process here, M which requires a lot of load
No encoding processing is performed on PEG2 data, and real-time editing becomes possible.
【0023】図4は、本発明の実施例に関係したMPE
G2のデータ形式を説明する図である。図4を参照して
説明する。前述したように、本発明で適用するMPEG
2データ形式は、MPEG2−TSのGOP=1または
2を前提とする。FIG. 4 shows an MPE according to an embodiment of the present invention.
It is a figure explaining the data format of G2. This will be described with reference to FIG. As described above, the MPEG applied in the present invention
The two-data format is based on GOP = 1 or 2 of MPEG2-TS.
【0024】MPEG2−TSデータは、図4に示すよ
うに、映像データストリーム30および音声データスト
リーム31が、それぞれ188バイト単位のパケット
(TSパケット)に分割され、更に多重化されている。
映像データの1フレーム32は、複数個のTSパケット
から構成されており、1フレームのデータ区切りは、必
ずTSパケットの区切りと一致する。In the MPEG2-TS data, as shown in FIG. 4, a video data stream 30 and an audio data stream 31 are divided into packets (TS packets) in units of 188 bytes, and further multiplexed.
One frame 32 of the video data is composed of a plurality of TS packets, and the data break of one frame always matches the break of the TS packet.
【0025】これに対し、音声データの1フレーム33
のデータ区切りは、ほとんどの場合TSパケットの区切
りとは一致しない。音声データの1フレーム33が復号
可能な最小単位となっているが、これは同期ワードによ
り区別され、したがって、音声データの編集を行うに
は、同期ワードにより1フレームの音声データを判別し
て、音声データをフレーム単位で復号して、必要に応じ
て音声データの編集処理を行う。On the other hand, one frame 33 of audio data
The data delimiter does not match the delimiter of the TS packet in most cases. One frame 33 of the audio data is the minimum unit that can be decoded. This is distinguished by the synchronization word. Therefore, in order to edit the audio data, one frame of audio data is determined by the synchronization word. The audio data is decoded frame by frame, and the audio data is edited as needed.
【0026】MPEG2−TSデータの映像データの1
フレーム32のデータサイズは、ピクチャ(画像)のタ
イプ(Iピクチャ,Pピクチャ)によって大きく異なる
(可変長)が、これに対して、音声データは、サンプリ
ング周波数を高くして高品質にしてもデータの性質から
データ量がそれほど多くならず、音声データの1フレー
ム33のデータサイズは、固定長となっている。1 of the video data of the MPEG2-TS data
The data size of the frame 32 varies greatly depending on the type of picture (image) (I picture, P picture) (variable length). On the other hand, audio data has a high sampling frequency and high quality. Therefore, the data amount is not so large, and the data size of one frame 33 of the audio data is fixed.
【0027】図5は、本発明によるMPEG2−TSデ
ータのインサート編集方法を説明する図である。このM
PEG2−TSデータのインサート編集方法によると、
図5に示すように、MPEG2−TSデータを格納して
いるMPEG2ファイル40から、MPEG2−TSデ
ータの音声データだけを抽出し、MPEG1 Audi
o レイヤII−ESファイル42に格納し、抽出した音
声データに対して、必要に応じて復号化して音声信号と
して、他の音声リソースとマージするなどの編集処理を
施し、映像の1フレームに対応した1フレーム分(約1
/30秒)の音声データ43とする。この音声データを
パケットデータとして分解し、MPEG2−TSデータ
における音声データのパケットデータに差し替えるマー
ジ処理を行う。編集の結果は、その都度、MPEG2−
TSデータとして同一リソースから出力する。ここで
は、MPEG2−TSデータにおける音声データのパケ
ットデータに差し替えるため、その映像データおよび音
声データのパケットデータサイズが管理される。ここで
は、映像をベースとした1フレーム単位のデータサイズ
を、データサイズ管理ファイル41を用いて管理する。
ここで管理されているデータサイズを参照して、MPE
G2−TSデータから、その音声データ部分のパケット
のみを順次に差し替え、その都度、MPEG2−TSデ
ータとして同一リソースから出力させる。FIG. 5 is a diagram for explaining a method of insert-editing MPEG2-TS data according to the present invention. This M
According to the insert editing method of PEG2-TS data,
As shown in FIG. 5, only the audio data of the MPEG2-TS data is extracted from the MPEG2 file 40 storing the MPEG2-TS data, and the MPEG1 Audio is extracted.
o The edited audio data stored in the layer II-ES file 42 is subjected to editing processing such as decoding as necessary and merging with other audio resources as an audio signal to correspond to one frame of video. 1 frame (approximately 1
/ 30 seconds). This audio data is decomposed as packet data, and a merge process for replacing the audio data in the MPEG2-TS data with packet data is performed. The result of the editing is, in each case, MPEG2-
Output from the same resource as TS data. Here, the packet data size of the video data and the audio data is managed to replace the packet data of the audio data in the MPEG2-TS data. Here, the data size of each frame based on video is managed using the data size management file 41.
Referring to the data size managed here, the MPE
From the G2-TS data, only the packet of the audio data portion is sequentially replaced, and each time the packet is output as MPEG2-TS data from the same resource.
【0028】すなわち、ここでのMPEG2データのイ
ンサート編集方法では、MPEG2−TSデータの音声
データを抽出し、抽出した音声データのパケットデータ
をまとめて1フレームの単位で編集し、編集した音声デ
ータをパケットデータに分解し、このパケットデータを
MPEG2−TSデータの音声データ部分の対応位置に
マージし、MPEG2−TSデータとして同一リソース
から出力するようにして、インサート編集を行う。この
編集処理においても、MPEG2データを作成するエン
コード処理は必要なく、リアルタイムにインサート編集
が行える。That is, according to the insert editing method of MPEG2 data, the audio data of the MPEG2-TS data is extracted, the packet data of the extracted audio data is collectively edited in units of one frame, and the edited audio data is edited. The packet data is disassembled, the packet data is merged with the corresponding position of the audio data portion of the MPEG2-TS data, and insert editing is performed so as to be output from the same resource as the MPEG2-TS data. Also in this editing process, encoding processing for creating MPEG2 data is not required, and insert editing can be performed in real time.
【0029】図6は、本発明によるMPEG2−TSデ
ータのインサート編集処理の処理フローを示すフローチ
ャートである。図6を参照して説明する。FIG. 6 is a flowchart showing a processing flow of the insert editing processing of MPEG2-TS data according to the present invention. This will be described with reference to FIG.
【0030】ここでのインサート編集処理では、まず、
編集するMPEG2データに対し、編集を行うため、再
生指示が行われた部分の該当データを抽出する(ステッ
プ51)。次に、映像データについては、映像をベース
とした1フレーム単位のデータサイズを管理しているデ
ータサイズ管理ファイル41を解析して、そのデータサ
イズを得る(ステップ52)。そして、MPEG2ファ
イル40から該当する1フレーム分のMPEG2−TS
のデータを取得する(ステップ53)。In the insert editing process, first,
In order to edit the MPEG2 data to be edited, the corresponding data of the portion where the reproduction instruction is issued is extracted (step 51). Next, as for the video data, the data size management file 41 which manages the data size of each frame based on the video is analyzed to obtain the data size (step 52). Then, the corresponding one frame of the MPEG2-TS from the MPEG2 file 40
Is obtained (step 53).
【0031】次に、音声データついては、MPEG1
Audio レイヤII−ESファイル42から、該当す
る約1/30秒分(映像の1フレームに対応する)のM
PEG1 Audio レイヤII−ESのデータを取得
する(ステップ54)。そして、MPEG2ファイル4
0から取得したMPEG2−TSの音声パケットを、M
PEG1 Audio レイヤII−ESファイル42か
ら取得した音声パケットと入れ替えて、MPEG2デー
タを再編成する(ステップ55)。続いて、再編成した
MPEG2データを同一リソースから出力する(ステッ
プ56)。Next, regarding the audio data, MPEG1
From the audio layer II-ES file 42, the corresponding M of about 1/30 second (corresponding to one frame of video)
PEG1 Audio layer II-ES data is obtained (step 54). And MPEG2 file 4
0, the MPEG2-TS voice packet acquired from
The MPEG2 data is reorganized by replacing the audio packets obtained from the PEG1 Audio layer II-ES file 42 (step 55). Subsequently, the rearranged MPEG2 data is output from the same resource (step 56).
【0032】[0032]
【発明の効果】以上、説明したように、本発明のMPE
G2データのインサート編集方法によれば、MPEG2
データの音声データ部分を抽出し編集処理を施し、編集
結果をその都度、MPEG2データとして同一リソース
から出力することで、音声データのインサート編集を実
現する。これにより、MPEG2データのインサート編
集をリアルタイムで行うことができる。As described above, as described above, the MPE of the present invention
According to the insert editing method of G2 data, MPEG2
The audio data part of the data is extracted and edited, and the edited result is output as MPEG2 data from the same resource each time, thereby implementing the insert editing of the audio data. Thereby, insert editing of MPEG2 data can be performed in real time.
【図1】 従来におけるMPEGデータの編集処理を行
うインサート編集システムの構成の一例を示す図、FIG. 1 is a diagram showing an example of a configuration of a conventional insert editing system that performs an editing process of MPEG data;
【図2】 従来のMPEG2データの編集処理を行うイ
ンサート編集システムの別の構成例を示す図、FIG. 2 is a diagram showing another configuration example of a conventional insert editing system that performs editing processing of MPEG2 data;
【図3】 本発明の一実施例のMPEGデータの編集処
理を行うインサート編集システムの構成を示す図、FIG. 3 is a diagram showing a configuration of an insert editing system that performs an MPEG data editing process according to an embodiment of the present invention;
【図4】 本発明の実施例に関係したMPEG2のデー
タ形式を説明する図、FIG. 4 is a view for explaining the data format of MPEG2 related to the embodiment of the present invention;
【図5】 本発明によるMPEG2−TSデータのイン
サート編集方法を説明する図、FIG. 5 is a view for explaining an insert editing method of MPEG2-TS data according to the present invention;
【図6】 本発明によるMPEG2−TSデータのイン
サート編集処理の処理フローを示すフローチャートであ
る。FIG. 6 is a flowchart showing a processing flow of insert editing processing of MPEG2-TS data according to the present invention.
1…MPEG2−TSデータファイル、 2…音声データ変換・抽出部、 3…音声データファイル、 4…映像データ編集処理部、 5…音声データ編集処理部、 6…映像データ出力部、 7…音声データ出力部、 8…同期処理部 10…MPEG2−TSデータファイル、 11…音声データ変換・抽出部、 12…音声データファイル、 13…映像データ編集処理部、 14…音声データ編集処理部、 15…映像データ出力部、 16…音声データ出力部、 17…同期処理部、 18…エンコード処理部、 19…編集されたMPEG2−TSデータファイル 20…MPEG2−TSデータファイル、 21…音声データ抽出部、 22…「MPEG1 Audio」の音声データファイ
ル、 23…映像データ編集処理部、 24…音声データ編集処理部、 25…マージ処理部、 26…編集されたMPEG2−TSデータファイル、 27…出力処理部、 30…映像データストリーム、 31…音声データストリーム、 32…映像の1フレーム、 33…音声の1フレーム、 40…MPEG2−TSデータファイル、 41…データサイズ管理ファイル、 42…MPEG1 Audio レイヤII−ESファイ
ル、 43…音声の1フレーム。DESCRIPTION OF SYMBOLS 1 ... MPEG2-TS data file, 2 ... Audio data conversion / extraction part, 3 ... Audio data file, 4 ... Video data edit processing part, 5 ... Audio data edit processing part, 6 ... Video data output part, 7 ... Audio data Output unit 8 Synchronization processing unit 10 MPEG2-TS data file 11 Audio data conversion / extraction unit 12 Audio data file 13 Video data editing processing unit 14 Audio data editing processing unit 15 Video Data output unit 16 Audio data output unit 17 Synchronization processing unit 18 Encoding processing unit 19 Edited MPEG2-TS data file 20 MPEG2-TS data file 21 Audio data extraction unit 22 "MPEG1 Audio" audio data file, 23: video data editing processing unit, 24: audio data editing processing 25, a merge processing unit, 26, an edited MPEG2-TS data file, 27, an output processing unit, 30, a video data stream, 31, an audio data stream, 32, one frame of video, 33, one frame of audio, 40: MPEG2-TS data file, 41: Data size management file, 42: MPEG1 Audio layer II-ES file, 43: One frame of audio.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 森田 智之 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 (72)発明者 中村 隆之 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 Fターム(参考) 5C023 AA40 CA01 CA04 DA01 DA08 EA03 5C053 FA14 GB38 JA01 KA24 5C059 KK11 KK36 MA00 RA01 RC32 SS02 SS30 UA01 5D044 AB05 DE03 GK08 HL14 5D110 CA06 CA17 CK21 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Tomoyuki Morita 6-81 Ouecho, Naka-ku, Yokohama-shi, Kanagawa Prefecture In-house Hitachi Software Engineering Co., Ltd. 81 Hitachi Software Engineering Co., Ltd. In-house F-term (reference) 5C023 AA40 CA01 CA04 DA01 DA08 EA03 5C053 FA14 GB38 JA01 KA24 5C059 KK11 KK36 MA00 RA01 RC32 SS02 SS30 UA01 5D044 AB05 DE03 GK08 HL14 5D110 CA06 CA17CK21
Claims (3)
抽出する抽出手段と、 抽出した音声データを編集する編集手段と、 編集した音声データをMPEG2−TSデータの音声デ
ータ部分にマージして、MPEG2−TSデータとして
出力する出力手段とを備えたことを特徴とするMPEG
2データのインサート編集システム。1. An extracting means for extracting audio data of MPEG2-TS data; an editing means for editing the extracted audio data; and merging the edited audio data into an audio data portion of the MPEG2-TS data. MPEG having output means for outputting as TS data
2 data insert editing system.
ンサート編集システムにおいて、 前記抽出手段は、MPEG2−TSデータの音声データ
は、MPEG1 Audio レイヤII−ESデータ形
式で抽出することを特徴とするMPEG2データのイン
サート編集システム。2. The MPEG-2 data insert editing system according to claim 1, wherein said extracting means extracts the audio data of the MPEG2-TS data in an MPEG1 Audio layer II-ES data format. Data insert editing system.
抽出して抽出した音声データのパケットデータをまとめ
て1フレームの単位で編集し、 編集した音声データをパケットデータに分解し、パケッ
トデータをMPEG2−TSデータの音声データ部分の
対応位置にマージし、MPEG2−TSデータとして同
一リソースから出力することを特徴とするMPEG2デ
ータのインサート編集方法。3. The audio data of the MPEG2-TS data is extracted, and the packet data of the extracted audio data is collectively edited in units of one frame. The edited audio data is decomposed into packet data. A method for inserting and editing MPEG2 data, wherein the data is merged with the corresponding position of the audio data portion of the TS data and output from the same resource as MPEG2-TS data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9106199A JP3552945B2 (en) | 1999-03-31 | 1999-03-31 | MPEG2 data insert editing method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9106199A JP3552945B2 (en) | 1999-03-31 | 1999-03-31 | MPEG2 data insert editing method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000287178A true JP2000287178A (en) | 2000-10-13 |
JP3552945B2 JP3552945B2 (en) | 2004-08-11 |
Family
ID=14015999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9106199A Expired - Lifetime JP3552945B2 (en) | 1999-03-31 | 1999-03-31 | MPEG2 data insert editing method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3552945B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2224790A1 (en) | 2000-07-17 | 2010-09-01 | Fujifilm Corporation | Light emitting element and azole compound |
CN105981397A (en) * | 2014-02-10 | 2016-09-28 | 杜比国际公司 | Embedding encoded audio into transport stream for perfect splicing |
-
1999
- 1999-03-31 JP JP9106199A patent/JP3552945B2/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2224790A1 (en) | 2000-07-17 | 2010-09-01 | Fujifilm Corporation | Light emitting element and azole compound |
CN105981397A (en) * | 2014-02-10 | 2016-09-28 | 杜比国际公司 | Embedding encoded audio into transport stream for perfect splicing |
JP2017508375A (en) * | 2014-02-10 | 2017-03-23 | ドルビー・インターナショナル・アーベー | Embed encoded audio in transport streams for perfect splicing |
US9883213B2 (en) | 2014-02-10 | 2018-01-30 | Dolby International Ab | Embedding encoded audio into transport stream for perfect splicing |
KR101861941B1 (en) | 2014-02-10 | 2018-07-02 | 돌비 인터네셔널 에이비 | Embedding encoded audio into transport stream for perfect splicing |
CN105981397B (en) * | 2014-02-10 | 2020-06-16 | 杜比国际公司 | Embedding encoded audio into a transport stream for perfect splicing |
Also Published As
Publication number | Publication date |
---|---|
JP3552945B2 (en) | 2004-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6339760B1 (en) | Method and system for synchronization of decoded audio and video by adding dummy data to compressed audio data | |
KR100750520B1 (en) | Encoded stream generating device and method, data transmission system and method, and editing system and method | |
CN1829333B (en) | Method for generating information signal to be recorded | |
CA2272600A1 (en) | System and method for scheduling and processing image and sound data | |
WO2004038921A3 (en) | Method and system for supercompression of compressed digital video | |
JP2001036844A (en) | Image quality confirming device, image quality confirming method and recording medium storing its program | |
US20090010615A1 (en) | Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program | |
JP2002501702A (en) | Video and audio signal processing | |
WO2020215454A1 (en) | Screen recording method, client, and terminal device | |
JP2001274689A (en) | Device and method for processing data | |
JP3854737B2 (en) | Data processing apparatus and method, and data processing system | |
JP2002521882A (en) | Device for separating and multiplexing encoded data | |
JPH1118051A (en) | I-frame extract method | |
JP2000078531A (en) | Method and system for editing audio data | |
US9113150B2 (en) | System and method for recording collaborative information | |
JP3552945B2 (en) | MPEG2 data insert editing method and system | |
JP2004158913A (en) | Audiovisual processor | |
JPH11259096A (en) | Encoding device, editing device, and encoding and multiplexing device, and methods therefor | |
JP3859432B2 (en) | Multimedia data editing device | |
JPH09135446A (en) | Video decoder for mpeg | |
JP3944845B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP3854738B2 (en) | Data processing apparatus and method, and data processing system | |
JP3908541B2 (en) | Digital broadcast signal transmission system | |
JPH10174065A (en) | Image audio multiplex data edit method and its device | |
JP3749216B2 (en) | Digital video / audio recording device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040427 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160514 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term |