JP2008124932A - Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device - Google Patents

Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device Download PDF

Info

Publication number
JP2008124932A
JP2008124932A JP2006308335A JP2006308335A JP2008124932A JP 2008124932 A JP2008124932 A JP 2008124932A JP 2006308335 A JP2006308335 A JP 2006308335A JP 2006308335 A JP2006308335 A JP 2006308335A JP 2008124932 A JP2008124932 A JP 2008124932A
Authority
JP
Japan
Prior art keywords
data
frame
encoded
encoding
replacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006308335A
Other languages
Japanese (ja)
Inventor
Chiko Yoshida
智晃 吉田
Yosuke Kubota
陽介 久保田
Shinya Matsuda
伸也 松田
Atsushi Narimi
淳 成見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAKURA EIKI KK
Japan Broadcasting Corp
Original Assignee
SAKURA EIKI KK
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAKURA EIKI KK, Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical SAKURA EIKI KK
Priority to JP2006308335A priority Critical patent/JP2008124932A/en
Publication of JP2008124932A publication Critical patent/JP2008124932A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a nonlinear editing device capable of replacing a specified part of stream data at a high speed. <P>SOLUTION: The nonlinear editing device 1 includes an encoding means 23 of performing in-frame encoding of respective frames of raw material data, a dummy data adding means 24 of adding dummy data so that the data length of the encoded frames generated by the encoding means is a predetermined data length, an alteration section search means 31 of searching the stream data composed of the encoded frames to which the dummy data are added for absolute positions of frames in an alteration section based upon editing data indicating relative positions of the frames in the alteration section and the predetermined data length, and a replacing means 33 of replacing stream data between the frames corresponding to the alteration section with replacing data for alteration. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、映像の素材データを編集するノンリニア編集装置およびそのプログラム、ならびに、ノンリニア編集装置におけるデータ差し替え方法に関する。   The present invention relates to a non-linear editing apparatus and program for editing video material data, and a data replacement method in the non-linear editing apparatus.

近年、映像や音声の編集は、映像等を記録したテープを再生し、所望の箇所を他のテープにコピーするリニア編集から、映像等を、一旦、ハードディスク等の記憶装置にデジタルデータとして書き込み、コンピュータによって編集するノンリニア編集へと移行している。
このノンリニア編集を行うノンリニア編集装置は、記憶装置に記憶してある映像等を、コンピュータ端末のGUI(Graphical User Interface)上で、操作者が「コピー」、「カット」、「ペースト」等の操作を行うことで、映像等の開始点・終了点からなる編集データを作成する。そして、ノンリニア編集装置は、編集した映像等を再生する際には、この編集データに基づいて、記憶装置から所望の開始点・終了点間の映像等を読み出して出力する。これによって、ノンリニア編集は、リニア編集に比べ、編集にかかる時間を削減することができる。
なお、映像は、MPEG2(Moving Picture Coding Experts Group 2)形式で圧縮符号化されたデータが一般的である。例えば、デジタル高精細映像を記録、再生するHDV(digital High Definition Video)の規格では、MPEG2のLongGOP方式が採用されている。
In recent years, video and audio editing has been performed by playing back a tape on which video or the like has been recorded, copying the desired location to another tape, writing the video or the like as digital data in a storage device such as a hard disk, Shifting to non-linear editing that is performed by a computer.
This non-linear editing device performs operations such as “copy”, “cut”, “paste”, etc. on the GUI (Graphical User Interface) of a computer terminal by the operator using a non-linear editing device for performing non-linear editing. By doing the above, edit data composed of the start point and end point of video and the like is created. Then, when reproducing the edited video or the like, the nonlinear editing device reads and outputs the video or the like between a desired start point and end point from the storage device based on the edited data. Thus, the non-linear editing can reduce the time required for the editing as compared with the linear editing.
The video is generally data compression-coded in MPEG2 (Moving Picture Coding Experts Group 2) format. For example, in the HDV (digital high definition video) standard for recording and reproducing digital high-definition video, the MPEG2 Long GOP method is adopted.

また、従来、ノンリニア編集装置は、映像の素材データを編集する場合、複数のカットを結合することで、例えば、放送用に使用される一本の本編用のストリームデータ(本編ストリームデータ)を生成している。すなわち、従来のノンリニア編集装置は、カット点(開始点・終了点)ごとに素材データを再生することで、一本のストリームデータを生成している。   Conventionally, when editing video material data, a nonlinear editing apparatus generates a single main stream data (main stream data) used for broadcasting, for example, by combining a plurality of cuts. is doing. That is, the conventional nonlinear editing apparatus generates one stream data by reproducing the material data for each cut point (start point / end point).

ここで、図7を参照して、MPEG2の符号化形式について簡単に説明しておく。図7は、MPEG2のストリームデータの構造を示す構成図である。
図7に示すように、MPEG2のストリームデータは、「シーケンス層」、「GOP(Group of Picture)層」、「ピクチャ層」、「スライス層」、「マクロブロック層」および「ブロック層」の6層で構成されている。ここで、GOPは、1個以上のピクチャで構成され、参照画像を用いることなく符号化されたIピクチャ(フレーム内符号化画像)が含まれている。さらに、GOPには、時間的に過去に位置するピクチャから予測符号化されたPピクチャ(フレーム間符号化画像)や、時間的に過去および未来に位置するピクチャから予測符号化されたBピクチャ(双方向符号化画像)も含まれている。
このように、MPEG2のような予測符号化を行う符号化方式では、GOP内の各ピクチャは独立しておらず、原則的には、ピクチャ単位で差し替え等の編集を行うことはできない。そこで、ピクチャを差し替えるときに、GOP内のピクチャ構成を変更する技術が開示されている(特許文献1参照)。
特開平09−238347号公報
Here, the MPEG2 encoding format will be briefly described with reference to FIG. FIG. 7 is a block diagram showing the structure of MPEG2 stream data.
As shown in FIG. 7, MPEG2 stream data includes 6 “sequence layer”, “GOP (Group of Picture) layer”, “picture layer”, “slice layer”, “macroblock layer”, and “block layer”. Consists of layers. Here, the GOP is composed of one or more pictures and includes an I picture (intra-frame encoded image) that is encoded without using a reference image. Further, the GOP includes a P picture (inter-frame encoded image) that is predictively encoded from a picture that is temporally located in the past, and a B picture that is predictively encoded from pictures that are temporally located in the past and the future ( Bidirectional encoded images) are also included.
Thus, in a coding method that performs predictive coding such as MPEG2, each picture in the GOP is not independent, and in principle, editing such as replacement cannot be performed in units of pictures. Thus, a technique for changing the picture configuration in the GOP when replacing a picture has been disclosed (see Patent Document 1).
JP 09-238347 A

しかし、従来のノンリニア編集装置では、複数のカットを結合して1つの本編ストリームデータ(物理ファイル)を生成するため、編集後に映像の特定部分の差し替え等が発生した場合、再度本編ストリームデータを全編にわたって再生成する必要があり、編集に時間がかかるという問題がある。
また、所望の映像の特定部分を差し替える場合、特許文献1に開示されているGOP内のピクチャ構成を変更する技術では、差し替えを行うピクチャ(フレーム)を探索するために、ストリームデータの先頭から所望のピクチャを探索しなければならず、差し替えを行う際に時間がかかるという問題がある。
However, in the conventional non-linear editing apparatus, a plurality of cuts are combined to generate one main stream data (physical file). Therefore, if the replacement of a specific part of the video occurs after editing, the main stream data is again converted to the entire main stream data. There is a problem that it takes time to edit.
In addition, when replacing a specific part of a desired video, the technique for changing the picture configuration in the GOP disclosed in Patent Document 1 is requested from the beginning of stream data in order to search for a picture (frame) to be replaced. There is a problem that it takes a long time to replace the picture.

本発明は、以上のような問題を解決するためになされたものであり、ストリームデータの特定部分を差し替える際に、一旦生成した編集後のファイル(本編ストリームデータ)を、再度、全編にわたって再生成することなく編集することが可能なノンリニア編集装置およびそのプログラム、ならびに、ノンリニア編集装置におけるデータ差し替え方法を提供することを目的とする。   The present invention has been made to solve the above-described problems. When a specific portion of stream data is replaced, an edited file (main stream data) once generated is regenerated again over the entire program. It is an object of the present invention to provide a non-linear editing device and a program for the same, and a data replacement method in the non-linear editing device.

本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のノンリニア編集装置は、映像の素材データを編集するノンリニア編集装置において、符号化手段と、ダミーデータ付加手段と、記憶手段と、変更区間探索手段と、差し替え手段と、を備える構成とした。   The present invention was devised to achieve the above object. First, the nonlinear editing apparatus according to claim 1 is a non-linear editing apparatus for editing video material data. An adding unit, a storage unit, a change section search unit, and a replacement unit are provided.

かかる構成において、ノンリニア編集装置は、符号化手段によって、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。ここで、フレーム内符号化とは、予測符号化と異なり、当該フレーム内のデータのみに基づいて符号化を行うものである。このフレーム内符号化は、例えば、MPEG2符号化方式においては、フレームをマクロブロック単位で符号化することでIフレーム(ピクチャ)を生成する符号化方式に相当する。これによって、各符号化フレームは、他のフレームから独立して(影響を受けずに)符号化されることになる。   In such a configuration, the nonlinear editing apparatus generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means. Here, unlike intra-frame coding, intra-frame coding is coding based on only data in the frame. For example, in the MPEG2 encoding method, this intraframe encoding corresponds to an encoding method for generating an I frame (picture) by encoding a frame in units of macroblocks. As a result, each encoded frame is encoded independently of (not affected by) other frames.

そして、ノンリニア編集装置は、ダミーデータ付加手段によって、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
そして、ノンリニア編集装置は、ダミーデータが付加された符号化フレームで構成されるストリームデータを記憶手段に記憶しておく。
Then, the nonlinear editing device adds dummy data to the encoded frame by the dummy data adding unit so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. As a result, the data lengths of the encoded frames are all unified to the same length.
Then, the non-linear editing apparatus stores stream data composed of encoded frames to which dummy data is added in the storage unit.

さらに、ノンリニア編集装置は、変更区間探索手段によって、ストリームデータにおける変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ストリームデータにおける変更区間のフレームの絶対位置を探索する。この場合、符号化フレームのデータ長が予め定めた規定データ長(固定長)となっているため、規定データ長とフレーム番号とを演算(乗算)することで変更区間のフレームの絶対位置を求めることができる。
そして、ノンリニア編集装置は、差し替え手段によって、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。この場合、ストリームデータは、フレームごとに独立して符号化されているため、部分的に差し替えが行われても、変更区間の前後のフレームに影響を与えることがない。
Further, the non-linear editing device searches for the absolute position of the frame in the change section in the stream data based on the edit data indicating the relative position of the frame in the change section in the stream data and the specified data length by the change section search means. . In this case, since the data length of the encoded frame is a predetermined specified data length (fixed length), the absolute position of the frame in the changed section is obtained by calculating (multiplying) the specified data length and the frame number. be able to.
Then, the non-linear editing device replaces the stream data between frames corresponding to the change section searched by the change section search means with replacement data for change. In this case, since the stream data is encoded independently for each frame, even if partial replacement is performed, the frames before and after the changed section are not affected.

また、請求項2に記載のノンリニア編集装置は、請求項1に記載のノンリニア編集装置において、前記素材データが動き予測符号化方式によって符号化された符号化データであって、前記符号化手段の前段に、前記符号化データから、フレーム単位の画像を生成するフレーム生成手段をさらに備える構成とした。   The nonlinear editing apparatus according to claim 2 is the nonlinear editing apparatus according to claim 1, wherein the material data is encoded data encoded by a motion prediction encoding method, and the encoding unit includes: In the preceding stage, a configuration is further provided with a frame generation means for generating an image in units of frames from the encoded data.

かかる構成において、ノンリニア編集装置は、フレーム生成手段によって、動き予測符号化方式によって符号化された符号化データを復号することで、フレームごとの画像を生成する。これによって、MPEG2等の動き予測符号化方式によってフレーム間で相互に関連しあって符号化が行われている場合であっても、フレームごとに分離することができる。   In such a configuration, the nonlinear editing apparatus generates an image for each frame by decoding the encoded data encoded by the motion predictive encoding method by the frame generation unit. As a result, even if the frames are correlated and encoded by a motion predictive encoding method such as MPEG2, the frames can be separated.

さらに、請求項3に記載のノンリニア編集プログラムは、ノンリニア編集装置において、映像の素材データを編集するために、コンピュータを、符号化手段、ダミーデータ付加手段、変更区間探索手段、差し替え手段、として機能させる構成とした。   The non-linear editing program according to claim 3 functions as a coding means, a dummy data adding means, a change section searching means, and a replacing means in order to edit the video material data in the non-linear editing apparatus. It was set as the structure made to do.

かかる構成において、ノンリニア編集プログラムは、符号化手段によって、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。これによって、各符号化フレームは、他のフレームから独立して符号化されることになる。
そして、ノンリニア編集プログラムは、ダミーデータ付加手段によって、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
In such a configuration, the nonlinear editing program generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means. As a result, each encoded frame is encoded independently of the other frames.
Then, the non-linear editing program adds dummy data to the encoded frame by the dummy data adding unit so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. As a result, the data lengths of the encoded frames are all unified to the same length.

そして、ノンリニア編集プログラムは、変更区間探索手段によって、変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、変更区間のフレームの絶対位置を探索する。
そして、ノンリニア編集プログラムは、差し替え手段によって、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。
Then, the non-linear editing program uses the change section search means in the stream data composed of the encoded frame to which the dummy data is added based on the edit data indicating the relative position of the frame in the change section and the specified data length. The absolute position of the frame in the changed section is searched.
Then, the non-linear editing program replaces the stream data between frames corresponding to the changed section searched by the changed section searching means by the replacing means with replacement data for change.

また、請求項4に記載のノンリニア編集装置におけるデータ差し替え方法は、映像の素材データを編集して生成されるストリームデータに対して、部分的な差し替えを行う方法であって、符号化ステップと、ダミーデータ付加ステップと、変更区間探索ステップと、差し替えステップと、を含む手順とした。   Further, the data replacement method in the nonlinear editing device according to claim 4 is a method of performing partial replacement on stream data generated by editing video material data, wherein the encoding step includes: The procedure includes a dummy data addition step, a change interval search step, and a replacement step.

かかる手順において、データ差し替え方法は、符号化ステップにおいて、符号化手段により、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。これによって、各符号化フレームは、他のフレームから独立して符号化されることになる。
そして、データ差し替え方法は、ダミーデータ付加ステップにおいて、ダミーデータ付加手段により、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
In this procedure, the data replacement method generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means in the encoding step. As a result, each encoded frame is encoded independently of the other frames.
Then, in the dummy data adding step, the data replacement method includes a dummy data adding unit that performs dummy processing on the encoded frame so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. Append data. As a result, the data lengths of the encoded frames are all unified to the same length.

そして、データ差し替え方法は、変更区間探索ステップにおいて、変更区間探索手段により、変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、変更区間のフレームの絶対位置を探索する。
そして、データ差し替え方法は、差し替えステップにおいて、差し替え手段により、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。
The data replacement method is an encoded frame to which dummy data is added based on the edit data indicating the relative position of the frame in the changed section and the specified data length by the changed section search means in the changed section search step. In the configured stream data, the absolute position of the frame in the changed section is searched.
In the data replacement method, in the replacement step, the replacement means replaces the stream data between frames corresponding to the changed section searched by the changed section search means with the replacement data for change.

本発明は、以下に示す優れた効果を奏するものである。
請求項1、請求項3または請求項4に記載の発明によれば、ストリームデータの特定部分を差し替える際に、一旦生成した編集後のストリームデータを、再度、全編にわたって再生成することなく差し替えを行うことができる。また、本発明によれば、特定部分のフレームの位置を演算によって求めることができるため、ストリームデータの先頭から所望のフレームを探索する必要がなく、高速に編集作業を行うことができる。
The present invention has the following excellent effects.
According to the invention of claim 1, claim 3 or claim 4, when replacing the specific part of the stream data, the edited stream data once generated can be replaced again without regenerating the entire program. It can be carried out. Further, according to the present invention, since the position of the frame of the specific portion can be obtained by calculation, it is not necessary to search for a desired frame from the head of the stream data, and the editing operation can be performed at high speed.

請求項2に記載の発明によれば、動き予測符号化方式によって符号化された符号化データであっても、同一のデータ長のフレームで構成されるストリームデータを生成することで、高速に差し替え編集を行うことができる。   According to the second aspect of the present invention, even if the encoded data is encoded by the motion predictive encoding method, it can be replaced at high speed by generating stream data composed of frames having the same data length. Can be edited.

以下、本発明の実施の形態について図面を参照して説明する。
[ノンリニア編集装置の機能概要]
最初に、図1および図2を参照して、ノンリニア編集装置の機能の概要について説明する。図1は、本発明の実施形態に係るノンリニア編集装置において、素材データの各フレームをフレーム内符号化することで、フレームごとに独立したストリームデータを生成する機能を説明するための説明図である。図2は、本発明の実施形態に係るノンリニア編集装置において、フレームごとに独立したストリームデータの特定部分を差し替える機能を説明するための説明図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Functional overview of nonlinear editing equipment]
First, an outline of functions of the nonlinear editing apparatus will be described with reference to FIGS. 1 and 2. FIG. 1 is an explanatory diagram for explaining a function of generating independent stream data for each frame by intra-frame encoding each frame of material data in the nonlinear editing apparatus according to the embodiment of the present invention. . FIG. 2 is an explanatory diagram for explaining a function of replacing a specific portion of stream data independent for each frame in the nonlinear editing apparatus according to the embodiment of the present invention.

図1に示すように、ノンリニア編集装置1は、映像の素材データを、フレーム内で独立して符号化されたフレーム内符号化画像のみで構成したストリームデータ(本編ストリームデータ)に変換する機能(Iフレーム化機能)を有する。
このように変換されたIフレームは、具体的には、シーケンスヘッダと、GOPヘッダとが付加されて構成されている。これによって、各フレームは、フレーム内符号化画像として個々に独立した画像になる。なお、ノンリニア編集装置1は、各フレームが同一のデータ長となるようにダミーデータを付加する機能も有している。
As shown in FIG. 1, the non-linear editing device 1 has a function of converting video material data into stream data (main stream data) composed only of intra-frame encoded images independently encoded within a frame ( I-frame function).
Specifically, the I frame thus converted is configured by adding a sequence header and a GOP header. As a result, each frame becomes an independent image as an intra-frame encoded image. The non-linear editing apparatus 1 also has a function of adding dummy data so that each frame has the same data length.

また、図2に示すように、ノンリニア編集装置1は、Iフレーム化された本編ストリームデータにおいて、特定部分の差し替えを行う機能(差し替え機能)を有する。Iフレーム化された本編ストリームデータは、各フレームが独立して符号化されているため、特定部分(例えば、図2中、I〜Iのフレーム)の差し替えを行う場合であっても、その前後のフレーム(図2中、IおよびIのフレーム)に影響を与えることがなく、差し替え部分のみの差し替えで、所望の本編ストリームデータが生成されることになる。
以下、本機能を実現するノンリニア編集装置1の構成について具体的に説明する。
As shown in FIG. 2, the nonlinear editing apparatus 1 has a function (replacement function) of replacing a specific part in the main stream data converted into an I frame. In the main stream data converted into I frames, since each frame is encoded independently, even when a specific portion (for example, frames I 3 to I 7 in FIG. 2) is replaced, The desired main stream data is generated by replacing only the replacement part without affecting the preceding and subsequent frames (frames I 2 and I 8 in FIG. 2).
Hereinafter, the configuration of the nonlinear editing apparatus 1 that realizes this function will be described in detail.

[ノンリニア編集装置の構成]
ここでは、図3を参照して、本発明の実施形態に係るノンリニア編集装置の構成について説明する。図3は、本発明の実施形態に係るノンリニア編集装置の構成を示すブロック構成図である。ノンリニア編集装置1は、記憶手段10と、ストリームデータ生成手段20と、ストリーム差し替え手段30とを備えている。なお、ここでは、一般的なノンリニア編集装置に備えられている「コピー」、「カット」、「ペースト」等の編集操作のためのGUIを実現する編集手段や表示手段については図示を省略している。
[Configuration of nonlinear editing device]
Here, the configuration of the nonlinear editing apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the nonlinear editing apparatus according to the embodiment of the present invention. The nonlinear editing apparatus 1 includes a storage unit 10, a stream data generation unit 20, and a stream replacement unit 30. It should be noted that, here, illustrations of editing means and display means for realizing a GUI for editing operations such as “copy”, “cut”, “paste” and the like provided in a general nonlinear editing apparatus are omitted. Yes.

記憶手段10は、編集対象となる素材データや、編集後のデータである本編ストリームデータを記憶するものであって、ハードディスク等の一般的な記憶装置である。
なお、素材データは、カメラ撮影され放送番組等に供される元となるデータである。ここでは、素材データは、図示を省略した入力手段を介して、記憶手段10に記憶されているものとする。また、本編ストリームデータは、複数の素材データが、「コピー」、「カット」、「ペースト」等の操作によって編集され、一本の放送番組用に結合されたデータである。
The storage unit 10 stores material data to be edited and main stream data that is edited data, and is a general storage device such as a hard disk.
Note that the material data is data that is taken by a camera and used as a broadcast program. Here, it is assumed that the material data is stored in the storage unit 10 via an input unit (not shown). The main stream data is data in which a plurality of material data is edited by operations such as “copy”, “cut”, “paste”, and combined for one broadcast program.

ストリームデータ生成手段20は、編集データ(第1編集データ)に基づいて、素材データから、本編ストリームデータを生成するものであって、図1で説明したIフレーム化機能を実現するものである。ここでは、ストリームデータ生成手段20は、フレーム画像生成手段21と、フレーム画像解析手段22と、符号化手段23と、ダミーデータ付加手段24とを備えている。   The stream data generation means 20 generates the main stream data from the material data based on the edit data (first edit data), and implements the I-frame conversion function described with reference to FIG. Here, the stream data generation unit 20 includes a frame image generation unit 21, a frame image analysis unit 22, an encoding unit 23, and a dummy data addition unit 24.

フレーム画像生成手段(フレーム生成手段)21は、編集データ(第1編集データ)に基づいて、記憶手段10に記憶されている(あるいは外部から入力される)素材データから、フレームごとの画像を生成するものである。
ここで、フレーム画像生成手段21は、外部から素材データを映像信号として入力する場合は、図示を省略したメモリ等にフレーム単位で映像をキャプチャし、フレーム画像を生成する。また、フレーム画像生成手段21は、素材データがMPEG2等の動き予測符号化方式によって符号化されている場合は、フレーム単位で復号することで、フレーム画像を生成する。
The frame image generation means (frame generation means) 21 generates an image for each frame from the material data stored in the storage means 10 (or input from the outside) based on the edit data (first edit data). To do.
Here, when the material data is input from the outside as a video signal, the frame image generation means 21 captures the video in a frame unit in a memory or the like (not shown) and generates a frame image. In addition, when the material data is encoded by a motion predictive encoding method such as MPEG2, the frame image generation means 21 generates a frame image by decoding in units of frames.

また、編集データ(第1編集データ)は、映像の開始点や終了点を示すカット点(イン点、アウト点)、当該映像の所定の映像区間に合成するテキスト、当該映像区間の映像に対する効果(フェード、ワイプ、ディゾルブ等)等を示すデータである。なお、ここでは、編集データを外部から入力することとしているが、ノンリニア編集装置1内の図示を省略した編集手段を介して入力することとしてもよい。   The edit data (first edit data) includes cut points (in and out points) indicating the start point and end point of the video, text to be combined with a predetermined video section of the video, and effects on the video in the video section. (Fade, wipe, dissolve, etc.) Although the editing data is input from the outside here, it may be input via editing means (not shown) in the nonlinear editing apparatus 1.

また、ここでは、フレーム画像生成手段21は、編集データに基づいて、フレームごとに、テキストを合成したり、効果を施したフレームに変換したりすることで、単一のフレーム画像を生成する。このフレーム画像生成手段21で生成されたフレーム画像は、フレーム画像解析手段22と、符号化手段23とに出力される。   Here, the frame image generation means 21 generates a single frame image by synthesizing text for each frame or converting the frame into an effected frame based on the editing data. The frame image generated by the frame image generation unit 21 is output to the frame image analysis unit 22 and the encoding unit 23.

フレーム画像解析手段22は、フレーム画像生成手段21で生成されたフレーム画像を解析し、符号化手段23において符号化された際の符号化データ長が、規定データ長以下となるようなエンコードパラメータ(圧縮率)を決定するものである。例えば、フレーム画像解析手段22は、圧縮率として、MPEG2等で用いられている量子化スケールを用いることができる。なお、MPEG2では、マクロブロック単位でフレームを符号化している。そして、量子化スケールは、各マクロブロックの圧縮率を示し、その値が小さいほど低圧縮率を示し、その値が大きいほど高圧縮率を示している。
このフレーム画像解析手段22で決定されたエンコードパラメータ(圧縮率;ここでは量子化スケール)は、符号化手段23に出力される。
なお、フレーム画像解析手段22において、圧縮率(量子化スケール)を求める手法については、後で具体的に説明を行うこととする。
The frame image analysis unit 22 analyzes the frame image generated by the frame image generation unit 21 and encodes the encoding parameter (the encoding data length when encoded by the encoding unit 23 is equal to or less than the prescribed data length). Compression ratio). For example, the frame image analysis means 22 can use a quantization scale used in MPEG2 or the like as the compression rate. In MPEG2, a frame is encoded on a macroblock basis. The quantization scale indicates the compression rate of each macroblock. The smaller the value, the lower the compression rate, and the higher the value, the higher the compression rate.
The encoding parameter (compression rate; here, the quantization scale) determined by the frame image analysis unit 22 is output to the encoding unit 23.
The method for obtaining the compression rate (quantization scale) in the frame image analysis means 22 will be specifically described later.

符号化手段23は、フレーム画像解析手段22で解析されたエンコードパラメータ(圧縮率)に基づいて、フレーム画像生成手段21で生成されたフレーム画像をフレーム内符号化することで符号化フレームを生成するものである。
ここで、符号化方式としてMPEG2を用い、圧縮率として量子化スケールがフレーム画像解析手段22から通知される場合、符号化手段23は、量子化スケールが小さいほど量子化を細かくし、量子化スケールが大きいほど量子化を粗くして、マクロブロック単位で符号化を行う。これによって、フレーム画像は、他のフレームとは独立して符号化されたフレーム内符号化画像(符号化フレーム)として生成され、個々に差し替えが可能となる。
The encoding unit 23 generates an encoded frame by intra-frame encoding the frame image generated by the frame image generation unit 21 based on the encoding parameter (compression rate) analyzed by the frame image analysis unit 22. Is.
Here, when MPEG2 is used as the encoding method and the quantization scale is notified as the compression rate from the frame image analysis means 22, the encoding means 23 makes the quantization finer as the quantization scale is smaller. The larger the value is, the coarser the quantization is, and encoding is performed in units of macroblocks. As a result, the frame image is generated as an intra-frame encoded image (encoded frame) encoded independently of the other frames, and can be replaced individually.

さらに、符号化手段23は、符号化方式としてMPEG2を用いる場合、符号化フレーム(フレーム内符号化画像、Iピクチャ)ごとに、シーケンスヘッダおよびGOPヘッダを付加しておく(図1参照)。これによって、各フレーム内符号化画像は、MPEG2において、1つのIピクチャが、1つのGOPで管理されることになる。
この符号化手段23で符号化されたフレーム画像(符号化フレーム)は、ダミーデータ付加手段24に出力される。
Furthermore, when MPEG2 is used as the encoding method, the encoding means 23 adds a sequence header and a GOP header for each encoded frame (intra-frame encoded image, I picture) (see FIG. 1). As a result, in the intra-frame encoded image, one I picture is managed by one GOP in MPEG2.
The frame image (encoded frame) encoded by the encoding unit 23 is output to the dummy data adding unit 24.

ダミーデータ付加手段24は、符号化手段23で符号化された符号化フレームごとに、予め定めた規定データ長と符号化フレームとのデータ長差分のダミーデータを付加するものである。なお、ここで、符号化フレームのデータ長が、規定データ長よりも長い場合は、符号化手段23にその旨を通知することで、符号化手段23が圧縮率を設定し直して、再度、符号化を行うこととする。このダミーデータが付加された符号化フレームは、記憶手段10に本編ストリームデータとして記憶される。なお、このダミーデータとしては、MPEG2等で推奨されている値「0」を使用する。これによって、各フレームは、ダミーデータを含めて同一のデータ長で管理されることになる。   The dummy data adding means 24 adds dummy data of a data length difference between a predetermined specified data length and an encoded frame for each encoded frame encoded by the encoding means 23. Here, when the data length of the encoded frame is longer than the specified data length, the encoding unit 23 resets the compression rate by notifying the encoding unit 23 to that effect, and again, Encoding is performed. The encoded frame to which the dummy data is added is stored as main stream data in the storage unit 10. As the dummy data, a value “0” recommended in MPEG2 or the like is used. As a result, each frame is managed with the same data length including dummy data.

ストリーム差し替え手段30は、編集データ(第2編集データ)に基づいて、本編ストリームデータの特定部分を他のストリームデータに差し替えるものであって、図2で説明した差し替え機能を実現するものである。ここでは、ストリーム差し替え手段30は、変更区間探索手段31と、差し替えデータ生成手段32と、差し替え手段33とを備えている。   The stream replacement means 30 replaces a specific part of the main stream data with other stream data based on the edit data (second edit data), and implements the replacement function described in FIG. Here, the stream replacement unit 30 includes a change section search unit 31, a replacement data generation unit 32, and a replacement unit 33.

変更区間探索手段31は、変更区間のフレームの相対位置を示す編集データ(第2編集データ)に基づいて、本編ストリームデータにおいて変更の対象となる区間(変更区間)のフレームの絶対位置(アドレス)を探索するものである。また、編集データには、本編ストリームデータの変更区間を示す情報以外にも、変更指示内容(レンダリング等)や、変更の元となる素材データのカット点等を示す情報も含まれている。なお、変更区間は、個々のフレームを特定するためのフレーム番号等によって、ストリームデータにおいて相対的に指定されている。   The change section searching means 31 is based on the edit data (second edit data) indicating the relative position of the frame in the change section, and the absolute position (address) of the frame in the section (change section) to be changed in the main stream data. Is to search. In addition to the information indicating the change section of the main stream data, the edit data also includes information indicating the change instruction content (rendering, etc.) and the cut point of the material data that is the source of the change. Note that the change section is relatively specified in the stream data by a frame number or the like for specifying individual frames.

ここで、本編ストリームデータは、フレームごとに同一の規定データ長となっているため、変更区間探索手段31は、変更区間としてフレーム番号が指示された場合、規定データ長に対してフレーム番号の倍数の演算を行うことで、所望のフレームの位置情報(絶対位置〔アドレス〕)を求めることができる。
例えば、規定データ長をLCONST、フレーム番号をFNUM(0〜N)とした場合、フレームの位置情報(アドレス)ADは、以下の(1)式に示すように、規定データ長とフレーム番号との乗算によって求めることができる。
Here, since the main stream data has the same specified data length for each frame, when the frame number is designated as the changed section, the change section search means 31 is a multiple of the frame number with respect to the specified data length. By performing this calculation, position information (absolute position [address]) of a desired frame can be obtained.
For example, when the specified data length is L CONST and the frame number is F NUM (0 to N), the frame position information (address) AD is the specified data length and frame number as shown in the following equation (1). Can be obtained by multiplication with

AD=FNUM×LCONST …(1)式 AD = F NUM × L CONST (1)

そして、変更区間探索手段31は、探索した位置情報(アドレス)を差し替えデータ生成手段32と、差し替え手段33とに出力する。さらに、変更区間探索手段31は、変更指示内容を差し替えデータ生成手段32に出力する。   Then, the changed section search unit 31 outputs the searched position information (address) to the replacement data generation unit 32 and the replacement unit 33. Further, the change section search unit 31 outputs the change instruction content to the replacement data generation unit 32.

差し替えデータ生成手段32は、編集データで指示された変更指示内容に基づいて、本編ストリームデータの変更区間の差し替えを行うデータ(差し替えデータ)を生成するものである。ここでは、差し替えデータ生成手段32は、区間映像抽出手段32aと、区間映像生成手段32bとを備えている。   The replacement data generating means 32 generates data (replacement data) for replacing the change section of the main stream data based on the content of the change instruction instructed by the edit data. Here, the replacement data generating unit 32 includes a section video extracting unit 32a and a section video generating unit 32b.

区間映像抽出手段32aは、記憶手段10に記憶されている素材データから、変更区間探索手段31において探索された変更区間に対応する区間映像を抽出するものである。なお、編集データで指示された変更指示内容が、区間映像の差し替えのみである場合、区間映像抽出手段32aは、抽出した区間映像(差し替えデータ)を差し替え手段33に出力する。一方、編集データで指示された変更指示内容が、区間映像に対してレンダリング処理を行う必要がある場合、区間映像抽出手段32aは、抽出した区間映像(差し替えデータ)を区間映像生成手段32bに出力する。   The section video extraction unit 32 a extracts a section video corresponding to the changed section searched by the changed section search unit 31 from the material data stored in the storage unit 10. If the change instruction content instructed by the edit data is only replacement of the section video, the section video extraction unit 32 a outputs the extracted section video (replacement data) to the replacement unit 33. On the other hand, when the change instruction content instructed by the edit data needs to perform rendering processing on the section video, the section video extraction unit 32a outputs the extracted section video (replacement data) to the section video generation unit 32b. To do.

区間映像生成手段32bは、変更指示内容に基づいて、区間映像抽出手段32aで抽出された区間映像に対して編集を行うことで、差し替えを行う映像(差し替えデータ)を生成するものである。例えば、区間映像生成手段32bは、区間映像に対してテキストを付加する場合、変更指示内容で示される文字列、文字種、表示位置等の情報に基づいて、当該映像にテキストを合成することで、差し替えデータを生成する。
なお、区間映像生成手段32bは、テキスト合成以外にも、変更指示内容に基づいて、区間映像において、フェード、ワイプ、ディゾルブ等のレンダリング処理を行うことで、差し替えデータを生成する。このように生成された差し替えデータは、差し替え手段33に出力される。
The section video generation unit 32b generates a replacement video (replacement data) by editing the section video extracted by the section video extraction unit 32a based on the change instruction content. For example, when adding text to the section video, the section video generation unit 32b combines the text with the video based on information such as a character string, a character type, and a display position indicated by the change instruction content. Generate replacement data.
In addition to the text synthesis, the section video generation unit 32b generates replacement data by performing rendering processing such as fade, wipe, dissolve, etc. on the section video based on the change instruction content. The replacement data generated in this way is output to the replacement means 33.

差し替え手段33は、変更区間探索手段31で探索された本編ストリームデータの変更区間の映像(区間ストリームデータ)を、差し替えデータ生成手段32で生成された差し替えデータに差し替えることで、新たな差し替え後の本編ストリームデータを生成するものである。
なお、本編ストリームデータは、フレーム内符号化画像(Iピクチャ)のみで構成されているため、変更区間のみを差し替えても、その前後の映像に影響を与えることがない。
The replacement means 33 replaces the video (section stream data) of the change section of the main stream data searched by the change section search means 31 with the replacement data generated by the replacement data generation means 32, so that a new post-replacement data is obtained. Main stream data is generated.
Since the main stream data is composed only of the intra-frame coded image (I picture), even if only the changed section is replaced, the video before and after that is not affected.

以上説明したようにノンリニア編集装置1を構成することで、ノンリニア編集装置1は、素材データをフレーム内符号化画像(Iフレーム)のみで構成したストリームデータ(本編ストリームデータ)に変換することができる。さらに、ノンリニア編集装置1は、本編ストリームデータを、フレーム内符号化画像のみで構成することで、本編ストリームデータを再構成することなく、特定部分を差し替えて、新しい本編ストリームデータを生成することができる。   By configuring the non-linear editing apparatus 1 as described above, the non-linear editing apparatus 1 can convert the material data into stream data (main stream data) configured only by intra-frame encoded images (I frames). . Furthermore, the non-linear editing apparatus 1 can generate new main stream data by replacing the specific part without reconstructing the main stream data by configuring the main stream data only with the intra-frame encoded image. it can.

(フレーム画像解析手段が行う圧縮率の決定手法について)
ここで、フレーム画像解析手段22が行う圧縮率(量子化スケール)の決定手法の一例について、数式を用いて具体的に説明する。MPEG2では、フレームをマクロブロックという16画素×16画素のブロックに分割して符号化を行う。また、マクロブロックは、さらに8画素×8画素サイズの4つのサブブロックに分割され、符号化の際に使用される。以下、フレーム画像解析手段22がマクロブロックごとの量子化スケールを決定する手順(手順1〜手順3)について説明する。
(How to determine the compression ratio performed by frame image analysis means)
Here, an example of a compression rate (quantization scale) determination method performed by the frame image analysis unit 22 will be specifically described using mathematical expressions. In MPEG2, encoding is performed by dividing a frame into 16-pixel × 16-pixel blocks called macroblocks. The macroblock is further divided into four sub-blocks each having a size of 8 pixels × 8 pixels and is used for encoding. Hereinafter, a procedure (procedure 1 to procedure 3) in which the frame image analysis unit 22 determines a quantization scale for each macroblock will be described.

〔手順1:量子化スケールの初期値決定〕
まず、フレーム画像解析手段22は、符号化対象のフレームの量子化スケールの初期値を決定する。
具体的には、フレーム画像解析手段22は、j番目のマクロブロックの量子化スケールmquantを、以下の(2)式により算出する。
[Procedure 1: Determination of initial value of quantization scale]
First, the frame image analysis means 22 determines the initial value of the quantization scale of the encoding target frame.
Specifically, the frame image analysis means 22 calculates the quantization scale mquant j of the jth macroblock by the following equation (2).

Figure 2008124932
Figure 2008124932

なお、Qは量子化パラメータ、N_actは正規化係数(正規化アクティビティ)である。
ここで、量子化パラメータQは、以下の(3)式により算出される。
Q is a quantization parameter, and N_act j is a normalization coefficient (normalization activity).
Here, the quantization parameter Q is calculated by the following equation (3).

Figure 2008124932
Figure 2008124932

なお、dは1マクロブロックの符号化データ長、rは量子化を行う際の係数(リアクションパラメータ)である。
ここで、目標となる規定データ長(目標符号化データ長)をT、1フレーム内のマクロブロック数をMB_cntとしたとき、前記(3)式の符号化データ長dは、以下の(4)式により算出される。
Note that d is the encoded data length of one macroblock, and r is a coefficient (reaction parameter) for quantization.
Here, when the target specified data length (target encoded data length) is T, and the number of macroblocks in one frame is MB_cnt, the encoded data length d in the above equation (3) is the following (4) Calculated by the formula.

Figure 2008124932
Figure 2008124932

また、ビットレートをbit_rate、ピクチャレートをpicture_rateとしたとき、前記(3)式の係数rは、以下の(5)式により算出される。   Further, when the bit rate is bit_rate and the picture rate is picture_rate, the coefficient r in the equation (3) is calculated by the following equation (5).

Figure 2008124932
Figure 2008124932

また、前記(2)式の正規化アクティビティN_actは、以下の(6)式により算出される。 Further, the normalized activity N_act j in the equation (2) is calculated by the following equation (6).

Figure 2008124932
Figure 2008124932

ここで、avg_actは、全マクロブロックのactの平均値である。また、actは、j番目のマクロブロックの複雑さを示す量であって、以下の(7)式により算出される。 Here, avg_act is an average value of act j of all macroblocks. Act j is an amount indicating the complexity of the j-th macroblock, and is calculated by the following equation (7).

Figure 2008124932
Figure 2008124932

なお、min(…)は、括弧内の要素の最小値を求める関数である。また、vblkは、n番目のサブブロックの複雑さを示す量であって、P をサブブロックのk番目の画素の輝度値としたとき、以下の(8)式により算出される。 Note that min (...) Is a function for obtaining the minimum value of elements in parentheses. Further, VBLK n is a quantity that indicates the complexity of the n-th sub-block, when the luminance value of the k-th pixel of the sub block P n k, is calculated by the following equation (8).

Figure 2008124932
Figure 2008124932

なお、P_meanは、以下の(9)式に示すn番目のサブブロックの輝度平均値である。 P_mean n is the luminance average value of the n-th sub-block shown in the following equation (9).

Figure 2008124932
Figure 2008124932

〔手順2:符号化後の符号化データ長の予測〕
通常、手順1で決定した量子化スケールで符号化を行っても、フレームによっては、符号化後のデータ長が規定データ長に収まらない場合がある。そこで、フレーム画像解析手段22は、当該フレームに対して処理負荷の低い符号化を行い符号化データ長を試算することで、符号化データ化長の予測を行う。なお、この符号化データ長を試算する手法については種々考えられるが、例えば、フレーム内のマクロブロックを一定間隔で選択し、その選択したマクロブロックのみを符号化することで符号化データ長(予測符号化データ長)の試算を行うことができる。
[Procedure 2: Prediction of encoded data length after encoding]
Usually, even if encoding is performed with the quantization scale determined in step 1, the encoded data length may not fit within the specified data length depending on the frame. Therefore, the frame image analysis unit 22 predicts the encoded data length by performing encoding with a low processing load on the frame and calculating the encoded data length. There are various methods for calculating the encoded data length. For example, a macroblock in a frame is selected at a fixed interval, and only the selected macroblock is encoded to encode the encoded data length (prediction). (Encoded data length) can be estimated.

具体的には、フレーム画像解析手段22は、フレームの縦横の8ブロックごとにマクロブロックを選択して符号化を行う。この符号化データ長は、全フレームの1/64の符号化データ長に相当することになるため、フレーム画像解析手段22は、その符号化データ長を64倍することで、当該フレーム全体の予測符号化データ長を試算する。   Specifically, the frame image analysis means 22 performs encoding by selecting a macro block for every 8 blocks in the vertical and horizontal directions of the frame. Since this encoded data length corresponds to 1/64 of the encoded data length of all frames, the frame image analysis means 22 multiplies the encoded data length by 64 to predict the entire frame. Calculate the encoded data length.

〔手順3:予測符号化データ長の評価〕
手順2の結果、予測符号化データ長が、規定データ長よりも長い場合、実際にフレームを符号化した場合、その符号化データ長は、規定データ長を超過する可能性が高い。そこで、符号化データ長を規定データ長以下とするには、さらに圧縮率を高める必要があるため、フレーム画像解析手段22は、量子化スケール大きくして前記した手順2の処理を再度行う。
以上の手順(手順1〜手順3)よって、フレーム画像解析手段22は、符号化データ長が規定データ長以下となると予測される圧縮率(量子化スケール)を求めることができる。
[Procedure 3: Evaluation of prediction encoded data length]
As a result of the procedure 2, when the predicted encoded data length is longer than the specified data length, when the frame is actually encoded, there is a high possibility that the encoded data length exceeds the specified data length. Therefore, since it is necessary to further increase the compression rate in order to make the encoded data length equal to or less than the specified data length, the frame image analysis unit 22 increases the quantization scale and performs the process of the above-described procedure 2 again.
By the above procedure (procedure 1 to procedure 3), the frame image analysis means 22 can obtain the compression rate (quantization scale) that is predicted that the encoded data length is equal to or less than the specified data length.

[ノンリニア編集装置の動作]
次に、図4および図5を参照して、本発明の実施形態に係るノンリニア編集装置の動作について説明する。ここでは、本発明のノンリニア編集装置の特徴となる素材データのIフレーム化機能と、Iフレーム化された本編ストリームデータの差し替え機能とを実現する際の動作について説明する。図4は、本発明の実施形態に係るノンリニア編集装置のIフレーム化機能を実現する際の動作を示すフローチャートである。図5は、本発明の実施形態に係るノンリニア編集装置の差し替え機能を実現する際の動作を示すフローチャートである。
[Operation of non-linear editing device]
Next, the operation of the nonlinear editing apparatus according to the embodiment of the present invention will be described with reference to FIGS. Here, the operation when realizing the I-frame conversion function of material data and the replacement function of the main stream data converted into the I-frame, which are features of the nonlinear editing apparatus of the present invention, will be described. FIG. 4 is a flowchart showing an operation when realizing the I-frame conversion function of the nonlinear editing apparatus according to the embodiment of the present invention. FIG. 5 is a flowchart showing an operation when realizing the replacement function of the nonlinear editing apparatus according to the embodiment of the present invention.

(Iフレーム化機能の動作)
最初に、図4を参照(構成については、適宜図3参照)して、ノンリニア編集装置1が素材データをIフレーム化する動作について説明する。
まず、ノンリニア編集装置1は、フレーム画像生成手段21によって、素材データから、フレームごとの画像(フレーム画像)を生成する(ステップS1)。なお、このとき、フレーム画像生成手段21は、編集データ(第1編集データ)に基づいて、必要であれば、テキスト合成等の編集を行う。
また、ノンリニア編集装置1は、フレーム画像解析手段22によって、ステップS1で生成されたフレーム画像を解析し、符号化手段23において符号化された際の符号化データ長が、規定データ長以下となるようなエンコードパラメータ(圧縮率)を決定する(ステップS2)。
(Operation of I-frame function)
First, referring to FIG. 4 (for the configuration, refer to FIG. 3 as appropriate), the operation in which the nonlinear editing apparatus 1 converts material data into I frames will be described.
First, the nonlinear editing apparatus 1 generates an image (frame image) for each frame from the material data by the frame image generation means 21 (step S1). At this time, the frame image generating means 21 performs editing such as text synthesis if necessary based on the editing data (first editing data).
Further, the nonlinear editing apparatus 1 analyzes the frame image generated in step S1 by the frame image analysis unit 22, and the encoded data length when encoded by the encoding unit 23 is equal to or less than the specified data length. Such an encoding parameter (compression rate) is determined (step S2).

そして、ノンリニア編集装置1は、符号化手段23によって、ステップS2で決定されたエンコードパラメータ(圧縮率)に基づいて、ステップS1で生成されたフレーム画像を符号化する(ステップS3;符号化ステップ)。なお、このとき、符号化手段23は、フレーム画像を、フレーム内で独立して符号化することで符号化フレーム(フレーム内符号化画像、Iフレーム)を生成する。
そして、ノンリニア編集装置1は、ダミーデータ付加手段24によって、ステップS3で生成(符号化)された符号化フレームのデータ長が予め定めたデータ長(規定データ長)以下であるか否かを判定する(ステップS4)。
Then, the nonlinear editing apparatus 1 encodes the frame image generated in step S1 by the encoding unit 23 based on the encoding parameter (compression rate) determined in step S2 (step S3; encoding step). . At this time, the encoding means 23 generates an encoded frame (intra-frame encoded image, I frame) by encoding the frame image independently within the frame.
Then, the nonlinear editing apparatus 1 determines whether or not the data length of the encoded frame generated (encoded) in step S3 is equal to or less than a predetermined data length (specified data length) by the dummy data adding unit 24. (Step S4).

ここで、符号化フレームのデータ長が規定データ長よりも長い場合(ステップS4でNo)、符号化手段23が、エンコードパラメータを調節する(ステップS5)。なお、このステップS5におけるエンコードパラメータの調節によって、圧縮率が高く設定し直されることになる。そして、ノンリニア編集装置1は、ステップS3に戻って、再度フレーム画像の符号化を行う。   Here, when the data length of the encoded frame is longer than the prescribed data length (No in step S4), the encoding means 23 adjusts the encoding parameter (step S5). Note that the compression rate is reset to a higher value by adjusting the encoding parameter in step S5. Then, the nonlinear editing apparatus 1 returns to step S3 and again encodes the frame image.

一方、符号化フレームのデータ長が規定データ長以下である場合(ステップS4でYes)、ダミーデータ付加手段24が、符号化フレームに、規定データ長と符号化フレームとのデータ長差分のダミーデータを付加して、出力する(ステップS6;ダミーデータ付加ステップ)。このように、ダミーデータを付加することで、各符号化フレームのデータ長が同一の長さに統一されることになる。
なお、生成された符号化フレームが連続して構成されることで、本編ストリームデータとなる。また、この本編ストリームデータの出力先は、ここでは、記憶手段10とするが、外部に出力することとしてもよい。
On the other hand, when the data length of the encoded frame is equal to or less than the specified data length (Yes in step S4), the dummy data adding unit 24 adds dummy data of the data length difference between the specified data length and the encoded frame to the encoded frame. Is added and output (step S6; dummy data adding step). Thus, by adding dummy data, the data length of each encoded frame is unified to the same length.
It should be noted that the generated encoded frames are continuously configured to become main stream data. The output destination of the main stream data is the storage unit 10 here, but may be output to the outside.

そして、ノンリニア編集装置1は、すべてのフレームについての処理が終了したか否かを判定する(ステップS7)。そして、すべてのフレームについての処理が終了した場合(ステップS7でYes)、ノンリニア編集装置1は、動作を終了する。一方、まだ処理が終了していないフレームが存在する場合(ステップS7でNo)、ノンリニア編集装置1は、ステップS1に戻って、動作を継続する。
以上の動作によって、ノンリニア編集装置1は、素材データから、固定長のフレーム内符号化画像(Iフレーム)のみの本編ストリームデータを生成することができる。
Then, the nonlinear editing device 1 determines whether or not the processing for all the frames has been completed (step S7). When the processing for all the frames is completed (Yes in step S7), the nonlinear editing device 1 ends the operation. On the other hand, if there is a frame that has not been processed yet (No in step S7), the nonlinear editing apparatus 1 returns to step S1 and continues its operation.
With the above operation, the nonlinear editing apparatus 1 can generate main stream data of only a fixed-length intraframe encoded image (I frame) from material data.

(差し替え機能の動作)
次に、図5を参照(構成については、適宜図3参照)して、ノンリニア編集装置1が本編ストリームデータの差し替えを行う動作について説明する。
まず、ノンリニア編集装置1は、変更区間探索手段31によって、変更指示内容を含んだ編集データ(第2編集データ)に基づいて、本編ストリームデータにおいて変更の対象となる区間(変更区間)、ならびに、当該区間に対応する元の素材データの区間を探索する(ステップS21;変更区間探索ステップ)。
(Operation of the replacement function)
Next, referring to FIG. 5 (refer to FIG. 3 as appropriate for the configuration), the operation in which the nonlinear editing apparatus 1 replaces the main stream data will be described.
First, the non-linear editing device 1 uses the change section search unit 31 to change the section (change section) to be changed in the main stream data based on the edit data (second edit data) including the change instruction content, and The original material data section corresponding to the section is searched (step S21; change section searching step).

そして、ノンリニア編集装置1は、変更区間が存在する場合(ステップS22でYes)、ステップS23以降の差し替え処理を実行する。一方、変更区間が存在しない場合(あるいは、すべての変更が完了した場合;ステップS22でNo)、動作を終了する。
そして、ノンリニア編集装置1は、ステップS22で変更区間が存在すると判断した場合、差し替えデータ生成手段32によって、編集データで指示された変更指示内容に基づいて、当該変更区間にレンダリングが必要であるか否かを判定する(ステップS23)。
Then, when there is a change section (Yes in Step S22), the nonlinear editing device 1 executes a replacement process after Step S23. On the other hand, when there is no change section (or when all the changes are completed; No in step S22), the operation ends.
If the non-linear editing device 1 determines that a change section exists in step S22, the replacement data generation unit 32 needs to render the change section based on the change instruction content instructed by the edit data. It is determined whether or not (step S23).

ここで、レンダリングが必要な場合(ステップS23でYes)、ノンリニア編集装置1は、区間映像抽出手段32aによって、記憶手段10に記憶されている素材データから、変更区間分の区間映像を抽出し、さらに、区間映像生成手段32bによって、当該区間映像に対して、テキスト合成、フェード、ワイプ、ディゾルブ等のレンダリング処理を行うことで差し替えデータを生成する(ステップS24)。
一方、変更区間にレンダリングが必要でない場合(ステップS23でNo)、ノンリニア編集装置1は、区間映像抽出手段32aによって、記憶手段10に記憶されている素材データから、変更区間分の区間映像を差し替えデータとして抽出する(ステップS25)。
Here, when rendering is necessary (Yes in step S23), the nonlinear editing apparatus 1 extracts the section video for the changed section from the material data stored in the storage unit 10 by the section video extraction unit 32a. Furthermore, replacement data is generated by performing rendering processing such as text synthesis, fade, wipe, dissolve, etc., on the section video by the section video generation means 32b (step S24).
On the other hand, when rendering is not necessary for the changed section (No in step S23), the nonlinear editing apparatus 1 replaces the section video for the changed section from the material data stored in the storage unit 10 by the section video extracting unit 32a. Extracted as data (step S25).

そして、ノンリニア編集装置1は、差し替え手段33によって、ステップS21で探索された本編ストリームデータの変更区間のストリームデータを、ステップS24またはステップS25で生成された差し替えデータに差し替える(ステップS26;差し替えステップ)。
そして、ノンリニア編集装置1は、ステップS1に戻って、変更区間が存在する間、差し替え動作を繰り返す。
以上の動作によって、ノンリニア編集装置1は、本編ストリームデータを素材データに基づいて最初から再生成する必要がなく、部分的な区間映像の差し替えによって、本編ストリームデータを生成することができる。
Then, the non-linear editing apparatus 1 replaces the stream data in the changed section of the main stream data searched in step S21 with the replacement data generated in step S24 or step S25 by the replacement unit 33 (step S26; replacement step). .
Then, the nonlinear editing apparatus 1 returns to step S1 and repeats the replacement operation while there is a change section.
With the above operation, the nonlinear editing apparatus 1 does not need to regenerate the main stream data from the beginning based on the material data, and can generate the main stream data by replacing the partial section video.

[ノンリニア編集装置の編集例]
次に、図6を参照(適宜図3参照)して、本発明の実施形態に係るノンリニア編集装置の編集動作を、画面例に対応付けて説明する。図6は、本発明の実施形態に係るノンリニア編集装置の編集動作を説明するための説明図であって、(a)は編集時の画面例、(b)は本編ストリームデータの生成手順、(c)は編集後の画面例である。
[Example of editing with a non-linear editing device]
Next, with reference to FIG. 6 (refer to FIG. 3 as appropriate), the editing operation of the nonlinear editing apparatus according to the embodiment of the present invention will be described in association with a screen example. 6A and 6B are explanatory diagrams for explaining an editing operation of the nonlinear editing apparatus according to the embodiment of the present invention, in which FIG. 6A is a screen example during editing, FIG. 6B is a main stream data generation procedure, c) is an example of a screen after editing.

ノンリニア編集装置1は、編集時に、図6(a)に示すようなGUIを有する編集画面を表示する。
この編集画面には、例えば、映像を再生して表示する映像表示領域M、編集操作を行うための複数の編集ボタンB、タイトル、映像、音声を時間軸に対応付けた編集時間軸表示領域L等が表示される。この図6(a)では、ある時間軸において、映像にタイトル(ここでは、「○○さんの家で××の花が咲きました」)を合成した例を示している。
このような編集段階においては、素材データは、図6(b)の(b−1)に示すように、素材データのカット点Cごとに管理されることになる。
The non-linear editing apparatus 1 displays an editing screen having a GUI as shown in FIG.
The editing screen includes, for example, a video display area M for reproducing and displaying video, a plurality of editing buttons B for performing editing operations, an editing time axis display area L in which titles, video, and audio are associated with the time axis. Etc. are displayed. FIG. 6A shows an example in which a title (here, “XX flowers bloomed at Mr. XX's house”) is synthesized with a video on a certain time axis.
In such an editing stage, the material data is managed for each cut point C of the material data as shown in (b-1) of FIG.

そして、ノンリニア編集装置1は、図6(a)の書き出しボタンBを押下されることで、図6(b)の(b−2)に示すように、素材データをカット点に基づいて一本化し、すべてのフレームをIフレーム化した本編ストリームデータを生成する。 The nonlinear editing apparatus 1, by being pressed Export button B W in FIG. 6 (a), as shown in FIG. 6 (b) (b-2) , on the basis of the material data to the cut point one The main stream data is generated in which all frames are converted into I frames.

ここで、編集後に編集内容に誤りが発見され、本編ストリームデータの再編集を行う必要が生じたとする。ここでは、一例として、タイトルに誤りがあり、「○○さん」が、実際には「△△さん」であったとする。
この場合、図6(b)の(b−3)に示すように、ノンリニア編集装置1には、変更要求タイトルとして「△△さんの家で〜咲きました」が、編集データとして入力される。
Here, it is assumed that an error is found in the edited content after editing, and it is necessary to re-edit the main stream data. Here, as an example, it is assumed that there is an error in the title, and “Mr. XX” is actually “Mr. △ Δ”.
In this case, as shown in (b-3) of FIG. 6B, the change request title “I bloomed at Mr. Δ △ 's house” is input to the nonlinear editing apparatus 1 as editing data. .

その後、ノンリニア編集装置1は、図6(a)の差し替えボタンBを押下されることで、図6(b)の(b−4)に示すように、変更されたタイトルに対応する区間映像のみを差し替えることで本編ストリームデータを再生成する。
これによって、ノンリニア編集装置1は、図6(c)に示すように、タイトルのみを変更した本編ストリームデータを生成する。
Then, nonlinear editing apparatus 1, by being pressed the replacement button B C of FIG. 6 (a), as shown in FIG. 6 (b) (b-4) , sectional images corresponding to the changed title The main stream data is regenerated by replacing only.
As a result, the nonlinear editing apparatus 1 generates main stream data in which only the title is changed, as shown in FIG.

以上、本発明の実施形態に係るノンリニア編集装置の構成および動作の例について説明したが、本発明はこれに限定されるものではない。
例えば、ここでは、ノンリニア編集装置1(図3参照)は、フレームを符号化した後に、ダミーデータを付加することで同一のデータ長のIフレームとして、本編ストリームデータを生成したが、Iフレーム化のみを行いダミーデータを付加しないこととしてもよい。この場合、ノンリニア編集装置1は、ダミーデータ付加手段24を省略して構成する。この場合であっても、ノンリニア編集装置1は、各フレームが独立して符号化されているため、部分的に差し替えを行う場合に、前後のフレームに影響を与えることなく差し替えを行うことができる。ただし、各フレームが同一のデータ長となっていないため、変更区間探索手段31における変更区間の探索に要する時間を短縮するには、Iフレームを同一のデータ長とすることが望ましい。
The configuration and operation example of the nonlinear editing apparatus according to the embodiment of the present invention have been described above, but the present invention is not limited to this.
For example, here, the nonlinear editing apparatus 1 (see FIG. 3) generates the main stream data as an I frame having the same data length by adding dummy data after encoding the frame. Only dummy data may be added and dummy data may not be added. In this case, the nonlinear editing apparatus 1 is configured by omitting the dummy data adding means 24. Even in this case, the non-linear editing apparatus 1 can perform replacement without affecting the previous and subsequent frames when performing partial replacement because each frame is encoded independently. . However, since each frame does not have the same data length, it is desirable that the I frame has the same data length in order to reduce the time required for the search for the changed section in the changed section search means 31.

また、ノンリニア編集装置1は、図示を省略したCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えた一般的なコンピュータで構成することができ、コンピュータを前記した各手段として機能させるノンリニア編集プログラムにより動作させることができる。   The non-linear editing apparatus 1 can be configured by a general computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), etc. (not shown). It can be operated by a nonlinear editing program that functions as each means.

本発明の実施形態に係るノンリニア編集装置において、フレームごとに独立したストリームデータを生成する機能を説明するための説明図である。It is explanatory drawing for demonstrating the function which produces | generates the independent stream data for every flame | frame in the nonlinear editing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るノンリニア編集装置において、フレームごとに独立したストリームデータの特定部分を差し替える機能を説明するための説明図である。It is explanatory drawing for demonstrating the function to replace the specific part of the independent stream data for every flame | frame in the nonlinear editing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るノンリニア編集装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the nonlinear editing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るノンリニア編集装置のIフレーム化機能を実現する際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of implement | achieving the I frame-izing function of the nonlinear editing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るノンリニア編集装置の差し替え機能を実現する際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of implement | achieving the replacement function of the nonlinear editing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るノンリニア編集装置の編集動作を説明するための説明図であって、(a)は編集時の画面例、(b)は本編ストリームデータの生成手順、(c)は編集後の画面例である。It is explanatory drawing for demonstrating the edit operation | movement of the nonlinear editing apparatus which concerns on embodiment of this invention, (a) is the example of a screen at the time of editing, (b) is the production | generation procedure of main stream data, (c) is editing It is a later screen example. MPEG2のストリームデータの構造を示す構成図である。It is a block diagram which shows the structure of the stream data of MPEG2.

符号の説明Explanation of symbols

1 ノンリニア編集装置
10 記憶手段
20 ストリームデータ生成手段
21 フレーム画像生成手段(フレーム生成手段)
22 フレーム画像解析手段
23 符号化手段
24 ダミーデータ付加手段
30 ストリーム差し替え手段
31 変更区間探索手段
32 差し替えデータ生成手段
32a 区間映像抽出手段
32b 区間映像生成手段
33 差し替え手段
1 Nonlinear Editing Device 10 Storage Unit 20 Stream Data Generation Unit 21 Frame Image Generation Unit (Frame Generation Unit)
22 Frame image analysis means 23 Encoding means 24 Dummy data addition means 30 Stream replacement means 31 Change section search means 32 Replacement data generation means 32a Section video extraction means 32b Section video generation means 33 Replacement means

Claims (4)

映像の素材データを編集するノンリニア編集装置において、
前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化手段と、
この符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加手段と、
このダミーデータ付加手段でダミーデータが付加された符号化フレームで構成されるストリームデータを記憶する記憶手段と、
前記ストリームデータにおける変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記変更区間のフレームの絶対位置を探索する変更区間探索手段と、
この変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替え手段と、
を備えることを特徴とするノンリニア編集装置。
In a non-linear editing device that edits video material data,
Encoding means for generating an encoded frame by performing intra-frame encoding for each frame of the material data;
Dummy data adding means for adding dummy data to the encoded frame so that the data length of the encoded frame generated by the encoding means becomes a predetermined specified data length;
Storage means for storing stream data composed of encoded frames to which dummy data is added by the dummy data adding means;
A change section search means for searching for an absolute position of a frame of the change section based on edit data indicating a relative position of the frame of the change section in the stream data and the specified data length;
Replacement means for replacing stream data between frames corresponding to the change section searched by the change section search means with replacement data for change;
A non-linear editing apparatus comprising:
前記素材データは動き予測符号化方式によって符号化された符号化データであって、
前記符号化手段の前段に、前記符号化データから、フレーム単位の画像を生成するフレーム生成手段をさらに備えることを特徴とする請求項1に記載のノンリニア編集装置。
The material data is encoded data encoded by a motion predictive encoding method,
The nonlinear editing apparatus according to claim 1, further comprising a frame generation unit that generates an image in a frame unit from the encoded data before the encoding unit.
ノンリニア編集装置において、映像の素材データを編集するために、コンピュータを、
前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化手段、
この符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加手段、
変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、前記変更区間のフレームの絶対位置を探索する変更区間探索手段、
この変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替え手段、
として機能させることを特徴とするノンリニア編集プログラム。
In a non-linear editing device, a computer is used to edit video material data.
Encoding means for generating an encoded frame by performing intra-frame encoding for each frame of the material data;
Dummy data adding means for adding dummy data to the encoded frame so that the data length of the encoded frame generated by the encoding means is a predetermined specified data length;
Based on the edit data indicating the relative position of the frame in the changed section and the specified data length, the absolute position of the frame in the changed section is searched in the stream data composed of the encoded frame to which the dummy data is added. Change section search means to
Replacement means for replacing stream data between frames corresponding to the changed section searched by the changed section search means with replacement data for change;
Non-linear editing program characterized by functioning as
映像の素材データを編集して生成されるストリームデータに対して、部分的な差し替えを行うノンリニア編集装置におけるデータ差し替え方法であって、
符号化手段によって、前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化ステップと、
ダミーデータ付加手段によって、前記符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加ステップと、
変更区間探索手段によって、変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、前記変更区間のフレームの絶対位置を探索する変更区間探索ステップと、
差し替え手段によって、前記変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替えステップと、
を含むことを特徴とするノンリニア編集装置におけるデータ差し替え方法。
A data replacement method in a nonlinear editing apparatus that performs partial replacement on stream data generated by editing video material data,
An encoding step of generating an encoded frame by performing intra-frame encoding for each frame of the material data by an encoding means;
A dummy data adding step of adding dummy data to the encoded frame so that the data length of the encoded frame becomes a predetermined specified data length by the dummy data adding means;
Based on the edit data indicating the relative position of the frame in the change section and the specified data length by the change section search means, stream data composed of encoded frames to which the dummy data is added, A change section search step for searching for an absolute position of the frame;
A replacement step of replacing stream data between frames corresponding to the changed section searched by the changed section searching means by replacement means with replacement data for change;
A data replacement method in a non-linear editing apparatus, comprising:
JP2006308335A 2006-11-14 2006-11-14 Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device Pending JP2008124932A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006308335A JP2008124932A (en) 2006-11-14 2006-11-14 Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308335A JP2008124932A (en) 2006-11-14 2006-11-14 Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device

Publications (1)

Publication Number Publication Date
JP2008124932A true JP2008124932A (en) 2008-05-29

Family

ID=39509208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308335A Pending JP2008124932A (en) 2006-11-14 2006-11-14 Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device

Country Status (1)

Country Link
JP (1) JP2008124932A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093450A (en) * 2007-10-10 2009-04-30 Sony Corp Reproduction apparatus, reproduction method and program
JP2011171870A (en) * 2010-02-17 2011-09-01 Casio Computer Co Ltd Moving picture imaging apparatus, and program
JP2011176661A (en) * 2010-02-25 2011-09-08 Casio Computer Co Ltd Video imaging device and program
CN106658053A (en) * 2016-09-26 2017-05-10 新奥特(北京)视频技术有限公司 Nonlinear program editing method and nonlinear program editing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227520A (en) * 1992-02-14 1993-09-03 Hitachi Ltd Picture compression-encoder
JPH06133302A (en) * 1992-10-20 1994-05-13 Mitsubishi Electric Corp Data compression circuit
JPH09182017A (en) * 1995-12-27 1997-07-11 Toshiba Corp Moving picture editing device
JPH09238347A (en) * 1996-02-29 1997-09-09 Sony Corp Image data processing method and device therefor
JP2002330293A (en) * 2001-05-01 2002-11-15 Olympus Optical Co Ltd Image processor and image processing method
JP2003078876A (en) * 2001-08-31 2003-03-14 Sony Corp Method and apparatus for recording video signal
JP2004187161A (en) * 2002-12-05 2004-07-02 Matsushita Electric Ind Co Ltd Moving video data processing equipment and moving video data processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227520A (en) * 1992-02-14 1993-09-03 Hitachi Ltd Picture compression-encoder
JPH06133302A (en) * 1992-10-20 1994-05-13 Mitsubishi Electric Corp Data compression circuit
JPH09182017A (en) * 1995-12-27 1997-07-11 Toshiba Corp Moving picture editing device
JPH09238347A (en) * 1996-02-29 1997-09-09 Sony Corp Image data processing method and device therefor
JP2002330293A (en) * 2001-05-01 2002-11-15 Olympus Optical Co Ltd Image processor and image processing method
JP2003078876A (en) * 2001-08-31 2003-03-14 Sony Corp Method and apparatus for recording video signal
JP2004187161A (en) * 2002-12-05 2004-07-02 Matsushita Electric Ind Co Ltd Moving video data processing equipment and moving video data processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093450A (en) * 2007-10-10 2009-04-30 Sony Corp Reproduction apparatus, reproduction method and program
JP2011171870A (en) * 2010-02-17 2011-09-01 Casio Computer Co Ltd Moving picture imaging apparatus, and program
JP2011176661A (en) * 2010-02-25 2011-09-08 Casio Computer Co Ltd Video imaging device and program
CN106658053A (en) * 2016-09-26 2017-05-10 新奥特(北京)视频技术有限公司 Nonlinear program editing method and nonlinear program editing device
CN106658053B (en) * 2016-09-26 2020-04-10 新奥特(北京)视频技术有限公司 Non-linear editing method and device for programs

Similar Documents

Publication Publication Date Title
JP4416796B2 (en) Image encoding device, image decoding device, image encoding program, and image decoding program
TWI477143B (en) Simultaneous video and sub-frame metadata capture system
JP4838253B2 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and recording method
JP2008035280A (en) Image decoding method, and image display method
JP6588801B2 (en) Image processing apparatus, image processing method, and program
JP4362510B2 (en) Recording / playback editing device
JP4284370B2 (en) Video server and video editing system
JP2008167061A (en) Encoding device and encoding method
JP2008124932A (en) Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device
KR20130114476A (en) Method for managing data
JP4797974B2 (en) Imaging device
JP2006217076A (en) Video recorder
JP2008035281A (en) Image coding method
JP2008028793A (en) Stream edit method and stream editor
KR20020069724A (en) Management method for video data of digital video recording and reproducting apparatus
JP2007142809A (en) Video recording apparatus
JP4154799B2 (en) Compressed video editing apparatus and storage medium
JP2010050616A (en) Recording device and recording method, reproduction device and reproduction method, program, and recording/reproducing device
JP2011146847A (en) Image reproduction controller, image reproduction control method, and imaging device
JP2006270405A (en) Device and method for processing video and computer program
JP4487196B2 (en) Recording apparatus and control method thereof
JP2005295426A (en) Video information recording system, and its method, video information reproduction device and its method
JP3897783B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP4434894B2 (en) Video dubbing device
JP2008124931A (en) Data converting device, data converting program and data converting method, and data decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120207