JP2008124932A - Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device - Google Patents
Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device Download PDFInfo
- Publication number
- JP2008124932A JP2008124932A JP2006308335A JP2006308335A JP2008124932A JP 2008124932 A JP2008124932 A JP 2008124932A JP 2006308335 A JP2006308335 A JP 2006308335A JP 2006308335 A JP2006308335 A JP 2006308335A JP 2008124932 A JP2008124932 A JP 2008124932A
- Authority
- JP
- Japan
- Prior art keywords
- data
- frame
- encoded
- encoding
- replacement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、映像の素材データを編集するノンリニア編集装置およびそのプログラム、ならびに、ノンリニア編集装置におけるデータ差し替え方法に関する。 The present invention relates to a non-linear editing apparatus and program for editing video material data, and a data replacement method in the non-linear editing apparatus.
近年、映像や音声の編集は、映像等を記録したテープを再生し、所望の箇所を他のテープにコピーするリニア編集から、映像等を、一旦、ハードディスク等の記憶装置にデジタルデータとして書き込み、コンピュータによって編集するノンリニア編集へと移行している。
このノンリニア編集を行うノンリニア編集装置は、記憶装置に記憶してある映像等を、コンピュータ端末のGUI(Graphical User Interface)上で、操作者が「コピー」、「カット」、「ペースト」等の操作を行うことで、映像等の開始点・終了点からなる編集データを作成する。そして、ノンリニア編集装置は、編集した映像等を再生する際には、この編集データに基づいて、記憶装置から所望の開始点・終了点間の映像等を読み出して出力する。これによって、ノンリニア編集は、リニア編集に比べ、編集にかかる時間を削減することができる。
なお、映像は、MPEG2(Moving Picture Coding Experts Group 2)形式で圧縮符号化されたデータが一般的である。例えば、デジタル高精細映像を記録、再生するHDV(digital High Definition Video)の規格では、MPEG2のLongGOP方式が採用されている。
In recent years, video and audio editing has been performed by playing back a tape on which video or the like has been recorded, copying the desired location to another tape, writing the video or the like as digital data in a storage device such as a hard disk, Shifting to non-linear editing that is performed by a computer.
This non-linear editing device performs operations such as “copy”, “cut”, “paste”, etc. on the GUI (Graphical User Interface) of a computer terminal by the operator using a non-linear editing device for performing non-linear editing. By doing the above, edit data composed of the start point and end point of video and the like is created. Then, when reproducing the edited video or the like, the nonlinear editing device reads and outputs the video or the like between a desired start point and end point from the storage device based on the edited data. Thus, the non-linear editing can reduce the time required for the editing as compared with the linear editing.
The video is generally data compression-coded in MPEG2 (Moving Picture Coding Experts Group 2) format. For example, in the HDV (digital high definition video) standard for recording and reproducing digital high-definition video, the MPEG2 Long GOP method is adopted.
また、従来、ノンリニア編集装置は、映像の素材データを編集する場合、複数のカットを結合することで、例えば、放送用に使用される一本の本編用のストリームデータ(本編ストリームデータ)を生成している。すなわち、従来のノンリニア編集装置は、カット点(開始点・終了点)ごとに素材データを再生することで、一本のストリームデータを生成している。 Conventionally, when editing video material data, a nonlinear editing apparatus generates a single main stream data (main stream data) used for broadcasting, for example, by combining a plurality of cuts. is doing. That is, the conventional nonlinear editing apparatus generates one stream data by reproducing the material data for each cut point (start point / end point).
ここで、図7を参照して、MPEG2の符号化形式について簡単に説明しておく。図7は、MPEG2のストリームデータの構造を示す構成図である。
図7に示すように、MPEG2のストリームデータは、「シーケンス層」、「GOP(Group of Picture)層」、「ピクチャ層」、「スライス層」、「マクロブロック層」および「ブロック層」の6層で構成されている。ここで、GOPは、1個以上のピクチャで構成され、参照画像を用いることなく符号化されたIピクチャ(フレーム内符号化画像)が含まれている。さらに、GOPには、時間的に過去に位置するピクチャから予測符号化されたPピクチャ(フレーム間符号化画像)や、時間的に過去および未来に位置するピクチャから予測符号化されたBピクチャ(双方向符号化画像)も含まれている。
このように、MPEG2のような予測符号化を行う符号化方式では、GOP内の各ピクチャは独立しておらず、原則的には、ピクチャ単位で差し替え等の編集を行うことはできない。そこで、ピクチャを差し替えるときに、GOP内のピクチャ構成を変更する技術が開示されている(特許文献1参照)。
As shown in FIG. 7, MPEG2 stream data includes 6 “sequence layer”, “GOP (Group of Picture) layer”, “picture layer”, “slice layer”, “macroblock layer”, and “block layer”. Consists of layers. Here, the GOP is composed of one or more pictures and includes an I picture (intra-frame encoded image) that is encoded without using a reference image. Further, the GOP includes a P picture (inter-frame encoded image) that is predictively encoded from a picture that is temporally located in the past, and a B picture that is predictively encoded from pictures that are temporally located in the past and the future ( Bidirectional encoded images) are also included.
Thus, in a coding method that performs predictive coding such as MPEG2, each picture in the GOP is not independent, and in principle, editing such as replacement cannot be performed in units of pictures. Thus, a technique for changing the picture configuration in the GOP when replacing a picture has been disclosed (see Patent Document 1).
しかし、従来のノンリニア編集装置では、複数のカットを結合して1つの本編ストリームデータ(物理ファイル)を生成するため、編集後に映像の特定部分の差し替え等が発生した場合、再度本編ストリームデータを全編にわたって再生成する必要があり、編集に時間がかかるという問題がある。
また、所望の映像の特定部分を差し替える場合、特許文献1に開示されているGOP内のピクチャ構成を変更する技術では、差し替えを行うピクチャ(フレーム)を探索するために、ストリームデータの先頭から所望のピクチャを探索しなければならず、差し替えを行う際に時間がかかるという問題がある。
However, in the conventional non-linear editing apparatus, a plurality of cuts are combined to generate one main stream data (physical file). Therefore, if the replacement of a specific part of the video occurs after editing, the main stream data is again converted to the entire main stream data. There is a problem that it takes time to edit.
In addition, when replacing a specific part of a desired video, the technique for changing the picture configuration in the GOP disclosed in
本発明は、以上のような問題を解決するためになされたものであり、ストリームデータの特定部分を差し替える際に、一旦生成した編集後のファイル(本編ストリームデータ)を、再度、全編にわたって再生成することなく編集することが可能なノンリニア編集装置およびそのプログラム、ならびに、ノンリニア編集装置におけるデータ差し替え方法を提供することを目的とする。 The present invention has been made to solve the above-described problems. When a specific portion of stream data is replaced, an edited file (main stream data) once generated is regenerated again over the entire program. It is an object of the present invention to provide a non-linear editing device and a program for the same, and a data replacement method in the non-linear editing device.
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のノンリニア編集装置は、映像の素材データを編集するノンリニア編集装置において、符号化手段と、ダミーデータ付加手段と、記憶手段と、変更区間探索手段と、差し替え手段と、を備える構成とした。
The present invention was devised to achieve the above object. First, the nonlinear editing apparatus according to
かかる構成において、ノンリニア編集装置は、符号化手段によって、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。ここで、フレーム内符号化とは、予測符号化と異なり、当該フレーム内のデータのみに基づいて符号化を行うものである。このフレーム内符号化は、例えば、MPEG2符号化方式においては、フレームをマクロブロック単位で符号化することでIフレーム(ピクチャ)を生成する符号化方式に相当する。これによって、各符号化フレームは、他のフレームから独立して(影響を受けずに)符号化されることになる。 In such a configuration, the nonlinear editing apparatus generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means. Here, unlike intra-frame coding, intra-frame coding is coding based on only data in the frame. For example, in the MPEG2 encoding method, this intraframe encoding corresponds to an encoding method for generating an I frame (picture) by encoding a frame in units of macroblocks. As a result, each encoded frame is encoded independently of (not affected by) other frames.
そして、ノンリニア編集装置は、ダミーデータ付加手段によって、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
そして、ノンリニア編集装置は、ダミーデータが付加された符号化フレームで構成されるストリームデータを記憶手段に記憶しておく。
Then, the nonlinear editing device adds dummy data to the encoded frame by the dummy data adding unit so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. As a result, the data lengths of the encoded frames are all unified to the same length.
Then, the non-linear editing apparatus stores stream data composed of encoded frames to which dummy data is added in the storage unit.
さらに、ノンリニア編集装置は、変更区間探索手段によって、ストリームデータにおける変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ストリームデータにおける変更区間のフレームの絶対位置を探索する。この場合、符号化フレームのデータ長が予め定めた規定データ長(固定長)となっているため、規定データ長とフレーム番号とを演算(乗算)することで変更区間のフレームの絶対位置を求めることができる。
そして、ノンリニア編集装置は、差し替え手段によって、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。この場合、ストリームデータは、フレームごとに独立して符号化されているため、部分的に差し替えが行われても、変更区間の前後のフレームに影響を与えることがない。
Further, the non-linear editing device searches for the absolute position of the frame in the change section in the stream data based on the edit data indicating the relative position of the frame in the change section in the stream data and the specified data length by the change section search means. . In this case, since the data length of the encoded frame is a predetermined specified data length (fixed length), the absolute position of the frame in the changed section is obtained by calculating (multiplying) the specified data length and the frame number. be able to.
Then, the non-linear editing device replaces the stream data between frames corresponding to the change section searched by the change section search means with replacement data for change. In this case, since the stream data is encoded independently for each frame, even if partial replacement is performed, the frames before and after the changed section are not affected.
また、請求項2に記載のノンリニア編集装置は、請求項1に記載のノンリニア編集装置において、前記素材データが動き予測符号化方式によって符号化された符号化データであって、前記符号化手段の前段に、前記符号化データから、フレーム単位の画像を生成するフレーム生成手段をさらに備える構成とした。
The nonlinear editing apparatus according to
かかる構成において、ノンリニア編集装置は、フレーム生成手段によって、動き予測符号化方式によって符号化された符号化データを復号することで、フレームごとの画像を生成する。これによって、MPEG2等の動き予測符号化方式によってフレーム間で相互に関連しあって符号化が行われている場合であっても、フレームごとに分離することができる。 In such a configuration, the nonlinear editing apparatus generates an image for each frame by decoding the encoded data encoded by the motion predictive encoding method by the frame generation unit. As a result, even if the frames are correlated and encoded by a motion predictive encoding method such as MPEG2, the frames can be separated.
さらに、請求項3に記載のノンリニア編集プログラムは、ノンリニア編集装置において、映像の素材データを編集するために、コンピュータを、符号化手段、ダミーデータ付加手段、変更区間探索手段、差し替え手段、として機能させる構成とした。 The non-linear editing program according to claim 3 functions as a coding means, a dummy data adding means, a change section searching means, and a replacing means in order to edit the video material data in the non-linear editing apparatus. It was set as the structure made to do.
かかる構成において、ノンリニア編集プログラムは、符号化手段によって、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。これによって、各符号化フレームは、他のフレームから独立して符号化されることになる。
そして、ノンリニア編集プログラムは、ダミーデータ付加手段によって、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
In such a configuration, the nonlinear editing program generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means. As a result, each encoded frame is encoded independently of the other frames.
Then, the non-linear editing program adds dummy data to the encoded frame by the dummy data adding unit so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. As a result, the data lengths of the encoded frames are all unified to the same length.
そして、ノンリニア編集プログラムは、変更区間探索手段によって、変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、変更区間のフレームの絶対位置を探索する。
そして、ノンリニア編集プログラムは、差し替え手段によって、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。
Then, the non-linear editing program uses the change section search means in the stream data composed of the encoded frame to which the dummy data is added based on the edit data indicating the relative position of the frame in the change section and the specified data length. The absolute position of the frame in the changed section is searched.
Then, the non-linear editing program replaces the stream data between frames corresponding to the changed section searched by the changed section searching means by the replacing means with replacement data for change.
また、請求項4に記載のノンリニア編集装置におけるデータ差し替え方法は、映像の素材データを編集して生成されるストリームデータに対して、部分的な差し替えを行う方法であって、符号化ステップと、ダミーデータ付加ステップと、変更区間探索ステップと、差し替えステップと、を含む手順とした。
Further, the data replacement method in the nonlinear editing device according to
かかる手順において、データ差し替え方法は、符号化ステップにおいて、符号化手段により、素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する。これによって、各符号化フレームは、他のフレームから独立して符号化されることになる。
そして、データ差し替え方法は、ダミーデータ付加ステップにおいて、ダミーデータ付加手段により、符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、符号化フレームにダミーデータを付加する。これによって、符号化フレームのデータ長が、すべて同一の長さに統一されることになる。
In this procedure, the data replacement method generates an encoded frame by performing intra-frame encoding on each frame of the material data by the encoding means in the encoding step. As a result, each encoded frame is encoded independently of the other frames.
Then, in the dummy data adding step, the data replacement method includes a dummy data adding unit that performs dummy processing on the encoded frame so that the data length of the encoded frame generated by the encoding unit becomes a predetermined specified data length. Append data. As a result, the data lengths of the encoded frames are all unified to the same length.
そして、データ差し替え方法は、変更区間探索ステップにおいて、変更区間探索手段により、変更区間のフレームの相対位置を示す編集データと、規定データ長とに基づいて、ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、変更区間のフレームの絶対位置を探索する。
そして、データ差し替え方法は、差し替えステップにおいて、差し替え手段により、変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える。
The data replacement method is an encoded frame to which dummy data is added based on the edit data indicating the relative position of the frame in the changed section and the specified data length by the changed section search means in the changed section search step. In the configured stream data, the absolute position of the frame in the changed section is searched.
In the data replacement method, in the replacement step, the replacement means replaces the stream data between frames corresponding to the changed section searched by the changed section search means with the replacement data for change.
本発明は、以下に示す優れた効果を奏するものである。
請求項1、請求項3または請求項4に記載の発明によれば、ストリームデータの特定部分を差し替える際に、一旦生成した編集後のストリームデータを、再度、全編にわたって再生成することなく差し替えを行うことができる。また、本発明によれば、特定部分のフレームの位置を演算によって求めることができるため、ストリームデータの先頭から所望のフレームを探索する必要がなく、高速に編集作業を行うことができる。
The present invention has the following excellent effects.
According to the invention of
請求項2に記載の発明によれば、動き予測符号化方式によって符号化された符号化データであっても、同一のデータ長のフレームで構成されるストリームデータを生成することで、高速に差し替え編集を行うことができる。 According to the second aspect of the present invention, even if the encoded data is encoded by the motion predictive encoding method, it can be replaced at high speed by generating stream data composed of frames having the same data length. Can be edited.
以下、本発明の実施の形態について図面を参照して説明する。
[ノンリニア編集装置の機能概要]
最初に、図1および図2を参照して、ノンリニア編集装置の機能の概要について説明する。図1は、本発明の実施形態に係るノンリニア編集装置において、素材データの各フレームをフレーム内符号化することで、フレームごとに独立したストリームデータを生成する機能を説明するための説明図である。図2は、本発明の実施形態に係るノンリニア編集装置において、フレームごとに独立したストリームデータの特定部分を差し替える機能を説明するための説明図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Functional overview of nonlinear editing equipment]
First, an outline of functions of the nonlinear editing apparatus will be described with reference to FIGS. 1 and 2. FIG. 1 is an explanatory diagram for explaining a function of generating independent stream data for each frame by intra-frame encoding each frame of material data in the nonlinear editing apparatus according to the embodiment of the present invention. . FIG. 2 is an explanatory diagram for explaining a function of replacing a specific portion of stream data independent for each frame in the nonlinear editing apparatus according to the embodiment of the present invention.
図1に示すように、ノンリニア編集装置1は、映像の素材データを、フレーム内で独立して符号化されたフレーム内符号化画像のみで構成したストリームデータ(本編ストリームデータ)に変換する機能(Iフレーム化機能)を有する。
このように変換されたIフレームは、具体的には、シーケンスヘッダと、GOPヘッダとが付加されて構成されている。これによって、各フレームは、フレーム内符号化画像として個々に独立した画像になる。なお、ノンリニア編集装置1は、各フレームが同一のデータ長となるようにダミーデータを付加する機能も有している。
As shown in FIG. 1, the
Specifically, the I frame thus converted is configured by adding a sequence header and a GOP header. As a result, each frame becomes an independent image as an intra-frame encoded image. The
また、図2に示すように、ノンリニア編集装置1は、Iフレーム化された本編ストリームデータにおいて、特定部分の差し替えを行う機能(差し替え機能)を有する。Iフレーム化された本編ストリームデータは、各フレームが独立して符号化されているため、特定部分(例えば、図2中、I3〜I7のフレーム)の差し替えを行う場合であっても、その前後のフレーム(図2中、I2およびI8のフレーム)に影響を与えることがなく、差し替え部分のみの差し替えで、所望の本編ストリームデータが生成されることになる。
以下、本機能を実現するノンリニア編集装置1の構成について具体的に説明する。
As shown in FIG. 2, the
Hereinafter, the configuration of the
[ノンリニア編集装置の構成]
ここでは、図3を参照して、本発明の実施形態に係るノンリニア編集装置の構成について説明する。図3は、本発明の実施形態に係るノンリニア編集装置の構成を示すブロック構成図である。ノンリニア編集装置1は、記憶手段10と、ストリームデータ生成手段20と、ストリーム差し替え手段30とを備えている。なお、ここでは、一般的なノンリニア編集装置に備えられている「コピー」、「カット」、「ペースト」等の編集操作のためのGUIを実現する編集手段や表示手段については図示を省略している。
[Configuration of nonlinear editing device]
Here, the configuration of the nonlinear editing apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the nonlinear editing apparatus according to the embodiment of the present invention. The
記憶手段10は、編集対象となる素材データや、編集後のデータである本編ストリームデータを記憶するものであって、ハードディスク等の一般的な記憶装置である。
なお、素材データは、カメラ撮影され放送番組等に供される元となるデータである。ここでは、素材データは、図示を省略した入力手段を介して、記憶手段10に記憶されているものとする。また、本編ストリームデータは、複数の素材データが、「コピー」、「カット」、「ペースト」等の操作によって編集され、一本の放送番組用に結合されたデータである。
The
Note that the material data is data that is taken by a camera and used as a broadcast program. Here, it is assumed that the material data is stored in the
ストリームデータ生成手段20は、編集データ(第1編集データ)に基づいて、素材データから、本編ストリームデータを生成するものであって、図1で説明したIフレーム化機能を実現するものである。ここでは、ストリームデータ生成手段20は、フレーム画像生成手段21と、フレーム画像解析手段22と、符号化手段23と、ダミーデータ付加手段24とを備えている。
The stream data generation means 20 generates the main stream data from the material data based on the edit data (first edit data), and implements the I-frame conversion function described with reference to FIG. Here, the stream data generation unit 20 includes a frame
フレーム画像生成手段(フレーム生成手段)21は、編集データ(第1編集データ)に基づいて、記憶手段10に記憶されている(あるいは外部から入力される)素材データから、フレームごとの画像を生成するものである。
ここで、フレーム画像生成手段21は、外部から素材データを映像信号として入力する場合は、図示を省略したメモリ等にフレーム単位で映像をキャプチャし、フレーム画像を生成する。また、フレーム画像生成手段21は、素材データがMPEG2等の動き予測符号化方式によって符号化されている場合は、フレーム単位で復号することで、フレーム画像を生成する。
The frame image generation means (frame generation means) 21 generates an image for each frame from the material data stored in the storage means 10 (or input from the outside) based on the edit data (first edit data). To do.
Here, when the material data is input from the outside as a video signal, the frame image generation means 21 captures the video in a frame unit in a memory or the like (not shown) and generates a frame image. In addition, when the material data is encoded by a motion predictive encoding method such as MPEG2, the frame image generation means 21 generates a frame image by decoding in units of frames.
また、編集データ(第1編集データ)は、映像の開始点や終了点を示すカット点(イン点、アウト点)、当該映像の所定の映像区間に合成するテキスト、当該映像区間の映像に対する効果(フェード、ワイプ、ディゾルブ等)等を示すデータである。なお、ここでは、編集データを外部から入力することとしているが、ノンリニア編集装置1内の図示を省略した編集手段を介して入力することとしてもよい。
The edit data (first edit data) includes cut points (in and out points) indicating the start point and end point of the video, text to be combined with a predetermined video section of the video, and effects on the video in the video section. (Fade, wipe, dissolve, etc.) Although the editing data is input from the outside here, it may be input via editing means (not shown) in the
また、ここでは、フレーム画像生成手段21は、編集データに基づいて、フレームごとに、テキストを合成したり、効果を施したフレームに変換したりすることで、単一のフレーム画像を生成する。このフレーム画像生成手段21で生成されたフレーム画像は、フレーム画像解析手段22と、符号化手段23とに出力される。
Here, the frame image generation means 21 generates a single frame image by synthesizing text for each frame or converting the frame into an effected frame based on the editing data. The frame image generated by the frame
フレーム画像解析手段22は、フレーム画像生成手段21で生成されたフレーム画像を解析し、符号化手段23において符号化された際の符号化データ長が、規定データ長以下となるようなエンコードパラメータ(圧縮率)を決定するものである。例えば、フレーム画像解析手段22は、圧縮率として、MPEG2等で用いられている量子化スケールを用いることができる。なお、MPEG2では、マクロブロック単位でフレームを符号化している。そして、量子化スケールは、各マクロブロックの圧縮率を示し、その値が小さいほど低圧縮率を示し、その値が大きいほど高圧縮率を示している。
このフレーム画像解析手段22で決定されたエンコードパラメータ(圧縮率;ここでは量子化スケール)は、符号化手段23に出力される。
なお、フレーム画像解析手段22において、圧縮率(量子化スケール)を求める手法については、後で具体的に説明を行うこととする。
The frame
The encoding parameter (compression rate; here, the quantization scale) determined by the frame
The method for obtaining the compression rate (quantization scale) in the frame image analysis means 22 will be specifically described later.
符号化手段23は、フレーム画像解析手段22で解析されたエンコードパラメータ(圧縮率)に基づいて、フレーム画像生成手段21で生成されたフレーム画像をフレーム内符号化することで符号化フレームを生成するものである。
ここで、符号化方式としてMPEG2を用い、圧縮率として量子化スケールがフレーム画像解析手段22から通知される場合、符号化手段23は、量子化スケールが小さいほど量子化を細かくし、量子化スケールが大きいほど量子化を粗くして、マクロブロック単位で符号化を行う。これによって、フレーム画像は、他のフレームとは独立して符号化されたフレーム内符号化画像(符号化フレーム)として生成され、個々に差し替えが可能となる。
The
Here, when MPEG2 is used as the encoding method and the quantization scale is notified as the compression rate from the frame image analysis means 22, the encoding means 23 makes the quantization finer as the quantization scale is smaller. The larger the value is, the coarser the quantization is, and encoding is performed in units of macroblocks. As a result, the frame image is generated as an intra-frame encoded image (encoded frame) encoded independently of the other frames, and can be replaced individually.
さらに、符号化手段23は、符号化方式としてMPEG2を用いる場合、符号化フレーム(フレーム内符号化画像、Iピクチャ)ごとに、シーケンスヘッダおよびGOPヘッダを付加しておく(図1参照)。これによって、各フレーム内符号化画像は、MPEG2において、1つのIピクチャが、1つのGOPで管理されることになる。
この符号化手段23で符号化されたフレーム画像(符号化フレーム)は、ダミーデータ付加手段24に出力される。
Furthermore, when MPEG2 is used as the encoding method, the encoding means 23 adds a sequence header and a GOP header for each encoded frame (intra-frame encoded image, I picture) (see FIG. 1). As a result, in the intra-frame encoded image, one I picture is managed by one GOP in MPEG2.
The frame image (encoded frame) encoded by the
ダミーデータ付加手段24は、符号化手段23で符号化された符号化フレームごとに、予め定めた規定データ長と符号化フレームとのデータ長差分のダミーデータを付加するものである。なお、ここで、符号化フレームのデータ長が、規定データ長よりも長い場合は、符号化手段23にその旨を通知することで、符号化手段23が圧縮率を設定し直して、再度、符号化を行うこととする。このダミーデータが付加された符号化フレームは、記憶手段10に本編ストリームデータとして記憶される。なお、このダミーデータとしては、MPEG2等で推奨されている値「0」を使用する。これによって、各フレームは、ダミーデータを含めて同一のデータ長で管理されることになる。
The dummy data adding means 24 adds dummy data of a data length difference between a predetermined specified data length and an encoded frame for each encoded frame encoded by the encoding means 23. Here, when the data length of the encoded frame is longer than the specified data length, the
ストリーム差し替え手段30は、編集データ(第2編集データ)に基づいて、本編ストリームデータの特定部分を他のストリームデータに差し替えるものであって、図2で説明した差し替え機能を実現するものである。ここでは、ストリーム差し替え手段30は、変更区間探索手段31と、差し替えデータ生成手段32と、差し替え手段33とを備えている。
The stream replacement means 30 replaces a specific part of the main stream data with other stream data based on the edit data (second edit data), and implements the replacement function described in FIG. Here, the stream replacement unit 30 includes a change
変更区間探索手段31は、変更区間のフレームの相対位置を示す編集データ(第2編集データ)に基づいて、本編ストリームデータにおいて変更の対象となる区間(変更区間)のフレームの絶対位置(アドレス)を探索するものである。また、編集データには、本編ストリームデータの変更区間を示す情報以外にも、変更指示内容(レンダリング等)や、変更の元となる素材データのカット点等を示す情報も含まれている。なお、変更区間は、個々のフレームを特定するためのフレーム番号等によって、ストリームデータにおいて相対的に指定されている。 The change section searching means 31 is based on the edit data (second edit data) indicating the relative position of the frame in the change section, and the absolute position (address) of the frame in the section (change section) to be changed in the main stream data. Is to search. In addition to the information indicating the change section of the main stream data, the edit data also includes information indicating the change instruction content (rendering, etc.) and the cut point of the material data that is the source of the change. Note that the change section is relatively specified in the stream data by a frame number or the like for specifying individual frames.
ここで、本編ストリームデータは、フレームごとに同一の規定データ長となっているため、変更区間探索手段31は、変更区間としてフレーム番号が指示された場合、規定データ長に対してフレーム番号の倍数の演算を行うことで、所望のフレームの位置情報(絶対位置〔アドレス〕)を求めることができる。
例えば、規定データ長をLCONST、フレーム番号をFNUM(0〜N)とした場合、フレームの位置情報(アドレス)ADは、以下の(1)式に示すように、規定データ長とフレーム番号との乗算によって求めることができる。
Here, since the main stream data has the same specified data length for each frame, when the frame number is designated as the changed section, the change section search means 31 is a multiple of the frame number with respect to the specified data length. By performing this calculation, position information (absolute position [address]) of a desired frame can be obtained.
For example, when the specified data length is L CONST and the frame number is F NUM (0 to N), the frame position information (address) AD is the specified data length and frame number as shown in the following equation (1). Can be obtained by multiplication with
AD=FNUM×LCONST …(1)式 AD = F NUM × L CONST (1)
そして、変更区間探索手段31は、探索した位置情報(アドレス)を差し替えデータ生成手段32と、差し替え手段33とに出力する。さらに、変更区間探索手段31は、変更指示内容を差し替えデータ生成手段32に出力する。
Then, the changed
差し替えデータ生成手段32は、編集データで指示された変更指示内容に基づいて、本編ストリームデータの変更区間の差し替えを行うデータ(差し替えデータ)を生成するものである。ここでは、差し替えデータ生成手段32は、区間映像抽出手段32aと、区間映像生成手段32bとを備えている。
The replacement data generating means 32 generates data (replacement data) for replacing the change section of the main stream data based on the content of the change instruction instructed by the edit data. Here, the replacement
区間映像抽出手段32aは、記憶手段10に記憶されている素材データから、変更区間探索手段31において探索された変更区間に対応する区間映像を抽出するものである。なお、編集データで指示された変更指示内容が、区間映像の差し替えのみである場合、区間映像抽出手段32aは、抽出した区間映像(差し替えデータ)を差し替え手段33に出力する。一方、編集データで指示された変更指示内容が、区間映像に対してレンダリング処理を行う必要がある場合、区間映像抽出手段32aは、抽出した区間映像(差し替えデータ)を区間映像生成手段32bに出力する。
The section
区間映像生成手段32bは、変更指示内容に基づいて、区間映像抽出手段32aで抽出された区間映像に対して編集を行うことで、差し替えを行う映像(差し替えデータ)を生成するものである。例えば、区間映像生成手段32bは、区間映像に対してテキストを付加する場合、変更指示内容で示される文字列、文字種、表示位置等の情報に基づいて、当該映像にテキストを合成することで、差し替えデータを生成する。
なお、区間映像生成手段32bは、テキスト合成以外にも、変更指示内容に基づいて、区間映像において、フェード、ワイプ、ディゾルブ等のレンダリング処理を行うことで、差し替えデータを生成する。このように生成された差し替えデータは、差し替え手段33に出力される。
The section
In addition to the text synthesis, the section
差し替え手段33は、変更区間探索手段31で探索された本編ストリームデータの変更区間の映像(区間ストリームデータ)を、差し替えデータ生成手段32で生成された差し替えデータに差し替えることで、新たな差し替え後の本編ストリームデータを生成するものである。
なお、本編ストリームデータは、フレーム内符号化画像(Iピクチャ)のみで構成されているため、変更区間のみを差し替えても、その前後の映像に影響を与えることがない。
The replacement means 33 replaces the video (section stream data) of the change section of the main stream data searched by the change section search means 31 with the replacement data generated by the replacement data generation means 32, so that a new post-replacement data is obtained. Main stream data is generated.
Since the main stream data is composed only of the intra-frame coded image (I picture), even if only the changed section is replaced, the video before and after that is not affected.
以上説明したようにノンリニア編集装置1を構成することで、ノンリニア編集装置1は、素材データをフレーム内符号化画像(Iフレーム)のみで構成したストリームデータ(本編ストリームデータ)に変換することができる。さらに、ノンリニア編集装置1は、本編ストリームデータを、フレーム内符号化画像のみで構成することで、本編ストリームデータを再構成することなく、特定部分を差し替えて、新しい本編ストリームデータを生成することができる。
By configuring the
(フレーム画像解析手段が行う圧縮率の決定手法について)
ここで、フレーム画像解析手段22が行う圧縮率(量子化スケール)の決定手法の一例について、数式を用いて具体的に説明する。MPEG2では、フレームをマクロブロックという16画素×16画素のブロックに分割して符号化を行う。また、マクロブロックは、さらに8画素×8画素サイズの4つのサブブロックに分割され、符号化の際に使用される。以下、フレーム画像解析手段22がマクロブロックごとの量子化スケールを決定する手順(手順1〜手順3)について説明する。
(How to determine the compression ratio performed by frame image analysis means)
Here, an example of a compression rate (quantization scale) determination method performed by the frame
〔手順1:量子化スケールの初期値決定〕
まず、フレーム画像解析手段22は、符号化対象のフレームの量子化スケールの初期値を決定する。
具体的には、フレーム画像解析手段22は、j番目のマクロブロックの量子化スケールmquantjを、以下の(2)式により算出する。
[Procedure 1: Determination of initial value of quantization scale]
First, the frame image analysis means 22 determines the initial value of the quantization scale of the encoding target frame.
Specifically, the frame image analysis means 22 calculates the quantization scale mquant j of the jth macroblock by the following equation (2).
なお、Qは量子化パラメータ、N_actjは正規化係数(正規化アクティビティ)である。
ここで、量子化パラメータQは、以下の(3)式により算出される。
Q is a quantization parameter, and N_act j is a normalization coefficient (normalization activity).
Here, the quantization parameter Q is calculated by the following equation (3).
なお、dは1マクロブロックの符号化データ長、rは量子化を行う際の係数(リアクションパラメータ)である。
ここで、目標となる規定データ長(目標符号化データ長)をT、1フレーム内のマクロブロック数をMB_cntとしたとき、前記(3)式の符号化データ長dは、以下の(4)式により算出される。
Note that d is the encoded data length of one macroblock, and r is a coefficient (reaction parameter) for quantization.
Here, when the target specified data length (target encoded data length) is T, and the number of macroblocks in one frame is MB_cnt, the encoded data length d in the above equation (3) is the following (4) Calculated by the formula.
また、ビットレートをbit_rate、ピクチャレートをpicture_rateとしたとき、前記(3)式の係数rは、以下の(5)式により算出される。 Further, when the bit rate is bit_rate and the picture rate is picture_rate, the coefficient r in the equation (3) is calculated by the following equation (5).
また、前記(2)式の正規化アクティビティN_actjは、以下の(6)式により算出される。 Further, the normalized activity N_act j in the equation (2) is calculated by the following equation (6).
ここで、avg_actは、全マクロブロックのactjの平均値である。また、actjは、j番目のマクロブロックの複雑さを示す量であって、以下の(7)式により算出される。 Here, avg_act is an average value of act j of all macroblocks. Act j is an amount indicating the complexity of the j-th macroblock, and is calculated by the following equation (7).
なお、min(…)は、括弧内の要素の最小値を求める関数である。また、vblknは、n番目のサブブロックの複雑さを示す量であって、Pn kをサブブロックのk番目の画素の輝度値としたとき、以下の(8)式により算出される。 Note that min (...) Is a function for obtaining the minimum value of elements in parentheses. Further, VBLK n is a quantity that indicates the complexity of the n-th sub-block, when the luminance value of the k-th pixel of the sub block P n k, is calculated by the following equation (8).
なお、P_meannは、以下の(9)式に示すn番目のサブブロックの輝度平均値である。 P_mean n is the luminance average value of the n-th sub-block shown in the following equation (9).
〔手順2:符号化後の符号化データ長の予測〕
通常、手順1で決定した量子化スケールで符号化を行っても、フレームによっては、符号化後のデータ長が規定データ長に収まらない場合がある。そこで、フレーム画像解析手段22は、当該フレームに対して処理負荷の低い符号化を行い符号化データ長を試算することで、符号化データ化長の予測を行う。なお、この符号化データ長を試算する手法については種々考えられるが、例えば、フレーム内のマクロブロックを一定間隔で選択し、その選択したマクロブロックのみを符号化することで符号化データ長(予測符号化データ長)の試算を行うことができる。
[Procedure 2: Prediction of encoded data length after encoding]
Usually, even if encoding is performed with the quantization scale determined in
具体的には、フレーム画像解析手段22は、フレームの縦横の8ブロックごとにマクロブロックを選択して符号化を行う。この符号化データ長は、全フレームの1/64の符号化データ長に相当することになるため、フレーム画像解析手段22は、その符号化データ長を64倍することで、当該フレーム全体の予測符号化データ長を試算する。 Specifically, the frame image analysis means 22 performs encoding by selecting a macro block for every 8 blocks in the vertical and horizontal directions of the frame. Since this encoded data length corresponds to 1/64 of the encoded data length of all frames, the frame image analysis means 22 multiplies the encoded data length by 64 to predict the entire frame. Calculate the encoded data length.
〔手順3:予測符号化データ長の評価〕
手順2の結果、予測符号化データ長が、規定データ長よりも長い場合、実際にフレームを符号化した場合、その符号化データ長は、規定データ長を超過する可能性が高い。そこで、符号化データ長を規定データ長以下とするには、さらに圧縮率を高める必要があるため、フレーム画像解析手段22は、量子化スケール大きくして前記した手順2の処理を再度行う。
以上の手順(手順1〜手順3)よって、フレーム画像解析手段22は、符号化データ長が規定データ長以下となると予測される圧縮率(量子化スケール)を求めることができる。
[Procedure 3: Evaluation of prediction encoded data length]
As a result of the
By the above procedure (
[ノンリニア編集装置の動作]
次に、図4および図5を参照して、本発明の実施形態に係るノンリニア編集装置の動作について説明する。ここでは、本発明のノンリニア編集装置の特徴となる素材データのIフレーム化機能と、Iフレーム化された本編ストリームデータの差し替え機能とを実現する際の動作について説明する。図4は、本発明の実施形態に係るノンリニア編集装置のIフレーム化機能を実現する際の動作を示すフローチャートである。図5は、本発明の実施形態に係るノンリニア編集装置の差し替え機能を実現する際の動作を示すフローチャートである。
[Operation of non-linear editing device]
Next, the operation of the nonlinear editing apparatus according to the embodiment of the present invention will be described with reference to FIGS. Here, the operation when realizing the I-frame conversion function of material data and the replacement function of the main stream data converted into the I-frame, which are features of the nonlinear editing apparatus of the present invention, will be described. FIG. 4 is a flowchart showing an operation when realizing the I-frame conversion function of the nonlinear editing apparatus according to the embodiment of the present invention. FIG. 5 is a flowchart showing an operation when realizing the replacement function of the nonlinear editing apparatus according to the embodiment of the present invention.
(Iフレーム化機能の動作)
最初に、図4を参照(構成については、適宜図3参照)して、ノンリニア編集装置1が素材データをIフレーム化する動作について説明する。
まず、ノンリニア編集装置1は、フレーム画像生成手段21によって、素材データから、フレームごとの画像(フレーム画像)を生成する(ステップS1)。なお、このとき、フレーム画像生成手段21は、編集データ(第1編集データ)に基づいて、必要であれば、テキスト合成等の編集を行う。
また、ノンリニア編集装置1は、フレーム画像解析手段22によって、ステップS1で生成されたフレーム画像を解析し、符号化手段23において符号化された際の符号化データ長が、規定データ長以下となるようなエンコードパラメータ(圧縮率)を決定する(ステップS2)。
(Operation of I-frame function)
First, referring to FIG. 4 (for the configuration, refer to FIG. 3 as appropriate), the operation in which the
First, the
Further, the
そして、ノンリニア編集装置1は、符号化手段23によって、ステップS2で決定されたエンコードパラメータ(圧縮率)に基づいて、ステップS1で生成されたフレーム画像を符号化する(ステップS3;符号化ステップ)。なお、このとき、符号化手段23は、フレーム画像を、フレーム内で独立して符号化することで符号化フレーム(フレーム内符号化画像、Iフレーム)を生成する。
そして、ノンリニア編集装置1は、ダミーデータ付加手段24によって、ステップS3で生成(符号化)された符号化フレームのデータ長が予め定めたデータ長(規定データ長)以下であるか否かを判定する(ステップS4)。
Then, the
Then, the
ここで、符号化フレームのデータ長が規定データ長よりも長い場合(ステップS4でNo)、符号化手段23が、エンコードパラメータを調節する(ステップS5)。なお、このステップS5におけるエンコードパラメータの調節によって、圧縮率が高く設定し直されることになる。そして、ノンリニア編集装置1は、ステップS3に戻って、再度フレーム画像の符号化を行う。
Here, when the data length of the encoded frame is longer than the prescribed data length (No in step S4), the encoding means 23 adjusts the encoding parameter (step S5). Note that the compression rate is reset to a higher value by adjusting the encoding parameter in step S5. Then, the
一方、符号化フレームのデータ長が規定データ長以下である場合(ステップS4でYes)、ダミーデータ付加手段24が、符号化フレームに、規定データ長と符号化フレームとのデータ長差分のダミーデータを付加して、出力する(ステップS6;ダミーデータ付加ステップ)。このように、ダミーデータを付加することで、各符号化フレームのデータ長が同一の長さに統一されることになる。
なお、生成された符号化フレームが連続して構成されることで、本編ストリームデータとなる。また、この本編ストリームデータの出力先は、ここでは、記憶手段10とするが、外部に出力することとしてもよい。
On the other hand, when the data length of the encoded frame is equal to or less than the specified data length (Yes in step S4), the dummy
It should be noted that the generated encoded frames are continuously configured to become main stream data. The output destination of the main stream data is the
そして、ノンリニア編集装置1は、すべてのフレームについての処理が終了したか否かを判定する(ステップS7)。そして、すべてのフレームについての処理が終了した場合(ステップS7でYes)、ノンリニア編集装置1は、動作を終了する。一方、まだ処理が終了していないフレームが存在する場合(ステップS7でNo)、ノンリニア編集装置1は、ステップS1に戻って、動作を継続する。
以上の動作によって、ノンリニア編集装置1は、素材データから、固定長のフレーム内符号化画像(Iフレーム)のみの本編ストリームデータを生成することができる。
Then, the
With the above operation, the
(差し替え機能の動作)
次に、図5を参照(構成については、適宜図3参照)して、ノンリニア編集装置1が本編ストリームデータの差し替えを行う動作について説明する。
まず、ノンリニア編集装置1は、変更区間探索手段31によって、変更指示内容を含んだ編集データ(第2編集データ)に基づいて、本編ストリームデータにおいて変更の対象となる区間(変更区間)、ならびに、当該区間に対応する元の素材データの区間を探索する(ステップS21;変更区間探索ステップ)。
(Operation of the replacement function)
Next, referring to FIG. 5 (refer to FIG. 3 as appropriate for the configuration), the operation in which the
First, the
そして、ノンリニア編集装置1は、変更区間が存在する場合(ステップS22でYes)、ステップS23以降の差し替え処理を実行する。一方、変更区間が存在しない場合(あるいは、すべての変更が完了した場合;ステップS22でNo)、動作を終了する。
そして、ノンリニア編集装置1は、ステップS22で変更区間が存在すると判断した場合、差し替えデータ生成手段32によって、編集データで指示された変更指示内容に基づいて、当該変更区間にレンダリングが必要であるか否かを判定する(ステップS23)。
Then, when there is a change section (Yes in Step S22), the
If the
ここで、レンダリングが必要な場合(ステップS23でYes)、ノンリニア編集装置1は、区間映像抽出手段32aによって、記憶手段10に記憶されている素材データから、変更区間分の区間映像を抽出し、さらに、区間映像生成手段32bによって、当該区間映像に対して、テキスト合成、フェード、ワイプ、ディゾルブ等のレンダリング処理を行うことで差し替えデータを生成する(ステップS24)。
一方、変更区間にレンダリングが必要でない場合(ステップS23でNo)、ノンリニア編集装置1は、区間映像抽出手段32aによって、記憶手段10に記憶されている素材データから、変更区間分の区間映像を差し替えデータとして抽出する(ステップS25)。
Here, when rendering is necessary (Yes in step S23), the
On the other hand, when rendering is not necessary for the changed section (No in step S23), the
そして、ノンリニア編集装置1は、差し替え手段33によって、ステップS21で探索された本編ストリームデータの変更区間のストリームデータを、ステップS24またはステップS25で生成された差し替えデータに差し替える(ステップS26;差し替えステップ)。
そして、ノンリニア編集装置1は、ステップS1に戻って、変更区間が存在する間、差し替え動作を繰り返す。
以上の動作によって、ノンリニア編集装置1は、本編ストリームデータを素材データに基づいて最初から再生成する必要がなく、部分的な区間映像の差し替えによって、本編ストリームデータを生成することができる。
Then, the
Then, the
With the above operation, the
[ノンリニア編集装置の編集例]
次に、図6を参照(適宜図3参照)して、本発明の実施形態に係るノンリニア編集装置の編集動作を、画面例に対応付けて説明する。図6は、本発明の実施形態に係るノンリニア編集装置の編集動作を説明するための説明図であって、(a)は編集時の画面例、(b)は本編ストリームデータの生成手順、(c)は編集後の画面例である。
[Example of editing with a non-linear editing device]
Next, with reference to FIG. 6 (refer to FIG. 3 as appropriate), the editing operation of the nonlinear editing apparatus according to the embodiment of the present invention will be described in association with a screen example. 6A and 6B are explanatory diagrams for explaining an editing operation of the nonlinear editing apparatus according to the embodiment of the present invention, in which FIG. 6A is a screen example during editing, FIG. 6B is a main stream data generation procedure, c) is an example of a screen after editing.
ノンリニア編集装置1は、編集時に、図6(a)に示すようなGUIを有する編集画面を表示する。
この編集画面には、例えば、映像を再生して表示する映像表示領域M、編集操作を行うための複数の編集ボタンB、タイトル、映像、音声を時間軸に対応付けた編集時間軸表示領域L等が表示される。この図6(a)では、ある時間軸において、映像にタイトル(ここでは、「○○さんの家で××の花が咲きました」)を合成した例を示している。
このような編集段階においては、素材データは、図6(b)の(b−1)に示すように、素材データのカット点Cごとに管理されることになる。
The
The editing screen includes, for example, a video display area M for reproducing and displaying video, a plurality of editing buttons B for performing editing operations, an editing time axis display area L in which titles, video, and audio are associated with the time axis. Etc. are displayed. FIG. 6A shows an example in which a title (here, “XX flowers bloomed at Mr. XX's house”) is synthesized with a video on a certain time axis.
In such an editing stage, the material data is managed for each cut point C of the material data as shown in (b-1) of FIG.
そして、ノンリニア編集装置1は、図6(a)の書き出しボタンBWを押下されることで、図6(b)の(b−2)に示すように、素材データをカット点に基づいて一本化し、すべてのフレームをIフレーム化した本編ストリームデータを生成する。
The
ここで、編集後に編集内容に誤りが発見され、本編ストリームデータの再編集を行う必要が生じたとする。ここでは、一例として、タイトルに誤りがあり、「○○さん」が、実際には「△△さん」であったとする。
この場合、図6(b)の(b−3)に示すように、ノンリニア編集装置1には、変更要求タイトルとして「△△さんの家で〜咲きました」が、編集データとして入力される。
Here, it is assumed that an error is found in the edited content after editing, and it is necessary to re-edit the main stream data. Here, as an example, it is assumed that there is an error in the title, and “Mr. XX” is actually “Mr. △ Δ”.
In this case, as shown in (b-3) of FIG. 6B, the change request title “I bloomed at Mr. Δ △ 's house” is input to the
その後、ノンリニア編集装置1は、図6(a)の差し替えボタンBCを押下されることで、図6(b)の(b−4)に示すように、変更されたタイトルに対応する区間映像のみを差し替えることで本編ストリームデータを再生成する。
これによって、ノンリニア編集装置1は、図6(c)に示すように、タイトルのみを変更した本編ストリームデータを生成する。
Then,
As a result, the
以上、本発明の実施形態に係るノンリニア編集装置の構成および動作の例について説明したが、本発明はこれに限定されるものではない。
例えば、ここでは、ノンリニア編集装置1(図3参照)は、フレームを符号化した後に、ダミーデータを付加することで同一のデータ長のIフレームとして、本編ストリームデータを生成したが、Iフレーム化のみを行いダミーデータを付加しないこととしてもよい。この場合、ノンリニア編集装置1は、ダミーデータ付加手段24を省略して構成する。この場合であっても、ノンリニア編集装置1は、各フレームが独立して符号化されているため、部分的に差し替えを行う場合に、前後のフレームに影響を与えることなく差し替えを行うことができる。ただし、各フレームが同一のデータ長となっていないため、変更区間探索手段31における変更区間の探索に要する時間を短縮するには、Iフレームを同一のデータ長とすることが望ましい。
The configuration and operation example of the nonlinear editing apparatus according to the embodiment of the present invention have been described above, but the present invention is not limited to this.
For example, here, the nonlinear editing apparatus 1 (see FIG. 3) generates the main stream data as an I frame having the same data length by adding dummy data after encoding the frame. Only dummy data may be added and dummy data may not be added. In this case, the
また、ノンリニア編集装置1は、図示を省略したCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えた一般的なコンピュータで構成することができ、コンピュータを前記した各手段として機能させるノンリニア編集プログラムにより動作させることができる。
The
1 ノンリニア編集装置
10 記憶手段
20 ストリームデータ生成手段
21 フレーム画像生成手段(フレーム生成手段)
22 フレーム画像解析手段
23 符号化手段
24 ダミーデータ付加手段
30 ストリーム差し替え手段
31 変更区間探索手段
32 差し替えデータ生成手段
32a 区間映像抽出手段
32b 区間映像生成手段
33 差し替え手段
1
22 Frame image analysis means 23 Encoding means 24 Dummy data addition means 30 Stream replacement means 31 Change section search means 32 Replacement data generation means 32a Section video extraction means 32b Section video generation means 33 Replacement means
Claims (4)
前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化手段と、
この符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加手段と、
このダミーデータ付加手段でダミーデータが付加された符号化フレームで構成されるストリームデータを記憶する記憶手段と、
前記ストリームデータにおける変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記変更区間のフレームの絶対位置を探索する変更区間探索手段と、
この変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替え手段と、
を備えることを特徴とするノンリニア編集装置。 In a non-linear editing device that edits video material data,
Encoding means for generating an encoded frame by performing intra-frame encoding for each frame of the material data;
Dummy data adding means for adding dummy data to the encoded frame so that the data length of the encoded frame generated by the encoding means becomes a predetermined specified data length;
Storage means for storing stream data composed of encoded frames to which dummy data is added by the dummy data adding means;
A change section search means for searching for an absolute position of a frame of the change section based on edit data indicating a relative position of the frame of the change section in the stream data and the specified data length;
Replacement means for replacing stream data between frames corresponding to the change section searched by the change section search means with replacement data for change;
A non-linear editing apparatus comprising:
前記符号化手段の前段に、前記符号化データから、フレーム単位の画像を生成するフレーム生成手段をさらに備えることを特徴とする請求項1に記載のノンリニア編集装置。 The material data is encoded data encoded by a motion predictive encoding method,
The nonlinear editing apparatus according to claim 1, further comprising a frame generation unit that generates an image in a frame unit from the encoded data before the encoding unit.
前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化手段、
この符号化手段で生成された符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加手段、
変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、前記変更区間のフレームの絶対位置を探索する変更区間探索手段、
この変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替え手段、
として機能させることを特徴とするノンリニア編集プログラム。 In a non-linear editing device, a computer is used to edit video material data.
Encoding means for generating an encoded frame by performing intra-frame encoding for each frame of the material data;
Dummy data adding means for adding dummy data to the encoded frame so that the data length of the encoded frame generated by the encoding means is a predetermined specified data length;
Based on the edit data indicating the relative position of the frame in the changed section and the specified data length, the absolute position of the frame in the changed section is searched in the stream data composed of the encoded frame to which the dummy data is added. Change section search means to
Replacement means for replacing stream data between frames corresponding to the changed section searched by the changed section search means with replacement data for change;
Non-linear editing program characterized by functioning as
符号化手段によって、前記素材データの各フレームに対してフレーム内符号化を行うことで、符号化フレームを生成する符号化ステップと、
ダミーデータ付加手段によって、前記符号化フレームのデータ長が、予め定めた規定データ長となるように、前記符号化フレームにダミーデータを付加するダミーデータ付加ステップと、
変更区間探索手段によって、変更区間のフレームの相対位置を示す編集データと、前記規定データ長とに基づいて、前記ダミーデータが付加された符号化フレームで構成されるストリームデータにおいて、前記変更区間のフレームの絶対位置を探索する変更区間探索ステップと、
差し替え手段によって、前記変更区間探索手段で探索された変更区間に対応するフレーム間のストリームデータを、変更用の差し替えデータに差し替える差し替えステップと、
を含むことを特徴とするノンリニア編集装置におけるデータ差し替え方法。 A data replacement method in a nonlinear editing apparatus that performs partial replacement on stream data generated by editing video material data,
An encoding step of generating an encoded frame by performing intra-frame encoding for each frame of the material data by an encoding means;
A dummy data adding step of adding dummy data to the encoded frame so that the data length of the encoded frame becomes a predetermined specified data length by the dummy data adding means;
Based on the edit data indicating the relative position of the frame in the change section and the specified data length by the change section search means, stream data composed of encoded frames to which the dummy data is added, A change section search step for searching for an absolute position of the frame;
A replacement step of replacing stream data between frames corresponding to the changed section searched by the changed section searching means by replacement means with replacement data for change;
A data replacement method in a non-linear editing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006308335A JP2008124932A (en) | 2006-11-14 | 2006-11-14 | Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006308335A JP2008124932A (en) | 2006-11-14 | 2006-11-14 | Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008124932A true JP2008124932A (en) | 2008-05-29 |
Family
ID=39509208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006308335A Pending JP2008124932A (en) | 2006-11-14 | 2006-11-14 | Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008124932A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093450A (en) * | 2007-10-10 | 2009-04-30 | Sony Corp | Reproduction apparatus, reproduction method and program |
JP2011171870A (en) * | 2010-02-17 | 2011-09-01 | Casio Computer Co Ltd | Moving picture imaging apparatus, and program |
JP2011176661A (en) * | 2010-02-25 | 2011-09-08 | Casio Computer Co Ltd | Video imaging device and program |
CN106658053A (en) * | 2016-09-26 | 2017-05-10 | 新奥特(北京)视频技术有限公司 | Nonlinear program editing method and nonlinear program editing device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05227520A (en) * | 1992-02-14 | 1993-09-03 | Hitachi Ltd | Picture compression-encoder |
JPH06133302A (en) * | 1992-10-20 | 1994-05-13 | Mitsubishi Electric Corp | Data compression circuit |
JPH09182017A (en) * | 1995-12-27 | 1997-07-11 | Toshiba Corp | Moving picture editing device |
JPH09238347A (en) * | 1996-02-29 | 1997-09-09 | Sony Corp | Image data processing method and device therefor |
JP2002330293A (en) * | 2001-05-01 | 2002-11-15 | Olympus Optical Co Ltd | Image processor and image processing method |
JP2003078876A (en) * | 2001-08-31 | 2003-03-14 | Sony Corp | Method and apparatus for recording video signal |
JP2004187161A (en) * | 2002-12-05 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Moving video data processing equipment and moving video data processing method |
-
2006
- 2006-11-14 JP JP2006308335A patent/JP2008124932A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05227520A (en) * | 1992-02-14 | 1993-09-03 | Hitachi Ltd | Picture compression-encoder |
JPH06133302A (en) * | 1992-10-20 | 1994-05-13 | Mitsubishi Electric Corp | Data compression circuit |
JPH09182017A (en) * | 1995-12-27 | 1997-07-11 | Toshiba Corp | Moving picture editing device |
JPH09238347A (en) * | 1996-02-29 | 1997-09-09 | Sony Corp | Image data processing method and device therefor |
JP2002330293A (en) * | 2001-05-01 | 2002-11-15 | Olympus Optical Co Ltd | Image processor and image processing method |
JP2003078876A (en) * | 2001-08-31 | 2003-03-14 | Sony Corp | Method and apparatus for recording video signal |
JP2004187161A (en) * | 2002-12-05 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Moving video data processing equipment and moving video data processing method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093450A (en) * | 2007-10-10 | 2009-04-30 | Sony Corp | Reproduction apparatus, reproduction method and program |
JP2011171870A (en) * | 2010-02-17 | 2011-09-01 | Casio Computer Co Ltd | Moving picture imaging apparatus, and program |
JP2011176661A (en) * | 2010-02-25 | 2011-09-08 | Casio Computer Co Ltd | Video imaging device and program |
CN106658053A (en) * | 2016-09-26 | 2017-05-10 | 新奥特(北京)视频技术有限公司 | Nonlinear program editing method and nonlinear program editing device |
CN106658053B (en) * | 2016-09-26 | 2020-04-10 | 新奥特(北京)视频技术有限公司 | Non-linear editing method and device for programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4416796B2 (en) | Image encoding device, image decoding device, image encoding program, and image decoding program | |
TWI477143B (en) | Simultaneous video and sub-frame metadata capture system | |
JP4838253B2 (en) | Image encoding device, image encoding method, image decoding device, image decoding method, and recording method | |
JP2008035280A (en) | Image decoding method, and image display method | |
JP6588801B2 (en) | Image processing apparatus, image processing method, and program | |
JP4362510B2 (en) | Recording / playback editing device | |
JP4284370B2 (en) | Video server and video editing system | |
JP2008167061A (en) | Encoding device and encoding method | |
JP2008124932A (en) | Nonlinear editing device and program thereof, and data replacing method of nonlinear editing device | |
KR20130114476A (en) | Method for managing data | |
JP4797974B2 (en) | Imaging device | |
JP2006217076A (en) | Video recorder | |
JP2008035281A (en) | Image coding method | |
JP2008028793A (en) | Stream edit method and stream editor | |
KR20020069724A (en) | Management method for video data of digital video recording and reproducting apparatus | |
JP2007142809A (en) | Video recording apparatus | |
JP4154799B2 (en) | Compressed video editing apparatus and storage medium | |
JP2010050616A (en) | Recording device and recording method, reproduction device and reproduction method, program, and recording/reproducing device | |
JP2011146847A (en) | Image reproduction controller, image reproduction control method, and imaging device | |
JP2006270405A (en) | Device and method for processing video and computer program | |
JP4487196B2 (en) | Recording apparatus and control method thereof | |
JP2005295426A (en) | Video information recording system, and its method, video information reproduction device and its method | |
JP3897783B2 (en) | Image processing apparatus, control method therefor, computer program, and computer-readable storage medium | |
JP4434894B2 (en) | Video dubbing device | |
JP2008124931A (en) | Data converting device, data converting program and data converting method, and data decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120207 |