JP2011108317A - Nonlinear editing device - Google Patents

Nonlinear editing device Download PDF

Info

Publication number
JP2011108317A
JP2011108317A JP2009261513A JP2009261513A JP2011108317A JP 2011108317 A JP2011108317 A JP 2011108317A JP 2009261513 A JP2009261513 A JP 2009261513A JP 2009261513 A JP2009261513 A JP 2009261513A JP 2011108317 A JP2011108317 A JP 2011108317A
Authority
JP
Japan
Prior art keywords
video
editing
playback
time information
nonlinear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009261513A
Other languages
Japanese (ja)
Other versions
JP5517194B2 (en
Inventor
Chiko Yoshida
智晃 吉田
Hideaki Tabuchi
英明 田淵
Atsushi Narimi
淳 成見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAKURA EIKI KK
Japan Broadcasting Corp
Original Assignee
SAKURA EIKI KK
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAKURA EIKI KK, Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical SAKURA EIKI KK
Priority to JP2009261513A priority Critical patent/JP5517194B2/en
Publication of JP2011108317A publication Critical patent/JP2011108317A/en
Application granted granted Critical
Publication of JP5517194B2 publication Critical patent/JP5517194B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a nonlinear editing device that does not cause increase of processing load nor require time for running control, even if applied to an existing video processing device and an existing editing controller. <P>SOLUTION: The nonlinear editing device 1 includes: an edit mode determinator 42 wherein a control command is input from the editing controller 3, and the edit mode is determined when the input control command is the preset command indicating start of the edit mode; a time information calculator 41 which calculates, when a mode is determined as the edit mode, time information indicating a reproduction position of the video based on reproduction speed and elapsed time from a reproduction start point predetermined by the control command; and a communicator 20 which transmits the time information to the edit controller 3. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ビデオテープを介さずに、映像の制作や編集を行うノンリニア編集装置に関する。   The present invention relates to a nonlinear editing apparatus that produces and edits video without using a video tape.

近年、映像制作の現場では、ビデオテープを介さずに、映像の制作や編集を行うテープレス化の流れが進んでいる。このテープレス化を実現すべく、従来からノンリニア編集装置が幾つか提案されている。例えば、非特許文献1には、効率的なワークフローを実現し、ネットワーク環境での映像の制作や編集を可能とするノンリニア制作システムが記載されている。   In recent years, in the field of video production, there has been a trend toward tape-less video production and editing without using video tape. In order to realize this tapeless, several nonlinear editing apparatuses have been proposed. For example, Non-Patent Document 1 describes a nonlinear production system that realizes an efficient workflow and enables production and editing of video in a network environment.

ソニー株式会社製マルチプラットフォームノンリニア制作システム「XPRI NSシリーズ」、URL「http://www.sony.jp/products/Professional/c_c/xpri/」Multi-platform non-linear production system “XPRI NS series” manufactured by Sony Corporation, URL “http://www.sony.jp/products/Professional/c_c/xpri/”

従来の映像編集システムでは、ビデオテープ(VTR)を用いたリニア編集装置と共に、映像加工装置や編集コントローラが用いられている。ここで、映像加工装置および編集コントローラが高価であることから、ノンリニア編集装置の導入にあわせて、新たに映像加工装置および編集コントローラを導入することが困難である。このため、従来の映像編集システムでは、既存の映像加工装置および編集コントローラを継続して使用しつつノンリニア編集装置を新たに導入したいという、ユーザから強い要望がされている。しかし、従来の映像編集システムでは、以下で述べる理由により、ユーザの要望を満たすことができない。   In a conventional video editing system, a video editing device and an editing controller are used together with a linear editing device using a video tape (VTR). Here, since the video processing device and the editing controller are expensive, it is difficult to introduce a new video processing device and editing controller in accordance with the introduction of the nonlinear editing device. For this reason, in the conventional video editing system, there is a strong demand from users to continuously introduce the non-linear editing device while continuously using the existing video processing device and editing controller. However, the conventional video editing system cannot satisfy the user's demand for the reasons described below.

従来のリニア編集装置は、ビデオテープの再生速度をアナログ的(小数点単位)に制御可能である。   A conventional linear editing apparatus can control the playback speed of a video tape in an analog manner (in decimal units).

一方、従来のノンリニア編集装置は、通常、フレーム単位でしか再生速度を制御しない。そして、従来のノンリニア編集装置は、編集コントローラから、1フレーム時間毎に再生位置(時間情報)の問い合わせが行われる。この問い合わせに対して、従来のノンリニア編集装置は、出力を行っている映像に一致する時間情報を、映像と共に編集コントローラに返している。このため、従来のノンリニア編集装置は、リニア編集装置のようにアナログ的な再生速度の制御を行おうとすると、処理の負荷が重くなる。   On the other hand, the conventional nonlinear editing apparatus normally controls the playback speed only in units of frames. In the conventional nonlinear editing apparatus, an inquiry about the reproduction position (time information) is made every frame time from the editing controller. In response to this inquiry, the conventional nonlinear editing apparatus returns time information that matches the video being output to the editing controller together with the video. For this reason, the conventional non-linear editing apparatus is subject to a heavy processing load when it is desired to control the analog reproduction speed like the linear editing apparatus.

このとき、従来のノンリニア編集装置は、編集モードのときに問い合わせが行われたか、または、編集モード以外のときに問い合わせが行われたかを区別していない。そして、従来のノンリニア編集装置は、編集モードであるか否かに関わらず、1フレーム時間毎に問い合わせに対応するので、処理の負荷がさらに重くなる。   At this time, the conventional nonlinear editing apparatus does not distinguish whether the inquiry is made in the editing mode or whether the inquiry is made in a mode other than the editing mode. And since the conventional nonlinear editing apparatus respond | corresponds to an inquiry for every frame time irrespective of whether it is an edit mode, the processing load becomes still heavier.

このように処理の負荷が重いので、従来のノンリニア編集装置は、処理遅延が蓄積し、調走に時間がかかってしまう。例えば、従来のリニア編集装置では調走が約5秒で終了するのに対し、従来のノンリニア編集装置は、調走に約30秒かかるため、既存の映像加工装置および編集コントローラに適用しても、実用に耐えらない。   Since the processing load is heavy in this way, the conventional nonlinear editing apparatus accumulates processing delays and takes time for running. For example, in the conventional linear editing device, the running is completed in about 5 seconds, whereas in the conventional nonlinear editing device, the running takes about 30 seconds. Therefore, even if it is applied to an existing video processing device and an editing controller. , Not practical.

そこで、本発明は、既存の映像加工装置および編集コントローラに適用しても処理負荷が増大せず、調走に時間がかからないノンリニア編集装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a non-linear editing apparatus that does not increase the processing load even when applied to an existing video processing apparatus and editing controller, and does not take time for running.

前記した課題を解決するため、本願第1発明に係るノンリニア編集装置は、再生映像を出力する1台以上のノンリニア編集装置と、前記再生映像を含む複数の映像から1の収録映像を生成する映像加工装置と、少なくとも前記ノンリニア編集装置と前記映像加工装置との同期をとる編集コントローラとを備える映像編集システムに用いられる前記ノンリニア編集装置であって、編集モード判定手段と、時間情報算出手段と、通信手段とを備えることを特徴とする。   In order to solve the above-described problem, a nonlinear editing apparatus according to the first aspect of the present invention includes one or more nonlinear editing apparatuses that output reproduced video, and a video that generates one recorded video from a plurality of videos including the reproduced video. A non-linear editing device used in a video editing system comprising a processing device and an editing controller that synchronizes at least the non-linear editing device and the video processing device, wherein the editing mode determination means, time information calculation means, And a communication means.

かかる構成によれば、ノンリニア編集装置は、編集モード判定手段によって、前記編集コントローラから制御コマンドが入力され、入力された当該制御コマンドが予め設定された編集モードの開始を示すコマンドのときに前記編集モードであると判定する。また、ノンリニア編集装置は、時間情報算出手段によって、前記編集モードのときに、前記制御コマンドで指定された再生速度と算出した再生開始点からの経過時間とに基づいて、映像の再生位置を示す時間情報を、前記再生速度が等倍再生を示すときは前記経過時間の値で、前記再生速度が前記等倍再生より遅くなるほど前記経過時間を遅延させた値で、および、前記再生速度が前記等倍再生より速いほど前記経過時間を先に進めた値で算出する。そして、ノンリニア編集装置は、通信手段によって、前記時間情報算出手段が算出した時間情報を、前記編集コントローラに送信する。   According to such a configuration, the nonlinear editing device receives the control command from the editing controller by the editing mode determination unit, and the editing command is input when the input control command is a command indicating the start of a preset editing mode. It is determined that the mode. The non-linear editing device indicates the video playback position by the time information calculation means based on the playback speed specified by the control command and the calculated elapsed time from the playback start point in the editing mode. The time information is a value of the elapsed time when the playback speed indicates a normal playback, a value obtained by delaying the elapsed time as the playback speed is slower than the normal playback, and the playback speed is the It is calculated by a value obtained by advancing the elapsed time as it is faster than the 1 × reproduction. Then, the non-linear editing apparatus transmits the time information calculated by the time information calculating means to the editing controller by communication means.

つまり、ノンリニア編集装置は、映像に付加された時間情報を参照せずに、編集モードのときだけ時間情報を算出する。このように、ノンリニア編集装置は、編集モードのときだけ時間情報を算出することから、編集コントローラにより再生速度の変更が行われた際の時間情報を算出する処理が迅速になる。従って、ノンリニア編集装置は、可変速再生のための映像生成およびバッファ制御処理に伴う演算負荷を低減できる。   That is, the non-linear editing apparatus calculates time information only in the editing mode without referring to the time information added to the video. As described above, since the nonlinear editing apparatus calculates time information only in the editing mode, the process of calculating time information when the reproduction speed is changed by the editing controller is quickened. Therefore, the non-linear editing apparatus can reduce the calculation load associated with video generation and buffer control processing for variable speed playback.

また、本願第2発明に係るノンリニア編集装置は、全ての前記再生映像毎に独立して設けられ、かつ、当該再生映像をそれぞれ前記映像加工装置に出力する複数の映像出力手段と、前記収録映像が前記映像加工装置から入力される映像入力手段と、をさらに備えることを特徴とする。   The nonlinear editing device according to the second invention of the present application is provided independently for each of the reproduced videos, and a plurality of video output means for outputting the reproduced videos to the video processing device, and the recorded video Is further provided with video input means for inputting from the video processing device.

ここで、従来のノンリニア編集装置は、高度なエフェクトをソフトウェアで行った場合、その計算処理に長い時間が必要になる。また、従来のリニア編集装置で使用されていた特殊効果機器は、実時間でエフェクトを行うことができる。しかし、従来のノンリニア編集装置は、これら特殊効果機器を使用するため、一旦、映像をビデオテープに出力する必要がある。さらに、この場合、従来のノンリニア編集装置は、編集ソフトウェアにおける任意のトラックのみを編集すると、その手順がさらに煩雑になる。   Here, the conventional nonlinear editing apparatus requires a long time for the calculation process when advanced effects are performed by software. Also, special effect devices used in conventional linear editing devices can perform effects in real time. However, since the conventional non-linear editing apparatus uses these special effect devices, it is necessary to output the video to a video tape once. Further, in this case, when a conventional nonlinear editing apparatus edits only an arbitrary track in the editing software, the procedure becomes more complicated.

また、従来のノンリニア編集装置において、ビデオテープを介さずに、編集した映像を直接出力することも考えられるが、映像をそれぞれ独立して出力する機能がない。このため、従来の映像編集システムでは、ノンリニア編集装置とリニア編集装置とを複数台用いる必要がある。   In addition, in a conventional non-linear editing apparatus, it may be possible to directly output an edited video without using a video tape, but there is no function for independently outputting the video. For this reason, in the conventional video editing system, it is necessary to use a plurality of nonlinear editing devices and linear editing devices.

かかる構成によれば、ノンリニア編集装置は、映像毎に映像出力手段および映像入力手段を備えるため、全ての再生映像および収録映像をこれ1台で扱うことができる。これによって、ノンリニア編集装置は、従来の映像編集システムにおいて、複数台必要とされていたリニア編集装置の全てを、これ1台で置き換えることが可能となる。   According to such a configuration, since the nonlinear editing apparatus includes the video output unit and the video input unit for each video, all the playback video and the recorded video can be handled by one unit. As a result, the nonlinear editing apparatus can replace all of the linear editing apparatuses that are required in the conventional video editing system with this one.

また、本願第3発明に係るノンリニア編集装置は、前記映像加工装置から入力された収録映像を記憶する入力バッファと、前記再生映像と同じ映像を編集する映像編集手段によって編集された編集映像又は前記収録映像の何れか一方を記憶する出力バッファと、前記経過時間が前記再生開始点から算出した収録開始点までの間のときに第1区間と判定し、前記経過時間が前記収録開始点から算出した収録終了点までの間のときに第2区間と判定し、前記経過時間が前記収録終了点から所定の停止点までの間のときに第3区間と判定する区間判定手段と、前記第1区間または前記第3区間では前記編集映像を前記出力バッファに書き込み、前記第2区間では前記入力バッファの収録映像を読み出して前記出力バッファに書き込むバッファ制御手段と、前記出力バッファに書き込まれた前記編集映像又は前記収録映像を映像表示手段に出力するバッファ出力手段と、をさらに備えることを特徴とする。   Further, the nonlinear editing apparatus according to the third invention of the present application is an input buffer for storing a recorded video input from the video processing device and an edited video edited by a video editing means for editing the same video as the reproduced video, When the output buffer stores any one of the recorded videos and the elapsed time is between the playback start point and the recording start point calculated as the first section, the elapsed time is calculated from the recording start point. Section determining means for determining the second section when the recording end point is reached and determining the third section when the elapsed time is between the recording end point and a predetermined stop point; In the section or the third section, the edited video is written to the output buffer, and in the second section, the recorded video in the input buffer is read and written to the output buffer. When, characterized by further comprising a buffer output means for outputting said edited video or image means the recording image is written to the output buffer.

かかる構成によれば、ノンリニア編集装置は、映像の収録を行う際、最終的な編集結果となる映像をモニターに出力することができる。このため、映像の製作者は、その映像が、意図した編集結果になっているかどうかを即時に確認することができる。   According to such a configuration, the non-linear editing apparatus can output a video as a final editing result to the monitor when recording the video. Therefore, the video producer can immediately confirm whether the video has the intended editing result.

本発明は、以下のような優れた効果を奏する。
本願第1発明は、映像に付加された時間情報を参照せずに、編集モードのときだけ時間情報を算出するので、既存の映像加工装置および編集コントローラに適用しても処理負荷が増大せず、調走に時間がかからない。これによって、本願第1発明は、既存の映像編集システムを活用しつつ、低コストでテープレス化を実現できる。
本願第2発明は、従来のリニア編集装置の全てを1台のノンリニア編集装置で置き換えられるので、テープレス化をより低コストで実現できる。
本願第3発明は、映像の収録を行う時点で編集結果のプレビューを行うことができるので、制作者が映像制作をより効率的に行うことができる。
The present invention has the following excellent effects.
Since the first invention of the present application calculates time information only in the edit mode without referring to the time information added to the video, the processing load does not increase even when applied to an existing video processing apparatus and edit controller. , Running does not take time. As a result, the first invention of the present application can realize tapeless operation at low cost while utilizing the existing video editing system.
In the second invention of the present application, since all of the conventional linear editing devices can be replaced with one non-linear editing device, the tapeless operation can be realized at a lower cost.
According to the third invention of the present application, since the preview of the editing result can be performed at the time of recording the video, the producer can more efficiently perform the video production.

本発明の第1実施形態に係るノンリニア編集装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a nonlinear editing device according to a first embodiment of the present invention. 図1の映像編集システムで用いられるコマンドの具体例を説明する図である。It is a figure explaining the specific example of the command used with the video editing system of FIG. 図2の制御コマンドの具体例を説明する図である。It is a figure explaining the specific example of the control command of FIG. 制御コマンドの送受信がない場合における、図1のノンリニア編集装置と編集コントローラとの動作を示すシーケンス図である。FIG. 3 is a sequence diagram showing operations of the nonlinear editing device and the editing controller of FIG. 1 when there is no transmission / reception of a control command. 制御コマンドの送受信がある場合における、図1のノンリニア編集装置と編集コントローラとの動作を示すシーケンス図である。FIG. 2 is a sequence diagram showing operations of the nonlinear editing device and the editing controller of FIG. 1 when there is a control command transmission / reception. 図1のノンリニア編集装置による時間情報の算出を説明する図である。It is a figure explaining calculation of the time information by the nonlinear editing apparatus of FIG. 図1のノンリニア編集装置が算出した時間情報を示す表であり、(b)は(a)の続きである。It is a table | surface which shows the time information which the nonlinear editing apparatus of FIG. 1 calculated, (b) is a continuation of (a). 図1のノンリニア編集装置の変形例を説明する図である。It is a figure explaining the modification of the nonlinear editing apparatus of FIG. 図8の一本化と試写との並列処理による作業時間を説明する図である。It is a figure explaining the work time by the parallel processing of unification of FIG. 8 and preview. 図8一本化と試写との並列処理を示すフローチャートである。8 is a flowchart showing the parallel processing of unification and preview. 本発明の第2実施形態に係るノンリニア編集装置の構成を示すブロック図である。It is a block diagram which shows the structure of the nonlinear editing apparatus which concerns on 2nd Embodiment of this invention. 図11の差替手段による差替処理を説明する図であり、(a)は差替データと一本化素材との位置関係を示す図であり、(b)は差し替え後の一本化素材を示す図である。It is a figure explaining the replacement process by the replacement means of FIG. 11, (a) is a figure which shows the positional relationship of replacement data and a unification material, (b) is the unification material after replacement. FIG. 図11の映像編集手段による、再生映像1,2に対するトラックの割り当てを説明する図である。It is a figure explaining the allocation of the track | truck with respect to the reproduced videos 1 and 2 by the video editing means of FIG. 図11の映像編集手段による、収録映像に対するトラックの割り当てを説明する図である。It is a figure explaining the allocation of the track | truck with respect to a recorded image by the video editing means of FIG. 本発明の第3実施形態に係るノンリニア編集装置の構成を示すブロック図である。It is a block diagram which shows the structure of the nonlinear editing apparatus which concerns on 3rd Embodiment of this invention. 図15のノンリニア編集装置において、各区間と出力する映像との関係を示す図である。FIG. 16 is a diagram illustrating a relationship between each section and an output video in the nonlinear editing apparatus in FIG. 15.

以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[映像編集システムの概略]
図1を参照して、映像編集システム100の概略について説明する。図1に示すように、映像編集システム100は、映像の編集を行うものであり、ノンリニア編集装置1と、映像加工装置2と、編集コントローラ3と、VTR再生装置4と、VTR収録装置5とを備える。ここで、映像編集システム100は、再生映像1,2および収録映像を、HD−SDI(High Definition Serial Digital Interface)信号として入出力するが、これに限定されない。
(First embodiment)
[Outline of video editing system]
The outline of the video editing system 100 will be described with reference to FIG. As shown in FIG. 1, the video editing system 100 performs video editing, and includes a non-linear editing device 1, a video processing device 2, an editing controller 3, a VTR playback device 4, and a VTR recording device 5. Is provided. Here, the video editing system 100 inputs / outputs the playback videos 1 and 2 and the recorded video as HD-SDI (High Definition Serial Digital Interface) signals, but is not limited thereto.

ノンリニア編集装置1は、入力された再生映像1を後記する記憶手段30にデジタルデータとして書き込む。そして、ノンリニア編集装置1は、このデジタルデータを編集して映像加工装置2に出力する。ここで、ノンリニア編集装置1は、例えば、再生映像1をMPEG2(Moving Picture Experts Group)形式で扱う。なお、ノンリニア編集装置1の詳細は、後記する。   The non-linear editing device 1 writes the input reproduced video 1 as digital data in the storage means 30 described later. Then, the nonlinear editing device 1 edits the digital data and outputs it to the video processing device 2. Here, the nonlinear editing apparatus 1 handles, for example, the reproduced video 1 in the MPEG2 (Moving Picture Experts Group) format. Details of the nonlinear editing device 1 will be described later.

映像加工装置2は、ノンリニア編集装置1から再生映像1が入力されると共に、VTR再生装置4から再生映像2が入力される。そして、映像加工装置2は、これら2本の再生映像1,2を1本の収録映像に加工してVTR収録装置5に出力する。なお、映像加工装置2は、従来のものと同様であるため、詳細な説明を省略する。   The video processing device 2 receives the playback video 1 from the nonlinear editing device 1 and the playback video 2 from the VTR playback device 4. Then, the video processing device 2 processes the two reproduced videos 1 and 2 into one recorded video and outputs it to the VTR recording device 5. Since the video processing device 2 is the same as the conventional one, detailed description thereof is omitted.

再生映像とは、映像加工装置2に入力される映像であって、映像加工装置2の処理対象となる映像である。ここでは、再生映像の後に連番を付加し、再生映像を区別することとした。
収録映像とは、映像加工装置2が出力する映像であって、複数の再生映像1,2から加工された1本の映像である。
The playback video is a video input to the video processing device 2 and is a video to be processed by the video processing device 2. Here, a serial number is added after the reproduced video to distinguish the reproduced video.
The recorded video is a video output from the video processing device 2 and is a single video processed from a plurality of playback videos 1 and 2.

編集コントローラ3は、ノンリニア編集装置1と、映像加工装置2と、VTR再生装置4と,VTR収録装置5との間で同期をとる。具体的には、編集コントローラ3は、収録映像を基準として、再生映像1,2および収録映像の時間が一致するように、後記するコマンドを用いて同期をとる(調走)。   The editing controller 3 synchronizes among the nonlinear editing device 1, the video processing device 2, the VTR playback device 4, and the VTR recording device 5. Specifically, the editing controller 3 synchronizes using the commands described later so that the times of the reproduced videos 1 and 2 and the recorded video coincide with each other on the basis of the recorded video (running).

また、編集コントローラ3は、前記した調走の他、映像加工装置2に対して加工のタイミングを指示する。さらに、編集コントローラ3は、ノンリニア編集装置1と、VTR再生装置4と、VTR収録装置5とに対して、再生、収録等を指示する。なお、編集コントローラ3は、従来のものと同様であるため、詳細な説明を省略する。   In addition to the above-described running, the editing controller 3 instructs the video processing device 2 to process timing. Further, the editing controller 3 instructs the non-linear editing device 1, the VTR playback device 4, and the VTR recording device 5 to play back, record, and the like. Note that the edit controller 3 is the same as the conventional one, and a detailed description thereof will be omitted.

VTR再生装置(リニア編集装置)4は、装填されたビデオテープに記録された映像を読み出し、これを再生映像2として映像加工装置2に出力する。なお、VTR再生装置4は、従来のものと同様であるため、詳細な説明を省略する。   The VTR playback device (linear editing device) 4 reads the video recorded on the loaded video tape, and outputs it as the playback video 2 to the video processing device 2. The VTR playback device 4 is the same as the conventional one, and detailed description thereof is omitted.

VTR収録装置(リニア編集装置)5は、映像加工装置2から収録映像が入力される。そして、VTR収録装置5は、この収録映像を、装填されたビデオテープに記録する。なお、VTR収録装置5は、従来のものと同様であるため、詳細な説明を省略する。
以下の説明において、VTR再生装置4やVTR収録装置5を、リニア編集装置と呼ぶことがある。
The VTR recording device (linear editing device) 5 receives the recorded video from the video processing device 2. The VTR recording device 5 records the recorded video on the loaded video tape. Since the VTR recording device 5 is the same as the conventional one, detailed description is omitted.
In the following description, the VTR playback device 4 and the VTR recording device 5 may be referred to as a linear editing device.

<コマンドの具体例>
以下、図2を参照し、映像編集システム100で用いられるコマンドの具体例を説明する(適宜図1参照)。
<Specific examples of commands>
Hereinafter, specific examples of commands used in the video editing system 100 will be described with reference to FIG. 2 (see FIG. 1 as appropriate).

「STATUS SENSE」は、編集コントローラ3からノンリニア編集装置1およびリニア編集装置の状態を問い合わせるコマンドである。   “STATUS SENSE” is a command for inquiring the state of the nonlinear editing device 1 and the linear editing device from the editing controller 3.

「STATUS SENSE DATA」は、ノンリニア編集装置1およびリニア編集装置の状態を編集コントローラ3に通知する。   “STATUS SENSE DATA” notifies the editing controller 3 of the state of the nonlinear editing device 1 and the linear editing device.

「CURRENT TIME SENSE(TC)」は、絶対時間により、ノンリニア編集装置1およびリニア編集装置の再生位置(時間情報)を問い合わせるコマンドである。   “CURRENT TIME SENSE (TC)” is a command for inquiring the reproduction position (time information) of the non-linear editing device 1 and the linear editing device based on the absolute time.

「CURRENT TIME DATA(TC)」は、絶対時間により、ノンリニア編集装置1およびリニア編集装置の再生位置(時間情報)を編集コントローラ3に通知する。   “CURRENT TIME DATA (TC)” notifies the editing controller 3 of the reproduction position (time information) of the non-linear editing device 1 and the linear editing device by absolute time.

「CURRENT TIME SENSE(CTL)」は、相対時間により、ノンリニア編集装置1およびリニア編集装置の再生位置(時間情報)を問い合わせるコマンドである。   “CURRENT TIME SENSE (CTL)” is a command for inquiring the reproduction position (time information) of the non-linear editing device 1 and the linear editing device based on relative time.

「CURRENT TIME DATA(CTL)」は、相対時間により、ノンリニア編集装置1およびリニア編集装置の再生位置(時間情報)を編集コントローラ3に通知する。   “CURRENT TIME DATA (CTL)” notifies the editing controller 3 of the reproduction position (time information) of the non-linear editing device 1 and the linear editing device by relative time.

制御コマンドは、編集コントローラ3がノンリニア編集装置1およびリニア編集装置に対して、映像の再生または停止等を指令するコマンドである。なお、制御コマンドの詳細は、後記する。   The control command is a command for the editing controller 3 to instruct the nonlinear editing device 1 and the linear editing device to play or stop the video. Details of the control command will be described later.

コマンド応答は、ノンリニア編集装置1およびリニア編集装置が制御コマンドを受信した結果を編集コントローラ3に通知する。具体的には、コマンド応答として、制御コマンドを受け付けた場合は「ACK」を通知し、制御コマンドを受け付けできない場合には「NAK」を通知する。   The command response notifies the editing controller 3 of the result of receiving the control command by the nonlinear editing device 1 and the linear editing device. Specifically, as a command response, “ACK” is notified when a control command is received, and “NAK” is notified when a control command cannot be received.

ここで、本来、「CURRENT TIME DATA(TC)」には再生位置(時間情報)が絶対時間で格納され、「CURRENT TIME DATA(CTL)」には再生位置(時間情報)が相対時間で格納される。このとき、編集コントローラ3は、「CURRENT TIME DATA(TC)」の値が不正な場合、どれだけ時間が経過したかを確認するために「CURRENT TIME DATA(CTL)」を参照する。しかし、ノンリニア編集装置1では、この絶対時間が不正な値になることがなく、かつ、編集コントローラ3での時間経過の確認にも問題がないため、これら2個のコマンドに同じ値の時間情報を格納する。   Here, the playback position (time information) is originally stored in “CURRENT TIME DATA (TC)” in absolute time, and the playback position (time information) is stored in “CURRENT TIME DATA (CTL)” in relative time. The At this time, if the value of “CURRENT TIME DATA (TC)” is invalid, the editing controller 3 refers to “CURRENT TIME DATA (CTL)” in order to confirm how much time has passed. However, in the non-linear editing apparatus 1, since this absolute time does not become an incorrect value and there is no problem in confirming the passage of time in the editing controller 3, time information of the same value is included in these two commands. Is stored.

<制御コマンドの具体例>
以下、図3を参照し、制御コマンドの具体例について説明する。
「DEVICE TYPE REQUEST」は、機器の種類を問い合わせる制御コマンドである。
<Specific examples of control commands>
A specific example of the control command will be described below with reference to FIG.
“DEVICE TYPE REQUEST” is a control command for inquiring the type of device.

「COLOR FRAME SELECT」は、カラーフレームを設定する制御コマンドである。   “COLOR FRAME SELECT” is a control command for setting a color frame.

「SERVO REFERRENCE SELECT」は、サーボ基準を設定する制御コマンドである。
「HEAD SELECT」は、ヘッドを選択する制御コマンドである。
“SERVO REFERENCE SELECT” is a control command for setting a servo reference.
“HEAD SELECT” is a control command for selecting a head.

「CUE UP WITH DATA」は、映像の指定位置にジャンプ(頭だし)する制御コマンドである。
「PLAY」は、映像を再生する制御コマンドである。
「VAR FWD」は、調走のために、速度を指定する制御コマンドである。
“CUE UP WITH DATA” is a control command for jumping to the specified position of the video.
“PLAY” is a control command for reproducing video.
“VAR FWD” is a control command for designating a speed for running.

「EDIT ON」は、収録を開始する制御コマンドである。
「EDIT OFF」は、収録を停止する制御コマンドである。
「STOP」は、映像の再生を停止する制御コマンドである。
「ANTI−CLOG TIMER ENABEL」は、ヘッド保護用のタイマーを有効にする制御コマンドである。
“EDIT ON” is a control command for starting recording.
“EDIT OFF” is a control command for stopping recording.
“STOP” is a control command for stopping video reproduction.
“ANTI-CLOG TIMER ENABLE” is a control command that enables a head protection timer.

なお、編集コントローラ3は、ノンリニア編集装置1およびリニア編集装置を区別することなく制御コマンドを送信する。従って、ノンリニア編集装置1は、ビデオテープ(VTR)で固有の制御コマンド(例えば、「HEAD SELECT」等)を受信しても、必ずしも動作を行うとは限らない。   The editing controller 3 transmits a control command without distinguishing between the nonlinear editing device 1 and the linear editing device. Therefore, even if the nonlinear editing apparatus 1 receives a unique control command (for example, “HEAD SELECT” or the like) on the video tape (VTR), it does not always perform the operation.

[ノンリニア編集装置の構成]
図1に戻り、ノンリニア編集装置1の構成について説明する。図1に示すように、ノンリニア編集装置1は、出力手段10と、通信手段20と、記憶手段30と、演算手段40とを備える。
[Configuration of nonlinear editing device]
Returning to FIG. 1, the configuration of the nonlinear editing apparatus 1 will be described. As shown in FIG. 1, the nonlinear editing apparatus 1 includes an output unit 10, a communication unit 20, a storage unit 30, and a calculation unit 40.

出力手段10は、映像加工装置2に再生映像1を出力するインタフェースである。
通信手段20は、編集コントローラ3との間で、コマンドを送受信するインタフェースである。また、通信手段20は、時間情報算出手段41が算出した時間情報を編集コントローラ3に送信する。
The output means 10 is an interface for outputting the reproduced video 1 to the video processing device 2.
The communication unit 20 is an interface that transmits and receives commands to and from the editing controller 3. In addition, the communication unit 20 transmits the time information calculated by the time information calculation unit 41 to the editing controller 3.

記憶手段30は、再生映像1を記憶するハードディスクまたはメモリデバイスである。また、記憶手段30は、後記するプリロール時間、再生/収録開始時間、編集遅延時間等のパラメータを記憶してもよい(不図示)。なお、これらパラメータは、手動で設定される。   The storage means 30 is a hard disk or a memory device that stores the reproduced video 1. The storage unit 30 may store parameters such as a pre-roll time, a playback / recording start time, and an edit delay time (not shown) which will be described later. These parameters are set manually.

図1に示すように、演算手段40は、時間情報算出手段41と、編集モード判定手段42と、映像再生制御手段43と、映像編集手段44とを備える。   As shown in FIG. 1, the calculation unit 40 includes a time information calculation unit 41, an edit mode determination unit 42, a video reproduction control unit 43, and a video editing unit 44.

時間情報算出手段41は、後記する編集モード判定手段42から編集モードであるか否かを示す判定結果が入力される。そして、時間情報算出手段41は、この判定結果が編集モードであることを示す場合、制御コマンドで指定された再生速度と経過時間とに基づいて、時間情報を算出する。具体的には、時間情報算出手段41は、再生速度が等倍再生を示すときは経過時間の値で時間情報を算出する。また、時間情報算出手段41は、再生速度が等倍再生より遅くなるほど経過時間を遅延させた値で時間情報を算出する。そして、時間情報算出手段41は、再生速度が等倍再生より速いほど経過時間を先に進めた値で時間情報を算出する。   The time information calculation unit 41 receives a determination result indicating whether or not the editing mode is selected from the editing mode determination unit 42 described later. Then, when the determination result indicates that the editing mode is set, the time information calculation unit 41 calculates time information based on the reproduction speed and the elapsed time specified by the control command. Specifically, the time information calculation means 41 calculates time information with the value of the elapsed time when the reproduction speed indicates equal magnification reproduction. Further, the time information calculation unit 41 calculates time information with a value obtained by delaying the elapsed time as the reproduction speed becomes slower than the normal reproduction. Then, the time information calculation unit 41 calculates the time information with a value obtained by advancing the elapsed time as the reproduction speed is faster than the normal reproduction.

また、時間情報算出手段41は、算出した時間情報を、図3の「CURRENT TIME DATA(TC)」および「CURRENT TIME DATA(CTL)」に格納し、通信手段20を介して編集コントローラ3に送信する。なお、時間情報の算出の具体例は、後記する。   Further, the time information calculation means 41 stores the calculated time information in “CURRENT TIME DATA (TC)” and “CURRENT TIME DATA (CTL)” of FIG. 3 and transmits them to the editing controller 3 via the communication means 20. To do. A specific example of calculating time information will be described later.

なお、編集モードでない場合、時間情報算出手段41は、従来のノンリニア編集装置と同様に映像に付加された時間情報を参照して、これを編集コントローラ3に送信してもよい。   When not in the edit mode, the time information calculation means 41 may refer to the time information added to the video as in the conventional nonlinear editing device and transmit it to the edit controller 3.

編集モード判定手段42は、通信手段20を介して、編集コントローラ3から制御コマンドを受信する。そして、編集モード判定手段42は、制御コマンドとして、図3の「SERVO REFERRENCE SELECT」を受信した場合、編集モードであると判定し、その判定結果を時間情報算出手段41および映像編集手段44に出力する。   The edit mode determination unit 42 receives a control command from the edit controller 3 via the communication unit 20. Then, the edit mode determination means 42 determines that the edit mode is selected when “SERVO REFERENCE SELECT” in FIG. 3 is received as a control command, and outputs the determination result to the time information calculation means 41 and the video editing means 44. To do.

また、編集モード判定手段42は、編集モードと判定した後、制御コマンドとして、図3の「STOP」を受信した場合、編集モードの終了と判定する。そして、編集モード判定手段42は、編集モードでないことを示す判定結果を時間情報算出手段41および映像編集手段44に出力する。   The edit mode determination means 42 determines that the edit mode is ended when it receives “STOP” in FIG. 3 as a control command after determining the edit mode. Then, the editing mode determination unit 42 outputs a determination result indicating that the editing mode is not set to the time information calculation unit 41 and the video editing unit 44.

映像再生制御手段43は、通信手段20を介して、編集コントローラ3から制御コマンドを受信する。そして、映像再生制御手段43は、この制御コマンドに基づいて、各種制御(映像の再生・停止・指定時間へジャンプ)を行う。例えば、映像再生制御手段43は、「PLAY」を受信した場合、等倍再生を行う。また、例えば、映像再生制御手段43は、「VAR FWD」を受信した場合、この制御コマンドで指定された速度に応じて、低速再生又は高速再生を行う。さらに、映像再生制御手段43は、編集コントローラ3からコマンドに対して、図2の「STATUS SENSE DATA」等のコマンドを返送する。   The video reproduction control unit 43 receives a control command from the editing controller 3 via the communication unit 20. The video playback control means 43 performs various controls (video playback / stop / jump to a designated time) based on the control command. For example, when the “PLAY” is received, the video playback control means 43 performs the same size playback. Further, for example, when receiving “VAR FWD”, the video reproduction control means 43 performs low-speed reproduction or high-speed reproduction according to the speed designated by this control command. Further, the video reproduction control means 43 returns a command such as “STATUS SENSE DATA” in FIG. 2 to the command from the editing controller 3.

なお、映像再生制御手段43は、時間情報算出手段41と独立して各種制御を行う。また、映像再生制御手段43の機能は、従来のノンリニア編集装置と同様のものであるため、詳細な説明を省略する。   The video reproduction control unit 43 performs various controls independently of the time information calculation unit 41. Further, since the function of the video reproduction control means 43 is the same as that of the conventional nonlinear editing device, detailed description thereof is omitted.

映像編集手段44は、編集モード判定手段42から判定結果が入力される。そして、映像編集手段44は、この判定結果が編集モードでないことを示す場合、例えば、下記(1)〜(5)の機能により、映像を編集する。
なお、映像編集手段44は、従来の編集ソフトウェアをノンリニア編集装置1にインストールすることで実現できるため、詳細な説明を省略する。
The video editing unit 44 receives the determination result from the editing mode determination unit 42. Then, when the determination result indicates that the editing mode is not in the editing mode, the video editing unit 44 edits the video by using the following functions (1) to (5), for example.
The video editing unit 44 can be realized by installing conventional editing software in the nonlinear editing apparatus 1, and thus detailed description thereof is omitted.

(1)映像を任意の位置から任意の長さで時間軸に沿って並べる機能
(2)映像を再度並べ替え、および、削除する機能
(3)映像を加工(変形、拡大、縮小、ぼかし、色調の変更、フェード、ページめくり等)する機能
(4)映像同士を重ね合わせる機能(完全に上に重ね合わせる、または、ピクチャーインピクチャーではめ込む)
(5)映像に字幕を重ねる(テロップ)機能
(1) A function for arranging video from an arbitrary position along a time axis at an arbitrary length (2) A function for rearranging and deleting the video again (3) Processing the video (deformation, enlargement, reduction, blurring, Function to change color tone, fade, turn pages, etc. (4) Function to superimpose images (overlay on top or fit in picture-in-picture)
(5) Superimpose captions on video (telop)

ここで、前記した判定結果が、編集モードのときは、映像編集システム100として編集を行うことを示し、編集モードでないときは、ノンリニア編集装置1内で編集を行うことを示す。つまり、ノンリニア編集装置1は、編集モードのとき、編集コントローラ3からの制御コマンドに応じて単に映像を再生し、編集モードでないとき、編集コントローラ3から独立して、映像を編集することができる。   Here, when the determination result is in the edit mode, it indicates that editing is performed as the video editing system 100, and when it is not in the edit mode, it indicates that editing is performed in the nonlinear editing apparatus 1. That is, the non-linear editing apparatus 1 can simply reproduce a video in response to a control command from the editing controller 3 when in the editing mode, and can edit the video independently of the editing controller 3 when not in the editing mode.

[ノンリニア編集装置の動作:制御コマンドなし]
以下、図4を参照し、制御コマンドの送受信がない場合におけるノンリニア編集装置1と編集コントローラ3との動作を説明する(適宜図1〜図3参照)。なお、1フレーム時間は、例えば、約33ミリ秒である。
[Nonlinear Editing Device Operation: No Control Command]
Hereinafter, the operations of the nonlinear editing apparatus 1 and the editing controller 3 when there is no transmission / reception of a control command will be described with reference to FIG. 4 (see FIGS. 1 to 3 as appropriate). One frame time is about 33 milliseconds, for example.

編集コントローラ3は、「STATUS SENSE」をノンリニア編集装置1に送信する(ステップS1)。   The editing controller 3 transmits “STATUS SENSE” to the nonlinear editing device 1 (step S1).

ノンリニア編集装置1は、映像再生制御手段43によって、「STATUS SENSE DATA」を編集コントローラ3に送信する(ステップS2)。   The nonlinear editing apparatus 1 transmits “STATUS SENSE DATA” to the editing controller 3 by the video reproduction control means 43 (step S2).

編集コントローラ3は、「CURRENT TIME SENSE(TC)」をノンリニア編集装置1に送信する(ステップS3)。   The editing controller 3 transmits “CURRENT TIME SENSE (TC)” to the nonlinear editing device 1 (step S3).

ノンリニア編集装置1は、時間情報算出手段41によって、「CURRENT TIME DATA(TC)」に再生位置(時間情報)を格納し、編集コントローラ3に送信する(ステップS4)。   The nonlinear editing apparatus 1 stores the playback position (time information) in “CURRENT TIME DATA (TC)” by the time information calculation means 41 and transmits it to the editing controller 3 (step S4).

編集コントローラ3は、「CURRENT TIME SENSE(CTL)」をノンリニア編集装置1に送信する(ステップS5)。   The editing controller 3 transmits “CURRENT TIME SENSE (CTL)” to the nonlinear editing apparatus 1 (step S5).

ノンリニア編集装置1は、時間情報算出手段41によって、「CURRENT TIME DATA(CTL)」に再生位置(時間情報)を格納し、編集コントローラ3に送信する(ステップS6)。   The nonlinear editing apparatus 1 stores the reproduction position (time information) in “CURRENT TIME DATA (CTL)” by the time information calculation means 41 and transmits it to the editing controller 3 (step S6).

[ノンリニア編集装置の動作:制御コマンドあり]
以下、図5を参照し、制御コマンドの送受信がある場合におけるノンリニア編集装置1と編集コントローラ3との動作を説明する(適宜図1〜図3参照)。なお、ステップS1〜S6は、図4と同様であるため、説明を省略する。
[Nonlinear Editing Device Operation: With Control Command]
Hereinafter, the operations of the nonlinear editing apparatus 1 and the editing controller 3 in the case where control commands are transmitted and received will be described with reference to FIGS. 1 to 3 as appropriate. Steps S1 to S6 are the same as those in FIG.

編集コントローラ3は、制御コマンド(図3参照)をノンリニア編集装置1に送信する(ステップS7)。
ノンリニア編集装置1は、映像再生制御手段43によって、コマンド応答(ACKまたはNAK)を編集コントローラ3に送信する(ステップS8)。
The editing controller 3 transmits a control command (see FIG. 3) to the nonlinear editing device 1 (step S7).
The nonlinear editing apparatus 1 transmits a command response (ACK or NAK) to the editing controller 3 by the video reproduction control means 43 (step S8).

以上のように、ノンリニア編集装置1および編集コントローラ3は、制御コマンドの送受信がない場合には図4の動作、または、制御コマンドの送受信がある場合には図6の動作を、1フレーム時間毎に繰り返し行う。   As described above, the nonlinear editing device 1 and the editing controller 3 perform the operation of FIG. 4 when there is no transmission / reception of a control command, or the operation of FIG. Repeatedly.

<時間情報の算出の具体例>
以下、図6および図7を参照し、ノンリニア編集装置1による時間情報の算出の具体例を説明する(適宜図1参照)。なお、図6および図7では、時間情報は、「時:分:秒:フレーム時間」の形式で表される。このとき、このフレーム時間は、30進法となっている。
<Specific example of calculation of time information>
Hereinafter, a specific example of calculation of time information by the nonlinear editing apparatus 1 will be described with reference to FIGS. 6 and 7 (see FIG. 1 as appropriate). In FIGS. 6 and 7, the time information is represented in the format of “hour: minute: second: frame time”. At this time, the frame time is a 30-decimal system.

なお、図6および図7では、時間情報の算出に関係する制御コマンドのみを図示した。ここで、同じ種類の制御コマンドを複数回受信するので、各制御コマンドを区別するため、制御コマンドの後に受信回数を示す数値を付加した。例えば、「VAR FWD2」は、2回目に受信した制御コマンド「VAR FWD」であることを示す。   In FIGS. 6 and 7, only control commands related to calculation of time information are shown. Here, since the same type of control command is received a plurality of times, a numerical value indicating the number of times of reception is added after the control command in order to distinguish each control command. For example, “VAR FWD2” indicates the control command “VAR FWD” received for the second time.

まず、図6の前提条件を説明する。
編集コントローラ3の収録開始点が、10:00:00:00であるとする。このため、編集コントローラ3は、この収録開始点を図3の「CUE UP WITH DATA」に格納し、ノンリニア編集装置1に送信したとする。
First, the preconditions of FIG. 6 will be described.
It is assumed that the recording start point of the editing controller 3 is 10: 00: 00: 00. Therefore, it is assumed that the editing controller 3 stores this recording start point in “CUE UP WITH DATA” in FIG. 3 and transmits it to the nonlinear editing apparatus 1.

編集コントローラ3のプリロール時間が、00:00:05:00であるとする。このため、ノンリニア編集装置1は、編集コントローラ3と同じ値のプリロール時間が設定されている。   It is assumed that the pre-roll time of the editing controller 3 is 00: 00: 05: 00. For this reason, the non-linear editing device 1 is set with the same pre-roll time as the editing controller 3.

ノンリニア編集装置1は、再生/収録開始時間が00:00:02:00に設定されている。
編集コントローラ3の編集遅延時間(「EDIT ON」および「EDIT OFF」を受信してから実行するまでの時間)が00:00:00:02であるとする。このため、ノンリニア編集装置1は、編集コントローラ3と同じ値の編集遅延時間が設定されている。
In the non-linear editing device 1, the playback / recording start time is set to 00: 00: 02: 00.
It is assumed that the editing controller 3 has an editing delay time (time from reception of “EDIT ON” and “EDIT OFF” to execution thereof) of 00: 00: 02: 00. For this reason, the non-linear editing apparatus 1 is set with the editing delay time having the same value as that of the editing controller 3.

以下、時間情報の算出を具体的に説明する
時間情報算出手段41は、編集コントローラ3の収録開始点(「CUE UP WITH DATA」に格納されている収録開始点)から、プリロール時間を減算して、再生開始点を算出する。図6の例では、時間情報算出手段41は、下記の式(1)で示すように、再生開始点として、09:59:55:00を算出する。
Hereinafter, the calculation of time information will be described in detail. The time information calculation means 41 subtracts the pre-roll time from the recording start point of the editing controller 3 (the recording start point stored in “CUE UP WITH DATA”). The playback start point is calculated. In the example of FIG. 6, the time information calculation unit 41 calculates 09: 59: 55: 00 as the playback start point, as shown by the following formula (1).

09:59:55:00=10:00:00:00−00:00:05:00
・・・式(1)
09: 59: 55: 00 = 10: 00: 00: 00-0: 00: 05: 00
... Formula (1)

また、時間情報算出手段41は、再生開始点にプリロール時間を加算してから再生/収録開始時間を減算し、再生開始実行点を算出する。図6の例では、時間情報算出手段41は、下記の式(2)で示すように、再生開始実行点として、09:59:58:00を算出する。   Further, the time information calculation means 41 calculates the reproduction start execution point by adding the pre-roll time to the reproduction start point and then subtracting the reproduction / recording start time. In the example of FIG. 6, the time information calculation unit 41 calculates 09: 59: 58: 00 as the reproduction start execution point as shown by the following equation (2).

09:59:58:00=09:59:55:00+00:00:05:00
−00:00:02:00・・・式(2)
09: 59: 58: 00 = 09: 59: 55: 00 + 00: 00: 05: 00
-00: 00: 02: 00 ... Formula (2)

また、時間情報算出手段41は、再生開始点にプリロール時間を加算して、収録開始点を算出する。図6の例では、時間情報算出手段41は、下記の式(3)で示すように、収録開始点として、10:00:00:00を算出する。   The time information calculation means 41 calculates the recording start point by adding the pre-roll time to the reproduction start point. In the example of FIG. 6, the time information calculation means 41 calculates 10: 00: 00: 00 as a recording start point as shown by the following formula (3).

10:00:00:00=09:59:55:00+00:00:05:00
・・・式(3)
10: 00: 00: 00 = 09: 59: 55: 00 + 00: 00: 05: 00
... Formula (3)

ここで、再生開始点から時系列に沿って説明する。
まず、この再生開始点で、ノンリニア編集装置1が「PLAY1」を受信したとする。すると、時間情報算出手段41は、フレーム時間単位でカウントを開始し、再生開始点を基準とした経過時間を算出する。この「PLAY1」が等倍再生を意味することから、図7(a)に示すように、時間情報算出手段41は、経過時間を遅らせる、または、経過時間を先に進めることはせずに、経過時間の値をそのまま時間情報として用いる。
Here, a description will be given along the time series from the reproduction start point.
First, it is assumed that the non-linear editing apparatus 1 receives “PLAY1” at this playback start point. Then, the time information calculation means 41 starts counting in frame time units, and calculates the elapsed time with reference to the playback start point. Since this “PLAY1” means 1 × reproduction, as shown in FIG. 7A, the time information calculation unit 41 does not delay the elapsed time or advance the elapsed time. The value of elapsed time is used as time information as it is.

その後、ノンリニア編集装置1が「VAR FWD1」を受信したとする。この「VAR FWD1」は、再生速度が0.88倍(低速再生)で指定されている。ここで、時間情報算出手段41は、再生速度が遅いほど、経過時間を遅延させた値で時間情報を算出する。具体的には、時間情報算出手段41は、09:59:55:16という同一の時間情報を2回算出し、その後、09:59:56:00という同一の時間情報を2回算出する(図7の太字部分)。言い換えると、時間情報算出手段41は、この「VAR FWD1」に応じて、時間情報を、経過時間を2フレーム時間だけ遅延させた値とする。なお、再生速度が1未満のときに低速再生となり、1を越えたときに高速再生となる。   Thereafter, it is assumed that the nonlinear editing apparatus 1 receives “VAR FWD1”. This “VAR FWD1” is designated with a playback speed of 0.88 times (low speed playback). Here, the time information calculation means 41 calculates time information with a value obtained by delaying the elapsed time as the reproduction speed is slower. Specifically, the time information calculation means 41 calculates the same time information of 09: 59: 55: 16 twice, and then calculates the same time information of 09: 59: 56: 00 twice ( Bold part in FIG. 7). In other words, the time information calculation unit 41 sets the time information to a value obtained by delaying the elapsed time by 2 frame times in accordance with the “VAR FWD1”. Note that when the playback speed is less than 1, low speed playback is performed, and when the playback speed exceeds 1, high speed playback is performed.

その後、ノンリニア編集装置1が「VAR FWD2」を受信したとする。この「VAR FWD2」は、再生速度が1.08倍(高速再生)で指定されている。ここで、時間情報算出手段41は、再生速度が速いほど、経過時間を先に進ませた値で時間情報を算出する。具体的には、時間情報算出手段41は、時間情報として、09:59:56:03を飛ばして09:59:56:04を算出し、09:59:57:00を飛ばして09:59:57:01を算出し、09:59:57:14を飛ばして09:59:57:15を算出する(図7の太字部分)。言い換えると、時間情報算出手段41は、この「VAR FWD2」に応じて、時間情報を、経過時間を3フレーム時間だけ先に進めた値とする。   Thereafter, it is assumed that the nonlinear editing apparatus 1 receives “VAR FWD2”. This “VAR FWD2” is designated with a playback speed of 1.08 times (high speed playback). Here, the time information calculation means 41 calculates time information with a value obtained by advancing the elapsed time as the reproduction speed increases. Specifically, the time information calculation means 41 calculates 09: 59: 56: 04 by skipping 09: 59: 56: 03 as time information, and 09: 59: 57: 00 by skipping 09: 59: 56: 03. : 57: 01 is calculated, and 09: 59: 57: 14 is skipped to calculate 09: 59: 57: 15 (the bold portion in FIG. 7). In other words, the time information calculation unit 41 sets the time information to a value obtained by advancing the elapsed time by 3 frame times in accordance with the “VAR FWD2”.

その後、ノンリニア編集装置1が「PLAY2」を受信したとする。すると、時間情報算出手段41は、「PLAY1」と同様に時間情報を算出する。   Thereafter, it is assumed that the nonlinear editing apparatus 1 receives “PLAY2”. Then, the time information calculation means 41 calculates time information in the same manner as “PLAY1”.

ここで、10:00:09:28のときに「EDIT OFF」を受信したとする。この場合、時間情報算出手段41は、この「EDIT OFF」を受信した時間に編集遅延時間を加算して、収録終了点を算出する。図6の例では、時間情報算出手段41は、下記の式(4)で示すように、収録終了点として、10:00:10:00を算出する。   Here, it is assumed that “EDIT OFF” is received at 10: 00: 09: 28. In this case, the time information calculation means 41 calculates the recording end point by adding the edit delay time to the time when this “EDIT OFF” is received. In the example of FIG. 6, the time information calculation unit 41 calculates 10: 00: 10: 00 as the recording end point as shown by the following formula (4).

10:00:10:00=10:00:09:28+00:00:00:02
・・・式(4)
10: 00: 10: 00 = 10: 00: 09: 28 + 00: 00: 00: 02
... Formula (4)

さらに、10:00:12:00のときに「STOP」を受信したとする。すると、時間情報算出手段41は、この「STOP」を受信したときを停止点とし、時間情報の算出を終了する。   Furthermore, it is assumed that “STOP” is received at 10: 00: 12: 00. Then, the time information calculation means 41 uses the time when this “STOP” is received as a stop point, and ends the calculation of the time information.

ここで、ノンリニア編集装置1とVTR再生装置4とVTR収録装置5との同期について、簡単に補足する。まず、ノンリニア編集装置1は、映像再生制御手段43によって、「PLAY1」を受信した映像を等倍再生し、「VAR FWD1」を受信したら映像を低速再生する。そして、ノンリニア編集装置1は、映像再生制御手段43によって、「VAR FWD2」を受信したら映像を高速再生し、「PLAY2」を受信したら映像を等倍再生する。この間、VTR再生装置4およびVTR収録装置5は、編集コントローラ3からの制御コマンドに応じて、再生開始点から再生開始実行点までの間で、再生速度を変えながらビデオテープの位置を合わせておく。   Here, a brief description will be given of the synchronization among the nonlinear editing device 1, the VTR playback device 4, and the VTR recording device 5. First, the non-linear editing apparatus 1 uses the video playback control means 43 to play back the video that has received “PLAY1” at the same magnification, and when it receives “VAR FWD1”, it plays back the video at low speed. Then, the non-linear editing apparatus 1 causes the video reproduction control means 43 to reproduce the video at a high speed when “VAR FWD2” is received, and reproduces the video at the same magnification when “PLAY2” is received. During this time, the VTR playback device 4 and the VTR recording device 5 adjust the position of the video tape while changing the playback speed between the playback start point and the playback start execution point in accordance with the control command from the editing controller 3. .

つまり、映像編集システム100は、再生開始実行点までに、ノンリニア編集装置1、VTR再生装置4およびVTR収録装置5を同期させておき、収録可能な状態にしておく。そして、映像編集システム100は、再生開始実行点以後、ノンリニア編集装置1およびVTR再生装置4が映像を等倍再生しながら、VTR収録装置5が収録を行う。従って、図6に示すように、映像編集システム100は、各装置の間で、再生開始点、収録開始点、収録終了点および停止点のそれぞれが同じ位置になる。   That is, the video editing system 100 synchronizes the non-linear editing device 1, the VTR playback device 4, and the VTR recording device 5 up to the playback start execution point so that the video recording system 100 can record. In the video editing system 100, after the playback start execution point, the VTR recording device 5 performs recording while the nonlinear editing device 1 and the VTR playback device 4 reproduce the video at the same magnification. Accordingly, as shown in FIG. 6, in the video editing system 100, the playback start point, the recording start point, the recording end point, and the stop point are at the same position among the devices.

以上のように、本発明の第1実施形態に係るノンリニア編集装置1は、編集モードの場合だけ、制御コマンド(「PLAY」および「VAR FWD」)で指定された再生速度と経過時間とに基づいて時間情報を算出する。このように、ノンリニア編集装置1は、映像に付加された時間情報を参照しないので、可変速再生のための映像生成およびバッファ制御処理に伴う演算負荷を低減しながら、正確性が高い時間情報を算出することができる。これによって、ノンリニア編集装置1は、調走を高速化でき、既存の映像加工装置2および編集コントローラ3に適用することができる。   As described above, the nonlinear editing apparatus 1 according to the first embodiment of the present invention is based on the playback speed and elapsed time specified by the control commands (“PLAY” and “VAR FWD”) only in the editing mode. To calculate time information. Thus, since the nonlinear editing apparatus 1 does not refer to the time information added to the video, the time information with high accuracy can be obtained while reducing the calculation load associated with the video generation and buffer control processing for variable speed playback. Can be calculated. Thereby, the nonlinear editing apparatus 1 can speed up the running and can be applied to the existing video processing apparatus 2 and the editing controller 3.

なお、第1実施形態では、ノンリニア編集装置1を1台として説明したが、これに限定されない。例えば、映像編集システム100は、さらに、VTR再生装置4をノンリニア編集装置1で置き換えてもよい。また、リニア編集装置の全てを1台のノンリニア編集装置1で置き換えてもよい。   In the first embodiment, the nonlinear editing apparatus 1 is described as one unit, but the present invention is not limited to this. For example, the video editing system 100 may further replace the VTR playback device 4 with the nonlinear editing device 1. Further, all of the linear editing devices may be replaced with one non-linear editing device 1.

[変形例:一本化と試写との並行処理]
以下、図8〜図10を参照し、図1のノンリニア編集装置1の変形例を説明する(適宜図1参照)。図8に示すように、ノンリニア編集装置1Bでの編集結果は、素材ファイルA〜Cを順番に並べたような、編集情報となっている。当然、この編集情報をそのまま放送することはできないため、ノンリニア編集装置1Bは、1本の一本化素材(放送用素材ファイル)となるように出力する。このような作業が一本化と呼ばれる。そして、この一本化素材を放送するとき、これが正しく記憶されているか、および、この内容に問題がないかを確認するため、一本化素材を試写する必要がある。
[Variation: Parallel processing of unification and preview]
Hereinafter, a modification of the nonlinear editing device 1 of FIG. 1 will be described with reference to FIGS. 8 to 10 (see FIG. 1 as appropriate). As shown in FIG. 8, the editing result in the nonlinear editing apparatus 1B is editing information such that the material files A to C are arranged in order. Of course, since this editing information cannot be broadcast as it is, the non-linear editing apparatus 1B outputs it so as to become one unification material (broadcast material file). Such work is called unification. When broadcasting this unified material, it is necessary to preview the unified material in order to check whether it is correctly stored and whether there is a problem with this content.

なお、素材ファイルとは、ノンリニア編集装置1内にある物理的なファイルである。
また、一本化素材とは、これら複数の素材ファイルを結合して生成した1個のファイルである。
The material file is a physical file in the nonlinear editing apparatus 1.
The unified material is a single file generated by combining these material files.

ここで、従来のノンリニア編集装置は、一本化の際、素材ファイルと同じ時間か、それ以上の時間が必要になる。また、従来のノンリニア編集装置は、試写の際、一本化素材を再生するため、素材ファイルと同じ時間が必要になる。つまり、図9(a)に示すように、従来のノンリニア編集装置は、一本化および試写の作業を終了するまでに、素材ファイルの2倍以上の時間が必要になる。そこで、図9(b)に示すように、ノンリニア編集装置1Bは、一本化と試写とを並行して行い、これら試写が終了する時間が早くなるようにした。   Here, the conventional non-linear editing apparatus requires the same time as the material file or more than that when it is integrated. In addition, since the conventional nonlinear editing apparatus reproduces the unified material at the time of preview, the same time as the material file is required. That is, as shown in FIG. 9A, the conventional nonlinear editing apparatus requires more than twice as long as the material file before completing the unification and preview work. Therefore, as shown in FIG. 9B, the non-linear editing apparatus 1B performs unification and preview in parallel so that the time for completing these previews is shortened.

以下、図10を参照し、一本化と試写との並行処理について説明する。なお、図10では、素材ファイルAが一本化素材と同じフォーマットであり、素材ファイルBが一本化素材と違うフォーマットであり、素材ファイルCには効果が付加されている。また、図10では、一本化素材に書き込まれた部分をハッチングして図示した。   Hereinafter, parallel processing of unification and preview will be described with reference to FIG. In FIG. 10, the material file A has the same format as the unified material, the material file B has a different format from the unified material, and the effect is added to the material file C. Further, in FIG. 10, the portion written on the single material is shown hatched.

ノンリニア編集装置1Bは、素材ファイルAを読み込んだ後、一本化素材として、そのまま書き込む(ステップS11)。このとき、ノンリニア編集装置1Bは、一本化素材として書き込まれた部分(図10の斜線部)を読み出して(ステップS12)、これをデコードし、(ステップS13)、試写する(ステップS14)。   After reading the material file A, the nonlinear editing device 1B writes it as a unified material as it is (step S11). At this time, the non-linear editing apparatus 1B reads the portion written as the unified material (shaded portion in FIG. 10) (step S12), decodes it (step S13), and previews it (step S14).

また、ノンリニア編集装置1Bは、素材ファイルAの試写に並行して、素材ファイルBをデコードする(ステップS15)。そして、ノンリニア編集装置1Bは、デコードした素材ファイルBを一本化素材と同じフォーマットでエンコードして、一本化素材に書き込む(ステップS16)。   Further, the nonlinear editing device 1B decodes the material file B in parallel with the preview of the material file A (step S15). Then, the nonlinear editing apparatus 1B encodes the decoded material file B in the same format as that of the unified material, and writes it in the unified material (step S16).

また、ノンリニア編集装置1Bは、素材ファイルCをデコードする(ステップS17)。そして、ノンリニア編集装置1Bは、この素材ファイルCに効果を付加する(ステップS18:レンダリング)。さらに、ノンリニア編集装置1Bは、効果を付加した素材ファイルCを一本化素材と同じフォーマットでエンコードして、一本化素材に書き込む(ステップS19)。   Further, the nonlinear editing device 1B decodes the material file C (step S17). Then, the nonlinear editing device 1B adds an effect to the material file C (step S18: rendering). Further, the nonlinear editing apparatus 1B encodes the material file C to which the effect is added in the same format as that of the unified material, and writes the encoded material file C in the unified material (step S19).

以上のように、本発明の変形例に係るノンリニア編集装置1Bは、素材ファイルA〜Cが、先頭から順次一本化素材に書き込まれる。そこで、ノンリニア編集装置1Bは、一本化素材の全部分が書き込まれるのを待つことなく、一本化素材に書き込まれ部分を順次読み込みて、これの試写を開始する。このように、ノンリニア編集装置1Bは、一本化と試写とを並行して行うことができる。   As described above, in the nonlinear editing apparatus 1B according to the modification of the present invention, the material files A to C are sequentially written into the single material from the top. Therefore, the non-linear editing apparatus 1B sequentially reads the portions written in the unified material without waiting for all the portions of the unified material to be written, and starts previewing the same. Thus, the nonlinear editing apparatus 1B can perform unification and preview in parallel.

(第2実施形態)
図11を参照して、映像編集システム101について、第1実施形態と異なる点を主に説明する。図11に示すように、映像編集システム101は、図1のノンリニア編集装置1とVTR再生装置4とVTR収録装置5とを1台のノンリニア編集装置1Cに置き換えたものであり、ノンリニア編集装置1Cと、映像加工装置2Cと、編集コントローラ3Cとを備える。
(Second Embodiment)
With reference to FIG. 11, the video editing system 101 will be described mainly with respect to differences from the first embodiment. As shown in FIG. 11, a video editing system 101 is obtained by replacing the nonlinear editing device 1, the VTR playback device 4, and the VTR recording device 5 of FIG. 1 with a single nonlinear editing device 1C. A video processing device 2C and an editing controller 3C.

映像加工装置2Cは、再生映像1と再生映像2とがノンリニア編集装置1Cから入力される。そして、映像加工装置2Cは、これら2本の再生映像1,2を1本の収録映像に加工してノンリニア編集装置1Cに出力する。なお、映像加工装置2Cは、図1と同様のものであるため、詳細な説明を省略する。   The video processing device 2C receives the playback video 1 and the playback video 2 from the nonlinear editing device 1C. Then, the video processing device 2C processes the two reproduced videos 1 and 2 into one recorded video and outputs it to the nonlinear editing device 1C. The video processing device 2C is the same as that shown in FIG.

編集コントローラ3Cは、再生映像1,2および収録映像を同期させるように、制御コマンドをノンリニア編集装置1Cに出力する。なお、編集コントローラ3Cは、図1と同様のものであるため、詳細な説明を省略する。   The editing controller 3C outputs a control command to the nonlinear editing device 1C so as to synchronize the reproduced videos 1 and 2 and the recorded video. The edit controller 3C is the same as that shown in FIG.

図11に示すように、ノンリニア編集装置1Cは、再生映像1出力手段(映像出力手段)11と、再生映像2出力手段(映像出力手段)12と、収録映像入力手段(映像入力手段)13と、通信手段20と、記憶手段30Cと、演算手段40Cとを備える。なお、通信手段20は、図1と同様のものであるため、詳細な説明を省略する。   As shown in FIG. 11, the non-linear editing apparatus 1C includes a reproduction video 1 output means (video output means) 11, a reproduction video 2 output means (video output means) 12, and a recorded video input means (video input means) 13. , Communication means 20, storage means 30C, and calculation means 40C. The communication means 20 is the same as that shown in FIG.

再生映像1出力手段11は、映像加工装置2に再生映像1を出力するインタフェースである。
再生映像2出力手段12は、映像加工装置2に再生映像2を出力するインタフェースである。
収録映像入力手段13は、映像加工装置2から収録映像が入力されるインタフェースであり、入力された収録映像を記憶手段30に書き込む。
つまり、ノンリニア編集装置1Cは、再生映像1,2および収録映像のそれぞれに専用のインタフェースを備える。なお、この専用のインタフェースの詳細は、後記する。
The reproduced video 1 output means 11 is an interface for outputting the reproduced video 1 to the video processing device 2.
The reproduced video 2 output means 12 is an interface for outputting the reproduced video 2 to the video processing device 2.
The recorded video input unit 13 is an interface through which the recorded video is input from the video processing device 2, and writes the input recorded video in the storage unit 30.
In other words, the nonlinear editing device 1C includes dedicated interfaces for the reproduced videos 1 and 2 and the recorded video. Details of this dedicated interface will be described later.

記憶手段30Cは、再生映像1,2および収録映像を記憶するハードディスクまたはメモリデバイスである。また、記憶手段30Cは、差替データおよび各種パラメータを記憶してもよい。なお、差替データとは、収録映像における修正部分の映像である   The storage unit 30C is a hard disk or a memory device that stores the reproduced videos 1 and 2 and the recorded video. The storage unit 30C may store replacement data and various parameters. The replacement data is the video of the corrected part in the recorded video.

図11に示すように、演算手段40Cは、時間情報算出手段41Cと、編集モード判定手段42と、映像再生制御手段43と、映像編集手段44Cと、差替手段45とを備える。なお、編集モード判定手段42および映像再生制御手段43は、図1の各手段と同様のものであるため、詳細な説明を省略する。   As shown in FIG. 11, the calculation means 40C includes a time information calculation means 41C, an edit mode determination means 42, a video reproduction control means 43, a video edit means 44C, and a replacement means 45. The edit mode determination means 42 and the video reproduction control means 43 are the same as the respective means in FIG.

時間情報算出手段41Cは、再生映像2および収録映像について、再生映像1と同様の手順で時間情報を個別に算出して編集コントローラ3に送信する(図6参照)。また、時間情報算出手段41Cは、再生映像1,2および収録映像の収録開始点や収録終了点を映像編集手段44Cに出力する。さらに、時間情報算出手段41Cは、差替データの収録開始点や収録終了点を再生映像1と同様の手順で算出し、これを差替手段45に出力する。   The time information calculation unit 41C calculates time information individually for the playback video 2 and the recorded video in the same procedure as the playback video 1 and transmits the time information to the editing controller 3 (see FIG. 6). Further, the time information calculation unit 41C outputs the playback videos 1 and 2 and the recording start point and the recording end point of the recorded video to the video editing unit 44C. Further, the time information calculation unit 41C calculates the recording start point and the recording end point of the replacement data in the same procedure as that of the reproduced video 1, and outputs the calculated data to the replacement unit 45.

映像編集手段44Cは、再生映像1と再生映像2と収録映像とのそれぞれにトラックを割り当てた後、編集を行う。ここで、トラックとは、映像や音声のそれぞれを映像編集手段44C内で抽象的に表したものであり、従来の編集ソフトウェアにおけるトラックと同様のものである。   The video editing means 44C performs editing after assigning tracks to the reproduced video 1, the reproduced video 2 and the recorded video. Here, the track is an abstract representation of video and audio in the video editing means 44C, and is the same as the track in the conventional editing software.

差替手段45は、一本化素材(収録映像)に対して、差替データの差し替えを行う。なお、差替手段45としては、例えば、特開2008−124932号公報に記載された発明を用いることができる。   The replacement means 45 replaces replacement data for a single material (recorded video). In addition, as the replacement means 45, the invention described in Unexamined-Japanese-Patent No. 2008-124932 can be used, for example.

<差替処理>
以下、図12を参照し、差替手段45による差替処理の詳細を説明する(適宜図11参照)。なお、図12では、差替データを符号αで示し、一本化素材を符号βで示し、差し替え後の一本化素材を符号β´で示した。
<Replacement process>
Hereinafter, the details of the replacement process by the replacement unit 45 will be described with reference to FIG. 12 (see FIG. 11 as appropriate). In FIG. 12, the replacement data is indicated by the symbol α, the unified material is indicated by the symbol β, and the unified material after replacement is indicated by the symbol β ′.

前記したように、差替手段45は、差替データα1〜3の収録開始点および収録終了点が、時間情報算出手段41Cから入力される。これによって、差替手段45は、図7(a)に示すように、差替データα1〜3の収録開始点および収録終了点から、差替データα1〜3を一本化素材βのどの位置で差し替えるのかがわかる。そして、図7(b)に示すように、差替手段45は、差替データα1〜3を差し替えて、差し替え後の一本化素材β´を生成する。   As described above, the replacement unit 45 receives the recording start point and the recording end point of the replacement data α1 to α3 from the time information calculation unit 41C. As a result, as shown in FIG. 7A, the replacement means 45 determines the position of the replacement data α1 to 3 from the recording start point and the recording end point of the replacement data α1 to α3. You can see how to replace it. Then, as shown in FIG. 7B, the replacement unit 45 replaces the replacement data α1 to α3 and generates a single material β ′ after replacement.

なお、差替データα1〜3にエフェクトが付加されている場合、または、差替データα1〜3のファイル形式が一本化素材βと異なる場合、差替手段45は、レンダリングを行った後に差替処理を行ってもよい。   In addition, when an effect is added to the replacement data α1 to 3, or when the file format of the replacement data α1 to 3 is different from the unified material β, the replacement unit 45 performs the difference after rendering. Replacement processing may be performed.

ここで、映像制作の現場では、ハードディスク、メモリデバイス等のテープレスメディアに収録された編集済みの一本化素材に対して、従来のノンリニア編集装置を用いて一部修正を行う場合がある。このとき、従来のノンリニア編集装置は、一本化素材において、修正された一部映像(差替データ)の差し替え位置を手動で設定する必要があり、差し替え作業に手間がかかる。しかし、ノンリニア編集装置1Cは、差し替え位置を手動で設定する必要がないので、差し替えを高速、かつ、簡易に行うことができる。   Here, in a video production site, there is a case where a part of the edited integrated material recorded on a tapeless medium such as a hard disk or a memory device is partially corrected using a conventional nonlinear editing device. At this time, the conventional non-linear editing apparatus needs to manually set the replacement position of the corrected partial video (replacement data) in the unified material, which takes time and labor. However, since the nonlinear editing apparatus 1C does not need to manually set the replacement position, the replacement can be performed quickly and easily.

<専用のインタフェースおよびトラックの割り当て>
以下、図13および図14を参照し、ノンリニア編集装置1Cにおいて、専用のインタフェースおよびトラックの割り当ての詳細を説明する(適宜図11参照)。なお、図13では、映像編集手段44Cは、例えば、映像と同数となる3個のトラック1〜3を有することとする。
<Dedicated interface and track assignment>
Hereinafter, with reference to FIG. 13 and FIG. 14, details of the dedicated interface and track allocation in the nonlinear editing apparatus 1C will be described (see FIG. 11 as appropriate). In FIG. 13, the video editing unit 44C has, for example, three tracks 1 to 3 that are the same number as the video.

前記したように、差替手段45は、再生映像1,2および収録映像の収録開始点および収録終了点が、時間情報算出手段41Cから入力される。そして、図13に示すように、映像編集手段44Cは、再生映像1の収録開始点から収録終了点までの位置において再生映像1をトラック2に割り当てる。また、映像編集手段44Cは、再生映像2の収録開始点から収録終了点までの位置において、再生映像2をトラック2に割り当てる。   As described above, the replacement means 45 receives the playback videos 1 and 2 and the recording start point and the recording end point of the recorded video from the time information calculation means 41C. Then, as shown in FIG. 13, the video editing unit 44C assigns the playback video 1 to the track 2 at a position from the recording start point to the recording end point of the playback video 1. Further, the video editing means 44C assigns the playback video 2 to the track 2 at a position from the recording start point to the recording end point of the playback video 2.

また、収録の際、図14に示すように、映像編集手段44Cは、収録映像の収録開始点および収録終了点の位置において、収録映像をトラック1に割り当てる。なお、映像編集手段44Cは、どのトラックにどの映像を割り当てるか、手動で設定される。   Further, at the time of recording, as shown in FIG. 14, the video editing means 44C assigns the recorded video to the track 1 at the positions of the recording start point and the recording end point of the recorded video. The video editing means 44C manually sets which video is assigned to which track.

以上のように、本発明の第2実施形態に係るノンリニア編集装置1Cは、映像毎に専用のインタフェースを備えると共に、それぞれの映像にトラックを割り当てる。このため、ノンリニア編集装置1Cは、映像加工装置2に対して、再生映像1,2および収録映像を独立して入出力できる。これによって、ノンリニア編集装置1Cは、リニア編集装置の全てを、これ1台で置き換えることができる。   As described above, the nonlinear editing apparatus 1C according to the second embodiment of the present invention includes a dedicated interface for each video and allocates a track to each video. Therefore, the non-linear editing device 1C can input / output the reproduced videos 1 and 2 and the recorded video to / from the video processing device 2 independently. As a result, the non-linear editing apparatus 1C can replace all of the linear editing apparatuses with this one.

(第3実施形態)
図15を参照して、映像編集システム102について、第2実施形態と異なる点を主に説明する。図15に示すように、映像編集システム102は、出力バッファ52に格納した編集映像又は収録映像のプレビューを行うものであり、ノンリニア編集装置1Dと、映像加工装置2Dと、編集コントローラ3Dと、映像モニター(映像表示手段)Mとを備える。なお、映像加工装置2Dおよび編集コントローラ3Dは、図11の各手段と同様のものであるため、詳細な説明を省略する。
(Third embodiment)
With reference to FIG. 15, the video editing system 102 will be described mainly with respect to differences from the second embodiment. As shown in FIG. 15, the video editing system 102 previews the edited video or the recorded video stored in the output buffer 52, and includes a nonlinear editing device 1D, a video processing device 2D, an editing controller 3D, And a monitor (video display means) M. Note that the video processing device 2D and the edit controller 3D are the same as the respective units in FIG.

映像モニターMは、ノンリニア編集装置1Dから出力された映像を表示するモニターである。つまり、映像編集システム102では、制作者が、映像モニターMに表示された映像をプレビューすることができる。   The video monitor M is a monitor that displays the video output from the nonlinear editing device 1D. That is, in the video editing system 102, the producer can preview the video displayed on the video monitor M.

図15に示すように、ノンリニア編集装置1Dは、再生映像1出力手段(映像出力手段)11と、再生映像2出力手段(映像出力手段)12と、収録映像入力手段(映像入力手段)13Dと、通信手段20と、記憶手段30Dと、演算手段40Dとを備える。なお、再生映像1出力手段11、再生映像2出力手段12および通信手段20は、図11の各手段と同様のものであるため、詳細な説明を省略する。   As shown in FIG. 15, the non-linear editing apparatus 1D includes a playback video 1 output means (video output means) 11, a playback video 2 output means (video output means) 12, and a recorded video input means (video input means) 13D. , Communication means 20, storage means 30D, and calculation means 40D. The reproduced video 1 output means 11, the reproduced video 2 output means 12, and the communication means 20 are the same as the respective means in FIG.

収録映像入力手段13Dは、映像加工装置2Dから収録映像が入力されると共に、これを記憶手段30Dおよび入力バッファ51に書き込む。   The recorded video input means 13D receives the recorded video from the video processing device 2D and writes it into the storage means 30D and the input buffer 51.

記憶手段30Dは、再生映像1,2および収録映像を記憶するハードディスクまたはメモリデバイスである。また、記憶手段30Dは、各種パラメータを記憶してもよい(不図示)。   The storage unit 30D is a hard disk or a memory device that stores the reproduced videos 1 and 2 and the recorded video. The storage unit 30D may store various parameters (not shown).

図15に示すように、演算手段40Dは、時間情報算出手段41Dと、編集モード判定手段42と、映像再生制御手段43と、映像編集手段44Dと、区間判定手段46と、バッファ制御手段47とを備える。なお、編集モード判定手段42および映像再生制御手段43は、図1の各手段と同様のものであるため、詳細な説明を省略する。   As shown in FIG. 15, the calculation means 40D includes a time information calculation means 41D, an edit mode determination means 42, a video reproduction control means 43, a video edit means 44D, a section determination means 46, and a buffer control means 47. Is provided. The edit mode determination means 42 and the video reproduction control means 43 are the same as the respective means in FIG.

時間情報算出手段41Dは、再生映像2および収録映像について、再生映像1と同様の手順で時間情報を算出して編集コントローラ3に送信する(図6参照)。そして、時間情報算出手段41Dは、算出した再生映像1の再生開始点、収録開始点および収録終了点と、経過時間とを区間判定手段46に出力する。   The time information calculation unit 41D calculates time information for the playback video 2 and the recorded video in the same procedure as the playback video 1, and transmits the time information to the editing controller 3 (see FIG. 6). Then, the time information calculation unit 41D outputs the calculated playback start point, recording start point and recording end point of the playback video 1 and the elapsed time to the section determination unit 46.

映像編集手段44Dは、再生映像と同じ映像を編集すると共に、後記するバッファ制御手段47からの編集映像出力指令が入力されたときに、編集映像をバッファ制御手段47に出力する。なお、編集映像とは、映像編集手段44Dによって編集された再生映像のことである。   The video editing unit 44D edits the same video as the playback video, and outputs the edited video to the buffer control unit 47 when an edited video output command is input from the buffer control unit 47 described later. Note that the edited video is a reproduced video edited by the video editing means 44D.

区間判定手段46は、再生開始点、収録開始点、収録終了点および経過時間が時間情報算出手段41Dから入力される。また、区間判定手段46は、この経過時間が再生開始点から収録開始点までの間のとき、第1区間と判定する。そして、区間判定手段46は、この経過時間が収録開始点から収録終了点までの間のとき、第2区間と判定する。さらに、区間判定手段46は、経過時間が収録終了点から停止点までの間のときに第3区間と判定する。その後、区間判定手段46は、第1区間、第2区間または第3区間の何れであるかを示す判定結果を、バッファ制御手段47に出力する。   The section determination means 46 is input from the time information calculation means 41D with the reproduction start point, the recording start point, the recording end point, and the elapsed time. The section determination means 46 determines the first section when the elapsed time is between the playback start point and the recording start point. Then, the section determining means 46 determines the second section when the elapsed time is between the recording start point and the recording end point. Further, the section determining means 46 determines the third section when the elapsed time is between the recording end point and the stop point. Thereafter, the section determination unit 46 outputs a determination result indicating whether the section is the first section, the second section, or the third section to the buffer control unit 47.

バッファ制御手段47は、区間判定手段46から判定結果が入力される。判定結果が第1区間または第3区間を示す場合、バッファ制御手段47は、編集映像出力指令を映像編集手段44Dに出力する。すると、映像編集手段44Dから編集映像が入力されるので、バッファ制御手段47は、この編集映像を出力バッファ52に書き込む。   The buffer control unit 47 receives the determination result from the section determination unit 46. When the determination result indicates the first section or the third section, the buffer control unit 47 outputs an edited video output command to the video editing unit 44D. Then, since the edited video is input from the video editing unit 44D, the buffer control unit 47 writes the edited video in the output buffer 52.

一方、判定結果が第2区間を示す場合、バッファ制御手段47は、入力バッファ51に記憶されている収録映像を読み出す。そして、バッファ制御手段47は、この収録映像を出力バッファ52に書き込む。   On the other hand, when the determination result indicates the second section, the buffer control unit 47 reads the recorded video stored in the input buffer 51. Then, the buffer control means 47 writes this recorded video in the output buffer 52.

バッファ50は、入力バッファ51と、出力バッファ52とを備える。
入力バッファ51は、収録映像入力手段13Dによって書き込まれた収録映像を記憶するバッファメモリである。
出力バッファ52は、編集映像又は収録映像の何れか一方を記憶するバッファメモリである。
The buffer 50 includes an input buffer 51 and an output buffer 52.
The input buffer 51 is a buffer memory for storing the recorded video written by the recorded video input means 13D.
The output buffer 52 is a buffer memory that stores either edited video or recorded video.

バッファ出力手段60は、出力バッファ52に記憶されている編集映像又は収録映像を読み出して、これを映像モニターMに出力する。   The buffer output means 60 reads the edited video or recorded video stored in the output buffer 52 and outputs it to the video monitor M.

以下、図16を参照し、区間判定手段46の判定結果と、バッファ出力手段60の出力映像との関係について説明する。第1区間であれば、バッファ出力手段60は、編集映像を映像モニターMに出力する。また、第2区間であれば、バッファ出力手段60は、収録映像を映像モニターMに出力する。さらに、第3区間であれば、バッファ出力手段60は、編集映像を映像モニターMに出力する。   Hereinafter, the relationship between the determination result of the section determination unit 46 and the output video of the buffer output unit 60 will be described with reference to FIG. In the first section, the buffer output means 60 outputs the edited video to the video monitor M. In the second section, the buffer output means 60 outputs the recorded video to the video monitor M. Further, in the third section, the buffer output means 60 outputs the edited video to the video monitor M.

以上のように、本発明の第3実施形態に係るノンリニア編集装置1Dは、プレビューを可能とし、制作者が映像の制作をより効率的に行うことが可能となる。   As described above, the nonlinear editing apparatus 1D according to the third embodiment of the present invention enables preview, and enables the producer to produce video more efficiently.

なお、前記した各実施形態では、2本の再生映像1,2を一例として説明したが、これに限定されない。例えば、本発明に係るノンリニア編集装置は、再生映像を3本以上としても良い。   In each of the above-described embodiments, the two reproduced videos 1 and 2 have been described as an example. However, the present invention is not limited to this. For example, the nonlinear editing apparatus according to the present invention may have three or more playback videos.

1,1B,1C,1D ノンリニア編集装置
2,2C,2D 映像加工装置
3,3C,3D 編集コントローラ
4 VTR再生装置(リニア編集装置)
5 VTR収録装置(リニア編集装置)
10 出力手段
11 再生映像1出力手段(映像出力手段)
12 再生映像2出力手段(映像出力手段)
13,13D 収録映像入力手段(映像入力手段)
20 通信手段
30,30C,30D 記憶手段
40,40C,40D 演算手段
41,41C,41D 時間情報算出手段
42 編集モード判定手段
43 映像再生制御手段
44,44C,44D 映像編集手段
45 差替手段
46 区間判定手段
47 バッファ制御手段
50 バッファ
51 入力バッファ
52 出力バッファ
60 バッファ出力手段
100,101,102 映像編集システム
M 映像モニター
1, 1B, 1C, 1D Non-linear editing device 2, 2C, 2D Video processing device 3, 3C, 3D editing controller 4 VTR playback device (linear editing device)
5 VTR recording device (linear editing device)
10 output means 11 reproduction video 1 output means (video output means)
12 Playback video 2 output means (video output means)
13, 13D recorded video input means (video input means)
20 Communication means 30, 30C, 30D Storage means 40, 40C, 40D Calculation means 41, 41C, 41D Time information calculation means 42 Editing mode determination means 43 Video reproduction control means 44, 44C, 44D Video editing means 45 Replacement means 46 Section Determination means 47 Buffer control means 50 Buffer 51 Input buffer 52 Output buffer 60 Buffer output means 100, 101, 102 Video editing system M Video monitor

Claims (3)

再生映像を出力する1台以上のノンリニア編集装置と、前記再生映像を含む複数の映像から1の収録映像を生成する映像加工装置と、少なくとも前記ノンリニア編集装置と前記映像加工装置との同期をとる編集コントローラとを備える映像編集システムに用いられる前記ノンリニア編集装置であって、
前記編集コントローラから制御コマンドが入力され、入力された当該制御コマンドが予め設定された編集モードの開始を示すコマンドのときに前記編集モードであると判定する編集モード判定手段と、
前記編集モードのときに、前記制御コマンドで指定された再生速度と算出した再生開始点からの経過時間とに基づいて、映像の再生位置を示す時間情報を、前記再生速度が等倍再生を示すときは前記経過時間の値で、前記再生速度が前記等倍再生より遅くなるほど前記経過時間を遅延させた値で、および、前記再生速度が前記等倍再生より速いほど前記経過時間を先に進めた値で算出する時間情報算出手段と、
前記時間情報算出手段が算出した時間情報を、前記編集コントローラに送信する通信手段と、
を備えることを特徴とするノンリニア編集装置。
Synchronize at least one non-linear editing device that outputs playback video, a video processing device that generates one recorded video from a plurality of videos including the playback video, and at least the non-linear editing device and the video processing device The nonlinear editing device used in a video editing system including an editing controller,
An edit mode determination means for determining that the edit mode is entered when a control command is input from the edit controller and the input control command is a command indicating the start of a preset edit mode;
In the edit mode, based on the playback speed specified by the control command and the calculated elapsed time from the playback start point, time information indicating the playback position of the video is displayed, and the playback speed indicates the same size playback. When the playback speed is slower than the normal playback, the elapsed time is delayed as the playback speed is slower than the normal playback, and when the playback speed is faster than the normal playback, the elapsed time is advanced. Time information calculating means for calculating with a value,
Communication means for transmitting the time information calculated by the time information calculation means to the editing controller;
A non-linear editing apparatus comprising:
全ての前記再生映像毎に独立して設けられ、かつ、当該再生映像をそれぞれ前記映像加工装置に出力する複数の映像出力手段と、
前記収録映像が前記映像加工装置から入力される映像入力手段と、
をさらに備えることを特徴とする請求項1に記載のノンリニア編集装置。
A plurality of video output means provided independently for each of the playback videos, and each of the playback videos output to the video processing device;
Video input means for inputting the recorded video from the video processing device;
The nonlinear editing apparatus according to claim 1, further comprising:
前記映像加工装置から入力された収録映像を記憶する入力バッファと、
前記再生映像と同じ映像を編集する映像編集手段によって編集された編集映像又は前記収録映像の何れか一方を記憶する出力バッファと、
前記経過時間が前記再生開始点から算出した収録開始点までの間のときに第1区間と判定し、前記経過時間が前記収録開始点から算出した収録終了点までの間のときに第2区間と判定し、前記経過時間が前記収録終了点から所定の停止点までの間のときに第3区間と判定する区間判定手段と、
前記第1区間または前記第3区間では前記編集映像を前記出力バッファに書き込み、前記第2区間では前記入力バッファの収録映像を読み出して前記出力バッファに書き込むバッファ制御手段と、
前記出力バッファに書き込まれた前記編集映像又は前記収録映像を映像表示手段に出力するバッファ出力手段と、
をさらに備えることを特徴とする請求項2に記載のノンリニア編集装置。
An input buffer for storing recorded video input from the video processing device;
An output buffer for storing either the edited video edited by the video editing means for editing the same video as the reproduced video or the recorded video;
When the elapsed time is between the playback start point and the calculated recording start point, it is determined as the first section, and when the elapsed time is between the recording start point and the calculated recording end point, the second section Section determining means for determining the third section when the elapsed time is between the recording end point and a predetermined stop point;
Buffer control means for writing the edited video to the output buffer in the first zone or the third zone, and reading the video recorded in the input buffer and writing to the output buffer in the second zone;
Buffer output means for outputting the edited video or recorded video written in the output buffer to video display means;
The nonlinear editing apparatus according to claim 2, further comprising:
JP2009261513A 2009-11-17 2009-11-17 Non-linear editing device Active JP5517194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009261513A JP5517194B2 (en) 2009-11-17 2009-11-17 Non-linear editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009261513A JP5517194B2 (en) 2009-11-17 2009-11-17 Non-linear editing device

Publications (2)

Publication Number Publication Date
JP2011108317A true JP2011108317A (en) 2011-06-02
JP5517194B2 JP5517194B2 (en) 2014-06-11

Family

ID=44231612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009261513A Active JP5517194B2 (en) 2009-11-17 2009-11-17 Non-linear editing device

Country Status (1)

Country Link
JP (1) JP5517194B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149503A (en) * 1998-11-10 2000-05-30 Sony Corp Reproducing apparatus, editing apparatus, method for controlling reproducing apparatus and method for controlling editing apparatus
JP2000308000A (en) * 1999-04-16 2000-11-02 Sony Corp Editor, data recording and reproducing device and editing information preparing method
WO2001056280A1 (en) * 2000-01-25 2001-08-02 Sony Corporation Av data recording/reproducing apparatus, av data recording/reproducing method, and recorded medium
JP2006351143A (en) * 2005-06-20 2006-12-28 Victor Co Of Japan Ltd Recorder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149503A (en) * 1998-11-10 2000-05-30 Sony Corp Reproducing apparatus, editing apparatus, method for controlling reproducing apparatus and method for controlling editing apparatus
JP2000308000A (en) * 1999-04-16 2000-11-02 Sony Corp Editor, data recording and reproducing device and editing information preparing method
WO2001056280A1 (en) * 2000-01-25 2001-08-02 Sony Corporation Av data recording/reproducing apparatus, av data recording/reproducing method, and recorded medium
JP2006351143A (en) * 2005-06-20 2006-12-28 Victor Co Of Japan Ltd Recorder

Also Published As

Publication number Publication date
JP5517194B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
US20060056800A1 (en) Data recording apparatus
US7734660B2 (en) Data processing device
JP2006303652A (en) Information recording and reproducing system, apparatus, and method
JP4906344B2 (en) Audio / video recording apparatus, recording method, reproducing apparatus, and reproducing method
JPWO2005015907A1 (en) Data processing device
US6714721B2 (en) Changing a playback speed for video presentation recorded in a non-progressive frame structure format
JP2006073173A (en) Information recording and reproducing device and method
JP2008521317A (en) Method and apparatus for frame-by-frame editing of audio / video streams
JP2007323711A (en) Reproducing device, method, and program
TW579652B (en) Changing a playback speed for video presentation recorded in a field structure format
JP5517194B2 (en) Non-linear editing device
JP2006086612A (en) Information processor and information processing method, recording medium, and program
JP2008085626A (en) Output processing apparatus, and its controlling method
JP4348920B2 (en) Information processing apparatus and method, program, and recording medium
JP2006270805A (en) Simple video image editing method and electronic equipment having the same
JP2006049988A (en) Digital data recording and reproducing device
JP6049410B2 (en) Image processing apparatus and image processing method
JP2005236950A (en) Video recording and reproducing device
JP2010239400A (en) Sending out server, video server, video server system, material management method and material management program
JP2005057657A (en) Image processor
JP6380695B1 (en) Processing device, playback device, processing method, playback method, and program
JP4772742B2 (en) Image reproducing apparatus, image reproducing method, and program recording medium
JP2007243414A (en) Recorder
JP2007012193A (en) Recording/reproducing device and method
JP2003032628A (en) Record device and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140326

R150 Certificate of patent or registration of utility model

Ref document number: 5517194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250