JPH11185376A - Editing device - Google Patents

Editing device

Info

Publication number
JPH11185376A
JPH11185376A JP34833397A JP34833397A JPH11185376A JP H11185376 A JPH11185376 A JP H11185376A JP 34833397 A JP34833397 A JP 34833397A JP 34833397 A JP34833397 A JP 34833397A JP H11185376 A JPH11185376 A JP H11185376A
Authority
JP
Japan
Prior art keywords
audio
video
time
clip
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34833397A
Other languages
Japanese (ja)
Inventor
Hiroyuki Toyama
裕行 外山
Shingo Kawabe
信吾 河辺
Shigeru Omori
茂 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34833397A priority Critical patent/JPH11185376A/en
Publication of JPH11185376A publication Critical patent/JPH11185376A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve efficiency in editing work even when first, second audio material each other are overlapped on a time base at an editing data forming time by forming the editing data reflecting its setting even at a cross-fade time when levels of respective audio material are set with external operation. SOLUTION: At an editing list forming time, a fader setting fader track is displayed on a main screen 30 answering to an audio track, and when frames each other of respective clips displayed on the editing list 35 are provided with an overlapped part in a time code on a time scale 35A, an audio level of a rubber band set at every clip in the overlapped part is reflected to even at a cross-fade processing time. Thus, time matter that the audio level set related to respective clips in the overlapped part is injured is prevented, and the complication of the editing work so as to perform level adjustment in the overlapped part by manual operation of an operator is evaded.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【目次】以下の順序で本発明を説明する。[Table of Contents] The present invention will be described in the following order.

【0002】発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 (1)本実施の形態による編集装置の構成(図1) (2)主制御部の構成(図2) (3)メイン画面におけるCPUの処理(図3〜図2
5) (4)クロスフエードデータ生成設定処理手順(図2
6) (5)本実施の形態の動作及び効果 (6)他の実施の形態 発明の効果
BACKGROUND OF THE INVENTION Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (1) Configuration of Editing Apparatus According to this Embodiment (FIG. 1) (2) Mainly Configuration of Control Unit (FIG. 2) (3) Processing of CPU on Main Screen (FIGS. 3 and 2)
5) (4) Cross-fade data generation setting processing procedure (FIG. 2)
6) (5) Operation and effects of the present embodiment (6) Other embodiments Effects of the present invention

【0003】[0003]

【発明の属する技術分野】本発明は編集装置に関し、特
に複数種類の記録媒体に記録された映像及び又は音声素
材に基づいて編集リストを作成し得るようになされた編
集装置に適用して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an editing apparatus, and more particularly to an editing apparatus suitable for applying to an editing apparatus capable of creating an edit list based on video and / or audio materials recorded on a plurality of types of recording media. Things.

【0004】[0004]

【従来の技術】従来、映像音声信号を編集する場合、ま
ず映像音声信号に基づく映像及び音声をデイスプレイに
表示させ、かつスピーカから出力させながら、オペレー
タがこの音声を確認しながら所望部分を複数箇所に亘つ
て指定した後、これら指定した映像音声同士をどの順番
でどのように繋ぎ合わせるかといつた編集順序を規定し
た編集リストを作成する。
2. Description of the Related Art Conventionally, when a video / audio signal is edited, first, an image and a voice based on the video / audio signal are displayed on a display and output from a speaker, and an operator confirms the voice and places a desired portion in a plurality of places. After that, an editing list is created which defines the editing order in which order and how to connect these specified video and audio.

【0005】この編集リストの作成時にクリツプ同士が
時間的に重複した場合、当該各クリツプの重複部分はク
ロスフエード処理の対象となり、このとき時間的に先行
するクリツプの重複部分をフエードアウトさせると共に
時間的に後行するクリツプの重複部分をフエードインさ
せる処理(以下、これをクロスフエード処理と呼ぶ)を
行うようになされていた。
If the clips overlap in time when the editing list is created, the overlapping portion of each clip is subjected to crossfading processing, and at this time, the overlapping portion of the clip that precedes in time is faded out and the time is reduced. A process for fading in a subsequent overlapping portion of a clip (hereinafter, this process is referred to as a crossfading process) has been performed.

【0006】次いでこの編集リストに基づいて編集処理
を行い、かくして得られた編集映像及び編集音声のう
ち、編集音声に付してミキシング処理を施して所望の編
集音声を得ていた。
Next, an editing process is performed on the basis of the edit list, and a desired editing sound is obtained by performing a mixing process on the editing sound among the editing video and the editing sound thus obtained.

【0007】[0007]

【発明が解決しようとする課題】ところでかかる編集リ
ストの作成時において、画面表示されたオーデイオトラ
ツク上にクリツプに相当する枠を形成しておき、当該ク
リツプの枠内における時間軸の所望の時点で音声レベル
を自由に調整し得るような編集リスト作成方法が提案さ
れている。この編集リスト作成方法によれば上述したク
ロスフエード処理の対象となるクリツプの枠同士の重複
部分においてもオペレータが所望する時点には所望の音
声レベルが設定されている。
At the time of creating such an edit list, a frame corresponding to a clip is formed on the audio track displayed on the screen, and at a desired time on the time axis within the frame of the clip. There has been proposed an editing list creating method that can freely adjust the audio level. According to this editing list creation method, a desired audio level is set at the time point desired by the operator even in the overlapping portion between the clip frames to be subjected to the crossfading process.

【0008】しかしながら従来のクロスフエード処理で
は、時間的に重複するクリツプの枠同士を単純にフエー
ドアウト及びフエードインすることから、上述のような
編集リスト作成方法を用いて設定した音声レベルがクロ
スフエード処理期間では反映されなくなるという問題が
ある。
However, in the conventional crossfade processing, the frames of clips overlapping in time are simply faded out and faded in. Therefore, the audio level set by using the above-described editing list creation method is reflected in the crossfade processing period. There is a problem that will not be.

【0009】かかる問題を解決するには、クロスフエー
ド処理対象となるクリツプの枠内の所望の時点における
音声レベルをオペレータの操作に応じて手動的に調整す
る方法が考えられる。ところがこの方法では、クロスフ
エード処理期間内の所望の時点における音声レベルの調
整はフエードアウト又はフエードインしながら行うこと
から、オペレータは所望の時点における音声レベルの調
整を何度も繰り返しながら所望のレベルに近づける必要
があり、この結果、編集作業が煩雑になるという問題が
あつた。
In order to solve such a problem, a method of manually adjusting the audio level at a desired point in time in the frame of the clip to be subjected to the crossfading process according to the operation of the operator is conceivable. However, in this method, since the adjustment of the sound level at a desired point in the cross-fade processing period is performed while fading out or in, the operator needs to repeatedly adjust the sound level at the desired point in time to approach the desired level. As a result, there is a problem that the editing work becomes complicated.

【0010】さらにクロスフエード処理対象となるクリ
ツプの枠の重複部分でフエードアウト及びフエードイン
が実際に行われているか否かをオペレータが十分に聞き
分けることが困難となるおそれがあつた。
Further, there is a possibility that it may be difficult for the operator to sufficiently distinguish whether or not the fade-out and the fade-in are actually performed in the overlapping portion of the clip frame to be cross-fade processed.

【0011】本発明は以上の点を考慮してなされたもの
で、編集作業の効率を格段と向上し得る編集装置を提案
しようとするものである。
The present invention has been made in view of the above points, and an object of the present invention is to propose an editing apparatus capable of significantly improving the efficiency of editing work.

【0012】[0012]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、外部操作に応じて第1及び第2の
音声素材を繋ぎ合わせた編集音声を得るための編集内容
を規定した編集データを作成する編集装置において、外
部操作により各音声素材のレベルが設定されたときに、
クロスフエード時にも当該設定を反映させた編集データ
を作成する編集データ作成手段を設けるようにした。
According to the present invention, there is provided an editing system for editing data which defines editing contents for obtaining an editing audio in which first and second audio materials are connected in accordance with an external operation. When the level of each audio material is set by external operation in the editing device that creates
An edit data creating means for creating edit data reflecting the setting also at the time of crossfading is provided.

【0013】この結果、編集データ作成時に第1及び第
2の音声素材同士が時間軸で重複する場合であつても、
当該重複部分で第1及び第2の音声素材を所望の時点毎
に設定されたレベルを保持したままフエードアウト又は
フエードインすることができ、かくして当該重複部分に
おけるレベル調整をオペレータの手動によつて行うとい
つた編集作業の煩雑さを回避することができる。
As a result, even when the first and second audio materials overlap each other on the time axis when the edited data is created,
The first and second audio materials can be faded out or faded in while maintaining the level set at each desired point in the overlapping portion. Thus, when the level adjustment in the overlapping portion is manually performed by the operator, The complicated editing work can be avoided.

【0014】[0014]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0015】(1)本実施の形態による編集装置の構成 図1において、1は全体として本実施の形態による編集
装置を示し、ビデオテープに記録された映像音声の所望
部分をクリツプとして登録し得る一方、このとき又は予
め登録されたクリツプのなかから所望のクリツプの映像
信号及び音声信号をハードデイスク装置2に取り込み得
るようになされている。
(1) Configuration of Editing Apparatus According to the Present Embodiment In FIG. 1, reference numeral 1 denotes an editing apparatus according to the present embodiment as a whole, and a desired portion of video and audio recorded on a video tape can be registered as a clip. On the other hand, a video signal and an audio signal of a desired clip can be taken into the hard disk device 2 at this time or from clips registered in advance.

【0016】またこの編集装置1では、登録された各ク
リツプを所望状態に繋ぎ合わせて所望の編集映像音声を
得るための編集内容を規定した編集データを作成でき、
さらにこの作成した編集データに従つて実際に編集処理
を実行し、得られた編集映像及び編集音声をビデオテー
プに記録することができるようになされている。
Further, in the editing apparatus 1, it is possible to create editing data defining editing contents for obtaining a desired editing video and audio by connecting the registered clips to a desired state.
Further, an editing process is actually executed in accordance with the created editing data, and the obtained edited video and edited audio can be recorded on a video tape.

【0017】すなわちこの編集装置1においては、主制
御部3、システム制御部4、映像入力部5、映像出力部
6、デイジタル映像音声入出力部7、映像特殊効果処理
部8、音声入出力/ミキサ部9及びデイスク制御部10
がコントロールバス11を介して接続されることにより
構成されている。
That is, in the editing apparatus 1, the main control unit 3, the system control unit 4, the video input unit 5, the video output unit 6, the digital video / audio input / output unit 7, the video special effect processing unit 8, the audio input / output Mixer unit 9 and disk control unit 10
Are connected via the control bus 11.

【0018】この場合主制御部3は、初期時、デイスプ
レイ12に所定の操作画面(以下、これをメイン画面と
呼ぶ)を表示させる。また主制御部3は、この状態にお
いてマウス13が操作されることにより、クリツプ登録
モードが選択され、当該編集装置1に接続された複数台
のビデオテープレコーダ14A〜14Dのなかから1台
のビデオテープレコーダ14A〜14Dの再生動作命令
が入力されると、これに応じた制御コマンドC1をシス
テム制御部4に送出する。
In this case, the main controller 3 causes the display 12 to display a predetermined operation screen (hereinafter referred to as a main screen) at an initial stage. In this state, when the mouse 13 is operated in this state, the clip registration mode is selected, and one video tape recorder 14 </ b> A to 14 </ b> D connected to the editing apparatus 1 selects one video tape recorder. When a playback operation command for the tape recorders 14A to 14D is input, a control command C1 corresponding to the command is sent to the system control unit 4.

【0019】システム制御部4は、供給される制御コマ
ンドC1に基づいて、対応するビデオテープレコーダ1
4A〜14Dに制御信号S1を送出することにより、ビ
デオテープに記録された映像信号及び音声信号の再生動
作を実行させる。
The system controller 4 controls the corresponding video tape recorder 1 based on the supplied control command C1.
By transmitting the control signal S1 to 4A to 14D, the reproducing operation of the video signal and the audio signal recorded on the video tape is executed.

【0020】この結果このビデオテープレコーダ14A
〜14Dからはアナログ映像信号S2及びアナログ音声
信号S3と、デイジタル映像信号S4及びデイジタル音
声信号S5とが出力され、アナログ映像信号S2及びア
ナログ音声信号S3がそれぞれ映像入力部5又は音声入
出力/ミキサ部9に与えられ、デイジタル映像信号S4
及びデイジタル音声信号S5がデイジタル映像音声入出
力部7に与えられる。このときシステム制御部4は、コ
ントロールバス11を介して映像入力部5及び音声入出
力/ミキサ部9と、デイジタル映像音声入出力部7との
うちのいずれか一方を制御することにより、ビデオテー
プレコーダ14A〜14Dから出力されたアナログ映像
信号S2及びアナログ音声信号S3と、デイジタル映像
信号S4及びデイジタル音声信号S5とのうちのいずれ
か一方のみを取り込ませる。
As a result, the video tape recorder 14A
14D output an analog video signal S2 and an analog audio signal S3, and a digital video signal S4 and a digital audio signal S5. The analog video signal S2 and the analog audio signal S3 are output from the video input unit 5 or the audio input / output / mixer, respectively. Digital video signal S4
And the digital audio signal S5 is supplied to the digital video / audio input / output unit 7. At this time, the system control unit 4 controls one of the video input unit 5 and the audio input / output / mixer unit 9 and the digital video / audio input / output unit 7 via the control bus 11 so that the video tape Only one of the analog video signal S2 and the analog audio signal S3 output from the recorders 14A to 14D and the digital video signal S4 and the digital audio signal S5 are fetched.

【0021】かくして映像入力部5を介してアナログ映
像信号S2が取り込まれた場合には、これが映像入力部
5においてデイジタル変換された後デイジタル映像信号
S6として映像特殊効果処理部8に与えられ、デイジタ
ル映像音声入出力部7を介してデイジタル映像信号S4
が取り込まれた場合には、これがそのまま映像特殊効果
処理部8に与えられる。
When the analog video signal S2 is taken in via the video input unit 5, the digital video signal is digitally converted by the video input unit 5 and then given to the video special effect processing unit 8 as a digital video signal S6. Digital video signal S4 via the video / audio input / output unit 7
Is input to the video special effect processing unit 8 as it is.

【0022】このとき映像特殊効果処理部8は、システ
ム制御部4の制御のもとに、映像入力部5又はデイジタ
ル映像音声入出力部7から供給されるデイジタル映像信
号S6、S4を主制御部3に送出する。かくしてこのと
きデイスプレイ12には、主制御部4の制御のもとにデ
イジタル映像信号S6、S4に基づく映像がメイン画面
上の所定位置に表示される。
At this time, under the control of the system control section 4, the video special effect processing section 8 converts the digital video signals S6 and S4 supplied from the video input section 5 or the digital video / audio input / output section 7 into the main control section. 3 Thus, at this time, an image based on the digital image signals S6 and S4 is displayed at a predetermined position on the main screen under the control of the main controller 4 at this time.

【0023】またこのときアナログ音声信号S3が取り
込まれた場合には、これがそのまま音声入出力/ミキサ
部9から図示しないスピーカに送出され、またデイジタ
ル音声信号S5が取り込まれた場合には、これが音声入
出力/ミキサ部9においてアナログ変換された後、スピ
ーカに送出される。
At this time, if the analog audio signal S3 is captured, the analog audio signal S3 is directly transmitted from the audio input / output / mixer unit 9 to a speaker (not shown). If the digital audio signal S5 is captured, the analog audio signal S3 is transmitted. After being converted into an analog signal by the input / output / mixer unit 9, the signal is sent to a speaker.

【0024】これによりこの編集装置1では、デイスプ
レイ12に表示された映像及びスピーカから出力される
音声に基づいて、オペレータがマウス13及びキーボー
ド15を用いて映像及び音声の所望部分を指定すること
ができ、さらにこれをクリツプとしてそのイン点及びア
ウト点のタイムコードや素材長(デユレーシヨン)等の
関連データを主制御部3内に登録することができるよう
になされている。
Thus, in the editing apparatus 1, the operator can specify a desired portion of the video and audio using the mouse 13 and the keyboard 15 based on the video displayed on the display 12 and the audio output from the speaker. Using this as a clip, related data such as the time code of the in point and the out point and the material length (duration) can be registered in the main control unit 3.

【0025】このとき主制御部3は、予め取込みモード
が選択されている場合には、これに応じた制御コマンド
C1をシステム制御部4に送出する。
At this time, if the capture mode has been selected in advance, the main control unit 3 sends a control command C1 corresponding to this to the system control unit 4.

【0026】システム制御部4は、供給される制御コマ
ンドC1に基づいて、対応するビデオテープレコーダ1
4A〜14Dに制御信号S1を送出することにより、指
定されたクリツプの映像音声を当該ビデオテープレコー
ダ14A〜14Dに再生させる一方、映像入力部5及び
音声入出力/ミキサ部9と、デイジタル映像音声入出力
部7とのいずれか一方をコントロールバス11を介して
制御することにより、ビデオテープレコーダ14A〜1
4Dから出力されるアナログ映像信号S2及びアナログ
音声信号S3と、デイジタル映像信号S4及びデイジタ
ル音声信号S5とのうちのいずれか一方を取り込ませ
る。
The system controller 4 controls the corresponding video tape recorder 1 based on the supplied control command C1.
By transmitting a control signal S1 to the video tape recorders 14A to 14D by transmitting the control signal S1 to the video tape recorders 14A to 14D, the video input unit 5, the audio input / output / mixer unit 9, and the digital video / audio By controlling either one of the input / output units 7 via the control bus 11, the video tape recorders 14A to 14A
One of the analog video signal S2 and the analog audio signal S3 output from the 4D and the digital video signal S4 and the digital audio signal S5 are fetched.

【0027】この結果映像入力部5を介してアナログ映
像信号S2が取り込まれた場合には、これが映像入力部
5においてデイジタル変換された後デイジタル映像信号
S6として映像特殊効果処理部8を介してデイスク制御
部10に送出され、デイジタル映像音声入出力部7を介
してデイジタル映像信号S4が取り込まれた場合には、
これがそのままデイスク制御部10に送出される。
As a result, when the analog video signal S2 is captured via the video input unit 5, the analog video signal S2 is digitally converted by the video input unit 5 and then converted into a digital video signal S6 via the video special effect processing unit 8. When the digital video signal S4 is transmitted to the control unit 10 and fetched via the digital video / audio input / output unit 7,
This is sent to the disk control unit 10 as it is.

【0028】またこのとき音声入出力/ミキサ部9を介
してアナログ音声信号S3が取り込まれた場合には、こ
れが音声入出力/ミキサ部9においてデイジタル変換さ
れた後デイジタル音声信号S7としてデイスク制御部1
0に送出され、デイジタル映像音声入出力部9を介して
デイジタル音声信号S5が取り込まれた場合には、これ
が直接デイスク制御部10に送出される。
At this time, when the analog audio signal S3 is taken in through the audio input / output / mixer unit 9, the analog audio signal S3 is digitally converted in the audio input / output / mixer unit 9 and then converted into a digital audio signal S7. 1
0, and when the digital audio signal S5 is taken in via the digital video / audio input / output unit 9, this is sent directly to the disk control unit 10.

【0029】そしてデイスク制御部10は、このときシ
ステム制御部4からコントロールバス11を介して与え
られるコマンドに基づいて、映像特殊効果処理部8又は
デイジタル映像音声入出力部7から与えられるデイジタ
ル映像信号S6、S4と、音声入出力/ミキサ部9又は
デイジタル映像音声入出力部7から与えられるデイジタ
ル音声信号S7、S5とを順次取り込み、これらをハー
ドデイスク装置2に与えてハードデイスクの指定された
アドレス位置に記録させる。
At this time, based on a command given from the system control unit 4 via the control bus 11, the disk control unit 10 provides a digital video signal provided from the video special effect processing unit 8 or the digital video / audio input / output unit 7. S6, S4 and digital audio signals S7, S5 provided from the audio input / output / mixer unit 9 or the digital video / audio input / output unit 7 are sequentially fetched, and these are supplied to the hard disk device 2 to be located at the designated address positions of the hard disk. Record.

【0030】このようにしてこの編集装置1において
は、指定されたクリツプの映像音声をビデオテープから
再生してハードデイスク装置2に取り込むことができる
ようになされている。
As described above, in the editing apparatus 1, the video and audio of the designated clip can be reproduced from the video tape and taken into the hard disk device 2.

【0031】一方主制御部3は、上述のようにしてクリ
ツプが登録されると、デイスプレイ12に表示されてい
るメイン画面内に、登録されたクリツプのリストを表示
させる。
On the other hand, when the clip is registered as described above, the main controller 3 displays a list of the registered clips on the main screen displayed on the display 12.

【0032】そしてオペレータは、このメイン画面を用
いてどのクリツプとどのクリツプとをどのように繋ぎ合
わせるかといつた編集内容を規定した編集データを編集
リストとして作成することができる。またオペレータ
は、編集リストの作成後又は作成途中において、その編
集リストに基づく編集映像及び編集音声を確認すること
ができる。
Using this main screen, the operator can create edit data defining edit contents such as which clips are to be connected to which clips and how. Also, the operator can check the edited video and the edited audio based on the edit list after or during the creation of the edit list.

【0033】実際上、主制御部3は、編集リストの作成
後又は作成途中において、その編集リストに基づく編集
映像音声のプレビユーモードが選択されると、これに応
じた制御コマンドC1をシステム制御部4に送出する。
Actually, when the preview mode of the edited video / audio based on the edit list is selected after or during the creation of the edit list, the main control unit 3 controls the control command C1 in accordance with the selected mode. Send it to unit 4.

【0034】システム制御部4は、供給される制御コマ
ンドC1に基づいて、必要に応じて対応するビデオテー
プレコーダ14A〜14Dに制御信号S1を送出するこ
とにより当該ビデオテープレコーダ14A〜14Dに編
集処理に利用するクリツプの映像音声を再生させる一
方、必要に応じてコントロールバス11を介してデイス
ク制御部10を制御することにより、編集処理に利用す
るクリツプの映像音声をハードデイスク装置2から再生
させる。
The system control unit 4 sends a control signal S1 to the corresponding video tape recorders 14A to 14D as necessary based on the supplied control command C1, thereby performing editing processing on the video tape recorders 14A to 14D. The hard disk device 2 reproduces the video and audio of the clip used for the editing process by controlling the disk control unit 10 via the control bus 11 as necessary, while reproducing the video and audio of the clip used for the editing.

【0035】この結果このビデオテープレコーダ14A
〜14Dからは指定されたクリツプのアナログ映像信号
S2及びアナログ音声信号S3と、デイジタル映像信号
S4及びデイジタル音声信号S5とが出力され、アナロ
グ映像信号S2及びアナログ音声信号S3がそれぞれ映
像入力部5又は音声入出力/ミキサ部9に与えられ、デ
イジタル映像信号S4及びデイジタル音声信号S5がデ
イジタル映像音声入出力部7に与えられる。
As a result, the video tape recorder 14A
14D output an analog video signal S2 and an analog audio signal S3 of a designated clip, and a digital video signal S4 and a digital audio signal S5. The analog video signal S2 and the analog audio signal S3 are output from the video input unit 5 or The digital video signal S4 and the digital audio signal S5 are supplied to the audio input / output / mixer unit 9, and are supplied to the digital video / audio input / output unit 7.

【0036】このときシステム制御部4は、コントロー
ルバス11を介して映像入力部5及び音声入出力/ミキ
サ部9と、デイジタル映像音声入出力部7とのうちのい
ずれか一方を制御することにより、ビデオテープレコー
ダ14A〜14Dから出力されたアナログ映像信号S2
及びアナログ音声信号S3と、デイジタル映像信号S4
及びデイジタル音声信号S5とのうちのいずれか一方の
みを取り込ませる。
At this time, the system control unit 4 controls one of the video input unit 5, the audio input / output / mixer unit 9 and the digital video / audio input / output unit 7 via the control bus 11 to control , Analog video signal S2 output from video tape recorders 14A to 14D
And an analog audio signal S3 and a digital video signal S4
And the digital audio signal S5.

【0037】かくして映像入力部5を介してアナログ映
像信号S2が取り込まれた場合には、これが映像入力部
5においてデイジタル変換された後デイジタル映像信号
S6として映像特殊効果処理部8に与えられ、デイジタ
ル映像音声入出力部7を介してデイジタル映像信号S4
が取り込まれた場合には、これがそのまま映像特殊効果
処理部8に与えられる。
When the analog video signal S2 is taken in through the video input unit 5 in this way, it is digitally converted in the video input unit 5 and then given to the video special effect processing unit 8 as a digital video signal S6. Digital video signal S4 via the video / audio input / output unit 7
Is input to the video special effect processing unit 8 as it is.

【0038】このとき映像特殊効果処理部8は、システ
ム制御部4の制御のもとに、供給される各クリツプのデ
イジタル映像信号S6、S4を必要に応じて指定された
状態に特殊効果加工処理する。また映像特殊効果処理部
8は、このとき主制御部4から必要に応じて与えられる
タイトル文字や各種グラツフイツク等の画像データを各
クリツプのデイジタル映像信号S6、S4間に挿入し、
又はデイジタル映像信号S6、S4に重畳し、かくして
得られたデイジタル編集映像信号S8を映像出力部6に
送出する。
At this time, under the control of the system control section 4, the video special effect processing section 8 converts the supplied digital video signals S6 and S4 of the respective clips into specially designated processing states as required. I do. At this time, the video special effect processing section 8 inserts image data such as title characters and various graphics provided from the main control section 4 as necessary between the digital video signals S6 and S4 of each clip.
Alternatively, the digital edited video signal S8 is superimposed on the digital video signals S6 and S4, and the obtained digital edited video signal S8 is transmitted to the video output unit 6.

【0039】そして映像出力部6は、システム制御部4
の制御のもとに、供給されるデイジタル編集映像信号S
8をアナログ変換し、得られた編集映像信号S9をモニ
タ16に送出する。
The video output unit 6 is connected to the system control unit 4
Digital edit video signal S supplied under the control of
8 is converted to analog, and the obtained edited video signal S9 is sent to the monitor 16.

【0040】一方このときビデオテープレコーダ14A
〜14Dから出力されたアナログ音声信号S3及びデイ
ジタル音声信号S5のうち、音声入出力/ミキサ部9を
介してアナログ音声信号S3が取り込まれた場合には、
これが音声入出力/ミキサ部9において必要に応じてミ
キシング等の編集処理が施された後編集音声信号として
スピーカに送出され、デイジタル映像音声入出力部7を
介してデイジタル音声信号S5が取り込まれた場合に
は、これが音声入出力/ミキサ部9においてアナログ変
換され、ミキシング等の編集処理が施された後、編集音
声信号としてスピーカに送出される。
On the other hand, at this time, the video tape recorder 14A
When the analog audio signal S3 of the analog audio signal S3 and the digital audio signal S5 output from .about.14D is captured via the audio input / output / mixer unit 9,
This is subjected to editing processing such as mixing as necessary in the audio input / output / mixer section 9 and then sent to the speaker as an edited audio signal, and the digital audio signal S5 is taken in via the digital video / audio input / output section 7. In this case, this is converted into an analog signal in the audio input / output / mixer unit 9 and subjected to editing processing such as mixing, and then transmitted to a speaker as an edited audio signal.

【0041】この結果この編集装置1においては、モニ
タ16に編集映像信号S9に基づく編集映像が表示され
ると共にスピーカから編集音声信号に基づく編集音声が
出力され、かくしてオペレータが編集リストに基づく編
集映像及び編集音声を確認することができるようになさ
れている。
As a result, in the editing apparatus 1, the edited video based on the edited video signal S9 is displayed on the monitor 16 and the edited audio based on the edited audio signal is output from the speaker. And edit audio can be confirmed.

【0042】さらに主制御部3は、編集リストが作成さ
れた後、マウス13又はキーボード15が操作されてそ
の実行命令が入力されると、これに応じた制御コマンド
C1をシステム制御部4に送出する。
Further, after the editing list is created, when the mouse 13 or the keyboard 15 is operated and an execution command is input, the main control unit 3 sends a control command C1 corresponding to the command to the system control unit 4. I do.

【0043】システム制御部4は、供給される制御コマ
ンドC1に基づいて、必要に応じて対応するビデオテー
プレコーダ14A〜14Dに制御信号S1を送出するこ
とにより当該ビデオテープレコーダ14A〜14Dに編
集処理に利用するクリツプの映像音声を再生させる一
方、必要に応じてコントロールバス11を介してデイス
ク制御部10を制御することにより、ハードデイスク装
置2から編集処理に利用するクリツプの映像音声を再生
させる。
The system control section 4 sends a control signal S1 to the corresponding video tape recorders 14A to 14D as necessary based on the supplied control command C1 to edit the video tape recorders 14A to 14D. The audio / video of the clip used for the editing process is reproduced from the hard disk device 2 by controlling the disk control unit 10 via the control bus 11 as necessary, while reproducing the audio / video of the clip to be used.

【0044】この結果上述のプレビユーモード時と同様
にして、映像特殊効果処理部8には、ビデオテープレコ
ーダ14A〜14Dから映像入力部5若しくはデイジタ
ル映像音声入出力部7を経由して必要なクリツプのデイ
ジタル映像信号S6、S4が与えられ、又はハードデイ
スク装置2からデイスク制御部10を経由して必要なク
リツプのデイジタル映像信号S6、S4が与えられる。
As a result, in the same manner as in the above-described preview mode, the video special effect processing unit 8 needs the video tape recorders 14A to 14D via the video input unit 5 or the digital video / audio input / output unit 7. The digital video signals S6 and S4 of the clip are supplied, or the digital video signals S6 and S4 of the necessary clip are supplied from the hard disk device 2 via the disk control unit 10.

【0045】またこのとき音声入出力/ミキサ部9に
は、ビデオテープレコーダ14A〜14Dから直接若し
くはデイジタル映像音声入出力部7を経由して必要なク
リツプのアナログ音声信号S3若しくはデイジタル音声
信号S5が与えられ、又はハードデイスク装置2からデ
イスク制御部10を経由して必要なクリツプのデイジタ
ル音声信号S7、S5が与えられる。
At this time, the audio input / output / mixer unit 9 receives the necessary clip analog audio signal S3 or digital audio signal S5 directly from the video tape recorders 14A to 14D or via the digital video / audio input / output unit 7. The digital audio signals S7 and S5 of the necessary clips are supplied from the hard disk device 2 via the disk control unit 10.

【0046】そして映像特殊効果処理部8は、システム
制御部4の制御のもとに、上述のプレビユーモード時と
同様にして、供給される各クリツプのデイジタル映像信
号S6、S4を必要に応じて特殊効果加工処理し、かく
して得られた編集映像の映像信号でなるデイジタル編集
映像信号S8を映像出力部6に送出する。
Under the control of the system control unit 4, the video special effect processing unit 8 converts the supplied digital video signals S6 and S4 of each clip as necessary in the same manner as in the preview mode described above. Then, a digital edited video signal S8, which is a video signal of the edited video thus obtained, is sent to the video output unit 6.

【0047】このとき映像出力部6は、システム制御部
4の制御のもとに、供給されるデイジタル編集映像信号
S8をアナログ変換し、得られた編集映像信号S9を対
応するビデオテープレコーダ14A〜14Dに送出す
る。
At this time, under the control of the system control section 4, the video output section 6 converts the supplied digital edited video signal S8 into an analog signal and converts the obtained edited video signal S9 into the corresponding video tape recorders 14A to 14A. Send to 14D.

【0048】またこのとき音声入出力/ミキサ部9は、
システム制御部の制御のもとに、上述のプレビユーモー
ド時と同様にして、供給される各クリツプのアナログ音
声信号S2又はデイジタル音声信号S5、S7に対して
必要に応じてミキシング等の編集処理を施し、かくして
得られた編集音声信号S10を対応するビデオテープレ
コーダ14A〜14Dに送出する。
At this time, the audio input / output / mixer unit 9
Under the control of the system control unit, the analog audio signal S2 or the digital audio signals S5 and S7 of each clip to be supplied are edited as necessary in the same manner as in the preview mode. And sends the edited audio signal S10 thus obtained to the corresponding video tape recorders 14A to 14D.

【0049】そしてこのときこのビデオテープレコーダ
14A〜14Dには、システム制御部4から制御信号S
1が与えられており、かしくて当該ビデオテープレコー
ダ14A〜14Dは、この制御信号S1に基づいて、こ
れら映像出力部6から供給される編集映像信号S9と、
音声入出力/ミキサ部9から供給される編集音声信号S
10とをビデオテープの指定された位置に記録する。
At this time, the video tape recorders 14A to 14D receive control signals S from the system controller 4.
1 and thus the video tape recorders 14A to 14D generate an edited video signal S9 supplied from the video output unit 6 based on the control signal S1,
Edited audio signal S supplied from audio input / output / mixer unit 9
10 is recorded at the designated position on the video tape.

【0050】このようにしてこの編集装置1では、作成
された編集リストに従つて指定されたクリツプの映像音
声を指定された状態に編集加工してビデオテープに記録
することができるようになされている。
In this way, the editing apparatus 1 can edit the video and audio of the designated clip in accordance with the created editing list into the designated state and record it on the video tape. I have.

【0051】(2)主制御部の構成 ここで主制御部3は、図2に示すように、CPU(Cent
ral Processing Unit)20、ROM(Read Only Memor
y)21、RAM(Random Access Memory)22、表示
処理部23、タイトル/グラフイツク生成部24及びイ
ンターフエース回路25、26がCPUバス27を介し
て接続されることにより構成されており、各インターフ
エース回路25、26をそれぞれ介してマウス13及び
キーボード15と接続されている。
(2) Configuration of Main Control Unit Here, as shown in FIG.
ral Processing Unit) 20, ROM (Read Only Memor)
y) 21, a RAM (Random Access Memory) 22, a display processing unit 23, a title / graphics generation unit 24, and interface circuits 25 and 26 are connected via a CPU bus 27. The mouse 13 and the keyboard 15 are connected via circuits 25 and 26, respectively.

【0052】この場合CPU20は、例えばマウス13
やキーボード15が操作されることにより所定処理の実
行命令がインターフエース回路25、26を介して与え
られると、ROM21に格納されたプログラムに基づい
て、必要に応じてシステム制御部4に制御コマンドC1
を送出することにより、当該システム制御部4を介して
対応するビデオテープレコーダ14A〜14D、映像入
出力部5、映像出力部6、デイジタル映像音声入出力部
7、映像特殊効果処理部8、音声入出力/ミキサ部9及
び又はデイスク制御部10に所定動作を実行させ、かく
して編集装置1全体として上述したような各種処理を実
行させるようになされている。
In this case, the CPU 20
When an instruction to execute a predetermined process is given through the interface circuits 25 and 26 by operating the keyboard 15 or the keyboard 15, the control command C1 is sent to the system control unit 4 as necessary based on the program stored in the ROM 21.
, The corresponding video tape recorders 14A to 14D, the video input / output unit 5, the video output unit 6, the digital video / audio input / output unit 7, the video special effect processing unit 8, The input / output / mixer unit 9 and / or the disk control unit 10 execute a predetermined operation, and thus the editing apparatus 1 as a whole executes the various processes described above.

【0053】またこのときCPU20は、ROM21に
格納されたプログラムに基づいて、必要に応じてROM
21内の画像データを読み出し、これを表示処理部23
を介してデイスプレイ12に与えることにより、後述の
ようなメイン画面や各種ウインドを表示させる一方、マ
ウス操作に応動してメイン画面内を移動するカーソル
や、キーボード15を介して入力された数字や文字など
をデイスプレイ12に表示させ、かつ映像特殊効果処理
部8からタイトル/グラフイツク生成部24を介して表
示処理部23に与えられるデイジタル映像信号S6、S
4に基づく映像や静止画像をメイン画面内の所定位置に
表示させるようになされている。
At this time, based on the program stored in the ROM 21, the CPU 20
21 is read out and displayed on the display processing unit 23.
The main screen and various windows as described later are displayed on the display 12 while the cursor moves in the main screen in response to a mouse operation, and the numbers and characters input through the keyboard 15 Are displayed on the display 12, and the digital video signals S6 and S provided to the display processing unit 23 from the video special effect processing unit 8 via the title / graphics generation unit 24.
4 is displayed at a predetermined position in the main screen.

【0054】さらにCPU20は、ROM21に格納さ
れたプログラムに基づいて、必要時にはタイトル/グラ
フツク生成部24を制御してタイトル文字やグラフイツ
クの画像データを生成させてこれを映像特殊効果処理部
8に送出させ得るようになされている。
Further, based on the program stored in the ROM 21, the CPU 20 controls the title / graphics generating section 24 to generate title character and graphic image data, if necessary, and sends them to the video special effect processing section 8. It is made to be able to make it.

【0055】(3)メイン画面におけるCPUの処理 ここで実際上CPU20は、電源が投入された立ち上が
り時、ROM21に格納されているプログラムに基づい
て、まず図3に示すようなメイン画面30をデイスプレ
イに表示させる。
(3) Processing of CPU on Main Screen Here, when the power is turned on, the CPU 20 actually displays the main screen 30 as shown in FIG. To be displayed.

【0056】この場合このメイン画面30には、オペレ
ータが所望する処理内容を選択するための複数のボタン
31A〜31Qと、登録された各クリツプのリスト等を
表示するためのクリツプ情報表示部32と、編集リスト
作成時における各種処理を指定するための複数のボタン
33A〜33Tと、編集リストを作成するための編集リ
スト作成部35とが設けられている。
In this case, the main screen 30 has a plurality of buttons 31A to 31Q for the operator to select the desired processing content, a clip information display section 32 for displaying a list of registered clips, and the like. , A plurality of buttons 33A to 33T for designating various processes at the time of creating an edit list, and an edit list creating unit 35 for creating an edit list.

【0057】そしてCPU20は、このメイン画面30
がデイスプレイ12に表示された状態において、マウス
操作により画面上段のビデオクリツプエデイツトボタン
31Kが選択されると、図4のようなウインド(以下、
これをビデオクリツプエデイツトウインドと呼ぶ)40
をメイン画面30上に重ねて表示させる。
Then, the CPU 20 executes the main screen 30
Is displayed on the display 12, when the video clip edit button 31K at the top of the screen is selected by operating the mouse, the window shown in FIG.
This is called a video clip edit window.) 40
Is superimposed on the main screen 30 and displayed.

【0058】この場合ビデオクリツプエデイツトウイン
ド40では、左側上段に各ビデオテープレコーダ14A
〜14Dにそれぞれ対応させてソース選択ボタン41A
〜41Dが複数表示されており、マウス操作によりこれ
らソース選択ボタン41A〜41Dのうちのいずれかを
選択することにより所望の1台のビデオテープレコーダ
14A〜14Dを選択することができる。
In this case, in the video clip edit window 40, each video tape recorder 14A
Source selection button 41A corresponding to ~ 14D
A plurality of video tape recorders 14A to 14D can be selected by selecting one of these source selection buttons 41A to 41D by operating the mouse.

【0059】そしてCPU20は、いずれかのソース選
択ボタン14A〜14Dが選択された後、マウス操作に
よりビデオクリツプエデイツトウインド40内に表示さ
れたいずれかのビデオ操作用ボタン42A〜42Gが選
択されると、システム制御部4を介して対応するビデオ
テープレコーダ14A〜14Dを制御することにより当
該ビデオテープレコーダ14A〜14Dに選択されたビ
デオ操作用ボタン42A〜42Gに応じた動作を実行さ
せる。なおCPU20は、ビデオクリツプエデイツトウ
インド40内のスライダ43が操作されたときも、同様
にして対応するビデオテープレコーダ14A〜14Dに
指定された動作を実行させる。
After one of the source selection buttons 14A to 14D is selected, the CPU 20 selects one of the video operation buttons 42A to 42G displayed in the video clip edit window 40 by operating the mouse. Then, the corresponding video tape recorders 14A to 14D are controlled via the system control unit 4 to cause the video tape recorders 14A to 14D to execute the operations corresponding to the selected video operation buttons 42A to 42G. When the slider 43 in the video clip edit window 40 is operated, the CPU 20 similarly causes the corresponding video tape recorders 14A to 14D to execute the designated operation.

【0060】そしてこのときビデオテープレコーダ14
A〜14Dに再生動作や変速再生動作を実行させた場
合、当該ビデオテープレコーダ14A〜14Dによりビ
デオテープから再生された映像がこのビデオクリツプエ
デイツトウインド40内のライブ映像表示部44内に表
示される。
At this time, the video tape recorder 14
When the reproduction operation or the variable-speed reproduction operation is performed by the video tape recorders A to 14D, the video reproduced from the video tape by the video tape recorders 14A to 14D is displayed in the live video display section 44 in the video clip edit window 40. You.

【0061】かくしてオペレータは、このライブ映像表
示部44内に表示された映像を目視確認しながらイン点
指定用ボタン45又はアウト点指定用ボタン46をクリ
ツクすることによつてクリツプとして登録しようとする
映像部分のイン点及びアウト点を指定することができ、
このとき指定されたイン点及びアウト点の画像がそれぞ
れイン点画像表示部47又はアウト点画像表示部48内
に表示される。
Thus, the operator clicks the in-point designation button 45 or the out-point designation button 46 while visually checking the video displayed in the live video display section 44 to register it as a clip. You can specify the in point and out point of the video part,
At this time, the images of the designated in-point and out-point are displayed in the in-point image display unit 47 or the out-point image display unit 48, respectively.

【0062】またこのときイン点又はアウト点として指
定された各画像のビデオテープにおけるタイムコードが
それぞれイン点タイムコード表示部49又はアウト点タ
イムコード表示部50にそれぞれ表示され、指定された
クリツプの素材長(デユレーシヨン)がデユレーシヨン
表示部51に表示される。
At this time, the time code of each image specified as the in point or the out point on the video tape is displayed on the in point time code display section 49 or the out point time code display section 50, respectively. The material length (duration) is displayed on the duration display unit 51.

【0063】なおCPU20は、マウス操作によりビデ
オクリツプエデイツトウインド40内のコマ送りボタン
52A、52Bが選択されると、システム制御部4を介
して対応するビデオテープレコーダ14A〜14Dを制
御することにより、ライブ映像表示部44内に表示され
た映像を順方向又は逆方向にコマ送り表示させる一方、
ライブ映像移動ボタン53、54が選択されたときに
は、システム制御部4を介して対応するビデオテープレ
コーダ14A〜14Dを制御することにより、ライブ映
像表示部44内の表示画像をイン点又はアウト点まで移
動させる。
When the frame advance buttons 52A and 52B in the video clip edit window 40 are selected by operating the mouse, the CPU 20 controls the corresponding video tape recorders 14A to 14D via the system control unit 4. While the video displayed in the live video display unit 44 is displayed frame-by-frame forward or backward,
When the live video move buttons 53 and 54 are selected, the corresponding video tape recorders 14A to 14D are controlled via the system control unit 4 to move the display image in the live video display unit 44 to the in-point or out-point. Move.

【0064】そしてCPU20は、上述のようにしてク
リツプのイン点及びアウト点が指定された後、マウス操
作により登録ボタン55が選択されると、このときデイ
スプレイ12に表示させているそのクリツプのイン点及
びアウト点のタイムコードや、素材長及び記録位置(ビ
デオテープ又はハードデイスク装置2内)等の関連デー
タをデータベースとしてRAM22に取り込む一方、こ
のようにして登録されたクリツプのイン点及びアウト点
のタイムコードや素材長等の関連データをメイン画面3
0のクリツプ情報表示部32内に表示させる。
When the register button 55 is selected by operating the mouse after the in-point and out-point of the clip are specified as described above, the CPU 20 displays the in-point of the clip displayed on the display 12 at this time. The time code of the point and the out point, and related data such as the material length and the recording position (in the video tape or the hard disk device 2) are taken into the RAM 22 as a database, while the in and out points of the clips registered in this way are registered. Main screen 3 displays related data such as time code and material length
0 is displayed in the clip information display section 32.

【0065】またCPU20は、このとき例えばビデオ
クリツプエデイツトウインド40のモアボタン56を選
択することによつて開くことのできる図示しない設定画
面上でオペレータにより予め取込みモードが選択されて
いる場合には、システム制御部4を介して対応するビデ
オテープレコーダ14A、14Dと、映像入力部5及び
音声入出力/ミキサ部9又はデイジタル映像音声入出力
部7と、映像特殊効果処理部8と、デイスク制御部10
とを上述のように制御することにより、このクリツプの
映像音声を上述のようにしてハードデイスク装置2に取
り込ませる一方、そのクリツプの記録位置がハードデイ
スク装置2内であることを表すデータをデータベース内
の対応する位置に格納する(例えばフラグを立てる)。
At this time, if the operator has previously selected the capture mode on the setting screen (not shown) which can be opened by selecting the mower button 56 of the video clip edit window 40 at this time, Video tape recorders 14A and 14D, video input unit 5 and audio input / output / mixer unit 9 or digital video / audio input / output unit 7, video special effect processing unit 8, disk control unit 10
As described above, the video and audio of this clip are taken into the hard disk device 2 as described above, while the data indicating that the recording position of the clip is in the hard disk device 2 is stored in the database. It is stored in the corresponding position (for example, a flag is set).

【0066】なおこのときCPU20は、このクリツプ
の映像信号及び音声信号を指定された範囲(すなわち指
定されたイン点からアウト点まで)よりも前後所定期間
分(例えば2秒分)だけ余分にハードデイスク装置2に
取り込ませる。またこのときCPU20は、例えばオペ
レータにより上述の設定画面上で予めリンクモードが選
択されている場合には映像と音声をデータとしてリンク
させてハードデイスク装置2に取り込ませる一方、ノン
リンクモードが選択されている場合には映像と音声をデ
ータとしてリンクさせないでハードデイスク装置2に取
り込ませる。
At this time, the CPU 20 adds the video signal and the audio signal of the clip to the hard disk by a predetermined period (for example, 2 seconds) before and after the specified range (ie, from the specified IN point to the OUT point). It is taken into the device 2. At this time, for example, when the link mode is previously selected on the setting screen by the operator, the CPU 20 links the video and the audio as data and takes them into the hard disk device 2, while the non-link mode is selected. In this case, the video and audio are taken into the hard disk device 2 without being linked as data.

【0067】そしてCPU20は、この後マウス操作に
よりニユーエデイツトボタン57が選択されると、この
ビデオクリツプエデイツトウインド40を初期状態に戻
す。これによりオペレータは、この後上述と同様の手順
により他のクリツプを順次登録することができる。また
CPU20は、マウス操作によりクローズボタン58が
選択されると、当該ビテオクリツプエデイツトウインド
40を閉じさせる。
Then, when the new edit button 57 is selected by operating the mouse thereafter, the CPU 20 returns the video clip edit window 40 to the initial state. Thus, the operator can subsequently register other clips in the same procedure as described above. When the close button 58 is selected by operating the mouse, the CPU 20 closes the video clip edit window 40.

【0068】一方オペレータは、上述のようにしてメイ
ン画面30のクリツプ情報表示部32に登録されたクリ
ツプのリストが表示された状態(図5)において、この
メイン画面30の編集リスト作成部35を利用して以下
の方法により編集リストを作成することができる。
On the other hand, while the list of registered clips is displayed in the clip information display section 32 of the main screen 30 as described above (FIG. 5), the operator operates the edit list creation section 35 of the main screen 30. An edit list can be created using the following method.

【0069】すなわち、まずマウス操作によりクリツプ
情報表示部32内の所望のクリツプの段にカーソルを合
わせた後、マウス13のボタンを押下するようにして1
つのクリツプを指定し、その状態のままカーソルを、編
集リスト作成部35のタイムスケール35Aを指標とし
て、第1又は第2のビデオトラツク35C、35E内の
所望位置に移動させた後、マウス13のボタンを放すよ
うにする。
That is, the cursor is first moved to a desired clip in the clip information display section 32 by operating the mouse, and then the button of the mouse 13 is depressed.
After specifying one clip and moving the cursor to a desired position in the first or second video track 35C or 35E using the time scale 35A of the edit list creation unit 35 as an index, the mouse 13 Release the button.

【0070】この結果CPU20は、この第1又は第2
のビデオトラツク35C、35E内に、図6に示すよう
に、そのときのカーソルの位置を先頭して、上述のよう
にして指定されたクリツプの素材長に応じた長さの枠6
0A〜60Dを表示させる。またCPU20は、このと
きそのクリツプの映像と音声がリンクされて登録されて
いる場合には、その枠60A〜60Dが表示された第1
又は第2のビデオトラツク35C、35Dと対応する第
1又は第2のオーデイオトラツク35G、35H内に第
1又は第2のビデオトラツク35C、35E内に表示さ
れた枠60A〜60Dとタイムスケール35A上で同じ
位置に同じ長さの枠61A〜61Dを表示させる。
As a result, the CPU 20 sets the first or the second
As shown in FIG. 6, the position of the cursor at that time is first placed in the video tracks 35C and 35E, and a frame 6 having a length corresponding to the material length of the clip designated as described above.
0A to 60D are displayed. At this time, if the video and audio of the clip are linked and registered, the CPU 20 displays the first frame on which the frames 60A to 60D are displayed.
Alternatively, the frames 60A to 60D and the time scale 35A displayed in the first or second video tracks 35C and 35E in the first or second audio tracks 35G and 35H corresponding to the second video tracks 35C and 35D. To display frames 61A to 61D of the same length at the same position.

【0071】そしてオペレータは、上述のような操作を
繰り返し行い、タイムスケール35Aの始めのタイムコ
ード(「00:00.00:00 」)から所望するタイムコードま
で(すなわち所望する時間分だけ)タイムスケール35
A上において連続するように、第1又は第2のビデオト
ラツク35C、35Eと、第1又は第2のオーデイオト
ラツク35G、35Hに順次枠60A〜60D、61A
〜61Dを表示させる。
Then, the operator repeats the above-described operation, and from the start time code (“00: 00.00: 00”) of the time scale 35A to the desired time code (that is, by the desired time),
The frames 60A to 60D and 61A are sequentially arranged on the first or second video tracks 35C and 35E and the first or second audio tracks 35G and 35H so as to be continuous on A.
To 61D.

【0072】ここでこのように編集リスト表示部35の
第1又は第2のビデオトラツク35C、35Eや、第1
又は第2のオーデイオトラツク35G、35Hに枠60
A〜60D、61A〜61Dが表示されることは、編集
映像音声の表示時にタイムスケール35Aで表された時
間にその枠60A〜60D、61A〜61Dに対応する
クリツプの映像が表示され、又は音声が出力されること
を意味する。従つてこのような操作により編集映像とし
て順次表示され、又は編集音声として順次出力されるク
リツプ映像又は音声を決定してなる編集リストを作成す
ることができる。
Here, the first or second video track 35C, 35E of the edit list display section 35,
Or a frame 60 on the second audio track 35G, 35H.
The display of A to 60D and 61A to 61D means that the video of the clip corresponding to the frame 60A to 60D or 61A to 61D is displayed at the time represented by the time scale 35A when the edited video and audio are displayed, or Is output. Therefore, by such operations, an editing list can be created in which clip images or sounds sequentially displayed as edited images or sequentially output as edited sounds are determined.

【0073】なおこのようにして編集リストを作成する
際、例えば第1のクリツプの映像から第2のクリツプの
映像への切り換わり時に特殊効果処理を施したいときに
は、先行する第1のクリツプ(以下、これをフロムクリ
ツプと呼ぶ)に対応する第1の枠60A〜60Dを一方
の第1又は第2のビデオトラツク35C、35Eに表示
させると共に、当該第1の枠60A〜60Dの後側の一
部とその前側の一部がタイムスケール35Aでのタイム
コードが重なるように後行する第2のクリツプ(以下、
これをツークリツプと呼ぶ)に対応する第2の枠60A
〜60Dを他方の第2又は第1のビデオトラツク35
E、35Cに表示させる。
When the editing list is created in this manner, for example, when it is desired to perform special effect processing when switching from the video of the first clip to the video of the second clip, the preceding first clip (hereinafter referred to as the first clip). The first frames 60A to 60D corresponding to the first and second video tracks 35C and 35E are displayed on one of the first or second video tracks 35C and 35E, and one of the rear frames of the first frames 60A to 60D. The second clip (hereinafter, referred to as the second clip) in which the part and the part on the front side thereof follow so that the time code on the time scale 35A overlaps.
This is called a two-clip).
.. 60D to the other second or first video track 35.
E, displayed on 35C.

【0074】続いてマウス操作により画面中段部のセレ
クトエフエクトボタン33Qをクリツクする。この結果
CPU20は、メイン画面30上に、例えば図7のよう
に実行できる各種特殊効果処理の内容を表すアイコン6
3A〜63Yが複数表示された所定のウインド(以下、
これをセレクトエフエクトウインドと呼ぶ)62を表示
させる。
Subsequently, the select effect button 33Q in the middle part of the screen is clicked by operating the mouse. As a result, the CPU 20 displays on the main screen 30 an icon 6 representing the contents of various special effect processes that can be executed as shown in FIG.
A predetermined window in which a plurality of 3A to 63Y are displayed (hereinafter, referred to as a window)
This is called a select effect window) 62 is displayed.

【0075】次いで所望する特殊効果処理のアイコン6
3A〜63Y上にカーソルを移動させた後、マウス13
のボタンを押下し、その状態でカーソルを上述の編集リ
スト作成部35のエフエクトトラツク35Dにおける一
方の第1又は第2のビデオトラツク35C、35Eに表
示された第1の枠60A〜60Dと、他方の第2又は第
1のビデオトラツク35E、35Cに表示された第2の
枠60A〜60Dとのタイムスケール35A上でのタイ
ムコードが重なり合う部分に移動させてマウス13のボ
タンを放す。
Next, the icon 6 for the desired special effect processing
After moving the cursor on 3A to 63Y, the mouse 13
Is pressed, and in this state, the cursor is moved to the first frames 60A to 60D displayed on one of the first or second video tracks 35C and 35E in the effect track 35D of the edit list creating unit 35 described above. The mouse 13 is released by moving the mouse 13 to a portion where the time code on the time scale 35A overlaps the second frames 60A to 60D displayed on the other second or first video tracks 35E and 35C.

【0076】この結果CPU20は、セレクトエフエク
トウインド62内に表示されたアイコン63A〜63Y
を画面上をカーソルと一体に移動させると共に、当該ア
イコン63A〜63Yをマウス13のボタンが放された
位置に貼り付けられた状態に表示させる。
As a result, the CPU 20 displays the icons 63A to 63Y displayed in the select effect window 62.
Is moved together with the cursor on the screen, and the icons 63A to 63Y are displayed in a state where the icons are pasted at the positions where the buttons of the mouse 13 are released.

【0077】これにより一方の第1又は第2のビデオト
ラツク35C、35Eに表示された第1の枠60A〜6
0Dに対応するクリツプの映像と、他方の第2又は第1
のビデオトラツク35E、35Cに表示された第2の枠
60A〜60Dに対応するクリツプの映像との繋ぎ部分
において上述のようにして貼り付けられたアイコン63
A〜63Yに対応する特殊効果処理を実行すべき旨の指
示を入力することができる。なおCPU20は、マウス
操作によりクローズボタン64が選択されると、セレク
トエフエクトウインド62をメイン画面20上から閉じ
させる。
As a result, the first frames 60A to 60A displayed on one of the first or second video tracks 35C and 35E are displayed.
The video of the clip corresponding to 0D and the second or first video
The icon 63 pasted as described above at the connection portion with the clip image corresponding to the second frames 60A to 60D displayed on the video tracks 35E and 35C of FIG.
An instruction to execute the special effect processing corresponding to A to 63Y can be input. When the close button 64 is selected by operating the mouse, the CPU 20 closes the select effect window 62 from the main screen 20.

【0078】さらにCPU20は、このようにして編集
リストが作成された後又は編集リストの作成時に、マウ
ス操作によりメイン画面30の中段に表示されたプレビ
ユーボタン33Dが選択されると、上述のようにシステ
ム制御部4を介して対応するビデオテープレコーダ14
A〜14D、映像入力部5、映像出力部6、デイジタル
映像音声入出力部7、映像特殊効果処理部8、音声入出
力/ミキサ部9及び又はデイスク制御部10を必要に応
じて制御することにより、この編集リストに基づく編集
映像をモニタ16に表示させ、また当該編集リストに基
づく編集音声を出力手段としてのスピーカから出力させ
る。
Further, after the edit list is created in this way or when the edit list is created, when the preview button 33D displayed in the middle of the main screen 30 is selected by a mouse operation, the CPU 20 executes the above-described operation. Tape recorder 14 corresponding to the system via the system control unit 4
A to 14D, video input unit 5, video output unit 6, digital video / audio input / output unit 7, video special effect processing unit 8, audio input / output / mixer unit 9, and / or disk control unit 10 as required. Thus, the edited video based on the edit list is displayed on the monitor 16, and the edited audio based on the edit list is output from a speaker as an output unit.

【0079】さらにCPU20は、上述のようにして編
集リストが作成された後、メイン画面30の中段に表示
させた記録ボタン33Gが選択されると、上述のように
システム制御部4を介して対応するビデオテープレコー
ダ14A〜14D、映像入力部5、映像出力部6、デイ
ジタル映像音声入出力部7、映像特殊効果処理部8、音
声入出力/ミキサ部9及び又はデイスク制御部10を必
要に応じて制御することにより、当該編集リストに基づ
く編集処理を実行させ、かくして得られた編集映像及び
編集音声をオペレータにより予め指定されたビデオテー
プレコーダ14A〜14Dを介してビデオテープに記録
させるようになされている。
Further, after the edit list is created as described above, when the recording button 33G displayed in the middle of the main screen 30 is selected, the CPU 20 responds via the system control unit 4 as described above. Video tape recorders 14A to 14D, video input unit 5, video output unit 6, digital video / audio input / output unit 7, video special effect processing unit 8, audio input / output / mixer unit 9, and / or disk control unit 10 as necessary Control, the editing process based on the editing list is executed, and the obtained edited video and edited audio are recorded on the video tape via the video tape recorders 14A to 14D designated in advance by the operator. ing.

【0080】かかる構成に加えこの編集装置1の場合、
例えば図5又は図6のようにメイン画面30のクリツプ
情報表示部32内にクリツプの関連データを表示した場
合において、メイン画面30の上段に設けられた複数の
タイトルバー70のうちビユー(View)で表されるタイ
トル部分(以下、これをビユータイトルと呼ぶ)70A
がマウス操作により選択されると、図8に示すようにビ
ユータイトル70Aの下にプルダウンメニユー71が重
ねて表示される。
In the case of the editing apparatus 1 in addition to the above configuration,
For example, when the clip-related data is displayed in the clip information display section 32 of the main screen 30 as shown in FIG. 5 or FIG. 6, the view (View) of the plurality of title bars 70 provided in the upper part of the main screen 30 is displayed. (Hereinafter referred to as a view title) 70A
Is selected by a mouse operation, a pull-down menu 71 is superimposed and displayed below the view title 70A as shown in FIG.

【0081】このプルダウンメニユー71のうちトラツ
クマツプ(Track Map )モード71Aがマウス操作によ
り選択されると、当該トラツクマツプモード71Aのダ
イアログが開いてメイン画面30上の所定位置にウイン
ド(以下、これをトラツクマツプウインドと呼ぶ)72
が重畳表示される。
When the track map (Track Map) mode 71A of the pull-down menu 71 is selected by a mouse operation, a dialog of the track map mode 71A is opened and a window (hereinafter referred to as a track) is set at a predetermined position on the main screen 30. It is called the map window) 72
Are superimposed.

【0082】このトラツクマツプウインド72には、編
集リスト作成部35における複数のリスト対象に対応す
るボタンがそれぞれ設けられ、オペレータが所望するリ
スト対象をマウス操作によつて指定することにより、当
該指定されたリスト対象が編集リスト作成部35のタイ
ムスケール35Aに沿つてトラツク表示される。
The track map window 72 is provided with buttons corresponding to a plurality of list objects in the edit list creating section 35, and the operator designates a desired list object by operating a mouse to specify the list object. The list target is track-displayed along the time scale 35A of the edit list creation unit 35.

【0083】この実施の形態では、第1のビデオトラツ
ク35Cには第1及び第3のオーデイオトラツク35
G、35Iが対応して設けられ、また第2のビデオトラ
ツク35Eには第2及び第4のオーデイオトラツク35
H、35Jが対応して設けられている。これらトラツク
マツプウインド72を構成する複数のボタンのうちフエ
ーダ設定用ボタン72A〜72Dは、それぞれ第1〜第
4のオーデイオトラツク35G〜35J内の所望のクリ
ツプに対して所定の時間単位で所望の音声レベルの設定
(以下、これをフエーダ設定と呼ぶ)を行う場合に選択
的に指定されるボタンである。
In this embodiment, the first and third audio tracks 35C are provided on the first video track 35C.
G and 35I are provided correspondingly, and the second and fourth audio tracks 35E are provided on the second video track 35E.
H and 35J are provided correspondingly. Of the plurality of buttons constituting the track map window 72, the fader setting buttons 72A to 72D are used for a desired sound in a predetermined time unit with respect to a desired clip in the first to fourth audio tracks 35G to 35J. A button that is selectively designated when setting a level (hereinafter, referred to as a fader setting).

【0084】第1〜第4のフエーダ設定用ボタン72A
〜72Dがマウス操作により指定されると、図9に示す
ように、メイン画面30上の編集リスト作成部35には
当該指定されたオーデイオトラツク35G〜35Jの下
端にフエーダ設定用のトラツク(以下、これをフエーダ
トラツクと呼ぶ)73A〜73Dがタイムスケール35
Aに沿つて追加表示される。
The first to fourth fader setting buttons 72A
9 to 72D are designated by a mouse operation, as shown in FIG. 9, the edit list creation unit 35 on the main screen 30 displays tracks for setting faders at the lower ends of the designated audio tracks 35G to 35J. This is called a feeder track.
A is additionally displayed along A.

【0085】第1〜第4のフエーダトラツク73A〜7
3Dは、タイムスケール35Aに沿つた時間軸をトラツ
ク長とし、かつ第1〜第4のオーデイオトラツク35G
〜35Jで設定された音声レベルをトラツク幅としてク
リツプ毎に表示される。具体的には図10(A)に示す
ように各フエーダトラツク73A〜73Dについて、ト
ラツク幅の下端位置から75〔%〕上方の位置に原音の音
声レベルとなる基準線DLを設定し、当該基準線DLと
クリツプの枠の両端との交点をそれぞれ始点A及び終点
Bとする。この基準線DLはデフオルト値としてデシベ
ル表示では0〔dB〕及び内部データでは1024に設定され
ている。
The first to fourth feeder tracks 73A to 73A-7
In 3D, the time axis along the time scale 35A is set as a track length, and the first to fourth audio tracks 35G are used.
The audio level set at .about.35J is displayed as a track width for each clip. More specifically, as shown in FIG. 10 (A), a reference line DL which is the sound level of the original sound is set at a position 75% above the lower end position of the track width for each of the fader tracks 73A to 73D. Intersections between the DL and both ends of the clip frame are defined as a start point A and an end point B, respectively. The reference line DL is set to 0 [dB] in decibel display and 1024 in internal data as default values.

【0086】このときの音声レベルの範囲は、図11に
示すようにトラツク幅の表示位置を0〜 100〔%〕とす
ると、デシベル表示では−60〜+6〔dB〕であり、また
内部データでは0〜2047である。また図10(A)に示
す各フエーダトラツク73A〜73Dのトラツク幅はデ
シベル〔dB〕を目盛り単位として設定表示されている。
The sound level range at this time is -60 to +6 [dB] in the decibel display, assuming that the display position of the track width is 0 to 100 [%] as shown in FIG. 0 to 2047. The track width of each of the fader tracks 73A to 73D shown in FIG. 10A is set and displayed in decibels [dB] as a scale unit.

【0087】なお各フエーダトラツク73A〜73Dの
左端のタイトル部分にマウス操作によりカーソルを合わ
せてダブルクリツクした場合にも、上述したトラツクマ
ツプウインド72をメイン画面30上に重ねて表示する
ことができる。
Note that the track map window 72 described above can be displayed on the main screen 30 in an overlapping manner even when the cursor is moved to the leftmost title of each of the fader tracks 73A to 73D by mouse operation and double-clicked.

【0088】ここで第1〜第4のフエーダトラツク73
A〜73D内のクリツプの枠に対してフエーダ設定を行
う場合、当該クリツプの枠内に設定された基準線DL上
に所望のタイムコードをいくつか指定した後、当該指定
したタイムコードの音声レベルを所望のレベルに設定す
る。
Here, the first to fourth feeder tracks 73 are set.
When the fader setting is performed for the clip frame in A to 73D, after specifying some desired time codes on the reference line DL set in the clip frame, the audio level of the specified time code is specified. To the desired level.

【0089】このとき図10(B)に示すように、クリ
ツプの枠内の基準線DL上の所望のタイムコードに所望
の音声レベルが設定されたとき、当該タイムコードと対
応する音声レベルとの交点(以下、これをフエーダポイ
ントと呼ぶ)Pを順次直線で繋いだ折れ線(以下、これ
をラバーバンドと呼ぶ)RBがクリツプの枠内の始点A
及び終点B間に設定表示される。
At this time, as shown in FIG. 10B, when a desired audio level is set for a desired time code on the reference line DL in the clip frame, the time code corresponding to the audio code corresponding to the time code is set. A polygonal line (hereinafter referred to as a rubber band) RB in which the intersection points (hereinafter referred to as a fader point) P is sequentially connected by a straight line is a starting point A in the clip frame.
And between the end point B.

【0090】実際上第1〜第4のフエーダトラツクにつ
いて所望のクリツプの枠内に上述したラバーバンドRB
を設定表示する場合、まず基準線DL上の所望のタイム
コードにマウス操作によりカーソルを合わせてクリツク
すると、当該基準線DL上にフエーダポイントが黒丸表
示され、当該フエーダポイント上をさらにクリツクする
と白丸表示に変換される。この白丸表示のフエーダポイ
ントにカーソルを合わせてマウスのボタンを押下し、そ
の状態でカーソルをトラツク内で上下方向に移動させて
基準線DLに対する所望の位置でマウスのボタンを放
す。この結果マウスのボタンが放たれた位置でクリツク
することにより、当該位置でフエーダポイントが確定し
て黒丸で表示されると共に当該フエーダポイントの音声
レベルがデシベルを単位として表示される。
In practice, the rubber band RB described above is set within the desired clip frame for the first to fourth fader tracks.
Is set and displayed, first, when the cursor is moved to a desired time code on the reference line DL by mouse operation and clicked, a fader point is displayed on the reference line DL by a black circle, and when the fader point is further clicked, Converted to white circle display. The cursor is moved to the fader point indicated by the white circle and the mouse button is depressed. In this state, the cursor is moved up and down in the track, and the mouse button is released at a desired position with respect to the reference line DL. As a result, by clicking at the position where the mouse button is released, the fader point is determined at the position and displayed as a black circle, and the audio level of the fader point is displayed in decibels.

【0091】なお第1〜第4のオーデイオトラツク35
G〜35Jに設定されたクリツプにはそれぞれ左(L)
及び右(R)の2チヤンネル分の入力が可能であり、こ
れにより単一のクリツプの枠に対して2本のラバーバン
ドを設定し得るようになされている。
The first to fourth audio tracks 35
Clips set to G to 35J have left (L) respectively.
And two right (R) channels can be input, so that two rubber bands can be set for a single clip frame.

【0092】因みにビユータイトル70Aの下に重畳表
示されているプルダウンメニユー71のうちフエーダス
ケール(Fader Scale )モード71Bがマウス操作によ
り選択されるか、又は各フエーダトラツク73A〜73
Dの左端のタイトル部分にマウス操作によりカーソルが
合わせられてダブルクリツクされると、当該フエーダス
ケールモード71Bのダイアログが開いて、図12に示
すようにメイン画面30上の所定位置にウインド(以
下、これをフエーダスケールウインドと呼ぶ)75が重
畳表示される。
Incidentally, among the pull-down menus 71 superimposed and displayed below the view title 70A, the fader scale (Fader Scale) mode 71B is selected by operating the mouse, or the fader tracks 73A to 73A are selected.
When the cursor is moved to the title portion at the left end of D by mouse operation and double-clicked, a dialog for the fader scale mode 71B is opened, and a window (hereinafter referred to as a window) is set at a predetermined position on the main screen 30 as shown in FIG. , This is called a fader scale window) 75 is superimposed and displayed.

【0093】このフエーダスケールウインド75には、
第1〜第4のオーデイオトラツク35G〜35Jに対応
する第1〜第4のフエーダトラツク73A〜73Dのト
ラツク幅(音声レベルのダイナミツクレンジ)をスモー
ル(Small )、ミデイアム(Medium)及びラージ(Larg
e )の3段階にスケール調整するためのボタン75A〜
75Dが設けられ、第1〜第4のフエーダトラツク73
A〜73Dはそれぞれマウス操作により選択されたスケ
ールに応じたトラツク幅で表示される。その際、スモー
ルスケールよりもラージスケールを選択した方が表示単
位のレンジ幅を拡大することができ、この結果音声レベ
ルの設定をより微調整することができる。
The feeder scale window 75 includes:
The track widths (sound level dynamic range) of the first to fourth fader tracks 73A to 73D corresponding to the first to fourth audio tracks 35G to 35J are set to small, medium, and large (Larg).
e) Buttons 75A to 75-
75D are provided, and the first to fourth fader tracks 73 are provided.
A to 73D are displayed with a track width corresponding to the scale selected by the mouse operation. At this time, selecting the large scale rather than the small scale allows the range width of the display unit to be expanded, and as a result, the audio level setting can be finely adjusted.

【0094】これに加えてメイン画面30上の所定位置
には第1〜第4のフエーダトラツク73A〜73Dの左
端のタイトル部分をマウス操作により選択すると、当該
選択したフエーダトラツクのフエーダスケールがポツプ
アツプ画面76として表示される。これによりオペレー
タは所望のフエーダトラツクが現在どのスケール(トラ
ツク幅)で設定されているかを目視確認することができ
る。
In addition, when the titles at the left ends of the first to fourth fader tracks 73A to 73D are selected by a mouse operation at predetermined positions on the main screen 30, the fader scales of the selected fader tracks are displayed on the pop-up screen 76. Will be displayed as Thus, the operator can visually confirm which scale (track width) the desired fader track is currently set.

【0095】実際上、主制御部3内のRAM22には、
各クリツプの枠について上述したラバーバンドを用いて
設定したオーデイオフエーダ内容がパラメータとしてデ
ータベースに逐次格納される。CPU20は、編集リス
ト作成部35の第1〜第4のフエーダトラツク73A〜
73Dにクリツプの枠が表示された状態において、タイ
ムスケール35Aの時間軸と垂直なライン(以下、これ
をタイムラインカーソルと呼ぶ)TCがタイムスケール
35A上の所定位置に指定されると、当該指定位置に位
置するクリツプについてのパラメータをRAM22内の
データベースから読み出す。
In practice, the RAM 22 in the main control unit 3
The contents of the audio-off order set using the above-described rubber band for each clip frame are sequentially stored in the database as parameters. The CPU 20 controls the first to fourth fader tracks 73A to 73A of the edit list creation unit 35.
When a line perpendicular to the time axis of the time scale 35A (hereinafter, referred to as a timeline cursor) TC is designated at a predetermined position on the time scale 35A in a state where the clip frame is displayed on the 73D, the designation is made. The parameters for the clip located at the position are read from the database in the RAM 22.

【0096】これによりこの編集装置においては、タイ
ムラインカーソルTCを移動させることにより、当該移
動軌跡に位置するクリツプのパラメータが逐次読み出さ
れ、この結果当該読み出されたクリツプのパラメータに
基づいて、指定されたクリツプの音声をそのまま対応す
る映像と共に出力させることができる。
Thus, in the editing apparatus, by moving the timeline cursor TC, the parameters of the clips located on the movement locus are sequentially read out, and as a result, based on the read out parameters of the clip, The audio of the designated clip can be output together with the corresponding video as it is.

【0097】ここで実際上、第1〜第4のフエーダトラ
ツク73A〜73Dについて各クリツプの枠内のラバー
バンド上の所望の位置にフエーダポイントを設定表示す
る方法として、以下に述べる2通りの方法がある。
Here, in practice, the following two methods for setting and displaying a fader point at a desired position on the rubber band within the frame of each clip for the first to fourth fader tracks 73A to 73D are described. There is.

【0098】第1の方法では、第1〜第4のフエーダト
ラツク73A〜73Dにおいて所望のクリツプの枠内の
ラバーバンド上にマウスを用いてカーソルを位置合わせ
した後クリツクすることにより、ラバーバンド上でクリ
ツクされた位置にフエーダポイントが黒丸で設定表示さ
れる。
In the first method, the cursor is positioned on the rubber band within the frame of the desired clip in the first to fourth fader tracks 73A to 73D using a mouse, and then clicked, so that the click is performed on the rubber band. A fader point is set and displayed as a black circle at the clicked position.

【0099】第2の方法では、図13に示すようにタイ
ムスケール35A上の所望のタイムコードにタイムライ
ンカーソルTCを位置合わせした後、メイン画面30の
上段に設けられた複数のタイトルバー70のうちエフエ
クト(Effect)で表されるタイトル部分(以下、これを
エフエクトタイトルと呼ぶ)70Bをマウス操作により
選択することにより、エフエクトタイトル70Bの下に
プルダウンメニユー77を重ねて表示させる。このプル
ダウンメニユー77のうちアツドフエーダポイント(Ad
d Fader Point )77Aをマウス操作により選択して、
ラバーバンド上でタイムラインカーソルTCが位置合わ
せされた箇所にフエーダポイントが黒丸で設定表示され
る。
In the second method, after the timeline cursor TC is aligned with a desired time code on the time scale 35A as shown in FIG. 13, a plurality of title bars 70 provided in the upper part of the main screen 30 are displayed. A pull-down menu 77 is superimposed and displayed below the effect title 70B by selecting a title portion (hereinafter referred to as an effect title) 70B represented by the effect (Effect) 70B by a mouse operation. Of this pull-down menu 77, the at feeder point (Ad
d Fader Point) Select 77A by mouse operation,
A fader point is set and displayed as a black circle at a position where the timeline cursor TC is aligned on the rubber band.

【0100】なお複数のフエーダトラツク73A〜73
Dに亘つてそれぞれクリツプが選択されている場合に
は、タイムスケール35Aと交差する全てのクリツプの
枠におけるラバーバンド上の指定箇所にフエーダポイン
トが黒丸で設定表示される。
The plurality of fader tracks 73A to 73A
When a clip is selected over D, a fader point is set and displayed as a black circle at a designated position on the rubber band in all clip frames intersecting the time scale 35A.

【0101】これに対して第1〜第4のフエーダトラツ
ク73A〜73Dにおける各クリツプの枠内のラバーバ
ンド上にフエーダポイントを削除する方法として、以下
に述べる2通りの方法がある。
On the other hand, there are the following two methods for deleting a fader point on the rubber band within the frame of each clip in the first to fourth fader tracks 73A to 73D.

【0102】第1の方法では、第1〜第4のフエーダト
ラツク73A〜73Dにおける所望のフエーダポイント
にマウスを用いてカーソルを位置合わせしてクリツクす
ることによつて、当該フエーダポイントを黒色から白色
に表示変換した後、キーボード(図示せず)のデレート
(Delete)キーを操作する。この結果フエーダポイント
が削除されると共に、当該フエーダポイントの前後にあ
るフエーダポイント同士が直線で結ばれる。
In the first method, the cursor is aligned with a desired fader point in the first to fourth fader tracks 73A to 73D using a mouse and clicked, thereby changing the fader point from black. After the display is converted to white, a delete (Delete) key on a keyboard (not shown) is operated. As a result, the fader point is deleted, and the fader points before and after the fader point are connected by a straight line.

【0103】第2の方法では、図14に示すように所望
のフエーダポイントに対応するタイムケール35A上の
タイムコードにタイムラインカーソルTCを位置合わせ
した後、メイン画面30の上段に設けられた複数のタイ
トルバー70のうちエデイツト(Edit)で表されるタイ
トル部分(以下、これをエデイツトタイトルと呼ぶ)7
0Cをマウス操作により選択することにより、エデイツ
トタイトル70Cの下にプルダウンメニユー78を重ね
て表示させる。
In the second method, the timeline cursor TC is positioned at the time code on the timescale 35A corresponding to the desired fader point as shown in FIG. A title portion represented by an edit (Edit) in the plurality of title bars 70 (hereinafter, referred to as an edit title) 7
By selecting 0C by operating the mouse, a pull-down menu 78 is superimposed and displayed below the edit title 70C.

【0104】このプルダウンメニユー78のうちデレー
ト78Aをマウス操作により選択されると、ラバーバン
ド上でタイムラインカーソルTCが位置合わせされたフ
エーダポイントが削除された後、当該フエーダポイント
の前後にあるフエーダポイント同士が直線で結ばれる。
When the delete 78A is selected from the pull-down menu 78 by operating the mouse, the fader point at which the timeline cursor TC is aligned on the rubber band is deleted, and the fader point before and after the fader point is deleted. Fader points are connected by straight lines.

【0105】また第1〜第4のフエーダトラツク71A
〜71D内における各クリツプの枠内のラバーバンド上
のフエーダポイントの音声レベルを調整するためには、
ラバーバンド上の所望のフエーダポイントにカーソルを
位置合わせした状態でクリツクして、当該フエーダポイ
ントは黒丸から白丸に変換する。これによりフエーダポ
イントは上下方向(すなわちトラツク幅方向)に移動自
在となり、所望の音声レベルに調整することができる。
The first to fourth fader tracks 71A are also provided.
To adjust the audio level of the fader point on the rubber band within the frame of each clip within ~ 71D,
The user clicks with the cursor positioned at the desired fader point on the rubber band to convert the fader point from a black circle to a white circle. As a result, the fader point can be freely moved in the vertical direction (that is, in the track width direction), and can be adjusted to a desired sound level.

【0106】さらに第1〜第4のフエーダトラツク71
A〜71D内における各クリツプの枠内のラバーバンド
上のフエーダポイントのタイムコードを移動するために
は、所望のフエーダポイントを白丸に表示した状態でキ
ーボードのシフト(Shift )キーを押圧したままカーソ
ルキーを左右に移動する。これによりフエーダポイント
を左右(すなわち時間軸方向)に移動自在となり、所望
のタイムコードに調整することができる。
Further, the first to fourth fader tracks 71
To move the time code of the fader point on the rubber band within the frame of each clip in A to 71D, the shift (Shift) key on the keyboard was pressed with the desired fader point displayed in a white circle. Move the cursor key to the left or right while holding. As a result, the fader point can be freely moved left and right (that is, in the time axis direction), and the desired time code can be adjusted.

【0107】さらにフエーダポイントをマウス操作によ
りダブルクリツクするか、又は図15に示すようにメイ
ン画面30上の上段に設けられた複数のタイトルバー7
0のうちエフエクトタイトル70Bをマウス操作により
選択すると、エフエクトタイトル70Bの下にプルダウ
ンメニユー77が重ねて表示される。
Further, the fader point is double-clicked by operating the mouse, or a plurality of title bars 7 provided in the upper part of the main screen 30 as shown in FIG.
When the effect title 70B is selected from among 0, the pull-down menu 77 is superimposed and displayed below the effect title 70B.

【0108】このプルダウンメニユー77のうちコント
ロールフエーダポイント(ControlFader Point )77
Bがマウス操作により選択されると、当該コントロール
フエーダポイント77Bのダイアログが開いてメイン画
面30上の所定位置にウインド(以下、これをフエーダ
ポイントウインドと呼ぶ)80が重畳表示される。
The control fader point (ControlFader Point) 77 of the pull-down menu 77
When B is selected by a mouse operation, a dialog for the control fader point 77B opens, and a window (hereinafter, referred to as a fader point window) 80 is superimposed and displayed at a predetermined position on the main screen 30.

【0109】このフエーダポイントウインド80では、
図16に示すように上段にタイムラインカーソルTCの
現在のタイムコードがタイムコード表示部80Aとして
表示され、上下ボタン又はタイムラインカーソルTCの
移動に応じて設定変更し得る。またその下段にはタイム
ラインカーソルTCと交差するラバーバンドの音声レベ
ルがフエーダレベル表示部80Cとしてデシベル〔dB〕
単位で表示され、上下ボタン又はマウス操作による上下
移動に応じて設定変更し得る。さらにその下段にはタイ
ムラインカーソルTCとその直前及び直後に位置するフ
エーダポイントとの時間差がそれぞれビハインド(Behi
nd)表示部80C及びリード(Lead)表示部80Dとし
て表示される。
In this fader point window 80,
As shown in FIG. 16, the current time code of the timeline cursor TC is displayed on the upper stage as the timecode display section 80A, and the setting can be changed according to the movement of the up / down button or the timeline cursor TC. In the lower part, the sound level of the rubber band intersecting with the timeline cursor TC is displayed in decibels [dB] as a fader level display section 80C.
The setting is displayed in units, and the setting can be changed according to the vertical movement by the up / down button or the mouse operation. In the lower part, the time differences between the timeline cursor TC and the fader points located immediately before and immediately after the timeline cursor TC are shown in the behind (Behid).
nd) Displayed as a display section 80C and a lead display section 80D.

【0110】このフエーダポイントウインド80のダイ
アログを用いて直接数値を入力することによつて、メイ
ン画面30上では行うことが困難な細かな設定を行うこ
とができる。
By directly inputting numerical values using the dialog of the fader point window 80, it is possible to make detailed settings which are difficult to make on the main screen 30.

【0111】ここで編集リストを作成する際、一方の第
1又は第2(第3又は第4)のオーデイオトラツク35
G又は35H(35I又は35J)内のクリツプの枠
と、他方の第2又は第1(第4又は第3)のオーデイオ
トラツク35H又は35G(35J又は35I)内のク
リツプの枠とがタイムスケール35A上でのタイムコー
ドに重複する部分を有する場合、当該重複するタイムコ
ードについて先行するクリツプの音声レベルを下げると
共に後行するクリツプの音声レベルを上げる処理(以
下、これをクロスフエード処理と呼ぶ)を実行するよう
になされている。
Here, when the editing list is created, one of the first or second (third or fourth) audio tracks 35 is created.
The frame of the clip in G or 35H (35I or 35J) and the frame of the clip in the other second or first (fourth or third) audio track 35H or 35G (35J or 35I) are the time scale 35A. If there is an overlap with the above time code, a process for lowering the audio level of the preceding clip and raising the audio level of the succeeding clip for the overlapping time code (hereinafter referred to as cross-fade processing) is executed. It has been made to be.

【0112】第1〜第4のオーデイオトラツク35G〜
35Jについてクロスフエード処理の実行又は中止を設
定する場合、メイン画面30上の上段に設けられた複数
のタイトルバー70のうちセツテイング(Setting )で
表されるタイトル部分(以下、これをセツテイングタイ
トルと呼ぶ)70Dがマウス操作により選択されると、
図16に示すようにセツテイングタイトル70Dの下に
プルダウンメニユー82が重ねて表示される。
The first to fourth audio tracks 35G-
When the execution or cancellation of the crossfading process is set for 35J, a title portion represented by a setting (Setting) of a plurality of title bars 70 provided in the upper part of the main screen 30 (hereinafter, referred to as a setting title) ) When 70D is selected by mouse operation,
As shown in FIG. 16, a pull-down menu 82 is superimposed and displayed below the setting title 70D.

【0113】このプルダウンメニユー82のうちオプシ
ヨン(Option)モード82Aがマウス操作により選択さ
れると、当該オプシヨンモード82Aのダイアログが開
いてメイン画面30上の所定位置にウインド(以下、こ
れをオプシヨンウインドと呼ぶ)83が重畳表示され
る。
When an option (Option) mode 82A of the pull-down menu 82 is selected by operating the mouse, a dialog for the option mode 82A opens to open a window at a predetermined position on the main screen 30 (hereinafter referred to as an option window). Call) 83 is superimposed.

【0114】このオプシヨンウインド83では、図17
に示すように右側上段にオートクロスフエード(Auto C
ross Fade )ボタン83Aが表示されており、マウス操
作でクリツクすることにより上述したクロスフエード処
理を実行か否かを選択することができる。
In this option window 83, FIG.
Auto crossfade (Auto C
ross Fade) button 83A is displayed, and it is possible to select whether or not to execute the above-described cross-fade processing by clicking with a mouse operation.

【0115】すなわちオートクロスフエードボタン83
Aをオン状態にした場合には、第1及び第2のオーデイ
オトラツク35G、35H間又は第3及び第4のオーデ
イオトラツク35I、35J間でクリツプの枠同士にタ
イムコードが重複した部分がある場合には、それぞれ当
該重複部分に対して自動的にクロスフエード処理を実行
する。
That is, the auto cross fade button 83
When A is turned on, there is a case where the time code overlaps between the clip frames between the first and second audio tracks 35G and 35H or between the third and fourth audio tracks 35I and 35J. , The crossfade processing is automatically executed for the respective overlapping portions.

【0116】この結果、図18に示すように編集リスト
作成部35上のクロスフエード処理対象となるオーデイ
オトラツクには、クロスフエード処理の開始時点から終
了時点までの時間変化に応じてオーデイオトラツクの上
端から下端まで(又は下端から上端まで)を直線で結ん
だ傾斜線(以下、これをクロスフエードラインと呼ぶ)
CFL1又はCFL2がそれぞれ表示される(図1
9)。このクロスフエードラインCFL1又はCFL2
はクロスフエード処理の時間経過に応じてフエードアウ
ト又はフエードインする割合を表している。
As a result, as shown in FIG. 18, the audio track to be subjected to the crossfade processing on the edit list creating section 35 has the upper end to the lower end of the audio track according to the time change from the start time to the end time of the crossfade processing. (Or from the lower end to the upper end) with a straight line (hereinafter referred to as a cross-fade line)
CFL1 or CFL2 is displayed (FIG. 1
9). This cross fade line CFL1 or CFL2
Represents the rate of fade-out or fade-in in accordance with the passage of the cross-fade processing time.

【0117】これに対してオートクロスフエードボタン
83Aをオフ状態にした場合には、第1及び第2のオー
デイオトラツク35G、35H間と、第3及び第4のオ
ーデイオトラツク35I、35J間とでそれぞれクリツ
プの枠同士にタイムコードが重複した部分があるか否か
にかかわらずクロスフエード処理は実行されない。この
結果、図20に示すように編集リスト作成部35上のク
ロスフエード処理対象となるオーデイオトラツクに表示
されていた上述したクロスフエードラインCFL1又は
CFL2はそれぞれ削除される。
On the other hand, when the auto cross fade button 83A is turned off, between the first and second audio tracks 35G and 35H and between the third and fourth audio tracks 35I and 35J. The crossfade processing is not executed regardless of whether or not there is a portion where the time code overlaps between the clip frames. As a result, as shown in FIG. 20, the above-described crossfade lines CFL1 and CFL2 displayed on the audio track to be crossfaded on the edit list creating section 35 are deleted.

【0118】なお既にクロスフエードが設定されている
クリツプにおいては、オートクロスフエードボタン83
Aをオフ状態にしたのみではクロスフエード処理は解除
されない。この場合図21(A)〜(D)の順番に示す
ように、当該クリツプの枠を移動させてクロスフエード
部分(クロスフエードラインCFL1及びCFL2)が
なくなつた後でクロスフエードの自動的な調整を行い、
さらにクリツプの枠同士でタイムコードの重複がなくな
つてから元のように重複させた場合には、他の新規のク
リツプの枠同様、クロスフエードラインCFL1及びC
FL2は発生しない。
In a clip where a cross fade has already been set, the auto cross fade button 83 is set.
The crossfading process is not canceled only by turning A off. In this case, as shown in the order of FIGS. 21A to 21D, after the clip frame is moved to eliminate the cross-fade portion (cross-fade lines CFL1 and CFL2), automatic adjustment of the cross-fade is performed. Do
Further, when the overlap of the time codes between the clip frames is eliminated and the time codes overlap as before, the cross-fading lines CFL1 and CFL1 and CFL1 are similar to the other new clip frames.
FL2 does not occur.

【0119】ここで実際上CPU20は、編集リスト作
成部35に表示された各クリツプの枠同士がタイムスケ
ール35A上でのタイムコードに重複部分を有する場
合、当該重複部分について各クリツプの枠同士で単にク
ロスフエード処理を実行するのではなく、当該重複部分
において各クリツプ毎に設定されたラバーバンドの音声
レベルを保持したままクロスフエード処理を実行するよ
うになされている。
Here, in practice, when the frames of each clip displayed on the edit list creating section 35 have overlapping portions in the time code on the time scale 35A, the CPU 20 sets the overlapping portions to each other. Rather than simply executing the crossfade processing, the crossfade processing is executed while retaining the audio level of the rubber band set for each clip in the overlapping portion.

【0120】この場合CPU20は、編集リスト作成部
35上のクロスフエード処理対象となるオーデイオトラ
ツクのクリツプの枠に上述したクロスフエードラインC
FL1又はCFL2が表示されている状態において、ラ
バーバンド上に設定された各フエーダポイントの音声レ
ベルに、当該フエーダポイントと同じタイムコードに位
置するクロスフエードラインのフエードアウト又はフエ
ードインする割合をそれぞれ乗算し、当該乗算結果をク
ロスフエードデータとしてRAM22に書き込むように
なされている。
In this case, the CPU 20 inserts the above-mentioned cross-fade line C into the frame of the audio track to be cross-fade processed on the edit list creating section 35.
In a state where FL1 or CFL2 is displayed, the fade-out or fade-in rate of the cross-fade line located at the same time code as the fader point is set to the sound level of each fader point set on the rubber band. The multiplication is performed, and the result of the multiplication is written to the RAM 22 as crossfade data.

【0121】このときオーデイオトラツクのクリツプの
枠に表示されたクロスフエードラインのフエードアウト
又はフエードインする割合は、デシベル換算することな
く、単純にトラツク幅に対する高さの割合とする。これ
によりクロスフエードライン上における所定のタイムコ
ードの位置がトラツク幅の真中であれば、クロスフエー
ドラインのフエードアウト又はフエードインの割合は50
〔%〕となり、当該タイムコードに対応するフエーダポ
イントの音声レベルには0.5 が乗算される。
At this time, the fade-out or fade-in ratio of the cross-fade line displayed in the clip frame of the audio track is simply the ratio of the height to the track width without performing decibel conversion. As a result, if the position of the predetermined time code on the cross fade line is in the middle of the track width, the ratio of the fade out or fade in of the cross fade line is 50.
[%], And the audio level of the fader point corresponding to the time code is multiplied by 0.5.

【0122】なおフエーダトラツクにフエーダポイント
が設定されていない場合には、クロスフエード処理対象
となるオーデイオトラツクのクリツプの枠に表示された
クロスフエードラインのフエードアウト又はフエードイ
ンする割合にデフオルト値である原音の音声レベルを乗
算することによつてクロスフエードデータを生成する。
If a fader point is not set in the fader track, the original sound, which is the default value, is the fade-out or fade-in ratio of the cross-fade line displayed in the clip frame of the audio track to be cross-fade processed. Crossfade data is generated by multiplying the audio level.

【0123】このようにして例えば図22(A)、図2
3(A)及び図24(A)に示すように、第1のオーデ
イオトラツク35Gのクリツプの枠にクロスフエードラ
インCFL1が表示された状態において、対応する第1
のフエーダトラツク73A内のラバーバンド上のフエー
ダポイントの音声レベルは、クロスフエード処理対象部
分ではクロスフエードラインCFL1のフエードアウト
する割合に応じてそれぞれ図22(B)、図23(B)
及び図24(B)に示すように徐々に減少していくこと
となる。
Thus, for example, FIG.
As shown in FIG. 3 (A) and FIG. 24 (A), in a state where the cross fade line CFL1 is displayed in the clip frame of the first audio track 35G, the corresponding first
The audio level of the fader point on the rubber band in the fader track 73A in FIG. 22 (B) and FIG. 23 (B) respectively depends on the ratio of the crossed-out line CFL1 to be faded out in the cross-fade processing target portion.
24, and gradually decreases as shown in FIG.

【0124】ここでクロスフエードデータvalは、ク
ロスフエード処理対象となるオーデイオトラツク内のク
ロスフエードラインのフエードアウト又はフエードイン
の割合をf〔%〕とすると、次式
Here, assuming that the ratio of the cross-out line in the audio track to be cross-fade processed is f [%], the cross-fade data val is given by the following equation.

【0125】[0125]

【数1】 (Equation 1)

【0126】で表される。但し、メイン画面30上でオ
ペレータがマウス操作によつてデータを設定した場合、
このままではラバーバンドの最下端に設定したフエーダ
ポイントでも−18〔dB〕すなわち内部データが 127であ
ることから、少し音が出てしまうおそれがある。このた
めメイン画面上でラバーバンド上の最下端に位置決めさ
れたフエーダポイントの音声レベルは−60〔dB〕すなわ
ち内部データ0と設定する。
Is represented by However, if the operator sets data by operating the mouse on the main screen 30,
In this state, even at the fader point set at the lowermost end of the rubber band, since the internal data is -18 [dB], that is, the internal data is 127, a slight sound may be output. Therefore, the audio level of the fader point positioned at the lowermost end of the rubber band on the main screen is set to -60 [dB], that is, 0 for the internal data.

【0127】なおオペレータがオプシヨンウインド83
を開いてユニツトボタン83Bのうちデシベル〔dB〕を
選択すると、クロスフエードデータvalをデシベル
〔dB〕に換算することができ、このときクロスフエード
データvalは、デシベルの値をdBとすると次式
When the operator operates the option window 83,
Is opened and the decibel [dB] is selected from the unit buttons 83B, the cross-fade data val can be converted to decibel [dB]. At this time, if the decibel value is decibel, formula

【0128】[0128]

【数2】 (Equation 2)

【0129】で表される。一方ユニツトボタン83Bの
うち百分率〔%〕を選択すると、クロスフエードデータ
valを百分率〔%〕に換算することができ、このとき
クロスフエードデータvalは、百分率の値をPとする
と次式
Is represented by On the other hand, when the percentage [%] is selected from the unit buttons 83B, the crossfade data val can be converted into the percentage [%]. At this time, if the value of the crossfade data val is P, the following equation is obtained.

【0130】[0130]

【数3】 (Equation 3)

【0131】で表される。Is represented by

【0132】因みに実際上図18に示す第1及び第2の
フエーダトラツク73A及び73Bについて上述したク
ロスフエード処理を行つた結果は、それぞれ図25
(A)及び(B)に示すような図表で示される。この図
表によれば、タイムコードが「01:00.05:00 」から「0
1:00.09:00 」までのクロスフエード処理期間には第1
のフエーダトラツク73Aはフエードアウトすると共に
第2のフエーダトラツク73Bはフエードインすること
がわかる。
In fact, the result of performing the above-described crossfading processing on the first and second fader tracks 73A and 73B shown in FIG. 18 is shown in FIG. 25, respectively.
It is shown in a chart as shown in (A) and (B). According to this chart, the time code changes from "01: 00.05: 00" to "0
1: 00.09: 00 ”during the crossfade processing period
It can be seen that the fader track 73A fades out and the second fader track 73B fades in.

【0133】(4)クロスフエードデータ生成設定処理
手順 ここで実際上CPU20は、図26に示すクロスフエー
ドデータ生成手順RT1に従つて編集リスト作成部35
に表示された各クリツプの枠同士がタイムスケール35
A上でタイムコードに重複部分を有する場合、当該重複
部分において各クリツプ毎に設定されたラバーバンドの
音声レベルを保持したままクロスフエード処理を実行す
ることにより上述したクロスフエードデータを生成す
る。
(4) Cross-Fade Data Generation Setting Procedure Here, the CPU 20 actually executes the edit list creation section 35 in accordance with the cross-fade data generation procedure RT1 shown in FIG.
The frame of each clip displayed on the time scale 35
In the case where the time code has an overlapping portion on A, the above-described cross-fade data is generated by executing the cross-fade processing while maintaining the audio level of the rubber band set for each clip in the overlapping portion.

【0134】すなわちCPU20は、メイン画面30上
の編集リスト作成部35において第1〜第4のオーデイ
オトラツク35G〜35Jにタイムスケール35A上の
所望の位置に順次クリツプの枠が設定されると、クロス
フエードデータ生成手順RT1をステツプSP0におい
て開始し、続くステツプSP1において、第1及び第2
のオーデイオトラツク35G、35H間、又は第3及び
第4のオーデイオトラツク35I、35J間でクリツプ
の枠同士にタイムコードが重複した部分がある場合に
は、当該重複部分についてのタイムスケール35A上で
の開始時点及び終了時点の各時刻情報を順次RAM22
のデータベースに格納する。
That is, when the CPU 20 sequentially sets a clip frame at a desired position on the time scale 35A in the first to fourth audio tracks 35G to 35J in the edit list creating unit 35 on the main screen 30, the CPU 20 executes a cross-over process. The fade data generation procedure RT1 is started in step SP0, and in the following step SP1, the first and second steps are performed.
If there is a portion where the time code overlaps between the clip frames between the audio tracks 35G and 35H, or between the third and fourth audio tracks 35I and 35J, the time scale of the overlapping portion is displayed on the time scale 35A. The time information of the start time and the end time is sequentially stored in the RAM 22.
In the database.

【0135】次いでCPU20は、ステツプSP2に進
んで、第1〜第4のオーデイオトラツク35G〜35J
の下端にそれぞれ第1〜第4のフエーダトラツク73A
〜73Dが選択的に表示された状態において、当該フエ
ーダトラツク内のラバーバンド上の所望位置にフエーダ
ポイントが設定されると、当該フエーダポイントについ
てのタイムスケール35A上での時点を表わす時刻情報
と、その時点での音声レベルを表わすデータとを順次R
AM22のデータベースに格納する。
Next, the CPU 20 proceeds to step SP2, and executes the first to fourth audio tracks 35G to 35J.
At the lower ends of the first to fourth feeder tracks 73A, respectively.
When a fader point is set at a desired position on the rubber band in the corresponding fader track in a state where .about.73D is selectively displayed, time information indicating the time point on the time scale 35A for the corresponding fader point is displayed. , And data representing the sound level at that time are sequentially stored in R
It is stored in the database of AM22.

【0136】この後CPU20は、ステツプSP3に進
んで、メイン画面30上にオプシヨンウインド83が表
示された状態でオートクロスフエードボタン83Aが選
択されたか否かを判断し、否定結果が得られると再度ス
テツプSP1に戻つて上述の処理を繰り返す。
Thereafter, the CPU 20 proceeds to step SP3, determines whether or not the auto cross fade button 83A has been selected while the option window 83 is displayed on the main screen 30, and if a negative result is obtained. Returning to step SP1, the above processing is repeated.

【0137】これに対してステツプSP3において肯定
結果を得ると、CPU20はオーデイオトラツク間でタ
イムコードが重複するクリツプの枠同士にそれぞれクロ
スフエードラインを設定表示すると共に、クロスフエー
ド処理の開始時点の時刻情報と当該クロスフエード処理
期間内における各フエーダポイントの時刻情報とをRA
M22のデータベースから読み出して、タイムスケール
35Aに沿つて時刻順に並べ換える(ソートする)。こ
れによりクロスフエード処理期間内のクロスフエードデ
ータの時刻リストが決定される。
On the other hand, if an affirmative result is obtained in step SP3, the CPU 20 sets and displays a cross-fade line in each of the frames of the clip whose time code overlaps between the audio tracks, and sets the time at the start of the cross-fade processing. Information and the time information of each fader point during the crossfade processing period
The data is read from the database of M22 and rearranged (sorted) in time order along the time scale 35A. As a result, the time list of the crossfade data within the crossfade processing period is determined.

【0138】続いてステツプSP5において、CPU2
0は、このクロスフエードデータの時刻リストのうち最
初の時刻(クロスフエード処理の開始時刻又は最先のフ
エーダポイントの時刻のうちの早い方)を選択すると共
に、RAM22内のデータベースを初期化した後、ステ
ツプSP6に進む。
Subsequently, in step SP5, the CPU 2
0 selects the first time (the earlier of the start time of the crossfading process or the time of the earliest fader point) in the time list of the crossfade data and initializes the database in the RAM 22. Thereafter, the process proceeds to step SP6.

【0139】このステツプSP6においてCPU20
は、クロスフエード処理期間内の各フエーダポイント毎
にクロスフエードデータを作成する。このときクロスフ
エードデータを時刻リストのみならず、各フエーダポイ
ントの音声レベル(−60〜+6〔dB〕)に、当該フエー
ダポイントと同じタイムコードに位置するクロスフエー
ドラインのフエードアウト又はフエードインする割合
(0〜 100〔%〕)をそれぞれ乗算することにより音声
レベルについてのクロスフエードデータ(単位は〔dB〕
となる)も作成する。
In this step SP6, the CPU 20
Creates cross-fade data for each fader point within the cross-fade processing period. At this time, the cross fade data is stored not only in the time list, but also in the audio level (-60 to +6 [dB]) of each fader point, the fade out or fade in of the cross fade line located at the same time code as the corresponding fader point. Cross-fading data (unit is [dB]) by multiplying each by the ratio (0 to 100 [%])
Is also created.

【0140】この後CPU20はステツプSP7に進ん
で、クロスフエード処理期間内の全てのフエーダポイン
トについて上述したステツプSP6の演算処理を実行し
たか否かを判断し、否定結果が得られるとCPU20は
ステツプSP8に進んで次の時点に設けられたフエーダ
ポイントについて当該演算処理を実行する。これに対し
てステツプSP7において肯定結果が得られると、CP
U20は作成したクロスフエードデータをRAM22内
のデータベースに格納した後、そのままステツプSP1
0に進んで当該クロスフエードデータ生成手順RT1を
終了する。
Thereafter, the CPU 20 proceeds to step SP7, determines whether or not the above-described arithmetic processing of step SP6 has been executed for all the fader points in the crossfading processing period. If a negative result is obtained, the CPU 20 proceeds to step SP7. Proceeding to SP8, the arithmetic processing is executed for the fader point provided at the next time point. On the other hand, if a positive result is obtained in step SP7, the CP
U20 stores the created cross-fade data in the database in the RAM 22, and then proceeds to step SP1 as it is.
The process proceeds to 0, and the crossfade data generation procedure RT1 ends.

【0141】(5)実施の形態の動作及び効果 以上の構成において、この編集装置1では、編集リスト
の作成時にデイスプレイ12にメイン画面30表示され
た状態で、オペレータがマウス操作によりトラツクマツ
プウインド72を重畳表示し、さらに当該トラツクマツ
プウインド72の中から所望のオーデイオトラツクに対
応するフエーダトラツクを選択すると、編集リスト作成
部35に表示されたオーデイオトラツクの下段には、各
クリツプ毎にラバーバンドが設定されたフエーダトラツ
クがタイムスケール35A上に沿つて表示される。
(5) Operation and Effect of Embodiment In the above configuration, in the editing apparatus 1, the operator operates the track map window 72 by operating the mouse while the main screen 30 is displayed on the display 12 when the editing list is created. When a fader track corresponding to a desired audio track is selected from the track map window 72, a rubber band is set for each clip below the audio track displayed in the edit list creating section 35. The resulting fader track is displayed on the time scale 35A.

【0142】この状態でオペレータは、所望のフエーダ
トラツク内のラバーバンド上における所望のタイムコー
ドに順次フエーダポイントを設定することにより、当該
フエーダトラツクに対応するオーデイオトラツク内の所
望のクリツプに対してフエーダ設定することができる。
In this state, the operator sets a fader point sequentially to a desired time code on a rubber band in a desired fader track, thereby setting a fader for a desired clip in an audio track corresponding to the relevant fader track. can do.

【0143】編集リストを作成する際、一方のオーデイ
オトラツク内のクリツプの枠と他方のオーデイオトラツ
ク内のクリツプの枠とがタイムスケール35Aでのタイ
ムコードに重複部分を有する場合、オペレータはマウス
操作により表示させたオプシヨンウインド83の中から
オートクロスフエードボタン83Aを選択すると、オー
デイオトラツク内のクリツプの枠のうち当該重複部分で
あるクロスフエード処理期間にはクロスフエードライン
が表示される。
When the editing list is created, if the clip frame in one audio track and the clip frame in the other audio track have an overlapping part in the time code on the time scale 35A, the operator operates the mouse by operating the mouse. When the auto crossfade button 83A is selected from the displayed option window 83, a crossfade line is displayed during the crossfade processing period which is the overlapping portion of the clip frame in the audio track.

【0144】このときフエーダトラツク内におけるクロ
スフエード処理期間内の各フエーダポイントの音声レベ
ルに、当該フエーダポイントと同じタイムコードに位置
するクロスフエードラインのフエードアウト又はフエー
ドインする割合を順次乗算することにより、クロスフエ
ード処理対象となるクリツプの枠同士での音声レベルに
ついてクロスフエードデータ(編集データ)を作成する
ことができる。
At this time, the sound level of each fader point within the cross fade processing period in the fader track is sequentially multiplied by the fade-out or fade-in rate of the cross fade line located at the same time code as the corresponding fader point. Crossfade data (edit data) can be created for audio levels between the frames of the clip to be crossfaded.

【0145】かくして編集リスト作成部35に表示され
た各クリツプの枠同士がタイムスケール35A上でタイ
ムコードに重複部分を有する場合、当該重複部分におい
て各クリツプ毎に設定されたラバーバンドの音声レベル
が損なわれることなくフエードアウト又はフエードイン
によるクロスフエード処理を実行することができる。
Thus, when the frames of the clips displayed on the edit list creating section 35 have overlapping portions in the time code on the time scale 35A, the audio level of the rubber band set for each clip in the overlapping portion is changed. Cross-fade processing by fade-out or fade-in can be performed without any loss.

【0146】以上の構成によれば、編集リストの作成時
に、メイン画面30上にオーデイオトラツクに対応させ
てフエーダ設定用のフエーダトラツクを表示させる共
に、編集リスト作成部35に表示された各クリツプの枠
同士がタイムスケール35A上でタイムコードに重複部
分を有する場合、当該重複部分において各クリツプ毎に
設定されたラバーバンドの音声レベルをクロスフエード
処理時にも反映させるようにしたことにより、当該重複
部分における各クリツプについて設定された音声レベル
が損なわれるのを防止することができ、かくして編集作
業の効率を格段と向上し得る編集装置を実現できる。
According to the above configuration, when an edit list is created, a fader track for setting a fader is displayed on the main screen 30 in correspondence with the audio track, and each clip frame displayed on the edit list creating section 35 is displayed. In the case where each has an overlapping portion in the time code on the time scale 35A, the audio level of the rubber band set for each clip in the overlapping portion is also reflected at the time of the crossfading process. It is possible to prevent the audio level set for the clip from being impaired, and thus to realize an editing apparatus that can significantly improve the efficiency of editing work.

【0147】(6)他の実施の形態 なお上述の実施の形態においては、本発明を図1のよう
に構成された編集装置1に適用するようにした場合につ
いて述べたが、本発明はこれに限らず、映像及び又は音
声信号の所望部分を編集素材(すなわちクリツプ)とし
て登録し、当該登録した編集素材に基づいて編集順序を
規定した編集リストを作成することができるようになさ
れた編集装置に広く適用することができる。
(6) Other Embodiments In the above-described embodiment, a case has been described in which the present invention is applied to the editing apparatus 1 configured as shown in FIG. 1. However, the present invention is not limited to this. An editing apparatus capable of registering a desired portion of a video and / or audio signal as an editing material (that is, a clip) and creating an editing list defining an editing order based on the registered editing material. Can be widely applied to.

【0148】また上述の実施の形態においては、フエー
ダポイントの音声レベル及びタイムコードの決定方法と
してマウス操作による移動やキーボードによる数値入力
について述べたが、本発明はこれに限らず、カーソルキ
ーによる移動やコントロールパネル等から入力しても良
く、要はフエーダトラツク上の位置を変更し得ればその
他種々の入力手段を適用しても良い。
Further, in the above-described embodiment, the movement by the mouse operation and the numerical value input by the keyboard have been described as the method of determining the audio level and the time code of the fader point. However, the present invention is not limited to this, and the present invention is not limited to this. The movement may be input from the control panel or the like. In other words, other various input means may be applied as long as the position on the feeder track can be changed.

【0149】さらに上述の実施の形態においては、外部
操作により各音声素材のレベルが設定されたときにクロ
スフエード時にも当該設定を反映させる編集データを作
成する編集データ作成手段として、主制御部3内のCP
U20を適用した場合について述べたが、本発明はこれ
に限らず、要は各クリツプについて設定した音声レベル
を保持したままクロスフエード処理を実行することがで
きれば、その他種々の編集データ作成手段を適用しても
良い。
Further, in the above-described embodiment, when the level of each audio material is set by an external operation, the main control unit 3 serves as edit data generating means for generating edit data which reflects the setting even at the time of crossfading. CP
The case where U20 is applied has been described. However, the present invention is not limited to this. In other words, if the crossfading process can be executed while maintaining the audio level set for each clip, various other editing data generating means can be applied. May be.

【0150】さらに上述の実施の形態においては、各フ
エーダポイントの音声レベル及びタイムコードについて
設定入力された内容を規定したデータ(パラメータ)を
記憶する記憶手段としてRAM22を適用した場合につ
いて述べたが、本発明はこれに限らず、データベースを
有する種々の記憶手段に広く適用し得る。
Further, in the above-described embodiment, a case has been described in which the RAM 22 is applied as storage means for storing data (parameters) defining the contents set and input for the audio level and time code of each fader point. However, the present invention is not limited to this, and can be widely applied to various storage means having a database.

【0151】さらに上述の実施の形態においては、本発
明の編集手段として、ビデオテープに記録された映像音
声信号をハードデイスクに取り込み得るようになされた
編集装置1を適用するようにした場合について述べた
が、本発明はこれに限らず、この他種々のデイスク状記
録媒体や他の記録媒体に取り込み得るようになされたこ
の他種々の編集装置に広く適用することができる。
Further, in the above-described embodiment, a case has been described in which the editing apparatus 1 adapted to capture a video / audio signal recorded on a video tape onto a hard disk is applied as the editing means of the present invention. However, the present invention is not limited to this, and can be widely applied to various other disk-shaped recording media and various other editing devices adapted to be taken into other recording media.

【0152】[0152]

【発明の効果】上述のように本発明によれば、外部操作
に応じて第1及び第2の音声素材を繋ぎ合わせた編集音
声を得るための編集内容を規定した編集データを作成す
る編集装置において、外部操作により各音声素材のレベ
ルが設定されたときにクロスフエード時にも当該設定を
反映させる編集データを作成するようにしたことによ
り、編集データ作成時に第1及び第2の音声素材同士が
時間軸で重複する場合であつても、当該重複部分におけ
るレベル調整をオペレータの手動によつて行うといつた
編集作業の煩雑さを回避することができ、かくして編集
作業の効率を格段と向上し得る編集装置を実現できる。
As described above, according to the present invention, there is provided an editing apparatus for creating editing data which defines editing contents for obtaining an editing audio in which first and second audio materials are joined in accordance with an external operation. In the above, when the level of each audio material is set by an external operation, the editing data that reflects the setting is also created at the time of crossfading, so that the first and second audio materials can Even in the case of overlapping on the axis, if the level adjustment in the overlapping portion is manually performed by the operator, the complicated editing work can be avoided, and thus the efficiency of the editing work can be significantly improved. An editing device can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態による編集装置の構成を示すブロ
ツク図である。
FIG. 1 is a block diagram showing a configuration of an editing device according to the present embodiment.

【図2】主制御部の構成を示すブロツク図である。FIG. 2 is a block diagram showing a configuration of a main control unit.

【図3】メイン画面を示す略線図である。FIG. 3 is a schematic diagram illustrating a main screen.

【図4】ビデオクリツプエデイツトウインドを示す略線
図である。
FIG. 4 is a schematic diagram showing a video clip edit window.

【図5】メイン画面を示す略線図である。FIG. 5 is a schematic diagram illustrating a main screen.

【図6】メイン画面を示す略線図である。FIG. 6 is a schematic diagram illustrating a main screen.

【図7】セレクトエフエクトウインドを示す略線図であ
る。
FIG. 7 is a schematic diagram illustrating a select effect window.

【図8】メイン画面を示す略線図である。FIG. 8 is a schematic diagram illustrating a main screen.

【図9】メイン画面を示す略線図である。FIG. 9 is a schematic diagram illustrating a main screen.

【図10】フエーダトラツク内のクリツプの説明に供す
る略線図である。
FIG. 10 is a schematic diagram for explaining a clip in a feeder track;

【図11】音声レベルの範囲を示す図表である。FIG. 11 is a chart showing a range of audio levels.

【図12】メイン画面を示す略線図である。FIG. 12 is a schematic diagram illustrating a main screen.

【図13】メイン画面を示す略線図である。FIG. 13 is a schematic diagram illustrating a main screen.

【図14】メイン画面を示す略線図である。FIG. 14 is a schematic diagram illustrating a main screen.

【図15】メイン画面を示す略線図である。FIG. 15 is a schematic diagram illustrating a main screen.

【図16】フエーダポイントウインドを示す略線図であ
る。
FIG. 16 is a schematic diagram illustrating a fader point window.

【図17】オプシヨンウインドを示す略線図である。FIG. 17 is a schematic diagram showing an option window.

【図18】メイン画面を示す略線図である。FIG. 18 is a schematic diagram illustrating a main screen.

【図19】クロスフエードラインを示す略線図である。FIG. 19 is a schematic diagram illustrating a cross fade line.

【図20】メイン画面を示す略線図である。FIG. 20 is a schematic diagram illustrating a main screen.

【図21】クロスフエード処理を解除するときの説明に
供する略線図である。
FIG. 21 is a schematic diagram for explanation when canceling a crossfading process;

【図22】クロスフエード処理状態の説明に供する略線
図である。
FIG. 22 is a schematic diagram for describing a crossfading process state;

【図23】クロスフエード処理状態の説明に供する略線
図である。
FIG. 23 is a schematic diagram for explaining a crossfading process state;

【図24】クロスフエード処理状態の説明に供する略線
図である。
FIG. 24 is a schematic diagram used for explaining a crossfading process state;

【図25】第1及び第2のフエーダトラツクにおけるク
ロスフエード処理結果を示す図表である。
FIG. 25 is a table showing the results of crossfading processing in the first and second fader tracks.

【図26】クロスフエードデータ生成処理手順を示すフ
ローチヤートである。
FIG. 26 is a flowchart showing a procedure for crossfading data generation processing.

【符号の説明】[Explanation of symbols]

1……編集装置、2……ハードデイスク装置、3……主
制御部、4……システム制御部、12……デイスプレ
イ、13……マウス、14A〜14D……ビデオテープ
レコーダ、15……キーボード、16……モニタ、20
……CPU、30……メイン画面、35……編集リスト
作成部、35A……タイムスケール、35C、35E…
…ビデオトラツク、35G〜35J……オーデイオトラ
ツク、40……ビデオクリツプエデイツトウインド、7
0A……ビユータイトル、70B……エフエクトタイト
ル、70C……エデイツトタイトル、72……トラツク
マツプウインド、73A〜73D……フエーダトラツ
ク、75……フエーダスケールウインド、80……フエ
ーダポイントウインド、83……オプシヨンウインド、
TC……タイムラインカーソル、CFL1、CFL2…
…クロスフエードライン、RT1……クロスフエードデ
ータ生成処理手順。
DESCRIPTION OF SYMBOLS 1 ... Editing device, 2 ... Hard disk device, 3 ... Main control unit, 4 ... System control unit, 12 ... Display, 13 ... Mouse, 14A-14D ... Video tape recorder, 15 ... Keyboard, 16 ... monitor, 20
… CPU, 30… Main screen, 35… Edit list creation unit, 35A… Time scale, 35C, 35E…
… Video track, 35G to 35J… Audio track, 40… Video clip edit window, 7
0A View title, 70B Effect title, 70C Edit title, 72 Track track wind, 73A-73D Fader track, 75 Fader scale wind, 80 Fader point wind, 83 …… Option Wind,
TC ... timeline cursor, CFL1, CFL2 ...
... Crossfade line, RT1... Crossfade data generation processing procedure.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】外部操作に応じて第1及び第2の音声素材
を繋ぎ合わせた編集音声を得るための編集内容を規定し
た編集データを作成する編集装置において、 上記外部操作により各上記音声素材のレベルが設定され
たときに、クロスフエード時にも当該設定を反映させた
上記編集データを作成する編集データ作成手段を具える
ことを特徴とする編集装置。
1. An editing apparatus for creating edit data defining editing contents for obtaining an edited audio in which first and second audio materials are joined in accordance with an external operation, wherein each of the audio materials is generated by the external operation. And an editing data creating means for creating the editing data reflecting the setting at the time of crossfading when the level is set.
【請求項2】上記編集データ作成手段から得られた上記
編集データを記憶する記憶手段と、 上記記憶手段に記憶された上記編集データに基づいて、
対応する上記第1及び第2の音声素材を編集する編集手
段と、 上記編集手段による編集結果を音声として出力する出力
手段とを具えることを特徴とする請求項1に記載の編集
装置。
2. A storage device for storing the edit data obtained from the edit data generating device, and based on the edit data stored in the storage device.
2. The editing apparatus according to claim 1, further comprising editing means for editing the corresponding first and second audio materials, and output means for outputting a result of editing by the editing means as audio.
JP34833397A 1997-12-17 1997-12-17 Editing device Pending JPH11185376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34833397A JPH11185376A (en) 1997-12-17 1997-12-17 Editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34833397A JPH11185376A (en) 1997-12-17 1997-12-17 Editing device

Publications (1)

Publication Number Publication Date
JPH11185376A true JPH11185376A (en) 1999-07-09

Family

ID=18396335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34833397A Pending JPH11185376A (en) 1997-12-17 1997-12-17 Editing device

Country Status (1)

Country Link
JP (1) JPH11185376A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082714A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Device for creating moving picture, computer program therefor, and storage medium therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082714A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Device for creating moving picture, computer program therefor, and storage medium therefor

Similar Documents

Publication Publication Date Title
US6438313B2 (en) Edited-list creating apparatus, editing apparatus and editing method
US6134380A (en) Editing apparatus with display of prescribed information on registered material
JP4129657B2 (en) Editing apparatus and editing method
JP3153166B2 (en) Multimedia attribute change device
JP4207099B2 (en) Image editing apparatus and method
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP3687942B2 (en) Image editing method and image editing apparatus
JP2558746B2 (en) Data editing device
JPH11185376A (en) Editing device
KR19990078143A (en) Apparatus and method for image search
JP2005278212A (en) Image editing method and image editing system
JP3835642B2 (en) Editing device
JP2939001B2 (en) Information editing device
JPH1166815A (en) Editing device
JP4042080B2 (en) Editing device
JPH11185377A (en) Editing device
JP3615456B2 (en) Audio data editing device
JP3906875B2 (en) Editing apparatus and editing method
JP4051648B2 (en) Editing apparatus and editing method
JPH1166818A (en) Editing device
JPH11185457A (en) Editing apparatus
JPH11185379A (en) Device and method for editing
JPH1166819A (en) Editing device
JPH11185380A (en) Editing list forming device
JPH11185455A (en) Editing apparatus