KR100603173B1 - Editing apparatus and editing method - Google Patents

Editing apparatus and editing method Download PDF

Info

Publication number
KR100603173B1
KR100603173B1 KR1019980710192A KR19980710192A KR100603173B1 KR 100603173 B1 KR100603173 B1 KR 100603173B1 KR 1019980710192 A KR1019980710192 A KR 1019980710192A KR 19980710192 A KR19980710192 A KR 19980710192A KR 100603173 B1 KR100603173 B1 KR 100603173B1
Authority
KR
South Korea
Prior art keywords
event
video
editing
timeline
effect
Prior art date
Application number
KR1019980710192A
Other languages
Korean (ko)
Other versions
KR20000016596A (en
Inventor
마사후미 마츠이
나오미 에가시라
데츠로 나카타
도시유키 다나카
모토무 우에타
요시유키 나카무라
고세이 야마시타
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Priority to KR1019980710192A priority Critical patent/KR100603173B1/en
Publication of KR20000016596A publication Critical patent/KR20000016596A/en
Application granted granted Critical
Publication of KR100603173B1 publication Critical patent/KR100603173B1/en

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • G11B2220/415Redundant array of inexpensive disks [RAID] systems

Abstract

편집 처리 장치와 편집 처리 장치를 제어하는 컴퓨터를 구비한다. 컴퓨터는 뷰어 윈도우와 로그 윈도우와 프로그램 윈도우를 컴퓨터 디스플레이 상에 표시하는 제어 수단을 구비한다. 뷰어 윈도우는 편집 처리 장치에 공급된 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 것이다. 로그 윈도우는 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하기 위한 것이다. 프로그램 윈도우는 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하기 위한 것이다. 그리고 타임 라인 상에 배열된 각 이벤트에 대하여 그 이벤트가 어떤 소스 디바이스로부터 생성된 것인지를 나타내는 아이콘이 컴퓨터 디스플레이 상에 표시된다.An editing processing apparatus and a computer for controlling the editing processing apparatus are provided. The computer has control means for displaying a viewer window, a log window and a program window on the computer display. The viewer window is for generating an event by determining the edit point while viewing the video image of the source material supplied to the editing processing device. The log window is for displaying a clip image of an event set in the viewer window. The program window is for creating a program list by arranging a plurality of events on the timeline in a desired order. For each event arranged on the timeline, an icon indicating on which source device the event originated is displayed on the computer display.

Description

편집 장치 및 편집 방법Editing device and editing method

본 발명은 편집 장치에 관한 것으로, 예를 들면 방송국 등에서 이용되는 뉴스 소재 등을 편집하기 위한 편집 시스템 및 편집 방법에 적용하기에 적합한 것이다.The present invention relates to an editing apparatus, and is suitable for application to an editing system and editing method for editing a news material used in broadcasting stations and the like, for example.

종래, 방송국 등에 있어서의 편집 소재를 편집하기 위한 포스트 프로덕션 분야(post-production field)에서는 편집 소재를 기록하기 위한 기록 장치로서 자기 테이프를 이용한 테이프 편집이 일반적이다. 테이프 편집이란, 소재 테이프(material tape)를 검색하면서 편집점을 결정함으로써 필요한 장면(scene)만을 선택하고, 마스터 테이프로 더빙하면서 프로그램의 스토리를 구축해 가는 작업이다. 그러나 테이프 편집 작업은, 테이프 상의 기록된 소재의 원하는 프레임에 액세스하기 위해, 시행착오를 거치면서 큐업(cue up)을 반복하지 않으면 안 되기 때문에, 편집점의 결정에 방대한 시간이 걸린다. 또, 편집점이 결정된 컷마다 테이프에서 테이프로의 더빙이 필요하고, 그 때마다 소재 테이프의 VTR과 마스터의 VTR를 제어하지 않으면 안 되기 때문에, 편집 작업에 막대한 시간이 필요하였다. 그 결과, 편집 작업자는 장시간에 걸쳐 정신 집중이 요구되는 테이프 편집 작업으로부터 해방될 수가 없었다.Background Art Conventionally, in a post-production field for editing editing materials in a broadcasting station or the like, tape editing using magnetic tape is generally used as a recording device for recording editing materials. Tape editing is a task of building a story of a program while selecting a scene by searching for a material tape and determining only an edit point, and dubbing to a master tape. However, since the tape editing operation must repeat the cue up through trial and error to access the desired frame of the recorded material on the tape, it takes a long time to determine the edit point. Moreover, dubbing from tape to tape is required for each cut for which an edit point is determined, and since the VTR of the raw material tape and the VTR of the master must be controlled each time, a huge time is required for the editing work. As a result, the editing worker could not be freed from the tape editing work requiring mental concentration for a long time.

방송국에서의 뉴스 프로그램, 보도 프로그램 및 스포츠 프로그램의 제작에 있어서는 각지에서 일어난 당일의 사건을 재빨리 시청자에게 제공하는 것, 즉 속보성이 요구된다. 특히, 이러한 뉴스 프로그램, 보도 프로그램 및 스포츠 프로그램의 제작에서는 단지 편집된 장면을 이어 맞추는 조립 편집(assemble edit)뿐만 아니라, 편집된 장면의 영상에 대하여 모자이크 효과 또는 A/B 롤(A/B roll) 등의 효과나, 편집된 장면의 음성에 대하여 화자의 음색의 변경, 취재 현장의 주변 잡음의 제거 등의 효과를 추가하지 않으면 안 된다.In the production of news programs, press programs, and sports programs at broadcasting stations, it is required to provide viewers with the same-day events occurring in various places, that is, breaking news. In particular, in the production of such news programs, press programs, and sports programs, not only an assemble edit that combines edited scenes, but also a mosaic effect or A / B roll on the image of the edited scenes. Effects such as changing the tone of the speaker and removing ambient noise from the coverage site must be added to the sound of the edited scene.

효과 등을 추가하기 위해서는, 소스 VTR 및 마스터 VTR을 조작하는 편집 작업뿐만 아니라, 이러한 효과를 수행하기 위한 비디오 스위처 장치나 특수 효과 장치를 조작하기 위한 별도의 편집 작업이 필요하였다.In order to add an effect or the like, not only an editing operation for manipulating the source VTR and the master VTR but also a separate editing operation for manipulating a video switcher device or a special effect device for performing such an effect was required.

그 때문에, 종래의 편집 장치에서는 뉴스 프로그램, 보도 프로그램 및 스포츠 프로그램에 제공되는 비디오 프로그램을 민첩하고 신속하게 제작할 수 없는 문제점이 있었다.Therefore, there is a problem in the conventional editing apparatus that a video program provided to a news program, a news program, and a sports program cannot be produced quickly and quickly.

도 1은 본 발명을 적용한 편집 장치를 도시하는 블록도.1 is a block diagram showing an editing apparatus to which the present invention is applied.

도 2는 편집 장치를 구성하는 컴퓨터의 내부 구성을 도시하는 블록도.2 is a block diagram showing an internal configuration of a computer constituting an editing apparatus.

도 3은 편집 장치를 구성하는 편집 처리 장치의 내부 구성을 도시하는 블록도.3 is a block diagram showing an internal configuration of an editing processing device constituting an editing device.

도 4는 편집 처리 장치의 시스템 제어부의 구성을 도시하는 블록도.4 is a block diagram showing the configuration of a system control unit of an editing processing apparatus.

도 5는 편집 처리 장치의 매트릭스 스위처부의 구성을 도시하는 블록도.5 is a block diagram showing a configuration of a matrix switcher unit of an editing processing apparatus.

도 6은 편집 처리 장치의 화상 처리부의 구성을 도시하는 블록도.6 is a block diagram showing the configuration of an image processing unit of an editing processing apparatus;

도 7은 편집 처리 장치의 음성 처리부의 구성을 도시하는 블록도.7 is a block diagram showing the configuration of a sound processing unit of the editing processing apparatus.

도 8은 편집 장치에 접속되는 국소 기억 장치의 구성을 도시하는 블록도.8 is a block diagram showing the configuration of a local storage device connected to the editing device;

도 9는 국소 기억 장치의 디스크 어레이 블록의 구성을 도시하는 블록도.9 is a block diagram showing the structure of a disk array block of the local storage device;

도 10A 및 도 10B는 디스크 어레이 블록에 있어서의 동작을 설명하기 위한 도면.10A and 10B are diagrams for explaining the operation in the disk array block.

도 11A 및 도 11B는 디스크 어레이 블록에 있어서의 동작을 설명하기 위한 도면.11A and 11B are diagrams for explaining the operation in the disk array block.

도 12는 편집용 그래픽 이용자 인터페이스 화면을 설명하기 위한 도면.Fig. 12 is a diagram for explaining a graphical user interface screen for editing.

도 13은 뷰어 윈도우를 설명하기 위한 도면.13 is a view for explaining a viewer window.

도 14는 로그 윈도우를 설명하기 위한 도면.14 is a diagram for explaining a log window.

도 15A 내지 도 15C는 로그 윈도우에 있어서의 클립 카드의 표시 형식을 설명하기 위한 도면.15A to 15C are diagrams for explaining the display format of a clip card in a log window.

도 16은 프로그램 윈도우를 설명하기 위한 노선도.16 is a route diagram for explaining a program window;

도 17은 프로그램 윈도우를 설명하기 위한 노선도.17 is a route diagram for explaining a program window;

도 18A 내지 도 18E는 디바이스 아이콘을 설명하기 위한 노선도.18A to 18E are route diagrams for explaining device icons.

도 19는 파일 정보를 설명하기 위한 도면.19 is a diagram for explaining file information.

도 20은 이벤트 등록 처리의 동작을 설명하기 위한 흐름도.20 is a flowchart for explaining an operation of an event registration process.

도 21은 파일 검색 다이얼로그를 설명하기 위한 도면.21 is a diagram for explaining a file search dialog;

도 22는 파일 리스트 표시 다이얼로그를 설명하기 위한 도면.Fig. 22 is a diagram for explaining a file list display dialog.

도 23은 비디오 레벨 설정 다이얼로그를 설명하기 위한 도면.Fig. 23 is a diagram for explaining a video level setting dialog;

도 24는 오디오 레벨 설정 다이얼로그를 설명하기 위한 도면.24 is a diagram for explaining an audio level setting dialog;

도 25는 다운로드 설정 다이얼로그를 설명하기 위한 도면.25 is a diagram for explaining a download setting dialog;

도 26A 및 도 26B는 장면명 설정 다이얼로그(scene name setting dialog)를 설명하기 위한 도면.26A and 26B are views for explaining a scene name setting dialog.

도 27은 프로그램 리스트 작성 처리를 설명하기 위한 흐름도.27 is a flowchart for explaining a program list creating process.

도 28은 믹스다운 설정용 다이얼로그를 설명하기 위한 도면.Fig. 28 is a diagram for explaining a dialog for mixdown setting;

도 29는 페이더 할당용 다이얼로그를 설명하기 위한 도면. Fig. 29 is a diagram for explaining a fader assignment dialog.

도 30은 효과 설정 다이얼로그를 설명하기 위한 도면. 30 is a diagram for explaining an effect setting dialog;

도 31A 및 도 31B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면. 31A and 31B are diagrams for explaining an effect setting operation on a timeline.

도 32A 및 도 32B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면.32A and 32B are diagrams for explaining an effect setting operation on a timeline.

도 33A 및 도 33B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면.33A and 33B are diagrams for explaining an effect setting operation on a timeline.

도 34A 및 도 34B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면. 34A and 34B are diagrams for explaining an effect setting operation on a timeline.

도 35A 및 도 35B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면. 35A and 35B are diagrams for explaining an effect setting operation on a timeline.

도 36A 및 도 36B는 타임 라인 상에서의 효과 설정 작업을 설명하기 위한 도면. 36A and 36B are diagrams for explaining an effect setting operation on a timeline.

도 37A 내지 도 37C는 프리뷰 실행 시에 있어서의 타임 라인 상의 현재 라인의 상태를 설명하기 위한 도면. 37A to 37C are diagrams for explaining the state of the current line on the timeline at the time of preview execution.

도 38은 기록 디바이스를 설정하기 위한 다이얼로그를 설명하기 위한 도면. 38 is a diagram for explaining a dialog for setting a recording device.

본 발명은 이상의 점을 고려하여 이루어진 것으로, 신속히 뉴스 프로그램, 보도 프로그램 및 스포츠 프로그램 등에 제공되는 즉시성이 요구되는 비디오 프로그램을 제작할 수 있는 이용 편의가 향상된 편집 장치 및 편집 방법을 제안하고자 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above, and an object of the present invention is to provide an editing apparatus and an editing method with improved convenience for producing a video program requiring immediateness provided in a news program, a news program, and a sports program.

본 발명의 편집 장치는 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 타임 라인에 배열된 각 이벤트에 대하여 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 컴퓨터를 구비한 것을 특징으로 한다.The editing apparatus of the present invention provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline, the computer displays a program window for creating a program list on a computer display, and for each event arranged on the timeline, an icon indicating which source device the event was generated from. It is characterized by one.

따라서 편집 오퍼레이터는 각 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 시각적으로 용이하게 파악할 수 있으므로, 확실한 편집 작업을 할 수 있다.Therefore, the editing operator can visually easily identify the event generated from which source device each event, so that the editing operation can be surely performed.

또한, 본 발명의 편집 장치는 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 편집 오퍼레이터의 조작에 응답하여, 타임 라인에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그를 표시하고, 효과 설정 다이얼로그에 있어서 선택된 원하는 효과의 아이콘을 이벤트와 관련시키도록 타임 라인 상에 부착함으로써 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 한다.The editing apparatus of the present invention also provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline in the desired order, the program window for creating a program list is displayed on the computer display, and in response to the operation of the editing operator, an effect setting dialog for setting an effect for each event arranged in the timeline is displayed. And display a program list for effecting the event by attaching the icon of the desired effect selected in the effect setting dialog on the timeline to associate with the event.

따라서 본 발명의 편집 장치는 신속하면서 용이하게 효과를 선택함과 동시에 각 이벤트에 설정할 수가 있다. 또한, 본 발명의 편집 시스템은 모든 편집 컷의 클립 화상, 입력 화상, 타임 라인 등이 GUI상에서 일람될 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다.Therefore, the editing apparatus of the present invention can select the effect quickly and easily and set it to each event. In addition, the editing system of the present invention can list clip images, input images, timelines, and the like of all edit cuts on the GUI, and at the same time, edit order or simply replace them while viewing the arranged clips.

또한, 본 발명의 편집 장치는 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그(fader assignment dialog)를 표시하고, 페이더 할당 다이얼로그에 설정된 정보에 기초하여 이벤트의 각 오디오 트랙의 레벨을 제어하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention displays a fader assignment dialog for allocating an audio fader installed in an audio-only controller for the audio track of each event arranged in the timeline, and displays the information set in the fader assignment dialog. And control the level of each audio track of the event based on that.

따라서 본 발명의 편집 장치에 의하면, 전용 제어기에 의해 각 이벤트의 오디오 트랙을 개별로 제어할 수 있음과 동시에, 이벤트에 따라 각 트랙과 페이더 레버(fader lever)와의 설정을 임의로 가변할 수 있다.Therefore, according to the editing apparatus of the present invention, an audio track of each event can be individually controlled by a dedicated controller, and the settings of each track and a fader lever can be arbitrarily changed according to the event.

또한, 본 발명의 편집 장치는 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 타임 라인 상에 배열하는 모드, 및 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 타임 라인 상에 배열하는 모드를 구비한 것을 특징으로 한다.In addition, the editing apparatus of the present invention is a mode in which a plurality of events displayed as clip images in the log window are dragged and dropped for each event and arranged on the timeline, and a plurality of events displayed as clip images in the log window are not dragged and dropped. And a mode of automatically arranging on the timeline in a specified order.

또한, 본 발명의 편집 장치는 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에 있어서 효과 삽입 구간을 설정하고, 타임 라인 상의 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention is characterized in that the effect insertion section is set on the timeline while viewing a plurality of events arranged on the timeline, and the selected effect is set in the set effect insertion section on the timeline.

또한, 본 발명의 편집 장치는 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에 있어서 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하고, 로그 윈도우에 있어서 선택된 이벤트를 타임 라인 상의 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention sets an insertion interval of an event that is overlaid with respect to the event on the timeline while viewing a plurality of events arranged on the timeline, and inserts the event selected in the log window on the timeline. Characterized in that inserted into the section.

본 발명의 편집 방법은 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 타임 라인에 배열된 각 이벤트에 대하여 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 컴퓨터를 구비한 것을 특징으로 한다.The editing method of the present invention provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline, the computer displays a program window for creating a program list on a computer display, and for each event arranged on the timeline, an icon indicating which source device the event was generated from. It is characterized by one.

따라서 편집 오퍼레이터는 각 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 시각적으로 용이하게 파악할 수 있으므로, 확실한 편집 작업을 할 수 있다.Therefore, the editing operator can visually easily identify the event generated from which source device each event, so that the editing operation can be surely performed.

또한, 본 발명의 편집 방법은 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 편집 오퍼레이터의 조작에 응답하여 타임 라인에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그를 표시하고, 효과 설정 다이얼로그에 있어서 선택된 원하는 효과의 아이콘을 이벤트와 관련시키도록 타임 라인 상에 부착함으로써 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 한다.In addition, the editing method of the present invention provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline in the desired order, a program window for creating a program list is displayed on the computer display, and an effect setting dialog is displayed for setting effects for each event arranged in the timeline in response to an operation of an editing operator. And attaching an icon of the desired effect selected in the effect setting dialog on the timeline to associate with the event to generate a program list for effecting the event.

따라서 본 발명의 편집 방법은 신속히 또한 용이하게 효과를 선택함과 동시에 각 이벤트에 설정할 수 있다. 또한, 본 발명의 편집 시스템은 모든 편집 컷의 클립 화상, 입력 화상, 타임 라인 등이 GUI 상에서 일람될 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다.Therefore, the editing method of the present invention can select the effect quickly and easily and set it to each event at the same time. In addition, the editing system of the present invention can list clip images, input images, timelines, and the like of all edit cuts on the GUI, and at the same time, edit the order or simply replace them while viewing the arranged clips.

또한, 본 발명의 편집 방법은 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그를 표시하고, 페이더 할당 다이얼로그에 설정된 정보에 기초하여, 이벤트의 각 오디오 트랙의 레벨을 제어하는 것을 특징으로 한다.In addition, the editing method of the present invention displays a fader assignment dialog for allocating an audio fader installed in an audio-only controller for the audio track of each event arranged in the timeline, and based on the information set in the fader assignment dialog, The level of each audio track is controlled.

따라서 본 발명의 편집 방법에 의하면, 전용 제어기에 의해 각 이벤트의 오디오 트랙을 개별로 제어할 수 있음과 동시에, 이벤트에 따라 각 트랙과 페이더 레버와의 설정을 임의로 가변할 수가 있다.Therefore, according to the editing method of the present invention, an audio track of each event can be individually controlled by a dedicated controller, and the setting of each track and the fader lever can be arbitrarily changed according to the event.

본 발명의 편집 방법은 소스 소재를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 상기 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 상기 타임 라인 상에 배열하는 모드, 및 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 상기 타임 라인 상에 배열하는 모드에 기초하여 상기 로그 윈도우에 클립 이미지로서 표시된 이벤트를 상기 타임 라인 상에 배열하는 것을 특징으로 하는 편집 방법이다.The editing method of the present invention comprises a viewer window for generating an event by determining an edit point while viewing a source material, a log window displaying a clip image of an event set in the viewer window, and the plurality of events in a desired order. A mode in which a program window for creating a program list is displayed on a computer display by arranging on the timeline, and a plurality of events displayed as clip images in the log window are arranged on the timeline by dragging and dropping for each event; and Arrange the events displayed as clip images in the log window on the timeline based on a mode of automatically arranging the plurality of events displayed as clip images in the log window on the timeline in a specified order without drag and drop. Scoop to do Edit the method of.

또한, 본 발명의 편집 방법은 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서 효과 삽입 구간을 설정하고, 상기 타임 라인 상의 상기 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 한다.In addition, the editing method of the present invention is characterized by setting an effect insertion section on the timeline while viewing a plurality of events arranged on the timeline, and setting a selected effect on the set effect insertion section on the timeline.

또한, 본 발명의 편집 방법은 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서 상기 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하고 상기 로그 윈도우에서 선택된 이벤트를 상기 타임 라인 상의 상기 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 한다.In addition, the editing method of the present invention arranges the plurality of events on the timeline in a desired order, thereby displaying a program window for creating a program list on a computer display, and viewing the plurality of events arranged on the timeline. An insertion section of an event that is overlaid with respect to the event on a line is set, and an event selected in the log window is inserted into the set event insertion section on the timeline.

즉, 본 발명의 편집 장치 및 방법에 의하면, 즉시성이 요구되는 뉴스 프로그램의 제작 시에 비선형의 특징인 랜덤 액세스성을 살린 민첩한 편집 작업을 행할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 모든 편집 컷의 클립 화상, 입력 화상, 타임 라인 등이 GUI 상에서 일람될 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 다채로운 효과 기능을 설정할 수 있으므로, 고속으로 표현력 풍부한 영상 제작을 할 수 있다.That is, according to the editing apparatus and method of the present invention, it is possible to perform an agile editing operation utilizing random accessibility, which is a nonlinear feature, in producing a news program requiring immediateness. In addition, the editing apparatus and method of the present invention can list clip images, input images, timelines, and the like of all edit cuts, and at the same time, edit order or simply replace them while viewing the arranged clips. In addition, the editing apparatus and method of the present invention can set a variety of effects functions, it is possible to produce a video expressive rich at high speed.

뉴스 프로그램 제작이나 보도 프로그램 제작에 있어서, 본 발명의 편집 장치 및 방법을 적용함으로써 모자이크 효과의 추가나 화자의 음색 변경, 취재 현장의 주변 잡음의 제거 기능 등의 편집을 자기 혼자 할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 이들 다채로운 효과를 실현하기 때문에, 컴퓨터에 의한 소프트 상의 처리와 하드웨어의 양쪽을 최적이 되도록 이용하여 실시간에서의 고속 디지털 화상 편집 및 오디오 편집이 실현된다.In producing a news program or producing a news program, by applying the editing apparatus and method of the present invention, it is possible to perform editing alone such as adding a mosaic effect, changing the tone of a speaker, and removing ambient noise at a coverage site. In addition, since the editing apparatus and method of the present invention realize these various effects, high-speed digital image editing and audio editing are realized in real time by using both computer-based software processing and hardware to be optimal.

이하, 본 발명에 관계되는 편집 시스템 및 편집 방법의 바람직한 실시 형태에 관해서 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, preferable embodiment of the editing system and editing method which concern on this invention is described.

1. 편집 장치의 구성1. Composition of editing device

1-1. 편집 장치의 전체 구성1-1. Overall configuration of the editing device

도 1에 있어서, 1은 전체로서 본 발명을 적용한 편집 장치를 나타내며, 크게 나누어 컴퓨터(2)와 편집 처리 장치(3)로 이루어진다.In Fig. 1, 1 denotes an editing apparatus to which the present invention is applied as a whole, and is broadly divided into a computer 2 and an editing processing apparatus 3.

제어 수단으로서 컴퓨터(2)는 CPU(중앙 처리 유닛)나 각종 처리 회로, 또는 플로피 디스크 드라이브, 하드 디스크 드라이브 등을 구비하는 본체(2A), 해당 본체(2A)에 접속되는 표시 수단으로서의 모니터(2B), 및 입력 수단으로서의 키보드(2C) 및 마우스(2D)를 갖고 있다. 이러한 컴퓨터(2)는 편집을 위한 응용 소프트웨어가 하드 디스크 드라이브에 미리 인스톨되어 있고, 오퍼레이팅 시스템을 기초로 해당 응용 소프트웨어를 동작시킴으로써 편집 장치용 컴퓨터로서 기동하도록 구성되어 있다.As the control means, the computer 2 includes a main body 2A having a CPU (central processing unit), various processing circuits, or a floppy disk drive, a hard disk drive, or the like, and a monitor 2B as display means connected to the main body 2A. ) And a keyboard 2C and a mouse 2D as input means. This computer 2 is configured to be pre-installed as a computer for editing apparatus by application software for editing preinstalled on a hard disk drive, and by operating the application software on the basis of an operating system.

이 응용 소프트웨어를 동작시켰을 때는 모니터(2B)상에 편집용 GUI(그래픽 이용자 인터페이스)를 위한 그래픽 이미지가 표시되도록 이루어져 있다. 편집 장치(1)에서는 그래픽 표시와 상술한 입력 수단에 의하여 이용자 인터페이스를 구성하며, 예를 들면 마우스(2D)를 이용하여, 모니터(2B)에 표시되는 제어 명령 버튼을 나타내는 그래픽 표시 중에서 원하는 그래픽 표시를 선택함으로써, 편집 처리의 처리 내용을 지정하기 위한 제어 명령을 입력하도록 이루어져 있다. 또, 컴퓨터(2)는 입력된 제어 명령이 편집 처리 장치(3)에서의 편집 처리 동작을 제어하는 것이라면 해당 제어 명령에 따른 제어 신호(S1)를 생성하며, 이것을 편집 처리 장치(3)로 송출하여 편집 처리 동작을 지시하도록 이루어져 있다.When the application software is operated, a graphic image for editing GUI (graphical user interface) is displayed on the monitor 2B. In the editing apparatus 1, a user interface is constituted by a graphic display and the above-described input means, and for example, a desired graphic display is displayed from a graphic display indicating a control command button displayed on the monitor 2B using a mouse 2D. By selecting, the control command for specifying the processing contents of the editing process is input. In addition, the computer 2 generates a control signal S1 according to the control command if the input control command is to control the edit processing operation in the edit processing device 3 and sends it to the edit processing device 3. To instruct the editing processing operation.

또한, 컴퓨터(2)에는 편집 처리 장치(3)를 통해 비디오 신호(S2)가 입력되며, 이것에 의해 각 소재의 영상을 모니터(2B)에 표시하여 소재 내용을 확인하면서 인점(in-point)(이벤트의 개시점)이나 아웃점(out-point)(이벤트의 종료점)을 마킹(marking)할 수 있다. 이벤트란, 인점 및 아웃점에 의해서 지정된 편집 구간이며, 타임 라인 상에 열거된 하나의 편집 소재를 나타내고 있다. 또한, 이벤트는 오디오 이벤트, 비디오 이벤트, DSK(Down Stream Key) 이벤트 등으로 구성된다.In addition, the video signal S2 is input to the computer 2 via the editing processing apparatus 3, thereby displaying an image of each material on the monitor 2B and checking the material contents while checking in-point. (The start point of the event) or the out-point (end point of the event) can be marked. An event is an editing section designated by an in point and an out point, and represents one editing material listed on the timeline. In addition, the event is composed of an audio event, a video event, a down stream key (DSK) event, and the like.

이 컴퓨터(2)는 인점 및 아웃점을 지시함으로써 절단된 이벤트나 편집한 완성 프로그램의 영상을 모니터 상에 표시함으로써, 그것들을 확인할 수 있다. (이하, 이러한 절단된 이벤트나 편집 프로그램을 재생하여 표시하는 것을 프리뷰(preview)라고 부른다).The computer 2 can confirm them by displaying the cut-off event or the edited completed program image on the monitor by indicating the in and out points. (Hereinafter, the playback of such a truncated event or editing program is displayed and called a preview).

한편, 편집 처리 장치(3)는 내부에 매트릭스 스위처부, 화상 처리부 및 음성처리부를 갖고 있고, 소재의 절취나 이어 맞춤, 또는 비디오 신호나 오디오 신호 에 대한 효과 처리 등, 실제의 편집 작업을 실행하는 편집 실행 장치이다.On the other hand, the editing processing apparatus 3 has a matrix switcher section, an image processing section, and an audio processing section therein, and executes actual editing operations such as cutting and stitching materials or processing effects on video signals or audio signals. Editing execution device.

이 편집 처리 장치(3)에는 상술한 바와 같은 컴퓨터(2)가 접속되어 있을 뿐만 아니라, 별도의 입력 수단으로서 전용 제어기(4,5)도 접속되어 있고, 해당 전용 제어기(4, 5)를 이용하더라도 편집을 위한 제어 명령을 입력할 수 있도록 이루어져 있다.Not only is the computer 2 described above connected to this editing processing apparatus 3, but also the dedicated controllers 4 and 5 are connected as separate input means, and the dedicated controllers 4 and 5 are used. Even if it is possible to input control command for editing.

전용 제어기(4)는 소재의 인점이나 아웃점을 지시하기 위한 버튼 조작자, 소재의 재생을 지시하기 위한 버튼 조작자, 또는 편집한 프로그램의 기록을 지시하기 위한 버튼 조작자 등을 갖는 동시에, 변속 재생(소위 셔틀 재생(shuttle reproducing))이나 프레임 이송 재생(frame-by-frame reproducing)(이른바 죠그 재생)의 지시를 입력하기 위한 다이얼 조작자 등을 가지며, 그 버튼 조작자 또는 다이얼 조작자를 통해 입력된 지시 정보에 따른 제어 신호(S3)를 편집 처리 장치(3)에 송출하도록 이루어져 있다.The dedicated controller 4 has a button operator for instructing the in or out point of the work, a button operator for instructing the play of the work, a button operator for commanding the recording of the edited program, and the like. It has a dial operator for inputting instructions of playback (shuttle reproducing) or frame-by-frame reproducing (so-called jog playback), and controls according to the instruction information input through the button operator or dial operator. The signal S3 is sent to the editing processing apparatus 3.

또한, 전용 제어기(5)는 오디오 신호의 신호 레벨을 설정하기 위한 4개의 오디오용 페이더 레버나 2개의 영상을 전환할 때의 전환율을 설정하기 위한 비디오용 페이더 레버 등을 갖고 있고, 그 페이더 레버를 통해 입력된 지시 정보(이 지시 정보는 페이더 레버에 의한 설정치를 나타낸다)에 따른 제어 신호(S4) 편집 처리 장치(3)에 송출하도록 이루어져 있다.The dedicated controller 5 also has four audio fader levers for setting the signal level of the audio signal, a video fader lever for setting the switching ratio when switching between two images, and the like. The control signal S4 is sent to the editing processing apparatus 3 according to the instruction information inputted through the instruction information (the instruction information indicates the set value by the fader lever).

또한, 편집 처리 장치(3)에 대해서는 데일리 서버(daily server)(6)(일반적으로 방송국에서 영상이나 음성 등의 편집 소재를 기억하고 있는 기억 수단)가 접속되어 있고, 편집 처리 장치(3)는 데일리 서버(6)에 기억되어 있는 비디오 및 오디오 신호를 획득 수 있다. 데일리 서버(6)는 2 채널 분의 출력 포트을 갖고 있고, 편집 처리 장치(3)로부터 공급되는 채널마다의 제어 신호(S5, S6)에 따라 원하는 비디오 및 오디오 신호(S7, S8)를 기억 매체(6A)로부터 판독하여 출력할 수 있다. 또, 기억 매체(6A)에는 압축율 1/10의 MPEG(Moving Picture coding Experts Croup) 규격으로 압축된 비디오 및 오디오 신호가 기억되어 있고, 판독된 비디오 및 오디오 신호는 각각 디코더(6B, 6C)를 통해 복호화가 행해진 후, 시리얼 디지털 인터페이스(이하, 이것을 SDI라고 부른다) 규격의 포맷으로 변환되고, 그 SDI 규격의 비디오 및 오디오 신호(S7, S8)가 편집 처리 장치(3)에 공급된다.In addition, the editing processing apparatus 3 is connected to a daily server 6 (generally, a storage means for storing editing materials such as video and audio in a broadcasting station), and the editing processing apparatus 3 is connected to the editing processing apparatus 3. The video and audio signals stored in the daily server 6 can be obtained. The daily server 6 has output ports for two channels and stores desired video and audio signals S7 and S8 in accordance with control signals S5 and S6 for each channel supplied from the editing processing apparatus 3. 6A) can be read out and output. The storage medium 6A stores video and audio signals compressed with a Moving Picture coding Experts Croup (MPEG) standard having a compression ratio of 1/10, and the read video and audio signals are respectively decoded through the decoders 6B and 6C. After decoding is performed, it is converted into a format of a serial digital interface (hereinafter referred to as SDI) standard, and video and audio signals S7 and S8 of the SDI standard are supplied to the editing processing apparatus 3.

또한, 편집 처리 장치(3)에 대해서는 VTR(7)도 접속되어 있고, 편집 처리 장치(3)는 VTR(7)에 기억되어 있는 비디오 및 오디오 신호도 획득할 수 있다. VTR(7)은 SDI 규격의 입출력 인터페이스를 갖고 있고, 편집 처리 장치(3)로부터 공급되는 제어 신호(S9)에 따라 원하는 비디오 및 오디오 신호(S10)를 판독하여 출력할 수 있다. 또한, VTR(7)은 편집 처리된 후의 비디오 및 오디오 신호나 데일리 서버(6)로부터 판독된 비디오 및 오디오 신호(S7, S8)를 기록 대상의 비디오 및 오디오 신호(S11)로서 편집 처리 장치(3)로부터 받을 수 있는 동시에, 제어 신호(S9)에 따라그 비디오 및 오디오 신호(S11)를 비디오테이프에 기록할 수 있도록 구성되어 있다.In addition, the VTR 7 is also connected to the editing processing apparatus 3, and the editing processing apparatus 3 can also acquire video and audio signals stored in the VTR 7. The VTR 7 has an input / output interface of the SDI standard, and can read and output desired video and audio signals S10 in accordance with the control signal S9 supplied from the editing processing apparatus 3. In addition, the VTR 7 uses the video and audio signals S7 and S8 read out from the daily server 6 as the video and audio signals S11 to be recorded as the video and audio signals S11 to be recorded as the editing processing apparatus 3. And the video and audio signals S11 can be recorded on the video tape according to the control signal S9.

또한, 편집 처리 장치(3)에 대해서는 기억 수단으로서, 복수의 하드 디스크로 이루어지는 국소 기억 장치(8)도 접속되어 있고, 편집 처리 장치(3)는 해당 국소 기억 장치(8)에 기억되어 있는 비디오 및 오디오 신호도 획득할 수 있도록 구성되어 있다. 국소 기억 장치(8)는 SDI 규격의 입출력 인터페이스를 갖는 동시에, 출력 포트로서는 2 채널 분의 포트를 가지며, 편집 처리 장치(3)로부터 공급되는 제어 신호(S12)에 따라 원하는 비디오 및 오디오 신호(S13A 내지 SE)를 판독하여 출력하도록 이루어져 있다. 또한, 국소 기억 장치(8)는 편집 처리된 후의 비디오 및 오디오 신호나 데일리 서버(6) 또는 VTR(7)로부터 판독된 비디오 및 오디오 신호를 기록 대상의 비디오 및 오디오 신호(S15)로서 편집 처리 장치(3)로부터 수신하도록 이루어지고 있고, 제어 신호(S9)에 따라 그 비디오 및 오디오 신호(S15)를 내부의 하드 디스크에 기록하도록 이루어져 있다.In addition, the editing processing apparatus 3 is also connected to a local storage device 8 composed of a plurality of hard disks as a storage means, and the editing processing device 3 is a video stored in the local storage device 8. And an audio signal. The local memory device 8 has an input / output interface of the SDI standard, and has two channels as output ports, and the desired video and audio signals S13A in accordance with the control signal S12 supplied from the editing processing device 3. To SE). In addition, the local memory device 8 edits the video and audio signals after the editing process or the video and audio signals read out from the daily server 6 or the VTR 7 as the video and audio signals S15 to be recorded. (3), and the video and audio signals S15 are recorded in the internal hard disk in accordance with the control signal S9.

또한, 편집 처리 장치(3)에 대해서는 온 에어 버퍼(on-air buffer)(방송시에 프로그램을 일시적으로 기억하기 위한 기억 수단)(9)도 접속되어 있고, 해당 편집 처리 장치(3)에 의해서 편집 처리한 프로그램의 비디오 및 오디오 신호(S16)를 온 에어 버퍼(9)에 기억할 수 있도록 이루어지고 있다. 이 경우, 온 에어 버퍼(9)는 SDI 규격의 입력 인터페이스를 갖고 있기 때문에, 송출되는 비디오 및 오디오 신호(S16)는 SDI 규격의 신호 포맷으로 되어 있다. 또한, 온 에어 버퍼(9)에 있어서는 공급된 비디오 및 오디오 신호(S16)를 인코더(9A)에 의해서 압축율 1/10의 MPEG 규격으로 압축한 후, 내부의 기억 매체(9B)에 기억하도록 이루어지고 있다.In addition, an on-air buffer (memory means for temporarily storing a program at the time of broadcast) 9 is also connected to the editing processing apparatus 3, and the editing processing apparatus 3 The video and audio signals S16 of the edited program can be stored in the on-air buffer 9. In this case, since the on-air buffer 9 has an input interface of the SDI standard, the video and audio signals S16 to be transmitted are in the signal format of the SDI standard. In the on-air buffer 9, the supplied video and audio signals S16 are compressed by the encoder 9A to the MPEG standard with a compression ratio of 1/10, and then stored in the internal storage medium 9B. have.

또, 온 에어 버퍼(9)와 편집 장치(1)의 컴퓨터(2)는 예를 들면 이더넷과 같은 로컬 에어리어 네트워크(이하, 이것을 LAN이라고 부른다, 10)를 통해 접속되어 있고, 온 에어 버퍼(9)에 대한 제어 명령은 컴퓨터(2) 및 LAN(10)을 통해 해당 온 에어 버퍼(9)에 송출된다. 또한, 편집된 프로그램이 어떠한 소재로 구성되어 있는지를 나타내는 편집 리스트(일반적으로 편집 결정 리스트(edit decision list)라고도 한다)도, LAN(10)을 통해 온 에어 버퍼(9)에 송출된다.The on-air buffer 9 and the computer 2 of the editing apparatus 1 are connected via a local area network (hereinafter, referred to as LAN 10), such as Ethernet, for example, and the on-air buffer 9 Control commands are sent to the corresponding on-air buffer 9 via the computer 2 and the LAN 10. In addition, an edit list (commonly referred to as an edit decision list) indicating what material the edited program is composed of is also sent to the on-air buffer 9 via the LAN 10.

또한, 편집 장치(1)의 컴퓨터(2)와 데일리 서버(6)도 LAN(10)을 통해 접속되어 있고, 해당 LAN(10)을 통해 데일리 서버(6)에 기억되어 있는 각 소재의 파일명 등을 컴퓨터(2)로부터 참조할 수 있도록 이루어지고 있다.In addition, the computer 2 of the editing apparatus 1 and the daily server 6 are also connected via the LAN 10, and the file names of the respective materials stored in the daily server 6 via the LAN 10, and the like. Is made to be referred to from the computer 2.

또한, 편집 처리 장치(3)에 대해서는 옵션 접속으로서 스피커(11 및 12)가 접속되도록 이루어져 있고, 편집 처리 장치(3)에 의해서 편집된 오디오 신호(S17, S18)를 해당 스피커(11, 12)로부터 송출하여 오디오에 관한 편집 결과를 확인할 수 있도록 이루어져 있다.In addition, the speakers 11 and 12 are connected to the editing processing apparatus 3 as an option connection, and the audio signals S17 and S18 edited by the editing processing apparatus 3 are connected to the speakers 11 and 12. It can be sent from to check the edit result of the audio.

또 편집 처리 장치(3)에 대해서는 옵션 접속으로서 프리뷰 전용 모니터(13)도 접속되도록 이루어져 있고, 편집 처리 장치(3)에 의해서 편집된 비디오 신호(S19)를 해당 모니터(13)에 표시하여 비디오에 관한 편집 결과를 모니터(13)에 의해서도 확인할 수 있도록 이루어지고 있다. 모니터(13)에 표시되는 프리뷰 화면 쪽이 컴퓨터(2)의 모니터(2B)에 표시되는 프리뷰 화면보다도 크기 때문에, 모니터(13)를 접속한 쪽이 보다 선명하게 편집 결과를 확인할 수 있다.The preview processing monitor 13 is also connected to the editing processing apparatus 3 as an optional connection, and the video signal S19 edited by the editing processing apparatus 3 is displayed on the monitor 13 to display the video. The result of the editing can be confirmed by the monitor 13 as well. Since the preview screen displayed on the monitor 13 is larger than the preview screen displayed on the monitor 2B of the computer 2, the side connected to the monitor 13 can confirm the editing result more clearly.

여기서 편집 장치(1)에 있어서의 편집 방법을 간단히 설명한다. 우선 편집 장치(1)에서는 응용 소프트웨어를 기동시키면, 상술한 바와 같이 모니터(2B)에 GUI를 위한 그래픽 표시가 표시된다. 그래픽 표시로서는 후술하는 바와 같이, 소재의 영상을 보면서 인점이나 아웃점을 지정함으로써 이벤트를 생성하는 뷰어 윈도우의 화면이나, 뷰어 윈도우에 의해서 생성한 이벤트의 클립 화면을 표시하는 로그 윈도우의 화면, 또는 편집 장치(1)에서 수행하는 편집 처리 내용을 지정하는 동시에, 지정된 편집 처리 내용을 그래픽 표시를 이용하여 표시하는 프로그램 윈도우의 화면이나, 그 외, 제어 명령을 입력하기 위한 제어 명령 버튼 등이다.Here, the editing method in the editing apparatus 1 is demonstrated briefly. First, when the application software is activated in the editing apparatus 1, the graphic display for the GUI is displayed on the monitor 2B as described above. As a graphic display, as described later, a screen of a viewer window that generates an event by specifying an in or out point while viewing a video of a material, a screen of a log window that displays a clip screen of an event generated by the viewer window, or an editing device. A program window screen for specifying the edit processing contents to be performed in (1) and displaying the specified edit processing contents using a graphic display, and a control command button for inputting a control command.

우선 편집 오퍼레이터는 모니터(2B)에 표시되는 소정의 제어 명령 버튼을 마우스(2D)를 이용하여 버튼이나 아이콘을 클릭함으로써, 편집 소재가 기억되어 있는 디바이스(즉 데일리 서버(6), VTR(7) 또는 국소 기억 장치(8))를 지시하는 동시에, 그 소재의 재생을 지시한다. 이로써 그 지시된 소재의 비디오 신호(S2)가 편집 처리 장치(3)를 통해 컴퓨터(2)에 공급되며, 그 소재의 영상이 모니터(2B)에 표시된다. 오퍼레이터는 그 소재의 영상을 보면서 인점과 아웃점을 지시함으로써, 프로그램 작성에 필요한 이벤트를 생성한다. 오퍼레이터는 처리를 반복하여, 프로그램 작성에 필요한 이벤트를 대충 준비하고, 이것을 로그 윈도우에 등록한다.First, the editing operator clicks a button or an icon by using a mouse 2D on a predetermined control command button displayed on the monitor 2B, so that the editing material is stored (i.e., the daily server 6 and the VTR 7). Alternatively, the local memory device 8 is instructed, and the reproduction of the material is instructed. Thereby, the video signal S2 of the indicated material is supplied to the computer 2 through the editing processing apparatus 3, and the image of the material is displayed on the monitor 2B. The operator generates the events necessary for program creation by instructing the in and out points while watching the video of the material. The operator repeats the process, roughly prepares events necessary for program creation, and registers them in the log window.

계속해서 오퍼레이터는 로그 윈도우에 나타내고 있는 원하는 클립 화면을 마우스(2D)로 클릭함으로써 원하는 이벤트를 선택한다. 이것에 의해 선택한 이벤트를 나타내는 띠형 그래픽이 표시되기 때문에, 이것을 프로그램 윈도우 내에 있는 타임 라인(상세한 것은 후술한다)상의 원하는 위치에 둔다. 이것을 순차 반복하여 이벤트를 나타내는 띠형 그래픽 표시를 원하는 순서로 배열함으로써, 프로그램의 순서를 지시한다. 또한, 원하는 이벤트에 비디오 효과를 부가하는 것이라면, 소정의 제어 명령 버튼을 클릭함으로써 비디오 효과 설정을 위한 다이얼로그를 표시하고, 그 중에서 부가하고자 하는 비디오 효과를 선택한다. 이것에 의해 선택한 비디오 효과를 나타내는 띠형 그래픽 표시가 표시되기 때문에, 이것을 타임 라인 상의 비디오 효과를 부가하고자 하는 위치에 둔다.The operator then selects the desired event by clicking on the desired clip screen shown in the log window with the mouse 2D. As a result, a band-shaped graphic indicating the selected event is displayed, so that it is placed at a desired position on the timeline (detailed later) in the program window. The sequence of the programs is instructed by sequentially repeating this and arranging the band graphic displays representing the events in a desired order. If a video effect is to be added to a desired event, a dialog for setting a video effect is displayed by clicking a predetermined control command button, and the video effect to be added is selected from among them. As a result, a band graphic display indicating the selected video effect is displayed, so that it is placed at the position where the video effect on the timeline is to be added.

이렇게 하여 프로그램의 개안이 결정되면, 오퍼레이터는 소정의 제어 명령 버튼을 클릭함으로써 프리뷰의 지시를 입력한다. 이것을 받은 편집 장치(1)는 편집 처리 장치(3)를 제어하는 것에 의해 프로그램 윈도우에서 지시된 프로그램의 순서에 기초하여 각 이벤트를 재생하는 동시에, 편집 처리 장치(3)를 제어하는 것에 의해 지시된 이벤트에 비디오 효과를 시행하며, 비디오 신호(S2)를 생성한다. 비디오 신호(S2)는 컴퓨터(2)에 공급되며, 모니터(2B)에 표시된다. 이것에 의해 오퍼레이터는 프로그램 윈도우를 이용하여 지시한 프로그램 내용을 확인할 수 있다.When the opening and closing of the program is determined in this way, the operator inputs an instruction for preview by clicking a predetermined control command button. The editing apparatus 1 which received this reproduces each event based on the order of the program indicated by the program window by controlling the editing processing apparatus 3, and is instructed by controlling the editing processing apparatus 3 A video effect is applied to the event and a video signal S2 is generated. The video signal S2 is supplied to the computer 2 and displayed on the monitor 2B. In this way, the operator can confirm the program contents instructed using the program window.

이러한 프리뷰의 결과, 프로그램 내용에 변경이 없으면, 오퍼레이터는 소정의 제어 명령 버튼을 클릭함으로써 기록 지시를 입력한다. 이것을 받은 편집 장치(1)는 상술한 바와 같이 편집 처리 장치(3)를 제어하는 것에 의해 지시된 프로그램을 나타내는 비디오 및 오디오 신호(S15a, S15b)를 생성하며, 이것을 국소 기억 장치(8)에 공급하여 기록한다. 이렇게 하여 처리에 의해, 프로그램 윈도우에 의해서 지시된 프로그램이 완성되며, 국소 기억 장치에 기억된다. 또, 편집에 의해 생성한 프로그램을 방송하는 경우 GUI를 통해 전송의 지시를 입력하면, 국소 기억 장치로부터 그 비디오 및 오디오 신호가 판독되고, 편집 처리 장치(3)를 통해 온 에어 버퍼(9)에 전송된다.As a result of such preview, if there is no change in the program contents, the operator inputs a recording instruction by clicking a predetermined control command button. The editing apparatus 1 receiving this generates the video and audio signals S15a and S15b representing the program instructed by controlling the editing processing apparatus 3 as described above, and supplies them to the local storage device 8. Record it. By this process, the program indicated by the program window is completed, and stored in the local storage device. In the case of broadcasting a program generated by editing, when a transmission instruction is input through the GUI, the video and audio signals are read from the local storage device, and the air buffer 9 is turned on through the editing processing device 3. Is sent.

이렇게 하여 편집 장치(1)에서는 각 소재의 영상이나 프로그램의 영상을 모니터(2B)에서 확인하면서 해당 프로그램을 작성할 수 있기 때문에, 편집의 이용성의 편리함을 향상시킬 수 있다. 또한, 편집 장치(1)에서는 오퍼레이터가 스위처나 특수 효과 장치를 직접 조작하지 않더라도 편집이 가능하기 때문에, 편집 조작을 용이하게 할 수 있으며, 편집에 걸리는 시간을 삭감시킬 수 있다.In this way, in the editing apparatus 1, the program can be created while checking the video of each material or the video of the program on the monitor 2B, so that the usability of editing can be improved. In addition, since the editing apparatus 1 can edit even if the operator does not directly operate the switcher or the special effect apparatus, the editing operation can be facilitated, and the time taken for editing can be reduced.

1-2. 컴퓨터의 구성1-2. Computer configuration

이 항에서는 컴퓨터(2)의 내부 구성에 관해서 구체적으로 설명한다. 도 2에 도시된 바와 같이, 컴퓨터(2)는 명령 데이터나 비디오 데이터를 전송하기 위한 시스템 버스(20), 컴퓨터 전체의 제어를 하는 CPU(21), 입력되는 비디오 신호(S2)에 대하여 화상 처리 등을 수행하는 비디오 프로세서(22), 모니터(2B)에 표시되는 비디오 데이터나 GUI를 위한 그래픽 표시를 관리하는 표시 제어기(23), 로컬 하드 디스크 드라이브(로컬 HDD, 24A)를 제어하기 위한 HDD 인터페이스(24), 플로피 디스크 드라이브(FDD, 25A)를 제어하기 위한 FDD 인터페이스(25),마우스(2D) 및 키보드(2C) 등의 포인팅 디바이스로부터의 명령에 기초하여 제어 명령을 생성하는 포인팅 디바이스 인터페이스(26), 편집 처리 장치(3)에 제어 신호(S1)를 송출하기 위한 소프트웨어 드라이버를 구비한 외부 인터페이스(27)를 갖고 있다.This section describes the internal structure of the computer 2 in detail. As shown in Fig. 2, the computer 2 performs image processing on a system bus 20 for transmitting command data or video data, a CPU 21 for controlling the entire computer, and an input video signal S2. A video processor 22 for performing such operations, a display controller 23 for managing a graphic display for video data or a GUI displayed on the monitor 2B, and an HDD interface for controlling a local hard disk drive (local HDD, 24A). (24), an FDD interface 25 for controlling the floppy disk drives FDD, 25A, and a pointing device interface for generating a control command based on commands from a pointing device such as a mouse 2D and a keyboard 2C ( 26) The external interface 27 provided with the software driver for sending out the control signal S1 to the edit processing apparatus 3 is provided.

시스템 버스(20)는 컴퓨터(2)내부에서 비디오 데이터나 명령 데이터, 또는 어드레스 데이터 등의 통신을 수행하기 위한 버스이고, 비디오 데이터를 전송하기 위한 화상 데이터 버스(20A), 및 명령 데이터나 어드레스 데이터를 전송하기 위한 명령 데이터 버스(20B)로 이루어진다.The system bus 20 is a bus for performing communication such as video data, command data or address data in the computer 2, an image data bus 20A for transmitting video data, and command data or address data. It consists of a command data bus 20B for transmitting.

화상 데이터 버스(20A)에는 CPU(21), 비디오 프로세서(22), 표시 제어기(23), HDD 인터페이스(24) 및 FDD 인터페이스(25)가 각각 접속되어 있고, 해당 CPU(21), 비디오 프로세서(22), 표시 제어기(23), HDD 인터페이스(24) 및 FDD 인터페이스(25)는 화상 데이터 버스(20A)를 통해 비디오 데이터의 전송을 하도록 이루어져 있다.The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are connected to the image data bus 20A, respectively, and the CPU 21, the video processor ( 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are configured to transmit video data via the image data bus 20A.

한편, 명령 데이터 버스(20B)에는 CPU(21), 비디오 프로세서(22), 표시 제어기(23), HDD 인터페이스(24), FDD 인터페이스(25), 포인팅 디바이스 인터페이스(26) 및 외부 인터페이스(27)가 각각 접속되어 있고(즉 컴퓨터(2) 내부의 모든 블록이 접속되어 있다), 해당 명령 데이터 버스(20B)를 통해 명령 데이터나 어드레스 데이터의 전송을 수행하도록 이루어지고 있다.On the other hand, the command data bus 20B includes a CPU 21, a video processor 22, a display controller 23, an HDD interface 24, an FDD interface 25, a pointing device interface 26, and an external interface 27. Are connected to each other (i.e. all the blocks inside the computer 2 are connected), and the transfer of command data and address data is performed via the command data bus 20B.

CPU(21)는 컴퓨터(2) 전체의 제어를 하는 블록이고, 컴퓨터(2)의 오퍼레이팅 시스템이 격납되어 있는 ROM(21A)과, 업로드된 응용 소프트웨어 등이 격납되는 RAM(21B)을 갖고 있다. 컴퓨터(2)를 기동하는 경우 CPU(21)는 ROM(21A)에 기억된 오퍼레이팅 시스템에 기초를 둔 소프트웨어를 실행한다. 또한, 응용 소프트웨어를 기동중의 오퍼레이팅 시스템 하에서 실행하는 경우 CPU(21)는 우선 하드 디스크 드라이브(24A)의 하드 디스크에 기록되어 있는 응용 소프트웨어를 판독하여 RAM(21B)에 업로드한 후, 해당 응용 소프트웨어를 실행한다.The CPU 21 is a block for controlling the entire computer 2, and has a ROM 21A in which an operating system of the computer 2 is stored, and a RAM 21B in which uploaded application software and the like are stored. When the computer 2 is started up, the CPU 21 executes software based on the operating system stored in the ROM 21A. In addition, when the application software is executed under the operating system being started, the CPU 21 first reads the application software recorded on the hard disk of the hard disk drive 24A, uploads it to the RAM 21B, and then applies the application software. Run

비디오 프로세서(22)는 컴퓨터(2)에 입력되는 SDI 규격의 비디오 신호(S2)를 수취하고, 해당 비디오 신호(S2)에 대하여 데이터 변환을 시행하는 동시에, 그 변환된 비디오 데이터를 일시적으로 버퍼링하기 위한 블록이다. 구체적으로는 비디오 프로세서(22)는 해당 비디오 프로세서(22)의 전체를 제어하는 프로세서 제어기(22A), 수취한 비디오 신호(S2)의 페이로드에서 컴포지트 비디오 신호를 추출하고 또한 해당 컴포지트 비디오 신호를 디지털의 컴포넌트 비디오 신호로 변환하는 데이터 변환부(22B), 및 데이터 변환부(22B)에서 송출되는 수 프레임분의 비디오 데이터를 일시적으로 기억하는 프레임 메모리(22C)로 이루어진다.The video processor 22 receives the SDI standard video signal S2 input to the computer 2, performs data conversion on the video signal S2, and temporarily buffers the converted video data. Block for Specifically, the video processor 22 extracts the composite video signal from the processor controller 22A, which controls the entirety of the video processor 22, and the payload of the received video signal S2, and digitally converts the composite video signal. The data converter 22B converts the component video signal into a component video signal, and the frame memory 22C temporarily stores video data of several frames transmitted by the data converter 22B.

프로세서 제어기(22A)는 데이터 변환부(22B)에 대하여 제어 신호를 송출하는 것에 의해 해당 데이터 변환부(22B)의 데이터 변환 동작을 제어하는 동시에, 해당 데이터 변환부(22B)에 비디오 신호(S2)로부터 타임 코드를 추출시킨다. 또한, 프로세서 제어기(22A)는 프레임 메모리(22C)에 대하여 제어 신호를 송출하는 것에 의해 해당 프레임 메모리(22C)의 판독/기록 타이밍 및 판독/기록 어드레스를 제어한다. 판독 타이밍에 관해서는 프로세서 제어기(22A)는 표시 제어기(23)에 송출하는 타임 코드와 비디오 데이터(프레임 데이터)가 대응하도록 프레임 메모리(22C)의 판독 타이밍를 제어한다.The processor controller 22A controls the data conversion operation of the data conversion section 22B by sending a control signal to the data conversion section 22B, and at the same time the video signal S2 is transmitted to the data conversion section 22B. Extract the time code from The processor controller 22A also controls the read / write timing and read / write address of the frame memory 22C by sending a control signal to the frame memory 22C. As for the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code sent to the display controller 23 and the video data (frame data) correspond.

데이터 변환부(22B)는 프로세서 제어기(22A)에서의 제어 신호에 기초하여 컴포지트 비디오 신호를 디지털의 컴포넌트 비디오 신호로 변환한다. 타임 코드는 변환 과정에서 추출된다. 변환에 의해 얻어진 비디오 데이터는 상술한 바와 같이 프레임 메모리(22C)에 송출되고, 또한 추출된 타임 코드는 프로세서 제어기(22A)에 송출된다.The data converter 22B converts the composite video signal into a digital component video signal based on the control signal from the processor controller 22A. The time code is extracted during the conversion. The video data obtained by the conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.

프레임 메모리(22C)는 데이터 변환부(22B)에서 공급되는 비디오 데이터를 일시적으로 기억한다. 프레임 메모리(22C)의 판독/기록 타이밍은, 상술한 바와 같이 프로세서 제어기(22A)에 의해서 제어된다. 프레임 메모리(22C)는 2개의 프레임 메모리로 구성되며, 2프레임분의 비디오 데이터를 기억할 수 있도록 이루어져 있다.The frame memory 22C temporarily stores the video data supplied from the data converter 22B. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C is composed of two frame memories, and is configured to store two frames of video data.

이 프레임 메모리(22C)에 기억된 비디오 데이터는 프로세서 제어기(22A)의 판독 제어에 기초하여 판독된다. 그 때, 프레임 메모리(22C)에 기억된 비디오 데이터를 전 화소 판독하는 것은 아니고, 소정의 간격으로 추출하여 판독하는 것에 의해 화상 사이즈를 원화상보다도 작게 한다. 이렇게 하여 화상 사이즈가 작게 변환된 비디오 데이터는 모니터(2B)의 뷰어 윈도우(상세한 것은 후술한다)에 표시되기 때문에, 화상 데이터 버스(20A)를 통해 표시 제어기(23)에 송출된다.The video data stored in this frame memory 22C is read out based on the read control of the processor controller 22A. In this case, the image size is made smaller than the original image by extracting and reading the video data stored in the frame memory 22C at predetermined intervals rather than reading all the pixels. In this way, the video data converted into a smaller image size is displayed in the viewer window (detailed later) of the monitor 2B, and is sent to the display controller 23 via the image data bus 20A.

표시 제어기(23)는 모니터(2B)에 표시되는 데이터를 제어하기 위한 제어 블록이다. 표시 제어기(23)는 메모리 제어기(23A)와 VRAM(비디오 랜덤 액세스 메모리, 23B)를 갖고 있다. 메모리 제어기(23A)는 컴퓨터(2)의 내부 동기에 따라 VRAM(23B)의 판독/기록 타이밍을 제어한다. VRAM(23B)에는 비디오 프로세서(22)의 프레임 메모리(22C)에서 송출된 비디오 데이터 및 CPU(21)에 의해서 생성되는 이미지 데이터가, 메모리 제어기(23A)에서의 타이밍 제어 신호에 기초하여 기억된다. VRAM(23B)에 기억된 비디오 데이터나 이미지 데이터는 컴퓨터(2)의 내부 동기에 기초를 둔 메모리 제어기(23A)에서의 타이밍 제어 신호에 기초하여 판독되고, 모니터(2B)에 표시된다.The display controller 23 is a control block for controlling data displayed on the monitor 2B. The display controller 23 has a memory controller 23A and a VRAM (video random access memory) 23B. The memory controller 23A controls the read / write timing of the VRAM 23B in accordance with the internal synchronization of the computer 2. In the VRAM 23B, video data sent from the frame memory 22C of the video processor 22 and image data generated by the CPU 21 are stored based on the timing control signal from the memory controller 23A. Video data and image data stored in the VRAM 23B are read out based on the timing control signal from the memory controller 23A based on the internal synchronization of the computer 2, and displayed on the monitor 2B.

이 경우, 이미지 데이터에 의한 그래픽 표시가 GUI를 위한 그래픽 표시가 된다. CPU(10)로부터 VRAM(23B)에 송출되는 이미지 데이터는 예를 들면 윈도우나 커서, 또는 스크롤바 또는 디바이스를 나타내는 아이콘 등의 이미지 데이터이다. 컴퓨터(2)로서는 이러한 복수 종류의 이미지 데이터를 모니터(2B)에 표시함으로써 GUI를 위한 그래픽 표시를 얻고 있다.In this case, the graphic display by the image data becomes the graphic display for the GUI. The image data sent from the CPU 10 to the VRAM 23B is, for example, image data such as a window, a cursor, a scroll bar, or an icon representing a device. As the computer 2, such a plurality of types of image data are displayed on the monitor 2B to obtain a graphic display for the GUI.

HDD 인터페이스(24)는 컴퓨터(2)내부에 설치된 국소 하드 디스크 드라이브(HDD, 24A)와 통신하기 위한 인터페이스 블록이다. HDD 인터페이스(24)와 하드 디스크 드라이브(24A)는 SCSI(Small Computer System Interface)의 전송 포맷에 기초하여 통신이 수행되도록 이루어져 있다.The HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A installed inside the computer 2. The HDD interface 24 and the hard disk drive 24A are configured to perform communication based on a transmission format of a small computer system interface (SCSI).

하드 디스크 드라이브(24A)에는 컴퓨터(2)로 기동하는 응용 소프트웨어가 인스톨되어 있고, 해당 응용 소프트웨어를 실행하는 경우 하드 디스크 드라이브(24A)로부터 판독되어 CPU(21)의 RAM(21B)에 업로드된다. 또한, 응용 소프트웨어를 종료할 때는 RAM(21B)에 기억되어 있는 편집 오퍼레이션에 의해서 생성된 각종 정보(예를 들면 파일 정보 등)는 하드 디스크 드라이브(24A)를 통해 하드 디스크에 다운로드된다.Application software for starting up the computer 2 is installed in the hard disk drive 24A. When the application software is executed, it is read from the hard disk drive 24A and uploaded to the RAM 21B of the CPU 21. At the end of the application software, various types of information (for example, file information, etc.) generated by the editing operation stored in the RAM 21B are downloaded to the hard disk via the hard disk drive 24A.

FDD 인터페이스(25)는 컴퓨터(2) 내부에 설치된 플로피 디스크 드라이브(FDD)(25A)와 통신하기 위한 인터페이스 블록이다. FDD 인터페이스(25)와 플로피 디스크 드라이브(25A)는 SCSI의 전송 포맷에 기초하여 통신이 수행되도록 이루어져 있다.The FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25A installed inside the computer 2. The FDD interface 25 and the floppy disk drive 25A are configured to perform communication based on the SCSI transmission format.

포인팅 디바이스 인터페이스(26)는 컴퓨터(2)에 접속된 마우스(2D) 및 키보드(2C)에서의 정보를 수신하는 인터페이스 블록이다. 포인팅 디바이스 인터페이스(26)는 마우스(2D)에 설치된 2차원 로터리 인코더의 검출 정보, 및 마우스(2D)에 설치된 좌우의 버튼의 클릭 정보를 해당 마우스(2D)에서 수취하고, 수취한 정보를 디코딩하여 CPU(21)에 송출한다. 마찬가지로, 포인팅 디바이스 인터페이스(26)는 키보드(2C)에 설치된 버튼으로부터의 입력 정보를 수취하고, 수취한 입력 정보를 디코딩하여 CPU(21)에 송출한다. 이것에 의해 CPU(21)는 모니터(2B)에 표시되는 GUI 중 어느 쪽의 명령 버튼이 지시되었는지 인식할 수 있는 동시에, 키보드(2C)로부터 입력된 각종 데이터를 인식할 수 있고, 그에 대응하는 제어를 할 수 있다.The pointing device interface 26 is an interface block that receives information from the mouse 2D and the keyboard 2C connected to the computer 2. The pointing device interface 26 receives detection information of a two-dimensional rotary encoder installed in the mouse 2D, and click information of left and right buttons installed in the mouse 2D, and decodes the received information. It sends out to CPU21. Similarly, the pointing device interface 26 receives input information from a button provided on the keyboard 2C, decodes the received input information and sends it to the CPU 21. As a result, the CPU 21 can recognize which of the command buttons of the GUI displayed on the monitor 2B is instructed, and can also recognize various data input from the keyboard 2C, and control corresponding thereto. You can do

외부 인터페이스(27)는 컴퓨터(2)의 외부에 접속된 편집 처리 장치(3)와 통신하기 위한 블록이다. 외부 인터페이스(27)는 CPU(21)에서 생성된 재생 명령이나 기록 명령 등의 각종 제어 명령을 소정의 통신 프로토콜의 데이터로 변환하는 드라이버를 가지며, 해당 드라이버를 통해 제어 명령을 나타내는 제어 신호(S1)를 편집 처리 장치(3)에 송출한다.The external interface 27 is a block for communicating with the editing processing apparatus 3 connected to the outside of the computer 2. The external interface 27 has a driver for converting various control commands such as a playback command or a recording command generated by the CPU 21 into data of a predetermined communication protocol, and a control signal S1 indicating a control command through the driver. Is sent to the editing processing apparatus 3.

1-3. 편집 처리 장치의 구성1-3. Configuration of Edit Processing Unit

이 항에서는 편집 처리 장치(3)의 구성에 대해서 설명한다. 도 3에 도시된 바와 같이, 편집 처리 장치(3)는 크게 나눠 시스템 제어부(3A), 매트릭스 스위처부(3B), 화상 처리부(3C) 및 음성 처리부(3D)로 이루어지고 있다. 시스템 제어부(3A)는 컴퓨터(2)로부터 이송되는 제어 신호(S1)나 전용 제어기(4, 5)로부터 이송되는 제어 신호(S3, S4)를 받아들이고, 해당 제어 신호(S1, S3 또는 S4)를 기초로 각 블록의 동작을 제어한다. 구체적으로는 시스템 제어부(3A)는 제어 버스(3E)를 통해 매트릭스 스위처부(3B), 화상 처리부(3C) 및 음성 처리부(3D)의 동작을 제어하는 동시에, 제어 신호(S5, S6, S9, S12)를 송출하여 데일리 서버(6), VTR(7) 및 국소 기억 장치(8)의 재생 또는 기록 동작 등을 제어한다. 시스템 제어부(3A)는 외부로부터 공급되는 레퍼런스 타임 코드(REF-TC : reference time code)도 수취하고, 타임 코드의 관리도 수행하도록 이루어지고 있다.This section describes the configuration of the editing processing apparatus 3. As shown in Fig. 3, the editing processing apparatus 3 is roughly divided into a system control section 3A, a matrix switcher section 3B, an image processing section 3C, and an audio processing section 3D. The system control unit 3A receives the control signal S1 transferred from the computer 2 or the control signals S3 and S4 transferred from the dedicated controllers 4 and 5, and receives the control signals S1, S3 or S4. Control the operation of each block as a basis. Specifically, the system control unit 3A controls the operations of the matrix switcher unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E, and simultaneously controls the control signals S5, S6, S9, S12) is sent to control the reproduction or recording operation of the daily server 6, the VTR 7 and the local memory 8, and the like. The system control unit 3A is also configured to receive a reference time code (REF-TC) supplied from the outside and to manage the time code.

매트릭스 스위처부(3B)는 복수의 입력 단자와 복수의 출력 단자를 갖고, 시스템 제어부(3A)에서의 제어에 따라 원하는 입력 단자를 원하는 출력 단자에 접속하도록 이루어져 있고, 이것에 의해 각 디바이스(데일리 서버(6), VTR(7) 또는 국소 기억 장치(8))로부터 판독된 비디오 및 오디오 신호 중 원하는 신호를 화상 처리부(3C)나 음성 처리부(3D)에 송출할 수 있는 동시에, 원하는 신호를 컴퓨터(2)나 각 디바이스(VTR(7), 국소 기억 장치(8) 또는 온 에어 버퍼(9))에 송출할 수 있도록 이루어지고 있다. 또한, 화상 처리부(3C)에 의해서 처리된 비디오 신호를 컴퓨터(2)에 송출하거나, 또는 그 비디오 신호에 음성 처리부(3D)에 의해서 처리된 오디오 신호를 중첩하여 각 디바이스(VTR(7), 국소 기억 장치(8) 또는 온 에어 버퍼(9))에 송출할 수도 있도록 이루어져 있다.The matrix switcher section 3B has a plurality of input terminals and a plurality of output terminals, and is configured to connect a desired input terminal to a desired output terminal under control of the system control unit 3A, thereby allowing each device (daily server) to be connected. (6), the desired signal among the video and audio signals read out from the VTR 7 or the local memory device 8 can be transmitted to the image processing unit 3C or the audio processing unit 3D, and the desired signal can be transmitted to the computer ( 2) and each device (VTR 7, local memory 8 or on-air buffer 9). Further, the video signal processed by the image processing unit 3C is transmitted to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal to each device (VTR 7, local). It can also send to the memory | storage device 8 or the on-air buffer 9.

화상 처리부(3C)는 트랜지션 효과(와이프나 페이지 턴 등, 배경의 영상으로부터 전경의 영상으로 전환할 수 있는 효과)나 애니메이션 효과(모자이크나 픽처 인 픽처(picture-in-picture)등, 특수한 화상 처리나 삽입 처리를 따르는 효과)와 같은 효과 처리를 비디오 신호에 시행하는 블록이고, 매트릭스 스위처부(3B)에 의해서 선택된 비디오 및 오디오 신호로부터 비디오 신호를 추출하며, 해당 비디오 신호에 효과 처리를 시행한 후, 그 비디오 신호를 매트릭스 스위처부(3B)에 출력한다.The image processing unit 3C performs special image processing such as transition effects (effects that can be switched from the background image to the foreground image, such as wipes and page turns), and animation effects (mosaic or picture-in-picture). B) effect processing, such as effects following the insertion process), on the video signal, extracts the video signal from the video and audio signals selected by the matrix switcher unit 3B, and then performs the effect processing on the video signal. The video signal is output to the matrix switcher unit 3B.

한편, 편집 장치에 있어서는 효과의 종류로서 트랜지션 효과와 애니메이션 효과의 2종류를 갖고 있다. 트랜지션 효과란, 와이프 효과나 페이지 턴 효과 등과 같이, 2개의 화상을 전환하는 비디오 효과를 말하고, 애니메이션 효과란, 3차원 양상 공간 변환 등의 화상에 특수 효과를 수행하는 효과, 또는 스포트라이트 효과, 줌 업 효과 및 픽처 인 픽처 효과 등과 같이 어떤 화상에 비디오 효과가 작용하는 화상을 삽입하는 효과를 말한다.On the other hand, the editing apparatus has two kinds of effects, transition effects and animation effects. A transition effect is a video effect that switches between two images, such as a wipe effect or a page turn effect. An animation effect is a effect that performs a special effect on an image such as a three-dimensional aspect space transformation, or a spotlight effect or a zoom-up. It refers to an effect of inserting an image with a video effect on a certain image, such as an effect and a PiP effect.

음성 처리부(3D)는 오디오 신호의 레벨 조정이나 합성을 행하는 블록이고, 매트릭스 스위처부(3D)에 의해서 선택된 비디오 및 오디오 신호로부터 오디오 신호를 추출한 후, 그 오디오 신호로 레벨 조정을 시행하거나, 또는 오디오 신호 끼리를 각각 합성하거나, 그 결과 얻어지는 오디오 신호를 매트릭스 스위처부(3B) 또는 스피커(11, 12)에 출력한다.The audio processing unit 3D is a block for adjusting or synthesizing the audio signal, extracts the audio signal from the video and audio signals selected by the matrix switcher unit 3D, and then performs level adjustment with the audio signal or the audio signal. Each of the signals is synthesized, or the resultant audio signal is output to the matrix switcher 3B or the speakers 11 and 12.

여기서 이들 각 블록의 구성을 도면을 참조하여 이하에 구체적으로 설명한다. 도 4에 도시된 바와 같이, 시스템 제어부(3A)는 메인 CPU(M-CPU)(30), 커뮤니케이션 CPU(C-CPU)(31) 및 디바이스 제어용 CPU(D-CPU, 32 내지 34)의 복수의 CPU로 구성된다. 메인 CPU(30)는 제어 버스(3E)를 통해 각 블록(즉 매트릭스 스위처부(3B), 화상 처리부(3C) 및 음성 처리부(3D))에 제어 명령을 주는 것에 의해 해당 각 블록의 동작을 제어하기 위한 CPU이다. 또한, 커뮤니케이션 CPU(31)는 외부의 타임 코드 발생기(도시하지 않음)에 의해서 발생한 레퍼런스 타임 코드(REF-TC)를 수취하거나, 또는 컴퓨터(2)로부터의 제어 신호(S1)나 전용 제어기(4, 5)로부터의 제어 신호(S3, S4)를 수취하기 위한 통신용 CPU이다. 또한, 디바이스 제어용 CPU(32 내지 34)는 각 디바이스(즉 데일리 서버(6), VTR(7) 및 국소 기억 장치(8))에 대하여 제어 신호(S5, S6, S9 또는 S12)를 송출하여 해당 각 디바이스의 동작을 제어하기 위한 CPU이다.Here, the structure of each of these blocks is demonstrated concretely below with reference to drawings. As shown in FIG. 4, the system control unit 3A includes a plurality of main CPU (M-CPU) 30, communication CPU (C-CPU) 31, and device control CPUs (D-CPUs 32 to 34). It consists of a CPU. The main CPU 30 controls the operation of each block by giving a control command to each block (that is, the matrix switcher unit 3B, the image processing unit 3C, and the audio processing unit 3D) via the control bus 3E. CPU to do this. In addition, the communication CPU 31 receives the reference time code REF-TC generated by an external time code generator (not shown), or the control signal S1 from the computer 2 or the dedicated controller 4. And a communication CPU for receiving the control signals S3 and S4 from 5). The device control CPUs 32 to 34 also transmit control signals S5, S6, S9 or S12 to each device (i.e., the daily server 6, the VTR 7 and the local memory 8). CPU for controlling the operation of each device.

이러한 시스템 제어부(3A)는 커뮤니케이션 CPU(31)에 의해서 제어 신호(S1, S3 또는 S4)를 수취하고, 해당 커뮤니케이션 CPU(31)에 의해서 그 제어 신호(S1, S3 또는 S4)가 나타내는 제어 코드를 재생한다. 제어 명령은 시스템 제어부(3A) 내부의 버스(35)를 통해 메인 CPU(30)에 전송된다. 메인 CPU(30)는 제어 명령을 해석하여, 디바이스 제어가 필요하다면 대응하는 디바이스 제어용 CPU(32, 33 또는 34)에 제어 명령을 송출하여 해당 디바이스 제어용 CPU(32,33 또는 34)를 통해 디바이스의 동작을 제어하며, 매트릭스 스위처부(3B), 화상 처리부(3C) 또는 음성 처리부(3D)의 제어가 필요하면 대응하는 블록에 제어 버스(3E)를 통해 제어 명령을 송출하여 해당 블록의 동작을 제어한다.The system control unit 3A receives the control signal S1, S3 or S4 by the communication CPU 31, and outputs the control code indicated by the control signal S1, S3 or S4 by the communication CPU 31. Play it. The control command is transmitted to the main CPU 30 via the bus 35 inside the system control unit 3A. The main CPU 30 interprets the control command and, if device control is required, sends a control command to the corresponding device control CPU 32, 33 or 34 and sends the control command to the device control CPU 32, 33 or 34. If the control of the matrix switcher 3B, the image processing unit 3C, or the audio processing unit 3D is necessary, the control command is sent to the corresponding block through the control bus 3E to control the operation of the block. do.

커뮤니케이션 CPU(31)는 내부에 컴퓨터(2)의 외부 인터페이스(27)에 대응한 통신용 드라이브를 가지고 있고, 해당 드라이버에 의해서 컴퓨터(2)로부터 이송되는 제어 신호(S1)를 수신하도록 이루어져 있다. 또한, 디바이스 제어용 CPU(32 내지 34)는 내부에 RS-422 규격의 드라이버를 가지며, 해당 드라이버에 의해서 RS-422 규격의 제어 신호(S5, S6, S9 또는 S12)를 각 디바이스에 송출하도록 이루어져 있다.The communication CPU 31 has a communication drive corresponding to the external interface 27 of the computer 2 therein, and is configured to receive the control signal S1 transferred from the computer 2 by the driver. In addition, the device control CPUs 32 to 34 have a driver of RS-422 standard therein, and are configured to transmit control signals S5, S6, S9 or S12 of RS-422 standard to each device by the driver. .

계속해서 도 5를 참고하여 매트릭스 스위처부(3B)에 관해서 설명한다. 도 5에 도시된 바와 같이, 매트릭스 스위처부(3B)는 크게 나눠 제어 회로(40), 매트릭스 스위처 블록(41) 및 포맷 변환 블록(42)으로 이루어져 있다. 제어 회로(40)는 매트릭스 스위처부(3B)의 전체를 제어하는 회로이고, 제어 버스(3E)를 통해 수취한 제어 명령에 기초하여 제어 신호(S20, S21)를 생성하고, 해당 제어 신호(S20, S21)를 각각 매트릭스 스위처 블록(41), 포맷 변환 블록(42)에 출력하여 동작을 제어한다.Subsequently, the matrix switcher portion 3B will be described with reference to FIG. 5. As shown in FIG. 5, the matrix switcher unit 3B is roughly divided into a control circuit 40, a matrix switcher block 41, and a format conversion block 42. The control circuit 40 is a circuit that controls the entirety of the matrix switcher unit 3B, generates control signals S20 and S21 based on the control command received via the control bus 3E, and the corresponding control signal S20. , S21 are output to the matrix switcher block 41 and the format conversion block 42, respectively, to control the operation.

매트릭스 스위처 블록(41)은 입력 단자(IN1 내지 IN11)에 각각 접속되는 복수의 입력 라인과, 출력 단자(OUT1 내지 OUT13)에 각각 접속되는 복수의 출력 라인이 격자상으로 배열되어 있고, 입력 라인과 출력 라인이 교차하는 교차 포인트 P(도면 중 ×표시로 나타낸다)의 곳에서 해당 입력 라인과 출력 라인을 접속할 수 있도록 이루어져 있다. 이 때문에 매트릭스 스위처 블록(41)은, 제어 회로(40)로부터 공급되는 제어 신호(S20)에 기초하여 원하는 교차 포인트 부분에서 입력 라인과 출력 라인을 접속하면, 입력 단자(IN1 내지 IN11)에 입력된 원하는 신호를 원하는 출력 단자(OUT1 내지 OUT13)에 출력할 수 있다. 한편, 이행의 설명에 있어서, 예를 들면 IN7과 OUT9를 접속하는 교차 포인트를 「P79」라고 하며, IN(10)과 OUT(4)를 접속하는 교차 포인트를 「P104」라고 한다.The matrix switcher block 41 has a plurality of input lines connected to the input terminals IN1 to IN11 and a plurality of output lines respectively connected to the output terminals OUT1 to OUT13 arranged in a lattice form, The input line and the output line can be connected at the intersection point P (indicated by x mark in the figure) at which the output line intersects. For this reason, the matrix switcher block 41 is connected to the input terminals IN1 to IN11 when the input line and the output line are connected at a desired intersection point portion based on the control signal S20 supplied from the control circuit 40. A desired signal can be output to desired output terminals OUT1 to OUT13. In addition, in description of a transition, the crossing point which connects IN7 and OUT9 is called "P79", for example, and the intersection point which connects IN10 and OUT4 is called "P104".

이 매트릭스 스위처부(3B)에 있어서는 데일리 서버(6), VTR(7) 및 국소 기억 장치(8)의 각 디바이스로부터 판독된 비디오 및 오디오 신호가 각각 입력 단자(IN1 내지 IN8)에 입력되도록 이루어져 있다(단, 도 5의 예로서는 입력 단자(IN1 내지 IN5)에 비디오 및 오디오 신호(S7, S8, S10 및 S13A 내지 S13E)가 입력되고, 입력단자(IN5 내지 IN8)는 빈 단자로 되어 있다). 또한, 입력 단자(IN9 및 IN10)에는 화상 처리부(3C)에 의해서 화상 처리가 시행된 비디오 신호(S31, S32)가 각각 입력되며, 입력 단자(IN11)에는 음성 처리부(3D)에 의해서 신호 처리가 시행된 오디오 신호(S33)가 입력되도록 이루어져 있다.In this matrix switcher section 3B, video and audio signals read from the devices of the daily server 6, the VTR 7 and the local memory 8 are input to the input terminals IN1 to IN8, respectively. (However, in the example of Fig. 5, video and audio signals S7, S8, S10 and S13A to S13E are input to the input terminals IN1 to IN5, and the input terminals IN5 to IN8 are empty terminals. In addition, video signals S31 and S32 subjected to image processing by the image processing unit 3C are input to the input terminals IN9 and IN10, respectively, and signal processing is performed by the audio processing unit 3D to the input terminal IN11. The implemented audio signal S33 is input.

또한, 매트릭스 스위처부(3B)에서는 출력 단자 OUT(1)는 국소 기억 장치(8)에 비디오 및 오디오 신호(S15)를 출력하기 위한 단자로서 할당되고, 출력 단자 OUT(2)는 VTR(7)에 비디오 및 오디오 신호(S11)를 출력하기 위한 단자로서 할당되고, 출력 단자 OUT(3)는 온 에어 버퍼(9)에 비디오 및 오디오 신호(S16)를 출력하기 위한 단자로서 할당되어 있고, 출력 단자(OUT1 내지 OUT3)는 각각 프로그램 출력용 단자로서 할당되어 있다. 또한, 출력 단자(OUT4)는 프리뷰 전용 모니터(13)에 비디오 신호(S19)를 출력하기 위한 프리뷰용 출력 단자로서 할당되어 있고, 출력 단자(OUT5)는 컴퓨터(2)에 비디오 신호(S2)를 출력하기 위한 캡쳐용 출력 단자로서 할당되고 있다. 또 출력 단자(OUT6 내지 OUT10)는 화상 처리부(3C)에 비디오 및 오디오 신호(S23 내지 S27)를 출력하기 위한 단자로서 할당되고, 출력 단자(OUT11 내지 OUT13)는 음성 처리부(3D)에 비디오 및 오디오 신호(S28 내지 S30)를 출력하기 위한 단자로서 할당되어 있다.In the matrix switcher section 3B, the output terminal OUT 1 is assigned as a terminal for outputting the video and audio signals S15 to the local storage device 8, and the output terminal OUT 2 is connected to the VTR 7. Is assigned as a terminal for outputting video and audio signals S11, and an output terminal OUT (3) is assigned as a terminal for outputting video and audio signals S16 to the on air buffer 9, and an output terminal. (OUT1 to OUT3) are respectively assigned as terminals for program output. In addition, the output terminal OUT4 is assigned as a preview output terminal for outputting the video signal S19 to the preview-only monitor 13, and the output terminal OUT5 sends the video signal S2 to the computer 2. It is assigned as a capture output terminal for output. Output terminals OUT6 to OUT10 are assigned as terminals for outputting video and audio signals S23 to S27 to the image processing unit 3C, and output terminals OUT11 to OUT13 are assigned to the video processing unit 3D for video and audio. It is assigned as a terminal for outputting signals S28 to S30.

포맷 변환 블록(42)은 제어 회로(40)로부터 공급되는 제어 신호(S21)에 기초하여, 출력 단자(OUT1 내지 OUT5)에 출력하는 신호를 SDI 규격의 신호로 변환하는 회로 블록이고, 출력 단자(OUT1 내지 OUT3)에 출력하는 신호를 포맷 변환하는 출력 프로세서(43) 및 오디오 결합기(44), 출력 단자(OUT4)에 출력하는 신호를 포맷 변환하는 출력 프로세서(45), 및 출력 단자(OUT5)에 출력하는 신호를 포맷 변환하는 출력 프로세서(46)를 갖고 있다.The format conversion block 42 is a circuit block for converting a signal output to the output terminals OUT1 to OUT5 based on a control signal S21 supplied from the control circuit 40 into a signal of SDI standard, and output terminal ( To an output processor 43 and an audio combiner 44 for format-converting signals output to OUT1 to OUT3, an output processor 45 for format-converting signals output to an output terminal OUT4, and an output terminal OUT5. It has an output processor 46 for format conversion of the signal to output.

출력 프로세서(43)는 화상 처리부(3C)에 의해서 화상 처리된 비디오 신호(즉 입력 단자(IN9 또는 IN10)에 입력되는 비디오 신호(S31 또는 S32))를 출력할 때, 해당 비디오 신호(S31 또는 S32)를 SDI 규격의 비디오 신호로 변환한다. 오디오 결합기(44)는 음성 처리부(3D)에 의해서 처리된 임베드 오디오 신호(embedded audio signal)(즉 입력 단자(IN11)에 입력되는 오디오 신호(S33))를 출력할 때, 출력 프로세서(43)로부터 출력되는 SDI 규격의 비디오 신호에 해당 임베드 오디오 신호(S33)를 중첩한다. 이것에 의해 화상 처리부(3C)에 의해서 처리된 비디오 신호(S31, S32)나 음성 처리부(3D)에 의해서 처리된 오디오 신호(S33)를 SDI 규격의 신호로 국소 기억 장치(8)나 VTR(7) 또는 온 에어 버퍼(9)에 송출할 수 있다. 한편, 임베드 오디오(Embedded Audio)란, SDI 규격의 보조 데이터 영역의 패킷을 이용하여 전송되는 디지털 오디오 데이터이다.When the output processor 43 outputs a video signal (that is, a video signal S31 or S32 input to the input terminal IN9 or IN10) that has been processed by the image processing unit 3C, the corresponding video signal S31 or S32 ) Is converted into an SDI standard video signal. When the audio combiner 44 outputs an embedded audio signal (that is, an audio signal S33 input to the input terminal IN11) processed by the voice processing unit 3D, from the output processor 43 The embedded audio signal S33 is superimposed on the output SDI standard video signal. As a result, the video signals S31 and S32 processed by the image processing unit 3C and the audio signal S33 processed by the audio processing unit 3D are converted into SDI standard signals for the local storage device 8 or the VTR (7). ) Or to the on-air buffer 9. On the other hand, embedded audio is digital audio data transmitted using a packet of an auxiliary data area of the SDI standard.

입력 단자(IN1 내지 IN8)에 입력된 비디오 및 오디오 신호를 출력 단자(OUT1 내지 OUT3)에 출력하는 경우 해당 비디오 및 오디오 신호가 SDI 규격으로 각 디바이스로부터 출력되고 있기 때문에, 출력 프로세서(43) 및 오디오 콤바이너(44)는 아무런 처리도 하지 않고, 입력되는 비디오 및 오디오 신호를 그대로 출력 단자(OUT1 내지 OUT3)에 출력한다.When outputting video and audio signals input to the input terminals IN1 to IN8 to the output terminals OUT1 to OUT3, since the corresponding video and audio signals are output from each device in the SDI standard, the output processor 43 and the audio The combiner 44 does not perform any processing and outputs the input video and audio signals to the output terminals OUT1 to OUT3 as they are.

출력 프로세서(45,46)도 마찬가지로, 각각 화상 처리부(3C)에 의해서 화상 처리된 비디오 신호(S31 또는 S32)를 출력 단자(OUT4 또는 OUT5)에 출력할 때, 해당 비디오 신호(S31 또는 S32)를 SDI 규격의 비디오 신호로 변환한다. 이것에 의해 화상 처리부(3C)에 의해서 처리된 비디오 신호(S31 또는 S32)를 SDI 규격의 신호로 프리뷰 전용 모니터(13)나 컴퓨터(2)에 송출할 수 있다. 출력 프로세서(45, 46)도, 입력 단자(IN1 내지 IN8)에 입력된 비디오 및 오디오 신호를 출력 단자(OUT4, OUT5)에 출력하는 경우 해당 비디오 및 오디오 신호에 아무런 처리도 하지 않고, 그대로 출력 단자(OUT4, OUT5)에 출력한다.The output processors 45 and 46 similarly output the video signals S31 or S32 when outputting the video signals S31 or S32 processed by the image processing unit 3C to the output terminals OUT4 or OUT5, respectively. Convert to SDI standard video signal. As a result, the video signal S31 or S32 processed by the image processing unit 3C can be sent to the preview-only monitor 13 or the computer 2 as a SDI standard signal. When the output processors 45 and 46 output the video and audio signals input to the input terminals IN1 to IN8 to the output terminals OUT4 and OUT5, the output processors 45 and 46 do not process any of the corresponding video and audio signals. Output to (OUT4, OUT5).

계속해서 도 6을 참조하여 화상 처리부(3C)에 관해서 설명한다. 도 6에 도시된 바와 같이, 화상 처리부(3C)는 크게 나눠 제어 회로(50)와, 디멀티플렉서 블록(51), 스위처 블록(52), 특수 효과 블록(53), 및 믹서 블록(54)을 갖고 있다. 제어 회로(50)는 화상 처리부(3C)의 전체를 제어하는 회로이고, 제어 버스(3E)를 통해 받은 제어 명령에 기초하여 제어 신호(S40, S41, S42, S43)를 생성하고, 해당 제어 신호(S40, S41, S42, S43)를 각각 디멀티플렉서 블록(51), 스위처 블록(52), 특수 효과 블록(53), 믹서 블록(54)에 출력하여 그 동작을 제어한다. 이것에 의해 화상 처리부(3C)에서는 매트릭스 스위처부(3B)에서 공급된 비디오 신호(S23 내지 S27)에 대하여 화상 처리를 시행한다. 여기서 말하는 화상 처리란, 소스 비디오 신호에 특수 효과를 시행하거나, BGV 신호에 특수 효과가 작용하는 비디오 신호를 삽입하기도 하는 애니메이션 효과나, BGV 신호로부터 전경 비디오 신호로 영상을 바꾸는 트랜지션 효과인 것이다.Subsequently, the image processing unit 3C will be described with reference to FIG. 6. As shown in FIG. 6, the image processing unit 3C is divided into a control circuit 50, a demultiplexer block 51, a switcher block 52, a special effect block 53, and a mixer block 54. have. The control circuit 50 is a circuit which controls the whole of the image processing unit 3C, and generates control signals S40, S41, S42, S43 based on the control command received through the control bus 3E, and the corresponding control signal. (S40, S41, S42, S43) are output to the demultiplexer block 51, the switcher block 52, the special effect block 53, and the mixer block 54, respectively, to control the operation. As a result, the image processing unit 3C performs image processing on the video signals S23 to S27 supplied from the matrix switcher unit 3B. The image processing herein refers to an animation effect in which a special effect is applied to a source video signal, a video signal in which a special effect is applied to a BGV signal, or a transition effect in which an image is changed from a BGV signal to a foreground video signal.

디멀티플렉서 블록(51)은, SDI 규격의 신호 형식으로 이송되는 비디오 및 오디오 신호(S23 내지 S27)로부터 비디오 신호 또는 키 신호를 추출하는 블록이다. 디멀티플렉서 블록(51)은, 입력되는 비디오 및 오디오 신호(S23 내지 S27)로부터 각각 신호 추출을 하는 5개의 디멀티플렉서 회로(51A 내지 51E)로 이루어지고 있다. 디멀티플렉서 회로(51A)는 비디오 및 오디오 신호(S23)를 형성하는 각 패킷의 페이로드에서 키 신호를 추출하는 회로이고, 해당 키 신호의 선두에 배치되어 있는 동기 신호 및 헤더 정보에 기초하여 추출을 한다. 또한, 디멀티플렉서 회로(51B)는 비디오 및 오디오 신호(S24)를 형성하는 각 패킷의 페이로드에서 비디오 신호를 추출하는 회로이고, 해당 비디오 신호의 선두에 배치되어 있는 동기 신호 및 헤더 정보에 기초하여 추출을 한다. 마찬가지로, 디멀티플렉서 회로(51C)는 비디오 및 오디오 신호(S25)로부터 키 신호를 추출하며, 디멀티플렉서 회로(51D)는 비디오 및 오디오 신호(S26)로부터 비디오 신호를 추출하고, 디멀티플렉서 회로(51E)는 비디오 및 오디오 신호(S27)로부터 비디오 신호를 추출한다.The demultiplexer block 51 is a block for extracting a video signal or a key signal from the video and audio signals S23 to S27 carried in the signal format of the SDI standard. The demultiplexer block 51 is composed of five demultiplexer circuits 51A to 51E that extract signals from the input video and audio signals S23 to S27, respectively. The demultiplexer circuit 51A is a circuit which extracts a key signal from the payload of each packet forming the video and audio signal S23, and extracts it based on the synchronization signal and the header information arranged at the head of the key signal. . The demultiplexer circuit 51B is a circuit which extracts a video signal from the payload of each packet forming the video and audio signal S24, and is extracted based on the synchronization signal and header information arranged at the head of the video signal. Do it. Similarly, the demultiplexer circuit 51C extracts the key signal from the video and audio signal S25, the demultiplexer circuit 51D extracts the video signal from the video and audio signal S26, and the demultiplexer circuit 51E extracts the video and audio signals. A video signal is extracted from the audio signal S27.

스위처 블록(52)은 추출된 키 신호 및 비디오 신호에 대하여 트랜지션 효과를 위한 처리를 시행하는 블록이고, 와이프 신호 발생기(52A, 52B), 키 신호 처리 회로(52C, 52D) 및 비디오 신호 처리 회로(52E, 52F)로 이루어지고 있다. 와이프 신호 발생기(52A)는 제어 회로(50)로부터의 제어 신호(S41)에 기초하여 오퍼레이터가 지정한 트랜지션 효과에 대응하는 와이프 신호를 생성하고, 해당 와이프 신호를 키 신호 처리 회로(52C) 및 비디오 신호 처리 회로(52E)에 송출한다. 키 신호 처리 회로(52C)는 공급되는 와이프 신호에 기초하여 디멀티플렉서 회로(51A)에서 공급되는 키 신호를 해당 와이프 신호에 대응하도록 변환하고(또는 공급되는 와이프 신호에 기초하여 해당 와이프 신호에 대응하는 원하는 키 신호를 새롭게 생성한다), 그 결과 얻어지는 키 신호를 후술하는 믹서 블록(54)에 송출한다. 또한, 비디오 신호 처리 회로(52E)는 공급되는 와이프 신호에 기초하여 디멀티플렉서 회로(51B)에서 공급되는 비디오 신호를 해당 와이프 신호에 대응하도록 변환하고, 그 결과 얻어지는 비디오 신호를 후술하는 믹서 블록(54)에 송출한다.The switcher block 52 is a block which performs processing for transition effects on the extracted key signal and the video signal, and includes a wipe signal generators 52A and 52B, key signal processing circuits 52C and 52D, and a video signal processing circuit ( 52E, 52F). The wipe signal generator 52A generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and the wipe signal generator 52A and the video signal are converted into the key signal processing circuit 52C and the video signal. It sends out to the processing circuit 52E. The key signal processing circuit 52C converts the key signal supplied from the demultiplexer circuit 51A to correspond to the corresponding wipe signal based on the wipe signal supplied, and / or the desired signal corresponding to the corresponding wipe signal based on the wipe signal supplied. The key signal is newly generated), and the resultant key signal is sent to the mixer block 54 described later. Further, the video signal processing circuit 52E converts the video signal supplied from the demultiplexer circuit 51B to correspond to the wipe signal based on the wipe signal supplied, and the mixer block 54 which describes the resulting video signal later. Send it out.

마찬가지로, 와이프 신호 발생기(52B)는 제어 회로(50)로부터의 제어 신호(S41)에 기초하여 오퍼레이터가 지정한 트랜지션 효과에 대응하는 와이프 신호를 생성하고, 해당 와이프 신호를 키 신호 처리 회로(52D) 및 비디오 신호 처리 회로(52F)에 송출한다. 키 신호 처리 회로(52D)는 공급되는 와이프 신호에 기초하여 디멀티플렉서 회로(51C)로부터 공급되는 키 신호를 해당 와이프 신호에 대응하도록 변환하고(또는 공급되는 와이프 신호에 기초하여 해당 와이프 신호에 대응하는 원하는 키 신호를 새롭게 생성한다), 그 결과 얻어지는 키 신호를 후술하는 특수 효과 블록(53)에 송출한다. 또한, 비디오 신호 처리 회로(52F)는 공급되는 와이프 신호에 기초하여 디멀티플렉서 회로(51D)로부터 공급되는 비디오 신호를 해당 와이프 신호에 대응하도록 변환하며, 그 결과 얻어지는 비디오 신호를 후술하는 특수 효과 블록(53)에 송출한다.Similarly, the wipe signal generator 52B generates a wipe signal corresponding to the transition effect specified by the operator on the basis of the control signal S41 from the control circuit 50, and converts the wipe signal into the key signal processing circuit 52D and The signal is sent to the video signal processing circuit 52F. The key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C based on the wipe signal supplied to correspond to the corresponding wipe signal (or the desired signal corresponding to the corresponding wipe signal based on the wipe signal supplied). The key signal is newly generated), and the resultant key signal is sent to the special effect block 53 described later. In addition, the video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D to correspond to the corresponding wipe signal based on the wipe signal supplied, and the special effect block 53 which describes the resulting video signal later. To be sent.

특수 효과 블록(53)은 제어 회로(50)로부터 공급되는 제어 신호(S42)에 기초하여, 키 신호 처리 회로(52D)에서 출력되는 키 신호 및 비디오 신호 처리 회로(52F)에서 출력되는 비디오 신호를 3차원적으로 화상 변환하기 위한 블록이고, 3차원 어드레스 발생 회로(53A), 프레임 메모리(53B, 53C) 및 보간 회로(53D, 53E)로 이루어져 있다. 3차원 어드레스 발생 회로(53A)는 제어 신호(S42)에 기초하여, 오퍼레이터가 지정한 3차원적인 화상 변환을 하기 위한 변환 어드레스를 생성하여, 해당 변환 어드레스를 프레임 메모리(53B, 53C) 및 보간 회로(53D, 53E)에 출력한다.The special effect block 53 receives the key signal output from the key signal processing circuit 52D and the video signal output from the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50. It is a block for image conversion in three dimensions, and is composed of three-dimensional address generating circuit 53A, frame memories 53B and 53C, and interpolation circuits 53D and 53E. The three-dimensional address generation circuit 53A generates a conversion address for three-dimensional image conversion specified by the operator based on the control signal S42, and converts the corresponding conversion address into the frame memories 53B and 53C and the interpolation circuit ( 53D, 53E).

프레임 메모리(53B)는 키 신호 처리 회로(52D)로부터 공급되는 키 신호를 순차 내부의 메모리 영역에 격납하는 동시에, 그 격납된 키 신호를 변환 어드레스에 기초하여 판독하는 것에 의해, 해당 키 신호에 대하여 3차원적인 화상 변환을 시행하고, 그 결과 얻어지는 키 신호를 보간 회로(53D)에 송출한다. 마찬가지로, 프레임 메모리(53B)는 비디오 신호 처리 회로(52F)로부터 공급되는 비디오 신호를 순차 내부의 메모리 영역에 격납하는 동시에, 그 격납된 비디오 신호를 변환 어드레스에 기초하여 판독하는 것에 의해, 해당 비디오 신호에 대하여 3차원적인 화상 변환을 시행하고, 그 결과 얻어지는 비디오 신호를 보간 회로(53E)에 송출한다.The frame memory 53B stores the key signal supplied from the key signal processing circuit 52D in the internal memory area in sequence, and reads the stored key signal based on the conversion address, thereby to the corresponding key signal. Three-dimensional image conversion is performed, and the resulting key signal is sent to the interpolation circuit 53D. Similarly, the frame memory 53B stores the video signal supplied from the video signal processing circuit 52F in the internal memory region, and simultaneously reads the stored video signal based on the conversion address. Three-dimensional image conversion is performed on the video signal, and the resulting video signal is sent to the interpolation circuit 53E.

보간 회로(53D)는 3차원적인 변환 처리가 시행된 키 신호에 보간 처리를 시행하는 회로이고, 변환 어드레스에 기초하여 키 신호의 화소를 공간적으로 보간하여, 그 결과 얻어지는 키 신호를 후술하는 믹서 블록(54)에 송출한다. 마찬가지로, 보간 회로(53E)는 3차원적인 변환 처리가 시행된 비디오 신호에 보간 처리를 시행하는 회로이고, 변환 어드레스에 기초하여 비디오 신호의 화소를 공간적으로 보간하여, 그 결과 얻어지는 비디오 신호를 후술하는 믹서 블록(54)에 송출한다.The interpolation circuit 53D is a circuit which performs interpolation processing on a key signal subjected to three-dimensional conversion processing, spatially interpolates pixels of the key signal based on the conversion address, and describes a resultant key signal as a mixer block. It sends to (54). Similarly, the interpolation circuit 53E is a circuit which performs interpolation processing on a video signal subjected to three-dimensional conversion processing. The interpolation circuit 53E spatially interpolates the pixels of the video signal based on the conversion address, and the resulting video signal is described later. It sends out to the mixer block 54.

믹서 블록(54)은 제어 신호(S43)에 의한 지시에 따라 비디오 신호를 합성하는 블록이고, 2개의 믹스 회로(54A, 54B)로 이루어져 있다. 믹스 회로(54A)는 특수 효과 블록(53)으로부터 출력되는 키 신호에 기초하여, 해당 특수 효과 블록(53)에 의해서 화상 변환된 비디오 신호와 디멀티플렉서 회로(51E)로부터 출력되는 비디오 신호를 합성하는 것에 의해 비디오 신호(S31)를 생성한다. 또한, 혼합 회로(54B)는 스위처 블록(52)으로부터 출력되는 키 신호에 기초하여, 해당 스위처 블록(52)으로부터 출력되는 비디오 신호와 믹스 회로(54A)로부터 출력되는 비디오 신호(S31)를 합성하는 것에 의해 비디오 신호(S32)를 생성한다. 이렇게 하여 생성된 비디오 신호(S31, S32)는 상술한 바와 같이 매트릭스 스위처부(3B)에 송출된다.The mixer block 54 is a block which synthesizes a video signal according to the instruction | indication by the control signal S43, and consists of two mix circuits 54A and 54B. The mix circuit 54A synthesizes the video signal image-converted by the special effect block 53 and the video signal output from the demultiplexer circuit 51E based on the key signal output from the special effect block 53. This generates a video signal S31. Also, the mixing circuit 54B synthesizes the video signal output from the switcher block 52 and the video signal S31 output from the mixing circuit 54A based on the key signal output from the switcher block 52. This generates the video signal S32. The video signals S31 and S32 thus produced are sent to the matrix switcher unit 3B as described above.

단지 2개의 영상을 바꾸는 것만으로 트랜지션 효과를 수행하는 경우 디멀티플렉서 회로(51D)로부터 출력되는 비디오 신호를 BGV 신호로서 믹스 회로(54A)를 통해 혼합 회로(54B)에 입력하는 동시에, 비디오 신호 처리 회로(52E)로부터 출력되는 비디오 신호를 전경 비디오 신호로서 혼합 회로(54B)에 입력하고, 그 2개의 비디오 신호를 키 신호 처리 회로(52C)로부터 출력되는 키 신호에 기초하여 합성한다. 이것에 의해 BGV 신호로부터 전경 비디오 신호로 전환되는 비디오 신호(S32)가 생성된다.When performing the transition effect by simply changing two images, the video signal output from the demultiplexer circuit 51D is input as the BGV signal to the mixing circuit 54B through the mixing circuit 54A, and the video signal processing circuit ( The video signal output from 52E is input to the mixing circuit 54B as a foreground video signal, and the two video signals are synthesized based on the key signal output from the key signal processing circuit 52C. This generates a video signal S32 which is switched from the BGV signal to the foreground video signal.

또한, 전경 영상이란, 트랜지션 효과의 실행에 의해서 화면에 나타나는 화상 또는 애니메이션 효과의 실행에 의해서 배경 화상에 삽입되고, 효과 패턴을 묻는 화상을 말한다. 또한, 배경 영상이란, 트랜지션 효과의 실행에 의해서, 양면으로부터 지워지는 화상 또는 애니메이션 효과의 실행에 의해서 전경 화상이 묻혀진 효과 패턴이 삽입되는 화상을 말한다.In addition, the foreground image refers to an image which is inserted into the background image by executing an image effect or an animation effect that appears on the screen by executing a transition effect and asks for an effect pattern. In addition, the background image refers to an image into which an effect pattern in which a foreground image is buried by inserting an image erased from both sides or an animation effect is inserted by execution of a transition effect.

또 페이지 턴과 같은 화상 변환에 따르는 트랜지션 효과를 행하는 경우 디멀티플렉서 회로(51E)로부터 출력되는 비디오 신호를 BGV 신호로서 믹스 회로(54A)에 입력하는 동시에, 비디오 신호 처리 회로(52F)로부터 출력되는 비디오 신호를 전경 비디오 신호로서 특수 효과 블록(53)을 통해 화상 변환한 후에 믹스 회로(54A)에 입력하고, 그 2개의 비디오 신호를 특수 효과 블록(53)을 통해 신호 처리된 키 신호에 기초하여 합성한다. 이것에 의해서 페이지를 넘기도록 하여 배경 신호로부터 전경 비디오 신호로 전환되는 비디오 신호(S31)가 생성된다.When a transition effect such as page turn is performed, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54A as a BGV signal and the video signal output from the video signal processing circuit 52F. Is converted into a foreground video signal through the special effect block 53 and then input to the mix circuit 54A, and the two video signals are synthesized based on the key signal signaled through the special effect block 53. . As a result, a video signal S31 is generated which is switched from the background signal to the foreground video signal by turning the page.

또한, 픽처 인 픽처와 같은 애니메이션 효과를 수행하는 경우 디멀티플렉서 회로(51E)로부터 출력되는 비디오 신호를 BGV 신호로서 믹스 회로(54A)에 입력하는 동시에, 비디오 신호 처리 회로(52F)로부터 출력되는 비디오 신호를 삽입 소재로서 특수 효과 블록(53)을 통해 화상 변환한 후에 믹스 회로(54A)에 입력하고, 그 2개의 비디오 신호를 특수 효과 블록(53)을 통해 신호 처리된 키 신호에 기초하여 합성한다. 이것에 의해 BGV 신호에 삽입 소재가 삽입된 픽처 인 픽처의 비디오 신호(S31)가 생성된다.In addition, when performing an animation effect such as a picture-in-picture, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54A as a BGV signal, and the video signal output from the video signal processing circuit 52F is also input. After the image conversion is performed via the special effect block 53 as an insert material, it is input to the mix circuit 54A and the two video signals are synthesized based on the key signal signal-processed through the special effect block 53. As a result, the video signal S31 of the picture-in-picture in which the inserted material is inserted into the BGV signal is generated.

계속해서 도 7을 참조하여 음성 처리부(3D)에 관해서 설명한다. 도 7에 도시된 바와 같이, 음성 처리부(3D)는 크게 나눠 제어 회로(55), 입력 신호 처리 블록(56), 보조 입력 신호 처리 블록(57), 믹서 블록(58) 및 출력 신호 처리 블록(59)으로 이루어지고 있다. 제어 회로(55)는 음성 처리부(3D)의 전체를 제어하는 회로이고, 제어 버스(3E)를 통해 받은 제어 명령에 기초하여 제어 신호(S45, S46, S47, S48)를 생성하고, 해당 제어 신호(S45, S46, S47, S48)를 각각 입력 신호 처리 블록(56), 보조 입력 신호 처리 블록(57), 믹서 블록(58), 출력 신호 처리 블록(59)에 출력하여 그 동작을 제어한다. 이것에 의해 음성 처리부(3D)에서는 매트릭스 스위처부(3B)에서 공급된 오디오 신호(S28 내지 S30)에 대하여 음성 처리가 시행된다. 여기서 말하는 음성 처리란, 오디오 신호의 레벨 조정과 합성이다.Subsequently, the voice processing unit 3D will be described with reference to FIG. 7. As shown in FIG. 7, the voice processing unit 3D is divided into a control circuit 55, an input signal processing block 56, an auxiliary input signal processing block 57, a mixer block 58, and an output signal processing block ( 59). The control circuit 55 is a circuit for controlling the entire voice processing unit 3D, and generates control signals S45, S46, S47, and S48 based on the control command received through the control bus 3E, and the corresponding control signal. (S45, S46, S47, S48) are output to the input signal processing block 56, the auxiliary input signal processing block 57, the mixer block 58, and the output signal processing block 59, respectively, to control their operation. As a result, the audio processing unit 3D performs audio processing on the audio signals S28 to S30 supplied from the matrix switcher unit 3B. The voice processing referred to here is level adjustment and synthesis of an audio signal.

입력 신호 처리 블록(56)은 SDI 규격의 신호 형식이 병렬로 이송되는 비디오 및 오디오 신호(S28 내지 S30)로부터 오디오 신호를 추출하고, 그 오디오 신호를 신호 처리부(DSP 부)에서 처리하기 위해 DSP 포맷의 오디오 신호로 변환하여 송출하는 블록이다. 입력 신호 처리 블록(56)은, 신호 분리 회로로서의 세퍼레이터(56A 내지 56C)를 갖고 있다. 세퍼레이터(56A 내지 56C)는 각각 병렬된 SDI 규격의 비디오 및 오디오 신호(S28 내지 S30)로부터 DSP 포맷의 오디오 신호를 추출하는 회로이다. 즉, 세퍼레이터(56A 내지 56C)는 입력되는 비디오 및 오디오 신호(S28 내지 S30)로부터 임베드 오디오 신호를 추출하며, 시리얼 변한 후 오디오 신호를 각각 믹서 블록(58)에 송출한다.The input signal processing block 56 extracts an audio signal from the video and audio signals S28 to S30 to which the signal format of the SDI standard is transferred in parallel, and processes the audio signal in a signal processing unit (DSP unit) in DSP format. A block converts and outputs an audio signal. The input signal processing block 56 has separators 56A to 56C as signal separation circuits. The separators 56A to 56C are circuits for extracting the DSP format audio signals from the parallel SDI standard video and audio signals S28 to S30, respectively. That is, the separators 56A to 56C extract the embedded audio signal from the input video and audio signals S28 to S30, and after serial change, transmit the audio signal to the mixer block 58, respectively.

보조 입력 신호 처리 블록(57)은 외부로부터 입력되는 AES/EBU(Audio Engineering Society/European Broadcasting Union) 포맷의 오디오 신호를 DSP 포맷의 오디오 신호로 변환하는 블록이다. 보조 입력 신호 처리 블록(57)은, 레이트 변환을 위한 샘플링 레이트 컨버터(57A 내지 57D), 및 포맷 변환 회로로서의 디코더(57E 내지 57H)를 갖고 있다. 샘플링 레이트 컨버터(57A 내지 57D)에서는 공급된 AES/EBU 포맷의 오디오 신호가 다른 샘플링 레이트가 음성 처리부(3D) 내의 소정의 샘플링 레이트로 변환된다. 샘플링 레이트가 변환된 오디오 신호는 디코더(57E 내지 57H)에 송출된다. 디코더(57E 내지 57H)는 각각 오디오 신호를 포맷 변환하는 회로이고, 입력되는 AES/EBU 포맷의 오디오 신호를 각각 DSP 포맷의 오디오 신호로 변환하며, 그 결과 얻어지는 오디오 신호를 각각 믹서 블록(58)에 송출한다.The auxiliary input signal processing block 57 is a block for converting an audio signal of AES / EBU (Audio Engineering Society / European Broadcasting Union) format input from the outside into an audio signal of DSP format. The auxiliary input signal processing block 57 has sampling rate converters 57A to 57D for rate conversion, and decoders 57E to 57H as format conversion circuits. In the sampling rate converters 57A to 57D, sampling rates different from the supplied AES / EBU format audio signal are converted to a predetermined sampling rate in the audio processing section 3D. The audio signal whose sampling rate is converted is sent to the decoders 57E to 57H. The decoders 57E to 57H are circuits for converting the audio signal, respectively, and converting the input AES / EBU format audio signal into the DSP format audio signal, respectively, and converting the resulting audio signal into the mixer block 58, respectively. Send it out.

믹서 블록(58)은 오디오 신호의 레벨 조정을 하는 동시에, 신호 합성을 하는 블록이고, 이득 설정 회로(58A 내지 58N), 가산 회로(580, 58P), 및 이득 설정 회로(58A 내지 58N)의 신호 레벨을 전용 제어기(5)로 송신하는 미터 데이터 발생 회로(58Q)로 이루어지고 있다. 입력 신호 처리 블록(56)으로부터 공급된 오디오 신호 및 보조 입력 신호 처리 블록(57)으로부터 공급된 오디오 신호는 각각 우측 성분과 좌측 성분으로 분리된 후에 이득 설정 회로(58A 내지 58G)와 이득 설정 회로(58H 내지 58N)에 입력된다. 이득 설정 회로(58A 내지 58G 와 58H 내지 58N)는 컴퓨터(2)의 모니터(2B)에 표시되는 GUI의 오디오 페이더 또는 전용 제어기(5)에 설치된 오디오 페이더의 조작에 연동하여 저항치가 변화하도록 이루어지고 있고, 이것에 의해 입력되는 오디오 신호를 각각 오퍼레이터가 지정한 신호 레벨로 레벨 조정한다.The mixer block 58 is a block for adjusting the level of the audio signal and at the same time synthesizing the signal, and the signals of the gain setting circuits 58A to 58N, the addition circuits 580 and 58P, and the gain setting circuits 58A to 58N. The meter data generation circuit 58Q transmits the level to the dedicated controller 5. The audio signal supplied from the input signal processing block 56 and the audio signal supplied from the auxiliary input signal processing block 57 are separated into right and left components, respectively, and then gain setting circuits 58A to 58G and gain setting circuits ( 58H to 58N). The gain setting circuits 58A to 58G and 58H to 58N are made so that the resistance value changes in conjunction with the operation of the audio fader of the GUI displayed on the monitor 2B of the computer 2 or the audio fader installed in the dedicated controller 5. The audio signal input by this is level-controlled to the signal level designated by the operator, respectively.

이득 설정 회로(58A 내지 58G)에 의해서 레벨 조정된 오디오 신호는 각각 가산 회로(58O)에 입력되며, 여기서 가산된 후에 출력 신호 처리 블록(59)에 송출된다. 마찬가지로, 이득 설정 회로(58H 내지 58N)에 의해서 레벨 조정된 오디오 신호는 각각 가산 회로(58P)에 입력되고, 여기서 가산된 후에 출력 신호 처리 블록(59)에 송출된다. 미터 데이터 발생 회로(58Q)는 후술하는 전용 제어기(5)의 패널의 디지털 미터를 직접 제어하도록, 이 때의 신호 레벨을 데이터로 변환한다. 변환된 데이터는 전용 제어기(5)로 송출된다.Audio signals level-adjusted by the gain setting circuits 58A to 58G are input to the adder circuit 58O, respectively, where they are added and then sent to the output signal processing block 59. Similarly, audio signals level-adjusted by the gain setting circuits 58H to 58N are respectively input to the adding circuit 58P, where they are added and then sent to the output signal processing block 59. The meter data generation circuit 58Q converts the signal level at this time into data so as to directly control the digital meter of the panel of the dedicated controller 5 described later. The converted data is sent to the dedicated controller 5.

출력 신호 처리 블록(59)은 출력하는 DSP 포맷의 오디오 신호를 SDI 규격의 신호 형식을 병렬된 임베드 오디오 신호로 변환하는 블록이다. 출력 신호 처리 블록(59)은 신호 합성 회로로서의 임베드 회로(59A), 및 포맷 변환 회로로서의 인코더(59B, 59C)를 갖고 있다. 임베드 회로(59A)는 매트릭스 스위처부(3B)의 결합기(44)에 의해서 오디오 신호를 SDI 규격의 비디오 신호에 중첩할 수 있도록 소정의 신호 형식으로 신호 변환을 하는 회로이고, 가산 회로(58O 및 58P)에서 공급된 시리얼의 오디오 신호를 합성한 후에 소정의 신호 형식, 즉 병렬의 임베드 오디오 신호로 신호 변환을 한다. 이러한 처리에 의해 얻어진 임베드 오디오 신호(S33)는 상술한 바와 같이 매트릭스 스위처부(3B)의 결합기(44)에 송출된다.The output signal processing block 59 is a block for converting an audio signal of the DSP format to be output from the signal format of the SDI standard into a parallel embedded audio signal. The output signal processing block 59 has an embedding circuit 59A as a signal synthesizing circuit, and encoders 59B and 59C as a format conversion circuit. The embed circuit 59A is a circuit for converting the signal into a predetermined signal format so that the combiner 44 of the matrix switcher section 3B can superimpose the audio signal on the video signal of the SDI standard, and the adder circuits 58O and 58P. After synthesizing the audio signal of the serial supplied from), the signal is converted into a predetermined signal format, that is, parallel embedded audio signal. The embedded audio signal S33 obtained by this process is sent to the combiner 44 of the matrix switcher section 3B as described above.

인코더(59B)는 DSP 포맷의 오디오 신호를 AES/EBU 포맷의 오디오 신호로 포맷 변환하는 회로이고, 가산 회로(58O)로부터 출력된 오디오 신호를 AES/EBU 포맷의 오디오 신호(S17)로 포맷 변환하며, 음성 확인용 스피커(11, 도 1참조)에 송출한다. 마찬가지로, 인코더(59C)는 DSP 포맷의 오디오 신호를 AES/EBU 포맷의 오디오 신호로 포맷 변환하는 회로이고, 가산 회로(58P)에서 출력된 오디오 신호를 AES/EBU 포맷의 오디오 신호(S18)로 포맷 변환하며, 음성 확인용 스피커(12, 도 1참조)에 송출한다.The encoder 59B is a circuit for converting the DSP format audio signal into the AES / EBU format audio signal, and converts the audio signal output from the adder circuit 58O into the AES / EBU format audio signal S17. To the voice confirmation speaker 11 (see Fig. 1). Similarly, the encoder 59C is a circuit for converting the DSP format audio signal into the AES / EBU format audio signal, and the audio signal output from the adder circuit 58P is formatted into the AES / EBU format audio signal S18. It converts and sends it to the audio | voice confirmation speaker 12 (refer FIG. 1).

1-4. 국소 기억 장치의 구성1-4. Configuration of Local Memory

다음에 이 항에서는 편집 처리 장치(3)에 접속되는 데이터 기억 수단으로서 국소 기억 장치(8)에 관해서 설명한다. 도 8에 도시된 바와 같이, 국소 기억 장치(8)는 입출력 인터페이스로서의 데이터 입출력 블록(60)과, 국소 기억 장치(8) 전체의 동작을 제어하는 시스템 제어 블록(61)과, 비디오 데이터를 기억하는 디스크 어레이 블록(62)과, 오디오 데이터를 기억하는 디스크 어레이 블록(63)을 갖고 있다. 한편, 도 8에는 1 채널 분의 입출력 블록 및 디스크 어레이 블록밖에 기록되어 있지 않지만, 실제로는 5 채널 분의 입출력 블록 및 디스크 어레이 블록이 있다.Next, in this section, the local storage device 8 will be described as data storage means connected to the editing processing device 3. As shown in FIG. 8, the local memory device 8 stores data input / output blocks 60 as input / output interfaces, a system control block 61 for controlling the operation of the entire local memory device 8, and video data. And a disk array block 62 for storing audio data. On the other hand, in Fig. 8, only one channel input / output block and disk array block are recorded, but there are actually five channel input / output blocks and disk array block.

데이터 입출력 블록(60)은 입력 1 채널, 출력 2 채널의 구성을 갖고 있고, 시스템 제어 블록(61)으로부터의 제어 신호(S60)에 기초하여, 편집 처리 장치(3)로부터 공급된 비디오 및 오디오 신호(S15)에 데이터 기억에 앞서서 소정의 신호 처리를 시행하는 동시에, 디스크 어레이 블록(62,63)으로부터 판독한 데이터에 소정의 신호 처리를 시행하여 비디오 및 오디오 신호(S13A 내지 S13E)로서 출력한다.The data input / output block 60 has a configuration of an input 1 channel and an output 2 channel, and the video and audio signals supplied from the editing processing apparatus 3 based on the control signal S60 from the system control block 61. At S15, predetermined signal processing is performed prior to data storage, and predetermined signal processing is performed on the data read from the disk array blocks 62 and 63, and output as video and audio signals S13A to S13E.

구체적으로 설명하면, 우선 편집 처리 장치(3)로부터 공급된 비디오 및 오디오 신호(S15)는 인코더(60A)에 입력된다. 인코더(60A)는 SDI 규격의 비디오 및 오디오 신호(S15)로부터 비디오 신호(S61)와 오디오 신호(S62)를 추출하여, 해당 비디오 신호(S61)를 비디오 압축 회로(60B)에 출력하는 동시에, 오디오 신호(S62)를 오디오 압축 회로(60J)에 출력한다. 비디오 압축 회로(60B)는 압축율 1/10의 MPEG 규격으로 비디오 신호(S61)를 압축하고, 그 압축한 비디오 데이터를 버퍼 메모리(60C)에 격납한다. 마찬가지로, 오디오 압축 회로(60J)는 소정의 음성 압축 방식을 이용하여 오디오 신호(S62)를 압축하고, 그 압축한 오디오 데이터를 버퍼 메모리(60K)에 격납한다. 버퍼 메모리(60C, 60K)에 격납된 비디오 데이터와 오디오 데이터는 시스템 제어 블록(61)의 제어에 기초하여 순차 판독되고, 비디오 데이터용 디스크 어레이 블록(62)과 오디오용 디스크 어레이 블록(63)에 각각 기록된다.Specifically, first, the video and audio signals S15 supplied from the editing processing apparatus 3 are input to the encoder 60A. The encoder 60A extracts the video signal S61 and the audio signal S62 from the SDI standard video and audio signal S15, outputs the video signal S61 to the video compression circuit 60B, and simultaneously outputs the audio. The signal S62 is output to the audio compression circuit 60J. The video compression circuit 60B compresses the video signal S61 by the MPEG standard with a compression ratio of 1/10, and stores the compressed video data in the buffer memory 60C. Similarly, the audio compression circuit 60J compresses the audio signal S62 by using a predetermined voice compression scheme, and stores the compressed audio data in the buffer memory 60K. The video data and audio data stored in the buffer memories 60C and 60K are sequentially read based on the control of the system control block 61, and the video data and audio data are read out to the disk array block 62 for video data and the disk array block 63 for audio. Each is recorded.

한편, 재생 제 1 채널의 비디오 데이터로서 디스크 어레이 블록(62)으로부터 판독된 비디오 데이터는 시스템 제어 블록(61)의 제어에 기초하여, 순차 버퍼 메모리(60F)에 격납된다. 마찬가지로, 재생 제 1 채널의 오디오 데이터로서 디스크 어레이 블록(63)으로부터 판독된 오디오 데이터는 시스템 제어 블록(61)의 제어에 기초하여, 순차 버퍼 메모리(60M)에 격납된다. 제 1 비디오 신장 회로(60F)는 압축율 1/10의 MPEG 규격으로 압축되어 있는 비디오 데이터를 버퍼 메모리(60F)에서 판독하고, 해당 비디오 데이터를 신장 처리한 후, 그 비디오 데이터(S63)를 제 1 디코더(60D)에 출력한다. 마찬가지로, 제 1 오디오 신장 회로(60L)는, 압축되어 있는 오디오 데이터를 버퍼 메모리(60M)에서 판독하고, 해당 오디오 데이터를 신장 처리한 후, 그 오디오 데이터(S64)를 제 1 디코더(60D)에 출력한다. 제 1 디코더(60D)는 SDI 규격의 포맷에 기초하여 비디오 데이터(S63)에 오디오 데이터(S64)를 중첩한다. 이것에 의해 디스크 어레이 블록(62)으로부터 판독한 재생 제 1 채널의 비디오 데이터와 디스크 어레이 블록(63)으로부터 판독한 재생 제 1 채널의 오디오 데이터를 SDI 규격의 비디오 및 오디오 신호(S13A)로서 송출할 수 있다.On the other hand, video data read out from the disk array block 62 as video data of the reproduction first channel is stored in the buffer memory 60F sequentially based on the control of the system control block 61. Similarly, audio data read out from the disk array block 63 as audio data of the reproduction first channel is stored in the sequential buffer memory 60M based on the control of the system control block 61. The first video decompression circuit 60F reads video data compressed in the MPEG standard having a compression ratio of 1/10 from the buffer memory 60F, decompresses the video data, and then decodes the video data S63. Output to decoder 60D. Similarly, the first audio decompression circuit 60L reads the compressed audio data from the buffer memory 60M, decompresses the audio data, and then sends the audio data S64 to the first decoder 60D. Output The first decoder 60D superimposes the audio data S64 on the video data S63 based on the format of the SDI standard. As a result, the video data of the reproduction first channel read out from the disc array block 62 and the audio data of the reproduction first channel read out from the disc array block 63 can be transmitted as the video and audio signals S13A of the SDI standard. Can be.

마찬가지로, 재생 제 2 채널의 비디오 데이터로서 디스크 어레이 블록(62)으로부터 판독된 비디오 데이터는 시스템 제어 블록(61)의 제어에 기초하여, 순차 버퍼 메모리(60I)에 격납된다. 또한, 재생 제 2 채널의 오디오 데이터로서 디스크 어레이 블록(63)으로부터 판독된 오디오 데이터도, 시스템 제어 블록(61)의 제어에 기초하여, 순차 버퍼 메모리(60P)에 격납된다. 제 2 비디오 신장 회로(60H)는 압축율 1/10의 MPEG 규격으로 압축되어 있는 비디오 데이터를 버퍼 메모리(60I)로부터 판독하고, 해당 비디오 데이터를 신장 처리한 후, 그 비디오 데이터(S65)를 제 2 디코더(60G)에 출력한다. 마찬가지로, 제 2 오디오 신장 회로(60H)도, 압축되어 있는 오디오 데이터를 버퍼 메모리(60P)에서 판독하고, 해당 오디오 데이터를 신장 처리한 후, 그 오디오 데이터(S66)를 제 2 디코더(60G)에 출력한다. 제 2 디코더(60G)는 SDI 규격의 포맷에 기초하여 비디오 데이터(S65)에 오디오 데이터(S66)를 중첩한다. 이것에 의해 디스크 어레이 블록(62)으로부터 판독한 재생 제 2 채널의 비디오 데이터와 디스크 어레이 블록(63)으로부터 판독한 재생 제 2 채널의 오디오 데이터를 SDI 규격의 비디오 및 오디오 신호(S14)로서 송출할 수 있다.Similarly, video data read from the disc array block 62 as video data of the reproduction second channel is stored in the sequential buffer memory 60I based on the control of the system control block 61. The audio data read out from the disc array block 63 as audio data of the reproduction second channel is also stored in the buffer memory 60P sequentially based on the control of the system control block 61. The second video decompression circuit 60H reads the video data compressed in the MPEG standard having a compression ratio of 1/10 from the buffer memory 60I, decompresses the video data, and then decodes the video data S65 in the second. Output to decoder 60G. Similarly, the second audio decompression circuit 60H also reads the compressed audio data from the buffer memory 60P, decompresses the audio data, and then sends the audio data S66 to the second decoder 60G. Output The second decoder 60G superimposes the audio data S66 on the video data S65 based on the format of the SDI standard. As a result, the video data of the reproduction second channel read out from the disc array block 62 and the audio data of the reproduction second channel read out from the disc array block 63 can be transmitted as the video and audio signals S14 of the SDI standard. Can be.

시스템 제어 블록(61)은 국소 기억 장치(8)의 전체를 제어하는 블록이고, CPU(61A), DMA 제어기(Direct Memory access controller)(61B, 61C), SCSI 프로토콜 제어기(61D, 61E), 및 제어 신호(S12)의 입력 인터페이스(61F)를 갖고 있다. CPU(61A)는 시스템 제어 블록(61)의 중심적 존재인 제어 회로를 구성하고 있으며, 편집 처리 장치(3)로부터 RS-422의 통신 프로토콜로 이송되는 제어 신호(S12)를 입력 인터페이스(61F)를 통해 수취하고, 그 제어 신호(S12)가 나타내는 제어 명령에 기초하여, DMA 제어기(61B, 61C)와 SCSI 프로토콜 제어기(61D, 61E)의 동작을 제어한다. 또한, CPU(61A)는 상술한 바와 같이 제어 신호(S60)를 생성하여 데이터 입출력 블록(60)에 출력하는 것에 의해 해당 데이터 입출력 블록(60)의 동작을 제어한다.The system control block 61 is a block that controls the entirety of the local memory device 8, and includes a CPU 61A, direct memory access controllers (61B, 61C), SCSI protocol controllers (61D, 61E), and The input interface 61F of the control signal S12 is provided. The CPU 61A constitutes a control circuit which is the central existence of the system control block 61, and inputs a control signal S12 transferred from the edit processing apparatus 3 to the communication protocol of RS-422 to the input interface 61F. It receives through the control unit and controls the operations of the DMA controllers 61B and 61C and the SCSI protocol controllers 61D and 61E based on the control command indicated by the control signal S12. As described above, the CPU 61A generates the control signal S60 and outputs it to the data input / output block 60 to control the operation of the data input / output block 60.

또한, CPU(61A)는 디스크 어레이 블록(62 및 63)의 기록 어드레스를, 기록되는 데이터의 타임 코드와 같이 관리하고 있으며, 이것에 의해 타임 코드를 기준으로 하여 그 타임 코드가 나타내는 데이터의 기록 어드레스를 용이하게 검색할 수 있도록 이루어져 있다. 구체적으로는 CPU(61A)는 디스크 어레이 블록(62)에 프레임 단위로 기록되는 비디오 데이터의 전 기록 어드레스, 및 기록되는 프레임의 전 타임 코드를 대응시킨 대응표를 내장 메모리에 기억하고 있다. 마찬가지로, CPU(61A)는 디스크 어레이 블록(63)에 프레임 단위로 기록되는 오디오 데이터의 전 기록 어드레스, 및 기록되는 프레임의 전 타임 코드를 대응시킨 대응표를 내장 메모리에 기억하고 있다. 따라서 외부에서 타임 코드를 지정하기만 하면, 대응표를 참조하여 기록 어드레스를 용이하게 찾기 시작할 수 있으며, 비디오 데이터 및 오디오 데이터를 빠르게 재생할 수 있다.In addition, the CPU 61A manages the write addresses of the disk array blocks 62 and 63 in the same way as the time code of the data to be recorded, thereby recording the address of the data indicated by the time code on the basis of the time code. It is made for easy searching. Specifically, the CPU 61A stores in a built-in memory a correspondence table in which all recording addresses of video data recorded in units of frames are recorded in the disk array block 62, and all time codes of frames to be recorded. Similarly, the CPU 61A stores in the built-in memory a correspondence table in which all recording addresses of audio data recorded in units of frames are recorded in the disk array block 63, and all time codes of frames to be recorded. Therefore, by simply specifying a time code from the outside, the recording address can be easily found by referring to the correspondence table, and video data and audio data can be quickly reproduced.

비디오계의 DMA 제어기(61B)는 CPU(61A)에서의 명령에 따라, 데이터 기록시에는 데이터 입출력 블록(60)의 버퍼 메모리(60C)에서 비디오 데이터를 판독하고, 데이터 재생시에는 데이터 입출력 블록(60)의 버퍼 메모리(60F, 60I)에 비디오 데이터를 기록한다. 또한, 비디오계의 SCSI 프로토콜 제어기(61D)는 데이터 기록시, CPU(61A)에서의 명령, DMA 제어기(61B)에서 받아들인 프레임 단위의 비디오 데이터, 및 비디오 데이터의 프레임에 부여되어 있는 타임 코드를 SCSI 포맷의 데이터(S67)로 변환하여 비디오 데이터용 디스크 어레이 블록(62)에 송출하며, 비디오 데이터의 기록을 해당 디스크 어레이 블록(62)에 지시한다. 또한, SCSI 프로토콜 제어기(61D)는 데이터 재생시, 디스크 어레이 블록(62)으로부터 재생된 SCSI 포맷의 비디오 데이터(S67)를 받아들이고, 이것을 원래의 데이터 형식으로 변환하여 DMA 제어기(61B)에 송출한다.The DMA controller 61B of the video system reads the video data from the buffer memory 60C of the data input / output block 60 at the time of data writing in response to a command from the CPU 61A, and the data input / output block 60 at the time of data reproduction. Video data is written into the buffer memories 60F and 60I. In addition, the SCSI protocol controller 61D of the video system records a command from the CPU 61A, video data in units of frames accepted by the DMA controller 61B, and a time code assigned to a frame of video data at the time of data recording. The data is converted into SCSI format data S67 and sent to the disk array block 62 for video data, and the recording of the video data is instructed to the disk array block 62. FIG. When the data is reproduced, the SCSI protocol controller 61D receives the video data S67 of the SCSI format reproduced from the disk array block 62, converts it to the original data format, and sends it to the DMA controller 61B.

마찬가지로, 오디오계의 DMA 제어기(61C)는 CPU(61A)에서의 명령에 따라, 데이터 기록시에는 데이터 입출력 블록(60)의 버퍼 메모리(60K)에서 오디오 데이터를 판독하고, 데이터 재생시에는 데이터 입출력 블록(60)의 버퍼 메모리(60M, 60P)에 오디오 데이터를 기록한다. 또한, 오디오계의 SCSI 프로토콜 제어기(61E)는 데이터 기록시, CPU(61A)에서의 명령, DMA 제어기(61C)에서 받아들인 프레임 단위의 오디오 데이터, 및 오디오 데이터의 프레임에 부여되어 있는 타임 코드를 SCSI 포맷의 데이터(S68)로 변환하여 오디오 데이터용 디스크 어레이 블록(63)으로 송출하며, 오디오 데이터의 기록을 해당 디스크 어레이 블록(63)에 지시한다. 또한, SCSI 프로토콜 제어기(61E)는 데이터 재생시, 디스크 어레이 블록(63)으로부터 재생된 SCS1 포맷의 오디오 데이터(S68)를 받아들이고, 이것을 원래의 데이터 형식으로 변환하여 DMA 제어기(61C)에 송출한다.Similarly, the DMA controller 61C of the audio system reads audio data from the buffer memory 60K of the data input / output block 60 at the time of data writing, in response to a command from the CPU 61A, and at the time of data reproduction, the data input / output block. Audio data is recorded in the buffer memories 60M and 60P at 60. In addition, the SCSI protocol controller 61E of the audio system records a command from the CPU 61A, audio data in units of frames accepted by the DMA controller 61C, and a time code assigned to a frame of audio data at the time of data recording. The data is converted into SCSI format data S68 and sent to the disk array block 63 for audio data, and the recording of the audio data is instructed to the disk array block 63. FIG. When the data is reproduced, the SCSI protocol controller 61E receives the audio data S68 of the SCS1 format reproduced from the disk array block 63, converts it to the original data format, and sends it to the DMA controller 61C.

비디오 데이터용 디스크 어레이 블록(62) 및 오디오 데이터용 디스크 어레이 블록(63)은, 각각 내부에 복수의 하드 디스크를 갖은 디스크 어레이 장치로 이루어지며, 그 복수의 하드 디스크를 병렬로 동시 운전하여 비디오 데이터나 오디오 데이터를 기록하도록 이루어지고 있다. 또한, 디스크 어레이 블록(62 및 63)은 데이터를 기록할 때 용장성을 갖게 하여 기록하도록 이루어지고 있고, 이것에 의해 디스크 어레이 장치내의 어느 것인가의 하드 디스크가 고장난 경우라도, 고장난 하드디스크에 기록되어 있던 데이터를 복구(재구축 동작이라고도 한다)할 수 있도록 이루어져 있다. 또, 이러한 데이터의 재구축 기능을 갖는 디스크 어레이 장치는 일반적으로, RAIP(Redundant Array of Inexpensive Disks)라고 불리고 있다.The disk array block 62 for video data and the disk array block 63 for audio data each comprise a disk array device having a plurality of hard disks therein, and simultaneously drive the plurality of hard disks in parallel to perform video data. I am made to record audio data. In addition, the disk array blocks 62 and 63 are designed to have redundancy when recording data, so that even when any of the hard disks in the disk array device fail, the disk array blocks 62 and 63 are recorded on the failed hard disk. It is designed to recover existing data (also called rebuild operation). In addition, a disk array device having such a data rebuilding function is generally called a Redundant Array of Inexpensive Disks (RAIP).

여기서 이러한 디스크 어레이 블록(62, 63)에 대해서, 이하에 도면을 참조로 하여 구체적으로 설명한다. 단, 디스크 어레이 블록(62, 63)은 기본적으로 동일한 구성을 갖고 있기 때문에, 여기서는 디스크 어레이 블록(62)에 관해서만 설명한다. 도 9에 도시된 바와 같이, 디스크 어레이 블록(62)은, 크게 나눠 버퍼 메모리(62A), 디스크 어레이 제어기(62B), 데이터 멀티플렉서(62C), 패리티 연산 회로(62D), 복수의 SCSI 프로토콜 제어기(62E 내지 62I), 및 복수의 하드 디스크(62J 내지 62N)로 이루어져 있다.Here, these disk array blocks 62 and 63 will be described in detail with reference to the drawings. However, since the disk array blocks 62 and 63 basically have the same configuration, only the disk array block 62 will be described here. As shown in FIG. 9, the disk array block 62 is roughly divided into a buffer memory 62A, a disk array controller 62B, a data multiplexer 62C, a parity calculation circuit 62D, and a plurality of SCSI protocol controllers ( 62E to 62I), and a plurality of hard disks 62J to 62N.

버퍼 메모리(62A)는 데이터의 일시 기억용 메모리이고, 도 8에 도시된 시스템 제어 블록(61)으로부터 송출되는 SCSI 포맷의 데이터(S67)를 순차 받아들이고 기억하는 동시에, 데이터 재생시에는 후술하는 데이터 멀티플렉서(62C)에서 이송되는 데이터를 데이터 송출에 따라 일시적으로 기억한다.The buffer memory 62A is a memory for temporarily storing data. The buffer memory 62A sequentially receives and stores the SCSI format data S67 sent out from the system control block 61 shown in FIG. The data transferred at 62C) is temporarily stored in accordance with the data transmission.

디스크 어레이 제어기(62B)는 디스크 어레이 블록(62)에 있어서의 기록 동작이나 재생 동작 등, 블록 전체의 동작을 제어하는 회로이다. 디스크 어레이 제어기(62B)는 버퍼 메모리(62A)에 기억되어 있는 데이터 중 시스템 제어 블록(61)으로부터의 제어 명령에 관한 데이터를 명령 데이터 패스(62P)를 통해 수취하고, 그 제어 명령에 대응한 명령 데이터를 명령 데이터 버스(62P)를 통해 데이터 멀티플렉서(62C), SCSI 프로토콜 제어기(62E 내지 62I) 및 하드 디스크(62J 내지 62N)에 송출하는 것에 의해 각부의 동작을 제어한다.The disk array controller 62B is a circuit that controls the operation of the entire block, such as a recording operation or a reproducing operation, in the disk array block 62. The disk array controller 62B receives data on the control command from the system control block 61 among the data stored in the buffer memory 62A through the command data path 62P, and the command corresponding to the control command. The operation of each unit is controlled by sending data to the data multiplexer 62C, the SCSI protocol controllers 62E to 62I, and the hard disks 62J to 62N via the command data bus 62P.

데이터 멀티플렉서(62C)는 데이터 기록시, 비디오 데이터 등의 기록 대상의 데이터를 버퍼 메모리(62A)에서 판독하여 해당 데이터를 SCSI 프로토콜 제어기(62E 내지 62H)를 통해 각 하드 디스크(62J 내지 62M)로 나누는 동시에, 나누어진 데이터 내용을 패리티 연산 회로(62D)에 통지한다. 또한, 데이터 멀티플렉서(62C)는 데이터 재생시, 각 하드 디스크(62J 내지 62M)에서 재생된 데이터를 1개로 정리하여 버퍼 메모리(62A)에 송출하는 동시에, 하드 디스크(62J 내지 62M)의 손상 등에 의해 재생할 수 없던 데이터가 있는 것이면 패리티 연산 회로(62D)로부터 공급되는 패리티 데이터를 기초로 그 데이터를 재구축 연산에 의해서 재생한다.The data multiplexer 62C reads data to be recorded, such as video data, from the buffer memory 62A at the time of data recording, and divides the data into respective hard disks 62J through 62M through the SCSI protocol controllers 62E through 62H. At the same time, the parity calculation circuit 62D notifies the divided data contents. When the data multiplexer 62C regenerates the data, the data multiplexer 62C collects the data reproduced from each of the hard disks 62J to 62M into one, and sends the data to the buffer memory 62A. If there is data that cannot be reproduced, the data is reproduced by the reconstruction operation based on the parity data supplied from the parity calculation circuit 62D.

패리티 연산 회로(62P)는 데이터 기록시, 데이터 멀티플렉서(62C)가 나누는 데이터 내용에 기초하여 그 데이터의 패리티 데이터를 연산하여, 해당 패리티 데이터를 SCSI 프로토콜 제어기(62I)를 통해 하드 디스크(62N)에 공급한다. 또한, 패리티 연산 회로(62P)는 데이터 재생시, 하드 디스크(62J 내지 62M)에서 재생할 수 없는 데이터가 있으면, 하드 디스크(62N)에서 재생한 패리티 데이터를 데이터 멀티플렉서(62C)에 송출한다.The parity calculating circuit 62P calculates parity data of the data based on the data contents divided by the data multiplexer 62C at the time of data writing, and transmits the parity data to the hard disk 62N through the SCSI protocol controller 62I. Supply. The parity calculating circuit 62P sends parity data reproduced by the hard disk 62N to the data multiplexer 62C when there is data that cannot be reproduced by the hard disks 62J to 62M during data reproduction.

SCSI 프로토콜 제어기(62E 내지 62I)는 데이터 기록시, 데이터 멀티플렉서(62C)에서 공급된 기록 대상의 데이터 또는 패리티 연산 회로(62P)에서 공급된 패리티 데이터를 하드 디스크(62J 내지 62N)의 기록 포맷에 맞은 데이터 형식으로 변환하며, 해당 변환된 데이터를 하드 디스크(62J 내지 62N)에 송출한다. 또한, SCSI 프로토콜 제어기(62E 내지 62I)는 데이터 재생시, 각 하드 디스크(62J 내지 62N)에서 재생된 데이터를 SCSI 포맷의 데이터 형식으로 변환하며, 이것을 데이터 멀티플렉서(62C) 또는 패리티 연산 회로(62P)에 송출한다.When the SCSI protocol controllers 62E to 62I write data, the data to be written supplied from the data multiplexer 62C or the parity data supplied from the parity calculating circuit 62P conforms to the recording format of the hard disks 62J to 62N. The data is converted into a data format, and the converted data is sent to the hard disks 62J to 62N. In addition, the SCSI protocol controllers 62E to 62I convert data reproduced from each of the hard disks 62J to 62N into a data format of the SCSI format at the time of data reproduction, and this is the data multiplexer 62C or the parity calculating circuit 62P. Send it out.

SCSI 프로토콜 제어기(62E 내지 62I)는 하드 디스크(62J 내지 62N)를 액세스하였을 때에 해당 하드 디스크(62J 내지 62N)의 고장 등에 의해 데이터 재생을 할 수 없는 것이 검출된 경우 그 검출 결과를 디스크 어레이 제어기(62B)에 송출하도록 이루어져 있고, 이것에 의해 디스크 어레이 제어기(62B)에서 데이터 멀티플렉서(62C)에 데이터 재구축을 지시할 수 있도록 이루어져 있다.When the SCSI protocol controllers 62E to 62I detect that data reproduction cannot be performed due to a failure or the like of the hard disks 62J to 62N when the hard disks 62J to 62N are accessed, the SCSI protocol controllers 62E to 62I display the detection result. And the data reconstruction can be instructed by the disk array controller 62B to the data multiplexer 62C.

하드 디스크(62J 내지 62N)는 비디오 데이터 등의 기록 대상의 데이터를 분산하여 병렬로 기록하기 위한 데이터 기억 수단이다. 이러한 예로서는 4개의 하드 디스크(62J 내지 62M)를 설치하여 데이터를 분산하게 되고 있지만, 이러한 수는 특별히 한정되는 것이 아니다. 하드 디스크(62J 내지 62M)는, 데이터 기록시, SCSI 프로토콜 제어기(62E 내지 62H)로부터 공급되는 데이터를 순차 원하는 기록 에어리어에 기록하는 동시에, 데이터 재생시에는 데이터를 순차 판독하여 SCSI 프로토콜 제어기(62E 내지 62H)에 송출한다. 이와 같이 복수의 하드 디스크(62J 내지 62M)를 설치하여 데이터를 분산하여 기록하도록 함으로써, 디스크 어레이 블록(62)에서는 비디오 데이터 등과 같은 대용량의 데이터라도 확실히 기록할 수 있다.The hard disks 62J to 62N are data storage means for distributing and recording data in parallel to be recorded, such as video data. In such an example, four hard disks 62J to 62M are provided to distribute data, but the number is not particularly limited. The hard disks 62J to 62M sequentially record the data supplied from the SCSI protocol controllers 62E to 62H at the time of data recording in the desired recording area, and at the same time read the data sequentially to reproduce the SCSI protocol controllers 62E to 62H. To be sent. In this way, the plurality of hard disks 62J to 62M are provided so that data is distributed and recorded, so that even a large amount of data such as video data can be reliably recorded in the disk array block 62.

또한, 하드 디스크(62N)는 기록 대상의 데이터를 기초로 산출한 패리티 데이터를 기록하기 위한 데이터 기억 수단이다. 하드 디스크(62N)는 데이터 기록시, SCSI 프로토콜 제어기(62I)로부터 공급되는 패리티 데이터를 순차 원하는 기록 에어리어에 기록하는 동시에, 데이터 재생시에는 패리티 데이터를 순차 판독하여 SCSI 프로토콜 제어기(62I)에 송출한다. 이와 같이 기록 대상의 데이터를 기초로 산출한 패리티 데이터를, 해당 기록 대상의 데이터를 기록하는 하드 디스크(62J 내지 62M)와는 다른 하드 디스크(62N)에 기록하도록 한 것에 의해, 고장 등으로 인해 하드 디스크(62J 내지 62M)에서 데이터를 재생할 수 없는 경우라도, 해당 패리티 데이터를 기초로 데이터를 재구축할 수 있다.The hard disk 62N is data storage means for recording parity data calculated on the basis of data to be recorded. The hard disk 62N sequentially records the parity data supplied from the SCSI protocol controller 62I in a desired recording area at the time of data recording, and reads out the parity data sequentially and sends it to the SCSI protocol controller 62I at the time of data reproduction. In this way, the parity data calculated on the basis of the data to be recorded is recorded on a hard disk 62N different from the hard disks 62J to 62M for recording the data to be recorded. Even when data cannot be reproduced at 62J to 62M, data can be reconstructed based on the parity data.

여기서 데이터 재구축의 원리에 관해서 설명한다. 우선 데이터 멀티플렉서(62C)에 의해서 배당된 데이터 중 하드 디스크(62J)에 배당된 데이터를 D0, 하드 디스크(62K)에 배당된 데이터를 D1, 하드 디스크(62L)에 배당된 데이터를 D2, 하드 디스크(62M)에 배당된 데이터를 D3으로 하고, 패리티 연산 회로(62P)에 의해서 산출된 패리티 데이터를 PD로 한다.Here, the principle of data reconstruction is explained. First, among the data allocated by the data multiplexer 62C, the data allocated to the hard disk 62J is D0, the data allocated to the hard disk 62K is D1, the data allocated to the hard disk 62L is D2, and the hard disk. The data allocated to 62M is D3, and the parity data calculated by the parity calculation circuit 62P is PD.

패리티 연산 회로(62P) 내부에는 도 10A에 도시된 바와 같은 논리 연산 수단(70)이 설치되어 있고, 해당 논리 연산 수단(70)에 의해서 패리티 데이터를 산출하도록 이루어져 있다. 논리 연산 수단(70)은 하드 디스크(62J)에 배당된 데이터(D0), 하드 디스크(62K)에 배당된 데이터(D1), 하드 디스크(62L)에 배당된 데이터(D2), 및 하드 디스크(62M)에 배당된 데이터(D3)를 가산하여, 그 가산 결과가 짝수이면 값「1」의 패리티 데이터(PD)를 출력하고, 가산 결과가 홀수이면 값「0」의 패리티 데이터를 출력한다. 가산 결과가 「0」인 경우 짝수라고 인정하여 값「1」의 패리티 데이터(PD)를 출력한다.In the parity calculating circuit 62P, a logic calculating means 70 as shown in FIG. 10A is provided, and the logic calculating means 70 calculates parity data. The logical operation means 70 includes data D0 allocated to the hard disk 62J, data D1 allocated to the hard disk 62K, data D2 allocated to the hard disk 62L, and a hard disk ( The data D3 allocated to 62M is added, and if the addition result is even, parity data PD having a value of "1" is output. If the addition result is odd, parity data of a value "0" is output. If the addition result is "0", the parity data PD having the value "1" is output as an even number.

구체적으로는 도 10B에 도시된 바와 같이, 예를 들면 데이터(D0 내지 D3)가 모두 값「0」인 경우 논리 연산 수단(70)은 가산 결과가 「0」이 되기 때문에 값「1」되는 패리티 데이터(PD)를 출력하고, 데이터(D0 내지 D2)가 값「0」이고 데이터(D3)가 값「1」인 경우 가산 결과가「1」이 되기 때문에 값「0」이 되는 패리티 데이터(PD)를 출력한다. 이하, 같은 원리로 그 밖의 데이터의 조합에 관해서도, 도 10B의 도표와 같은 패리티 데이터(PD)를 출력한다. 이와 같이 산출된 패리티 데이터(PD)는 상술한 바와 같이 SCSI 프로토콜 제어기(62I)를 통해 하드 디스크(62N)에 기록된다.Specifically, as shown in Fig. 10B, for example, when all of the data D0 to D3 are the values "0", the logic calculating means 70 becomes parity with the value "1" because the addition result is "0". When the data PD is output, and the data D0 to D2 are the value "0" and the data D3 is the value "1", the addition result is "1". ) The parity data PD shown in the diagram of Fig. 10B is also output in the same principle with respect to other data combinations. The parity data PD thus calculated is recorded on the hard disk 62N through the SCSI protocol controller 62I as described above.

여기서 재생시에 하드 디스크(62L)의 고장으로 해당 하드 디스크(62L)에 기록되어 있는 데이터(D2)를 재생할 수 없으면, 디스크 어레이 제어기(62B)는 SCSI 프로토콜 제어기(62G)에서의 재생 불가의 검출 결과를 수취하여, 데이터 멀티플렉서(62C)에 패리티 데이터에 의한 데이터 재구축을 지시한다. 이것을 받은 데이터 멀티플렉서(62C)는 도 11A에 도시된 바와 같이, 내부에 설치된 논리 연산 수단(71)에 대하여 하드 디스크(62J)에서 재생된 데이터(D0), 하드 디스크(62K)에서 재생된 데이터(D1), 하드 디스크(62M)에서 재생된 데이터(D3) 및 하드 디스크(62N)에서 재생된 패리티 데이터(PD)를 입력하여, 해당 논리 연산 수단(71)에 의해서 데이터(D2)의 재구축을 위한 연산을 실행한다. 논리 연산 수단(71)은 패리티 데이터(PD)를 산출하는 논리 연산 수단(70)과 같이, 입력되는 데이터(D0, D1, D3) 및 패리티 데이터(PD)를 가산하여, 그 가산 결과가 짝수이면 값 「1」의 재구축 데이터(D2)를 출력하고, 가산 결과가 홀수이면 값「0」의 재구축 데이터(D2)를 출력한다.If the data D2 recorded on the hard disk 62L cannot be reproduced due to a failure of the hard disk 62L at the time of reproduction, the disk array controller 62B detects that the reproduction cannot be performed by the SCSI protocol controller 62G. Is received, and the data multiplexer 62C instructs data reconstruction using parity data. As shown in Fig. 11A, the data multiplexer 62C receives the data D0 reproduced from the hard disk 62J and the data reproduced from the hard disk 62K with respect to the logical operation means 71 installed therein. D1), the data D3 reproduced from the hard disk 62M and the parity data PD reproduced from the hard disk 62N are inputted, and the reconstruction of the data D2 is performed by the logical operation means 71. To execute the operation. The logic calculating means 71 adds the input data D0, D1, D3 and the parity data PD, like the logic calculating means 70 for calculating the parity data PD, and if the addition result is even The reconstruction data D2 having the value "1" is output, and if the addition result is odd, the reconstruction data D2 having the value "0" is output.

구체적으로는 도 11A에 도시된 바와 같이, 예를 들면 데이터(D0, D1, D3)가 값「0」이고 패리티 데이터(PD)가 값「1」인 경우 논리 연산 수단(71)은 가산 결과가「1」로 되기 때문에 값「0」으로 되는 재구축 데이터(D2)를 출력하고, 데이터(D0, D1, PD)가 값「0」이고 데이터(D3)가 값 「1」인 경우 가산 결과가 동일하게 「1」로 되기 때문에 값「0」으로 되는 재구축 데이터(D2)를 출력한다. 이하, 같은 원리로 그 밖의 데이터의 조합에 관해서도, 도 11B의 도표와 같은 재구축 데이터(D2)를 출력한다. 도 11B와 도 10B를 대비시키면 알 수 있듯이, 하드 디스크(62L)의 고장에 의해 재생할 수 없는 데이터(D2)가 정확히 복원된다.Specifically, as shown in FIG. 11A, for example, when the data D0, D1, and D3 are the values "0" and the parity data PD is the value "1", the logical operation means 71 adds up. Since the reconstruction data D2, which becomes the value "0", is output as "1", and the data D0, D1, and PD are the value "0", and the data D3 is the value "1", the addition result is Similarly, since it becomes "1", the reconstruction data D2 which becomes the value "0" is output. The reconstruction data D2 as shown in the chart of Fig. 11B is also output with respect to the combination of other data on the same principle. As can be seen by contrasting Figs. 11B and 10B, the data D2 which cannot be reproduced is correctly restored by the failure of the hard disk 62L.

이렇게 하여 상기 디스크 어레이 블록(62)에서는 데이터 기록시, 기록 대상의 데이터(D0 내지 D3)를 토대로 패리티 데이터(PD)를 산출하여 하드 디스크(62N)에 해당 패리티 데이터(PD)를 기록하도록 함으로써, 데이터 재생시에 하드 디스크(62J, 62K, 62L 또는 62M)의 고장에 의해 데이터(D0, D1, D2 또는 D3)를 재생할 수 없는 경우라도, 해당 패리티 데이터(PD)를 토대로 재생할 수 없는 데이터(D0, D1, D2 또는 D3)를 확실하게 복원할 수 있다.In this way, the disk array block 62 calculates the parity data PD based on the data D0 to D3 to be recorded and records the parity data PD on the hard disk 62N when data is recorded. Even when data D0, D1, D2 or D3 cannot be reproduced due to a failure of the hard disk 62J, 62K, 62L or 62M at the time of data reproduction, the data D0, which cannot be reproduced based on the parity data PD, can be reproduced. D1, D2 or D3) can be reliably restored.

2. 그래픽 이용자 인터페이스의 구성2. Configuration of Graphical User Interface

2-1. 본 실시예의 편집 장치(1)에 있어서는 우선 컴퓨터(2)에 의해 편집용 애플리케이션 소프트웨어를 컴퓨터 내부의 하드 디스크(HDD)에서 판독 출력하여 기동함으로써, 모니터(2B) 상에 도 12에 도시된 바와 같은 편집용 그래픽 이용자 인터페이스(90)를 표시시킨다.2-1. In the editing apparatus 1 of the present embodiment, first, the application software for editing is read out from the hard disk HDD inside the computer and started by the computer 2, and as shown in FIG. 12 on the monitor 2B. The editing graphical user interface 90 is displayed.

편집 처리를 행하기 위한 그래픽 이용자 인터페이스(90)는 뷰어 윈도우(92), 로그 윈도우(93) 및 프로그램 윈도우(94)의 3개의 윈도우로 구성되고, 이들 3개의 윈도우를 이용하여 편집 조작을 한다.The graphical user interface 90 for performing the editing process is composed of three windows of the viewer window 92, the log window 93, and the program window 94, and performs editing operations using these three windows.

뷰어 윈도우(92)는 선택된 소스 디바이스로부터 재생된 비디오 영상을 보면서, 그 소스 디바이스로부터 재생된 편집 소재에 대하여 인점 및 아웃점을 설정하기 위한 윈도우이다. 로그 윈도우(93)는 인점 및 아웃점의 지정에 의해서 생성된 이벤트를 나타내는 클립 카드(stamp picture)를 등록하기 위한 윈도우이다. 프로그램 윈도우(94)는 인점 및 아웃점이 지정된 이벤트를 타임 라인에 나열함으로써, 원하는 프로그램을 작성하기 위한 윈도우이다.The viewer window 92 is a window for setting in points and out points for the edited material reproduced from the source device while viewing the video image reproduced from the selected source device. The log window 93 is a window for registering a clip picture representing an event generated by designating an in-point and an out-point. The program window 94 is a window for creating a desired program by listing events designated by in and out points on the timeline.

대략적인 편집 방법으로서는 뷰어 윈도우(92)에 있어서 인점 및 아웃점을 지정하는 것으로 이벤트를 생성한다. 그리고 로그 윈도우(93)에 그 작성한 이벤트를 클립 카드로서 표시한다. 이러한 작업을 반복함으로써 로그 윈도우(93)상에 복수의 이벤트를 나타내는 클립 카드가 표시된다.As an approximate editing method, an event is generated by specifying an in point and an out point in the viewer window 92. The created event is displayed in the log window 93 as a clip card. By repeating these operations, a clip card representing a plurality of events is displayed on the log window 93.

다음에, 로그 윈도우(93)에 등록된 이벤트 중에서 원하는 이벤트를 드래그 앤드 드롭(drag and drop)을 사용하여, 프로그램 윈도우(94)의 타임 라인(95)에 나열함으로써, 프로그램을 작성할 수 있다. 또한, 타임 라인 상에서, 타임 라인(95)상에 나열된 이벤트에 대하여 애니메이션 효과 또는 트랜지션 효과 등 비디오 효과를 설정할 수가 있다.Next, a program can be created by listing desired events among the events registered in the log window 93 on the timeline 95 of the program window 94 by using drag and drop. In addition, on the timeline, video effects such as animation effects or transition effects can be set for the events listed on the timeline 95.

2-2. 뷰어 윈도우의 구성2-2. Composition of Viewer Window

뷰어 윈도우(92)는 소스 디바이스를 선택하여, 선택된 소스 디바이스로부터 재생된 비디오 영상을 뷰잉하면서, 그 소스 디바이스로부터 재생된 편집 소재에 대하여 인점 및 아웃점을 설정하기 위한 윈도우이다.The viewer window 92 is a window for selecting a source device and setting in and out points for the edited material reproduced from the source device while viewing the video image reproduced from the selected source device.

도 13에 도시된 바와 같이, 뷰어 윈도우(92)는 소스 디바이스로부터 재생된 비디오 이미지를 뷰잉하는 뷰어(106), 선택된 소스 디바이스를 제어하기 위한 디바이스 제어부(96), 뷰어 윈도우(92)에 표시되어 있는 소재에 대하여 인점을 지정하기 위한 마크 인 버튼(115), 마크 인 버튼(115)의 클릭에 의해서 지정된 인점의 스탬프 화상을 표시하는 인점 화상 표시부(110), 뷰어 윈도우(92)에 표시되어 있는 소재에 대하여 아웃점을 지정하기 위한 마크 아웃 버튼(116), 및 마크 아웃 버튼(116)의 클릭에 의해서 지정된 아웃점의 스탬프 화상을 표시하는 아웃점 화상 표시부(112)를 구비하고 있다.As shown in FIG. 13, the viewer window 92 is displayed in the viewer 106 viewing the video image played back from the source device, the device control unit 96 for controlling the selected source device, and the viewer window 92. The mark-in button 115 for designating a point-in-point for a material present, the point-in-picture image display unit 110 that displays a stamped image of the point specified by the click of the mark-in button 115, and the viewer window 92 are displayed. The mark out button 116 for designating an out point with respect to a raw material, and the out point image display part 112 which displays the stamp image of the out point designated by the click of the mark out button 116 are provided.

뷰어 윈도우(92)는 인점 화상 표시부(110)에 표시되어 있는 스탬프 화상의 타임 코드 즉 인점의 타임 코드를 표시하기 위한 인점 타임 코드 표시란(111)과, 아웃점 화상 표시부(112)에 표시되어 있는 스탬프 화상의 타임 코드 즉, 아웃점의 타임 코드를 표시하기 위한 아웃점 타임 코드 표시란(113)과, 인점과 아웃점의 마킹에 의해서 생성된 이벤트의 기간(Duration)을 표시하기 위한 란으로, 인점의 타임 코드 및 아웃점의 타임 코드에 의거하여 연산된 타임 코드가 표시되는 DUR 표시란(114)을 갖고 있다.The viewer window 92 is displayed in the point-in-time code display field 111 for displaying the time code of the stamped image displayed on the point-in-picture image display unit 110, that is, the time code of the in-point point, and the out-point image display unit 112. An out point time code display field 113 for displaying the time code of the stamp image, that is, an out point time code, and a field for displaying the duration of an event generated by marking the in and out points. The DUR display field 114 which displays the time code computed based on the code and the time point of an out point is displayed.

또한, 뷰어 윈도우(92)는 데일리 서버(6), VTR(7), 국소 기억 장치(8), 보조입력부(AUX) 및 내부 입력(INT)의 각 소스 디바이스를 임의로 선택하기 위한 소스 선택 버튼(102)(102A 내지 102E)을 갖고 있다. 편집 오퍼레이터가 이들 중의 어느하나의 소스 선택 버튼을 클릭함으로써, 데일리 서버(6), VTR(7), 국소 기억 장치(8), 보조 입력부(AUX) 및 내부 입력(INT) 중의 어느 하나를 소스 디바이스로서 선택할 수 있다.In addition, the viewer window 92 includes a source select button for arbitrarily selecting each source device of the daily server 6, the VTR 7, the local memory 8, the auxiliary input unit AUX, and the internal input INT. 102) 102A to 102E. When the editing operator clicks on any of these source selection buttons, any one of the daily server 6, the VTR 7, the local memory 8, the auxiliary input unit AUX and the internal input INT is selected. Can be selected as

보조 입력부(AUX)는 복수의 소스를 갖는 것으로, 현재, 보조 입력부(AUX)로서 설정되어 있는 보조 입력부(AUX1 내지 AUXn) 중의 어느 하나의 입력부명이 소스선택 버튼(102D)에 표시된다.The auxiliary input unit AUX has a plurality of sources, and the name of any one of the auxiliary input units AUX1 to AUXn currently set as the auxiliary input unit AUX is displayed on the source selection button 102D.

디바이스 제어부(96)는 슬라이더(Slider)부(120) 및 죠그 셔틀부(121)를 갖고 있다. 슬라이더부(120)를 조작함으로써, 이벤트의 길이를 나타내는 기간 표시부(120A)의 범위 내에서 슬라이더(120B)의 표시되는 위치에 따라 현재 재생중인 파일의 현재 위치를 나타냄과 동시에, 해당 슬라이더(120B)를 마우스(2D)에 의해서 기간 표시부(120A)의 임의의 위치에 슬라이드함으로써 파일의 원하는 위치를 검색할 수가 있다. 화살표 버튼(120C 또는 120D)을 클릭함으로써, 파일의 위치를 각각 ±1 프레임씩 전후로 이동시킬 수 있도록 이루어져 있다.The device controller 96 has a slider 120 and a jog shuttle 121. By operating the slider portion 120, the current position of the file currently being played is indicated in accordance with the displayed position of the slider 120B within the range of the period display portion 120A indicating the length of the event, and the slider 120B is displayed. Can be searched for a desired position of the file by sliding the mouse to any position of the period display portion 120A with the mouse 2D. By clicking the arrow buttons 120C or 120D, the file position can be moved back and forth by ± 1 frame, respectively.

죠그 셔틀부(121)는 1배속재생을 지시하는 재생 버튼(119A)과, 스틸 재생을 지시하는 스틸 버튼(119B)과, 셔틀 재생하는 셔틀 모드를 지시하는 셔틀 버튼(121A)과, 셔틀 모드에 있어서 디바이스의 검색 속도를 -50배속 내지 + 50배속 범위에서 가변하기 위한 버튼(121B 또는 121C)을 갖고 있다.The jog shuttle unit 121 has a play button 119A for instructing 1x speed playback, a still button 119B for instructing still playback, a shuttle button 121A for instructing shuttle mode for shuttle playback, and a shuttle mode. Has a button 121B or 121C for varying the search speed of the device in the range of -50x to + 50x.

뷰어 윈도우(92)는 또한, 선택된 편집 소재명이 표시되는 소재명란(107)과, 뷰어(106)에 표시되어 있는 영상 프레임의 타임 코드가 표시되는 타임 코드 표시란(108)과, 뷰어 윈도우(92)의 상황(상태(status))을 표시하기 위한 상태란(109)을 갖고 있다.The viewer window 92 further includes a material name field 107 in which the selected edited material name is displayed, a time code display field 108 in which the time code of a video frame displayed in the viewer 106 is displayed, and a viewer window 92. Has a status column 109 for displaying the status (status).

타임 코드 표시란(108)을 클릭함으로써, 해당 타임 코드 표시란(108)을 입력 모드로 설정할 수가 있고, 여기서 타임 코드 표시란(108)에 소재의 원하는 위치의 타임 코드를 입력하여 엔터 키를 입력함으로써, 소재의 원하는 위치를 타임 코드에 따라 찾아낼(검색) 수 있다.By clicking on the time code display field 108, the corresponding time code display field 108 can be set to the input mode, in which the time code of the desired position of the material is input to the time code display field 108 to enter the enter key. Thus, the desired position of the material can be found (searched) according to the time code.

또한, 상태란(109)의 상태 표시가「OPEN」으로 되면, 디바이스 제어부(96)에 의한 디바이스 제어에 의해서 선택된 소재에 대한 디바이스 제어가 실행 가능한 상태로 설정되어 있는 것을 나타낸다.In addition, when the state display of the state column 109 becomes "OPEN", it shows that the device control with respect to the raw material selected by the device control by the device control part 96 is set to the state which can be performed.

또한, 상태란(109)에 텐 키 입력에 의해 재생 속도를 입력하면, 해당 재생속도로 디바이스를 재생 모드로 설정할 수가 있다. 이때 재생중인 소재의 원하는 위치에서, 마크 인 버튼(115)을 클릭 입력함으로써, 그 위치에 인점이 설정됨과 동시에, 스탬프 화상과 타임 코드가 입력되어 각각 인점 화상 표시부(110)와 인점 타임 코드 표시란(111)에 표시된다. 또한, 선택된 소재의 검색를 행하고, 마크 아웃 버튼(116)을 클릭 입력함으로써, 그 위치에 아웃점이 설정됨과 동시에, 스탬프 화상과 타임 코드가 입력되어 각각 아웃점 화상 표시부(112)와 아웃점 타임 코드 표시란(113)에 표시된다.In addition, when the playback speed is inputted by ten key input in the status field 109, the device can be set to the playback mode at the playback speed. At this time, by clicking on the mark-in button 115 at the desired position of the material being played back, the mark point and the time code are input at the same time as the mark point and the code point are input. It is displayed at 111. Further, by searching for the selected material and clicking on the mark out button 116, the out point is set at the position, the stamp image and the time code are input, and the out point image display section 112 and the out point time code display column ( 113).

또한, 인점 타임 코드 표시란(111)을 클릭함으로써 인점 타임 코드 표시란(111)을 타임 코드의 입력 모드로 바꿀 수 있고, 이때 인점 타임 코드 표시란(111)에 목적의 타임 코드값을 텐 키 입력함으로써 입력 타임 코드에 대응하는 소재 데이터의 화상을 인점 화상으로서 판독 출력하여, 인점 화상 표시부(110)에 표시시키는 것도 가능하다. 마찬가지로 아웃점 타임 코드 표시란(113)을 클릭함으로써 아웃점 타임 코드 표시란(113)을 타임 코드의 입력 모드로 바꿀 수 있으며, 이때 아웃점 타임 코드 표시란(113)에 목적의 타임 코드값를 텐 키 입력함으로써 입력 타임 코드에 대응하는 소재 데이터의 화상을 아웃점 화상으로서 판독 출력하여, 아웃점 화상 표시부(112)에 표시시킬 수도 있다. 또한, 뷰어 윈도우(92)는 인점과 아웃점에 의해서 규정된 편집 소재를 이벤트로서 등록하기 전에, 인점에서 아웃점의 소재를 미리 보기 위한 프리뷰 버튼(117)과, 그리고 그 설정 상태에서 뷰어 윈도우(92)에 있어서 인점 및 아웃점이 설정된 소재를 이벤트로서 등록하기 위한 ADD 버튼(122A)과, 이벤트를 등록할 때의 엔트리 모드로서, 이벤트를 로그 윈도우(93)에 클립 카드로서 등록하는 로그 모드를 선택하는 로그 버튼(122B), 이벤트를 등록할 때의 엔트리 모드로서, 타임 라인(95)에 이벤트를 등록하는 타임 라인 모드를 선택하는 타임 라인 버튼(122C)을 갖고 있다.In addition, by clicking on the point-in-time code display field 111, the point-in-time code display field 111 can be changed to a time code input mode. By inputting, it is also possible to read out and output the image of the raw material data corresponding to an input time code as a point image, and to display it on the point image display part 110. FIG. Similarly, by clicking on the out point time code display field 113, the out point time code display field 113 can be changed to the time code input mode. In this case, a ten key input of the desired time code value is performed in the out point time code display field 113. An image of the raw material data corresponding to the input time code may be read out as an out point image and displayed on the out point image display unit 112. In addition, the viewer window 92 includes a preview button 117 for previewing the material of the out point at the in point before registering the edited material defined by the in and out points as an event, and the viewer window 92 in the setting state. ADD button 122A for registering the work where the in and out points are set in the event as an event, and a log mode for selecting the log mode for registering the event as a clip card in the log window 93 as an entry mode when registering the event. The button 122B has a timeline button 122C for selecting a timeline mode for registering an event in the timeline 95 as an entry mode for registering an event.

2-3. 로그 윈도우의 구성2-3. Log Window Configuration

로그 윈도우(93)는 뷰어 윈도우(92)에 있어서 등록된 이벤트를 클립 카드(179)로서 격납하기 위한 데이터베이스 윈도우이다.The log window 93 is a database window for storing the event registered in the viewer window 92 as the clip card 179.

이 로그 윈도우는 복수의 클립 카드를 표시하기 위한 클립 카드 표시 에어리어, 다이렉트 엔트리 버튼(180), 장면 변경 버튼(178A), 리콜 버튼(178C), 소트 버튼(178D), 삭제 버튼(178E), 및 다운로드 버튼(178B)을 갖고 있다.This log window includes a clip card display area for displaying a plurality of clip cards, a direct entry button 180, a scene change button 178A, a recall button 178C, a sort button 178D, a delete button 178E, and It has a download button 178B.

다이렉트 엔트리 버튼(178C)은 로그 윈도우에 격납되어 있는 클립 카드(179)를 타임 라인 상에 자동적으로 나열하는 다이렉트 엔트리 모드를 설정하기 위한 버튼이다. 다이렉트 엔트리 모드란, 로그 윈도우(93)에 표시되어 있는 클립 카드(179)를 드래그 앤드 드롭하지 않고 클릭하는 것만으로, 타임 라인 상에 나열할 수 있는 모드이다. 구체적으로는 후술한다.The direct entry button 178C is a button for setting the direct entry mode for automatically arranging the clip card 179 stored in the log window on the timeline. The direct entry mode is a mode in which the clip card 179 displayed in the log window 93 can be arranged on the timeline by simply clicking without dragging and dropping. Specifically, it mentions later.

장면 변경 버튼(178C)은 로그 윈도우(93)에 클립 카드(179)로서 격납되는 이벤트에 대하여, 일련의 클립명을 부여하고자 하는 경우에 이용하는 버튼이다. 장면 변경 버튼(178C)이 클릭되면, 장면명 설정 다이얼로그가 열린다. 이러한 장면의 설정 방법에 관해서는 후술한다.The scene change button 178C is a button used to assign a series of clip names to the event stored as the clip card 179 in the log window 93. When the scene change button 178C is clicked, the scene name setting dialog opens. The setting method of such a scene is mentioned later.

리콜 버튼(178C)은 클릭함으로써 클립명 등을 바탕으로 클립 카드(179)를 검색하는 버튼이며, 소트 버튼(178D)은 클릭함으로써 클립 카드(179)를 내려가는 순서 또는 올라가는 순서로 열 전환하는 버튼이고, 또한 삭제 버튼(178E)은 클릭함으로써 로그 윈도우(93)상에 등록한 클립 카드(179)의 삭제를 설정하는 버튼이다. 또한, 다운로드 버튼(178B)은 선택된 클립 카드(179)의 국소 기억 장치(8)로의 다운 로드를 지시하기 위한 버튼이다.The recall button 178C is a button for searching for the clip card 179 based on the clip name or the like by clicking, and the sort button 178D is a button for switching columns in the descending or ascending order of the clip card 179 by clicking. The delete button 178E is a button for setting the deletion of the clip card 179 registered on the log window 93 by clicking. In addition, the download button 178B is a button for instructing the download of the selected clip card 179 to the local storage device 8.

이 로그 윈도우(93)에 등록된 클립 카드(179)를 표시하기 위한 표시 형식으로서, 도 15A 내지 도 15C에 도시된 바와 같이, 3개의 클립 카드 표시 형식이 존재한다.As a display format for displaying the clip card 179 registered in this log window 93, as shown in Figs. 15A to 15C, three clip card display formats exist.

도 15A에 도시된 바와 같은 제 1 클립 카드 표시 형식은 클립명, 인점의 스탬프 픽처 및 이벤트의 지속 기간을 표시하는 형식이다. 도 15B에 도시된 바와 같은 제 2 클립 카드 표시 형식은 클립명, 이벤트 지속 기간, 인점 및 아웃점의 타임 코드 및 인점 및 아웃점의 스탬프 픽처를 표시하는 형식이다. 도 15C에 도시된 바와 같은 제 3 클립 카드 표시 형식은 클립명, 이벤트 지속 기간, 인점의 스탬프 픽처 및 이벤트에 관한 정보를 기재한 텍스트를 표시하는 텍스트 표시란을 표시하는 형식이다.The first clip card display format as shown in Fig. 15A is a format for displaying a clip name, a stamp picture of an in-point point, and a duration of an event. The second clip card display format as shown in Fig. 15B is a format for displaying clip names, event durations, time codes of in and out points, and stamp pictures of in and out points. The third clip card display format as shown in FIG. 15C is a format for displaying a text display field for displaying text describing a clip name, an event duration, a stamp picture of an in-point point, and information on an event.

편집 오퍼레이터에 의해서, 이들의 3개의 클립 카드 표시 형식 중에서 원하는 클립 카드 표시 형식이 선택되며, 로그 윈도우(93)에 이벤트를 클립 카드로서 격납하는 경우 그 선택되는 클립 카드 표시 형식이 되도록 클립 카드가 표시된다.By the editing operator, the desired clip card display format is selected from these three clip card display formats, and when the event is stored as a clip card in the log window 93, the clip card is displayed so as to be the selected clip card display format. do.

2-4. 프로그램 윈도우의 구성2-4. Program window composition

프로그램 윈도우(94)는 뷰어 윈도우(92)에 있어서 인점과 아웃점이 지정된 소재 및 로그 윈도우(93)에 격납되어 있는 클립 카드(179)를 타임 라인 상에 이벤트로서 나열함으로써, 프로그램 리스트(ED)를 작성하기 위한 윈도우이다.The program window 94 lists the clip card 179 stored in the material and log window 93 in which the in and out points are designated in the viewer window 92 as events on the timeline, thereby displaying the program list ED. Window to create.

도 16 및 도 17에 도시된 바와 같이 프로그램 윈도우는 비디오 및 오디오를 붙이는 복수의 라인으로 구성되어 있는 타임 라인(95)을 갖고 있다. 타임 라인(95)은 베이스 비디오 라인(Base Video line)(132A), 베이스 오디오 라인(132B), 서브 오디오 라인(134), 효과 라인(135)과, 오버레이 라인(Overlay line)(136)과, DSK 라인(137)과, 보이스 오버 라인(138A, 138B)으로 구성된다.As shown in Figs. 16 and 17, the program window has a timeline 95 composed of a plurality of lines to which video and audio are pasted. The time line 95 includes a base video line 132A, a base audio line 132B, a sub audio line 134, an effect line 135, an overlay line 136, DSK line 137 and voice over lines 138A and 138B.

베이스 비디오 라인(Base Video Line)(132A)은 베이스로 되는 베이스 비디오를 붙이기 위한 라인이고, 베이스 오디오 라인(132B)은 베이스 비디오에 관련된 베이스 오디오를 붙이기 위한 라인이다. 베이스 비디오 라인(138A)과 베이스 오디오 라인(138B)은 항상 링크되어 있어, 같은 소재가 이용된다.The base video line 132A is a line for pasting a base video as a base, and the base audio line 132B is a line for pasting base audio related to the base video. The base video line 138A and the base audio line 138B are always linked so that the same material is used.

오버레이 라인(Over1ay Line)(136)은 2개의 영상을 합성하도록 한 애니메이션 효과를 설정한 경우에 이용하는 라인이고, 베이스 비디오에 대하여 오버레이시키는 비디오를 붙이기 위한 라인이다. 서브 오디오 라인(134)은 오버레이 라인(136)에 붙여진 오버레이 비디오의 오디오를 설정하기 위한 라인이다. 오버레이 라인(136)과 서브 오디오 라인(138B)은 항상 링크되어 있어 같은 소재가 사용된다.The overlay line 136 is a line used when an animation effect for synthesizing two images is set, and is a line for pasting the video overlaid on the base video. The sub audio line 134 is a line for setting audio of the overlay video pasted to the overlay line 136. The overlay line 136 and the sub audio line 138B are always linked so that the same material is used.

효과 라인(135)은 비디오 효과를 설정하기 위한 라인이다. 이러한 효과 라인(135)의 이용 방법에 관해서는 후술한다.Effect line 135 is a line for setting the video effect. The method of using such an effect line 135 will be described later.

DSK 라인(137)은 타이틀이나 문자 슈퍼의 합성 등에 사용되는 다운스트림 키(Down Stream Key)를 설정하기 위한 라인이다.The DSK line 137 is a line for setting a downstream key used for synthesizing a title, character super, or the like.

보이스 오버 라인(138A 및 138B)은 베이스 오디오에 대하여, 아나운서 등의 소리(Voice)를 합성하기 위한 라인이다.The voice over lines 138A and 138B are lines for synthesizing a voice such as an announcer with respect to the bass audio.

타임 라인(95)에 표시되는 이벤트 및 설정된 효과는 각 라인마다 다른 색으로 설정되어 있다. 예를 들면, 비디오 이벤트는 청색, 오디오 이벤트는 황색, 효과 이벤트는 핑크색, DSK 이벤트는 녹색으로 표시된다.The events and the set effects displayed on the timeline 95 are set to different colors for each line. For example, video events are displayed in blue, audio events in yellow, effect events in pink, and DSK events in green.

또한, 타임 라인(95)은 타임 라인 상에 있어서의 현재 시간 또는 현재 위치를 나타내는 현재 라인(139)을 갖고 있다. 타임 라인(95)상의 이벤트를 프리뷰하는 프리뷰 모드 시에는 뷰어 윈도우(92)에 화면 표시되는 비디오 프레임과 연동하여, 현재 라인(139)이 타임 라인 위를 우측으로 이동한다.The timeline 95 also has a current line 139 indicating the current time or current position on the timeline. In the preview mode in which an event on the timeline 95 is previewed, the current line 139 moves to the right on the timeline in association with a video frame displayed on the viewer window 92.

현재 라인(139)은 타임 라인(95)이 표시되어 있을 때는 해당 타임 라인(95)상에 항시 표시되도록 이루어져 있고, 통상은 회색 표시되고, 프리뷰 또는 재생 실행 중에는 적색으로 색별 표시된다. 이와 같이 현재 라인(139)을 프리뷰 또는 재생 실행 중으로 색별 표시하도록 함으로써, 현재, 현재 라인(139)에 나타내어지는 타임 코드 위치에 대응하는 영상 클립이 뷰어 윈도우(92)에 화면 표시되어 있는 것인지의 여부를 시각으로 용이하게 식별할 수 있다.The current line 139 is always displayed on the corresponding timeline 95 when the timeline 95 is displayed, and is normally grayed out, and is displayed by color in red during preview or playback. By displaying the current line 139 by color during preview or playback in this manner, whether or not the video clip corresponding to the time code position currently displayed on the current line 139 is displayed on the viewer window 92 on the screen. Can be easily identified visually.

도 16에 도시된 바와 같이 현재 라인(139)은 타임 라인(95)의 상부에 표시되는 입력 툴(140)에 의해서 간단하게 타임 라인(95)상의 원하는 위치로 이동시킬 수 있도록 이루어져 있다. 프로그램 윈도우(94)에는 입력 툴(140)로서 현재 라인(139)을 타임 라인(95)의 선두로 이동시키는 헤드 버튼(141), 현재 라인(139)을 타임 라인(95)상의 가장 끝의 이벤트 뒤로 이동시키는 테일 버튼(142), 현재 라인(139)을 현재 위치하는 이벤트 하나 앞의 이벤트로 이동시키는 전 버튼(143), 현재 라인(139)을 현재 위치하는 이벤트의 하나 뒤의 이벤트로 이동시키는 다음 버튼(144), 현재 라인(139)을 타임 라인(95)상의 소정의 위치로 이동시키는 슬라이더(146)가 형성되어 있다.As shown in FIG. 16, the current line 139 is configured to be easily moved to a desired position on the timeline 95 by the input tool 140 displayed on the top of the timeline 95. The program window 94 includes a head button 141 for moving the current line 139 to the head of the timeline 95 as an input tool 140 and the last event on the timeline 95 for the current line 139. Tail button 142 for moving backward, previous button 143 for moving the current line 139 to the event before one of the currently located events, and moving the current line 139 to the event after one of the events currently being positioned. A next button 144 and a slider 146 for moving the current line 139 to a predetermined position on the timeline 95 are formed.

또한, 타임 라인(95)에는 현재 라인(139)의 타임 라인 상의 현재 위치를 표시하기 위한 카운트 타임 표시란(152)이 형성되어 있다.In the timeline 95, a count time display field 152 for displaying the current position on the timeline of the current line 139 is formed.

또한, 타임 라인(95)상에는 타임 코드에 대응한 눈금을 나타내는 스케일 라인(147)(Scale line)이 형성되어 있다. 스케일 라인(147)의 스케일 폭은 타임 라인(95)에 붙이는 이벤트의 길이 및 타임 라인 상에서 작성되는 프로그램의 길이에 따라 임의로 변경할 수 있다.On the timeline 95, a scale line 147 representing a scale corresponding to the time code is formed. The scale width of the scale line 147 can be arbitrarily changed according to the length of an event attached to the time line 95 and the length of a program created on the time line.

도 17에 도시된 바와 같이, 프로그램 윈도우(94)에는 GUI 툴로서 타임 라인(95)에 설정되는 시간 또는 스케일 라인(147)의 첫 눈금이 나타내는 시간을 조정하기 위한 줌 아웃 버튼(150) 및 줌 인 버튼(151)이 형성되어 있다. 줌 아웃 버튼(150)은 프로그램 윈도우(94)의 1화면으로 표시되는 타임 라인의 시간을 길게 설정하는 것이다. 또한, 줌 인 버튼(151)은 프로그램 윈도우(94)의 1화면으로 표시할 수 있는 타임 라인의 시간을 짧게 설정하는 것이다.As shown in Fig. 17, the program window 94 includes a zoom out button 150 and a zoom for adjusting the time set on the timeline 95 as the GUI tool or the time indicated by the first scale of the scale line 147. The in button 151 is formed. The zoom out button 150 sets the time of the timeline displayed on one screen of the program window 94 to be long. In addition, the zoom in button 151 sets a short time of the timeline that can be displayed on one screen of the program window 94.

또한, 프로그램 윈도우(94)에는 입력 툴로서, 리플(ripple) 버튼(154), 매뉴얼 로케이션 버튼(155), 트림(trim) 버튼(156), 매치 컷(match cut) 버튼(157), 삭제 버튼(158) 및 비디오 효과 버튼(159)이 형성되어 있다.The program window 94 also includes an ripple button 154, a manual location button 155, a trim button 156, a match cut button 157, and a delete button as input tools. 158 and a video effect button 159 are formed.

리플 버튼(154)은 이미 베이스 라인에 나열되어 있는 이벤트의 도중에 이벤트를 붙이는 경우, 붙인 이벤트를 삽입 이벤트로서 베이스 라인에 삽입하고, 이후의 이벤트를 그 삽입 이벤트 다음에 계속되도록 순서로 뒤로 돌려 나열하는 처리를 설정함과 동시에, 베이스 라인 위의 이벤트가 삭제 또는 이동된 경우 베이스 라인에 구멍이 열린 부분 이후에 이어지는 이벤트를 앞당겨 나열하게 하는 처리를 설정한다.When the ripple button 154 attaches an event in the middle of an event already listed in the baseline, the ripple button inserts the pasted event into the baseline as an insert event, and lists the subsequent events in order to continue after the insert event. At the same time as setting the processing, the processing for setting up the processing to advance the subsequent events after the opening of the hole in the base line when the event on the base line is deleted or moved.

또한, 매뉴얼 로케이션 버튼(155)은 효과의 위치(로케이션)를 설정할 수 있도록 한 애니메이션 효과를 설정했을 때, 해당 애니메이션 효과를 갖는 이벤트의 프리뷰 또는 레코딩 실행 중에 마우스(2D)의 조작에 의해서 효과의 위치를 제어할 수 있도록 설정한다.In addition, when the manual location button 155 sets an animation effect to set the position (location) of the effect, the position of the effect by manipulation of the mouse 2D during preview or recording of an event having the animation effect is executed. Set to control.

또한, 트림 버튼(156)은 타임 라인(95)상에 있어서 이벤트에 트림을 설정하여 모니터 상에서 이벤트의 배경 및 배경을 그 경계부 분과 함께 표시하고, 매치 컷 버튼(157)은 이벤트를 현재 라인(139)의 위치에서 2개로 분리하는 설정을 하기 위한 버튼으로 형성되어 있다.The trim button 156 also sets a trim on the event on the timeline 95 to display the background and background of the event on the monitor along with its boundaries, and the match cut button 157 displays the event on the current line 139. It is formed as a button for setting to separate into two at the position of).

또한, 삭제 버튼(158)은 이벤트에 대하여 삭제를 설정하는 것이다. 또한, 비디오 효과 버튼(159)은 영상의 변환기나 영상 자체에 효과를 갖게 하기 위한 다이얼로그를 표시시키는 것이다.In addition, the delete button 158 sets deletion for the event. In addition, the video effect button 159 displays a dialog for effecting the video converter or the video itself.

또한, 프로그램 윈도우(94)에는 서브 오디오 라인(134), 보이스 오버 라인(138)에 붙여진 오디오 이벤트의 페이드 인 또는 페이드 아웃의 효과를 부여하기 위한 오디오 페이드 버튼(160), DSK의 각종 설정을 하기 위한 다이얼로그를 오픈하기 위한 DSK 버튼(161) 및 최종적인 오디오의 4 채널 출력에 대하여 타임 라인 상의 오디오를 어떻게 라우팅할 것인가를 결정하기 위한 다이얼로그를 표시시키는 믹스다운 버튼(162)이 형성되어 있다.In the program window 94, various settings of the audio fade button 160 and DSK for giving the effect of fade in or fade out of the audio event attached to the sub audio line 134, voice over line 138 can be made. There is a DSK button 161 for opening a dialog for displaying a mixdown button 162 for displaying a dialog for determining how to route audio on the timeline with respect to the 4-channel output of the final audio.

2-5. 디바이스 아이콘2-5. Device icon

본 실시예의 편집 장치에 있어서는 뷰어 윈도우(92), 로그 윈도우(93) 및 프로그램 윈도우(94)의 각 윈도우에 있어서, 편집 대상으로 되어 있는 소재 및 이벤트가 어떤 소스 디바이스의 소재 및 이벤트인지를 나타내는 디바이스 아이콘(165)이 표시된다.In the editing apparatus of this embodiment, in each of the windows of the viewer window 92, the log window 93, and the program window 94, a device which indicates the material and event of which source device are the materials and events to be edited. Icon 165 is displayed.

디바이스 아이콘(165)은 도 18A 내지 도 18E에 도시된 바와 같은 5종류의 디바이스 아이콘을 갖고 있다. 소재의 소스 디바이스가 데일리 서버(6)인 경우는 서버 아이콘(165A), 소재의 소스 디바이스가 국소 기억 장치(8)인 경우는 국소 기억 장치 아이콘(165B), 소재의 소스 디바이스가 VTR(7)인 경우는 VTR 아이콘(165C), 소재의 소스 디바이스가 보조 입력부(AUX)인 경우는 AUX 아이콘(165D), 소재의 소스 디바이스가 편집 장치 내부의 신호 발생 장치인 경우는 INT 아이콘(126)이 각각 표시된다.The device icon 165 has five types of device icons as shown in Figs. 18A to 18E. The server icon 165A when the source device of the work material is the daily server 6, the local storage icon 165B when the source device of the work material is the local memory device 8, and the VTR 7 the source device of the work material. Is the VTR icon 165C, the AUX icon 165D when the source device is the auxiliary input unit (AUX), and the INT icon 126 when the source device is the signal generator in the editing device. Is displayed.

뷰어 윈도우(92)에 있어서는 도 13에 도시된 바와 같이, 뷰어(106)에 표시되어 있는 영상이 어떤 소스 디바이스인가를 나타내기 위해, 뷰어(106)의 상부에 디바이스 아이콘(165)이 표시된다. 즉, 디바이스 아이콘(165)을 이벤트 화상과 동시에 뷰어 윈도우(92)상에 표시하도록 함으로써, 뷰어 윈도우(92)에 재생되어 있는 영상이 어떤 소스 디바이스로부터 공급되어 있는 영상인가를 디바이스 아이콘(165)에 따라 용이하게 식별할 수가 있다.In the viewer window 92, as shown in FIG. 13, the device icon 165 is displayed on the upper part of the viewer 106 to indicate which source device the image displayed on the viewer 106 is. That is, by displaying the device icon 165 on the viewer window 92 simultaneously with the event image, the device icon 165 indicates to which source device the video reproduced in the viewer window 92 is supplied. Therefore, it can be easily identified.

로그 윈도우(93)에 있어서는 도 18에 도시된 바와 같이, 각 클립 카드(179)에 의해서 나타내어지는 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내기 위해 각 클립 카드마다 디바이스 아이콘(165)이 표시된다. 즉, 디바이스 아이콘(165)을 각 클립 카드(179)마다 표시하도록 함으로써, 각 클립 카드(179)에 의해서 나타내어지는 이벤트가 어떤 소스 디바이스의 영상으로부터 생성된 이벤트인지를, 디바이스 아이콘(165)에 따라 용이하게 식별할 수가 있다.In the log window 93, as shown in FIG. 18, a device icon 165 is displayed for each clip card to indicate from which source device the event represented by each clip card 179 is generated. do. That is, by displaying the device icon 165 for each clip card 179, it is determined whether or not the event represented by each clip card 179 is an event generated from an image of which source device. It can be easily identified.

프로그램 윈도우(94)에 있어서는 도 16에 도시된 바와 같이, 타임 라인 상에 등록된 각 이벤트, 어떤 소스 디바이스로부터 생성된 이벤트인 가를 나타내기 위해, 각 이벤트마다 디바이스 아이콘(165)이 표시된다. 즉, 디바이스 아이콘(165)을 타임 라인 상의 각 이벤트마다 표시하도록 함으로써, 각 이벤트가 어떤 소스 디바이스의 영상으로부터 생성된 이벤트인지를 디바이스 아이콘(165)에 의해서 용이하게 식별할 수가 있다.In the program window 94, as shown in FIG. 16, a device icon 165 is displayed for each event to indicate each event registered on the timeline and an event generated from which source device. That is, by displaying the device icon 165 for each event on the timeline, the device icon 165 can easily identify whether each event is an event generated from an image of a source device.

편집 오퍼레이터가 편집 프로그램을 작성함에 있어서, 각 이벤트의 소스 디바이스를 인식하지 않으면 안 되는 이유를 설명한다. 본 실시예의 편집 장치에 있어서 사용된 국소 기억 장치(8)는 랜덤 액세스 가능한 기록 매체를 사용하고, 더구나, 멀티채널의 비디오 및 오디오를 실시간으로 재생할 수 있는 능력을 갖고 있기 때문에, 효과 설정이나 프로그램 생성 처리에 관해서 아무런 제한도 없다. 그러나 VTR(7)과 같이 랜덤 액세스할 수 없는 기록 매체인 경우 큐업하기 위해서는 테이프를 되감는 시간이 필요하기 때문에, 효과 설정 및 프로그램 생성 처리에 관해서 많은 것이 제한된다. 예를 들면, VTR(7)의 테이프 상의 소재로부터 생성된 2개 이상의 이벤트를 타임 라인 상에서 가까이 나열하도록 한 프로그램을 작성할 수 없다. 또한, 마찬가지로, VTR(7)의 테이프로부터 생성된 2개 이상의 이벤트를 시간적으로 겹치도록 베이스 비디오 라인과 오버레이 비디오 라인에 배치하도록 한 프로그램은 작성할 수 없다.The reason why the editing operator must recognize the source device of each event when creating the editing program is explained. The local storage device 8 used in the editing device of this embodiment uses a randomly accessible recording medium, and furthermore, has the ability to reproduce multi-channel video and audio in real time. There is no limitation as regards processing. However, in the case of a recording medium such as VTR 7 that cannot be randomly accessed, it takes time to rewind the tape in order to cue up, so that many restrictions are placed on the effect setting and program generation processing. For example, it is not possible to write a program that allows two or more events generated from the material on the tape of the VTR 7 to be closely arranged on the timeline. Similarly, a program in which two or more events generated from the tape of the VTR 7 are arranged in the base video line and the overlay video line so as to overlap in time cannot be created.

또한, 서버로부터 생성된 소재에 관해서는 VTR만큼 효과 설정 및 프로그램 생성 처리에 있어서 제한은 없지만, 국소 기억 장치(8)에 비교하면 액세스 성능이 느리다고 하는 이유와, 편집 처리 장치로부터 떨어진 위치에 배치되어 있기 때문에, 비디오 신호의 수신에 지연이 발생한다고 하는 이유로, 여러 종류의 효과 설정에 관해서 제한이 따른다.In addition, the material generated from the server is not limited in effect setting and program generation processing as in VTR. As a result, there is a limitation with respect to various types of effect settings, because there is a delay in receiving the video signal.

이상과 같은 이유로 인해 편집 오퍼레이터는 편집 프로그램을 작성함에 있어서 각 이벤트의 소스 디바이스를 인식하지 않으면 안 된다.For the above reasons, the editing operator must recognize the source device of each event in creating the editing program.

이와 같이, 각 이벤트에 대하여 디바이스 아이콘을 부여함으로써, 용이하게 소스 디바이스를 인식할 수가 있다. 이로 인해 이벤트에 대한 효과를 설정했을 때, 이벤트의 소스 디바이스가 VTR(7), 데일리 서버(6) 또는 국소 기억 장치(8)인지의 여부를 용이하게 판별할 수가 있다. 예를 들면, 효과를 부가하고자 하는 이벤트의 소스 디바이스가 VTR(7)으로서, 타임 라인 상에 있어서 그 이벤트의 가까이에 설정되어 있는 이벤트의 소스 디바이스도 VTR인 것이 판명된 경우 어느 쪽인가의 이벤트를 VTR(7)로부터 국소 기억 장치(8)에 다운로드하도록 지시할 수가 있다. 즉, 소재에 대한 편집 조작을 보다 확실히 할 수 있다.In this way, by providing a device icon to each event, the source device can be easily recognized. Therefore, when the effect on the event is set, it can be easily determined whether the source device of the event is the VTR 7, the daily server 6, or the local storage device 8. For example, when the source device of the event to which the effect is to be added is the VTR 7, and the source device of the event set near the event on the timeline also turns out to be the VTR, either event is selected. It is possible to instruct the local memory 8 to download from the VTR 7. That is, the editing operation on the material can be more surely performed.

3. 파일 관리기3. File Manager

본 실시예의 편집 장치에 있어서는 국소 기억 장치(8)에 다운로드한 소재나 완성 비디오 프로그램, 컴퓨터(2)의 하드 디스크(HDD)에 보존된 프로그램 리스트나 로그 클립 등의 각종 데이터는 파일 관리기로 관리하도록 되어 있다. 즉, 등록된 이벤트는 1개의 파일로서 파일 관리기에 의해서 관리되고 있다.In the editing apparatus of this embodiment, a file manager manages various data such as a material downloaded into the local storage device 8, a finished video program, a program list stored in the hard disk (HDD) of the computer 2, and a log clip. It is. That is, the registered event is managed by the file manager as one file.

또한, 파일 관리기에 의해서, 각 파일은 미리 지정된 특정한 폴더에 격납되도록 관리되어 있다. 예를 들면, 로그 파일은 로그 폴더에 격납되고, 프로그램 리스트(EDL) 파일은 프로그램 리스트 폴더에 격납되며, 소재 파일은 소재 폴더에 격납되며, 완성 비디오 프로그램(Edited Master)에 관한 데이터를 기억하는 편집 마스터 파일은 편집 마스터 폴더에 격납되도록 되어 있다.In addition, the file manager manages each file to be stored in a predetermined specific folder. For example, log files are stored in the log folder, program list (EDL) files are stored in the program list folder, material files are stored in the material folder, and edits are stored to store data about the completed video program (Edited Master). The master file is to be stored in the editing master folder.

이 파일 관리기에 의해서 관리되는 모든 파일은 도 27에 도시된 바와 같은 파일 정보를 갖고 있다. 파일 정보는 파일명(331), 이벤트명(332), 인점의 타임 코드(333), 인점의 클립 어드레스(334), 아웃점의 타임 코드(335), 아웃점의 클립 어드레스(336), 지속 기간(337), 파일 타입 정보(338), 파일 위치 정보(339), 소스 디바이스 ID 정보(340), 작성일시(341), 비디오 조정 정보(342), 오디오 조정 정보(343), 텍스트 데이터(344), 프로그램 리스트명(345) 등으로 구성되어 있다.All files managed by this file manager have file information as shown in FIG. The file information includes the file name 331, the event name 332, the time point 333 of the in-point, the clip address 334 of the in-point, the time code 335 of the out-point, the clip address 336 of the out-point, and the duration 337. ), File type information 338, file position information 339, source device ID information 340, creation date and time 341, video adjustment information 342, audio adjustment information 343, text data 344, Program list names 345 and the like.

이 파일명(331)은 이벤트가 어떤 파일명의 소재로부터 생성된 데이터인지를 나타내기 위한 데이터이고, 소스 파일명의 이름이 등록된다. 소스 디바이스가 국소 기억 장치(8) 또는 서버(6)인 경우 그 소스 파일명이 등록되지만, 소스 디바이스가 VTR인 경우 테이프 카세트의 릴명(reel name)이 등록된다.This file name 331 is data for indicating what event is generated from which file name, and the name of the source file name is registered. The source file name is registered when the source device is the local storage device 8 or the server 6, but the reel name of the tape cassette is registered when the source device is the VTR.

이벤트명(332)은 편집 오퍼레이터가 임의로 부여할 수 있는 명칭이다. 이벤트명은 이미 설명한 클립명과 같은 것으로서, 단지, 로그 윈도우(93)에 표시되어 있는 클립에 부여되어 있는 명칭을 클립명이라고 부르고, 타임 윈도우(95)에 표시되어 있는 이벤트에 부여되어 있는 명칭을 이벤트명이라고 부르고 있다.The event name 332 is a name that can be given arbitrarily by the editing operator. The event name is the same as the clip name already described, and only the name given to the clip displayed in the log window 93 is called the clip name, and the name given to the event displayed in the time window 95 is called the event name. It is called.

인점의 클립 어드레스(334) 및 아웃점의 클립 어드레스(336)는 인점 및 아웃점을 마킹하였을 때에 생성된 스탬프 픽처가 기억되어 있는 컴퓨터(2)의 하드 디스크(HDD)의 어드레스를 나타내고 있다.The clip address 334 of the in point and the clip address 336 of the out point represent the address of the hard disk HDD of the computer 2 in which the stamp pictures generated when marking the in and out points are stored.

파일 타입 정보(338)는 그 파일이 로그 클립을 나타내는 파일인지, 프로그램 리스트를 나타내는 파일인지, 국소 기억 장치에 다운로드된 소재를 나타내는 파일인지, 국소 기억 장치에 기록 완료된 완성 프로그램인 것인지의 여부를 나타내는 정보이다. 「Log」는 그 파일이 로그 클립인 것을 나타내고,「EDL」은 그 파일이 프로그램 리스트인 것을 나타내며, 「Material」은 그 파일이 국소 기억 장치에 다운로드된 소재인 것을 나타내며, 「Master」는 그 파일이 국소 기억 장치에 기록 완료된 완성 프로그램인 것을 나타내고 있다.The file type information 338 indicates whether the file is a file representing a log clip, a file representing a program list, a file representing a material downloaded to a local storage device, or a completed program recorded in the local storage device. Information. "Log" indicates that the file is a log clip, "EDL" indicates that the file is a program list, "Material" indicates that the file is a material downloaded to a local storage device, and "Master" indicates that file. This indicates that the program has been recorded in the local memory.

파일 위치 정보(339)는 그 파일이 컴퓨터(2)의 하드 디스크(HDD)에 기록되어 있는 데이터 파일인지, 국소 기억 장치(8)내의 소재 파일인지의 여부를 나타내는 데이터이다. 「C」는 컴퓨터 내의 데이터 파일인 것을 나타내며, 「L」은 국소 기억 장치내의 소재 파일을 나타내고 있다.The file position information 339 is data indicating whether the file is a data file recorded on the hard disk HDD of the computer 2 or a material file in the local storage device 8. "C" represents a data file in a computer, and "L" represents a material file in a local storage device.

소스 디바이스 정보는 파일 정보에 의해서 나타내어지는 소재가 어떤 소스 디바이스에 기록되어 있는 가를 나타내는 정보이다. 「S」는 소스 디바이스가 서버(6)인 것을 나타내며, 「L」은 소스 디바이스가 국소 기억 장치인 것을 나타내며, 「V」는 소스 디바이스가 VTR인 것을 나타내며, 「A」는 AUX(auxiliary)소재인 것을 나타내며, 「I」는 내부 소재인 것을 나타내고 있다.The source device information is information indicating on which source device the material represented by the file information is recorded. "S" indicates that the source device is the server 6, "L" indicates that the source device is a local storage device, "V" indicates that the source device is a VTR, "A" means AUX (auxiliary) material "I" has shown that it is an internal material.

4. 편집 처리의 동작4. Operation of Editing Process

4-1. 이벤트 작성 처리4-1. Event creation processing

우선, 도 20의 흐름도를 참조하여, 편집 처리의 최초의 처리인 이벤트 작성 처리에 관해 설명한다. 또한, 이하의 설명에서 이용하는 「편집 오퍼레이터의 조작」이란 컴퓨터(1)를 조작하는 편집 오퍼레이터가 예를 들면, 모니터(2B)에 표시된 그래픽 이미지가 있는 부분을 마우스(2D) 등의 포인팅 디바이스에 의해서 클릭, 드래그 및 드롭하는 조작이나, 키보드(2C), 마우스(2D), 전용 제어기(4, 5) 등을 직접 조작하는 것을 나타낸다.First, with reference to the flowchart of FIG. 20, the event creation process which is the first process of the edit process is demonstrated. In addition, the "operation of the editing operator" used by the following description means that the editing operator which operates the computer 1 has the graphic image displayed on the monitor 2B, for example, with a pointing device, such as a mouse 2D. Click, drag, and drop operations, or direct manipulation of the keyboard 2C, the mouse 2D, the dedicated controllers 4, 5, and the like.

우선, 스텝(SP301)에 있어서, 컴퓨터(1)의 CPU(21)는 편집 오퍼레이터의 조작에 응답하여, 제어 대상이 되는 소스 디바이스를 선택한다. 구체적으로는 편집 오퍼레이터가 GUI용 화상으로서 모니터(2B) 상에 표시된 뷰어 윈도우(92)의 소스 선택 버튼(102A 내지 102E) 중의 어느 하나를 클릭함으로써, CPU(21)는 제어 대상이 되는 소스 디바이스를 결정하게 된다. 예를 들면, 오퍼레이터에 의해서 소스 선택 버튼(102A)이 클릭되면 CPU(21)는 소스 디바이스로서 데일리 서버(6)가 선택된 것으로 판단하고, 오퍼레이터에 의해서 소스 선택 버튼(102B)이 클릭되면, CPU(21)는 소스 디바이스로서 VTR(7)이 선택된 것으로 판단하며, 오퍼레이터에 의해서 소스 선택 버튼(102C)이 클릭되면, CPU(21)는 소스 디바이스로서 국소 기억 장치(8)가 선택된 것으로 판단한다.First, in step SP301, the CPU 21 of the computer 1 selects a source device to be controlled in response to an operation of the editing operator. Specifically, when the editing operator clicks any one of the source selection buttons 102A to 102E of the viewer window 92 displayed on the monitor 2B as a GUI image, the CPU 21 selects the source device to be controlled. Will be decided. For example, when the source selection button 102A is clicked by the operator, the CPU 21 determines that the daily server 6 is selected as the source device, and when the source selection button 102B is clicked by the operator, the CPU ( 21 determines that the VTR 7 is selected as the source device, and when the source selection button 102C is clicked on by the operator, the CPU 21 determines that the local storage device 8 is selected as the source device.

스텝(SP302)에서는 CPU(21)는 편집 오퍼레이터의 조작에 응답하여, 스텝(SP301)에 있어서 지정된 소스 디바이스에 등록되어 있는 소재 파일을 검색한다. 구체적으로는 우선, 컴퓨터(1)의 모니터(2B) 상에 도 21에 도시된 바와 같은 소재검색용 다이얼로그(300)가 표시된다. 다이얼로그(300)는 입력 항목으로서, 소재 데이터의 생성 일시를 입력하기 위한 생성 일시 입력 일람표(301), 파일 명칭 입력 일람표(302), 파일 타입 입력 일람표(303), 오디오 모드 선택 일람표(304), 프로그램명 입력 일람표(305), 및 검색 실행 지시 버튼(306)을 갖고 있다. 예를 들면, 파일 명칭 입력 일람표(302)에 「FIRE」라고 하는 키워드를 입력하면, 파일 명칭에「FIRE」라고 하는 문자가 포함되어 있는 파일만을 검색할 수가 있다. 편집 오퍼레이터가 다이얼로그(300)의 각 입력 일람표에 원하는 데이터를 입력함으로써 검색 조건이 설정되며, 그 후, 편집 오퍼레이터에 의해서 검색 실행 버튼(306)을 누르면 CPU(21)는 다이얼로그(300)에 설정된 조건에 따라 소스 디바이스에 등록된 파일을 검색하는 검색 처리를 실행한다.In step SP302, the CPU 21 searches for a work file registered in the source device designated in step SP301 in response to the operation of the editing operator. Specifically, on the monitor 2B of the computer 1, a material search dialog 300 as shown in FIG. 21 is displayed. The dialog 300 includes, as input items, a creation date and time input table 301, a file name input table 302, a file type input table 303, an audio mode selection table 304, and a like, for inputting a creation date and time of material data. The program name input list 305 and a search execution instruction button 306 are provided. For example, if the keyword "FIRE" is input to the file name input list 302, only files in which the file name "FIRE" is included in the file name can be searched. The search condition is set by the editing operator inputting desired data in each input list of the dialog 300. Then, when the search execution button 306 is pressed by the editing operator, the CPU 21 sets the condition set in the dialog 300. Accordingly, a search process for searching for a file registered in the source device is executed.

CPU(21)는 RAM(21B)에 기억된 파일 정보를 참조하여, 다이얼로그(300)에 설정된 조건에 맞는 파일을 검색한다. 그리고 CPU(21)는 그 검색 결과를 도 22에 도시된 바와 같은 파일 리스트(310)로서 표시한다.The CPU 21 refers to the file information stored in the RAM 21B and searches for a file meeting the condition set in the dialog 300. The CPU 21 then displays the search result as a file list 310 as shown in FIG.

스텝(SP303)에서는 CPU(21)는 편집 오퍼레이터의 지시에 응답하여, 스텝(SP302)에 있어서의 검색 결과의 파일 리스트로부터 원하는 파일을 선택한다. 구체적으로는 편집 오퍼레이터가 파일 리스트(310) 중에서 원하는 파일명을 클릭하면, CPU(21)는 편집 오퍼레이터에 의해서 지정된 파일을 선택한다.In step SP303, the CPU 21 selects a desired file from the file list of the search result in step SP302 in response to an instruction of the editing operator. Specifically, when the editing operator clicks on the desired file name from the file list 310, the CPU 21 selects the file designated by the editing operator.

스텝(SP304)에서는 CPU(21)는 선택된 파일에 포함되는 비디오 데이터 및 오디오 데이터를 재생하여, 그 재생된 비디오 데이터가 뷰어 윈도우(92)에 표시됨과 동시에, 재생된 오디오 데이터가 스피커(11 및 12)로부터 재생되도록 선택된 소스 디바이스 및 편집 장치(3)를 제어한다. 일례로서, 데일리 서버(6)에 기록되어 있는 파일을 재생하는 경우를 예로 들어 설명한다.In step SP304, the CPU 21 reproduces the video data and the audio data included in the selected file, and the reproduced video data is displayed in the viewer window 92, and the reproduced audio data is displayed in the speakers 11 and 12. Control the source device and the editing apparatus 3 selected to be played back. As an example, a case of reproducing a file recorded in the daily server 6 will be described as an example.

우선, CPU(21)는 LAN(10)을 통해 데일리 서버(6)에 대하여, 스텝(SP303)에 서 선택된 파일을 데일리 서버로부터 재생하기 위한 제어 신호를 공급한다. 데일리 서버(6)는 제어 신호에 의거하여 지정된 파일에 포함되는 비디오 데이터 및 오디오 데이터를 SDI 포맷의 규격에 기인한 디지털 신호(S7)로서 편집 처리 장치(3)에 공급한다. 공급된 디지털 신호(S7)는 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 입력 단자(IN1)에 입력된다.First, the CPU 21 supplies a control signal for reproducing the file selected in step SP303 from the daily server to the daily server 6 via the LAN 10. The daily server 6 supplies the video processing and audio data included in the designated file based on the control signal to the editing processing apparatus 3 as the digital signal S7 resulting from the SDI format standard. The supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher portion 3B of the editing processor 3.

CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해, 입력 단자(IN1)와 출력 단자(OUT9)를 접속하기 위한 교차 포인트(P19)를 액티브하게 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)는 출력 단자(OUT9)로부터 SDI 포맷의 디지털 비디오 신호(S26)로서 출력되어, 화상 처리부(3C)에 공급된다.The CPU 21 uses the system control unit 3A of the editing processing apparatus 3 to activate the cross point P19 for connecting the input terminal IN1 and the output terminal OUT9 to the matrix switcher 3B. To control. As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is output as the SDI format digital video signal S26 from the output terminal OUT9 and supplied to the image processing unit 3C.

출력 단자(OUT9)로부터 출력된 SDI 포맷의 디지털 비디오 신호(S26)는 화상처리부(3C)의 디멀티플렉서(51D)에 공급된다. 디멀티플렉서(51D)는 SDI 포맷의 데이터의 유효 탑재량부에서 디지털 비디오 신호를 추출하고, 그 추출된 디지털 비디오 신호는 스위처 블록(52), 특수 효과 블록(53) 및 믹서 블록(54)을 통해 출력 비디오 신호(S31)로서 출력된다.The SDI format digital video signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing section 3C. The demultiplexer 51D extracts the digital video signal from the effective payload of the data in the SDI format, and the extracted digital video signal is output video through the switcher block 52, the special effect block 53, and the mixer block 54. It is output as a signal S31.

화상 처리부(3C)에서 출력된 디지털 비디오 신호(S31)는 다시 매트릭스 스위처부(3B)의 입력 단자(IN9)에 공급된다. CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해, 입력 단자(IN9)와 출력 단자(OUT5)를 접속하기 위한 교차 포인트(P95)를 액티브하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN9)에 공급된 디지털 비디오 신호(S31)는 출력 프로세서(46)를 통해 출력 단자(OUT5)로부터 디지털 비디오 신호(S2)로서 컴퓨터(2)에 출력된다.The digital video signal S31 output from the image processing section 3C is supplied to the input terminal IN9 of the matrix switcher section 3B again. The CPU 21 controls the matrix switcher 3B to activate the intersection point P95 for connecting the input terminal IN9 and the output terminal OUT5 via the system control section 3A of the editing processing apparatus 3. To control. As a result, the digital video signal S31 supplied to the input terminal IN9 is output to the computer 2 from the output terminal OUT5 as the digital video signal S2 via the output processor 46.

편집 처리 장치(3)로부터 출력된 디지털 비디오 신호(S2)는 컴퓨터(2)의 비디오 프로세서(22)에 공급되어 표시 제어기(23)를 통해 컴퓨터 모니터(2B) 뷰어 윈도우(92)에 표시된다.The digital video signal S2 output from the editing processing apparatus 3 is supplied to the video processor 22 of the computer 2 and displayed on the computer monitor 2B viewer window 92 via the display controller 23.

한편, CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)를 음성 처리부(3D)에 공급하도록 매트릭스 스위처부(3B)를 제어한다. 즉, CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해 입력 단자(IN1)와 출력 단자(OUT11)를 접속하기 위한 교차 포인트(P111)를 액티브하게 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)는 출력 단자(OUT9)로부터 만이 아니고, 출력 단자(OUT11)로부터도 디지털 출력 신호(S28)로서 음성 처리부(3D)에 출력된다.On the other hand, the CPU 21 supplies the SDI format digital signal S7 supplied to the input terminal IN1 to the audio processing unit 3D through the system control unit 3A of the editing processing unit 3, and the matrix switcher unit. (3B) is controlled. That is, the CPU 21 controls the matrix switcher 3B to activate the intersection point P111 for connecting the input terminal IN1 and the output terminal OUT11 via the system control section 3A of the editing processing apparatus 3. ). As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is output not only from the output terminal OUT9 but also from the output terminal OUT11 as the digital output signal S28 to the audio processing unit 3D. do.

SDI 포맷의 디지털 출력 신호(S28)의 유효 탑재량부에는 비디오 데이터가 중첩되고, 보조 데이터부에는 오디오 데이터가 중첩되어 있기 때문에, 음성 처리부(3D)의 세퍼레이터(56A)는 SDI 포맷의 디지털 신호(S28)로부터 오디오 데이터만을분리한다. CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해 분리된 오디오 신호(S48)를 믹서 블록(57)을 통해 출력 오디오 신호(S17, S18)로서 스피커(11 및 12)에 공급하도록 음성 처리부(3D)를 제어한다.Since the video data is superimposed on the effective payload portion of the SDI format digital output signal S28 and the audio data is superimposed on the auxiliary data portion, the separator 56A of the speech processing unit 3D is a digital signal S28 format in the SDI format. Separate audio data only from The CPU 21 transmits the audio signal S48 separated through the system control unit 3A of the editing processing unit 3 to the speakers 11 and 12 as the output audio signals S17 and S18 through the mixer block 57. The audio processing unit 3D is controlled to supply.

스텝(SP305)에서는 편집 오퍼레이터의 조작에 따라, 컴퓨터의 CPU(21)는 선택된 소스 디바이스로부터 재생된 비디오 데이터와 오디오 데이터를 조정한다. 구체적으로는 편집 오퍼레이터에 의해서 뷰어 윈도우(92)의 비디오 전용 키(167A)가 클릭되면, 컴퓨터(2)의 CPU(21)는 도 23에 도시된 바와 같은 비디오 레벨 설정용 다이얼로그(170)를 모니터(2B)에 표시한다. 편집 오퍼레이터는 슬라이더부(170)를 마우스(2D)에 의해 이동시켜 원하는 밝기나 색 등의 레벨을 설정할 수가 있다.In step SP305, according to the operation of the editing operator, the CPU 21 of the computer adjusts the video data and audio data reproduced from the selected source device. Specifically, when the video dedicated key 167A of the viewer window 92 is clicked by the editing operator, the CPU 21 of the computer 2 monitors the video level setting dialog 170 as shown in FIG. (2B). The editing operator can move the slider 170 with the mouse 2D to set a desired level of brightness or color.

컴퓨터(2)의 CPU(21)는 시스템 제어부(3A)를 통해, 비디오 레벨 설정용 다이얼로그(170)에 의해서 설정된 각 레벨을 파일 정보의 비디오 조정 정보로서 기억한다. 또한, CPU(21)는 선택된 소스 디바이스로부터 재생된 비디오 데이터의 밝기 레벨 및 색 레벨이 비디오 레벨 설정용 다이얼로그(170)에 의해서 설정된 밝기 레벨 및 색 레벨이 되도록, 화상 처리부(3C)의 비디오 신호 처리 회로(52E 및 52F)를 제어한다.The CPU 21 of the computer 2 stores each level set by the video level setting dialog 170 via the system control unit 3A as video adjustment information of file information. In addition, the CPU 21 processes the video signal of the image processing unit 3C so that the brightness level and color level of the video data reproduced from the selected source device become the brightness level and color level set by the video level setting dialog 170. Control circuits 52E and 52F.

또, 상술한 비디오 레벨 조정 처리는 편집 오퍼레이터에 의해서 비디오 전용 키(167A)가 클릭된 경우에만 행하여지는 처리이다. 이러한 비디오 레벨 조정 처리가 행하여지지 않은 경우 기준 밝기 레벨 및 기준 색 레벨로서 미리 설정된 디폴트 값에 의해서 비디오 신호가 조정된다.The video level adjustment process described above is a process performed only when the video dedicated key 167A is clicked on by the editing operator. If such video level adjustment processing is not performed, the video signal is adjusted by default values preset as the reference brightness level and the reference color level.

한편, 편집 오퍼레이터에 의해서 뷰어 윈도우(92)의 오디오 전용 키(167A)가 클릭되면, 컴퓨터(2)의 CPU(21)는 도 24에 도시된 바와 같은 오디오 비디오 레벨 설정용 다이얼로그(172)를 모니터(2B) 상에 표시한다. 편집 오퍼레이터는 슬라이더(173A)를 조정 및 페이더(174A)를 마우스(2D)로 이동시킴으로써 원하는 오디오 입출력 레벨을 설정할 수가 있다.On the other hand, when the audio dedicated key 167A of the viewer window 92 is clicked by the editing operator, the CPU 21 of the computer 2 monitors the audio-video level setting dialog 172 as shown in FIG. It displays on (2B). The editing operator can set the desired audio input / output level by adjusting the slider 173A and moving the fader 174A with the mouse 2D.

컴퓨터(2)의 CPU(21)는 시스템 제어부(3A)를 통해 오디오 비디오 레벨 설정용 다이얼로그(172)에 의해서 설정된 오디오 레벨을 파일 정보의 오디오 조정 정보로서 기억한다. 또한, CPU(21)는 선택된 소스 디바이스로부터 재생된 오디오 데이터의 입출력 레벨이 오디오 레벨 설정용 다이얼로그(172)에 의해서 설정된 오디오 데이터의 입출력 레벨이 되도록 음성 처리부(3D)의 믹서 블록(57)을 제어한다.The CPU 21 of the computer 2 stores the audio level set by the audio-video level setting dialog 172 through the system control unit 3A as the audio adjustment information of the file information. In addition, the CPU 21 controls the mixer block 57 of the audio processing unit 3D so that the input / output level of the audio data reproduced from the selected source device becomes the input / output level of the audio data set by the audio level setting dialog 172. do.

또, 상술한 오디오 레벨 조정 처리는 편집 오퍼레이터에 의해서 오디오 전용 키(167B)가 클릭된 경우에만 행하여지는 처리이다. 이러한 오디오 레벨 조정 처리가 행하여지지 않은 경우 오디오 데이터의 기준 입출력 레벨로서 미리 설정된 디폴트값에 의해서 오디오 신호가 조정된다.Incidentally, the above-described audio level adjustment processing is a process performed only when the audio dedicated key 167B is clicked on by the editing operator. If such audio level adjustment processing is not performed, the audio signal is adjusted by a default value preset as a reference input / output level of the audio data.

스텝(SP306)에 있어서, CPU(21)는 편집 오퍼레이터의 조작에 의거하여, 선택된 소스 파일에 기록되어 있는 비디오 소재를 검색한다. 구체적으로는 편집 오퍼레이터가 뷰어 윈도우(92)의 디바이스 제어부(96)를 조작하면, 컴퓨터(2)의 CPU(21)는 그 조작에 대응하도록 선택된 소스 디바이스의 재생 동작을 제어한다. 그 결과, 뷰어 윈도우(92)의 뷰어(106)에는 편집 오퍼레이터가 지정한 속도의 비디오 데이터가 표시된다.In step SP306, the CPU 21 searches for the video material recorded in the selected source file based on the operation of the editing operator. Specifically, when the editing operator operates the device control unit 96 of the viewer window 92, the CPU 21 of the computer 2 controls the reproduction operation of the source device selected to correspond to the operation. As a result, video data of the speed specified by the editing operator is displayed in the viewer 106 of the viewer window 92.

스텝(SP307)에 있어서, CPU(21)는 편집 오퍼레이터의 조작에 의거하여, 인점 및 아웃점을 설정한다. 구체적으로는 스텝(SP306)의 검색 처리에 의해서, 선택된 파일의 비디오 이미지가 뷰어(106)에 동화상으로서 표시되어 있을 때에, 편집 오퍼레이터가 스텝(SP306)과 같이 비디오 프레임을 검색함으로써 원하는 비디오 프레임이 뷰어 윈도우(92)의 뷰어(106)에 표시되었을 때에, 뷰어 윈도우(92)의 마크 인 버튼(115)을 클릭하면, 그 마크 인 버튼(115)을 클릭한 타이밍으로 인점이 지정된다. CPU(21)는 그 마크 인 버튼(115)이 클릭되면 그 클릭 조작에 응답하여, 그 클릭된 타이밍에서의 뷰어(106)에 표시되어 있던 비디오 데이터를 클립 화상(스탬프 픽처)으로서 인점 화상 표시부(110)에 표시한다. 그것과 동시에, CPU(21)는 그 인점이 마킹된 타이밍의 비디오 프레임에 부여되어 있던 타임 코드를 인점의 타임 코드로서 인식한다.In step SP307, the CPU 21 sets the in point and the out point based on the operation of the editing operator. Specifically, when the video image of the selected file is displayed as the moving picture in the viewer 106 by the searching process of step SP306, the editing operator searches for the video frame as in step SP306 so that the desired video frame is the viewer. When the mark in button 115 of the viewer window 92 is clicked when displayed in the viewer 106 of the window 92, the point of designation is specified at the timing when the mark in button 115 is clicked. When the mark-in button 115 is clicked, the CPU 21 responds to the click operation and uses the video data displayed in the viewer 106 at the clicked timing as a clip image (stamp picture) as a point image display unit ( 110). At the same time, the CPU 21 recognizes the time code given to the video frame at the marked point as the time code of the point.

인점이 지정된 후, 편집 오퍼레이터가 스텝(SP306)과 같이 비디오 프레임을또한 검색하여 원하는 비디오 프레임이 뷰어 윈도우(92)의 뷰어(106)에 표시되었을 때에, 마크 아웃 버튼(116)을 클릭하면, 그 마크 아웃 버튼(116)을 클릭한 타이밍으로 아웃점이 지정된다. CPU(21)는 그 마크 아웃 버튼(116)이 클릭되면 그 클릭 조작에 응답하여, 그 클릭된 타이밍에서의 뷰어(106)에 표시되어 있던 비디오 데이터를 클립 화상(스탬프 픽처)으로서 아웃점 화상 표시부(112)에 표시한다. 그것과 동시에, CPU(21)는 그 아웃점이 마킹된 타이밍의 비디오 프레임에 부여되었던 타임 코드를 아웃점의 타임 코드로서 인식한다.After the point of designation is specified, the editing operator also searches for the video frame as shown in step SP306, and when the desired video frame is displayed in the viewer 106 of the viewer window 92, the mark out button 116 is clicked. The out point is specified at the timing when the mark out button 116 is clicked. When the mark-out button 116 is clicked, the CPU 21 responds to the click operation and uses the video data displayed in the viewer 106 at the clicked timing as the clip image (stamp picture) as the out point image display unit ( 112). At the same time, the CPU 21 recognizes the time code given to the video frame at the marked timing as the time code of the out point.

이와 같이 아웃점이 지정되면, CPU(21)는 설정된 인점 및 아웃점 각각의 타임 코드로부터 인점 및 아웃점 사이의 시간을 계산하고, 그 계산한 시간을 뷰어 윈도우(92)상의 DUR 표시란(114)에 표시한다.When the out point is specified in this manner, the CPU 21 calculates the time between the in point and the out point from the set time code of each of the set in and out points, and displays the calculated time in the DUR display field 114 on the viewer window 92. do.

스텝(SP308)에서 CPU(21)는 편집 오퍼레이터의 조작에 의거하여, 스텝(SP307)에 있어서 설정된 인점 및 아웃점에 의해서 지정된 기간을 프리뷰한다. 구체적으로는 편집 오퍼레이터가 뷰어 윈도우(92)의 프리뷰 버튼(117)을 클릭하면, CPU(21)는 인점보다도 수초 전의 비디오 프레임으로부터 아웃점의 비디오 프레임까지를 재생하도록 편집 제어기(3)의 시스템 제어부(3A)를 통해, 적절한 소스 디바이스(데일리 서버(6), 국소 기억 장치(8) 또는 VTR(7))를 제어한다.In step SP308, the CPU 21 previews the period designated by the in and out points set in step SP307, based on the operation of the editing operator. Specifically, when the editing operator clicks on the preview button 117 of the viewer window 92, the CPU 21 controls the system control unit of the editing controller 3 so as to reproduce the video frame from a few seconds before the in-point to the out-of-out video frame. Through 3A), the appropriate source device (daily server 6, local memory 8 or VTR 7) is controlled.

본 실시예의 편집 시스템에 있어서의 프리뷰 처리는 스텝(SP307)의 처리에 의해서 생성된 이벤트가 타임 라인(95)의 현재 라인(139)의 위치에 등록되었다고 가정하여 행하여지는 처리이다. 또한, 프리뷰 처리는 인점에서 재생을 개시하는 것이 아니고, 인점의 수초 전(예를 들면 5초전)부터 재생을 개시하도록 하고 있다.The preview process in the editing system of this embodiment is a process performed assuming that an event generated by the process of step SP307 is registered at the position of the current line 139 of the timeline 95. In addition, the preview process does not start playback at the point in time, but starts playback from a few seconds before the point (for example, five seconds).

즉, 프리뷰 처리는 가상적으로 이벤트를 타임 라인 상의 등록하여 인점의 수초 전부터 재생을 개시하도록 함으로써, 실제로 이벤트를 타임 라인 상에 등록하기 전에, 이제부터 등록하고자 하는 이벤트와 그 직전의 이벤트와의 연결을 가상적으로 확인할 수가 있다.In other words, the preview process virtually registers an event on the timeline to start playback from a few seconds before the in-point point. Thus, before actually registering the event on the timeline, a connection between the event to be registered and the event immediately before it is registered. You can check it virtually.

만약, 프리뷰의 결과, 소재 자체 및 인점 및 아웃점의 설정 등이 마음에 들지 않는 경우 다시 스텝(SP301 또는 SP306)으로 되돌아갈 수 있다.If, as a result of the preview, the material itself, the setting of the in-point and the out-point, etc. are not satisfactory, the process can return to step SP301 or SP306 again.

또한, 스텝(SP308)은 필수의 처리가 아니고, 편집 오퍼레이터에 의해서 프리뷰 버튼(117)이 클릭되었을 때에만 행하여지는 처리이다.In addition, step SP308 is not an essential process, but a process performed only when the preview button 117 is clicked by an editing operator.

스텝(SP309)에서는 컴퓨터(2)의 CPU(21)는 편집 오퍼레이터의 조작에 따라, 데일리 서버(6) 및 VTR(7)의 소재를 국소 기억 장치(8)에 다운로드하는 처리가 지정되었는지의 여부를 판단한다. 구체적으로는 편집 오퍼레이터가 뷰어 윈도우(92)의 다운로드 버튼(123A)을 클릭하면, CPU(21)는 다운로드 처리가 지정된 것으로 판단한다. 또한, 다운로드 처리는 스텝(SP301)에 있어서 소스 디바이스로서, 데일리 서버(6) 또는 VTR(7)이 지정되어 있을 때에만 행할 수 있는 처리이다. 편집 오퍼레이터에 의해서 다운로드 처리가 지정되면, CPU(21)는 도 25에 도시된 바와 같이 다운로드 처리 설정용 다이얼로그(320)를 열어서, 스텝(SP310)으로 진행한다. 한편, 편집 오퍼레이터에 의해서 다운로드 처리가 지정되지 않은 경우 스텝(SP312)으로 진행한다.In step SP309, according to the operation of the editing operator, the CPU 21 of the computer 2 determines whether or not a process for downloading the materials of the daily server 6 and the VTR 7 into the local storage device 8 is designated. Judge. Specifically, when the editing operator clicks the download button 123A in the viewer window 92, the CPU 21 determines that the download process is specified. In addition, the download process is a process that can be performed only when the daily server 6 or the VTR 7 is designated as the source device in step SP301. If download processing is designated by the editing operator, the CPU 21 opens the download processing setting dialog 320 as shown in FIG. 25 and proceeds to step SP310. On the other hand, if download processing is not specified by the editing operator, the flow advances to step SP312.

스텝(SP310)에서는 CPU(21)는 편집 오퍼레이터의 조작에 따라, 다운로드 처리를 개시한다. 구체적으로는 CPU(21)가 실제로 다운로드 처리를 개시하기 전에, 우선, 편집 오퍼레이터가 다운로드 처리 설정용 다이얼로그(320)에 있어서 다운로드 처리에서 필요한 설정을 입력한다. 파일 명칭 입력부(321)는 국소 기억 장치에 다운로드되는 파일에 대하여 부여되는 새로운 파일명을 설정하기 위한 설정 일람표이고, 스타트 타임 코드 설정부(322)는 국소 기억 장치에 다운로드되는 파일의 스타트 타임 코드를 설정하기 위한 설정 일람표이며, 전송 스피드 설정 일람표 (323)는 선택된 소스 디바이스로부터 국소 기억 장치에 전송되는 전송 스피드를 설정하기 위한 설정 일람표이다.In step SP310, the CPU 21 starts the download process in accordance with the operation of the editing operator. Specifically, before the CPU 21 actually starts the download process, the editing operator first inputs the settings necessary for the download process in the download process setting dialog 320. The file name input unit 321 is a setting list for setting a new file name given to a file downloaded to the local storage device, and the start time code setting unit 322 sets the start time code of the file downloaded to the local storage device. The transmission speed setting table 323 is a setting list for setting the transmission speed transmitted from the selected source device to the local storage device.

편집 오퍼레이터가 다운로드 처리 설정용 다이얼로그(320)에 필요한 설정을 입력하여, 실행 버튼(324)을 클릭하면, CPU(21)는 지정된 파일의 인점에서 아웃점까지의 비디오 데이터를 국소 기억 장치(8)에 다운로드하도록, 소스 디바이스 및 편집 제어기(3)를 제어한다. 이하에, 데일리 서버(6)에 기록되어 있는 파일의 인점에서 아웃점의 비디오 데이터 및 오디오 데이터를 국소 기억 장치(8)에 다운로드하는 경우를 예로 들어, 컴퓨터(2)의 CPU(21) 및 편집 제어기(3)의 동작을 설명한다.When the editing operator enters the necessary settings in the download processing setting dialog 320 and clicks the execute button 324, the CPU 21 transfers the video data from the in point to the out point of the designated file to the local storage device 8. To download, control the source device and the edit controller 3. The CPU 21 and the editing controller of the computer 2 are exemplified below when the video data and audio data of the out point are downloaded to the local storage device 8 at the in point of the file recorded in the daily server 6. The operation of (3) will be described.

우선, 데일리 서버(6)는 지정된 파일의 인점의 비디오 데이터 및 오디오 데이터로부터 재생을 개시하여, 그 재생된 비디오 신호 및 오디오 신호를 SDI 포맷의 규격에 기인한 디지털 신호(S7)로서 편집 처리 장치(3)에 공급한다. 공급된 디지털 신호(S7)는 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 입력 단자(IN1)에 입력된다.First, the daily server 6 starts reproduction from the video data and audio data of the point in time of the designated file, and converts the reproduced video signal and audio signal as a digital signal S7 resulting from the standard of the SDI format into an editing processing apparatus ( Supply to 3). The supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher portion 3B of the editing processor 3.

데일리 서버(6)로부터 재생된 디지털 신호(S7)를 국소 기억 장치(8)에 다운로드하지 않으면 안 되기 때문에, CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해, 입력 단자(IN1)와 출력 단자(OUT1)를 접속하기 위한 교차 포인트(P 11)를 액티브하게 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)는 출력 프로세서(43)를 통해 출력 단자(OUT1)로부터 SDI 포맷의 디지털 신호(S15)로서 출력된다.Since the digital signal S7 reproduced from the daily server 6 must be downloaded to the local storage device 8, the CPU 21 inputs the input terminal via the system control section 3A of the editing processing device 3; The matrix switcher part 3B is controlled to activate the crossing point P 11 for connecting IN1 and the output terminal OUT1. As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is output from the output terminal OUT1 as the SDI format digital signal S15 via the output processor 43.

국소 기억 장치(8)는 편집 처리 장치(3)로부터 공급된 디지털 신호(S15)를 RAID 알고리즘을 사용하여 적절한 기록 매체에 기록한다. 그 결과, 데일리 서버(6)에 기록되어 있는 비디오 및 오디오 데이터가 국소 기억 장치(8)에 다운로드된다.The local storage device 8 records the digital signal S15 supplied from the editing processing device 3 on an appropriate recording medium by using a RAID algorithm. As a result, video and audio data recorded in the daily server 6 are downloaded to the local storage device 8.

한편, 이러한 다운로드 처리 중, 국소 기억 장치에 다운로드되어 있는 비디오 신호를 뷰어 윈도우(92)에 표시하기 위해, 우선, CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)를 출력 단자(9)에 출력하도록 매트릭스 스위처부(3B)의 교차 포인트(P 19)를 액티브하게 한다. 그 결과, 입력 단자(IN1)에 공급된 SDI 포맷의 디지털 신호(S7)는 출력 단자(S15)를 통해 국소 기억 장치에 다운로드되면서 동시에, 출력 단자(OUT9)를 통해, SDI 포맷의 디지털 비디오 신호(S26)로서 화상 처리부(3C)에 공급된다.On the other hand, in order to display the video signal downloaded to the local storage device in the viewer window 92 during such a download process, first, the CPU 21 inputs through the system control unit 3A of the editing processing device 3. The crossing point P 19 of the matrix switcher portion 3B is activated to output the SDI format digital signal S7 supplied to the terminal IN1 to the output terminal 9. As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is downloaded to the local storage device via the output terminal S15, and at the same time, via the output terminal OUT9, the digital video signal of the SDI format ( It is supplied to the image processing part 3C as S26.

출력 단자(OUT9)로부터 출력된 SDI 포맷의 디지털 비디오 신호(S26)는 화상처리부(3C)를 통과하여, 출력 비디오 신호(S31)로서 다시 매트릭스 스위처부(3B)의 입력 단자(IN9)에 공급된다. CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해 입력 단자(IN9)와 출력 단자(OUT5)를 접속하기 위한 교차 포인트(P95)를 액티브로 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN9)에 공급된 디지털 비디오 신호(S31)는 출력 프로세서(46)를 통해 출력 단자(OUT5)로부터 디지털 비디오 신호(S2)로서 컴퓨터(2)에 출력된다.The digital video signal S26 in SDI format output from the output terminal OUT9 passes through the image processing section 3C and is again supplied to the input terminal IN9 of the matrix switcher section 3B as the output video signal S31. . The CPU 21 sets the matrix switcher 3B to activate the intersection point P95 for connecting the input terminal IN9 and the output terminal OUT5 via the system control section 3A of the editing processing apparatus 3. To control. As a result, the digital video signal S31 supplied to the input terminal IN9 is output to the computer 2 from the output terminal OUT5 as the digital video signal S2 via the output processor 46.

편집 처리 장치(3)로부터 출력된 디지털 비디오 신호(S2)는 컴퓨터(2)의 비디오 프로세서(22)에 공급되어 표시 제어기(23)를 통해 컴퓨터 모니터(2B)의 뷰어 윈도우(92)에 표시된다.The digital video signal S2 output from the editing processing apparatus 3 is supplied to the video processor 22 of the computer 2 and displayed on the viewer window 92 of the computer monitor 2B via the display controller 23. .

즉, 데일리 서버(6)로부터 재생된 비디오 데이터는 국소 기억 장치(8)에 다운로드됨과 동시에, 컴퓨터(2)의 뷰어 윈도우(92)에 표시된다. 또, 본 실시예의 편집 장치에서는 편집 소재를 이와 같이 국소 기억 장치(8)에 다운로드하면서 뷰어 윈도우(92)에 표시하도록 하는 처리를 「배경에서의 다운로드 처리」라고 부르고 있다.That is, the video data reproduced from the daily server 6 is downloaded to the local storage device 8 and displayed in the viewer window 92 of the computer 2. In the editing apparatus of the present embodiment, the processing for displaying the editing material in the viewer window 92 while downloading the editing material to the local memory device 8 is called "downloading process in the background".

스텝(SP311)에서는 편집 오퍼레이터의 지시에 따라, CPU(21)는 배경에서 다운로드 처리를 하도록 편집 처리 장치(3)를 제어한다. 편집 오퍼레이터가 다운로드 처리 중에 다운로드 설정용 다이얼로그(320)의 취소 버튼(325)을 클릭하면, 전경 처리로서 행하여지고 있는 다운로드 처리가 배경 처리로서 행하여진다. 구체적으로는 CPU(21)는, 편집 오퍼레이터에 의해서 다운로드 설정용 다이얼로그(320)의 취소 버튼(325)이 클릭되면, 데일리 서버(6)로부터의 디지털 데이터가 공급되는 입력 단자(IN1), 및 다운로드하기 위한 출력 단자(OUT1)와의 교차 포인트(P11)는 액티브한 상태로 유지하지만, 입력 단자(IN1)와 화상 처리부(3D)에 출력하기 위한 아웃 단자(OUT9)와의 교차 포인트(cross point)(P19)를 인액티브하도록 매트릭스 스위처부(3B)를 제어한다.In step SP311, according to the instruction of the editing operator, the CPU 21 controls the editing processing apparatus 3 to perform the download processing in the background. If the editing operator clicks the cancel button 325 of the download setting dialog 320 during the download process, the download process performed as the foreground process is performed as the background process. Specifically, when the cancel button 325 of the download setting dialog 320 is clicked on by the editing operator, the CPU 21 inputs the input terminal IN1 to which digital data from the daily server 6 is supplied, and the download. The intersection point P11 of the output terminal OUT1 to be maintained is kept in an active state, but the cross point P19 between the input terminal IN1 and the out terminal OUT9 for outputting to the image processing unit 3D. Control the matrix switcher portion 3B.

그 결과, 데일리 서버로부터 재생된 디지털 신호(S7)는 국소 기억 장치(8)에 계속해서 다운로드되지만, 화상 처리부(3C) 및 컴퓨터(2)로의 공급은 정지된다. 즉, 컴퓨터(2)를 조작하는 편집 오퍼레이터에서 보면, 오퍼레이터가 볼 수 없는 배경에서 다운로드 처리가 행하여지게 된다.As a result, the digital signal S7 reproduced from the daily server continues to be downloaded to the local storage device 8, but the supply to the image processing unit 3C and the computer 2 is stopped. In other words, when viewed from the editing operator operating the computer 2, the download process is performed in the background that the operator cannot see.

이 스텝(SP311)의 처리에 있어서, CPU(21)는, 국소 기억 장치를 다운로드로 처리하도록 편집 처리 장치(3)를 제어하면, 배경에서의 다운로드 처리를 하면서, 다시 스텝(SP301)으로 되돌아가 다음 소재를 편집하는 처리로 이행한다.In the processing of this step SP311, if the CPU 21 controls the editing processing apparatus 3 to process the local storage device as a download, the process returns to step SP301 again while performing the download processing in the background. The process then proceeds to editing the material.

또한, 스텝(SP311)에서 편집 오퍼레이터에 의해서 배경에서의 다운로드 처리가 지정되지 않은 경우 다운로드 처리가 종료할 때까지, 배경에서의 다운로드 처리가 행하여진다.In addition, when the download operator is not specified in the background by the editing operator in step SP311, the download process in the background is performed until the download process is completed.

다음에, 스텝(SP309)에 있어서 다운로드 처리가 지정되지 않은 통상의 편집 프로세스에 관해서, 다음 스텝(SP312)을 참조하여 설명한다.Next, a normal editing process in which no download process is specified in step SP309 will be described with reference to the next step SP312.

스텝(SP312)에서는 CPU(21)는 편집 오퍼레이터의 조작에 따라, 장면명 설정처리를 한다. 구체적으로는 편집 오퍼레이터에 의해서 뷰어 윈도우(92)의 장면 변경 버튼(178A)이 클릭되면 장면명 설정 처리(스텝SP313)로 이행하고, 장면 변경 버튼(178A)이 클릭되지 않은 경우 스텝(SP314)으로 이행하여, 그 스텝(SP314)에 있어서 이미 설정되어 있는 장면명을 이용하여 클립명 및 이벤트명을 작성한다.In step SP312, the CPU 21 performs a scene name setting process in accordance with an operation of the editing operator. Specifically, when the scene change button 178A of the viewer window 92 is clicked by the editing operator, the process moves to the scene name setting process (step SP313), and when the scene change button 178A is not clicked, the process goes to step SP314. Then, the clip name and the event name are created using the scene name already set in the step SP314.

스텝 SP313의 장면명 설정 처리에 관해서 설명한다.The scene name setting processing in step SP313 will be described.

우선, CPU(21)는 도 26A에 도시된 바와 같은 장면명 입력용 다이얼로그(180)를 모니터(2B) 상에 연다. 편집 오퍼레이터에 의해서, 다이얼로그(180)내에 설치된 장면명의 리스트를 표시시키기 위한 풀다운 버튼(182)이 선택된 경우, CPU(21)는 도 26B에 도시된 바와 같은 장면명의 리스트(183)를 모니터(2B) 상에 표시한다. 장면명의 리스트는 전회의 편집 오퍼레이션 시에 편집 오퍼레이터에 의해서 이용 및 등록된 장면명의 리스트이고, RAM(21b)에 이력 리스트로서 기억되어 있는 데이터이다.First, the CPU 21 opens a scene name input dialog 180 as shown in FIG. 26A on the monitor 2B. When the pull-down button 182 for displaying a list of scene names installed in the dialog 180 is selected by the editing operator, the CPU 21 monitors the list of scene names 183 as shown in Fig. 26B (2B). Mark on. The list of scene names is a list of scene names used and registered by the editing operator during the previous editing operation, and is data stored in the RAM 21b as a history list.

편집 오퍼레이터에 의해서 표시된 리스트(183)중에서 장면명이 선택된 경우 CPU(21)는 그 선택된 장면명을 후술하는 클립 생성 처리 및 이벤트 작성 처리에서 이용하는 장면명으로서 등록한다.When a scene name is selected from the list 183 displayed by the editing operator, the CPU 21 registers the selected scene name as the scene name used in the clip generation process and the event creation process described later.

또한, 풀다운 버튼(182)을 선택하지 않고서, 편집 오퍼레이터가 장면명 입력란(181)에 새롭게 장면명을 키보드(2C)로 직접 입력할 수도 있다. 이 경우에도 마찬가지로, CPU(21)는 그 입력된 장면명을 후술하는 클립 생성 처리 및 이벤트 작성처리에서 사용하는 장면명으로서 등록한다.In addition, without selecting the pull-down button 182, the editing operator may directly input the scene name into the scene name input box 181 directly with the keyboard 2C. In this case as well, the CPU 21 registers the input scene name as the scene name used in the clip generation process and the event creation process described later.

본 실시예의 편집 장치에 이러한 장면명을 갱신하는 기능이 형성되어 있는 이유에 관해서 설명한다.The reason why such a scene name is updated in the editing apparatus of the present embodiment is explained.

후술하는 클립 작성 처리 및 이벤트 작성 처리에서는 장면명을 이용하여 클립명 및 이벤트명이 부여된다. 구체적으로는 클립명 및 이벤트명은 「장면 명칭」과 「일련 번호」로 생성된다. 즉, 스텝(SP313)에 있어서 장면명이「FIRE」로 갱신된 것으로 하면, 이다음의 클립 작성 처리에 있어서, 「FIRE001」,「FIRE002」,「FIRE003」····이라는 것과 같은 클립명을 갖는 클립이 순서로 작성된다. 예를 들면, 이후, 스텝(SP313)에 있어서 장면명이「SEA」로 갱신된 것으로 하면, 마찬가지로 이후의 클립 작성 처리에 있어서, 「SEA001」,「SEA002」, 「SEA003」····이라는 것과 같은 클립명을 갖는 클립이 순서로 작성된다.In the clip creation process and the event creation process described later, clip names and event names are assigned using scene names. Specifically, the clip name and the event name are generated with "scene name" and "serial number". That is, assuming that the scene name is updated to "FIRE" in step SP313, the following clip creation process has clip names such as "FIRE001", "FIRE002", and "FIRE003". The clips are created in order. For example, suppose that the scene name is updated to "SEA" in step SP313 afterwards. Similarly, in the subsequent clip creation process, "SEA001", "SEA002", and "SEA003" are the same. Clips with clip names are created in order.

즉, 이와 같이, 편집 오퍼레이터가 소재의 장면이 바뀌었을 때에 적절한 장면명을 설정함으로써, 로그 윈도우(93)에 등록된 클립을 장면명마다 분류할 수가 있다. 그러므로 몇 백 개의 클립을 작성하였다고 해도 그 많은 클립을 용이하게 관리할 수가 있다. 또한, 스텝(SP302)에 있어서 국소 기억 장치(8)의 클립을 검색할 때에, 장면명을 키워드로 함으로써, 관련된 클립만을 용이하게 검색할 수가 있다.In other words, the clip registered in the log window 93 can be classified for each scene name by setting the appropriate scene name when the editing operator changes the scene of the material. So even if you have created hundreds of clips, you can easily manage those clips. In addition, when searching for the clip of the local memory device 8 in step SP302, only the relevant clip can be searched easily by making a scene name into a keyword.

스텝(SP314)에 있어서, 편집 오퍼레이터의 조작에 응답하여 CPU(21)는 엔트리 모드를 설정한다. 엔트리 모드란, 인점 및 아웃점이 설정된 소재를 로그 윈도우에 엔트리(등록)할 것인지, 타임 라인 윈도우에 엔트리(등록)할 것인지의 여부를 결정하기 위한 모드이다. 엔트리 모드는 인점 및 아웃점이 설정된 소재를 로그 윈도우에 클립으로서 등록하는 로그 모드, 및 인점 및 아웃점이 설정된 소재를 타임 라인 윈도우에 이벤트로서 등록하는 타임 라인 모드의 2개의 모드를 갖고, 엔트리 모드로서 어느 하나의 모드가 지정되도록 구성되어 있다.In step SP314, in response to the operation of the editing operator, the CPU 21 sets the entry mode. The entry mode is a mode for determining whether to enter (register) a work where the in and out points are set in the log window or to enter (register) in the timeline window. The entry mode has two modes, a log mode that registers a work where the in and out points are set as a clip in the log window, and a time line mode which registers the work where the in and out points are set as an event in the timeline window. One mode is configured to be specified.

구체적으로는 편집 오퍼레이터가 뷰어 윈도우(92)의 로그 버튼(122B)을 선택하면, 로그 모드가 선택되고, 편집 오퍼레이터가 뷰어 윈도우(92)의 타임 라인 버튼(12(2C))을 선택하면, 타임 라인 모드가 선택된다. 로그 모드가 설정된 경우 스텝(SP315)으로 진행하고, 타임 라인 모드가 설정된 경우 스텝(SP316)으로 진행한다.Specifically, when the editing operator selects the log button 122B of the viewer window 92, the log mode is selected, and when the editing operator selects the timeline button 12 (2C) of the viewer window 92, the time is displayed. Line mode is selected. If the log mode is set, the process proceeds to step SP315, and if the timeline mode is set, the process proceeds to step SP316.

스텝(SP315)에서는 편집 오퍼레이터의 조작에 응답하여 CPU(21)는 인점과 아웃점으로서 지정된 소재를 이벤트로서 등록한다. 구체적으로는 편집 오퍼레이터가 뷰어 윈도우(92)의 ADD 버튼(122A)을 클릭하면, CPU(21)는 인점과 아웃점으로서 지정된 소재를 이벤트로서 등록한다. 이 때, CPU(21)는 등록된 이벤트를 나타내기 위한 도 27에 도시된 바와 같은 파일 정보를 생성한다.In step SP315, in response to the operation of the editing operator, the CPU 21 registers the material designated as the in and out points as an event. Specifically, when the editing operator clicks on the ADD button 122A of the viewer window 92, the CPU 21 registers the material designated as the in and out points as an event. At this time, the CPU 21 generates file information as shown in Fig. 27 for indicating the registered event.

또한, 스텝(SP314)에 있어서 로그 모드가 선택되어 있기 때문에, CPU(21)는 이벤트의 인점의 스탬프 픽처, 인점의 타임 코드, 및 스텝(SP313)에 있어서 설정된 장면명에 의거하여 생성된 클립명을 클립 카드(179)로서 로그 윈도우(93)에 표시한다.In addition, since the log mode is selected in step SP314, the CPU 21 causes the clip name to be generated based on the stamp picture of the in-point stamp of the event, the time code of the in-point, and the scene name set in step SP313. Is displayed in the log window 93 as the clip card 179. FIG.

스텝(SP306)으로부터 스텝(SP315)의 처리를 반복함으로써, 편집 오퍼레이터에 의해서 지정된 복수의 이벤트가 등록된다. 또한, 로그 모드에서는 그 복수의 이벤트를 나타내는 복수의 클립 카드(179)를 로그 윈도우(93)에 표시하는 것이 가능하다.By repeating the process of step SP315 from step SP306, a plurality of events designated by the editing operator are registered. In the log mode, a plurality of clip cards 179 representing the plurality of events can be displayed in the log window 93.

스텝(SP316)에서는 편집 오퍼레이터의 조작에 응답하여, CPU(21)는 인점과 아웃점으로서 지정된 소재를 이벤트로서 등록한다. 구체적으로는 스텝(SP315)과 같이, 편집 오퍼레이터가 뷰어 윈도우(92)의 ADD 버튼(122A)를 클릭하면, CPU(21)는 인점과 아웃점으로서 지정된 소재를 이벤트로서 등록한다. 이 때, CPU(21)는 도 19에 도시된 바와 같이, 등록된 이벤트를 나타내기 위한 파일 정보를 생성한다.In step SP316, in response to the operation of the editing operator, the CPU 21 registers the material designated as the in and out points as an event. Specifically, as in step SP315, when the editing operator clicks on the ADD button 122A of the viewer window 92, the CPU 21 registers the material designated as the in and out points as an event. At this time, the CPU 21 generates file information for indicating the registered event, as shown in FIG.

또한, 스텝(SP314)에 있어서 타임 라인 모드가 선택되어 있기 때문에, CPU(21)는 비디오 이벤트를 베이스 비디오 라인(132A)의 현재 라인(139)의 위치에 붙이고, 오디오 이벤트를 베이스 오디오 라인(132B)의 현재 라인(139)의 위치에 붙인다.In addition, since the timeline mode is selected in step SP314, the CPU 21 attaches the video event to the position of the current line 139 of the base video line 132A, and attaches the audio event to the base audio line 132B. ) At the current line 139.

스텝(SP306)에서 스텝(SP316)의 처리를 반복함으로써, 편집 오퍼레이터에 의해서 지정된 복수의 이벤트가 등록된다. 또한, 타임 라인 윈도우에서는 그 복수의 이벤트를 타임 라인(95)의 베이스 비디오 및 베이스 오디오 라인(132)의 원하는 위치에 붙일 수 있다.By repeating the process of step SP316 in step SP306, a plurality of events designated by the editing operator are registered. In the timeline window, the plurality of events can be pasted to a desired position of the base video and the base audio line 132 of the timeline 95.

또한, 로그 모드에서 생성되는 이벤트, 및 타임 라인 모드에 있어서 생성되는 이벤트는 완전히 같다. 로그 모드 및 타임 라인 모드의 차이는 생성된 이벤트를 클립 카드로서 로그 윈도우(93)에 표시하는지 또는 이벤트로서 타임 라인(95)에 표시하는지 하는 점이 다를 뿐이다.In addition, the event generated in the log mode and the event generated in the timeline mode are exactly the same. The only difference between the log mode and the timeline mode is that the generated event is displayed in the log window 93 as a clip card or in the timeline 95 as an event.

4-2. 프로그램 리스트 작성 처리4-2. Program list creation processing

다음에, 스텝(SP301)으로부터 스텝(SP315)의 이벤트 생성 처리에 의해서 작성된 이벤트를 이용하여 프로그램 리스트를 작성하는 프로그램 리스트 작성 처리에 관해서 설명한다.Next, a program list creation process for creating a program list using the events created by the event generation process of step SP301 to step SP315 will be described.

도 27의 흐름도는 프로그램 리스트 작성 처리의 동작을 설명하기 위한 도면이다. 도 27에 도시된 흐름도는 로그 윈도우(93)에 클립 카드(179)로서 표시된 이벤트를 이용하여 프로그램 리스트를 작성하는 경우의 흐름도이다.The flowchart of FIG. 27 is a figure for demonstrating the operation | movement of a program list preparation process. The flowchart shown in FIG. 27 is a flowchart when a program list is created using the event displayed as the clip card 179 in the log window 93.

우선, 스텝(SP401)에서는 로그 윈도우(93)에 클립 카드(179)로서 표시되어 있는 이벤트를 타임 라인 상에 나열한다. 이와 같이 타임 라인 상에 이벤트를 나열하기 위해서는 이하의 두 가지 방법이 있다.First, in step SP401, the events displayed as the clip card 179 in the log window 93 are listed on the timeline. As such, there are two methods for arranging events on the timeline.

제 1 방법은 편집 오퍼레이터가 마우스(2D)를 이용하여 클립 카드를 드래그 앤드 드롭을 이용하여 타임 라인(95)상의 원하는 위치에 삽입하는 방법이다. 구체적으로는 로그 윈도우(93)에 표시되어 있는 클립 카드(179)를 마우스(2D)로 클릭함으로써, 클립 카드가 액티브하게 되어 드래그 가능한 상태가 된다. 다음에, 클립 카드(179)를 드래그시켜 타임 라인(95)의 원하는 위치에 드롭하면, 베이스 비디오 라인(132A) 상의 드롭 위치에 클립 카드(179)에 대응하는 비디오 이벤트가 삽입되고, 베이스 오디오 라인(132B) 상의 드롭 위치에 클립 카드(179)에 대응하는 오디오 이벤트가 삽입된다.The first method is a method in which an editing operator inserts a clip card at a desired position on the timeline 95 using drag and drop using the mouse 2D. Specifically, by clicking on the clip card 179 displayed in the log window 93 with the mouse 2D, the clip card becomes active and becomes draggable. Next, when the clip card 179 is dragged and dropped to the desired position of the timeline 95, a video event corresponding to the clip card 179 is inserted at the drop position on the base video line 132A, and the base audio line is inserted. The audio event corresponding to the clip card 179 is inserted at the drop position on 132B.

제 2 방법은 다이렉트 엔트리 모드를 이용하여 클립 카드(179)를 타임 라인(178B)상에 자동적으로 나열하는 방법이다. 우선, 편집 오퍼레이터에 의해서 로그 윈도우(93) 다이렉트 엔트리 버튼(180)이 클릭되면, 통상 모드로부터 다이렉트 엔트리 모드가 된다. 다이렉트 엔트리 모드란, 로그 윈도우(93)에 표시되어 있는 클립 카드(179)를 드래그 앤드 드롭하지 않고서 클릭하는 것만으로, 타임 라인 상에 나열할 수 있는 모드이다. 구체적으로는 다이렉트 엔트리 모드에 있어서, 편집 오퍼레이터가 로그 윈도우(93)의 클립 카드(179)를 클릭하면, 타임 라인(95)의 현재 라인(139)의 위치에 클릭된 클립 카드(179)에 대응하는 비디오 이벤트 및 오디오 이벤트가 삽입된다.The second method is a method of automatically arranging the clip card 179 on the timeline 178B using the direct entry mode. First, when the log window 93 direct entry button 180 is clicked by the editing operator, the normal mode is changed to the direct entry mode. The direct entry mode is a mode that can be arranged on the timeline by simply clicking the clip card 179 displayed in the log window 93 without dragging and dropping. Specifically, in the direct entry mode, when the editing operator clicks the clip card 179 of the log window 93, it corresponds to the clip card 179 clicked at the position of the current line 139 of the timeline 95. Video events and audio events are inserted.

또한, 이벤트의 삽입에 따라 현재 라인(139)은 다이렉트 엔트리 모드에 의해서 새롭게 삽입된 이벤트의 아웃점의 위치로 자동적으로 이동한다. 즉, 로그 윈도우(93)의 클립 카드(179)를 순서로 클릭하면 타임 라인(95)의 오른쪽에 클릭된 순서로 삽입되어 가게 된다.Also, as the event is inserted, the current line 139 automatically moves to the position of the out point of the newly inserted event by the direct entry mode. That is, when the clip card 179 of the log window 93 is clicked in order, it is inserted in the clicked order on the right side of the timeline 95.

이와 같이 다이렉트 엔트리 모드를 이용함으로써, 로그 윈도우(93)에 표시되어 있는 클립 카드(179)를 드래그 앤드 드롭하지 않고 클릭하는 것만으로 타임 라인(95)에 붙일 수 있다. 따라서 수 개가 아닌 몇 십 개인 많은 수의 클립 카드(179)를 타임 라인 상에 붙이지 않으면 안 되는 경우에, 다이렉트 엔트리 모드에 의해서, 각 클립 카드(179)에 대한 드래그 앤드 드롭 조작을 생략할 수가 있으므로, 편집 조작을 간략화할 수 있는 동시에 편집 시간을 단축할 수가 있다.By using the direct entry mode in this manner, the clip card 179 displayed in the log window 93 can be attached to the timeline 95 by simply clicking without dragging and dropping. Therefore, when a large number of clip cards 179, not several, must be pasted on the timeline, the drag and drop operation for each clip card 179 can be omitted by the direct entry mode. In addition, the editing operation can be simplified and the editing time can be shortened.

스텝(SP402)에서는 편집 오퍼레이터의 조작에 따라 CPU(21)는 타임 라인(95)에 붙여진 오디오의 믹스다운 설정을 한다. 믹스다운 처리란, 오디오 이벤트에 대하여 설정된 4개의 트랙의 출력 레벨을 설정함과 동시에, 4개의 트랙의 최종 오디오 출력(프로그램 아웃)의 4 채널에 대한 라우팅을 설정하기 위한 처리이다.In step SP402, the CPU 21 sets the mixdown of audio attached to the timeline 95 in accordance with the operation of the editing operator. The mixdown process is a process for setting the output level of four tracks set for an audio event and setting the routing for four channels of the final audio output (program out) of the four tracks.

우선, 프로그램 윈도우(94)의 툴바로부터 오디오 믹스다운용 다이얼로그 선택 버튼(162)이 클릭되면, 그래픽 이용자 인터페이스(90)상에 오디오 믹스다운용 다이얼로그(200)가 표시된다.First, when the audio mixdown dialog selection button 162 is clicked from the toolbar of the program window 94, the audio mixdown dialog 200 is displayed on the graphic user interface 90.

다이얼로그(200)는 베이스 오디오(BASE), 서브 오디오(SUB), 보이스 오버1(VO1) 및 보이스 오버2(VO2)에 설정된 각 오디오 이벤트가 갖는 4개의 트랙(T1 내지 T4)(또는 2개의 트랙 T1 내지 T2)을 각기 최종 오디오 출력(프로그램 아웃) 채널(Ch1 내지 Ch4)에 어떻게 대응시켜 출력할 것인가를 설정하기 위한 출력 라우팅부(201), 각 오디오 이벤트가 갖는 4개의 트랙(T1 내지 T4)에 대하여 각기 오디오 레벨을 설정하기 위한 트랙 페이더부(208), 전용 제어기(5)에 형성된 트랙 페이더가 4개의 트랙(T1 내지 T4)에 어떻게 할당되어 있는지를 나타내는 페이더 패널 할당부(207), 오디오 라인의 각 트랙에 대하여 전용 제어기(5)에 설치된 4개의 페이더 레버를 할당하기 위한 설정 다이얼로그를 오픈하기 위한 페이더 할당 버튼(202), 및 전용 제어기(5)에 설치된 4개의 페이더 레버를 이용하여 각 트랙의 오디오 레벨을 매뉴얼 조정하는 모드를 온할 것인지 오프할 것인지를 나타내는 온/오프 버튼(202A)을 구비하고 있다.The dialog 200 includes four tracks T1 to T4 (or two tracks) of each audio event set in base audio (BASE), sub audio (SUB), voice over 1 (VO1), and voice over 2 (VO2). Output routing section 201 for setting how T1 to T2 are output in correspondence with the final audio output (program out) channels Ch1 to Ch4, respectively, and four tracks T1 to T4 of each audio event. A track fader section 208 for setting audio levels for the respective tracks, a fader panel assigning section 207 indicating how track faders formed in the dedicated controller 5 are assigned to the four tracks T1 to T4, and audio. By using the fader assign button 202 to open the setting dialog for allocating the four fader levers installed in the dedicated controller 5 for each track of the line, and the four fader levers installed in the dedicated controller 5. And an on / off button 202A indicating whether to turn on or off the mode for manually adjusting the audio level of each track.

이 출력 라우팅부(201)에 있어서, 각 트랙(T1 내지 T4)에 대하여 원하는 출력 채널(Ch1 내지 Ch4) 위치에 대응하는 교차 포인트 버튼을 클릭함으로써, 각 트랙을 원하는 출력 채널에 라우팅할 수가 있다.In this output routing section 201, each track can be routed to a desired output channel by clicking on the crosspoint button corresponding to the desired output channel Ch1 to Ch4 position for each track T1 to T4.

예를 들면, 도 28에 도시된 예는, 베이스 오디오 라인(132B) 상의 이벤트의 트랙(T1)의 교차 포인트 버튼(201A)을 클릭함으로써, 트랙(T1)을 출력 채널(Ch1)에 라우팅하고 있는 것을 나타내고 있다. 이하 동일하게, 트랙(T2)을 출력 채널(Ch2)에, 트랙(T3)을 출력 채널(Ch3)에, 또한 트랙(T4)을 출력 채널(Ch4)에 라우팅하고 있는 것을 나타내고 있다. 또한, 서브 오디오 라인(134), 보이스 오버 1 라인(138A) 및 보이스 오버 2 라인(138B)에 관해서도 마찬가지로, 서브 오디오 라인의 오디오 이벤트의 트랙(T1 내지 T4)을 각각 출력 채널(Ch1 내지 Ch4)에 라우팅하고, 또한 보이스 오버 1의 오디오 이벤트의 트랙(T1 및 T2)을 각각 출력 채널(Ch1 및 Ch2)에 라우팅하며, 보이스 오버 2의 오디오 이벤트의 트랙(T1 및 T2)을 각각 출력 채널(Ch3 및 Ch4)에 라우팅하고 있는 것을 나타내고 있다.For example, in the example shown in FIG. 28, the track T1 is routed to the output channel Ch1 by clicking the cross point button 201A of the track T1 of the event on the base audio line 132B. It is shown. In the same manner below, the track T2 is routed to the output channel Ch2, the track T3 to the output channel Ch3, and the track T4 to the output channel Ch4. Similarly with respect to the sub audio line 134, the voice over 1 line 138A, and the voice over 2 line 138B, the tracks T1 to T4 of the audio event of the sub audio line are respectively output channels Ch1 to Ch4. And tracks T1 and T2 of the audio event of voice over 1 to output channels Ch1 and Ch2, respectively, and tracks T1 and T2 of the audio event of voice over 2, respectively, to output channels Ch3. And Ch4).

여기서 믹스다운 설정용 다이얼로그(200)에 형성된 매뉴얼 페이더 버튼(202)을 클릭하면, 도 29에 도시된 바와 같은 페이더 할당용 다이얼로그(205)가 표시된다.When the manual fader button 202 formed in the dialog for setting down 200 is clicked on, a fader assignment dialog 205 as shown in Fig. 29 is displayed.

다이얼로그(205)는 베이스 오디오, 서브 오디오, 보이스 오버 1 및 보이스 오버 2에 등록된 오디오 이벤트가 갖는 4개의 트랙(T1 내지 T4)(또는 2개의 트랙(T1 내지 T2)을 전용 제어기(5)의 어떤 페이더 레버(F1 내지 F4)에 할당할 것인지를 설정하기 위한 할당 패널(206)을 갖고 있다. 해당 할당 패널(206)에 있어서, 각 열에 설정된 각 트랙(T1 내지 T4)에 대하여 설정된 원하는 페이더 레버(F1 내지 F4)에 대응하는 버튼을 클릭함으로써, 각각의 트랙(T1 내지 T4)을 임의의 페이더 레버(F1 내지 F4)에 할당할 수가 있다.The dialog 205 stores four tracks T1 to T4 (or two tracks T1 to T2) of audio events registered in the base audio, sub audio, voice over 1 and voice over 2 of the dedicated controller 5. It has an assignment panel 206 for setting which fader levers F1 to F4 are assigned .. In the assignment panel 206, a desired fader lever set for each track T1 to T4 set in each column. By clicking the buttons corresponding to (F1 to F4), each track T1 to T4 can be assigned to any of the fader levers F1 to F4.

예를 들면 도 29는 베이스 오디오의 트랙(T1 및 T2)에 속하는 버튼(206A 및 206B)을 클릭함으로써, 베이스 오디오의 트랙(T1 및 T2)을 제 1 페이더 레버(F1)에 할당하고 있는 것을 나타내고 있다. 이하 마찬가지로, 서브 오디오의 트랙(T1 및 T2)의 버튼(206C 및 206D)을 클릭함으로써 트랙(T1 및 T2)을 제 2 페이더 레버(F2)에 할당하고 있는 것을 나타내며, 또한 버튼(206E 및 206F)을 클릭함으로써 보이스 오버의 트랙(T1 및 T2)을 제 3 페이더 레버(F3)에 할당하고 있는 것을 나타낸다.For example, FIG. 29 shows that the tracks T1 and T2 of the bass audio are assigned to the first fader lever F1 by clicking the buttons 206A and 206B belonging to the tracks T1 and T2 of the bass audio. have. Likewise below, this indicates that the tracks T1 and T2 are assigned to the second fader lever F2 by clicking the buttons 206C and 206D of the tracks T1 and T2 of the sub audio, and further, the buttons 206E and 206F. Click to indicate that the tracks T1 and T2 of voice over are assigned to the third fader lever F3.

각 오디오 라인의 트랙(T1 내지 T4)의 오디오 레벨을 설정하는 경우 마우스(2D)로 트랙 페이더부(208)의 슬라이더(208A)를 상하 이동시킴으로써 원하는 오디오를 설정할 수가 있다. 또한, 온/오프 버튼(202A)이 온으로 되어 있는 경우 전용 제어기의 페이더 레버에 의한 매뉴얼 조정이 가능하다. 따라서 편집 오퍼레이터가 페이더 레버(F1 내지 F4)를 상하 이동시킴으로써, 각 페이더 레버에 대응 부가된 트랙에 있어서 원하는 오디오 레벨을 설정할 수가 있다. 또한, 이 때, 편집 오퍼레이터가 전용 제어기(5)의 페이더 레버를 조작하면, 그 페이더 레버의 조작에 추종하여, 믹스다운 설정 다이얼로그의 트랙 페이더부(208)의 슬라이더(208A)가 자동적으로 이동한다.When setting the audio level of the tracks T1 to T4 of each audio line, the desired audio can be set by moving the slider 208A of the track fader unit 208 up and down with the mouse 2D. Further, when the on / off button 202A is turned on, manual adjustment by the fader lever of the dedicated controller is possible. Accordingly, the editing operator can move the fader levers F1 to F4 up and down to set the desired audio level in the tracks corresponding to the fader levers. At this time, if the editing operator operates the fader lever of the dedicated controller 5, following the operation of the fader lever, the slider 208A of the track fader section 208 of the mixdown setting dialog is automatically moved. .

또한, 페이더 할당 다이얼로그(205)에 있어서, 각 오디오 라인(BASE, SUB, VO1 및 VO2)의 각 트랙(T1 내지 T4)에 대한 전용 제어기의 페이더 레버(F1 내지 F4)의 할당을 자유롭게 설정할 수가 있다. 따라서 예를 들면, 편집해야 할 오디오가 베이스 오디오(BASE)만인 경우 베이스 오디오의 트랙(T1 내지 T4)에 대하여, 각각 페이더 레버(F1 내지 F4)를 할당할 수 있기도 하다. 즉, 각 오디오 라인(BASE, SUB, VO1 및 VO2) 및 각 트랙(T1 내지 T4)을 물리적으로 전용 제어기(5)의 페이더 레버와 관련시키는 것은 아니고, 소프트웨어적으로 관련시키는 것에 의해서, 각 오디오 라인 및 각 트랙(T1 내지 T4)과, 전용 제어기(5)의 페이더 레버와의 관련을 어떻게든지 변경할 수가 있다.In the fader assignment dialog 205, the assignment of the fader levers F1 to F4 of the dedicated controller to each track T1 to T4 of each audio line BASE, SUB, VO1 and VO2 can be freely set. . Therefore, for example, when the audio to be edited is only base audio BASE, fader levers F1 to F4 may be assigned to the tracks T1 to T4 of the base audio, respectively. That is, the audio lines BASE, SUB, VO1 and VO2 and the respective tracks T1 to T4 are not physically associated with the fader levers of the dedicated controller 5, but rather are software related to each audio line. And the relationship between the tracks T1 to T4 and the fader lever of the dedicated controller 5 can be changed in any way.

스텝(SP402)에 있어서 오디오 믹스다운의 설정이 종료하면, 다음 스텝(SP 403)으로 진행한다.When the setting of the audio mixdown is finished in step SP402, the flow advances to the next step SP403.

스텝(SP403)에서는 편집 오퍼레이터의 편집 조작에 응답하여, CPU(21)는 타임 라인 상의 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그(190)를 연다. 구체적으로는 편집 오퍼레이터가 프로그램 윈도우(94)에 있어서 비디오 효과 버튼(159)을 클릭하면, 도 30에 도시된 바와 같은 효과 설정용 다이얼로그(190)가 열린다.In step SP403, in response to the editing operation of the editing operator, the CPU 21 opens an effect setting dialog 190 for setting the effect for the event on the timeline. Specifically, when the editing operator clicks the video effect button 159 in the program window 94, an effect setting dialog 190 as shown in FIG. 30 opens.

효과 설정 다이얼로그(190)는 현재 설정되어 있는 효과 패턴을 나타내는 효과 패턴부(191), 이용 빈도가 높은 효과 패턴이 표시되는 선호 패턴부(192), 선택된 효과의 트랜지션을 설정하기 위한 트랜지션 설정부(193), 효과를 설정하는 대상(비디오/오디오)을 선택하는 비디오/오디오 선택부(195), 효과를 변경하기 위한 파라미터가 설정되는 변경부(198), 및 키 신호에 관한 파라미터를 설정하는 키 설정부(199)를 구비하고 있다.The effect setting dialog 190 includes an effect pattern unit 191 indicating an effect pattern currently set, a preferred pattern unit 192 displaying an effect pattern with a high frequency of use, and a transition setting unit for setting a transition of the selected effect ( 193), a video / audio selection unit 195 for selecting a target (video / audio) for setting an effect, a changing unit 198 for setting parameters for changing an effect, and a key for setting parameters for key signals A setting unit 199 is provided.

스텝(SP404)에서는 효과 설정 대상으로서 비디오 및 오디오를 선택한다. 비디오와 오디오의 양쪽에 동시에 효과를 갖는 경우 「Video」와 「Audio」 버튼(195)의 양쪽을 클릭하고, 비디오 또는 오디오 중, 어느 한쪽에만 효과를 갖는 경우 「Video」또는 「Audio」 버튼(195) 중의 어느 하나를 클릭한다.In step SP404, video and audio are selected as effect setting targets. If you have effects on both video and audio at the same time, click both the "Video" and "Audio" buttons 195. If you only have effects on either video or audio, click the "Video" or "Audio" button (195). Click on any one of the

스텝(SP405)에서는 편집 오퍼레이터는 원하는 효과를 선택한다. 이러한 효과를 선택하는 방법으로서, 이하의 3개의 방법 중의 어느 하나에 의해서 효과를 선택할 수가 있다.In step SP405, the editing operator selects the desired effect. As a method of selecting such an effect, an effect can be selected by either of the following three methods.

제 1 효과 선택 방법은 효과를 나타내는 패턴 번호를 직접 입력함으로써, 원하는 효과를 설정하는 방법이다. 예를 들면, 편집 오퍼레이터가 원하는 효과 패턴 번호를 미리 알고 있는 경우 패턴 번호 설정부(191)에 원하는 효과 패턴의 패턴 번호를 키보드(2C)로 직접 입력하면, 입력된 패턴 번호에 대응한 원하는 효과가 설정된다.The first effect selection method is a method of setting a desired effect by directly inputting a pattern number indicating an effect. For example, when the editing operator knows the desired effect pattern number in advance, if the pattern number of the desired effect pattern is directly input to the pattern number setting unit 191 with the keyboard 2C, the desired effect corresponding to the input pattern number is obtained. Is set.

제 2 효과 선택 방법은 편집 오퍼레이터가 즐겨 이용하는 이용 빈도가 높은 효과의 패턴(이하, 이것을 선호 패턴(Favorite Pattern)이라고 부른다)으로부터 원하는 효과를 선택하는 방법이다. 구체적으로는 CPU(21)는 편집 오퍼레이터가 즐겨 이용하는 이용 빈도가 높은 효과의 패턴을 항상 기억해 두고, 효과 설정 다이얼로그(190)의 선호 패턴 표시부(192)에, 이용 빈도가 높은 효과의 패턴을 나타내는 아이콘이 표시되도록 구성되어 있다. 편집 오퍼레이터가 선호 패턴 표시부(192) 중에서 원하는 효과 패턴을 클릭함으로써, 원하는 효과가 선택된다.The second effect selection method is a method of selecting a desired effect from a pattern of effects frequently used by the editing operator (hereinafter, referred to as a favorite pattern). Specifically, the CPU 21 always memorizes the pattern of the effect frequently used by the editing operator, and the icon representing the pattern of the effect frequently used on the preference pattern display unit 192 of the effect setting dialog 190. It is configured to be displayed. When the editing operator clicks on the desired effect pattern from the preference pattern display unit 192, the desired effect is selected.

제 3 효과 선택 방법은 전 패턴 리스트 중에서 원하는 효과 패턴을 선택하는 방법이다. 편집 오퍼레이터가 패턴 리스트 버튼(194)을 누르면, 등록되어 있는 모든 효과 패턴이 종류마다 표시되어, 그 중에서 원하는 효과 패턴을 클릭함으로써, 원하는 효과가 선택된다.The third effect selection method is a method of selecting a desired effect pattern from all pattern lists. When the editing operator presses the pattern list button 194, all registered effect patterns are displayed for each type, and the desired effect is selected by clicking the desired effect pattern therefrom.

이들 중의 어느 하나의 방법으로 효과가 선택되면, 그 선택된 효과의 아이콘이 효과 패턴부(191)에 표시된다. 이것에 의해서 효과가 선택된다.When an effect is selected by any of these methods, an icon of the selected effect is displayed on the effect pattern unit 191. The effect is selected by this.

스텝(SP406)에서는 편집 오퍼레이터에 의해서, 선택된 효과에 대하여 원하는 트랜지션 시간이 설정된다. 선택된 효과에 대하여 트랜지션 시간을 설정하는 경우 다이얼로그(190) 상의 트랜지션 설정부(193A)에서 선택한 효과의 천이 시간(트랜지션 시간)을 키보드로부터 입력하거나 또는 프리셋된 복수개의 트랜지션 시간 중에서 원하는 트랜지션 시간을 선택함으로써 트랜지션 시간을 설정할 수가 있다.In step SP406, the desired transition time is set for the selected effect by the editing operator. When setting the transition time for the selected effect, by inputting the transition time (transition time) of the effect selected by the transition setting unit 193A on the dialog 190 from the keyboard or by selecting a desired transition time from a plurality of preset transition times. You can set the transition time.

스텝(SP407)에서는 선택된 효과에 대하여 효과 파라미터를 설정한다. 구체적으로는 효과 파라미터란, 예를 들면, 비디오 전환 위치의 예지에 관한 파라미터, 빛을 대는 것과 같은 효과인 라이트닝(Lighting)에 관한 파라미터, 음영이나 띠를 그리는 것과 같은 효과인 트라이얼(Trial)/새도우(Shadow)에 관한 파라미터, 효과를 설정하는 위치인 로케이션(Location)에 관한 파라미터 등이고, 효과의 종류에 따라 여러 가지의 파라미터를 설정할 수 있도록 되어 있다. 효과 설정 다이얼로그(190)의 변경부(198)를 이용함으로써, 이들의 효과에 관한 각종 파라미터를 설정할 수가 있다. 또한, 다이얼로그(190)상에 있어서는 키 버튼(199)을 클릭 입력함으로써 색(Chroma) 키 및 또는 외부(External) 키를 설정할 수 있도록 이루어져 있다.In step SP407, effect parameters are set for the selected effect. Specifically, the effect parameter is, for example, a parameter related to the prediction of a video transition position, a parameter related to light that is an effect such as lighting, and a trial / shadow that is an effect such as drawing a shadow or a band. Parameters related to (Shadow), parameters relating to location (Location) which is a position for setting an effect, and the like, and various parameters can be set according to the type of effect. By using the changing unit 198 of the effect setting dialog 190, various parameters related to these effects can be set. In addition, on the dialog 190, a chroma key and / or an external key can be set by clicking on the key button 199.

스텝(SP408)에서는 편집 오퍼레이터의 조작에 따라, CPU(21)는 설정된 효과를 프리뷰하도록 각 소스 디바이스 및 편집 처리 장치를 제어한다. 편집 오퍼레이터가 다이얼로그(190)의 페이더 레버(196) 또는 AT 버튼(Auto 버튼)(197)을 조작함으로써, 설정된 효과를 뷰어(106)의 화면상에서 프리뷰할 수가 있다.In step SP408, according to the operation of the editing operator, the CPU 21 controls each source device and the editing processing apparatus so as to preview the set effect. By operating the fader lever 196 or the AT button (Auto button) 197 of the dialog 190, the editing operator can preview the set effect on the screen of the viewer 106.

설정된 효과가 와이프 효과 등의 트랜지션 효과인 경우 페이더 레버(196)가 가장 위에 위치하고 있는 상태에서는 뷰어(106)에는 배경 화상이 표시된다. 또한, 페이더 레버(196)를 마우스에 의해 드래그하여 위에서 아래 방향을 향해 이동시킴에 따라, 전경(foreground) 화상에 점차로 트랜지션하여 간다. 그리고 페이더 레버(196)가 가장 밑에 위치하고 있는 상태에서는 뷰어(106)에는 전경 화상이 표시된다. 이것에 의해 페이더 레버(196)의 매뉴얼 조작에 의한 임의의 속도 및 위치에서 트랜지션 효과를 프리뷰할 수가 있다.When the set effect is a transition effect such as a wipe effect, the background image is displayed on the viewer 106 when the fader lever 196 is positioned at the top. In addition, as the fader lever 196 is dragged by the mouse and moved from the top to the downward direction, the fader lever 196 gradually transitions to the foreground image. In the state where the fader lever 196 is located at the bottom, the foreground image is displayed on the viewer 106. This makes it possible to preview the transition effect at any speed and position by manual operation of the fader lever 196.

또한, 전경 화상이란, 트랜지션 효과의 실행에 의해서 화면에 나타나는 화상 또는 애니메이션 효과의 실행에 의해서 배경 화상에 삽입되고, 효과 패턴을 묻히게 하는 화상인 것을 말한다. 또한, 배경 화상이란, 트랜지션 효과의 실행에 의해서, 화면으로부터 소거되는 화상 또는 애니메이션 효과의 실행에 의해서 전경 화상이 묻히게 된 효과 패턴이 삽입되는 화상인 것을 말한다.In addition, a foreground image is an image which is inserted into a background image by execution of an image or animation effect which appears on a screen by execution of a transition effect, and an image which makes an effect pattern buried. The background image is an image into which an effect pattern in which the foreground image is buried by the execution of an image or an animation effect that is erased from the screen by execution of the transition effect is inserted.

또한, 본 실시예의 편집 장치에 있어서는 효과의 종류로서 트랜지션 효과와 애니메이션 효과의 2종류를 갖고 있다. 트랜지션 효과란, 와이프 효과나 페이지 턴 효과 등과 같이, 2개의 화상을 바꾸는 비디오 효과인 것을 말하고, 애니메이션 효과란, 3차원 화상 공간 변환 등의 화상에 특수 효과를 갖는 효과 또는 스포트라이트 효과, 줌 업 효과 및 픽처 인 픽처 효과 등과 같이 어떤 화상에 비디오 효과를 갖는 화상을 삽입하는 효과인 것을 말한다.In addition, the editing apparatus of this embodiment has two kinds of effects, transition effects and animation effects. A transition effect is a video effect that changes two images, such as a wipe effect or a page turn effect, and an animation effect is an effect having a special effect on an image such as a three-dimensional image space conversion, a spotlight effect, a zoom-up effect, It is an effect of inserting an image having a video effect into a certain image, such as a picture-in-picture effect.

또한, 페이더 레버(196)의 매뉴얼 조작 대신에, AT 버튼(Auto 버튼)(197)이 클릭된 경우 효과에 대하여 미리 설정된 트랜지션 스피드로, 배경 화상으로부터 전경 화상으로 이행하여간다. 구체적으로는 AT 버튼(197)이 클릭되면, 우선 처음으로 페이더 레버(196)가 가장 위인 위치로 이동하고, 그 후, 자동적으로 일정한 스피드로 서서히 아래로 이동하여 간다. 그 페이더 레버(196)의 이동에 따라 일정한 스피드로, 배경 비디오로부터 전경 비디오로 트랜지션하는 트랜지션 효과가 실행된다. 그 결과, 뷰어(106)상에서 트랜지션 효과를 프리뷰할 수가 있다.In addition, instead of the manual operation of the fader lever 196, when the AT button (Auto button) 197 is clicked, the transition from the background image to the foreground image is performed at a transition speed preset for the effect. Specifically, when the AT button 197 is clicked, the fader lever 196 first moves to the highest position first, and then automatically moves downward gradually at a constant speed. In accordance with the movement of the fader lever 196, a transition effect of transitioning from the background video to the foreground video is executed at a constant speed. As a result, the transition effect can be previewed on the viewer 106.

이 프리뷰 처리를 행하는 단계에서는 스텝(SP503)에서 선택된 효과는 편집 오퍼레이터에 의해서 아직 타임 라인(95)의 효과 라인(135)에 이어 붙여져 있지 않으므로, 이러한 효과가 어떤 이벤트에 대하여 설정되었는가는 아직 알 수 없다. 따라서 이러한 효과를 미리 보기 위한 프리뷰 처리를 하기 위해 필요한 배경 화상 및 전경 화상은, 이미 편집 처리 장치(3)의 화상 처리부(3C)에 설정되어 있던 비디오 신호를 이용하여 효과를 가상적으로 실행한다. 왜냐하면, 이러한 효과의 프리뷰(1)는 설정된 효과 자체에 설정된 트랜지션 시간 및 설정된 효과 파라미터가 적절한지의 여부를 체크하기 위한 프리뷰 처리이기 때문에, 배경 화상 및 전경 화상은 어떠한 화상이라도 무방하기 때문이다.In the step of performing the preview processing, the effect selected in step SP503 is not yet attached to the effect line 135 of the timeline 95 by the editing operator, so it is still unknown to which event this effect is set. none. Therefore, the background image and the foreground image required for the preview processing for previewing such an effect are virtually executed using the video signal that has already been set in the image processing unit 3C of the editing processing apparatus 3. This is because the background image and the foreground image may be any image because the preview 1 of such an effect is a preview process for checking whether the transition time set in the set effect itself and the set effect parameter are appropriate.

실제로는 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 제어에 의해서, 현재, 화상 처리부(3C)에 대하여 비디오 신호(S24)로서 공급되어 있는 신호를 전경 비디오로 하고, 화상 처리부(3C)에 대하여 비디오 신호(S26)로서 공급되어 있는 신호를 배경 비디오로서 이용한다. 요컨대, 이러한 효과의 프리뷰하려고 할 때에는 컴퓨터의 CPU(21)는 화상 처리부(3C)에 비디오 신호(S26)로서 공급되어 있던 신호를 배경 화상으로서 이용하고, 화상 처리부(3C)에 비디오 신호(S24)로서 공급되어 있는 신호를 전경 화상으로서 이용하도록 편집 처리 장치를 제어한다.In fact, under the control of the matrix switcher unit 3B of the editing processing apparatus 3, the signal currently supplied as the video signal S24 to the image processing unit 3C is regarded as the foreground video, and the image processing unit 3C The signal supplied as the video signal S26 is used as the background video. In short, when attempting to preview such an effect, the CPU 21 of the computer uses the signal supplied as the video signal S26 to the image processing unit 3C as the background image, and the video signal S24 to the image processing unit 3C. The editing processing apparatus is controlled to use the signal supplied as the foreground image.

스텝(SP408)의 프리뷰의 결과, 효과 다이얼로그(190)에 의해서 설정한 효과가 원하는 효과일 때에는 다음 스텝(SP409)으로 진행한다.As a result of the preview of step SP408, when the effect set by the effect dialog 190 is a desired effect, the flow advances to the next step SP409.

스텝(SP409)에서는 편집 오퍼레이터의 조작에 따라, CPU(21)는 선택된 효과 및 그 효과에 관한 전경 이벤트를 타임 라인(95)에 붙인다. 타임 라인으로의 효과의 붙이는 방법은 트랜지션 효과와 애니메이션 효과로 다르므로, 트랜지션 효과의 타임 라인의 붙이는 방법과 애니메이션 효과의 타임 라인의 붙이는 방법을 각각 설명한다.In step SP409, the CPU 21 attaches the selected effect and the foreground event related to the effect to the timeline 95 in accordance with the operation of the editing operator. Since the method of attaching the effect to the timeline is different from the transition effect and the animation effect, the method of pasting the timeline of the transition effect and the method of pasting the timeline of the animation effect will be explained respectively.

우선, 도 31A 및 도 36B를 참조하여, 트랜지션 효과를 타임 라인에 붙이는 방법을 설명한다.First, a method of attaching a transition effect to a timeline will be described with reference to FIGS. 31A and 36B.

편집 오퍼레이터가 다이얼로그(190)의 선호 패턴 표시부(192)내의 선택된 트랜지션 효과의 아이콘(191b)을 타임 라인(95)상에 마우스(2D)로 드래그하면, 도 31A에 도시된 바와 같은 아이콘의 음영(192X)이 타임 라인(95)상에 표시된다.When the editing operator drags the icon 191b of the selected transition effect in the preferred pattern display unit 192 of the dialog 190 on the timeline 95 with the mouse 2D, the shadow of the icon as shown in FIG. 192X is displayed on the timeline 95.

이 아이콘의 음영(192X)을 타임 라인(95)의 효과 라인(135)의 원하는 위치에 드롭하면, 도 31B에 도시된 바와 같이, 트랜지션 효과(192Y)가 설정된다.Dropping the shadow 192X of this icon to the desired position on the effect line 135 of the timeline 95 sets the transition effect 192Y as shown in FIG. 31B.

이 도 31B는 「Heli-1」이라고 하는 이벤트로부터「Ship2」이라고 하는 이벤트로 이행했을 때,「Mix」에 의해서 나타내어진 효과 기간에 있어서,「Heli-1」의 화상과「Ship2」의 화상을 믹스하는 것을 나타내고 있다. 즉, 믹스 효과를 실행하는 경우 「Heli-1」이라고 하는 이벤트가 배경 화상으로서 지정되고, 「Ship2」이라고 하는 이벤트가 전경 화상으로서 지정된다.Fig. 31B shows the image of "Heli-1" and the image of "Ship2" in the effect period shown by "Mix" when the transition from the event "Heli-1" to the event "Ship2". It shows mixing. That is, when performing a mix effect, the event called "Heli-1" is designated as a background image, and the event called "Ship2" is designated as a foreground image.

이와 같이 이벤트 간에 트랜지션 효과를 설정하면, 배경 화상으로서 지정되어 있는 이벤트의 아웃점이 자동적으로 트랜지션 시간만큼 연장된다. 예를 들면, 배경 화상으로서 지정되어 있는 이벤트「Heli-1」의 아웃점이「00:00:05:00」이고, 믹스 효과(192Y)의 트랜지션 시간이 2초인 것으로 하면, 배경 화상으로서 지정되어 있는 이벤트「Heli-1」의 아웃점이, 자동적으로 2초만 연장되어, 「00:00:07: 00 」이 된다고 하는 것이다.In this way, when the transition effect is set between events, the out point of the event designated as the background image is automatically extended by the transition time. For example, suppose that the out point of the event "Heli-1" designated as the background image is "00: 00: 05: 00" and the transition time of the mix effect 192Y is 2 seconds. The out point of the event "Heli-1" is automatically extended only 2 seconds, and becomes "00:00:07: 00".

이러한 트랜지션 효과를 실행하는 경우 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하여 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 「Heli-1」이라고 하는 소재의 비디오 신호를 출력 단자(OUT9)로부터 출력되는 신호(S26)로서 설정하고, 「Ship2」이라고 하는 소재의 비디오 신호를 출력 단자 OUT(7)로부터 출력되는 신호(S24)로서 설정하도록 교차 포인트을 바꾼다. 또한, 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하여, 편집 처리 장치(3)의 화상 처리부는 믹스 효과로 설정된 트랜지션 시간 및 각종 효과 파라미터에 따른 효과를 실행하도록 믹서(54B)를 제어한다.When executing such a transition effect, in response to a control signal from the CPU 21 of the computer, the matrix switcher 3B of the editing processing apparatus 3 outputs a video signal of a material called "Heli-1" to the output terminal OUT9. The cross point is changed so as to be set as a signal S26 outputted from the reference signal) and set as a signal S24 outputted from the output terminal OUT 7 as a video signal of a raw material called "Ship2". In addition, in response to the control signal from the CPU 21 of the computer, the image processing unit of the editing processing apparatus 3 controls the mixer 54B to execute effects in accordance with the transition time set for the mixed effect and various effect parameters.

다음에, 도 32 내지 도 35를 참조하여, 애니메이션 효과를 타임 라인에 붙이는 방법을 설명한다. 애니메이션 효과를 타임 라인 상에 붙이는 방법은 효과의 종류 및 이벤트에 대한 효과의 설정 방법에 따라 달라지기 때문에 이하의 제 1 케이스 및 제 2 케이스로 나누어 설명한다.Next, with reference to FIGS. 32-35, the method of attaching an animation effect to a timeline is demonstrated. Since the method of attaching an animation effect on the timeline varies depending on the type of the effect and the method of setting the effect for the event, the description is divided into the following first and second cases.

제 1 케이스는 1개의 이벤트에 줌 효과나 라이트 스폿 등의 특수 효과를 갖게 하기 위한 효과를 설정하는 경우이다. 제 1 케이스에 관해서 도 32A 및 도 32B를 참조하여 설명한다.The first case is a case of setting an effect for giving one event a special effect such as a zoom effect or a light spot. The first case will be described with reference to FIGS. 32A and 32B.

트랜지션 효과를 타임 라인 상에 붙인 조작과 같이, 편집 오퍼레이터가 다이얼로그(190)의 선호 패턴 표시부(192)내의 선택된 애니메이션 효과의 아이콘(191B)을 타임 라인(95)상에 마우스(2D)에 의해서 드래그하면, 도 32A에 도시된 바와 같은 아이콘의 음영(192E)이 타임 라인(95)상에 표시된다. 아이콘의 음영(192E)을 타임 라인(95)의 효과 라인(135)의 원하는 위치에 드롭하면, 도 32B에 도시된 바와 같이, 이벤트「002」에 대하여 특수 효과 등의 애니메이션 효과(192F)가 설정된다.As with the operation of pasting the transition effect on the timeline, the editing operator drags the icon 191B of the selected animation effect in the preferred pattern display 192 of the dialog 190 on the timeline 95 by the mouse 2D. Then, the shadow 192E of the icon as shown in FIG. 32A is displayed on the timeline 95. When the shadow 192E of the icon is dropped at a desired position on the effect line 135 of the timeline 95, as shown in FIG. 32B, an animation effect 192F such as a special effect is set for the event "002". do.

또, 도 32B에 도시된 바와 같은 애니메이션 효과를 실행하는 경우 컴퓨터(2)의 CPU(21)로부터의 제어 신호에 응답하여, 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트「002」라고 하는 소재의 비디오 신호를 출력 단자(OUT9)로부터 출력되는 신호(S26)로서 설정하도록 교차 포인트를 전환한다. 또한, 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하여, 편집 처리 장치(3)의 화상 처리부(3B)는 변경 효과에 설정된 트랜지션 시간 및 각종 효과 파라미터에 따른 효과를 실행하도록, 특수 효과 블록(53)을 제어한다.In addition, when executing the animation effect as shown in FIG. 32B, in response to a control signal from the CPU 21 of the computer 2, the matrix switcher 3B of the editing processing apparatus 3 generates the event " 002 ". The intersection point is switched so as to set a video signal of a raw material as a signal S26 output from the output terminal OUT9. In addition, in response to the control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing apparatus 3 executes the effect according to the transition time set in the change effect and various effect parameters. 53).

제 2 케이스는 픽처 인 픽처 효과 등과 같이, 어떤 이벤트에 대하여 효과를 갖는 이벤트를 삽입하기 위한 효과로 설정하는 경우이다. 제 2 케이스를 설명하기 위하여, 아래와 같이 「효과와 클립을 동시에 설정하는 경우」, 「먼저 붙인 효과를, 나중에 붙이는 클립과 같은 길이로 하는 경우」 및 「나중에 붙이는 클립을, 먼저 붙인 효과와 같은 길이로 하는 경우」에 관해서 각각 설명한다.The second case is a case of setting an effect for inserting an event having an effect on a certain event, such as a picture-in-picture effect. In order to explain the second case, "When setting the effect and clip at the same time" as follows, "When the effect to be attached first is the same length as the clip to attach later" and "The clip to attach later, the same length as the effect Will be described in detail.

우선, 효과와 클립을 동시에 설정하는 경우에 관하여, 도 33A 및 도 33B를 참조하여 설명한다.First, the case where the effect and the clip are set at the same time will be described with reference to FIGS. 33A and 33B.

우선, 편집 오퍼레이터가 로그 윈도우에 표시된 클립 카드(179)를 마우스(2D)에 의해서 타임 라인 위에 드래그하면, 도 33A에 도시하는 바와 같은 아이콘의 형체(192G)가 타임 라인(95) 위에 표시된다. 아이콘의 형체(192G)를 오버레이 비디오 라인(136)의 원하는 위치에 드롭하면, 도 33B에 도시하는 바와 같이 오버레이 비디오 라인(136)에, 로그 윈도우(93)로부터 드래그 앤드 드롭된 이벤트 「007」이 부착된다. 또한, 이것과 동시에, 효과 설정 다이얼로그(190)에 현재 설정되어 있는 효과가 자동적으로 효과 라인(135)에 부착된다. 또, 그 효과의 기간으로서 오버레이 비디오 라인(136)에 부착된 이벤트 「007」의 기간에 대응하는 기간이 설정된다.First, when the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D, the shape 192G of the icon as shown in FIG. 33A is displayed on the timeline 95. When the shape 192G of the icon is dropped at the desired position of the overlay video line 136, the event " 007 " dragged and dropped from the log window 93 is added to the overlay video line 136 as shown in Fig. 33B. Attached. At the same time, the effect currently set in the effect setting dialog 190 is automatically attached to the effect line 135. In addition, a period corresponding to the period of the event "007" attached to the overlay video line 136 is set as the period of the effect.

이와 같이, 오버레이 비디오 라인(136)에 원하는 이벤트를 부착하는 만큼, 타임 라인의 효과 라인(135)에 자동적으로 효과가 설정됨으로써 조작성을 더욱 향상시킬 수 있다.In this way, as long as the desired event is attached to the overlay video line 136, the effect is automatically set on the effect line 135 of the timeline, thereby further improving operability.

도 33B에 도시하는 바와 같은 애니메이션 효과를 실행하는 경우 컴퓨터(2)의 CPU21로부터의 제어 신호에 응답하여, 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트 「002」라는 소재의 비디오 신호를 출력 단자 OUT(9)로부터 출력되는 신호(S26)로서 설정하고, 같은 이벤트 「007」라는 소재의 비디오 신호를 출력 단자(OUT7)로부터 출력되는 신호(S24)로서 설정하도록 교차 포인트를 바꾼다. 또, 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하고, 편집 처리 장치(3)의 화상 처리부(3B)는 변경 효과에 설정된 트랜지션 시간 및 각종의 효과 파라미터에 따른 효과를 실행하도록 특수 효과 블록(53)을 제어한다.When executing the animation effect as shown in FIG. 33B, in response to the control signal from the CPU21 of the computer 2, the matrix switcher unit 3B of the editing processing device 3 causes the video signal of the raw material of the event "002" to appear. Is set as the signal S26 output from the output terminal OUT 9, and the crossing point is changed so as to set the video signal of the same event "007" as the signal S24 output from the output terminal OUT7. In addition, in response to the control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing apparatus 3 executes the special effect block (to execute the effect according to the transition time set for the change effect and various effect parameters). 53).

다음에, 먼저 붙인 효과를 나중에 붙이는 클립과 같은 길이로 하는 경우에 관해서 도 34A 및 도 34B를 참조하여 설명한다.Next, a case in which the pasted effect is the same length as the clip pasted later will be described with reference to FIGS. 34A and 34B.

우선, 편집 오퍼레이터가 도 34B에 도시하는 바와 같이 다이얼로그(19O)에 있어서 선택된 애니메이션 효과의 아이콘(191B)을 타임 라인(95)의 효과 라인(135) 위에 마우스(2D)로 드래그하고, 원하는 이벤트 위가 되도록 드롭함으로써 효과 라인(135) 위에 원하는 효과(192K)를 붙인다.First, as shown in Fig. 34B, the editing operator drags the icon 191B of the animation effect selected in the dialog 19O onto the effect line 135 of the timeline 95 with the mouse 2D, and then over the desired event. By dropping so as to attach the desired effect (192K) on the effect line 135.

다음에, 편집 오퍼레이터가 도 34A에 도시하는 바와 같이, 로그 윈도우에 표시된 클립 카드(179)를 마우스(2D)로 타임 라인 위에 드래그한다. 그리고 도 33B에 도시하는 바와 같이, 드래그한 클립 카드를 타임 라인의 오버레이 비디오 라인(136)에 드롭하면, 원하는 이벤트(192L)가 오버레이 비디오 라인(136)에 붙여진다. 그리고 전경 화상으로서 부착된 이벤트(192L)의 기간에 따라 먼저 부착된 효과(192K)의 기간이 변경되고, 그 결과, 효과 라인(135)에는 상기 나중에 부착된 이벤트(192L)의 기간에 대응한 기간을 갖는 효과(192M)가 표시된다. 즉, 나중에 부착된 이벤트(192L)의 기간에 따라 효과(192M)의 트랜지션 기간이 변경된다.Next, as shown in Fig. 34A, the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D. 33B, when the dragged clip card is dropped on the overlay video line 136 of the timeline, the desired event 192L is pasted to the overlay video line 136. As shown in FIG. The period of the effect 192K attached first is changed according to the period of the event 192L attached as the foreground image, and as a result, the effect line 135 has a period corresponding to the period of the event 192L attached later. An effect 192M is displayed. In other words, the transition period of the effect 192M is changed according to the duration of the event 192L attached later.

이렇게 해서, 상기 전경 화상으로서 부착된 이벤트(192L)의 기간에 따라, 먼저 부착된 효과의 기간을 자동적으로 변경함으로써, 효과의 기간을 재설정할 필요가 없기 때문에 편집 조작성을 향상시킬 수 있다.In this way, by automatically changing the duration of the attached effect first according to the duration of the event 192L attached as the foreground image, the editing operability can be improved because it is not necessary to reset the duration of the effect.

도 34B에 도시하는 바와 같은 애니메이션 효과를 실행하는 경우 컴퓨터(2)의 CPU(21)로부터의 제어 신호에 응답하고, 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트「002」라는 소재의 비디오 신호를 출력 단자(OUT9)로부터 출력되는 신호(S26)로서 설정하고, 같은 이벤트 「002」라는 소재의 비디오 신호를 출력 단자(OUT7)로부터 출력되는 신호(S24)로서 설정하도록 교차 포인트를 바꾼다. 또, 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하며, 편집 처리 장치(3)의 화상 처리부(3B)는 상기 픽처 인 픽처 효과에 설정된 트랜지션 시간 및 각종의 효과 파라미터에 따른 효과를 실행하도록 스위처 블록(52)을 제어한다.When the animation effect as shown in FIG. 34B is executed, in response to a control signal from the CPU 21 of the computer 2, the matrix switcher unit 3B of the editing processing apparatus 3 receives the raw material of the event "002". Video signal of the same event "002" is set as the signal S24 output from the output terminal OUT7, and the intersection point is changed so as to set the video signal of the same event "002" as the signal S26 output from the output terminal OUT9. . In addition, in response to a control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing apparatus 3 executes the switcher so as to execute effects in accordance with the transition time set for the picture-in-picture effect and various effect parameters. Block 52 is controlled.

다음에, 나중에 붙이는 클립을 먼저 붙인 효과와 같은 길이로 하는 경우에 관해서 도 35A 및 도 35B를 참조하여 설명한다.Next, the case where the clip to be attached later is the same length as the effect of attaching it first will be described with reference to FIGS. 35A and 35B.

우선, 편집 오퍼레이터가 도 35A에 도시하는 바와 같이 다이얼로그(190)에 있어서 선택된 애니메이션 효과의 아이콘(191B)을 타임 라인(95)의 효과 라인(135) 위에 마우스(2D)로 드래그하고, 원하는 이벤트 위에 이루어지도록 드롭함으로써, 효과 라인(135) 위에 원하는 효과(1920)를 부착한다.First, as shown in Fig. 35A, the editing operator drags the icon 191B of the animation effect selected in the dialog 190 on the effect line 135 of the timeline 95 with the mouse 2D, and then over the desired event. By dropping to make, the desired effect 1920 is attached over the effect line 135.

다음에, 편집 오퍼레이터가 도 35A에 도시하는 바와 같이 로그 윈도우에 표시된 클립 카드(179)를 마우스(2D)로 타임 라인 위에 드래그한다. 그리고 도 35B에 도시하는 바와 같이 드래그한 클립 카드를 타임 라인의 효과 라인(135)이 먼저 붙여진 효과(1920)에 겹치도록 드롭하면, 이벤트(192P)가 오버레이 비디오 라인(136)에 부착된다. 그리고 먼저 부착된 효과(1920)의 기간에 따라 전경 화상으로서 부착된 이벤트(192N)의 기간이 변경되고, 그 결과, 오버레이 비디오 라인(136)에는 상기 먼저 부착된 효과(1920)의 기간에 대응한 기간을 가진 이벤트(192P)가 표시된다. 즉, 상기 먼저 부착된 효과(1920)의 기간과 나중에 붙여진 이벤트(192P)의 기간이 일치하도록 이벤트(192P)의 아웃점이 변경된다는 것이다.Next, the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D as shown in Fig. 35A. Then, as shown in Fig. 35B, when the dragged clip card is dropped to overlap the effect 1920 to which the effect line 135 of the timeline is pasted, the event 192P is attached to the overlay video line 136. The duration of the event 192N attached as the foreground image is changed according to the duration of the first attached effect 1920, and as a result, the overlay video line 136 corresponds to the duration of the first attached effect 1920. An event 192P with a duration is displayed. In other words, the out point of the event 192P is changed so that the duration of the first attached effect 1920 matches the duration of the later attached event 192P.

이렇게 하여, 상기 먼저 부착된 효과 기간과 나중에 붙여진 이벤트의 기간이 일치하도록 함으로써, 이벤트의 기간을 변경하는 작업을 생략할 수 있으므로 편집 조작성을 향상시킬 수 있다.In this way, the operation of changing the duration of the event can be omitted by making the first attached effect period coincide with the duration of the later attached event, thereby improving the edit operability.

도 35B에 도시하는 바와 같은 애니메이션 효과를 실행하는 경우 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하고, 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트 「006」이라는 소재의 비디오 신호를 출력 단자(OUT9)로부터 출력되는 신호(S26)로서 설정하고, 이벤트 「003」이라는 소재의 비디오 신호를 출력 단자(OUT7)로부터 출력되는 신호(S24)로서 설정하도록 교차 포인트를 바꾼다. 또, 컴퓨터의 CPU(21)로부터의 제어 신호에 응답하고, 편집 처리 장치(3)의 화상 처리부는 변경 효과에 설정된 트랜지션 시간 및 각종의 효과 파라미터에 따른 효과를 실행하도록 특수 효과 블록(53)을 제어한다.When executing the animation effect as shown in FIG. 35B, in response to a control signal from the CPU 21 of the computer, the matrix switcher unit 3B of the editing processing apparatus 3 sends a video signal of the raw material of the event "006". Is set as the signal S26 output from the output terminal OUT9, and the intersection point is changed so as to set the video signal of the raw material "event" as the signal S24 output from the output terminal OUT7. In addition, in response to a control signal from the CPU 21 of the computer, the image processing unit of the editing processing apparatus 3 executes the special effect block 53 so as to execute effects in accordance with the transition time set for the change effect and various effect parameters. To control.

다음에, 타임 라인(95)을 이용해서 효과를 타임 라인(95)에 부착하는 방법에 관해서 도 36A 및 도 36B를 참조하여 설명한다.Next, a method of attaching an effect to the timeline 95 using the timeline 95 will be described with reference to FIGS. 36A and 36B.

우선, 편집 오퍼레이터가 뷰어 윈도우(92)의 TL 버튼(126)을 클릭 입력하면 타임 라인 제어 모드로 바꾼다. 타임 라인 제어 모드란, 타임 라인(95)과 뷰어 윈도우(92)를 시간적으로 관련시킨 제어 모드이다. 따라서 타임 라인(95)에 있어서의 현재 라인(139)의 표시 위치의 타임 코드에 대응하는 비디오 화상이 뷰어 윈도우(92)의 뷰어(106)에 표시된다.First, when the editing operator clicks and inputs the TL button 126 of the viewer window 92, the operator changes to the timeline control mode. The timeline control mode is a control mode in which the timeline 95 and the viewer window 92 are temporally associated with each other. Therefore, the video image corresponding to the time code of the display position of the current line 139 in the time line 95 is displayed in the viewer 106 of the viewer window 92.

편집 오퍼레이터가 파일의 원하는 프레임을 검색하기 위하여 디바이스 제어부(96)의 슬라이더부(120)를 조작하면, 그것에 따라 현재 라인(139)은 타임 라인(95) 위를 이동한다. 즉, 편집 오퍼레이터가 재생이나 죠그 주행 등의 디바이스 제어를 행하면, 컴퓨터(2)는 현재 라인(139)이 타임 라인(95) 위를 오른쪽으로 이동하도록 모니터(2D)에 표시되는 그래픽 이용자 인터페이스(90)를 변경하고, 이것과 연동하여 뷰어 윈도우(92)의 뷰어(106)에 비디오 화상이 표시되도록 각 소스 디바이스를 제어한다.When the editing operator manipulates the slider portion 120 of the device control portion 96 to retrieve the desired frame of the file, the current line 139 moves over the time line 95 accordingly. That is, when the editing operator performs device control such as playback or jog driving, the computer 2 causes the graphic user interface 90 to be displayed on the monitor 2D so that the current line 139 moves right over the timeline 95. ) And control each source device so that a video image is displayed in the viewer 106 of the viewer window 92 in conjunction with this.

다음에, 편집 오퍼레이터가 뷰어 윈도우(92)의 뷰어(106)에 표시된 비디오 이미지를 보면서, 원하는 위치에서 마크 인 버튼(115)을 클릭하면 CPU(21)는 마크 인 버튼(115)이 눌렸을 때에 타임 라인(95)상에서 현재 라인(139)이 존재하고 있는 위치에 인점 포인트를 나타내는 플래그(166C)와 마크 라인(166C)을 표시한다.Next, when the editing operator clicks the mark in button 115 at the desired position while viewing the video image displayed in the viewer 106 of the viewer window 92, the CPU 21 causes the CPU 21 to press when the mark in button 115 is pressed. A flag 166C and a mark line 166C indicating an in-point point are displayed at the position where the current line 139 is present on the timeline 95.

또, 상기 인점이 마킹된 타이밍에 있어서, 뷰어 윈도우(92)상의 인점 표시란(110)에는 뷰어(106)에 표시되어 있는 프레임의 스탬프 픽처에서는 없고, 타임 라인 제어 모드에서 인점이 마킹된 것을 나타내기 위해 플래그(116C)와 같은 화상이 표시된다.In the timing at which the point is marked, the point display field 110 on the viewer window 92 indicates that the point is marked in the timeline control mode, not in the stamp picture of the frame displayed in the viewer 106. An image such as flag 116C is displayed for the purpose of exiting.

또한, 편집 오퍼레이터가 디바이스 제어부(96)의 슬라이더부(120)를 조작해서 파일을 검색하고, 원하는 위치에서 마크 아웃 버튼(116)을 클릭하면, CPU(21)는 마크 아웃 버튼(116)이 눌렸을 때에 타임 라인(95)상에 있어서 현재 라인(139)이 존재하고 있는 위치에 아웃점 포인트를 나타내는 플래그(166B)와 마크 라인(166D)을 표시한다.When the editing operator operates the slider 120 of the device controller 96 to search for a file and clicks the mark out button 116 at a desired position, the CPU 21 presses the mark out button 116. On the timeline 95, a flag 166B and a mark line 166D indicating an out point point are displayed at the position where the current line 139 is present.

또, 아웃점이 마킹된 타이밍에 있어서, 뷰어 윈도우(92)상의 아웃점 표시란(112)에는 뷰어(106)에 표시되어 있는 프레임의 스탬프 픽처에서는 없고, 타임 라인 제어 모드에 있어서 아웃점이 마킹된 것을 나타내기 위해 플래그(116D)와 같은 화상이 표시된다.In the timing at which the out point is marked, the out point display field 112 on the viewer window 92 indicates that the out point is marked in the timeline control mode, not in the stamp picture of the frame displayed in the viewer 106. An image, such as flag 116D, is displayed to bet.

다음에, 편집 오퍼레이터는 도 36B에 도시하는 바와 같이, 로그 윈도우(93)의 클립 카드(179) 중에서 원하는 클립 카드(179)를 마우스(2D)에 의해서 드래그하고, 설정한 인점의 마크 라인(166C)과 아웃점의 마크 라인(166D) 사이의 오버레이 비디오 라인(136) 위에 드롭한다. 그 결과, 오버레이 비디오 라인(136)상의 마크 라인(166C) 및 마크 라인(166D) 사이에 로그 윈도우(93)로부터 드롭된 이벤트가 삽입된다. 또, 도 36B에 도시하는 바와 같이 스텝(SP407)에 있어서 설정되어 있는 효과가 자동적으로 효과 라인(135)상의 마크 라인(166C) 및 마크 라인(166D) 사이에 삽입된다.Next, as shown in FIG. 36B, the editing operator drags the desired clip card 179 from the clip card 179 of the log window 93 with the mouse 2D, and sets the mark line 166C of the set point. ) And the overlay video line 136 between the mark line 166D of the out point. As a result, an event dropped from the log window 93 is inserted between the mark line 166C and the mark line 166D on the overlay video line 136. 36B, the effect set in step SP407 is automatically inserted between the mark line 166C and the mark line 166D on the effect line 135. As shown in FIG.

만약, 로그 윈도우(93)로부터 드롭되는 클립의 지속 기간과 마크 라인(166C) 및 마크 라인(166D)에 의해서 규정되는 지속 기간이 다른 경우 마크 라인(166C) 및 마크 라인(166D)에 의해서 규정되는 지속 기간을 우선하도록 하고 있다. 즉, 마크 라인(166C) 및 마크 라인(166D)에 의해서 규정되는 지속 기간에 따라 로그 윈도우(93)로부터 드롭되는 클립의 아웃점의 타임 코드를 보정하도록 함으로써 마크 라인(166C) 및 마크 라인(166D)에 의해서 규정되는 지속 기간에 대해서 로그 윈도우(93)로부터 드롭되는 클립의 지속 기간을 일치시킬 수 있다.If the duration of the clip dropped from the log window 93 and the duration defined by the mark line 166C and the mark line 166D are different, they are defined by the mark line 166C and the mark line 166D. Duration is prioritized. That is, the mark line 166C and the mark line 166D by correcting the time code of the out point of the clip dropped from the log window 93 in accordance with the duration defined by the mark line 166C and the mark line 166D. It is possible to match the duration of the clip dropped from the log window 93 to the duration defined by.

또한, 도 36A 및 도 36B에서는 오버레이 비디오 라인(136)에 이벤트를 붙이는 예를 설명하였지만, 이와 같이, 다른 라인(서버 오디오 라인(134), 보이스 오버 라인(138A, 138B)에도 클립을 붙일 수 있다.In addition, although an example of attaching an event to the overlay video line 136 has been described with reference to FIGS. 36A and 36B, the clip can also be attached to other lines (server audio line 134 and voice over line 138A, 138B). .

이상과 같은 조작 및 제어에 의해서, 이미 타임 라인 상에 붙어 있는 배경 이벤트의 위치를 타임 라인 상에서 보면서, 타임 라인(95)상에 있어서 효과 및 효과에 관한 전경 이벤트의 삽입되는 구간을 설정할 수 있다. 또, 이미 타임 라인 위에 부착되어 있는 배경 이벤트의 인점 및 아웃점 등의 편집점에 구애되지 않고, 임의의 위치 및 기간에 효과 및 전경 이벤트를 부착 수 있다.By the above operation and control, it is possible to set the section in which the foreground event relating to the effect and the effect is inserted on the timeline 95 while looking at the position of the background event already attached to the timeline on the timeline. In addition, effects and foreground events can be attached at arbitrary positions and periods, regardless of edit points such as in and out points of background events already attached on the timeline.

스텝(SP409)의 효과의 부착 처리 및 전경 이벤트의 부착 처리가 종료하면 다음 스텝(SP410)으로 진행한다.When the process of attaching the effect of step SP409 and the process of attaching the foreground event are finished, the process proceeds to the next step SP410.

스텝(SP410)에 있어서, 편집 오퍼레이터의 제어에 따라, 컴퓨터(2)의 CPU(21)는 타임 라인(95) 위에 작성한 프로그램을 프리뷰하는 프리뷰 처리를 실행한다. 구체적으로는 편집 오퍼레이터가 프리뷰 버튼 「PVW」(123B)를 클릭하면 타임 라인(95)의 현재 라인(139)의 위치로부터 프리뷰가 개시된다. 프리뷰 중에는, 컴퓨터(2)의 제어에 의해서 타임 라인(95)상의 프로그램에 대응한 영상 및 음성이 국소 기억 장치(8)로부터 재생된다. 또한, 컴퓨터(2)의 제어에 의해서 타임 라인(95)상의 프로그램에 대응한 영상 처리 및 음성 처리가 행하여지도록 편집 처리 장치(3)는 공급된 영상 소재 및 음성 소재를 처리하고 컴퓨터(2)에 출력한다. 컴퓨터(2)의 CPU(21)는 공급된 영상이 뷰어 윈도우(92)의 뷰어(106)에 표시하는 바와 같이 표시 제어기(23)를 제어하는 동시에, 표시되어 있는 영상과 대응하도록 타임 라인(95)상에 있어서 현재 라인(139)의 타임 라인(95)상에 있어서의 위치를 가변하도록 표시 제어기(23)를 제어한다.In step SP410, under the control of the editing operator, the CPU 21 of the computer 2 executes a preview process of previewing the program created on the timeline 95. Specifically, when the editing operator clicks the preview button "PVW" 123B, the preview is started from the position of the current line 139 of the timeline 95. During the preview, video and audio corresponding to the program on the timeline 95 are reproduced from the local memory device 8 under the control of the computer 2. In addition, the editing processing apparatus 3 processes the supplied video material and audio material so that video processing and audio processing corresponding to the program on the timeline 95 are performed under the control of the computer 2. Output The CPU 21 of the computer 2 controls the display controller 23 as displayed in the viewer 106 of the viewer window 92, and at the same time the timeline 95 corresponds to the displayed image. Display controller 23 is controlled to vary the position of current line 139 on timeline 95.

현재 라인(139)이 뷰어 윈도우(92)의 뷰어(106)에 표시되어 있는 영상과 대응하도록 이동하고 있기 때문에, 편집 오퍼레이터는 뷰어 윈도우(92)의 뷰어(106)에 표시되어 있는 영상을 보면서, 뷰어(106)에 표시되어 있는 영상이 타임 라인(95) 위에 작성된 프로그램의 어떤 위치의 영상인가를 용이하게 파악할 수 있는 동시에, 타임 라인(95) 위에 작성된 프로그램의 어떤 위치까지 뷰잉이 종료하였는지를 용이하게 파악할 수 있다.Since the current line 139 is moving to correspond to the image displayed in the viewer 106 of the viewer window 92, the editing operator looks at the image displayed in the viewer 106 of the viewer window 92. The image displayed on the viewer 106 can be easily identified at which position of the program created on the timeline 95, and at the same time, to which position of the program created on the timeline 95, the viewing is finished. I can figure it out.

다음으로, 상기 프리뷰 때의 편집 처리 장치(3)의 처리에 관해서 도 37을 참조하여 상세하게 설명한다. 도 37A부터 도 37C는 프리뷰를 실행하고 있을 때의 어느 타이밍에 있어서의 타임 라인의 모양을 나타내고 있는 도면이다.Next, the process of the editing processing apparatus 3 at the time of preview is demonstrated in detail with reference to FIG. 37A to 37C are diagrams showing the shape of a timeline at a timing when previewing is executed.

도 37은 이벤트(E0)와 이벤트(E1)의 사이에 트랜지션 효과 「Wipe」가 지정되어 있는 예를 나타내고 있다. 도 37A부터 도 37C는 프리뷰를 실행 중 어느 타이밍에 있어서의 타임 라인의 모양을 각각 나타내고 있는 도면이다.37 shows an example in which the transition effect "Wipe" is specified between the event E0 and the event E1. 37A to 37C are diagrams each showing the shape of the timeline at any timing during the preview execution.

도 37A는 효과 실행 전으로서 이벤트(E0)가 재생되어 있는 상태를 나타내고 있다. 이 때에는 컴퓨터(2)는 이벤트(E0)를 배경 이벤트로서 처리하도록 편집 처리 장치(3)를 제어한다. 이벤트(E0)의 신호가 국소 기억 장치로부터의 출력 신호(S13A)로서 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 입력 단자(IN4)에 공급되어 있는 경우를 예를 들어 이 때의 편집 처리 장치(3)의 제어를 보다 상세하게 설명한다.37A shows a state in which the event E0 is reproduced before the effect is executed. At this time, the computer 2 controls the editing processing apparatus 3 to process the event E0 as a background event. The case where the signal of the event E0 is supplied to the input terminal IN4 of the matrix switcher part 3B of the edit processing apparatus 3 as the output signal S13A from the local memory device, for example, edit at this time The control of the processing apparatus 3 is demonstrated in more detail.

편집 처리 장치(3)의 시스템 제어부(3A)는 우선, 입력 단자(IN4)와 출력 단자(OUT9)를 접속하기 위한 교차 포인트(P49)를 액티브하게 행하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN4)에 공급된 이벤트(E0)의 비디오 신호(S13A)는 출력 단자(OUT9)로부터 출력 비디오 신호(S26)로서 출력되어 화상 처리부(3C)에 공급된다.The system control unit 3A of the editing processing apparatus 3 first controls the matrix switcher unit 3B to actively perform the intersection point P49 for connecting the input terminal IN4 and the output terminal OUT9. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is output from the output terminal OUT9 as the output video signal S26 and supplied to the image processing unit 3C.

출력 단자(OUT9)로부터 출력된 출력 신호(S26)는 화상 처리부(3C)의 디멀티플렉서(51D)에 공급된다. 디멀티플렉서(51D)는 SDI 포맷의 데이터의 페이로드부로부터 디지털 비디오 신호만을 추출한다. 화상 처리부(3C)에 있어서, 디지털 비디오 신호는 스위처 블록(52), 특수 효과 블록(53) 및 믹서 블록(54)을 통해서 출력 비디오 신호(S32)로서 출력된다.The output signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing section 3C. The demultiplexer 51D extracts only the digital video signal from the payload portion of the data in the SDI format. In the image processing unit 3C, the digital video signal is output as the output video signal S32 through the switcher block 52, the special effect block 53, and the mixer block 54. As shown in FIG.

화상 처리부(3C)로부터 출력된 디지털 비디오 신호(S32)는 다시 매트릭스 스위처부(3B)의 입력 단자(IN10)에 공급된다. CPU(21)는 편집 처리 장치(3)의 시스템 제어부(3A)를 통해서 입력 단자(IN10)와 출력 단자 OUT(5)를 접속하기 위한 교차 포인트(P105)를 액티브하게 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN10)에 공급된 디지털 비디오 신호(S32)는 출력 프로세서(46)를 통해서 출력 단자 OUT(5)로부터 디지털 비디오 신호(S2)로서 컴퓨터(2)에 출력된다.The digital video signal S32 output from the image processing section 3C is supplied to the input terminal IN10 of the matrix switcher section 3B again. The CPU 21 controls the matrix switcher unit 3B to activate the intersection point P105 for connecting the input terminal IN10 and the output terminal OUT 5 through the system control unit 3A of the editing processing apparatus 3. To control. As a result, the digital video signal S32 supplied to the input terminal IN10 is output from the output terminal OUT 5 to the computer 2 via the output processor 46 as the digital video signal S2.

편집 처리 장치(3)로부터 출력된 디지털 비디오 신호(S2)는 컴퓨터(2)의 비디오 프로세서(22)에 공급되고, 표시 제어기(23)를 통해서 컴퓨터 모니터(2B) 뷰어 윈도우(92)에 표시된다. 그 결과, 국소 기억 장치(8)로부터 재생 신호(S13A)로서 재생된 이벤트(E0)의 비디오 신호가 뷰어 윈도우에 표시된다.The digital video signal S2 output from the editing processing apparatus 3 is supplied to the video processor 22 of the computer 2 and displayed on the computer monitor 2B viewer window 92 via the display controller 23. . As a result, the video signal of the event E0 reproduced from the local storage device 8 as the reproduction signal S13A is displayed in the viewer window.

도 37B는 도 37A에 도시한 상태로부터 또한 프리뷰가 진행된 상태를 나타내고, 이벤트(E0)와 이벤트(E1)의 사이에 설정된 트랜지션 효과 「Wipe」가 실행되기 시작하는 타이밍을 나타내고 있다.FIG. 37B shows a state in which the preview has progressed from the state shown in FIG. 37A, and shows the timing at which the transition effect "Wipe" set between the event E0 and the event E1 starts to be executed.

상기 타이밍에 있어서, 컴퓨터(2)는 상기 이벤트(E0)를 배경 이벤트로서 처리하고, 이벤트(E1)를 전경 이벤트로서 처리하도록 편집 처리 장치(3)를 제어한다. 상술한 바와 같이, 이벤트(E0)의 신호가 국소 기억 장치로부터의 출력 신호(S13A)로서 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 입력 단자(IN4)에 공급되고, 이벤트(E1)의 신호가 국소 기억 장치로부터의 출력 신호(S13B)로서 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 입력 단자(IN5)에 공급되어 있는 경우를 예로 들어 이 때의 편집 처리 장치(3)의 제어를 보다 상세하게 설명한다.At this timing, the computer 2 controls the editing processing apparatus 3 to process the event E0 as a background event and to process the event E1 as a foreground event. As described above, the signal of the event E0 is supplied as an output signal S13A from the local memory device to the input terminal IN4 of the matrix switcher portion 3B of the editing processing apparatus 3, and the event E1 Is an example of a case in which the signal is supplied to the input terminal IN5 of the matrix switcher section 3B of the editing processing apparatus 3 as an output signal S13B from the local memory device. Will be described in more detail.

편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트(E0)의 비디오 신호를 화상 처리 장치(3C)에 공급하기 때문에, 교차 포인트의 제어는 행하지 않아도 된다. 왜냐하면, 컴퓨터(2)에 의해서, 이벤트(E0)는 이미 배경 이벤트로서 처리되도록 편집 처리 장치(3)가 제어되어 있으므로, 매트릭스 스위처부(3B)의 교차 포인트(P49)를 액티브로 해 두면 입력 단자(IN4)에 공급된 이벤트(E0)의 비디오 신호(S13A)는 출력 단자(OUT9)로부터 출력 비디오 신호(S26)로서 화상 처리부(3C)에 출력되기 때문이다.Since the matrix switcher unit 3B of the editing processing apparatus 3 supplies the video signal of the event E0 to the image processing apparatus 3C, it is not necessary to control the intersection point. This is because the editing processing apparatus 3 is already controlled by the computer 2 so as to process the event E0 as a background event. Therefore, when the intersection point P49 of the matrix switcher unit 3B is made active, the input terminal is activated. This is because the video signal S13A of the event E0 supplied to IN4 is output from the output terminal OUT9 to the image processing unit 3C as the output video signal S26.

화상 처리부(3C)에 출력 신호(S26)로서 공급된 이벤트(E0)의 비디오 신호는 디멀티플렉서(51D)를 통해서 스위처 블록(52)의 비디오 신호 처리 회로(52F)에 공급된다. 비디오 신호 처리 회로(52E)는 공급된 이벤트(E0)의 비디오 신호에 대해서 와이프 신호 발생 회로(52B)로부터의 와이프 제어 신호에 의거하여 와이프 효과를 실시하는 처리를 행한다. 와이프 처리된 이벤트(E0)의 비디오 신호는 믹서 회로(54B)에 공급된다.The video signal of the event E0 supplied as the output signal S26 to the image processing unit 3C is supplied to the video signal processing circuit 52F of the switcher block 52 through the demultiplexer 51D. The video signal processing circuit 52E performs a process of performing a wipe effect on the supplied video signal of the event E0 based on the wipe control signal from the wipe signal generation circuit 52B. The video signal of the wiped event E0 is supplied to the mixer circuit 54B.

또한, 이벤트(E0)에 관한 키 신호는 이벤트(E0)의 비디오 신호에 대한 매트릭스 스위처부(3B)에 있어서의 라우팅 처리 및 비디오 신호 처리 회로(52F)에 있어서의 와이프 처리와 같이, 매트릭스 스위처부(3B)에 있어서의 라우팅 처리가 행하여지고, 또한 키 신호 처리 회로(52D)에 있어서의 와이프 처리가 행하여진다.Further, the key signal related to the event E0 is the matrix switcher part, like the routing process in the matrix switcher part 3B to the video signal of the event E0 and the wipe process in the video signal processing circuit 52F. The routing process in (3B) is performed, and the wipe process in the key signal processing circuit 52D is performed.

한편, 국소 기억 장치(8)로부터 재생된 이벤트(E1)의 비디오 신호를 컴퓨터(2)에 공급하기 위해, 편집 처리 장치(3)의 시스템 제어부(3A)는 먼저 입력 단자(IN5)와 출력 단자(OUT7)를 접속하기 위한 교차 포인트(P57)를 액티브하게 하도록 매트릭스 스위처부(3B)를 제어한다. 그 결과, 입력 단자(IN5)에 공급된 이벤트(E1)의 비디오 신호(S13B)는 출력 단자(OUT7)로부터 출력 비디오 신호(S24)로서 출력되어 화상 처리부(3C)에 공급된다. 출력 단자(OUT7)로부터 출력된 출력 신호(S26)는 화상 처리부(3C)의 디멀티플렉서(51B)에 공급된다. 디멀티플렉서(51B)로부터 출력된 이벤트(E1)의 비디오 신호는 스위처 블록(52)의 비디오 신호 처리 회로(52E)에 공급된다. 비디오 신호 처리 회로(52E)는 공급된 이벤트(E1)의 비디오 신호에 대해서 와이프 신호 발생 회로(52A)로부터의 와이프 제어 신호에 의거하여 와이프 효과를 실시하는 처리를 행한다. 와이프 처리된 이벤트(E1)의 비디오 신호는 믹서 회로(54B)에 공급된다.On the other hand, in order to supply the video signal of the event E1 reproduced from the local storage device 8 to the computer 2, the system control section 3A of the editing processing device 3 first inputs the input terminal IN5 and the output terminal. The matrix switcher section 3B is controlled to activate the crossing point P57 for connecting OUT7. As a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output from the output terminal OUT7 as the output video signal S24 and supplied to the image processing unit 3C. The output signal S26 output from the output terminal OUT7 is supplied to the demultiplexer 51B of the image processing section 3C. The video signal of the event E1 output from the demultiplexer 51B is supplied to the video signal processing circuit 52E of the switcher block 52. The video signal processing circuit 52E performs a process of performing a wipe effect on the supplied video signal of the event E1 based on the wipe control signal from the wipe signal generation circuit 52A. The video signal of the wiped event E1 is supplied to the mixer circuit 54B.

또한, 이벤트(E1)에 관한 키 신호는 이벤트(E1)의 비디오 신호에 대한 매트릭스 스위처부(3B)에 있어서의 라우팅 처리 및 비디오 신호 처리 회로(52E)에 있어서의 와이프 처리와 같이 매트릭스 스위처부(3B)에 있어서의 라우팅 처리가 행하여지고, 또한 키 신호 처리 회로(52C)에 있어서의 와이프 처리가 행하여진다.The key signal related to the event E1 is the same as the routing switch in the matrix switcher unit 3B for the video signal of the event E1 and the wipe process in the video signal processing circuit 52E. The routing process in 3B) is performed, and the wipe process in the key signal processing circuit 52C is performed.

믹서 회로(54B)는 와이프 처리된 이벤트(E1)의 비디오 신호와 와이프 처리된 이벤트(E0)의 비디오 신호를 믹스하고, 믹스한 신호를 출력 신호(S32)로서 출력한다.The mixer circuit 54B mixes the video signal of the wiped event E1 and the video signal of the wiped event E0, and outputs the mixed signal as an output signal S32.

화상 처리부(3C)로부터 출력된 디지털 비디오 신호(S32)는 다시 매트릭스 스위처부(3B)를 통해서 컴퓨터(2)에 공급된다. 그 결과, 국소 기억 장치(8)로부터 재생된 이벤트(E0)의 영상과 이벤트(E1)의 영상에 의거하여 생성된 와이프 영상이 뷰어 윈도우(92)에 표시된다.The digital video signal S32 output from the image processing section 3C is supplied to the computer 2 again via the matrix switcher section 3B. As a result, the video of the event E0 reproduced from the local memory device 8 and the wipe image generated based on the video of the event E1 are displayed in the viewer window 92.

도 37C는 도 37B에 도시한 상태로부터 다시 프리뷰가 진행한 상태를 나타내고, 이벤트(E0)와 이벤트(E1)의 사이에 설정된 트랜지션 효과 「wipe」가 종료한 타이밍을 나타내고 있다.FIG. 37C shows a state where the preview has progressed again from the state shown in FIG. 37B, and shows the timing when the transition effect "wipe" set between the event E0 and the event E1 ends.

와이프 처리가 행하여지고 있을 때에는 컴퓨터(2)는 이벤트(E0)를 배경 이벤트로서 처리하고 이벤트(E1)를 전경 이벤트로서 처리하였지만 와이프 처리가 종료한 타이밍에 있어서 컴퓨터(2)는 이벤트(E0)를 대신해서 이벤트(E1)를 배경 이벤트로서 처리하도록 편집 처리 장치(3)를 제어한다. 이 때의 편집 처리 장치(3)의 제어를 보다 상세하게 설명한다.When the wiping process is being performed, the computer 2 processes the event E0 as a background event and processes the event E1 as a foreground event, but at the timing at which the wipe process ends, the computer 2 processes the event E0. Instead, the editing processing apparatus 3 is controlled to process the event E1 as a background event. The control of the editing processing apparatus 3 at this time will be described in more detail.

우선, 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트(E0)의 비디오 신호를 화상 처리 장치(3C) 및 컴퓨터(2)에 공급할 필요가 없으므로 지금까지 활동적이었던 입력 단자(IN4)와 출력 단자(OUT9)를 접속하기 위한 교차 포인트(P49)를 액티브로 변경한다. 그 결과, 입력 단자(IN4)에 공급된 이벤트(E0)의 비디오 신호(S13A)는 출력 단자(OUT9)로부터 출력되지 않게 된다. 한편, 이벤트(E0) 대신에 이벤트(E1)를 배경 비디오로서 처리하지 않으면 안 되므로 편집 처리 장치(3)의 매트릭스 스위처부(3B)는 이벤트(E1)의 신호가 공급되어 있는 입력 단자(IN5)와 출력 단자(OUT9)를 접속하기 위한 교차 포인트(P59)를 액티브로 한다. 그 결과, 입력 단자(IN5)에 공급되어 있는 이벤트(E1)의 비디오 신호(S13B)는 출력 단자(OUT9)로부터 출력된다.First, since the matrix switcher 3B of the editing processing apparatus 3 does not need to supply the video signal of the event E0 to the image processing apparatus 3C and the computer 2, the input terminal IN4 which has been active so far The crossing point P49 for connecting the output terminal OUT9 is changed to active. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is not output from the output terminal OUT9. On the other hand, since the event E1 must be processed as the background video instead of the event E0, the matrix switcher part 3B of the editing processing apparatus 3 inputs the input terminal IN5 to which the signal of the event E1 is supplied. And cross point P59 for connecting to output terminal OUT9 are made active. As a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output from the output terminal OUT9.

이와 같이, 효과의 실행 타이밍에 따라 적절한 신호가 출력되도록 편집 처리 장치(3)의 매트릭스 스위처부(3B)의 교차 포인트를 자동적으로 제어하고 있으므로, 편집 오퍼레이터는 타임 라인(95) 위에 원하는 프로그램을 작성하는 만큼 작성한 프로그램에 대응한 비디오 프로그램을 자동으로 작성할 수 있다.In this way, since the intersection point of the matrix switcher portion 3B of the editing processing apparatus 3 is automatically controlled so that an appropriate signal is output in accordance with the execution timing of the effect, the editing operator creates a desired program on the timeline 95. The video program corresponding to the created program can be automatically created as long as it is.

상기 스텝(SP410)에 있어서의 프리뷰 처리의 결과 만족하는 프로그램이 아니고, 수정이 필요하다면 다음의 스텝(SP411)으로 진행하고, 만족하는 프로그램이면 다음 스텝(SP412)으로 진행한다.If the program is not satisfied as a result of the preview processing in step SP410, if modification is necessary, the process proceeds to the next step SP411. If the program is satisfied, the process proceeds to the next step SP412.

스텝(SP411)에서는 편집 오퍼레이터의 조작에 따라 CPU(21)는 타임 라인(95)에 부착된 이벤트 및 효과를 수정한다.In step SP411, the CPU 21 corrects the events and effects attached to the timeline 95 in accordance with the operation of the editing operator.

이벤트를 수정할 경우 우선, 타임 라인(95)에 있어서 수정을 필요로 하는 이벤트를 마우스(2D)로 더블 클릭한다. CPU(21)는 더블 클릭된 이벤트를 국소 기억 장치(8)로부터 재생하고, 뷰어 윈도우(92)에 표시하는 바와 같이 국소 기억 장치(8) 및 편집 처리 장치(3)를 제어한다. 또, CPU(21)는 국소 기억 장치(8)로부터 재생된 영상을 뷰어 윈도우(92)의 뷰어(106)에 표시하는 동시에, 내부 하드 디스크(HDD)에 기억된 인점 및 아웃점의 스탬프 픽처를 인점 화상 표시부(110) 및 아웃점 화상 표시부(120)에 각각 표시한다.When modifying an event First, in the timeline 95, an event requiring correction is double-clicked with the mouse 2D. The CPU 21 reproduces the double clicked event from the local memory device 8 and controls the local memory device 8 and the editing processing device 3 as displayed in the viewer window 92. In addition, the CPU 21 displays the video reproduced from the local storage device 8 in the viewer 106 of the viewer window 92, and simultaneously points in and out stamp pictures stored in the internal hard disk HDD. It displays on the image display part 110 and the out point image display part 120, respectively.

클립을 작성하였을 때와 같은 요령으로 필요에 따라 인점 및 아웃점의 재설정 비디오 및 오디오 레벨 등의 각종 파라미터의 재조정을 행한다.As in the case of creating a clip, if necessary, various parameters such as reset video and audio level of the in and out points are readjusted.

원하는 수정 처리가 종료하고 편집 오퍼레이터가 ADD 버튼(122A)을 클릭하면 CPU(21)는 수정된 이벤트에 관한 정보를 타임 라인(95)상의 오래된 이벤트의 정보에 오버라이트하는 동시에 타임 라인(95)의 표시를 오래된 이벤트로부터 수정된 이벤트로 변경한다.When the desired correction process ends and the editing operator clicks the ADD button 122A, the CPU 21 overwrites the information on the modified event with the information of the old event on the timeline 95 and at the same time the timeline 95 of the timeline 95. Change the display from an old event to a modified event.

또한, 효과를 수정하는 경우 먼저 타임 라인(95)에 있어서 수정을 필요로 하는 효과를 마우스(2D)로 더블 클릭한다. CPU(21)는 더블 클릭된 효과를 설정한 효과 설정 다이얼로그(190)를 연다.In addition, when correcting an effect, first, in the timeline 95, the effect requiring correction is double-clicked with the mouse 2D. The CPU 21 opens the effect setting dialog 190 in which the double clicked effect is set.

효과를 설정하였을 때와 같은 요령으로 필요에 따라 효과 종류 트랜지션 시간 및 변경 파라미터 등의 재설정을 행한다.In the same way as when the effects are set, the effect type transition time and change parameters are reset as necessary.

원하는 수정이 종료하고 효과 설정 다이얼로그(190)가 닫히면 CPU(21)는 수정된 효과에 관한 정보를 오래된 효과의 정보에 오버라이트하는 동시에 타임 라인(95)의 표시를 오래된 효과로부터 수정된 효과로 변경한다.When the desired modification is finished and the effect setting dialog 190 is closed, the CPU 21 overwrites the information on the modified effect with the information of the old effect and at the same time changes the display of the timeline 95 from the old effect to the modified effect. do.

스텝(SP412)에서는 CPU(21)는 타임 라인(95) 위에 작성된 프로그램에 따라 프로그램 리스트(EDL)를 작성하고 그 EDL을 내부 하드 디스크(HDD)에 설치된 EDL 폴더에 파일로서 기록한다.In step SP412, the CPU 21 creates a program list EDL according to the program created on the timeline 95, and records the EDL as a file in an EDL folder provided in the internal hard disk HDD.

스텝(SP412)에서는 CPU(21)는 편집 오퍼레이터의 지시에 따라 완성 비디오 프로그램을 작성한다. 편집 오퍼레이터가 REC 버튼(123D)을 클릭하면 도 38과 같은 REC 다이얼로그가 열린다. 먼저, 편집 오퍼레이터는 완성 비디오 프로그램을 기록하기 위한 기록 디바이스를 국소 기억 장치(8) VTR(7) 및 온 에어 서버(9) 중에서 선택하고 적절한 파일명을 입력한다. 편집 오퍼레이터가 실행 버튼「Execute」를 클릭하면 컴퓨터(2)는 프리뷰 때와 같이 작성한 프로그램 리스트(EDL) 또는 타임 라인(95)상의 프로그램에 따라 국소 기억 장치(8) 및 편집 처리 장치(3)를 제어한다. 그 결과, 지정된 디바이스 상에 완전 비디오 프로그램이 기록된다.In step SP412, the CPU 21 creates a completed video program according to the instruction of the editing operator. When the editing operator clicks the REC button 123D, the REC dialog shown in FIG. 38 opens. First, the editing operator selects a recording device for recording the completed video program from the local storage 8 VTR 7 and the on-air server 9 and inputs an appropriate file name. When the edit operator clicks the execute button " Execute, " the computer 2 selects the local storage device 8 and the edit processing device 3 in accordance with the program list EDL or the program on the timeline 95 as in the preview. To control. As a result, a complete video program is recorded on the designated device.

이상과 같이, 본 발명의 편집 장치는 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 타임 라인에 배열된 각 이벤트에 대하여, 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 컴퓨터를 구비한 것을 특징으로 한다.As described above, the editing apparatus of the present invention includes a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of By arranging the events on the timeline in the desired order, a program window for creating a program list is displayed on the computer display, and for each event arranged on the timeline, an icon indicating which source device the event is generated from is shown. A computer is provided for displaying.

따라서 편집 오퍼레이터는 각 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 시각적으로 용이하게 파악할 수 있으므로, 확실한 편집 작업을 할 수 있다.Therefore, the editing operator can visually easily identify the event generated from which source device each event, so that the editing operation can be surely performed.

또한, 본 발명의 편집 장치는 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 편집 오퍼레이터의 조작에 응답하여 타임 라인에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그를 표시하고, 효과 설정 다이얼로그에 있어서 선택된 원하는 효과의 아이콘을 이벤트와 관련시키도록 타임 라인 상에 부착함으로써 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 한다.The editing apparatus of the present invention also provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline in the desired order, a program window for creating a program list is displayed on the computer display, and an effect setting dialog is displayed for setting effects for each event arranged in the timeline in response to an operation of an editing operator. And attaching an icon of the desired effect selected in the effect setting dialog on the timeline to associate with the event to generate a program list for effecting the event.

따라서 본 발명의 편집 장치는 신속하면서 용이하게 효과를 선택함과 동시에 각 이벤트에 설정할 수 있다. 또한, 본 발명의 편집 시스템은 모든 편집 컷의 클립화상, 입력 화상, 타임 라인 등이 GUI 상에서 일람할 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다.Therefore, the editing apparatus of the present invention can select the effect quickly and easily and set it to each event. In addition, the editing system of the present invention can list clip images, input images, timelines, and the like of all the edit cuts on the GUI, and can set the editing order or simply replace them while viewing the arranged clips.

또한, 본 발명의 편집 장치는 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그를 표시하고, 페이더 할당 다이얼로그에 설정된 정보에 기초하여 이벤트의 각 오디오 트랙의 레벨을 제어하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention displays a fader assignment dialog for allocating an audio fader installed in an audio-only controller with respect to audio tracks of each event arranged in the timeline, and based on the information set in the fader assignment dialog, Controlling the level of the audio track.

따라서 본 발명의 편집 장치에 의하면 전용 제어기에 의해 각 이벤트의 오디오 트랙을 개별로 제어할 수 있음과 동시에, 이벤트에 따라 각 트랙과 페이더 베버와의 설정을 임의로 가변할 수 있다.Therefore, according to the editing apparatus of the present invention, an audio track of each event can be individually controlled by a dedicated controller, and the settings of each track and fader webber can be arbitrarily changed according to the event.

또한, 본 발명의 편집 장치는 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 타임 라인 상에 배열하는 모드, 및 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 타임 라인 상에 배열하는 모드를 구비한 것을 특징으로 한다.In addition, the editing apparatus of the present invention is a mode in which a plurality of events displayed as clip images in the log window are dragged and dropped for each event and arranged on the timeline, and a plurality of events displayed as clip images in the log window are not dragged and dropped. And a mode of automatically arranging on the timeline in a specified order.

또한, 본 발명의 편집 장치는 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에 있어 효과 삽입 구간을 설정하고, 타임 라인 상의 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention is characterized in that the effect insertion section is set on the timeline while viewing a plurality of events arranged on the timeline, and the selected effect is set in the set effect insertion section on the timeline.

또한, 본 발명의 편집 장치는 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에 있어서 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하고, 로그 윈도우에 있어서 선택된 이벤트를 타임 라인 상의 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 한다.In addition, the editing apparatus of the present invention sets an insertion interval of an event that is overlaid with respect to the event on the timeline while viewing a plurality of events arranged on the timeline, and inserts the event selected in the log window on the timeline. Characterized in that inserted into the section.

이상과 같이, 본 발명의 편집 방법은 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 타임 라인에 배열된 각 이벤트에 대하여 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 컴퓨터를 구비한 것을 특징으로 한다.As described above, the editing method of the present invention includes a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of By arranging the events on the timeline in the desired order, a program window for creating a program list is displayed on the computer display, and for each event arranged on the timeline, an icon indicating which source device the event originated from is displayed. It is characterized by comprising a computer.

따라서 편집 오퍼레이터는 각 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 시각적으로 용이하게 파악할 수 있으므로, 확실한 편집 작업을 할 수 있다.Therefore, the editing operator can visually easily identify the event generated from which source device each event, so that the editing operation can be surely performed.

또한, 본 발명의 편집 방법은 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우, 뷰어 윈도우에 있어서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우, 및 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고, 편집 오퍼레이터의 조작에 응답하여 타임 라인에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그를 표시하고, 효과 설정 다이얼로그에 있어서 선택된 원하는 효과의 아이콘을 이벤트와 관련시키도록 타임 라인 상에 부착함으로써 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 한다.In addition, the editing method of the present invention provides a viewer window for generating an event by determining an edit point while viewing a video image of a source material, a log window for displaying a clip image of an event set in the viewer window, and a plurality of events. By arranging on the timeline in the desired order, a program window for creating a program list is displayed on the computer display, and an effect setting dialog is displayed for setting effects for each event arranged in the timeline in response to an operation of an editing operator. And attaching an icon of the desired effect selected in the effect setting dialog on the timeline to associate with the event to generate a program list for effecting the event.

따라서 본 발명의 편집 방법은 신속하면서 용이하게 효과를 선택함과 동시에, 각 이벤트에 설정할 수 있다. 또한, 본 발명의 편집 시스템은 모든 편집 컷의 클립 화상, 입력 화상, 타임 라인 등이 GUI 상에서 일람할 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다.Therefore, the editing method of the present invention can select an effect quickly and easily and set it to each event. In addition, the editing system of the present invention can list clip images, input images, timelines, and the like of all edit cuts on the GUI, and at the same time, edit order or simply replace them while viewing the arranged clips.

또한, 본 발명의 편집 방법은 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그를 표시하고, 페이더 할당 다이얼로그에 설정된 정보에 기초하여 이벤트의 각 오디오 트랙의 레벨을 제어하는 것을 특징으로 한다.In addition, the editing method of the present invention displays a fader assignment dialog for allocating an audio fader installed in an audio-only controller for audio tracks of each event arranged in the timeline, and based on the information set in the fader assignment dialog, Controlling the level of the audio track.

따라서 본 발명의 편집 방법에 의하면 전용 제어기에 의해 각 이벤트의 오디오 트랙을 개별로 제어할 수 있음과 동시에, 이벤트에 따라 각 트랙과 페이더 레버와의 설정을 임의로 가변할 수 있다.Therefore, according to the editing method of the present invention, the audio track of each event can be individually controlled by a dedicated controller, and the setting of each track and the fader lever can be arbitrarily changed according to the event.

또한, 본 발명의 편집 방법은 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 타임 라인 상에 배열하는 모드, 및 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 타임 라인 상에 배열하는 모드를 구비한 것을 특징으로 한다.Furthermore, the editing method of the present invention is a mode in which a plurality of events displayed as clip images in a log window are dragged and dropped for each event and arranged on a timeline, and a plurality of events displayed as clip images in a log window are not dragged and dropped. And a mode of automatically arranging on the timeline in a specified order.

또한, 본 발명의 편집 방법은 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에 있어서 효과 삽입 구간을 설정하고, 타임 라인 상의 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 한다.In addition, the editing method of the present invention is characterized in that the effect insertion section is set on the timeline while viewing a plurality of events arranged on the timeline, and the selected effect is set in the set effect insertion section on the timeline.

또한, 본 발명의 편집 방법은 타임 라인 상에 배열된 복수의 이벤트를 보면서, 타임 라인 상에 있어서 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하고, 로그 윈도우에 있어서 선택된 이벤트를 타임 라인 상의 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 한다.In addition, the editing method of the present invention sets an insertion interval of an event that is overlaid with respect to an event on the timeline while viewing a plurality of events arranged on the timeline, and sets the event selected in the log window on the timeline. Characterized in that the insertion section.

즉, 본 발명의 편집 장치 및 방법은 즉시성이 요구되는 뉴스 프로그램의 제작 시에 비선형의 특징인 랜덤 액세스성을 살린 민첩한 편집 작업을 행할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 모든 편집 컷의 글립 화상, 입력 화상, 타임 라인 등이 GUI 상에서 일람할 수 있음과 동시에, 배열된 클립을 보면서 편집 순서를 정하거나 그것을 간단히 교체할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 다채로운 효과 기능을 설정할 수 있으므로, 고속으로 표현력 풍부한 영상 제작을 할 수 있다.That is, the editing apparatus and method of the present invention can perform an agile editing operation utilizing random accessibility, which is a nonlinear feature, in producing a news program requiring immediateness. In addition, in the editing apparatus and method of the present invention, the glyph image, the input image, the timeline, and the like of all the edit cuts can be viewed on the GUI, and the editing order can be determined or simply replaced while viewing the arranged clips. In addition, the editing apparatus and method of the present invention can set a variety of effects functions, it is possible to produce a video expressive rich at high speed.

뉴스 프로그램 제작이나 보도 프로그램 제작에 있어서, 본 발명의 편집 장치 및 방법을 적용함으로써, 모자이크 효과의 추가나 화자의 음색 변경, 취재 현장의 주변 잡음의 제거 기능 등의 편집을 자기 혼자 할 수 있다. 또한, 본 발명의 편집 장치 및 방법은 이들의 다채로운 효과를 실현하기 때문에, 컴퓨터에 의한 소프트 상의 처리와 하드웨어의 양쪽을 최적이 되도록 이용하여 실시간에서의 고속 디지털 화상 편집 및 오디오 편집이 실현된다.In producing a news program or producing a news program, by applying the editing apparatus and method of the present invention, it is possible to perform editing alone, such as adding a mosaic effect, changing a tone of a speaker, and removing ambient noise at a coverage site. In addition, since the editing apparatus and method of the present invention realize these various effects, high-speed digital image editing and audio editing are realized in real time by using both computer-based software processing and hardware to be optimal.

Claims (51)

소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 제어 수단은,The control means, 상기 타임 라인에 배열된 각 이벤트에 대하여, 상기 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 것을 특징으로 하는, 편집 장치.And for each event arranged in the timeline, an icon indicating which source device the event is generated from is displayed. 소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 제어 수단은,The control means, 편집 오퍼레이터의 조작에 응답하여, 상기 타임 라인에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그(effect setting dialog)를 표시하며,In response to an operation of an editing operator, displaying an effect setting dialog for setting an effect for each event arranged in the timeline, 상기 효과 설정 다이얼로그에서 선택된 원하는 효과의 아이콘을 상기 이벤트와 관련시키도록 상기 타임 라인 상에 부착함으로써, 상기 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 하는, 편집 장치.And attaching an icon of a desired effect selected in the effect setting dialog on the timeline to associate with the event, thereby creating a program list for effecting the event. 소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 제어 수단은,The control means, 상기 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그(fader assignment dialog)를 표시하며,Displays a fader assignment dialog for assigning audio faders installed in an audio-only controller for audio tracks of each event arranged in the timeline, 상기 페이더 할당 다이얼로그에 설정된 정보에 기초하여, 상기 이벤트의 각 오디오 트랙의 레벨을 제어하는 것을 특징으로 하는, 편집 장치.And the level of each audio track of the event is controlled based on the information set in the fader assignment dialog. 소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 상기 타임 라인 상에 배열하는 모드와,A mode of dragging and dropping a plurality of events displayed as clip images in the log window for each event and arranging them on the timeline; 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 상기 타임 라인 상에 배열하는 모드를 구비한 것을 특징으로 하는, 편집 장치.And a mode of automatically arranging a plurality of events displayed as clip images in the log window on the timeline in a specified order without dragging and dropping. 소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서 효과 삽입 구간을 설정하며,Setting an effect insertion section on a timeline while viewing a plurality of events arranged on the timeline, 상기 타임 라인 상의 상기 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 하는, 편집 장치.And a selected effect is set in the set effect insertion section on the timeline. 소스 소재로서 공급된 비디오 신호 및 오디오 신호를 처리하기 위한 편집 처리 장치와, 상기 편집 처리 장치를 제어하기 위한 컴퓨터를 구비한 편집 장치에 있어서,An editing apparatus comprising a editing processing apparatus for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing apparatus, 상기 컴퓨터는,The computer, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하는 제어 수단을 구비하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on the device, the control means for displaying a program window for creating a program list on a computer display, 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서, 상기 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하고,Setting an insertion interval of an event overlaid on the event on the timeline while viewing a plurality of events arranged on the timeline, 상기 로그 윈도우에서 선택된 이벤트를 상기 타임 라인 상의 상기 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 하는, 편집 장치.And inserting the event selected in the log window into the set event insertion section on the timeline. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on, the program window for creating a program list is displayed on the computer display, 상기 타임 라인에 배열된 각 이벤트에 대하여, 상기 이벤트가 어떤 소스 디바이스로부터 생성된 이벤트인지를 나타내는 아이콘을 표시하는 것을 특징으로 하는, 편집 방법.And for each event arranged in the timeline, an icon indicating which source device the event is generated from. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on, the program window for creating a program list is displayed on the computer display, 편집 오퍼레이터의 조작에 응답하여, 상기 타임 라인 상에 배열된 각 이벤트에 대하여 효과를 설정하기 위한 효과 설정 다이얼로그를 표시하며,In response to an operation of an editing operator, displaying an effect setting dialog for setting an effect for each event arranged on the timeline, 상기 효과 설정 다이얼로그에서 선택된 원하는 효과의 아이콘을 상기 이벤트와 관련시키도록 상기 타임 라인 상에 부착함으로써, 상기 이벤트에 대하여 효과를 실시하기 위한 프로그램 리스트를 생성하는 것을 특징으로 하는, 편집 방법.And attaching an icon of a desired effect selected in the effect setting dialog on the timeline to associate with the event, thereby creating a program list for effecting the event. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 소스 소재를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing a source material, a log window for displaying a clip image of an event set in the viewer window, and arranging the plurality of events on a timeline in a desired order. , The program window for creating a program list is displayed on the computer display, 상기 타임 라인에 배열된 각 이벤트의 오디오 트랙에 대하여 오디오 전용 제어기에 설치된 오디오 페이더를 할당하기 위한 페이더 할당 다이얼로그를 표시하며,Displaying a fader assignment dialog for allocating an audio fader installed in an audio-only controller for an audio track of each event arranged in the timeline, 상기 페이더 할당 다이얼로그에 설정된 정보에 기초하여, 상기 이벤트의 각 오디오 트랙의 레벨를 제어하는 것을 특징으로 하는, 편집 방법.And the level of each audio track of the event is controlled based on the information set in the fader assignment dialog. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 소스 소재를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing a source material, a log window for displaying a clip image of an event set in the viewer window, and arranging the plurality of events on a timeline in a desired order. , The program window for creating a program list is displayed on the computer display, 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 각 이벤트마다 드래그 앤드 드롭하여 상기 타임 라인 상에 배열하는 모드와, 상기 로그 윈도우에 클립 이미지로서 표시된 복수의 이벤트를 드래그 앤드 드롭하지 않고, 지정된 순서로 자동적으로 상기 타임 라인 상에 배열하는 모드에 기초하여, 상기 로그 윈도우에 클립 이미지로서 표시된 이벤트를 상기 타임 라인 상에 배열하는 것을 특징으로 하는, 편집 방법.A mode of dragging and dropping a plurality of events displayed as clip images in the log window for each event and arranging them on the timeline, and in a designated order without dragging and dropping a plurality of events displayed as clip images in the log window. And an event displayed as a clip image in the log window on the timeline based on a mode automatically arranged on the timeline. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on, the program window for creating a program list is displayed on the computer display, 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서 효과 삽입 구간을 설정하며,Setting an effect insertion section on a timeline while viewing a plurality of events arranged on the timeline, 상기 타임 라인 상의 상기 설정된 효과 삽입 구간에 선택된 효과를 설정하는 것을 특징으로 하는, 편집 방법.And a selected effect is set in the set effect insertion section on the timeline. 소스 소재를 편집하기 위한 편집 방법에 있어서,In the editing method for editing the source material, 상기 소스 소재의 비디오 이미지를 뷰잉하면서 편집점을 결정함으로써 이벤트를 생성하기 위한 뷰어 윈도우와, 상기 뷰어 윈도우에서 설정된 이벤트에 관한 클립 이미지를 표시하는 로그 윈도우와, 상기 복수의 이벤트를 원하는 순서로 타임 라인 상에 배열함으로써, 프로그램 리스트를 작성하는 프로그램 윈도우를 컴퓨터 디스플레이에 표시하고,A viewer window for generating an event by determining an edit point while viewing the video image of the source material, a log window for displaying a clip image of an event set in the viewer window, and a timeline of the plurality of events in a desired order By arranging on, the program window for creating a program list is displayed on the computer display, 상기 타임 라인 상에 배열된 복수의 이벤트를 보면서 타임 라인 상에서 상기 이벤트에 대하여 오버레이되는 이벤트의 삽입 구간을 설정하며,Setting an insertion interval of an event overlaid with respect to the event on a timeline while viewing a plurality of events arranged on the timeline, 상기 로그 윈도우에서 선택된 이벤트를 상기 타임 라인 상의 상기 설정된 이벤트 삽입 구간에 삽입하는 것을 특징으로 하는, 편집 방법.And inserting the event selected in the log window into the set event insertion section on the timeline. 제 1 항에 있어서,The method of claim 1, 상기 편집해야 할 소스 소재를 기록하기 위한 랜덤 액세스 가능한 기록 매체를 갖는 데이터 기억 장치를 구비하고,A data storage device having a random-accessible recording medium for recording the source material to be edited, 상기 편집 처리 장치는,The editing processing device, 상기 데이터 기억 장치로부터 재생된 소스 데이터를 라우팅하기 위한 스위처 블록과, 상기 스위처 블록에서 출력된 비디오 신호를 처리하는 비디오 신호 처리 블록과, 상기 스위처 블록에서 출력된 오디오 신호를 처리하는 오디오 처리 블록을 구비하고,A switcher block for routing the source data reproduced from the data storage device, a video signal processing block for processing the video signal output from the switcher block, and an audio processing block for processing the audio signal output from the switcher block; and, 상기 컴퓨터의 제어 수단은,The control means of the computer, 상기 데이터 기억 장치에 기록된 소스 소재를 편집하기 위한 편집용 소프트웨어 프로그램에 의해 프로그램되어 있는 것을 특징으로 하는, 편집 장치.And an editing software program for editing the source material recorded in the data storage device. 제 13 항에 있어서,The method of claim 13, 상기 제어 수단은,The control means, 상기 이벤트가 생성된 소스 소재가 공급되는 소스 공급 디바이스를 나타내는 정보를 소스 정보로서 기억하는 메모리 수단과,Memory means for storing, as source information, information indicating a source supply device to which the source material from which the event is generated is supplied; 상기 소스 정보를 각 이벤트마다 파일로서 관리하는 파일 관리기를 갖는 것을 특징으로 하는, 편집 장치.And a file manager which manages the source information as a file for each event. 제 14 항에 있어서,The method of claim 14, 상기 제어 수단은, 상기 파일에 기억된 소스 공급 디바이스를 나타내는 소스 정보에 근거하여, 상기 로그 윈도우에 등록되어 있는 이벤트가 어떤 소스 공급 디바이스의 소스 소재로부터 생성된 소재인지를 나타내는 아이콘을 표시하는 것을 특징으로 하는, 편집 장치.The control means displays an icon indicating which source supply device the source material of the source registered in the log window is based on the source information indicating the source supply device stored in the file. Editing device. 제 14 항에 있어서,The method of claim 14, 상기 소스 공급 디바이스 상에 기록되어 있는 소스 소재로부터 생성된 이벤트를 상기 소스 공급 디바이스로부터 상기 데이터 기억 장치로 다운로드한 경우에는,When an event generated from the source material recorded on the source supply device is downloaded from the source supply device to the data storage device, 상기 제어 수단은,The control means, 상기 다운로드된 이벤트에 관한 파일에서의 소스 정보를, 상기 소스 공급 디바이스를 나타내는 정보로부터 상기 데이터 기억 장치를 나타내는 정보로 교체 기록하는 것을 특징으로 하는, 편집 장치.And the source information in the file relating to the downloaded event is alternately recorded from the information representing the source supply device to the information representing the data storage device. 제 15 항에 있어서,The method of claim 15, 상기 이벤트에 관한 파일에는, 적어도 상기 이벤트에 대하여 부여된 이벤트명, 상기 이벤트의 인점(in-point) 및 아웃점(out-point)의 타임 코드에 관한 정보가 포함되어 있는 것을 특징으로 하는, 편집 장치.The file relating to the event includes at least an event name given to the event, information on time codes of in-point and out-point of the event. . 제 13 항에 있어서,The method of claim 13, 상기 제어 수단은,The control means, 소스 공급 디바이스에 기억된 복수의 소스 소재로부터 원하는 소스 소재를 검색하는 소스 소재 검색 처리와,A source material search process for searching for a desired source material from a plurality of source materials stored in the source supply device, 상기 검색된 소스 소재로부터 상기 복수의 이벤트를 생성하는 이벤트 생성 처리와,An event generation process of generating the plurality of events from the retrieved source material; 상기 이벤트 생성 처리에 의해 생성된 복수의 이벤트를 원하는 순서로 배열하여 교체함으로써 상기 프로그램 리스트를 생성하는 프로그램 리스트 생성 처리와,A program list generation process of generating the program list by arranging and replacing a plurality of events generated by the event generation process in a desired order; 상기 작성된 프로그램 리스트에 근거하여, 최종 비디오 프로그램을 작성하는 처리를 실행하도록 상기 비디오 신호 처리 블록 및 상기 스위처 블록을 제어하는 것을 특징으로 하는, 편집 장치.And the video signal processing block and the switcher block to perform a process of creating a final video program based on the created program list. 제 18 항에 있어서,The method of claim 18, 상기 제어 수단은, 상기 소스 공급 디바이스로부터 재생된 소스 소재의 비디오 데이터를, 상기 비디오 신호 처리 블록을 통해 상기 컴퓨터에 공급하도록 상기 스위처 블록을 제어함과 동시에, 상기 소스 공급 디바이스로부터 재생된 소스 소재의 오디오 데이터를, 상기 오디오 신호 처리 블록을 통해 스피커에 공급하도록 상기 스위치 블록을 제어하는 것을 특징으로 하는, 편집 장치.The control means controls the switcher block to supply the video data of the source material reproduced from the source supply device to the computer via the video signal processing block, and simultaneously controls the switcher block of the source material reproduced from the source supply device. And the switch block is controlled to supply audio data to a speaker via the audio signal processing block. 제 18 항에 있어서,The method of claim 18, 상기 제어 수단은,The control means, 상기 소스 공급 디바이스에 기록된 상기 소스 소재를 상기 데이터 기억 장치에 다운로드하는 다운로드 처리와,A download process of downloading the source material recorded in the source supply device into the data storage device; 상기 데이터 기억 장치에 이미 기억되어 있는 상기 소스 소재와는 다른 소스 소재를, 상기 비디오 신호 처리 블록 및 상기 오디오 신호 처리 블록으 통해 상기 컴퓨터에 공급함으로써, 상기 데이터 기억 장치에 기록되어 있는 소스 소재를 편집하는 편집 처리를 동시에 행하는 것을 특징으로 하는, 편집 장치.The source material recorded in the data storage device is edited by supplying a source material different from the source material already stored in the data storage device to the computer through the video signal processing block and the audio signal processing block. An editing apparatus characterized by simultaneously performing editing processing. 제 17 항에 있어서,The method of claim 17, 상기 편집용 소프트웨어 프로그램은,The editing software program, 상기 이벤트를 등록하는 모드로서, 상기 타임 라인 상에 등록하는 타임 라인 모드와, 상기 로그 윈도우 내에 등록하는 로그 모드를 갖고,A mode for registering the event, having a timeline mode for registering on the timeline and a log mode for registering in the log window, 상기 제어 수단은,The control means, 상기 타임 라인 모드가 설정되어 있는 경우에는, 상기 등록이 지정된 이벤트를 상기 타임 라인 상에 비디오 이벤트 또는 오디오 이벤트로서 부착하고,If the timeline mode is set, attach the designated event as a video event or an audio event on the timeline, 상기 로그 모드가 설정되어 있는 경우에는, 상기 등록이 지정된 이벤트를 상기 로그 윈도우에 클립 카드로서 표시하는 것을 특징으로 하는, 편집 장치.And when the log mode is set, an event in which the registration is designated is displayed as a clip card in the log window. 제 21 항에 있어서,The method of claim 21, 상기 로그 윈도우에 표시되는 클립 카드의 표시 형태로서,As a display form of a clip card displayed in the log window, 상기 이벤트의 인점 또는 아웃점의 클립 화상(clip image)을 표시하는 제 1 표시 형태와,A first display mode for displaying a clip image of the in or out point of the event; 상기 이벤트의 인점 및 아웃점의 양쪽의 클립 화상을 표시하는 제 2 표시 형태와,A second display mode for displaying clip images of both the in and out points of the event; 상기 이벤트의 인점 또는 아웃점의 클립 화상과 상기 이벤트에 대하여 부여된 코멘트 데이터를 관련시켜 표시하는 제 3 표시 형태가 존재하고,There is a third display form for displaying the clip image of the in or out point of the event in association with the comment data provided for the event, 상기 제어 수단은,The control means, 상기 이벤트를 나타내는 클립 카드를 상기 3개의 표시 형태 중 어느 표시 형태로 표시하는 것을 특징으로 하는, 편집 장치.And a clip card representing the event in any one of the three display forms. 제 22 항에 있어서,The method of claim 22, 상기 편집용 소프트웨어 프로그램은,The editing software program, 상기 로그 윈도우 내에 클립 카드로서 표시되어 있는 이벤트를 상기 프로그램 윈도우의 타임 라인 상에 등록하는 모드로서,A mode for registering an event displayed as a clip card in the log window on a timeline of the program window. 상기 로그 윈도우에 등록되어 있는 이벤트를 포인팅 디바이스로 지정하는 것만으로 상기 타입 라인 상에 등록하는 제 1 모드와,A first mode of registering on the type line by simply designating an event registered in the log window as a pointing device; 상기 로그 윈도우에 등록되어 있는 이벤트를 포인팅 다바이스로 드래그 앤드 드롭함으로써, 상기 타임 라인 상에 등록하는 제 2 모드를 갖는 것을 특징으로 하는, 편집 장치.And a second mode of registering on the timeline by dragging and dropping an event registered in the log window onto a pointing device. 제 23 항에 있어서,The method of claim 23, wherein 상기 타임 라인은,The timeline, 상기 소스 소재로부터 생성된 비디오 이벤트를 베이스 비디오 이벤트로서 부착하는 베이스 비디오 라인과,A base video line attaching a video event generated from the source material as a base video event; 상기 베이스 이벤트가 포함되는 비디오 데이터에 대응하는 오디오 데이터를 오디오 이벤트로서 부착하는 오디오 라인과,An audio line attaching audio data corresponding to video data including the base event as an audio event; 상기 베이스 비디오 이벤트에 대하여 설정된 효과를 효과 이벤트로서 부착하는 효과 라인과,An effect line attaching an effect set for the base video event as an effect event; 상기 베이스 비디오 이벤트에 대하여 상기 효과 이벤트에 의해 효과를 실시했을 때, 상기 베이스 비디오 이벤트에 대하여 오버레이되는 비디오 이벤트를 오버레이 비디오 이벤트로서 부착하는 오버레이 비디오 라인을 구비하고 있는 것을 특징으로 하는, 편집 장치.And an overlay video line for attaching a video event that is overlaid with respect to the base video event as an overlay video event when the effect is effected by the effect event with respect to the base video event. 제 24 항에 있어서,The method of claim 24, 상기 프로그램 리스트 생성 처리는,The program list generation process, 상기 오디오 라인에 부착된 오디오 이벤트에 포함되는 복수 채널의 오디오 데이터의 레벨을 설정하는 오디오 레벨 설정 처리와,An audio level setting process for setting levels of audio data of a plurality of channels included in an audio event attached to the audio line; 상기 베이스 비디오 라인에 부착된 2개의 베이스 비디오 이벤트 사이에 트랜지션 효과(transition effect)를 설정하거나, 상기 베이스 비디오 라인에 부착된 베이스 비디오 이벤트에 대하여 애니메이션 효과를 설정하거나, 또는 상기 베이스 비디오 라인에 부착된 베이스 비디오 이벤트와 오버레이 비디오 라인에 부착된 오버레이 비디오 이벤트 사이에 효과를 설정하는 효과 설정 처리를 포함하는 것을 특징으로 하는, 편집 장치.Set a transition effect between two base video events attached to the base video line, set an animation effect for a base video event attached to the base video line, or attach to the base video line. And an effect setting process for setting an effect between the base video event and the overlay video event attached to the overlay video line. 제 25 항에 있어서,The method of claim 25, 상기 오디오 레벨 설정 처리에 있어서,In the audio level setting process, 상기 제어 수단은, 상기 타임 라인에 부착된 오디오 이벤트의 각 채널에 대한 오디오 레벨을 제어하기 위한 복수의 트랙 페이더를 갖는 다이얼로그를 표시하고,The control means for displaying a dialog having a plurality of track faders for controlling the audio level for each channel of an audio event attached to the timeline, 상기 다이얼로그에서의 편집 오퍼레이터에 의한 설정에 근거하여, 상기 오디오 이벤트의 복수의 채널과 상기 다이얼로그 내의 상기 복수의 ㅌ랙 페이더를 각각 임의로 대응시키는 것을 특징으로 하는, 편집 장치.And a plurality of channels of the audio event and the plurality of chunk faders in the dialog, respectively, on the basis of the setting by the editing operator in the dialog. 제 26 항에 있어서,The method of claim 26, 상기 오디오 레벨 설정 처리에 있어서,In the audio level setting process, 상기 제어 수단은, 또한 상기 다이얼로그에서의 편집 오퍼레이터의 설정에 근거하여, 상기 다이얼로그 내의 상기 복수의 트랙 페이더와, 전용 제어기에 설치된 복수의 매뉴얼 페이더 레버(manual fader lever)를 임의로 대응시키고,The control means further arbitrarily associates the plurality of track faders in the dialog with a plurality of manual fader levers provided in the dedicated controller, based on the setting of the editing operator in the dialog, 상기 매뉴얼 페이더 레버가 편집 오퍼레이터에 의해 매뉴얼 조정된 경우에는, 상기 조정 조작에 추종하여, 상기 조정 조작된 매뉴얼 페이더 레버의 대응시킨 상기 다이얼로그 내의 트랙 페이더의 슬라이더 위치를 변경하는 것을 특징으로 하는, 편집 장치.And when the manual fader lever is manually adjusted by the editing operator, the slider position of the track fader in the dialog corresponding to the adjusted manual fader lever is changed in accordance with the adjustment operation. . 제 25 항에 있어서,The method of claim 25, 상기 효과 설정 처리에서,In the effect setting process, 상기 제어 수단은, 복수의 효과 패턴을 나타내는 아이콘이 등록되어 있는 효과 설정 다이얼로그를 표시하고,The control means displays an effect setting dialog in which icons representing a plurality of effect patterns are registered, 편집 오퍼레이터가 상기 효과 설정 다이얼로그에 표시되어 있는 효과 아이콘을 선택하고, 선택한 효과 아이콘을 상기 효과 라인에 드래그 앤드 드롭함으로써 상기 효과 설정 처리를 하는 것을 특징으로 하는, 편집 장치.And the editing operator selects the effect icon displayed on the effect setting dialog, and performs the effect setting process by dragging and dropping the selected effect icon onto the effect line. 제 28 항에 있어서,The method of claim 28, 상기 효과 설정 다이얼로그는,The effect setting dialog, 편집 오퍼레이터가 즐겨 이용하는 복수의 효과 패턴의 아이콘이 표시되는 선호 패턴 표시부와, 선택된 효과의 지속 기간을 설정하는 지속 기간 설정부를 갖는 것을 특징으로 하는, 편집 장치.And a preference pattern display unit for displaying icons of a plurality of effect patterns that the editing operator prefers to use, and a duration setting unit for setting a duration of the selected effect. 제 29 항에 있어서,The method of claim 29, 상기 효과 설정 처리에서,In the effect setting process, 상기 제어 수단은, 상기 선택한 효과를 타임 라인 상에 부착하기 전에, 상기 비디오 처리 블록에 대하여 전경(foreground) 비디오 및 배경 비디오로서 할당되어 있는 비디오 이벤트를 이용하여, 상기 선택된 효과의 프리뷰를 실행하도록 상기 스위처 블록 및 상기 비디오 처리 블록을 제어하는 것을 특징으로 하는, 편집 장치.The control means is further configured to execute the preview of the selected effect using a video event assigned as foreground video and background video to the video processing block before attaching the selected effect on the timeline. And control a switcher block and said video processing block. 제 30 항에 있어서,The method of claim 30, 상기 효과 설정 처리에서,In the effect setting process, 상기 배경 비디오로서 지정되어 있는 이벤트와 상기 전경 비디오로서 지정되어 있는 이벤트 사이에서, 상기 트랜지션 효과를 설정하는 경우에는, 상기 제어 수단은 상기 배경 비디오로서 지정되어 있는 이벤트의 아웃점을 상기 트랜지션 효과의 지속 기간에 따라 갱신하는 것을 특징으로 하는, 편집 장치.When setting the transition effect between the event designated as the background video and the event designated as the foreground video, the control means sets the out point of the event designated as the background video to the duration of the transition effect. And update according to the editing apparatus. 제 31 항에 있어서,The method of claim 31, wherein 상기 효과 설정 처리에서,In the effect setting process, 상기 베이스 비디오 이벤트와 상기 오버레이 비디오 이벤트 사이에 상기 에니메이션 효과를 설정하는 경우에는,When setting the animation effect between the base video event and the overlay video event, 상기 제어 수단은, 상기 오버레이 비디오 라인에 부착되는 상기 오버레이 비디오 이벤트의 위치에 따라, 상기 애니메이션 효과의 지속 기간 또는 상기 오버레이 비디오 이벤트의 지속 기간을 변경하는 것을 특징으로 하는, 편집 장치.And the control means changes the duration of the animation effect or the duration of the overlay video event according to the position of the overlay video event attached to the overlay video line. 제 32 항에 있어서,The method of claim 32, 상기 제어 수단은,The control means, 상기 베이스 비디오 라인에 부착되어 있는 비디오 이벤트에 관한 비디오 소재를 상기 뷰어 윈도우에 표시함과 동시에, 해당 뷰어 윈도우에 표시되어 있는 비디오 이벤트의 프레임의 상기 타임 라인에서의 시간적 위치를 나타내기 위하여, 상기 타임 라인 상에 현재 라인을 표시하고,In order to display a video material relating to a video event attached to the base video line in the viewer window, and to indicate a temporal position in the timeline of a frame of a video event displayed in the viewer window, the time. Display the current line on the line, 편집 오퍼레이터에 의한 편집점의 마킹 조작에 응답하여, 상기 마킹 조작하였을 때의 상기 라인 위치가 상기 편집점인 것을 타임 라인 상에서 나타내기 위하여, 상기 인점 및 아웃점을 나타내는 플래그를 상기 타임 라인 상에 표시하는 것을 특징으로 하는, 편집 장치.In response to the marking operation of the edit point by the editing operator, a flag indicating the in point and the out point is displayed on the time line in order to indicate on the time line that the line position at the time of the marking operation is the edit point. Editing apparatus, characterized in that. 제 33 항에 있어서,The method of claim 33, wherein 상기 타임 라인 상의 인점 및 아웃점에 의해 설정된 기간에, 비디오 이벤트, 오디오 이벤트 또는 효과 이벤트가 삽입된 경우에는,When a video event, an audio event or an effect event is inserted in the period set by the in and out points on the timeline, 상기 제어 수단은,The control means, 상기 타임 라인 상의 인점 및 아웃점에 의해 설정된 기간과 상기 기간에 삽입되는 이벤트의 지속 기간이 일치하도록, 삽입되는 이벤트의 지속 기간을 변경하는 것을 특징으로 하는, 편집 장치.And the duration of the inserted event is changed so that the duration set by the in and out points on the timeline coincides with the duration of the inserted event. 제 34 항에 있어서,The method of claim 34, wherein 제 1 베이스 비디오 이벤트와 제 2 베이스 비디오 이벤트 사이에 상기 트랜지션 효과가 설정되어 있는 최종 비디오 프로그램을 프리뷰하는 경우에는,In case of previewing the last video program in which the transition effect is set between the first base video event and the second base video event, 상기 제어 수단은,The control means, 상기 트랜지션 효과 실행 전에는, 상기 제 1 베이스 비디오 이벤트를 배경 비디오로서 상기 비디오 신호 처리 블록에 공급하도록 상기 스위처 블록을 제어하고,Before the transition effect is executed, the switcher block is controlled to supply the first base video event to the video signal processing block as a background video, 상기 트랜지션 효과 실행 중에는, 상기 제 1 베이스 비디오 이벤트를 배경 비디오로서 상기 비디오 신호 처리 블록에 공급함과 함께, 상기 제 2 베이스 비디오 이벤트를 전경 비디오로서 상기 비디오 신호 처리 블록에 공급하도록 상기 스위처 블록을 제어하고,During the transition effect, the switcher block is controlled to supply the first base video event to the video signal processing block as a background video and to supply the second base video event to the video signal processing block as a foreground video. , 상기 트랜지션 효과 실행 후에는, 상기 전경으로서 상기 비디오 신호 처리 블록에 공급되어 있던 상기 제 2 베이스 비디오 이벤트를 배경으로서 상기 비디오 신호 처리 블록에 공급하도록 상기 스위처 블록을 제어하는 것을 특징으로 하는, 편집 장치.And after the transition effect is executed, the switcher block is controlled to supply the second base video event supplied to the video signal processing block as the foreground to the video signal processing block as a background. 제 7 항에 있어서,The method of claim 7, wherein 상기 소스 공급 디바이스에 기억된 복수이 소스 소재로부터 원하는 소스 소재를 검색하는 소스 소재 검색 처리와,Source material retrieval processing for retrieving a desired source material from a plurality of source materials stored in the source supply device; 상기 검색된 소스 소재로부터 상기 복수의 이벤트를 생성하는 이벤트 생성 처리와,An event generation process of generating the plurality of events from the retrieved source material; 상기 이벤트 생성 처리에 의해 생성된 복수의 이벤트를 원하는 순서로 배열하여 교체함으로써 상기 프로그램 리스트를 생성하는 프로그램 리스트 생성 처리와,A program list generation process of generating the program list by arranging and replacing a plurality of events generated by the event generation process in a desired order; 상기 작성한 프로그램 리스트에 근거하여, 최종 비디오 프로그램을 작성하는 최종 비디오 프로그램 작성 처리를 갖는 것을 특징으로 하는, 편집 방법.And a final video program creation process for creating a final video program based on the created program list. 제 36 항에 있어서,The method of claim 36, 상기 이벤트 생성 처리에서, 상기 편집 오퍼레이터에 의해, 상기 뷰어 윈도우에 표시되어 있는 비디오 데이터에 대하여 인점 및 아웃점이 지정된 경우에는, 상기 인점 및 상기 아웃점에 의해 규정된 기간의 소스 소재를 새로운 이벤트로서 등록하는 것을 특징으로 하는, 편집 방법.In the event generation process, when a point of in and out points are specified for the video data displayed in the viewer window by the editing operator, the source material of the period defined by the point of in point and the out point is registered as a new event. Editing method, characterized in that. 제 37 항에 있어서,The method of claim 37, 상기 이벤트 생성 처리에서 작성된 새로운 이벤트에 대하여 프리뷰가 실행된 경우에는,When preview is performed on the new event created in the event generation process, 상기 새로운 이벤트의 시간적 전 위치에 이미 부착되어 있는 기존의 이벤트에 대한 상기 새로운 이벤트의 접속 상태를 보기 위해, 상기 새로운 이벤트로서 등록된 이벤트를 상기 타임 라인 상에 가상적으로 부착하고, 상기 새로운 이벤트의 소정 시간 전부터 프리뷰 처리를 하는 것을 특징으로 하는, 편집 방법.Virtually attach an event registered as the new event on the timeline to view the connection state of the new event with respect to an existing event that is already attached to the temporal all position of the new event, and specify the new event. An editing method characterized by performing a preview process from time ago. 제 37 항에 있어서,The method of claim 37, 상기 소스 공급 디바이스에 기록된 상기 소스 소재를 랜덤 액세스 가능한 기록 매체에 다운로드하는 다운로드 처리와,A download process of downloading the source material recorded in the source supply device to a randomly accessible recording medium; 상기 랜덤 액세스 가능한 기록 매체에 기억되어 있는 상기 소스 소재와는 다른 소스 소재를 상기 디스플레이의 뷰어 윈도우에 공급함으로써, 상기 랜덤 액세스 가능한 기록 매체에 기록되어 있는 소스 소재를 편집하는 편집 처리를 동시에 하는 것을 특징으로 하는, 편집 방법.By supplying a source material different from the source material stored in the randomly accessible recording medium to the viewer window of the display, the editing process of editing the source material recorded in the randomly accessible recording medium is performed simultaneously. Editing method. 제 39 항에 있어서,The method of claim 39, 상기 편집 처리를 실행하기 위한 소프트웨어 프로그램은,The software program for executing the editing process is 상기 이벤트를 등록하는 모드로서, 상기 타임 라인 상에 등록하는 타임 라인 모드와 상기 로그 윈도우 내에 등록하는 로그 모드를 갖고,A mode for registering the event, having a timeline mode for registering on the timeline and a log mode for registering in the log window, 상기 타임 라인 모드가 설정되어 있는 경우에는, 상기 등록이 지정된 이벤트를 상기 타임 라인 상에 비디오 이벤트 또는 오디오 이벤트로서 부착하고,If the timeline mode is set, attach the designated event as a video event or an audio event on the timeline, 상기 로그 모드가 설정되어 있는 경우에는, 상기 등록이 지정된 이벤트를 상기 로그 윈도우에 클립 카드로서 표시하는 것을 특징으로 하는, 편집 방법.And when the log mode is set, displaying the event in which the registration is designated as a clip card in the log window. 제 40 항에 있어서,The method of claim 40, 상기 로그 윈도우에 표시되는 클립 카드의 표시 형태로서,As a display form of a clip card displayed in the log window, 상기 이벤트의 인점 또는 아웃점의 클립 화상을 표시하는 제 1 표시 형태와,A first display mode for displaying a clip image of the in or out point of the event; 상기 이벤트의 인점 및 아웃점의 양쪽이 클립 화상을 표시하는 제 2 표시 형태와,A second display mode in which both the in and out points of the event display a clip image; 상기 이벤트의 인점 또는 아웃점의 클립 화상과 상기 이벤트에 대해 부여된 코멘트 데이터를 관련시켜 표시하는 제 3 표시 형태가 존재하며,There is a third display mode for displaying the clip image of the in or out point of the event in association with the comment data provided for the event. 상기 이벤트를 나타내는 클립 카드는 상기 3개의 표시 형태 중 어느 표시 형태로 상기 로그 윈도우에 표시되는 것을 특징으로 하는, 편집 방법.The clip card indicating the event is displayed in the log window in any of the three display forms. 제 41 항에 있어서,42. The method of claim 41 wherein 상기 타임 라인은,The timeline, 상기 소스 소재에서 생성된 비디오 이벤트를 베이스 비디오 이벤트로서 부착하는 베이스 비디오 라인과,A base video line attaching a video event generated from the source material as a base video event; 상기 베이스 이벤트가 포함되는 비디오 데이터에 대응하는 오디오 데이터를 오디오 이벤트로서 부착하는 오디오 라인과,An audio line attaching audio data corresponding to video data including the base event as an audio event; 상기 베이스 비디오 이벤트에 대하여 설정된 효과를 효과 이벤트로서 부착하는 효과 라인과,An effect line attaching an effect set for the base video event as an effect event; 상기 베이스 비디오 이벤트에 대하여 상기 효과 이벤트에 의해 효과를 실시했을 때, 상기 베이스 비디오 이벤트에 대하여 오버레이되는 비디오 이벤트를 오버레이 비디오 이벤트로서 부착하는 오버레이 비디오 라인을 구비하고 있는 것을 특징으로 하는, 편집 방법.And an overlay video line for attaching a video event that is overlaid with respect to the base video event as an overlay video event when the effect is effected by the effect event with respect to the base video event. 제 42 항에 있어서,The method of claim 42, 상기 프로그램 리스트 생성 처리는,The program list generation process, 상기 오디오 라인에 부착된 오디오 이벤트에 포함되는 복수 채널의 오디오 데이터의 레벨을 설정하는 오디오 레벨 설정 처리와,An audio level setting process for setting levels of audio data of a plurality of channels included in an audio event attached to the audio line; 상기 베이스 비디오 라인에 부착된 2개의 베이스 비디오 이벤트 사이에 트랜지션 효과를 설정하거나, 상기 베이스 비디오 라인에 부착된 베이스 비디오 이벤트에 대하여 애니메이션 효과를 설정하거나, 또는 상기 베이스 비디오 라인에 부착된 베이스 비디오 이벤트와 오버레이 비디오 라인에 부착된 오버레이 비디오 이벤트 사이에 효과를 설정하는 효과 설정 처리를 포함하는 것을 특징으로 하는, 편집 방법.Set a transition effect between two base video events attached to the base video line, an animation effect for a base video event attached to the base video line, or a base video event attached to the base video line; And an effect setting process for setting an effect between overlay video events attached to the overlay video line. 제 43 항에 있어서,The method of claim 43, 상기 오디오 레벨 설정 처리에서,In the audio level setting process, 상기 타임 라인에 부착된 오디오 이벤트의 각 채널에 대한 오디오 레벨을 제어하기 위한 복수의 트랙 페이더를 갖는 다이얼로그를 상기 컴퓨터 디스플레이에 표시하고,Displaying a dialog on the computer display having a plurality of track faders for controlling audio levels for each channel of an audio event attached to the timeline, 상기 다이얼로그에서의 편집 오퍼레이터에 의한 설정을 근거하여, 상기 오디오 이벤트의 복수의 채널과 상기 다이얼로그 내의 상기 복수의 트랙 페이더를 각각 임의로 대응시키는 것을 특징으로 하는, 편집 방법.And a plurality of channels of the audio event and the plurality of track faders in the dialog, respectively, based on the setting by the editing operator in the dialog. 제 44 항에 있어서,The method of claim 44, 상기 오디오 레벨 설정 처리에 있어서,In the audio level setting process, 상기 다이얼로그에서의 편집 오퍼레이터의 설정에 기초하여, 상기 다이얼로그 내의 상기 복수의 트랙 페이더와 전용 제어기에 설치된 복수의 매뉴얼 페이더 레버를 임의로 대응시켜, 상기 매뉴얼 페이더 레버가 편집 오버레이에 의해 매뉴얼 조정된 경우에는, 상기 조정 조작에 추종하여, 상기 조정 조작된 매뉴얼 페이더 레버의 대응시킨 상기 다이얼로그 내의 트랙 페이더의 슬라이더 위치를 변경하는 것을 특징으로 하는, 편집 방법.On the basis of the setting of the editing operator in the dialog, when the manual fader lever is manually adjusted by an editing overlay, the plurality of track faders in the dialog and the plurality of manual fader levers provided in the dedicated controller are arbitrarily associated with each other. And the slider position of the track fader in the dialog associated with the manual fader lever of the adjustment operation is changed in accordance with the adjustment operation. 제 45 항에 있어서,The method of claim 45, 복수의 효과 패턴을 나타내는 아이콘이 등록되어 있는 효과 설정 다이얼로그를 상기 디스플레이에 표시하고,The effect setting dialog box in which icons representing a plurality of effect patterns are registered is displayed on the display. 편집 오퍼레이터가 상기 효과 설정 다이얼로그에 표시되어 있는 효과 아이콘을 선택하고, 선택한 효과 아이콘을 상기 효과 라인에 드래그 앤드 드롭함으로써, 상기 효과 설정 처리를 하는 것을 특징으로 하는, 편집 방법.And the editing operator selects the effect icon displayed on the effect setting dialog, and performs the effect setting process by dragging and dropping the selected effect icon onto the effect line. 제 46 항에 있어서,The method of claim 46, 상기 효과 설정 다이얼로그는,The effect setting dialog, 편집 오퍼레이터가 즐겨 이용하는 복수의 효과 패턴의 아이콘이 표시되는 선호 패턴 표시부와, 선택된 효과의 지속 기간을 설정하는 지속 기간 설정부를 갖는 것을 특징으로 하는, 편집 방법.And a preference pattern display unit for displaying icons of a plurality of effect patterns that the editing operator prefers to use, and a duration setting unit for setting a duration of the selected effect. 제 47 항에 있어서,The method of claim 47, 상기 효과 설정 처리에서,In the effect setting process, 상기 배경 비디오로서 지정되어 있는 이벤트와 상기 전경 비디오로서 지정되어 있는 이벤트 사이에서, 상기 트랜지션 효과를 설정하는 경우에는,When setting the transition effect between an event designated as the background video and an event designated as the foreground video, 상기 배경 비디오로서 지정되어 있는 이벤트의 아웃점을 상기 트랜지션 효과의 지속 기간에 따라 갱신하는 것을 특징으로 하는, 편집 방법.And the out point of the event designated as the background video is updated according to the duration of the transition effect. 제 48 항에 있어서,49. The method of claim 48 wherein 상기 효과 설정 처리에서,In the effect setting process, 상기 베이스 비디오 이벤트와 상기 오버레이 비디오 이벤트 사이에 상기 애니메이션 효과를 설정하는 경우에는,When setting the animation effect between the base video event and the overlay video event, 상기 오버레이 비디오 라인에 부착되는 상기 오버레이 비디오 이벤트의 위치에 따라, 상기 애니메이션 효과의 지속 기간 또는 상기 오버레이 비디오 이벤트의 지속 기간을 변경하는 것을 특징으로 하는, 편집 방법.And change the duration of the animation effect or the duration of the overlay video event according to the position of the overlay video event attached to the overlay video line. 제 49 항에 있어서,The method of claim 49, 상기 베이스 비디오 라인에 부착되어 있는 비디오 이벤트에 관한 비디오 소재를 상기 뷰어 윈도우에 표시함과 동시에, 해당 뷰어 윈도우에 표시되어 있는 비디오 이벤트의 프레임의 상기 타임 라인에서의 시간적 위치를 나타내기 위하여, 상기 타임 라인 상에 현재 라인을 표시하고,In order to display a video material relating to a video event attached to the base video line in the viewer window, and to indicate a temporal position in the timeline of a frame of a video event displayed in the viewer window, the time. Display the current line on the line, 편집 오퍼레이터에 의한 편집점의 마킹 조작에 응답하여, 상기 마킹 조작하였을 때의 상기 라인 위치가 상기 편집점인 것을 타임 라인 상에서 나타내기 위하여, 상기 인점 및 아웃점을 나타내는 플래그를 상기 타임 라인 상에 표시하는 것을 특징으로 하는, 편집 방법.In response to the marking operation of the edit point by the editing operator, a flag indicating the in point and the out point is displayed on the time line in order to indicate on the time line that the line position at the time of the marking operation is the edit point. Editing method, characterized in that. 제 49 항에 있어서,The method of claim 49, 상기 타임 라인 상의 인점 및 아웃점에 의해 설정된 기간에 비디오 이벤트, 오디오 이벤트 또는 효과 이벤트가 삽입된 경우에는,When a video event, an audio event or an effect event is inserted in the period set by the in and out points on the timeline, 상기 타임 라인 상의 인점 및 아웃점에 의해 설정된 기간과 상기 기간에 삽입되는 이벤트의 지속 기간이 일치하도록, 삽입되는 이벤트의 지속 시간이 변경되는 것을 특징으로 하는, 편집 방법.And the duration of the inserted event is changed so that the duration set by the in and out points on the timeline coincides with the duration of the inserted event.
KR1019980710192A 1997-04-12 1998-04-13 Editing apparatus and editing method KR100603173B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980710192A KR100603173B1 (en) 1997-04-12 1998-04-13 Editing apparatus and editing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP97-110307 1997-04-12
KR1019980710192A KR100603173B1 (en) 1997-04-12 1998-04-13 Editing apparatus and editing method

Publications (2)

Publication Number Publication Date
KR20000016596A KR20000016596A (en) 2000-03-25
KR100603173B1 true KR100603173B1 (en) 2006-12-15

Family

ID=41749333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980710192A KR100603173B1 (en) 1997-04-12 1998-04-13 Editing apparatus and editing method

Country Status (1)

Country Link
KR (1) KR100603173B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120536B2 (en) 2013-10-14 2018-11-06 Hanwha Techwin Co., Ltd. Monitoring method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100450999B1 (en) * 2001-12-03 2004-10-02 주식회사 예람 Broadcasting Control System and Method by Network
US7324116B2 (en) * 2002-06-20 2008-01-29 Microsoft Corporation Systems and methods for providing controllable texture sampling
KR100708473B1 (en) * 2005-09-29 2007-04-18 삼성전자주식회사 photographing apparatus for editing a screen in part and the screen in part editing method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996032722A1 (en) * 1995-04-08 1996-10-17 Sony Corporation Editing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996032722A1 (en) * 1995-04-08 1996-10-17 Sony Corporation Editing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120536B2 (en) 2013-10-14 2018-11-06 Hanwha Techwin Co., Ltd. Monitoring method

Also Published As

Publication number Publication date
KR20000016596A (en) 2000-03-25

Similar Documents

Publication Publication Date Title
JP4536164B2 (en) Editing apparatus and editing method
US20030091329A1 (en) Editing system and editing method
US5801685A (en) Automatic editing of recorded video elements sychronized with a script text read or displayed
KR101053360B1 (en) Editing system and its control method
US8560951B1 (en) System and method for real time video production and distribution
KR19990072012A (en) Editing system and editing method
KR20060018861A (en) Edition device and method
JP4229199B2 (en) Editing apparatus and editing method
JP4588126B2 (en) Editing system and editing method
KR100603173B1 (en) Editing apparatus and editing method
KR100603161B1 (en) Editing system and editing method
JP4281120B2 (en) Editing apparatus and method, and recording medium
JP4174718B2 (en) Editing apparatus and editing method
JP4172525B2 (en) Editing apparatus and editing method
JP2007317352A (en) Editing device and editing method
JP3951196B2 (en) Editing device
JP4503609B2 (en) Construction of macro elements for automatic production control
JP4102944B2 (en) Editing apparatus and method, and recording medium
JPH10290419A (en) Editor
JPH10283759A (en) Editing apparatus
JPH10290393A (en) Editing device
JPH10290417A (en) Editor
JP4243346B2 (en) Non-linear video broadcasting system
JPH1141517A (en) Editor
JP4281121B2 (en) Editing apparatus and method, and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee