JP2006019804A - Video editing apparatus - Google Patents

Video editing apparatus Download PDF

Info

Publication number
JP2006019804A
JP2006019804A JP2004192907A JP2004192907A JP2006019804A JP 2006019804 A JP2006019804 A JP 2006019804A JP 2004192907 A JP2004192907 A JP 2004192907A JP 2004192907 A JP2004192907 A JP 2004192907A JP 2006019804 A JP2006019804 A JP 2006019804A
Authority
JP
Japan
Prior art keywords
video
data
video data
index
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004192907A
Other languages
Japanese (ja)
Inventor
Yoshinobu Komata
芳信 小俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004192907A priority Critical patent/JP2006019804A/en
Publication of JP2006019804A publication Critical patent/JP2006019804A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video editing apparatus capable of fetching a high-definition video divided into a plurality of images at a high speed. <P>SOLUTION: A plurality of items of video data obtained by spatially dividing a single video are inputted into video input/output units 101-105. A synchronization control unit 106 generates a timing signal and a time code, and outputs them to the units 101-105. If the time code provided to the video data is the same as the time code generated by the unit 106, the units 101-105 output the video data to a data control unit 108 at a timing based on the timing signal. The unit 108 stores the video data into video storing units 111-115. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、大容量の画像データにより構成される高精細デジタル映像を外部装置から取り込んで編集する映像編集装置に関する。   The present invention relates to a video editing apparatus that takes in and edits a high-definition digital video composed of large-capacity image data from an external device.

近年、高精細映像を撮像する撮像装置として、以下に説明するものが開示されている。例えば、特許文献1には、複数の撮像素子を用いて高精細映像を出力する撮像装置が開示されている。また、特許文献2には、所定のテレビ方式で定められた画素数の定数倍の画素数を有する固体撮像装置の全画素を複数の領域に分割して読み出し、所定の映像信号を出力する撮像装置が開示されている。このような方式で撮像された映像は、一般に、複数のレコーダを用いて記録される。一方、映像を編集する映像編集装置は、例えば特許文献3に開示されている。
特許第3298913号公報 特開2001−211370号公報 特開2000−163603号公報
In recent years, what is described below has been disclosed as an imaging apparatus that captures high-definition video. For example, Patent Document 1 discloses an imaging apparatus that outputs high-definition video using a plurality of imaging elements. Japanese Patent Application Laid-Open No. 2004-228688 discloses an image pickup in which all pixels of a solid-state imaging device having a number of pixels that is a constant multiple of the number of pixels determined by a predetermined television system are read out by dividing into a plurality of regions. An apparatus is disclosed. In general, video captured in such a manner is recorded using a plurality of recorders. On the other hand, a video editing apparatus that edits a video is disclosed in, for example, Patent Document 3.
Japanese Patent No. 3298913 JP 2001-212370 A JP 2000-163603 A

従来、映像編集装置で映像を編集する場合、一旦、映像信号を映像編集装置内の記録装置に取り込んだ後に編集を行っていた。この時、記録装置が複数の記録媒体からなり、映像信号を各記録媒体に分けて記録する場合には、映像信号を映像編集装置内に取り込むのに時間がかかるという問題点があった。また、取り込んだ映像が各記録媒体に分割されて保存されるので、映像を効率的に編集することができなかったり、作業によってはそもそも行うことができないものも発生していたという問題点があった。   Conventionally, when a video is edited by a video editing device, the video signal is once imported into a recording device in the video editing device and then edited. At this time, when the recording apparatus is composed of a plurality of recording media and the video signal is recorded separately on each recording medium, there is a problem that it takes time to capture the video signal into the video editing apparatus. In addition, since the captured video is divided and stored on each recording medium, there is a problem in that the video cannot be edited efficiently or that some operations cannot be performed in the first place. It was.

また、特許文献2に記載されているように、HDTV(High Definition Television)方式のような高精細映像の定数倍の画素数を有する撮像装置の全画素を複数の領域に分割し、各分割に対応した映像を記録する複数の記録媒体からなる記録装置を有する映像編集装置を用いて編集を行う場合には、以下のような問題点があった。このような高精細映像を編集する場合には、分割された複数の高精細映像を結合して元の全体映像を作成して、映像編集装置に一旦保存する必要があった。このため、記録装置には非常に多くの記録容量が必要であり、また保存に時間がかかるという問題点があった。   Also, as described in Patent Document 2, all pixels of an imaging device having a constant multiple of the number of pixels of a high-definition video such as HDTV (High Definition Television) system are divided into a plurality of regions. In the case of editing using a video editing apparatus having a recording apparatus composed of a plurality of recording media for recording corresponding videos, there are the following problems. When editing such a high-definition video, it is necessary to combine the plurality of divided high-definition videos to create the original whole video and temporarily store it in the video editing apparatus. For this reason, the recording apparatus requires a very large recording capacity and takes time to store.

本発明は、上述した問題点に鑑みてなされたものであって、複数に分割された高精細映像を高速に取り込むことができる映像編集装置を提供することを第1の目的とする。また、必要な記録容量を削減し、映像データを効率的に編集することができる映像編集装置を提供することを第2の目的とする。   The present invention has been made in view of the above-described problems, and a first object thereof is to provide a video editing apparatus capable of capturing a high-definition video divided into a plurality of parts at high speed. It is a second object of the present invention to provide a video editing apparatus that can reduce the necessary recording capacity and efficiently edit video data.

本発明は上記の課題を解決するためになされたもので、請求項1に記載の発明は、全体映像が空間的に分割された個々の分割映像に対応した複数の映像データが外部装置から入力される映像入力手段と、前記複数の映像データを記憶する映像記憶手段と、前記映像入力手段に入力された前記映像データを前記記憶手段に格納する映像格納手段と、前記映像入力手段に入力された前記複数の映像データが前記映像格納手段へ出力される際の出力を同期させるための同期信号を発生する同期制御手段と、前記複数の映像データを前記映像記憶手段から読み出して編集する編集手段とを具備し、前記映像入力手段は、入力された前記複数の映像データを、前記同期信号に基づいたタイミングで前記映像格納手段へ出力することを特徴とする映像編集装置である。   The present invention has been made in order to solve the above-described problems. In the invention according to claim 1, a plurality of video data corresponding to individual divided videos obtained by spatially dividing the entire video is input from an external device. Video input means, video storage means for storing the plurality of video data, video storage means for storing the video data input to the video input means in the storage means, and video input means Synchronization control means for generating a synchronization signal for synchronizing output when the plurality of video data is output to the video storage means, and editing means for reading and editing the plurality of video data from the video storage means And the video input means outputs the plurality of input video data to the video storage means at a timing based on the synchronization signal. It is the location.

請求項2に記載の発明は、請求項1に記載の映像編集装置において、前記同期制御手段はさらに、時系列の情報からなる第1の時間情報を生成し、前記映像入力手段は、前記映像データに付与された時系列の情報からなる第2の時間情報と、前記第1の時間情報とを比較し、両者が同一であった場合に、前記同期信号に基づいたタイミングで前記映像データを前記格納手段へ出力することを特徴とする。   According to a second aspect of the present invention, in the video editing apparatus according to the first aspect, the synchronization control means further generates first time information composed of time-series information, and the video input means The second time information composed of time-series information added to the data is compared with the first time information, and when both are the same, the video data is determined at a timing based on the synchronization signal. It outputs to the said storage means, It is characterized by the above-mentioned.

請求項3に記載の発明は、請求項1または請求項2に記載の映像編集装置において、前記映像記憶手段は、前記複数の映像データの各々に対応した複数の記録媒体からなることを特徴とする。   According to a third aspect of the present invention, in the video editing apparatus according to the first or second aspect, the video storage means includes a plurality of recording media corresponding to each of the plurality of video data. To do.

請求項4に記載の発明は、請求項1〜請求項3のいずれかの項に記載の映像編集装置において、前記複数の映像データを構成する各フレームの画像データを識別するためのインデックスデータを生成するインデックス生成手段と、前記インデックスデータを記憶するインデックス記憶手段と、前記インデックス生成手段によって生成された前記インデックスデータを前記インデックス記憶手段に格納するインデックス格納手段とをさらに具備することを特徴とする。   According to a fourth aspect of the present invention, in the video editing device according to any one of the first to third aspects, index data for identifying image data of each frame constituting the plurality of video data is provided. Index generation means for generating, index storage means for storing the index data, and index storage means for storing the index data generated by the index generation means in the index storage means .

請求項5に記載の発明は、請求項4に記載の映像編集装置において、前記編集手段は、前記映像記憶手段に格納された前記複数の映像データに対する編集の手順および内容が予め記録された手順データと前記インデックスデータとに基づいて、編集に必要な前記複数の映像データを前記映像記憶手段から読み出し、各々の前記映像データを編集することを特徴とする。   According to a fifth aspect of the present invention, in the video editing apparatus according to the fourth aspect, the editing means is a procedure in which editing procedures and contents of the plurality of video data stored in the video storage means are recorded in advance. Based on the data and the index data, the plurality of video data necessary for editing is read from the video storage means, and each of the video data is edited.

請求項6に記載の発明は、請求項5に記載の映像編集装置において、前記インデックスデータは、前記映像データに対応した前記分割映像の、前記全体映像における空間的な位置を示す位置データと、前記映像データを構成する各フレームの画像データを識別する識別データとを含むことを特徴とする。   According to a sixth aspect of the present invention, in the video editing device according to the fifth aspect, the index data includes position data indicating a spatial position of the divided video corresponding to the video data in the entire video, And identification data for identifying image data of each frame constituting the video data.

請求項7に記載の発明は、請求項6に記載の映像編集装置において、前記外部装置から入力される前記映像データには、前記全体映像における該映像データの空間的な位置を示す位置情報が含まれており、前記インデックス生成手段はさらに、前記映像入力手段を介して入力された前記映像データ中の前記位置情報に基づいて前記位置データを生成することを特徴とする。   According to a seventh aspect of the present invention, in the video editing apparatus according to the sixth aspect, the video data input from the external device includes position information indicating a spatial position of the video data in the entire video. The index generation means further includes generating the position data based on the position information in the video data input via the video input means.

本発明によれば、複数の映像信号を、同期信号に基づいたタイミングで映像編集装置内に取り込むようにしたので、高精細映像を高速に取り込むことができるという効果が得られる。また、複数の映像データを構成する各フレームの画像データを識別するためのインデックスデータを生成し、複数の映像データに対する編集の手順および内容が予め記録された手順データとインデックスデータとに基づいて、編集に必要な複数の映像データの各々を編集するようにしたので、必要な記録容量を削減し、映像データを効率的に編集することができるという効果が得られる。   According to the present invention, since a plurality of video signals are captured in the video editing apparatus at a timing based on the synchronization signal, an effect that high-definition video can be captured at high speed can be obtained. Further, index data for identifying image data of each frame constituting a plurality of video data is generated, and based on the procedure data and index data in which the editing procedure and contents for the plurality of video data are recorded in advance, Since each of the plurality of video data necessary for editing is edited, the required recording capacity can be reduced and the video data can be efficiently edited.

以下、図面を参照し、本発明を実施するための最良の形態について説明する。図1は、本発明の第1の実施形態による映像編集装置1の構成を示すブロック図である。以下、図中の各構成について説明する。この映像編集装置1には、ひとつの画像が空間的に複数に分割され、各分割画像に対応した、例えばHDTV方式の複数の映像信号(実映像データ)が入力される。映像入力/出力部101〜105は、上記の複数の映像信号を映像編集装置1内に取り込むと共に、映像編集装置1内で加工、編集された実映像データを映像信号として出力するためのインターフェースの機能と、データの入出力を制御する機能とを有している。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a video editing apparatus 1 according to the first embodiment of the present invention. Hereinafter, each component in the figure will be described. In the video editing apparatus 1, one image is spatially divided into a plurality of images, and a plurality of, for example, HDTV video signals (actual video data) corresponding to the divided images are input. The video input / output units 101 to 105 are interfaces of an interface for capturing the plurality of video signals into the video editing apparatus 1 and outputting actual video data processed and edited in the video editing apparatus 1 as video signals. And a function of controlling data input / output.

同期制御部106は、映像入力/出力部101〜105を介して入力される実映像データを高速に記録するため、映像入力/出力部101〜105からデータ制御部108への複数の実映像データの出力を同期させる。システム制御部107は映像編集装置1内の各部を制御する。データ制御部108は、複数の実映像データと、各実映像データに対応した映像保存部111〜115との対応関係に基づいて、実映像データの記録および読み出しを制御する。映像保存部111〜115は、空間的に複数に分割された各実映像データに対応して設けられており、この実映像データを記憶する。この映像保存部111〜115は、磁気ディスクや半導体メモリ等の組合せからなる。   The synchronization control unit 106 records a plurality of actual video data from the video input / output units 101 to 105 to the data control unit 108 in order to record the real video data input via the video input / output units 101 to 105 at high speed. Synchronize the output of. The system control unit 107 controls each unit in the video editing apparatus 1. The data control unit 108 controls the recording and reading of the actual video data based on the correspondence between the plurality of actual video data and the video storage units 111 to 115 corresponding to each actual video data. The video storage units 111 to 115 are provided corresponding to each of the actual video data divided into a plurality of spaces, and store the actual video data. The video storage units 111 to 115 are a combination of a magnetic disk, a semiconductor memory, and the like.

本実施形態において、映像保存部111〜115はそれぞれ別個の記録媒体によって構成されているが、記録媒体の記録容量が大きい、あるいは少量の実映像データを保存するだけでよい場合には、映像保存部111〜115の全体が一つの記録媒体によって構成され、複数の実映像データに対応して、記録媒体中の記録領域が論理的に複数に分割されていてもよい。編集部120は、映像編集装置1内に取り込まれた実映像データを編集する。インデックス生成部150は、後述するインデックスデータを生成する。このインデックスデータは、実映像データの編集時に編集を効率的に行うため、映像保存部111〜114に記録された実映像データを構成する各フレームの画像データを識別する情報である。   In this embodiment, each of the video storage units 111 to 115 is configured by a separate recording medium. However, when the recording capacity of the recording medium is large or only a small amount of actual video data needs to be stored, the video storage unit The entire units 111 to 115 may be configured by one recording medium, and the recording area in the recording medium may be logically divided into a plurality of parts corresponding to a plurality of actual video data. The editing unit 120 edits the actual video data captured in the video editing device 1. The index generation unit 150 generates index data to be described later. This index data is information for identifying the image data of each frame constituting the actual video data recorded in the video storage units 111 to 114 in order to efficiently perform editing when editing the actual video data.

次に、本実施形態による映像編集装置1に映像信号を取り込む場合に、必要な装置間の接続関係について説明する。図2は、外部装置(映像信号発生源130)から映像信号を取り込む場合の接続関係をブロック図で示している。図1におけるシステム制御部107、編集部120、およびインデックス生成部150は図示を省略している。図において、映像信号発生源130は、同時に複数の映像信号を発生することができる撮像装置またはレコーダ等の装置である。この映像信号発生源130は、後述する5つのチャンネルにより、映像信号を映像編集装置1へ出力する。また、映像信号発生源130は、システム制御部107との制御信号200の送受信を介して、映像編集装置1によって制御される。   Next, a description will be given of a connection relationship between necessary apparatuses when a video signal is taken into the video editing apparatus 1 according to the present embodiment. FIG. 2 is a block diagram showing a connection relationship when a video signal is captured from an external device (video signal generation source 130). The system control unit 107, the editing unit 120, and the index generation unit 150 in FIG. 1 are not shown. In the figure, a video signal generation source 130 is an apparatus such as an imaging device or a recorder that can generate a plurality of video signals simultaneously. The video signal generation source 130 outputs a video signal to the video editing apparatus 1 through five channels described later. The video signal generation source 130 is controlled by the video editing apparatus 1 through transmission / reception of the control signal 200 with the system control unit 107.

図3は、映像信号発生源130の構成を示すブロック図である。映像信号発生源130においては、高精細映像素材140が磁気記録装置等に予め記録されているものとする。この映像信号発生源130は、映像出力が可能な5つのチャンネルA〜Eを備えている。映像信号発生源130は、高精細映像素材140を磁気記録装置から読み出し、空間的な領域ごとに分割して実映像データ131〜134を生成すると共に、高精細映像素材140の画素を間引く、あるいは画素補間を行うことにより画素数を縮小した縮小映像データ135を生成する。   FIG. 3 is a block diagram showing the configuration of the video signal generation source 130. In the video signal generation source 130, it is assumed that a high-definition video material 140 is recorded in advance on a magnetic recording device or the like. The video signal generation source 130 includes five channels A to E that can output video. The video signal generation source 130 reads the high-definition video material 140 from the magnetic recording device, generates the real video data 131 to 134 by dividing the high-definition video material 140 for each spatial region, and thins out the pixels of the high-definition video material 140, or Reduced video data 135 in which the number of pixels is reduced is generated by performing pixel interpolation.

本実施形態において、実映像データ131は高精細映像の左上1/4の領域、実映像データ132は右上1/4の領域、実映像データ133は左下1/4の領域、実映像データ134は右下1/4の領域に対応した映像のデータであるとする。縮小映像データ135は高精細映像素材140の全体が縮小されたサムネールの映像データである。これらの映像データには、それらが生成された際に、フレームごとにタイムコード(第2の時間情報)が付与されている。このタイムコードは1フレームごとに生成されるもので、時・分・秒・フレームを示す形式(HH:MM:SS:FF)の時系列データである。映像信号発生源130は、実映像データ131〜134および縮小映像データ135のそれぞれに対応したチャンネルA〜Eから各映像データを出力する。これらの映像データは、映像編集装置1の映像入力/出力部101〜105に入力される。   In the present embodiment, the real video data 131 is the upper left quarter area of the high-definition video, the real video data 132 is the upper right quarter area, the real video data 133 is the lower left quarter area, and the real video data 134 is It is assumed that the video data corresponds to the lower right quarter area. The reduced video data 135 is thumbnail video data in which the entire high-definition video material 140 is reduced. These video data are given a time code (second time information) for each frame when they are generated. This time code is generated for each frame, and is time-series data in a format (HH: MM: SS: FF) indicating hours, minutes, seconds, and frames. The video signal generation source 130 outputs each video data from channels A to E corresponding to the actual video data 131 to 134 and the reduced video data 135, respectively. These video data are input to the video input / output units 101 to 105 of the video editing apparatus 1.

次に、本実施形態による映像編集装置1の同期制御部106の構成について説明する。図4は、同期制御部106の構成を示すブロック図である。以下、図中の各構成について説明する。この同期制御部106は、システム制御部107によって制御される。フレーム同期信号生成器201は、映像信号のフレームに合わせて、映像入力/出力部101〜105の動作を同期させるためのタイミング信号(同期信号)を発生する。映像信号を映像信号発生源130から映像編集装置1に取り込む場合、あるいは映像編集装置1から他の装置へ出力する場合に、フレーム同期信号生成器201はタイミング信号を発生し、映像入力/出力部101〜105へ出力する。   Next, the configuration of the synchronization control unit 106 of the video editing apparatus 1 according to the present embodiment will be described. FIG. 4 is a block diagram illustrating a configuration of the synchronization control unit 106. Hereinafter, each component in the figure will be described. The synchronization control unit 106 is controlled by the system control unit 107. The frame synchronization signal generator 201 generates a timing signal (synchronization signal) for synchronizing the operations of the video input / output units 101 to 105 in accordance with the frame of the video signal. When capturing a video signal from the video signal generation source 130 to the video editing device 1 or when outputting the video signal from the video editing device 1 to another device, the frame synchronization signal generator 201 generates a timing signal, and the video input / output unit Output to 101-105.

タイムコード生成器202は、予め指定された開始点に対応した開始時刻から終了時刻まで所定の時間間隔で時刻が変化するタイムコード(第1の時間情報)を発生する。コマンド生成器203は、システム制御部107による指示に基づいて、映像信号を取り込む際のコマンドを生成する。このコマンドには、映像信号の取り込み開始、取り込み停止、映像の再生開始、再生停止等のコマンドが用意されている。   The time code generator 202 generates a time code (first time information) whose time changes at a predetermined time interval from a start time corresponding to a start point designated in advance to an end time. The command generator 203 generates a command for capturing a video signal based on an instruction from the system control unit 107. Commands such as video signal capture start, capture stop, video playback start, and playback stop are prepared for this command.

ユーザは、実映像データ131〜134および縮小映像データ135に付与されているタイムコードを以下のようにして予め確認することができる。映像信号を映像編集装置1に取り込む前に、ユーザは、映像信号発生源130に設けられている図示せぬ管理用モニタにタイムコードを表示させ、確認する。あるいは、映像信号発生源130にモニタを接続し、映像信号をモニタに出力して映像をタイムコードと共に表示することにより、タイムコードを確認してもよい。続いて、ユーザは、映像編集装置1に設けられた図示せぬ操作部(キーボード、マウス、タブレット等)を操作し、取り込みを開始する開始点のタイムコードと、取り込みを終了する終了点のタイムコードとを入力する。   The user can confirm in advance the time codes given to the actual video data 131 to 134 and the reduced video data 135 as follows. Before taking the video signal into the video editing apparatus 1, the user displays the time code on a management monitor (not shown) provided in the video signal generation source 130 for confirmation. Alternatively, the time code may be confirmed by connecting a monitor to the video signal generation source 130, outputting the video signal to the monitor, and displaying the video together with the time code. Subsequently, the user operates an operation unit (keyboard, mouse, tablet, etc.) (not shown) provided in the video editing apparatus 1 to start the time code of the start point and the end point time to end the capture. Enter the code.

次に、映像編集装置1に映像信号を取り込む場合の動作について説明する。映像信号発生源130は外部コントロールが可能な装置であり、システム制御部107から出力される制御信号によって、再生する映像の選択、映像再生の開始指示、映像再生の停止指示等が行われる。図示せぬ操作部を介してユーザによって映像信号の取り込みが指示されると、システム制御部107は、映像信号の取り込みの開始を同期制御部106に指示する。この指示を受けた同期制御部106において、コマンド生成器203は取り込み開始コマンドを映像入力/出力部101〜105へ出力する。また、フレーム同期信号生成器201はタイミング信号を生成して映像入力/出力部101〜105へ出力し、タイムコード生成器202は、指定された開始点に対応した開始時刻から、終了点に対応した終了時刻まで所定の時間間隔で時刻が変化するタイムコードを生成し、映像入力/出力部101〜105へタイムコードを順番に出力する。   Next, an operation when a video signal is taken into the video editing apparatus 1 will be described. The video signal generation source 130 is an externally controllable device, and a video to be played back, a video playback start instruction, a video playback stop instruction, and the like are performed according to a control signal output from the system control unit 107. When the user gives an instruction to capture a video signal via an operation unit (not shown), the system control unit 107 instructs the synchronization control unit 106 to start capturing the video signal. In the synchronization control unit 106 that has received this instruction, the command generator 203 outputs a capture start command to the video input / output units 101 to 105. The frame synchronization signal generator 201 generates a timing signal and outputs it to the video input / output units 101 to 105, and the time code generator 202 corresponds to the end point from the start time corresponding to the designated start point. A time code whose time changes at a predetermined time interval until the end time is generated, and the time code is sequentially output to the video input / output units 101 to 105.

システム制御部107は、映像信号の取り込みを開始するための制御信号を映像信号発生源130へ出力する。この制御信号に基づいて、映像信号発生源130は実映像データ131〜134および縮小映像データ135を、それぞれの映像データに対応した映像入力/出力部101〜105へ出力する。各映像データは、映像入力/出力部101〜105に入力される。   The system control unit 107 outputs a control signal for starting capturing of the video signal to the video signal generation source 130. Based on this control signal, the video signal generation source 130 outputs the real video data 131 to 134 and the reduced video data 135 to the video input / output units 101 to 105 corresponding to the respective video data. Each video data is input to video input / output units 101-105.

映像入力/出力部101〜105は、タイムコード生成器202によって生成されたタイムコードと映像データに付与されたタイムコードとを比較し、両者が同一であった場合に、そのタイムコードが付与されたフレームの映像データを取り込むことを決定する。映像入力/出力部101〜105は、フレーム同期信号生成器201によって生成されたタイミング信号によって示されるタイミングで、取り込みを決定した映像データを取り込んで、データ制御部108へ出力する。   The video input / output units 101 to 105 compare the time code generated by the time code generator 202 with the time code given to the video data, and if both are the same, the time code is given. Decides to capture the video data of the selected frame. The video input / output units 101 to 105 capture the video data determined to be captured at the timing indicated by the timing signal generated by the frame synchronization signal generator 201 and output the video data to the data control unit 108.

映像入力/出力部101〜105を介して入力された各映像データは、対応した映像保存部111〜115に格納されるように、予め設定されている。データ制御部108は、映像保存部111〜115へのアクセス制御を行いながら、各映像データを、対応した映像保存部111〜115に所定のフォーマットで格納する。例えば、データ制御部108は、映像入力/出力部101を介して入力された実映像データ131を映像保存部111に格納するときは、映像保存部111に対する他のデータの書き込みや読み出しを禁止する排他制御を行う。映像信号の取り込みを停止する場合には、システム制御部107によって制御信号が映像信号発生源130へ出力され、映像信号発生源130は、この制御信号に基づいて、映像信号の再生を停止する。   Each video data input via the video input / output units 101 to 105 is set in advance so as to be stored in the corresponding video storage units 111 to 115. The data control unit 108 stores each video data in the corresponding video storage units 111 to 115 in a predetermined format while performing access control to the video storage units 111 to 115. For example, when storing the real video data 131 input via the video input / output unit 101 in the video storage unit 111, the data control unit 108 prohibits writing or reading of other data to the video storage unit 111. Perform exclusive control. When stopping the capture of the video signal, the system control unit 107 outputs a control signal to the video signal generation source 130, and the video signal generation source 130 stops the reproduction of the video signal based on the control signal.

なお、映像発生源130が、外部より制御することができない装置である場合には、マニュアルで映像信号発生源130に対して、映像信号の再生指示、停止指示を行うことにより、上記と同様に映像編集装置1内に実映像データを取り込むようにしてもよい。   If the video source 130 is a device that cannot be controlled from the outside, the video signal source 130 is manually instructed to reproduce and stop the video signal, and the same as described above. Actual video data may be taken into the video editing device 1.

図5は、映像保存部111〜115に格納された実映像データ131〜135を示している。映像保存部111には、図3における高精細映像素材140の左上1/4の領域に対応した時系列の実映像データ131が保存されている。この実映像データ131はUL1,UL2,・・・,ULNのN個のフレームからなる。同様に、映像保存部112には、高精細映像素材140の右上1/4の領域に対応した時系列の実映像データ132が保存され、映像保存部113には、高精細映像素材140の左下1/4の領域に対応した時系列の実映像データ133が保存され、映像保存部114には、高精細映像素材140の右下1/4の領域に対応した時系列の実映像データ134が保存され、映像保存部115には、高精細映像素材140のサムネール映像に対応した時系列の縮小映像データ135が保存されている。   FIG. 5 shows actual video data 131 to 135 stored in the video storage units 111 to 115. The video storage unit 111 stores time-series actual video data 131 corresponding to the upper left quarter of the high-definition video material 140 in FIG. The actual video data 131 is composed of N frames UL1, UL2,. Similarly, the video storage unit 112 stores time-series actual video data 132 corresponding to the upper right quarter region of the high-definition video material 140, and the video storage unit 113 stores the lower-left corner of the high-definition video material 140. Time-series actual video data 133 corresponding to the 1/4 area is stored, and the video storage unit 114 stores time-series actual video data 134 corresponding to the lower right 1/4 area of the high-definition video material 140. The video storage unit 115 stores time-series reduced video data 135 corresponding to the thumbnail video of the high-definition video material 140.

次に、映像信号を映像編集装置1に取り込んだ後に行う編集作業の前処理となるインデックスデータの生成について説明する。図6は、インデックス生成部150の構成を示すブロック図である。以下、図中の各構成について説明する。画像位置取得部151は、映像保存部111〜115に格納されている実映像データ131〜135の分割前の高精細映像における図示されていないユーザインタフェースによって入力された空間的位置を取得する。ユーザは、左上1/4の領域に対応した実映像データ131が映像保存部111に保存され、右上1/4の領域に対応した実映像データ132が映像保存部112に保存され、左下1/4の領域に対応した実映像データ133が映像保存部113に保存され、右下1/4の領域に対応した実映像データ134が映像保存部114に保存されていることを予め知り、上記の対応関係を画像位置取得部151から入力する。   Next, generation of index data, which is preprocessing of editing work performed after the video signal is taken into the video editing apparatus 1, will be described. FIG. 6 is a block diagram illustrating a configuration of the index generation unit 150. Hereinafter, each component in the figure will be described. The image position acquisition unit 151 acquires a spatial position input by a user interface (not shown) in the high-definition video before division of the real video data 131 to 135 stored in the video storage units 111 to 115. The user stores actual video data 131 corresponding to the upper left quarter area in the video storage unit 111, and stores actual video data 132 corresponding to the upper right quarter area in the video storage unit 112. 4 knows in advance that the actual video data 133 corresponding to the area 4 is stored in the video storage unit 113 and the actual video data 134 corresponding to the lower right quarter area is stored in the video storage unit 114. The correspondence relationship is input from the image position acquisition unit 151.

データ書き込みアドレス取得部152は、映像保存部111〜114に格納された実映像データ131〜134の各フレームの記録位置を示すアドレス情報を取得する。このアドレス情報は、各映像保存部111〜114の名称あるいは識別子と各フレームの記録位置とを含んでいる。インデックス記録部153は、画像位置取得部151で取得された映像データの空間的位置を示す情報と、データ書き込みアドレス取得部152によって取得されたアドレス情報とに基づいて、インデックスデータを生成し、インデックス保存部154に格納する。インデックス保存部154は、インデックス記録部153によって生成されたインデックスデータ等を記憶する。インデックス生成制御部155は、編集部120による指示に基づいて、インデックス生成部150内の各部を制御する。   The data write address acquisition unit 152 acquires address information indicating the recording position of each frame of the actual video data 131 to 134 stored in the video storage units 111 to 114. This address information includes the name or identifier of each video storage unit 111 to 114 and the recording position of each frame. The index recording unit 153 generates index data based on the information indicating the spatial position of the video data acquired by the image position acquisition unit 151 and the address information acquired by the data write address acquisition unit 152, and generates an index data Store in the storage unit 154. The index storage unit 154 stores the index data generated by the index recording unit 153 and the like. The index generation control unit 155 controls each unit in the index generation unit 150 based on an instruction from the editing unit 120.

次に、インデックスデータ生成時の動作について説明する。映像保存部111〜115への実映像データ131〜134および縮小映像データ135の保存が終了した後、システム制御部107は、編集の前処理としてインデックスデータの生成を編集部120に指示する。指示を受けた編集部120は、インデックス生成部150に対してインデックスデータの生成を指示する。インデックス生成制御部155は、この指示に基づいて、データ書き込みアドレス取得部152にアドレス情報の取得を指示する。一方、システム制御部107は、データ制御部108に対してアドレス情報の生成を指示する。データ制御部108は、映像保存部111〜115に格納されている実映像データ131〜134の記録位置を示すアドレス情報を生成し、インデックス生成部150へ出力する。   Next, the operation when generating index data will be described. After the actual video data 131 to 134 and the reduced video data 135 are stored in the video storage units 111 to 115, the system control unit 107 instructs the editing unit 120 to generate index data as pre-editing processing. Upon receiving the instruction, the editing unit 120 instructs the index generation unit 150 to generate index data. Based on this instruction, the index generation control unit 155 instructs the data write address acquisition unit 152 to acquire address information. On the other hand, the system control unit 107 instructs the data control unit 108 to generate address information. The data control unit 108 generates address information indicating the recording positions of the actual video data 131 to 134 stored in the video storage units 111 to 115 and outputs the address information to the index generation unit 150.

データ書き込みアドレス取得部152はこのアドレス情報を取得し、インデックス記録部153へ出力する。また、画像位置取得部151は、ユーザによって入力された、映像データの空間的位置に関する情報をインデックス記録部153へ出力する。インデックス記録部153は、アドレス情報と、映像データの空間的位置に関する情報とに基づいて、インデックスデータを生成し、インデックス保存部154に格納する。   The data write address acquisition unit 152 acquires this address information and outputs it to the index recording unit 153. Further, the image position acquisition unit 151 outputs information related to the spatial position of the video data input by the user to the index recording unit 153. The index recording unit 153 generates index data based on the address information and information on the spatial position of the video data, and stores the index data in the index storage unit 154.

図7は、生成されたインデックスデータの一例を示している。インデックスデータIX1001は、各フレームの映像データの映像保存部111〜114中のアドレスを示すデータと、その素材を空間的にどの位置に配置すべきかを示すデータとによって構成されている。インデックスデータIX1001の具体的な内容は以下のようになっている。1フレーム目IX1は、実映像データ131の1フレーム目UL1、実映像データ132の1フレーム目UR1、実映像データ133の1フレーム目DL1、および実映像データ134の1フレーム目DR1についてのデータである。   FIG. 7 shows an example of the generated index data. The index data IX1001 is configured by data indicating addresses in the video storage units 111 to 114 of the video data of each frame and data indicating where the material should be spatially arranged. Specific contents of the index data IX1001 are as follows. The first frame IX1 is data about the first frame UL1 of the real video data 131, the first frame UR1 of the real video data 132, the first frame DL1 of the real video data 133, and the first frame DR1 of the real video data 134. is there.

インデックスデータIX1001の1フレーム目UL1における実映像データ131の1フレーム目UL1に関するデータは、実映像データ131の1フレーム目UL1が格納されている映像保存部111の名前と、映像保存部111中のアドレス(識別データ)と、分割前の映像における空間的な位置を示すデータ(左上、右上等を示す位置データ、あるいは画素数が予め分かっている場合には画素の位置データ)とによって構成されている。インデックスデータIX1001における実映像データ132の1フレーム目UR1、実映像データ133の1フレーム目DL1、および実映像データ134の1フレーム目DR1のそれぞれに関するデータについても同様であり、インデックスデータIX1001の他のフレームIX2〜IXNのデータについても同様である。   The data related to the first frame UL1 of the actual video data 131 in the first frame UL1 of the index data IX1001 includes the name of the video storage unit 111 in which the first frame UL1 of the actual video data 131 is stored, It consists of an address (identification data) and data indicating the spatial position in the video before division (position data indicating the upper left, upper right, etc., or pixel position data if the number of pixels is known in advance). Yes. The same applies to the data relating to each of the first frame UR1 of the actual video data 132, the first frame DL1 of the actual video data 133, and the first frame DR1 of the actual video data 134 in the index data IX1001. The same applies to the data of frames IX2 to IXN.

次に、インデックスデータ生成時の他の動作について説明する。上述した動作においては、映像信号を取り込み、実映像データ131〜134および縮小映像データ135を全て映像保存部111〜115に保存した後にインデックスデータを生成したが、以下の動作においては、映像信号を取り込むと同時にインデックスデータを生成する。なお、インデックス生成部150の画像位置取得部151には、映像データの空間的位置に関する情報がユーザによって予め入力されているものとする。   Next, another operation when generating index data will be described. In the above-described operation, the video signal is captured, and the actual video data 131 to 134 and the reduced video data 135 are all stored in the video storage units 111 to 115. Then, the index data is generated. At the same time, index data is generated. It is assumed that information regarding the spatial position of the video data is input in advance by the user to the image position acquisition unit 151 of the index generation unit 150.

データ制御部108は、映像入力/出力部101〜105を介して入力された実映像データ131〜134の各フレームを映像保存部111〜115に格納するごとに、その記録位置を示すアドレス情報を生成し、インデックス生成部150へ出力する。インデックス生成部150のデータ書き込みアドレス取得部152はこのアドレス情報を取得し、インデックス記録部153へ出力する。インデックス記録部153は、アドレス情報と、画像位置取得部151から出力された、映像データの空間的位置に関する情報とに基づいて、インデックスデータを生成し、インデックス保存部154に格納する。   Each time the data control unit 108 stores each frame of the actual video data 131 to 134 input via the video input / output units 101 to 105 in the video storage units 111 to 115, address information indicating the recording position is stored. And output to the index generation unit 150. The data write address acquisition unit 152 of the index generation unit 150 acquires this address information and outputs it to the index recording unit 153. The index recording unit 153 generates index data based on the address information and information on the spatial position of the video data output from the image position acquisition unit 151 and stores the index data in the index storage unit 154.

実映像データ131〜134の各フレームが映像保存部111〜115に格納されるごとに、データ書き込みアドレス取得部152はアドレス情報を取得し、インデックス記録部153へ出力する。インデックス記録部153は、新たに取得されたアドレス情報に基づいてインデックスデータにデータを追加する。以上の動作により、図7と同様のインデックスデータが生成される。映像信号の取り込みと同時にインデックスデータが生成されるため、映像信号の取り込みが完了し次第、編集作業に移行することができる。   Each time the frames of the actual video data 131 to 134 are stored in the video storage units 111 to 115, the data write address acquisition unit 152 acquires address information and outputs it to the index recording unit 153. The index recording unit 153 adds data to the index data based on the newly acquired address information. Through the above operation, the same index data as in FIG. 7 is generated. Since index data is generated simultaneously with the capture of the video signal, it is possible to proceed to editing work as soon as the capture of the video signal is completed.

次に、インデックスデータを用いた編集方法について説明する。以下、編集時の動作を示すフローチャートである図8に沿って説明する。なお、編集時には前述した動作により、映像編集装置1の映像保存部111〜115に実映像データ131〜134および縮小映像データ135が格納され、インデックスデータがインデックス保存部154に格納されているものとする。また、図1において、映像入力/出力部105の出力端にはモニタが接続され、映像入力/出力部105から出力された映像をモニタで確認することができるものとする。   Next, an editing method using index data will be described. Hereinafter, description will be made with reference to FIG. 8 which is a flowchart showing an operation at the time of editing. Note that during editing, the actual video data 131 to 134 and the reduced video data 135 are stored in the video storage units 111 to 115 of the video editing apparatus 1 and the index data is stored in the index storage unit 154 by the above-described operation. To do. Further, in FIG. 1, a monitor is connected to the output terminal of the video input / output unit 105, and the video output from the video input / output unit 105 can be confirmed on the monitor.

システム制御部107は映像編集装置1内の各部に対して、編集動作の開始を指示する。データ制御部108は映像保存部115から縮小映像データ135を読み出し、編集部120へ出力する。編集部120は、ユーザからの指示に応じて、縮小映像データ135に対して、映像のカットを入れ換える等の時間軸方向の編集と、色の変更やCGの重ね合わせ等の深さ方向の編集とを行う(ステップS81)。このとき、編集部120は、縮小映像データ135に対して行った加工の手順を示す加工手順ファイル(手順データ)を生成し、データ制御部108へ出力する。この加工手順ファイルには、編集が行われたカット(フレーム)と、編集の内容および手順とが関係付けられている。縮小映像データ135は、元の大きさの高精細映像素材140と比べてデータ量が少ないので、高精細映像素材140と同じ大きさの映像データを直接編集するよりも短時間で編集を行うことができる。   The system control unit 107 instructs each unit in the video editing apparatus 1 to start an editing operation. The data control unit 108 reads the reduced video data 135 from the video storage unit 115 and outputs it to the editing unit 120. In response to an instruction from the user, the editing unit 120 edits the reduced video data 135 in the time axis direction, such as by replacing video cuts, and editing in the depth direction, such as color change or CG overlay. (Step S81). At this time, the editing unit 120 generates a processing procedure file (procedure data) indicating a processing procedure performed on the reduced video data 135 and outputs the processing procedure file to the data control unit 108. In this processing procedure file, a cut (frame) in which editing has been performed is associated with the editing contents and procedure. The reduced video data 135 has a smaller amount of data than the original high-definition video material 140, so that it can be edited in a shorter time than directly editing video data of the same size as the high-definition video material 140. Can do.

データ制御部108は加工手順ファイルを映像保存部115に格納する。編集部120は、編集した縮小映像データ135をデータ制御部108へ出力する。データ制御部108は編集後の縮小映像データ135を映像入力/出力部105へ出力する。映像入力/出力部105は縮小映像データ135を映像信号に変換し、外部のモニタへ出力する。モニタは縮小映像を表示し(ステップS82)、これによりユーザは編集結果を確認する。   The data control unit 108 stores the processing procedure file in the video storage unit 115. The editing unit 120 outputs the edited reduced video data 135 to the data control unit 108. The data control unit 108 outputs the reduced video data 135 after editing to the video input / output unit 105. The video input / output unit 105 converts the reduced video data 135 into a video signal and outputs it to an external monitor. The monitor displays a reduced video (step S82), whereby the user confirms the editing result.

続いて、編集結果を確認したユーザによって、編集がOKであるかNGであるかが判定される(ステップS83)。NGと判定された場合には、ステップS81に戻る。あるいは、必要に応じて、前述した動作と同様にして、他の映像信号の取り込みを行う。また、OKと判定された場合には、インデックス記録部153は、インデックス保存部154に格納されているインデックスデータを読み出し、インデックス生成制御部155を介して編集部120へ出力する。また、データ制御部108は映像保存部115から加工手順ファイルを読み出して編集部120へ出力する。編集部120は、インデックスデータおよび加工手順ファイルに基づいて、実映像データ131〜134に対する加工の内容および手順を解釈する(ステップS84)。   Subsequently, whether the editing is OK or NG is determined by the user who confirmed the editing result (step S83). If it is determined as NG, the process returns to step S81. Alternatively, if necessary, another video signal is captured in the same manner as described above. If it is determined as OK, the index recording unit 153 reads the index data stored in the index storage unit 154 and outputs it to the editing unit 120 via the index generation control unit 155. Further, the data control unit 108 reads out the processing procedure file from the video storage unit 115 and outputs it to the editing unit 120. The editing unit 120 interprets the processing content and procedure for the actual video data 131 to 134 based on the index data and the processing procedure file (step S84).

続いて、編集部120は、実映像データ131〜134に対して、1フレームずつ、加工手順ファイルに記録された手順に従って編集を行う。このとき、編集部120は、インデックスデータ中のアドレス情報に基づいて、編集対象の実映像データ131〜134のフレームのアドレスをデータ制御部108に通知する。データ制御部108は、通知された映像保存部111〜114のアドレスに順番にアクセスし、映像保存部111〜114から実映像データ131〜134の各1フレーム分のデータを読み出し、編集部120へ出力する。   Subsequently, the editing unit 120 edits the real video data 131 to 134 according to the procedure recorded in the processing procedure file frame by frame. At this time, the editing unit 120 notifies the data control unit 108 of the address of the frame of the actual video data 131 to 134 to be edited based on the address information in the index data. The data control unit 108 sequentially accesses the notified addresses of the video storage units 111 to 114, reads data for each frame of the real video data 131 to 134 from the video storage units 111 to 114, and sends the data to the editing unit 120. Output.

編集部120は、インデックスデータ中の、素材の空間位置に関する情報を参照し、図示せぬRAM等の一時記憶領域において実映像データ131の1フレームを左上、実映像データ132の1フレームを右上、実映像データ133の1フレームを左下、実映像データ134の1フレームを右下に論理的に配置し、加工手順ファイルによって示される編集を行う。ここで、縮小映像データ135が縮小前の高精細映像の例えば1/4のサイズであった場合、編集部120は縮小映像データ135の座標と実映像データ131〜134の座標との対応関係を予め知ることができる。   The editing unit 120 refers to information on the spatial position of the material in the index data, and in a temporary storage area such as a RAM (not shown), one frame of the real video data 131 is displayed on the upper left, and one frame of the real video data 132 is displayed on the upper right. One frame of the real video data 133 is logically arranged in the lower left and one frame of the real video data 134 is logically arranged in the lower right, and the editing indicated by the processing procedure file is performed. Here, when the reduced video data 135 is, for example, ¼ the size of the high-definition video before reduction, the editing unit 120 determines the correspondence between the coordinates of the reduced video data 135 and the coordinates of the actual video data 131 to 134. You can know in advance.

この場合、編集部120は、加工手順ファイルに基づいて、縮小画像データ135の画像において編集が行われた部分の座標を検出し、その座標に対応する縮小前の高精細映像中の座標を算出する。編集部120は、算出した座標がどの実映像データのどの位置に該当するのかをインデックスデータに基づいて検出し、検出した実映像データの該当位置に対して、加工手順ファイルによって示される編集を行う。これにより、縮小映像データ135に対する編集処理の結果を、実映像データ131〜134に対する編集処理に反映させることができる。   In this case, the editing unit 120 detects the coordinates of the edited portion of the image of the reduced image data 135 based on the processing procedure file, and calculates the coordinates in the high-definition video before the reduction corresponding to the coordinates. To do. The editing unit 120 detects which position of the actual video data the calculated coordinates correspond to based on the index data, and performs editing indicated by the processing procedure file on the corresponding position of the detected actual video data. . Thereby, the result of the editing process for the reduced video data 135 can be reflected in the editing process for the actual video data 131 to 134.

編集部120は上記の編集後の実映像データ131〜134の各1フレーム分のデータをデータ制御部108へ出力する。データ制御部108はこのデータを、対応する映像保存部111〜114に格納する。上記の動作を、実映像データ131〜134の各フレームに対して繰り返しながら、編集を行う(ステップS85)。   The editing unit 120 outputs data for each frame of the edited actual video data 131 to 134 to the data control unit 108. The data control unit 108 stores this data in the corresponding video storage units 111 to 114. Editing is performed while the above operation is repeated for each frame of the actual video data 131 to 134 (step S85).

続いて、データ制御部108は編集後の実映像データ131〜134を1フレームずつ読み出し、順次編集部120へ出力する。編集部120は、実映像データ131〜134の各フレームを一時記憶領域上で結合し、画素を間引く、あるいは画素補間を行うことにより画素数を縮小した映像データを生成し、その1フレーム分の映像データをデータ制御部108へ出力する。データ制御部108はこの映像データを映像入力/出力部105へ出力する。映像入力/出力部105はこの映像データを映像信号に変換し、外部のモニタへ出力する。モニタは編集後の縮小映像を表示する。以上の動作を実映像データ131〜134の各フレームについて繰り返す。ユーザはモニタに表示された縮小映像により、編集結果を確認する(ステップS86)。   Subsequently, the data control unit 108 reads the edited actual video data 131 to 134 frame by frame and sequentially outputs them to the editing unit 120. The editing unit 120 combines the frames of the actual video data 131 to 134 on the temporary storage area, generates video data with a reduced number of pixels by thinning out pixels or performing pixel interpolation, and for one frame. Video data is output to the data control unit 108. The data control unit 108 outputs this video data to the video input / output unit 105. The video input / output unit 105 converts this video data into a video signal and outputs it to an external monitor. The monitor displays the reduced video after editing. The above operation is repeated for each frame of the actual video data 131-134. The user confirms the editing result from the reduced video displayed on the monitor (step S86).

続いて、編集結果を確認したユーザによって、編集がOKであるかNGであるかが判定される(ステップS87)。NGと判定された場合には、ステップS81に戻る。あるいは、必要に応じて、前述した動作と同様にして、他の映像信号の取り込みを行う。また、OKと判定された場合には、編集した実映像データ131〜134を所定のフォーマットに変換し(ステップS88)、編集が終了する。   Subsequently, whether the editing is OK or NG is determined by the user who confirmed the editing result (step S87). If it is determined as NG, the process returns to step S81. Alternatively, if necessary, another video signal is captured in the same manner as described above. If it is determined to be OK, the edited actual video data 131 to 134 are converted into a predetermined format (step S88), and the editing ends.

なお、ステップS86において、映像入力/出力部101〜104のそれぞれにモニタを接続し、各実映像データ131〜134の映像信号を映像入力/出力部101〜104から各モニタに出力し、各実映像データ131〜134に基づいた映像を各モニタに表示することにより、編集結果の確認を行ってもよい。   In step S86, a monitor is connected to each of the video input / output units 101 to 104, and video signals of the respective real video data 131 to 134 are output from the video input / output units 101 to 104 to the respective monitors. The editing result may be confirmed by displaying the video based on the video data 131 to 134 on each monitor.

本実施形態において、インデックスデータに含まれている、実映像データ131〜134の各フレームの映像保存部111〜114における記録位置の情報は、各フレームを識別する他の情報(例えばシーケンス番号等)であってもよい。データ制御部108が映像保存部111〜114に記録されている映像データにより高速にアクセスするためには、各映像データの記録位置の情報がインデックスデータに含まれていることが望ましい。   In the present embodiment, the recording position information in the video storage units 111 to 114 of each frame of the actual video data 131 to 134 included in the index data is other information for identifying each frame (for example, a sequence number). It may be. In order for the data control unit 108 to access the video data recorded in the video storage units 111 to 114 at high speed, it is desirable that information on the recording position of each video data is included in the index data.

上述したように、本実施形態において映像入力/出力部101〜105は、タイムコード生成器202によって生成されたタイムコードと、各実映像データ131〜134に付与されたタイムコードとを比較し、両者が同一であった場合に、タイムコード生成器202によって生成されたタイミング信号に基づいたタイミングで各実映像データ131〜134を取り込み、データ制御部108へ出力する。これにより、実映像データ131〜134の各フレームが同期して映像編集装置1に入力されるので、実映像データ131〜134を映像編集装置1内に高速に取り込むことができる。   As described above, in the present embodiment, the video input / output units 101 to 105 compare the time code generated by the time code generator 202 with the time code assigned to each of the actual video data 131 to 134, When both are the same, each real video data 131-134 is taken in at the timing based on the timing signal produced | generated by the time code generator 202, and is output to the data control part 108. FIG. As a result, the frames of the real video data 131 to 134 are input to the video editing apparatus 1 in synchronization, so that the real video data 131 to 134 can be taken into the video editing apparatus 1 at high speed.

また、本実施形態による編集部120は、縮小映像データ135の編集時に生成された加工手順ファイルとインデックスデータとに基づいて、編集に必要な実映像データを映像保存部111〜114のそれぞれから読み出し、4分割のままの各々の実映像データに対して、加工手順ファイルに基づいた編集を行う。これは、従来のように、4分割の実映像データ131〜134を結合(合成)して元の大きさの高精細映像データを作成し、その高精細映像データを映像保存部111〜115のいずれかまたは他の記録媒体に一旦保存してから、その高精細映像データを編集するのとは大きく異なる。   Also, the editing unit 120 according to the present embodiment reads actual video data necessary for editing from each of the video storage units 111 to 114 based on the processing procedure file and the index data generated when the reduced video data 135 is edited. Editing based on the processing procedure file is performed on each of the actual video data that is still divided into four. As in the prior art, four-division real video data 131 to 134 are combined (synthesized) to create high-definition video data of the original size, and the high-definition video data is stored in the video storage units 111 to 115. This is greatly different from editing the high-definition video data after temporarily storing it in any or other recording medium.

本実施形態によれば、実映像データ111〜114のフレームを必要な分だけ記憶し得るRAM等の作業領域が用意されていればよいので、従来よりも記録媒体の記録容量を削減することができる。したがって、コストを削減することができる。また、実映像データ131〜134を合成した高精細映像データを記録媒体に保存すると非常に時間がかかるので、本実施形態によれば、この時間を削除することができ、高速かつ効率的に編集を行うことができる。   According to the present embodiment, it is only necessary to prepare a work area such as a RAM that can store as many frames of the actual video data 111 to 114 as necessary, so that the recording capacity of the recording medium can be reduced as compared with the conventional case. it can. Therefore, cost can be reduced. In addition, since it takes a very long time to save high-definition video data obtained by synthesizing the actual video data 131 to 134 in a recording medium, according to the present embodiment, this time can be deleted, and editing can be performed quickly and efficiently. It can be performed.

次に、本発明の第2の実施形態について説明する。図9は、本実施形態によるインデックス生成部150の構成を示すブロック図である。映像編集装置1内の他の構成は図1等と同様であるとする。本実施形態においては、画像位置取得部151に替えて、画像位置検出部156が設けられている。また、映像信号発生源130から入力される実映像データ131〜134には、各実映像データの空間的位置に関する情報が付与されている。   Next, a second embodiment of the present invention will be described. FIG. 9 is a block diagram illustrating a configuration of the index generation unit 150 according to the present embodiment. The other configurations in the video editing apparatus 1 are the same as those in FIG. In the present embodiment, an image position detection unit 156 is provided instead of the image position acquisition unit 151. Further, the real video data 131 to 134 input from the video signal generation source 130 is given information regarding the spatial position of each real video data.

データ制御部108は、映像入力/出力部101〜104を介して入力された実映像データ131〜134に付与された上記の情報を検出し、画像位置検出部156へ出力する。画像位置検出部156は、この情報に基づいて、各実映像データの空間的位置を検出し、インデックス記録部153に通知する。インデックス記録部153は、第1の実施形態と同様にしてインデックスデータを生成し、インデックス保存部154に格納する。これにより、ユーザが各実映像データの空間的位置を入力する必要がないので、ユーザの手間を軽減することができる。   The data control unit 108 detects the information given to the actual video data 131 to 134 input via the video input / output units 101 to 104 and outputs the detected information to the image position detection unit 156. Based on this information, the image position detection unit 156 detects the spatial position of each real video data and notifies the index recording unit 153 of it. The index recording unit 153 generates index data as in the first embodiment and stores it in the index storage unit 154. Thereby, since it is not necessary for a user to input the spatial position of each real video data, a user's effort can be reduced.

次に、本発明の第3の実施形態について説明する。図10は、本実施形態によるインデックス生成部150の構成を示すブロック図である。映像編集装置1内の他の構成は図1等と同様であるとする。本実施形態においては、実映像データ管理部157が設けられている。実映像データ管理部157は、インデックスデータが参照する実映像データを管理する。例えば、実映像データとインデックスデータとの関係が図7に示される関係である場合に、ユーザが実映像データ131〜134のいずれか1つのデータを削除しようとした場合には、実映像データ管理部157が図示せぬ表示部に警告を表示したり、データが削除されるのを防止したりする。   Next, a third embodiment of the present invention will be described. FIG. 10 is a block diagram illustrating a configuration of the index generation unit 150 according to the present embodiment. The other configurations in the video editing apparatus 1 are the same as those in FIG. In the present embodiment, an actual video data management unit 157 is provided. The real video data management unit 157 manages real video data referenced by the index data. For example, in the case where the relationship between the actual video data and the index data is the relationship shown in FIG. 7, when the user tries to delete any one of the actual video data 131 to 134, the actual video data management is performed. The unit 157 displays a warning on a display unit (not shown) or prevents data from being deleted.

また、ユーザがインデックスデータIX1001を削除しようとした場合には、実映像データ管理部157は、図示せぬ操作部からユーザによって入力された情報に基づいてインデックスデータIX1001の削除の指示を検出し、インデックス生成制御部155に対して、インデックスデータIX1001の読み出しを指示する。インデックス生成制御部155は、インデックス記録部153を介してインデックスデータIX1001を読み出し、インデックスデータIX1001に関係付けられた実映像データ131〜134の情報を実映像データ管理部157に通知する。   When the user tries to delete the index data IX1001, the actual video data management unit 157 detects an instruction to delete the index data IX1001 based on information input from the operation unit (not shown) by the user, The index generation control unit 155 is instructed to read the index data IX1001. The index generation control unit 155 reads the index data IX1001 via the index recording unit 153, and notifies the real video data management unit 157 of information on the real video data 131 to 134 related to the index data IX1001.

実映像データ管理部157は、編集部120を介して、実映像データ131〜134の削除をデータ制御部108に指示する。データ制御部108は、この指示に基づいて映像保存部111〜114に保存されている実映像データ131〜134を削除する。これにより、実映像データ131〜134を削除する場合には、それらのデータと関係付けられたインデックスデータIX1001を削除するだけでよいので、ユーザの手間を軽減することができる。上記のように、インデックスデータを用いて実映像データを管理することにより、複数の映像データの管理が容易になる。   The real video data management unit 157 instructs the data control unit 108 to delete the real video data 131 to 134 via the editing unit 120. Based on this instruction, the data control unit 108 deletes the actual video data 131 to 134 stored in the video storage units 111 to 114. As a result, when deleting the real video data 131 to 134, it is only necessary to delete the index data IX1001 associated with the data, so that the user's trouble can be reduced. As described above, by managing the actual video data using the index data, it becomes easy to manage a plurality of video data.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成はこれらの実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings, but the specific configuration is not limited to these embodiments, and includes design changes and the like within a scope not departing from the gist of the present invention. It is.

本発明の第1の実施形態による映像編集装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video editing apparatus by the 1st Embodiment of this invention. 第1の実施形態による映像編集装置に外部装置から映像信号を取り込む場合の接続関係を示すブロック図である。FIG. 5 is a block diagram showing a connection relationship when a video signal is captured from an external device to the video editing device according to the first embodiment. 第1の実施形態による映像信号発生源の構成を示すブロック図である。It is a block diagram which shows the structure of the video signal generation source by 1st Embodiment. 第1の実施形態による同期制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the synchronous control part by 1st Embodiment. 第1の実施形態において映像保存部に格納された実映像データの構造を示す参考図である。It is a reference figure which shows the structure of the real image data stored in the image | video preservation | save part in 1st Embodiment. 第1の実施形態によるインデックス生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the index production | generation part by 1st Embodiment. 第1の実施形態におけるインデックスデータの一例を示す参考図である。It is a reference figure showing an example of index data in a 1st embodiment. 第1の実施形態における編集時の動作を示すフローチャートである。6 is a flowchart showing an operation during editing in the first embodiment. 本発明の第2の実施形態によるインデックス生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the index production | generation part by the 2nd Embodiment of this invention. 本発明の第3の実施形態によるインデックス生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the index production | generation part by the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1・・・映像編集装置、101,102,103,104,105・・・映像入力/出力部(映像入力手段)、106・・・同期制御部(同期制御手段)、107・・・システム制御部、108・・・データ制御部(映像格納手段)、111,112,113,114,115・・・映像保存部(映像記憶手段)、120・・・編集部(編集手段)、130・・・映像信号発生源、150・・・インデックス生成部、151・・・画像位置取得部、152・・・データ書き込みアドレス取得部、153・・・インデックス記録部(インデックス生成手段、インデックス格納手段)、154・・・インデックス保存部(インデックス記憶手段)、155・・・インデックス生成制御部、156・・・画像位置検出部、157・・・実映像データ管理部、201・・・フレーム同期信号生成器、202・・・タイムコード生成器、203・・・コマンド生成器。

DESCRIPTION OF SYMBOLS 1 ... Video editing apparatus, 101, 102, 103, 104, 105 ... Video input / output part (video input means), 106 ... Synchronization control part (synchronization control means), 107 ... System control 108, data control unit (video storage means), 111, 112, 113, 114, 115 ... video storage unit (video storage means), 120 ... editing unit (editing means), 130 ... Image signal generation source, 150 ... index generation unit, 151 ... image position acquisition unit, 152 ... data write address acquisition unit, 153 ... index recording unit (index generation means, index storage means), 154: Index storage unit (index storage means), 155 ... Index generation control unit, 156 ... Image position detection unit, 157 ... Real video data Processing section, 201 ... frame synchronization signal generator, 202 ... time code generator, 203 ... command generator.

Claims (7)

全体映像が空間的に分割された個々の分割映像に対応した複数の映像データが外部装置から入力される映像入力手段と、
前記複数の映像データを記憶する映像記憶手段と、
前記映像入力手段に入力された前記映像データを前記記憶手段に格納する映像格納手段と、
前記映像入力手段に入力された前記複数の映像データが前記映像格納手段へ出力される際の出力を同期させるための同期信号を発生する同期制御手段と、
前記複数の映像データを前記映像記憶手段から読み出して編集する編集手段と、
を具備し、
前記映像入力手段は、入力された前記複数の映像データを、前記同期信号に基づいたタイミングで前記映像格納手段へ出力する
ことを特徴とする映像編集装置。
Video input means for inputting a plurality of video data corresponding to each divided video obtained by spatially dividing the entire video from an external device;
Video storage means for storing the plurality of video data;
Video storage means for storing the video data input to the video input means in the storage means;
Synchronization control means for generating a synchronization signal for synchronizing the output when the plurality of video data input to the video input means is output to the video storage means;
Editing means for reading and editing the plurality of video data from the video storage means;
Comprising
The video editing device, wherein the video input means outputs the input video data to the video storage means at a timing based on the synchronization signal.
前記同期制御手段はさらに、時系列の情報からなる第1の時間情報を生成し、
前記映像入力手段は、前記映像データに付与された時系列の情報からなる第2の時間情報と、前記第1の時間情報とを比較し、両者が同一であった場合に、前記同期信号に基づいたタイミングで前記映像データを前記格納手段へ出力する
ことを特徴とする請求項1に記載の映像編集装置。
The synchronization control means further generates first time information composed of time series information,
The video input means compares the second time information composed of time-series information given to the video data and the first time information, and if both are the same, The video editing apparatus according to claim 1, wherein the video data is output to the storage unit at a timing based on the video data.
前記映像記憶手段は、前記複数の映像データの各々に対応した複数の記録媒体からなることを特徴とする請求項1または請求項2に記載の映像編集装置。   The video editing apparatus according to claim 1, wherein the video storage unit includes a plurality of recording media corresponding to each of the plurality of video data. 前記複数の映像データを構成する各フレームの画像データを識別するためのインデックスデータを生成するインデックス生成手段と、
前記インデックスデータを記憶するインデックス記憶手段と、
前記インデックス生成手段によって生成された前記インデックスデータを前記インデックス記憶手段に格納するインデックス格納手段と、
をさらに具備することを特徴とする請求項1〜請求項3のいずれかの項に記載の映像編集装置。
Index generation means for generating index data for identifying image data of each frame constituting the plurality of video data;
Index storage means for storing the index data;
Index storage means for storing the index data generated by the index generation means in the index storage means;
The video editing apparatus according to claim 1, further comprising:
前記編集手段は、前記映像記憶手段に格納された前記複数の映像データに対する編集の手順および内容が予め記録された手順データと前記インデックスデータとに基づいて、編集に必要な前記複数の映像データを前記映像記憶手段から読み出し、各々の前記映像データを編集することを特徴とする請求項4に記載の映像編集装置。   The editing means stores the plurality of video data necessary for editing based on the procedure data and the index data in which editing procedures and contents for the plurality of video data stored in the video storage means are recorded in advance. The video editing apparatus according to claim 4, wherein the video editing apparatus reads from the video storage unit and edits each of the video data. 前記インデックスデータは、前記映像データに対応した前記分割映像の、前記全体映像における空間的な位置を示す位置データと、前記映像データを構成する各フレームの画像データを識別する識別データとを含むことを特徴とする請求項5に記載の映像編集装置。   The index data includes position data indicating a spatial position in the entire video of the divided video corresponding to the video data, and identification data for identifying image data of each frame constituting the video data. The video editing apparatus according to claim 5. 前記外部装置から入力される前記映像データには、前記全体映像における該映像データの空間的な位置を示す位置情報が含まれており、
前記インデックス生成手段はさらに、前記映像入力手段を介して入力された前記映像データ中の前記位置情報に基づいて前記位置データを生成する
ことを特徴とする請求項6に記載の映像編集装置。

The video data input from the external device includes position information indicating a spatial position of the video data in the entire video,
The video editing apparatus according to claim 6, wherein the index generation unit further generates the position data based on the position information in the video data input via the video input unit.

JP2004192907A 2004-06-30 2004-06-30 Video editing apparatus Withdrawn JP2006019804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004192907A JP2006019804A (en) 2004-06-30 2004-06-30 Video editing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004192907A JP2006019804A (en) 2004-06-30 2004-06-30 Video editing apparatus

Publications (1)

Publication Number Publication Date
JP2006019804A true JP2006019804A (en) 2006-01-19

Family

ID=35793685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004192907A Withdrawn JP2006019804A (en) 2004-06-30 2004-06-30 Video editing apparatus

Country Status (1)

Country Link
JP (1) JP2006019804A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193386A (en) * 2007-02-05 2008-08-21 Naltec Inc Method for outputting image, and system
CN112601052A (en) * 2020-12-10 2021-04-02 四川警察学院 Video resource integration system applied to internal sharing platform

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193386A (en) * 2007-02-05 2008-08-21 Naltec Inc Method for outputting image, and system
CN112601052A (en) * 2020-12-10 2021-04-02 四川警察学院 Video resource integration system applied to internal sharing platform
CN112601052B (en) * 2020-12-10 2023-04-07 四川警察学院 Video resource integration system applied to internal sharing platform

Similar Documents

Publication Publication Date Title
US10531062B2 (en) Stereographic cinematography metadata recording
US8885060B2 (en) Recording apparatus for at least recording movie data and still image data so as to be associated with each other
JP2007235373A (en) Image processing system and method, image processing apparatus and method, imaging apparatus and method, program recording medium, and program
CN103491851A (en) Medical information recording device
JP2008010979A (en) Camera apparatus
JPH10108123A (en) Image reproduction device
JP2007181164A (en) Image reproducing apparatus
JP4760786B2 (en) Video / audio encoded data editing device
JP2006019804A (en) Video editing apparatus
JP2009253769A (en) Imaging apparatus, method for controlling imaging apparatus, and program
US6507412B1 (en) Image recording/reproducing apparatus having an improved recording signal generating unit
US8275236B2 (en) Information-processing device, content-reproduction-propriety-determination-notification method, and content-reproduction-propriety-determination-notification program
US8774603B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP2006311430A (en) Device and system for displaying image
JP2006041586A (en) Video reproducing and displaying apparatus
JP2004080427A (en) Imaging apparatus and image form converting method
JP2007324663A (en) Video camera
JP2006128880A (en) Dvd recorder connected to ieee 1394 serial bus, and digital video recording apparatus connected to ieee 1394 serial bus
JP2000175147A (en) Electronic still camera
JP2018195892A (en) Imaging apparatus
JP5414844B2 (en) Imaging device
JP2005341241A (en) Image recording and reproducing apparatus
JP4769168B2 (en) Non-linear editing apparatus and non-linear editing method
JP2007267146A (en) Data recording system and data reproducing system
JP2003009177A (en) Image compositing system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070904