JP2010154116A - Information recorder, information recording method, and program - Google Patents

Information recorder, information recording method, and program Download PDF

Info

Publication number
JP2010154116A
JP2010154116A JP2008328660A JP2008328660A JP2010154116A JP 2010154116 A JP2010154116 A JP 2010154116A JP 2008328660 A JP2008328660 A JP 2008328660A JP 2008328660 A JP2008328660 A JP 2008328660A JP 2010154116 A JP2010154116 A JP 2010154116A
Authority
JP
Japan
Prior art keywords
file
information
recording
metadata
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008328660A
Other languages
Japanese (ja)
Other versions
JP2010154116A5 (en
JP5480495B2 (en
Inventor
Shinji Onishi
慎二 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008328660A priority Critical patent/JP5480495B2/en
Publication of JP2010154116A publication Critical patent/JP2010154116A/en
Publication of JP2010154116A5 publication Critical patent/JP2010154116A5/en
Application granted granted Critical
Publication of JP5480495B2 publication Critical patent/JP5480495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce loads and costs accompanying input work by applying one file metadata to another file with respect to a file recorded to a plurality of different devices. <P>SOLUTION: An information recorder for recording additional information accompanying a file in recording the file has: an acquisition means for acquiring prescribed information from the additional information in the file; a comparison means for comparing first information acquired from a first file by the acquisition means with second information acquired from a second file; and a recording means for recording the additional information in the first file as additional information in the second file when the first information and the second information are in a prescribed relationship as a result of comparison by the comparison means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ファイルに付随する付加情報を記録する情報記録技術に関する。   The present invention relates to an information recording technique for recording additional information accompanying a file.

近年、ビデオカメラの記録媒体は従来の磁気テープから、ハードディスクやフラッシュメモリーを使用するファイルベースの記録媒体が主流となっている。これにより、映像データをファイルとして取り扱えるため、ファイルサーバ等の大規模ストレージにファイルをアーカイブすることや、必要なときに検索して取り出すことが可能となる。アーカイブした膨大なファイルの中から必要なファイルを検索するためには検索用のキーが必要である。そこで、これら映像ファイル等のコンテンツに、そのコンテンツに固有の情報等を記述したメタデータを付加して記録することが一般的となっている。このメタデータとしては、例えば、タイトル、撮影場所、撮影内容、出演者が挙げられる(例えば、特許文献1参照)。   In recent years, video-based recording media using a hard disk or a flash memory have become mainstream from conventional magnetic tapes. As a result, since video data can be handled as a file, it is possible to archive the file in a large-scale storage such as a file server, or to retrieve and retrieve it when necessary. In order to search for a necessary file from a large number of archived files, a search key is required. Therefore, it is common to record the content such as video files with metadata describing information unique to the content. Examples of the metadata include a title, a shooting location, shooting contents, and performers (see, for example, Patent Document 1).

また放送映像等のファイルフォーマットとしてSMPTE(Society of Motion Picture&Television Engineers)で標準化されたMXF(Material eXchange Format)が普及している。MXF規格は、映像データや音声データをファイル化する際のフォーマットや、メタデータの定義等の複数の規格群から構成されている。メタデータの規格としてはDMS−1(Descriptive Metadata Scheme−1)が標準化されている。   Also, MXF (Material eXchange Format) standardized by SMPTE (Society of Motion Picture & Television Engineers) is widely used as a file format for broadcast video and the like. The MXF standard is composed of a plurality of standard groups, such as a format for making video data and audio data into a file, and a definition of metadata. As a standard of metadata, DMS-1 (Descriptive Metadata Scheme-1) is standardized.

DMS−1ではメタデータの項目を表すプロパティ、関連するメタデータの項目をグループ化したセット(セットはメタデータ項目として他のメタデータセットを含むことも可能)、セット及びプロパティの影響範囲を示すフレームワークが定義されている。例えば、映像のタイトルについては、ファイル全体に関わるClip Frameworkで定義されるTitleセットのMain Titleプロパティとして記録することができる。このようにメタデータを含む映像ファイルのフォーマットを共通化することにより、異なる撮影機器で撮影された映像ファイルやメタデータを、他の機器でも共通に取り扱うことができるようになる。
特開2004−312264号公報
In DMS-1, a property that represents a metadata item, a set in which related metadata items are grouped (a set may include other metadata sets as a metadata item), and the range of influence of the set and property A framework is defined. For example, a video title can be recorded as a Main Title property of a Title set defined by a Clip Framework related to the entire file. By sharing the format of the video file including metadata in this way, video files and metadata shot with different shooting devices can be handled in common with other devices.
JP 2004-31264 A

前述したように、メタデータを含む映像ファイルのフォーマットを共通化した場合であっても、メタデータ自体は機器ごとに付加していく必要がある。例えば、同じイベントを複数のビデオカメラで撮影した場合、撮影場所やイベントの内容は各ビデオカメラで共通であるが、これらの情報をメタデータとして記録するには、ビデオカメラごとに入力する作業が必要である。このため、入力作業が煩雑になり、また、ビデオカメラごとにメタデータ入力用端末やオペレータを用意することはコストアップの原因となる。   As described above, even when the format of a video file including metadata is made common, the metadata itself needs to be added for each device. For example, when shooting the same event with multiple video cameras, the shooting location and event contents are the same for each video camera. However, to record this information as metadata, you must input for each video camera. is necessary. For this reason, the input operation becomes complicated, and preparing a metadata input terminal or operator for each video camera causes an increase in cost.

上記課題を解決するために、本発明の情報記録装置は、ファイルを記録する際に当該ファイルに付随する付加情報を記録する情報記録装置であって、前記ファイルの付加情報から所定の情報を取得する取得手段と、前記取得手段により第1のファイルから取得した第1の情報と第2のファイルから取得した第2の情報とを比較する比較手段と、前記比較手段による比較の結果、前記第1の情報と前記第2の情報とが所定の関係を満たす場合、前記第1のファイルの付加情報を前記第2のファイルの付加情報として記録する記録手段と、を有する。   In order to solve the above problems, an information recording apparatus of the present invention is an information recording apparatus that records additional information accompanying a file when the file is recorded, and acquires predetermined information from the additional information of the file. Obtaining means, comparing means for comparing the first information obtained from the first file by the obtaining means with the second information obtained from the second file, and as a result of the comparison by the comparing means, And recording means for recording additional information of the first file as additional information of the second file when the first information and the second information satisfy a predetermined relationship.

また、本発明の情報記録方法は、ファイルを記録する際に当該ファイルに付随する付加情報を記録する情報記録方法であって、前記ファイルの付加情報から所定の情報を取得する取得工程と、前記取得工程により第1のファイルから取得した第1の情報と第2のファイルから取得した第2の情報とを比較する比較工程と、前記比較工程による比較の結果、前記第1の情報と前記第2の情報とが所定の関係を満たす場合、前記第1のファイルの付加情報を前記第2のファイルの付加情報として記録する記録工程と、を有する。   The information recording method of the present invention is an information recording method for recording additional information associated with the file when the file is recorded, the obtaining step of acquiring predetermined information from the additional information of the file, A comparison step of comparing the first information acquired from the first file by the acquisition step with the second information acquired from the second file; and, as a result of the comparison by the comparison step, the first information and the first information A recording step of recording additional information of the first file as additional information of the second file when the second information satisfies a predetermined relationship.

本発明によれば、複数の異なる機器に記録されたファイルについて、1つのファイルのメタデータを、他のファイルにも適用することができ、入力作業に伴う負荷やコストアップを軽減することができる。   According to the present invention, for files recorded on a plurality of different devices, the metadata of one file can be applied to other files, and the load and cost increase associated with input work can be reduced. .

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[実施形態1]
本実施形態では、2つのビデオカメラで撮影した映像ファイルに対して処理を行う場合について説明する。また、本実施形態では撮影時にMXFファイルを作成して記録を行うものとする。
[Embodiment 1]
In the present embodiment, a case will be described in which processing is performed on video files shot by two video cameras. In this embodiment, an MXF file is created and recorded at the time of shooting.

図1は、本発明の情報記録装置を適用した実施形態1のビデオカメラの概略構成を示すブロック図である。図1において、101はビデオカメラ(以下、カメラ)全体を制御するための制御部である。102はユーザが設定した各種の設定情報を記憶するための設定保存部である。103は被写体の静止画や動画などを撮影するためのレンズやCMOSセンサ等を備える撮像部である。104は撮像部103から出力される映像データをフレームごとに圧縮符号化する画像符号化部である。105は音声を検出するためのマイクである。106はマイク105から出力される音声信号をデジタル符号化する音声符号化部である。   FIG. 1 is a block diagram showing a schematic configuration of a video camera according to Embodiment 1 to which the information recording apparatus of the present invention is applied. In FIG. 1, reference numeral 101 denotes a control unit for controlling the entire video camera (hereinafter, camera). Reference numeral 102 denotes a setting storage unit for storing various setting information set by the user. An imaging unit 103 includes a lens, a CMOS sensor, and the like for capturing a still image or a moving image of the subject. An image encoding unit 104 compresses and encodes video data output from the imaging unit 103 for each frame. Reference numeral 105 denotes a microphone for detecting sound. An audio encoding unit 106 digitally encodes an audio signal output from the microphone 105.

107は画像符号化部104及び音声符号化部106から出力される映像データ、音声データ及び付加データを多重化した映像ファイルを作成する多重化部である。108は多重化されたファイルデータを記録するための記録媒体である。記録媒体108には、当該記録媒体108に記録されているファイルや記録媒体108に関する情報を管理するための管理ファイルも記録されている。本実施形態では、記録媒体108として、カメラに対して着脱可能なSD(登録商標)メモリーカードやCF(登録商標)メモリーカード等が適用可能であるが、これらに限られるものではない。   Reference numeral 107 denotes a multiplexing unit that creates a video file in which video data, audio data, and additional data output from the image encoding unit 104 and the audio encoding unit 106 are multiplexed. Reference numeral 108 denotes a recording medium for recording multiplexed file data. In the recording medium 108, a management file for managing files recorded on the recording medium 108 and information related to the recording medium 108 is also recorded. In the present embodiment, an SD (registered trademark) memory card or a CF (registered trademark) memory card that can be attached to and detached from the camera is applicable as the recording medium 108, but is not limited thereto.

109は記録媒体108に記録されるファイルに付随する付加情報としてのメタデータを一時的に記憶するためのメタデータバッファである。110はカメラの位置情報を取得するためのGPS(Global Positioning System)である。111はPC等の外部機器と通信を行うための無線LANである。本実施形態では、制御部101がHTTPサーバ機能を有し、他のカメラ等の外部機器は無線LAN111を介してHTTPサーバにアクセスしてカメラの設定やメタデータの入力を行うことができる。   Reference numeral 109 denotes a metadata buffer for temporarily storing metadata as additional information attached to a file recorded on the recording medium 108. Reference numeral 110 denotes a GPS (Global Positioning System) for acquiring camera position information. Reference numeral 111 denotes a wireless LAN for communicating with an external device such as a PC. In the present embodiment, the control unit 101 has an HTTP server function, and an external device such as another camera can access the HTTP server via the wireless LAN 111 and perform camera settings and metadata input.

次に、図2を参照してビデオカメラに対するメタデータの入力処理及び各種情報の設定処理について説明する。図2において、ユーザが撮影モードでカメラを起動すると、S201にて制御部101はHTTPサーバ機能を起動する。S202では、制御部101は録画中であるか否かを判定する。録画中ではない場合、S203に進み、ユーザからの録画開始ボタン等による録画開始要求があったか否かを判定する。録画開始要求があった場合、S204で画像符号化部104、音声符号化部106、多重化部107及びメタデータバッファ109の初期化処理を行い、記録媒体108に新規のファイルを作成する。更に、記録媒体に108には、GPS110から位置情報を取得し、この位置情報と後述する設定保存部102に保存されている録画ファイルに共通なメタデータが記録される。また、カメラは不図示の時計機能を有し、録画開始時刻をメタデータとしてファイルに付加して記録する。メタデータを記録した後、映像データや音声データの記録を開始する。   Next, metadata input processing and various information setting processing for the video camera will be described with reference to FIG. In FIG. 2, when the user activates the camera in the shooting mode, the control unit 101 activates the HTTP server function in S201. In S202, the control unit 101 determines whether recording is in progress. If the recording is not in progress, the process proceeds to S203, and it is determined whether or not a recording start request is received from the user by a recording start button or the like. When there is a recording start request, the image encoding unit 104, the audio encoding unit 106, the multiplexing unit 107, and the metadata buffer 109 are initialized in S204, and a new file is created on the recording medium 108. Further, the position information is acquired from the GPS 110 in the recording medium 108, and metadata common to the position information and a recording file stored in the setting storage unit 102 described later is recorded. The camera also has a clock function (not shown), and records the recording start time as metadata added to a file. After recording the metadata, recording of video data and audio data is started.

一方、S203で録画開始要求がなかった場合、S205に進み、無線LAN111を介して外部機器からHTTPリクエストを受信したか否かを判定する。HTTPリクエストを受信していない場合はS202に戻る。HTTPリクエストを受信した場合は、S206に進み、受信したHTTPリクエストが設定ページの送信要求であるか否かを判定する。設定ページの送信要求であった場合、S209に進み、カメラの設定を行うための設定ページのデータを無線LAN111を介して外部機器に送信しS202に戻る。この設定ページの内容については後述する。   On the other hand, if there is no recording start request in S203, the process proceeds to S205, in which it is determined whether an HTTP request has been received from an external device via the wireless LAN 111. If an HTTP request has not been received, the process returns to S202. If an HTTP request is received, the process advances to step S206 to determine whether the received HTTP request is a setting page transmission request. If it is a request for transmission of a setting page, the process proceeds to S209, where data of the setting page for setting the camera is transmitted to the external device via the wireless LAN 111, and the process returns to S202. The contents of this setting page will be described later.

また、S206で受信したHTTPリクエストが設定ページの送信要求ではない場合、S207でHTTPリクエストが設定入力フォームによる設定要求であるか否かを判定する。設定要求であった場合はS208に進み、設定入力フォームから設定データを検出して設定保存部102に保存するとともに、記録媒体108の管理ファイルに設定を記録する。S208で設定を保存した後、S209で設定内容を反映した設定ページのデータを無線LAN111を介して外部機器に送信してS202に戻る。また、S207で設定入力要求ではない場合、S210でエラーページを示すデータを送信してS202に戻る。   If the HTTP request received in S206 is not a setting page transmission request, it is determined in S207 whether the HTTP request is a setting request using a setting input form. If it is a setting request, the process proceeds to S208, where setting data is detected from the setting input form and stored in the setting storage unit 102, and the setting is recorded in the management file of the recording medium 108. After the setting is saved in S208, the setting page data reflecting the setting content is transmitted to the external device via the wireless LAN 111 in S209, and the process returns to S202. If it is not a setting input request in S207, data indicating an error page is transmitted in S210, and the process returns to S202.

図3は、S209にて送信されるメタデータの設定を行うための設定ページを例示している。図3において、設定ページは、全ての撮影ファイルに共通のメタデータを設定する部分31と、撮影ファイルごとに異なる個別のメタデータを設定する部分32とに分かれている。311は撮影ファイルのタイトルを設定するテキストボックスである。312はカメラマンの名前を設定するテキストボックスである。321は本カメラで記録したメタデータをマスターデータとして使用するか否かを設定するチェックボックスである。322、324、326、328はそれぞれ撮影場所、撮影内容、出演者、イベントメモの入力を撮影ファイルに対して行うか否かを設定するチェックボックスである。323、325、327、329は入力された撮影場所、撮影内容、出演者、イベントメモの個別メタデータを本カメラで撮影したファイルのみに適用するか、他の機器で撮影されたファイルにも適用するかを設定するためのチェックボックスである。   FIG. 3 illustrates a setting page for setting the metadata transmitted in step S209. In FIG. 3, the setting page is divided into a part 31 for setting metadata common to all shooting files and a part 32 for setting individual metadata different for each shooting file. Reference numeral 311 denotes a text box for setting the title of the shooting file. Reference numeral 312 denotes a text box for setting the name of the photographer. Reference numeral 321 denotes a check box for setting whether to use metadata recorded by the camera as master data. Reference numerals 322, 324, 326, and 328 are check boxes for setting whether or not to input a shooting location, shooting content, performer, and event memo to the shooting file. 323, 325, 327, and 329 apply the individual metadata of input shooting location, shooting content, performers, and event memo only to files shot with this camera, or apply to files shot with other devices It is a check box for setting whether to do.

撮影場所、撮影内容、出演者の3つの項目は、1つの撮影ファイルに対してそれぞれ最大で1つのデータのみ入力可能な項目であり、イベントメモは1つの撮影ファイルに対して複数のデータを時間情報とともに設定できる項目である。33は入力した設定をカメラに反映させるためのボタンである。上記各項目の設定が行われていない場合は、図3に示すように全ての項目が空欄もしくは非選択の状態のデータが送信され、設定済みの項目がある場合は、各項目に設定済みの内容がセットされた状態のデータが送信される。カメラのHTTPサーバにアクセスし、設定ページのデータを受信した外部機器では、設定ページを表示した後、ユーザ操作による設定データの入力が可能となる。   The shooting location, shooting content, and performer items are items that can only be entered for one shooting file at a maximum. Each event memo can contain multiple data for one shooting file. This item can be set together with information. Reference numeral 33 denotes a button for reflecting the input setting on the camera. If the above items have not been set, data in which all items are blank or not selected is transmitted as shown in FIG. 3, and if there are items that have been set, each item has already been set. Data with the contents set is transmitted. An external device that has accessed the HTTP server of the camera and received the setting page data can input the setting data by a user operation after displaying the setting page.

図4は、図3の設定ページに対してメタデータが入力された状態を例示している。図4において、共通メタデータ欄にはタイトル及びカメラマンに関する各情報が設定されている。個別メタデータ欄には、本カメラで設定したメタデータをマスターデータとして使用するよう設定されている。また、撮影場所、撮影内容、イベントメモの入力を撮影ファイルに対して行う設定となっている。更に、撮影場所及びイベントメモの各メタデータを他のカメラで撮影されたファイルにも共通に適用する設定となっている。図示の如く設定を入力した後、ユーザが設定ボタン33をクリックすると、入力されたフォームデータが他のカメラに送信される。フォームデータを受信したカメラは、フォームデータを解析して、設定内容を設定保存部102に保存する。また、記録媒体108の管理ファイルには、マスターデータとして使用するか否かの情報や、共有設定のメタデータ項目を示す情報が記録される。   FIG. 4 illustrates a state where metadata is input to the setting page of FIG. In FIG. 4, each piece of information regarding the title and the photographer is set in the common metadata column. In the individual metadata column, the metadata set by the camera is set to be used as master data. Also, the shooting location, shooting content, and event memo are input to the shooting file. Furthermore, the setting is such that the metadata of the shooting location and the event memo is also applied in common to files shot by other cameras. After entering the settings as shown in the figure, when the user clicks the setting button 33, the entered form data is transmitted to another camera. The camera that has received the form data analyzes the form data and stores the setting contents in the setting storage unit 102. The management file of the recording medium 108 records information indicating whether or not to use as master data and information indicating the metadata item of the sharing setting.

図5は、管理ファイルに記録された情報を例示している。図5において、1行目はマスターデータとして使用することを示す情報である。2行目から5行目はそれぞれ撮影場所、撮影内容、出演者、イベントメモのメタデータ項目を本カメラで撮影したファイルのみに適用するか、他のカメラで撮影されたファイルにも適用するかを示す情報である。”COMMON”と設定された項目が他のカメラで撮影されたファイルにも適用する項目である。   FIG. 5 illustrates information recorded in the management file. In FIG. 5, the first line is information indicating that it is used as master data. Whether the second to fifth lines apply the shooting location, shooting details, performers, and event memo metadata items only to files shot with this camera or to files shot with other cameras. It is information which shows. The item set as “COMMON” is also an item applied to a file shot by another camera.

次に、図2を参照してビデオカメラの録画処理について説明する。図2において、S204で録画処理が開始されると、S202で録画中であると判定されてS211に進む。S211では録画停止要求があったか否かを判定する。録画停止要求があった場合、S212に進み、記録媒体108への映像・音声の記録を終了し、メタデータバッファ109に記憶されているメタデータをファイルに付加して録画処理を終了する。   Next, the video camera recording process will be described with reference to FIG. In FIG. 2, when the recording process is started in S204, it is determined that the recording is being performed in S202, and the process proceeds to S211. In S211, it is determined whether or not a recording stop request has been made. If there is a recording stop request, the process proceeds to S212, the recording of video / audio on the recording medium 108 is terminated, the metadata stored in the metadata buffer 109 is added to the file, and the recording process is terminated.

S211で録画停止要求がなかった場合、S213では無線LAN111を介して外部機器からHTTPリクエストを受信したか否かを判定する。HTTPリクエストを受信していない場合はS202に戻る。HTTPリクエストを受信している場合は、S214で受信したHTTPリクエストがメタデータ入力用ページの送信要求であるか否かを判定する。メタデータ入力用ページの送信要求であった場合、S217でメタデータ入力用ページのデータを無線LAN111を介して外部機器に送信しS202に戻る。このメタデータ入力用ページの内容については後述する。   If there is no recording stop request in S211, it is determined in S213 whether an HTTP request is received from an external device via the wireless LAN 111. If an HTTP request has not been received, the process returns to S202. If an HTTP request has been received, it is determined whether or not the HTTP request received in S214 is a transmission request for a metadata input page. If the transmission request is for the metadata input page, the metadata input page data is transmitted to the external device via the wireless LAN 111 in S217, and the process returns to S202. The contents of this metadata input page will be described later.

S214で受信したHTTPリクエストがメタデータ入力用ページの送信要求ではない場合、S215でHTTPリクエストがメタデータ入力フォームによるメタデータ入力であるか否かを判定する。メタデータ入力であった場合は、S216で入力フォームデータからメタデータを検出してメタデータバッファ109に保存する。この際、入力されたメタデータ項目がイベントメモであった場合、メタデータを検出した時点の録画中のファイルの位置情報(録画映像のフレーム番号)をイベントメモのメタデータとともに保存する。S216でメタデータを保存した後、S217でメタデータ入力用ページのデータを無線LAN111を介して外部機器に送信しS202に戻る。また、S215でメタデータ入力ではない場合、S210でエラーページを示すデータを送信してS202に戻る。   If the HTTP request received in S214 is not a request for transmitting a metadata input page, it is determined in S215 whether or not the HTTP request is a metadata input using a metadata input form. If the input is metadata, the metadata is detected from the input form data in S216 and stored in the metadata buffer 109. At this time, if the input metadata item is an event memo, the position information (frame number of the recorded video) of the file being recorded at the time when the metadata is detected is stored together with the event memo metadata. After storing the metadata in S216, the metadata input page data is transmitted to the external device via the wireless LAN 111 in S217, and the process returns to S202. If it is not metadata input in S215, data indicating an error page is transmitted in S210, and the process returns to S202.

図6は、図4に示すメタデータの設定が行われている場合において、S214にて送信されるメタデータ入力用ページを例示している。図4では個別メタデータとして、撮影場所、撮影内容、イベントメモの3つの項目が選択されているため、S214では3つの項目の入力を行うためのページデータを作成して送信する。図6において、601、603、605はそれぞれ撮影場所、撮影内容、イベントメモのデータを入力するためのテキストボックスである。602、604、606は各テキストボックス601、603、605に入力された撮影場所、撮影内容、イベントメモの内容をカメラに保存させるためのボタンである。撮影場所及び撮影内容の2つの項目は、現在録画中のファイルに対して入力が行われていない場合は図6のように各項目のテキストボックスが空欄の状態でデータが送信される。また、入力済みの項目がある場合は、各項目に入力済みの内容がセットされた状態でデータが送信される。録画中にカメラのHTTPサーバに対してアクセスを行った場合、アクセスを行った外部機器は入力ページのデータを受信して表示を行い、ユーザは表示されたページに対してメタデータの入力を行ってカメラに送信する。   FIG. 6 illustrates the metadata input page transmitted in S214 when the metadata setting shown in FIG. 4 is performed. In FIG. 4, since three items of shooting location, shooting content, and event memo are selected as individual metadata, page data for inputting the three items is created and transmitted in S214. In FIG. 6, reference numerals 601, 603, and 605 denote text boxes for inputting shooting location, shooting content, and event memo data, respectively. Reference numerals 602, 604, and 606 denote buttons for causing the camera to store the shooting location, shooting contents, and event memo contents input in the text boxes 601, 603, and 605. When two items of the shooting location and the shooting content are not input to the file currently being recorded, data is transmitted with the text box of each item blank as shown in FIG. If there is an input item, the data is transmitted in a state where the input content is set in each item. When accessing the HTTP server of the camera during recording, the accessing external device receives and displays the data of the input page, and the user inputs metadata for the displayed page. To send to the camera.

以下では、サッカー場で特定の選手のプレイ状況を撮影している場合について説明する。図7〜図9は録画中のファイルに対してメタデータを入力した状態を例示している。ユーザが図7に示すように撮影場所のメタデータをテキストボックス601に入力して設定ボタン602をクリックすると、撮影場所のメタデータのフォームデータがカメラに送信される。カメラは図2のS215でメタデータのフォームデータを検出し、S216で撮影場所のメタデータをメタデータバッファ109に保存する。S217では保存済みの撮影場所のメタデータをテキストボックス601にセットしたメタデータ入力ページのデータを生成し、外部機器に送信する。   Below, the case where the play situation of a specific player is image | photographed on a soccer field is demonstrated. 7 to 9 illustrate the state in which metadata is input to a file being recorded. When the user inputs the shooting location metadata into the text box 601 and clicks the setting button 602 as shown in FIG. 7, the form data of the shooting location metadata is transmitted to the camera. The camera detects the metadata form data in S215 of FIG. 2, and stores the shooting location metadata in the metadata buffer 109 in S216. In S217, metadata input page data in which the metadata of the stored shooting location is set in the text box 601 is generated and transmitted to the external device.

次にユーザは図8示すように撮影内容のメタデータをテキストボックス603に入力して設定ボタン604をクリックすると、撮影内容のメタデータのフォームデータがカメラに送信される。カメラは図2のS215でメタデータのフォームデータを検出し、S216で撮影内容のメタデータをメタデータバッファ109に保存する。S217では保存済みの撮影場所及び撮影内容のメタデータをテキストボックス601及び603にセットしたメタデータ入力ページのデータを生成し、外部機器に送信する。   Next, as shown in FIG. 8, when the user inputs the metadata of the shooting content into the text box 603 and clicks the setting button 604, the form data of the metadata of the shooting content is transmitted to the camera. The camera detects the metadata form data in S215 of FIG. 2, and stores the metadata of the captured content in the metadata buffer 109 in S216. In S217, metadata of the metadata input page in which the metadata of the saved shooting location and shooting content is set in the text boxes 601 and 603 is generated and transmitted to the external device.

次に録画中にゴールが決まったというイベントが発生した場合、ユーザは図9に示すイベントメモのメタデータをテキストボックス605に入力して設定ボタン606をクリックすると、イベントメモのメタデータのフォームデータがビデオカメラに送信される。カメラは図2のS215でメタデータのフォームデータを検出し、S216でイベントメモのメタデータをメタデータバッファ109に保存する。イベントメモの保存時には、メタデータを検出した時点の録画中のファイルの位置情報(録画映像のフレーム番号)をイベントメモのメタデータとともに保存する。   Next, when an event that a goal has been determined during recording occurs, the user inputs the event memo metadata shown in FIG. 9 into the text box 605 and clicks the setting button 606 to form the event memo metadata form data. Is sent to the video camera. The camera detects the metadata form data in S215 of FIG. 2, and stores the event memo metadata in the metadata buffer 109 in S216. When the event memo is stored, the position information (frame number of the recorded video) of the file being recorded at the time when the metadata is detected is stored together with the event memo metadata.

イベントメモの入力後、録画中にさらに別のイベントが発生した場合は同様にメタデータを入力することでメタデータがメタデータバッファ109に保存される。その後、ユーザが録画停止を行うと図2のS212においてメタデータバッファ109に保存されているメタデータが録画ファイルに付加され記録される。録画開始時に記録されるGPSからの位置情報、タイトル及びカメラマンの各メタデータ並びに録画中に入力された撮影場所、撮影内容及びイベントメモの各メタデータは、MXFファイルの記述メタデータ規格であるDMS−1に従って記録される。   If another event occurs during recording after the event memo is input, the metadata is stored in the metadata buffer 109 by inputting the metadata in the same manner. After that, when the user stops recording, the metadata stored in the metadata buffer 109 is added to the recording file and recorded in S212 of FIG. Position information from GPS recorded at the start of recording, title and photographer metadata, and shooting location, shooting content, and event memo metadata input during recording are MXS file description metadata standards DMS Recorded according to -1.

Figure 2010154116
Figure 2010154116

表1は各メタデータ項目とDMS−1の項目との対応関係を例示している。表1の各DMS−1の項目は、(フレームワーク)/(セット)/(プロパティ)の形式で示される。「GPS位置情報」のメタデータはファイル全体に関わるClip Frameworkで定義されるLocationセットで定義されるAddressセットのGeographical Coordinateプロパティとして記録される。   Table 1 illustrates the correspondence between each metadata item and the item of DMS-1. Each DMS-1 item in Table 1 is shown in the format of (framework) / (set) / (property). The metadata of “GPS location information” is recorded as the Geometric Coordinate property of the Address set defined by the Location set defined by the Clip Framework related to the entire file.

「カメラマン」のメタデータは複数のプロパティを用いて記録され、Clip FrameworkのParticipantセットのJob Functionプロパティには”Shooter”という内容が記録される。Clip FrameworkのParticipantセットのPersonセットのFamily Name及びFirst Given Nameプロパティにはカメラマンの名前が記録される。「イベントメモ」のメタデータはClip FrameworkのShotセットのKeypointセットのKeypoint Positionプロパティにイベントが発生したファイル上の位置が記録される。また、Clip FrameworkのShotセットのKeypointセットのKeypoint Valueプロパティにイベント内容が記録される。   The metadata of “cameraman” is recorded using a plurality of properties, and the content “Shooter” is recorded in the Job Function property of the Participant set of Clip Framework. The name of the photographer is recorded in the Family Name and First Given Name properties of the Person set of the Participant set of the Clip Framework. In the metadata of “event memo”, the position on the file where the event has occurred is recorded in the Keypoint Position property of the Keypoint set of the Shot set of the Clip Framework. Also, the event content is recorded in the Keypoint Value property of the Keypoint set of the Shot set of the Clip Framework.

次に、第1のビデオカメラと第2のビデオカメラでの撮影に関するメタデータの設定について説明する。第1及び第2のビデオカメラの構成及びフローは、図1及び図2と同一である。図10は、第2のビデオカメラに対して図2のS207で入力されるメタデータ設定例である。図10において、共通メタデータ欄にはタイトル及びカメラマンに関する各情報が設定されている。個別メタデータ欄には、本カメラで設定したメタデータをマスターデータとして使用せず、またいずれのメタデータ項目も第2のビデオカメラでは設定しないようになっている。このため、第2のビデオカメラで撮影した録画ファイルには、GPSからの位置情報、タイトル、カメラマンのメタデータのみが付加され記録される。   Next, setting of metadata related to shooting with the first video camera and the second video camera will be described. The configuration and flow of the first and second video cameras are the same as those in FIGS. FIG. 10 is an example of metadata setting input to the second video camera in S207 of FIG. In FIG. 10, each piece of information regarding the title and the photographer is set in the common metadata column. In the individual metadata column, the metadata set by this camera is not used as master data, and any metadata item is not set by the second video camera. For this reason, only the positional information from GPS, the title, and the metadata of the cameraman are added and recorded in the recording file shot by the second video camera.

図11は第2のカメラの管理ファイルに記録されたメタデータに関する設定例である。図11において、1行目はマスターデータとして使用しないことを示す情報である。2行目から5行目は撮影場所、撮影内容、出演者、イベントメモの各項目の内容を本カメラで撮影したファイルのみに適用するか、他のカメラで撮影されたファイルにも適用するかを示す情報である。全て”PRIVATE”が設定されており、他のカメラで撮影されたファイルには適用しない項目として設定されている。   FIG. 11 shows an example of settings related to metadata recorded in the management file of the second camera. In FIG. 11, the first line is information indicating that it is not used as master data. In the second to fifth lines, whether the shooting location, shooting contents, performers, and event memo items are applied only to files shot with this camera, or to files shot with other cameras It is information which shows. “PRIVATE” is set for all, and it is set as an item that does not apply to files shot with other cameras.

以上述べた処理により、第1のビデオカメラで撮影した録画ファイルには個別メタデータを含むメタデータが付加され記録される。また、第2のビデオカメラで撮影した録画ファイルには位置情報及び共通メタデータであるタイトル、カメラマンの各メタデータのみが付加され記録される。   Through the processing described above, metadata including individual metadata is added and recorded in the recording file shot by the first video camera. In addition, only the position information and the title metadata, which is common metadata, and the cameraman metadata are added and recorded in the recording file shot by the second video camera.

次に、第1のカメラで撮影した録画ファイルに記録されている個別メタデータを第2のカメラで撮影した録画ファイルに適用するための処理について説明する。図12は第1及び第2のカメラでそれぞれ撮影されたファイルを例示している。本実施形態では、第1及び第2のカメラは同じサッカー場内の異なる場所で撮影を行い、第2のビデオカメラは途中で別の場所に移動して第1のビデオカメラとは全く異なる内容を撮影した場合について説明する。   Next, a process for applying the individual metadata recorded in the recording file photographed by the first camera to the recording file photographed by the second camera will be described. FIG. 12 exemplifies files taken by the first and second cameras, respectively. In this embodiment, the first and second cameras shoot at different locations in the same soccer field, and the second video camera moves to another location on the way and has completely different contents from the first video camera. A case of shooting will be described.

図12において、1210が第1のカメラで撮影した第1のファイルであり、1220が第2のカメラで撮影した第2のファイルである。第1のビデオカメラにはファイル1211及び1212の2つのファイルが保存されている。第2のビデオカメラではファイル1221、1222及び1223の3つのファイルが保存されており、各ファイルにはそれぞれ図示のメタデータが録画時に記録されている。   In FIG. 12, reference numeral 1210 denotes a first file photographed by the first camera, and reference numeral 1220 denotes a second file photographed by the second camera. Two files 1211 and 1212 are stored in the first video camera. The second video camera stores three files 1221, 1222, and 1223, and metadata shown in each file is recorded during recording.

図12の中央の矢印tは時間の経過を表している。例えば、第1のビデオカメラで撮影されたファイル1211には図4のメタデータ設定ページにより設定された「タイトル」、「カメラマン」のメタデータが記録されている。また、ファイル1211には図7、図8のメタデータ入力ページを使用して入力された「撮影場所」、「撮影内容」のメタデータが記録されている。また、図9のメタデータ入力ページにより入力された「イベントメモ」のメタデータがファイル1211の映像フレーム位置t11のイベントメタデータとして記録されている。   The arrow t in the center of FIG. 12 represents the passage of time. For example, metadata of “title” and “cameraman” set on the metadata setting page of FIG. 4 is recorded in the file 1211 photographed by the first video camera. The file 1211 records metadata of “shooting location” and “shooting content” input using the metadata input page of FIGS. 7 and 8. Further, metadata of “event memo” input through the metadata input page of FIG. 9 is recorded as event metadata at the video frame position t11 of the file 1211.

第2のカメラで撮影されたファイル1221、1222には、図10のメタデータ設定ページを用いて設定された「タイトル」、「カメラマン」のメタデータのみが記録されている。ファイル1223は、ファイル1222を撮影した後に別の場所に移動して撮影したファイルであり、タイトルの設定が変更されて記録されている。   In the files 1221 and 1222 photographed by the second camera, only the metadata of “title” and “cameraman” set using the metadata setting page of FIG. 10 is recorded. The file 1223 is a file that is taken after the file 1222 is photographed and moved to another location, and is recorded with the title setting changed.

図30は、本実施形態における記録装置3000の構成を示すブロック図である。   FIG. 30 is a block diagram illustrating a configuration of the recording apparatus 3000 according to the present embodiment.

記録装置3000には、前述したように2台のカメラで撮影されたデータが記録された2つのメモリーカードM1、M2が装着される。記録装置3000は、これらメモリーカードに記録された画像ファイルやメタデータを下記のように処理する。   As described above, two memory cards M1 and M2 on which data captured by two cameras are recorded are mounted on the recording device 3000. The recording device 3000 processes image files and metadata recorded on these memory cards as follows.

図30において、第1記録再生部3001、第2記録再生部3002は、それぞれ、制御部3004からの指示に従い、装着されたメモリーカードM1、M2に対し、画像ファイルやメタデータファイルなど、各種のデータを記録再生する。なお、第1記録再生部3001、第2記録再生部3002はそれぞれ、メモリーカードM1、M2を自由に装着、排出可能なカードスロットなどのメカニズムや、接続端子などを含む。   In FIG. 30, the first recording / reproducing unit 3001 and the second recording / reproducing unit 3002 respectively perform various operations such as image files and metadata files on the mounted memory cards M1, M2 in accordance with instructions from the control unit 3004. Record and play back data. The first recording / reproducing unit 3001 and the second recording / reproducing unit 3002 each include a mechanism such as a card slot in which the memory cards M1 and M2 can be freely inserted and ejected, a connection terminal, and the like.

信号処理部3003は、メモリーカードM1、M2から再生された画像ファイルに含まれる動画データや静止画データを処理する。具体的には、メモリーカードから再生された画像データをデコードし、表示部3007に表示する等の処理を実行する。   The signal processing unit 3003 processes moving image data and still image data included in image files reproduced from the memory cards M1 and M2. Specifically, processing such as decoding the image data reproduced from the memory card and displaying it on the display unit 3007 is executed.

制御部3004は、操作部3005からの指示に従い、記録装置3000の動作を制御する。また、制御部3004は、後述するように、メモリーカードM1、M2の間でメタデータをコピーする際の制御を行う。   The control unit 3004 controls the operation of the recording device 3000 according to instructions from the operation unit 3005. Further, the control unit 3004 performs control when copying metadata between the memory cards M1 and M2, as will be described later.

操作部3005は、ユーザによる操作を入力するための各種の操作スイッチなどを有する。メモリ3006は、後述するように、メモリーカードM1、M2から読み出されたメタデータを一時保存する。表示部3007は、メモリーカードM1、M2に記録された動画や静止画、メタデータなどを表示する他、必要に応じて各種の情報を表示する。   The operation unit 3005 includes various operation switches for inputting an operation by the user. The memory 3006 temporarily stores metadata read from the memory cards M1 and M2, as will be described later. The display unit 3007 displays moving images, still images, metadata, and the like recorded on the memory cards M1 and M2, and displays various types of information as necessary.

また、図30の各ブロックは、バス3008によってデータのやりとりを行う。   Each block in FIG. 30 exchanges data through the bus 3008.

図13は、第1のカメラで撮影した録画ファイルに記録されている個別メタデータを第2のカメラで撮影した録画ファイルに適用するための処理を示すフローチャートである。図13において、第1のカメラで撮影されたフ第1のファイルは第1のメモリーカード(第1の記録媒体)に、第2のカメラで撮影された第2のファイルは第2のメモリーカード(第2の記録媒体)にそれぞれ記録されているものとする。また、本フローは図30に示す記録装置3000の制御部3004により実行されるものとする。なお、記録装置としてはPCやカードスロットを複数有するビデオカメラであってもよい。   FIG. 13 is a flowchart showing a process for applying individual metadata recorded in a recording file photographed by the first camera to a recording file photographed by the second camera. In FIG. 13, the first file photographed by the first camera is stored on the first memory card (first recording medium), and the second file photographed by the second camera is stored on the second memory card. It is assumed that each is recorded on (second recording medium). This flow is executed by the control unit 3004 of the recording apparatus 3000 shown in FIG. The recording device may be a PC or a video camera having a plurality of card slots.

図13において、S1301、S1302では第1記録再生部3001と第2記録再生部3002のいずれかに個別メタデータの記録先である第2のメモリーカード及び個別メタデータの記録元である第1のメモリーカードが挿入されているか否かを検出する。カードスロットの状態からメモリーカードが検出された場合、メモリーカードの管理ファイルを読み込んで設定を確認する。メタデータの記録先及び記録元のメモリーカードを検出した場合、S1303で第1のメモリーカードの管理ファイルを読み込んで、各個別メタデータ項目の設定が共有設定か否かを検出する。第1のメモリーカードに記録された管理ファイルには、図5で説明したように撮影場所及びイベントメモの2つの項目が共有設定として記録されている。   In FIG. 13, in S1301 and S1302, the first recording / reproducing unit 3001 and the second recording / reproducing unit 3002 store the second memory card that is the recording destination of the individual metadata and the first recording source of the individual metadata. Detects whether a memory card is inserted. If a memory card is detected from the card slot status, read the memory card management file and check the settings. When the metadata recording destination and the recording source memory card are detected, the management file of the first memory card is read in S1303, and it is detected whether or not the setting of each individual metadata item is the sharing setting. In the management file recorded on the first memory card, two items of shooting location and event memo are recorded as shared settings as described in FIG.

次に、S1304では第1のメモリーカードに記録されている、メタデータの記録元である録画ファイル(以下、マスターファイル)の全てに対して処理が完了済みか否かを判定する。全てのマスターファイルに対する処理が完了している場合は本処理を終了する。未処理のマスターファイルが存在する場合は、S1305で次の未処理のマスターファイルを読み込み、S1306、S1307でマスターファイルに記録されている撮影時刻情報及び位置情報(第1の情報)を取得する。   Next, in S1304, it is determined whether or not the processing has been completed for all of the recording files (hereinafter referred to as master files) that are recorded in the first memory card and that are metadata recording sources. If the processing for all master files has been completed, this processing ends. If there is an unprocessed master file, the next unprocessed master file is read in S1305, and shooting time information and position information (first information) recorded in the master file are acquired in S1306 and S1307.

最初のマスターファイルに対する処理では、図12のファイル1211がマスターファイルとして読み込まれ、撮影時刻情報として録画開始時刻及びファイルの長さ(映像フレーム数)を、GPSから位置情報を取得する。S1308では、S1303で読み込んだ共有設定情報に基づき、マスターファイルに記録されているファイル全体に関する共有ファイルメタデータを読み込む。ファイル1211の場合、共有ファイルメタデータとして撮影場所のデータが読み込まれる。   In the process for the first master file, the file 1211 in FIG. 12 is read as a master file, and the recording start time and the file length (number of video frames) are acquired as shooting time information, and the position information is acquired from the GPS. In S1308, based on the sharing setting information read in S1303, the shared file metadata related to the entire file recorded in the master file is read. In the case of the file 1211, the shooting location data is read as shared file metadata.

S1309では第2のメモリーカードに記録されている、メタデータの記録先である録画ファイル(以下、ターゲットファイル)の全てに対して処理が完了済みか否かを判定する。全てターゲットファイルに対する処理が完了している場合はS1304に戻り、第1のメモリーカードの次の未処理のマスターファイルの処理を行う。未処理のターゲットファイルが存在する場合は、S1310で次の未処理のターゲットファイルを読み込む。   In S1309, it is determined whether or not the processing has been completed for all the recording files (hereinafter referred to as target files) that are recorded in the second memory card and that are metadata recording destinations. If all of the target files have been processed, the process returns to S1304 to process the next unprocessed master file on the first memory card. If an unprocessed target file exists, the next unprocessed target file is read in S1310.

S1311でターゲットファイルに記録されている位置情報(第2の情報)を取得する。最初のターゲットファイルに対する処理では、図12のファイル1221がターゲットファイルとして読み込まれ、位置情報を取得する。S1312では、S1307で取得したマスターファイルの位置情報とS1311で取得したターゲットファイルの位置情報とを比較し、所定の関係を満たすか判定する。具体的には、ターゲットファイルの撮影場所がマスターファイルの撮影場所に対して所定の範囲内であるか否かを判定する。この判定は、マスターファイル及びターゲットファイルの各位置情報で示される2点間の距離が一定距離以下であるか否かに基づき判定することができる。2点間の距離は、それぞれの緯度・経度情報を用いて下記式1に示す「ヒュベニの距離計算式」で求めることができる。   In step S1311, position information (second information) recorded in the target file is acquired. In the process for the first target file, the file 1221 in FIG. 12 is read as the target file, and position information is acquired. In S1312, the master file position information acquired in S1307 and the target file position information acquired in S1311 are compared to determine whether a predetermined relationship is satisfied. Specifically, it is determined whether or not the shooting location of the target file is within a predetermined range with respect to the shooting location of the master file. This determination can be made based on whether or not the distance between the two points indicated by the position information of the master file and the target file is equal to or less than a certain distance. The distance between the two points can be obtained by the “Hyubeni distance calculation formula” shown in the following formula 1 using the respective latitude / longitude information.

Figure 2010154116
Figure 2010154116

S1312の判定結果が所定の範囲内になかった場合、マスターファイルとターゲットファイルの撮影内容に共通性が少ない又は共通性がないと考えられる。このため、ターゲットファイルに対して共有メタデータの適用は行わず、S1309に戻り次の未処理のターゲットファイルの処理を行う。S1312の判定結果が所定の範囲内にあった場合、S1313でターゲットファイルに記録されている撮影時刻情報(第2の情報)を取得する。撮影時刻情報として録画開始時刻及びファイルの長さ(映像フレーム数)を取得する。S1314では、S1306で取得したマスターファイルの撮影時刻情報と、S1313で取得したターゲットファイルの撮影時刻情報とを比較し、所定の関係を満たすか判定する。具体的には、ターゲットファイルの撮影時刻が、マスターファイルの撮影時刻から所定時間内であるか否かを判定する。   If the determination result of S1312 is not within the predetermined range, it is considered that the shooting contents of the master file and the target file have little or no commonality. Therefore, the shared metadata is not applied to the target file, and the process returns to S1309 to process the next unprocessed target file. If the determination result in S1312 is within the predetermined range, shooting time information (second information) recorded in the target file is acquired in S1313. Recording start time and file length (number of video frames) are acquired as shooting time information. In S1314, the shooting time information of the master file acquired in S1306 and the shooting time information of the target file acquired in S1313 are compared to determine whether a predetermined relationship is satisfied. Specifically, it is determined whether or not the shooting time of the target file is within a predetermined time from the shooting time of the master file.

Figure 2010154116
Figure 2010154116

上記式2は所定の時間内であるか否かを判定するための判定式を例示している。   Formula 2 above illustrates a determination formula for determining whether or not the time is within a predetermined time.

本例では、マスターファイルの録画開始時刻(S1)、マスターファイルの録画終了時刻(E1)、ターゲットファイルの録画開始時刻(S2)、ターゲットファイルの録画終了時刻(E2)、所定時間(Δt)を用いる。すなわち、上記S1、S2、E1、E2を用いて式2の(a)、(b)、(c)のいずれかに適合するか否かで判定を行う。なお、マスターファイルの録画終了時刻(E1)は、マスターファイルの録画開始時刻(S1)及びマスターファイルの長さから算出される。また、ターゲットファイルの録画終了時刻(E2)は、ターゲットファイルの録画開始時刻(S2)及びターゲットファイルの長さから算出される。   In this example, the recording start time (S1) of the master file, the recording end time (E1) of the master file, the recording start time (S2) of the target file, the recording end time (E2) of the target file, and a predetermined time (Δt). Use. That is, the determination is made based on whether or not any of (a), (b), and (c) of Equation 2 is satisfied using S1, S2, E1, and E2. Note that the recording end time (E1) of the master file is calculated from the recording start time (S1) of the master file and the length of the master file. The recording end time (E2) of the target file is calculated from the recording start time (S2) of the target file and the length of the target file.

図14はマスターファイルとターゲットファイルの各撮影時刻の対応関係を説明する図である。図14において、マスターファイルは時刻S1に撮影を開始し、時刻E1で撮影を終了している。ターゲット1、ターゲット2、ターゲット3、ターゲット4の各ファイルの録画開始時刻はいずれもS1の所定時間Δt前からE1の所定時間Δt後の間に含まれるため、式2の(a)に適合する。ターゲット5、ターゲット6の各ファイルの録画終了時刻はいずれもS1の所定時間Δt前からE1の所定時間Δt後の間に含まれるため、式2の(b)に適合する。ターゲット7のファイルに関しては、マスターファイルの録画開始時刻がターゲット7の録画開始時刻と録画終了時刻の間に含まれるため、式2の(c)に適合する。ターゲット8に関しては、式2中のいずれにも該当しない。   FIG. 14 is a diagram for explaining the correspondence between the shooting times of the master file and the target file. In FIG. 14, the master file starts shooting at time S1, and ends shooting at time E1. Since the recording start times of the files of target 1, target 2, target 3, and target 4 are all included before the predetermined time Δt of S1 and after the predetermined time Δt of E1, they conform to equation (a). . Since the recording end time of each file of the target 5 and the target 6 is included between the predetermined time Δt before S1 and after the predetermined time Δt of E1, it conforms to Equation (b). Regarding the file of the target 7, since the recording start time of the master file is included between the recording start time and the recording end time of the target 7, it conforms to (c) of Equation 2. Regarding the target 8, none of the formulas 2 is applicable.

式2に適合するターゲット1〜ターゲット7のファイルは、マスターファイルの撮影時刻と時間的に近く、撮影内容の共通性が高いと考えられ、ターゲット8はマスターファイルの撮影時刻と時間的に遠く、撮影内容の共通性が低い考えられる。このため、S1314では式2を用いて処理中のターゲットファイルの撮影内容がマスターファイルの撮影内容と共通性が高いか否かを判定することができる。   The files of target 1 to target 7 conforming to Equation 2 are considered to be close in time to the shooting time of the master file and have high commonality of shooting contents, and target 8 is far from the shooting time of the master file in time. The commonality of shooting contents is considered low. Therefore, in S1314, it is possible to determine whether or not the shooting content of the target file being processed is highly common with the shooting content of the master file using Equation 2.

S1314で所定の時間内にないと判定された場合は、マスターファイルとターゲットファイルの撮影内容に共通性が少ない又は共通性がないと考えられる。このため、ターゲットファイルに対して共有メタデータの適用は行わず、S1309に戻って次の未処理のターゲットファイルの処理を行う。S1314の判定結果が所定時間内であった場合、S1315でマスターファイルから読み込んだファイル全体に関わるメタデータ項目がターゲットファイルに記録されているか否かを判定する。本実施形態ではメタデータ項目は撮影場所のメタデータであり、既にターゲットファイルに撮影場所のメタデータが記録されている場合は上書きせずにS1317に進む。メタデータが記録されていない場合は、マスターファイルから読み込んだ共有ファイルメタデータである撮影場所のメタデータをターゲットファイルに記録する。   If it is determined in S1314 that it is not within the predetermined time, it is considered that the shooting contents of the master file and the target file have little or no commonality. Therefore, the shared metadata is not applied to the target file, and the process returns to S1309 to process the next unprocessed target file. If the determination result in S1314 is within the predetermined time, it is determined in S1315 whether or not the metadata items related to the entire file read from the master file are recorded in the target file. In this embodiment, the metadata item is the shooting location metadata. If the shooting location metadata has already been recorded in the target file, the process advances to step S1317 without overwriting. If the metadata is not recorded, the shooting location metadata, which is the shared file metadata read from the master file, is recorded in the target file.

次に、S1317では、マスターファイルに記録されている共有イベントメタデータの全てに対して処理が完了済みか否かを判定する。全ての共有イベントメタデータに対する処理が完了している場合はS1309に戻って第2のメモリーカードの次の未処理のターゲットファイルの処理を行う。未処理の共有イベントメタデータが存在する場合は、S1318で次の未処理の共有イベントメタデータ及びイベントが発生したファイル上の位置情報を読み込む。   Next, in S1317, it is determined whether or not the processing has been completed for all of the shared event metadata recorded in the master file. If all shared event metadata has been processed, the process returns to S1309 to process the next unprocessed target file on the second memory card. If unprocessed shared event metadata exists, in S1318, the next unprocessed shared event metadata and location information on the file where the event occurred are read.

S1319ではマスターファイルの録画開始時刻及び読み込んだ共有イベントメタデータのファイル上の位置情報から、イベントが発生した時刻を算出し、イベント発生時刻がターゲットファイルの撮影時間内に含まれるか否かを判定する。撮影時間内にない場合はS1317に戻り、次の未処理のイベントメタデータの処理を行う。撮影時間内である場合は、ターゲットファイルの録画開始時刻及びイベント発生時刻から、イベントが発生したターゲットファイルでのフレーム番号を算出し、イベントメタデータをフレーム番号とともにターゲットファイルに記録して、S1317に戻る。   In step S1319, the time when the event occurred is calculated from the recording start time of the master file and the position information on the read shared event metadata file, and it is determined whether the event occurrence time is included in the shooting time of the target file. To do. If it is not within the shooting time, the process returns to S1317 to process the next unprocessed event metadata. If it is within the shooting time, the frame number of the target file in which the event has occurred is calculated from the recording start time and event occurrence time of the target file, and event metadata is recorded in the target file together with the frame number. Return.

図15は、図13のフローに従い、図12の第1のメモリーカードのマスターファイルから第2のメモリーカードのターゲットファイルに共有メタデータを適用した例である。図15において、先ずマスターファイル1211を読み込み、ターゲットファイル1221の処理が行われる。ターゲットファイル1221は撮影位置及び撮影時刻がともにマスターファイル1211と近いため、共有ファイルメタデータである撮影場所がターゲットファイル1221にコピーされる。   FIG. 15 is an example in which shared metadata is applied from the master file of the first memory card of FIG. 12 to the target file of the second memory card according to the flow of FIG. In FIG. 15, first, the master file 1211 is read, and the processing of the target file 1221 is performed. Since the shooting position and shooting time of the target file 1221 are both close to the master file 1211, the shooting location that is shared file metadata is copied to the target file 1221.

次にマスターファイル1211のファイル位置t11に相当するファイル位置t21がターゲットファイル1221に存在するため、ファイル位置t11に関連付けられたイベントメモがターゲットファイル1221にコピーされる。ターゲットファイル1222の処理も同様に、撮影位置及び撮影時刻がともにマスターファイル1211と近いため、共有ファイルメタデータである撮影場所がターゲットファイル1222にコピーされる。イベントメモはt11に相当するファイル位置がターゲットファイル1222に存在しないためコピーされない。ターゲットファイル1223の処理では、第2のカメラは第1のカメラと異なる撮影場所に移動し撮影位置が所定の範囲外となるため、メタデータのコピーは行われない。   Next, since the file position t21 corresponding to the file position t11 of the master file 1211 exists in the target file 1221, the event memo associated with the file position t11 is copied to the target file 1221. Similarly, in the processing of the target file 1222, since the shooting position and shooting time are both close to the master file 1211, the shooting location that is shared file metadata is copied to the target file 1222. The event memo is not copied because the file position corresponding to t11 does not exist in the target file 1222. In the processing of the target file 1223, the second camera moves to a shooting location different from that of the first camera and the shooting position is outside the predetermined range, so that the metadata is not copied.

次にマスターファイル1212を読み込み、再びターゲットファイル1221の処理が行われる。ターゲットファイル1221は撮影時刻がマスターファイル1212から遠いため、メタデータのコピー処理は行われない。次にターゲットファイル1222の処理が行われ、撮影位置及び撮影時刻がともにマスターファイル1212と近いため、メタデータのコピー処理が行われる。しかし、既にマスターファイル1211から撮影場所のメタデータがコピーされているため、ファイルメタデータのコピーは行われない。   Next, the master file 1212 is read, and the processing of the target file 1221 is performed again. Since the target file 1221 is far from the master file 1212, the metadata copy process is not performed. Next, processing of the target file 1222 is performed, and since the shooting position and shooting time are both close to the master file 1212, metadata copy processing is performed. However, since the shooting location metadata has already been copied from the master file 1211, the file metadata is not copied.

次にマスターファイル1212のファイル位置t12に当するファイル位置t22がターゲットファイル1222に存在するため、ファイル位置t12に関連付けられたイベントメモがターゲットファイル1222にコピーされる。マスターファイル1212のファイル位置t13に相当するファイル位置はターゲットファイル1222に存在しないため、ファイル位置t13に関連付けられたイベントメモはコピーされない。最後にターゲットファイル1223の処理では、第2のカメラは第1のカメラと異なる撮影場所に移動し撮影位置が所定範囲外となるため、メタデータのコピーは行われない。   Next, since the file position t22 corresponding to the file position t12 of the master file 1212 exists in the target file 1222, the event memo associated with the file position t12 is copied to the target file 1222. Since the file position corresponding to the file position t13 of the master file 1212 does not exist in the target file 1222, the event memo associated with the file position t13 is not copied. Finally, in the processing of the target file 1223, the second camera moves to a shooting location different from that of the first camera and the shooting position is out of the predetermined range, so that the metadata is not copied.

以上述べた処理により、共有設定が行われたメタデータを撮影の関連性の高いファイルに適用することが可能である。   Through the processing described above, it is possible to apply metadata for which sharing settings have been made to a highly relevant file for shooting.

[実施形態2]
以下では、実施形態1と同様に、2つのカメラで撮影したファイルに対して処理を行う場合について説明する。実施形態2のビデオカメラ及び記録装置の各構成は図1及び図30と同一である。図16は、実施形態2のビデオカメラに対するメタデータの入力処理及び各種情報の設定処理を示すフローチャートであり、図2と同一の処理には同一の符号を付して示している。実施形態1の図2とは、S1602で送信される設定ページのデータ、S1601で保存される設定内容、S1604で送信されるメタデータ入力ページのデータ、S1603で保存されるメタデータの内容が異なっている。
[Embodiment 2]
In the following, as in the first embodiment, a case where processing is performed on files photographed by two cameras will be described. Each configuration of the video camera and the recording apparatus according to the second embodiment is the same as that shown in FIGS. FIG. 16 is a flowchart showing metadata input processing and various information setting processing for the video camera according to the second embodiment. The same processing as in FIG. 2 is denoted by the same reference numeral. The setting page data transmitted in S1602, the setting contents saved in S1601, the metadata input page data sent in S1604, and the metadata contents saved in S1603 are different from FIG. 2 of the first embodiment. ing.

図17は、図16のS1602で送信される設定ページを例示している。図17において、メタデータの設定ページは、実施形態1と同様に、全ての撮影ファイルに共通のメタデータを設定する部分31と、撮影ファイルごとに異なる個別のメタデータを設定する部分1701に分かれている。但し、個別メタデータ欄1701のそれぞれの項目については共有設定を行うチェックボックスを持たないページデータとなっている。   FIG. 17 shows an example of the setting page transmitted in S1602 of FIG. In FIG. 17, the metadata setting page is divided into a part 31 for setting metadata common to all shooting files and a part 1701 for setting individual metadata different for each shooting file, as in the first embodiment. ing. However, each item in the individual metadata column 1701 is page data that does not have a check box for performing sharing setting.

図18は、図17の設定ページにメタデータを入力した状態を例示している。図18において、共通メタデータ欄にはタイトル及びカメラマンの各情報が設定されている。個別メタデータ欄には、本カメラで記録したメタデータをマスターデータとして使用し、撮影場所、撮影内容、イベントメモの入力を撮影ファイルに対して行う設定となっている。設定を入力した後、ユーザが設定ボタン33をクリックすると、入力されたフォームのデータがカメラに送信される。S1601でフォームデータを受信したカメラは、フォームデータを解析して、設定内容を設定保存部102に保存する。また、記録媒体108の管理ファイルには、マスターデータとして使用するか否かの情報が記録される。   FIG. 18 illustrates a state where metadata is input to the setting page of FIG. In FIG. 18, title and photographer information are set in the common metadata column. In the individual metadata column, metadata recorded by the camera is used as master data, and the shooting location, shooting content, and event memo are input to the shooting file. After the setting is input, when the user clicks the setting button 33, the input form data is transmitted to the camera. The camera that has received the form data in S1601 analyzes the form data and stores the setting contents in the setting storage unit 102. In addition, information on whether to use as master data is recorded in the management file of the recording medium 108.

図19は、管理ファイルに記録されたメタデータに関する設定例である。図19において、管理ファイルにはマスターデータとして使用することを示す情報が記録され、各メタデータ項目を他のカメラで撮影されたファイルにも適用するか否かを示す情報は記録されない。   FIG. 19 shows a setting example regarding metadata recorded in the management file. In FIG. 19, information indicating use as master data is recorded in the management file, and information indicating whether each metadata item is also applied to a file shot by another camera is not recorded.

図20は、図16のS1604で送信するメタデータ入力用ページを例示しており、図6と同一の符号を付した部分は実施形態1で説明した項目と同一であるため説明を省略する。図20において、2001〜2003はそれぞれ、入力したメタデータを他のカメラで撮影されたファイルにも適用するか否かを設定するためのチェックボックスである。各項目601、603、605にメタデータを入力して設定ボタン602、604、606をクリックする際に、チェックボックスにチェックを入れることで入力したメタデータごとに適用するか否かの設定を行うことができる。   FIG. 20 exemplifies the metadata input page transmitted in S1604 of FIG. 16, and the portions denoted by the same reference numerals as those in FIG. 6 are the same as the items described in the first embodiment, and thus the description thereof is omitted. In FIG. 20, reference numerals 2001 to 2003 denote check boxes for setting whether to apply the input metadata to a file shot by another camera. When metadata is input to each item 601, 603, 605 and the setting buttons 602, 604, 606 are clicked, a check box is checked to set whether to apply for each input metadata. be able to.

図21〜図23は録画中のファイルに対してメタデータを入力した例である。図21において、ユーザが撮影場所のメタデータをテキストボックス601に入力し、同じサッカー場で撮影している他のカメラで撮影されたファイルにメタデータを適用するため、チェックボックス2001をチェックして設定ボタン602をクリックする。すると、撮影場所のメタデータのフォームデータがカメラに送信され、カメラでは図16のS1603で撮影場所のメタデータを共有設定情報とともにメタデータバッファ109に保存する。   21 to 23 are examples in which metadata is input to a file being recorded. In FIG. 21, the user inputs the metadata of the shooting location in the text box 601 and checks the check box 2001 to apply the metadata to a file shot by another camera shooting at the same soccer field. Click the setting button 602. Then, the form data of the shooting location metadata is transmitted to the camera, and the camera stores the shooting location metadata in the metadata buffer 109 together with the sharing setting information in S1603 of FIG.

次にユーザは図22示すように撮影内容のメタデータをテキストボックス603に入力し、撮影内容は撮影中のカメラに固有の内容であるためチェックボックス2002をチェックせずに設定ボタン604をクリックする。すると、撮影内容のメタデータのフォームデータがカメラに送信され、カメラでは図16のS1603で撮影内容のメタデータを共有設定情報とともにメタデータバッファ109に保存する。   Next, as shown in FIG. 22, the user inputs the metadata of the shooting content into the text box 603, and since the shooting content is specific to the camera being shot, the user clicks the setting button 604 without checking the check box 2002. . Then, the form data of shooting content metadata is transmitted to the camera, and the camera stores the shooting content metadata in the metadata buffer 109 together with the sharing setting information in S1603 of FIG.

次に録画中に撮影対象であるプレーヤーのゴールが決まったというイベントが発生した場合、ユーザは図23に示すようにイベントの内容をテキストボックス605に入力する。そして、イベント内容は撮影中のカメラに固有の内容であるためチェックボックス2003をチェックせずに設定ボタン606をクリックする。すると、イベントメモのメタデータのフォームデータがカメラに送信され、カメラでは図16のS1603でイベントメモのメタデータを共有設定情報とともにメタデータバッファ109に保存する。   Next, when an event occurs that the goal of the player to be imaged is determined during recording, the user inputs the contents of the event into a text box 605 as shown in FIG. Since the event content is unique to the camera being photographed, the setting button 606 is clicked without checking the check box 2003. Then, event memo metadata form data is transmitted to the camera, and the camera stores the event memo metadata in the metadata buffer 109 together with the shared setting information in S1603 of FIG.

イベントメモのメタデータ保存時には、メタデータ検出時点の録画中のファイルの位置情報(録画映像のフレーム番号)がイベントメモのメタデータとともに保存される。その後、ユーザが録画停止を行うと図16のS212においてメタデータバッファ109に保存されているメタデータが録画ファイルに付加され記録される。各メタデータの記録処理は実施形態1で説明したDMS−1に従って実行される。各メタデータの共有設定情報も同時に記録される。DMS−1で記録される各メタデータには各機器ごとに生成される16バイトの固有ID(UID)が付与される。UID内に共有設定に関するフィールドを設けて記録することができる。   When the event memo metadata is saved, the position information (frame number of the recorded video) of the file being recorded at the time of the metadata detection is saved together with the event memo metadata. Thereafter, when the user stops the recording, the metadata stored in the metadata buffer 109 is added to the recording file and recorded in S212 of FIG. The recording process of each metadata is executed according to DMS-1 described in the first embodiment. The shared setting information of each metadata is also recorded at the same time. A 16-byte unique ID (UID) generated for each device is assigned to each metadata recorded in the DMS-1. A field related to sharing settings can be provided in the UID and recorded.

次に、第1のビデオカメラと第2のビデオカメラでの撮影に関するメタデータの設定について説明する。第1及び第2のビデオカメラの構成及びフローは、図1及び図2と同一である。図24は、第2のビデオカメラに対して図16のS207で入力されるメタデータ設定例である。共通メタデータ欄にはタイトル及びカメラマンの情報が設定されている。個別メタデータ欄は、本カメラで記録したメタデータをマスターデータとして使用せず、またいずれのメタデータ項目も第2のカメラでは設定しないようになっている。このため、第2のビデオカメラで撮影した録画ファイルには、GPSからの位置情報、タイトル、カメラマンのメタデータのみが記録される。図25は、第2のカメラの管理ファイルに記録されたメタデータに関する設定例であり、マスターデータとして使用しないことを示す情報が記録される。   Next, setting of metadata related to shooting with the first video camera and the second video camera will be described. The configuration and flow of the first and second video cameras are the same as those in FIGS. FIG. 24 is an example of metadata setting input to the second video camera in S207 of FIG. Title and photographer information are set in the common metadata column. The individual metadata column does not use the metadata recorded by this camera as master data, and does not set any metadata items on the second camera. For this reason, only the positional information from GPS, the title, and the metadata of the cameraman are recorded in the recording file photographed by the second video camera. FIG. 25 is a setting example related to metadata recorded in the management file of the second camera, and information indicating that it is not used as master data is recorded.

以上述べた処理により、第1のカメラで撮影した録画ファイルには個別メタデータを含むメタデータが記録される。第2のカメラで撮影した録画ファイルにはGPSの位置情報及び共通メタデータであるタイトル、カメラマンのメタデータのみが記録される。   Through the processing described above, metadata including individual metadata is recorded in the recording file captured by the first camera. Only the GPS position information, the title which is common metadata, and the cameraman's metadata are recorded in the recording file photographed by the second camera.

次に、第1のカメラで撮影した録画ファイルに記録されている個別メタデータを第2のカメラで撮影した録画ファイルに適用するための処理について説明する。図26は、第1及び第2のカメラで撮影したファイルを例示している。以下では、第1及び第2のカメラにより同じサッカー場内の異なる場所で撮影を行った場合について説明する。図26において、2610が第1のカメラで撮影したファイルであり、2620が第2のカメラで撮影したファイルである。第1のカメラにはファイル2611及び2612の2つのファイルが記録されている。第2のカメラにはファイル2621、2622及び2623の3つのファイルが記録されている。各ファイルにはそれぞれ図示のメタデータが撮影時に記録されている。各メタデータの項目の左側に付した[○]、[×]はそれぞれ記録されたメタデータが共有設定となっているか否かを示している。   Next, a process for applying the individual metadata recorded in the recording file photographed by the first camera to the recording file photographed by the second camera will be described. FIG. 26 exemplifies files photographed by the first and second cameras. Below, the case where it image | photographed in the different place in the same soccer field with the 1st and 2nd camera is demonstrated. In FIG. 26, 2610 is a file photographed by the first camera, and 2620 is a file photographed by the second camera. Two files 2611 and 2612 are recorded in the first camera. Three files 2621, 2622, and 2623 are recorded in the second camera. Each file stores the illustrated metadata at the time of shooting. [◯] and [×] attached to the left side of each metadata item indicate whether or not the recorded metadata is set to be shared.

図26の中央に記載した矢印tは時間の経過を表している。例えば、第1のカメラで撮影されたファイル2611には図18のメタデータ設定ページを使用して設定された「タイトル」及び「カメラマン」の各メタデータが記録されている。また、ファイル2611には図21及び図22のメタデータ入力ページを使用して入力された「撮影場所」及び「撮影内容」の各メタデータが記録されている。また、図23のメタデータ入力ページを使用して入力された「イベントメモ」のメタデータがファイル2611の映像フレーム位置t11のイベントメタデータとして記録されている。ファイル2612には共通メタデータである「タイトル」及び「カメラマン」の各メタデータ並びに撮影中に記録された「撮影場所」及び「撮影内容」の各メタデータがファイル全体のメタデータとして記録されている。   The arrow t described in the center of FIG. 26 represents the passage of time. For example, in the file 2611 photographed by the first camera, metadata of “title” and “cameraman” set using the metadata setting page of FIG. 18 is recorded. The file 2611 records metadata of “shooting location” and “shooting content” input using the metadata input pages of FIGS. 21 and 22. Further, the metadata of “event memo” input using the metadata input page of FIG. 23 is recorded as event metadata at the video frame position t11 of the file 2611. In the file 2612, metadata of “title” and “cameraman”, which are common metadata, and metadata of “shooting location” and “shooting content” recorded during shooting are recorded as metadata of the entire file. Yes.

また、「イベントメモ」のメタデータがファイル2612の映像フレーム位置t12、t13のイベントメタデータとして記録されている。ファイル位置t11及びt13に関連付けて記録されたイベントメタデータは第1のカメラの撮影内容に固有の内容であるため、記録時に共有設定のチェックボックスをチェックせずに記録したデータである。ファイル位置t12に関連付けて記録されたイベントメタデータは他のカメラで撮影した内容にも共通となるイベント内容であるため、記録時に共有設定のチェックボックスをチェックして記録したデータである。また、第2のカメラで撮影されたファイル2621、2622、2623には、図24のメタデータ設定ページを使用して設定された「タイトル」及び「カメラマン」のメタデータのみが記録されている。   Further, metadata of “event memo” is recorded as event metadata at video frame positions t12 and t13 of the file 2612. The event metadata recorded in association with the file positions t11 and t13 is data recorded without checking the shared setting check box at the time of recording because it is unique to the shooting contents of the first camera. The event metadata recorded in association with the file position t12 is data that is recorded by checking the sharing setting check box at the time of recording because the event metadata is common to the contents captured by other cameras. Further, in the files 2621, 2622, and 2623 photographed by the second camera, only the metadata of “title” and “cameraman” set by using the metadata setting page of FIG. 24 is recorded.

図27は、第1のカメラで撮影した録画ファイルに記録されている個別メタデータを第2のカメラで撮影した録画ファイルに適用するための処理を示すフローチャートであり、図13と同一の処理には同一の符号を付して説明を省略する。また、本フローは図30に示す記録装置3000の制御部3004により実行されるものとする。なお、記録装置としてはPCやカードスロットを複数有するビデオカメラであってもよい。   FIG. 27 is a flowchart showing a process for applying the individual metadata recorded in the recording file photographed by the first camera to the recording file photographed by the second camera. Are denoted by the same reference numerals and description thereof is omitted. This flow is executed by the control unit 3004 of the recording apparatus 3000 shown in FIG. The recording device may be a PC or a video camera having a plurality of card slots.

図13のフローとは、管理ファイルに共有設定を記録しないため図13のS1303での共有設定読み込み処理が存在しないこと、S2701での共有ファイルメタデータ読み込み処理とS2702での共有イベントメタデータ読み込み処理とが異なっている。   The flow in FIG. 13 is that the sharing setting is not recorded in the management file, so that the sharing setting reading process in S1303 in FIG. 13 does not exist, the shared file metadata reading process in S2701 and the shared event metadata reading process in S2702 Is different.

S1307でマスターファイルに記録されている位置情報を取得した後、S2701ではマスターファイルに記録されているファイルメタデータを検索する。そして、メタデータに記録されている共有設定情報を判定して、共有設定で記録されているファイルメタデータを読み込む。ファイル2611の場合、共有ファイルメタデータとして、撮影場所データが読み込まれる。その後、S1309〜S1317までは実施形態1で説明した処理を実行する。S2702ではマスターファイルに記録されているイベントメタデータを検索し、メタデータに記録されている共有設定情報を判定して、共有設定で記録されているイベントメタデータを読み込む。S1319以降の処理は実施形態1で説明した処理と同様である。   After obtaining the position information recorded in the master file in S1307, the file metadata recorded in the master file is searched in S2701. Then, the sharing setting information recorded in the metadata is determined, and the file metadata recorded in the sharing setting is read. In the case of the file 2611, shooting location data is read as shared file metadata. Thereafter, the processing described in the first embodiment is executed from S1309 to S1317. In S2702, the event metadata recorded in the master file is searched, the sharing setting information recorded in the metadata is determined, and the event metadata recorded in the sharing setting is read. The processing after S1319 is the same as the processing described in the first embodiment.

図28は、図27のフローチャートに従い図26の第1のメモリーカードのマスターファイルから第2のメモリーカードのターゲットファイルに共有メタデータを適用した例である。図28において、先ずマスターファイル2611を読み込み、ターゲットファイル2621の処理が行われる。ターゲットファイル2621は撮影位置及び撮影時刻がともにマスターファイル2611と近いため、共有ファイルメタデータである撮影場所がターゲットファイル2621にコピーされる。次にマスターファイル2611のイベントメタデータの処理を行うが、ファイル位置t11に関連付けられたイベントメタデータは、第1のカメラの撮影ファイルに固有のメタデータであるためコピーは行わない。ターゲットファイル2622も同様に、撮影位置及び撮影時刻がともにマスターファイル2611と近いため、共有ファイルメタデータである撮影場所がターゲットファイルにコピーされ、ファイル位置t11に関連付けられたイベントメモはコピーされない。ターゲットファイル2623の処理では、撮影時刻がマスターファイル2611の撮影時刻の所定の時間内にないためメタデータのコピーは行われない。   FIG. 28 is an example in which shared metadata is applied from the master file of the first memory card of FIG. 26 to the target file of the second memory card according to the flowchart of FIG. In FIG. 28, the master file 2611 is first read and the target file 2621 is processed. Since the shooting position and shooting time of the target file 2621 are both close to the master file 2611, the shooting location as shared file metadata is copied to the target file 2621. Next, the event metadata of the master file 2611 is processed. However, the event metadata associated with the file position t11 is metadata unique to the shooting file of the first camera, and is not copied. Similarly, since the shooting position and shooting time of the target file 2622 are both close to the master file 2611, the shooting location that is the shared file metadata is copied to the target file, and the event memo associated with the file position t11 is not copied. In the processing of the target file 2623, the metadata is not copied because the shooting time is not within the predetermined time of the shooting time of the master file 2611.

次にマスターファイル2612を読み込み、再びターゲットファイル2621の処理が行われる。ターゲットファイル2621は撮影時刻がマスターファイル2612から遠いため、メタデータのコピー処理は行われない。次にターゲットファイル2622の処理が行われ、撮影位置及び撮影時刻がともにマスターファイル2612と近いため、メタデータのコピーが行われる。しかし、既にマスターファイル2611から撮影場所のメタデータがコピーされているため、ファイルメタデータのコピーは行われない。   Next, the master file 2612 is read, and the target file 2621 is processed again. Since the shooting time of the target file 2621 is far from the master file 2612, the metadata copy process is not performed. Next, processing of the target file 2622 is performed, and since the shooting position and shooting time are both close to the master file 2612, the metadata is copied. However, since the shooting location metadata has already been copied from the master file 2611, the file metadata is not copied.

次に共有設定で記録されたマスターファイル2612のファイル位置t12に関連付けて記録されたイベントメタデータの処理が行われる。ファイル位置t12に相当するファイル位置t22がターゲットファイル2622に存在するため、ファイル位置t12に関連付けられたイベントメモがターゲットファイル2622にコピーされる。マスターファイル2612のファイル位置t13に関連付けられたイベントメタデータは第1のカメラの撮影ファイルに固有のメタデータであるためコピーは行われない。   Next, processing of event metadata recorded in association with the file position t12 of the master file 2612 recorded in the sharing setting is performed. Since the file position t22 corresponding to the file position t12 exists in the target file 2622, the event memo associated with the file position t12 is copied to the target file 2622. Since the event metadata associated with the file position t13 of the master file 2612 is metadata unique to the shooting file of the first camera, copying is not performed.

最後にターゲットファイル1223の処理では、撮影位置及び撮影時刻がともにマスターファイル2612と近いため、メタデータのコピーが行われ、撮影場所のメタデータがコピーされる。マスターファイル2612の共有設定で記録されたイベントメタデータについてはファイル位置t12に相当するファイル位置がターゲットファイル2623に存在しないため、コピーは行われない。   Finally, in the processing of the target file 1223, since the shooting position and the shooting time are both close to the master file 2612, the metadata is copied and the metadata of the shooting location is copied. The event metadata recorded with the sharing setting of the master file 2612 is not copied because the file position corresponding to the file position t12 does not exist in the target file 2623.

以上述べた処理により、記録時に個別に共有設定が行われたメタデータを撮影の関連性の高いファイルに適用することが可能である。   Through the processing described above, it is possible to apply metadata that has been individually set for sharing during recording to a highly relevant file.

[実施形態3]
以下では、2つのビデオカメラで撮影したファイルをアーカイブシステムにコピーする場合について説明する。実施形態3のビデオカメラの構成及び録画処理は実施形態1の図1〜図11で説明した内容と同一であり、図12に示す内容のファイルがそれぞれのカメラに記録されているものとする。アーカイブシステムはファイルサーバとして機能し、例えば図30の記録装置3000に加えて大規模ストレージデバイスが搭載されて、制御部3004がネットワークを介してデータベースの管理やストレージデバイスへのファイルのコピーを行う。図29はカメラで記録したファイルをアーカイブシステムにコピーする処理を示すフローチャートである。本フローはアーカイブシステムの制御部により実行されるものとする。
[Embodiment 3]
Hereinafter, a case will be described in which files shot by two video cameras are copied to an archive system. The configuration and recording processing of the video camera of the third embodiment are the same as those described in FIGS. 1 to 11 of the first embodiment, and files having the contents shown in FIG. 12 are recorded in the respective cameras. The archive system functions as a file server. For example, in addition to the recording device 3000 in FIG. 30, a large-scale storage device is mounted, and the control unit 3004 manages the database and copies files to the storage device via the network. FIG. 29 is a flowchart showing a process of copying a file recorded by the camera to the archive system. This flow is executed by the control unit of the archive system.

図29において、S2901ではアーカイブシステムが有するカードスロットに録画ファイルが記録されているメモリーカードが挿入されているか否かを検出する。カードスロットの状態を判定し、メモリーカードを検出した場合、S2902ではメモリーカード上の管理ファイルを読み込んで、各項目の個別メタデータの設定が共有設定か否かを検出する。   In FIG. 29, in S2901, it is detected whether or not a memory card in which a recording file is recorded is inserted into a card slot of the archive system. If the status of the card slot is determined and a memory card is detected, the management file on the memory card is read in S2902, and it is detected whether the individual metadata setting of each item is a shared setting.

次に、S2903ではメモリーカードに記録されている、録画ファイルの全てに対して処理が完了済みか否かを判定する。全ての録画ファイルに対する処理が完了している場合は処理を終了する。未処理の録画ファイルが存在する場合は、S2904で次の未処理の録画ファイルを読み込み、S2905、2906で録画ファイルに記録されている撮影時刻情報及び位置情報を取得する。撮影時刻情報として録画開始時刻及びファイルの長さ(映像フレーム数)を、GPSから位置情報を取得する。S2907では録画ファイルに記録されているファイルメタデータ及びイベントメタデータを読み込んで、撮影時刻情報及び位置情報とともに処理用バッファに保持する。   Next, in S2903, it is determined whether or not the processing has been completed for all the recording files recorded on the memory card. If the processing for all the recorded files has been completed, the processing ends. If there is an unprocessed recording file, the next unprocessed recording file is read in S2904, and the shooting time information and position information recorded in the recording file are acquired in S2905 and 2906. The recording start time and the file length (number of video frames) are acquired as shooting time information, and the position information is acquired from the GPS. In step S2907, file metadata and event metadata recorded in the recording file are read and stored in the processing buffer together with shooting time information and position information.

次に、S2908ではアーカイブシステムが管理している録画ファイルのデータベースを読み込み、S2905、2906で取得した撮影時刻情報及び位置情報を用いて録画ファイルに適用可能なメタデータが存在するか否かを検索する。表2は1つの録画ファイルに対してデータベースに登録されているレコードを例示している。アーカイブシステムに記録されている録画ファイルのパス名並びに実施形態1で説明したメタデータが1つのレコードとして記録される。   Next, in S2908, the database of the recording file managed by the archive system is read, and it is searched whether there is metadata applicable to the recording file using the shooting time information and position information acquired in S2905 and 2906. To do. Table 2 exemplifies records registered in the database for one recording file. The path name of the recording file recorded in the archive system and the metadata described in the first embodiment are recorded as one record.

Figure 2010154116
Figure 2010154116

S2909ではデータベースに記録されているレコードから録画開始時刻、ファイル長さ及び位置情報を読み出し、S2905、2906で取得した撮影時刻情報及び位置情報が所定の時間内かつ所定の範囲内のレコードを検索する。該当するレコードを検出した場合、共有設定となっているファイルメタデータを読み出して、S2910で録画ファイルのメタデータを保持している処理用バッファに追加する。また、該当レコード中のイベントメモについても共有設定及びファイル位置を判定して、録画ファイルに該当する位置情報が存在する場合は共有設定となっているイベントメタデータを処理用バッファに追加する。   In step S2909, the recording start time, file length, and position information are read from the records recorded in the database, and a record in which the shooting time information and position information acquired in steps S2905 and 2906 are within a predetermined time and within a predetermined range is searched. . When the corresponding record is detected, the file metadata set as sharing is read and added to the processing buffer holding the metadata of the recording file in S2910. In addition, the sharing setting and file position of the event memo in the record are also determined, and if the position information corresponding to the recording file exists, the event metadata set to the sharing setting is added to the processing buffer.

本実施形態では、S2908において撮影時刻情報及び位置情報が所定の時間内かつ所定の範囲内のレコードを検索する場合について説明した。しかし、撮影時刻情報が所定の時間内にあってかつ位置情報が所定の範囲内にない場合は、位置情報に関わるメタデータ、すなわち撮影場所のメタデータはS2910で処理バッファに追加せず、その他のメタデータのみを追加する処理とすることも可能である。   In the present embodiment, the case has been described where the shooting time information and the position information are searched for within a predetermined time and within a predetermined range in S2908. However, if the shooting time information is within the predetermined time and the position information is not within the predetermined range, the metadata relating to the position information, that is, the metadata of the shooting location is not added to the processing buffer in S2910, and other It is also possible to add only the metadata.

データベースの検索処理を終了すると、S2911で録画ファイルをアーカイブシステムのストレージデバイスにコピーする。S2912ではコピー結果のファイルパス及び処理バッファに保持しているメタデータをデータベースに登録して、S2903に戻る。   When the database search process is completed, the recorded file is copied to the storage device of the archive system in S2911. In S2912, the file path of the copy result and the metadata held in the processing buffer are registered in the database, and the process returns to S2903.

図12のメモリーカード1210の録画ファイルをアーカイブシステムで処理すると、ファイル1211及び1212がアーカイブシステムのストレージデバイスにコピーされ、管理用データベースに各ファイルの情報、メタデータが登録される。次にメモリーカード1220の処理を行うと、登録されたファイル1211及び1212のレコード情報からメタデータがコピーされ、図15で示すメタデータがファイル1221及び1222のメタデータとしてコピーされてデータベースに登録される。   When the recording file of the memory card 1210 in FIG. 12 is processed by the archive system, the files 1211 and 1212 are copied to the storage device of the archive system, and information and metadata of each file are registered in the management database. Next, when the memory card 1220 is processed, metadata is copied from the record information of the registered files 1211 and 1212, and the metadata shown in FIG. 15 is copied as metadata of the files 1221 and 1222 and registered in the database. The

本実施形態では、第2のカメラで撮影されたファイル自体にはメタデータの記録は行わない。しかし、アーカイブシステムへの登録時に第1のカメラで撮影したファイルのメタデータを第2のカメラで撮影したファイルのメタデータとしてデータベースに登録することができ、検索等に使用することが可能となる。   In the present embodiment, metadata is not recorded on the file itself captured by the second camera. However, the metadata of the file photographed by the first camera at the time of registration in the archive system can be registered in the database as the metadata of the file photographed by the second camera, and can be used for searching and the like. .

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム又は装置に供給しても達成可能である。すなわち、そのシステム又は装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
[Other Embodiments]
The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that this can also be achieved by the computer (CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性の半導体メモリカード、ROMなどを用いることができる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合もある。しかし、さらにプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile semiconductor memory card, ROM, or the like can be used. . Further, the functions of the above-described embodiments may be realized by executing the program code read by the computer. However, an OS (operating system) running on the computer may perform part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる場合も有得る。その後、プログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, the program code read from the storage medium may be written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the function of the above-described embodiment is realized by the processing. Needless to say.

実施形態1のビデオカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a video camera according to Embodiment 1. FIG. 実施形態1のビデオカメラに対するメタデータの入力処理及び各種情報の設定処理を示すフローチャートである。4 is a flowchart illustrating metadata input processing and various information setting processing for the video camera according to the first exemplary embodiment. 実施形態1のメタデータの設定を行うページの表示例を示す図である。FIG. 6 is a diagram illustrating a display example of a page for setting metadata according to the first exemplary embodiment. 実施形態1の第1のビデオカメラのメタデータ設定例を示す図である。FIG. 4 is a diagram illustrating an example of metadata setting of the first video camera according to the first embodiment. 実施形態1の第1のビデオカメラの管理ファイルを例示する図である。FIG. 4 is a diagram illustrating a management file of the first video camera according to the first embodiment. 実施形態1のメタデータの入力を行うページの表示例を示す図である。FIG. 5 is a diagram illustrating a display example of a page for inputting metadata according to the first exemplary embodiment. 実施形態1のメタデータの入力を行うページの入力例を示す図である。6 is a diagram illustrating an input example of a page for inputting metadata according to the first exemplary embodiment. FIG. 実施形態1のメタデータの入力を行うページの入力例を示す図である。6 is a diagram illustrating an input example of a page for inputting metadata according to the first exemplary embodiment. FIG. 実施形態1のメタデータの入力を行うページの入力例を示す図である。6 is a diagram illustrating an input example of a page for inputting metadata according to the first exemplary embodiment. FIG. 実施形態1の第2のビデオカメラのメタデータ設定例を示す図である。6 is a diagram illustrating a metadata setting example of the second video camera according to the first embodiment. FIG. 実施形態1の第2のビデオカメラの管理ファイルを例示する図である。FIG. 6 is a diagram illustrating a management file of a second video camera according to the first embodiment. 実施形態1の第1及び第2のビデオカメラで撮影されたファイルを例示する図である。FIG. 3 is a diagram illustrating a file shot by the first and second video cameras of the first embodiment. 実施形態1のメタデータを適用する処理を示すフローチャートである。3 is a flowchart illustrating processing for applying metadata according to the first exemplary embodiment. 撮影ファイル間の時系列的な対応関係を説明するための図である。It is a figure for demonstrating the time-sequential correspondence between imaging | photography files. 実施形態1の第2のビデオカメラの撮影ファイルにメタデータを適用した例を示す図である。6 is a diagram illustrating an example in which metadata is applied to a shooting file of the second video camera according to the first embodiment. FIG. 実施形態2のビデオカメラに対するメタデータの入力処理及び各種情報の設定処理を示すフローチャートである。10 is a flowchart illustrating metadata input processing and various information setting processing for the video camera according to the second exemplary embodiment. 実施形態2のメタデータの設定を行うページの表示例を示す図である。FIG. 10 is a diagram illustrating a display example of a page for setting metadata according to the second exemplary embodiment. 実施形態2の第1のビデオカメラのメタデータ設定例を示す図である。10 is a diagram illustrating an example of metadata setting of the first video camera according to the second embodiment. FIG. 実施形態2の第1のビデオカメラの管理ファイルを例示する図である。6 is a diagram illustrating a management file of a first video camera according to Embodiment 2. FIG. 実施形態2のメタデータの入力を行うページの表示例を示す図である。FIG. 10 is a diagram illustrating a display example of a page for inputting metadata according to the second exemplary embodiment. 実施形態2のメタデータの入力を行うページの入力例を示す図である。It is a figure which shows the example of an input of the page which inputs the metadata of Embodiment 2. 実施形態2のメタデータの入力を行うページの入力例を示す図である。It is a figure which shows the example of an input of the page which inputs the metadata of Embodiment 2. 実施形態2のメタデータの入力を行うページの入力例を示す図である。It is a figure which shows the example of an input of the page which inputs the metadata of Embodiment 2. 実施形態2の第2のビデオカメラのメタデータ設定例を示す図である。10 is a diagram illustrating a metadata setting example of a second video camera according to Embodiment 2. FIG. 実施形態2の第2のビデオカメラの管理ファイルを例示する図である。FIG. 10 is a diagram illustrating a management file of a second video camera according to the second embodiment. 実施形態2の第1及び第2のビデオカメラで撮影されたファイルを例示する図である。FIG. 6 is a diagram illustrating a file shot with the first and second video cameras of the second embodiment. 実施形態2のメタデータを適用する処理を示すフローチャートである。10 is a flowchart illustrating processing for applying metadata according to the second exemplary embodiment. 実施形態2の第2のビデオカメラの撮影ファイルにメタデータを適用した例を示す図である。FIG. 10 is a diagram illustrating an example in which metadata is applied to a shooting file of a second video camera according to the second embodiment. 実施形態3の録画ファイルのアーカイブ処理を示すフローチャートである。14 is a flowchart illustrating a recording file archiving process according to the third embodiment. 本実施形態における記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the recording device in this embodiment.

Claims (12)

ファイルを記録する際に当該ファイルに付随する付加情報を記録する情報記録装置であって、
前記ファイルから所定の情報を取得する取得手段と、
前記取得手段により第1のファイルから取得した第1の情報と第2のファイルから取得した第2の情報とを比較する比較手段と、
前記比較手段による比較の結果、前記第1の情報と前記第2の情報とが所定の関係を満たす場合、前記第1のファイルの付加情報を前記第2のファイルの付加情報として記録する記録手段と、を有することを特徴とする情報記録装置。
An information recording apparatus for recording additional information accompanying the file when recording the file,
Obtaining means for obtaining predetermined information from the file;
Comparing means for comparing the first information acquired from the first file by the acquiring means with the second information acquired from the second file;
Recording means for recording additional information of the first file as additional information of the second file when the first information and the second information satisfy a predetermined relationship as a result of the comparison by the comparing means And an information recording apparatus.
前記付加情報は、ファイルごとに固有の情報と、前記ファイルの間で共通の情報と、を含み、
前記記録手段は、前記共通の情報を含む第1のファイルの付加情報のみを前記第2のファイルの付加情報として記録することを特徴とする請求項1に記載の情報記録装置。
The additional information includes information unique to each file and information common to the files,
The information recording apparatus according to claim 1, wherein the recording unit records only the additional information of the first file including the common information as the additional information of the second file.
前記付加情報を設定するための設定手段をさらに有し、
前記設定手段は、前記固有の情報について、複数のファイルの間で共有するか否かの設定が可能であることを特徴とする請求項2に記載の情報記録装置。
A setting unit for setting the additional information;
The information recording apparatus according to claim 2, wherein the setting unit can set whether the unique information is shared among a plurality of files.
前記所定の情報は、ファイルが記録された時刻情報と位置情報とを含み、
前記取得手段は、前記所定の情報としてファイルが記録された時刻情報と位置情報の少なくともいずれかを取得し、
前記比較手段は、前記所定の関係として前記時刻情報が所定の時間内にあるか及び前記位置情報が所定の範囲内にあるかを判定すること特徴とする請求項1乃至3のいずれか1項に記載の情報記録装置。
The predetermined information includes time information and position information when the file is recorded,
The acquisition means acquires at least one of time information and position information when a file is recorded as the predetermined information,
4. The method according to claim 1, wherein the comparison unit determines whether the time information is within a predetermined time and the position information is within a predetermined range as the predetermined relationship. 5. The information recording device described in 1.
前記第1のファイルと前記第2のファイルとは異なる装置に記録されていることを特徴とする請求項1乃至4のいずれか1項に記載の情報記録装置。   5. The information recording apparatus according to claim 1, wherein the first file and the second file are recorded in different apparatuses. 前記第1のファイルと前記第2のファイルとは異なる記録媒体に記録されていることを特徴とする請求項1乃至4のいずれか1項に記載の情報記録装置。   The information recording apparatus according to any one of claims 1 to 4, wherein the first file and the second file are recorded on different recording media. 前記第1のファイルの付加情報が登録されたデータベースと、
前記取得手段により前記第2のファイルから取得した前記第2の情報と、前記データベースに登録された前記第1のファイルから取得した前記第1の情報とが前記所定の関係を満たす場合、前記第1のファイルの付加情報を前記第2のファイルの付加情報として前記データベースに登録する登録手段とをさらに有することを特徴とする請求項1乃至4のいずれか1項に記載の情報記録装置。
A database in which additional information of the first file is registered;
When the second information acquired from the second file by the acquisition means and the first information acquired from the first file registered in the database satisfy the predetermined relationship, 5. The information recording apparatus according to claim 1, further comprising registration means for registering additional information of one file in the database as additional information of the second file.
前記記録媒体には、前記第1のファイル及び前記第2のファイルが付加情報の記録元であるか否かを示す情報が記録されており、
前記情報記録装置は、前記記録元であるか否かを示す情報を判定する判定手段をさらに有することを特徴とする請求項6に記載の情報記録装置。
In the recording medium, information indicating whether or not the first file and the second file are recording sources of additional information is recorded,
The information recording apparatus according to claim 6, further comprising a determination unit that determines information indicating whether or not the recording source is the recording source.
映像ファイルを生成するために被写体を撮像する撮像手段をさらに有し、
前記記録手段は、前記映像ファイルを記録する際に、当該映像ファイルの付加情報及び共有するか否かを示す情報を記録することを特徴とする請求項3に記載の情報記録装置。
An image capturing means for capturing an image of the subject to generate a video file;
4. The information recording apparatus according to claim 3, wherein when recording the video file, the recording unit records additional information of the video file and information indicating whether to share the video file.
前記記録手段は、前記映像ファイルを記録する際に、当該映像ファイルを付加情報の記録元とするか否かを示す情報を記録することを特徴とする請求項9に記載の情報記録装置。   10. The information recording apparatus according to claim 9, wherein when recording the video file, the recording unit records information indicating whether or not the video file is used as a recording source of additional information. ファイルを記録する際に当該ファイルに付随する付加情報を記録する情報記録方法であって、
前記ファイルの付加情報から所定の情報を取得する取得工程と、
前記取得工程により第1のファイルから取得した第1の情報と第2のファイルから取得した第2の情報とを比較する比較工程と、
前記比較工程による比較の結果、前記第1の情報と前記第2の情報とが所定の関係を満たす場合、前記第1のファイルの付加情報を前記第2のファイルの付加情報として記録する記録工程と、を有することを特徴とする情報記録方法。
An information recording method for recording additional information accompanying the file when recording the file,
An acquisition step of acquiring predetermined information from the additional information of the file;
A comparison step of comparing the first information acquired from the first file by the acquisition step with the second information acquired from the second file;
A recording step of recording additional information of the first file as additional information of the second file when the first information and the second information satisfy a predetermined relationship as a result of the comparison in the comparison step And an information recording method.
請求項11に記載の情報記録方法を情報記録装置のコンピュータに実行させるためのプログラム。   A program for causing a computer of an information recording apparatus to execute the information recording method according to claim 11.
JP2008328660A 2008-12-24 2008-12-24 Information processing apparatus, information processing method, and information processing system Active JP5480495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008328660A JP5480495B2 (en) 2008-12-24 2008-12-24 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008328660A JP5480495B2 (en) 2008-12-24 2008-12-24 Information processing apparatus, information processing method, and information processing system

Publications (3)

Publication Number Publication Date
JP2010154116A true JP2010154116A (en) 2010-07-08
JP2010154116A5 JP2010154116A5 (en) 2012-02-16
JP5480495B2 JP5480495B2 (en) 2014-04-23

Family

ID=42572701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008328660A Active JP5480495B2 (en) 2008-12-24 2008-12-24 Information processing apparatus, information processing method, and information processing system

Country Status (1)

Country Link
JP (1) JP5480495B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011087217A (en) * 2009-10-19 2011-04-28 Panasonic Corp Apparatus and method for creating video disk, and program
JP2012049630A (en) * 2010-08-24 2012-03-08 Canon Inc Recording device and recording method
JP2012085264A (en) * 2010-09-14 2012-04-26 Toshiba Corp Video file generating device and video file generating method
JP5686934B1 (en) * 2014-06-23 2015-03-18 楽天株式会社 Information processing apparatus, information processing method, program, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816615A (en) * 1994-07-01 1996-01-19 Canon Inc Image input method/device and image retrieving method/ device
JP2004343627A (en) * 2003-05-19 2004-12-02 Canon Inc Digital camera
JP2005196598A (en) * 2004-01-08 2005-07-21 Nippon Telegr & Teleph Corp <Ntt> Metadata management method, metadata management device, metadata management program and recording medium with its program recorded thereon
JP2007114942A (en) * 2005-10-19 2007-05-10 Seiko Epson Corp Metadata generation apparatus and metadata generation method
JP2008017224A (en) * 2006-07-06 2008-01-24 Casio Comput Co Ltd Imaging apparatus, output control method of imaging apparatus, and program
JP2008134850A (en) * 2006-11-28 2008-06-12 Canon Inc Metadata input support method, metadata input support apparatus and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816615A (en) * 1994-07-01 1996-01-19 Canon Inc Image input method/device and image retrieving method/ device
JP2004343627A (en) * 2003-05-19 2004-12-02 Canon Inc Digital camera
JP2005196598A (en) * 2004-01-08 2005-07-21 Nippon Telegr & Teleph Corp <Ntt> Metadata management method, metadata management device, metadata management program and recording medium with its program recorded thereon
JP2007114942A (en) * 2005-10-19 2007-05-10 Seiko Epson Corp Metadata generation apparatus and metadata generation method
JP2008017224A (en) * 2006-07-06 2008-01-24 Casio Comput Co Ltd Imaging apparatus, output control method of imaging apparatus, and program
JP2008134850A (en) * 2006-11-28 2008-06-12 Canon Inc Metadata input support method, metadata input support apparatus and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011087217A (en) * 2009-10-19 2011-04-28 Panasonic Corp Apparatus and method for creating video disk, and program
JP2012049630A (en) * 2010-08-24 2012-03-08 Canon Inc Recording device and recording method
JP2012085264A (en) * 2010-09-14 2012-04-26 Toshiba Corp Video file generating device and video file generating method
JP5686934B1 (en) * 2014-06-23 2015-03-18 楽天株式会社 Information processing apparatus, information processing method, program, and storage medium
WO2015198376A1 (en) * 2014-06-23 2015-12-30 楽天株式会社 Information processing device, information processing method, program, and storage medium

Also Published As

Publication number Publication date
JP5480495B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
JP4755156B2 (en) Image providing apparatus and image providing program
JP2009517971A (en) Workflow metadata system and method
US9781293B2 (en) Apparatus and method for managing image files by displaying backup information
US7836024B2 (en) File generating method and file retrieving method
US7610052B2 (en) Sharing meta information media file
JP5480495B2 (en) Information processing apparatus, information processing method, and information processing system
US8498970B2 (en) File processing device and method
JP2006338620A (en) Image data retrieval device, method and program
JP4423318B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and control method for imaging apparatus
JP2007202135A (en) Information processor, information processing method, and program
JP2007316876A (en) Document retrieval program
JPH0991408A (en) Image management equipment
JP5478960B2 (en) Video search server and video search method
US8682834B2 (en) Information processing apparatus and information processing method
JP2007020054A (en) Method and device for managing image
JP2005086265A (en) Mobile terminal, image data file management system, and image data file management method
JP2005244614A (en) Electronic camera device and recording medium
JP5536003B2 (en) Movie editing apparatus, movie editing method, and program
JP4521669B2 (en) Video editing support system
JP2014119389A (en) Image management device, image management system, control method, and program
JP4693735B2 (en) Still image file recording and editing device
JP2006133876A (en) Image processor, image processing method, program, and storage medium
US20080002039A1 (en) Image processing methods and systems
JP2017157956A (en) Information processing apparatus, information processing apparatus control method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140214

R151 Written notification of patent or utility model registration

Ref document number: 5480495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151