JP2009232325A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009232325A
JP2009232325A JP2008077317A JP2008077317A JP2009232325A JP 2009232325 A JP2009232325 A JP 2009232325A JP 2008077317 A JP2008077317 A JP 2008077317A JP 2008077317 A JP2008077317 A JP 2008077317A JP 2009232325 A JP2009232325 A JP 2009232325A
Authority
JP
Japan
Prior art keywords
shooting
scene
scenario data
recording
clip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008077317A
Other languages
Japanese (ja)
Other versions
JP2009232325A5 (en
JP4946935B2 (en
Inventor
Tadataka Ueda
恭敬 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008077317A priority Critical patent/JP4946935B2/en
Publication of JP2009232325A publication Critical patent/JP2009232325A/en
Publication of JP2009232325A5 publication Critical patent/JP2009232325A5/ja
Application granted granted Critical
Publication of JP4946935B2 publication Critical patent/JP4946935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically perform relating of scenes in an imaging apparatus which creates scenario data before a take of film shooting and performs automatic editing, on the basis of the scenario data. <P>SOLUTION: An imaging apparatus comprises: a camera unit that captures a video image and outputs the video image together with a camera-setting parameter in image capturing; a scenario data holding means for holding scenario data containing a shooting condition, for each shooting scene created beforehand; a scene-specifying means for determining the shooting condition in shooting, based on the camera-setting parameter and comparing the determined shooting condition, with the shooting condition for each shooting scene in the scenario data to associate a closest shooting scene with a video image; and a recording unit for recording on a recording medium the information made to associate with the shooting scene and the video image associated by the scene-specifying means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影本番前にシナリオデータを作成し、そのシナリオデータに基づいて撮影した映像に対して自動編集を行う撮像装置、カメラレコーダおよび編集システムに関する。   The present invention relates to an imaging apparatus, a camera recorder, and an editing system that create scenario data before actual shooting and automatically edit a video shot based on the scenario data.

近年、光ディスクや、半導体メモリなどのランダムアクセス可能な記録媒体に、映像や音声データをファイル化して記録する装置が一般的になり、例えば、放送局や映像制作会社等においても、このような記録媒体を備えた編集装置を利用して映像編集作業等が行われている。   In recent years, devices for recording video and audio data as files on a randomly accessible recording medium such as an optical disk or a semiconductor memory have become common. For example, such a recording is also used in broadcasting stations and video production companies. Video editing work or the like is performed using an editing device provided with a medium.

従来、映画やテレビドラマ等の撮影は、絵コンテ等を元に作成されたシナリオに基づいて行われている。シナリオにはタイトル(名前)が付けられており、複数のシーンにより構成されている。またシーンは複数のカットで構成されている。監督はシナリオに従って演出を行い、俳優、女優、エキストラ等の出演者はシナリオの記述に従って演技し、シナリオに従った撮影条件(例えば、カメラのパラメータ設定や、カメラの位置、向き等)により撮影が行われる。生本番の舞台やコンサート等においては、シナリオに示されたシーンの順番通りに演じられたものを撮影する。また、講演会の撮影、結婚式の撮影は、あらかじめ、講演や結婚式の進捗に沿って、決められたスケジュールに基づいて撮影が行われている。一方、映画やドラマ等においては、シナリオに示されたシーンの順番通りに撮影が行われることは稀である。   Conventionally, filming of movies, TV dramas, and the like has been performed based on scenarios created based on storyboards. A scenario has a title (name) and is composed of a plurality of scenes. A scene is composed of a plurality of cuts. The director performs according to the scenario, and actors such as actors, actresses, and extras perform according to the description of the scenario, and shooting is performed according to the shooting conditions (for example, camera parameter settings, camera position, orientation, etc.). Done. In live performances, concerts, etc., we will shoot what was performed in the order of the scenes shown in the scenario. Lectures and weddings are taken in advance according to a predetermined schedule in accordance with the progress of lectures and weddings. On the other hand, in movies, dramas and the like, it is rare that shooting is performed in the order of the scenes indicated in the scenario.

これらの背景に基づいて、撮影前に撮影内容、台詞、撮影番号等を含む撮影時のシナリオ情報であるシナリオデータを入力し、そのシナリオデータに従って撮影ガイダンスを行う技術(例えば、特許文献1)が開示されている。一方、撮影に関する電子化されたシナリオデータを作成しておき、シナリオデータ中のシーンを選択してから撮影を行うことで、作成したシナリオデータをテイクメタデータとして撮影したカットと関連付けて記録して、シナリオデータを企画工程から、編集工程まで利用する技術(例えば、特許文献2)が開示されている。
特開2006−174318号公報 特開2004−187275号公報
Based on these backgrounds, there is a technique (for example, Patent Document 1) that inputs scenario data that is scenario information at the time of shooting including shooting contents, dialogue, shooting number, etc. before shooting, and performs shooting guidance according to the scenario data. It is disclosed. On the other hand, digitized scenario data related to shooting is created, and by selecting a scene in the scenario data and shooting, the created scenario data is recorded in association with the shot taken as take metadata. A technique (for example, Patent Document 2) that uses scenario data from a planning process to an editing process is disclosed.
JP 2006-174318 A JP 2004-187275 A

しかしながら、特許文献2に開示された従来の構成は、ユーザが撮影前にシナリオデータを入力しておき、撮影開始時には撮影前に入力したシナリオデータよりこれから撮影するシーンを選択しなければならず、撮影時に手間となるという課題がある。   However, in the conventional configuration disclosed in Patent Document 2, the user inputs scenario data before shooting, and at the start of shooting, the scene to be shot from the scenario data input before shooting must be selected. There is a problem that it is troublesome at the time of shooting.

上記課題に鑑みて本発明の撮像装置は、ユーザの撮影時の負荷を軽減するためにシナリオデータの入力を容易にし、自動的にシナリオデータと撮影映像データとの関連付けを行うことを目的とする。   In view of the above problems, an imaging apparatus according to the present invention aims to facilitate the input of scenario data and automatically associate the scenario data with the captured video data in order to reduce the user's shooting load. .

上述した課題を解決するために本発明の撮像装置は、映像を撮像し、撮像時のカメラ設定パラメータと共に出力するカメラ部と、事前に作成された撮影シーン毎の撮影条件を含むシナリオデータを保持するシナリオデータ保持手段と、カメラ設定パラメータに基づいて撮影時の撮影条件を求め、シナリオデータ中の撮影シーン毎の撮影条件と比較することにより、最も近い撮影シーンを映像と関連付けるシーン特定手段と、シーン特定手段が関連付けた撮影シーンと映像との関連付けの情報を記録媒体に記録する記録部とを備える。   In order to solve the above-described problems, the imaging apparatus of the present invention holds a scenario data including a camera unit that captures an image and outputs it together with camera setting parameters at the time of imaging, and shooting conditions for each shooting scene that are created in advance. A scenario data holding means, a shooting condition at the time of shooting based on camera setting parameters, and a scene specifying means for associating the closest shooting scene with a video by comparing with shooting conditions for each shooting scene in the scenario data; A recording unit that records information on the association between the shooting scene associated with the scene specifying unit and the video on a recording medium;

本発明の撮像装置によれば、シナリオデータと映像データとを関連付ける時に、ユーザがシーン選択を行わずに装置が自動的にシーン選択することで、ユーザの撮影時の負荷を軽減することができる。また、例えばシナリオデータに撮影条件を含む撮影映像データ識別子を追記することで、シナリオデータから撮影映像データを検索できるように撮影映像データとシナリオデータとの関連付けを行う。このことにより、自動的にシーン順番に並べることや、不要なシーンのデータ取り込みを行わない等の編集作業の効率化を図ることができる。   According to the imaging apparatus of the present invention, when associating scenario data and video data, the apparatus can automatically select a scene without selecting a scene, thereby reducing the burden on the user when shooting. . Further, for example, by adding a captured video data identifier including a shooting condition to the scenario data, the captured video data and the scenario data are associated with each other so that the captured video data can be searched from the scenario data. As a result, it is possible to improve the efficiency of the editing work such as automatically arranging the scenes in order and not taking in unnecessary scene data.

以下、図面を参照しながら本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態における撮像装置のブロック図である。本実施の形態では、被写体を撮像するカメラ部と、カメラ部により撮像された映像を圧縮符号化された符号化映像データとして記録媒体に記録するとともに、記録媒体に記録した符号化映像データを再生する記録再生手段とを有したカメラレコーダの一例を挙げて説明する。このようなカメラレコーダは、映像制作事業者などを対象とした業務用途を目的とする装置であり、撮影現場での取材等に利用されている。例えば撮影現場において、本カメラレコーダで撮影することにより生成した映像データおよび音声データ(以下、これらを合わせて素材データと呼ぶ)は、本カメラレコーダに着脱可能な記録媒体に記録される。さらに編集室内において、この記録媒体に記録された複数の素材データを用いて編集作業が行われる。   FIG. 1 is a block diagram of an imaging apparatus according to an embodiment of the present invention. In the present embodiment, a camera unit that captures an image of a subject, and a video image captured by the camera unit is recorded on a recording medium as encoded video data that is compression-encoded, and the encoded video data recorded on the recording medium is reproduced. An example of a camera recorder having a recording / reproducing device for recording will be described. Such a camera recorder is a device intended for business use intended for video production companies and the like, and is used for interviews and the like at shooting sites. For example, video data and audio data (hereinafter collectively referred to as material data) generated by shooting with the camera recorder at the shooting site are recorded on a recording medium detachable from the camera recorder. Further, in the editing room, editing work is performed using a plurality of material data recorded on the recording medium.

図1に示すように、本発明の撮像装置としてのカメラレコーダは、カメラレコーダの各部や記録媒体を管理、および制御するシステム制御部101と、各部を共通に接続し、各部間で各種データを伝送するI/Oバス121と、着脱可能な記録媒体としての記録メモリ161を接続するためのインターフェースであるPCMCIA I/F部160と、符号化映像データや音声データの記録や再生をユーザが指示入力する入力部131と、撮像素子であるCCDなどにより撮像した映像を映像信号として取り込むカメラ部141と、映像信号の前処理を行うとともに、映像信号をデジタル形式の映像データに変換する映像処理部142と、映像データに対し圧縮符号化を施し、符号化映像データを生成する映像符号化部143と、音声信号を入力するマイク部144と、入力した音声信号の前処理を行うと共に、音声信号をデジタル形式の音声データに変換する音声処理部145と、符号化映像データを復号化し、元の映像データへと復元する映像復号化部148と、復元された映像データを出力する映像出力部149と、音声データを出力する音声出力部150と、機器の動作状態をユーザに呈示する表示部132と、本カメラレコーダの物理的位置を検出するための位置検出手段133とを含む構成である。   As shown in FIG. 1, a camera recorder as an imaging apparatus of the present invention is connected to a system control unit 101 that manages and controls each unit and recording medium of the camera recorder, and each unit is connected in common, and various data is transmitted between the units. A PCMCIA I / F unit 160 serving as an interface for connecting a transmission I / O bus 121 and a recording memory 161 as a detachable recording medium, and a user instructs recording and reproduction of encoded video data and audio data An input unit 131 for input, a camera unit 141 that captures an image captured by a CCD or the like as an image sensor as a video signal, and a video processing unit that performs preprocessing of the video signal and converts the video signal into digital video data 142, a video encoding unit 143 that performs compression encoding on the video data and generates encoded video data, and an audio signal. A microphone unit 144 that performs input processing, pre-processing of the input audio signal, an audio processing unit 145 that converts the audio signal into digital audio data, and decoding the encoded video data to restore the original video data The video decoding unit 148, the video output unit 149 that outputs the restored video data, the audio output unit 150 that outputs the audio data, the display unit 132 that presents the operating state of the device to the user, and the camera recorder And position detecting means 133 for detecting the physical position of the head.

また、記録メモリ161は、本カメラレコーダに対して着脱可能な記録媒体である。本実施の形態では、記録メモリ161が、PCMCIAの形状でカメラレコーダに着脱可能な構成の一例を挙げており、記録メモリ161とPCMCIA I/F部160(以下、適宜、I/F部と呼ぶ)とは、PCカード規格に基づき接続される。   The recording memory 161 is a recording medium that can be attached to and detached from the camera recorder. In the present embodiment, an example of a configuration in which the recording memory 161 can be attached to and detached from the camera recorder in the shape of a PCMCIA is given. The recording memory 161 and the PCMCIA I / F unit 160 (hereinafter referred to as an I / F unit as appropriate). ) Is connected based on the PC card standard.

また、本実施の形態では、システム制御部101が、例えば、図示しないマイコンとメモリとを備え、マイコンがメモリに格納されたプログラムを実行することによって実現される一例を挙げている。システム制御部101に含まれるシナリオデータ保持手段106、記録バッファメモリ110および再生バッファメモリ115以外の各処理手段は、マイコンが、メモリに記憶した各種のプログラムを実行することによって実現される。システム制御部101は、マイコンがメモリに記憶したプログラムを実行することで、撮影モードをテスト撮影モードと本番撮影モードとに切り替える撮影モード切替手段113と、カメラ部141からカメラ設定パラメータを受け付けるカメラ動作検出部102と、カメラ動作検出部102から送られてくるカメラ設定パラメータに基づいて撮影条件を特定する撮影条件特定手段103と、撮影モードがテスト撮影モードであるときに、撮影条件特定手段103の情報に基づいて、撮影条件から撮影シーンに対応するシナリオデータ(シナリオデータには、撮影内容、台詞、撮影番号等を含む撮影時のシナリオ情報に加え、撮影した映像との関連付けに利用する分類情報および撮影特徴(いずれも後述する)を含む)を作成するシナリオデータ作成手段104と、記録メモリ161に記録されたシナリオデータを読み込むシナリオデータ読み込み手段105と、シナリオデータを、例えばメモリ上に保持するあるいは、シナリオデータを記録メモリ161に記録するシナリオデータ保持手段106と、撮影条件をシナリオデータ保持手段106が保持しているシナリオデータと比較し、最も近いシナリオデータに対応する撮影シーンを撮像した映像と対応付けるシーン特定手段107と、シーン特定手段107にて特定されたシーン情報からマークを付与するマーク付与手段108と、記録メモリ161に記録する映像音声データを管理するための管理情報ファイルを処理する管理ファイル処理手段109と、映像符号化部143及び音声処理部145から提供される映像音声データを一時的に保持する記録バッファメモリ110と、記録バッファメモリ110に保持された映像音声データを記録メモリ161に所定のファイル形式で記録するための処理を行う記録処理手段111と、記録メモリ161に記録されたファイルを再生するための処理を行う再生処理手段114と、記録メモリ161からの再生映像音声データを一時的に保持する再生バッファメモリ115とを含む。   Further, in the present embodiment, an example is given in which the system control unit 101 includes, for example, a microcomputer and a memory (not shown), and is realized by the microcomputer executing a program stored in the memory. Each processing means other than the scenario data holding means 106, the recording buffer memory 110, and the reproduction buffer memory 115 included in the system control unit 101 is realized by the microcomputer executing various programs stored in the memory. The system control unit 101 executes a program stored in a memory by a microcomputer, thereby performing a shooting mode switching unit 113 that switches a shooting mode between a test shooting mode and a real shooting mode, and a camera operation that receives camera setting parameters from the camera unit 141. The detection unit 102, the shooting condition specifying unit 103 for specifying the shooting condition based on the camera setting parameter sent from the camera operation detection unit 102, and the shooting condition specifying unit 103 when the shooting mode is the test shooting mode. Based on the information, the scenario data corresponding to the shooting scene from the shooting conditions (the scenario data includes the shooting scenario information including shooting contents, dialogue, shooting number, etc., and classification information used for associating with the shot video And scenario features that create shooting features (both described later) Data creation means 104, scenario data reading means 105 for reading the scenario data recorded in the recording memory 161, and scenario data holding means 106 for holding the scenario data in, for example, a memory or recording the scenario data in the recording memory 161. The shooting conditions are compared with the scenario data held by the scenario data holding means 106, and the scene specifying means 107 for associating the shooting scene corresponding to the closest scenario data with the captured video and the scene specifying means 107 specify the shooting conditions. Mark assigning means 108 for assigning a mark from the scene information, management file processing means 109 for processing a management information file for managing video / audio data recorded in the recording memory 161, a video encoding section 143, and an audio processing section 145 provided by 145 A recording buffer memory 110 that temporarily stores data, a recording processing unit 111 that performs processing for recording the video and audio data stored in the recording buffer memory 110 in the recording memory 161 in a predetermined file format, and a recording memory 161 A reproduction processing means 114 for performing a process for reproducing the file recorded in the recording medium, and a reproduction buffer memory 115 for temporarily holding reproduced video / audio data from the recording memory 161.

さらに、本実施の形態では、カメラ部141が、被写体を撮像する撮像部171と、撮像部171のズーム制御を行うズーム手段172と、撮像部171の手振れ補正を行うための角度及び角速度データを検出する角度検出手段173とを含み、ズーム手段172にて制御するズーム設定値(ズーム倍率)と、角度検出手段173にて検出される撮影角度等の角度、角速度データをカメラ設定パラメータとしてカメラ動作検出部102に提供する。   Furthermore, in the present embodiment, the camera unit 141 includes an imaging unit 171 that captures an image of a subject, zoom means 172 that performs zoom control of the imaging unit 171, and angle and angular velocity data for performing camera shake correction of the imaging unit 171. Camera operation using a zoom setting value (zoom magnification) controlled by the zoom unit 172, and an angle and angular velocity data such as a shooting angle detected by the angle detection unit 173 as camera setting parameters. Provided to the detection unit 102.

次に、以上のように構成された本実施の形態のカメラレコーダにおける、基本的な記録動作について説明する。ユーザがカメラレコーダに対して記録開始を指示すると、カメラレコーダは撮像処理を行って映像データを圧縮符号化し、符号化映像ファイルとして記録メモリ161に記録する。ユーザがカメラレコーダに対して記録停止を指示すると、カメラレコーダは映像データの記録を終了する。以上のような1連続の記録、すなわち記録開始から記録終了までの間を一単位とする記録動作によって生成された符号化映像ファイルおよびこれに関連するファイルを含んだファイル群をクリップ(Clip)と呼ぶことにする。クリップには、少なくとも映像を圧縮符号化した符号化映像データファイルを含み、さらに音声ファイルを含んでもよい。   Next, a basic recording operation in the camera recorder of the present embodiment configured as described above will be described. When the user instructs the camera recorder to start recording, the camera recorder performs an imaging process, compresses and encodes video data, and records it in the recording memory 161 as an encoded video file. When the user instructs the camera recorder to stop recording, the camera recorder ends recording of the video data. A group of files including an encoded video file generated by one continuous recording as described above, that is, a recording operation from the start of recording to the end of recording as a unit and a file related thereto are referred to as a clip. I will call it. The clip includes at least an encoded video data file obtained by compressing and encoding video, and may further include an audio file.

以下、記録動作についてより詳細に説明する。例えば、入力部131によりユーザが通常記録開始を指示すると、カメラ部141は撮像処理を行い、デジタル化された映像データを出力する。次に、この信号が映像処理部142に供給され、供給された映像データは、例えばフィルタでの帯域制限やノイズ除去が行われ、処理された映像データは、映像符号化部143に提供される。   Hereinafter, the recording operation will be described in more detail. For example, when the user instructs to start normal recording through the input unit 131, the camera unit 141 performs an imaging process and outputs digitized video data. Next, this signal is supplied to the video processing unit 142, and the supplied video data is subjected to, for example, band limitation and noise removal by a filter, and the processed video data is provided to the video encoding unit 143. .

映像符号化部143に供給された映像データは、例えば、映像圧縮方式として広く利用されているMPEG−2方式や、MPEG−4/AVC方式、あるいは業務用のデジタルVTR(Video Tape Recoder)の規格の一つであるSMPTE(Society of Motion Picture and Television Engineers)−314M(DV−Based 25M)規格に基づき圧縮符号化される。映像符号化部143は、圧縮符号化処理により生成した符号化映像データをI/Oバス121を介して、システム制御部101に供給する。   The video data supplied to the video encoding unit 143 is, for example, an MPEG-2 system, an MPEG-4 / AVC system, or a business-use digital VTR (Video Tape Recorder) standard widely used as a video compression system. Is encoded based on SMPTE (Society of Motion Picture and Television Engineers) -314M (DV-Based 25M) standard. The video encoding unit 143 supplies the encoded video data generated by the compression encoding process to the system control unit 101 via the I / O bus 121.

システム制御部101に供給された符号化映像データは、記録バッファメモリ110に供給される。なお、システム制御部101において、記録処理の前処理として次のような処理が実行される。   The encoded video data supplied to the system control unit 101 is supplied to the recording buffer memory 110. In the system control unit 101, the following process is executed as a pre-process of the recording process.

まず、システム制御部101において、記録処理手段111は、入力部131からのユーザの指示に応じて、記録メモリ161に対し現在処理中の符号化映像データを格納するファイルの生成などに関する処理を行う。すなわち、例えば、ユーザから新たな素材データの記録の開始が指示された場合、記録処理手段111は、新たな素材データを記録メモリ161に記録するために付加情報としてのインデックスデータの作成や、映像データファイルや音声データファイルの生成などの処理を行う。   First, in the system control unit 101, the recording processing unit 111 performs processing related to generation of a file for storing encoded video data currently being processed in the recording memory 161 in accordance with a user instruction from the input unit 131. . That is, for example, when the start of recording of new material data is instructed by the user, the recording processing unit 111 creates index data as additional information in order to record new material data in the recording memory 161, Processes such as generation of data files and audio data files.

また、インデックスデータとは、例えば記録メモリ161中に記録された素材データを管理するための情報であるメディアインデックステーブルと、各素材データの属性情報であるメタデータであるクリップインデックステーブルとを含む。インデックスデータは、管理ファイル処理手段109により、記録メモリ161に設けられたインデックスファイルに記録される。インデックスデータおよびインデックスファイルの詳細については後述する。   The index data includes, for example, a media index table that is information for managing material data recorded in the recording memory 161, and a clip index table that is metadata that is attribute information of each material data. The index data is recorded in an index file provided in the recording memory 161 by the management file processing unit 109. Details of the index data and the index file will be described later.

さらに、管理ファイル処理手段109は、符号化映像データの記録に先立ち、生成されるファイルや記録される記録メモリ161に対するインデックスファイルの更新を実行する。   Further, the management file processing means 109 updates the index file for the generated file and the recording memory 161 to be recorded prior to recording the encoded video data.

さらに、符号化映像データの記録に先立ち、記録処理手段111が、記録メモリ161に符号化映像データを書き込むための空き領域の有無を検索し、空き領域がある場合にのみ記録を開始する。なお、記録処理手段111は、空き領域がなくなった場合には、記録不可能であることを、例えば、表示部132に表示することによってユーザに対して通知する。   Further, prior to recording the encoded video data, the recording processing unit 111 searches for the presence or absence of an empty area for writing the encoded video data in the recording memory 161, and starts recording only when there is an empty area. Note that the recording processing unit 111 notifies the user that the recording is impossible, for example, by displaying on the display unit 132 when there is no free space.

記録処理手段111により記録メモリ161の所定のファイル領域が確保されると、さらに、記録処理手段111は、記録バッファメモリ110に順次供給される符号化映像データを、I/Oバス121、およびI/F部160を介して、記録メモリ161に送出し、確保された記録領域にファイルとして書き込む。   When a predetermined file area of the recording memory 161 is secured by the recording processing unit 111, the recording processing unit 111 further converts the encoded video data sequentially supplied to the recording buffer memory 110 into the I / O bus 121 and the I The data is sent to the recording memory 161 via the / F unit 160 and written as a file in the secured recording area.

また、ユーザが入力部131に対して記録の停止を指示すると、カメラ部141からの映像信号の供給が終了するとともに、記録メモリ161への符号化映像データの書き込みも終了する。   When the user instructs the input unit 131 to stop recording, the supply of the video signal from the camera unit 141 is terminated, and the writing of the encoded video data to the recording memory 161 is also terminated.

このような一連の記録動作の実行により、カメラ部141により撮像された映像は、一つのファイルとしてファイル化された符号化映像データファイルとして記録メモリ161に記録され、記録メモリ161には一つの符号化映像データファイルが新規に作成される。   By executing such a series of recording operations, the video imaged by the camera unit 141 is recorded in the recording memory 161 as an encoded video data file filed as one file, and one code is stored in the recording memory 161. A new video data file is created.

一方、本カメラレコーダにおいて、ユーザから入力部131に対して記録の開始が指示されると、カメラ部141からの映像の取り込みとともに、マイク部144からの音声の取り込みも開始される。マイク部144から取り込まれた音声は、音声信号として音声処理部145に供給される。音声処理部145は、供給された音声信号をデジタル形式である音声データに変換し、記録バッファメモリ110に供給する。記録バッファメモリ110に供給された音声データは、記録処理手段111により、映像に対する記録処理と同様に、音声ファイルとして記録メモリ161に書き込まれる。   On the other hand, in this camera recorder, when the user instructs the input unit 131 to start recording, capturing of audio from the microphone unit 144 is started together with capturing of video from the camera unit 141. The audio captured from the microphone unit 144 is supplied to the audio processing unit 145 as an audio signal. The audio processing unit 145 converts the supplied audio signal into audio data in a digital format, and supplies the audio data to the recording buffer memory 110. The audio data supplied to the recording buffer memory 110 is written into the recording memory 161 as an audio file by the recording processing unit 111 in the same manner as the recording processing for the video.

以上のようにして、マイク部144により取り込まれた音声は、映像の取り込みと並行して音声ファイルとして記録メモリ161に記録される。   As described above, the audio captured by the microphone unit 144 is recorded in the recording memory 161 as an audio file in parallel with the video capture.

なお、本実施の形態では音声圧縮を施していないが、音声圧縮を施してもよい。   In this embodiment, audio compression is not performed, but audio compression may be performed.

次に、本カメラレコーダにおいて、例えば、ユーザが入力部131に対してクリップを指定して再生の開始を指示すると、管理ファイル処理手段109は、記録メモリ161に記録されているインデックスファイルから、再生すべきクリップに含まれる符号化映像ファイルと音声ファイルの情報を読み出し、それらのファイル名を再生処理手段114に供給する。再生処理手段114は、再生指定された符号化映像ファイルの符号化映像データと音声ファイルの音声データとを読み出し、再生バッファメモリ115を介して、符号化映像データを映像復号化部148に、音声データを音声出力部150に供給する。映像復号化部148は、SMPTE−314M方式に準拠した映像復号化処理を行い、復号化済の映像データを映像出力部149に供給する。映像出力部149は、供給された映像データを映像信号に変換し、例えば、カメラレコーダに備えられたモニタから再生画像をユーザに呈示する。また、音声出力部150は、供給された音声データを音声信号に変換し、例えば、カメラレコーダに備えられたスピーカから再生音声をユーザに呈示する。   Next, in this camera recorder, for example, when the user designates a clip to the input unit 131 and instructs the start of reproduction, the management file processing unit 109 reproduces from the index file recorded in the recording memory 161. The information of the encoded video file and the audio file included in the clip to be read is read, and the file names are supplied to the reproduction processing unit 114. The reproduction processing unit 114 reads the encoded video data of the encoded video file designated for reproduction and the audio data of the audio file, and transmits the encoded video data to the video decoding unit 148 via the reproduction buffer memory 115. Data is supplied to the audio output unit 150. The video decoding unit 148 performs video decoding processing conforming to the SMPTE-314M system, and supplies the decoded video data to the video output unit 149. The video output unit 149 converts the supplied video data into a video signal, and presents the reproduced image to the user from a monitor provided in the camera recorder, for example. In addition, the audio output unit 150 converts the supplied audio data into an audio signal, and presents the reproduced audio to the user from, for example, a speaker provided in the camera recorder.

このような一連の再生動作の実行により、記録メモリ161に記録された符号化映像データと音声データとが読み出され、映像出力部149から再生映像が、音声出力部150から再生音声が出力される。   By executing such a series of playback operations, encoded video data and audio data recorded in the recording memory 161 are read out, and playback video is output from the video output unit 149 and playback audio is output from the audio output unit 150. The

なお、映像と音声との記録および再生は、当然のことながら、通常並行して行われる。すなわち、記録および再生時には、映像および音声各々の記録開始時刻、記録終了時刻、再生開始時刻および再生終了時刻は同期して処理される。   Note that recording and reproduction of video and audio are normally performed in parallel. That is, at the time of recording and reproduction, the recording start time, recording end time, reproduction start time, and reproduction end time of the video and audio are processed in synchronization.

以上、本カメラレコーダにおける記録、および再生処理の基本的な動作について説明したが、上記にて簡単に説明したように、システム制御部101により、素材データをファイル形式でクリップとして記録再生するための処理が実行される。   The basic operation of recording and playback processing in the camera recorder has been described above. As described briefly above, the system control unit 101 can record and playback material data as a clip in the file format. Processing is executed.

次に、システム制御部101による、付加情報としてのインデックスデータに関する処理について説明する。   Next, processing related to index data as additional information by the system control unit 101 will be described.

本発明の撮像装置であるカメラレコーダは、上述したように、符号化映像データや音声データと共に、これら素材データの付加情報であるインデックスデータを記録メモリ161に記録する。このようなインデックスデータは、取材等で収録した各素材データの属性情報を示すメタデータである。本カメラレコーダは、このようなメタデータをクリップインデックステーブルとして各素材データ、および各記録メモリ161に対応させて記録メモリ161のインデックスファイルに記録する。   As described above, the camera recorder that is the imaging apparatus of the present invention records index data, which is additional information of these material data, in the recording memory 161 together with the encoded video data and audio data. Such index data is metadata indicating attribute information of each piece of material data recorded during coverage. The camera recorder records such metadata as a clip index table in the index file of the recording memory 161 in association with each material data and each recording memory 161.

インデックスファイルは、一つの記録メモリ161に対し一つのみのファイルとして生成される。例えば、記録メモリ161のフォーマット処理の後、管理ファイル処理手段109が記録メモリ161上に、次に説明するような構成のインデックスファイルを生成する。   The index file is generated as only one file for one recording memory 161. For example, after the formatting process of the recording memory 161, the management file processing unit 109 generates an index file having the configuration described below on the recording memory 161.

図2は、記録メモリ161に設けたインデックスファイルの概要を示した図である。図2に示すように、インデックスファイルにおいては、二階層構造のインデックステーブルが設定される。上位階層として、図2の記録メモリ−Aで示すように、個々の記録メモリ161に対応させた情報を記録するメディアインデックステーブルが設けられ、このメディアインデックステーブルにそれぞれの記録メモリ161固有のメタデータが記録される。また、下位階層として、図2のClip−A、およびClip−Bで示すように、収録した各クリップに対応させた情報を記録するクリップインデックステーブルが設けられ、このクリップインデックステーブルにそれぞれのクリップ固有のメタデータが記録される。   FIG. 2 is a diagram showing an overview of the index file provided in the recording memory 161. As shown in FIG. 2, an index table having a two-layer structure is set in the index file. As shown in the recording memory-A of FIG. 2, a media index table for recording information corresponding to each recording memory 161 is provided as an upper layer, and metadata specific to each recording memory 161 is provided in this media index table. Is recorded. In addition, as shown by Clip-A and Clip-B in FIG. 2, a clip index table for recording information corresponding to each recorded clip is provided as a lower layer. Metadata is recorded.

なお、図2においては、一つのクリップに対応して、一つの符号化映像ファイルと二つの音声ファイルとがリンクする。すなわち、素材データを記録する毎に、素材データが格納される一つの符号化映像ファイルと二つ音声ファイルとが生成されるとともに、インデックスファイルには新たなクリップインデックステーブルが設定され、この新たなクリップインデックステーブルに、その素材データに対応したメタデータが記録される。   In FIG. 2, one encoded video file and two audio files are linked corresponding to one clip. That is, each time material data is recorded, one encoded video file and two audio files in which the material data is stored are generated, and a new clip index table is set in the index file. Metadata corresponding to the material data is recorded in the clip index table.

また、図2に示すようにインデックスファイルに対して、1つ、または複数のシナリオデータを各々シナリオファイルとして記録する。すなわち、シナリオファイルはインデックスファイルとは別ファイルとして記録する。これは、例えば記録する記録媒体を変更するときに、シナリオデータのみのデータ移動を容易にするためである。シナリオデータとは、撮影すべき映像を構成する各シーンについて、撮影内容、台詞、撮影番号等を含む撮影時のシナリオ情報を規定したものであり、撮影する時間長、カメラワーク等が含まれる。   Further, as shown in FIG. 2, one or a plurality of scenario data are recorded as scenario files for the index file. That is, the scenario file is recorded as a separate file from the index file. This is because, for example, when changing the recording medium to be recorded, data movement of only scenario data is facilitated. The scenario data defines scenario information at the time of shooting including shooting contents, dialogue, shooting number, etc., for each scene constituting a video to be shot, and includes shooting time length, camera work, and the like.

図3は、シナリオデータの構成と具体例を示した図であり、(1)結婚式撮影時のシナリオデータと、(2)映画撮影時のシナリオデータの2例を例示している。(1)の結婚式撮影時のシナリオデータは、再度撮影することが許されない場合の例として、(2)の映画撮影時のシナリオデータは、同じシーンの撮影が繰り返し行える場合の例として説明する。ここでシーンとは、撮影を予定しているシナリオで定義されたある一連続で撮影する区間を表し、そのシーンに従って、撮影されたデータがクリップ(あるいは、カット)となる。したがって、撮影中に何らかのミスがあり再度同じシーンを撮影する場合には、1シーンに対応するクリップが複数あることになる。また、同じシーンを繰り返し撮影することをテイクと呼び、繰り返した数をテイク番号(テイク1、テイク2、・・・)で表す。   FIG. 3 is a diagram showing a configuration of the scenario data and a specific example, and illustrates two examples of (1) scenario data at the time of wedding shooting and (2) scenario data at the time of movie shooting. The scenario data at the time of wedding shooting in (1) will be described as an example when it is not allowed to shoot again, and the scenario data at the time of shooting a movie of (2) will be described as an example when shooting of the same scene can be repeated. . Here, a scene represents a certain continuous shooting section defined in a scenario in which shooting is planned, and the shot data becomes a clip (or cut) according to the scene. Therefore, when there is some mistake during shooting and the same scene is shot again, there are a plurality of clips corresponding to one scene. Moreover, taking the same scene repeatedly is called a take, and the number of repetitions is represented by a take number (take 1, take 2,...).

「シーン番号」は、例えば、撮影順番や編集後のシーン順を表すシーンの識別番号であり、ユーザが自由に付加することができる。   The “scene number” is, for example, a scene identification number indicating the shooting order or the edited scene order, and can be freely added by the user.

「タイトル」は、ユーザが任意に付加することができる各シーンのタイトルであり、ユーザが認識し易い名前(文字列)を自由に付加することができる。   The “title” is a title of each scene that can be arbitrarily added by the user, and a name (character string) that can be easily recognized by the user can be freely added.

「採用Duration」は、各シーンにおいて、編集結果として採用を予定している時間長及びフレーム長である。   “Adopted Duration” is a time length and a frame length scheduled to be adopted as an editing result in each scene.

「撮影特徴」は、各シーンの撮影方法や撮影条件の代表的な特徴を表し、例えば、カメラレコーダの角度変更や角度移動を示す「パン」、「チルト」や、ズームアップを示す「ズーム」や、撮影装置の物理的移動量を示す「位置移動」に分類する。   “Shooting feature” represents a typical feature of the shooting method and shooting conditions of each scene. For example, “pan”, “tilt” indicating angle change or angle movement of the camera recorder, and “zoom” indicating zoom-up. Or “position movement” indicating the physical movement amount of the photographing apparatus.

「撮影開始時ズーム設定」は、撮影開始時のカメラ部141のズーム設定状態を表し、ズームされた状態を示す「ズームUP」、ズームされていない状態を示す「通常」に分類する。   “Zoom setting at the start of shooting” represents the zoom setting state of the camera unit 141 at the start of shooting, and is classified into “zoom up” indicating a zoomed state and “normal” indicating a non-zoomed state.

「ズーム変化」は、撮影開始時から撮影終了時までのカメラ部141(ズーム手段172により制御する)のズーム設定値の変化を表し、「変化あり」、「変化なし」に分類する。   “Zoom change” represents a change in zoom setting value of the camera unit 141 (controlled by the zoom unit 172) from the start of shooting to the end of shooting, and is classified into “changed” and “no change”.

「撮影開始時角度」は、撮影開始時の本撮像装置の角度を表し、地面に対して水平な状態を示す「水平」、地面に対して上向きの角度であることを示す「上向き」、地面に対して下向きの角度であることを示す「下向き」に分類する。   The “shooting start angle” represents the angle of the imaging apparatus at the start of shooting, “horizontal” indicating a state horizontal to the ground, “upward” indicating an upward angle with respect to the ground, Is classified as “downward” indicating that the angle is downward.

「角度変化」は、撮影開始時から撮影終了時までの本撮像装置の角度変化を表し、地面に対して垂直方向に角度変化したことを示す「垂直方向移動」、地面に対して水平な方向に角度変化したことを示す「水平方向移動」、角度変化が生じなかったことを示す「変化なし」に分類する。   “Angle change” indicates the angle change of the image pickup apparatus from the start of shooting to the end of shooting, “vertical movement” indicating that the angle has changed in the direction perpendicular to the ground, and a direction horizontal to the ground Are classified into “horizontal movement” indicating that the angle has changed, and “no change” indicating that no angle change has occurred.

「撮影開始時位置」は、撮影開始時の本撮像装置時の物理的位置を表し、例えば、緯度、経度や、基準点からの相対距離を示す。図3では、緯度、経度の例を記述している。   “Shooting start position” represents the physical position of the imaging apparatus at the start of shooting, and indicates, for example, the latitude, longitude, and relative distance from the reference point. FIG. 3 describes an example of latitude and longitude.

「位置移動量」は、撮影開始時から撮影終了時までの本撮像装置の物理的位置の移動を表し、緯度、経度の変化量や、方角と移動距離を示す。図3では、方角と移動距離の例を記述している。   “Position movement amount” represents the movement of the physical position of the imaging apparatus from the start of shooting to the end of shooting, and indicates the amount of change in latitude and longitude, as well as the direction and moving distance. FIG. 3 describes an example of a direction and a moving distance.

なお、上述したシナリオデータの分類を細分化すれば、撮影したクリップとシナリオデータとの関連付け精度は向上する。また、例では撮影開始時と撮影終了時において時間的にサンプリングしているが、時間分解能をあげれば、シナリオデータとの関連付け精度を高めることが可能である。なお、上述したシナリオデータの各項目の分類を総称して分類情報と呼び、シナリオデータを作成する場合に各項目の選択肢となる。   If the scenario data classification described above is subdivided, the accuracy of associating captured clips with scenario data can be improved. Further, in the example, sampling is performed temporally at the start of shooting and at the end of shooting. However, if the time resolution is increased, it is possible to increase the accuracy of association with scenario data. Note that the classification of each item of the scenario data described above is collectively referred to as classification information, and is an option for each item when creating scenario data.

次に、インデックスデータを構成するメディアインデックステーブルおよびクリップインデックステーブルについて詳細に説明する。   Next, the media index table and clip index table constituting the index data will be described in detail.

図4は、メディアインデックステーブルの一構成例を示した図である。また、図5は、クリップインデックステーブルの一構成例を示した図である。   FIG. 4 is a diagram illustrating a configuration example of the media index table. FIG. 5 is a diagram showing a configuration example of the clip index table.

図4に示すメディアインデックステーブルおいて、「Media ID」は、メディア、すなわち、記録メモリ161毎にユニークとなるように付加される識別子(IDentifier、以下、適宜、IDと呼ぶ)である。例えば、メディアをフォーマットする際に、フォーマット時の時刻及び機器のID等の組み合わせにより固有のIDを付加することができる。この「Media ID」は、例えば、次に説明する「Clip ID」と組み合わせて所望のクリップを検索する際の識別子として利用することが可能である。   In the media index table shown in FIG. 4, “Media ID” is an identifier (IDentifier, hereinafter referred to as “ID” as appropriate) added to each medium, that is, unique to each recording memory 161. For example, when formatting a medium, a unique ID can be added by a combination of the formatting time and the device ID. This “Media ID” can be used as an identifier when searching for a desired clip in combination with “Clip ID” described below, for example.

「Media Title」は、ユーザが任意に付加することのできるメディア固有のタイトルであり、ユーザが認識し易い名前を自由に付加することができる。機器内でのメディアの特定は「Media ID」によるため、「Media Title」は、符号化映像ファイルや音声ファイルが記録された状態でも自由に変更することが可能である。   “Media Title” is a media-specific title that can be arbitrarily added by the user, and a name that can be easily recognized by the user can be freely added. Since the media in the device is specified by “Media ID”, “Media Title” can be freely changed even when an encoded video file or audio file is recorded.

また、図5に示すクリップインデックステーブルにおいて、「Clip ID」は、クリップ毎にユニークとなるように付加されるIDである。例えば、クリップの記録をする際に、記録開始時の時刻及び機器のID等の組み合わせにより固有のIDを付加することができる。符号化映像ファイルおよび音声ファイルとクリップとの関連付けはこの「Clip ID」をファイル名に記述することで行う。例えば、「Clip ID」がC001の符号化映像ファイルは、「C001.DIF」とし、音声2チャンネル分のファイルはそれぞれ「C001_1.WAV」、「C001_2.WAV」とすることでクリップと映像及び音声ファイルとの関連付けができる。なお、拡張子が「.DIF」であるDIF形式ファイルは、SMPTE−314M規格に基づき圧縮符号化された符号化映像データをファイル化したものである。   In the clip index table shown in FIG. 5, “Clip ID” is an ID added so as to be unique for each clip. For example, when recording a clip, a unique ID can be added by a combination of the recording start time and the device ID. The encoded video file, the audio file, and the clip are associated with each other by describing the “Clip ID” in the file name. For example, an encoded video file with a “Clip ID” of C001 is “C001.DIF”, and files for two audio channels are “C001_1.WAV” and “C001_2.WAV”, respectively. Can be associated with a file. The DIF format file with the extension “.DIF” is a file of encoded video data that has been compression-encoded based on the SMPTE-314M standard.

「Clip Title」は、ユーザが任意に付加することのできるクリップ固有のタイトルであり、ユーザが認識し易い名前を自由に付加することができる。機器内でのクリップの特定は「Clip ID」によるため、「Clip Title」は、符号化映像ファイルや音声ファイルが記録された状態でも自由に変更することが可能である。   “Clip Title” is a clip-specific title that can be arbitrarily added by the user, and a name that can be easily recognized by the user can be freely added. Since the clip in the device is specified by “Clip ID”, “Clip Title” can be freely changed even in a state where an encoded video file or an audio file is recorded.

「Frame Rate」は、映像信号のフレーム周波数を表す。「Duration」は、クリップに含まれるフレーム数を表す。また、「Frame Rate」と「Duration」とによりクリップ全体の記録時間を計算することが可能である。   “Frame Rate” represents the frame frequency of the video signal. “Duration” represents the number of frames included in the clip. Further, the recording time of the entire clip can be calculated by “Frame Rate” and “Duration”.

「Mark」は、クリップの種別(分類)識別子を表す。例えば、撮影成功クリップと撮影失敗クリップを区別したい場合に、OK_MARK:OKクリップ、NG_MARK:NGクリップと定義し、ユーザの操作により、OK_MARKかNG_MARKの文字列を記録することで、クリップの区別を行う。   “Mark” represents a type (classification) identifier of the clip. For example, when it is desired to distinguish between a shooting success clip and a shooting failure clip, it is defined as OK_MARK: OK clip, NG_MARK: NG clip, and a clip is discriminated by recording a character string of OK_MARK or NG_MARK by a user operation. .

「Condition」は、各クリップの撮影方法や撮影条件の代表的な特徴を表し、シナリオデータにおける「撮影特徴」と対応している。   “Condition” represents typical characteristics of the shooting method and shooting conditions of each clip, and corresponds to “shooting characteristics” in the scenario data.

「Zoom」は、撮影開始時のカメラ部141のズーム設定状態を表し、シナリオデータにおける「撮影開始時ズーム設定」と対応している。   “Zoom” represents the zoom setting state of the camera unit 141 at the start of shooting, and corresponds to “zoom setting at shooting start” in the scenario data.

「Zoom Change」は、撮影開始時から撮影終了時までのカメラ部141のズーム設定値の変化を示し、シナリオデータにおける「ズーム変化」と同じ分類を行う。   “Zoom Change” indicates a change in the zoom setting value of the camera unit 141 from the start of shooting to the end of shooting, and performs the same classification as “zoom change” in the scenario data.

「Angle」は、撮影開始時の本撮像装置の地面に対して垂直方向の角度を示し、シナリオデータにおける「撮影開始時角度」と対応している。   “Angle” indicates an angle in a direction perpendicular to the ground of the imaging apparatus at the start of photographing, and corresponds to “an angle at the start of photographing” in the scenario data.

「Angle Change」は、撮影開始時から撮影終了時までの本撮像装置の角度変化を示し、シナリオデータにおける「角度変化」と対応している。   “Angle Change” indicates a change in angle of the imaging apparatus from the start of shooting to the end of shooting, and corresponds to “angle change” in the scenario data.

「Position」は、撮影開始時の本撮像装置時の物理的位置を表し、例えば、緯度、経度や、基準点からの相対距離を示す。これはシナリオデータにおける「撮影開始時位置」と対応している。   “Position” represents the physical position of the imaging apparatus at the start of imaging, and represents, for example, the latitude, longitude, and relative distance from the reference point. This corresponds to the “shooting start position” in the scenario data.

「Position Change」は、撮影開始時から撮影終了時までの本撮像装置の物理的位置の移動を表し、緯度、経度の変化量や、方角と移動距離を示す。これはシナリオデータにおける「位置移動量」と対応している。   “Position Change” represents the movement of the physical position of the imaging apparatus from the start of shooting to the end of shooting, and indicates the amount of change in latitude and longitude, the direction, and the moving distance. This corresponds to the “position movement amount” in the scenario data.

図3のシナリオデータと、図5のクリップインデックステーブルには、分類された種別であるか、数値であるかの違いはあるが、対応する項目が存在する。例えば、シナリオデータの「採用Duration」とクリップインデックステーブルの「Duration」とが対応し、同様に「撮影特徴」と「Condition」、「撮影開始時ズーム設定」と「Zoom」とが対応する。これは、クリップインデックステーブルの内容からシナリオデータを参照し、撮影したクリップの対応するシーンへ関連付ける処理を容易にするためであり、シナリオデータよりもクリップインデックステーブルの方が情報量の多い場合には、図5にて例示した以外の情報が含まれてもよい。   The scenario data of FIG. 3 and the clip index table of FIG. 5 have corresponding items, although there is a difference between the classified type and the numerical value. For example, “adopted Duration” of scenario data corresponds to “Duration” of the clip index table, and similarly, “shooting feature” and “Condition”, “zoom setting at start of shooting”, and “Zoom” correspond to each other. This is to facilitate the process of referring to the scenario data from the contents of the clip index table and associating it with the corresponding scene of the shot clip. If the clip index table has more information than the scenario data, Information other than that illustrated in FIG. 5 may be included.

図6は、インデックスファイルにおけるクリップインデックステーブルの記述例を示した図である。図6(a)は、記録開始直後のクリップインデックステーブルの内容を示す。本実施の形態では、インデックスファイルはテキスト形式とし、文字列を「,」で区切るComma Separated Values(CSV)形式で記録するものとする。クリップインデックステーブルは、クリップ毎に図5にて示した順番に記述される。“C001”は、ClipIDを示し、例えば、“C”を先頭に付けた連続番号を割り振る。“Title001”は、Clip Titleを示す。“30”は、Frame Rateを示し、撮影クリップが30フレーム毎秒で撮影されることを表す。“0”は、Durationを示し、記録開始時は値を決定できないので0とする。その他のデータも記録開始時には、確定できないので情報なし、或いは、変化がないことを示す“NONE”を記録する。   FIG. 6 is a diagram showing a description example of the clip index table in the index file. FIG. 6A shows the contents of the clip index table immediately after the start of recording. In this embodiment, the index file is in a text format and is recorded in a Comma Separated Values (CSV) format in which character strings are delimited by “,”. The clip index table is described for each clip in the order shown in FIG. “C001” represents ClipID, and for example, a serial number prefixed with “C” is allocated. “Title001” indicates a Clip Title. “30” indicates Frame Rate, and represents that a shooting clip is shot at 30 frames per second. “0” indicates Duration, and is set to 0 because the value cannot be determined at the start of recording. Since other data cannot be determined at the start of recording, no information or “NONE” indicating no change is recorded.

図6(b)は、記録終了後のクリップインデックステーブルの内容を示す。記録後にDuration以下の値が決定し情報が記録される。各項目の決定方法については後述する。図6(b)の例では、Durationは、5400フレームであり、180秒のクリップが記録されたことを表している。Markが、“OK_MARK”となっており、OKクリップのマークが付与されたことを表している。Conditionは、“ZOOM”となっており、撮影特徴が「ズーム」に決定されたことを表す。Zoomは、“ZOOM_UP”となっており、ズーム状態で記録開始したことを表している。ZoomChangeは、“CHANGED”となっており、記録中にズーム設定値が変更されたことを表している。Angleは、“UPPER”となっており、「上向き」状態で記録開始したことを表している。AngleChangeは、“NONE”であり、記録中の撮影角度に変化がなかったことを表している。Positionは、“N_90_232323_E_100_121212”となっており、北緯90.232323度、東経100.121212度を表している。この緯度、経度は、本実施の形態では、位置検出手段133として、Global Positioning System(GPS)装置を用いた例を説明する。Positionに関しては、緯度、経度の他に、距離センサ等を利用して基準点からの距離を記録してもよい。PositionChangeは、“NONE”となっており、本撮影装置の記録中の位置移動が行われなかったことを表している。   FIG. 6B shows the contents of the clip index table after the end of recording. After recording, a value less than Duration is determined and information is recorded. A method for determining each item will be described later. In the example of FIG. 6B, Duration is 5400 frames and represents that a clip of 180 seconds has been recorded. Mark is “OK_MARK”, indicating that an OK clip mark has been added. “Condition” is “ZOOM” and represents that the shooting feature is determined to be “zoom”. Zoom is “ZOOM_UP”, indicating that recording has started in the zoom state. ZoomChange is “CHANGED”, which indicates that the zoom setting value has been changed during recording. Angle is “UPPER”, indicating that recording has started in an “upward” state. AngleChange is “NONE”, indicating that there was no change in the shooting angle during recording. Position is “N_90 — 232323_E — 100 — 121212”, which represents 90.232323 degrees north latitude and 100.121212 degrees east longitude. In the present embodiment, the latitude and longitude will be described using an example in which a Global Positioning System (GPS) device is used as the position detection means 133. Regarding Position, in addition to latitude and longitude, the distance from the reference point may be recorded using a distance sensor or the like. “PositionChange” is “NONE”, indicating that the position of the photographing apparatus was not moved during recording.

以上、基本的な記録再生の方法と、記録データに関して説明した。   The basic recording / reproducing method and recorded data have been described above.

次に、本発明の特徴である撮影条件によるシナリオデータとクリップとの関連付けおよび、シナリオデータの処理の概要について説明する。   Next, a description will be given of an outline of the processing of scenario data and the association between scenario data and clips according to shooting conditions, which is a feature of the present invention.

まず、本番撮影の撮影開始前の準備として、シナリオデータの読み込み処理について説明する。シナリオデータを本発明の撮影装置に取り込むには、次の2つの方法がある。1つ目は、事前に記録メモリ161に図3に示すようなシナリオファイルが記録されているとし、シナリオファイルをシナリオデータ読み込み手段105にて記録メモリ161から読み込み、シナリオデータ保持手段106でシナリオデータを保持する方法である。2つ目は、シナリオデータ作成手段104にてシナリオデータを作成し、シナリオデータ保持手段106にてシナリオデータを保持する方法である。2つ目については、撮影モード切替手段113によって撮影モードをテスト撮影モードに切り替えて撮影し、撮影後にシナリオデータ作成手段104が、このテスト撮影で作成されたクリップインデックステーブルからシナリオデータを作成することができる。どちらの方法を採用するにしても、シナリオデータ保持手段106にてシナリオデータが保持され、シナリオデータはシーン特定手段107等の必要なブロックに供給される。なお、シナリオデータ作成の詳細については後述する。   First, scenario data reading processing will be described as preparation before starting shooting for actual shooting. There are the following two methods for capturing the scenario data into the photographing apparatus of the present invention. First, assuming that a scenario file as shown in FIG. 3 is recorded in the recording memory 161 in advance, the scenario data is read from the recording memory 161 by the scenario data reading means 105, and the scenario data holding means 106 reads the scenario data. It is a method of holding. The second is a method in which scenario data is created by the scenario data creating means 104 and the scenario data is held by the scenario data holding means 106. As for the second one, the shooting mode switching unit 113 switches the shooting mode to the test shooting mode to perform shooting, and after shooting, the scenario data creation unit 104 creates scenario data from the clip index table created by this test shooting. Can do. Whichever method is adopted, the scenario data is held in the scenario data holding means 106, and the scenario data is supplied to a necessary block such as the scene specifying means 107. Details of scenario data creation will be described later.

次に、シナリオデータがシナリオデータ保持手段106に保持されている前提で、撮影条件検出から記録、シナリオデータとの関連付けまでの処理概要を説明する。   Next, on the premise that scenario data is held in the scenario data holding means 106, an outline of processing from detection of shooting conditions to recording and association with scenario data will be described.

上述したような基本的な記録方法において、カメラ部141は撮像した映像をフレーム単位で映像信号として取り込むと同時に、カメラ設定パラメータ(例えば、ズーム設定値、手振れ補正用のジャイロ値等)をフレーム単位でカメラ動作検出部102に提供する。カメラ動作検出部102は、記録開始から記録終了までの間に一定間隔でカメラ設定パラメータをサンプリングすることによりデータを間引いて保持する(本実施の形態では、記録開始時と記録終了時の2回、合計2フレーム分のカメラ設定パラメータをサンプリングした例を示している。保持しているシナリオデータと共に時間分解能を上げれば(サンプリング周期を短く取れば)、シナリオデータとの関連付け精度を高めることが可能である。)。カメラ動作検出部102は、サンプリングして間引いたカメラ設定パラメータを撮影条件特定手段103に供給すると共に、すべてのカメラ設定パラメータ、すなわちデータを間引く前のカメラ設定パラメータを記録処理手段111に供給する。   In the basic recording method as described above, the camera unit 141 captures captured images as video signals in units of frames, and at the same time, sets camera setting parameters (eg, zoom setting values, camera shake correction gyro values, etc.) in units of frames. To the camera operation detection unit 102. The camera operation detection unit 102 thins out and holds data by sampling camera setting parameters at regular intervals between the start of recording and the end of recording (in this embodiment, two times at the start of recording and at the end of recording). This shows an example of sampling the camera setting parameters for a total of 2 frames.If the time resolution is increased with the stored scenario data (if the sampling cycle is shortened), the accuracy of associating with the scenario data can be increased. .) The camera operation detection unit 102 supplies the camera setting parameters sampled and thinned out to the imaging condition specifying unit 103 and supplies all the camera setting parameters, that is, the camera setting parameters before thinning out the data, to the recording processing unit 111.

撮影条件特定手段103は、提供されたサンプリングしたカメラ設定パラメータから、例えば、図3に示したように分類した分類情報と、複数の分類情報からクリップの特徴となる撮影特徴とを検出する(以下、分類情報と撮影特徴とを合わせて撮影条件と呼ぶ)。この検出した撮影条件をシナリオデータ検索等のキーに用いる。カメラ設定パラメータから撮影条件を検出するアルゴリズムは後述する。一方、記録処理手段111は、記録中は、カメラ動作検出部102から提供されたカメラ設定パラメータと映像データとをフレーム毎に関連付けし、符号化映像データに多重化して、符号化映像ファイルとして記録メモリ161に記録する。   The shooting condition specifying unit 103 detects, from the sampled camera setting parameters provided, for example, classification information classified as shown in FIG. 3 and shooting characteristics that are characteristics of a clip from a plurality of pieces of classification information (hereinafter, referred to as “clip information”). The classification information and the shooting characteristics are collectively referred to as shooting conditions). The detected shooting condition is used as a key for scenario data search or the like. An algorithm for detecting shooting conditions from camera setting parameters will be described later. On the other hand, during recording, the recording processing unit 111 associates the camera setting parameters and the video data provided from the camera motion detection unit 102 for each frame, multiplexes them with the encoded video data, and records them as an encoded video file. Record in the memory 161.

次に、撮影条件特定手段103は、撮影終了時に、検出した撮影条件をシーン特定手段107と管理ファイル処理手段109とに供給する。シーン特定手段107は、シナリオデータ保持手段106からシナリオデータを取得し、取得したシナリオデータと撮影条件特定手段103から提供された撮影条件とを比較して類似性を評価する。そして類似と判断した場合には、シナリオデータ上のシーン番号にクリップのClip IDを追記する等して撮影したクリップをシナリオデータと関連付ける。この関連付け処理の具体的な説明は後述する。一方、管理ファイル処理手段109は、インデックスファイルのクリップインデックステーブルに、撮影条件特定手段103から提供された撮影条件を記録する。   Next, the shooting condition specifying unit 103 supplies the detected shooting condition to the scene specifying unit 107 and the management file processing unit 109 at the end of shooting. The scene specifying unit 107 acquires scenario data from the scenario data holding unit 106 and compares the acquired scenario data with the shooting conditions provided from the shooting condition specifying unit 103 to evaluate similarity. If it is determined that the clip is similar, the clip taken by adding the clip ID of the clip to the scene number on the scenario data is associated with the scenario data. A specific description of this association process will be described later. On the other hand, the management file processing unit 109 records the shooting condition provided from the shooting condition specifying unit 103 in the clip index table of the index file.

以上の処理で、符号化映像ファイルにフレーム毎のカメラ設定パラメータが記録され、インデックスファイルのクリップインデックステーブルに撮影条件が記録され、シナリオファイルにクリップとの関連付けが記録されることになる。   Through the above processing, the camera setting parameters for each frame are recorded in the encoded video file, the shooting conditions are recorded in the clip index table of the index file, and the association with the clip is recorded in the scenario file.

次に、撮影条件検出およびテスト撮影モードにおけるシナリオデータ作成の処理概要を説明する。シナリオデータの作成に関して、本実施の形態では、記録後のクリップインデックステーブルから再構成する構成とする。これは、実現が容易で、ファイルとして記録メモリ161に記録されるため再構成が容易な利点がある。具体的には、各撮影条件を、クリップインデックステーブルとシナリオデータで同じ定義(同じ分類)とし、クリップインデックステーブルからシナリオデータへの変換は、各撮影条件の単なる形式変換のみで実現可能な構成とする。   Next, the outline of processing for scenario data creation in the imaging condition detection and test imaging modes will be described. With respect to creation of scenario data, in this embodiment, the scenario data is reconstructed from the clip index table after recording. This is easy to implement and is recorded as a file in the recording memory 161, so that there is an advantage that reconfiguration is easy. Specifically, each shooting condition has the same definition (same classification) in the clip index table and the scenario data, and the conversion from the clip index table to the scenario data can be realized by simple format conversion of each shooting condition. To do.

1回のテスト撮影により、1つのクリップに対応する撮影条件を含むクリップインデックステーブルがインデックスファイルに追加される。そしてこのテスト撮影により作成された撮影条件から、1つのシーンに対応するシナリオデータが作成されてシナリオファイルに記録される。すでにシナリオファイルが存在する状況においては、そのシナリオファイルに新たに1行、テスト撮影で得られたシナリオデータが追加される。以下、シナリオデータ作成についてより詳細に説明する。   By one test shooting, a clip index table including shooting conditions corresponding to one clip is added to the index file. Then, scenario data corresponding to one scene is created from the shooting conditions created by the test shooting and recorded in the scenario file. In a situation where a scenario file already exists, a new line of scenario data obtained by test shooting is added to the scenario file. Hereinafter, scenario data creation will be described in more detail.

まず、上述した記録方法にて撮影条件を含むクリップインデックステーブルが、記録メモリ161に記録される。記録処理手段111は、クリップインデックステーブルを記録すると同時に、シナリオデータ作成手段104にクリップインデックス中の撮影条件を提供する。シナリオデータ作成手段104は、供給された撮影条件を、例えば図7のようなシナリオファイルの形式に変換して記録メモリ161に記録する。   First, a clip index table including shooting conditions is recorded in the recording memory 161 by the recording method described above. The recording processing unit 111 records the clip index table and at the same time provides the shooting conditions in the clip index to the scenario data creation unit 104. The scenario data creation unit 104 converts the supplied shooting conditions into a scenario file format as shown in FIG.

図7は、シナリオファイルの1例を示す図である。本実施の形態では、インデックスファイルと同様にテキスト形式のCSV形式とし、図3のシナリオデータの項目を順番に並べて記録しており、図7は、図3で示した1例のシナリオファイルを示している。   FIG. 7 is a diagram illustrating an example of a scenario file. In this embodiment, the text format CSV format is used in the same manner as the index file, and the scenario data items in FIG. 3 are recorded in order, and FIG. 7 shows the example scenario file shown in FIG. ing.

図7、図3で示すシナリオデータの各項目において、撮影条件以外の各項目の作成方法を説明する。シーン番号は、すでにシナリオファイルに記録されている最終のシーン番号に1を加算したシーン番号とする。シナリオファイルが存在せず、新規にシナリオファイルを作成する場合には、シーン番号は1となる。タイトルは、入力部131からテキスト情報を入力し、シナリオデータ作成手段104にてシナリオデータに追記する。なお、タイトルに関しては表示に使用するのみなので、シーン番号等から自動生成する、記録しない、或いは事後に記録する方法でも構わない。採用Durationは、クリップ長(クリップインデックステーブルのDuration)と同じ値を記録する。   A method for creating each item other than the shooting conditions in each item of the scenario data shown in FIGS. 7 and 3 will be described. The scene number is a scene number obtained by adding 1 to the last scene number already recorded in the scenario file. When a scenario file does not exist and a new scenario file is created, the scene number is 1. For the title, text information is input from the input unit 131 and the scenario data creation means 104 adds the text information to the scenario data. Since the title is only used for display, a method of automatically generating from the scene number or the like, not recording, or recording after the event may be used. Adopted Duration records the same value as the clip length (Duration of clip index table).

なお、シナリオデータは記録後のクリップインデックステーブルから再構成する構成としたが、クリップインデックステーブルから再構成する構成としなくても、撮影条件特定手段103から直接シナリオデータ作成手段104に撮影条件を供給し、シナリオデータ作成手段104において、同様に上述したシナリオファイルを作成する構成とすることも可能であり、シナリオデータ作成の目的を果すことができる。   Although the scenario data is reconstructed from the clip index table after recording, the photographing conditions are directly supplied from the photographing condition specifying unit 103 to the scenario data creating unit 104 without being reconstructed from the clip index table. In addition, the scenario data creation means 104 can similarly be configured to create the scenario file described above, and the purpose of scenario data creation can be achieved.

以上の処理で、テスト撮影で得られた撮影条件からシナリオデータが作成され、シナリオファイルとして記録メモリ161に記録される。また、本実施の形態では、撮影終了時にシナリオデータ作成手段104にてシナリオデータを作成する例を示したが、撮影後であれば、どのようなタイミングでも、記録済みクリップインデックステーブルからシナリオデータを作成することが可能である。例えば、テスト撮影モードを設けずに、表示部132にメニューを表示し、入力部131を介して、ユーザにシナリオデータを作成するタイミングを選択させることが容易に実現可能である。   Through the above processing, scenario data is created from the shooting conditions obtained by the test shooting, and is recorded in the recording memory 161 as a scenario file. In the present embodiment, the scenario data creation unit 104 creates scenario data at the end of shooting. However, scenario data is recorded from the recorded clip index table at any timing after shooting. It is possible to create. For example, it is possible to easily display the menu on the display unit 132 without providing the test photographing mode and allow the user to select the timing for creating the scenario data via the input unit 131.

以上、本発明のクリップとシナリオデータとの関連付け、シナリオデータ作成の処理概要を説明した。   Heretofore, the processing outline of associating the clip with the scenario data and creating the scenario data of the present invention has been described.

次に、本実施の形態のカメラレコーダにおける各ブロックの処理を具体的に説明する。   Next, the processing of each block in the camera recorder of the present embodiment will be specifically described.

まず、カメラ動作検出部102におけるカメラ設定パラメータの検出について具体的に説明する。本実施の形態では、ズーム設定値、撮影角度、撮影位置と、各々の変化量をカメラ設定パラメータとして検出する例を説明する。   First, the detection of camera setting parameters in the camera operation detection unit 102 will be specifically described. In the present embodiment, an example will be described in which a zoom setting value, a shooting angle, a shooting position, and each change amount are detected as camera setting parameters.

ズーム設定値は、ズーム倍率値を表している。カメラレコーダでズーム撮影する場合、一般的に、レンズを用いた光学ズームと、デジタル映像データを画像処理して一部分を拡大するデジタルズームが存在する。このときユーザは、カメラに備えられたズームレバーやレンズユニットのズームリング等の操作にてズーム倍率を入力する。この入力は、入力部131を介してカメラ部141のズーム手段172に供給され、カメラ部141のズーム手段172において、ズーム動作処理を行う。カメラ動作検出部102は、カメラ部141から現在カメラ部141(ズーム手段172)が動作しているズーム設定値を取得する。   The zoom setting value represents a zoom magnification value. When performing zoom photography with a camera recorder, there are generally an optical zoom using a lens and a digital zoom that enlarges a part of the image by processing digital video data. At this time, the user inputs the zoom magnification by operating the zoom lever provided in the camera, the zoom ring of the lens unit, or the like. This input is supplied to the zoom unit 172 of the camera unit 141 via the input unit 131, and the zoom unit 172 of the camera unit 141 performs zoom operation processing. The camera operation detection unit 102 acquires a zoom setting value at which the camera unit 141 (zoom unit 172) is currently operating from the camera unit 141.

撮影角度は、撮影時のカメラレコーダの水平角度および垂直角度(アングル)を表している。カメラレコーダにて撮影する場合、一般的には地面に対して水平なるように撮影装置を固定して撮影することが多いが、映像効果や場所の制約により、撮影対象を上から見下ろして撮影する場合や、下から見上げて撮影する場合もある。また、撮影中に被写体に追従するとき等にカメラの角度(向き)を上下に変化(チルト)させたり左右に変化(パン)させながら撮影する場合もある。カメラ動作検出部102は、カメラ部141の角度検出手段173からこのときの水平方向および垂直方向の角度を取得する。角度検出手段173は、例えば、ジャイロセンサ等の角度や角速度検出手段を含む構成とし、本実施の形態では、角度検出手段173として、ジャイロセンサを用い、手振れ補正処理と共通で使用する構成とする。なお、角度検出手段173としては、カメラレコーダを取り付ける雲台等から直接その角度を得られるようにしてもよい。   The shooting angle represents the horizontal angle and the vertical angle (angle) of the camera recorder at the time of shooting. When shooting with a camera recorder, in general, the shooting device is often fixed so that it is level with the ground, but due to video effects and location restrictions, the shooting target is looked down from above. In some cases, the camera may be shot from below. In some cases, the camera angle (orientation) is changed up and down (tilt) or changed left and right (pan) when following the subject during shooting. The camera motion detection unit 102 acquires the horizontal and vertical angles at this time from the angle detection unit 173 of the camera unit 141. The angle detection unit 173 includes, for example, an angle and angular velocity detection unit such as a gyro sensor. In this embodiment, the angle detection unit 173 uses a gyro sensor as the angle detection unit 173 and is configured to be used in common with camera shake correction processing. . In addition, as the angle detection means 173, you may make it obtain the angle directly from the pan head etc. which attach a camera recorder.

撮影位置は、例えば、撮影時にGPS、赤外線センサ等を用いて計測する位置情報を表している。本実施の形態では、位置検出手段133がGPSを用いて緯度、経度からなる位置情報を計測し、撮影位置としてカメラ動作検出部102に提供する。   The shooting position represents position information measured using a GPS, an infrared sensor, or the like at the time of shooting, for example. In the present embodiment, the position detection unit 133 measures position information including latitude and longitude using GPS, and provides the position information to the camera operation detection unit 102 as a shooting position.

また、カメラ動作検出部102は、検出、取得したカメラ設定パラメータ(例えば、ズーム設定値、撮影角度、撮影位置)をフレーム毎に記録処理手段111に供給すると共に、撮影開始時、撮影終了時等のサンプリングタイミングでカメラ設定パラメータをサンプリングして撮影条件特定手段103に供給する。   The camera operation detection unit 102 supplies the detected and acquired camera setting parameters (for example, zoom setting value, shooting angle, shooting position) to the recording processing unit 111 for each frame, and at the start of shooting, at the end of shooting, and the like. The camera setting parameters are sampled at the sampling timing and supplied to the photographing condition specifying means 103.

次に、撮影条件特定手段103が撮影特徴を特定する方法について具体的に説明する。   Next, a specific description will be given of a method by which the shooting condition specifying unit 103 specifies shooting characteristics.

撮影条件特定手段103では、カメラ動作検出部102において検出、取得したカメラ設定パラメータを区分し、撮影条件、すなわち分類情報およびクリップを代表する撮影特徴を決定する。   The shooting condition specifying unit 103 classifies the camera setting parameters detected and acquired by the camera motion detection unit 102, and determines shooting conditions, that is, shooting characteristics representing the classification information and the clip.

図8に、撮影特徴の区分の1例を、図9に分類情報の区分の1例を示す。撮影条件特定手段103がカメラ設定パラメータに基づいて決定した撮影条件は、管理ファイル処理手段109によってクリップインデックステーブルとして記録或いは処理される。また、シナリオデータ作成手段104がクリップインデックステーブルに記載された撮影条件を元にしてシナリオデータを作成する。   FIG. 8 shows an example of the classification of the photographing characteristics, and FIG. 9 shows an example of the classification information. The shooting conditions determined by the shooting condition specifying unit 103 based on the camera setting parameters are recorded or processed as a clip index table by the management file processing unit 109. Further, the scenario data creation means 104 creates scenario data based on the shooting conditions described in the clip index table.

図8、図9ともに、基本的には選択肢欄の各項目の上段が内容を示し、下段にクリップインデックステーブルおよびシナリオデータとして記録される識別子を示している。ただし、図9におけるPositionについては位置情報の緯度および経度を具体的に記載することを示している。また、PositionChangeについても同様に、移動量がゼロでない場合にはその方角と距離を具体的に記載することを示している。具体的な記載方法については後述する。   In both FIG. 8 and FIG. 9, basically, the upper part of each item in the option column shows the contents, and the lower part shows the identifiers recorded as the clip index table and scenario data. However, the Position in FIG. 9 indicates that the latitude and longitude of the position information are specifically described. Similarly, for PositionChange, when the movement amount is not zero, the direction and distance are specifically described. A specific description method will be described later.

まず、撮影条件特定手段103がカメラ設定パラメータから分類情報を決定する方法を説明する。   First, a method in which the photographing condition specifying unit 103 determines classification information from camera setting parameters will be described.

「Zoom」は、撮影開始時のズーム設定値(Zoom_s)と閾値(Zoom_Th1)により以下の式で区分する。本実施の形態では、Zoom_Th1を5(倍)とするが、1以上の数値(倍率)ならば同様の効果を発揮する。   “Zoom” is classified by the following expression according to the zoom setting value (Zoom_s) at the start of photographing and the threshold value (Zoom_Th1). In the present embodiment, Zoom_Th1 is set to 5 (times), but the same effect is exhibited if the numerical value (magnification) is 1 or more.

Zoom_s>Zoom_Th1:ズームUP状態
Zoom_s≦Zoom_Th1:通常状態
「ZoomChange」は、撮影開始時のズーム設定値(Zoom_s)と、撮影終了時のズーム設定値(Zoom_e)と閾値(Zoom_Th2)により以下の式で区分する。本実施の形態では、Zoom_Th2を3(倍)とするが、0以上の数値(倍率)であればよい。
Zoom_s> Zoom_Th1: Zoom UP state Zoom_s ≦ Zoom_Th1: Normal state “ZoomChange” is a zoom setting value (Zoom_s) at the start of shooting, a zoom setting value (Zoom_e) at the end of shooting, and a threshold value (Zoom_Th2). Break down. In the present embodiment, Zoom_Th2 is set to 3 (times), but may be a numerical value (magnification) of 0 or more.

|Zoom_e−Zoom_s|>Zoom_Th2:ズーム変化あり
|Zoom_e−Zoom_s|≦Zoom_Th2:ズーム変化なし
「Angle」は、撮影開始時の垂直方向の角度(Angle_v_s)と、閾値(Angle_v_Th)により以下の式で区分する。本実施の形態では、Angle_v_Thを2.0(度)とするが、0以上の数値(角度)なら同様の効果を発揮する。
| Zoom_e-Zoom_s |> Zoom_Th2: zooming change | Zoom_e-Zoom_s | ≦ Zoom_Th2: no zooming change “Angle” is a vertical angle at the start of shooting (Angle_v_s) and a threshold (Angle_v_Th) To do. In this embodiment, Angle_v_Th is set to 2.0 (degrees), but the same effect can be achieved if the numerical value (angle) is 0 or more.

Angle_v_s> Angle_v_Th:上向き
|Angle_v_s|≦ Angle_v_Th:水平
Angle_v_s<―Angle_v_Th:下向き
「AngleChange」は、撮影開始時の垂直方向の角度(Angle_v_s)と、撮影終了時の垂直方向の角度(Angle_v_e)と、撮影開始時の水平方向の角度(Angle_h_s)と、撮影終了時の水平方向の角度(Angle_h_e)と、閾値(Angle_v_Th、Angle_h_Th)とにより以下の式で区分する。Angle_v_Th、Angle_h_Thをそれぞれ2.0(度)とするが、0以上の数値(角度)なら同様の効果を発揮する。
Angle_v_s> Angle_v_Th: upward | Angle_v_s | ≦ Angle_v_Th: horizontal
Angle_v_s <-Angle_v_Th: downward “AngleChange” is an angle at the start of shooting (Angle_v_s), an angle at the end of shooting (Angle_v_e), and an angle at the start of shooting (Angle_h_s), The horizontal direction angle (Angle_h_e) at the end of photographing and the threshold values (Angle_v_Th, Angle_h_Th) are used to classify them according to the following equations. Angle_v_Th and Angle_h_Th are set to 2.0 (degrees), respectively. However, if the numerical value (angle) is 0 or more, the same effect is exhibited.

h_abs=|Angle_h_e−Angle_h_s|
v_abs=|Angle_v_e−Angle_v_s|
h_abs>v_absのとき、
h_abs>Angle_h_Th:水平方向移動
h_abs≦Angle_h_Th:変化なし
h_abs≦v_absのとき、
v_abs>Angle_v_Th:垂直方向移動
v_abs≦Angle_v_Th:変化なし
「Position」は、本実施の形態では、緯度経度からなる位置情報を表し、例えば、北緯12.345678度をN_12.345678と表記する。同様に、南緯34.567890度をS_34.567890、東経56.789012度をE_56.789012、西経78.901234度をW_78.901234と表記する。
h_abs = | Angle_h_e-Angle_h_s |
v_abs = | Angle_v_e-Angle_v_s |
When h_abs> v_abs,
h_abs> Angle_h_Th: Horizontal movement h_abs ≦ Angle_h_Th: No change When h_abs ≦ v_abs
v_abs> Angle_v_Th: Vertical movement v_abs ≦ Angle_v_Th: No change “Position” represents position information composed of latitude and longitude in this embodiment, and for example, 12.345678 degrees north is expressed as N_12.345678. Similarly, 34.567890 degrees south latitude is represented as S_34.567890, 56.89012 degrees east longitude is E_56.789012, and 78.901234 degrees west longitude is represented as W_78.901234.

「PositionChange」は、撮影開始時の位置に対する撮影終了時の位置の方角と、撮影開始時および撮影終了時の2点間の距離(例えば、単位はメートルとする)とを表し、例えば、三角関数と平方根の定理や、球面三角法といった一般的な方法を用いて、2点の緯度・経度から方角および距離を求めることができる。   “PositionChange” represents the direction of the position at the end of shooting relative to the position at the start of shooting and the distance between the two points at the start and end of shooting (for example, the unit is meters). Using a general method such as the square root theorem and spherical trigonometry, the direction and distance can be obtained from the latitude and longitude of two points.

以上、撮影条件特定手段103における分類情報に区分する方法を説明した。   In the foregoing, the method of classifying into the classification information in the imaging condition specifying unit 103 has been described.

次に、撮影条件特定手段103が、分類情報から撮影特徴を決定する方法について具体的に説明する。   Next, a method in which the shooting condition specifying unit 103 determines the shooting feature from the classification information will be specifically described.

撮影特徴は、図8に示すような各クリップを代表する特徴を表し、区分された各分類情報から決定される。すなわち、図9に区分された各分類情報を優先順位付けし、図8に示す区分から撮影特徴を決定する。   The shooting feature represents a feature representing each clip as shown in FIG. 8, and is determined from each classified classification information. That is, the classification information divided in FIG. 9 is prioritized, and the shooting characteristics are determined from the classification shown in FIG.

図10は、撮影特徴を決定するためのフローチャートである。まず、S101にて「PositionChange」=NONEであるか否かを確認する。「PositionChange」=NONE、すなわち、「移動なし」の時には、S103の処理に進み、「PositionChange」=NONE以外の時には、S102の処理に進む。   FIG. 10 is a flowchart for determining the shooting feature. First, in S101, it is confirmed whether or not “PositionChange” = NONE. When “PositionChange” = NONE, that is, “No movement”, the process proceeds to S103, and when “PositionChange” = NONE, the process proceeds to S102.

S102において、例えば、移動距離が3メートル以上あるか否かを確認し、移動距離3メートル以上の場合には、位置移動があると判断して、S114にて、撮影特徴をMOVE_POSとし、移動距離が3メートル未満の場合には、S103の処理に進む。   In S102, for example, it is confirmed whether or not the moving distance is 3 meters or more. If the moving distance is 3 meters or more, it is determined that there is a position movement. In S114, the shooting feature is MOVE_POS, and the moving distance is determined. If is less than 3 meters, the process proceeds to S103.

S103にて、「AngleChange」=MOVE_Vのとき、すなわち、撮影角度の垂直移動を行った場合、S113にて、撮影特徴をTILT(チルト)とし、「AngleChange」=MOVE_V以外のときは、S104の処理に移る。   If “AngleChange” = MOVE_V in S103, that is, if the shooting angle is moved vertically, the shooting feature is set to TILT (tilt) in S113, and if “AngleChange” = MOVE_V, the processing of S104 Move on.

S104にて、「AngleChange」=MOVE_Hのとき、すなわち、撮影角度の水平移動を行った場合、S112にて、撮影特徴をPAN(パン)とし、「AngleChange」=MOVE_H以外のときは、S105の処理に移る。   If “AngleChange” = MOVE_H in S104, that is, if the shooting angle is moved horizontally, the shooting feature is set to PAN (Pan) in S112, and if “AngleChange” = MOVE_H, the process of S105 Move on.

S105にて、「Zoom」=ZOOM_UPのとき、すなわち、ズーム状態で撮影開始された場合、S111にて、撮影特徴をZOOM_UP(ズーム状態)とし、「Zoom」=ZOOM_UP以外のときは、S110にて、撮影特徴をNONE(特徴なし)とする。   If “Zoom” = ZOOM_UP in S105, that is, if shooting is started in the zoom state, the shooting feature is set to ZOOM_UP (zoom state) in S111. If “Zoom” = ZOOM_UP is not set, in S110 The shooting feature is NONE (no feature).

なお、図10のフローチャートは1例であり、分類情報あるいはその元となったカメラ設定パラメータにより撮影特徴を決定する方式であれば、どのような分類方式でもよい。   Note that the flowchart of FIG. 10 is an example, and any classification method may be used as long as it is a method for determining the shooting characteristics based on the classification information or the camera setting parameter that is the basis of the classification information.

次に、マーク付与手段108におけるマークの設定処理について具体的に説明する。図11にマークの種別の1例を示す。OK_MARKは、編集時に採用すべきクリップを表すマークであり、NG_MARKは、編集時に採用しないクリップを表す。OK_MARKおよびNG_MARKは、ユーザが入力部131を介してメニュー選択や釦を押すことで入力するマークである。このマーク種別により、各クリップを分類して扱うことが可能になり、ユーザの利便性が高くなる。   Next, the mark setting process in the mark assigning means 108 will be specifically described. FIG. 11 shows an example of mark types. OK_MARK is a mark representing a clip that should be adopted during editing, and NG_MARK represents a clip that is not employed during editing. OK_MARK and NG_MARK are marks that the user inputs by selecting a menu or pressing a button via the input unit 131. With this mark type, each clip can be classified and handled, and the convenience for the user is enhanced.

マーク付与手段108は、シナリオデータとクリップとの関連付け処理と同時に上記OK_MARKおよびNG_MARKのいずれかを自動的にクリップに設定することも可能である。このマーク処理方法の詳細は後述する。   The mark assigning means 108 can automatically set any one of the above OK_MARK and NG_MARK to the clip simultaneously with the process of associating the scenario data with the clip. Details of this mark processing method will be described later.

次に、記録処理手段111における符号化映像ファイルへのメタデータの埋め込み方法ついて具体的に説明する。   Next, a method for embedding metadata in an encoded video file in the recording processing unit 111 will be specifically described.

SMPTE−314M規格では、DIFデータとして、各映像フレームに対してVAUX等の付属情報を付加して記録することができる。本実施の形態では、その付属情報として、映像フレーム毎、或いは、一定の間隔、或いは、記録開始時と記録終了時にカメラ設定パラメータ、すなわちズーム設定値(Zoom)、撮影角度(Angle)、撮影位置(Position)を記録する。符号化映像ファイルに付属情報としてカメラ設定パラメータを記録することで、クリップインデックステーブルが削除された場合においても、シナリオ情報との関連付け等、本発明の効果を発揮することが可能になる。   In the SMPTE-314M standard, each video frame can be recorded with attached information such as VAUX added as DIF data. In the present embodiment, the attached information includes camera setting parameters, that is, a camera setting parameter, that is, a zoom setting value (Zoom), a shooting angle (Angle), and a shooting position for each video frame, at a certain interval, or at the start and end of recording Record (Position). By recording the camera setting parameters as the attached information in the encoded video file, even when the clip index table is deleted, the effects of the present invention such as association with the scenario information can be exhibited.

上記付属情報は、記録間隔の違いはあるが、インデックスファイルのクリップインデックステーブルに記録する情報と同じであるため説明は省略する。   The attached information is the same as the information recorded in the clip index table of the index file, although there is a difference in recording interval.

なお、SMPTE−314M規格以外の映像音声の符号化に関する規格(例えば、MPEG−2方式)においてもフレーム毎に付属データを記録することが可能な構成になっており、その他の規格の場合でも同様な効果を発揮することができる。   It should be noted that the standard for video / audio encoding other than the SMPTE-314M standard (for example, MPEG-2 system) is configured such that the attached data can be recorded for each frame, and the same applies to other standards. Can be effective.

次に、シーン特定手段107における、シナリオデータのシーンと撮影したクリップインデックステーブルのシーンとの関連付け方法について具体的に説明する。図12に関連付けの概念図を示す。ここで、シナリオデータのシーンと、撮影したクリップインデックステーブルのクリップとの関連付けとは、例えば、図12に示すようにシナリオデータの各シーンに対して、撮影クリップ(クリップインデックステーブル)を関連付けることを意味する。この関連付け方法の基本的な概念について図12を参照しながら説明する。図12(a)はシナリオデータの最初のシーンを関連付けする順番と処理対象となる項目を表している。まず、(1)に図示するようにシナリオデータの撮影条件とクリップインデックステーブルの撮影条件(複数項目も含む)の一致を検出し、次に、(2)に図示するようにシナリオデータとクリップインデックステーブルとを関連付ける識別子(例の場合はClipIDのC0001)を、シナリオデータ(あるいはクリップインデックステーブル)に記録する。さらに、(3)に図示するようにシーン判断として関連付け処理で得られたシーン番号と、テイク番号(同じシーン番号に対して付与される連番)を記録する。図12(b)は全シーン、全クリップに対する関連付け処理が終わった時点でのシナリオデータとクリップインデックスデータの関連付けの例を示している。全シーン、全クリップに対する関連付け処理完了後に、(4)に図示するように自動判断として、関連付けられたクリップをOKクリップ、関連付けられなかったクリップをNGクリップとする。以上が基本的な関連付け方法であるが、撮影時の前提条件により効率的な関連付け方法が異なるため2つの関連付け方法を説明(後述)する。また、関連付け結果を記録する方法としても複数の方法が考えられる。具体的には、関連付けの記録方法として、シナリオデータのシーン番号をクリップインデックステーブルに記録することによる関連付け(例えば、図13)と、シナリオデータに記録したクリップのClipIDを記録することによる関連付けの記録方法(例えば、図14)等が挙げられる。図13と図14の差異は、図13は「関連付け」の項目がクリップインデックステーブルにあり、図14は「関連付け」の項目がシナリオデータにあることである。図13、図14共に同じ関連付けの1例であり、“×”は関連先が存在しない(未撮影である)ことを表す。   Next, a method for associating the scene of the scenario data with the shot scene of the clip index table in the scene specifying unit 107 will be described in detail. FIG. 12 shows a conceptual diagram of association. Here, associating the scene of the scenario data with the clip of the shot clip index table means, for example, associating a shot clip (clip index table) with each scene of the scenario data as shown in FIG. means. The basic concept of this association method will be described with reference to FIG. FIG. 12A shows the order of associating the first scene of the scenario data and the items to be processed. First, as shown in (1), a match between the shooting conditions of the scenario data and the shooting conditions (including a plurality of items) in the clip index table is detected, and then the scenario data and the clip index are shown in (2). An identifier associated with the table (in the example, Clip0001 C0001) is recorded in the scenario data (or clip index table). Further, as shown in (3), the scene number obtained by the associating process as the scene determination and the take number (serial number given to the same scene number) are recorded. FIG. 12B shows an example of association between scenario data and clip index data at the time when association processing for all scenes and all clips is completed. After completion of the association processing for all scenes and all clips, as shown in (4), as an automatic determination, the associated clips are OK clips, and the unassociated clips are NG clips. The above is the basic association method, but since the efficient association method differs depending on the preconditions at the time of shooting, two association methods will be described (described later). A plurality of methods are conceivable as a method for recording the association result. Specifically, as a recording method of the association, the association (for example, FIG. 13) by recording the scene number of the scenario data in the clip index table and the association recording by recording the Clip ID of the clip recorded in the scenario data. The method (for example, FIG. 14) etc. are mentioned. The difference between FIG. 13 and FIG. 14 is that the item “association” is in the clip index table in FIG. 13 and the item “association” is in the scenario data in FIG. FIG. 13 and FIG. 14 are both examples of the same association, and “x” indicates that there is no association destination (unphotographed).

本実施の形態では、図14のように、シナリオデータのシーン番号をクリップインデックステーブルに記録することによる関連付けを行う。このようにすることで、編集時にシナリオデータを解釈すれば編集に必要なクリップ(符号化映像ファイル及び音声ファイル)が特定できるため編集機の制御が容易となる。   In this embodiment, as shown in FIG. 14, the association is performed by recording the scene number of the scenario data in the clip index table. In this way, if the scenario data is interpreted at the time of editing, clips (encoded video files and audio files) necessary for editing can be specified, and the control of the editing machine becomes easy.

図14(a)は、撮影終了後のシナリオデータの内容を表しており、図14(b)は、撮影終了後のクリップインデックステーブルの内容を表している。シナリオデータのシーン1はクリップC0001と、シーン2はクリップC0003と、シーン3はクリップC0004と、シーン4はC0006と、シーン5はクリップC0007と関連付けられていることを示している。シーン6の「関連付け」項目の“×”は、シナリオファイルに存在するシーン番号がクリップインデックステーブルに関連付けが行われなかったことを表し、シナリオのシーンを撮影していないことを表す。クリップC0002、C0005に関しては、シナリオデータの各シーンから関連付けされていないので、シナリオデータに存在していないクリップ、あるいは、同じシーンの撮影が複数回行われ、当該クリップが採用されなかった(他のクリップが採用された)ことを示す。同じシーンの撮影が行われた場合には、例えば、時間的に後で記録されたクリップとシナリオデータと関連付けする方法等がある。これは、記録された符号化映像ファイル及び音声ファイルのタイムスタンプ(日時情報)を確認することや、クリップインデックステーブルに記録日時情報を記録しておけば容易に判断が可能である。   FIG. 14A shows the contents of the scenario data after the end of shooting, and FIG. 14B shows the contents of the clip index table after the end of shooting. In the scenario data, scene 1 is associated with clip C0001, scene 2 is associated with clip C0003, scene 3 is associated with clip C0004, scene 4 is associated with C0006, and scene 5 is associated with clip C0007. “X” in the “association” item of the scene 6 indicates that the scene number existing in the scenario file is not associated with the clip index table, and indicates that the scenario scene is not photographed. Since clips C0002 and C0005 are not associated with each scene of the scenario data, the clip that does not exist in the scenario data or the same scene was shot multiple times, and the clip was not adopted (others Indicates that the clip has been adopted). When the same scene is shot, for example, there is a method of associating clips recorded later in time with scenario data. This can be easily determined by checking the time stamp (date / time information) of the recorded encoded video file and audio file, or by recording the date / time information in the clip index table.

関連付けの処理フローとして、映画の制作のように同じシーンを繰り返し撮影することが許される場合を想定した第1の関連付け方法と、結婚式や講演会の撮影のように繰り返して同じシーンの撮影が行えず、かつ各シーンの撮影順があらかじめ決まっている場合を想定した第2の関連付け方法の2つの関連付け方法を説明する。   As a process flow of association, the first association method assuming the case where the same scene is allowed to be repeatedly photographed as in movie production, and the same scene is repeatedly photographed as in wedding or lecture photography. Two associating methods will be described as a second associating method assuming that the shooting order of each scene cannot be performed and the shooting order of each scene is determined in advance.

まず、同じシーンを繰り返し撮影することが許される場合の第1の関連付け方法のフローチャートを図15に示す。シナリオデータのシーン番号と、撮影済みクリップとの撮影特徴を順番に比較し、一致すれば、その時のシーン番号と、その時のクリップとを関連付ける例を説明する。同じシーンを繰り返し撮影することが許される場合の関連付け処理では、シナリオデータの各シーンに対応する撮影済みクリップが複数存在する場合、対応するすべてのクリップと関連付けるようにする。このとき、記録時間順にテイク番号を付けるとクリップの要否(OKクリップやNGクリップ)の判断が容易になる。   First, FIG. 15 shows a flowchart of the first association method in the case where it is allowed to repeatedly photograph the same scene. An example will be described in which the scene number of the scenario data and the shooting characteristics of the shot clip are compared in order, and if they match, the scene number at that time is associated with the clip at that time. In the association processing in the case where the same scene is allowed to be repeatedly photographed, when there are a plurality of photographed clips corresponding to each scene of the scenario data, they are associated with all the corresponding clips. At this time, if take numbers are assigned in order of recording time, it becomes easy to determine whether a clip is necessary (OK clip or NG clip).

S301において、処理対象をシナリオデータの先頭シーンとし、S302にて、クリップインデックステーブルの処理対象を先頭クリップとする。S303において、シナリオデータの処理対象にあるシーンと、クリップインデックステーブルの処理対象にあるクリップとの撮影特徴が一致しているかを判断し、一致していれば、S304に、一致しなければ、関連なしと判断し、S307に処理を進める。S304にて、すでにシナリオデータの該当シーンに関連付けが行われているか否かを確認し、関連付けが行われていなければ、現在の処理対象のシナリオデータのシーンの関連付け欄に、現在の処理対象のクリップのClipIDを記録する処理が行われる(S305)。すでに関連付けが行われていれば、現在の処理対象のクリップのClipIDを上書き記録する(S306)。S307では、処理対象クリップが、最終クリップか否かを確認し、最終クリップの場合には、S309に進み、最終クリップで無い場合には、処理対象を次のクリップに移し、S303の処理に戻る。S309では、処理対象シーンが最終シーンであるか否かを確認し、最終シーンであれば、処理を終了し、最終シーンでなければ、処理対象を次のシーンに移して(S310)、処理対象クリップを先頭のクリップに移し(S302)、再度、撮影特徴の一致を確認する。   In S301, the processing target is the first scene of the scenario data, and in S302, the processing target of the clip index table is the first clip. In S303, it is determined whether the shooting characteristics of the scene that is the processing target of the scenario data and the clip that is the processing target of the clip index table match. If they match, the process goes to S304. It is determined that there is none, and the process proceeds to S307. In S304, it is confirmed whether or not the relevant scene of the scenario data has already been associated. If no association has been established, the current process target scenario data is displayed in the scene association field of the current process target scenario data. Processing for recording the Clip ID of the clip is performed (S305). If the association has already been performed, the ClipID of the current processing target clip is overwritten and recorded (S306). In S307, it is confirmed whether or not the processing target clip is the last clip. If it is the last clip, the process proceeds to S309. If it is not the last clip, the processing target is moved to the next clip, and the process returns to S303. . In S309, it is confirmed whether or not the processing target scene is the final scene. If it is the final scene, the processing ends. If it is not the final scene, the processing target is moved to the next scene (S310). The clip is moved to the first clip (S302), and the matching of the photographing characteristics is confirmed again.

また、マーク付与手段108においては、例えば、図12の自動判断欄に示すように、同じシーンに関連付けられる場合に、後のクリップをOKクリップ(OK_MARKを付与)とし、以前に関連付けられていたクリップをNGクリップ(NG_MARKを付与)とすればよい。すなわち、シナリオデータの各シーンに対応する撮影済みクリップが複数存在する場合、対応する最新のクリップ(最後に撮影されたクリップ)にOK_MARKを付与する。これは、同じシーンに対応するクリップが複数存在する場合には、最後に撮影したシーンが採用シーンである可能性が高いためである。   Further, in the mark assigning unit 108, for example, as shown in the automatic determination column of FIG. 12, when the clip is associated with the same scene, the subsequent clip is set as an OK clip (OK_MARK is assigned), and the clip previously associated NG clip (NG_MARK is given). That is, when there are a plurality of captured clips corresponding to each scene of the scenario data, OK_MARK is assigned to the latest corresponding clip (the last captured clip). This is because when there are a plurality of clips corresponding to the same scene, it is highly possible that the last photographed scene is the adopted scene.

なお、本実施の形態では、撮影特徴のみで関連付けを判断しているが、分類情報を含めた撮影条件で判断してもよく、本実施の形態では、シナリオデータと、クリップインデックステーブルとに同じ内容を記録しているので、例えば、各分類情報を比較して一致を確認するようにS303の処理の条件を変更すればよい。   In this embodiment, the association is determined based only on the shooting characteristics. However, the determination may be made based on the shooting conditions including the classification information. In this embodiment, the scenario data and the clip index table are the same. Since the contents are recorded, for example, the processing conditions of S303 may be changed so that the classification information is compared to confirm the match.

次に、繰り返して同じシーンの撮影が行えない場合の第2の関連付け方法のフローチャートを図16に示す。繰り返して同じシーンの撮影が行えない場合、一般的には、撮影順番で必要ない映像を削除する編集形態がとられることが多い。そこで、シナリオデータのシーン番号と撮影済みクリップとの撮影条件を比較する際に、撮影順にシナリオデータとクリップインデックステーブルとの関連付けを行うことで、検出精度及び関連付け処理効率を向上させることができる。撮影順が決まっており、各シーンに対応する撮影済みクリップがひとつしかないという前提では、このようにシナリオデータとクリップインデックステーブルを撮影順に比較し、最初に撮影特徴が一致するものを関連付ける処理を繰り返すことで、容易に全クリップの関連付けを行うことができる。   Next, FIG. 16 shows a flowchart of the second association method when the same scene cannot be repeatedly shot. When the same scene cannot be repeatedly shot, generally, an editing mode is often used in which unnecessary videos are deleted in the shooting order. Therefore, when comparing the scene number of the scenario data and the shooting condition of the shot clip, the detection accuracy and the correlation processing efficiency can be improved by associating the scenario data with the clip index table in the shooting order. Assuming that the shooting order has been decided and there is only one shot clip corresponding to each scene, the scenario data and clip index table are compared in this order, and the process of associating those with matching shooting characteristics first is performed. By repeating, it is possible to easily associate all clips.

図16のフローチャートについて詳細に説明する。S401にて、各クリップのクリップインデックステーブルを記録順に並べる処理を行う。ただし、例えば、記録順に追記する記録形態を採用すれば、特に並べ替える必要はなく、すべてのシーンを記録する前にでも関連付けを行うことが可能である。S402において、シナリオデータと各クリップのクリップインデックステーブルの撮影特徴が一致するか否かを確認する。一致する場合には、S403にて、該当するシナリオデータの「関連付け」欄に、該当クリップのClipIDを記録し、S404にて、シナリオデータの処理の対象を次のシーン番号に移す。一方、一致しない場合には、S405にて、最終クリップあるいは最終シーンであるか否かを確認し、最終クリップあるいは最終シーンであれば処理を終了し、最終クリップでも、最終シーンでもなければ、S406にて処理対象を記録順の次のクリップに移し、S402の処理に戻る。   The flowchart of FIG. 16 will be described in detail. In S401, a process of arranging the clip index table of each clip in the recording order is performed. However, for example, if a recording form in which recording is performed in the order of recording is adopted, it is not necessary to rearrange them in particular, and association can be performed even before all scenes are recorded. In S402, it is confirmed whether or not the scenario data and the shooting characteristics of the clip index table of each clip match. If they match, the clip ID of the corresponding clip is recorded in the “association” field of the corresponding scenario data in S403, and the processing target of the scenario data is moved to the next scene number in S404. On the other hand, if they do not match, it is confirmed in S405 whether or not it is the final clip or the final scene. If it is the final clip or the final scene, the process is terminated. The processing target is moved to the next clip in the recording order, and the process returns to S402.

以上のように処理をシナリオデータの各シーンと各クリップのクリップインデックステーブルに対して行うことで、シナリオデータのシーンと撮影クリップの関連付けを行い、シナリオファイルに記録することができる。   As described above, by performing processing on each scene of scenario data and the clip index table of each clip, the scene of the scenario data and the captured clip can be associated and recorded in the scenario file.

図17に関連付け処理終了後のシナリオデータファイルの1例を示す。図17(1)は、図7(1)で示した撮影前のシナリオデータファイルから、図14に示す関連付けが行われた例であり、図17(2)は、図7(2)で示した撮影前のシナリオデータファイルから、図12に示す関連付けが行われた例である。   FIG. 17 shows an example of the scenario data file after the association process is completed. FIG. 17 (1) is an example in which the association shown in FIG. 14 is performed from the scenario data file before photographing shown in FIG. 7 (1), and FIG. 17 (2) is shown in FIG. 7 (2). This is an example in which the association shown in FIG. 12 is performed from the scenario data file before photographing.

図17において、関連付けクリップが存在する場合には、各シーンの最終項目にClipID(例えば、“C0001”)を追記しており、関連付けクリップが存在しない場合には“NO_CLIP”と記録し、関連がある撮影済みクリップが無いことを表す。“NO_CLIP”の場合には、例えば、表示部132に未撮影であるシナリオデータが存在することを表す表示(例えば、「未撮影リスト」として該当するシーン番号を表示する)を行い、シーン番号あるいは、タイトルの文字列を表示することで、撮影忘れを防ぐことが可能である。また、図7の撮影前のシナリオデータのように、関連付けを表す項目にデータが存在しない場合にも上記“NO_CLIP”と同じ動作を行えばよい。   In FIG. 17, when there is an associated clip, ClipID (for example, “C0001”) is added to the last item of each scene, and when there is no associated clip, “NO_CLIP” is recorded. This means that there is no clip already taken. In the case of “NO_CLIP”, for example, the display unit 132 displays that there is uncaptured scenario data (for example, the corresponding scene number is displayed as an “unphotographed list”), and the scene number or By displaying the title character string, it is possible to prevent forgetting to shoot. Further, the same operation as “NO_CLIP” may be performed even when there is no data in the item representing the association, as in the scenario data before photographing in FIG.

なお、マーク付与手段108においては、関連付けが行われた(“NO_CLIP”でない)場合に、OKクリップ(OK_MARKを付与)とし、関連付けが行われなかった(“NO_CLIP”となる)場合に、NGクリップ(NG_MARKを付与)とすればよい。   The mark assigning unit 108 sets the OK clip (provided OK_MARK) when the association is performed (not “NO_CLIP”), and the NG clip when the association is not performed (becomes “NO_CLIP”). (NG_MARK is given).

以上、2つの関連付け方法について説明したが、本実施の形態のシーン特定手段107では、第1の関連付け方法と第2の関連付け方法とを切り替え可能な構成とする。これは、関連付け方法を切り替えることにより様々な撮影用途に適用可能であり、用途によりユーザが関連付け方法を選択することにより関連付け精度を向上することができる。実現するためには、例えば、表示部132に選択メニューを表示し、入力部131を介してユーザが選択する構成とする。   Although the two association methods have been described above, the scene specifying unit 107 of the present embodiment is configured to be able to switch between the first association method and the second association method. This can be applied to various shooting applications by switching the association method, and the association accuracy can be improved by the user selecting the association method depending on the application. In order to achieve this, for example, a selection menu is displayed on the display unit 132, and the user selects via the input unit 131.

次に、シナリオデータ作成手段104におけるシナリオデータの作成方法について具体的に説明する。シナリオデータを作成するには、次の3つの方法がある。第1のシナリオデータ作成方法は、テスト撮影モードを設けて、テスト撮影モード時に撮影したクリップに対応するクリップインデックステーブルからシナリオデータを作成する方法であり、第2のシナリオデータ作成方法は、任意の撮影済みクリップに対応するクリップインデックステーブルからシナリオデータを作成する方法であり、第3のシナリオデータ作成方法は、符号化映像ファイルに記録した付属情報からクリップインデックステーブルを生成し、このクリップインデックステーブルからシナリオデータを作成する方法である。   Next, a scenario data creation method in the scenario data creation means 104 will be specifically described. There are the following three methods for creating scenario data. The first scenario data creation method is a method in which a test shooting mode is provided and scenario data is created from a clip index table corresponding to a clip shot in the test shooting mode. The second scenario data creation method is an arbitrary scenario data creation method. This is a method for creating scenario data from a clip index table corresponding to a shot clip. The third scenario data creation method generates a clip index table from attached information recorded in an encoded video file, and uses this clip index table. This is a method for creating scenario data.

まず、第1のシナリオデータ作成方法について説明する。第1のシナリオデータ作成方法は、テスト撮影モードと本番撮影モードを設け、テスト撮影モードは、シナリオデータを記録し、映像音声ファイルを記録しないモードであり、本番撮影モードは、上述してきたように符号化映像ファイルと音声ファイルを記録するモードである。このモード移行に関しては、撮影モード切替手段113において、例えば、メニュー操作や、ダイヤル釦等の入力部131から提供される操作情報に基づいて行われる。本番撮影モードは、本実施の形態の基本的な動作として上述してきたので、テスト撮影モード時の動作について説明する。   First, the first scenario data creation method will be described. The first scenario data creation method includes a test shooting mode and a production shooting mode. The test shooting mode is a mode in which scenario data is recorded and no video / audio file is recorded. The production shooting mode has been described above. In this mode, an encoded video file and an audio file are recorded. This mode transition is performed in the shooting mode switching unit 113 based on, for example, menu operation or operation information provided from the input unit 131 such as a dial button. Since the actual shooting mode has been described above as the basic operation of the present embodiment, the operation in the test shooting mode will be described.

本実施の形態では、テスト撮影モード時の動作は、符号化映像ファイル、及び、音声ファイルを作成せずに、通常の記録動作を行い、シナリオデータを作成することで実現する。これは、通常の記録動作と処理を同じにすることで実装が容易にできるためである。なお、映像符号化部143等の記録ファイルに関する処理を省いても実現可能である。   In the present embodiment, the operation in the test shooting mode is realized by performing a normal recording operation and creating scenario data without creating an encoded video file and an audio file. This is because mounting can be facilitated by making the normal recording operation and processing the same. Note that this can be realized even if the processing related to the recording file such as the video encoding unit 143 is omitted.

シナリオデータ作成は、通常の記録動作で記録されるクリップインデックステーブルから作成する。このシナリオデータ作成方法は、第2のシナリオデータ作成方法と同じであるので、後で詳しく説明する。   Scenario data is created from a clip index table recorded in a normal recording operation. This scenario data creation method is the same as the second scenario data creation method, and will be described in detail later.

ユーザは、テスト撮影モードにて実際に本番のようにカメラレコーダのアングルを変更し、記録釦を押下する等の操作を行うことで、カメラレコーダが、自動的にカメラパラメータ、カメラレコーダの動作状況をシナリオデータファイルとして記録することになる。シナリオデータ上のシーンは、通常の記録動作と同じく、記録開始釦押下から、記録終了釦押下までの間の期間と定義し、記録開始釦を押下する度にシーン番号を自動的にインクリメントする。好ましくは、表示部132に記録済みのシナリオデータファイルを参照して、シーン番号を入れ替えたり、不要なシーンを削除したり、各シーンのタイトルを入力できればよいが、コンピュータ等の別の装置で同様の機能を実現しても構わない。   When the user actually changes the camera recorder angle in the test shooting mode and presses the record button, the camera recorder automatically changes the camera parameters and camera recorder operating status. Will be recorded as a scenario data file. The scene on the scenario data is defined as a period from pressing of the recording start button to pressing of the recording end button, as in the normal recording operation, and the scene number is automatically incremented each time the recording start button is pressed. Preferably, it is only necessary to refer to the scenario data file recorded in the display unit 132 to change the scene number, delete an unnecessary scene, or input the title of each scene. This function may be realized.

次に、第2のシナリオデータ作成方法について説明する。第2のシナリオデータ作成方法は、クリップインデックステーブルからシナリオデータを作成する方法であり、通常記録されたインデックスファイルのクリップインデックステーブル、あるいは、テスト撮影モードにて記録されたクリップインデックステーブルが存在することを前提とする。すなわち、図5に示すクリップインデックステーブルの項目から、図3に示すようなシナリオデータの項目に変換する。以下、図5、図3を参照して、クリップインデックステーブルの項目からシナリオデータの項目との対応と変換する方法を説明する。   Next, a second scenario data creation method will be described. The second scenario data creation method is a method of creating scenario data from a clip index table, and there is a clip index table of a normally recorded index file or a clip index table recorded in a test shooting mode. Assuming That is, the items of the clip index table shown in FIG. 5 are converted into the items of scenario data as shown in FIG. Hereinafter, with reference to FIG. 5 and FIG. 3, a method for converting correspondences between items in the clip index table and items in the scenario data will be described.

まず、ClipID、FrameRate、Markは、シナリオデータの項目に変換されない(シナリオファイルには同類の情報が存在しない)。   First, ClipID, FrameRate, and Mark are not converted into scenario data items (similar information does not exist in the scenario file).

ClipTiTleは、タイトルに対応し、文字列をそのまま記録すればよい。Durationは、採用Durationに対応し、値をそのまま記録すればよい。Conditionは、撮影特徴に対応し、図8に示す撮影特徴をそのまま記録すればよい。Zoomは、撮影開始時ズーム設定に対応し、図9に示すZoomの分類情報(選択肢)をそのまま記録すればよい。ZoomChangeは、ズーム変化に対応し、図9のZoomChangeの分類情報(選択肢)をそのまま記録すればよい。Angleは、撮影開始時角度に対応し、図9のAngleの分類情報(選択肢)をそのまま記録すればよい。AngleChangeは、角度変化に対応し、図9のAngleChangeの分類情報(選択肢)をそのまま記録すればよい。Positionは、撮影開始位置に対応し、緯度、経度をそのまま記録すればよい。PositionChangeは、位置移動量に対応し、方角と距離をそのまま記録すればよい。   ClipTiTle corresponds to the title, and the character string may be recorded as it is. Duration corresponds to the adopted duration, and the value may be recorded as it is. The Condition corresponds to the shooting feature, and the shooting feature shown in FIG. 8 may be recorded as it is. Zoom corresponds to the zoom setting at the start of shooting, and the zoom classification information (option) shown in FIG. 9 may be recorded as it is. ZoomChange corresponds to the zoom change, and the ZoomChange classification information (option) of FIG. 9 may be recorded as it is. Angle corresponds to the angle at the start of shooting, and Angle classification information (option) in FIG. 9 may be recorded as it is. AngleChange corresponds to the angle change, and the AngleChange classification information (option) in FIG. 9 may be recorded as it is. Position corresponds to the shooting start position, and the latitude and longitude may be recorded as they are. PositionChange corresponds to the position movement amount, and the direction and distance may be recorded as they are.

最後に、第3のシナリオデータ作成方法について説明する。第3のシナリオデータ作成方法は、符号化映像ファイルに記録した付属情報からクリップインデックステーブルを生成し、第2のシナリオデータ作成方法でシナリオデータを撮影する方法である。第2のシナリオデータ作成方法は前述したので、符号化映像ファイルに記録したメタデータからクリップインデックステーブルを生成する方法を具体的に説明する。   Finally, a third scenario data creation method will be described. The third scenario data creation method is a method in which a clip index table is generated from attached information recorded in an encoded video file, and scenario data is photographed by the second scenario data creation method. Since the second scenario data creation method has been described above, a method for generating a clip index table from metadata recorded in an encoded video file will be specifically described.

記録処理手段111における符号化映像ファイルへの付属情報の埋め込み方法を上述したが、すべての符号化映像ファイルに対して、その埋め込まれた付属情報を読み出して、クリップインデックステーブルを生成する。付属情報は、クリップインデックステーブルと同じ項目であり、サンプリング周期もクリップインデックステーブルの各項目に対して同じかより短期間である。例えば、クリップインデックステーブルは、記録開始時と記録終了時のみに基づいて処理を行うのに対して、符号化映像ファイルに対しては、フレーム毎にカメラ設定パラメータを付属情報として埋め込む。すなわち、符号化映像ファイルから、記録開始時のカメラ設定パラメータと、記録終了時のカメラ設定パラメータとが取得できれば、記録時のクリップインデックステーブル作成と同様に、記録後に符号化映像ファイルからクリップインデックステーブルの生成が可能である。   The method for embedding the attached information in the encoded video file in the recording processing unit 111 has been described above, but the embedded attached information is read out for all the encoded video files to generate the clip index table. The attached information is the same item as the clip index table, and the sampling period is the same or shorter for each item of the clip index table. For example, the clip index table performs processing based on only when recording starts and when recording ends, whereas in an encoded video file, camera setting parameters are embedded as attached information for each frame. That is, if the camera setting parameter at the start of recording and the camera setting parameter at the end of recording can be acquired from the encoded video file, the clip index table from the encoded video file after recording can be obtained in the same manner as the creation of the clip index table at the time of recording. Can be generated.

以上のように、シナリオデータファイルを生成することができ、上述してきたように、シナリオデータのシーンと、撮影クリップとの関連付けを行うことで、企画段階(撮影テスト段階)から撮影、編集といった一連のワークフロー効率化が実現可能である。すなわち、本発明は、撮影本番前にカメラ設定パラメータを含んだシナリオデータを生成し、カメラ設定パラメータを利用して、シナリオデータと記録したクリップとを関連付け、分類するもので、編集時における素材データの検索や、自動編集、編集アシストが可能である。この特徴は、特に、定型的な撮影パターンで、繰り返し撮影を行う場合や、事前に綿密なリハーサルを行う場合の編集効率向上に特に効果的である。   As described above, the scenario data file can be generated, and as described above, by associating the scene of the scenario data with the shooting clip, a series of shooting and editing from the planning stage (shooting test stage). It is possible to improve the workflow efficiency. That is, according to the present invention, scenario data including camera setting parameters is generated before shooting, and the scenario data and recorded clips are associated and classified using the camera setting parameters. Search, automatic editing, and editing assistance. This feature is particularly effective for improving the editing efficiency when performing repetitive shooting with a typical shooting pattern or when performing detailed rehearsal in advance.

以上のように、本実施の形態のカメラレコーダによれば、編集効率を飛躍的に向上させることができ、ユーザにとって利便性の高いカメラレコーダを実現することができる。   As described above, according to the camera recorder of the present embodiment, editing efficiency can be dramatically improved, and a camera recorder that is highly convenient for the user can be realized.

なお、本実施の形態では、クリップインデックステーブルは、インデックスファイルとして映像ファイルとは別ファイルとして記録する方法を説明したが、映像記録ファイルのヘッダ部分に埋め込んで記録しても同様の効果を発揮する。また、インデックスファイル及びシナリオファイルを記録する際に、テキスト形式にて記録する方法を説明したが、例えば、XML(eXtensible Markup Language)形式等のマークアップ言語や、テキスト形式をバイナリデータ化した形式等で記述しても同様の効果を発揮する。   In the present embodiment, the clip index table has been described as a method of recording the index file as a separate file from the video file. However, the same effect can be achieved by embedding the clip index table in the header portion of the video recording file. . In addition, the method of recording in the text format when recording the index file and the scenario file has been described. For example, a markup language such as an XML (extensible Markup Language) format, a format in which the text format is converted into binary data, and the like. The same effect is demonstrated even if described in.

また、SMPTE−314M方式にて圧縮符号化する例を説明したが、フレーム間の相関情報を用いて圧縮するMPEG−2方式やMPEG−4/AVC方式等、どのような圧縮符号化方式を採用しても同様の効果を発揮する。また、映像に対して圧縮を施さなくても同様の効果を発揮する。さらに、映像データと音声データとを別ファイルとして記録する例を説明したが、例えば、MPEG2−TS(Transport Stream)方式のように映像データと音声データとを多重化する方式を用いて映像データと音声データとを1つのファイルとして符号化しても同様の効果を発揮する。   Moreover, although the example of compressing and encoding by the SMPTE-314M system has been described, any compression encoding system such as the MPEG-2 system or the MPEG-4 / AVC system that compresses using correlation information between frames is adopted. However, the same effect is exhibited. Also, the same effect can be achieved without compressing the video. Further, the example in which the video data and the audio data are recorded as separate files has been described. For example, the video data and the audio data are multiplexed using a method of multiplexing the video data and the audio data, such as the MPEG2-TS (Transport Stream) method. Even if the audio data is encoded as one file, the same effect is exhibited.

さらに、本実施の形態では、記録メモリ161は、PCMCIAの形状とする例を説明したが、SDメモリーカード等の形状であって、PCMCIA_IF160の代わりにSDメモリーカードIFとしても同様の効果を発揮する。   Furthermore, in the present embodiment, the example in which the recording memory 161 has a PCMCIA shape has been described. .

本発明にかかる撮像装置は、ユーザの編集における利便性を向上させるもので、半導体メモリや光ディスク等を応用した映像記録再生装置や映像編集装置等に広く適用可能である。   The image pickup apparatus according to the present invention improves the convenience in editing by the user, and can be widely applied to a video recording / playback apparatus, a video editing apparatus, or the like to which a semiconductor memory, an optical disk, or the like is applied.

本発明のカメラレコーダの構成を示す図The figure which shows the structure of the camera recorder of this invention インデックスファイルの概念図Conceptual diagram of index file シナリオデータテーブルの1構成例を示す図The figure which shows one structural example of a scenario data table メディアインデックステーブルの1構成例を示す図The figure which shows one structural example of a media index table クリップインデックステーブルの1構成例を示す図The figure which shows one structural example of a clip index table クリップインデックステーブルの1具体例を示す図The figure which shows one specific example of a clip index table 撮影前のシナリオデータファイルの1例を示す図Figure showing an example of a scenario data file before shooting 撮影特徴の1区分例を示す図The figure which shows 1 division example of imaging | photography characteristics 分類情報の1区分例を示す図The figure which shows one division example of classification information 撮影特徴を決定するフローチャートFlow chart for determining shooting characteristics マーク種別の1例を示す図The figure which shows one example of mark classification シナリオデータと記録クリップの関連付けを示す概念図Conceptual diagram showing the association between scenario data and recorded clips シナリオデータに記録する場合のシナリオデータと記録クリップの関連付けの1例を示す図The figure which shows one example of the correlation of scenario data and a recording clip in the case of recording on scenario data クリップインデックステーブルに記録する場合のシナリオデータと記録クリップの関連付けの1例を示す図The figure which shows an example of the correlation of the scenario data and recording clip in the case of recording on a clip index table 繰り返し撮影を行わない場合の関連付けのフローチャートFlowchart of association when not repeatedly shooting 繰り返し撮影を行う場合の関連付けのフローチャートFlow chart for association when shooting repeatedly 関連付け終了後のシナリオデータファイルの1例を示す図The figure which shows an example of the scenario data file after the end of association

符号の説明Explanation of symbols

101 システム制御部
102 カメラ動作検出部
103 撮影条件特定手段
104 シナリオデータ作成手段
105 シナリオデータ読み込み手段
106 シナリオデータ保持手段
107 シーン特定手段
108 マーク付与手段
109 管理ファイル処理手段
110 記録バッファメモリ
111 記録処理手段
113 撮影モード切替手段
114 再生処理手段
115 再生バッファメモリ
121 IOバス
131 入力部
132 表示部
133 位置検出手段
141 カメラ部
142 映像処理部
143 映像符号化部
144 マイク部
145 音声処理部
148 映像復号化部
149 映像出力部
150 音声出力部
171 撮像部
172 ズーム手段
173 角度検出手段
DESCRIPTION OF SYMBOLS 101 System control part 102 Camera operation | movement detection part 103 Shooting condition specific | specification means 104 Scenario data creation means 105 Scenario data reading means 106 Scenario data holding means 107 Scene specification means 108 Mark giving means 109 Management file processing means 110 Recording buffer memory 111 Recording processing means 113 Shooting Mode Switching Unit 114 Playback Processing Unit 115 Playback Buffer Memory 121 IO Bus 131 Input Unit 132 Display Unit 133 Position Detection Unit 141 Camera Unit 142 Video Processing Unit 143 Video Encoding Unit 144 Microphone Unit 145 Audio Processing Unit 148 Video Decoding Unit 149 Video output unit 150 Audio output unit 171 Imaging unit 172 Zoom unit 173 Angle detection unit

Claims (9)

映像を撮像し、撮像時のカメラ設定パラメータと共に出力するカメラ部と、
事前に作成された撮影シーン毎の撮影条件を含むシナリオデータを保持するシナリオデータ保持手段と、
前記カメラ設定パラメータに基づいて撮影時の撮影条件を求め、前記シナリオデータ中の前記撮影シーン毎の撮影条件と比較することにより、最も近い前記撮影シーンを前記映像と関連付けるシーン特定手段と、
前記シーン特定手段が関連付けた前記撮影シーンと前記映像との関連付けの情報を記録媒体に記録する記録部とを備えた撮像装置。
A camera unit that captures an image and outputs it together with camera setting parameters at the time of imaging;
Scenario data holding means for holding scenario data including shooting conditions for each shooting scene created in advance;
By obtaining shooting conditions at the time of shooting based on the camera setting parameters and comparing with shooting conditions for each shooting scene in the scenario data, a scene specifying means for associating the closest shooting scene with the video,
An imaging apparatus comprising: a recording unit that records information on association between the shooting scene associated with the scene specifying unit and the video on a recording medium.
前記カメラ部は、撮影時における前記カメラ部の角度及び角速度を検出して前記カメラ設定パラメータに含めて出力し、
前記撮影シーン毎の撮影条件は、撮影角度および前記撮影角度の変化を示す情報のうち少なくとも1つを含み、
前記シーン特定手段は、前記角度および前記角速度に基づいて前記撮影時の撮影条件として前記撮影角度および前記撮影角度の変化を示す情報のうち少なくとも前記撮影シーン毎の撮影条件に含まれる1つを求める請求項1記載の撮像装置。
The camera unit detects the angle and angular velocity of the camera unit at the time of shooting and includes the camera setting parameter for output,
The shooting condition for each shooting scene includes at least one of a shooting angle and information indicating a change in the shooting angle,
The scene specifying unit obtains at least one of the information indicating the change in the shooting angle and the shooting angle included in the shooting condition for each shooting scene as the shooting condition at the time of shooting based on the angle and the angular velocity. The imaging device according to claim 1.
前記カメラ部は、撮影時における前記カメラ部の撮影位置を検出して前記カメラ設定パラメータに含めて出力し、
前記撮影シーン毎の撮影条件および前記撮影時の撮影条件は、前記撮影位置を含む請求項1記載の撮像装置。
The camera unit detects the shooting position of the camera unit at the time of shooting and outputs it included in the camera setting parameter,
The imaging apparatus according to claim 1, wherein the shooting condition for each shooting scene and the shooting condition at the time of shooting include the shooting position.
前記シーン特定手段は、前記撮影シーンと前記映像との関連付けを判断する際に、前記撮影シーン毎の撮影条件に対応する前記撮影時の撮影条件が複数存在する場合、対応するすべての前記映像と関連付ける第1の関連付け方法と、撮影順に前記撮影シーンと前記映像とを比較し、最初に撮影条件が一致するものを関連付ける処理を繰り返す第2の関連付け方法とを切り替えて実行する請求項1記載の撮像装置。 The scene specifying means, when determining the association between the shooting scene and the video, if there are a plurality of shooting conditions at the time of shooting corresponding to the shooting conditions for each of the shooting scenes, The first associating method for associating and the second associating method for comparing the photographing scene and the video in the photographing order and repeating the process of associating the first matching condition with each other are executed by switching. Imaging device. 前記映像に採用を示すマークを付与するマーク付与手段を備え、
前記マーク付与手段は、前記第1の関連付け方法の場合には、各撮影シーンに関連付けられた前記映像のうち最新の映像に前記マークを付与し、前記第2の関連付け方法の場合には、各撮影シーンに関連付けられた前記映像に前記マークを付与する請求項4記載の映像記録装置。
Mark providing means for applying a mark indicating adoption to the video,
In the case of the first association method, the mark attaching unit assigns the mark to the latest image among the images associated with each shooting scene, and in the case of the second association method, The video recording apparatus according to claim 4, wherein the mark is added to the video associated with a shooting scene.
前記カメラ部から出力された前記カメラ設定パラメータに基づいて求めた撮影時の撮影条件を撮影シーン毎の撮影条件として含むシナリオデータを作成する第1のシナリオデータ作成手段を備えた請求項1記載の撮像装置。 The first scenario data creating means for creating scenario data including shooting conditions at the time of shooting obtained based on the camera setting parameters output from the camera unit as shooting conditions for each shooting scene. Imaging device. 前記記録部は、前記映像に前記カメラ設定パラメータを含めて前記記録媒体に記録し、
前記記録媒体から前記カメラ設定パラメータを含んだ前記映像を読み出し、前記映像に含まれた前記カメラ設定パラメータに基づいて求めた撮影時の撮影条件を撮影シーン毎の撮影条件として含むシナリオデータを作成する第2のシナリオデータ作成手段を備えた請求項1記載の撮像装置。
The recording unit includes the camera setting parameter in the video and records it on the recording medium,
The video including the camera setting parameters is read from the recording medium, and scenario data including shooting conditions at the time of shooting determined based on the camera setting parameters included in the video as shooting conditions for each shooting scene is created. The imaging apparatus according to claim 1, further comprising second scenario data creation means.
撮影モードをテスト撮影モードと本番撮影モードとに切り替える撮影モード切替手段と、
前記撮影モードがテスト撮影モードであるときに、前記カメラ部が撮像して出力した前記カメラ設定パラメータに基づいて求めた撮影時の撮影条件を撮影シーン毎の撮影条件として含むシナリオデータを作成する第3のシナリオデータ作成手段と、を備え、
前記シナリオデータ保持手段は、前記第3のシナリオデータ作成手段が作成した前記シナリオデータを保持し、
シーン特定手段は、前記撮影モードが本番撮影モードであるときに、前記カメラ部が撮像して出力した前記カメラ設定パラメータに基づいて前記撮影時の撮影条件を求め、前記シナリオ保持手段が保持している前記シナリオデータ中の前記撮影シーン毎の撮影条件と比較することにより、最も近い前記撮影シーンを前記映像と関連付ける請求項1記載の映像記録装置。
Shooting mode switching means for switching the shooting mode between the test shooting mode and the actual shooting mode;
When the shooting mode is the test shooting mode, scenario data including shooting conditions at the time of shooting determined based on the camera setting parameters captured and output by the camera unit as shooting conditions for each shooting scene is generated. 3 scenario data creation means,
The scenario data holding means holds the scenario data created by the third scenario data creating means,
The scene specifying unit obtains a shooting condition at the time of shooting based on the camera setting parameter captured and output by the camera unit when the shooting mode is the actual shooting mode, and the scenario holding unit holds the shooting condition. The video recording apparatus according to claim 1, wherein the closest shooting scene is associated with the video by comparing with shooting conditions for each shooting scene in the scenario data.
前記シーン特定手段が関連付けを行わなかった前記撮影シーンについて、未撮影シーンを表す表示を行う表示部を備えた請求項1記載の撮像装置。 The imaging apparatus according to claim 1, further comprising: a display unit configured to display an unphotographed scene for the photographed scene that is not associated by the scene specifying unit.
JP2008077317A 2008-03-25 2008-03-25 Imaging device Active JP4946935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008077317A JP4946935B2 (en) 2008-03-25 2008-03-25 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008077317A JP4946935B2 (en) 2008-03-25 2008-03-25 Imaging device

Publications (3)

Publication Number Publication Date
JP2009232325A true JP2009232325A (en) 2009-10-08
JP2009232325A5 JP2009232325A5 (en) 2011-02-17
JP4946935B2 JP4946935B2 (en) 2012-06-06

Family

ID=41247182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008077317A Active JP4946935B2 (en) 2008-03-25 2008-03-25 Imaging device

Country Status (1)

Country Link
JP (1) JP4946935B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4875199B1 (en) * 2010-11-30 2012-02-15 株式会社東芝 Program composition apparatus and program composition method
JP2012195852A (en) * 2011-03-17 2012-10-11 Canon Inc Scenario editing apparatus and scenario editing method, imaging apparatus and control method thereof, scenario editing system, storage medium, and program
US9185300B2 (en) 2012-11-19 2015-11-10 Samsung Electronics Co., Ltd. Photographing apparatus for scene catergory determination and method for controlling thereof
JP2020043487A (en) * 2018-09-11 2020-03-19 日本放送協会 Imaging operation data collection device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185908A (en) * 2000-12-12 2002-06-28 Minolta Co Ltd Computer-readable recording medium recording image extract program, image extract device and image extract method
JP2003078868A (en) * 2001-09-04 2003-03-14 Toshiba Corp Device and program for supporting media work production
JP2004280928A (en) * 2003-03-14 2004-10-07 Sony Corp Information processor, storage medium, and metadata display method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185908A (en) * 2000-12-12 2002-06-28 Minolta Co Ltd Computer-readable recording medium recording image extract program, image extract device and image extract method
JP2003078868A (en) * 2001-09-04 2003-03-14 Toshiba Corp Device and program for supporting media work production
JP2004280928A (en) * 2003-03-14 2004-10-07 Sony Corp Information processor, storage medium, and metadata display method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4875199B1 (en) * 2010-11-30 2012-02-15 株式会社東芝 Program composition apparatus and program composition method
JP2012195852A (en) * 2011-03-17 2012-10-11 Canon Inc Scenario editing apparatus and scenario editing method, imaging apparatus and control method thereof, scenario editing system, storage medium, and program
US9185300B2 (en) 2012-11-19 2015-11-10 Samsung Electronics Co., Ltd. Photographing apparatus for scene catergory determination and method for controlling thereof
JP2020043487A (en) * 2018-09-11 2020-03-19 日本放送協会 Imaging operation data collection device and program
JP7128695B2 (en) 2018-09-11 2022-08-31 日本放送協会 Shooting operation data collection device and program

Also Published As

Publication number Publication date
JP4946935B2 (en) 2012-06-06

Similar Documents

Publication Publication Date Title
US8208792B2 (en) Content shooting apparatus for generating scene representation metadata
KR101022343B1 (en) Information generating apparatus, recording apparatus, playback apparatus, information generating method, recording method, playback method, and recording/reproducing system
US8422849B2 (en) Image playback apparatus, image recording apparatus, image playback method, and image recording method
US20070201832A1 (en) Recording apparatus, recording method, program for recording method, recording medium recording program for recording method, reproducing apparatus, reproduction method, program for reproduction method, and recording medium recording program for reproduction method
JP2011155701A (en) Apparatus and method for processing image
CN101263706A (en) Imaging device and recording method
JPWO2011099299A1 (en) Video extraction device, photographing device, program, and recording medium
US8582948B2 (en) Scenario editing apparatus and scenario editing method, image capturing apparatus and control method thereof, and scenario editing system
WO2009150827A1 (en) Content editing device
JP4946935B2 (en) Imaging device
JP2004312281A (en) Video image editing apparatus and processing method thereof
JP6168453B2 (en) Signal recording apparatus, camera recorder, and signal processing apparatus
JP4962783B2 (en) Information processing apparatus, information processing method, and program
JP5683301B2 (en) Image recording device
JP4438177B2 (en) Data transmission / reception system
JP4698961B2 (en) Electronic camera and electronic camera control program
JP3287814B2 (en) Video playback device
JP4404247B2 (en) Video program production support system, processing apparatus, video program processing method and program
JP6463967B2 (en) Imaging apparatus and control method thereof
JP4846892B2 (en) Image processing system and material storage method
JP2008072572A (en) Content photographing apparatus
JP2006092681A (en) Image management method, image management device and image management system
JP2005303611A (en) Editing device and method therefor, program, and recording medium
JP2006352556A (en) Information processing apparatus, method, recording medium and program
JP2004241834A (en) Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101227

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4946935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3