JP4580925B2 - Imaging apparatus and imaging system - Google Patents
Imaging apparatus and imaging system Download PDFInfo
- Publication number
- JP4580925B2 JP4580925B2 JP2006512379A JP2006512379A JP4580925B2 JP 4580925 B2 JP4580925 B2 JP 4580925B2 JP 2006512379 A JP2006512379 A JP 2006512379A JP 2006512379 A JP2006512379 A JP 2006512379A JP 4580925 B2 JP4580925 B2 JP 4580925B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- recording
- video
- shooting
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/32—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
- G11B27/327—Table of contents
- G11B27/329—Table of contents on a disc [VTOC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/781—Television signal recording using magnetic recording on disks or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/907—Television signal recording using static stores, e.g. storage tubes or semiconductor memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/806—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
- H04N9/8063—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
本発明は、記録媒体等に予め記録されたのち当該撮影装置に入力される収録支援情報に基づいて、映像音声情報を収録する撮影装置や撮影システムに関する。 The present invention relates to a photographing apparatus and a photographing system that record video and audio information based on recording support information that is recorded in advance on a recording medium or the like and then input to the photographing apparatus.
テレビジョン放送、あるいは各種パッケージメディアで提供される映像番組は、映像番組の企画立案、映像番組を構成するために必要な映像音声情報(素材)の収録、および素材を編集して最終的な映像番組を構成するための編集という一連の工程(ワークフロー)を経て制作される。企画工程は、どのような映像番組を制作するかを企画、立案する工程であり、この段階で番組構成,番組情報などが決定される。収録工程は、企画工程で決められた番組構成に基づいて、必要な素材を撮像機器(例えばカメラ一体型VTR)で各種記録媒体に記録する工程であり、編集工程においては、収録された素材の中から必要な素材を組み合わせて最終的な映像番組が形作られる。 Video programs provided on television broadcasts or various package media, final planning of video program planning, recording of video and audio information (materials) necessary to compose the video program, and editing of the material It is produced through a series of steps (workflow) called editing for composing a program. The planning process is a process of planning and planning what kind of video program is to be produced. At this stage, the program configuration, program information, and the like are determined. The recording process is a process in which necessary materials are recorded on various recording media with an imaging device (for example, a camera-integrated VTR) based on the program configuration determined in the planning process. In the editing process, The final video program is formed by combining necessary materials.
これらの各工程においては、映像信号や音声信号だけでなく、映像番組、素材に関連した各種情報(以後メタデータと記す)が企画工程で生成される。具体的には、企画工程において、映像番組の構成、素材に必要とされる情報(出演者、収録条件など)などのメタデータ(企画)が生成される。 In each of these steps, not only video signals and audio signals but also various information related to video programs and materials (hereinafter referred to as metadata) are generated in the planning step. Specifically, in the planning process, metadata (planning) such as the structure of the video program and information (casters, recording conditions, etc.) required for the material is generated.
素材の収録工程は、このようにして生成されるメタデータ(企画)に基づいて、素材の収録がなされる。素材の収録工程では、素材の獲得時点(収録地点)において、素材の付加情報(撮影時間,撮影場所,撮影者など)が自動あるいは人間の手によって作製されて登録される。素材に関する付加情報は素材と関連づけられて記録媒体に保存される。 In the material recording process, the material is recorded based on the metadata (plan) generated in this way. In the material recording process, additional information (shooting time, shooting location, photographer, etc.) of the material is automatically or manually created and registered at the time of acquisition (recording point) of the material. Additional information about the material is stored in a recording medium in association with the material.
編集工程は、素材のどの部分を使用して映像番組を構成するかを決定するオフライン編集(粗編集)と、オフライン編集によって生成された編集情報(EDL:Edit Decision List)等の編集用メタデータに基づいて、実際の編集を行うオンライン編集の2つのステップからなる。オンライン編集によって最終的な映像番組が完成し、制作の途中段階で生成された各種メタデータは、何らかの形で映像番組、映像番組を構成する各素材と関連づけがなされ、データベースに登録されて保存される。 The editing process includes offline editing (rough editing) that determines which part of the material is used to compose the video program, and editing metadata such as editing information (EDL: Edit Decision List) generated by offline editing. Is based on two steps of online editing for actual editing. The final video program is completed through online editing, and the various metadata generated during the production process are associated with the video program and the materials that make up the video program in some form, registered in the database, and stored. The
以上説明したような番組制作工程における収録工程で生成されるメタデータ、及びその生成、記録方法に関しては、映像及び音声等の素材を収録し、これらの素材を編集、加工して映像番組を制作し、さらに完成した映像番組を保管するシステムにおいて、従来から次の構成がある。なお、以下の説明では、本願発明と用語を統一するため、以下の従来例の説明で用いる計画、取材などの用語は、本願発明の説明で用いる企画、収録の用語に変更している。 As for the metadata generated in the recording process in the program production process as described above, and its generation and recording method, materials such as video and audio are recorded, and these materials are edited and processed to produce video programs. In addition, a system for storing a completed video program has conventionally been configured as follows. In the following description, in order to unify terms with the present invention, terms such as planning and coverage used in the description of the following conventional examples are changed to terms of planning and recording used in the description of the present invention.
まず、素材の収録工程において、素材を詳細に説明するためのメタデータを生成し、記録媒体に入力する。収録工程において素材に付加されるメタデータは2種類ある。一番目のデータは、撮影開始,終了時間,撮影場所(地名),撮影者などの企画工程であらかじめ決定されたメタデータである。これらのメタデータは無線通信により撮像装置に送信される。撮像装置では受信したそれらのメタデータを一旦メモリに記憶し、実際に素材を収録する際には、メタデータを前記メモリから読み出し、収録した素材と読み出したメタデータとを関連付けて記録媒体に記録する。 First, in the material recording process, metadata for explaining the material in detail is generated and input to the recording medium. There are two types of metadata added to the material in the recording process. The first data is metadata determined in advance in a planning process such as shooting start / end time, shooting location (place name), and photographer. These metadata are transmitted to the imaging device by wireless communication. In the imaging device, the received metadata is temporarily stored in the memory, and when actually recording the material, the metadata is read from the memory, and the recorded material is associated with the read metadata and recorded on the recording medium. To do.
二番目のデータは、撮影と同時に生成されて記録媒体に記録されるメタデータである。これら2番目のデータは、GPS(Global Positioning System)で検出される位置情報(緯度,経度,高度)や時刻情報,収録場所の地名,撮影機材の情報(機材ID),レンズ情報などのカメラセットアップ情報,素材を識別するためのUMID(Unique Material IDentifier)などがある。 The second data is metadata that is generated simultaneously with photographing and recorded on a recording medium. These second data are camera settings such as position information (latitude, longitude, altitude) and time information detected by GPS (Global Positioning System), time information, place name of recording place, information on photographing equipment (equipment ID), lens information, etc. There are UMID (Unique Material IDentifier) for identifying information and materials.
収録工程で素材とともに記録媒体に記録されたメタデータは、後工程で利用されるとともに、素材と関連づけられてアーカイブに保管される。このように、従来の撮影装置は、素材に関連するメタデータを効率良く生成して、素材とともに記録媒体に記録している。企画工程で設定可能なメタデータ(上記1番目のデータ)は、収録前に予め撮像機器側に入力しておく。素材の獲得時点で初めて取得できるメタデータ(上記2番目のデータ)は、収録時に素材と同時に記録することにより、収録が終了した段階では、素材と素材に関連する必要なメタデータとが記録媒体に記録される。これらの素材用のメタデータは、後の工程あるいはアーカイブにおいて例えば素材を検索するためのメタデータとして使用される。
(特許文献1,2参照)
(See
番組制作は、収録した素材を後工程で編集,加工して最終的な映像番組を完成するものである。そのため、収録の段階においても最終的な映像番組の構成,各種加工処理を意識した素材の獲得が必要とされる。これに対して、上記従来の撮影システム(特許文献1)は、単に必要な素材を複数カット収録し、同時にメタデータを記録するだけであって、収録を支援する情報を利用した、効率的かつ最適な素材の獲得作業を従来の撮影システムで行うことはできない。例えば、収録段階において、現在収録している素材(シーン)が、最終的な映像番組の中で他のシーンとどのようにつながり、またどのような加工処理が施されるかを意識した形で素材を収録することは困難であった。 Program production involves editing and processing the recorded material in a later process to complete the final video program. Therefore, at the stage of recording, it is necessary to acquire materials that are conscious of the structure of the final video program and various processing processes. On the other hand, the conventional photographing system (Patent Document 1) simply records a plurality of necessary materials and records metadata at the same time. The acquisition work of the optimal material cannot be performed by the conventional photographing system. For example, in the recording stage, the material (scene) currently recorded is connected to other scenes in the final video program, and what kind of processing is applied. It was difficult to record the material.
そのため、収録工程においては、とりあえず必要なシーンを複数カット記録しておき、収録終了後の編集工程において収録した多数の素材を整理/管理し、さらに映像番組を構成する上で最適な素材を選別して、各シーンをつなぎ合わせ加工処理を施して最終番組を作成する作業を行っている。このような理由により、従来の撮影システムを用いた番組制作では、結果的に収録後の編集工程以降において多大な作業時間を必要としていた。 Therefore, in the recording process, the necessary scenes are recorded in multiple cuts for the time being, organizing / managing a large number of materials recorded in the editing process after recording, and selecting the most suitable material for configuring a video program Then, each scene is connected and processed to create a final program. For this reason, in the production of programs using the conventional photographing system, as a result, a great amount of work time is required after the editing process after recording.
また、上記従来の撮影システム(特許文献2)は、収録した素材が映像番組のどのシーンに対応するかを示す情報を収録素材に付与する構成が開示されている。しかしながら、この構成において前記対応を示す情報は手入力によって撮影作業者が撮影装置に入力しなければならず、作業が煩雑になるのは避けられない。 In addition, the conventional photographing system (Patent Document 2) discloses a configuration in which information indicating which scene of the video program corresponds to the recorded material is given to the recorded material. However, in this configuration, the information indicating the correspondence must be manually input to the photographing apparatus by the photographing operator, and it is inevitable that the work becomes complicated.
上記課題を解決するために本発明の撮影装置は、映像音声情報を収録する撮影器と、複数のシーンから構成される映像番組における、映像番組の構成およびシーン毎に設定された情報からなる収録支援情報が入力される入力器と、前記映像音声情報の撮影時の状況を示す撮影状況情報を取得する撮影状況取得器と、撮影時に取得した前記撮影状況情報を、撮影前に設定した前記収録支援情報に照合し、前記映像音声情報をシーン毎に分類する管理器と、を備える。 In order to solve the above-described problems, a photographing apparatus of the present invention includes a photographing device for recording video / audio information, and a recording made up of information set for each scene in a video program composed of a plurality of scenes. An input device to which support information is input, a shooting status acquisition device for acquiring shooting status information indicating the shooting status of the video / audio information, and the recording set in the shooting status information acquired at the time of shooting. A management unit that collates the support information and classifies the video / audio information for each scene .
また、前記収録支援情報は、前記映像音声情報を撮影する日程予定に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録日程に関する情報であれば、映像音声情報を撮影日程に基づいて分類できる。 The recording support information is information related to a schedule for shooting the video / audio information. If the shooting status information is information related to a recording schedule in which the video / audio information is actually shot, the video / audio information is shot. Can be classified based on schedule.
また、前記収録支援情報は、前記映像音声情報を撮影する収録予定場所に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所に関する情報であれば、映像音声情報を撮影場所に基づいて分類できる。 Further, the recording support information is information related to a recording location where the video / audio information is shot, and the shooting status information is video / audio information if the video / audio information is information related to a recording location where the video / audio information is actually shot. Classification based on shooting location.
また、前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の出演予定人物に関する情報であり、前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物に関する情報であれば、映像音声情報を出演人物に基づいて分類できる。 In addition, the recording support information is information related to a person scheduled to appear in a video program produced using the video / audio information, and the shooting status information is information related to a person who appeared in the video / audio information actually shot. If so, the video / audio information can be classified based on the performers.
また、前記管理器の分類結果を基に、前記映像音声情報を一括管理する索引情報を生成する索引情報生成器と、前記映像音声情報と前記索引情報とを着脱可能な記録媒体に記録する記録器とをさらに備えれば、分類結果を、映像音声情報に関連付けて記録媒体に記録することができる。 And an index information generator for generating index information for collectively managing the video / audio information based on a classification result of the manager, and a recording for recording the video / audio information and the index information on a removable recording medium. If it is further provided, the classification result can be recorded on the recording medium in association with the video / audio information.
前記収録支援情報は例えば、前記記録媒体に書き込んだ状態で撮影装置に入力することができる。そうすれば、収録支援情報が書き込まれた記録媒体を他の記録媒体と区別することなく記録器における記録媒体として用いることができる。 For example, the recording support information can be input to the photographing apparatus in a state of being written on the recording medium. Then, the recording medium in which the recording support information is written can be used as a recording medium in the recorder without being distinguished from other recording media.
なお、撮影作業者によって実行される前記映像音声情報の収録状況の評価に関する入力を受け付ける評価入力器をさらに有し、前記管理器は、前記評価入力器に入力される収録状況評価に基づいて、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、映像音声情報を収録状況評価に基づいてさらに詳細に分類することができる。 In addition, it further has an evaluation input device that receives an input related to the evaluation of the recording status of the video and audio information executed by the shooting operator, the manager is based on the recording status evaluation input to the evaluation input device, It is preferable to further classify the recorded video / audio information. Then, the video / audio information can be classified in more detail based on the recording status evaluation.
なお、前記評価入力器は、撮影作業者による音声入力を受け付けたうえで当該音声入力を音声認識によりテキストデータからなる前記収録状況評価に変換すれば、撮影管理者(撮影監督)の音声により収録状況評価を行うことができ、収録状況評価の入力が容易になる。 If the evaluation input device receives voice input by a shooting operator and converts the voice input into the recording status evaluation consisting of text data by voice recognition, the voice recording of the shooting manager (shooting director) will record. The situation evaluation can be performed, and the input of the recording situation evaluation becomes easy.
なお、前記収録状況評価の分類テーブルをさらに備えており、前記管理器は、前記評価入力器から供給される前記収録状況評価のテキストデータを前記分類テーブルに照合することで、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、一つではない複数の収録状況評価によって映像音声情報をさらに詳細に分類することが可能となる。 The recording status evaluation classification table is further provided, and the management unit collates the recording status evaluation text data supplied from the evaluation input device with the classification table to record the recorded video and audio. It is preferred to further classify the information. By doing so, it becomes possible to classify the video / audio information in more detail by evaluating a plurality of recording situations other than one.
このような本発明の構成を実施するうえでは、本発明の撮影装置に加えて、前記収録支援情報の作成者による入力を受けるとともに、入力される前記収録支援情報を前記記録媒体に記録する番組構成入力装置を備えて撮影システムを構成するのが好ましい。 In carrying out such a configuration of the present invention, in addition to the photographing apparatus of the present invention, a program that receives input by the creator of the recording support information and records the input recording support information on the recording medium Preferably, the imaging system is configured with a configuration input device.
なお、本発明における映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。 The video / audio information in the present invention includes at least one of video information and audio information.
本発明によれば、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる。 According to the present invention, in the workflow of program production, efficient and optimal recording of materials using metadata at the time of material recording improves the efficiency of the entire program production process, shortens production time, and reduces production costs. Can be realized.
以下、本発明の実施の形態について、図1〜15を参照して説明する。各実施の形態における撮影装置では、映像音声情報をファイルとして記録し、更に、編集装置とのデータの親和性を考慮して映像、音声のデータを別ファイルで記録することとする。つまり、撮影時に複数のファイルが同時生成されることになる。このように同時に生成された映像、音声のファイルはまとめてクリップと呼ばれる。このクリップは、映像,音声以外に、サムネール(映像の縮小見本)やその他メタデータが関連付けられることもある。また、クリップの構成要素である映像,音声のファイルはエッセンスファイルと呼ばれる。また、この撮像装置で扱われる映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。すなわち、一般的に映像音声情報とは、映像情報と音声情報との両方を含むものであるが、映像情報だけからなる情報も、本発明では映像音声情報の一つと見なす。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. In the imaging apparatus in each embodiment, video / audio information is recorded as a file, and video and audio data are recorded in separate files in consideration of the data compatibility with the editing apparatus. That is, a plurality of files are generated simultaneously at the time of shooting. The video and audio files generated at the same time are collectively called a clip. In addition to video and audio, this clip may be associated with thumbnails (reduced samples of video) and other metadata. A video and audio file that is a component of a clip is called an essence file. Also, the video / audio information handled by the imaging apparatus includes at least one of video information and audio information. That is, in general, video / audio information includes both video information and audio information, but information consisting only of video information is also considered as one of the video / audio information in the present invention.
(実施の形態1)
図1は本発明の実施の形態1における撮影システムの構成図であり、図2はその撮影システムを構成する撮影装置200のブロック構成図である。この撮影システムは、番組構成入力装置100と、撮影装置200とを備える。
(Embodiment 1)
FIG. 1 is a configuration diagram of an imaging system according to
番組構成入力装置100は、映像番組の企画案を入力する入力装置であって、例えば、映像番組の企画立案支援用のソフトウェアがインストールされたパーソナルコンピュータから構成される。
The program
撮影装置200は、撮像器1、記録映像信号処理器2、映像信号符号化器3、集音器としてのマイク4、記録音声信号処理器5、音声信号符号化器6、第1の情報取得器7A、第2の情報取得器7B、ファイル管理器9、映像ファイル生成器10、音声ファイル生成器11、索引ファイル生成器12、記録再生制御器13、第1の装填器14、第nの装填器15、第1の記録媒体16、及び、第nの記録媒体17を備える。
The
撮像器1と記録映像信号処理器2と映像信号符号化器3とマイク4と記録音声信号処理器5と音声信号符号化器6と映像ファイル生成器10と音声ファイル生成器11とは撮影器の一例を構成する。しかしながら、これらの構成は撮影器の一例に過ぎず、一般的な他の撮影器の構成であってもよいのはいうまでもない。
The
記録再生制御器13と第1〜第nの装填器14〜15とは、記録器を構成する。しかしながら、これらの構成は記録器の一例に過ぎず、一般的な他の記録器の構成であってもよいのはいうまでもない。
The recording / reproducing
第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる番組構成情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう番組構成情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータである。番組構成情報の詳細については後述する。
The first
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録日程情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録日程情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録日程情報(予定)という。収録日程情報(予定)の詳細については後述する。
Further, the first
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録人物情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録人物情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録人物情報(予定)という。
Further, the first
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録場所情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録場所情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録場所情報(予定)と称する。収録場所情報(予定)の詳細については後述する。
Further, the first
第2の情報取得器7Bは、日程情報取得器7a、人物情報取得器7b、および場所情報取得器7cを備える。
The second
日程情報取得器7aは、映像撮影時において、その撮影時における日時情報を生成してファイル管理器9に出力する。撮影時における収録日程情報は撮影状況情報の一つであって、以下、撮影時における収録日程情報を収録日程情報(撮影)という。
The schedule
人物情報取得器7bは、映像撮影時において、その撮影に出演する人物情報を取得してファイル管理器9に出力する。撮影時における収録人物情報は撮影状況情報の一つであって、以下、撮影時に実際に撮影に出演する人物情報を収録人物情報(撮影)という。人物情報取得器7bによる収録人物情報(撮影)の生成管理は、例えば次のようにして実施される。すなわち、図2に示すように、予め、撮影に出演する人物αに無線発信器7dを装着させる。無線発信器7dには、人物特定情報(人物ID番号)が予め登録されており、撮影時に撮影装置200に向けて人物特定情報(人物ID番号)が付加された無線信号を送信する。人物情報取得器7bは、無線受信器7eを備えており、撮影時において無線受信器7eが無線信号を受信すると、人物情報取得器7bは、受信した無線信号から人物特定情報(人物ID番号)を抽出することで収録人物情報(撮影)を生成し、生成した収録人物情報(撮影)をファイル管理器9に出力する。
The person
場所情報取得器7cは、映像撮影時において、その撮影場所情報を取得してファイル管理器9に出力する。撮影時における収録場所情報は撮影状況情報の一つであって、以下、撮影時における実際の収録場所情報を収録場所情報(撮影)という。場所情報取得器7cによる収録場所情報(撮影)の管理は、例えば次のようにして実施される。すなわち、場所情報取得器7cは、GPS(Global Positioning System)に基づいて現在地を測位するGPS測位装置7fを備えており、場所情報取得器7cは、撮影時におけるその場所(撮影場所)をGPS測位装置7fにより測位することで、収録場所情報(撮影)を作成して、ファイル管理器9に出力する。
The location
本実施形態では、第1の情報取得器7Aと記録再生制御器13と第1の装填器14とから入力器の一例が構成され、第2の情報取得器7Bから撮影状況取得器の一例が構成され、ファイル管理器9から管理器の一例が構成される。
In the present embodiment, an example of an input device is configured from the first
図3は、映像番組の企画立案者によって番組構成入力装置100に入力される番組構成情報の模式図である。図3に示されるように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成される。この図では、シーン1からシーン50までの50個のシーンによって、一つの映像番組が構成されていることが分かる。映像番組の企画立案者は、まず、シナリオ等に基づいてこのような番組構成を構想したうえで、構想した番組構成を番組構成入力装置100に入力する。番組構成入力装置100に入力された番組構成情報は番組構成入力装置100が有する図示しない記録装置に記録される。
FIG. 3 is a schematic diagram of program configuration information input to the program
図4は、映像番組の企画立案者によって番組構成入力装置100に入力される収録日程情報(予定)の模式図である。図4に示されるように、各シーンの収録順序は、番組構成の順番とは異なるのが普通である。出演人物(俳優)の日程や、天候の状態、または、ロケ地やスタジオの予約状況など、様々な要因により、収録できるシーンから収録していくことになるが、通常、その収録日程は、途中変更があるにせよ、収録が始まる前に予め分かっている。映像番組の企画立案者は、予め分かっている収録予定に基づいて収録日程情報(予定)を構想したうえで、構想した収録日程情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録日程情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
FIG. 4 is a schematic diagram of recording schedule information (schedule) input to the program
図4では、最初にシーン48が収録され、次にシーン10が収録される。そして、その後にシーン29が収録され、最後にシーン3が収録される予定となっている。また、図中の表に記載されているように、各シーンには、それぞれ、各シーンの収録期間が設定されている。例えば、シーン48では開始日時S1から終了日時E1の間に収録がなされる予定となっており、シーン48を構成する所望のクリップが、このシーン収録期間中に、いくつか収録される予定が組まれている。同様に、シーン10では開始日時S2から終了日時E2の間、シーン29では開始日時S3から終了日時E3の間、最後のシーン3では開始日時S50から終了日時E50の間に収録がなされる予定となっており、各シーンの収録期間内に、各シーンを構成する所望のクリップがシーン毎にいくつか収録される予定が組まれている。
In FIG. 4, the scene 48 is recorded first, and then the
図5は、映像番組の企画立案者によって番組構成入力装置100に入力される収録人物情報(予定)の模式図である。図5に示されるように、各シーンに出演する出演人物(俳優等)は、収録が始まる前(シナリオ確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録人物情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録人物情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
FIG. 5 is a schematic diagram of recorded person information (plan) input to the program
図5では、最初に収録されるシーン48において、人物イ,ロ,ハが出演し、次に収録されるシーン10では、人物イ,ロ,ホ,へ,トが出演する。他のシーンにおいても同様に、出演人物が記録される。なお、番組構成入力装置100の表示画面では、図5に示すように、人物名によって出演人物が表示管理される。しかしながら、出演予定人物それぞれには、予め、固有の人物ID番号が付与されており、番組構成入力装置100の内部において出演人物は、この人物ID番号に基づいて登録管理される。
In FIG. 5, the characters i, b, and ha appear in the scene 48 that is recorded first, and the characters i, b, e, h, and g appear in the
図6は、映像番組の企画立案者によって番組構成入力装置100に入力される収録場所情報(予定)の模式図である。図6に示されるように、各シーンが撮影される場所は、収録が始まる前(収録日程確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録場所情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録場所情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。なお、番組構成入力装置100の表示画面では、図6に示すように、場所名によって収録場所が表示管理される。しかしながら、番組構成入力装置100の内部において収録場所は、緯度/経度/高度をそれぞれ示す数値情報に基づいて登録管理される。
FIG. 6 is a schematic diagram of recording location information (plan) input to the program
図6では、最初に収録されるシーン48は、収録場所として、場所(1)が登録されており、次に収録されるシーン10では、収録場所として、場所(2)が登録されている。他のシーンにおいて同様に、収録場所が記録される。
In FIG. 6, place (1) is registered as a recording place for the first scene 48 to be recorded, and place (2) is registered as a recording place for the
本実施形態において収録支援情報は、図3に示す番組構成情報と、図4に示す収録日程情報(予定)と、図5に示す収録人物情報(予定)と、図6に示す収録場所情報(予定)とを含んで構成される。また、本実施形態において撮影状況情報は、収録日程情報(撮影)と、収録人物情報(撮影)と、収録場所情報(撮影)とを含んで構成される。 In this embodiment, the recording support information includes program configuration information shown in FIG. 3, recording schedule information (plan) shown in FIG. 4, recorded person information (plan) shown in FIG. 5, and recording location information (plan) shown in FIG. Plan). In this embodiment, the shooting situation information includes recording schedule information (shooting), recorded person information (shooting), and recording location information (shooting).
番組構成入力装置100には、第1の記録媒体16の記録再生装置(図示省略)が組み込まれており、映像番組の企画立案者によって番組構成入力装置100に入力される収録支援情報は、番組構成入力装置100によって第1の記録媒体16に記録される。収録支援情報が記録された第1の記録媒体16は、映像番組の撮影担当者によって番組構成入力装置100から取り出されたのち、撮影装置200の第1の装填器14に装填される。
The program
第1の記録媒体16が第1の装填器14に装填されると、記録再生制御器13が、第1の記録媒体16から収録支援情報を読み出し、さらに、読み出した収録支援情報から第1の情報取得器7Aが、番組構成情報と、収録日程情報(予定)と、収録人物情報(予定)と、収録場所情報(予定)とを抽出する。抽出されたこれらの情報は、ファイル管理器9に入力される。ファイル管理器9は、これらの情報を記録して、映像番組を構成するシーン毎にクリップを分類して一括管理する際の分類基準情報として活用する。
When the
なお、収録支援情報を伝達する構成は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に伝達する構成だけではない。例えば、番組構成入力装置100と撮影装置200とを有線/無線で相互通信可能に接続したうえで、番組構成入力装置100から撮影装置200に伝達してもよい。
The configuration for transmitting the recording support information is not limited to the configuration for transmitting the program
さらには、収録支援情報は、入力装置100から撮影装置200に伝達させたのち、撮影装置200内の記録媒体にいったん記録させてから用いてもよいし、収録支援情報が必要となるたびに入力装置100から撮影装置200に伝達させる(例えば、有線/無線のネットワーク経由で取り込む)ようにしてもよい。
Furthermore, the recording support information may be used after being transmitted from the
以上の収録準備が完了して収録が開始されると、撮像器1において光信号が撮像素子により電気信号に変換され、その後、記録映像信号処理器2に入力される。記録映像信号処理器2ではガンマ処理や、ニー処理等の信号処理が施され、デジタル映像信号として出力される。記録映像信号処理器2から出力された原映像のデジタル映像信号は、映像信号符号化器3に入力され、所定の方式により符号化が為されて、映像符号化ビットストリームとして出力される。
When the above recording preparation is completed and recording is started, the optical signal is converted into an electrical signal by the imaging device in the
映像信号符号化器3から出力された映像符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、映像ファイル生成器10により所定のファイル形式の映像ファイルとしてファイル生成される。
The video encoded bit stream output from the
一方、マイク4において音声が電気信号に変換され、マイク4から出力された音声信号が記録音声信号処理器5に入力される。記録音声信号処理器5では、マイク4から出力された音声信号をアンプにて増幅し、アンプから出力された音声信号はA/Dコンバータに入力されてデジタル信号に変換される。記録音声信号処理器5から出力されたデジタル音声信号は、音声信号符号化器6に入力され、ここで例えば、MPEGオーディオ、AC−3等の所定の方式により符号化が為されて、音声符号化ビットストリームとして音声信号符号化器6から出力される。
On the other hand, the sound is converted into an electric signal in the
音声信号符号化器6から出力された音声符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、音声ファイル生成器11により所定のファイル形式の音声ファイルとしてファイル生成される。
The audio encoded bit stream output from the
また、ファイル管理器9により管理されるファイル管理情報を基に、1クリップを形成するのに必要な各映像ファイル、音声ファイルを索引出来るように、必要な情報を一括りにしてクリップ毎に管理する索引ファイルが索引ファイル生成器12により所定のファイル形式で生成される。
Also, based on the file management information managed by the
各ファイル生成器10,11,12で生成される映像,音声,索引の各ファイルのデータは、記録再生制御器13に入力され、各ファイルのデータの記録が制御される。記録再生制御器13に入力される映像ファイルと音声ファイル、及び、索引ファイルの各ファイルのデータは、記録媒体のECCブロック単位や消去単位等をクラスタ単位としたクラスタの整数倍を基本単位として、インターリーブされて、第1の装填器14を介して第1の記録媒体16に記録される。
The video, audio, and index file data generated by the
第1の記録媒体16に記録していくクリップが多くなって、1つの記録媒体に収まり切らなくなると、順次、次の記録媒体に記録していき、第nの装填器15を介して第nの記録媒体17まで、連続的に記録される。
When the number of clips to be recorded on the
第1及び第nの記録媒体16,17は、撮影装置に着脱可能に構成された任意の記録媒体であり、例えば、PCカード型ハードディスクドライブやメモリカード等のカード状記録媒体、または、大容量化、高速化を図って複数のメモリカードを内蔵させたメモリカードパック等である。そして、例えば、記録媒体がメモリカードパックである場合、メモリカードパック内に内蔵されているメモリカードの数と同数のクラスタの数が記録再生制御器13での記録再生の基本単位となる。
The first and
なお、本実施形態では、第1の記録媒体16は、撮影装置200で撮影される撮影データの記録媒体としても用いられるほか、番組構成入力装置100から撮影装置200に収録支援情報を搬送する搬送媒体として用いられる。また、収録支援情報は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に搬送されるほか、番組構成入力装置100から撮影装置200に無線伝送されてもよく、収録支援情報の搬送入力形態はどのようなものであってもよい。無線伝送する場合には、撮影装置200は無線受信器を備えることになり、無線受信器と第1の情報取得器7Aとから入力器が構成される。
In the present embodiment, the
ファイル管理器9は、FAT32等のファイルシステムによりファイルを管理する。ここで管理に用いられるファイル管理情報は、個々の着脱可能な記録媒体を特定可能とする記録媒体のメディアID、映像ファイルを特定可能とする映像ファイルのファイルID、及び、音声ファイルを特定可能とする音声ファイルのファイルID、各ファイル内にあるフレームを特定可能とするフレームID、及び、各ファイルのファイル容量等である。本実施形態の撮影装置200では、これらの管理情報に加えて、収録支援情報と撮影状況情報とがファイル管理情報として用いられる。
The
映像ファイル生成器10、音声ファイル生成器11では、素材交換ファイル形式であるMXF(Material eXchange Format)やAVI(Audio Video Interleaving )、WAV等のファイル形式でファイルを生成し、索引ファイル生成器12では、XML(eXtensible Markup Language)等のテキストファイル形式やCSV(Comma Separated Value)ファイル形式等のファイル形式でファイルを生成する。
The
以下、撮影状況情報を構成する各情報(撮影)の具体的な生成方法の一例を説明する。 Hereinafter, an example of a specific method for generating each piece of information (photographing) constituting the photographing situation information will be described.
収録時間情報(撮影)は、次のようにして生成される。撮影時、撮影データには撮影日時情報が付加される。これらの撮影日時情報は、映像ファイル生成器10と音声ファイル生成器11とによって撮影装置200内の内蔵時計(暦機能付き)30から読み出されて撮影データに付加される。このとき(撮影時)、日程情報取得器7aは、撮影に同期して内蔵時計30から撮影日時情報を読み出してファイル管理器9に供給する。なお、日程情報取得器7aは、撮影に同期してGPS測位装置7fから撮影日時情報を取得してもよい。
The recording time information (photographing) is generated as follows. At the time of shooting, shooting date / time information is added to the shooting data. The shooting date / time information is read from the built-in clock (with calendar function) 30 in the
収録人物情報(撮影)は、次のようにして生成される。前述したように、撮影時、出演人物αは、無線発信器7dを携帯している。無線発信器7dは、出演人物αに固有に設定された人物特定情報(人物ID番号)が付加された無線信号を送信する。無線発信器7dから発信される無線信号は、無線受信器7eにより受信される。人物情報取得器7bは、この無線信号を解析して人物特定情報(人物ID番号)を抽出する。一つの撮影に複数の人物が出演する場合においても、各出演人物を区別して個別に人物特定情報(人物ID番号)を抽出する。
The recorded person information (photographing) is generated as follows. As described above, at the time of shooting, the performer α carries the
人物情報取得器7bは、抽出した人物特定情報(人物ID番号)をファイル管理器9に供給する。ファイル管理器9は、それらの人物特定情報(人物ID番号)をその撮影(クリップ)に対応付けて記録する。
The person
収録場所情報(撮影)は、次のようにして生成される。前述したように、撮影時、GPS測位装置7fは、測位動作を実施している。場所情報取得器7cは、GPS測位装置7fの測位結果に基づいて収録場所情報(撮影)を生成して、ファイル管理器9に供給する。
The recording location information (photographing) is generated as follows. As described above, during shooting, the
図3を参照して前述したように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成する。 As described above with reference to FIG. 3, one video program is composed of a plurality of scenes, which are connected in order according to a scenario, and then one video program is completed.
図7はファイル管理器9により収集された撮影状況情報と収録クリップとの間の相関関係図である。図8は、各シーンと各クリップとの間の相関関係図であって、これはファイル管理器9による分類結果を示す。これらの相関関係図は、収録支援情報、撮影状況情報の供給を受けたファイル管理器9が作成して自身の分類テーブル(図示省略)に記録する。
FIG. 7 is a correlation diagram between shooting state information collected by the
図7に示すように、収録された各クリップには、収録日程情報(撮影)、収録人物情報(撮影)、収録場所情報(撮影)が対応付けられている。ファイル管理器9は、撮影時に生成されるこれらの撮影状況情報に基づき、収録されたクリップがどのシーンのクリップであるのかを、撮影状況情報と収録支援情報との照合により判定し、その判定結果に従って、各クリップを各シーンに自動的に分類する。
As shown in FIG. 7, each recorded clip is associated with recording schedule information (photographing), recorded person information (photographing), and recording location information (photographing). The
すなわち、図4に示すように、収録日程情報(予定)によって各シーンの収録開始時間と収録終了時間とが設定されているので、収録時に取得される各クリップの収録日程情報(撮影)を、収録日程情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。同様に、図5に示すように、収録人物情報(予定)によって各シーンに出演する出演人物が設定されているので、収録時に取得される収録人物情報(撮影)を、収録人物情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンのクリップなのかを判定する。同様に、図6に示すように、収録場所情報(予定)によって各シーンの収録場所が設定されているので、収録時に取得される収録場所情報(撮影)を、収録場所情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。 That is, as shown in FIG. 4, since the recording start time and recording end time of each scene are set by the recording schedule information (plan), the recording schedule information (shooting) of each clip acquired at the time of recording is By comparing the recording schedule information (planned) with the program configuration information, it is determined which scene the recorded clip is. Similarly, as shown in FIG. 5, since the performers appearing in each scene are set by the recorded person information (plan), the recorded person information (shooting) acquired at the time of recording is recorded. And the program configuration information, it is determined which scene the recorded clip is. Similarly, as shown in FIG. 6, since the recording location of each scene is set by the recording location information (scheduled), the recording location information (scheduled) acquired at the time of recording is changed to the recording location information (scheduled) and the program. By comparing with the configuration information, it is determined which scene the recorded clip is.
以下、クリップを分類する方法の一例を、図7,図8を参照して説明する。ここでは、シーン48,シーン10,シーン3を例にして説明する。
Hereinafter, an example of a method for classifying clips will be described with reference to FIGS. Here,
図4〜図6に示すように、シーン48の収録日程情報(予定)は[S1≦収録日程(予定)<E1]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(予定)は[場所(1)]であると仮定する。さらに、クリップ1,2,3の収録日程情報(撮影)は[S1≦(T1〜T3)<E1]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(撮影)は[場所(1)]であると仮定する。
As shown in FIGS. 4 to 6, the recording schedule information (planned) of the scene 48 is [S1 ≦ recording schedule (planned) <E1], and the recorded person information (planned) is [person (b), person (b) ), Person (c)] and the recording location information (plan) is [location (1)]. Furthermore, the recording schedule information (shooting) of
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ1,2,3の収録日程情報(撮影)は、シーン48の収録日程情報(予定)を満たす。
[S1≦(T1〜T3)<E1]、
・クリップ1,2,3の収録人物情報(撮影)は、シーン48の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ハ)]=[人物(イ),人物(ロ),人物(ハ)]
・クリップ1,2,3の収録場所情報(撮影)は、シーン48の収録場所情報(予定)を満たす。
[場所(1)]=[場所(1)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ1,2,3をシーン48に分類する。
In this case, the
The recording schedule information (shooting) of
[S1 ≦ (T1 to T3) <E1],
The recorded person information (shooting) of the
[Person (I), person (b), person (c)] = [person (b), person (b), person (c)]
The recording location information (shooting) of
[Place (1)] = [Place (1)]
The
一方、図4〜図6に示すように、シーン10の収録日程情報(予定)は[S2≦収録日程(予定)<E2]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。クリップ4〜7の収録日程情報(撮影)は[S2≦(T4〜T7)<E2]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。
On the other hand, as shown in FIGS. 4 to 6, the recording schedule information (planned) of the
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ4〜7の収録日程情報(撮影)は、シーン10の収録日程情報(予定)を満たす。
[S2≦(T4〜T7)<E2]、
・クリップ4〜7の収録人物情報(撮影)は、シーン10の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ホ),人物(へ),人物(ト)]=[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]
・クリップ4〜7の収録場所情報(撮影)は、シーン10の収録場所情報(予定)を満たす。
[場所(2)]=[場所(2)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ4〜7をシーン10に分類する。
In this case, the
The recording schedule information (shooting) of the
[S2 ≦ (T4 to T7) <E2],
The recorded person information (shooting) of the
[Person (b), person (b), person (e), person (f), person (g)] = [person (b), person (b), person (e), person (f), person ( G)]
The recording location information (shooting) of the
[Place (2)] = [Place (2)]
The
一方、図4〜図6に示すように、シーン3の収録日程情報(予定)は[T50≦収録日程(予定)<E50]であり、収録人物情報(予定)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。さらに、クリップ199,200の収録日程情報(撮影)は[S50≦(T199、T200)<E50]であり、収録人物情報(撮影)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。
On the other hand, as shown in FIGS. 4 to 6, the recording schedule information (planned) of
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ199,200の収録日程情報(撮影)は、シーン3の収録日程情報(予定)を満たす。
[S50≦(T199,T200)<E50]、
・クリップ199,200の収録人物情報(撮影)は、シーン3の収録人物情報(予定)を満たす。
[人物(チ),人物(リ),人物(ヌ),人物(ル)]=[人物(チ),人物(リ),人物(ヌ),人物(ル)]
・クリップ199,200の収録場所情報(撮影)は、シーン3の収録場所情報(予定)を満たす。
[場所(50)]=[場所(50)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ199,200をシーン3に分類する。
In this case, the
The recording schedule information (shooting) of the
[S50 ≦ (T199, T200) <E50],
The recorded person information (shooting) of the
[Person (chi), person (ri), person (nu), person (le)] = [person (chi), person (ri), person (nu), person (le)]
The recording location information (shooting) of the
[Place (50)] = [Place (50)]
The
図9は収録前と収録後の記録媒体における記録内容の対比図である。図9に示すように、第1の記録媒体16には、メディアIDとしてメディア1が付与されている。メディアIDは記録媒体を識別するID番号である。このような第1の記録媒体16に収録支援情報を構成する番組構成情報と収録日程情報(予定)と収録人物情報(予定)と収録場所情報(予定)とが収録開始以前に予め記録されている。記録は、番組構成入力装置100により実施される。このような情報が記録された第1の記録媒体16が本撮影装置200に装填される。これにより、第1の記録媒体16から収録支援情報が読み出されてファイル管理器9に格納される。この状態で以下に説明する映像収録が行われる。
FIG. 9 is a comparison diagram of recorded contents on a recording medium before and after recording. As shown in FIG. 9, the
収録が開始されると、第1の記録媒体16の空き領域に、収録した映像ファイル,音声ファイルとともに、撮影状況情報を構成する収録日程情報(撮影)と収録人物情報(撮影)と収録場所情報(撮影)とが収録されていく。これらの撮影状況情報は、映像ファイルや音声ファイルに関連付けて第1の記録媒体16に収録される。
When recording starts, recording schedule information (shooting), recorded person information (shooting), and recording location information constituting shooting status information together with recorded video files and audio files in an empty area of the first recording medium 16 (Shooting) will be recorded. These pieces of shooting state information are recorded on the
収録後には、図9に示すように、映像ファイルと音声ファイルはクリップとして一括りにされて第1の記録媒体16に記録されると共に、シーン毎に一括りにされ、番組構成とリンクしたクリップ情報が書かれている索引ファイルが記録される。索引ファイルは次のようにして作成される。
After the recording, as shown in FIG. 9, the video file and the audio file are collected as a clip and recorded on the
収録時には第2の情報取得器7Bによって、撮影状況情報が同時に生成されて、ファイル管理器9に供給される。ファイル管理器9は、これらの撮影状況情報を、第1の記録媒体16内の収録支援情報に照合することで、撮影中のクリップと番組構成とを関連付ける索引ファイルを生成する。ファイル管理器9は、生成した索引ファイルを、記録中の記録媒体(この場合は第1の記録媒体16)に記録する。
At the time of recording, shooting status information is simultaneously generated by the second
次に、図9〜11を参照して、パーソナルコンピュータなどの外部の編集装置での編集作業を説明する。図10は索引ファイルの内容の一例を示す模式図である、図11は編集リストの一例を示す図である。 Next, with reference to FIGS. 9 to 11, editing work by an external editing apparatus such as a personal computer will be described. FIG. 10 is a schematic diagram showing an example of the contents of an index file, and FIG. 11 is a diagram showing an example of an edit list.
図9に示すように、収録後には、第1の記録媒体16に、映像ファイル、音声ファイル、及び、索引ファイルの各ファイルが記録されており、各ファイルは、記録媒体毎に、所定のファイルシステムにより管理されている。
As shown in FIG. 9, after recording, each file of the video file, the audio file, and the index file is recorded on the
図10に示すように、索引ファイルの中には、メディア1,メディア2等の記録媒体のメディアID、映像ファイル1,2,3…、音声ファイル1,2,3…等の各ファイルのファイルIDが、クリップ1,2,3…、等のクリップID、収録支援情報、および撮影状況情報に基づいて、各クリップ毎に分類されている。分類されたメディアIDは、シーン毎に一括りにされて、シーン1,2,3…等のシーンIDと共に記録されている。
As shown in FIG. 10, the index file includes media IDs of recording media such as
編集装置では、先ず、第1の記録媒体16が挿入され、索引ファイルが読み出されて、各クリップの映像,音声として確認可能な映像,音声ファイルが特定される。編集者は、映像ファイル,音声ファイルから再生される映像,音声を、シーン毎に視聴しながら、各クリップが必要かどうかOK/NGを判断し、所望のストーリーに合うように、図11に示されるような編集リストを作成する。作成された編集リストは、テキストファイルなど所定のファイル形式で、編集装置により第1の記録媒体16に記録され(図示せず)、本編集終了時には、再生時に、この編集リストに則って再生が為される。
In the editing apparatus, first, the
再生時には、第1の記録媒体16〜第nの記録媒体17から番組構成順序に従って、必要なクリップが再生される。各クリップは、索引ファイルに記載されて、一括管理されているクリップ毎の映像と音声のファイルとをそれぞれ復号,再生する。
At the time of reproduction, necessary clips are reproduced from the
以上のように本実施の形態によれば、予め記録された収録支援情報を元に、収録された各クリップが、映像番組を構成するシーン毎に分類されて一括管理され、収録終了と同時に、粗編集が既に終了した状態となるので、後は、シーン毎にまとめられた所望のクリップを選択するだけで、本編集を終了する事が出来、本編集の手間を大幅に削減する事が出来る。 As described above, according to the present embodiment, based on the recording support information recorded in advance, each recorded clip is classified and managed for each scene constituting the video program. Since the rough editing has already been completed, it is possible to finish the main editing simply by selecting the desired clip grouped for each scene, which can greatly reduce the labor of the main editing. .
また、収録時に、予め収録内容とその日程が分かる為、収録シーンの取りこぼしなど、人的ミスの発生を未然に防止する事が出来、収録から編集、番組完成まで、トータルのワークフローを、より効率的に改善する事が出来る。 In addition, since the contents and schedule of the recording are known in advance during recording, it is possible to prevent human errors such as missing recorded scenes in advance, making the total workflow from recording to editing and program completion more efficient. Can be improved.
なお、上述した実施の形態1では、収録支援情報、撮影状況情報として、日程、人物、場所の3つの情報を用いている。これは、クリップの分類精度を高めるために本実施形態において採用された構成である。そのため、収録支援情報,撮影状況情報として、日程,人物,場所の3つの情報のうちの任意の1つないし任意の2つの情報を用いてもよいのはいうまでもない。さらには、3つ以上の情報を、収録支援情報,撮影状況情報として用いてもよいのもいうまでもない。 In the first embodiment described above, three pieces of information such as a schedule, a person, and a place are used as recording support information and shooting state information. This is a configuration employed in the present embodiment in order to increase the clip classification accuracy. Therefore, it goes without saying that any one or two pieces of information among the three pieces of information of the schedule, the person, and the place may be used as the recording support information and the shooting situation information. Furthermore, it goes without saying that three or more pieces of information may be used as recording support information and shooting situation information.
さらには、収録支援情報,撮影状況情報として、各クリップにおいて、出演者が喋る台詞を用いてもよい。その場合には、撮像装置200’は、図12に示すように、マイク4に入力される音声信号を音声認識する音声認識器31をさらに備えたうえで次のように処理される。
Further, as the recording support information and the shooting situation information, a dialogue spoken by the performer may be used in each clip. In that case, as shown in FIG. 12, the
各シーンの台詞情報は番組構成入力装置100に入力されて第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’に取り込まれる。ここでいう各シーンの台詞情報とは、台本を参照してそのシーンを特定可能な台詞のことであって、例えば、そのシーンを択一的に特定できる場所,時間,状況を示す台詞のことである。台詞情報は、映像番組の企画立案者によって台本から選び出されたうえで番組構成入力装置100に入力される。第1の記録媒体16を介して撮影装置200’に取り込まれた各シーンの台詞情報は、第1の情報取得器7Aで抽出されたのちファイル管理器9に記憶される。ここでは、台詞情報は、撮影支援情報として用いられる。
Dialogue information of each scene is input to the program
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影に際してマイク4が収録する音声情報(出演者の台詞情報)は、音声認識器30によって音声認識処理されてテキストデータ(台詞)に変換されたのち、そのテキストデータ(台詞)は、ファイル管理器9に出力される。ファイル管理器9は、供給されるテキストデータ(台詞)と、予め記憶している各シーンの台詞情報(台本)とを照合することで、収録したクリップを分類する。以上の処理では、台詞情報は撮影支援情報として用いられ、テキストデータ(台詞)は、撮影状況情報として用いられる。マイク4と音声認識器30とから撮影状況取得器が構成される。なお、マイク4は、撮影装置200’に一体に組み込まれたマイクのほか、撮影装置200’に有線/無線で接続された別体のマイクであってもよい。
After performing the above preparatory processing, each clip is shot (recorded). Voice information (line information of performers) recorded by the
さらには、収録支援情報,撮影状況情報として、各クリップにおける背景イメージを用いてもよい。その場合、撮像装置200’’は、図13に示すように、分類テーブル32をさらに備えており、その分類テーブル32には、各シーンの背景イメージ情報(予定)が格納されている。
Furthermore, the background image in each clip may be used as recording support information and shooting situation information. In that case, the
各シーンの背景イメージ情報(予定)は、例えば、映像番組の企画立案者等によって各シーンの撮影場所が下見される際に予め任意の撮影装置を用いて撮影されたうえで、番組構成入力装置100に入力される。番組構成入力装置100に入力された各シーンの背景イメージ情報(予定)は、ここで第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’’に取り込まれる。第1の記録媒体16を介して撮影装置200’’に取り込まれた各シーンの背景イメージ情報(予定)は、第1の情報取得器7Aで抽出されたのちファイル管理器9を介して分類テーブル32に記憶される。分類テーブル32は、各背景イメージ情報(予定)を各シーンに対応付けた状態で記憶する。
The background image information (schedule) of each scene is, for example, photographed by using an arbitrary photographing device in advance when the photographing place of each scene is previewed by a planner or the like of a video program, and then the program
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影により得られた映像情報は、映像ファイル生成器10からファイル管理器9に出力される。ファイル管理器9は、供給される映像データと、予め分類テーブル32に記憶している各シーンの背景イメージ情報(予定)とを映像照合することで、収録したクリップを分類する。
After performing the above preparatory processing, each clip is shot (recorded). Video information obtained by shooting is output from the
以上の処理では、背景イメージ情報(予定)は撮影支援情報として用いられ、実際に撮影した映像情報は、撮影状況情報として用いられる。撮像器1と記録映像信号処理器2と映像ファイル生成器10とから撮影状況取得器が構成される。
In the above processing, background image information (schedule) is used as shooting support information, and video information actually shot is used as shooting status information. The
さらには、図12に示す音声認識器31を用いれば、次に説明する、さらなる詳細なクリップ分類処理を実施することができる。
Furthermore, if the
撮影されたクリップの良悪に関する粗判断は、撮影管理者(撮影監督)によって、収録直後の映像収録現場において行われる。粗判断は、例えば、出演者の演技の出来などを基準にして実施される。したがって、撮影後における撮影管理者(撮影監督)の収録構想の中では、各収録クリップは、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとに既に粗分類されている。 Coarse judgment on the quality of the clip taken is made by the shooting manager (shooting director) at the video recording site immediately after recording. The rough judgment is performed based on, for example, the performance of the performer. Therefore, in the recording concept of the shooting manager (shooting director) after shooting, each recorded clip is already roughly classified into a candidate clip that can be a component (scene) of a video program and a non-candidate clip that is not. .
以上の撮影手順に基づき撮影現場では、一般にクリップ撮影直後において、撮影管理者(撮影監督)が大声で”OK”と発声したクリップは、映像番組の構成要素(シーン)となりうる候補クリップとして粗判断されたとみなされる。このことを利用して、次のようにしてファイル管理器9は、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとを分類する。
Based on the above shooting procedure, generally in the shooting site, a clip that is uttered “OK” by a shooting manager (shooting director) immediately after shooting a clip is roughly determined as a candidate clip that can be a component (scene) of a video program. It is considered to have been done. By utilizing this, the
音声認識器31は、マイク4が収録した音声情報を常時音声認識処理によりテキストデータ化してファイル管理器9に供給する。ファイル管理器9は、音声認識器31から供給される音声認識結果(テキストデータ)において、撮影管理者(撮影監督)の”OK”音声が存在するか否かを判断する。そして、ファイル管理器9は、”OK”音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、OK”音声が存在しないクリップを映像番組の構成要素(シーン)となりえない非候補クリップに分類する。なお、撮影管理者(撮影監督)の”OK”音声は、クリップ撮影直後に発せられるため、ファイル管理器9は、クリップ撮影末尾位置においてOK”音声が存在するか否かを判断することで、誤判定(台詞内にOK音声が存在した場合の誤認識等)を防いで判定精度を高めることができる。
The
また、上述した説明では、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断を、撮影管理者(撮影監督)の”OK”音声の有無により実施していたが、図14を参照して次に説明するようにしてもよい。すなわち、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断は、撮影管理者(撮影監督)の”OK”音声の他、撮影管理者(撮影監督)によるそのクリップの内容判断が良好なものを示す複数の音声により実施してもよい。良好なものを示す複数の音声としては、”最高”,”上々”,”グッド”,”まずまず”等が挙げられるが、撮影管理者(撮影監督)の口癖によっては他にも種々のものが存在する。そこで、図14に示す撮像装置200’’’では、分類テーブル33をさらに備えている。撮像装置200’’’の撮影作業者は、予め、撮影を担当する撮影管理者(撮影監督)が良好なクリップ撮影結果が得られた場合に発する単語を調べておいて、分類テーブル33に登録しておく。そして、ファイル管理器9は、クリップ撮影時において、音声認識器31から供給される音声認識結果(テキストデータ)と、分類テーブル33に登録している単語(撮影管理者(撮影監督)が良好と思う場合に発する単語)とを照合することで、撮影結果が良好な場合に発する音声を撮影管理者(撮影監督)が発声したか否かを判断する。そして、ファイル管理器9は、良好な場合に発する音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、良好な場合に発する音声が存在しないクリップを映像番組の構成要素となりえない非候補クリップに分類する。
In the above description, the candidate clip that can become a component (scene) of a video program is determined based on the presence / absence of “OK” sound from the shooting manager (shooting director). See FIG. Then, it may be explained next. That is, the candidate clip that can be a component (scene) of a video program is determined by the shooting manager (shooting director) 's “OK” sound and the shooting manager (shooting director) determines the contents of the clip. You may implement by the some audio | voice which shows a thing. Examples of multiple voices that indicate good ones include “best”, “excellent”, “good”, “decent”, etc. Exists. Therefore, the
以上の評価処理を行う場合、マイク4と音声認識器31とから評価入力器が構成される。また、撮影結果が良好な場合に発する音声の認識結果(テキストデータ)から収録状況評価が構成される。
When performing the above evaluation process, the
なお、評価入力器を構成するマイクは、撮影装置200に接続された撮影用のマイク4だけではなく、有線/無線通信により撮影装置200に接続されたうえで撮影管理者(撮影監督)が携帯する携帯型のマイクから構成することもできる。
Note that the microphone constituting the evaluation input device is not only the shooting
また、上述した説明では、マイク4や携帯型のマイクで収集される撮影管理者(撮影監督)の音声を音声認識器31でテキストデータに変換したうえで、分類テーブル33内の単語に照合させることで、その映像クリップを評価判定(分類)していた。しかしながら、収集した撮影管理者(撮影監督)の音声をテキストデータに変換することなく、音声のままで評価判定してもよい。この場合、分類テーブル33には、撮影結果が良好な場合に撮影管理者(撮影監督)が発する音声データそのものが格納される。ファイル管理器9は、収集した撮影管理者(撮影監督)の音声と分類テーブル33に格納している音声データとを音声データ同士で照合することで評価判定(分類)する。照合は、例えば、声紋を比較することで実施される。
In the above description, the voice of the shooting manager (shooting director) collected by the
また、撮影管理者(撮影監督)による評価入力は音声入力だけでなく、この他、有線/無線通信により撮影装置200に接続された評価入力器(図示省略)を撮影管理者(撮影監督)が携帯しながらクリップ撮影を行い、撮影直後に、撮影管理者(撮影監督)が評価入力器に対してボタン操作を実施して評価入力してもよい。その場合、評価入力器に入力される評価情報(収録状況評価)は、有線/無線通信を介して撮影装置200のファイル管理器9に供給される。
The evaluation input by the imaging manager (imaging director) is not limited to voice input. In addition, the imaging administrator (imaging director) connects an evaluation input device (not shown) connected to the
(実施の形態2)
図15は本発明の実施の形態2における撮影装置のブロック構成図である。
(Embodiment 2)
FIG. 15 is a block configuration diagram of the photographing apparatus according to the second embodiment of the present invention.
本発明の実施の形態2の撮影装置は、図2に示す実施の形態1の構成に加え、映像ファイル再生器18、映像信号合成器19、表示器としてのビューファインダー20を備える。
The imaging apparatus according to the second embodiment of the present invention includes a
本発明の撮影装置を用いてビューファインダー20に撮影映像と予め記録された映像の合成表示を行いながら、撮影映像信号を記録媒体に記録する動作について説明する。
An operation of recording a photographic video signal on a recording medium while combining and displaying a photographic video and a pre-recorded video on the
第1の記録媒体16から第nの記録媒体17のいずれかの中に予め記録された映像ファイルが記録再生制御器13によって読み出される。読み出された映像ファイルは映像ファイル再生器18を用いて再生される。映像信号合成器19によって、映像ファイル再生器18を用いて再生された映像信号と、撮像器1によって撮像され記録映像信号処理器2によって信号処理を行われた映像信号とが合成される。合成された映像信号はビューファインダー20に表示される。一方、映像信号合成器19によって合成される信号とは別に、記録映像信号処理器2から出力される映像信号は、映像信号符号化器3によって符号化される。またマイク4より音声信号が出力される。記録音声処理器5によってマイクより出力された音声信号に信号処理を行ったうえで、音声信号符号化器6によって符号化される。符号化された映像信号と、符号化された音声信号とは、映像ファイル生成器10、及び音声ファイル生成器11によって所定のファイル形式によって記録媒体に記録される。このとき記録される映像ファイルは予め記録されていた映像ファイルとは別ファイルに記録される。
A video file recorded in advance in any of the
この動作について図16を参照して説明する。 This operation will be described with reference to FIG.
記録媒体に予めクロマキー合成などに用いる映像を記録しておく。予め記録しておいた映像信号を再生する。再生と同時に合成する映像を撮影する。予め記録された映像信号と撮影された映像信号とは合成され、ビューファインダー20上に表示される。撮影された映像信号は予め記録された映像信号とは別に符号化され、映像ファイルとなる。記録媒体から予め記録された映像信号を読み出しながら、撮影された映像信号を記録媒体に記録する。
An image used for chroma key composition or the like is recorded in advance on a recording medium. Play a pre-recorded video signal. Shoot the video to be synthesized at the same time as playback. The prerecorded video signal and the captured video signal are combined and displayed on the
以上のように本実施の形態によれば、最終的にはクロマキー合成などの加工処理を行うことを目的とした映像を撮影する場合に、予め記録媒体に記録された合成用に使用する映像と、撮影された映像とを撮影装置内で合成処理し、合成された映像をビューファインダー20等の表示器で表示して確認しながら撮影を行うことにより、収録の段階で、合成処理を施した最終的な形の映像として撮影した映像を評価することが可能となる。したがって、記録媒体を収録現場から持ち帰って、実際に編集、加工処理を行ってから撮影した映像を評価するのに対して、迅速かつ確実に最適な映像を選択することができる。また、記録媒体に記録される撮影された映像信号と、予め記録されている映像信号とは別ファイルになっており、かつ記録媒体に記録される映像信号は合成処理が行われていない撮影した映像信号そのものであるため、撮影後に行う編集作業の自由度を広げることが可能となる。
As described above, according to the present embodiment, when shooting a video for the purpose of performing processing such as chroma key synthesis, the video used for the synthesis recorded in advance on the recording medium is used. The shot image is synthesized in the shooting device, and the shot image is displayed on the display device such as the
尚以上一連の実施の形態における映像信号の符号化は、DV規格やMPEG2規格など、高効率な符号化が考えられるが、符号化の規格であれば如何なる規格でも良く、例えば、MPEG4,JPEG2000,Motion JPEG2000等の規格であっても良い。 The video signal encoding in the series of embodiments described above may be highly efficient encoding such as DV standard or MPEG2 standard, but any standard may be used as long as it is an encoding standard. For example, MPEG4, JPEG2000, Standards such as Motion JPEG2000 may be used.
また、装填器は、種類の異なるカードスロットを設けて、タイプの異なるカード状記録媒体を着脱可能とする構成としても良い。例えば、高解像度の再生映像を得る高ビットレートのビットストリームをPCカード TYPE1,TYPE2,もしくは、TYPE3の形状をした大容量、高転送速度のメモリカードパックに記録し、低解像度の再生映像が得られる低ビットレートのビットストリームを切手サイズの比較的容量の小さいSDメモリカード等のメモリカードに記録する等の方法が考えられる。 Further, the loading device may be configured such that different types of card slots are provided so that different types of card-like recording media can be attached and detached. For example, a high bit rate bit stream that provides high resolution playback video is recorded in a large capacity, high transfer speed memory card pack in the shape of a PC card TYPE1, TYPE2, or TYPE3, resulting in low resolution playback video. For example, a low bit rate bit stream can be recorded on a memory card such as an SD memory card having a relatively small stamp size.
更に、上述した各実施形態においては、第1の装填器に装填される第1の記録媒体に収録支援情報を予め記録しておいたが、特定の装填器に装填される記録媒体のみに収録支援情報をまとめて記録しておかなくてもよく、例えば、複数の収録支援ファイルを複数の記録媒体に分けて記録しておいても良い。 Further, in each of the embodiments described above, the recording support information is recorded in advance on the first recording medium loaded in the first loading device, but is recorded only in the recording medium loaded in the specific loading device. The support information need not be recorded together. For example, a plurality of recording support files may be divided and recorded on a plurality of recording media.
また、記録媒体は、PCIバスなどの汎用バスに設けられた複数の装填器に着脱する構成としても良い。 The recording medium may be configured to be attached to and detached from a plurality of loaders provided in a general-purpose bus such as a PCI bus.
本発明の撮影装置は、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる映像音声情報を収録する、複数の着脱可能な記録媒体を装填可能な撮影装置等として有用である。 The shooting device of the present invention improves the efficiency of the entire program production process by shortening the production time by making efficient and optimal recording of the material using metadata in the production workflow. The present invention is useful as a photographing apparatus or the like that can record a plurality of detachable recording media that record video / audio information that can realize cost reduction.
1 撮像器
2 記録映像信号処理器
3 映像信号符号化器
4 マイク
5 記録音声信号処理器
6 音声信号符号化器
7A 第1の情報取得器
7B 第2の情報取得器
7a 日程情報取得器
7b 人物情報取得器
7c 場所情報取得器
7d 無線発信器
7e 無線受信器
7f GPS測位装置
9 ファイル管理器
10 映像ファイル生成器
11 音声ファイル生成器
12 索引ファイル生成器
13 記録再生制御器
14 第1の装填器
15 第nの装填器
16 第1の記録媒体
17 第nの記録媒体
18 映像ファイル再生器
19 映像信号合成器
20 ビューファインダー
30 内蔵時計
31 音声認識器
32 分類テーブル
33 分類テーブル
100 番組構成入力装置
200 撮影装置
200’ 撮影装置
α 撮影に出演する人物
DESCRIPTION OF
Claims (15)
複数のシーンから構成される映像番組における、映像番組の構成およびシーン毎に設定された情報からなる収録支援情報が入力される入力器と、
前記映像音声情報の撮影時の状況を示す撮影状況情報を取得する撮影状況取得器と、
撮影時に取得した前記撮影状況情報を、撮影前に設定した前記収録支援情報に照合し、前記映像音声情報をシーン毎に分類する管理器と、
を備える撮影装置。A camera that records video and audio information;
In a video program composed of a plurality of scenes, an input device to which recording support information consisting of the configuration of the video program and information set for each scene is input,
A shooting status acquisition unit for acquiring shooting status information indicating the status at the time of shooting of the video and audio information;
A manager that collates the shooting status information acquired at the time of shooting with the recording support information set before shooting, and classifies the video / audio information for each scene ;
An imaging device comprising:
前記撮影状況情報は、前記映像音声情報を実際に撮影した収録日程に関する情報である、
請求項1に記載の撮影装置。The recording support information is information relating to a schedule for photographing the video / audio information,
The shooting status information is information relating to a recording schedule for actually shooting the video and audio information.
The imaging device according to claim 1 .
前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所に関する情報である、
請求項1または2に記載の撮影装置。The recording support information is information related to a recording planned location for photographing the video / audio information,
The shooting status information is information relating to a recording location where the video / audio information is actually shot.
The imaging device according to claim 1 or 2 .
前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物に関する情報である、
請求項1から3の何れかに記載の撮影装置。The recording support information is information on a person scheduled to appear in a video program produced using the video / audio information as a material,
The shooting status information is information about a person who appeared in the video / audio information that was actually shot.
The imaging device according to any one of claims 1 to 3 .
前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物が出演中に喋った台詞に関する情報である、
請求項1に記載の撮影装置。The recording support information is information related to a line scheduled to be spoken by the performer in a video program produced using the video / audio information as a material,
The shooting status information is information about dialogue that a person who appeared in the video / audio information actually shot uttered during the appearance,
The imaging device according to claim 1 .
前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所の背景映像情報である、
請求項1に記載の撮影装置。The recording support information is background video information of a recording planned location for photographing the video / audio information,
The shooting status information is background video information of a recording location where the video / audio information is actually shot.
The imaging device according to claim 1 .
前記映像音声情報と前記索引情報とを着脱可能な記録媒体に記録する記録器と、
をさらに有する請求項1から6の何れかに記載の撮影装置。An index information generator for generating index information for collectively managing the video and audio information based on the classification result of the manager;
A recorder for recording the video / audio information and the index information on a removable recording medium;
The imaging device according to claim 1, further comprising:
前記入力器は、前記記録媒体に書き込まれた前記収録支援情報を読み出し、
前記記録器は、前記収録支援情報が書き込まれた前記記録媒体を他の記録媒体と区別することなく記録用の記録媒体として用いる、
請求項7に記載の撮影装置。The recording support information is written on the recording medium,
The input device reads the recording support information written on the recording medium,
The recorder is used as a recording medium for recording without the recording support information is another recording medium and Gu another said recording medium written,
The imaging device according to claim 7 .
請求項7または8に記載の撮影装置。The index information includes a video information ID and audio information ID that can specify the video / audio information, and a recording medium ID that can specify individual recording media.
The imaging device according to claim 7 or 8 .
請求項7から9の何れかに記載の撮影装置。The recording medium conforms to the PC card standard,
The imaging device according to claim 7 .
請求項7から10の何れかに記載の撮影装置。The recorder is capable of recording different types of PC cards conforming to the PC card standard, and memory cards conforming to the memory card standard including the SD standard .
The imaging device according to claim 7 .
前記管理器は、前記評価入力器に入力される収録状況評価に基づいて、収録した前記映像音声情報をさらに分類する、
請求項1から11の何れかに記載の撮影装置。An evaluation input device that receives an input related to the evaluation of the recording status of the video and audio information executed by the imaging operator;
The manager further classifies the recorded video and audio information based on the recording status evaluation input to the evaluation input device.
The imaging device according to claim 1 .
請求項12に記載の撮影装置。The evaluation input device receives the voice input by the photographer and converts the voice input into the recording status evaluation composed of text data by voice recognition.
The imaging device according to claim 12 .
前記管理器は、前記評価入力器から供給される前記収録状況評価のテキストデータを前記分類テーブルに照合することで、収録した前記映像音声情報をさらに分類する、
請求項12または13に記載の撮影装置。A classification table for classifying the recording status evaluation;
The manager further classifies the recorded video and audio information by collating text data of the recording status evaluation supplied from the evaluation input device with the classification table.
The imaging device according to claim 12 or 13 .
請求項8から14の何れかに記載の撮影装置と、
を備える撮影システム。A program configuration input device that receives input by the creator of the recording support information and records the input recording support information on the recording medium;
The imaging device according to any one of claims 8 to 14 ,
A photographing system comprising:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004121708 | 2004-04-16 | ||
JP2004121708 | 2004-04-16 | ||
JP2004243856 | 2004-08-24 | ||
JP2004243856 | 2004-08-24 | ||
PCT/JP2005/007259 WO2005101825A1 (en) | 2004-04-16 | 2005-04-14 | Imaging device and imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2005101825A1 JPWO2005101825A1 (en) | 2007-08-16 |
JP4580925B2 true JP4580925B2 (en) | 2010-11-17 |
Family
ID=35150351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006512379A Active JP4580925B2 (en) | 2004-04-16 | 2005-04-14 | Imaging apparatus and imaging system |
Country Status (4)
Country | Link |
---|---|
US (1) | US7924325B2 (en) |
EP (1) | EP1742471B1 (en) |
JP (1) | JP4580925B2 (en) |
WO (1) | WO2005101825A1 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0418152D0 (en) * | 2004-08-13 | 2004-09-15 | Rpptv Ltd | Remote program production |
US9032297B2 (en) * | 2006-03-17 | 2015-05-12 | Disney Enterprises, Inc. | Web based video editing |
TWI496470B (en) * | 2008-03-05 | 2015-08-11 | Univ Nat Central | Digital stethoscope for extensive collection of clinical lung tone signals |
JP5075723B2 (en) * | 2008-04-17 | 2012-11-21 | 株式会社日立国際電気 | Metadata editing system, metadata editing program, and metadata editing method |
US8209309B1 (en) * | 2008-08-27 | 2012-06-26 | Bank Of America Corporation | Download detection |
US8391640B1 (en) | 2008-08-29 | 2013-03-05 | Adobe Systems Incorporated | Method and apparatus for aligning and unwarping distorted images |
US8842190B2 (en) | 2008-08-29 | 2014-09-23 | Adobe Systems Incorporated | Method and apparatus for determining sensor format factors from image metadata |
US8368773B1 (en) | 2008-08-29 | 2013-02-05 | Adobe Systems Incorporated | Metadata-driven method and apparatus for automatically aligning distorted images |
US8724007B2 (en) | 2008-08-29 | 2014-05-13 | Adobe Systems Incorporated | Metadata-driven method and apparatus for multi-image processing |
US8194993B1 (en) * | 2008-08-29 | 2012-06-05 | Adobe Systems Incorporated | Method and apparatus for matching image metadata to a profile database to determine image processing parameters |
US8340453B1 (en) | 2008-08-29 | 2012-12-25 | Adobe Systems Incorporated | Metadata-driven method and apparatus for constraining solution space in image processing techniques |
CN102215339A (en) * | 2010-04-01 | 2011-10-12 | 三洋电机株式会社 | Electronic device and image sensing device |
US20140013193A1 (en) * | 2012-06-29 | 2014-01-09 | Joseph John Selinger | Methods and systems for capturing information-enhanced images |
WO2014091484A1 (en) * | 2012-12-11 | 2014-06-19 | Scooltv, Inc. | A system and method for creating a video |
WO2014143534A1 (en) * | 2013-03-14 | 2014-09-18 | Motorola Mobility Llc | Device for real-time recording of audio for insertion in photographic images |
JP6692778B2 (en) * | 2017-07-31 | 2020-05-13 | グリー株式会社 | File system, file system control program, and file system control method |
US11159327B2 (en) * | 2018-08-06 | 2021-10-26 | Tyson York Winarski | Blockchain augmentation of a material exchange format MXF file |
JP2021086340A (en) * | 2019-11-27 | 2021-06-03 | Film Solutions株式会社 | Photographing support system, photographing guide information output method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0934912A (en) * | 1995-07-20 | 1997-02-07 | Sony Corp | Video/audio material recorder |
JP2001077777A (en) * | 1999-09-08 | 2001-03-23 | Sony Corp | Device for recording broadcast program and recording medium |
JP2001292410A (en) * | 2000-04-10 | 2001-10-19 | Sony Corp | Data transmitter, data receiver and data transmission/ reception system |
JP2002077861A (en) * | 2000-09-05 | 2002-03-15 | Nable Research Co Ltd | Internet television broadcast system |
JP2003078868A (en) * | 2001-09-04 | 2003-03-14 | Toshiba Corp | Device and program for supporting media work production |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3744629B2 (en) * | 1996-12-09 | 2006-02-15 | ソニー株式会社 | Index image information correction method and apparatus |
JP3914643B2 (en) | 1998-09-10 | 2007-05-16 | 日本放送協会 | Program information management editing system and hierarchical program information storage management apparatus used therefor |
EP1102271B8 (en) * | 1999-11-05 | 2016-12-07 | Sony Europe Limited | Method of generating audio and/or video signals and apparatus therefore |
JP4792686B2 (en) | 2000-02-07 | 2011-10-12 | ソニー株式会社 | Image processing apparatus, image processing method, and recording medium |
US20030133022A1 (en) | 2002-01-15 | 2003-07-17 | Melton Gerod C. | Digital video editing device and method |
JP3993027B2 (en) * | 2002-06-04 | 2007-10-17 | 富士フイルム株式会社 | Digital camera and photographing system |
JP4010227B2 (en) * | 2002-11-11 | 2007-11-21 | ソニー株式会社 | Imaging apparatus, content production method, program, program recording medium |
JP4418183B2 (en) * | 2003-06-26 | 2010-02-17 | ソニー株式会社 | Information processing apparatus and method, program, and recording medium |
-
2005
- 2005-04-14 JP JP2006512379A patent/JP4580925B2/en active Active
- 2005-04-14 US US11/547,634 patent/US7924325B2/en active Active
- 2005-04-14 WO PCT/JP2005/007259 patent/WO2005101825A1/en active Application Filing
- 2005-04-14 EP EP05730608A patent/EP1742471B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0934912A (en) * | 1995-07-20 | 1997-02-07 | Sony Corp | Video/audio material recorder |
JP2001077777A (en) * | 1999-09-08 | 2001-03-23 | Sony Corp | Device for recording broadcast program and recording medium |
JP2001292410A (en) * | 2000-04-10 | 2001-10-19 | Sony Corp | Data transmitter, data receiver and data transmission/ reception system |
JP2002077861A (en) * | 2000-09-05 | 2002-03-15 | Nable Research Co Ltd | Internet television broadcast system |
JP2003078868A (en) * | 2001-09-04 | 2003-03-14 | Toshiba Corp | Device and program for supporting media work production |
Also Published As
Publication number | Publication date |
---|---|
EP1742471B1 (en) | 2012-07-18 |
US7924325B2 (en) | 2011-04-12 |
EP1742471A1 (en) | 2007-01-10 |
WO2005101825A1 (en) | 2005-10-27 |
EP1742471A4 (en) | 2008-01-09 |
US20080106614A1 (en) | 2008-05-08 |
JPWO2005101825A1 (en) | 2007-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4580925B2 (en) | Imaging apparatus and imaging system | |
JP4711379B2 (en) | Audio and / or video material identification and processing method | |
JP4591982B2 (en) | Audio signal and / or video signal generating apparatus and audio signal and / or video signal generating method | |
JP4803544B2 (en) | Audio / video playback apparatus and method | |
JP4794740B2 (en) | Audio / video signal generation apparatus and audio / video signal generation method | |
US8244104B2 (en) | System for creating content using content project data | |
KR101007508B1 (en) | Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium | |
WO2004002144A1 (en) | Metadata preparing device, preparing method therefor and retrieving device | |
US8301995B2 (en) | Labeling and sorting items of digital data by use of attached annotations | |
WO2007000949A1 (en) | Contents reproduction method and device with reproduction starting position control | |
US20100080536A1 (en) | Information recording/reproducing apparatus and video camera | |
JP2005203881A (en) | Information processing apparatus and method, and program | |
KR20060046638A (en) | Editing device and method, program, and recording medium | |
JP6168453B2 (en) | Signal recording apparatus, camera recorder, and signal processing apparatus | |
US20040103233A1 (en) | Picture program production assistance system | |
CN102474585A (en) | Image processing apparatus and image processing method | |
JP4946935B2 (en) | Imaging device | |
US20060077265A1 (en) | Picture management method, picture management apparatus, picture management system | |
JP4962783B2 (en) | Information processing apparatus, information processing method, and program | |
JP4136491B2 (en) | Playback device | |
JP4404247B2 (en) | Video program production support system, processing apparatus, video program processing method and program | |
CN100574407C (en) | Imaging device and imaging system | |
JP2002027396A (en) | Method for inputting extra information and method for editing video and apparatus and system using these methods | |
JP4672131B2 (en) | Imaging apparatus and program production method | |
JP2006074405A (en) | Video edit surrogate system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100830 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4580925 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |