JPWO2005101825A1 - 撮影装置および撮影システム - Google Patents

撮影装置および撮影システム Download PDF

Info

Publication number
JPWO2005101825A1
JPWO2005101825A1 JP2006512379A JP2006512379A JPWO2005101825A1 JP WO2005101825 A1 JPWO2005101825 A1 JP WO2005101825A1 JP 2006512379 A JP2006512379 A JP 2006512379A JP 2006512379 A JP2006512379 A JP 2006512379A JP WO2005101825 A1 JPWO2005101825 A1 JP WO2005101825A1
Authority
JP
Japan
Prior art keywords
information
recording
video
shooting
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006512379A
Other languages
English (en)
Other versions
JP4580925B2 (ja
Inventor
奥田 信克
信克 奥田
大高 秀樹
秀樹 大高
克幸 坂庭
克幸 坂庭
齋藤 浩
浩 齋藤
田中 俊啓
俊啓 田中
恭敬 上田
恭敬 上田
典巧 吉田
典巧 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2005101825A1 publication Critical patent/JPWO2005101825A1/ja
Application granted granted Critical
Publication of JP4580925B2 publication Critical patent/JP4580925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】映像番組等の素材収録において、効率的かつ最適な素材映像の獲得を行い、収録後の編集工程以降における工数を削減する。【解決手段】予め決定している撮影スケジュールや出演者等の収録支援情報(メタデータ)を番組構成入力装置100によって第1の記録媒体16に記録しておく。第1の記録媒体16を撮影装置200に挿入し、収録する素材をメタデータに基づいて分類及び確認し、最終的な番組の構成に近い形での素材の獲得を収録の時点で行う。

Description

本発明は、記録媒体等に予め記録されたのち当該撮影装置に入力される収録支援情報に基づいて、映像音声情報を収録する撮影装置や撮影システムに関する。
テレビジョン放送、あるいは各種パッケージメディアで提供される映像番組は、映像番組の企画立案、映像番組を構成するために必要な映像音声情報(素材)の収録、および素材を編集して最終的な映像番組を構成するための編集という一連の工程(ワークフロー)を経て制作される。企画工程は、どのような映像番組を制作するかを企画、立案する工程であり、この段階で番組構成,番組情報などが決定される。収録工程は、企画工程で決められた番組構成に基づいて、必要な素材を撮像機器(例えばカメラ一体型VTR)で各種記録媒体に記録する工程であり、編集工程においては、収録された素材の中から必要な素材を組み合わせて最終的な映像番組が形作られる。
これらの各工程においては、映像信号や音声信号だけでなく、映像番組、素材に関連した各種情報(以後メタデータと記す)が企画工程で生成される。具体的には、企画工程において、映像番組の構成、素材に必要とされる情報(出演者、収録条件など)などのメタデータ(企画)が生成される。
素材の収録工程は、このようにして生成されるメタデータ(企画)に基づいて、素材の収録がなされる。素材の収録工程では、素材の獲得時点(収録地点)において、素材の付加情報(撮影時間,撮影場所,撮影者など)が自動あるいは人間の手によって作製されて登録される。素材に関する付加情報は素材と関連づけられて記録媒体に保存される。
編集工程は、素材のどの部分を使用して映像番組を構成するかを決定するオフライン編集(粗編集)と、オフライン編集によって生成された編集情報(EDL:Edit Decision List)等の編集用メタデータに基づいて、実際の編集を行うオンライン編集の2つのステップからなる。オンライン編集によって最終的な映像番組が完成し、制作の途中段階で生成された各種メタデータは、何らかの形で映像番組、映像番組を構成する各素材と関連づけがなされ、データベースに登録されて保存される。
以上説明したような番組制作工程における収録工程で生成されるメタデータ、及びその生成、記録方法に関しては、映像及び音声等の素材を収録し、これらの素材を編集、加工して映像番組を制作し、さらに完成した映像番組を保管するシステムにおいて、従来から次の構成がある。なお、以下の説明では、本願発明と用語を統一するため、以下の従来例の説明で用いる計画、取材などの用語は、本願発明の説明で用いる企画、収録の用語に変更している。
まず、素材の収録工程において、素材を詳細に説明するためのメタデータを生成し、記録媒体に入力する。収録工程において素材に付加されるメタデータは2種類ある。一番目のデータは、撮影開始,終了時間,撮影場所(地名),撮影者などの企画工程であらかじめ決定されたメタデータである。これらのメタデータは無線通信により撮像装置に送信される。撮像装置では受信したそれらのメタデータを一旦メモリに記憶し、実際に素材を収録する際には、メタデータを前記メモリから読み出し、収録した素材と読み出したメタデータとを関連付けて記録媒体に記録する。
二番目のデータは、撮影と同時に生成されて記録媒体に記録されるメタデータである。これら2番目のデータは、GPS(Global Positioning System)で検出される位置情報(緯度,経度,高度)や時刻情報,収録場所の地名,撮影機材の情報(機材ID),レンズ情報などのカメラセットアップ情報,素材を識別するためのUMID(Unique Material IDentifier)などがある。
収録工程で素材とともに記録媒体に記録されたメタデータは、後工程で利用されるとともに、素材と関連づけられてアーカイブに保管される。このように、従来の撮影装置は、素材に関連するメタデータを効率良く生成して、素材とともに記録媒体に記録している。企画工程で設定可能なメタデータ(上記1番目のデータ)は、収録前に予め撮像機器側に入力しておく。素材の獲得時点で初めて取得できるメタデータ(上記2番目のデータ)は、収録時に素材と同時に記録することにより、収録が終了した段階では、素材と素材に関連する必要なメタデータとが記録媒体に記録される。これらの素材用のメタデータは、後の工程あるいはアーカイブにおいて例えば素材を検索するためのメタデータとして使用される。
(特許文献1,2参照)
特開2001−292410号 特開2000−92419号
番組制作は、収録した素材を後工程で編集,加工して最終的な映像番組を完成するものである。そのため、収録の段階においても最終的な映像番組の構成,各種加工処理を意識した素材の獲得が必要とされる。これに対して、上記従来の撮影システム(特許文献1)は、単に必要な素材を複数カット収録し、同時にメタデータを記録するだけであって、収録を支援する情報を利用した、効率的かつ最適な素材の獲得作業を従来の撮影システムで行うことはできない。例えば、収録段階において、現在収録している素材(シーン)が、最終的な映像番組の中で他のシーンとどのようにつながり、またどのような加工処理が施されるかを意識した形で素材を収録することは困難であった。
そのため、収録工程においては、とりあえず必要なシーンを複数カット記録しておき、収録終了後の編集工程において収録した多数の素材を整理/管理し、さらに映像番組を構成する上で最適な素材を選別して、各シーンをつなぎ合わせ加工処理を施して最終番組を作成する作業を行っている。このような理由により、従来の撮影システムを用いた番組制作では、結果的に収録後の編集工程以降において多大な作業時間を必要としていた。
また、上記従来の撮影システム(特許文献2)は、収録した素材が映像番組のどのシーンに対応するかを示す情報を収録素材に付与する構成が開示されている。しかしながら、この構成において前記対応を示す情報は手入力によって撮影作業者が撮影装置に入力しなければならず、作業が煩雑になるのは避けられない。
上記課題を解決するために本発明の撮影装置は、映像音声情報を収録する撮影器と、前記映像音声情報の収録支援情報が入力される入力器と、前記収録支援情報に基づいて前記映像音声情報を分類する管理器とを有する。前記入力器に入力される前記収録支援情報を保持したうえで前記撮影器により前記映像音声情報の収録を行い、前記管理器は、前記映像音声情報の撮影時に取得される当該映像音声情報の撮影時の状況を示す撮影時状況情報を前記収録支援情報に照合することで、収録した前記映像音声情報を分類する。
この場合、前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の構成に関する情報であり、前記管理器は、前記映像番組の構成に関する情報に基づいて、各映像音声情報を分類するのが好ましい。そうすれば、映像番組の作製時に作られる映像音声情報を自動的に精度高く分類することが可能となる。
また、この場合、前記映像番組は複数のシーンから構成されるとともに、これらシーン毎に前記収録支援情報は設定されており、前記管理器は、前記映像番組の構成に関する情報に基づいて、各映像音声情報を前記シーン毎に分類するのが好ましい。そうすれば、映像音声情報をシーン毎に精度高く分類することができる。
装置構成としては、具体的には、次のように構成できる。すなわち、前記撮影器による前記映像音声情報の撮影時の撮影状況情報を取得する撮影状況取得器をさらに有し、前記管理器は、前記収録支援情報を前記撮影状況情報に照合することで、前記映像音声情報を分類する。
また、前記収録支援情報は、前記映像音声情報を撮影する日程予定に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録日程に関する情報であれば、映像音声情報を撮影日程に基づいて分類できる。
また、前記収録支援情報は、前記映像音声情報を撮影する収録予定場所に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所に関する情報であれば、映像音声情報を撮影場所に基づいて分類できる。
また、前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の出演予定人物に関する情報であり、前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物に関する情報であれば、映像音声情報を出演人物に基づいて分類できる。
また、前記管理器の分類結果を基に、前記映像音声情報を一括管理する索引情報を生成する索引情報生成器と、前記映像音声情報と前記索引情報とを着脱可能な記録媒体に記録する記録器とをさらに備えれば、分類結果を、映像音声情報に関連付けて記録媒体に記録することができる。
前記収録支援情報は例えば、前記記録媒体に書き込んだ状態で撮影装置に入力することができる。そうすれば、収録支援情報が書き込まれた記録媒体を他の記録媒体と区別することなく記録器における記録媒体として用いることができる。
なお、撮影作業者によって実行される前記映像音声情報の収録状況の評価に関する入力を受け付ける評価入力器をさらに有し、前記管理器は、前記評価入力器に入力される収録状況評価に基づいて、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、映像音声情報を収録状況評価に基づいてさらに詳細に分類することができる。
なお、前記評価入力器は、撮影作業者による音声入力を受け付けたうえで当該音声入力を音声認識によりテキストデータからなる前記収録状況評価に変換すれば、撮影管理者(撮影監督)の音声により収録状況評価を行うことができ、収録状況評価の入力が容易になる。
なお、前記収録状況評価の分類テーブルをさらに備えており、前記管理器は、前記評価入力器から供給される前記収録状況評価のテキストデータを前記分類テーブルに照合することで、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、一つではない複数の収録状況評価によって映像音声情報をさらに詳細に分類することが可能となる。
このような本発明の構成を実施するうえでは、本発明の撮影装置に加えて、前記収録支援情報の作成者による入力を受けるとともに、入力される前記収録支援情報を前記記録媒体に記録する番組構成入力装置を備えて撮影システムを構成するのが好ましい。
なお、本発明における映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。
本発明によれば、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる。
本発明の実施の形態1における撮影システムの構成図である。 本発明の実施の形態1における撮影装置のブロック構成図である。 本発明の番組構成情報の模式図である。 本発明の収録日程情報(予定)の模式図である。 本発明の収録人物情報(予定)の模式図である。 本発明の収録場所情報(予定)の模式図である。 本発明の収録クリップと収録クリップに付帯する撮影状況情報の対応図である。 本発明の各シーンと各シーンを構成するクリップの関係図である。 本発明の収録前と収録後の記録媒体における記録内容の対比図である。 本発明における索引ファイルの内容の一例を示す模式図である。 編集リストの一例を示す図である。 実施の形態1の第1の変形例における撮影装置の構成図である。 実施の形態1の第2の変形例における撮影装置の構成図である。 実施の形態1の第3の変形例における撮影装置の構成図である。 本発明の実施の形態2における撮影装置のブロック構成図である。 本発明の実施の形態2における動作の説明図である。
符号の説明
1 撮像器
2 記録映像信号処理器
3 映像信号符号化器
4 マイク
5 記録音声信号処理器
6 音声信号符号化器
7A 第1の情報取得器
7B 第2の情報取得器
7a 日程情報取得器
7b 人物情報取得器
7c 場所情報取得器
7d 無線発信器
7e 無線受信器
7f GPS測位装置
9 ファイル管理器
10 映像ファイル生成器
11 音声ファイル生成器
12 索引ファイル生成器
13 記録再生制御器
14 第1の装填器
15 第nの装填器
16 第1の記録媒体
17 第nの記録媒体
18 映像ファイル再生器
19 映像信号合成器
20 ビューファインダー
30 内蔵時計
31 音声認識器
32 分類テーブル
33 分類テーブル
100 番組構成入力装置
200 撮影装置
200’ 撮影装置
α 撮影に出演する人物
以下、本発明の実施の形態について、図1〜15を参照して説明する。各実施の形態における撮影装置では、映像音声情報をファイルとして記録し、更に、編集装置とのデータの親和性を考慮して映像、音声のデータを別ファイルで記録することとする。つまり、撮影時に複数のファイルが同時生成されることになる。このように同時に生成された映像、音声のファイルはまとめてクリップと呼ばれる。このクリップは、映像,音声以外に、サムネール(映像の縮小見本)やその他メタデータが関連付けられることもある。また、クリップの構成要素である映像,音声のファイルはエッセンスファイルと呼ばれる。また、この撮像装置で扱われる映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。すなわち、一般的に映像音声情報とは、映像情報と音声情報との両方を含むものであるが、映像情報だけからなる情報も、本発明では映像音声情報の一つと見なす。
(実施の形態1)
図1は本発明の実施の形態1における撮影システムの構成図であり、図2はその撮影システムを構成する撮影装置200のブロック構成図である。この撮影システムは、番組構成入力装置100と、撮影装置200とを備える。
番組構成入力装置100は、映像番組の企画案を入力する入力装置であって、例えば、映像番組の企画立案支援用のソフトウェアがインストールされたパーソナルコンピュータから構成される。
撮影装置200は、撮像器1、記録映像信号処理器2、映像信号符号化器3、集音器としてのマイク4、記録音声信号処理器5、音声信号符号化器6、第1の情報取得器7A、第2の情報取得器7B、ファイル管理器9、映像ファイル生成器10、音声ファイル生成器11、索引ファイル生成器12、記録再生制御器13、第1の装填器14、第nの装填器15、第1の記録媒体16、及び、第nの記録媒体17を備える。
撮像器1と記録映像信号処理器2と映像信号符号化器3とマイク4と記録音声信号処理器5と音声信号符号化器6と映像ファイル生成器10と音声ファイル生成器11とは撮影器の一例を構成する。しかしながら、これらの構成は撮影器の一例に過ぎず、一般的な他の撮影器の構成であってもよいのはいうまでもない。
記録再生制御器13と第1〜第nの装填器14〜15とは、記録器を構成する。しかしながら、これらの構成は記録器の一例に過ぎず、一般的な他の記録器の構成であってもよいのはいうまでもない。
第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる番組構成情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう番組構成情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータである。番組構成情報の詳細については後述する。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録日程情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録日程情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録日程情報(予定)という。収録日程情報(予定)の詳細については後述する。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録人物情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録人物情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録人物情報(予定)という。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録場所情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録場所情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録場所情報(予定)と称する。収録場所情報(予定)の詳細については後述する。
第2の情報取得器7Bは、日程情報取得器7a、人物情報取得器7b、および場所情報取得器7cを備える。
日程情報取得器7aは、映像撮影時において、その撮影時における日時情報を生成してファイル管理器9に出力する。撮影時における収録日程情報は撮影状況情報の一つであって、以下、撮影時における収録日程情報を収録日程情報(撮影)という。
人物情報取得器7bは、映像撮影時において、その撮影に出演する人物情報を取得してファイル管理器9に出力する。撮影時における収録人物情報は撮影状況情報の一つであって、以下、撮影時に実際に撮影に出演する人物情報を収録人物情報(撮影)という。人物情報取得器7bによる収録人物情報(撮影)の生成管理は、例えば次のようにして実施される。すなわち、図2に示すように、予め、撮影に出演する人物αに無線発信器7dを装着させる。無線発信器7dには、人物特定情報(人物ID番号)が予め登録されており、撮影時に撮影装置200に向けて人物特定情報(人物ID番号)が付加された無線信号を送信する。人物情報取得器7bは、無線受信器7eを備えており、撮影時において無線受信器7eが無線信号を受信すると、人物情報取得器7bは、受信した無線信号から人物特定情報(人物ID番号)を抽出することで収録人物情報(撮影)を生成し、生成した収録人物情報(撮影)をファイル管理器9に出力する。
場所情報取得器7cは、映像撮影時において、その撮影場所情報を取得してファイル管理器9に出力する。撮影時における収録場所情報は撮影状況情報の一つであって、以下、撮影時における実際の収録場所情報を収録場所情報(撮影)という。場所情報取得器7cによる収録場所情報(撮影)の管理は、例えば次のようにして実施される。すなわち、場所情報取得器7cは、GPS(Global Positioning System)に基づいて現在地を測位するGPS測位装置7fを備えており、場所情報取得器7cは、撮影時におけるその場所(撮影場所)をGPS測位装置7fにより測位することで、収録場所情報(撮影)を作成して、ファイル管理器9に出力する。
本実施形態では、第1の情報取得器7Aと記録再生制御器13と第1の装填器14とから入力器の一例が構成され、第2の情報取得器7Bから撮影状況取得器の一例が構成され、ファイル管理器9から管理器の一例が構成される。
図3は、映像番組の企画立案者によって番組構成入力装置100に入力される番組構成情報の模式図である。図3に示されるように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成される。この図では、シーン1からシーン50までの50個のシーンによって、一つの映像番組が構成されていることが分かる。映像番組の企画立案者は、まず、シナリオ等に基づいてこのような番組構成を構想したうえで、構想した番組構成を番組構成入力装置100に入力する。番組構成入力装置100に入力された番組構成情報は番組構成入力装置100が有する図示しない記録装置に記録される。
図4は、映像番組の企画立案者によって番組構成入力装置100に入力される収録日程情報(予定)の模式図である。図4に示されるように、各シーンの収録順序は、番組構成の順番とは異なるのが普通である。出演人物(俳優)の日程や、天候の状態、または、ロケ地やスタジオの予約状況など、様々な要因により、収録できるシーンから収録していくことになるが、通常、その収録日程は、途中変更があるにせよ、収録が始まる前に予め分かっている。映像番組の企画立案者は、予め分かっている収録予定に基づいて収録日程情報(予定)を構想したうえで、構想した収録日程情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録日程情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
図4では、最初にシーン48が収録され、次にシーン10が収録される。そして、その後にシーン29が収録され、最後にシーン3が収録される予定となっている。また、図中の表に記載されているように、各シーンには、それぞれ、各シーンの収録期間が設定されている。例えば、シーン48では開始日時S1から終了日時E1の間に収録がなされる予定となっており、シーン48を構成する所望のクリップが、このシーン収録期間中に、いくつか収録される予定が組まれている。同様に、シーン10では開始日時S2から終了日時E2の間、シーン29では開始日時S3から終了日時E3の間、最後のシーン3では開始日時S50から終了日時E50の間に収録がなされる予定となっており、各シーンの収録期間内に、各シーンを構成する所望のクリップがシーン毎にいくつか収録される予定が組まれている。
図5は、映像番組の企画立案者によって番組構成入力装置100に入力される収録人物情報(予定)の模式図である。図5に示されるように、各シーンに出演する出演人物(俳優等)は、収録が始まる前(シナリオ確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録人物情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録人物情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
図5では、最初に収録されるシーン48において、人物イ,ロ,ハが出演し、次に収録されるシーン10では、人物イ,ロ,ホ,ヘ,トが出演する。他のシーンにおいても同様に、出演人物が記録される。なお、番組構成入力装置100の表示画面では、図5に示すように、人物名によって出演人物が表示管理される。しかしながら、出演予定人物それぞれには、予め、固有の人物ID番号が付与されており、番組構成入力装置100の内部において出演人物は、この人物ID番号に基づいて登録管理される。
図6は、映像番組の企画立案者によって番組構成入力装置100に入力される収録場所情報(予定)の模式図である。図6に示されるように、各シーンが撮影される場所は、収録が始まる前(収録日程確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録場所情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録場所情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。なお、番組構成入力装置100の表示画面では、図6に示すように、場所名によって収録場所が表示管理される。しかしながら、番組構成入力装置100の内部において収録場所は、緯度/経度/高度をそれぞれ示す数値情報に基づいて登録管理される。
図6では、最初に収録されるシーン48は、収録場所として、場所(1)が登録されており、次に収録されるシーン10では、収録場所として、場所(2)が登録されている。他のシーンにおいて同様に、収録場所が記録される。
本実施形態において収録支援情報は、図3に示す番組構成情報と、図4に示す収録日程情報(予定)と、図5に示す収録人物情報(予定)と、図6に示す収録場所情報(予定)とを含んで構成される。また、本実施形態において撮影状況情報は、収録日程情報(撮影)と、収録人物情報(撮影)と、収録場所情報(撮影)とを含んで構成される。
番組構成入力装置100には、第1の記録媒体16の記録再生装置(図示省略)が組み込まれており、映像番組の企画立案者によって番組構成入力装置100に入力される収録支援情報は、番組構成入力装置100によって第1の記録媒体16に記録される。収録支援情報が記録された第1の記録媒体16は、映像番組の撮影担当者によって番組構成入力装置100から取り出されたのち、撮影装置200の第1の装填器14に装填される。
第1の記録媒体16が第1の装填器14に装填されると、記録再生制御器13が、第1の記録媒体16から収録支援情報を読み出し、さらに、読み出した収録支援情報から第1の情報取得器7Aが、番組構成情報と、収録日程情報(予定)と、収録人物情報(予定)と、収録場所情報(予定)とを抽出する。抽出されたこれらの情報は、ファイル管理器9に入力される。ファイル管理器9は、これらの情報を記録して、映像番組を構成するシーン毎にクリップを分類して一括管理する際の分類基準情報として活用する。
なお、収録支援情報を伝達する構成は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に伝達する構成だけではない。例えば、番組構成入力装置100と撮影装置200とを有線/無線で相互通信可能に接続したうえで、番組構成入力装置100から撮影装置200に伝達してもよい。
さらには、収録支援情報は、入力装置100から撮影装置200に伝達させたのち、撮影装置200内の記録媒体にいったん記録させてから用いてもよいし、収録支援情報が必要となるたびに入力装置100から撮影装置200に伝達させる(例えば、有線/無線のネットワーク経由で取り込む)ようにしてもよい。
以上の収録準備が完了して収録が開始されると、撮像器1において光信号が撮像素子により電気信号に変換され、その後、記録映像信号処理器2に入力される。記録映像信号処理器2ではガンマ処理や、ニー処理等の信号処理が施され、デジタル映像信号として出力される。記録映像信号処理器2から出力された原映像のデジタル映像信号は、映像信号符号化器3に入力され、所定の方式により符号化が為されて、映像符号化ビットストリームとして出力される。
映像信号符号化器3から出力された映像符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、映像ファイル生成器10により所定のファイル形式の映像ファイルとしてファイル生成される。
一方、マイク4において音声が電気信号に変換され、マイク4から出力された音声信号が記録音声信号処理器5に入力される。記録音声信号処理器5では、マイク4から出力された音声信号をアンプにて増幅し、アンプから出力された音声信号はA/Dコンバータに入力されてデジタル信号に変換される。記録音声信号処理器5から出力されたデジタル音声信号は、音声信号符号化器6に入力され、ここで例えば、MPEGオーディオ、AC−3等の所定の方式により符号化が為されて、音声符号化ビットストリームとして音声信号符号化器6から出力される。
音声信号符号化器6から出力された音声符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、音声ファイル生成器11により所定のファイル形式の音声ファイルとしてファイル生成される。
また、ファイル管理器9により管理されるファイル管理情報を基に、1クリップを形成するのに必要な各映像ファイル、音声ファイルを索引出来るように、必要な情報を一括りにしてクリップ毎に管理する索引ファイルが索引ファイル生成器12により所定のファイル形式で生成される。
各ファイル生成器10,11,12で生成される映像,音声,索引の各ファイルのデータは、記録再生制御器13に入力され、各ファイルのデータの記録が制御される。記録再生制御器13に入力される映像ファイルと音声ファイル、及び、索引ファイルの各ファイルのデータは、記録媒体のECCブロック単位や消去単位等をクラスタ単位としたクラスタの整数倍を基本単位として、インターリーブされて、第1の装填器14を介して第1の記録媒体16に記録される。
第1の記録媒体16に記録していくクリップが多くなって、1つの記録媒体に収まり切らなくなると、順次、次の記録媒体に記録していき、第nの装填器15を介して第nの記録媒体17まで、連続的に記録される。
第1及び第nの記録媒体16,17は、撮影装置に着脱可能に構成された任意の記録媒体であり、例えば、PCカード型ハードディスクドライブやメモリカード等のカード状記録媒体、または、大容量化、高速化を図って複数のメモリカードを内蔵させたメモリカードパック等である。そして、例えば、記録媒体がメモリカードパックである場合、メモリカードパック内に内蔵されているメモリカードの数と同数のクラスタの数が記録再生制御器13での記録再生の基本単位となる。
なお、本実施形態では、第1の記録媒体16は、撮影装置200で撮影される撮影データの記録媒体としても用いられるほか、番組構成入力装置100から撮影装置200に収録支援情報を搬送する搬送媒体として用いられる。また、収録支援情報は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に搬送されるほか、番組構成入力装置100から撮影装置200に無線伝送されてもよく、収録支援情報の搬送入力形態はどのようなものであってもよい。無線伝送する場合には、撮影装置200は無線受信器を備えることになり、無線受信器と第1の情報取得器7Aとから入力器が構成される。
ファイル管理器9は、FAT32等のファイルシステムによりファイルを管理する。ここで管理に用いられるファイル管理情報は、個々の着脱可能な記録媒体を特定可能とする記録媒体のメディアID、映像ファイルを特定可能とする映像ファイルのファイルID、及び、音声ファイルを特定可能とする音声ファイルのファイルID、各ファイル内にあるフレームを特定可能とするフレームID、及び、各ファイルのファイル容量等である。本実施形態の撮影装置200では、これらの管理情報に加えて、収録支援情報と撮影状況情報とがファイル管理情報として用いられる。
映像ファイル生成器10、音声ファイル生成器11では、素材交換ファイル形式であるMXF(Material eXchange Format)やAVI(Audio Video Interleaving)、WAV等のファイル形式でファイルを生成し、索引ファイル生成器12では、XML(eXtensible Markup Language)等のテキストファイル形式やCSV(Comma Separated Value)ファイル形式等のファイル形式でファイルを生成する。
以下、撮影状況情報を構成する各情報(撮影)の具体的な生成方法の一例を説明する。
収録時間情報(撮影)は、次のようにして生成される。撮影時、撮影データには撮影日時情報が付加される。これらの撮影日時情報は、映像ファイル生成器10と音声ファイル生成器11とによって撮影装置200内の内蔵時計(暦機能付き)30から読み出されて撮影データに付加される。このとき(撮影時)、日程情報取得器7aは、撮影に同期して内蔵時計30から撮影日時情報を読み出してファイル管理器9に供給する。なお、日程情報取得器7aは、撮影に同期してGPS測位装置7fから撮影日時情報を取得してもよい。
収録人物情報(撮影)は、次のようにして生成される。前述したように、撮影時、出演人物αは、無線発信器7dを携帯している。無線発信器7dは、出演人物αに固有に設定された人物特定情報(人物ID番号)が付加された無線信号を送信する。無線発信器7dから発信される無線信号は、無線受信器7eにより受信される。人物情報取得器7bは、この無線信号を解析して人物特定情報(人物ID番号)を抽出する。一つの撮影に複数の人物が出演する場合においても、各出演人物を区別して個別に人物特定情報(人物ID番号)を抽出する。
人物情報取得器7bは、抽出した人物特定情報(人物ID番号)をファイル管理器9に供給する。ファイル管理器9は、それらの人物特定情報(人物ID番号)をその撮影(クリップ)に対応付けて記録する。
収録場所情報(撮影)は、次のようにして生成される。前述したように、撮影時、GPS測位装置7fは、測位動作を実施している。場所情報取得器7cは、GPS測位装置7fの測位結果に基づいて収録場所情報(撮影)を生成して、ファイル管理器9に供給する。
図3を参照して前述したように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成する。
図7はファイル管理器9により収集された撮影状況情報と収録クリップとの間の相関関係図である。図8は、各シーンと各クリップとの間の相関関係図であって、これはファイル管理器9による分類結果を示す。これらの相関関係図は、収録支援情報、撮影状況情報の供給を受けたファイル管理器9が作成して自身の分類テーブル(図示省略)に記録する。
図7に示すように、収録された各クリップには、収録日程情報(撮影)、収録人物情報(撮影)、収録場所情報(撮影)が対応付けられている。ファイル管理器9は、撮影時に生成されるこれらの撮影状況情報に基づき、収録されたクリップがどのシーンのクリップであるのかを、撮影状況情報と収録支援情報との照合により判定し、その判定結果に従って、各クリップを各シーンに自動的に分類する。
すなわち、図4に示すように、収録日程情報(予定)によって各シーンの収録開始時間と収録終了時間とが設定されているので、収録時に取得される各クリップの収録日程情報(撮影)を、収録日程情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。同様に、図5に示すように、収録人物情報(予定)によって各シーンに出演する出演人物が設定されているので、収録時に取得される収録人物情報(撮影)を、収録人物情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンのクリップなのかを判定する。同様に、図6に示すように、収録場所情報(予定)によって各シーンの収録場所が設定されているので、収録時に取得される収録場所情報(撮影)を、収録場所情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。
以下、クリップを分類する方法の一例を、図7,図8を参照して説明する。ここでは、シーン48,シーン10,シーン3を例にして説明する。
図4〜図6に示すように、シーン48の収録日程情報(予定)は[S1≦収録日程(予定)<E1]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(予定)は[場所(1)]であると仮定する。さらに、クリップ1,2,3の収録日程情報(撮影)は[S1≦(T1〜T3)<E1]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(撮影)は[場所(1)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ1,2,3の収録日程情報(撮影)は、シーン48の収録日程情報(予定)を満たす。
[S1≦(T1〜T3)<E1]、
・クリップ1,2,3の収録人物情報(撮影)は、シーン48の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ハ)]=[人物(イ),人物(ロ),人物(ハ)]
・クリップ1,2,3の収録場所情報(撮影)は、シーン48の収録場所情報(予定)を満たす。
[場所(1)]=[場所(1)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ1,2,3をシーン48に分類する。
一方、図4〜図6に示すように、シーン10の収録日程情報(予定)は[S2≦収録日程(予定)<E2]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。クリップ4〜7の収録日程情報(撮影)は[S2≦(T4〜T7)<E2]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ4〜7の収録日程情報(撮影)は、シーン10の収録日程情報(予定)を満たす。
[S2≦(T4〜T7)<E2]、
・クリップ4〜7の収録人物情報(撮影)は、シーン10の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]=[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]
・クリップ4〜7の収録場所情報(撮影)は、シーン10の収録場所情報(予定)を満たす。
[場所(2)]=[場所(2)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ4〜7をシーン10に分類する。
一方、図4〜図6に示すように、シーン3の収録日程情報(予定)は[T50≦収録日程(予定)<E50]であり、収録人物情報(予定)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。さらに、クリップ199,200の収録日程情報(撮影)は[S50≦(T199、T200)<E50]であり、収録人物情報(撮影)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ199,200の収録日程情報(撮影)は、シーン3の収録日程情報(予定)を満たす。
[S50≦(T199,T200)<E50]、
・クリップ199,200の収録人物情報(撮影)は、シーン3の収録人物情報(予定)を満たす。
[人物(チ),人物(リ),人物(ヌ),人物(ル)]=[人物(チ),人物(リ),人物(ヌ),人物(ル)]
・クリップ199,200の収録場所情報(撮影)は、シーン3の収録場所情報(予定)を満たす。
[場所(50)]=[場所(50)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ199,200をシーン3に分類する。
図9は収録前と収録後の記録媒体における記録内容の対比図である。図9に示すように、第1の記録媒体16には、メディアIDとしてメディア1が付与されている。メディアIDは記録媒体を識別するID番号である。このような第1の記録媒体16に収録支援情報を構成する番組構成情報と収録日程情報(予定)と収録人物情報(予定)と収録場所情報(予定)とが収録開始以前に予め記録されている。記録は、番組構成入力装置100により実施される。このような情報が記録された第1の記録媒体16が本撮影装置200に装填される。これにより、第1の記録媒体16から収録支援情報が読み出されてファイル管理器9に格納される。この状態で以下に説明する映像収録が行われる。
収録が開始されると、第1の記録媒体16の空き領域に、収録した映像ファイル,音声ファイルとともに、撮影状況情報を構成する収録日程情報(撮影)と収録人物情報(撮影)と収録場所情報(撮影)とが収録されていく。これらの撮影状況情報は、映像ファイルや音声ファイルに関連付けて第1の記録媒体16に収録される。
収録後には、図9に示すように、映像ファイルと音声ファイルはクリップとして一括りにされて第1の記録媒体16に記録されると共に、シーン毎に一括りにされ、番組構成とリンクしたクリップ情報が書かれている索引ファイルが記録される。索引ファイルは次のようにして作成される。
収録時には第2の情報取得器7Bによって、撮影状況情報が同時に生成されて、ファイル管理器9に供給される。ファイル管理器9は、これらの撮影状況情報を、第1の記録媒体16内の収録支援情報に照合することで、撮影中のクリップと番組構成とを関連付ける索引ファイルを生成する。ファイル管理器9は、生成した索引ファイルを、記録中の記録媒体(この場合は第1の記録媒体16)に記録する。
次に、図9〜11を参照して、パーソナルコンピュータなどの外部の編集装置での編集作業を説明する。図10は索引ファイルの内容の一例を示す模式図である、図11は編集リストの一例を示す図である。
図9に示すように、収録後には、第1の記録媒体16に、映像ファイル、音声ファイル、及び、索引ファイルの各ファイルが記録されており、各ファイルは、記録媒体毎に、所定のファイルシステムにより管理されている。
図10に示すように、索引ファイルの中には、メディア1,メディア2等の記録媒体のメディアID、映像ファイル1,2,3…、音声ファイル1,2,3…等の各ファイルのファイルIDが、クリップ1,2,3…、等のクリップID、収録支援情報、および撮影状況情報に基づいて、各クリップ毎に分類されている。分類されたメディアIDは、シーン毎に一括りにされて、シーン1,2,3…等のシーンIDと共に記録されている。
編集装置では、先ず、第1の記録媒体16が挿入され、索引ファイルが読み出されて、各クリップの映像,音声として確認可能な映像,音声ファイルが特定される。編集者は、映像ファイル,音声ファイルから再生される映像,音声を、シーン毎に視聴しながら、各クリップが必要かどうかOK/NGを判断し、所望のストーリーに合うように、図11に示されるような編集リストを作成する。作成された編集リストは、テキストファイルなど所定のファイル形式で、編集装置により第1の記録媒体16に記録され(図示せず)、本編集終了時には、再生時に、この編集リストに則って再生が為される。
再生時には、第1の記録媒体16〜第nの記録媒体17から番組構成順序に従って、必要なクリップが再生される。各クリップは、索引ファイルに記載されて、一括管理されているクリップ毎の映像と音声のファイルとをそれぞれ復号,再生する。
以上のように本実施の形態によれば、予め記録された収録支援情報を元に、収録された各クリップが、映像番組を構成するシーン毎に分類されて一括管理され、収録終了と同時に、粗編集が既に終了した状態となるので、後は、シーン毎にまとめられた所望のクリップを選択するだけで、本編集を終了する事が出来、本編集の手間を大幅に削減する事が出来る。
また、収録時に、予め収録内容とその日程が分かる為、収録シーンの取りこぼしなど、人的ミスの発生を未然に防止する事が出来、収録から編集、番組完成まで、トータルのワークフローを、より効率的に改善する事が出来る。
なお、上述した実施の形態1では、収録支援情報、撮影状況情報として、日程、人物、場所の3つの情報を用いている。これは、クリップの分類精度を高めるために本実施形態において採用された構成である。そのため、収録支援情報,撮影状況情報として、日程,人物,場所の3つの情報のうちの任意の1つないし任意の2つの情報を用いてもよいのはいうまでもない。さらには、3つ以上の情報を、収録支援情報,撮影状況情報として用いてもよいのもいうまでもない。
さらには、収録支援情報,撮影状況情報として、各クリップにおいて、出演者が喋る台詞を用いてもよい。その場合には、撮像装置200’は、図12に示すように、マイク4に入力される音声信号を音声認識する音声認識器31をさらに備えたうえで次のように処理される。
各シーンの台詞情報は番組構成入力装置100に入力されて第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’に取り込まれる。ここでいう各シーンの台詞情報とは、台本を参照してそのシーンを特定可能な台詞のことであって、例えば、そのシーンを択一的に特定できる場所,時間,状況を示す台詞のことである。台詞情報は、映像番組の企画立案者によって台本から選び出されたうえで番組構成入力装置100に入力される。第1の記録媒体16を介して撮影装置200’に取り込まれた各シーンの台詞情報は、第1の情報取得器7Aで抽出されたのちファイル管理器9に記憶される。ここでは、台詞情報は、撮影支援情報として用いられる。
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影に際してマイク4が収録する音声情報(出演者の台詞情報)は、音声認識器30によって音声認識処理されてテキストデータ(台詞)に変換されたのち、そのテキストデータ(台詞)は、ファイル管理器9に出力される。ファイル管理器9は、供給されるテキストデータ(台詞)と、予め記憶している各シーンの台詞情報(台本)とを照合することで、収録したクリップを分類する。以上の処理では、台詞情報は撮影支援情報として用いられ、テキストデータ(台詞)は、撮影状況情報として用いられる。マイク4と音声認識器30とから撮影状況取得器が構成される。なお、マイク4は、撮影装置200’に一体に組み込まれたマイクのほか、撮影装置200’に有線/無線で接続された別体のマイクであってもよい。
さらには、収録支援情報,撮影状況情報として、各クリップにおける背景イメージを用いてもよい。その場合、撮像装置200’’は、図13に示すように、分類テーブル32をさらに備えており、その分類テーブル32には、各シーンの背景イメージ情報(予定)が格納されている。
各シーンの背景イメージ情報(予定)は、例えば、映像番組の企画立案者等によって各シーンの撮影場所が下見される際に予め任意の撮影装置を用いて撮影されたうえで、番組構成入力装置100に入力される。番組構成入力装置100に入力された各シーンの背景イメージ情報(予定)は、ここで第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’’に取り込まれる。第1の記録媒体16を介して撮影装置200’’に取り込まれた各シーンの背景イメージ情報(予定)は、第1の情報取得器7Aで抽出されたのちファイル管理器9を介して分類テーブル32に記憶される。分類テーブル32は、各背景イメージ情報(予定)を各シーンに対応付けた状態で記憶する。
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影により得られた映像情報は、映像ファイル生成器10からファイル管理器9に出力される。ファイル管理器9は、供給される映像データと、予め分類テーブル32に記憶している各シーンの背景イメージ情報(予定)とを映像照合することで、収録したクリップを分類する。
以上の処理では、背景イメージ情報(予定)は撮影支援情報として用いられ、実際に撮影した映像情報は、撮影状況情報として用いられる。撮像器1と記録映像信号処理器2と映像ファイル生成器10とから撮影状況取得器が構成される。
さらには、図12に示す音声認識器31を用いれば、次に説明する、さらなる詳細なクリップ分類処理を実施することができる。
撮影されたクリップの良悪に関する粗判断は、撮影管理者(撮影監督)によって、収録直後の映像収録現場において行われる。粗判断は、例えば、出演者の演技の出来などを基準にして実施される。したがって、撮影後における撮影管理者(撮影監督)の収録構想の中では、各収録クリップは、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとに既に粗分類されている。
以上の撮影手順に基づき撮影現場では、一般にクリップ撮影直後において、撮影管理者(撮影監督)が大声で”OK”と発声したクリップは、映像番組の構成要素(シーン)となりうる候補クリップとして粗判断されたとみなされる。このことを利用して、次のようにしてファイル管理器9は、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとを分類する。
音声認識器31は、マイク4が収録した音声情報を常時音声認識処理によりテキストデータ化してファイル管理器9に供給する。ファイル管理器9は、音声認識器31から供給される音声認識結果(テキストデータ)において、撮影管理者(撮影監督)の”OK”音声が存在するか否かを判断する。そして、ファイル管理器9は、”OK”音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、OK”音声が存在しないクリップを映像番組の構成要素(シーン)となりえない非候補クリップに分類する。なお、撮影管理者(撮影監督)の”OK”音声は、クリップ撮影直後に発せられるため、ファイル管理器9は、クリップ撮影末尾位置においてOK”音声が存在するか否かを判断することで、誤判定(台詞内にOK音声が存在した場合の誤認識等)を防いで判定精度を高めることができる。
また、上述した説明では、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断を、撮影管理者(撮影監督)の”OK”音声の有無により実施していたが、図14を参照して次に説明するようにしてもよい。すなわち、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断は、撮影管理者(撮影監督)の”OK”音声の他、撮影管理者(撮影監督)によるそのクリップの内容判断が良好なものを示す複数の音声により実施してもよい。良好なものを示す複数の音声としては、”最高”,”上々”,”グッド”,”まずまず”等が挙げられるが、撮影管理者(撮影監督)の口癖によっては他にも種々のものが存在する。そこで、図14に示す撮像装置200’’’では、分類テーブル33をさらに備えている。撮像装置200’’’の撮影作業者は、予め、撮影を担当する撮影管理者(撮影監督)が良好なクリップ撮影結果が得られた場合に発する単語を調べておいて、分類テーブル33に登録しておく。そして、ファイル管理器9は、クリップ撮影時において、音声認識器31から供給される音声認識結果(テキストデータ)と、分類テーブル33に登録している単語(撮影管理者(撮影監督)が良好と思う場合に発する単語)とを照合することで、撮影結果が良好な場合に発する音声を撮影管理者(撮影監督)が発声したか否かを判断する。そして、ファイル管理器9は、良好な場合に発する音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、良好な場合に発する音声が存在しないクリップを映像番組の構成要素となりえない非候補クリップに分類する。
以上の評価処理を行う場合、マイク4と音声認識器31とから評価入力器が構成される。また、撮影結果が良好な場合に発する音声の認識結果(テキストデータ)から収録状況評価が構成される。
なお、評価入力器を構成するマイクは、撮影装置200に接続された撮影用のマイク4だけではなく、有線/無線通信により撮影装置200に接続されたうえで撮影管理者(撮影監督)が携帯する携帯型のマイクから構成することもできる。
また、上述した説明では、マイク4や携帯型のマイクで収集される撮影管理者(撮影監督)の音声を音声認識器31でテキストデータに変換したうえで、分類テーブル33内の単語に照合させることで、その映像クリップを評価判定(分類)していた。しかしながら、収集した撮影管理者(撮影監督)の音声をテキストデータに変換することなく、音声のままで評価判定してもよい。この場合、分類テーブル33には、撮影結果が良好な場合に撮影管理者(撮影監督)が発する音声データそのものが格納される。ファイル管理器9は、収集した撮影管理者(撮影監督)の音声と分類テーブル33に格納している音声データとを音声データ同士で照合することで評価判定(分類)する。照合は、例えば、声紋を比較することで実施される。
また、撮影管理者(撮影監督)による評価入力は音声入力だけでなく、この他、有線/無線通信により撮影装置200に接続された評価入力器(図示省略)を撮影管理者(撮影監督)が携帯しながらクリップ撮影を行い、撮影直後に、撮影管理者(撮影監督)が評価入力器に対してボタン操作を実施して評価入力してもよい。その場合、評価入力器に入力される評価情報(収録状況評価)は、有線/無線通信を介して撮影装置200のファイル管理器9に供給される。
(実施の形態2)
図15は本発明の実施の形態2における撮影装置のブロック構成図である。
本発明の実施の形態2の撮影装置は、図2に示す実施の形態1の構成に加え、映像ファイル再生器18、映像信号合成器19、表示器としてのビューファインダー20を備える。
本発明の撮影装置を用いてビューファインダー20に撮影映像と予め記録された映像の合成表示を行いながら、撮影映像信号を記録媒体に記録する動作について説明する。
第1の記録媒体16から第nの記録媒体17のいずれかの中に予め記録された映像ファイルが記録再生制御器13によって読み出される。読み出された映像ファイルは映像ファイル再生器18を用いて再生される。映像信号合成器19によって、映像ファイル再生器18を用いて再生された映像信号と、撮像器1によって撮像され記録映像信号処理器2によって信号処理を行われた映像信号とが合成される。合成された映像信号はビューファインダー20に表示される。一方、映像信号合成器19によって合成される信号とは別に、記録映像信号処理器2から出力される映像信号は、映像信号符号化器3によって符号化される。またマイク4より音声信号が出力される。記録音声処理器5によってマイクより出力された音声信号に信号処理を行ったうえで、音声信号符号化器6によって符号化される。符号化された映像信号と、符号化された音声信号とは、映像ファイル生成器10、及び音声ファイル生成器11によって所定のファイル形式によって記録媒体に記録される。このとき記録される映像ファイルは予め記録されていた映像ファイルとは別ファイルに記録される。
この動作について図16を参照して説明する。
記録媒体に予めクロマキー合成などに用いる映像を記録しておく。予め記録しておいた映像信号を再生する。再生と同時に合成する映像を撮影する。予め記録された映像信号と撮影された映像信号とは合成され、ビューファインダー20上に表示される。撮影された映像信号は予め記録された映像信号とは別に符号化され、映像ファイルとなる。記録媒体から予め記録された映像信号を読み出しながら、撮影された映像信号を記録媒体に記録する。
以上のように本実施の形態によれば、最終的にはクロマキー合成などの加工処理を行うことを目的とした映像を撮影する場合に、予め記録媒体に記録された合成用に使用する映像と、撮影された映像とを撮影装置内で合成処理し、合成された映像をビューファインダー20等の表示器で表示して確認しながら撮影を行うことにより、収録の段階で、合成処理を施した最終的な形の映像として撮影した映像を評価することが可能となる。したがって、記録媒体を収録現場から持ち帰って、実際に編集、加工処理を行ってから撮影した映像を評価するのに対して、迅速かつ確実に最適な映像を選択することができる。また、記録媒体に記録される撮影された映像信号と、予め記録されている映像信号とは別ファイルになっており、かつ記録媒体に記録される映像信号は合成処理が行われていない撮影した映像信号そのものであるため、撮影後に行う編集作業の自由度を広げることが可能となる。
尚以上一連の実施の形態における映像信号の符号化は、DV規格やMPEG2規格など、高効率な符号化が考えられるが、符号化の規格であれば如何なる規格でも良く、例えば、MPEG4,JPEG2000,Motion JPEG2000等の規格であっても良い。
また、装填器は、種類の異なるカードスロットを設けて、タイプの異なるカード状記録媒体を着脱可能とする構成としても良い。例えば、高解像度の再生映像を得る高ビットレートのビットストリームをPCカードTYPE1,TYPE2,もしくは、TYPE3の形状をした大容量、高転送速度のメモリカードパックに記録し、低解像度の再生映像が得られる低ビットレートのビットストリームを切手サイズの比較的容量の小さいSDメモリカード等のメモリカードに記録する等の方法が考えられる。
更に、上述した各実施形態においては、第1の装填器に装填される第1の記録媒体に収録支援情報を予め記録しておいたが、特定の装填器に装填される記録媒体のみに収録支援情報をまとめて記録しておかなくてもよく、例えば、複数の収録支援ファイルを複数の記録媒体に分けて記録しておいても良い。
また、記録媒体は、PCIバスなどの汎用バスに設けられた複数の装填器に着脱する構成としても良い。
本発明の撮影装置は、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる映像音声情報を収録する、複数の着脱可能な記録媒体を装填可能な撮影装置等として有用である。
本発明は、記録媒体等に予め記録されたのち当該撮影装置に入力される収録支援情報に基づいて、映像音声情報を収録する撮影装置や撮影システムに関する。
テレビジョン放送、あるいは各種パッケージメディアで提供される映像番組は、映像番組の企画立案、映像番組を構成するために必要な映像音声情報(素材)の収録、および素材を編集して最終的な映像番組を構成するための編集という一連の工程(ワークフロー)を経て制作される。企画工程は、どのような映像番組を制作するかを企画、立案する工程であり、この段階で番組構成,番組情報などが決定される。収録工程は、企画工程で決められた番組構成に基づいて、必要な素材を撮像機器(例えばカメラ一体型VTR)で各種記録媒体に記録する工程であり、編集工程においては、収録された素材の中から必要な素材を組み合わせて最終的な映像番組が形作られる。
これらの各工程においては、映像信号や音声信号だけでなく、映像番組、素材に関連した各種情報(以後メタデータと記す)が企画工程で生成される。具体的には、企画工程において、映像番組の構成、素材に必要とされる情報(出演者、収録条件など)などのメタデータ(企画)が生成される。
素材の収録工程は、このようにして生成されるメタデータ(企画)に基づいて、素材の収録がなされる。素材の収録工程では、素材の獲得時点(収録地点)において、素材の付加情報(撮影時間,撮影場所,撮影者など)が自動あるいは人間の手によって作製されて登録される。素材に関する付加情報は素材と関連づけられて記録媒体に保存される。
編集工程は、素材のどの部分を使用して映像番組を構成するかを決定するオフライン編集(粗編集)と、オフライン編集によって生成された編集情報(EDL:Edit Decision List)等の編集用メタデータに基づいて、実際の編集を行うオンライン編集の2つのステップからなる。オンライン編集によって最終的な映像番組が完成し、制作の途中段階で生成された各種メタデータは、何らかの形で映像番組、映像番組を構成する各素材と関連づけがなされ、データベースに登録されて保存される。
以上説明したような番組制作工程における収録工程で生成されるメタデータ、及びその生成、記録方法に関しては、映像及び音声等の素材を収録し、これらの素材を編集、加工して映像番組を制作し、さらに完成した映像番組を保管するシステムにおいて、従来から次の構成がある。なお、以下の説明では、本願発明と用語を統一するため、以下の従来例の説明で用いる計画、取材などの用語は、本願発明の説明で用いる企画、収録の用語に変更している。
まず、素材の収録工程において、素材を詳細に説明するためのメタデータを生成し、記録媒体に入力する。収録工程において素材に付加されるメタデータは2種類ある。一番目のデータは、撮影開始,終了時間,撮影場所(地名),撮影者などの企画工程であらかじめ決定されたメタデータである。これらのメタデータは無線通信により撮像装置に送信される。撮像装置では受信したそれらのメタデータを一旦メモリに記憶し、実際に素材を収録する際には、メタデータを前記メモリから読み出し、収録した素材と読み出したメタデータとを関連付けて記録媒体に記録する。
二番目のデータは、撮影と同時に生成されて記録媒体に記録されるメタデータである。これら2番目のデータは、GPS(Global Positioning System)で検出される位置情報(緯度,経度,高度)や時刻情報,収録場所の地名,撮影機材の情報(機材ID),レンズ情報などのカメラセットアップ情報,素材を識別するためのUMID(Unique Material IDentifier)などがある。
収録工程で素材とともに記録媒体に記録されたメタデータは、後工程で利用されるとともに、素材と関連づけられてアーカイブに保管される。このように、従来の撮影装置は、素材に関連するメタデータを効率良く生成して、素材とともに記録媒体に記録している。企画工程で設定可能なメタデータ(上記1番目のデータ)は、収録前に予め撮像機器側に入力しておく。素材の獲得時点で初めて取得できるメタデータ(上記2番目のデータ)は、収録時に素材と同時に記録することにより、収録が終了した段階では、素材と素材に関連する必要なメタデータとが記録媒体に記録される。これらの素材用のメタデータは、後の工程あるいはアーカイブにおいて例えば素材を検索するためのメタデータとして使用される。
(特許文献1,2参照)
特開2001−292410号 特開2000−92419号
番組制作は、収録した素材を後工程で編集,加工して最終的な映像番組を完成するものである。そのため、収録の段階においても最終的な映像番組の構成,各種加工処理を意識した素材の獲得が必要とされる。これに対して、上記従来の撮影システム(特許文献1)は、単に必要な素材を複数カット収録し、同時にメタデータを記録するだけであって、収録を支援する情報を利用した、効率的かつ最適な素材の獲得作業を従来の撮影システムで行うことはできない。例えば、収録段階において、現在収録している素材(シーン)が、最終的な映像番組の中で他のシーンとどのようにつながり、またどのような加工処理が施されるかを意識した形で素材を収録することは困難であった。
そのため、収録工程においては、とりあえず必要なシーンを複数カット記録しておき、収録終了後の編集工程において収録した多数の素材を整理/管理し、さらに映像番組を構成する上で最適な素材を選別して、各シーンをつなぎ合わせ加工処理を施して最終番組を作成する作業を行っている。このような理由により、従来の撮影システムを用いた番組制作では、結果的に収録後の編集工程以降において多大な作業時間を必要としていた。
また、上記従来の撮影システム(特許文献2)は、収録した素材が映像番組のどのシーンに対応するかを示す情報を収録素材に付与する構成が開示されている。しかしながら、この構成において前記対応を示す情報は手入力によって撮影作業者が撮影装置に入力しなければならず、作業が煩雑になるのは避けられない。
上記課題を解決するために本発明の撮影装置は、映像音声情報を収録する撮影器と、前記映像音声情報の収録支援情報が入力される入力器と、前記収録支援情報に基づいて前記映像音声情報を分類する管理器とを有する。前記入力器に入力される前記収録支援情報を保持したうえで前記撮影器により前記映像音声情報の収録を行い、前記管理器は、前記映像音声情報の撮影時に取得される当該映像音声情報の撮影時の状況を示す撮影時状況情報を前記収録支援情報に照合することで、収録した前記映像音声情報を分類する。
この場合、前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の構成に関する情報であり、前記管理器は、前記映像番組の構成に関する情報に基づいて、各映像音声情報を分類するのが好ましい。そうすれば、映像番組の作製時に作られる映像音声情報を自動的に精度高く分類することが可能となる。
また、この場合、前記映像番組は複数のシーンから構成されるとともに、これらシーン毎に前記収録支援情報は設定されており、前記管理器は、前記映像番組の構成に関する情報に基づいて、各映像音声情報を前記シーン毎に分類するのが好ましい。そうすれば、映像音声情報をシーン毎に精度高く分類することができる。
装置構成としては、具体的には、次のように構成できる。すなわち、前記撮影器による前記映像音声情報の撮影時の撮影状況情報を取得する撮影状況取得器をさらに有し、前記管理器は、前記収録支援情報を前記撮影状況情報に照合することで、前記映像音声情報を分類する。
また、前記収録支援情報は、前記映像音声情報を撮影する日程予定に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録日程に関する情報であれば、映像音声情報を撮影日程に基づいて分類できる。
また、前記収録支援情報は、前記映像音声情報を撮影する収録予定場所に関する情報であり、前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所に関する情報であれば、映像音声情報を撮影場所に基づいて分類できる。
また、前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の出演予定人物に関する情報であり、前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物に関する情報であれば、映像音声情報を出演人物に基づいて分類できる。
また、前記管理器の分類結果を基に、前記映像音声情報を一括管理する索引情報を生成する索引情報生成器と、前記映像音声情報と前記索引情報とを着脱可能な記録媒体に記録する記録器とをさらに備えれば、分類結果を、映像音声情報に関連付けて記録媒体に記録することができる。
前記収録支援情報は例えば、前記記録媒体に書き込んだ状態で撮影装置に入力することができる。そうすれば、収録支援情報が書き込まれた記録媒体を他の記録媒体と区別することなく記録器における記録媒体として用いることができる。
なお、撮影作業者によって実行される前記映像音声情報の収録状況の評価に関する入力を受け付ける評価入力器をさらに有し、前記管理器は、前記評価入力器に入力される収録状況評価に基づいて、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、映像音声情報を収録状況評価に基づいてさらに詳細に分類することができる。
なお、前記評価入力器は、撮影作業者による音声入力を受け付けたうえで当該音声入力を音声認識によりテキストデータからなる前記収録状況評価に変換すれば、撮影管理者(撮影監督)の音声により収録状況評価を行うことができ、収録状況評価の入力が容易になる。
なお、前記収録状況評価の分類テーブルをさらに備えており、前記管理器は、前記評価入力器から供給される前記収録状況評価のテキストデータを前記分類テーブルに照合することで、収録した前記映像音声情報をさらに分類するのが好ましい。そうすれば、一つではない複数の収録状況評価によって映像音声情報をさらに詳細に分類することが可能となる。
このような本発明の構成を実施するうえでは、本発明の撮影装置に加えて、前記収録支援情報の作成者による入力を受けるとともに、入力される前記収録支援情報を前記記録媒体に記録する番組構成入力装置を備えて撮影システムを構成するのが好ましい。
なお、本発明における映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。
本発明によれば、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる。
以下、本発明の実施の形態について、図1〜15を参照して説明する。各実施の形態における撮影装置では、映像音声情報をファイルとして記録し、更に、編集装置とのデータの親和性を考慮して映像、音声のデータを別ファイルで記録することとする。つまり、撮影時に複数のファイルが同時生成されることになる。このように同時に生成された映像、音声のファイルはまとめてクリップと呼ばれる。このクリップは、映像,音声以外に、サムネール(映像の縮小見本)やその他メタデータが関連付けられることもある。また、クリップの構成要素である映像,音声のファイルはエッセンスファイルと呼ばれる。また、この撮像装置で扱われる映像音声情報は、映像情報と音声情報とのうちの少なくとも一つを含むものである。すなわち、一般的に映像音声情報とは、映像情報と音声情報との両方を含むものであるが、映像情報だけからなる情報も、本発明では映像音声情報の一つと見なす。
(実施の形態1)
図1は本発明の実施の形態1における撮影システムの構成図であり、図2はその撮影システムを構成する撮影装置200のブロック構成図である。この撮影システムは、番組構成入力装置100と、撮影装置200とを備える。
番組構成入力装置100は、映像番組の企画案を入力する入力装置であって、例えば、映像番組の企画立案支援用のソフトウェアがインストールされたパーソナルコンピュータから構成される。
撮影装置200は、撮像器1、記録映像信号処理器2、映像信号符号化器3、集音器としてのマイク4、記録音声信号処理器5、音声信号符号化器6、第1の情報取得器7A、第2の情報取得器7B、ファイル管理器9、映像ファイル生成器10、音声ファイル生成器11、索引ファイル生成器12、記録再生制御器13、第1の装填器14、第nの装填器15、第1の記録媒体16、及び、第nの記録媒体17を備える。
撮像器1と記録映像信号処理器2と映像信号符号化器3とマイク4と記録音声信号処理器5と音声信号符号化器6と映像ファイル生成器10と音声ファイル生成器11とは撮影器の一例を構成する。しかしながら、これらの構成は撮影器の一例に過ぎず、一般的な他の撮影器の構成であってもよいのはいうまでもない。
記録再生制御器13と第1〜第nの装填器14〜15とは、記録器を構成する。しかしながら、これらの構成は記録器の一例に過ぎず、一般的な他の記録器の構成であってもよいのはいうまでもない。
第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる番組構成情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう番組構成情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータである。番組構成情報の詳細については後述する。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録日程情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録日程情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録日程情報(予定)という。収録日程情報(予定)の詳細については後述する。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録人物情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録人物情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録人物情報(予定)という。
また、第1の情報取得器7Aは、第1の記録媒体16に格納されて撮影装置200に取り込まれる収録場所情報を、第1の装填器14,記録再生制御器13を介して第1の記録媒体16から読み出してファイル管理器9に出力する。ここでいう収録場所情報は収録支援情報の一つであって、番組構成入力装置100で作成されて第1の記録媒体16に記録されるデータであり、以下、収録場所情報(予定)と称する。収録場所情報(予定)の詳細については後述する。
第2の情報取得器7Bは、日程情報取得器7a、人物情報取得器7b、および場所情報取得器7cを備える。
日程情報取得器7aは、映像撮影時において、その撮影時における日時情報を生成してファイル管理器9に出力する。撮影時における収録日程情報は撮影状況情報の一つであって、以下、撮影時における収録日程情報を収録日程情報(撮影)という。
人物情報取得器7bは、映像撮影時において、その撮影に出演する人物情報を取得してファイル管理器9に出力する。撮影時における収録人物情報は撮影状況情報の一つであって、以下、撮影時に実際に撮影に出演する人物情報を収録人物情報(撮影)という。人物情報取得器7bによる収録人物情報(撮影)の生成管理は、例えば次のようにして実施される。すなわち、図2に示すように、予め、撮影に出演する人物αに無線発信器7dを装着させる。無線発信器7dには、人物特定情報(人物ID番号)が予め登録されており、撮影時に撮影装置200に向けて人物特定情報(人物ID番号)が付加された無線信号を送信する。人物情報取得器7bは、無線受信器7eを備えており、撮影時において無線受信器7eが無線信号を受信すると、人物情報取得器7bは、受信した無線信号から人物特定情報(人物ID番号)を抽出することで収録人物情報(撮影)を生成し、生成した収録人物情報(撮影)をファイル管理器9に出力する。
場所情報取得器7cは、映像撮影時において、その撮影場所情報を取得してファイル管理器9に出力する。撮影時における収録場所情報は撮影状況情報の一つであって、以下、撮影時における実際の収録場所情報を収録場所情報(撮影)という。場所情報取得器7cによる収録場所情報(撮影)の管理は、例えば次のようにして実施される。すなわち、場所情報取得器7cは、GPS(Global Positioning System)に基づいて現在地を測位するGPS測位装置7fを備えており、場所情報取得器7cは、撮影時におけるその場所(撮影場所)をGPS測位装置7fにより測位することで、収録場所情報(撮影)を作成して、ファイル管理器9に出力する。
本実施形態では、第1の情報取得器7Aと記録再生制御器13と第1の装填器14とから入力器の一例が構成され、第2の情報取得器7Bから撮影状況取得器の一例が構成され、ファイル管理器9から管理器の一例が構成される。
図3は、映像番組の企画立案者によって番組構成入力装置100に入力される番組構成情報の模式図である。図3に示されるように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成される。この図では、シーン1からシーン50までの50個のシーンによって、一つの映像番組が構成されていることが分かる。映像番組の企画立案者は、まず、シナリオ等に基づいてこのような番組構成を構想したうえで、構想した番組構成を番組構成入力装置100に入力する。番組構成入力装置100に入力された番組構成情報は番組構成入力装置100が有する図示しない記録装置に記録される。
図4は、映像番組の企画立案者によって番組構成入力装置100に入力される収録日程情報(予定)の模式図である。図4に示されるように、各シーンの収録順序は、番組構成の順番とは異なるのが普通である。出演人物(俳優)の日程や、天候の状態、または、ロケ地やスタジオの予約状況など、様々な要因により、収録できるシーンから収録していくことになるが、通常、その収録日程は、途中変更があるにせよ、収録が始まる前に予め分かっている。映像番組の企画立案者は、予め分かっている収録予定に基づいて収録日程情報(予定)を構想したうえで、構想した収録日程情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録日程情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
図4では、最初にシーン48が収録され、次にシーン10が収録される。そして、その後にシーン29が収録され、最後にシーン3が収録される予定となっている。また、図中の表に記載されているように、各シーンには、それぞれ、各シーンの収録期間が設定されている。例えば、シーン48では開始日時S1から終了日時E1の間に収録がなされる予定となっており、シーン48を構成する所望のクリップが、このシーン収録期間中に、いくつか収録される予定が組まれている。同様に、シーン10では開始日時S2から終了日時E2の間、シーン29では開始日時S3から終了日時E3の間、最後のシーン3では開始日時S50から終了日時E50の間に収録がなされる予定となっており、各シーンの収録期間内に、各シーンを構成する所望のクリップがシーン毎にいくつか収録される予定が組まれている。
図5は、映像番組の企画立案者によって番組構成入力装置100に入力される収録人物情報(予定)の模式図である。図5に示されるように、各シーンに出演する出演人物(俳優等)は、収録が始まる前(シナリオ確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録人物情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録人物情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。
図5では、最初に収録されるシーン48において、人物イ,ロ,ハが出演し、次に収録されるシーン10では、人物イ,ロ,ホ,へ,トが出演する。他のシーンにおいても同様に、出演人物が記録される。なお、番組構成入力装置100の表示画面では、図5に示すように、人物名によって出演人物が表示管理される。しかしながら、出演予定人物それぞれには、予め、固有の人物ID番号が付与されており、番組構成入力装置100の内部において出演人物は、この人物ID番号に基づいて登録管理される。
図6は、映像番組の企画立案者によって番組構成入力装置100に入力される収録場所情報(予定)の模式図である。図6に示されるように、各シーンが撮影される場所は、収録が始まる前(収録日程確定時)において予め分かっている。企画立案者は、予め分かっている収録予定に基づいて収録場所情報(予定)を番組構成入力装置100に入力する。番組構成入力装置100に入力された収録場所情報(予定)は番組構成入力装置100が有する図示しない記録装置に記録される。なお、番組構成入力装置100の表示画面では、図6に示すように、場所名によって収録場所が表示管理される。しかしながら、番組構成入力装置100の内部において収録場所は、緯度/経度/高度をそれぞれ示す数値情報に基づいて登録管理される。
図6では、最初に収録されるシーン48は、収録場所として、場所(1)が登録されており、次に収録されるシーン10では、収録場所として、場所(2)が登録されている。他のシーンにおいて同様に、収録場所が記録される。
本実施形態において収録支援情報は、図3に示す番組構成情報と、図4に示す収録日程情報(予定)と、図5に示す収録人物情報(予定)と、図6に示す収録場所情報(予定)とを含んで構成される。また、本実施形態において撮影状況情報は、収録日程情報(撮影)と、収録人物情報(撮影)と、収録場所情報(撮影)とを含んで構成される。
番組構成入力装置100には、第1の記録媒体16の記録再生装置(図示省略)が組み込まれており、映像番組の企画立案者によって番組構成入力装置100に入力される収録支援情報は、番組構成入力装置100によって第1の記録媒体16に記録される。収録支援情報が記録された第1の記録媒体16は、映像番組の撮影担当者によって番組構成入力装置100から取り出されたのち、撮影装置200の第1の装填器14に装填される。
第1の記録媒体16が第1の装填器14に装填されると、記録再生制御器13が、第1の記録媒体16から収録支援情報を読み出し、さらに、読み出した収録支援情報から第1の情報取得器7Aが、番組構成情報と、収録日程情報(予定)と、収録人物情報(予定)と、収録場所情報(予定)とを抽出する。抽出されたこれらの情報は、ファイル管理器9に入力される。ファイル管理器9は、これらの情報を記録して、映像番組を構成するシーン毎にクリップを分類して一括管理する際の分類基準情報として活用する。
なお、収録支援情報を伝達する構成は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に伝達する構成だけではない。例えば、番組構成入力装置100と撮影装置200とを有線/無線で相互通信可能に接続したうえで、番組構成入力装置100から撮影装置200に伝達してもよい。
さらには、収録支援情報は、入力装置100から撮影装置200に伝達させたのち、撮影装置200内の記録媒体にいったん記録させてから用いてもよいし、収録支援情報が必要となるたびに入力装置100から撮影装置200に伝達させる(例えば、有線/無線のネットワーク経由で取り込む)ようにしてもよい。
以上の収録準備が完了して収録が開始されると、撮像器1において光信号が撮像素子により電気信号に変換され、その後、記録映像信号処理器2に入力される。記録映像信号処理器2ではガンマ処理や、ニー処理等の信号処理が施され、デジタル映像信号として出力される。記録映像信号処理器2から出力された原映像のデジタル映像信号は、映像信号符号化器3に入力され、所定の方式により符号化が為されて、映像符号化ビットストリームとして出力される。
映像信号符号化器3から出力された映像符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、映像ファイル生成器10により所定のファイル形式の映像ファイルとしてファイル生成される。
一方、マイク4において音声が電気信号に変換され、マイク4から出力された音声信号が記録音声信号処理器5に入力される。記録音声信号処理器5では、マイク4から出力された音声信号をアンプにて増幅し、アンプから出力された音声信号はA/Dコンバータに入力されてデジタル信号に変換される。記録音声信号処理器5から出力されたデジタル音声信号は、音声信号符号化器6に入力され、ここで例えば、MPEGオーディオ、AC−3等の所定の方式により符号化が為されて、音声符号化ビットストリームとして音声信号符号化器6から出力される。
音声信号符号化器6から出力された音声符号化ビットストリームは、ファイル管理器9により管理されるファイル管理情報と共に、音声ファイル生成器11により所定のファイル形式の音声ファイルとしてファイル生成される。
また、ファイル管理器9により管理されるファイル管理情報を基に、1クリップを形成するのに必要な各映像ファイル、音声ファイルを索引出来るように、必要な情報を一括りにしてクリップ毎に管理する索引ファイルが索引ファイル生成器12により所定のファイル形式で生成される。
各ファイル生成器10,11,12で生成される映像,音声,索引の各ファイルのデータは、記録再生制御器13に入力され、各ファイルのデータの記録が制御される。記録再生制御器13に入力される映像ファイルと音声ファイル、及び、索引ファイルの各ファイルのデータは、記録媒体のECCブロック単位や消去単位等をクラスタ単位としたクラスタの整数倍を基本単位として、インターリーブされて、第1の装填器14を介して第1の記録媒体16に記録される。
第1の記録媒体16に記録していくクリップが多くなって、1つの記録媒体に収まり切らなくなると、順次、次の記録媒体に記録していき、第nの装填器15を介して第nの記録媒体17まで、連続的に記録される。
第1及び第nの記録媒体16,17は、撮影装置に着脱可能に構成された任意の記録媒体であり、例えば、PCカード型ハードディスクドライブやメモリカード等のカード状記録媒体、または、大容量化、高速化を図って複数のメモリカードを内蔵させたメモリカードパック等である。そして、例えば、記録媒体がメモリカードパックである場合、メモリカードパック内に内蔵されているメモリカードの数と同数のクラスタの数が記録再生制御器13での記録再生の基本単位となる。
なお、本実施形態では、第1の記録媒体16は、撮影装置200で撮影される撮影データの記録媒体としても用いられるほか、番組構成入力装置100から撮影装置200に収録支援情報を搬送する搬送媒体として用いられる。また、収録支援情報は、第1の記録媒体16を介して番組構成入力装置100から撮影装置200に搬送されるほか、番組構成入力装置100から撮影装置200に無線伝送されてもよく、収録支援情報の搬送入力形態はどのようなものであってもよい。無線伝送する場合には、撮影装置200は無線受信器を備えることになり、無線受信器と第1の情報取得器7Aとから入力器が構成される。
ファイル管理器9は、FAT32等のファイルシステムによりファイルを管理する。ここで管理に用いられるファイル管理情報は、個々の着脱可能な記録媒体を特定可能とする記録媒体のメディアID、映像ファイルを特定可能とする映像ファイルのファイルID、及び、音声ファイルを特定可能とする音声ファイルのファイルID、各ファイル内にあるフレームを特定可能とするフレームID、及び、各ファイルのファイル容量等である。本実施形態の撮影装置200では、これらの管理情報に加えて、収録支援情報と撮影状況情報とがファイル管理情報として用いられる。
映像ファイル生成器10、音声ファイル生成器11では、素材交換ファイル形式であるMXF(Material eXchange Format)やAVI(Audio Video Interleaving )、WAV等のファイル形式でファイルを生成し、索引ファイル生成器12では、XML(eXtensible Markup Language)等のテキストファイル形式やCSV(Comma Separated Value)ファイル形式等のファイル形式でファイルを生成する。
以下、撮影状況情報を構成する各情報(撮影)の具体的な生成方法の一例を説明する。
収録時間情報(撮影)は、次のようにして生成される。撮影時、撮影データには撮影日時情報が付加される。これらの撮影日時情報は、映像ファイル生成器10と音声ファイル生成器11とによって撮影装置200内の内蔵時計(暦機能付き)30から読み出されて撮影データに付加される。このとき(撮影時)、日程情報取得器7aは、撮影に同期して内蔵時計30から撮影日時情報を読み出してファイル管理器9に供給する。なお、日程情報取得器7aは、撮影に同期してGPS測位装置7fから撮影日時情報を取得してもよい。
収録人物情報(撮影)は、次のようにして生成される。前述したように、撮影時、出演人物αは、無線発信器7dを携帯している。無線発信器7dは、出演人物αに固有に設定された人物特定情報(人物ID番号)が付加された無線信号を送信する。無線発信器7dから発信される無線信号は、無線受信器7eにより受信される。人物情報取得器7bは、この無線信号を解析して人物特定情報(人物ID番号)を抽出する。一つの撮影に複数の人物が出演する場合においても、各出演人物を区別して個別に人物特定情報(人物ID番号)を抽出する。
人物情報取得器7bは、抽出した人物特定情報(人物ID番号)をファイル管理器9に供給する。ファイル管理器9は、それらの人物特定情報(人物ID番号)をその撮影(クリップ)に対応付けて記録する。
収録場所情報(撮影)は、次のようにして生成される。前述したように、撮影時、GPS測位装置7fは、測位動作を実施している。場所情報取得器7cは、GPS測位装置7fの測位結果に基づいて収録場所情報(撮影)を生成して、ファイル管理器9に供給する。
図3を参照して前述したように、1つの映像番組は、複数のシーンにより構成され、それらをシナリオに則り、順番通り、つなぎ合わせて、始めて、1つの映像番組が完成する。
図7はファイル管理器9により収集された撮影状況情報と収録クリップとの間の相関関係図である。図8は、各シーンと各クリップとの間の相関関係図であって、これはファイル管理器9による分類結果を示す。これらの相関関係図は、収録支援情報、撮影状況情報の供給を受けたファイル管理器9が作成して自身の分類テーブル(図示省略)に記録する。
図7に示すように、収録された各クリップには、収録日程情報(撮影)、収録人物情報(撮影)、収録場所情報(撮影)が対応付けられている。ファイル管理器9は、撮影時に生成されるこれらの撮影状況情報に基づき、収録されたクリップがどのシーンのクリップであるのかを、撮影状況情報と収録支援情報との照合により判定し、その判定結果に従って、各クリップを各シーンに自動的に分類する。
すなわち、図4に示すように、収録日程情報(予定)によって各シーンの収録開始時間と収録終了時間とが設定されているので、収録時に取得される各クリップの収録日程情報(撮影)を、収録日程情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。同様に、図5に示すように、収録人物情報(予定)によって各シーンに出演する出演人物が設定されているので、収録時に取得される収録人物情報(撮影)を、収録人物情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンのクリップなのかを判定する。同様に、図6に示すように、収録場所情報(予定)によって各シーンの収録場所が設定されているので、収録時に取得される収録場所情報(撮影)を、収録場所情報(予定)と番組構成情報とに照合することで、収録しているクリップがどのシーンの収録クリップなのかを判定する。
以下、クリップを分類する方法の一例を、図7,図8を参照して説明する。ここでは、シーン48,シーン10,シーン3を例にして説明する。
図4〜図6に示すように、シーン48の収録日程情報(予定)は[S1≦収録日程(予定)<E1]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(予定)は[場所(1)]であると仮定する。さらに、クリップ1,2,3の収録日程情報(撮影)は[S1≦(T1〜T3)<E1]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ハ)]であり、収録場所情報(撮影)は[場所(1)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ1,2,3の収録日程情報(撮影)は、シーン48の収録日程情報(予定)を満たす。
[S1≦(T1〜T3)<E1]、
・クリップ1,2,3の収録人物情報(撮影)は、シーン48の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ハ)]=[人物(イ),人物(ロ),人物(ハ)]
・クリップ1,2,3の収録場所情報(撮影)は、シーン48の収録場所情報(予定)を満たす。
[場所(1)]=[場所(1)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ1,2,3をシーン48に分類する。
一方、図4〜図6に示すように、シーン10の収録日程情報(予定)は[S2≦収録日程(予定)<E2]であり、収録人物情報(予定)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。クリップ4〜7の収録日程情報(撮影)は[S2≦(T4〜T7)<E2]であり、収録人物情報(撮影)は[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]であり、収録場所情報(撮影)は[場所(2)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ4〜7の収録日程情報(撮影)は、シーン10の収録日程情報(予定)を満たす。
[S2≦(T4〜T7)<E2]、
・クリップ4〜7の収録人物情報(撮影)は、シーン10の収録人物情報(予定)を満たす。
[人物(イ),人物(ロ),人物(ホ),人物(へ),人物(ト)]=[人物(イ),人物(ロ),人物(ホ),人物(ヘ),人物(ト)]
・クリップ4〜7の収録場所情報(撮影)は、シーン10の収録場所情報(予定)を満たす。
[場所(2)]=[場所(2)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ4〜7をシーン10に分類する。
一方、図4〜図6に示すように、シーン3の収録日程情報(予定)は[T50≦収録日程(予定)<E50]であり、収録人物情報(予定)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。さらに、クリップ199,200の収録日程情報(撮影)は[S50≦(T199、T200)<E50]であり、収録人物情報(撮影)は[人物(チ),人物(リ),人物(ヌ),人物(ル)]であり、収録場所情報(撮影)は[場所(50)]であると仮定する。
この場合、ファイル管理器9は、次のような判断を下す。すなわち、
・クリップ199,200の収録日程情報(撮影)は、シーン3の収録日程情報(予定)を満たす。
[S50≦(T199,T200)<E50]、
・クリップ199,200の収録人物情報(撮影)は、シーン3の収録人物情報(予定)を満たす。
[人物(チ),人物(リ),人物(ヌ),人物(ル)]=[人物(チ),人物(リ),人物(ヌ),人物(ル)]
・クリップ199,200の収録場所情報(撮影)は、シーン3の収録場所情報(予定)を満たす。
[場所(50)]=[場所(50)]
このような判断を下したファイル管理器9は、図8に示すように、番組構成情報への照合に基づいてクリップ199,200をシーン3に分類する。
図9は収録前と収録後の記録媒体における記録内容の対比図である。図9に示すように、第1の記録媒体16には、メディアIDとしてメディア1が付与されている。メディアIDは記録媒体を識別するID番号である。このような第1の記録媒体16に収録支援情報を構成する番組構成情報と収録日程情報(予定)と収録人物情報(予定)と収録場所情報(予定)とが収録開始以前に予め記録されている。記録は、番組構成入力装置100により実施される。このような情報が記録された第1の記録媒体16が本撮影装置200に装填される。これにより、第1の記録媒体16から収録支援情報が読み出されてファイル管理器9に格納される。この状態で以下に説明する映像収録が行われる。
収録が開始されると、第1の記録媒体16の空き領域に、収録した映像ファイル,音声ファイルとともに、撮影状況情報を構成する収録日程情報(撮影)と収録人物情報(撮影)と収録場所情報(撮影)とが収録されていく。これらの撮影状況情報は、映像ファイルや音声ファイルに関連付けて第1の記録媒体16に収録される。
収録後には、図9に示すように、映像ファイルと音声ファイルはクリップとして一括りにされて第1の記録媒体16に記録されると共に、シーン毎に一括りにされ、番組構成とリンクしたクリップ情報が書かれている索引ファイルが記録される。索引ファイルは次のようにして作成される。
収録時には第2の情報取得器7Bによって、撮影状況情報が同時に生成されて、ファイル管理器9に供給される。ファイル管理器9は、これらの撮影状況情報を、第1の記録媒体16内の収録支援情報に照合することで、撮影中のクリップと番組構成とを関連付ける索引ファイルを生成する。ファイル管理器9は、生成した索引ファイルを、記録中の記録媒体(この場合は第1の記録媒体16)に記録する。
次に、図9〜11を参照して、パーソナルコンピュータなどの外部の編集装置での編集作業を説明する。図10は索引ファイルの内容の一例を示す模式図である、図11は編集リストの一例を示す図である。
図9に示すように、収録後には、第1の記録媒体16に、映像ファイル、音声ファイル、及び、索引ファイルの各ファイルが記録されており、各ファイルは、記録媒体毎に、所定のファイルシステムにより管理されている。
図10に示すように、索引ファイルの中には、メディア1,メディア2等の記録媒体のメディアID、映像ファイル1,2,3…、音声ファイル1,2,3…等の各ファイルのファイルIDが、クリップ1,2,3…、等のクリップID、収録支援情報、および撮影状況情報に基づいて、各クリップ毎に分類されている。分類されたメディアIDは、シーン毎に一括りにされて、シーン1,2,3…等のシーンIDと共に記録されている。
編集装置では、先ず、第1の記録媒体16が挿入され、索引ファイルが読み出されて、各クリップの映像,音声として確認可能な映像,音声ファイルが特定される。編集者は、映像ファイル,音声ファイルから再生される映像,音声を、シーン毎に視聴しながら、各クリップが必要かどうかOK/NGを判断し、所望のストーリーに合うように、図11に示されるような編集リストを作成する。作成された編集リストは、テキストファイルなど所定のファイル形式で、編集装置により第1の記録媒体16に記録され(図示せず)、本編集終了時には、再生時に、この編集リストに則って再生が為される。
再生時には、第1の記録媒体16〜第nの記録媒体17から番組構成順序に従って、必要なクリップが再生される。各クリップは、索引ファイルに記載されて、一括管理されているクリップ毎の映像と音声のファイルとをそれぞれ復号,再生する。
以上のように本実施の形態によれば、予め記録された収録支援情報を元に、収録された各クリップが、映像番組を構成するシーン毎に分類されて一括管理され、収録終了と同時に、粗編集が既に終了した状態となるので、後は、シーン毎にまとめられた所望のクリップを選択するだけで、本編集を終了する事が出来、本編集の手間を大幅に削減する事が出来る。
また、収録時に、予め収録内容とその日程が分かる為、収録シーンの取りこぼしなど、人的ミスの発生を未然に防止する事が出来、収録から編集、番組完成まで、トータルのワークフローを、より効率的に改善する事が出来る。
なお、上述した実施の形態1では、収録支援情報、撮影状況情報として、日程、人物、場所の3つの情報を用いている。これは、クリップの分類精度を高めるために本実施形態において採用された構成である。そのため、収録支援情報,撮影状況情報として、日程,人物,場所の3つの情報のうちの任意の1つないし任意の2つの情報を用いてもよいのはいうまでもない。さらには、3つ以上の情報を、収録支援情報,撮影状況情報として用いてもよいのもいうまでもない。
さらには、収録支援情報,撮影状況情報として、各クリップにおいて、出演者が喋る台詞を用いてもよい。その場合には、撮像装置200’は、図12に示すように、マイク4に入力される音声信号を音声認識する音声認識器31をさらに備えたうえで次のように処理される。
各シーンの台詞情報は番組構成入力装置100に入力されて第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’に取り込まれる。ここでいう各シーンの台詞情報とは、台本を参照してそのシーンを特定可能な台詞のことであって、例えば、そのシーンを択一的に特定できる場所,時間,状況を示す台詞のことである。台詞情報は、映像番組の企画立案者によって台本から選び出されたうえで番組構成入力装置100に入力される。第1の記録媒体16を介して撮影装置200’に取り込まれた各シーンの台詞情報は、第1の情報取得器7Aで抽出されたのちファイル管理器9に記憶される。ここでは、台詞情報は、撮影支援情報として用いられる。
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影に際してマイク4が収録する音声情報(出演者の台詞情報)は、音声認識器30によって音声認識処理されてテキストデータ(台詞)に変換されたのち、そのテキストデータ(台詞)は、ファイル管理器9に出力される。ファイル管理器9は、供給されるテキストデータ(台詞)と、予め記憶している各シーンの台詞情報(台本)とを照合することで、収録したクリップを分類する。以上の処理では、台詞情報は撮影支援情報として用いられ、テキストデータ(台詞)は、撮影状況情報として用いられる。マイク4と音声認識器30とから撮影状況取得器が構成される。なお、マイク4は、撮影装置200’に一体に組み込まれたマイクのほか、撮影装置200’に有線/無線で接続された別体のマイクであってもよい。
さらには、収録支援情報,撮影状況情報として、各クリップにおける背景イメージを用いてもよい。その場合、撮像装置200’’は、図13に示すように、分類テーブル32をさらに備えており、その分類テーブル32には、各シーンの背景イメージ情報(予定)が格納されている。
各シーンの背景イメージ情報(予定)は、例えば、映像番組の企画立案者等によって各シーンの撮影場所が下見される際に予め任意の撮影装置を用いて撮影されたうえで、番組構成入力装置100に入力される。番組構成入力装置100に入力された各シーンの背景イメージ情報(予定)は、ここで第1の記録媒体16に記録されたのち、第1の記録媒体16を介して撮影装置200’’に取り込まれる。第1の記録媒体16を介して撮影装置200’’に取り込まれた各シーンの背景イメージ情報(予定)は、第1の情報取得器7Aで抽出されたのちファイル管理器9を介して分類テーブル32に記憶される。分類テーブル32は、各背景イメージ情報(予定)を各シーンに対応付けた状態で記憶する。
以上の準備処理を行ったうえで、各クリップの撮影(収録)が実施される。撮影により得られた映像情報は、映像ファイル生成器10からファイル管理器9に出力される。ファイル管理器9は、供給される映像データと、予め分類テーブル32に記憶している各シーンの背景イメージ情報(予定)とを映像照合することで、収録したクリップを分類する。
以上の処理では、背景イメージ情報(予定)は撮影支援情報として用いられ、実際に撮影した映像情報は、撮影状況情報として用いられる。撮像器1と記録映像信号処理器2と映像ファイル生成器10とから撮影状況取得器が構成される。
さらには、図12に示す音声認識器31を用いれば、次に説明する、さらなる詳細なクリップ分類処理を実施することができる。
撮影されたクリップの良悪に関する粗判断は、撮影管理者(撮影監督)によって、収録直後の映像収録現場において行われる。粗判断は、例えば、出演者の演技の出来などを基準にして実施される。したがって、撮影後における撮影管理者(撮影監督)の収録構想の中では、各収録クリップは、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとに既に粗分類されている。
以上の撮影手順に基づき撮影現場では、一般にクリップ撮影直後において、撮影管理者(撮影監督)が大声で”OK”と発声したクリップは、映像番組の構成要素(シーン)となりうる候補クリップとして粗判断されたとみなされる。このことを利用して、次のようにしてファイル管理器9は、映像番組の構成要素(シーン)となりうる候補クリップとそうでない非候補クリップとを分類する。
音声認識器31は、マイク4が収録した音声情報を常時音声認識処理によりテキストデータ化してファイル管理器9に供給する。ファイル管理器9は、音声認識器31から供給される音声認識結果(テキストデータ)において、撮影管理者(撮影監督)の”OK”音声が存在するか否かを判断する。そして、ファイル管理器9は、”OK”音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、OK”音声が存在しないクリップを映像番組の構成要素(シーン)となりえない非候補クリップに分類する。なお、撮影管理者(撮影監督)の”OK”音声は、クリップ撮影直後に発せられるため、ファイル管理器9は、クリップ撮影末尾位置においてOK”音声が存在するか否かを判断することで、誤判定(台詞内にOK音声が存在した場合の誤認識等)を防いで判定精度を高めることができる。
また、上述した説明では、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断を、撮影管理者(撮影監督)の”OK”音声の有無により実施していたが、図14を参照して次に説明するようにしてもよい。すなわち、クリップを映像番組の構成要素(シーン)となりうる候補クリップの判断は、撮影管理者(撮影監督)の”OK”音声の他、撮影管理者(撮影監督)によるそのクリップの内容判断が良好なものを示す複数の音声により実施してもよい。良好なものを示す複数の音声としては、”最高”,”上々”,”グッド”,”まずまず”等が挙げられるが、撮影管理者(撮影監督)の口癖によっては他にも種々のものが存在する。そこで、図14に示す撮像装置200’’’では、分類テーブル33をさらに備えている。撮像装置200’’’の撮影作業者は、予め、撮影を担当する撮影管理者(撮影監督)が良好なクリップ撮影結果が得られた場合に発する単語を調べておいて、分類テーブル33に登録しておく。そして、ファイル管理器9は、クリップ撮影時において、音声認識器31から供給される音声認識結果(テキストデータ)と、分類テーブル33に登録している単語(撮影管理者(撮影監督)が良好と思う場合に発する単語)とを照合することで、撮影結果が良好な場合に発する音声を撮影管理者(撮影監督)が発声したか否かを判断する。そして、ファイル管理器9は、良好な場合に発する音声が存在するクリップを映像番組の構成要素(シーン)となりうる候補クリップに分類し、良好な場合に発する音声が存在しないクリップを映像番組の構成要素となりえない非候補クリップに分類する。
以上の評価処理を行う場合、マイク4と音声認識器31とから評価入力器が構成される。また、撮影結果が良好な場合に発する音声の認識結果(テキストデータ)から収録状況評価が構成される。
なお、評価入力器を構成するマイクは、撮影装置200に接続された撮影用のマイク4だけではなく、有線/無線通信により撮影装置200に接続されたうえで撮影管理者(撮影監督)が携帯する携帯型のマイクから構成することもできる。
また、上述した説明では、マイク4や携帯型のマイクで収集される撮影管理者(撮影監督)の音声を音声認識器31でテキストデータに変換したうえで、分類テーブル33内の単語に照合させることで、その映像クリップを評価判定(分類)していた。しかしながら、収集した撮影管理者(撮影監督)の音声をテキストデータに変換することなく、音声のままで評価判定してもよい。この場合、分類テーブル33には、撮影結果が良好な場合に撮影管理者(撮影監督)が発する音声データそのものが格納される。ファイル管理器9は、収集した撮影管理者(撮影監督)の音声と分類テーブル33に格納している音声データとを音声データ同士で照合することで評価判定(分類)する。照合は、例えば、声紋を比較することで実施される。
また、撮影管理者(撮影監督)による評価入力は音声入力だけでなく、この他、有線/無線通信により撮影装置200に接続された評価入力器(図示省略)を撮影管理者(撮影監督)が携帯しながらクリップ撮影を行い、撮影直後に、撮影管理者(撮影監督)が評価入力器に対してボタン操作を実施して評価入力してもよい。その場合、評価入力器に入力される評価情報(収録状況評価)は、有線/無線通信を介して撮影装置200のファイル管理器9に供給される。
(実施の形態2)
図15は本発明の実施の形態2における撮影装置のブロック構成図である。
本発明の実施の形態2の撮影装置は、図2に示す実施の形態1の構成に加え、映像ファイル再生器18、映像信号合成器19、表示器としてのビューファインダー20を備える。
本発明の撮影装置を用いてビューファインダー20に撮影映像と予め記録された映像の合成表示を行いながら、撮影映像信号を記録媒体に記録する動作について説明する。
第1の記録媒体16から第nの記録媒体17のいずれかの中に予め記録された映像ファイルが記録再生制御器13によって読み出される。読み出された映像ファイルは映像ファイル再生器18を用いて再生される。映像信号合成器19によって、映像ファイル再生器18を用いて再生された映像信号と、撮像器1によって撮像され記録映像信号処理器2によって信号処理を行われた映像信号とが合成される。合成された映像信号はビューファインダー20に表示される。一方、映像信号合成器19によって合成される信号とは別に、記録映像信号処理器2から出力される映像信号は、映像信号符号化器3によって符号化される。またマイク4より音声信号が出力される。記録音声処理器5によってマイクより出力された音声信号に信号処理を行ったうえで、音声信号符号化器6によって符号化される。符号化された映像信号と、符号化された音声信号とは、映像ファイル生成器10、及び音声ファイル生成器11によって所定のファイル形式によって記録媒体に記録される。このとき記録される映像ファイルは予め記録されていた映像ファイルとは別ファイルに記録される。
この動作について図16を参照して説明する。
記録媒体に予めクロマキー合成などに用いる映像を記録しておく。予め記録しておいた映像信号を再生する。再生と同時に合成する映像を撮影する。予め記録された映像信号と撮影された映像信号とは合成され、ビューファインダー20上に表示される。撮影された映像信号は予め記録された映像信号とは別に符号化され、映像ファイルとなる。記録媒体から予め記録された映像信号を読み出しながら、撮影された映像信号を記録媒体に記録する。
以上のように本実施の形態によれば、最終的にはクロマキー合成などの加工処理を行うことを目的とした映像を撮影する場合に、予め記録媒体に記録された合成用に使用する映像と、撮影された映像とを撮影装置内で合成処理し、合成された映像をビューファインダー20等の表示器で表示して確認しながら撮影を行うことにより、収録の段階で、合成処理を施した最終的な形の映像として撮影した映像を評価することが可能となる。したがって、記録媒体を収録現場から持ち帰って、実際に編集、加工処理を行ってから撮影した映像を評価するのに対して、迅速かつ確実に最適な映像を選択することができる。また、記録媒体に記録される撮影された映像信号と、予め記録されている映像信号とは別ファイルになっており、かつ記録媒体に記録される映像信号は合成処理が行われていない撮影した映像信号そのものであるため、撮影後に行う編集作業の自由度を広げることが可能となる。
尚以上一連の実施の形態における映像信号の符号化は、DV規格やMPEG2規格など、高効率な符号化が考えられるが、符号化の規格であれば如何なる規格でも良く、例えば、MPEG4,JPEG2000,Motion JPEG2000等の規格であっても良い。
また、装填器は、種類の異なるカードスロットを設けて、タイプの異なるカード状記録媒体を着脱可能とする構成としても良い。例えば、高解像度の再生映像を得る高ビットレートのビットストリームをPCカード TYPE1,TYPE2,もしくは、TYPE3の形状をした大容量、高転送速度のメモリカードパックに記録し、低解像度の再生映像が得られる低ビットレートのビットストリームを切手サイズの比較的容量の小さいSDメモリカード等のメモリカードに記録する等の方法が考えられる。
更に、上述した各実施形態においては、第1の装填器に装填される第1の記録媒体に収録支援情報を予め記録しておいたが、特定の装填器に装填される記録媒体のみに収録支援情報をまとめて記録しておかなくてもよく、例えば、複数の収録支援ファイルを複数の記録媒体に分けて記録しておいても良い。
また、記録媒体は、PCIバスなどの汎用バスに設けられた複数の装填器に着脱する構成としても良い。
本発明の撮影装置は、番組制作のワークフローにおいて、素材の収録時にメタデータを利用した効率的、かつ最適な素材の収録を行うことにより、番組制作工程全体を効率化し、制作時間の短縮、制作コストの削減を実現することができる映像音声情報を収録する、複数の着脱可能な記録媒体を装填可能な撮影装置等として有用である。
本発明の実施の形態1における撮影システムの構成図である。 本発明の実施の形態1における撮影装置のブロック構成図である。 本発明の番組構成情報の模式図である。 本発明の収録日程情報(予定)の模式図である。 本発明の収録人物情報(予定)の模式図である。 本発明の収録場所情報(予定)の模式図である。 本発明の収録クリップと収録クリップに付帯する撮影状況情報の対応図である。 本発明の各シーンと各シーンを構成するクリップの関係図である。 本発明の収録前と収録後の記録媒体における記録内容の対比図である。 本発明における索引ファイルの内容の一例を示す模式図である。 編集リストの一例を示す図である。 実施の形態1の第1の変形例における撮影装置の構成図である。 実施の形態1の第2の変形例における撮影装置の構成図である。 実施の形態1の第3の変形例における撮影装置の構成図である。 本発明の実施の形態2における撮影装置のブロック構成図である。 本発明の実施の形態2における動作の説明図である。
符号の説明
1 撮像器
2 記録映像信号処理器
3 映像信号符号化器
4 マイク
5 記録音声信号処理器
6 音声信号符号化器
7A 第1の情報取得器
7B 第2の情報取得器
7a 日程情報取得器
7b 人物情報取得器
7c 場所情報取得器
7d 無線発信器
7e 無線受信器
7f GPS測位装置
9 ファイル管理器
10 映像ファイル生成器
11 音声ファイル生成器
12 索引ファイル生成器
13 記録再生制御器
14 第1の装填器
15 第nの装填器
16 第1の記録媒体
17 第nの記録媒体
18 映像ファイル再生器
19 映像信号合成器
20 ビューファインダー
30 内蔵時計
31 音声認識器
32 分類テーブル
33 分類テーブル
100 番組構成入力装置
200 撮影装置
200’ 撮影装置
α 撮影に出演する人物

Claims (18)

  1. 映像音声情報を収録する撮影器と、
    前記映像音声情報の収録支援情報が入力される入力器と、
    前記収録支援情報に基づいて前記映像音声情報を分類する管理器と、
    を有し、
    前記撮影器は、前記入力器に入力される前記収録支援情報を保持したうえで前記映像音声情報の収録を行い、
    前記管理器は、前記映像音声情報の撮影時に取得される当該映像音声情報の撮影時の状況を示す撮影時状況情報を前記収録支援情報に照合することで、収録した前記映像音声情報を分類する、
    撮影装置。
  2. 前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の構成に関する情報であり、
    前記管理器は、前記映像番組の構成に関する情報を前記撮影状況情報に照合することで、各映像音声情報を分類する、
    請求項1の撮影装置。
  3. 前記映像番組は複数のシーンから構成されるとともに、これらシーン毎に前記収録支援情報は設定されており、
    前記管理器は、前記映像番組の構成に関する情報を前記撮影状況情報に照合することで、各映像音声情報を前記シーン毎に分類する、
    請求項2の撮影装置。
  4. 前記撮影器による前記映像音声情報の撮影時の撮影状況情報を取得する撮影状況取得器をさらに有し、
    前記管理器は、前記収録支援情報を前記撮影状況情報に照合することで、前記映像音声情報を分類する、
    請求項1の撮影装置。
  5. 前記収録支援情報は、前記映像音声情報を撮影する日程予定に関する情報であり、
    前記撮影状況情報は、前記映像音声情報を実際に撮影した収録日程に関する情報である、
    請求項4の撮影装置。
  6. 前記収録支援情報は、前記映像音声情報を撮影する収録予定場所に関する情報であり、
    前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所に関する情報である、
    請求項4の撮影装置。
  7. 前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組の出演予定人物に関する情報であり、
    前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物に関する情報である、
    請求項4の撮影装置。
  8. 前記収録支援情報は、前記映像音声情報を素材にして制作される映像番組においてその出演人物が喋る予定の台詞に関する情報であり、
    前記撮影状況情報は、実際に撮影した前記映像音声情報に出演した人物が出演中に喋った台詞に関する情報である、
    請求項4の撮影装置。
  9. 前記収録支援情報は、前記映像音声情報を撮影する収録予定場所の背景映像情報であり、
    前記撮影状況情報は、前記映像音声情報を実際に撮影した収録場所の背景映像情報である、
    請求項4の撮影装置。
  10. 前記管理器の分類結果を基に、前記映像音声情報を一括管理する索引情報を生成する索引情報生成器と、
    前記映像音声情報と前記索引情報とを着脱可能な記録媒体に記録する記録器と、
    をさらに有する請求項1の撮影装置。
  11. 前記収録支援情報は前記記録媒体に書き込まれており、
    前記入力器は、前記記録媒体に書き込まれた前記収録支援情報を読み出し、
    前記記録器は、前記収録支援情報が書き込まれた前記記録媒体を他の記録媒体とを区別することなく記録用の記録媒体として用いる、
    請求項10の撮影装置。
  12. 前記索引情報は、前記映像音声情報を特定可能な映像情報IDおよび音声情報IDと、個々の記録媒体を特定可能な記録媒体IDとを有する、
    請求項10の撮影装置。
  13. 前記記録媒体は、PCカード規格に準拠している、
    請求項10の撮影装置。
  14. 前記記録器は、PCカード規格に準拠したタイプの異なるPCカード、及び、各種メモリカード規格に準拠したメモリカードを記録可能である、
    請求項10の撮影装置。
  15. 撮影作業者によって実行される前記映像音声情報の収録状況の評価に関する入力を受け付ける評価入力器をさらに有し、
    前記管理器は、前記評価入力器に入力される収録状況評価に基づいて、収録した前記映像音声情報をさらに分類する、
    請求項1の撮影装置。
  16. 前記評価入力器は、撮影作業者による音声入力を受け付けたうえで当該音声入力を音声認識によってテキストデータからなる前記収録状況評価に変換する、
    請求項15の撮影装置。
  17. 前記収録状況評価を分類する分類テーブルをさらに備えており、
    前記管理器は、前記評価入力器から供給される前記収録状況評価のテキストデータを前記分類テーブルに照合することで、収録した前記映像音声情報をさらに分類する、
    請求項16の撮影装置。
  18. 前記収録支援情報の作成者による入力を受けるとともに、入力される前記収録支援情報を前記記録媒体に記録する番組構成入力装置と、
    請求項11の撮影装置と、
    を備える撮影システム。
JP2006512379A 2004-04-16 2005-04-14 撮影装置および撮影システム Active JP4580925B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004121708 2004-04-16
JP2004121708 2004-04-16
JP2004243856 2004-08-24
JP2004243856 2004-08-24
PCT/JP2005/007259 WO2005101825A1 (ja) 2004-04-16 2005-04-14 撮影装置および撮影システム

Publications (2)

Publication Number Publication Date
JPWO2005101825A1 true JPWO2005101825A1 (ja) 2007-08-16
JP4580925B2 JP4580925B2 (ja) 2010-11-17

Family

ID=35150351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006512379A Active JP4580925B2 (ja) 2004-04-16 2005-04-14 撮影装置および撮影システム

Country Status (4)

Country Link
US (1) US7924325B2 (ja)
EP (1) EP1742471B1 (ja)
JP (1) JP4580925B2 (ja)
WO (1) WO2005101825A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0418152D0 (en) * 2004-08-13 2004-09-15 Rpptv Ltd Remote program production
US9032297B2 (en) * 2006-03-17 2015-05-12 Disney Enterprises, Inc. Web based video editing
TWI496470B (zh) * 2008-03-05 2015-08-11 Univ Nat Central Digital stethoscope for extensive collection of clinical lung tone signals
JP5075723B2 (ja) * 2008-04-17 2012-11-21 株式会社日立国際電気 メタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法
US8209309B1 (en) * 2008-08-27 2012-06-26 Bank Of America Corporation Download detection
US8194993B1 (en) * 2008-08-29 2012-06-05 Adobe Systems Incorporated Method and apparatus for matching image metadata to a profile database to determine image processing parameters
US8724007B2 (en) 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
US8391640B1 (en) 2008-08-29 2013-03-05 Adobe Systems Incorporated Method and apparatus for aligning and unwarping distorted images
US8368773B1 (en) 2008-08-29 2013-02-05 Adobe Systems Incorporated Metadata-driven method and apparatus for automatically aligning distorted images
US8340453B1 (en) 2008-08-29 2012-12-25 Adobe Systems Incorporated Metadata-driven method and apparatus for constraining solution space in image processing techniques
US8842190B2 (en) 2008-08-29 2014-09-23 Adobe Systems Incorporated Method and apparatus for determining sensor format factors from image metadata
US20110242395A1 (en) * 2010-04-01 2011-10-06 Sanyo Electric Co., Ltd. Electronic device and image sensing device
US20140013193A1 (en) * 2012-06-29 2014-01-09 Joseph John Selinger Methods and systems for capturing information-enhanced images
WO2014091484A1 (en) * 2012-12-11 2014-06-19 Scooltv, Inc. A system and method for creating a video
WO2014143534A1 (en) * 2013-03-14 2014-09-18 Motorola Mobility Llc Device for real-time recording of audio for insertion in photographic images
JP6692778B2 (ja) * 2017-07-31 2020-05-13 グリー株式会社 ファイルシステム、ファイルシステム制御プログラム及びファイルシステム制御方法
US11159327B2 (en) * 2018-08-06 2021-10-26 Tyson York Winarski Blockchain augmentation of a material exchange format MXF file
JP2021086340A (ja) * 2019-11-27 2021-06-03 Film Solutions株式会社 撮影支援システム、撮影案内情報出力方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934912A (ja) * 1995-07-20 1997-02-07 Sony Corp 映像音声素材記録装置
JP2001077777A (ja) * 1999-09-08 2001-03-23 Sony Corp 放送番組収録装置および記録媒体
JP2001292410A (ja) * 2000-04-10 2001-10-19 Sony Corp データ送信装置、データ受信装置及びデータ送受信システム
JP2002077861A (ja) * 2000-09-05 2002-03-15 Nable Research Co Ltd インターネットテレビ放送システム
JP2003078868A (ja) * 2001-09-04 2003-03-14 Toshiba Corp メディア作品制作支援装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3744629B2 (ja) 1996-12-09 2006-02-15 ソニー株式会社 指標画像情報修正方法および装置
JP3914643B2 (ja) 1998-09-10 2007-05-16 日本放送協会 番組情報管理編集システムとそれに使用される階層化番組情報蓄積管理装置
EP1102271B8 (en) 1999-11-05 2016-12-07 Sony Europe Limited Method of generating audio and/or video signals and apparatus therefore
JP4792686B2 (ja) 2000-02-07 2011-10-12 ソニー株式会社 画像処理装置及び画像処理方法並びに記録媒体
US20030133022A1 (en) * 2002-01-15 2003-07-17 Melton Gerod C. Digital video editing device and method
JP3993027B2 (ja) * 2002-06-04 2007-10-17 富士フイルム株式会社 デジタルカメラ及び撮影システム
JP4010227B2 (ja) * 2002-11-11 2007-11-21 ソニー株式会社 撮像装置、コンテンツ制作方法、プログラム、プログラム記録媒体
JP4418183B2 (ja) * 2003-06-26 2010-02-17 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934912A (ja) * 1995-07-20 1997-02-07 Sony Corp 映像音声素材記録装置
JP2001077777A (ja) * 1999-09-08 2001-03-23 Sony Corp 放送番組収録装置および記録媒体
JP2001292410A (ja) * 2000-04-10 2001-10-19 Sony Corp データ送信装置、データ受信装置及びデータ送受信システム
JP2002077861A (ja) * 2000-09-05 2002-03-15 Nable Research Co Ltd インターネットテレビ放送システム
JP2003078868A (ja) * 2001-09-04 2003-03-14 Toshiba Corp メディア作品制作支援装置及びプログラム

Also Published As

Publication number Publication date
EP1742471A1 (en) 2007-01-10
EP1742471A4 (en) 2008-01-09
WO2005101825A1 (ja) 2005-10-27
JP4580925B2 (ja) 2010-11-17
US7924325B2 (en) 2011-04-12
EP1742471B1 (en) 2012-07-18
US20080106614A1 (en) 2008-05-08

Similar Documents

Publication Publication Date Title
JP4580925B2 (ja) 撮影装置および撮影システム
JP4711379B2 (ja) オーディオ及び/又はビデオマテリアルの識別及び処理方法
JP4591982B2 (ja) オーディオ信号及び/又はビデオ信号生成装置、及びオーディオ信号及び/又はビデオ信号生成方法
JP4803544B2 (ja) オーディオ/ビデオ再生装置及び方法
JP4794740B2 (ja) オーディオ/ビデオ信号生成装置、及びオーディオ/ビデオ信号生成方法
KR101007508B1 (ko) 비디오 신호 처리 장치, 비디오 신호 기록 장치, 비디오신호 재생 장치, 비디오 신호 처리 장치의 처리 방법,비디오 신호 기록 장치의 처리 방법, 비디오 신호 재생장치의 처리 방법, 기록 매체
US20080033983A1 (en) Data recording and reproducing apparatus and method of generating metadata
WO2004002144A1 (ja) メタデータ作成装置、その作成方法および検索装置
US8301995B2 (en) Labeling and sorting items of digital data by use of attached annotations
US20100080536A1 (en) Information recording/reproducing apparatus and video camera
JP2005203881A (ja) 情報処理装置および方法、並びにプログラム
KR20060046638A (ko) 편집 장치 및 방법, 프로그램, 및 기록 매체
US7636721B2 (en) Picture program production assistance system
JP6168453B2 (ja) 信号記録装置、カメラレコーダおよび信号処理装置
JP4946935B2 (ja) 撮像装置
JP4962783B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
US20060077265A1 (en) Picture management method, picture management apparatus, picture management system
US7444068B2 (en) System and method of manual indexing of image data
JP4136491B2 (ja) 再生装置
JP4404247B2 (ja) 映像プログラム制作支援システム,処理装置,映像プログラムの処理方法及びプログラム
KR101025505B1 (ko) 데이터 처리 장치 및 데이터 처리 방법, 편집 처리 장치 및 편집 처리 방법, 기록 매체
JP2002027396A (ja) 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム
KR100362209B1 (ko) 개인의 동영상 제작시스템, 제작 및 운용방법
CN100574407C (zh) 成像设备和成像系统
JP4672131B2 (ja) 撮像装置および番組制作方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4580925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150