JP4803544B2 - オーディオ/ビデオ再生装置及び方法 - Google Patents

オーディオ/ビデオ再生装置及び方法 Download PDF

Info

Publication number
JP4803544B2
JP4803544B2 JP2001573477A JP2001573477A JP4803544B2 JP 4803544 B2 JP4803544 B2 JP 4803544B2 JP 2001573477 A JP2001573477 A JP 2001573477A JP 2001573477 A JP2001573477 A JP 2001573477A JP 4803544 B2 JP4803544 B2 JP 4803544B2
Authority
JP
Japan
Prior art keywords
audio
video
metadata
item
recording medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001573477A
Other languages
English (en)
Other versions
JP2003529989A (ja
Inventor
ウィリアムズ、マイケル
キッド、アンドリュー
ソープ、ジョナサン
ターナー、アラン
デビット、モルガン、ウィリアム、アモス
ハラディン、ヴィンセント、カール
マクグラス、マーク、ジョン
Original Assignee
ソニー ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to GB0008432A priority Critical patent/GB2361128A/en
Priority to GB0008429A priority patent/GB2361127A/en
Priority to GB0008432.7 priority
Priority to GB0008429.3 priority
Priority to GB0008434A priority patent/GB2361098A/en
Priority to GB0008434.3 priority
Priority to PCT/GB2001/001452 priority patent/WO2001075884A2/en
Application filed by ソニー ヨーロッパ リミテッド filed Critical ソニー ヨーロッパ リミテッド
Publication of JP2003529989A publication Critical patent/JP2003529989A/ja
Application granted granted Critical
Publication of JP4803544B2 publication Critical patent/JP4803544B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/107Programmed access in sequence to addressed parts of tracks of operating record carriers of operating tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • G11B27/323Time code signal, e.g. on a cue track as SMPTE- or EBU-time code
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/326Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is a video-frame or a video-field (P.I.P.)
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/328Table of contents on a tape [TTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/65Solid state media wherein solid state memory is used for storing indexing information or metadata
    • G11B2220/652Solid state media wherein solid state memory is used for storing indexing information or metadata said memory being attached to the recording medium
    • G11B2220/655Memory in cassette [MIC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/65Solid state media wherein solid state memory is used for storing indexing information or metadata
    • G11B2220/652Solid state media wherein solid state memory is used for storing indexing information or metadata said memory being attached to the recording medium
    • G11B2220/657Memory in disc [MID]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Description

【0001】
【発明の属する技術分野】
本発明は、オーディオ/ビデオマテリアルを再生するオーディオ/ビデオ再生装置及び方法に関する。
【0002】
また、本発明は、ビデオ信号及びオーディオ信号の処理を行うビデオ処理装置、オーディオ処理装置及び方法に関する。
【0003】
また、本発明は、オーディオ/ビデオプロダクションを構成するオーディオ/ビデオマテリアルのアイテムを組み合わせるための編集システムに関する。また、本発明は、オーディオ/ビデオプロダクションを生成する方法に関する。
【0004】
【従来の技術】
編集とは、オーディオ/ビデオマテリアルのアイテムを組み合わせて、オーディオ/ビデオプロダクションを構成するプロセスである。一般に、オーディオ/ビデオマテリアルアイテムは、所定のプランに応じてソースから取り込む。しかし、通常、オーディオ/ビデオプロダクションの編集バージョンでは、多くのオーディオ/ビデオマテリアルアイテムを使用しない。例えば、高品質ドラマ等のテレビ番組は、単一のカメラによるオーディオ/ビデオマテリアルアイテムのテイクの組み合わせにより構成することができる。このような場合、番組を構成するには、ドラマのストーリーに必要な流れを構成するために幾つかのテイクを組み合わせる。さらに、各シーン毎に幾つかのテイクを生成してもよいが、シーンを構成するには、これらのテイクを所定数組み合わせる。
【0005】
ここではオーディオ及び/又はビデオという用語をオーディオ/ビデオとし、いかなる形式の音声や画像を表す情報や、音声と画像の組み合わせをも含む。
【0006】
ポストプロダクションプロセスでは、編集者がオーディオ/ビデオマテリアルのアイテムを選択的に組み合わせて、オーディオ/ビデオプロダクションを構成する。しかし、プロダクションを構成するのに必要なオーディオ/ビデオマテリアルを選択するため、編集者は生成されたオーディオ/ビデオマテリアルのアイテムのレビューを行わなければならない。これは、特にビデオテープ等のリニア記録媒体を用いてオーディオ/ビデオマテリアルアイテムを記録してある場合、時間がかかり面倒な作業である。
【0007】
一般に、記録媒体上に表される画像の画質は、画像及び/又は音声がオリジナルソースを表す範囲で、できるだけ高くなるように設定されている。これは、これらの画像及び/又は音声を表すために記憶しなければならない情報量が比較的大きいということである。その結果、画像及び/又は音声に容易にアクセスすることができず、オーディオ/ビデオマテリアルアイテムのコンテンツが一旦記録されると容易に確認することができなくなる。このことは、画像や音声が表されるフォーマットが何らかの方法で圧縮されている場合、特にあてはまる。例えば、従来のようにビデオカメラとカムコーダを配置して、ビデオテープに動画像を表すビデオ信号を記録する。ビデオ信号がビデオテープに一旦記録されると、ユーザはテープ全体のレビューを行わなければ、ビデオテープのコンテンツを判断することはできない。さらに、ビデオテープはリニア記録媒体のひとつであるので、ビデオマテリアルの特定コンテンツアイテムを探し出すために媒体全体をナビゲートする作業は、時間がかかり労力を要する。その結果、ビデオテープのコンテンツから選択されたアイテムを記録された順序とは異なる順序で組み合わせる編集プロセスにおいて、選択されたアイテムの識別するのにビデオテープのコンテンツ全体のレビューを行う必要がある場合もある。
【0008】
【発明の概要】
本発明は、通信ネットワークに接続可能なオーディオ/ビデオ再生装置であって、上記通信ネットワークを介して受信されたリクエストに応じて記録媒体からオーディオ/ビデオマテリアルのアイテムを選択的に再生するオーディオ/ビデオ再生装置を提供する。
【0009】
通信ネットワークに接続可能なオーディオ/ビデオ再生装置を設けることにより、アイテムを遠隔的に選択することができるオーディオ/ビデオマテリアルアイテム再生用の編集手段が得られる。ネットワーク接続により、2以上の編集端末により別々にオーディオ/ビデオマテリアルアイテムにアクセスするための手段が得られる。
【0010】
カメラにより生成されたビデオマテリアルのコンテンツは、通常、高品質再生を容易にする形式で記憶される。一般に、ビデオ信号により表される画像の画質は、その画像がカメラの視野内にあるオリジナル画像ソースを反映する範囲で、できるだけ高くなるように設定される。これは、これらの画像を表すために記憶しなければならない情報量が比較的大きいということである。このため、ビデオ信号は、ビデオ信号のコンテンツへのアクセスが容易にできないようなフォーマットで記憶されなければならない。このことは、ビデオ信号が何らかの方法で圧縮されている場合、特にあてはまる。例えば、従来のようにビデオカメラとカムコーダを配置して、ビデオテープに動画像を表すビデオ信号を記録する。ビデオ信号がビデオテープに一旦記録されると、ユーザはテープ全体のレビューを行わなければ、ビデオテープのコンテンツを容易に判断することはできない。あるいは、オーディオ/ビデオマテリアルへのほぼノンリニアなアクセスを得るために、記録媒体のコンテンツを取り込んでもよい。しかし、これでは、特に例えばリニア記録媒体の場合、時間がかかる。従って、ネットワークを介してオーディオ/ビデオマテリアルアイテムにアクセスするための手段を設けることにより、コンテンツの取り込みを行わず、また、テープ全体のレビューを行う必要もなく、ネットワークを介してアイテムに選択的にアクセスすることができる。
【0011】
好ましい実施例において、オーディオ/ビデオ再生装置は、通信ネットワークを介してオーディオ/ビデオマテリアルアイテムのリクエストを表すデータを受信するのに使用されるように構成されたコントロールプロセッサと、コントロールプロセッサに接続され、コントロールプロセッサからのオーディオ/ビデオマテリアルアイテムを識別する信号に応じて、通信ネットワークを介して通信されるオーディオ/ビデオマテリアルアイテムを再生するように構成された再生プロセッサを備える。
【0012】
ビデオマテリアルの特定コンテンツアイテムを探し出すために媒体全体をナビゲートする作業は、時間がかかり労力を要する。その結果、ビデオテープのコンテンツから選択されたアイテムを記録された順序とは異なる順序で組み合わせる編集プロセスにおいて、選択されたアイテムの識別するのにビデオテープのコンテンツ全体のレビューを行う必要がある場合もある。従って、必要なオーディオ/ビデオマテリアルアイテムを識別して、識別されたアイテムのみを再生することにより、オーディオ/ビデオプロダクションの編集にかかる時間に関して都合が良い。
【0013】
オーディオ/ビデオマテリアルアイテムを識別するコマンドを受信して、オーディオ/ビデオマテリアルアイテムの通信を行うため、オーディオ/ビデオ再生装置は、第1の通信ネットワークに接続可能であり、オーディオ/ビデオマテリアルのリクエストを表すデータを受信する第1のネットワークインターフェースと、第2の通信ネットワークに接続可能であり、オーディオ/ビデオマテリアルのアイテムの通信を行う第2のネットワークインターフェースを備える。オーディオ/ビデオデータのリクエストを表すデータを受信するための第1のネットワークインターフェースと、オーディオ/ビデオマテリアルのアイテムの通信を行うための第2のインターフェースを設けることにより、異なる種類のデータを通信するように第1及び第2のインターフェースを最適化することができる。オーディオ/ビデオマテリアルアイテムの場合、ネットワーク接続で比較的広い帯域幅を必要とするオーディオ/ビデオを送らなければならないので、このことは特に重要である。好ましい実施例において、第1のネットワークインターフェースは、イーサネット、RS322、RS422等のデータ通信ネットワーク規格に従って動作するように構成される。さらに、第2のネットワークインターフェースは、シリアルデジタルインターフェース(SDI)又はシリアルデジタルトランスポートインターフェース(SDTI)に従って動作するように構成される。
【0014】
オーディオ/ビデオマテリアルアイテムのコンテンツを識別することにより、適切なアイテムを選択し、ネットワークを介して取り込むことができるという利点が得られる。メタデータは、オーディオ/ビデオマテリアルのコンテンツと、オーディオ/ビデオマテリアル又はオーディオ/ビデオマテリアルに関連する他の情報を生成するために存在する又は使用されるパラメータのいずれかを記述するデータである。
【0015】
好ましい実施例において、オーディオ/ビデオマテリアルアイテムのリクエストを表すデータには、オーディオ/ビデオマテリアルアイテムを示すメタデータが含まれる。メタデータは、UMID、テープID及びタイムコード、ユニークマテリアルリファレンスナンバーのうちの少なくとも1つである。
【0016】
再生装置は単一の記録媒体からオーディオ/ビデオマテリアルのアイテムを再生するように構成されてもよいが、再生プロセッサは、ローカルデータバスを介して上記コントロールプロセッサにそれぞれ接続された複数のオーディオ/ビデオ記録/再生装置を備えてもよい。コントロールプロセッサから複数の記録媒体にアクセスする場合、例えば、オーディオ/ビデオプロダクションを生成するシュートのコンテンツ全体が、ネットワークを介してアクセスすることができるというオーディオ/ビデオ再生装置の改善が得られる。また、アクセスを並行に構成してもよい。記録媒体はそれぞれ異なるものでもよく、複数のオーディオ/ビデオ記録/再生装置のうちの幾つかはオーディオ/ビデオアイテムをテープから再生するとともに、幾つかはディスクから再生するようにしてもよい。
【0017】
記録媒体上にあるオーディオ/ビデオマテリアルにアクセスするため、好ましい実施例では、ローカルバスが、コントロールプロセッサとの間でコントロールデータの通信を行うためのコントロール通信チャネルと、複数のオーディオ/ビデオ記録/再生装置から通信ネットワークにオーディオ/ビデオマテリアルのアイテムの通信を行うためのビデオデータ通信チャネルを有する。
【0018】
オーディオ/ビデオマテリアルのコンテンツのインディケーションを与えるため、オーディオ/ビデオ再生装置は、記録媒体上にあるオーディオ/ビデオマテリアルアイテムを表す画像を表示する動作を行うように構成された表示装置を有してもよい。さらに、オーディオ/ビデオマテリアルアイテムへのアクセスを容易にするため、表示装置は、コントロールプロセッサに接続され、ユーザからのオーディオ/ビデオマテリアルのアイテムを選択するためのタッチコマンドの受信に使用されるように構成されたタッチスクリーンであってもよい。
【0019】
また、本発明は、画像を表すビデオ信号の処理を行うビデオ処理装置であって、ビデオ信号を受信するとともに、ビデオ信号により表される画像におけるアクティビティ量を示すアクティビティ信号を生成する動作を行うように構成されたアクティビティ検出器と、アクティビティ検出器に接続され、ビデオ信号及びアクティビティ信号を受信するとともに、アクティビティ信号から決定されるビデオ信号内の時間位置においてビデオ信号のコンテンツを表すメタデータを生成する動作を行うように構成されたメタデータ生成器を有するビデオ処理装置を提供する。
【0020】
好ましい実施例において、メタデータ生成器は画像生成器であり、その生成されたメタデータは、アクティビティ信号により決定されるビデオ信号内の時間位置におけるサンプル画像である。
【0021】
本発明により、ビデオ信号内のアクティビティがある時間位置においてビデオ信号のコンテンツのインディケーションを与える場合、利点が得られる。その結果、編集者又はユーザにとって最も興味のあるビデオ信号内の時間位置においてビデオ信号のコンテンツのサンプル画像からビジュアルインディケーションを与える場合、編集や、さらなる処理のためビデオ信号を取り込むプロセスについて改善が得られる。
【0022】
サンプル画像はビデオ動画像を表す静止画像を与え、ビデオ動画像のコンテンツに対するリファレンスを与えることによりナビゲーションを容易にすることができる。
【0023】
アクティビティ信号は、画像内の色成分のカラーヒストグラムを生成して、そのヒストグラムの変化率から、あるいは例えば選択された画像成分の動きベクトルからアクティビティを決定することにより生成される。従って、アクティビティ信号は、ビデオ信号により表される画像内の相対アクティビティ量を表すので、アクティビティ信号により示されるアクティビティが大きい期間についてはサンプル画像を多く作成する動作を行うように画像生成器を構成してもよい。アクティビティが大きい期間についてはサンプル画像を多く生成するように構成することにより、ビデオ信号のコンテンツに関して編集者に提供される情報が増えるか、あるいは、サンプル画像を生成するのに使用可能なリソースが、最も興味のあるビデオ信号内の期間に集中する。
【0024】
サンプル画像の記憶及び/又は通信に必要なデータ容量を低減するため、サンプル画像を、ビデオ信号により表される画像と比較して大幅に低減したデータ量で表してもよい。
【0025】
ビデオ処理装置は、別個のソースからビデオ信号を受信してもよいが、ビデオ信号が記録された記録媒体を受け取るとともに、その記録媒体からビデオ信号を再生する動作を行うように構成された再生プロセッサを有していてもよい。さらに、好ましい実施例において、画像生成器は、サンプル画像に対応するビデオ信号が記録された記録媒体上の位置を表すマテリアルIDを各サンプル画像毎に生成する動作を行うように構成される。これにより、記録媒体のコンテンツのビジュアルインディケーションを与えるだけでなく、このコンテンツが記憶されている位置をビジュアルインディケーションにより与えて、この位置におけるビデオ信号をさらなる編集のために再生できるようにすることで利点が得られる。
【0026】
また、本発明は、音声を表すオーディオ信号の処理を行うオーディオ処理装置であって、オーディオ信号を受信するとともに、オーディオ信号により表される音声におけるアクティビティ量を示すアクティビティ信号を生成する動作を行うように構成されたアクティビティ検出器と、アクティビティ検出器に接続され、オーディオ信号及びアクティビティ信号を受信するとともに、アクティビティ信号から決定されるオーディオ信号内の時間位置においてオーディオ信号のコンテンツを表すメタデータを生成する動作を行うように構成されたメタデータ生成器を有するオーディオ処理装置を提供する。
【0027】
さらに、本発明は、音声を表すオーディオ信号の処理を行うオーディオ処理装置であって、オーディオ信号において検出される音声を識別する音声データを生成する動作を行うように構成された音声分析プロセッサと、音声分析プロセッサに接続され、音声データに応じてアクティビティ信号を生成する動作を行うように構成されたアクティビティプロセッサと、アクティビティプロセッサ及び音声分析プロセッサに接続され、アクティビティ信号により決定されるオーディオ信号内の時間位置において音声のコンテンツを表すデータを生成する動作を行うように構成されたコンテンツ情報生成器を有するオーディオ処理装置を提供する。
【0028】
オーディオ信号については、本発明を利用して、オーディオ信号にある音声のコンテンツを示すインディケーションを生成することにより、オーディオ信号のコンテンツのナビゲーションを容易にする。例えば、好ましい実施例において、アクティビティ信号が音声センテンスの開始部を示し、音声のコンテンツを表すデータが各センテンスの開始部のコンテンツを示すインディケーション与えるようにしてもよい。
【0029】
コンテンツデータは、オーディオ信号のコンテンツに対するリファレンスを与えることにより、オーディオ信号のナビゲーションを容易にすることができる、オーディオ信号のコンテンツを示すスタティックストラクチャインディケーションを与えることができる。
【0030】
オーディオ処理装置は、別個のソースからオーディオ信号を受信してもよいが、好ましい実施例において、オーディオ信号が記録された記録媒体を受け取るとともに、その記録媒体からオーディオ信号を再生する動作を行うように構成された再生プロセッサを配置してもよい。さらに、コンテンツ情報生成器は、コンテンツデータに対応するオーディオ信号が記録された記録媒体上の位置を表すマテリアルIDを各コンテンツデータアイテム毎に生成する動作を行うように構成される。これにより、コンテンツデータに対応する記録媒体上のオーディオ信号の位置を与えるマテリアルアイデンティファイアを、記録媒体のナビゲーションに用いることができるコンテンツデータと関連付けることにより、編集者にとって利点が得られる。コンテンツデータは、音声のコンテンツを表すのに好都合であればいずれの表現でもよいが、好ましい実施例では、コンテンツデータは音声のコンテンツに対応するテキストを表す。
【0031】
また、本発明は、記録媒体を受け取る手段を有し、記録媒体からオーディオ/ビデオマテリアルアイテムを再生するのに使用されるように構成された取り込みプロセッサと、取り込みプロセッサにロードされたオーディオ/ビデオマテリアルアイテムのコンテンツを記述するメタデータを受信して記憶するように動作可能なデータベースと、取り込みプロセッサ及びデータベースに接続された編集プロセッサを有するオーディオ/ビデオプロダクション編集システムであって、編集プロセッサは、データベースに記憶されたメタデータを表す表示を行うとともにメタデータを表す表示からオーディオ/ビデオマテリアルアイテムを選択するためのグラフィカルユーザインターフェースを有し、編集プロセッサは、ユーザが選択したオーディオ/ビデオマテリアルアイテムを組み合わせ、選択されたオーディオ/ビデオマテリアルアイテムは、編集プロセッサにより取り込みプロセッサに通信される選択されたオーディオ/ビデオマテリアルアイテムに対応するメタデータに応じて、取り込みプロセッサにより選択的に再生されるように構成されたオーディオ/ビデオプロダクション編集システムを提供する。
【0032】
既に説明したように、取得の際、オーディオ/ビデオマテリアルアイテムを表す信号が記録媒体に一旦記録されると、ユーザは記録媒体からアイテムを再生しなければオーディオ/ビデオマテリアルアイテムのコンテンツを容易に判断することができない。あるいは、記録媒体のコンテンツを取り込んで、オーディオ/ビデオマテリアルに対してほぼノンリニアなアクセスを行ってもよい。これは、特に例えばリニア記録媒体の場合に時間がかかる。しかし、オーディオ/ビデオマテリアルの取得時に生成され、マテリアルのコンテンツを記述するメタデータへのアクセスを得ることにより、編集システムは、編集オーディオ/ビデオプロダクションに必要な記録媒体からのオーディオ/ビデオマテリアルアイテムを選択して、そのアイテムだけを再生することができる。このため、オーディオ/ビデオプロダクションに必要なオーディオ/ビデオマテリアルアイテムのみを取り込むことにより、編集プロセスがより効率的になる。
【0033】
好ましくは、編集プロセッサは、データ通信ネットワークを介してデータベース及び取り込みプロセッサに接続される。通信ネットワークにより、メタデータやオーディオ/ビデオマテリアルアイテムに遠隔的にアクセスする手段が得られる。また、2以上の編集プロセッサを通信ネットワークに接続することにより、データベースにおけるメタデータやオーディオ/ビデオマテリアルに選択的にアクセスする手段を得て、2以上のオーディオ/ビデオプロダクションの編集を同時に行うようにしてもよい。
【0034】
好ましい実施例において、データ通信ネットワークは、編集局とデータベースと取り込みプロセッサとに接続され、メタデータの通信を行う第1の通信ネットワークと、編集局とデータベースと取り込みプロセッサとに接続され、オーディオ/ビデオマテリアルのアイテムの通信を行う第2の通信ネットワークを備える。オーディオ/ビデオデータのリクエストを表すデータを受信するための第1の通信チャネルと、オーディオ/ビデオマテリアルのアイテムの通信を行うための第2の通信チャネルを設けることにより、異なる種類のデータを通信するように第1及び第2のインターフェースを最適化することができる。オーディオ/ビデオマテリアルアイテムの場合、ネットワーク接続で比較的広い帯域幅を必要とするオーディオ/ビデオを送らなければならないので、このことは好都合である。好ましい実施例において、第1のネットワークインターフェースは、イーサネット、RS322、RS422等のデータ通信ネットワーク規格に従って動作するように構成される。さらに、第2のネットワークインターフェースは、シリアルデジタルインターフェース(SDI)又はシリアルデジタルトランスポートインターフェース(SDTI)に従って動作するように構成される。
【0035】
好ましい実施例において、メタデータは、マテリアルアイテムを識別するUMID、テープID及びタイムコード、ユニークマテリアルリファレンスナンバーのうちのいずれかである。
【0036】
上述のように、メタデータは、取得時にオーディオ/ビデオマテリアルアイテムにより生成される。この場合、記録媒体は、記録媒体に記録されたオーディオ/ビデオマテリアルアイテムのコンテンツを記述するメタデータを有し、取り込みプロセッサは、メタデータを再生するとともに、ネットワークを介して、メタデータの受信及び記憶を行うように動作するデータベースに対してメタデータを通信を行うように動作するように構成される。
【0037】
オーディオ/ビデオマテリアルアイテムのコンテンツを識別し、適切なアイテムを選択してネットワークを介して取り込むようにすることにより、利点が得られる。
【0038】
ここで使用するメタデータという用語は、オーディオ/ビデオマテリアルのコンテンツと、オーディオ/ビデオマテリアル又はオーディオ/ビデオマテリアルに関連する他の情報を生成するために存在する又は使用されるパラメータのいずれかを記述する情報又はデータであれば、いかなる形式のものも含まれる。メタデータは、例えば、オーディオ/ビデオマテリアルの実際のコンテンツに関するコンテキスト/記述情報を与える「セマンティックメタデータ」であってもよい。セマンティックメタデータの例としては、ダイアログ期間の開始点、シーンの変化、シーンにおける新たな人物又は新たな人物位置の導入、オーディオ/ビデオマテリアルのソースコンテンツに関連する他のアイテムがある。また、メタデータは、例えば、カメラレンズに適用されるズーム量、レンズの開口及びシャッタースピード設定、オーディオ/ビデオマテリアルが生成された日時等、オーディオ/ビデオマテリアルの生成時に使用される機器やパラメータに関連するシンタクティックメタデータであってもよい。記録媒体の別々の部分あるいは記録媒体の共通部分に、メタデータが関連するオーディオ/ビデオマテリアルとともにメタデータを記録してもよいが、ここで用いる意味でのメタデータは、オーディオ/ビデオマテリアルのコンテンツをナビゲートするとともに、その特徴や要旨を識別するのに使用するものなので、オーディオ/ビデオ信号の再生時にオーディオ/ビデオ信号から分離される。従って、メタデータはオーディオ/ビデオ信号から分離可能である。
【0039】
本発明のさらなる特徴については添付の請求の範囲において定義する。
【0040】
【発明の実施の形態】
取得ユニット
本発明の実施例は、例えば、テレビカメラ、ビデオカメラ、カムコーダ等のオーディオ及び/又はビデオ生成装置に関する。以下、本発明の一実施例について図1を参照して説明するが、図1は、携帯情報端末(PDA)と通信を行うように構成されたビデオカメラの概略ブロック図を示す。PDAは、ユーザの要件に応じてメタデータを生成する動作を行うように構成されたデータプロセッサの一例である。携帯情報端末(PDA)という用語は、英数字キーパッドとハンドライティングインターフェースを有するポータブル又はハンドヘルドのパーソナルオーガナイザ又はデータプロセッサとして、家庭用電子機器の分野の技術者には知られている。
【0041】
図1において、ビデオカメラ101は、1以上の撮像レンズ(図示せず)を備えた撮像部104の視野に入る画像ソースから光を受光するように構成されたカメラ本体102を有している。また、カメラは、ファインダー106と、カメラの視野内に形成された画像を表す信号の記録をユーザが制御することができるようにする動作コントロールユニット108を有している。また、カメラ101は、音声をステレオで記録するように構成された複数のマイクからなるマイク110を有している。また、図1には、画面114と、ユーザがPDAにより認識される文字を書き込むことができる部分を備えた英数字キーパッド116とを有するハンドヘルドPDA112が示されている。PDA112は、インターフェース118を介してビデオカメラ101に接続されるように構成されている。インターフェース118は、例えばRS232等の所定の標準フォーマットに従って構成されている。また、インターフェース118は赤外線信号を用いて構成してもよく、この場合、インターフェース118は無線通信リンクとなる。インターフェース118により、ビデオカメラ101と情報の通信を行う手段が得られる。PDA112の機能及び用途については後に詳細に説明する。しかし、一般的には、PDA112を用いて生成し、ビデオカメラ101により検出及び取り込みが行われるオーディオ及びビデオ信号とともに記録することができるメタデータの送受信を行う手段が、PDA112により得られる。PDA112と組み合わせたビデオカメラ101の動作については、図2によりさらに理解することができる。図2は、図1に示すビデオカメラの本体102を詳細に示すものであるが、共通部分には同じ参照番号を付してある。
【0042】
図2において、カメラ本体102は、磁気記録テープ126に関連して動作するリード/ライトヘッド124を備えたテープドライブ122を有している。また、図2において、カメラ本体は、接続チャネル130を介してテープドライブ122に接続されたメタデータ生成プロセッサ128を有している。メタデータ生成プロセッサ128には、データストレージ132と、クロック136と、3つのセンサ138、140、142も接続されている。また、図2に示すが、インターフェースユニット118は無線チャネル119を介してデータの送受信を行う。これに対応して、データの受信用と送信用の2つの接続チャネルが、対応する接続チャネル148、150を介してメタデータ生成プロセッサ128にインターフェースユニット118を接続する。図中、メタデータ生成プロセッサは、接続チャネル151を介して、カメラにより生成されるオーディオ/ビデオ信号を受信する。オーディオ/ビデオ信号は、テープドライブ122にも送られ、テープ126に記録される。
【0043】
図1に示すビデオカメラ101は、レンズ部104の視野に入るビジュアル情報を記録媒体に記録するように動作する。ビジュアル情報はカメラによりビデオ信号に変換される。マイク110により検出され、オーディオ信号としてビデオ信号とともに記録媒体に記録されるように構成された音声と合わせて、画像がビデオ信号として記録される。図2に示すように、記録媒体は磁気テープ126であり、リード/ライトヘッド124によりオーディオ及びビデオ信号を記録テープ126に記録するように構成されている。ビデオ信号及びオーディオ信号がリード/ライトヘッド124により磁気テープ126に記録される様子については、本発明の実施例を説明するものではないので、図2には示さず、詳細な説明も省略する。しかし、一旦、ユーザが画像を取り込んで、磁気テープ126を用いてこれらの画像をそれに伴うオーディオ信号とともに記録した場合、オーディオ/ビデオ信号のコンテンツを記述するメタデータを、PDA112を用いて入力してもよい。後述するように、このメタデータは、「テイク」等の所定のイベントに関連してオーディオ/ビデオ信号を識別する情報であってもよい。図2に示すように、インターフェースユニット118により、ユーザがPDA112を用いて付加したメタデータをカメラ本体102内に受信する手段が得られる。データ信号は、インターフェースユニット118にて無線チャネル119を介して受信することができる。インターフェースユニット118は、接続チャネル148、150を介してこれらのデータ信号を受信する取得プロセッサ128がこれらの信号を処理できるような形式に、これらの信号を変換する。
【0044】
メタデータは、接続チャネル151を介して受信されるオーディオ/ビデオ信号に関連して、メタデータ生成プロセッサ128により自動的に生成される。図2に示す実施例において、メタデータ生成プロセッサ128は、クロック136を参照してタイムコードを生成するとともに、テープ126上に、記録用に設けられたリニア記録トラックにてこれらのタイムコードを記録するように動作する。タイムコードは、メタデータ生成プロセッサ128によりクロック136から生成される。さらに、メタデータ生成プロセッサ128は、オーディオ/ビデオ信号を独自に識別するUMID等の他のメタデータを自動的に生成する。メタデータ生成プロセッサは、テープドライバ124と共動して、オーディオ/ビデオ信号とともにUMIDをテープに書き込む。
【0045】
他の実施例では、UMIDや他のメタデータをデータストレージ132に記憶し、テープ126から別個に通信する。この場合、メタデータ生成プロセッサ128によりテープIDが生成され、テープ126に書き込まれて、テープ126を他のテープと識別する。
【0046】
UMIDや、オーディオ/ビデオ信号のコンテンツを識別する他のメタデータを生成するため、メタデータ生成プロセッサ128は、クロック136の外にセンサ138、140、142からの信号を受信する動作を行うように構成されている。従って、メタデータ生成プロセッサは、これらの信号を統合するように動作し、カメラレンズ104の開口設定、シャッタースピード、取り込んだ画像が「グッドショット」であることを示すコントロールユニット108を介して受信した信号等のメタデータを、メタデータ生成プロセッサに供給する。これらの信号及びデータは、センサ138、140、142により生成され、メタデータ生成プロセッサ128にて受信される。本実施例のメタデータ生成プロセッサは、ビデオ信号の生成時にカメラにより用いられる動作パラメータを与えるシンタクティックメタデータを生成するように構成されている。さらに、メタデータ生成プロセッサ128は、カムコーダ101の状況、特に、オーディオ/ビデオ信号がテープドライブ124により記録されているか否かを監視する。レコードスタートが検出されると、インポイントタイムコードが取り込まれ、インポイントタイムコードに対応してUMIDが生成される。さらに、幾つかの実施例では拡張UMIDが生成されるが、この場合、メタデータ生成プロセッサは、オーディオ/ビデオ信号が取得された位置を表す空間座標を受信するように構成される。空間座標は、グローバル・ポジショニング・システム(GPS)に従って動作するレシーバにより生成される。レシーバは、カメラの外部にあってもよく、また、カメラ本体102に内蔵されてもよい。
【0047】
レコードスタートが検出されると、メタデータ生成プロセッサ128によりアウトポイントタイムコードが取り込まれる。上述のように、「グッドショット」マーカを生成することが可能である。「グッドショット」マーカは、記録プロセス中に生成され、メタデータ生成プロセッサにより検出される。「グッドショット」マーカは、対応するインポイント及びアウトポイントタイムコードとともに、テープに記憶されるか、あるいは、データストレージ132に記憶される。
【0048】
上述のように、PDA112は、カメラにより生成されるオーディオ/ビデオマテリアルの識別を容易にするのに用いられる。このため、PDAは、このオーディオ/ビデオマテリアルをシーン、ショット、テイク等の所定のイベントに関連付けるように構成されている。図1及び図2に示すカメラとPDAは、オーディオ/ビデオプロダクションのプランニング、取得、編集を行う総合システムの一部を構成する。プランニングにおいて、オーディオ/ビデオプロダクションを作成するのに必要なシーンが識別される。さらに、各シーン毎に、シーンを確立するのに必要なショット数が識別される。各ショットでは、多数のテイクが生成され、これらのテイクから所定数のテイクを用いて、最終的な編集のためのショットを生成する。従って、この形式のプランニング情報がプランニング段階で識別される。従って、プランニングされたシーン及びショットのそれぞれを表す又は識別するデータが、オーディオ/ビデオマテリアルを取り込むときにディレクターを支援するノートとともに、PDA112にロードされる。このようなデータの例を以下の表1に示す。
【0049】
【表1】
【0050】
表1の第1列には、カメラにより取り込まれ、オーディオ/ビデオマテリアルを生成するイベントを示す。イベントは階層的に定められているが、各イベントには識別番号が設けられている。これに対応して、第2列には、プランニングされたショット又はシーンのコンテンツをディレクターに示す又は知らせるために、ノートが設けられている。例えば、第1行では、オーディオ/ビデオプロダクションを、BMWによるローバーの売却を報道するニュースストーリーとして識別している。表1に示すプランニング情報の抜粋では、それぞれ独自の識別番号が設けられた3つのシーンがある。これらのシーンは、それぞれ「ロングブリッジの外」、「BMWミュンヘン本部」、「大臣のインタビュー」である。これに対応して各シーン毎に多数のショットが識別されており、これらのショットは、独自のショット識別番号を有して各シーンの下に示されている。また、これら各ショットのコンテンツに対応するノートが第2列に記載されている。従って、例えば第1シーン「ロングブリッジの外」について、3つのショットが識別されている。これらは「ロングブリッジBMW」、「シフトを離れる労働者」、「駐車場の労働者」である。この情報をPDAにロードして、ディレクター又はカメラマンひとりで、ニュースストーリーを撮影すべき場所にPDAを携帯し、プランニングしたオーディオ/ビデオマテリアルを収集することができる。この情報を表示するグラフィカルユーザインターフェースを備えたPDAの外観を図3に示す。
【0051】
図1に示すように、PDA112はカメラ101とデータの通信を行うように構成されている。このため、メタデータ生成プロセッサ128は、インターフェース118を介してPDA112とデータの通信を行うように構成されている。インターフェース118は、例えば、既知の規格に従って無線通信を行う赤外線リンク119であってもよい。図2に示すPDAとメタデータ生成に関連するカメラ構成部分を図4に詳細に示す。
【0052】
図4において、メタデータの生成及びPDA112との通信に関連するカメラ構成部分を別個の取得ユニット152として示す。なお、取得ユニット152はカメラ102に内蔵することもできる。取得ユニット152は、メタデータ生成プロセッサ128とデータストレージ132を備えている。また、説明の都合上図4には示していないが、取得ユニット152は、クロック136とセンサ138、140、142も備えている。あるいは、図2に示すこれらの特徴の幾つか又はすべてをカメラ102に内蔵し、タイムコード等のメタデータやオーディオ/ビデオ信号自体を定めるのに必要な信号を、インターフェースポート154に接続された通信リンク153を介して通信してもよい。従って、メタデータ生成プロセッサ128は、タイムコードやオーディオ/ビデオマテリアルにも、オーディオ/ビデオマテリアルの生成に用いる他のパラメータにもアクセスが得られる。オーディオ/ビデオ信号だけでなくタイムコードやパラメータも表す信号が、インターフェースチャネル156を介してインターフェースポート154から受信される。また、取得ユニット152には、スクリーンドライバ158により駆動される画面(図示せず)が設けられている。また、図4では、接続チャネル162を介してメタデータ生成プロセッサ128に接続されている通信プロセッサ160が、取得ユニットに設けられている。通信プロセッサ160により、アンテナ164を用いた無線周波数通信チャネルを介して通信が行われる。取得ユニット152の外観を図5に示す。
【0053】
図4にはPDA112も示されている。PDA112には、赤外線リンク119を介して取得ユニット152との間で通信を行うための赤外線通信ポート165が対応して設けられている。PDA112内のデータプロセッサ166は、接続チャネル166を介して赤外線ポート165との間でデータの通信を行うように構成されている。また、PDA112には、データストレージ167と、データプロセッサ166に接続されたスクリーンドライバ168とが設けられている。
【0054】
図3に示すPDA112と図5に示す取得ユニットにより、本発明の一実施例の図示が得られる。PDA112と取得ユニット152の配置及び接続を示す概略図を図6に示す。図6に示す例では、取得ユニット152はカメラ101の背面に装着され、6ピンリモートコネクタによりカメラに接続されるとともに、記録テープに記録されたタイムコードを表す外部信号を伝える接続チャネルに接続されている。従って、矢印と線で示される6ピンリモートコネクタとタイムコードは、図4に示す通信チャネル153を構成する。図6において、インターフェースポート154は、RM−P9/LTC−RS422コンバータ154からなるVA−DN1コンバータであるとする。RM−P9はカメラリモートコントロールプロトコルであり、LTCはアナログ信号形式でのリニアタイムコードである。これは、インターフェースポート154の一部を構成する接続チャネルを介してRS422−RS232コンバータ154”と通信を行うように構成されている。コンバータ154”は、RS232規格に従って動作する接続チャネル156を介してメタデータ生成プロセッサ128と通信を行う。
【0055】
図4に戻り、所定のプロダクション情報がロードされたPDA112は、赤外線リンク119を介して次ショットID番号を送ることにより、オーディオ/ビデオマテリアルを生成する現シーン及びショットを送るように構成されている。その所定の情報を、別個のリンク又は赤外線通信リンク119を介して、取得ユニット152に送ってデータストレージ132に記憶しておいてもよい。しかし、実際は、取得ユニット152は、現在取り込まれているシーン又はショットID番号に関連してメタデータを生成するように指示されている。現ショットの情報を受信した後、カメラ102は「ショットのテイク」をとるように動作する。テイクのオーディオ/ビデオマテリアルは、対応するタイムコードとともに記録テープ126に記録される。これらのタイムコードは、インターフェースポート154を介してメタデータ生成プロセッサ128にて、オーディオ/ビデオマテリアルとともに受信される。現在取り込まれている所定の現ショットを知らされたメタデータ生成プロセッサ128は、そのショットの各テイク毎のタイムコードのログを行う。従って、メタデータ生成プロセッサは、各テイクのイン及びアウトタイムコードのログを行い、これらをデータストレージ132に記憶する。
【0056】
メタデータ生成プロセッサ128により生成及びログが行われた情報を以下の表2に示す。第1列において、シーン及びショットがそれぞれ対応するID番号により識別され、各ショット毎に階層的に示された幾つかのテイクがカメラ操作者により作成される。従って、PDA112から現ショットの情報を受信した後、カメラ操作者が作成した各テイクがメタデータ生成プロセッサ128によりログされ、このテイクについてのイン及びアウトポイントを第2及び第3列に示すとともにデータストレージ132に記憶する。この情報は、図5に示すように、取得ユニット152の画面に表示してもよい。さらに、上述のように、メタデータ生成プロセッサ128は、各テイクの間に生成されるオーディオ/ビデオマテリアルについて各テイク毎のUMIDを生成する。各テイク毎のUMIDは表2の第4列を構成する。また、幾つかの実施例において、マテリアルを記録するテープの独自のIDを与えるため、テープIDを生成してメタデータに関連付けている。テープIDはテープに書き込んでもよく、また、ビデオテープカセット本体に内蔵されているランダムアクセスメモリチップに記憶してもよい。このランダムアクセスメモリチップは、テープID番号を遠隔的に読み出す手段を与えるTELEFILE(RTM)システムとして知られている。テープIDは磁気テープ126に書き込まれて、このテープを独自に識別する。好ましい実施例において、TELEFILE(RTM)システムには、メモリの一部として製造され、テープID番号として使用することができる独自の番号が設けられている。他の実施例では、TELEFILE(RTM)システムにより、記録されたオーディオ/ビデオマテリアルアイテムのイン/アウトタイムコードが自動的に得られる。
【0057】
一実施例において、以下の表2に示す情報は、別個の記録チャネルにある磁気テープに記録されるように構成されている。しかし、他の実施例では、表2に示すメタデータは、通信プロセッサ160又は赤外線リンク119のいずれかを用いてテープ126から別個に通信される。メタデータをPDA112で受信して分析してもよく、また、PDAによりメタデータの通信をさらにおこなってもよい。
【0058】
【表2】
【0059】
通信プロセッサ160は、無線通信リンクを介して、メタデータ生成プロセッサ128により生成されたメタデータを送信する動作を行うように構成することができる。メタデータは、遠隔位置にあるスタジオにより無線通信リンクを介して受信され、このスタジオではメタデータを取得するとともに、磁気テープ126に記録されたオーディオ/ビデオマテリアルより先にこのメタデータの処理を行うことができる。これにより、マテリアルの編集を行うポストプロダクションにおいてオーディオ/ビデオプロダクションを生成するレートを改善できるという利点が得られる。
【0060】
本発明の実施例により得られるさらなる利点としては、記録されたオーディオ/ビデオ信号内のある時間位置にピクチャスタンプが生成されるように構成することである。ピクチャスタンプは、画像のデジタル表示であるとして当該分野の技術者に知られているものであり、本実施例では、カメラにより得られた動画ビデオマテリアルから生成される。ピクチャスタンプは、ビデオ信号から画像を表すのに必要なデータ量を低減するため、低画質のものであってもよい。従って、ピクチャスタンプを圧縮符号化して、画質を低下させてもよい。しかし、ピクチャスタンプはオーディオ/ビデオマテリアルのコンテンツのビジュアルインディケーションを与えるので、メタデータの重要なアイテムである。従って、例えば特定のテイクのイン及びアウトタイムコードにて、ピクチャスタンプを生成してもよい。これにより、メタデータ生成プロセッサ128により生成され、データストレージ132に記憶されたメタデータと、ピクチャスタンプを関連付けることができる。従って、ピクチャスタンプは、例えば、ピクチャスタンプにより表される画像を記録するテープ上の位置を識別するタイムコード等のメタデータのアイテムに関連付けられる。ピクチャスタンプは、「グッドショット」マーカを付して生成してもよい。ピクチャスタンプは、メタデータ生成プロセッサ128により、通信リンク153を介して受信したオーディオ/ビデオ信号から生成される。従って、メタデータ生成プロセッサは、ピクチャスタンプを生成するため、データサンプリング及び圧縮符号化プロセスを行うように動作する。ピクチャスタンプが生成されると、これらは幾つかの用途に使用することができる。ピクチャスタンプをデータファイルに記憶して、テープ126から別個に通信してもよく、あるいは、別個の記録チャネルにより圧縮形式でテープ126に記憶してもよい。また、好ましい実施例において、通信プロセッサ160を用いて、プロデューサがピクチャスタンプを分析する遠隔位置のスタジオにピクチャスタンプを送ってもよい。これにより、カメラ操作者により生成されるオーディオ/ビデオマテリアルが必要に応じたものであるか否かについてのインディケーションが、プロデューサに与えられる。
【0061】
さらに他の実施例において、ピクチャスタンプはPDA112に送られ、PDAの画面に表示される。これは赤外線ポート119を介して行うことができるが、通信プロセッサ160との通信を行うことができる他の無線リンクをPDAに設けてもよい。このように、ハンドヘルドPDA112を有するディレクターには、カメラにより生成された現オーディオ/ビデオコンテンツを示すインディケーションが与えられる。これにより、現在生成されているオーディオ/ビデオマテリアルのアーティストや芸術的な質を示すインディケーションがすぐに得られる。上述のように、ピクチャスタンプは圧縮符号化されているので、PDAに高速で通信することができる。
【0062】
図4に示す取得ユニット152のさらなる利点としては、オーディオ/ビデオマテリアルの受信前に、そのマテリアルのコンテンツを示すインディケーションを遠隔位置にあるスタジオの編集者に与えることにより、編集プロセスを効率化することである。これは、無線リンクを介してピクチャスタンプがメタデータとともに通信されて、オーディオ/ビデオマテリアル自体を受信する前にオーディオ/ビデオマテリアルのコンテンツを示すインディケーションが編集者に与えられるからである。このように、オーディオ/ビデオマテリアルの帯域幅が広いまま保つことが可能であり、これに対応して高品質が得られるとともに、メタデータとピクチャスタンプは比較的狭い帯域幅で、比較的低い品質の情報となる。帯域幅が狭いため、メタデータとピクチャスタンプは、かなり狭い帯域幅のチャネルで無線リンクを介して通信することができる。これにより、オーディオ/ビデオマテリアルのコンテンツを記述するメタデータを高速で通信することができる。
【0063】
メタデータ生成プロセッサ128により生成されたピクチャスタンプは、記録されたオーディオ/ビデオマテリアル中のいずれの位置にあってもよい。一実施例では、ピクチャスタンプが各テイクのイン及びアウトポイントにて生成される。しかし、本発明の他の実施例では、アクティビティプロセッサ170がビデオマテリアル内の相対アクティビティを検出するように構成される。これは、ビデオ信号により表される画像の色成分のヒストグラムをコンパイルして、色成分の変化率を決定し、これら色成分の変化を用いて画像内のアクティビティを示すというプロセスを行うことにより行われる。また、これに代えて、あるいは、これに加えて、画像内の動きベクトルを用いてアクティビティを示す。そして、アクティビティプロセッサ170は、ビデオマテリアル内の相対アクティビティを示す信号を生成するように動作する。メタデータ生成プロセッサ128は、ビデオ信号により表される画像内のアクティビティが大きいほど多くのピクチャスタンプを生成するように、アクティビティ信号に応じてピクチャスタンプを生成する。
【0064】
本発明の他の実施例において、アクティビティプロセッサ170は、接続チャネル172を介してオーディオ信号を受信し、そのオーディオ信号内の音声を認識するように構成されている。そして、アクティビティプロセッサ170は、この音声のコンテンツを表すコンテンツデータをテキストとして生成する。テキストデータは、データプロセッサ128に送られてデータストレージ132に記憶されるか、あるいは、ピクチャスタンプについて既に説明したのと同様にして通信プロセッサ160を介して他のメタデータとともに送られる。
【0065】
図7に、オーディオ/ビデオマテリアルを編集して、オーディオ/ビデオプログラムを作成するポストプロダクションプロセスを概略的に示す。図7に示すように、ピクチャスタンプ及び/又は音声コンテンツ情報が含むメタデータは、破線174で表す別個のルートを介して取得ユニット152からメタデータデータベース176に送られる。ルート174は、例えばUMTS、GSM等により構成される無線通信リンクを表す。
【0066】
データベース176は、メタデータをオーディオ/ビデオマテリアルと関連付けて記憶する。高品質形式のオーディオ/ビデオマテリアルはテープ126に記録される。従って、テープ126は編集場所に戻されて、取り込みプロセッサ178により取り込まれる。テープ126に記録されたテープID、又は、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与える他のメタデータを用いて、破線180で示すように、データストレージ176に記憶されたメタデータをテープ上のオーディオ/ビデオマテリアルと関連付ける。
【0067】
本発明の実施例ではオーディオ/ビデオ信号を記憶するための記録媒体としてビデオテープを用いているが、磁気ディスクやランダムアクセスメモリ等、他の記録媒体を用いてもよい。
【0068】
取り込みプロセッサ
図7は、オーディオ/ビデオマテリアルを編集して、オーディオ/ビデオプログラムを作成するポストプロダクションプロセスを概略的に示す。図7に示すように、ピクチャスタンプ及び/又は音声コンテンツ情報が含むメタデータは、破線174で表す別個のルートを介して取得ユニット152からメタデータデータベース176に送られる。ルート174は、例えばUMTS、GSM等により構成される無線通信リンクを表す。
【0069】
データベース176は、メタデータをオーディオ/ビデオマテリアルと関連付けて記憶する。高品質形式のオーディオ/ビデオマテリアルはテープ126に記録される。従って、テープ126は編集場所に戻されて、取り込みプロセッサ178により取り込まれる。テープ126に記録されたテープID、又は、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与える他のメタデータを用いて、破線180で示すように、データストレージ176に記憶されたメタデータをテープ上のオーディオ/ビデオマテリアルと関連付ける。
【0070】
図7において、取り込みプロセッサ178は、接続線182で表す通信チャネルにより形成されるネットワークに接続されている。接続線182は、相互接続されたネットワークを形成する機器にデータ通信を行うための通信チャネルを表している。このため、これらの機器には、イーサネット、RS422等の既知のアクセス技術に従って動作するネットワークカードが設けられている。さらに、後述するように、通信ネットワーク182は、シリアルデジタルインターフェース(SDI)又はシリアルデジタルトランスポートインターフェース(SDTI)に従ってデータ通信を行ってもよい。
【0071】
また、通信ネットワーク182には、メタデータデータベース176と、オーディオ/ビデオマテリアルを取り込むオーディオ/ビデオサーバ190も接続されている。さらに、編集端末184、186もデジタルマルチ効果プロセッサ188とともに通信チャネル182に接続されている。
【0072】
通信チャネル182により、取り込みプロセッサ178にロードされたテープ、ディスク又は他の記録媒体上にあるオーディオ/ビデオマテリアルへのアクセスが得られる。
【0073】
メタデータデータベース176は、取り込みプロセッサ178にロードされた記録媒体に記録されたオーディオ/ビデオマテリアルのコンテンツを記述するメタデータを、ルート174を介して受信するように構成されている。
【0074】
なお、実施例ではオーディオ/ビデオ信号を記憶する記録媒体としてビデオテープを用いたが、磁気ディスクやランダムアクセスメモリ等の他の記録媒体を用いてよく、ビデオテープは単なる一例に過ぎない。
【0075】
編集端末184、186及びデジタルマルチ効果プロセッサ188には、取り込みプロセッサ178にロードされたテープに記録されてオーディオ/ビデオマテリアルと、通信ネットワーク182を介してメタデータデータベース176に記憶されたオーディオ/ビデオマテリアルを記述するメタデータへのアクセスが得られる。メタデータデータベース176を伴う取り込みプロセッサ178の動作について以下に詳細に説明する。
【0076】
図8は、取り込みプロセッサ178の例を示す。図8において、取り込みプロセッサ178は、取り込みプロセッサ178の一部を構成するビデオテープ記録/再生部にロードされたテープに記録されたオーディオ/ビデオマテリアルをナビゲートするためのジョグシャトルコントロール200を有している。また、取り込みプロセッサ178は、オーディオ/ビデオマテリアルの選択部分を記述するピクチャスタンプを表示するように構成された表示画面202を有している。表示画面202は、タッチによりオーディオ/ビデオマテリアルを選択するための手段をユーザに与えるタッチ画面として動作する。また、取り込みプロセッサ178は、スクリプト、カメラの種類、レンズの種類、UMIDを含む全種類のメタデータを画面202に表示するように構成されている。
【0077】
図9に示すように、取り込みプロセッサ178は、オーディオ/ビデオマテリアルが記録されたビデオテープを並行してロードすることができる複数のビデオテープ記録/再生部を備えてもよい。図9に示す例では、RS422リンクとSDIイン/アウトリンクを介して、ビデオテープレコーダ204が取り込みプロセッサ178に接続されている。従って、取り込みプロセッサ178は、ビデオテープレコーダにロードされたビデオテープからオーディオ/ビデオマテリアルを再生するために、ビデオテープレコーダ204のいずれかにアクセスすることができるデータプロセッサとなる。さらに、取り込みプロセッサ178には、通信ネットワーク182にアクセスするためにネットワークカードが設けられている。しかし、図9からわかるように、通信チャネル182は、比較的狭い帯域幅のデータ通信チャネル182’と、ビデオデータを送るための広い帯域幅のSDIチャネル182”とにより構成されている。これに対応して、取り込みプロセッサ178は、対応するオーディオ/ビデオマテリアルアイテムのリクエストを送るために、RS422リンクを介してビデオテープレコーダ204に接続されている。これらのオーディオ/ビデオマテリアルアイテムを要求すると、SDIネットワークを介した配信のためのSDI通信リンク206を介して、オーディオ/ビデオマテリアルが取り込みプロセッサ178に返信される。このリクエストは、例えば、オーディオ/ビデオマテリアルアイテムを独自に識別するUMIDを有していてもよい。
【0078】
メタデータデータベース176に関連した取り込みプロセッサの動作について、図10を参照して以下に説明する。図10において、メタデータデータベース176は、特定のテープID212に関連する多数アイテムのメタデータ210を有している。矢印214を付した破線で示すように、テープID212は、メタデータ210に対応するオーディオ/ビデオマテリアルが記録された特定のビデオテープ216を識別する。図10に示す実施例では、テープID212がビデオテープ218のリニアタイムコードエリア220に書き込まれる。しかし、他の実施例からわかるように、テープIDを垂直ブランキング部等、他の位置に書き込むこともできる。ビデオテープ216は、取り込みプロセッサ178の一部を構成するビデオテープレコーダ204のうちのいずれか1つのロードされる。
【0079】
動作時には、編集端末184のいずれか1つが、狭い帯域幅の通信チャネル182’を介してメタデータデータベース176にアクセスするように構成されるので、その編集端末184には、テープ216に記録されたオーディオ/ビデオマテリアルのコンテンツを記述するメタデータ210へのアクセスが得られる。メタデータ210には、著作権者「BSkyB」、画像の解像度、ビデオマテリアルの符号化形式、プログラムの名称(この場合、「グランドスタンド(特別観覧席)」)等の情報と、日時や観衆等の情報が含まれる。さらに、メタデータにはオーディオ/ビデオマテリアルのコンテンツのノートが含まれる。
【0080】
オーディオ/ビデオマテリアルの各アイテムは、オーディオ/ビデオマテリアルを識別するUMIDと関連している。このため、編集端末184を用いて、プログラム作成に必要なオーディオ/ビデオマテリアルアイテムをメタデータ210から識別及び選択することができる。このマテリアルは、マテリアルに関連するUMIDにより識別される。オーディオ/ビデオマテリアルにアクセスして、プログラムを作成するため、編集端末184は狭い帯域幅の通信ネットワーク182を介して、このマテリアルのリクエストを送る。リクエストには、オーディオ/ビデオマテリアルアイテムを識別するUMIDが含まれる。編集端末184から受信したオーディオ/ビデオマテリアルのリクエストに応じて、取り込みプロセッサ178は、ビデオカセット216がロードされているビデオテープレコーダから、UMIDにより識別されるオーディオ/ビデオマテリアルアイテムを選択的に再生するように構成されている。そして、このオーディオ/ビデオマテリアルは、SDIネットワーク182”を介して編集端末184に返信され、編集中のオーディオ/ビデオプロダクションに組み込まれる。送られたオーディオ/ビデオマテリアルはオーディオ/ビデオサーバ190に取り込まれ、ここでオーディオ/ビデオの記憶及び再生を行うことができる。
【0081】
図11は、メタデータ210をオーディオ/ビデオマテリアルとともに好適な記録媒体に記録する他の構成を示す。例えば、ビデオテープ218’のオーディオトラックのいずれか1つにメタデータ210を記録することもできる。また、記録媒体として、ランダムアクセスを可能にするとともに大容量のデータ記憶を行うことができる光ディスク又は磁気ディスクを用いてもよい。この場合、メタデータ210をオーディオ/ビデオマテリアルとともに記憶してもよい。
【0082】
さらに他の構成では、メタデータの幾つか又はすべてをテープ216に記録する。これは例えばテープ218のリニア記録トラックに記録することができる。テープに記録されたメタデータに関する幾つかのメタデータは、データベース176に別個に送って記憶してもよい。メタデータを取り込むにはさらにステップが必要となるが、このため、取り込みプロセッサ178は、記録媒体218’からメタデータを読み出して、通信ネットワーク182’を介してメタデータをデータベース176に送るように構成されている。従って、取り込みプロセッサ178により取り込まれるオーディオ/ビデオマテリアルに関連するメタデータは、別の媒体を介して、あるいは、オーディオ/ビデオマテリアルも記録されている記録媒体を介して、データベース176に取り込まれることがわかる。
【0083】
また、オーディオ/ビデオマテリアルに関連するメタデータには、ビデオマテリアル中の様々な位置における画像を低画質で表示するピクチャスタンプを含んでもよい。これらは取り込みプロセッサ178のタッチ画面202にて提示することができる。さらに、これらのピクチャスタンプを、ネットワーク182’を介して編集端末184、186又は効果プロセッサ188に送り、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与えてもよい。従って、編集者にはオーディオ/ビデオマテリアルの画像表示が与えられ、ここから、オーディオ/ビデオマテリアルアイテムの選択を行うことができる。さらに、ピクチャスタンプをメタデータ210の一部としてデータベース176に記憶してもよい。従って、編集者は、ピクチャスタンプに関連するUMIDを用いて、対応するピクチャスタンプについて選択したアイテムを取り出すことができる。
【0084】
本発明の他の実施例において、記録媒体はオーディオ/ビデオマテリアルとともに記録されたピクチャスタンプを記録するのに十分な容量を有していないことがある。これは、記録媒体がビデオテープ216である場合に起こりやすい。この場合、必ずしもというわけではないが、オーディオ/ビデオマテリアルの取り込み前又は取り込み中にピクチャスタンプを生成することが特に好適である。
【0085】
図7に戻り、他の実施例において、取り込みプロセッサ178はプリプロセッサユニットを備えてもよい。取り込みプロセッサ178に内蔵されたプリプロセッサユニットは、本例ではビデオテープ126である記録媒体に記録されたオーディオ/ビデオマテリアルを受信するように構成されている。このため、プリプロセッサユニットは別個のビデオ記録/再生部を設けてもよく、あるいは、取り込みプロセッサ178の一部を構成するビデオテープ記録/再生部と組み合わせてもよい。プリプロセッサユニットは、オーディオ/ビデオマテリアルに関連するピクチャスタンプを生成する。上述のように、ピクチャスタンプは、オーディオ/ビデオマテリアルアイテムのコンテンツを画像表示するのに用いられる。しかし、本発明のさらに他の実施例によれば、プリプロセッサユニットは、オーディオ/ビデオマテリアルの処理を行うとともに、オーディオ/ビデオマテリアルのコンテンツにおける相対アクティビティを表すアクティビティインディケータを生成するように動作する。これは、例えば、ビデオ信号で表される画像内の色成分のヒストグラムに応じてアクティビティ信号を生成するとともに、カラーヒストグラム成分の変化率に応じてアクティビティ信号を生成するように動作するプロセッサを用いて行うことができる。そして、プリプロセッサユニットは、ビデオマテリアル中の、アクティビティ信号が示すアクティビティ期間がある位置にて、ピクチャスタンプを生成するように動作する。これを図12に示す。図12Aにおいて、ビデオ信号における時間を表すライン226に沿ってピクチャスタンプ224が生成される。図12Aに示すように、ピクチャスタンプ224は、タイムライン226に沿った、矢印228として表されるアクティビティ信号がアクティビティイベントを示す時点に生成される。これは、例えば、カメラの視野に誰かが出入りして、ビデオ信号が表す動きが大きい場合である。このため、アクティビティ信号は、例えば、MPEG規格に応じて生成された動きベクトルである動きベクトルを用いて生成することができる。
【0086】
本発明の他の実施例において、プリプロセッサは、テープ126に記憶されたオーディオ/ビデオマテリアルアイテムの一部を構成するオーディオ信号内の音声に対応するテキスト情報を生成する。テキスト情報は、ピクチャスタンプの代わりに又はピクチャスタンプに加えて生成してもよい。この場合、テキストは、例えばセンテンスの最初の数語及び/又は話し手の最初のアクティビティについて生成される。これはオーディオ/ビデオマテリアルの一部を記録又は構成するテープ上のオーディオ信号から検出される。テキストが生成される開始点を矢印230としてタイムライン226に沿って表す。また、テキストは、センテンスの終わり又は音声における他の重要点にて生成することもできる。
【0087】
検出された音声の開始点で、音声プロセッサは音声のコンテンツのテキスト表記を生成する。このため、図12Bに示すタイムライン226には、音声のアクティビティ期間の開始点に、音声のコンテンツに対応するテキスト232がある。
【0088】
プリプロセッサにより生成されたピクチャスタンプと音声アクティビティのテキスト表記は、通信チャネル182を介してメタデータデータベース176に送られて記憶される。ピクチャスタンプとテキストは、ピクチャスタンプ224とテキスト情報232が生成された対応するオーディオ/ビデオマテリアルアイテムを識別するUMIDと関連付けて記憶される。これにより、編集端末184、186のいずれか一方を操作する編集者には、取り込みプロセッサ178を用いてオーディオ/ビデオマテリアルを取り込む前にオーディオ/ビデオマテリアルのコンテンツを分析する手段が与えられる。この場合、ビデオテープ126は取り込みプロセッサ178にロードされ、その後、ネットワーク通信チャネル182を介してオーディオ/ビデオマテリアルにアクセスすることができる。従って、編集者には、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションが迅速に与えられるので、編集者が必要とする特定のマテリアルアイテムに適切なマテリアル部分のみを取り込むことができる。これにより、編集者によるオーディオ/ビデオプロダクションの作成の効率が改善されるという利点が得られる。
【0089】
他の実施例において、プリプロセッサは別ユニットとすることができ、ピクチャスタンプ及び/又はテキスト情報を表示する画面と、取り込むべきオーディオ/ビデオマテリアルアイテムを選択する手段を与えるタッチ画面等の手段とが設けられる。
【0090】
本発明のさらに他の実施例において、取り込みプロセッサ178は、オーディオ/ビデオマテリアルが取り込まれている間にUMID等のメタデータアイテムを生成する。これは、カメラ152の取得ユニットがUMIDを生成するようには構成されてなく、ユニークマテリアルリファレンスナンバー(MURN)を生成するので、必要である。MURNはテイク等の各マテリアルアイテム毎に生成される。MURNは、UMIDよりもかなり短くなるように構成されるので、ビデオテープのリニアタイムコード内に収容することができる。UMIDの場合、大きいのでリニアタイムコードに収容することは困難である。また、MURNをテープのTELEFILE(RTM)ラベルに書き込むこともできる。MURNにより、テープ上のオーディオ/ビデオマテリアルアイテムのユニークIDが得られる。MURNは、線174で示すように、データベース176に別個に送ることができる。
【0091】
取り込みプロセッサ178では、マテリアルアイテムについてのMURNをテープ又はTELEFILEラベルから再生する。各MURN毎に、取り込みプロセッサ178はMURNに対応するUMIDを生成するように動作する。そして、UMIDは、MURNとともにデータベース176に送られて、データベース176内に既に存在するMURNに関連付けられてデータベースに取り込まれる。
【0092】
カメラメタデータ
以下、プログラムの作成中に生成することが可能なメタデータの種類と、そのメタデータを構成するのに可能な構成アプローチについて、例を用いて説明する。
【0093】
図13は、メタデータを構成するための構造例を示す。メタデータをそれぞれ有する多数のフィールドからなる多数のテーブルが設けられている。これらのテーブルは、各テーブル内の共通のフィールドにより互いに関連付けられることにより、リレーショナル構造を得ることができる。また、この構造は、テーブルが表すオブジェクトの多数のインスタンスを表すために、同じテーブルの多数のインスタンスを有してもよい。フィールドは所定の方法でフォーマットされる。フィールドのサイズも所定のものとすることができる。サイズの例としては、2バイトを表す「Int」、4バイトを表す「LongInt」、8バイトを表す「Double」がある。また、フィールドのサイズを、例えば8、10、16、32、128、255文字等、フィールド内に保持する文字数を参照して定めることもできる。
【0094】
この構造について詳細に説明すると、プログラムテーブルがある。プログラムテーブルは、プログラムID(PID)、タイトル、ワーキングタイトル、ジャンルID、一覧、アスペクト比、ディレクターID、ピクチャスタンプを含む多数のフィールドを有している。プログラムテーブルに関連して、ジャンルテーブル、キーワードテーブル、スクリプトテーブル、ピープルテーブル、スケジュールテーブル、及び、複数のメディアオブジェクトテーブルがある。
【0095】
ジャンルテーブルは、プログラムテーブルのジャンルIDフィールドと関連付けられたジャンルIDと、ジャンルディスクリプションとを含む多数のフィールドを有している。
【0096】
キーワードテーブルは、プログラムテーブルのプログラムIDフィールドと関連付けられたプログラムIDと、キーワードIDと、キーワードとを含む多数のフィールドを有している。
【0097】
スクリプトテーブルは、スクリプトID、スクリプト名、スクリプトタイプ、ドキュメントフォーマット、パス、作成日、原作者、バージョン、最終変更日、変更者、プログラムIDに関連付けられたPID、ノートと含む多数のフィールドを有している。ピープルテーブルは、イメージを含む多数のフィールドを有している。
【0098】
ピープルテーブルは、多数の個別テーブルと多数のグループテーブルに関連付けられている。各個別テーブルは、イメージを含む多数のフィールドを有している。各グループテーブルは、イメージを含む多数のフィールドを有している。各個別テーブルは、プロダクションスタッフテーブル又はキャストテーブルのいずれかと関連付けられている。
【0099】
プロダクションスタッフテーブルは、プロダクションスタッフID、姓、ファーストネーム、契約ID、エージェント、エージェンシーID、Eメール、住所、電話番号、役割ID、ノート、アレルギー、誕生日、国民保険番号、バンクID、ピクチャスタンプを含む多数のフィールドを有している。
【0100】
キャストテーブルは、キャストID、姓、ファーストネーム、役名、契約ID、エージェント、エージェンシーID、エクイティ番号、Eメール、住所、電話番号、誕生日、バンクID、ピクチャスタンプを含む多数のフィールドを有している。プロダクションスタッフテーブルとキャストテーブルに関連して、バンクディテールテーブルとエージェンシーテーブルがある。
【0101】
バンクディテールテーブルは、プロダクションスタッフテーブルのバンクIDフィールドとキャストテーブルのバンクIDフィールドに関連付けられたバンクID、ソートコード、口座番号、口座名を含む多数のフィールドを有している。
【0102】
エージェンシーテーブルは、プロダクションスタッフテーブルのエージェンシーIDフィールドとキャストテーブルのエージェンシーIDフィールドに関連付けられたエージェンシーID、名称、所在地、電話番号、ウェブサイト及びEメール、ピクチャスタンプを含む多数のフィールドを有している。また、プロダクションスタッフテーブルに関連して役割テーブルがある。
【0103】
役割テーブルは、プロダクションスタッフテーブルの役割IDフィールドに関連付けられた役割ID、職務、ノート、ピクチャスタンプを含む多数のフィールドを有している。各グループテーブルは、団体テーブルと関連付けられている。
【0104】
団体テーブルは、団体ID、名称、種類、所在地、契約ID、連絡先名、連絡先電話番号、ウェブサイト、ピクチャスタンプを含む多数のフィールドを有している。
【0105】
各メディアオブジェクトテーブルは、メディアオブジェクトID、名称、ディスクリプション、ピクチャスタンプ、PID、フォーマット、スケジュールID、スクリプトID、マスタIDを含む多数のフィールドを有している。各メディアオブジェクトテーブルに関連して、ピープルテーブル、マスタテーブル、スケジュールテーブル、ストーリーボードテーブル、スクリプトテーブル、及び多数のショットテーブルがある。
【0106】
マスタテーブルは、メディアオブジェクトテーブルのマスタIDフィールドに関連付けられたマスタID、タイトル、ベーシックUMID、EDL ID、テープID、継続時間、ピクチャスタンプを含む多数のフィールドを有している。
【0107】
スケジュールテーブルは、スケジュールID、スケジュール名、ドキュメントフォーマット、パス、作成日、原作者、開始日、終了日、バージョン、最終変更日、変更者、ノート、プログラムIDに関連付けられたPIDを含む多数のフィールドを有している。
【0108】
契約テーブルは、プロダクションスタッフテーブルとキャストテーブルと団体テーブルの契約IDに関連付けられた契約ID、開始日、レート、ジョブタイトル、満了日、詳細を含んでいる。
【0109】
ストーリーボードテーブルは、ショットテーブルのストーリーボードに関連付けられたストーリーボードID、ディスクリプション、著者、パス、メディアIDを含む多数のフィールドを有している。
【0110】
各ショットテーブルは、ショットID、PID、メディアID、タイトル、ロケーションID、ノート、ピクチャスタンプ、スクリプトID、スケジュールID、ディスクリプションを含む多数のフィールドを有している。各ショットテーブルに関連して、ピープルテーブル、スケジュールテーブル、スクリプトテーブル、ロケーションテーブル、及び、多数のテイクテーブルがある。
【0111】
ロケーションテーブルは、ショットテーブルのロケーションIDフィールドに関連付けられたロケーションID、GPS、所在地、ディスクリプション、名称、1時間毎の費用、ディレクション、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0112】
各テイクテーブルは、ベーシックUMID、テイク番号、ショットID、メディアID、タイムコード・イン、タイムコード・アウト、サインメタデータ、テープID、カメラID、ヘッド時間、ビデオグラファ、インスタンプ、アウトスタンプ、レンズID、オートID、取り込みID、ノートを含む多数のフィールドを有している。各テイクテーブルに関連して、テープテーブル、タスクテーブル、カメラテーブル、レンズテーブル、取り込みテーブル、及び、多数のテイクアノテーションテーブルがある。
【0113】
取り込みテーブルは、テイクテーブルにおける取り込みIDに関連付けられた取り込みIDと、ディスクリプションとを含んでいる。
【0114】
テープテーブルは、テイクテーブルのテープIDフィールドに関連付けられたテープID、PID、フォーマット、最大継続時間、第1用途、最大削除、現削除、ETA(予測到着時刻)、最終削除日、ピクチャスタンプを含む多数のフィールドを有している。
【0115】
タスクテーブルは、タスクID、PID、テイクテーブルのメディアID及びショットIDフィールドに関連付けられたメディアID及びショットID、タイトル、タスクノート、分配リスト、CCリストを含む多数のフィールドを有している。タスクテーブルに関連して、プランドショットテーブルがある。
【0116】
プランドショットテーブルは、プランドショットID、タスクテーブルのPID、メディアID、ショットIDにそれぞれ関連付けられたPID、メディアID、ショットID、ディレクター、ショットタイトル、ロケーション、ノート、ディスクリプション、ビデオグラファ、期日、プログラムタイトル、メディアタイトル、アスペクト比、フォーマットを含む多数のフィールドを有している。
【0117】
カメラテーブルは、テイクテーブルのカメラIDフィールドに関連付けられたカメラID、製造者、モデル、フォーマット、シリアル番号、ヘッド時間、レンズID、ノート、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0118】
レンズテーブルは、テイクテーブルのレンズIDフィールドに関連付けられたレンズID、製造者、モデル、シリアル番号、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0119】
各テイクアノテーションテーブルは、テイクアノテーションID、ベーシックUMID、タイムコード、シャッタースピード、アイリス、ズーム、ガンマ、ショットマーカID、フィルタホイール、詳細及び利得を含む多数のフィールドを有している。各テイクアノテーションテーブルに関連して、ショットマーカテーブルがある。
【0120】
ショットマーカテーブルは、テイクアノテーションテーブルのショットマーカIDに関連付けられたショットマーカIDと、ディスクリプションとを含む多数のフィールドを有している。
【0121】
UMIDの説明
UMIDについては、UMID規格の詳細を記載したSMPTEジャーナル2000年3月号に説明がある。図14及び図15にベーシックUMID及び拡張UMIDを示す。ベーシックUMIDからなる32バイトの第1セットと、シグネチャメタデータからなる32バイトの第2セットを有している。
【0122】
32バイトの第1セットはベーシックUMIDである。以下はその成分である。
【0123】
・この第1セットをSMPTE UMIDとして識別するための12バイトのユニバーサルラベル。これは、UMIDが識別するマテリアルのタイプを定めるとともに、グローバル的にユニークなマテリアル番号とローカル的にユニークなインスタンス番号を作成する方法も定める。
・UMIDの残りの長さを定める1バイトの長さ値。
・同じマテリアル番号を持つ異なるマテリアルインスタンスを区別するのに用いられる3バイトのインスタンス番号。
・各クリップを識別するのに用いられる16バイトのマテリアル番号。各マテリアル番号は同じマテリアルの関連するインスタンスについては同じである。
【0124】
1セットのパックされたメタデータアイテムとしての、シグネチャメタデータからなる32バイトの第2セットは、拡張UMIDを作成するのに用いられる。拡張UMIDは、ベーシックUMIDのすぐ後にシグネチャメタデータがくるものであり、シグネチャメタデータは以下の成分からなる。
・コンテンツユニット作成の日時を識別する8バイトの日時コード。
・コンテンツユニット作成時の空間座標を定める12バイトの値。
・国、団体、ユーザの各コードを登録する4バイトのコードが3つ。
【0125】
ベーシック及び拡張UMIDの各成分について以下に説明する。
「12バイトのユニバーサルラベル」
UMIDの最初の12バイトは、表3に定めた登録ストリング値によりUMIDの識別を行う。
【0126】
【表3】
【0127】
表3中の16進数の値は変更してもよい。これらの値は一例である。また、第1〜第12バイトは、表3中に示すもの以外の指定であってよい。表3に示す例では、第4バイトは、第5〜第12バイトがSMPTEに合致するデータフォーマットに関することを示す。第5バイトは、第6〜第10バイトが「ディクショナリ」データに関することを示す。第6バイトは、このようなデータが第7〜第10バイトにより定義される「メタデータ」であることを示す。第7バイトは、第9及び第10バイトにより定義されるメタデータを含むディクショナリの一部を示す。第8バイトは、ディクショナリのバーションを示す。第9バイトはデータのクラスを示し、第10バイトはそのクラスにおける特定アイテムを示す。
【0128】
本実施例では、第1〜第10バイトが予め割り当てられた固定値を有している。第11バイトは変数である。図15及び上記の表3を参照して、UMIDのラベルの第1〜第10バイトは固定されていることがわかる。従って、これらのバイトは、第1〜第10バイトを表す1バイトの「タイプ」コードTにより置き換えることができる。タイプコードTの後には長さコードLが来る。これに続いて、一方が表3の第11バイトであるとともに他方が表3の第12バイトである2バイトと、インスタンス番号(3バイト)と、マテリアル番号(16バイト)がある。また、任意であるが、マテリアル番号の後に拡張UMIDのシグネチャメタデータ及び/又は他のメタデータを配置してもよい。
【0129】
UMIDタイプ(第11バイト)は、以下ように4つの異なるデータタイプをそれぞれ識別するための4つの値を有している。
【0130】
「01h」=ピクチャマテリアルのUMID
「02h」=オーディオマテリアルのUMID
「03h」=データマテリアルのUMID
「04h」=グループマテリアル(例えば、関連する内容の組み合わせ)のUMID
12バイトのラベルの最後の(第12)バイトは、マテリアル及びインスタンス番号を作成する方法を識別する。このバイトはトップニブルとボトムニブルに分割され、トップニブルがマテリアル番号作成方法を定義するとともに、ボトムニブルがインスタンス番号作成方法を定義する。
【0131】
「長さ」
長さは、ベーシックUMIDについての値「13h」と拡張UMIDについての値「33h」を有する1バイトの数字である。
【0132】
「インスタンス番号」
インスタンス番号は、規格で定められた幾つかの手段のうちのいずれにより作成されるユニークな3バイトの番号である。インスタンス番号により、あるクリップの特定の「インスタンス」と外部の関連するメタデータとのリンクが得られる。このインスタンス番号がないと、すべてのマテリアルが、マテリアルのいずれのインスタンスとも、また、それに関連するメタデータとも結びついてしまう。
【0133】
新たなクリップの作成には、ゼロのインスタンス番号とともに新たなマテリアル番号の作成が必要である。従って、非ゼロのインスタンス番号は、関連するクリップがソースマテリアルではないことを示す。インスタンス番号は主として、あるクリップの特定のインスタンスに関する関連メタデータを識別するのに使用される。
【0134】
「マテリアル番号」
16バイトのマテリアル番号は、規格で定められた幾つかの手段のうちのいずれかにより作成されうる非ゼロ番号である。この番号は、6バイトの登録ポートID番号、時間、乱数発生器によって変わる。
【0135】
「シグネチャメタデータ」
シグネチャメタデータから成分はいずれも、有意義な値を入れることができない場合には、ヌルフィルを行うことができる。ヌルフィルされた成分はいずれも、後段のデコーダに対してその成分が有効でないことを明確に示すため、完全にヌルフィルされる。
【0136】
「日時フォーマット」
日時フォーマットは8バイトであり、その最初の4バイトは時間成分に基づくUTC(ユニバーサルタイムコード)である。時間は、内容のタイプによって、AES3の32ビットオーディオサンプルクロック又はSMPTE12Mのいずれかにより定められる。
【0137】
後の4バイトは、SMPTE309Mで定義するようなモディファイドジュリアンデータ(MJD)に基づくデータを定める。これは、1858年11月17日午前0時から999,999日をカウントし、西暦4597年までの日付を可能とする。
【0138】
「空間座標フォーマット」
空間座標値は、以下のように定義される3成分からなる。
【0139】
・高度:99,999,999メートルまでを特定する8個の10進数。
・経度:東経/西経180.00000度(少数第5位まで有効)を特定する8個の10進数。
・緯度:北緯/南緯90.00000度(少数第5位まで有効)を特定する8個の10進数。
【0140】
高度の値は、地球の中心からの値をメートルで表したものなので、海水面より低い高度も可能とする。
【0141】
なお、空間座標はほとんどのクリップについてスタティックであるが、すべての場合にあてはまるわけではない。乗り物に取り付けたカメラ等の移動ソースから取り込まれたマテリアルの場合、空間座標値が変化することもある。
【0142】
「国コード」
国コードは、ISO3166で定めたセットに応じた短縮形の4バイトの英数字ストリングである。登録されていない国は、SMPTEレジストレーションオーソリティから登録英数字ストリングを得ることができる。
【0143】
「団体コード」
団体コードは、SMPTEに登録された短縮形の4バイトの英数字ストリングである。団体コードは、それらの登録国コードに関してのみ意味を持つので、団体コードは異なる国においても同じ値を有することができる。
【0144】
「ユーザコード」
ユーザコードは、各団体によりローカル的に割り当てられるが、グローバル的に登録されてはいない4バイトの英数字ストリングである。ユーザコードは、それらの登録団体コード及び国コードに関してのみ定められるので、ユーザコードは異なる団体や国においても同じ値を有することができる。
【0145】
「フリーランスオペレータ」
フリーランスオペレータは、国コードとして自分の居住国を使用し、例えばSMPTEに登録することができる8バイトのコードに結合された団体コード及びユーザコードを使用する。これらのフリーランスコードは、「〜」の記号(ISO8859文字番号7Eh)で始まり、その後に登録された7桁の英数字ストリングを有する。
【0146】
当該分野の技術者にはわかるように、ここに説明した実施例について、本発明の主旨を逸脱しない範囲で種々の変更を行うことができる。例えば、オーディオ/ビデオを磁気テープに記録する場合について実施例を説明したが、他の記録媒体も可能である。
【0147】
上述の本発明の実施例の説明を考慮して、本発明はさらに、画像を表すビデオ信号と音声を表すオーディオ信号の処理を行うビデオ処理装置及びオーディオ処理装置、また、ビデオ信号とオーディオ信号をそれぞれ受信するとともに、ビデオ信号により表される画像とオーディオ信号により表される音声におけるアクティビティ量を示すアクティビティ信号を生成する動作を行うように構成されたアクティビティ検出器と、アクティビティ検出器に接続され、ビデオ信号とオーディオ信号のそれぞれとアクティビティ信号を受信するとともに、ビデオ信号とオーディオ信号のそれぞれにおける時間位置にビデオ信号とオーディオ信号のコンテンツを表すメタデータを生成するように構成され、時間位置がデータアクティビティ信号から決定されるメタデータ生成器を有するビデオ及びオーディオ処理装置を提供する。
【0148】
データプロセッサ又はプロセッサユニットとして実施例に示した本発明の特徴は、ハードウェアとしても、適切なデータプロセッサにおいて動作するソフトウェアコンピュータプログラムとしても実現することができる。これに対応して、データプロセッサにおいて動作するコンピュータ又はアプリケーションプログラムとして説明した本発明の特徴は、専用ハードウェアとして実現することもできる。従って、上述のようなオーディオ及び/又はビデオ生成装置を構成するデータプロセッサにおいて動作するコンピュータプログラムは、本発明の一特徴である。同様に、本発明による方法を定義する記録媒体に記録されたコンピュータプログラム、又は、コンピュータにロードされたときのコンピュータプログラムは、本発明に係る装置を構成し、本発明の特徴となる。
【0149】
上述の実施例はそれぞれ、本発明の種々の特徴の組み合わせを明示するものであるが、他の実施例についても、上述の実施例で明示した以外の適切な特徴の組み合わせを含んだ本発明の一般的な教示により考慮される。従って、添付の請求の範囲の独立クレーム及び従属クレームの特徴の種々に組み合わせると、請求の範囲に明示した以外の本発明の特徴を構成することがわかる。
【図面の簡単な説明】
以下、添付の図面を参照して、本発明の実施例を説明する。
【図1】 携帯情報端末(PDA)に関連して動作するように構成されたビデオカメラを示す概略ブロック図である。
【図2】 図1に示すビデオカメラの構成部分を示す概略ブロック図である。
【図3】 図1に示すPDAの外観の例を示す図である。
【図4】 ビデオカメラの他の構成例と、PDAの他の例に関連した別個の取得ユニットとしての、メタデータの生成及び処理に関連するビデオカメラの一部の構成例を示す概略ブロック図である。
【図5】 図4に示す取得ユニットの外観の例を示す図である。
【図6】 図4の取得ユニットとビデオカメラとの接続例を示す部分概略図である。
【図7】 ネットワークに接続された取り込みプロセッサを示す部分概略図と、メタデータ及びオーディオ/ビデオマテリアルアイテムの取り込みを説明する部分フローチャートである。
【図8】 図7に示す取り込みプロセッサを示す図である。
【図9】 図7及び8に示す取り込みプロセッサを詳細に示す部分概略図である。
【図10】 図7のデータベースに関連して動作する取り込みプロセッサを示す概略ブロック図である。
【図11】 図7に示す取り込みプロセッサの動作の他の例を示す概略ブロック図である。
【図12】 図12aは、オーディオ/ビデオマテリアルのサンプル時刻におけるピクチャスタンプの生成を示す概略図である。
図12bは、オーディオ/ビデオマテリアルの時間に対するテキストサンプルの生成を示す概略図である。
【図13】 メタデータを構成する構造例を示す図である。
【図14】 データ低減されたUMIDの構造を示す概略ブロック図である。
【図15】 拡張UMIDの構造を示す概略ブロック図である。

Claims (15)

  1. 通信ネットワークに接続可能で、記録媒体からオーディオ/ビデオマテリアルのアイテムを選択的に再生するオーディオ/ビデオ再生装置であって、
    第1の帯域幅を有する第1の通信ネットワークに接続可能な第1のネットワークインターフェースと、
    上記第1の帯域幅よりも広い第2の帯域幅を有する第2の通信ネットワークに接続可能な第2のネットワークインターフェースと、
    上記第1のネットワークインターフェースにより、当該オーディオ/ビデオマテリアルアイテムを示すメタデータを含む、選択されたオーディオ/ビデオマテリアルアイテムのリクエストを表すデータを、当該オーディオ/ビデオ再生装置に接続された編集装置から、上記第1の通信ネットワークを介して受信するコントロールプロセッサと、
    上記コントロールプロセッサに接続され、上記コントロールプロセッサから受信した上記選択されたオーディオ/ビデオマテリアルアイテムを示すメタデータに応じて、上記オーディオ/ビデオマテリアルアイテムを上記記録媒体から再生する再生プロセッサとを具備し、
    上記コントロールプロセッサは、上記再生されたオーディオ/ビデオマテリアルを、上記第2のネットワークインターフェースにより、上記第2の通信ネットワークを介して上記編集装置へ送信し、
    上記メタデータは、上記オーディオ/ビデオマテリアルに含まれる画像を低画質で表示するピクチャスタンプを含む
    オーディオ/ビデオ再生装置。
  2. 上記第1のネットワークインターフェースは、イーサネット(登録商標)、RS322、RS422等のデータ通信ネットワーク規格に従って動作することを特徴とする請求項1記載のオーディオ/ビデオ再生装置。
  3. 上記第2のネットワークインターフェースは、シリアルデジタルインターフェース(SDI)又はシリアルデジタルトランスポートインターフェース(SDTI)に従って動作することを特徴とする請求項1又は2記載のオーディオ/ビデオ再生装置。
  4. ローカルデータバスを介して上記コントロールプロセッサにそれぞれ接続された複数の上記オーディオ/ビデオ記録/再生装置を有することを特徴とする請求項2又は3に記載のオーディオ/ビデオ再生装置。
  5. 上記ローカルデータバスは、上記コントロールプロセッサとの間でコントロールデータの通信を行うためのコントロール通信チャネルと、上記複数のオーディオ/ビデオ記録/再生装置から上記第2の通信ネットワークに上記オーディオ/ビデオマテリアルアイテムを通信するためのビデオデータ通信チャネルとを有することを特徴とする請求項記載のオーディオ/ビデオ再生装置。
  6. 上記記録媒体上の上記オーディオ/ビデオマテリアルアイテムを表す画像を表示する表示装置を有することを特徴とする請求項1乃至のいずれか1項記載のオーディオ/ビデオ再生装置。
  7. 上記表示装置は、上記コントロールプロセッサに接続されたタッチ画面であり、上記オーディオ/ビデオマテリアルアイテムを選択するためのユーザからのタッチコマンドを受信することを特徴とする請求項記載のオーディオ/ビデオ再生装置。
  8. 上記コントロールプロセッサは、上記記録媒体上の上記オーディオ/ビデオマテリアルアイテムとともに記録されたデータから、上記オーディオ/ビデオマテリアルアイテムのそれぞれの識別子を表すデータを生成することを特徴とする請求項1乃至のいずれか1項記載のオーディオ/ビデオ再生装置。
  9. 上記識別子はUMID等であることを特徴とする請求項記載のオーディオ/ビデオ再生装置。
  10. 記録媒体からオーディオ/ビデオマテリアルのアイテムを再生するオーディオ/ビデオ再生方法であって、
    編集装置から、第1の帯域幅を有する第1の通信ネットワークを介して、選択されたオーディオ/ビデオマテリアルアイテムを示すメタデータを、上記記録媒体がロードされたオーディオ/ビデオ再生装置へ送信するステップと、
    上記オーディオ/ビデオ再生装置にて、上記第1の通信ネットワークを介して上記メタデータを受信するステップと、
    上記オーディオ/ビデオ再生装置にて、上記メタデータに応じて上記記録媒体から上記オーディオ/ビデオマテリアルアイテムを選択的に再生するステップと、
    上記オーディオ/ビデオ再生装置から、前記再生されたオーディオ/ビデオマテリアルアイテムを、上記第1の帯域幅よりも広い第2の帯域幅を有する第2の通信ネットワークを介して上記編集装置へ送信するステップと
    を有し、
    上記メタデータは、上記オーディオ/ビデオマテリアルに含まれる画像を低画質で表示するピクチャスタンプを含むことを特徴とするオーディオ/ビデオ再生方法。
  11. 請求項1記載のオーディオ/ビデオ再生装置と、
    上記記録媒体上の上記オーディオ/ビデオマテリアルアイテムのコンテンツを記述するメタデータを受信して記憶するように動作可能なデータベースと、
    上記オーディオ/ビデオ再生装置と上記データベースに接続され、上記データベースに記憶された上記メタデータの表示を行うとともに上記メタデータの上記表示から上記オーディオ/ビデオマテリアルアイテムを選択するためのグラフィカルユーザインターフェースを有し、ユーザに選択されたオーディオ/ビデオマテリアルアイテムを示す上記メタデータを、上記第1の通信ネットワークを介して上記オーディオ/ビデオ再生装置に送信し、当該送信される上記選択されたオーディオ/ビデオマテリアルアイテムに対応するメタデータに応じて上記オーディオ/ビデオ再生装置により選択的に再生された、上記選択されたオーディオ/ビデオマテリアルアイテムを、上記第2の通信ネットワークを介して受信する上記編集装置と
    を有することを特徴とするオーディオ/ビデオ編集システム。
  12. 上記記録媒体は、上記記録媒体に記録されたオーディオ/ビデオマテリアルアイテムの内容を記述する上記メタデータを有し、上記オーディオ/ビデオ再生装置は、上記メタデータを再生するとともに上記ネットワークを介して上記データベースに上記メタデータを通信する動作を行い、上記データベースは、上記メタデータを受信し記憶するように動作することを特徴とする請求項11記載のオーディオ/ビデオ編集システム。
  13. コンピュータを、請求項1乃至のいずれか1項記載のオーディオ/ビデオ再生装置、又は、請求項11又は12に記載のオーディオ/ビデオ編集システムとして機能させるプログラム。
  14. コンピュータに、請求項10記載のオーディオ/ビデオ再生方法の各ステップを実行させるプログラム。
  15. 請求項13又は14記載のプログラムが記録された記録媒体。
JP2001573477A 2000-04-05 2001-03-30 オーディオ/ビデオ再生装置及び方法 Expired - Fee Related JP4803544B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
GB0008429A GB2361127A (en) 2000-04-05 2000-04-05 Audio/video reproduction via a communications network
GB0008432.7 2000-04-05
GB0008429.3 2000-04-05
GB0008434A GB2361098A (en) 2000-04-05 2000-04-05 Editing system and method using metadata
GB0008434.3 2000-04-05
GB0008432A GB2361128A (en) 2000-04-05 2000-04-05 Video and/or audio processing apparatus
PCT/GB2001/001452 WO2001075884A2 (en) 2000-04-05 2001-03-30 Audio/video reproducing apparatus and method

Publications (2)

Publication Number Publication Date
JP2003529989A JP2003529989A (ja) 2003-10-07
JP4803544B2 true JP4803544B2 (ja) 2011-10-26

Family

ID=27255651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001573477A Expired - Fee Related JP4803544B2 (ja) 2000-04-05 2001-03-30 オーディオ/ビデオ再生装置及び方法

Country Status (5)

Country Link
US (2) US6772125B2 (ja)
EP (3) EP1947648B1 (ja)
JP (1) JP4803544B2 (ja)
AU (1) AU4264501A (ja)
WO (1) WO2001075884A2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3815599B2 (ja) * 2001-08-30 2006-08-30 株式会社ディーアンドエムホールディングス データ再生装置
FR2830714B1 (fr) * 2001-10-04 2004-01-16 Eastman Kodak Co Procede automatique d'enrichissement d'image numerique
EP1349080A1 (en) * 2002-03-26 2003-10-01 Deutsche Thomson-Brandt Gmbh Methods and apparatus for using metadata from different sources
JP4378284B2 (ja) * 2002-09-27 2009-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Maschines Corporation ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法
EP1420406B1 (en) * 2002-11-13 2010-05-05 Sony Corporation Content editing assistance system, computer program and content processing method
JP4798945B2 (ja) * 2003-03-05 2011-10-19 トヨタ自動車株式会社 撮像装置
JP2005004852A (ja) * 2003-06-11 2005-01-06 Matsushita Electric Ind Co Ltd 情報処理装置および方法、プログラム、並びに記録媒体
US7707037B2 (en) * 2004-07-01 2010-04-27 Emc Corporation Archiving of surveillance data
US8180742B2 (en) 2004-07-01 2012-05-15 Emc Corporation Policy-based information management
US7444287B2 (en) * 2004-07-01 2008-10-28 Emc Corporation Efficient monitoring system and method
US9268780B2 (en) * 2004-07-01 2016-02-23 Emc Corporation Content-driven information lifecycle management
US20060004818A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Efficient information management
US8209185B2 (en) * 2003-09-05 2012-06-26 Emc Corporation Interface for management of auditory communications
US7499531B2 (en) * 2003-09-05 2009-03-03 Emc Corporation Method and system for information lifecycle management
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US8626514B2 (en) * 2004-08-31 2014-01-07 Emc Corporation Interface for management of multiple auditory communications
US7457396B2 (en) * 2003-09-05 2008-11-25 Emc Corporation Automated call management
US8244542B2 (en) * 2004-07-01 2012-08-14 Emc Corporation Video surveillance
US8103873B2 (en) 2003-09-05 2012-01-24 Emc Corporation Method and system for processing auditory communications
US8180743B2 (en) * 2004-07-01 2012-05-15 Emc Corporation Information management
US8229904B2 (en) * 2004-07-01 2012-07-24 Emc Corporation Storage pools for information management
US8842977B2 (en) 2005-01-07 2014-09-23 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
KR100782810B1 (ko) * 2005-01-07 2007-12-06 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체를 재생하는 방법 및 장치
JP4459179B2 (ja) * 2005-03-30 2010-04-28 株式会社東芝 情報処理装置及びその方法
GB2447053A (en) * 2007-02-27 2008-09-03 Sony Uk Ltd System for generating a highlight summary of a performance
WO2008111054A2 (en) * 2007-03-12 2008-09-18 In-Dot Ltd. A reader device having various functionalities
US8238693B2 (en) * 2007-08-16 2012-08-07 Nokia Corporation Apparatus, method and computer program product for tying information to features associated with captured media objects
JP2009253675A (ja) * 2008-04-07 2009-10-29 Canon Inc 再生装置および方法、プログラム
US9037790B2 (en) * 2010-03-05 2015-05-19 International Business Machines Corporation Systems, methods, and computer program products for providing high availability metadata about data
US20120170914A1 (en) * 2011-01-04 2012-07-05 Sony Dadc Us Inc. Logging events in media files
US20120183271A1 (en) * 2011-01-17 2012-07-19 Qualcomm Incorporated Pressure-based video recording
GB2495289A (en) * 2011-10-04 2013-04-10 David John Thomas Multimedia editing by string manipulation
JP5753999B2 (ja) 2013-09-12 2015-07-22 メタフロンティア合同会社 端末装置、データ処理プログラム、及びデータ管理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997039411A1 (en) * 1996-04-12 1997-10-23 Avid Technology, Inc. A multimedia system with improved data management mechanisms
JPH1188843A (ja) * 1997-09-11 1999-03-30 Hitachi Ltd ビデオサーバ及びその処理プログラムを記録した媒体
JPH11289511A (ja) * 1998-04-02 1999-10-19 Sony Corp 映像素材選択装置及び映像素材選択方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1284211C (en) 1985-04-29 1991-05-14 Terrence Henry Pocock Cable television system selectively distributing pre-recorder video and audio messages
US4926415A (en) * 1987-02-04 1990-05-15 Kabushiki Kaisha Toshiba Local area network system for efficiently transferring messages of different sizes
JP2947978B2 (ja) * 1991-06-21 1999-09-13 株式会社日立製作所 音声信号記録再生装置
EP0526064B1 (en) 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Video editing system operator interface for visualization and interactive control of video material
US5790174A (en) 1991-09-27 1998-08-04 Bell Atlantic Network Services, Inc. PSTN architecture for video-on-demand services
DE69425842T2 (de) 1993-02-24 2001-03-29 Sony Electronics Inc Benutzerschnittstelle mit einem verschiebbaren Arbeitsraum und im Arbeitsraum fixierbaren Fenstern
EP0613145A2 (en) 1993-02-26 1994-08-31 Sony Electronics Inc. Card file graphical user interface with visual representation of video data
US5818511A (en) 1994-05-27 1998-10-06 Bell Atlantic Full service network
US7095871B2 (en) * 1995-07-27 2006-08-22 Digimarc Corporation Digital asset management and linking media signals with related data using watermarks
US7372976B2 (en) * 1998-04-16 2008-05-13 Digimarc Corporation Content indexing and searching using content identifiers and associated metadata
GB2326025B (en) 1994-07-06 1999-03-24 Hyundai Electronics Ind Method of forming a field oxide film in a semicondutor device
GB2296600B (en) * 1994-08-12 1999-04-07 Sony Corp Portable AV editing apparatus
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US5664227A (en) * 1994-10-14 1997-09-02 Carnegie Mellon University System and method for skimming digital audio/video data
US5805733A (en) * 1994-12-12 1998-09-08 Apple Computer, Inc. Method and system for detecting scenes and summarizing video sequences
US5485611A (en) * 1994-12-30 1996-01-16 Intel Corporation Video database indexing and method of presenting video database index to a user
JPH08214286A (ja) 1995-02-08 1996-08-20 Fujitsu Ltd ビデオ情報提供システム及びそのビデオ情報提供センターならびにリクエスト端末
JP3823333B2 (ja) * 1995-02-21 2006-09-20 株式会社日立製作所 動画像の変化点検出方法、動画像の変化点検出装置、動画像の変化点検出システム
EP1248258A2 (en) 1995-04-08 2002-10-09 Sony Corporation Editing system
US5910825A (en) * 1995-05-09 1999-06-08 Sony Corporation Video signal transmitting apparatus with attendant data insertion and extraction functions
US6181867B1 (en) * 1995-06-07 2001-01-30 Intervu, Inc. Video storage and retrieval system
JP3581439B2 (ja) 1995-07-05 2004-10-27 株式会社日立情報システムズ ビデオオンデマンドシステム
US7406214B2 (en) * 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
JP3456064B2 (ja) * 1995-09-08 2003-10-14 ソニー株式会社 音声・映像データ記録・再生装置
US5933603A (en) 1995-10-27 1999-08-03 Emc Corporation Video file server maintaining sliding windows of a video data set in random access memories of stream server computers for immediate video-on-demand service beginning at any specified location
US6038368A (en) * 1996-02-05 2000-03-14 Sony Corporation System for acquiring, reviewing, and editing sports video segments
GB2312078B (en) * 1996-04-12 1999-12-15 Sony Corp Cataloguing video information
US5892535A (en) * 1996-05-08 1999-04-06 Digital Video Systems, Inc. Flexible, configurable, hierarchical system for distributing programming
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6463444B1 (en) * 1997-08-14 2002-10-08 Virage, Inc. Video cataloger system with extensibility
US6360234B2 (en) * 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
DE19740119A1 (de) * 1997-09-12 1999-03-18 Philips Patentverwaltung System zum Schneiden digitaler Video- und Audioinformationen
GB2329812B (en) 1997-09-24 2002-04-10 Sony Pictures Entertainment User interface systems and methods
JPH11231849A (ja) * 1997-11-04 1999-08-27 Matsushita Electric Ind Co Ltd 画像合成装置
US6336093B2 (en) * 1998-01-16 2002-01-01 Avid Technology, Inc. Apparatus and method using speech recognition and scripts to capture author and playback synchronized audio and video
JPH11289512A (ja) 1998-04-03 1999-10-19 Sony Corp 編集リスト作成装置
JP4103192B2 (ja) 1998-09-17 2008-06-18 ソニー株式会社 編集システム及び編集方法
US6411724B1 (en) * 1999-07-02 2002-06-25 Koninklijke Philips Electronics N.V. Using meta-descriptors to represent multimedia information
GB2354105A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd System and method for navigating source content
GB2354104A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd An editing method and system
EP1102277A1 (en) * 1999-11-05 2001-05-23 Sony United Kingdom Limited Method of recording and accessing metadata
EP1102271B8 (en) * 1999-11-05 2016-12-07 Sony Europe Limited Method of generating audio and/or video signals and apparatus therefore
US7206820B1 (en) * 2000-03-18 2007-04-17 Digimarc Corporation System for linking from object to remote resource
JP4325071B2 (ja) * 2000-04-07 2009-09-02 ソニー株式会社 デジタルビデオ再生方法及びデジタルビデオ再生装置
US7054863B2 (en) * 2000-11-15 2006-05-30 Pacific Datavision, Inc. System and method for originating, storing, processing and delivering message data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997039411A1 (en) * 1996-04-12 1997-10-23 Avid Technology, Inc. A multimedia system with improved data management mechanisms
JPH1188843A (ja) * 1997-09-11 1999-03-30 Hitachi Ltd ビデオサーバ及びその処理プログラムを記録した媒体
JPH11289511A (ja) * 1998-04-02 1999-10-19 Sony Corp 映像素材選択装置及び映像素材選択方法

Also Published As

Publication number Publication date
JP2003529989A (ja) 2003-10-07
EP1183688A2 (en) 2002-03-06
WO2001075884A3 (en) 2001-12-20
EP1183688B1 (en) 2011-10-12
WO2001075884A2 (en) 2001-10-11
US6772125B2 (en) 2004-08-03
US20020152082A1 (en) 2002-10-17
AU4264501A (en) 2001-10-15
EP1947648B1 (en) 2019-05-08
EP1947649A2 (en) 2008-07-23
EP1947648A3 (en) 2015-03-11
USRE41939E1 (en) 2010-11-16
EP1947649A3 (en) 2014-07-09
EP1947648A2 (en) 2008-07-23

Similar Documents

Publication Publication Date Title
US8966360B2 (en) Transcript editor
US9679607B2 (en) Storage and editing of video and sensor data from athletic performances of multiple individuals in a venue
US8630528B2 (en) Method and system for specifying a selection of content segments stored in different formats
US7432940B2 (en) Interactive animation of sprites in a video production
KR100298560B1 (ko) 정보목록화방법및기록매체카트리지
JP3094466B2 (ja) 編集システム及び編集方法
US6870887B2 (en) Method and system for synchronization between different content encoding formats
US6353461B1 (en) Multiple camera video assist control system
DE60007876T2 (de) Digitales videoverarbeitungs- und schnittstellensystem für video-, audio- und zusatzdaten
CN101331760B (zh) 图像处理设备和图像处理方法
CA2318317C (en) Apparatus and method using speech recognition and scripts to capture, author and playback synchronized audio and video
CN100481064C (zh) 信息处理装置和方法
JP4314531B2 (ja) 再生装置および方法、並びにプログラム
US7110592B2 (en) Image recording apparatus, image reproducing apparatus and methods therefor
US7483624B2 (en) System and method for indexing a video sequence
US7391958B2 (en) Editing system and method, image recording device, editing device, and recording medium
JP3695581B2 (ja) 記録装置および記録方法、記録媒体、並びに、電子カメラ
US7834916B2 (en) Video content editing support system and method
US7403224B2 (en) Embedded metadata engines in digital capture devices
JP5206838B2 (ja) 画像処理装置及び画像処理方法
EP1626408B1 (en) Apparatus, method, and computer program for processing information
EP1520410B1 (en) Method and device for linking multimedia data
US6831729B1 (en) Apparatus and method of using same for synchronizing film with sound
US8763035B2 (en) Media map for capture of content from random access devices
US20020145622A1 (en) Proxy content editing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080304

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110511

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110802

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees