JP4711379B2 - オーディオ及び/又はビデオマテリアルの識別及び処理方法 - Google Patents

オーディオ及び/又はビデオマテリアルの識別及び処理方法 Download PDF

Info

Publication number
JP4711379B2
JP4711379B2 JP2001573479A JP2001573479A JP4711379B2 JP 4711379 B2 JP4711379 B2 JP 4711379B2 JP 2001573479 A JP2001573479 A JP 2001573479A JP 2001573479 A JP2001573479 A JP 2001573479A JP 4711379 B2 JP4711379 B2 JP 4711379B2
Authority
JP
Japan
Prior art keywords
input
identifier
metadata
video
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001573479A
Other languages
English (en)
Other versions
JP2003529990A (ja
Inventor
ハラディン、ヴィンセント、カール
ターナー、アラン
ウィリアムズ、マイケル
デビット、モルガン、ウィリアム、アモス
ウィルキンソン、ジェームス、ヘッドレイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0008440A external-priority patent/GB2361131A/en
Priority claimed from GB0008420A external-priority patent/GB2362254A/en
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2003529990A publication Critical patent/JP2003529990A/ja
Application granted granted Critical
Publication of JP4711379B2 publication Critical patent/JP4711379B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • G11B27/323Time code signal, e.g. on a cue track as SMPTE- or EBU-time code
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/328Table of contents on a tape [TTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers

Description

【0001】
【発明の属する技術分野】
本発明は、ビデオ及び/又はオーディオ及び/又はデータマテリアルのアイデンティファイアの処理に関する。また、本発明は、アイデンティファイアが関連付けられたビデオ及び/又はオーディオ及び/又はデータマテリアルの処理に関する。マテリアルは情報信号で表される。
【0002】
【従来の技術】
ビデオ及びオーディオマテリアルにマテリアルアイデンティファイアを関連付けることが提案されている。例えば、1フレームの精度でマテリアルを識別するため、ユニバーサル的にユニークなアイデンティファイアが提案されている。このようなアイデンティファイアの例としてUMIDがある。例えばテイク又はクリップ等のマテリアルは、好ましくは、それが最初に作成されるときに識別される。このようなアイデンティファイアにより、著作権保護のためのマテリアルの追跡及び管理が可能になり、所有者はそのマテリアルを使用する他者に使用料を請求することができるとともに、ビデオ及びオーディオマテリアルの制作及び配信における種々の機能が可能になる。
【0003】
事実上新しいマテリアルを作成するような方法で(古い)マテリアルを処理することが知られている。例えば、2以上のマテリアルピースをエディタ又は特殊効果機器にて組み合わせ、新たなマテリアルピースを作成することができる。
【0004】
また、他の例として、それぞれマテリアルを生成する幾つかのカメラで、イベントをライブ放送してもよい。さらに、記録されたマテリアルを作品中のスタッフやキャストの紹介に用いることもできる。視聴者に対して放送又は他の方法で配信される最終的なマテリアルは、種々のライブソース(カメラ、レコーダ等)からのマテリアルを選択して組み合わせることにより作成される。
【0005】
【発明の開示】
本発明は、ビデオ及び/又はオーディオ及び/又はデータマテリアルのアイデンティファイアの処理を行うプロセッサであって、プロセッサは、それぞれアイデンティファイアを有する処理される各マテリアルピースを受信する複数の入力部と、入力マテリアルの組み合わせである処理済みマテリアルを出力する出力部と、装置の状態を示すデータを出力する状態出力部とを有するビデオ及び/又はオーディオ及び/又はデータマテリアル処理装置とともに使用され、入力マテリアルのアイデンティファイアを検出し、出力マテリアルを構成する入力マテリアルの組み合わせを状態データから判断し、出力マテリアルのアイデンティファイアを生成し、出力マテリアルを構成するのに用いられる入力マテリアルのアイデンティファイアに出力マテリアルのアイデンティファイアを関連付けるように構成されたプロセッサを提供する。
【0006】
従って、プロセッサは、自動的に入力マテリアルのアイデンティファイアをビデオ及び/又はオーディオ及び/又はデータ処理装置に検出し、処理装置により出力される処理済みマテリアルのアイデンティファイアを判断し、出力処理済みマテリアルにアイデンティファイアを関連付け、出力マテリアルのアイデンティファイアに入力マテリアルのアイデンティファイアを関連付ける。
【0007】
入力マテリアルは、アイデンティファイアを持たないものもある。プロセッサは、好ましくは、このようなマテリアルのアイデンティファイアを生成して、他のすべてのマテリアルと同じように処理されるようにする。
【0008】
出力マテリアルに関連したアイデンティファイアを出力マテリアルに適用することもできる。出力アイデンティファイアは、データベースに記憶され、データベース中の適切なメタデータにリンクされる。
【0009】
また、最終的な出力マテリアルの一部を構成する新たなマテリアルのサブコンビネーションについて、新たなアイデンティファイアを生成することもできる。
【0010】
また、本発明は、ビデオ及び/又はオーディオマテリアルの処理を行うプロセッサであって、それぞれアイデンティファイアを有する処理される各マテリアルピースを受信する複数の入力部と、入力マテリアルの組み合わせである処理済みマテリアルを出力する出力部とを有し、入力マテリアルのアイデンティファイアを検出し、出力マテリアルを構成する入力マテリアルの組み合わせを状態データから判断し、出力マテリアルのアイデンティファイアを生成し、出力マテリアルを構成するのに用いられる入力マテリアルのアイデンティファイアに出力マテリアルのアイデンティファイアを関連付けるように構成されたプロセッサを提供する。
【0011】
上述のように、マテリアルアイデンティファイアを用いて、ビデオ及びオーディオマテリアルを識別することが提案されている。このようなアイデンティファイアの例としてUMIDがある。ソースにてアイデンティファイアを持たないマテリアルもあるので、そのマテリアルにアイデンティファイアを関連付けなければならない。マテリアルに対して行われる幾つかのプロセスでは、古いマテリアルから新たなマテリアルを生成するので、新たなアイデンティファイアの生成を伴う。
【0012】
記録された幾つかのマテリアルは、例えばテープやディスク等の記録媒体から再生され、コンテンツを変えずに再記録される。UMIDは、同じマテリアルの異なるインスタンスを表すのに用いられるインスタンス番号を有している。例えば、マテリアルの最初の記録はインスタンス番号0を有し、同じマテリアルの次の記録はインスタンス番号1を有する。アイデンティファイアのその他の部分は変わらない。
【0013】
カメラやマイク等のライブソースからのマテリアルについては、マテリアルのコンテンツを変えることなく、例えばアナログ/デジタルあるいはデジタル/圧縮デジタル等、記録せずに形式変換が行われる。
【0014】
また、本発明は、ビデオ及び/又はオーディオ信号により表され、ソースから発生するビデオ及び/又はオーディオマテリアルを、ソースのタイプを識別するデータフィールドを有するマテリアルアイデンティファイアに関連付けるビデオ及び/又はオーディオ信号システムを提供する。
【0015】
これにより、ソースのタイプ、例えば、ソースがカメラやマイク等のライブソースであるか、記録されたマテリアルのソースであるかが示される。ライブソースから送られるが記録されていないマテリアルは、例えばインスタンス番号が割り当てられ、これらインスタンス番号は、送られた未記録データのインスタンスとしてタイプインディケータにより表される。記録されたソースからのマテリアルは、インスタンス番号が割り当てられるが、これらは送られたインスタンス番号に対して異なるタイプインディケータを有する。
【0016】
送られたマテリアルについては、例えばUMID等のアイデンティファイアがデータストリームに埋め込まれている。例えば、垂直ブランキング期間である。符号化や復号化等の一連の処理における幾つかのプロセスでは、垂直ブランキング期間を変えずに通過させるか、あるいは、潜在的に誤ったインスタンス番号を与える垂直ブランキング期間の処理を行わない。従って、本発明の一実施例によれば、このようなアイデンティファイアは、記録されたインスタンスのみに適用されるものとしてタイプインディケータにより表される。
【0017】
【発明の実施の態様】
以下の説明は、概要について図1及び図2を参照して説明し、UMIDについて図3及び図4を参照して説明し、メタデータについて図5及び図19〜図22を参照して説明し、Aボックスについて図6〜図12を参照して説明し、Bボックスについて図13〜図18を参照して説明し、変更UMIDについて図23及び図24を参照して説明する。
【0018】
概要−図1及び図2
図1において、ビデオ及び/又はオーディオ信号プロセッサ400は、複数の入力部INを有している。説明の都合上、以下ではビデオのみについて説明するが、本発明の原理はオーディオにもデータにも適用されるものである。プロセッサは、ビデオスイッチャ、ミキサ、特殊効果機器、あるいは他のプロセッサであってもよい。説明を簡単にするため、以下ではミキサについて説明する。ミキサの入力部INは、UMIDを有するビデオマテリアルを受信する。UMIDはマテリアルアイデンティファイアであり、後述の「UMID」のセクションで説明する。ミキサ400は、既知の方法で、入力部のうちの選択された入力部からのマテリアルを組み合わせる。ミキサの出力部OUTにて、種々の入力部から選択されてカットや挿入により順に組み合わせられたマテリアルシーケンス、及び/又は、ピクチャインピクチャ等、他のマテリアルのフレームに挿入される1マテリアルピースのような、順に組み合わせたのではない2以上の入力部からのマテリアル、及び/又は、当該分野で知られている他の組み合わせからなるマテリアルが生成される。プロセッサ400は、状態データ出力部401を有している。このような出力は、幾つかの既知のプロセッサにおいて得られる。これにより、信号を組み合わせる方法や、例えば、それらの信号がどの入力部から発生するのかを示すデータが得られる。
【0019】
以下のような簡単な例について考える。入力部INは、a、b、c、d、e、fとして識別される各ビデオ入力を受信する。入力a、b、c、dはライブソースから発生する。入力eはVTRから発生し、入力fは他の制作会社から供給されたものである。入力bが入力aにおいてピクチャインピクチャとなるように、aとbを組み合わせる。入力cとdを、つなぎ目にディゾルブを用いてミキシングし、cとdの両方が含まれるようにする。
【0020】
入力a〜eのビデオアイテムは、各ビデオ信号a〜eに埋め込まれているUMIDa〜eにより識別され、入力fはUMIDを有さないものとする。
【0021】
最終的な出力は、a〜fの組み合わせにより構成される。
【0022】
最終的な出力に新たなUMIDを与えるため、また、事実上新たなマテリアルとなるサブコンビネーションにUMIDを与えるためにルールを適用する。(適用されるルールは、ビジネスポリシーによるもの及び/又は標準化機構により承認されるものでもよい。)種々の理由により、UMID及びそれらの関係を調べるオーディットトレイルを作成することが望ましい。その理由には特に著作権保護やロイヤリティの支払いが含まれる。
【0023】
本発明の一実施例によれば、ここでは「Cボックス」と呼ばれるUMIDプロセッサ403を設ける。Cボックス403は、オーディットトレイルを作成し、ビデオプロセッサ400により処理されるマテリアルにUMID適用ルールを適用する。Cボックス403は、好適なインターフェースを備えたプログラムされたコンピュータを用いて実現することができる。
【0024】
Cボックス403は、入力部がビデオプロセッサ400の各入力部INに接続されている。Cボックスは、例えば入力a〜eのUMIDa〜eのような入力信号のUMIDを検出する手段を有している。入力fはUMIDを有していないので、CボックスはUMIDfを入力fに与えて、他の入力と全く同じように処理できるようにする。Cボックスは、接続線401を介してビデオプロセッサの状態データを受信して、ビデオプロセッサの動作を行うエミュレータを備えている。Cボックスは、ビデオプロセッサにより生成されたマテリアルの組み合わせに適切なUMID適用ルールを作成し、適用する。Cボックスは、接続線402を介して処理済みビデオに新たなUMIDを与える手段を備えている。これにより、Cボックスはオーディットトレイルを作成する。
【0025】
Cボックスは、ビデオプロセッサ400で処理したマテリアルにUMIDにより関連付けられた他のメタデータも記憶するデータベース404/420に、オーディットトレイルを転送する。これに代えて、あるいは、これに加えて、Cボックスは、ビデオ信号の例えば垂直ブランキング期間に、オーディットトレイルと任意で幾つかのメタデータを挿入する。
【0026】
図中、Cボックスはビデオプロセッサに付加されているが、ビデオプロセッサに統合してもよい。
【0027】
図1では、最終的なビデオ出力がビデオプロセッサから出力されているが、好ましくは、最終的な出力は、入力マテリアルの最終的な組み合わせにUMIDを与えるCボックスを介して得られる。放送されるマテリアルの最終的な組み合わせには、プログラムを構成するマテリアルの完全な組み合わせをユニバーサル的にユニークに識別するユニークプログラムアイデンティファイア(UPID)が割り当てられる。Cボックスは、以下に説明するように、放送用に送られたマテリアルから、すべてのUMID及びUPIDを除去することができる。
【0028】
図2は、ビデオ及びオーディオプロダクションシステムを示す概略図である。図2は、放送されるプログラムであって、カメラ408及び409からのライブマテリアルやVTR411からの記録されたマテリアルからなり、デジタルマルチ効果機器415により処理されたマテリアルを伴うプログラムの制作を示す。プログラムマテリアルは、ルータ413、コントロールパネル414を備えたビデオスイッチャ400’、オーディオコンソール400”により、種々のソース408、409、411、415からライブで構成される。また、種々の動作を監視するモニタ416が設けられている。モニタ418は放送されるプログラムの監視を行い、VTR417はそのプログラムを記録する。VTR417は、VTR417に接続されるとともにVTR417をLANに接続するBボックス412を有してもよい。Bボックスは、VTR417内のテープのテープID及び/又はそのマテリアルのUMID、及び/又は他のメタデータを、メタデータベース404に通信する。これにより、テープとそのコンテンツをデータベースにおいて識別することができる。
【0029】
カメラはAボックス410を有し、VTR411はBボックス412を有している。Cボックスはビデオスイッチャ400’及びオーディオコンソール400”に関連付けられている。Cボックスは、ビデオスイッチャ400’及びオーディオコンソール400”からの状態データを受信するための状態データ入力部401’及び401”を有している。本例では、最終的なプログラムがCボックスから放送される。Cボックス403は、コンピュータ420と、フィードメタデータベース404と、状態データベース419とを有するコントロールアプリケーション403’を備えている。フィードメタデータベースは、オーディットトレイルや他のメタデータを取り込み、それらを、点線421で示す通信リンクを介してメインデータベース420に送る。
【0030】
カメラ408及び409は、ルータ413に送られるライブビデオを生成する。ビデオストリームにはUMIDが埋め込まれる。UMIDはAボックス410により生成される。また、Aボックスは、メタデータの生成及び/又は収集も行い、このメタデータは、例えばLANにより、関連するUMIDとともにメタデータベース404に送られる。VTR411は、UMIDを有する記録されたビデオを再生する。UMIDはビデオ再生の際に再生され、本例では、ルータ413に送られるビデオに埋め込まれている。メタデータは、テープに記録したり再生することができる。BボックスはLANに接続される。Bボックスは、再生されたマテリアルのUMIDを他の使用可能なメタデータとともに、LANを介してメタデータベース404に転送する。記録されたマテリアルがUMIDを有していない場合、Bボックス412によりUMIDが与えられる。
【0031】
Cボックス403は、状態データ入力部401’及び401”を介してオーディオコンソール及びビデオスイッチャの状態を検出し、それらの状態をエミュレートしてUMIDのオーディットトレイルを作成する。また、Cボックスは、最終的なUMID及び/又はUPIDを、放送されるプログラムに関連付ける。
【0032】
Cボックスは、マテリアルからすべてのUMIDを除去して、放送されるプログラムがUMIDもUPIDも持たないようにすることができる。その場合、最終的なUMID及び/又はUPIDは、プログラムに関するメタデータとともにメタデータベース404のみに記憶される。例えば、最終的なプログラムがレコーダに送られて記憶され、すぐに放送されない場合、UMID及びUPIDはマテリアル中にとどまる。
【0033】
Cボックス403は、UMIDを検出して、それらをメタデータベース404に転送する。メタデータベース403は、図5を参照して説明するようなメタデータ、及び/又は、図19〜図23を参照して説明するようなメタデータを有する。メタデータをマテリアルのユーザによりアクセス可能とすることができる。例えば、メタデータ、好ましくは選択されたメタデータを、テレテキスト情報として放送マテリアルに挿入してもよい。メタデータは、LAN又はインターネット接続又は他の通信リンクを介して、ユーザによりアクセス可能とすることができる。
【0034】
UMID及びUPIDの適用及び変更ルール
本明細書の終わりにある表6〜表11は、UMIDの割り当て、及び/又は、インスタンス番号I#、マテリアル番号M#、ラベルL#によるUMIDの変更についての幾つかの可能なポリシー又はルールを説明するものである。これらの表において、Aはオーディオ、Vはビデオを表す。表7の第6行において、A’及びB’はビデオマテリアルアイテムを示し、NLEはノンリニア編集を表す。FXは「効果」を表す。VBIは垂直ブランキング期間を表す。SDは標準鮮明度を表し、HDは高鮮明度を表す。各表が示すように、Cボックスにより行われるオーディットトレイルはUMIDの変化を追跡しなければならない。
【0035】
UMID−図3及び図4
UMID
UMIDについては、UMID規格の詳細を記載したSMPTEジャーナル2000年3月号に説明がある。図12に拡張UMIDを示す。拡張UMIDは、ベーシックUMIDからなる32バイトの第1セットと、シグネチャメタデータからなる32バイトの第2セットを有している。
【0036】
32バイトの第1セットはベーシックUMIDである。以下はその成分である。
【0037】
・この第1セットをSMPTE UMIDとして識別するための12バイトのユニバーサルラベル。これは、UMIDが識別するマテリアルのタイプを定めるとともに、グローバル的にユニークなマテリアル番号とローカル的にユニークなインスタンス番号を作成する方法も定める。
【0038】
・UMIDの残りの長さを定める1バイトの長さ値。
・同じマテリアル番号を持つ異なるマテリアルインスタンスを区別するのに用いられる3バイトのインスタンス番号。
・各クリップを識別するのに用いられる16バイトのマテリアル番号。各マテリアル番号は同じマテリアルの関連するインスタンスについては同じである。
【0039】
1セットのパックされたメタデータアイテムとしての、シグネチャメタデータからなる32バイトの第2セットは、拡張UMIDを作成するのに用いられる。拡張UMIDは、ベーシックUMIDのすぐ後にシグネチャメタデータがくるものであり、シグネチャメタデータは以下の成分からなる。
【0040】
・コンテンツユニット作成の日時を識別する8バイトの日時コード。
・コンテンツユニット作成時の空間座標を定める12バイトの値。
・国、団体、ユーザの各コードを登録する4バイトのコードが3つ。
【0041】
ベーシック及び拡張UMIDの各成分について以下に説明する。
【0042】
「12バイトのユニバーサルラベル」
UMIDの最初の12バイトは、表1に定めた登録ストリング値によりUMIDの識別を行う。
【0043】
【表1】
Figure 0004711379
【0044】
表1中の16進数の値は変更してもよい。これらの値は一例である。また、第1〜第12バイトは、表1中に示すもの以外の指定であってよい。表1に示す例では、第4バイトは、第5〜第12バイトがSMPTEに合致するデータフォーマットに関することを示す。第5バイトは、第6〜第10バイトが「ディクショナリ」データに関することを示す。第6バイトは、このようなデータが第7〜第10バイトにより定義される「メタデータ」であることを示す。第7バイトは、第9及び第10バイトにより定義されるメタデータを含むディクショナリの一部を示す。第8バイトは、ディクショナリのバーションを示す。第9バイトはデータのクラスを示し、第10バイトはそのクラスにおける特定アイテムを示す。
【0045】
本実施例では、第1〜第10バイトが予め割り当てられた固定値を有している。第11バイトは変数である。図4及び上記の表1を参照して、UMIDのラベルの第1〜第10バイトは固定されていることがわかる。従って、これらのバイトは、第1〜第10バイトを表す1バイトの「タイプ」コードTにより置き換えることができる。タイプコードTの後には長さコードLが来る。これに続いて、一方が表1の第11バイトであるとともに他方が表1の第12バイトである2バイトと、インスタンス番号(3バイト)と、マテリアル番号(16バイト)がある。また、任意であるが、マテリアル番号の後に拡張UMIDのシグネチャメタデータ及び/又は他のメタデータを配置してもよい。
【0046】
UMIDタイプ(第11バイト)は、以下ように4つの異なるデータタイプをそれぞれ識別するための4つの値を有している。
【0047】
「01h」=ピクチャマテリアルのUMID
「02h」=オーディオマテリアルのUMID
「03h」=データマテリアルのUMID
「04h」=グループマテリアル(例えば、関連する内容の組み合わせ)のUMID
12バイトのラベルの最後の(第12)バイトは、マテリアル及びインスタンス番号を作成する方法を識別する。このバイトはトップニブルとボトムニブルに分割され、トップニブルがマテリアル番号作成方法を定義するとともに、ボトムニブルがインスタンス番号作成方法を定義する。
【0048】
「長さ」
長さは、ベーシックUMIDについての値「13h」と拡張UMIDについての値「33h」を有する1バイトの数字である。
【0049】
「インスタンス番号」
インスタンス番号は、規格で定められた幾つかの手段のうちのいずれにより作成されるユニークな3バイトの番号である。インスタンス番号により、あるクリップの特定の「インスタンス」と外部の関連するメタデータとのリンクが得られる。このインスタンス番号がないと、すべてのマテリアルが、マテリアルのいずれのインスタンスとも、また、それに関連するメタデータとも結びついてしまう。
【0050】
新たなクリップの作成には、ゼロのインスタンス番号とともに新たなマテリアル番号の作成が必要である。従って、非ゼロのインスタンス番号は、関連するクリップがソースマテリアルではないことを示す。インスタンス番号は主として、あるクリップの特定のインスタンスに関する関連メタデータを識別するのに使用される。
【0051】
「マテリアル番号」
16バイトのマテリアル番号は、規格で定められた幾つかの手段のうちのいずれかにより作成されうる非ゼロ番号である。この番号は、6バイトの登録ポートID番号、時間、乱数発生器によって変わる。
【0052】
「シグネチャメタデータ」
シグネチャメタデータから成分はいずれも、有意義な値を入れることができない場合には、ヌルフィルを行うことができる。ヌルフィルされた成分はいずれも、後段のデコーダに対してその成分が有効でないことを明確に示すため、完全にヌルフィルされる。
【0053】
「日時フォーマット」
日時フォーマットは8バイトであり、その最初の4バイトは時間成分に基づくUTC(ユニバーサルタイムコード)である。時間は、内容のタイプによって、AES3の32ビットオーディオサンプルクロック又はSMPTE12Mのいずれかにより定められる。
【0054】
後の4バイトは、SMPTE309Mで定義するようなモディファイドジュリアンデータ(MJD)に基づくデータを定める。これは、1858年11月17日午前0時から999,999日をカウントし、西暦4597年までの日付を可能とする。
【0055】
「空間座標フォーマット」
空間座標値は、以下のように定義される3成分からなる。
【0056】
・高度:99,999,999メートルまでを特定する8個の10進数。
・経度:東経/西経180.00000度(少数第5位まで有効)を特定する8個の10進数。
・緯度:北緯/南緯90.00000度(少数第5位まで有効)を特定する8個の10進数。
【0057】
高度の値は、地球の中心からの値をメートルで表したものなので、海水面より低い高度も可能とする。
【0058】
なお、空間座標はほとんどのクリップについてスタティックであるが、すべての場合にあてはまるわけではない。乗り物に取り付けたカメラ等の移動ソースから取り込まれたマテリアルの場合、空間座標値が変化することもある。
【0059】
「国コード」
国コードは、ISO3166で定めたセットに応じた短縮形の4バイトの英数字ストリングである。登録されていない国は、SMPTEレジストレーションオーソリティから登録英数字ストリングを得ることができる。
【0060】
「団体コード」
団体コードは、SMPTEに登録された短縮形の4バイトの英数字ストリングである。団体コードは、それらの登録国コードに関してのみ意味を持つので、団体コードは異なる国においても同じ値を有することができる。
【0061】
「ユーザコード」
ユーザコードは、各団体によりローカル的に割り当てられるが、グローバル的に登録されてはいない4バイトの英数字ストリングである。ユーザコードは、それらの登録団体コード及び国コードに関してのみ定められるので、ユーザコードは異なる団体や国においても同じ値を有することができる。
【0062】
「フリーランスオペレータ」
フリーランスオペレータは、国コードとして自分の居住国を使用し、例えばSMPTEに登録することができる8バイトのコードに結合された団体コード及びユーザコードを使用する。これらのフリーランスコードは、「〜」の記号(ISO8859文字番号7Eh)で始まり、その後に登録された7桁の英数字ストリングを有する。
【0063】
メタデータ−図5
以下、プログラムの作成中に生成することが可能なメタデータの種類と、データベース内のそのメタデータを構成するのに可能な構成アプローチについて、例を用いて説明する。UMIDは、データベース内のメタデータをテープ上のマテリアルにリンクする。
【0064】
図5は、メタデータを構成するための構造例を示す。メタデータをそれぞれ有する多数のフィールドからなる多数のテーブルが設けられている。これらのテーブルは、各テーブル内の共通のフィールドにより互いに関連付けられることにより、リレーショナル構造を得ることができる。また、この構造は、テーブルが表すオブジェクトの多数のインスタンスを表すために、同じテーブルの多数のインスタンスを有してもよい。フィールドは所定の方法でフォーマットされる。フィールドのサイズも所定のものとすることができる。サイズの例としては、2バイトを表す「Int」、4バイトを表す「LongInt」、8バイトを表す「Double」がある。また、フィールドのサイズを、例えば8、10、16、32、128、255文字等、フィールド内に保持する文字数を参照して定めることもできる。
【0065】
この構造について詳細に説明すると、プログラムテーブルがある。プログラムテーブルは、プログラムID(PID)、タイトル、ワーキングタイトル、ジャンルID、一覧、アスペクト比、ディレクターID、ピクチャスタンプを含む多数のフィールドを有している。プログラムテーブルに関連して、ジャンルテーブル、キーワードテーブル、スクリプトテーブル、ピープルテーブル、スケジュールテーブル、及び、複数のメディアオブジェクトテーブルがある。
【0066】
ジャンルテーブルは、プログラムテーブルのジャンルIDフィールドと関連付けられたジャンルIDと、ジャンルディスクリプションとを含む多数のフィールドを有している。
【0067】
キーワードテーブルは、プログラムテーブルのプログラムIDフィールドと関連付けられたプログラムIDと、キーワードIDと、キーワードとを含む多数のフィールドを有している。
【0068】
スクリプトテーブルは、スクリプトID、スクリプト名、スクリプトタイプ、ドキュメントフォーマット、パス、作成日、原作者、バージョン、最終変更日、変更者、プログラムIDに関連付けられたPID、ノートと含む多数のフィールドを有している。ピープルテーブルは、イメージを含む多数のフィールドを有している。
【0069】
ピープルテーブルは、多数の個別テーブルと多数のグループテーブルに関連付けられている。各個別テーブルは、イメージを含む多数のフィールドを有している。各グループテーブルは、イメージを含む多数のフィールドを有している。各個別テーブルは、プロダクションスタッフテーブル又はキャストテーブルのいずれかと関連付けられている。
【0070】
プロダクションスタッフテーブルは、プロダクションスタッフID、姓、ファーストネーム、契約ID、エージェント、エージェンシーID、Eメール、住所、電話番号、役割ID、ノート、アレルギー、誕生日、国民保険番号、バンクID、ピクチャスタンプを含む多数のフィールドを有している。
【0071】
キャストテーブルは、キャストID、姓、ファーストネーム、役名、契約ID、エージェント、エージェンシーID、エクイティ番号、Eメール、住所、電話番号、誕生日、バンクID、ピクチャスタンプを含む多数のフィールドを有している。プロダクションスタッフテーブルとキャストテーブルに関連して、バンクディテールテーブルとエージェンシーテーブルがある。
【0072】
バンクディテールテーブルは、プロダクションスタッフテーブルのバンクIDフィールドとキャストテーブルのバンクIDフィールドに関連付けられたバンクID、ソートコード、口座番号、口座名を含む多数のフィールドを有している。
【0073】
エージェンシーテーブルは、プロダクションスタッフテーブルのエージェンシーIDフィールドとキャストテーブルのエージェンシーIDフィールドに関連付けられたエージェンシーID、名称、所在地、電話番号、ウェブサイト及びEメール、ピクチャスタンプを含む多数のフィールドを有している。また、プロダクションスタッフテーブルに関連して役割テーブルがある。
【0074】
役割テーブルは、プロダクションスタッフテーブルの役割IDフィールドに関連付けられた役割ID、職務、ノート、ピクチャスタンプを含む多数のフィールドを有している。各グループテーブルは、団体テーブルと関連付けられている。
【0075】
団体テーブルは、団体ID、名称、種類、所在地、契約ID、連絡先名、連絡先電話番号、ウェブサイト、ピクチャスタンプを含む多数のフィールドを有している。
【0076】
各メディアオブジェクトテーブルは、メディアオブジェクトID、名称、ディスクリプション、ピクチャスタンプ、PID、フォーマット、スケジュールID、スクリプトID、マスタIDを含む多数のフィールドを有している。各メディアオブジェクトテーブルに関連して、ピープルテーブル、マスタテーブル、スケジュールテーブル、ストーリーボードテーブル、スクリプトテーブル、及び多数のショットテーブルがある。
【0077】
マスタテーブルは、メディアオブジェクトテーブルのマスタIDフィールドに関連付けられたマスタID、タイトル、ベーシックUMID、EDL ID、テープID、継続時間、ピクチャスタンプを含む多数のフィールドを有している。
【0078】
スケジュールテーブルは、スケジュールID、スケジュール名、ドキュメントフォーマット、パス、作成日、原作者、開始日、終了日、バージョン、最終変更日、変更者、ノート、プログラムIDに関連付けられたPIDを含む多数のフィールドを有している。
【0079】
契約テーブルは、プロダクションスタッフテーブルとキャストテーブルと団体テーブルの契約IDに関連付けられた契約ID、開始日、レート、ジョブタイトル、満了日、詳細を含んでいる。
【0080】
ストーリーボードテーブルは、ショットテーブルのストーリーボードに関連付けられたストーリーボードID、ディスクリプション、著者、パス、メディアIDを含む多数のフィールドを有している。
【0081】
各ショットテーブルは、ショットID、PID、メディアID、タイトル、ロケーションID、ノート、ピクチャスタンプ、スクリプトID、スケジュールID、ディスクリプションを含む多数のフィールドを有している。各ショットテーブルに関連して、ピープルテーブル、スケジュールテーブル、スクリプトテーブル、ロケーションテーブル、及び、多数のテイクテーブルがある。
【0082】
ロケーションテーブルは、ショットテーブルのロケーションIDフィールドに関連付けられたロケーションID、GPS、所在地、ディスクリプション、名称、1時間毎の費用、ディレクション、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0083】
各テイクテーブルは、ベーシックUMID、テイク番号、ショットID、メディアID、タイムコード・イン、タイムコード・アウト、サインメタデータ、テープID、カメラID、ヘッド時間、ビデオグラファ、インスタンプ、アウトスタンプ、レンズID、オートID、取り込みID、ノートを含む多数のフィールドを有している。各テイクテーブルに関連して、テープテーブル、タスクテーブル、カメラテーブル、レンズテーブル、取り込みテーブル、及び、多数のテイクアノテーションテーブルがある。
【0084】
取り込みテーブルは、テイクテーブルにおける取り込みIDに関連付けられた取り込みIDと、ディスクリプションとを含んでいる。
【0085】
テープテーブルは、テイクテーブルのテープIDフィールドに関連付けられたテープID、PID、フォーマット、最大継続時間、第1用途、最大削除、現削除、ETA(予測到着時刻)、最終削除日、ピクチャスタンプを含む多数のフィールドを有している。
【0086】
タスクテーブルは、タスクID、PID、テイクテーブルのメディアID及びショットIDフィールドに関連付けられたメディアID及びショットID、タイトル、タスクノート、分配リスト、CCリストを含む多数のフィールドを有している。タスクテーブルに関連して、プランドショットテーブルがある。
【0087】
プランドショットテーブルは、プランドショットID、タスクテーブルのPID、メディアID、ショットIDにそれぞれ関連付けられたPID、メディアID、ショットID、ディレクター、ショットタイトル、ロケーション、ノート、ディスクリプション、ビデオグラファ、期日、プログラムタイトル、メディアタイトル、アスペクト比、フォーマットを含む多数のフィールドを有している。
【0088】
カメラテーブルは、テイクテーブルのカメラIDフィールドに関連付けられたカメラID、製造者、モデル、フォーマット、シリアル番号、ヘッド時間、レンズID、ノート、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0089】
レンズテーブルは、テイクテーブルのレンズIDフィールドに関連付けられたレンズID、製造者、モデル、シリアル番号、連絡先名、連絡先住所、連絡先電話番号、ピクチャスタンプを含む多数のフィールドを有している。
【0090】
各テイクアノテーションテーブルは、テイクアノテーションID、ベーシックUMID、タイムコード、シャッタースピード、アイリス、ズーム、ガンマ、ショットマーカID、フィルタホイール、詳細及び利得を含む多数のフィールドを有している。各テイクアノテーションテーブルに関連して、ショットマーカテーブルがある。
【0091】
ショットマーカテーブルは、テイクアノテーションテーブルのショットマーカIDに関連付けられたショットマーカIDと、ディスクリプションとを含む多数のフィールドを有している。
【0092】
Aボックス−図6〜図12
取得ユニット
上述のように、本発明の実施例は、例えば、テレビカメラ、ビデオカメラ、あるいは図2に示すAボックス410に関連したカムコーダ408、409等のオーディオ及び/又はビデオ生成装置を用いる。以下、カメラとAボックスの一実施例について図6を参照して説明するが、図6は、携帯情報端末(PDA)と通信を行うように構成されたビデオカメラの概略ブロック図を示す。PDAは、ユーザの要件に応じてメタデータを生成する動作を行うように構成されたデータプロセッサの一例である。携帯情報端末(PDA)という用語は、英数字キーパッドとハンドライティングインターフェースを有するポータブル又はハンドヘルドのパーソナルオーガナイザ又はデータプロセッサとして、家庭用電子機器の分野の技術者には知られている。
【0093】
図6において、ビデオカメラ101は、1以上の撮像レンズ(図示せず)を備えた撮像部104の視野に入る画像ソースから光を受光するように構成されたカメラ本体102を有している。また、カメラは、ファインダー106と、カメラの視野内に形成された画像を表す信号の記録をユーザが制御することができるようにする動作コントロールユニット108を有している。また、カメラ101は、音声をステレオで記録するように構成された複数のマイクからなるマイク110を有している。また、図6には、画面114と、ユーザがPDAにより認識される文字を書き込むことができる部分を備えた英数字キーパッド116とを有するハンドヘルドPDA112が示されている。PDA112は、インターフェース118を介してビデオカメラ101に接続されるように構成されている。インターフェース118は、例えばRS232等の所定の標準フォーマットに従って構成されている。また、インターフェース118は赤外線信号を用いて構成してもよく、この場合、インターフェース118は無線通信リンクとなる。インターフェース118により、ビデオカメラ101と情報の通信を行う手段が得られる。PDA112の機能及び用途については後に詳細に説明する。しかし、一般的には、PDA112を用いて生成し、ビデオカメラ101により検出及び取り込みが行われるオーディオ及びビデオ信号とともに記録することができるメタデータの送受信を行う手段が、PDA112により得られる。PDA112と組み合わせたビデオカメラ101の動作については、図7によりさらに理解することができる。図7は、図6に示すビデオカメラの本体102を詳細に示すものであるが、共通部分には同じ参照番号を付してある。
【0094】
図7において、カメラ本体102は、磁気記録テープ126に関連して動作するリード/ライトヘッド124を備えたテープドライブ122を有している。また、図7において、カメラ本体は、接続チャネル130を介してテープドライブ122に接続されたメタデータ生成プロセッサ128を有している。メタデータ生成プロセッサ128には、データストレージ132と、クロック136と、3つのセンサ138、140、142も接続されている。また、図7に示すが、インターフェースユニット118は無線チャネル119を介してデータの送受信を行う。これに対応して、データの受信用と送信用の2つの接続チャネルが、対応する接続チャネル148、150を介してメタデータ生成プロセッサ128にインターフェースユニット118を接続する。図中、メタデータ生成プロセッサは、接続チャネル151を介して、カメラにより生成されるオーディオ/ビデオ信号を受信する。オーディオ/ビデオ信号は、テープドライブ122にも送られ、テープ126に記録される。
【0095】
図6に示すビデオカメラ101は、レンズ部104の視野に入るビジュアル情報を記録媒体に記録するように動作する。ビジュアル情報はカメラによりビデオ信号に変換される。マイク110により検出され、オーディオ信号としてビデオ信号とともに記録媒体に記録されるように構成された音声と合わせて、画像がビデオ信号として記録される。図6に示すように、記録媒体は磁気テープ126であり、リード/ライトヘッド124によりオーディオ及びビデオ信号を記録テープ126に記録するように構成されている。ビデオ信号及びオーディオ信号がリード/ライトヘッド124により磁気テープ126に記録される様子については、本発明の実施例を説明するものではないので、図7には示さず、詳細な説明も省略する。しかし、一旦、ユーザが画像を取り込んで、磁気テープ126を用いてこれらの画像をそれに伴うオーディオ信号とともに記録した場合、オーディオ/ビデオ信号のコンテンツを記述するメタデータを、PDA112を用いて入力してもよい。後述するように、このメタデータは、「テイク」等の所定のイベントに関連してオーディオ/ビデオ信号を識別する情報であってもよい。図7に示すように、インターフェースユニット118により、ユーザがPDA112を用いて付加したメタデータをカメラ本体102内に受信する手段が得られる。データ信号は、インターフェースユニット118にて無線チャネル119を介して受信することができる。インターフェースユニット118は、接続チャネル148、150を介してこれらのデータ信号を受信する取得プロセッサ128がこれらの信号を処理できるような形式に、これらの信号を変換する。
【0096】
メタデータは、接続チャネル151を介して受信されるオーディオ/ビデオ信号に関連して、メタデータ生成プロセッサ128により自動的に生成される。図7に示す実施例において、メタデータ生成プロセッサ128は、クロック136を参照してタイムコードを生成するとともに、テープ126上に、記録用に設けられたリニア記録トラックにてこれらのタイムコードを記録するように動作する。タイムコードは、メタデータ生成プロセッサ128によりクロック136から生成される。さらに、メタデータ生成プロセッサ128は、オーディオ/ビデオ信号を独自に識別するUMID等の他のメタデータを自動的に生成する。メタデータ生成プロセッサは、テープドライバ124と共動して、オーディオ/ビデオ信号とともにUMIDをテープに書き込む。
【0097】
他の実施例では、UMIDや他のメタデータをデータストレージ132に記憶し、テープ126から別個に通信する。この場合、メタデータ生成プロセッサ128によりテープIDが生成され、テープ126に書き込まれて、テープ126を他のテープと識別する。
【0098】
UMIDや、オーディオ/ビデオ信号のコンテンツを識別する他のメタデータを生成するため、メタデータ生成プロセッサ128は、クロック136の外にセンサ138、140、142からの信号を受信する動作を行うように構成されている。従って、メタデータ生成プロセッサは、これらの信号を統合するように動作し、カメラレンズ104の開口設定、シャッタースピード、取り込んだ画像が「グッドショット」であることを示すコントロールユニット108を介して受信した信号等のメタデータを、メタデータ生成プロセッサに供給する。これらの信号及びデータは、センサ138、140、142により生成され、メタデータ生成プロセッサ128にて受信される。本実施例のメタデータ生成プロセッサは、ビデオ信号の生成時にカメラにより用いられる動作パラメータを与えるシンタクティックメタデータを生成するように構成されている。さらに、メタデータ生成プロセッサ128は、カムコーダ101の状況、特に、オーディオ/ビデオ信号がテープドライブ124により記録されているか否かを監視する。レコードスタートが検出されると、インポイントタイムコードが取り込まれ、インポイントタイムコードに対応してUMIDが生成される。さらに、幾つかの実施例では拡張UMIDが生成されるが、この場合、メタデータ生成プロセッサは、オーディオ/ビデオ信号が取得された位置を表す空間座標を受信するように構成される。空間座標は、グローバル・ポジショニング・システム(GPS)に従って動作するレシーバにより生成される。レシーバは、カメラの外部にあってもよく、また、カメラ本体102に内蔵されてもよい。
【0099】
レコードスタートが検出されると、メタデータ生成プロセッサ128によりアウトポイントタイムコードが取り込まれる。上述のように、「グッドショット」マーカを生成することが可能である。「グッドショット」マーカは、記録プロセス中に生成され、メタデータ生成プロセッサにより検出される。「グッドショット」マーカは、対応するインポイント及びアウトポイントタイムコードとともに、テープに記憶されるか、あるいは、データストレージ132に記憶される。
【0100】
上述のように、PDA112は、カメラにより生成されるオーディオ/ビデオマテリアルの識別を容易にするのに用いられる。このため、PDAは、このオーディオ/ビデオマテリアルをシーン、ショット、テイク等の所定のイベントに関連付けるように構成されている。図6及び7に示すカメラとPDAは、オーディオ/ビデオプロダクションのプランニング、取得、編集を行う総合システムの一部を構成する。プランニングにおいて、オーディオ/ビデオプロダクションを作成するのに必要なシーンが識別される。さらに、各シーン毎に、シーンを確立するのに必要なショット数が識別される。各ショットでは、多数のテイクが生成され、これらのテイクから所定数のテイクを用いて、最終的な編集のためのショットを生成する。従って、この形式のプランニング情報がプランニング段階で識別される。従って、プランニングされたシーン及びショットのそれぞれを表す又は識別するデータが、オーディオ/ビデオマテリアルを取り込むときにディレクターを支援するノートとともに、PDA112にロードされる。このようなデータの例を以下の表2に示す。
【0101】
【表2】
Figure 0004711379
【0102】
表2の第1列には、カメラにより取り込まれ、オーディオ/ビデオマテリアルを生成するイベントを示す。イベントは階層的に定められているが、各イベントには識別番号が設けられている。これに対応して、第2列には、プランニングされたショット又はシーンのコンテンツをディレクターに示す又は知らせるために、ノートが設けられている。例えば、第1行では、オーディオ/ビデオプロダクションを、BMWによるローバーの売却を報道するニュースストーリーとして識別している。表2に示すプランニング情報の抜粋では、それぞれ独自の識別番号が設けられた3つのシーンがある。これらのシーンは、それぞれ「ロングブリッジの外」、「BMWミュンヘン本部」、「大臣のインタビュー」である。これに対応して各シーン毎に多数のショットが識別されており、これらのショットは、独自のショット識別番号を有して各シーンの下に示されている。また、これら各ショットのコンテンツに対応するノートが第2列に記載されている。従って、例えば第1シーン「ロングブリッジの外」について、3つのショットが識別されている。これらは「ロングブリッジBMW」、「シフトを離れる労働者」、「駐車場の労働者」である。この情報をPDAにロードして、ディレクター又はカメラマンひとりで、ニュースストーリーを撮影すべき場所にPDAを携帯し、プランニングしたオーディオ/ビデオマテリアルを収集することができる。この情報を表示するグラフィカルユーザインターフェースを備えたPDAの外観を図8に示す。
【0103】
図6に示すように、PDA112はカメラ101とデータの通信を行うように構成されている。このため、メタデータ生成プロセッサ128は、インターフェース118を介してPDA112とデータの通信を行うように構成されている。インターフェース118は、例えば、既知の規格に従って無線通信を行う赤外線リンク119であってもよい。図7に示すPDAとメタデータ生成に関連するカメラ構成部分を図10に詳細に示す。
【0104】
図10において、メタデータの生成及びPDA112との通信に関連するカメラ構成部分を別個の取得ユニット152として示す。なお、取得ユニット152はカメラ102に内蔵することもできる。取得ユニット152は、メタデータ生成プロセッサ128とデータストレージ132を備えている。また、説明の都合上図10には示していないが、取得ユニット152は、クロック136とセンサ138、140、142も備えている。あるいは、図10に示すこれらの特徴の幾つか又はすべてをカメラ102に内蔵し、タイムコード等のメタデータやオーディオ/ビデオ信号自体を定めるのに必要な信号を、インターフェースポート154に接続された通信リンク153を介して通信してもよい。従って、メタデータ生成プロセッサ128は、タイムコードやオーディオ/ビデオマテリアルにも、オーディオ/ビデオマテリアルの生成に用いる他のパラメータにもアクセスが得られる。オーディオ/ビデオ信号だけでなくタイムコードやパラメータも表す信号が、インターフェースチャネル156を介してインターフェースポート154から受信される。また、取得ユニット152には、スクリーンドライバ158により駆動される画面(図示せず)が設けられている。また、図10では、接続チャネル162を介してメタデータ生成プロセッサ128に接続されている通信プロセッサ160が、取得ユニットに設けられている。通信プロセッサ160により、アンテナ164を用いた無線周波数通信チャネルを介して通信が行われる。取得ユニット152の外観を図10に示す。
【0105】
図10にはPDA112も示されている。PDA112には、赤外線リンク119を介して取得ユニット152との間で通信を行うための赤外線通信ポート165が対応して設けられている。PDA112内のデータプロセッサ166は、接続チャネル166を介して赤外線ポート165との間でデータの通信を行うように構成されている。また、PDA112には、データストレージ167と、データプロセッサ166に接続されたスクリーンドライバ168とが設けられている。
【0106】
図8に示すPDA112と図10に示す取得ユニットにより、本発明の一実施例の図示が得られる。PDA112と取得ユニット152の配置及び接続を示す概略図を図11に示す。図11に示す例では、取得ユニット152はカメラ101の背面に装着され、6ピンリモートコネクタによりカメラに接続されるとともに、記録テープに記録されたタイムコードを表す外部信号を伝える接続チャネルに接続されている。従って、矢印と線で示される6ピンリモートコネクタとタイムコードは、図9に示す通信チャネル153を構成する。図11において、インターフェースポート154は、RM−P9/LTC − RS422コンバータ154からなるVA−DN1コンバータであるとする。RM−P9はカメラリモートコントロールプロトコルであり、LTCはアナログ信号形式でのリニアタイムコードである。これは、インターフェースポート154の一部を構成する接続チャネルを介してRS422−RS232コンバータ154”と通信を行うように構成されている。コンバータ154”は、RS232規格に従って動作する接続チャネル156を介してメタデータ生成プロセッサ128と通信を行う。
【0107】
図10に戻り、所定のプロダクション情報がロードされたPDA112は、赤外線リンク119を介して次ショットID番号を送ることにより、オーディオ/ビデオマテリアルを生成する現シーン及びショットを送るように構成されている。その所定の情報を、別個のリンク又は赤外線通信リンク119を介して、取得ユニット152に送ってデータストレージ132に記憶しておいてもよい。しかし、実際は、取得ユニット152は、現在取り込まれているシーン又はショットID番号に関連してメタデータを生成するように指示されている。現ショットの情報を受信した後、カメラ102は「ショットのテイク」をとるように動作する。テイクのオーディオ/ビデオマテリアルは、対応するタイムコードとともに記録テープ126に記録される。これらのタイムコードは、インターフェースポート154を介してメタデータ生成プロセッサ128にて、オーディオ/ビデオマテリアルとともに受信される。現在取り込まれている所定の現ショットを知らされたメタデータ生成プロセッサ128は、そのショットの各テイク毎のタイムコードのログを行う。従って、メタデータ生成プロセッサは、各テイクのイン及びアウトタイムコードのログを行い、これらをデータストレージ132に記憶する。
【0108】
メタデータ生成プロセッサ128により生成及びログが行われた情報を以下の表3に示す。第1列において、シーン及びショットがそれぞれ対応するID番号により識別され、各ショット毎に階層的に示された幾つかのテイクがカメラ操作者により作成される。従って、PDA112から現ショットの情報を受信した後、カメラ操作者が作成した各テイクがメタデータ生成プロセッサ128によりログされ、このテイクについてのイン及びアウトポイントを第2及び第3列に示すとともにデータストレージ132に記憶する。この情報は、図9に示すように、取得ユニット152の画面に表示してもよい。さらに、上述のように、メタデータ生成プロセッサ128は、各テイクの間に生成されるオーディオ/ビデオマテリアルについて各テイク毎のUMIDを生成する。各テイク毎のUMIDは表3の第4列を構成する。また、幾つかの実施例において、マテリアルを記録するテープの独自のIDを与えるため、テープIDを生成してメタデータに関連付けている。テープIDはテープに書き込んでもよく、また、ビデオテープカセット本体に内蔵されているランダムアクセスメモリチップに記憶してもよい。このランダムアクセスメモリチップは、テープID番号を遠隔的に読み出す手段を与えるTELEFILE(RTM)システムとして知られている。テープIDは磁気テープ126に書き込まれて、このテープを独自に識別する。好ましい実施例において、TELEFILE(RTM)システムには、メモリの一部として製造され、テープID番号として使用することができる独自の番号が設けられている。他の実施例では、TELEFILE(RTM)システムにより、記録されたオーディオ/ビデオマテリアルアイテムのイン/アウトタイムコードが自動的に得られる。
【0109】
一実施例において、以下の表3に示す情報は、別個の記録チャネルにある磁気テープに記録されるように構成されている。しかし、他の実施例では、表3に示すメタデータは、通信プロセッサ160又は赤外線リンク119のいずれかを用いてテープ126から別個に通信される。メタデータをPDA112で受信して分析してもよく、また、PDAによりメタデータの通信をさらにおこなってもよい。
【0110】
【表3】
Figure 0004711379
【0111】
通信プロセッサ160は、無線通信リンクを介して、メタデータ生成プロセッサ128により生成されたメタデータを送信する動作を行うように構成することができる。メタデータは、遠隔位置にあるスタジオにより無線通信リンクを介して受信され、このスタジオではメタデータを取得するとともに、磁気テープ126に記録されたオーディオ/ビデオマテリアルより先にこのメタデータの処理を行うことができる。これにより、マテリアルの編集を行うポストプロダクションにおいてオーディオ/ビデオプロダクションを生成するレートを改善できるという利点が得られる。
【0112】
本発明の実施例により得られるさらなる利点としては、記録されたオーディオ/ビデオ信号内のある時間位置にピクチャスタンプが生成されるように構成することである。ピクチャスタンプは、画像のデジタル表示であるとして当該分野の技術者に知られているものであり、本実施例では、カメラにより得られた動画ビデオマテリアルから生成される。ピクチャスタンプは、ビデオ信号から画像を表すのに必要なデータ量を低減するため、低画質のものであってもよい。従って、ピクチャスタンプを圧縮符号化して、画質を低下させてもよい。しかし、ピクチャスタンプはオーディオ/ビデオマテリアルのコンテンツのビジュアルインディケーションを与えるので、メタデータの重要なアイテムである。従って、例えば特定のテイクのイン及びアウトタイムコードにて、ピクチャスタンプを生成してもよい。これにより、メタデータ生成プロセッサ128により生成され、データストレージ132に記憶されたメタデータと、ピクチャスタンプを関連付けることができる。従って、ピクチャスタンプは、例えば、ピクチャスタンプにより表される画像を記録するテープ上の位置を識別するタイムコード等のメタデータのアイテムに関連付けられる。ピクチャスタンプは、「グッドショット」マーカを付して生成してもよい。ピクチャスタンプは、メタデータ生成プロセッサ128により、通信リンク153を介して受信したオーディオ/ビデオ信号から生成される。従って、メタデータ生成プロセッサは、ピクチャスタンプを生成するため、データサンプリング及び圧縮符号化プロセスを行うように動作する。ピクチャスタンプが生成されると、これらは幾つかの用途に使用することができる。ピクチャスタンプをデータファイルに記憶して、テープ126から別個に通信してもよく、あるいは、別個の記録チャネルにより圧縮形式でテープ126に記憶してもよい。また、好ましい実施例において、通信プロセッサ160を用いて、プロデューサがピクチャスタンプを分析する遠隔位置のスタジオにピクチャスタンプを送ってもよい。これにより、カメラ操作者により生成されるオーディオ/ビデオマテリアルが必要に応じたものであるか否かについてのインディケーションが、プロデューサに与えられる。
【0113】
さらに他の実施例において、ピクチャスタンプはPDA112に送られ、PDAの画面に表示される。これは赤外線ポート119を介して行うことができるが、通信プロセッサ160との通信を行うことができる他の無線リンクをPDAに設けてもよい。このように、ハンドヘルドPDA112を有するディレクターには、カメラにより生成された現オーディオ/ビデオコンテンツを示すインディケーションが与えられる。これにより、現在生成されているオーディオ/ビデオマテリアルのアーティストや芸術的な質を示すインディケーションがすぐに得られる。上述のように、ピクチャスタンプは圧縮符号化されているので、PDAに高速で通信することができる。
【0114】
図10に示す取得ユニット152のさらなる利点としては、オーディオ/ビデオマテリアルの受信前に、そのマテリアルのコンテンツを示すインディケーションを遠隔位置にあるスタジオの編集者に与えることにより、編集プロセスを効率化することである。これは、無線リンクを介してピクチャスタンプがメタデータとともに通信されて、オーディオ/ビデオマテリアル自体を受信する前にオーディオ/ビデオマテリアルのコンテンツを示すインディケーションが編集者に与えられるからである。このように、オーディオ/ビデオマテリアルの帯域幅が広いまま保つことが可能であり、これに対応して高品質が得られるとともに、メタデータとピクチャスタンプは比較的狭い帯域幅で、比較的低い品質の情報となる。帯域幅が狭いため、メタデータとピクチャスタンプは、かなり狭い帯域幅のチャネルで無線リンクを介して通信することができる。これにより、オーディオ/ビデオマテリアルのコンテンツを記述するメタデータを高速で通信することができる。
【0115】
メタデータ生成プロセッサ128により生成されたピクチャスタンプは、記録されたオーディオ/ビデオマテリアル中のいずれの位置にあってもよい。一実施例では、ピクチャスタンプが各テイクのイン及びアウトポイントにて生成される。しかし、本発明の他の実施例では、アクティビティプロセッサ170がビデオマテリアル内の相対アクティビティを検出するように構成される。これは、ビデオ信号により表される画像の色成分のヒストグラムをコンパイルして、色成分の変化率を決定し、これら色成分の変化を用いて画像内のアクティビティを示すというプロセスを行うことにより行われる。また、これに代えて、あるいは、これに加えて、画像内の動きベクトルを用いてアクティビティを示す。そして、アクティビティプロセッサ170は、ビデオマテリアル内の相対アクティビティを示す信号を生成するように動作する。メタデータ生成プロセッサ128は、ビデオ信号により表される画像内のアクティビティが大きいほど多くのピクチャスタンプを生成するように、アクティビティ信号に応じてピクチャスタンプを生成する。
【0116】
本発明の他の実施例において、アクティビティプロセッサ170は、接続チャネル172を介してオーディオ信号を受信し、そのオーディオ信号内の音声を認識するように構成されている。そして、アクティビティプロセッサ170は、この音声のコンテンツを表すコンテンツデータをテキストとして生成する。テキストデータは、データプロセッサ128に送られてデータストレージ132に記憶されるか、あるいは、ピクチャスタンプについて既に説明したのと同様にして通信プロセッサ160を介して他のメタデータとともに送られる。
【0117】
図12に、オーディオ/ビデオマテリアルを編集して、オーディオ/ビデオプログラムを作成するポストプロダクションプロセスを概略的に示す。図22に示すように、ピクチャスタンプ及び/又は音声コンテンツ情報が含むメタデータは、破線174で表す別個のルートを介して取得ユニット152からメタデータデータベース176に送られる。ルート174は、例えばUMTS、GSM等により構成される無線通信リンクを表す。
【0118】
データベース176は、メタデータをオーディオ/ビデオマテリアルと関連付けて記憶する。高品質形式のオーディオ/ビデオマテリアルはテープ126に記録される。従って、テープ126は編集場所に戻されて、取り込みプロセッサ178により取り込まれる。テープ126に記録されたテープID、又は、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与える他のメタデータを用いて、破線180で示すように、データストレージ176に記憶されたメタデータをテープ上のオーディオ/ビデオマテリアルと関連付ける。
【0119】
本発明の実施例ではオーディオ/ビデオ信号を記憶するための記録媒体としてビデオテープを用いているが、磁気ディスクやランダムアクセスメモリ等、他の記録媒体を用いてもよい。
【0120】
Bボックス−図13〜図18
Bボックス
上述のように、本発明の実施例は、Bボックス412に関連したVTR411、417を用いる。以下、Bボックス412の一実施例について図13〜図18を参照して説明する。
【0121】
図13は、オーディオ/ビデオマテリアルを編集して、オーディオ/ビデオプログラムを作成するポストプロダクションプロセスを概略的に示す。図13に示すように、ピクチャスタンプ及び/又は音声コンテンツ情報が含むメタデータは、破線174で表す別個のルートを介して取得ユニット152からメタデータデータベース176に送られる。ルート174は、例えばUMTS、GSM等により構成される無線通信リンクを表す。
【0122】
データベース176は、メタデータをオーディオ/ビデオマテリアルと関連付けて記憶する。高品質形式のオーディオ/ビデオマテリアルはテープ126に記録される。従って、テープ126は編集場所に戻されて、取り込みプロセッサ178により取り込まれる。テープ126に記録されたテープID、又は、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与える他のメタデータを用いて、破線180で示すように、データストレージ176に記憶されたメタデータをテープ上のオーディオ/ビデオマテリアルと関連付ける。
【0123】
図13において、取り込みプロセッサ178は、接続線182で表す通信チャネルにより形成されるネットワークに接続されている。接続線182は、相互接続されたネットワークを形成する機器にデータ通信を行うための通信チャネルを表している。このため、これらの機器には、イーサネット(登録商標)、RS422等の既知のアクセス技術に従って動作するネットワークカードが設けられている。さらに、後述するように、通信ネットワーク182は、シリアルデジタルインターフェース(SDI)又はシリアルデジタルトランスポートインターフェース(SDTI)に従ってデータ通信を行ってもよい。
【0124】
また、通信ネットワーク182には、メタデータデータベース176と、オーディオ/ビデオマテリアルを取り込むオーディオ/ビデオサーバ190も接続されている。さらに、編集端末184、186もデジタルマルチ効果プロセッサ188とともに通信チャネル182に接続されている。
【0125】
通信チャネル182により、取り込みプロセッサ178にロードされたテープ、ディスク又は他の記録媒体上にあるオーディオ/ビデオマテリアルへのアクセスが得られる。
【0126】
メタデータデータベース176は、取り込みプロセッサ178にロードされた記録媒体に記録されたオーディオ/ビデオマテリアルのコンテンツを記述するメタデータを、ルート174を介して受信するように構成されている。
【0127】
なお、実施例ではオーディオ/ビデオ信号を記憶する記録媒体としてビデオテープを用いたが、磁気ディスクやランダムアクセスメモリ等の他の記録媒体を用いてよく、ビデオテープは単なる一例に過ぎない。
【0128】
編集端末184、186及びデジタルマルチ効果プロセッサ188には、取り込みプロセッサ178にロードされたテープに記録されてオーディオ/ビデオマテリアルと、通信ネットワーク182を介してメタデータデータベース176に記憶されたオーディオ/ビデオマテリアルを記述するメタデータへのアクセスが得られる。メタデータデータベース176を伴う取り込みプロセッサ178の動作について以下に詳細に説明する。
【0129】
図14は、取り込みプロセッサ178の例を示す。図14において、取り込みプロセッサ178は、取り込みプロセッサ178の一部を構成するビデオテープ記録/再生部にロードされたテープに記録されたオーディオ/ビデオマテリアルをナビゲートするためのジョグシャトルコントロール200を有している。また、取り込みプロセッサ178は、オーディオ/ビデオマテリアルの選択部分を記述するピクチャスタンプを表示するように構成された表示画面202を有している。表示画面202は、タッチによりオーディオ/ビデオマテリアルを選択するための手段をユーザに与えるタッチ画面として動作する。また、取り込みプロセッサ178は、スクリプト、カメラの種類、レンズの種類、UMIDを含む全種類のメタデータを画面202に表示するように構成されている。
【0130】
図15に示すように、取り込みプロセッサ178は、オーディオ/ビデオマテリアルが記録されたビデオテープを並行してロードすることができる複数のビデオテープ記録/再生部を備えてもよい。図15に示す例では、RS422リンクとSDIイン/アウトリンクを介して、ビデオテープレコーダ204が取り込みプロセッサ178に接続されている。従って、取り込みプロセッサ178は、ビデオテープレコーダにロードされたビデオテープからオーディオ/ビデオマテリアルを再生するために、ビデオテープレコーダ204のいずれかにアクセスすることができるデータプロセッサとなる。さらに、取り込みプロセッサ178には、通信ネットワーク182にアクセスするためにネットワークカードが設けられている。しかし、図15からわかるように、通信チャネル182は、比較的狭い帯域幅のデータ通信チャネル182’と、ビデオデータを送るための広い帯域幅のSDIチャネル182”とにより構成されている。これに対応して、取り込みプロセッサ178は、対応するオーディオ/ビデオマテリアルアイテムのリクエストを送るために、RS422リンクを介してビデオテープレコーダ204に接続されている。これらのオーディオ/ビデオマテリアルアイテムを要求すると、SDIネットワークを介した配信のためのSDI通信リンク206を介して、オーディオ/ビデオマテリアルが取り込みプロセッサ178に返信される。このリクエストは、例えば、オーディオ/ビデオマテリアルアイテムを独自に識別するUMIDを有していてもよい。
【0131】
メタデータデータベース176に関連した取り込みプロセッサの動作について、図16を参照して以下に説明する。図16において、メタデータデータベース176は、特定のテープID212に関連する多数アイテムのメタデータ210を有している。矢印214を付した破線で示すように、テープID212は、メタデータ210に対応するオーディオ/ビデオマテリアルが記録された特定のビデオテープ216を識別する。図16に示す実施例では、テープID212がビデオテープ218のリニアタイムコードエリア220に書き込まれる。しかし、他の実施例からわかるように、テープIDを垂直ブランキング部等、他の位置に書き込むこともできる。ビデオテープ216は、取り込みプロセッサ178の一部を構成するビデオテープレコーダ204のうちのいずれか1つのロードされる。
【0132】
動作時には、編集端末184のいずれか1つが、狭い帯域幅の通信チャネル182’を介してメタデータデータベース176にアクセスするように構成されるので、その編集端末184には、テープ216に記録されたオーディオ/ビデオマテリアルのコンテンツを記述するメタデータ210へのアクセスが得られる。メタデータ210には、著作権者「BSkyB」、画像の解像度、ビデオマテリアルの符号化形式、プログラムの名称(この場合、「グランドスタンド(特別観覧席)」)等の情報と、日時や観衆等の情報が含まれる。さらに、メタデータにはオーディオ/ビデオマテリアルのコンテンツのノートが含まれる。
【0133】
オーディオ/ビデオマテリアルの各アイテムは、オーディオ/ビデオマテリアルを識別するUMIDと関連している。このため、編集端末184を用いて、プログラム作成に必要なオーディオ/ビデオマテリアルアイテムをメタデータ210から識別及び選択することができる。このマテリアルは、マテリアルに関連するUMIDにより識別される。オーディオ/ビデオマテリアルにアクセスして、プログラムを作成するため、編集端末184は狭い帯域幅の通信ネットワーク182を介して、このマテリアルのリクエストを送る。リクエストには、オーディオ/ビデオマテリアルアイテムを識別するUMIDが含まれる。編集端末184から受信したオーディオ/ビデオマテリアルのリクエストに応じて、取り込みプロセッサ178は、ビデオカセット216がロードされているビデオテープレコーダから、UMIDにより識別されるオーディオ/ビデオマテリアルアイテムを選択的に再生するように構成されている。そして、このオーディオ/ビデオマテリアルは、SDIネットワーク182”を介して編集端末184に返信され、編集中のオーディオ/ビデオプロダクションに組み込まれる。送られたオーディオ/ビデオマテリアルはオーディオ/ビデオサーバ190に取り込まれ、ここでオーディオ/ビデオの記憶及び再生を行うことができる。
【0134】
図17は、メタデータ210をオーディオ/ビデオマテリアルとともに好適な記録媒体に記録する他の構成を示す。例えば、ビデオテープ218’のオーディオトラックのいずれか1つにメタデータ210を記録することもできる。また、記録媒体として、ランダムアクセスを可能にするとともに大容量のデータ記憶を行うことができる光ディスク又は磁気ディスクを用いてもよい。この場合、メタデータ210をオーディオ/ビデオマテリアルとともに記憶してもよい。
【0135】
さらに他の構成では、メタデータの幾つか又はすべてをテープ216に記録する。これは例えばテープ218のリニア記録トラックに記録することができる。テープに記録されたメタデータに関する幾つかのメタデータは、データベース176に別個に送って記憶してもよい。メタデータを取り込むにはさらにステップが必要となるが、このため、取り込みプロセッサ178は、記録媒体218’からメタデータを読み出して、通信ネットワーク182’を介してメタデータをデータベース176に送るように構成されている。従って、取り込みプロセッサ178により取り込まれるオーディオ/ビデオマテリアルに関連するメタデータは、別の媒体を介して、あるいは、オーディオ/ビデオマテリアルも記録されている記録媒体を介して、データベース176に取り込まれることがわかる。
【0136】
また、オーディオ/ビデオマテリアルに関連するメタデータには、ビデオマテリアル中の様々な位置における画像を低画質で表示するピクチャスタンプを含んでもよい。これらは取り込みプロセッサ178のタッチ画面202にて提示することができる。さらに、これらのピクチャスタンプを、ネットワーク182’を介して編集端末184、186又は効果プロセッサ188に送り、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションを与えてもよい。従って、編集者にはオーディオ/ビデオマテリアルの画像表示が与えられ、ここから、オーディオ/ビデオマテリアルアイテムの選択を行うことができる。さらに、ピクチャスタンプをメタデータ210の一部としてデータベース176に記憶してもよい。従って、編集者は、ピクチャスタンプに関連するUMIDを用いて、対応するピクチャスタンプについて選択したアイテムを取り出すことができる。
【0137】
本発明の他の実施例において、記録媒体はオーディオ/ビデオマテリアルとともに記録されたピクチャスタンプを記録するのに十分な容量を有していないことがある。これは、記録媒体がビデオテープ216である場合に起こりやすい。この場合、必ずしもというわけではないが、オーディオ/ビデオマテリアルの取り込み前又は取り込み中にピクチャスタンプを生成することが特に好適である。
【0138】
図13に戻り、他の実施例において、取り込みプロセッサ178はプリプロセッサユニットを備えてもよい。取り込みプロセッサ178に内蔵されたプリプロセッサユニットは、本例ではビデオテープ126である記録媒体に記録されたオーディオ/ビデオマテリアルを受信するように構成されている。このため、プリプロセッサユニットは別個のビデオ記録/再生部を設けてもよく、あるいは、取り込みプロセッサ178の一部を構成するビデオテープ記録/再生部と組み合わせてもよい。プリプロセッサユニットは、オーディオ/ビデオマテリアルに関連するピクチャスタンプを生成する。上述のように、ピクチャスタンプは、オーディオ/ビデオマテリアルアイテムのコンテンツを画像表示するのに用いられる。しかし、本発明のさらに他の実施例によれば、プリプロセッサユニットは、オーディオ/ビデオマテリアルの処理を行うとともに、オーディオ/ビデオマテリアルのコンテンツにおける相対アクティビティを表すアクティビティインディケータを生成するように動作する。これは、例えば、ビデオ信号で表される画像内の色成分のヒストグラムに応じてアクティビティ信号を生成するとともに、カラーヒストグラム成分の変化率に応じてアクティビティ信号を生成するように動作するプロセッサを用いて行うことができる。そして、プリプロセッサユニットは、ビデオマテリアル中の、アクティビティ信号が示すアクティビティ期間がある位置にて、ピクチャスタンプを生成するように動作する。これを図18に示す。図18aにおいて、ビデオ信号における時間を表すライン226に沿ってピクチャスタンプ224が生成される。図18aに示すように、ピクチャスタンプ224は、タイムライン226に沿った、矢印228として表されるアクティビティ信号がアクティビティイベントを示す時点に生成される。これは、例えば、カメラの視野に誰かが出入りして、ビデオ信号が表す動きが大きい場合である。このため、アクティビティ信号は、例えば、MPEG規格に応じて生成された動きベクトルである動きベクトルを用いて生成することができる。
【0139】
本発明の他の実施例において、プリプロセッサは、テープ126に記憶されたオーディオ/ビデオマテリアルアイテムの一部を構成するオーディオ信号内の音声に対応するテキスト情報を生成する。テキスト情報は、ピクチャスタンプの代わりに又はピクチャスタンプに加えて生成してもよい。この場合、テキストは、例えばセンテンスの最初の数語及び/又は話し手の最初のアクティビティについて生成される。これはオーディオ/ビデオマテリアルの一部を記録又は構成するテープ上のオーディオ信号から検出される。テキストが生成される開始点を矢印230としてタイムライン226に沿って表す。また、テキストは、センテンスの終わり又は音声における他の重要点にて生成することもできる。
【0140】
検出された音声の開始点で、音声プロセッサは音声のコンテンツのテキスト表記を生成する。このため、図18bに示すタイムライン226には、音声のアクティビティ期間の開始点に、音声のコンテンツに対応するテキスト232がある。
【0141】
プリプロセッサにより生成されたピクチャスタンプと音声アクティビティのテキスト表記は、通信チャネル182を介してメタデータデータベース176に送られて記憶される。ピクチャスタンプとテキストは、ピクチャスタンプ224とテキスト情報232が生成された対応するオーディオ/ビデオマテリアルアイテムを識別するUMIDと関連付けて記憶される。これにより、編集端末184、186のいずれか一方を操作する編集者には、取り込みプロセッサ178を用いてオーディオ/ビデオマテリアルを取り込む前にオーディオ/ビデオマテリアルのコンテンツを分析する手段が与えられる。この場合、ビデオテープ126は取り込みプロセッサ178にロードされ、その後、ネットワーク通信チャネル182を介してオーディオ/ビデオマテリアルにアクセスすることができる。従って、編集者には、オーディオ/ビデオマテリアルのコンテンツを示すインディケーションが迅速に与えられるので、編集者が必要とする特定のマテリアルアイテムに適切なマテリアル部分のみを取り込むことができる。これにより、編集者によるオーディオ/ビデオプロダクションの作成の効率が改善されるという利点が得られる。
【0142】
他の実施例において、プリプロセッサは別ユニットとすることができ、ピクチャスタンプ及び/又はテキスト情報を表示する画面と、取り込むべきオーディオ/ビデオマテリアルアイテムを選択する手段を与えるタッチ画面等の手段とが設けられる。
【0143】
本発明のさらに他の実施例において、取り込みプロセッサ178は、オーディオ/ビデオマテリアルが取り込まれている間にUMID等のメタデータアイテムを生成する。これは、カメラ152の取得ユニットがUMIDを生成するようには構成されてなく、ユニークマテリアルリファレンスナンバー(MURN)を生成するので、必要である。MURNはテイク等の各マテリアルアイテム毎に生成される。MURNは、UMIDよりもかなり短くなるように構成されるので、ビデオテープのリニアタイムコード内に収容することができる。UMIDの場合、大きいのでリニアタイムコードに収容することは困難である。また、MURNをテープのTELEFILE(RTM)ラベルに書き込むこともできる。MURNにより、テープ上のオーディオ/ビデオマテリアルアイテムのユニークIDが得られる。MURNは、線174で示すように、データベース176に別個に送ることができる。MURNは、特定のテープ(テープID)と、テープ上の各スロット又はテイクのイン及びアウト部分を識別するアイデンティファイアにより構成されてもよい。
【0144】
取り込みプロセッサ178では、マテリアルアイテムについてのMURNをテープ又はTELEFILEラベルから再生する。各MURN毎に、取り込みプロセッサ178はMURNに対応するUMIDを生成するように動作する。そして、UMIDは、MURNとともにデータベース176に送られて、データベース176内に既に存在するMURNに関連付けられてデータベースに取り込まれる。
【0145】
メタデータの概要−図17及び図19〜図22
メタデータ−−概要
図の説明
図17は、競馬等のプログラムの作成及び送信において生成されるメタデータの一部を示す図である。
【0146】
図19は、レイヤ化されたメタデータ構造を概略的に示す図である。
【0147】
図20及び図21は、オーディオ及び/又はビデオデータの生成及び/又は配信を行うシステムにおいてメタデータを記憶する2つ方法を示す図である。
【0148】
図22は、オーディオ及びビデオがビデオテープに記憶される場合を示す基本図である。
【0149】
メタデータの概要
説明の都合上、「マテリアル」はビデオ及びオーディオ情報であり、例えばビデオテープに記録されたビデオプログラムである。メタデータは、マテリアルの生成及び配信のライフサイクルの中で作成及び使用されるデータ及び情報である。これには例えば以下の情報が含まれる。
【0150】
媒体コンテンツID
著作権
プログラムプランニング
スクリプト(照明、アンカーマン、カメラ...)
編集決定
契約(キャスト、制作依頼、販売促進活動、放送権)
システムレイヤ(圧縮フォーマット/レート、EPG...)
マテリアルについて適切な他のデータ及び情報
マテリアルの手動アノテーション又は自動アノテーション
UMID及び他のアイデンティファイア。UMIDについて「UMID」のセクションで説明した。UMIDは、マテリアルをメタデータに関連付けるのに本発明実施例で使用するユニークマテリアルアイデンティファイアである。
【0151】
媒体は、テープ、ディスク、及び、情報を記録することができる他の媒体である。
【0152】
図17は、競馬等のプログラムの作成及び送信において生成されるメタデータの一部を示す。
【0153】
メタデータには、ID及び所有権データや、ビジネス、プランニング及び契約データ等、プログラムのプランニング中及びプログラムの作成前に生成されるデータが含まれる。
【0154】
また、メタデータには、マテリアル/インスタンスパラメータ、編集決定、あるいは、解像度、焦点距離、ロケーション等のテクニカルデータ等、プログラムの作成中及び作成後に生成されるデータも含まれる。説明すると、マテリアル番号はオリジナルクリップを識別し、インスタンス番号はオリジナルクリップの1バージョン又はコピーを識別する。従って、インスタンス0はオリジナルクリップであり、インスタンス1は最初のコピーである。
【0155】
また、メタデータには、送信及び視聴者データや、カタログデータ等、プログラムの送信後に作成されるデータも含まれる。
【0156】
図17は、メタデータの単なる例を示すものである。他の例としては、圧縮タイプ及びレート等、デジタルビデオ放送に必要な情報がある。さらに他の例は、上述の「メタデータ」のセクションで説明してある。
【0157】
メタデータの使用
本明細書の終わりにある表10及び表11は、幾つかのメタデータを極端に簡素化したものを示す。この表10及び表11では、一連の制作プロセスのどこでデータが作成され、どこで使用されるのかを示す。
【0158】
メタデータの作成及び記憶が行われ、メタデータが使用可能になると、その後のマテリアルを扱う種々の段階で、メタデータは何回も使用される。上述のアイテムの多くは、一度書き込まれて、制作及び配信における種々の段階で何回も読み出される。例えば、グッドショットマーカ(GSM)は、マテリアルが取得されるときに、そのマテリアルにおけるグッドショットを記録又は識別する。マテリアルとともにGSMを保存することにより、編集セッションにおいて何回もGSMを読み出して使用することが可能である。また、マテリアルの用途変更やアーカイブからの再生が行われても、GSMは次のユーザにより使用可能である。
【0159】
スクリプトをメタデータとして保存することもできる。例えば、スクリプト(第2行)は、スクリプティング段階で作成され、制作における作成及びコンテンツ作成段階と配信段階のいずれにおいても使用される。スクリプトには、データコンテンツ(セリフ)とメタデータ(シーンの記述)の両方が含まれる。また、スクリプトには、セリフを言うキャラクターの記述やシーンの記述が含まれる。従って、スクリプトは、メタデータとして保存されると、セリフ等の特別なユーザ情報を供給したり、ナビゲーションデータを供給してアーカイブシステムでのサーチを可能にすることにより、エンハンストフォーマットの作成において使用することができる。
【0160】
メタデータ構造
図19は、レイヤ化されたメタデータ構造を示す概略図である。この構造は以下のレイヤを有している。
・アプリケーション:A/V及び/又はデータの使用及び操作を行うプロダクション段階におけるツールである。
・シンタックス:画像や音声を記述するのに用いられるスタンダードディクショナリアイテムが、データシンタックス(又はグラマー)においてどのように表されるか示す。
・ディクショナリ:合意によって定められた、データを記述するための用語セットを定義する(すなわち、辞書)。例えば、「ペット名」又は「動物名」の代わりに「犬名」。
・データ符号化:このレイヤは、特定のデータ収容方法を加える。「ラッパー」又は「ファイル」フォーマットを完了するために、再帰的な方法で適用されるマルチ符号化レイヤが含まれる。
・転送/記憶:このレイヤは、例えばネットワーク化されたプロセッサ及び記憶媒体に対するマテリアル及びメタデータの転送、及び/又は、マテリアル及びメタデータの記憶を可能にするストリーミング(ファイル/ストリーム転送)と記憶という2つの平行なパスからなる。
・物理的:このレイヤは、どのようにしてデータが電気的又は磁気的に記憶又は送信されるかを示す。
【0161】
これらのレイヤに適用することができる幾つかの国際規格や特定用途の規格を、以下の表4に示す。
【0162】
【表4】
Figure 0004711379
【0163】
本発明の実施例では、オーディオ及びビデオ制作及び配信システムにおいてメタデータを用いて、システムの動作を高める。メタデータはシステム内に記憶される。図20及び図21は、システムにおけるメタデータの2つの記憶方法を示す。いずれも図17の例で作成したメタデータを表す。図20では、メタデータのすべてがコンテンツサーバ又はコンテンツテープに記憶される。テープにメタデータを記憶する方法については後述する。図21では、リファレンスアイデンティファイアのみがコンテンツとともに記憶され、このリファレンスはデータベース内に保持されたデータの1コピーと合致する。
【0164】
メタデータはダイナミックである。例えば、1マテリアルピースのライフスパンを考えると以下のようになる。
【0165】
・プランニング段階でメタデータを作成する。
・プロダクション段階でメタデータを作成する。
・現存のマテリアルの編集により、メタデータによって識別及び記述される新たな複合マテリアルを作成する。
・マテリアルの販売毎に所有権及び/又は契約メタデータを更新する。
・送信毎に新たな送信日と視聴者数を加える。
・アーカイブカタログによりインデックスの更新又は訂正を行う。
【0166】
メタデータのダイナミックな性質により、図20及び図21に示す2つのオプションが得られる。メタデータがコンテンツとともに記憶される場合(図20)、メタデータが変更されると必ず、マテリアルの全コピーが探し出され、各コピーのメタデータが更新される。しかし、メタデータの1コピーがデータベースに保持される場合(図21)、メタデータが変更されても、コンテンツのコピーは影響を受けない。メタデータをコンテンツに関連付けるユニークマテリアルIDであるUMIDは変化しない。
【0167】
メタデータをデータベースに記憶することによりメタデータをコンテンツから分離することは、コンテンツにメタデータを埋め込むよりも多くの利点がある。例えば、データ記憶容量や、高速ランダムアクセス技術を用いてデータサーチ能力が向上する。
【0168】
データベースの使用はデータの保全のためには最適であるが、実際のすべての装置に関して最適なわけではない。コンテンツが物理的サイト間で交換される場合、あるいは、安全なネットワーク接続が利用可能でなく経済的でもない場合、コンテンツをデータに埋め込む必要がある。
【0169】
テープへのメタデータの記憶
本発明の実施例により、現行のVTR機器及びITインフラストラクチャに対応できるフォーマットを用いて、現存の装置のためのテープへのメタデータの記憶が可能になる。また、本発明の実施例により、例えばテープや光ディスク用のMXF等、新たなフォーマットでのメタデータの記憶が可能になる。
【0170】
ビデオテープへのメタデータの記憶
図22は、オーディオ及びビデオがビデオテープ(アナログ又はデジタル)に記憶される場合を示す基本図である。この簡素化した例には多数の要素がある。すなわち、1ビデオトラック、4オーディオトラック(A1〜A4)、1タイムコードトラック、1コントロールトラック、1リニアオーディオキュートラックである。
【0171】
現行のビデオテープフォーマットにメタデータを付加するため、メタデータをこれら現存のトラックに1以上に含める。データを記憶することができ、テープ上のオーディオ及びビデオの記憶に影響が少ない使用可能な「スペース」(図22中、斜線で示す)が多数ある。これらを以下の表5に示す。
【0172】
【表5】
Figure 0004711379
【0173】
好ましくは、UMIDをテープに記憶する。UMIDは現存のテープに収容することができる。例えば、ユーザビットは、0.2秒分割でUMIDを記憶することができる。しかし、UMIDを他の場所に記憶してもよく、「テープID」のセクションで説明したように他のアイデンティファイアをテープに記憶してもよい。
【0174】
新たなテープ/光ディスクファイルフォーマットでのメタデータの記憶
新たに提案された着脱可能媒体(テープや光ディスク)及び固定媒体(ハードディスク)製品は、コンピュータファイルの交換が可能である。このような交換可能ファイルのフォーマットの標準化プロセスにおいて、オーディオ/ビデオコンテンツ及びメタデータのニーズが示されている。
【0175】
MXF(メディアエクスチェンジフォーマット)は、最終的なマテリアルの交換、プレイアウト、長期保存のために設計されたものである。このフォーマットにより、4つの必須部分がファイルに与えられる。
【0176】
・媒体及び符号化フォーマットのID
・複合メタデータの記述
・A/Vコンテンツのストリーミング。必要ならば、同期化したメタデータのストリーミングを伴う。
・インデックス(タイムコードへのキューが得られる)
利点
本発明の実施例によりコンテンツ作成業界においてメタデータを体系的に使用することにより、以下のような多くの利点が得られる。
・生産性の向上。作成活動における大部分のリソースを可能にする。
・マテリアル処理コストの低減
・コンテンツの価値の向上
・プログラムの質の向上
変更例
上述の説明では、ビデオマテリアルに関して本発明実施例を説明したが、本発明をオーディオマテリアル及び/又はデータマテリアルに適用することもできる。
【0177】
また、上述の説明では、UMIDがカメラやAボックスにより生成され、VTRで再生されるテープに存在することを前提とした。しかし、UMIDは長い(例えば32又は64バイト)ので、テープがUMIDを有さず、カメラがUMIDを生成しない場合もある。その代わりに、カメラは短いアイデンティファイアを生成し、このような短いアイデンティファイアがテープに記録される。VTRのBボックスを用いて、この短いアイデンティファイア及びテープIDからUMIDを生成することができる。AボックスはショットアイデンティファイアからUMIDを生成してもよい。
【0178】
変更UMID−図23及び図24
上述の本発明の説明では、例えばカメラ等のライブソースからマテリアルを生成して記録していることがわかる。ライブマテリアルにはUMIDが関連付けられる。変更しないで記録されると、マテリアルは同じUMIDを有している。しかし、同じマテリアルのライブバージョンと記録バージョン、あるいは一般的にマテリアルのソースのタイプを識別することが望ましい。
【0179】
本発明のこの点に関する一実施例によれば、図23AのUMID(図3及びその説明も参照)は、図23Bに示すように変更される。インスタンス番号フィールドは、ユニバーサルラベルである第12バイトにより定める番号を有する。このバイトは3〜15の割り当てられていない値を有する。
【0180】
インスタンス番号が記録されたマテリアルではなくストリーミングされた(ライブ)マテリアルに関することを示すため、これらの値のいずれか1つが割り当てられる。図23Bの好ましい実施例では、ストリーミングされたマテリアルに関して値15が選択されている。
【0181】
また、インスタンス番号がストリーミングされたマテリアルではなく記録されたマテリアルに関することを示すため、これらの値のうちの別の値が割り当てられる。好ましい実施例では、記録されたマテリアルに関して値14が選択されている。
【0182】
図24を参照して、ソース2は、オリジナルの未記録ビデオ及び/又はオーディオマテリアルのカメラ及び/又はマイクであるが、例えばアナログデータを生成する。説明を簡単にするため、ソースは、ビデオのみを生成するカメラであるとする。UMID生成器4は、未記録マテリアルを示すインスタンス番号0とタイプインディケータ15を有するUMIDを生成する。UMIDは、マルチプレクサ6によりビデオの垂直ブランキング期間に埋め込まれる。ビデオは、少なくとも1つのプロセッサ8を有する処理系14、8に送出される。プロセッサ8は、コンテンツを変更しない方法で、例えばアナログからデジタルにビデオの形式の変換を行う。これにより、UMIDのマテリアル番号は変化しないが、インスタンス番号は変化する。インスタンス番号を変更できないような方法でマテリアルが処理された場合、インスタンス番号は不正な番号となる。
【0183】
この処理系にはレコーダ16が含まれる。レコーダは、マテリアルを記録して、マテリアル番号は変更せずに、タイプコード14と適切なインスタンス番号を有するマテリアルに記録済みマテリアルインスタンス番号を割り当てる。
【0184】
ソース、プロセッサ8及び/又はレコーダ16にて生成されたUMIDは、メタデータベース10に通信され、そこで、例えばデータ入力手段12により生成されたメタデータがUMIDに関連付けられる。メタデータの例は、上述の「メタデータ」のセクション及び図5において説明した。
【0185】
上述の実施例は、それぞれ、本発明の種々のアスペクトに係る特徴の組み合わせを明示的に示しているが、本発明の一般的な教示により、上述の実施例において明示的に示した組み合わせ以外の適切な特徴の組み合わせを含む他の実施例も行われる。従って、添付の独立及び従属クレームの特徴の種々の組み合わせにより、クレームに明示的に示されるアスペクト以外にも本発明のアスペクトが構成される。
【0186】
以下、表6〜表11を示す。
【0187】
【表6】
Figure 0004711379
【0188】
【表7】
Figure 0004711379
【0189】
【表8】
Figure 0004711379
【0190】
【表9】
Figure 0004711379
【0191】
【表10】
Figure 0004711379
【0192】
【表11】
Figure 0004711379

【図面の簡単な説明】
【図1】 本発明の一実施例に係るマテリアルアイデンティファイアプロセッサに接続されたビデオ及び/又はオーディオ信号プロセッサを示す概略ブロック図である。
【図2】ビデオ及びオーディオプロダクションシステムを示す概略ブロック図である。
【図3】 UMIDを示す図である。
【図4】 UMIDを示す図である。
【図5】 データベース内のメタデータのデータ構造の例を示す図である。
【図6】 Aボックスを示す図である。
【図7】 Aボックスを示す図である。
【図8】 Aボックスを示す図である。
【図9】 Aボックスを示す図である。
【図10】 Aボックスを示す図である。
【図11】 Aボックスを示す図である。
【図12】 Aボックスを示す図である。
【図13】 Bボックスを示す図である。
【図14】 Bボックスを示す図である。
【図15】 Bボックスを示す図である。
【図16】 Bボックスを示す図である。
【図17】 Bボックスを示す図である。
【図18】 Bボックスを示す図である。
【図19】 メタデータを示す図である。
【図20】 メタデータを示す図である。
【図21】 メタデータを示す図である。
【図22】 メタデータを示す図である。
【図23】 本発明による変更UMIDを示す概略図である。
【図24】 図23のUMIDを用いるシステムを示す概略ブロック図である。

Claims (9)

  1. ビデオ及び/又はオーディオマテリアルを処理するマテリアル処理装置と、
    上記ビデオ及び/又はオーディオマテリアルの識別子を処理する識別子処理装置と
    を具備する処理システムであって、
    上記マテリアル処理装置は、
    それぞれ上記識別子を有する処理対象の複数の入力マテリアルを受信する複数の入力部と、
    上記複数の入力マテリアル組み合わされて構成された出力マテリアルを出力する出力部と、
    上記各入力マテリアルが上記複数の入力部のうちどの入力部へ入力されたものであるかを示す状態データを出力する状態データ出力部とを有し、
    上記識別子処理装置は、
    上記各入力マテリアルから上記各識別子を検出し、上記状態データを基に、上記出力マテリアルを構成する上記各入力マテリアルの組み合わせ判断し、上記出力マテリアルの識別子を生成して当該出力マテリアルに付与し当該出力マテリアルを構成するのに用いられた各入力マテリアルの各識別子と、上記生成された出力マテリアルの識別子との関連付けを示すメタデータを生成して、当該メタデータ及び上記出力マテリアルの識別子をデータベースに記憶し、当該出力マテリアルをネットワーク上に送出する前に、当該出力マテリアルから全ての識別子を除去するように構成される
    処理システム
  2. 記録媒体上に上記出力マテリアルを記録するマテリアルレコーダをさらに具備することを特徴とする請求項記載の処理システム
  3. 上記識別子処理装置は、上記メタデータを上記記録媒体記録することを特徴とする請求項記載の処理システム
  4. 少なくとも上記出力マテリアルの識別子上記記録媒体に記録されることを特徴とする請求項記載の処理システム
  5. 上記入力マテリアルから上記識別子を取り出す手段を有することを特徴とする請求項1〜のいずれか1項記載の処理システム
  6. ビデオ及び/又はオーディオマテリアルの処理を行うプロセッサであって、
    それぞれ識別子を有する処理対象の複数の入力マテリアルを受信する複数の入力部と、
    上記複数の入力マテリアル組み合わされて構成された出力マテリアルを出力する出力部と、
    上記各入力マテリアルが上記複数の入力部のうちどの入力部へ入力されたものであるかを示す状態データを出力する状態データ出力部と、
    上記各入力マテリアルから上記各識別子を検出する検出部と
    上記状態データを基に、上記出力マテリアルを構成する上記各入力マテリアルの組み合わせを判断する判断部と
    上記出力マテリアルの識別子を生成して当該出力マテリアルに付与する生成部と、
    上記出力マテリアルを構成するのに用いられた各入力マテリアルの各識別子と、上記生成された出力マテリアルの識別子との関連付けを示すメタデータを生成して、当該メタデータ及び上記出力マテリアルの識別子をデータベースに記憶する関連付け制御部と、
    上記出力マテリアルをネットワーク上に送出する前に、当該出力マテリアルから全ての識別子を除去する除去部と
    を具備するプロセッサ。
  7. それぞれ識別子を有する処理対象の複数の入力マテリアルを受信する複数の入力部と、上記複数の入力マテリアル組み合わされて構成された出力マテリアルを出力する出力部と、上記各入力マテリアルが上記複数の入力部のうちどの入力部へ入力されたものであるかを示す状態データを出力する状態データ出力部とを有するビデオ及び/又はオーディオマテリアル処理装置とともに使用され、上記ビデオ及び/又はオーディオマテリアルの識別子を処理するプロセッサであって、
    上記各入力マテリアルから上記各識別子を検出する検出部と
    上記状態データを基に、上記出力マテリアルを構成する上記各入力マテリアルの組み合わせを判断する判断部と
    上記出力マテリアルの識別子を生成して当該出力マテリアルに付与する生成部と、
    上記出力マテリアルを構成するのに用いられた各入力マテリアルの各識別子と、上記生成された出力マテリアルの識別子との関連付けを示すメタデータを生成して、当該メタデータ及び上記出力マテリアルの識別子をデータベースに記憶する関連付け制御部と、
    上記出力マテリアルをネットワーク上に送出する前に、当該出力マテリアルから全ての識別子を除去する除去部と
    を具備するプロセッサ。
  8. それぞれ識別子を有する処理対象の複数の入力マテリアルを受信する複数の入力部と、上記複数の入力マテリアル組み合わされて構成された出力マテリアルを出力する出力部と、上記各入力マテリアルが上記複数の入力部のうちどの入力部へ入力されたものであるかを示す状態データを出力する状態データ出力部とを有するビデオ及び/又はオーディオマテリアル処理装置により処理されるビデオ及び/又はオーディオマテリアルの識別子を処理する識別子処理方法であって、
    上記各入力マテリアルから上記各識別子を検出するステップと、
    上記状態データを基に、上記出力マテリアルを構成する上記各入力マテリアルの組み合わせ判断するステップと、
    上記出力マテリアルを構成するのに用いられた各入力マテリアルの各識別子と、上記生成された出力マテリアルの識別子との関連付けを示すメタデータを生成して、当該メタデータ及び上記出力マテリアルの識別子をデータベースに記憶するステップと、
    上記出力マテリアルをネットワーク上に送出する前に、当該出力マテリアルから全ての識別子を除去するステップと
    具備することを特徴とする識別子処理方法。
  9. プロセッサに、請求項8記載の方法における各ステップ実行させるプログラム
JP2001573479A 2000-04-05 2001-03-30 オーディオ及び/又はビデオマテリアルの識別及び処理方法 Expired - Fee Related JP4711379B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB0008440A GB2361131A (en) 2000-04-05 2000-04-05 Identifying the type of source of video/audio data
GB0008420A GB2362254A (en) 2000-04-05 2000-04-05 Identifying material
GB0008440.0 2000-04-05
GB0008420.2 2000-04-05
PCT/GB2001/001461 WO2001075886A1 (en) 2000-04-05 2001-03-30 Identifying and processing of audio and/or video material

Publications (2)

Publication Number Publication Date
JP2003529990A JP2003529990A (ja) 2003-10-07
JP4711379B2 true JP4711379B2 (ja) 2011-06-29

Family

ID=26244050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001573479A Expired - Fee Related JP4711379B2 (ja) 2000-04-05 2001-03-30 オーディオ及び/又はビデオマテリアルの識別及び処理方法

Country Status (9)

Country Link
US (1) US7526178B2 (ja)
EP (1) EP1188164B1 (ja)
JP (1) JP4711379B2 (ja)
KR (1) KR100788628B1 (ja)
CN (1) CN100385559C (ja)
AU (1) AU4265201A (ja)
BR (1) BR0105577A (ja)
CA (1) CA2375688A1 (ja)
WO (1) WO2001075886A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2378275B (en) * 2001-07-31 2005-06-22 Hewlett Packard Co Distributed metadata processing system
FR2830714B1 (fr) * 2001-10-04 2004-01-16 Eastman Kodak Co Procede automatique d'enrichissement d'image numerique
US20030185296A1 (en) * 2002-03-28 2003-10-02 Masten James W. System for the capture of evidentiary multimedia data, live/delayed off-load to secure archival storage and managed streaming distribution
EP1378911A1 (en) * 2002-07-02 2004-01-07 RAI RADIOTELEVISIONE ITALIANA (S.p.A.) Metadata generator device for identifying and indexing of audiovisual material in a video camera
JP3770229B2 (ja) * 2002-11-29 2006-04-26 ソニー株式会社 ビデオデータ記録装置,メタデータ提供方法,ビデオデータ再生装置,ビデオデータ処理方法,プログラム,記録媒体
US20040128698A1 (en) * 2002-12-31 2004-07-01 Helena Goldfarb Apparatus and methods for scheduling events
JP3835424B2 (ja) 2003-04-04 2006-10-18 ソニー株式会社 データ処理方法およびその装置と映像記録装置
GB2400256B (en) 2003-04-04 2006-04-26 Snell & Wilcox Ltd Media identification
JP3969656B2 (ja) * 2003-05-12 2007-09-05 ソニー株式会社 情報処理装置および方法、プログラム記録媒体、並びにプログラム
US20040261027A1 (en) * 2003-06-09 2004-12-23 Dillon Patrick Morton Methods and apparatuses for streamlining the digital publishing of filmed video programs
JP4418183B2 (ja) * 2003-06-26 2010-02-17 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
CN101449332B (zh) * 2006-04-05 2012-09-26 晟碟以色列有限公司 数字内容操作的系统和方法
US8831408B2 (en) 2006-05-24 2014-09-09 Capshore, Llc Method and apparatus for creating a custom track
EP2074762B1 (en) 2006-09-26 2015-04-08 LiveU Ltd. Remote transmission system
WO2009005879A2 (en) * 2007-04-23 2009-01-08 Law Enforcement Support Agency System and method for remote surveillance
US20090207998A1 (en) * 2008-01-07 2009-08-20 Angus Wall Determining unique material identifier numbers using checksum values
US8463109B2 (en) 2008-01-07 2013-06-11 Black Mariah, Inc. Editing digital film
WO2009093252A1 (en) * 2008-01-23 2009-07-30 Liveu Ltd Live uplink transmissions and broadcasting management system and method
US8194993B1 (en) 2008-08-29 2012-06-05 Adobe Systems Incorporated Method and apparatus for matching image metadata to a profile database to determine image processing parameters
US8724007B2 (en) 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
US8842190B2 (en) 2008-08-29 2014-09-23 Adobe Systems Incorporated Method and apparatus for determining sensor format factors from image metadata
US8340453B1 (en) 2008-08-29 2012-12-25 Adobe Systems Incorporated Metadata-driven method and apparatus for constraining solution space in image processing techniques
US8391640B1 (en) 2008-08-29 2013-03-05 Adobe Systems Incorporated Method and apparatus for aligning and unwarping distorted images
US8368773B1 (en) * 2008-08-29 2013-02-05 Adobe Systems Incorporated Metadata-driven method and apparatus for automatically aligning distorted images
US8896708B2 (en) * 2008-10-31 2014-11-25 Adobe Systems Incorporated Systems and methods for determining, storing, and using metadata for video media content
TWI455585B (zh) * 2009-02-17 2014-10-01 Mstar Semiconductor Inc 數位電視系統與接收器及其提供興趣點資訊的方法
SE535910E (sv) * 2010-11-09 2017-05-08 Twentyfourseven Holding Ab Videoproduktion via ett fjärrtrafiknät
US8745574B2 (en) * 2011-12-08 2014-06-03 Microsoft Corporation Generating task duration estimates for content ingestion
US8787966B2 (en) 2012-05-17 2014-07-22 Liveu Ltd. Multi-modem communication using virtual identity modules
US9379756B2 (en) 2012-05-17 2016-06-28 Liveu Ltd. Multi-modem communication using virtual identity modules
US20140089803A1 (en) * 2012-09-27 2014-03-27 John C. Weast Seek techniques for content playback
US20140115471A1 (en) * 2012-10-22 2014-04-24 Apple Inc. Importing and Exporting Custom Metadata for a Media Asset
US9338650B2 (en) 2013-03-14 2016-05-10 Liveu Ltd. Apparatus for cooperating with a mobile device
US9369921B2 (en) 2013-05-31 2016-06-14 Liveu Ltd. Network assisted bonding
US9980171B2 (en) 2013-03-14 2018-05-22 Liveu Ltd. Apparatus for cooperating with a mobile device
USD743981S1 (en) * 2013-05-14 2015-11-24 Life Technologies Corporation Display screen with graphical user interface for automated sample incubator
CN104717274A (zh) * 2013-12-12 2015-06-17 南宁市磁汇科技有限公司 通过网络管理新闻素材的方法及新闻管理系统
USD759119S1 (en) * 2014-07-03 2016-06-14 Siemens Schweiz Ag Display screen or portion thereof with icon
USD772284S1 (en) 2014-09-01 2016-11-22 Apple Inc. Display screen or portion thereof with a set of graphical user interfaces
US10986029B2 (en) 2014-09-08 2021-04-20 Liveu Ltd. Device, system, and method of data transport with selective utilization of a single link or multiple links
USD783642S1 (en) * 2014-10-16 2017-04-11 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9946740B2 (en) * 2014-10-20 2018-04-17 Unisys Corporation Handling server and client operations uninterruptedly during pack and audit processes
US11088947B2 (en) 2017-05-04 2021-08-10 Liveu Ltd Device, system, and method of pre-processing and data delivery for multi-link communications and for media content
US11873005B2 (en) 2017-05-18 2024-01-16 Driveu Tech Ltd. Device, system, and method of wireless multiple-link vehicular communication
USD879132S1 (en) 2018-06-03 2020-03-24 Apple Inc. Electronic device with graphical user interface
CN108806730B (zh) * 2018-06-29 2020-11-24 广州酷狗计算机科技有限公司 音频处理方法、装置及计算机可读存储介质
US11522710B2 (en) * 2018-08-06 2022-12-06 Tyson York Winarski Blockchained media stored in a material exchange format file
US11455380B2 (en) 2018-11-20 2022-09-27 International Business Machines Corporation Chain-of-custody of digital content in a database system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001502461A (ja) * 1996-04-12 2001-02-20 アヴィッド・テクノロジー・インコーポレーテッド データ管理機構を改善したマルチメディア・システム
JP2001143445A (ja) * 1999-09-08 2001-05-25 Sony United Kingdom Ltd 編集装置及び方法
JP2001155036A (ja) * 1999-09-08 2001-06-08 Sony United Kingdom Ltd ナビゲーション装置及びナビゲート方法
JP2001184802A (ja) * 1999-11-05 2001-07-06 Sony United Kingdom Ltd メタデータ記録及びアクセスのための装置及び方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644755A (ja) 1992-07-24 1994-02-18 Sony Corp ビデオ信号の伝送方法及び記録装置
US5541738A (en) * 1994-04-12 1996-07-30 E. Guide, Inc. Electronic program guide
GB2287849B (en) * 1994-03-19 1998-03-11 Sony Corp Video signal editing apparatus
US5671226A (en) 1995-02-09 1997-09-23 Mitsubishi Denki Kabushiki Kaisha Multimedia information processing system
US5910825A (en) * 1995-05-09 1999-06-08 Sony Corporation Video signal transmitting apparatus with attendant data insertion and extraction functions
MY112755A (en) 1995-06-06 2001-08-30 Sony Corp Information data reproducing system, reproducing apparatus, reproducing method, data forming apparatus and data record medium
JP3744027B2 (ja) * 1995-07-20 2006-02-08 ソニー株式会社 映像音声素材記録装置
JP3414064B2 (ja) 1995-08-03 2003-06-09 三菱電機株式会社 マルチメデイア情報処理装置
JPH0965279A (ja) * 1995-08-25 1997-03-07 Sony Corp 画像/音声記録装置および画像/音声蓄積装置
US6038368A (en) * 1996-02-05 2000-03-14 Sony Corporation System for acquiring, reviewing, and editing sports video segments
US5774664A (en) * 1996-03-08 1998-06-30 Actv, Inc. Enhanced video programming system and method for incorporating and displaying retrieved integrated internet information segments
DE19614408A1 (de) 1996-04-12 1997-10-16 Philips Patentverwaltung Editieranordnung
GB2312078B (en) * 1996-04-12 1999-12-15 Sony Corp Cataloguing video information
JP3918246B2 (ja) * 1996-09-20 2007-05-23 ソニー株式会社 画像処理方法および装置
JP4022839B2 (ja) * 1996-09-20 2007-12-19 ソニー株式会社 編集システム及び編集方法
JP3826406B2 (ja) * 1996-12-09 2006-09-27 ソニー株式会社 編集装置、編集システムおよび編集方法
EP0906700B1 (en) 1997-01-27 2002-09-11 Koninklijke Philips Electronics N.V. Method and system for transferring content information and supplemental information relating thereto
JPH10285534A (ja) * 1997-04-06 1998-10-23 Sony Corp 映像信号処理装置
JPH11203838A (ja) * 1998-01-14 1999-07-30 Sanyo Electric Co Ltd 素材編集装置、及び素材編集方法
US6278838B1 (en) * 1998-06-26 2001-08-21 Lsi Logic Corporation Peak-ahead FIFO for DVD system stream parsing
EP1102271B8 (en) * 1999-11-05 2016-12-07 Sony Europe Limited Method of generating audio and/or video signals and apparatus therefore
US6629145B1 (en) * 2000-03-01 2003-09-30 Avaya Technology Corp. System and method of network independent remote configuration of internet server appliance
US7055167B1 (en) * 2001-10-31 2006-05-30 Keen Personal Media, Inc. Personal video recorder and method enabling a history pull down function for program selection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001502461A (ja) * 1996-04-12 2001-02-20 アヴィッド・テクノロジー・インコーポレーテッド データ管理機構を改善したマルチメディア・システム
JP2001143445A (ja) * 1999-09-08 2001-05-25 Sony United Kingdom Ltd 編集装置及び方法
JP2001155036A (ja) * 1999-09-08 2001-06-08 Sony United Kingdom Ltd ナビゲーション装置及びナビゲート方法
JP2001184802A (ja) * 1999-11-05 2001-07-06 Sony United Kingdom Ltd メタデータ記録及びアクセスのための装置及び方法

Also Published As

Publication number Publication date
US20020146232A1 (en) 2002-10-10
AU4265201A (en) 2001-10-15
US7526178B2 (en) 2009-04-28
CN100385559C (zh) 2008-04-30
CN1381055A (zh) 2002-11-20
JP2003529990A (ja) 2003-10-07
EP1188164A1 (en) 2002-03-20
CA2375688A1 (en) 2001-10-11
EP1188164B1 (en) 2011-10-05
KR100788628B1 (ko) 2007-12-28
WO2001075886A1 (en) 2001-10-11
KR20020028160A (ko) 2002-04-16
BR0105577A (pt) 2002-02-26

Similar Documents

Publication Publication Date Title
JP4711379B2 (ja) オーディオ及び/又はビデオマテリアルの識別及び処理方法
JP4794796B2 (ja) オーディオ及び/又はビデオ生成装置、及び、オーディオ及び/又はビデオ信号生成方法
US10200767B2 (en) Audio and/or video generation apparatus and method of generating audio and/or video signals
JP4803544B2 (ja) オーディオ/ビデオ再生装置及び方法
GB2361128A (en) Video and/or audio processing apparatus
GB2361097A (en) A system for generating audio/video productions
GB2361096A (en) Metadata generation in audio or video apparatus
GB2361098A (en) Editing system and method using metadata
GB2362254A (en) Identifying material
GB2361090A (en) Generating sample images to assist video editing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071002

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees