JP4846892B2 - Image processing system and material storage method - Google Patents

Image processing system and material storage method Download PDF

Info

Publication number
JP4846892B2
JP4846892B2 JP2000113275A JP2000113275A JP4846892B2 JP 4846892 B2 JP4846892 B2 JP 4846892B2 JP 2000113275 A JP2000113275 A JP 2000113275A JP 2000113275 A JP2000113275 A JP 2000113275A JP 4846892 B2 JP4846892 B2 JP 4846892B2
Authority
JP
Japan
Prior art keywords
data
metadata
audio
indicating
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000113275A
Other languages
Japanese (ja)
Other versions
JP2001292412A5 (en
JP2001292412A (en
Inventor
昇 ▲柳▼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000113275A priority Critical patent/JP4846892B2/en
Publication of JP2001292412A publication Critical patent/JP2001292412A/en
Publication of JP2001292412A5 publication Critical patent/JP2001292412A5/ja
Application granted granted Critical
Publication of JP4846892B2 publication Critical patent/JP4846892B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、映像データ、音声データ及びメタデータを記録する画像処理システム及び素材蓄積方法に関する。
【0002】
【従来の技術】
撮像装置が画像データを記録する際に、記録する画像データとともに、その編集点に対応する付加情報を記録媒体に記録させる技術が普及しつつある。編集者は、この付加情報を参照することによって、必要な編集点を検索することができる。
【0003】
従来、この付加情報は、撮影前に撮影者が撮像装置に設けられた入力装置を操作することにより入力されていた。撮像装置は、入力された付加情報を画像データとともに記録媒体に記録している。
【0004】
また、ビデオテープ等の記録媒体に記録された映像情報を編集する方法の1つとして、オフライン編集がある。オフライン編集は、撮影現場において、オリジナルテープに記録した映像情報を、一旦別の記録テープ即ち編集用テープにコピーし、この編集用テープ上で編集点の編集データを作成し、この編集データに基づいてマスターテープを作成する方法がある。オフライン編集では、オリジナルテープ上の記録情報を誤って消去したり、書き換えるおそれがなく所望のマスターテープを作成することができる。
【0005】
しかし、オフライン編集では、オリジナルテープをコピーした編集用テープを使用して編集作業を行うため、オリジナルテープ上に記録された情報を編集用テープにコピーする際に時間や手間がかかるといった問題がある。
【0006】
そこで、上述のような問題を解決する方法の1つとして、オリジナルテープ上の情報を、ハードディスク等の記録可能で、且つランダムアクセス可能なディスク状記録媒体に一旦コピーし、このディスク状記録媒体上のコピー情報を用いて編集データを作製する方法がある。
【0007】
【発明が解決しようとする課題】
しかしながら、撮影に注力すべき撮影者にとって、付加情報を入力することは煩わしい作業であるため、撮像装置に付加情報を入力する機能が備えられているのにも関わらず、付加情報の入力が行われないことが多かった。
【0008】
一方、複数のネットワークを互いにパケット通信で結ぶことによって仮想的なネットワークを構成した、いわゆるインターネットのようなネットワークを利用した通信の普及とともに、映像データや音声データ等の様々なコンテンツデータの配信が可能になってきている。
【0009】
それにともなって、番組を制作して放送する放送局等においては、断片化されている映像データ及び音声データに対しても、これらのコンテンツデータに関する詳細な情報を管理する必要がある。具体的には、放送局等で番組として制作された放送用素材を識別するための情報、著作権に関する情報等、種々の付加情報がコンテンツとともに配信される必要がある。
【0010】
そこで本発明は、このような従来の実情に鑑みて提案されたものであり、上記画像データ及び音声データとともに、上記画像データ及び音声データを識別するための付加情報とを記録することを可能とする画像処理システム及び素材蓄積方法を提供することを目的とする。
【0011】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る画像処理システムは、撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録する記録手段から、該映像データ、音声データ及び第1のメタデータが入力される入力処理手段と、上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成手段と、上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを上記メタデータ生成手段で生成された第2のメタデータとともに記録するデータ蓄積手段と、上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理手段とを備える素材蓄積装置と、上記出力処理手段から出力された第1のメタデータ及び第2のメタデータに基づいて、上記出力処理手段から出力された映像データ及び音声データを編集する編集装置と、上記編集装置により編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録装置とを備え、上記保管用データ記録装置では、上記編集装置からの要求に応じて、上記素材蓄積装置に記録されている映像データ及び音声データが取り出される。
【0012】
上述した目的を達成するために、本発明に係る素材蓄積方法は、撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録手段に記録する記録工程と、上記記録手段に記録された映像データ、音声データ及び第1のメタデータが入力処理手段に入力される入力処理工程と、上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成工程と、上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを、上記メタデータ生成工程で生成された第2のメタデータとともにデータ蓄積手段に記録するデータ蓄積工程と、上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理工程と、上記出力処理工程で出力された第1のメタデータ及び第2のメタデータに基づいて、上記映像データ及び音声データを編集する編集工程と、上記編集工程で編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録工程とを有し、上記保管用データ記録工程では、上記編集工程からの要求に応じて、上記データ蓄積工程で記録された映像データ及び音声データが取り出される。
【0013】
ここで、別のメタデータには、素材データの供給源を示すソース(Source)、データストリームの形式を示すフォーマット(Format)、映像の圧縮を示すビデオ・ビット・レイト(Video Bit Rate)、映像がMPEG形式の場合の圧縮率を示すジー・オー・ピー・サイズ(GOP Size)、解像度を表すレゾリューション(Resolution)、音声データのチャンネル数を表すオーディオ・ナンバ・オブ・チャンネル(Audio Number of Channel)、音声データが圧縮されているか否かを表すオーディオ・コンプレッション(Audio Compression)、オーディオサンプリング周波数を表すオーディオ・サンプリング・レイト(Audio Sampling Rate)、音声データのサイズを表すオーディオ・データ・サイズ(Audio Data Size)、収録方法を示すレック・タイプ(REC_Type)、既存の画像処理システムにおいて使用されている素材を識別するためのIDを示すマテリアル・ID(Material_ID)、素材に対して、数回の編集等を施す間に変形したか否か等を示すサブ・キー(Sub Key)、素材データの種類を示すIDであるユーミッド・データ(UMID(Data))、ユーミッド・オーディオとユーミッド・ビデオとを纏めたユーミッド・システム(UMID(System))、素材の長さを表すファイル・レングス(File Length)、映像及び音声データを含むファイル全体のサイズ表したエッセンシャル・サイズ(Essence_Size)、映像及び音声データを含むファイル全体のサイズ表したエッセンシャル・サイズ(Essence_Size)、映像データが静止画であるか否かを示すオブジェクト・タイプ(Object Type)、素材データの有効期限を示すバリッド・デイト(Valid Date)を表すメタデータが挙げられる。
【0014】
【発明の実施の形態】
本発明に係る画像処理システムは、例えば放送局,映像制作会社等において、映像及び音声等(以下、素材と記す。)を取材し、これらの素材を編集・加工して放送用の映像を制作し、更にこの映像を保管する画像処理システムであって、素材の取材工程,編集工程,保管工程等の各画像処理工程において、素材を詳細に識別するための付加情報を記録媒体、或いは専用の記録サーバに入力するものである。
【0015】
なお、付加情報としてはメタデータが挙げられる。メタデータとは、例えば取材時刻,取材ID,取材題目,撮影者名,レポータ名等、取材によって得られた素材を識別するために必要な情報を記述するためのデータである。
【0016】
放送局において、例えばニュース番組の制作を行う場合を、図1を用いて説明する。ただし、図1は、ニュース番組を制作する際の作業の流れを説明するものであり、装置等の構成要素を示すいわゆるブロック図とは異なる。
【0017】
放送局におけるニュース番組制作は、図1に示すように、撮影前段階(Pri-Production;プリプロダクション)10,撮影制作段階(Production;プロダクション)20,撮影後処理段階(Post-production;ポストプロダクション)30,放送段階(Distribution;ディストリビューション)40,保管段階(Archive;アーカイブ)50の5つに分類することができる。
【0018】
撮影前段階10は、プロデューサー,ディレクター,アナウンサー,取材スタッフ等の関係者が、ニュース番組の放送内容等を関する打ち合わせを行う段階であり、放送項目の決定、中継車,取材機材,取材クルーの割り振り等が行われる。図1においては、計画(Planning;プラニング)工程11として示される。
【0019】
撮影制作段階20は、主に映像及び音声の収集を行う段階であり、図1においては、取材(Acquisition;アクイジション)工程21,素材蓄積(Ingest;インジェスト)工程22及びボイスオーバ(Voice Over)工程23が、この撮影制作段階20に相当する。
【0020】
取材工程21は、映像及び音声の収集に相当する「取材」を示している。また、素材蓄積工程22では、取材で得られた映像及び音声(以下、素材と記す。)の蓄積が行われる。素材蓄積工程22は、例えば素材が記録されたビデオカセットテープ等を保管棚に保管すること、又は素材蓄積用サーバに素材のデータを記憶することに相当するものである。また、ボイスオーバ工程23では、映像にナレーション等の音声が挿入される。
【0021】
撮影後処理段階30は、収集した素材を編集して放送できる状態に仕上げる段階であり、図1においては、CG(Computer Graphics;コンピュータグラフィクス)作成工程31及び本編集(Complete Edit;コンプリートエディット)工程32が、この撮影後処理段階30に相当する。
【0022】
CG作成工程31は、コンピュータグラフィクスにより映像を作成すること、及び映像に重ねて表示する地図,天気図,文字等を作成することである。また、本編集工程32は、計画工程11で決定された内容に基づいて、素材の編集を行うことである。
【0023】
放送段階40は、編集した素材をオンエア(放送)する段階であり、図1においては、クローズドキャプション(Closed Caption)工程41,生中継(Live;ライブ)42,オートメーション(Automation)工程43及び放送工程44が、この放送段階40に相当する。
【0024】
クローズドキャプション工程41は、文字放送用の文字を作成する作業を示している。また、生中継42は、ニュース番組の放送中に、中継をリアルタイムで放映する場合を示している。また、オートメーション工程43は、コンピュータの制御によって、編集された素材,クローズドキャプション信号,及び生中継42の映像データ等を混成して、放送用のニュース番組を自動的に生成する作業を示す。また、放送工程44は、オートメーション工程43で生成した放送用のニュース番組を送信することを示している。
【0025】
保管段階50は、映像データ及び音声データの保管を行う段階であり、図1においては、仮保管工程(Near Line Archive;ニアラインアーカイブ)51及び保管工程(Archive;アーカイブ)52が、この保管段階50に相当する。
【0026】
仮保管工程51は、編集された素材の中で、近日中に再度使用される可能性があるものを仮に保管する場合を示す。また、保管工程52は、素材を長期保管する場合を示す。
【0027】
図1に示すNCS60は、Newsroom Computer System(ニュースルームコンピュータシステム)を示し、ニュースルーム全体の情報を統括管理する場所である。NCS60では、オンエア項目の管理、及びどの素材がどの段階の処理を受けているか等の素材管理が行われているほか、他の放送局等との間における素材の売買等の管理も行われている。また、NCS60では、記者によって、当該NCS60に接続された端末から記事を書くことも行われる。
【0028】
次に、上述のような作業の流れに基づいてニュース番組を制作する場合に、上述した各段階で入力されるメタデータの例を示す。メタデータのデータ構造等については後述する。
【0029】
まず、計画工程11において、放送項目の決定、中継車,取材機材,取材クルーの割り振り等が行われる。
【0030】
計画工程11では、ニュース番組の放送内容が検討され、検討されたニュース番組の内容に基づいたメタデータが入力される。このメタデータの例を図2に示す。計画工程11で決定されるメタデータの例としては、撮影開始時間を表すGathering_Start_DateTimeと、撮影終了時間を表すGathering_End_DateTimeと、撮影地名を表すGathering_Location_Placeと、撮影者名を表すPhotographerと、記者に関する情報を表すJurnalist Informationと、ニュース番組のディレクターを表すDirectorと、ニュース番組のプロデューサを表すProducerと、ニュース取材題目を表すTitleと、撮影内容に関連するその他の情報が入力されるContentsと、NCS(Newsroom Computer System)に登録されているニュース番組・放送項目毎に設定されたID(identifier:識別子)であるNCS ID等がある。
【0031】
計画工程11において、以上に例示したメタデータがNCS60に備えられるメモリ等に書き込まれる。なお、計画工程11で記述されたメタデータは、後述する段階で変更されて書き換えられる場合がある。
【0032】
計画工程11から取材工程21に移行する過程で、取材工程21の段階で取材を行う機器、即ち撮像装置等に対してメタデータが伝送される。ここで伝送されるメタデータの例を図3に示す。計画工程11から取材工程21に移行する過程とは、例えば中継車が取材場所に向かって移動する期間と考えることができる。
【0033】
この過程において、計画工程11の段階で検討されたニュース番組の内容に基づいて、図2に示したGathering_Start_DateTime,Gathering_End_DateTime,Gathering_Location_Place,Photographer,Jurnalist Information,Director,Producer,Title,Contents,及びNCS IDを表すメタデータが放送局から取材場所に移動する撮像装置に送信される。
【0034】
取材工程21の段階では取材が行われる。取材工程21において使用される素材のデータを記録する撮像装置は、無線通信によりメタデータを受信し、当該撮像装置が備えるメモリに記憶する。撮像装置は、映像を撮影する際に、上述のメタデータをメモリから読み出して映像データ及び音声データとともに記録媒体に記録する。このとき撮像装置は、放送局より送信されたメタデータの他に、新たなメタデータを自動的に発生し、上述のメタデータとともに入力する。新たに入力されるメタデータの例を図4(a)に示す。
【0035】
取材工程21において新たに入力されるメタデータとしては、図3に示したメタデータに加えて、GPS(Grobal Positioning System )で検出される位置情報を示すGathering_Location_Latitude(GPS緯度)・Gathering_Location_Longitude(GPS経度)・Gathering_Location_Altitude(GPS高度)と、GPSで検出される時間を示すGathering_Location_Time(GPS Time)と、取材場所の地名を表すGathering_Location_Place(地名)と、撮像装置毎のIDである機材IDと、レンズ情報等を示すCamera Setup Imformationと、記録媒体を識別するReel Numberと、撮影に要した時間を示すDuration(Time)と、各シーンの開始時間を示すSOM(Start Of Material)と、手動で入力されるマーク点に関するGood Shot Mark & REC Start Markと、マイクの割り当てを示すAudio Channel Informationと、音声の記録方法を示すAudio Typeと、素材を識別するためのUMID(Audio)及びUMID(Video)と、著作権を表すCopyright等が挙げられる。
【0036】
以上のメタデータが記録媒体及び専用の記録サーバに対して入力される。取材工程21の段階で生成及び変更された上述のメタデータは、NCS60に送信される場合もある。
【0037】
取材工程21において収集された素材は、素材蓄積工程22の段階を経ることによって、使用の機会があるまで素材記録サーバに蓄積される。図4(b)に素材蓄積工程22において記録媒体に入力されるメタデータの例を示す。
【0038】
素材蓄積工程22では、図4(a)に例示したメタデータに加えて、素材データの供給元を表すSourceと、素材データの開始時間を表すSTC(Start Of Contents)と、データストリームの形式を示すFormatと、映像の圧縮率を示すVideo Bit Rateと、映像データがMPEG圧縮されている場合のピクチャグループを示すGOP(Group Of Pictures) Sizeと、解像度を表すResolutionと、音声データのチャンネル数を表すAudio Channel数と、音声データが圧縮されているか否かを表すAudio Compressionと、オーディオサンプリング周波数を表すAudio Sampling Rateと、音声データのサイズを表すAudio Date Sizeと、収録方法を示すREC_Typeと、既存の画像処理システムにおいて使用されている素材を識別するためのIDであるMaterial_IDと、編集した際に内容を変更したか否かを表すSub Keyと、素材データに関する情報を記述するUMID(Data)と、UMID(Audio)とUMID(Video)とを纏めたIDを表すUMID(System)と、素材の長さを時間で表すFile Lengthと、ファイル全体のサイズを表すEssence_Sizeと、映像データが静止画であるか否か、又は音声データか映像データかを示したObject Typeと、素材の有効期限を示すValid Date等が入力される。
【0039】
図4(a)及び(b)に示したメタデータは、記録媒体に画像データ及び音声データとともに記録されるほか、画像データ及び音声データから切り離され、NCS60等で管理される場合もある。
【0040】
以上説明した計画工程11,取材工程21及び素材蓄積工程22のそれぞれの段階で生成されて記録されたメタデータ及び素材データは、記者によって粗編集及び記事作成が行われる際に使用される。
【0041】
図5(b)に、記者によって粗編集及び記事作成等が行われる際に使用及び入力されるメタデータを例示する。図5(a)は、撮像装置において主に入力されるメタデータを示し、図5(b)は、素材蓄積工程22で主に入力されるメタデータを示している。これらに加え、更に新たなメタデータが入力される。
【0042】
図5(a)及び(b)に示すGathering_Start_DateTime,Gathering_End_DateTime,Gathering_Location_Place,Photographer,Jurnalist Information,Director,Producer,Title,Contents,NCS ID,Gathering_Location_Latitude(GPS緯度),Gathering_Location_Longitude(GPS経度),Gathering_Location_Altitude(GPS高度),Gathering_Location_Time(GPS Time),Gathering_Location_Place(地名),機材ID,Camera Setup Imformation,Reel Number,Duration(Time),SOM,Good Shot Mark & REC Start Mark,Audio Channel Information,Audio Type,UMID(Audio),UMID(Video),Copyright,Source,STC,Format,圧縮率(Video Bit Rate),GOP Size,Resolution,Audio Channel数,Audio Compression,Audio Sampling Rate,Audio Date Size,REC_Type,Material_ID,Sub Key,UMID(Data),UMID(System),File Length,Essence_Size,Object Type,Valid Dateの各メタデータは、計画工程11,取材工程21及び素材蓄積工程22の各段階で入力されるものであり、これらメタデータは、粗編集において使用される。また、これらのメタデータの中には、粗編集によって書き換えられるメタデータもある。
【0043】
記者によって行われる粗編集及び記事作成の段階で新たに入力されるメタデータとしては、編集内容に関する情報を表すEDL(Editing Decision List) Information,記事原稿を記述したScriptが挙げられる。
【0044】
本編集工程32では、計画工程11で決定された内容に基づいて、ボイスオーバ工程23からの素材と素材蓄積工程22において記録サーバに蓄積されている素材とを使用して本編集が行われ、最終的に放送するニュース番組映像(以下、放送用素材と記す。)が制作される。また、このときCG合成15において作成されたCG画像,保管工程52及び仮保管工程51にて保管された素材が使用される場合もある。図6(a)及び(b)に、本編集が行われる際に使用されるメタデータを例示する。図6(a)は、撮像装置において主に入力されるメタデータを示し、図6(b)は、素材蓄積工程22で主に入力されるメタデータを示している。これらに加え、更に新たなメタデータが入力される、或いは内容が書き換えられる。
【0045】
Gathering_Start_DateTime,Gathering_End_DateTime,Time Zone,Gathering_Location_Place,Photographer,Jurnalist Information,Director,Producer,Title,Contents,NCS ID,Gathering_Location_Latitude(GPS緯度),Gathering_Location_Longitude(GPS経度),Gathering_Location_Altitude(GPS高度),Gathering_Location_Time(GPS Time),Gathering_Location_Place(地名),機材ID,Camera Setup Imformation,Reel Number,Reel Number,Duration(Time),SOM,Good Shot Mark & REC Start Mark,Audio Channel Information,Audio Type,UMID(Audio),UMID(Video),Copyright,Source,STC,Format,圧縮率(Video Bit Rate),GOP Size,Resolution,Audio Channel数,Audio Compression,Audio Sampling Rate,Audio Date Size,REC_Type,Material_ID,Sub Key,UMID(Data),UMID(System),File Length(Time),Essence_Size(Byte),Object Type,Valid Date,EDL Information,Scriptの各メタデータは、計画工程11,取材工程21,素材蓄積工程22及び記者による粗編集で生成・使用されるものである。これらのメタデータは、本編集工程32において素材の編集を行う際に使用される。
【0046】
これらのメタデータの中には、本編集によって書き換えられるメタデータもある。本編集工程32では、主にEDL Information,Scriptを表すメタデータが、編集した内容に応じて書き換えられ、確定される。
【0047】
一方、CG作成工程31では、コンピュータグラフィクスにより映像に重ねて表示する天気図,地図,文字等が作成される。このときCG合成画面は、位置情報を示すメタデータに基づいて自動的に作成される。この様子を図7に示す。
【0048】
ここで使用されるメタデータには、例えば、取材工程21段階で撮影装置によって入力されるGathering_Location_Latitude(GPS緯度),Gathering_Location_Longitude(GPS経度),Gathering_Location_Altitude(GPS高度),Gathering_Location_Time(GPS Time)等の位置情報を示すメタデータや、Script,Title等のメタデータがある。
【0049】
素材に記録されたGathering_Location_Latitude(GPS緯度),Gathering_Location_Longitude(GPS経度),Gathering_Location_Altitude(GPS高度)のメタデータに基づいて、これらの位置情報に対応する地域の地図が、地図を記憶するデータベースから自動的に抽出される。また、Gathering_Location_Time(GPS Time)を参考にして、自動的に時間が表示される。
【0050】
このように自動的に作成されたCG合成画面は、編集用のCG合成GUI(Graphical User Interface)において、編集者が自由に編集を行える。
【0051】
続くオートメーション工程43の段階では、編集された映像に加えて、クローズドキャプション工程41で生成されたクローズドキャプション信号と、CG合成画面と、生中継42からの中継映像が加えられて放送される映像データ,音声データ及びメタデータが合成される。
【0052】
ここで映像及び音声データとともに合成されて送出されるメタデータは、計画工程11,取材工程21,素材蓄積工程22,記者による粗編集,本編集工程32において生成及び使用されたメタデータである。
【0053】
特に、Gathering_Start_DateTime,Gathering_End_DateTime,Time Zone,Gathering_Location_Place,Photographer,Jurnalist Information,Director,Producer,Title,Contents,NCS ID,Gathering_Location_Latitude(GPS緯度),Gathering_Location_Longitude(GPS経度),Gathering_Location_Altitude(GPS高度),Gathering_Location_Time(GPS Time),Gathering_Location_Place(地名),機材ID,Camera Setup Imformation,Reel Number,Reel Number,Duration,SOM,Good Shot Mark & REC Start Mark,Audio Channel Information,Audio Type,UMID(Audio),UMID(Video),Copyrightが挙げられる。Source,STC,Format,圧縮率(Video Bit Rate),GOP Size,Resolution,Audio Channel数,Audio Compression,Audio Sampling Rate,Audio Date Size,REC_Type,Material_ID,Sub Key,UMID(Data),UMID(System),File Length,Essence_Size,Object Type,Valid Date,EDL Information,Scriptの各メタデータの中から放送用素材を受信する視聴者にとって必要とされるメタデータを抽出して送信することもできる。
【0054】
オートメーション工程43において、合成されたニュース番組は、放送段階40において、オンエア(放送)される。
【0055】
放送後の映像データ,音声データ及びメタデータは、仮保管工程51の段階で一定期間仮保管され、その後、保管工程52の段階で長期保管される。保管された素材は、保管用の記録装置等から適宜抽出され使用される。
【0056】
このとき、メタデータとして記述されている素材の付加情報を素材を識別するための素材固有の識別子として使用することができる。また、メタデータとして入力されている付加情報を参照することによって、例えば編集者・記者等は、直ちに所望の素材を検索できる。
【0057】
以上説明したような作業の流れに基づいて、画像処理を行う画像処理システムを、図8を用いて具体的に説明する。画像処理システム1は、素材(映像及び音声)の取材,編集,保管等を行う各装置を備えたものであり、各装置での処理工程で、素材を詳細に識別するための付加情報を記録媒体、或いは専用の記録サーバに入力するものである。ここでは、特にニュース番組を制作する場合について示す。
【0058】
画像処理システム1は、映像及び音声を映像データ及び音声データとして記録媒体に記録する撮像装置101と、後述の基地局を介して付加情報を入力し、撮像装置101へとこれを送信する携帯型電話機102と、基地局へ付加情報を送信するデータ管理装置103と、データ管理装置103から携帯型電話機102へ送信されるデータを中継する基地局104とを備える。
【0059】
また、画像処理システム1は、映像データ及び音声データの記録及び/又は再生が行われる記録媒体を内部に有する記録媒体筐体105と、記録媒体に記録されたデータの再生を行う記録再生装置106と、記録再生装置106における操作及び再生される映像等を表示するモニタ107と、再生された映像データ及び音声データを一時的に蓄積する素材蓄積装置108と、素材の編集を行う編集装置109と、編集装置109における操作及び編集画像を表示するモニタ110とを備える。
【0060】
また、画像処理システム1は、当該システムにおける素材管理等を行う統合管理装置111と、記者等が素材に対しての情報を入力する記者用端末112と、他のネットワークに接続されて情報の入出力を行う入出力端末113とを備える。
【0061】
また、画像処理システム1は、制作された放送用素材を保管する保管用記録装置114と、放送用素材の時間軸とは関係のない情報を生成して付加するオーサリング端末115と、オーサリング端末115で生成された情報に配信のための配信用データを付加するメディアキャスタ116と、編集装置109によって編集された放送用素材と、時間軸とは関係のない情報と、配信用データとを混成するマルチプレクサ117と、送出用の放送用素材を一時的に記録する送出用映像音声記録装置118と、マルチプレクサ117によって生成された放送用素材を送出する送出部119と、送出部119から送出される放送用素材を受信するためのセットトップボックス120と、放送用素材を受信して表示するテレビジョン受像機121とを備える。
【0062】
更に、画像処理システム1は、撮像装置101,素材蓄積装置108,編集装置109,保管用記録装置114の各装置において素材の撮影,蓄積,編集,保管等を行った際に、素材に関する付加情報を示したメタデータを、映像データ及び音声データ(以下、素材データと記す。)とともに入力することによって、素材を明確に識別することを可能としたものである。
【0063】
図9乃至図11に、付加情報として入力されるメタデータの具体例を示す。図9乃至図11は、便宜上分割して示すが、これらは一連の図である。
【0064】
図9乃至図11に、「F」,「T」,「Sh」,「Sc」,「M」,「P」の記号として示される周期とは、メタデータの変更周期を表している。即ち、「F」(Frame)は、1/30秒毎に連続的に撮影される映像の1コマ周期で変更されるメタデータである「T」(Take)は、テイク毎に変更されるメタデータである。「Sh」(Shot)は、ショット周期で変更されるメタデータである。「Sc」(Scene)は、シーン周期で変更されるメタデータである「M」(Media)は、記録媒体毎に決められたメタデータである。「P」(Project)は、ニュース番組毎に決められたメタデータである。
【0065】
図9乃至図11には他に、メタデータを説明する日本語表記と英語表記とが示されている。また、SMPTE(Society of Motion Picture and Television Engineers,Inc)によって既に規定されているメタデータは、SMPTE Dictionaryの欄に「07 01 05 02 04 00 00 00」のように実際の値を示している。
【0066】
図9乃至図11に示したメタデータを具体的に説明する。
【0067】
Gathering_Location_Latitudeは、GPS(Grobal Positioning System )で検出される緯度を表すメタデータであり、Gathering_Location_Longitudeは、GPSで検出される経度を表すメタデータであり、Gathering_Location_Altitudeは、GPSで検出される高度を表すメタデータであり、Gathering_Location_Timeは、GPSで検出される時間を表すメタデータである。これらのGPSによる位置情報は、撮像装置101が備えるGPS受信部138から随時発生されている。また、GPSで検出される時間情報は、UTC(Coordinated Universal Time;調整済グリニジ平均時)によって表されており、UTCからの時差を表すTime Zone情報を含んで示されている。例えば日本の場合、UTCとの時差は9時間であるため、+9を示す情報が含まれている。
【0068】
Gathering_Location_Placeは、取材場所の地名を表すメタデータである。
【0069】
UMID(Audio)及びUMID(Video)は、素材を識別するために付される全世界で唯一になるように決められたIDである。UMIDについての詳細は後述する。
【0070】
UMID(Data)は、素材データに関する情報を記述するためのメタデータであるが、取材時に撮像装置によって記述されるUMID(Audio),UMID(Video)とは異なり、映像データが静止画であるか,グラフィックであるか,クローズドキャプション信号であるか、音声データがMIDI(Musical Instrument Digital Interface)であるか等を表すIDである。
【0071】
UMID(System)は、ある素材に対して付されるUMID(Audio)とUMID(Video)とを纏めたIDを表している。
【0072】
Photographerは、撮影者の名前を表すメタデータである。Jurnalist Informationは、取材を担当する記者に関する情報が書き込まれるメタデータである。 Directorは、ニュース番組のディレクターを表すメタデータである。
【0073】
Good Shot Mark & REC Start Markは、撮影の際、手動で入力されるマーク点に関するメタデータである。
【0074】
Camera Setup Imformationは、例えば撮像装置が備えるCCD(Charge Coupled Device)の設定情報,レンズメーカ・絞り値・レンズ倍率等を記述するレンズデータ,及びクレーン角度等を含むメタデータである。Camera Setup Imformationは、特にCG合成15の段階で必要となる。
【0075】
機材IDは、取材に使用する撮像装置を表すメタデータであり、撮像装置毎に固有の識別ナンバを有する。
【0076】
Take Numberは、テイク周期で変更されるメタデータである。
【0077】
素材開始タイムコード(Start Of Material)は、各シーンの開始時間を示すメタデータである。
【0078】
Contentsは、撮影内容に関連するその他の情報が入力されるメタデータである。
【0079】
Valid Dateは、素材の有効期限を示すメタデータである。
【0080】
Audio Channel Informationは、マイクチャンネルインフォメーションを示すメタデータである。Audio Channel Informationは、例えば1チャンネルがレポータマイクに割り当てられ、2チャンネルが相手マイクに割り当てられている等のマイク情報が記述されている。
【0081】
Audio Typeは、音声の記録がモノラルか、ステレオか、バイリンガルかを示すメタデータである。
【0082】
Sourceは、記録サーバに供給される素材が、記録媒体等に記録されて直接放送局に持ち込まれたものであるか、衛星通信,無線通信等によって取材場所から送信されたものであるか、或いは他の放送局から配信されたものであるか等の映像データの供給源を表すメタデータである。
【0083】
Formatは、DVフォーマットであるか,MPEG_MP@MLフォーマットであるか,MPEG_4:2:2P@MLフォーマットであるか等のデータストリームの形式を示すメタデータである。
【0084】
Video Bit Rateは、映像の圧縮率を示すメタデータである。
【0085】
Audio Number of Channelは、オーディオデータのチャンネル数を表すメタデータである。Audio Compressionは、オーディオデータが圧縮されているか否かを表すメタデータである。
【0086】
Audio Compressionは、オーディオデータの圧縮率を表すメタデータである。
【0087】
Audio Sampling Rateは、オーディオサンプリング周波数を表すメタデータである。
【0088】
Audio Date Sizeは、オーディオデータのサイズを時間、或いはバイト数によって表示するメタデータである。
【0089】
REC_Typeは、Auto,Manual,GPI,Endress,Open End等の収録方法を示すメタデータである。
【0090】
Material_IDは、既存の画像処理システムにおいて使用されている素材を識別するためのIDである。即ち、Material IDは、UMIDに相当するものであり、記述されない場合もある。
【0091】
Sub Keyは、Version,Segment,Revision等を示すメタデータであり、素材に対して、数回の編集等を施す間に変形したか否か等を示すものである。
【0092】
File Length(Time)は、素材の長さを時間で表すためのメタデータである。
【0093】
Gathering_Start_DateTimeは、撮影を開始する時間を表すメタデータであり、UTCによって表される。Gathering_End_DateTimeは、同様にUTCで表され、撮影終了時間を表すメタデータである。これらの時間データは、UTCからの時差を表すTime Zone情報を含んでいる。
【0094】
REC_Start_DateTimeは、編集装置109において、放送用素材を制作する際の編集開始時間をUTCで表したメタデータである。また、REC_End_DateTimeは、編集の終了時間をUTCで表したメタデータである。これらの時間情報には、UTCからの時差を表すTime Zone情報が含まれている。
【0095】
Recording_Operatorは、編集装置109において編集を行ったオペレータの情報を表すメタデータである。
【0096】
File_Ownerは、撮影者等、素材データの所有権情報を表すメタデータである。
【0097】
Shot Numberは、ショット周期で変更されるメタデータである。
【0098】
Duration(Time)は、撮影に要した時間を示すメタデータである。
【0099】
GOP Sizeは、映像がMPEG形式によって圧縮されている場合、その圧縮率を示すメタデータである。
【0100】
Resolutionは、720*512,720*480,544*480,480*480,352*480等の解像度を表すメタデータである。
【0101】
Essence_Size(Byte)は、映像及び音声データを含むファイル全体のサイズをバイト数によって表したメタデータであり、時間によって表示する場合もある。
【0102】
Object Type(Still,Audio,Video,Key Source)は、映像データが静止画であるか否かを示すStill,オーディオデータであるか映像データであるかを示すAudio及びVideo,テロップ用の指示を示すKey Source等のデータを含むメタデータである。
【0103】
Index,Index_Type,Index_Memoは、検索を行うためのメタデータである。
【0104】
Scene Numberは、シーン周期で変更されるメタデータである。
【0105】
Recording Terminal,REC Portは、収録を行った端末に関する情報を表すメタデータである。
【0106】
Reel Numberは、映像データが記録される記録媒体を識別するためのメタデータであり、同じテープであっても撮像装置から出し入れする毎に異なるNumberとして生成される。
【0107】
Copyrightは、撮影されて記録された映像データの著作権を示すメタデータであり、個人名、或いは放送局名等が入力されるようになっている。
【0108】
Modified_DateTimeは、編集装置109において編集された放送用素材に変更が加えられた日付を示すメタデータであり、OnAir_DateTimeは、放送用素材がオンエアされた日付を示すメタデータであり、Archive_DateTimeは、放送用素材が保管された日付を示すメタデータである。これらは、Time Zone情報を含むUTCによって表される。
【0109】
Producerは、ニュース番組のプロデューサを表すメタデータである。
【0110】
Archive_Operatorは、放送用素材の保管を行ったオペレーターの情報を表すメタデータである。
【0111】
Titleは、撮影題目、或いは取材する内容(素材の内容)を使用する番組名を表すメタデータである。
【0112】
Archive Terminalは、放送用素材の保管を行った端末に関する情報を表すメタデータである。
【0113】
NCS IDは、NCS(Newsroom Computer System)に登録されているニュース番組項目・番組毎に設定されたID(identifier:識別子)である。ただしNCS IDは、NCS60にアクセスするためのIDを示すものではない。
【0114】
EDL Informationは、編集内容に関するメタデータである。具体的には、使用する映像データのイン点,アウト点等が、時間又はReel Numberによって示されたものであり、編集点リストとして記述されている。また、Scriptは、主として読み原稿の内容を示すメタデータである。
【0115】
OnAir_Flagは、編集された放送用素材が、オンエアされたか否かを表すメタデータであり、OnAir_Counterは、何回オンエアされたかを表すメタデータである。
【0116】
Archive_Flagは、取材によって収集した素材が、保管されたか否かを表すメタデータである。
【0117】
Compile_Flagは、一旦保管されている素材を再度整理し、消去するか否かの処理を行った際に、再度記録し直されたことを表すメタデータである。
【0118】
Distribution_Flagは、放送用素材が自局以外の放送局から送出されたか否かを表すメタデータである。素材の売買を行った際にもその情報が記述される。
【0119】
File_Status_Bitは、素材蓄積装置108及び編集装置109における素材の状態を表すメタデータである。
【0120】
以上のようなメタデータを各装置における処理工程で入力することにより、素材の状態,素材にかかる付加情報によって、素材を明確に識別することが可能となる。
【0121】
画像処理システム1において、映像データ,音声データ及びメタデータを伝送するための伝送フォーマットとしては、SMPTE(Society of Motion Picture and Television Engineers,Inc)によって規格化されているデジタルデータ伝送フォーマットであるSDI(Serial Digital Interface )を使用する。図12(a)に、SDIフォーマットデータ全体の構成を示す。
【0122】
SDIフォーマットは、終了同期を示す4ドットのEAV(End of Video)領域と、268ドットのアンシラリ(Ancillary;ANS)領域と、開始同期を示す4ドットのSAV(Start of Video)領域と、1440ドットのアクティブビデオ領域とを有し、ライン数525で構成されている。ただし、括弧内の数字は、PAL(Phase Alternation Line)方式で定義される値を示している。
【0123】
アクティブビデオ領域は、9ラインの垂直ブランキング部(VBK1)と、10ラインのオプショナルブランキング部(OBK1)と、244ラインのアクティブビデオ部(ACV1)と、9ラインの垂直ブランキング部(VBK2)と、10ラインのオプショナルブランキング部(OBK2)と、243ラインのアクティブビデオ領域(ACV2)とを有する。
【0124】
SDIは、いわゆるD1フォーマット,D2フォーマットのような非圧縮デジタルデータを伝送するためのフォーマットであり、アンシラリ領域に音声データを格納し、アクティブビデオ領域にD1やD2のようなビデオデータを格納して伝送している。SDIフォーマットにおいて、メタデータは、アンシラリ領域に挿入されて伝送される。
【0125】
図12(b)は、SDIフォーマットの1ラインを示したものである。伝送される際には、1ライン10ビット幅のデータがパラレル―シリアル変換及び伝送路符号化されて伝送される。
【0126】
また、画像処理システム1において映像データ、音声データ及びメタデータを伝送するための伝送フォーマットとしては、上述のSDIフォーマットのほか、MPEG方式,DV方式等で圧縮された圧縮データを伝送するためのSDTI(Serial Digital Transfer Interface)フォーマットや、SDTIフォーマットを更に限定したSDTI-CP(Serial Digital Transfer Interface - Content Package)フォーマットを用いても良い。
【0127】
図13(a)に、SDTIフォーマットのデータ構造を示す。SDTIフォーマットは、SDIフォーマットと同様に、終了同期を示す4ドットのEAV(End of Video)領域と、268ドットのアンシラリ(Ancillary;ANC)領域と、開始同期を示す4ドットのSAV(Start of Video)領域とを有しているが、SDIフォーマットにおいてライン数525で構成されるアクティブビデオ領域が、ペイロード領域と定義されている。ただし、括弧内の数字は、PAL(Phase Alternation Line)方式で定義される値を示している。
【0128】
SDTIフォーマットにおいてペイロード領域は、ブランクデータ部(BDT1、BDT2)と、データ部(DT1、DT2)とを有するが、各データ部のライン数は定義されていない。
【0129】
図13(b)は、SDTIフォーマットの1ラインを示したものである。SDTIフォーマットで伝送される際には、1ライン10ビット幅のデータがパラレル―シリアル変換及び伝送路符号化されて伝送される。
【0130】
SDTIフォーマットでは、アンシラリ領域に、送信元アドレス、宛先アドレス、ラインナンバCRC等が挿入される53ワードのSDTIヘッダデータが含まれている。SDTIフォーマットにおいてメタデータは、アンシラリ領域のSDTIヘッダデータを除いた部分の領域に挿入される。
【0131】
図14に、SDTI-CPフォーマットのデータ構造を示す。SDTI-CPにおけるパケット構成は、SDTIフォーマットを更に限定したものであり、ペイロードの構成に変更を加えて各種データが挿入しやすいようにされている。
【0132】
SDTI-CPフォーマットによって伝送されるデータは、MPEG(Moving Picture Expert Group)2 Video Elementary Stream 等を含むほか、音声やメタデータを含む補助データ等の種々のデータをまとめて伝送することができる。
【0133】
ペイロードに挿入するデータは、「アイテム」で区切られ、各種データは、各アイテムに挿入されている。具体的に、アイテムには、System Item、Picture Item、Audio Item、Auxiliary Itemの4種類がある。
【0134】
System Itemは、System Item Bitmap, Content Package rate,SMPTE Universal Label,Package Metadata Set,Picture Metadata Set,Audio Metadata Set,Auxiliary Metadata Set等の領域を有している。
【0135】
SDTI-CPフォーマットにおいてメタデータは、System ItemのPackage Metadata Set,Picture Metadata Set,Audio Metadata Set,Auxiliary Metadata Set領域に挿入されて伝送される。
【0136】
メタデータは、映像データ及び音声データ等の素材を識別するために付加され、入力される固有のデータであって、SMPTE規格に基づくKLV(Key Length Value)プロトコル及びUMID(Unique Material Identifier)のデータフォーマットによって伝送される。
【0137】
KLVフォーマットとは、Universal Label Dataを記述する16バイトのUniversal Label Data Keyと、Value領域に格納されるメタデータのデータ長を示すValue Lengthと、SMPTE Dictionaryに対応する実際のメタデータが格納されるValueの3つの領域を備えたデータ伝送フォーマットである。図15にKLVフォーマットを示す。
【0138】
Universal Label Data Keyは、格納されるメタデータに対してユニークなラベリングを施すためのデータ領域である。Universal Label Data Keyは、更に、それぞれ1バイトのObject IDと、UL(Universal Label) Sizeとを含むUL(Unibersal Label) Header領域,それぞれ1バイトのUL(Universal Label) Codeと、SMPTE Designと、Registry Designと、Data Designと、Reference Versionとを含むUL(Universal Label) Designatores領域,9バイトのData Element Tag領域の各領域に分けられてる。
【0139】
UMIDは、映像データ,オーディオ(音声)データ及びその他の素材データを識別するために唯一的に決定される識別子である。図16にUMIDのデータ構造を示す。
【0140】
UMIDは、一連の映像、音声及びメタデータ(以下、コンテンツと記す。)から構成される素材データを識別するためのIDとしてのBasic UMIDと、素材データ内の各コンテンツを識別するためのシグネイチャとしてのExtended UMIDとから構成されている。
【0141】
Basic UMIDは、32バイトのデータ領域を有し、12バイトのUniversal Label領域と、1バイトのLength Value領域と、3バイトのInstance Number領域と、16バイトで示されるMaterial Number領域とから構成されている。
【0142】
Universal Label領域は、デジタルデータを識別するための符号が格納しており、詳細は、SMPTE-298Mにおいて規格化されている。Length Value領域は、UMIDの長さを示す。Basic UMIDと、Extended UMIDとでは符号の長さは異なるため、Basic UMIDの場合、13hで示され、Extended UMIDの場合、33hで示される。Instance Number領域は、素材データに上書き処理や、編集処理が施されたか否かを示している。Material Number領域は、3つの領域を有し、素材データを区別するための符号が格納される。
【0143】
4バイトで示されるTime Snapは、1日のスナップクロックサンプル数を示している。クロック単位で素材データの作成時刻等を示すものである。8バイトのRnd(Random Number)は、正確でない時刻をセットした場合や、例えばIEEE(The Institute of Electrical and Electronics Engineers,Inc.)で定義された機器のネットワークアドレスが変化した場合に、2重の番号が付されないようにするためのランダムナンバである。
【0144】
一方、Extended UMIDは、素材が生成された時間と日付とを識別するための8バイトのTime/Date Codeと、素材が生成された時間に関する補正(時差情報)や、緯度、経度、高度で表される位置情報を定義する12バイトのSpatial Co-oredinatesと、省略されたアルファベット等の文字や記号によって、国名4を定義するバイトのAlphnumeric Code(Country)と、省略されたアルファベット等の文字や記号によって、組織名を定義する4バイトのAlphnumeric Code(Organization)と、素材を生成したユーザ名を定義する4バイトのAlphnumeric Code(User)とで構成されている。
【0145】
以上説明したBasic UMID及びExtended UMIDは、映像サイズ、ジェネレーションナンバ等を示すメタデータは含まない。特に、Material Numberは、素材の状態や素材の映像に関する他の情報を示すものではない。映像サイズ、ジェネレーションナンバ等を示すメタデータは、KLVフォーマットに基づいて伝送される。
【0146】
上述の画像処理システム1における撮像装置101,携帯型電話機102,データ管理装置103,基地局104について、図17を用いて詳細に説明する。
【0147】
撮像装置101は、素材管理装置108と接続されたデータ管理装置103から、基地局104及び携帯型電話機102を介して、メタデータを受信するものである。したがって、これらの装置間でのデータの伝送は、図1における計画工程11から取材12へと移行する過程において、移動する撮像装置101が、放送局からメタデータを送信される場合に相当する。
【0148】
撮像装置101は、デジタルビデオカメラであって、映像及び音声を入力する画像音声入力部131と、撮像装置101の操作及びメタデータの入力等を行うための操作部132と、後述するマイクロコンピュータ140のOS(Operating System)等が記録されるHDD(Hard Disk Drive)133と、記録媒体105に対して少なくとも映像及び音声を記録する記録部134と、映像及び音声データと他のデータとを多重化するマルチプレクサ135と、主としてメタデータを記憶するメモリ136と、携帯型電話機102との間の無線インターフェイスであるブルートゥースデバイス137と、GPS(Global Positioning System)信号を受信して位置情報を検出するGPS受信部138と、GPS信号を受信するためのアンテナ139と、上述の各構成を統括して制御するマイクロコンピュータ140とを少なくとも備えている。
【0149】
画像音声入力部131は、図示しないがCCD(Charge Coupled Device)等の撮像するための回路や,マイクロフォン等の録音のための回路を有し、マイクロコンピュータ140からの指示に基づいて、入力された映像及び音声を映像データ及び音声データに変換してマルチプレクサ135に供給する。
【0150】
操作部132は、図示しない各種ボタン,スイッチを有し、撮像装置101の操作、及び必要に応じてメタデータが入力される。
【0151】
HDD133には、マイクロコンピュータ140のOS(Operating System)や、携帯型電話機102を制御するソフトウェア等が記録されており、マイクロコンピュータ140が適宜これらのデータを読み込んで使用する。また、HDD133は、マイクロコンピュータ140によってデータが書き込まれる。
【0152】
記録部134は、図示しないが記録媒体に映像データ,音声データ及びメタデータを記録及び/又は再生する記録再生ヘッド等を有し、マイクロコンピュータ140により制御されてマルチプレクサ135から供給された映像データを記録媒体に記録する。また、記録部134は、マイクロコンピュータ140からの指示に基づいて、記録媒体に記述されるメタデータを検出し、マイクロコンピュータ140に供給する。
【0153】
マルチプレクサ135は、マイクロコンピュータ140により制御され、映像音声入力部131から供給される映像データと、マイクロコンピュータ140から供給されるメタデータとを多重化し、記録部134へと供給する。
【0154】
メモリ136は、消去及び書込が可能な、いわゆるEPROM(Erasable and Programmable ROM)であって、マイクロコンピュータ140からの指示に基づいて、データ管理装置103から供給されるメタデータを記憶する。またメモリ136は、マイクロコンピュータ140から指示に基づいて、記憶しているメタデータをマルチプレクサ135へと供給する。
【0155】
ブルートゥースデバイス137は、携帯型電話機102との間の無線インターフェイスとして使用されるものであり、マイクロコンピュータ140に制御されて、データ管理装置から供給されるメタデータを、携帯型電話機102を介して受信する。また、ブルートゥースデバイス137は、マイクロコンピュータ140より出力されるテープ位置情報を携帯型電話機102を介してデータ管理装置に供給する。
【0156】
ブルートゥースとは、Ericsson社(スウェーデン)が標準化している2.4GHz帯域の電波を使用した近距離無線通信であり、最大転送速度は、1Mbit/sec、変調方式は、GFSK(Gaussian Frequency Shift Keying)とされている。ブルートゥースの最大伝送距離は、10m(出力:1mW)と、100m(出力:100mW)とがあり、これらは用途により使い分けることができる。
【0157】
GPS受信部138は、アンテナ139を介してGPS信号を受信し、撮像装置101の位置情報を検出している。位置情報は、緯度,経度,高度等として表される。
【0158】
マイクロコンピュータ140は、図示しないがCPU(Central Processing Unit),RAM(Random-Access Memory),及びROM(Read Only Memory)を内蔵し、上述の各構成を統括して制御するほか、操作部132からの信号に対応してデジタルビデオカメラ全体の動作の制御を行う。また、撮影に関する種々のメタデータを生成する。
【0159】
一方、データ管理装置103は、例えば電話回線網等に接続されて統合管理装置111と通信が可能なコンピュータであり、例えば撮像装置101を使用して撮影を行う撮影者が所属する放送局等に設置されているものである。データ管理装置103に備えられるマイクロコンピュータ141は、データ管理装置103の全体の動作を統括して制御している。マイクロコンピュータ141は、通信部142を制御して、携帯型電話機102を介して撮像装置101からの信号を受信すると、携帯型電話機102の電話番号を識別して、発信元となっている携帯型電話機102を所有する撮影者が使用している撮像装置101を認識する。データ管理装置103は、認識した撮像装置101に対応するメタデータを携帯型電話機102へと送信する。
【0160】
送信される個々の撮像装置101に対応するメタデータは、予め図8に示す統合管理装置111等において入力され、例えば、統合管理装置111に備えられる図示しないHDDに蓄積されている。
【0161】
図8に示す記録再生装置106は、映像データ及び音声データを、少なくとも再生することが可能な装置であり、特にデジタルビデオテープレコーダである。図18を用いて、記録再生装置106の構成を説明する。
【0162】
記録再生装置106は、SDIフォーマットで供給される映像データ,音声データ及びメタデータを入力する入力端子151と、映像データ,音声データ及びメタデータをSDIフォーマットで外部に出力する出力端子152と、SDIフォーマットで入力されたデータから映像データ,音声データ及びメタデータを抽出する入力処理部153と、データの圧縮符号化、及び復号(伸張)処理を行う圧縮符号化/復号部154と、当該圧縮符号化/復号部154において復号された信号をSDIフォーマットへと変換して出力端子152へと供給する出力処理部155とを備えている。
【0163】
ここで、圧縮符号化/復号部154は、離散コサイン変換を用いた圧縮符号化処理を行っている。
【0164】
記録再生装置106は、更に、圧縮符号化/復号部154によって圧縮符号化された信号に対してエラー訂正コードの付加を行うとともに、記録媒体から再生して得られた信号に対してエラー訂正処理を行って映像信号符号化/復号部154に出力するエラー訂正処理部156と、エラー訂正処理部156によってエラー訂正コードが付加された信号に対して、記録媒体に記録するのに適した符号化処理を行うとともに、この符号化処理に対応する復号処理を記録媒体から再生した映像信号に対して行ってエラー訂正処理部156に出力するチャネルコーディング部157と、このチャネルコーディング部157によって符号化された信号を、記録媒体に記録するとともに、記録媒体に記録された信号を再生してチャネルコーディング部157へと出力する記録再生部158とを備えている。
【0165】
記録再生装置106は、更に、記録媒体筐体105のローディング及び記録再生部158の駆動を行う機構部159と、使用者が各種の操作を行うための操作部160と、記録媒体筐体105に備えられた不揮発性メモリ105aの端子105bと接続される端子162と、圧縮符号化/復号部154,エラー訂正処理部156,チャネルコーディング部157,機構部159,操作部160及び端子161に接続されたコントローラ162とを備えている。
【0166】
記録再生装置106において、操作部160には、詳細は図示しないが、所定の指示を行うための複数のスイッチが備えられている。複数のスイッチには、各シーン又はテイクにおける有効領域の開始点(マークイン点)を指示するスイッチ,有効領域の終了点(マークアウト点)を指示するスイッチ,各シーン又はテイクに対するOK,NG(No Good)を指示するスイッチ,テイク番号を指示するテイクスイッチ等、及びその他のメタデータの入力を行うスイッチが備えられている。
【0167】
記録再生装置106におけるコントローラ162は、図示しないがCPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory),入出力部等で構成され、RAMを作業領域として、ROMに格納されたプログラムを実行することによって、タイムコード信号に基づいて記録再生装置106全体の作業を統括して制御している。
【0168】
上述した記録再生装置106では、記録媒体に記録された映像データを再生する際や、再生された映像データを素材蓄積装置108へと記録する際に、操作部161からの操作によって、必要に応じてマークイン点,マークアウト点,及びその他のメタデータ等の付加情報を入力することができるようになっている。これらの付加情報は、不揮発性メモリ105a及び記録媒体に記録される映像データとともに記録されるようになっている。
【0169】
図8に示す素材蓄積装置108は、記録再生装置106から再生された映像データ,音声データ及びメタデータ等の付加情報を一時的に蓄積する記憶装置である。図19を用いて、素材蓄積装置108の構成を説明する。図19において実線は、映像データ,音声データ及びメタデータが伝送されることを示し、破線は、制御信号の流れを示している。
【0170】
素材蓄積装置108は、SDIフォーマットによって伝送される映像データ,音声データ及びメタデータを入力して分離する入力処理部171と、映像データ及び音声データを符号化するエンコーダ(ENC)172と、映像データ,音声データ及びメタデータ等の付加情報を記録する記録部173と、上述のエンコーダに対応する復号を行うデコーダ(DEC)174と、復号した映像データ及び音声データとメタデータとをSDIフォーマットで出力する出力処理部175と、各部を統括して制御するコントローラ176とを備える。
【0171】
入力処理部171は、コントローラ176に制御されて、SDIフォーマットで入力されるデータから、映像データ,音声データ及びメタデータを抽出し、映像データ及び音声データをエンコーダ172へと供給する。また、抽出したメタデータをコントローラへと供給する。
【0172】
エンコーダ172は、コントローラ176に制御されて、入力処理部171から入力した映像データ及び音声データを、フレーム間相関にて圧縮するMPEG方式や、フレーム内圧縮であるDV,JPEG方式で符号化して、符号化して得られた信号を記録部173へと供給する。
【0173】
記録部173は、例えばHDD(Hard Disk Drive)等の記録媒体であって、映像データ,音声データ及びメタデータ等の付加情報を記録する。記録部173は、エンコーダ172において符号化された圧縮ストリームを入力し、記録する。また、コントローラ176から供給されるメタデータ等の付加情報を入力して記録する。このような記録部173は、映像データ及び音声データ等のA/V(Audio/Video)データを記録するためのA/Vデータ記録部と、メタデータ等の付加情報を記録するための付加情報記録部とを有していても良い。
【0174】
デコーダ174は、コントローラ176に制御されて、エンコーダ172において符号化されたデータに対して、エンコーダ172における符号化に対応した復号処理を行って、出力処理部175へと供給する。
【0175】
出力処理部175は、コントローラ176に制御されて、デコーダ174において復号された映像データ及び音声データとコントローラ176からのメタデータとを入力し、これらデータをSDIフォーマットへと変換して出力する。
【0176】
コントローラ176は、図示しないがCPU,ROM,RAM,入出力部,メモリ等で構成され、RAMを作業領域として、ROMに格納されたプログラムを実行することによって、素材蓄積装置108全体の作業を統括して制御している。
【0177】
また、コントローラ176は、入力処理部171から供給されるメタデータを管理し、必要に応じてメタデータの内容を変更したり、新たなメタデータの生成を行う。コントローラ176は、メタデータを出力処理部175へと送る。
【0178】
図8に示す編集装置109は、映像データ及び音声データ(素材データ)を編集するための編集装置であって、メタデータとして付加されている素材に関する情報に基づいて素材の編集を行うことが可能なものである。図20に編集装置109の構成を説明する。
【0179】
編集装置109は、各種編集のための操作入力を行う入力操作部181と、SDIフォーマットで伝送される素材データを入力する入力処理部182と、映像データ、音声データ及びメタデータを記録する記録部183と、音声データを加工する音声ミキサ184と、映像データに特殊効果処理を施す特殊効果処理部185と、映像データ,音声データ及びメタデータをSDIフォーマットで出力する出力処理部186と、各部を統括して制御する制御部187と、編集結果をメタデータとして記憶するメモリ188とを備えている。
【0180】
入力操作部181は、当該編集装置109に接続されたモニタに表示されたGUI(Graphical User Interface)等から素材の編集を行うためのマウスやキーボードを示している。入力操作部181から、各種編集のための操作、及び記事原稿の作成、CG合成画面の編集等が行われる。入力操作は、入力操作部181によって行われるほか、図8に示す統合管理装置111から行うことも可能である。
【0181】
入力処理部182は、制御部187に制御されて、SMPTEにおいて規格化されているSDIフォーマットで伝送された素材蓄積装置108からのデータを入力し、このデータから映像データ,音声データ及びメタデータを抽出して後述の記録部183へと供給する。このとき抽出された各データのうち、映像データ及び音声データは、図示しない圧縮処理部において、フレーム間相関を利用したMPEG方式、或いはフレーム内圧縮であるJPEG方式及びDV方式等で圧縮されるようになっていてもよい。また、入力処理部182は、メタデータに基づいて、図示しない記録サーバから、地図等のCG画面を抽出する。
【0182】
記録部183は、HDD(Hard Disk Drive)や、複数のHDDから構成されるRAID(Reduntant Array of Inexpensive Disks)のような記録媒体であり、入力処理部182からの映像データ,音声データ及びメタデータを記録する。
【0183】
音声ミキサ184は、記録部183から複数チャンネルの入力系統によって供給される複数の音声データを同時に入力することができ、例えば、一方の音声データの音声レベルを徐々に下げ、他方の音声データへとなめらかに移行する等のように音声データの加工を行うものである。音声ミキサ184は、加工された音声データを記録部183へと供給する。
【0184】
特殊効果処理部185は、記録部183から複数チャンネルの入力系統によって供給される複数の映像データを同時に入力することができ、例えば、フェードイン・フェードアウト等の特殊効果を映像データに施すものである。また、特殊効果処理部185は、特殊効果処理を加えた映像データを記録部183へと供給する。
【0185】
出力処理部186は、制御部187に制御されて、編集された映像データ,音声データ及びメタデータを記録部183から入力し、SDIフォーマットへと変換して出力する。
【0186】
制御部187は、上述の各部を統括して制御するほか、入力処理部182から供給されるメタデータを管理し、必要に応じてメタデータの内容を変更したり、新たなメタデータの生成を行う。制御部187は、出力処理部186へとメタデータを送る。
【0187】
メモリ188は、音声ミキサ184及び特殊効果処理部185にて行った編集結果を当該編集結果に基づくメタデータであるEDL_Information(EDL;Editing Decision List)として記憶する。また、入力操作部181において入力された記事原稿に基づくメタデータ、或いは記事内容を示したメタデータであるScriptとして記憶する。作成されたEDL_Information及びScriptは、出力処理部186へと送られる。ここで編集結果とは、記録媒体上のイン点及びアウト点を、Reel Number、或いはタイムコードで表した編集点に関する情報を示している。
【0188】
図8に示すモニタ107は、SDIフォーマットで伝送される映像データ,音声データ及びメタデータを入力し、記録再生装置106で再生される映像及び操作に関する各種の表示を行うものである。
【0189】
図8に示すモニタ110は、SDIフォーマットで伝送される映像データ,音声データ及びメタデータを入力し、編集装置109で行われる編集に必要な情報及び映像等の表示を行う。
【0190】
図8に示す統合管理装置111は、当該画像処理システム1における映像データ、音声データ,メタデータ等の付加情報及びニュース番組制作における全体の情報を統括管理するものであり、図1に示すNCS60に相当するものである。具体的には、統合管理装置111は、オンエア項目の管理及びどの素材がどの段階の処理を受けているか等の素材管理を行うほか、当該統合管理装置111に接続される入出力端末113を介して、他の放送局等との間における素材の売買等の管理を行う。また、当該統合管理装置111と接続された記者用端末112から、記者によって作成された記事を入力する。
【0191】
図8に示す記者用端末112及び入出力端末113は、統合管理装置111とホスト,クライアントの関係にあり、ホストコンピュータである統合管理装置111に接続されて、統合管理装置111に対する種々の入出力作業が可能である。入出力端末113は、外部のネットワークと接続され、外部のネットワークに存在する他の端末との間で、各種データの交換(場合によっては、売り買い)を行うことが可能とされている。このとき各種データの交換・売買等の情報も、統合管理装置111によって管理されている。
【0192】
図8に示す保管用記録装置114は、編集された放送用素材を保管するための記録装置であり、例えばHDDのような記録媒体を備えている。ここでは図示しないが、保管用記録装置114は、放送用素材の長期保管を行う長期記録部と、一定期間の間に再び使用される可能性のある放送用素材を一定期間保管する仮記録部とを備えていてもよい。保管用記録装置114は、編集装置109,統合管理装置111等からの要求に応じて、記録している放送用素材が自由に取り出せるようになっている。
【0193】
図8に示すオーサリング端末115は、例えば、出演者が着ている服装や、装着している時計に関するショッピング情報等、時間軸上で放送用素材とは異なる情報を付加するための端末である。
【0194】
図8に示すメディアキャスタ116は、オーサリング端末115で付加された時間軸の異なる情報に関して、例えば服や時計を販売している店舗のホームページアドレス等の付加情報を付加するための端末である。
【0195】
図8に示すマルチプレクサ117は、上述のメディアキャスタ116からの付加情報に関する信号と、編集装置109からのSDIフォーマットの放送用素材の信号とを混合し、最終的に送出される、即ち視聴者が視る番組構成としての放送用素材を生成する。マルチプレクサ117は、この放送用素材を送出部119へと供給する。
【0196】
図8に示す送出用映像音声記録装置118は、編集装置109から送られるSDIフォーマットで構成された送出用の放送用素材を一時的に記録するものであり、HDDのような記録媒体を備えている。送出用映像音声記録装置118は、送出部119に対して放送用素材を供給する。
【0197】
送出部119は、マルチプレクサ117及び送出用映像音声記録装置118から供給される放送用素材を送出する。送出部119は、SDIフォーマットで供給されるデータのうち、メタデータに関して、特に受信側で必要と思われるメタデータを抽出して映像データ及び音声データとともに送出している。
【0198】
以上示した構成が放送用素材を制作して送信する放送局等に相当するのに対し、セットトップボックス120及びテレビジョン受像機121は、放送局等から供給される放送用素材を受信する側に備えられる構成である。
【0199】
セットトップボックス120は、各種の通信端末をつなぐための接続装置であり、双方向通信機能,インターネット接続機能,CATV接続機能等を備えた受信装置である。セットトップボックス120は、送出部119から送出される放送用素材の電波を受信し、テレビジョン受像機121へと供給する。テレビジョン受像機121は、供給された信号を処理して表示する。
【0200】
続いて、上述の画像処理システム1を用いてニュース番組を制作する際の各装置における動作を説明する。まず、図11に示す計画工程11の段階で、取材に関する内容が決定される。この取材内容に基づいて、図8に示す統合管理装置111において、取材に関するメタデータの入力が行われる。統合管理装置111では、取材に向かう撮像装置101に対して上記メタデータを伝送するために、上記メタデータをデータ管理装置103へと伝送する。データ管理装置103によって、撮像装置101へとメタデータが伝送される。
【0201】
まず図21を用いて、撮像装置101の動作について説明する。撮像装置101を使用して撮影を行う使用者は、所定のタイミングで操作部132を操作してメタデータの転送要求を指令すると、撮像装置101のマイクロコンピュータ140は、ステップS1において、ブルートゥースデバイス137を制御して携帯型電話機102を介してデータ管理装置103に対してメタデータの転送を要求する。
【0202】
ここで転送されるメタデータは、図1に示す計画工程11の段階で決定されたメタデータであり、撮影される取材毎に固有のデータである。具体的には、図9乃至図11に示す取材地名,撮影者,ジャーナリスト,ディレクター,内容に関する記述,取材開始日時,取材終了日時,プロデューサー,ニュース取材項目,NCS IDを表すメタデータがこれに相当する。
【0203】
ただし、上述のメタデータのうち、内容に関する記述,ニュース取材項目以外のメタデータは、仮に入力されるメタデータであって、後に示す工程で変更される場合がある。
【0204】
このメタデータは、取材前の取材計画に基づいて、素材管理装置108から、取材開始前に撮像装置毎に入力され、図8には図示しない素材管理装置108の記録部に予め記憶されているものである。
【0205】
個々の撮像装置は、予め割り当てられ、メモリ136に記憶されているID、又は当該撮像装置101とともに対向される携帯型電話機102の電話番号等により認識される。したがって、複数の撮像装置のメタデータは、撮像装置の機材ID又は携帯型電話機102の電話番号毎に管理されている。
【0206】
図22に示すメタデータは、携帯型電話機の電話番号が、例えば「090−××××−××××」の携帯型電話機102とともに取材に使用されている撮像装置101のものを示している。
【0207】
この場合、取材開始日時として、「2000/3/3 9:00-10:00」,「2000/3/3 13:00-14:00」及び「2000/3/3 17:00-19:00」が示されており、それぞれに対応するNCS IDが、「0001」,「0002」,「0003」のように示されている。各々のNCS IDに対応して、ニュース取材題目として「首相インタビュー」,「街頭インタビュー」及び「記者クラブ取材」が示されている。同様に、撮影者,ジャーナリストが対応して示されている。
【0208】
ここで、ステップS1の工程において、撮像装置101からメタデータの転送が要求されたときのデータ管理装置103における処理について図23を参照して説明する。
【0209】
携帯型電話機102を介して、撮像装置101からのメタデータの要求が受信されると、ステップS21において、データ管理装置103は、受信したメタデータを発信している携帯型電話機103の電話番号又は撮像装置101の機器IDを認識する。
【0210】
ステップS22において、データ管理装置103は、受信した携帯型電話機102の電話番号に対応する撮像装置101のメタデータのうち、受信した時刻に対応したメタデータを携帯型電話機102に送信する。例えば撮像装置101からのメタデータの転送要求が2000年3月3日の9:00に為されたとすると、データ管理装置103は、この時刻に対応するNCS ID「0001」に対応するニュース取材題目「首相インタビュー」,撮影者及びジャーナリストを表すメタデータを、携帯型電話機102を介して撮像装置101に送信する。
【0211】
ここで、図21に戻って説明する。ステップS2において、ブルートゥースデバイス137は、携帯型電話機102を介してデータ管理装置103からのメタデータを受信し、受信したことをマイクロコンピュータ140に通知する。
【0212】
ステップS3において、マイクロコンピュータ140は、ブルートゥースデバイス137からメタデータを受信したことを知らせる通知を受けて、ブルートゥースデバイス137で受信されたメタデータをメモリ136に一時的に記憶する。
【0213】
ステップS4において、マイクロコンピュータ140は、録画が開始されたか否かを判定し、録画が開始されていないとき判定された場合、ステップS5へと進んで、録画スタンバイの状態が解除された場合にマイクロコンピュータ140は、その処理を終了する。一方、録画スタンバイが解除されなかった場合には、ステップS4の工程に戻る。即ち、撮像装置101は、録画スタンバイが解除されるまで、ステップS4,S5の処理を繰り返し、録画開始待ちの状態となる。
【0214】
ステップS4において、録画が開始されたと判定されると、ステップS6へと進み、マイクロコンピュータ140は、記録部134を制御し、記録媒体の記録開始点のタイムスタンプを読み出してメモリ136に記憶させるとともに、ブルートゥースデバイス137を制御して、携帯型電話機102を介して、データ管理装置103に送信する。
【0215】
また、マイクロコンピュータ140は、画像音声入力部131を制御し、画像データをマルチプレクサ135に出力させるとともに、メモリ136を制御し、メモリ136に記憶されているメタデータをマルチプレクサ135に出力させる。
【0216】
ステップS7において、マイクロコンピュータ140は、マルチプレクサ135を制御し、画像及び音声データとメタデータとを多重化させてSDIフォーマットとして記録部134に供給する。
【0217】
ステップS8において、記録部134は、マルチプレクサ135から供給される画像及び音声データとメタデータとが多重化されたSDIフォーマットのデータを記録媒体に記録する。
【0218】
ステップS9において、マイクロコンピュータ140は、録画が終了されたか否かを判定し、録画が終了されていない場合は、録画終了待ちの状態、即ち録画状態を継続する。
【0219】
一方、ステップS9において、録画が終了されたと判定されると、ステップS10において、マイクロコンピュータ140は、記録部134を制御し、記録媒体の記録終了点を示すタイムスタンプを読取り、ブルートゥースデバイス137を制御し、携帯型電話機102を介して、読み取った記録開始点及び記録終了点のテープ位置情報をデータ管理装置103に送信し、処理を終了する。
【0220】
図8に示す記録媒体は、例えばテープ状の磁気記録媒体であり、特にここでは、デジタルビデオテープを示している。記録媒体は、映像及び音声をデジタル化された映像データ及び音声データとして記録することが可能なものであり、映像データ及び音声データのほかにメタデータ等の補助データを記録できる領域を備えたものである。また、補助データを記録媒体筐体105に不揮発性メモリ105aを付設し、この不揮発性メモリ105aに補助データを記憶するようにしてもよい。
【0221】
続いて、データ管理装置103が、撮像装置101からテープ位置情報を受信したときの処理について説明する。データ管理装置103は、図21のステップS10により撮像装置101よりテープ位置情報を受信すると、図24に示すステップS31において、受信したテープ位置情報の送信元となる携帯型電話機102の電話番号を認識する。
【0222】
ステップS32において、データ管理装置103は、図示しないHDDに記録されているメタデータのうち、認識した電話番号に対応するメタデータに、上述のテープ位置情報を付加して記録する。
【0223】
以上の説明では、取材地名,撮影者,ジャーナリスト,ディレクター,内容に関する記述,取材開始日時,取材終了日時,プロデューサー,ニュース取材項目,NCS IDのなかから、撮影者,ジャーナリスト,取材開始日時,ニュース取材項目,NCS IDを例示して説明したが、ディレクター,内容に関する記述,取材終了日時,プロデューサーに関しても同様である。
【0224】
また、撮像装置101によって生成され、自動的に付加して入力されるメタデータがある。具体的には、図9乃至図11に示すメタデータのうち、取材位置(GPS緯度),取材位置(GPS経度),取材位置(GPS高度),取材位置(GPS時刻),取材地名,UMID(ビデオ),UMID(オーディオ),撮影者,ジャーナリスト,グットショットマーカ,カメラセットアップ情報,機材ID,テイクナンバー,素材開始タイムコード,内容に関する記述,オーディオチャンネル割,オーディオタイプ,取材開始日時,取材終了日時,ファイル所有権者,ショットナンバー,収録端末,収録ポート,リールナンバー,権利,ニュース取材題目を表すメタデータである。
【0225】
このように、記録媒体及びデータ管理装置103に、素材データに関する情報を表すメタデータとテープ位置情報とを記録することによって、記録媒体に記録される素材データを、直ちに検索して編集を行うことが可能となる。
【0226】
撮像装置101によって収集され、記録媒体に記録された素材データ及びメタデータは、図8に示す記録再生装置106によって再生され、SDIフォーマットのデータとして素材蓄積装置108へと供給される。素材蓄積装置108において、SDIフォーマットで伝送された映像データ,音声データ及びメタデータはそれぞれ分離され、記録部173へと記録される。
【0227】
このとき、コントローラ176は、必要に応じてメタデータの内容を変更し、新たなメタデータの生成を行う。新たに生成されるメタデータとしては、図9乃至図11に示すUMID(ビデオ),UMID(オーディオ),UMID(データ),UMID(システム),グッドショットマーカ,テイクナンバ,素材開始タイムコード,内容に関する記述,有効期限,オーディオチャンネル割,オーディオタイプ,ソース情報,収録フォーマット,圧縮率,オーディオチャンネル数,オーディオ圧縮率,オーディオサンプリング周波数,オーディオデータサイズ,収録方法,マテリアルID,サブキー,ファイルの長さ,取材開始日時,取材終了日時,収録オペレータ,ファイル所有権者,ショットナンバー,取材期間,GOPサイズ,解像度,エッセンスサイズ,オブジェクトタイプ,インデックス,インデックスの種類,インデックスメモ,シーンナンバー,リールナンバー,権利,NCS ID,ファイルステータスを表すメタデータが挙げられる。
【0228】
このように、素材蓄積装置108において、素材を一時的に蓄える際に、素材を明確に識別するための上述のようなメタデータを、素材蓄積装置108の記録部173及び記録媒体に付加して入力することにより、素材データを直ちに検索して編集を行うことが可能となる。
【0229】
素材蓄積装置108に一時的に記録される映像データ,音声データ及びメタデータは、必要に応じたタイミングで編集装置109へと送られる。
【0230】
一方、統合管理装置111に接続される記者用端末112において、記者により粗編集及び記事作成が行われる。記者用端末112を介して、粗編集が行われ、作成された記事が入力される際に、図9乃至図11に示すエディティングデシジョンリスト,スクリプトを表すメタデータが付加されて入力される。
【0231】
また、このとき、編集装置109では、図7に示したように、上述のメタデータのうち、例えば取材位置(GPS緯度),取材位置(GPS経度),取材位置(GPS高度),取材時刻(GPS時刻),ニュース取材題目,スクリプトを表すメタデータ使用して、CG合成画面を自動的に作成する。
【0232】
記者用端末112では、自動的に作成されたCG合成画面から、ジャーナリストが、粗編集を行って、CG合成画面を自由に編集することが可能である。
【0233】
このとき、自動的に合成されたCG合成画面は、GUI(Graphical User Interface)画面を操作することによって編集することができる。GUI画面における編集の動作を、図25、図26及び図27を用いて説明する。
【0234】
図24は、自動的に作成されたCG合成画面の編集を行うGUI画面200を模式的に示している。図25において、画像201は、CG合成を開始するフレームを示している。画像202は、CG合成を終了するフレームを示している。合成画像203は、自動的に作成されたCG合成画面を示している。手動選択ボタン204は、CGが合成される位置変更を手動で行うための画面に切り換える選択を行うためのボタンである。テンプレート選択ボタン205は、CGの合成位置を変更するためのボタンである。テンプレート206,207,208,209,210及び211は、CGの合成位置の各パターンを示している。図25においては、枠が付されているテンプレート208の位置パターンで表示されている。スクロールバー212は、テンプレート206乃至211を選択するためのスクロールバーである。
【0235】
CG合成画面の編集は、図26及び図27に示す工程に基づいて行われる。図26及び図27に示す工程は、テンプレート選択ボタン205が選択されて、用意されたテンプレートに基づいてCG合成画面を表示する処理について示している。
【0236】
画像データに関する地図を合成して表示する場合の処理を、図26を用いて説明する。
【0237】
ステップS40において、画像データと位置情報を表すメタデータとが入力される。続いて、ステップS41において、メタデータが示す位置情報に基づいて、図示しないが地図等を記録している記録サーバから位置情報に対応する地図が読み出される。ステップS42において、自動的にCG合成画面が作成される。
【0238】
続いて、ステップS43において、テンプレートの変更が指示されると、ステップS44において、指示に従ってテンプレートに基づいたCG合成画面が表示される。
【0239】
一方、画像データに関する時刻情報、或いはタイトルを合成して表示する場合の処理を、図27を用いて示す。時刻情報,タイトル等は、これらを示すメタデータがそのまま使用される。即ち、ステップS50において、画像データと時刻情報及びタイトル情報としてのメタデータとが入力される。続いて、ステップS51において、自動的にCG合成画面が作成される。
【0240】
続いて、ステップS52において、テンプレートの変更が指示されると、ステップS53において、指示に従ってCG合成画面が変更されて表示される。
【0241】
例えば、時刻情報及びタイトルの字体、文字サイズ等の情報を記録サーバから読み出して表示する場合もある。
【0242】
上述のように、GPSによって検出される位置情報を示すメタデータと、記事内容を示すメタデータとを使用することによって、記録サーバから地図情報や画面に表示する文字等を抽出し、これらを用いて自動的にCG合成画面を行うことが可能となる。
【0243】
粗編集に続いて、編集装置109において本編集が行われる。本編集では、粗編集された素材を、実際に放送する状態にするために更に厳密な編集が行われる。編集に伴って、具体的には、図9乃至図11に示すメタデータのうち、ディレクター,プロデューサー,エディティングデシジョンリストを表すメタデータが新たに入力される。上記以外のメタデータは、前段階で使用されたメタデータ、或いは前段階で入力されたメタデータが再度使用されるものである。このときメタデータとして記述された種々の情報が編集に用いられる。
【0244】
記者用端末112において入力されたEDL_Information,Scriptを表すメタデータは、編集装置109における本編集処理で確定される。
【0245】
編集装置109において編集された放送用素材は、マルチプレクサ117において、オーサリング端末115及びメディアキャスター116で付加される他の情報と混成され、図8における送出部119へと送られる。
【0246】
送出部119から放送用素材を送出する処理は、図1における放送工程44に相当するものである。送出部119では、変更日時,ディストリビューションフラグを表すメタデータが新たに入力される。上記メタデータは、前段階で使用されたメタデータ、或いは前段階で入力されたメタデータが、放送工程44において再度使用されるものである。
【0247】
送出部119から送出される際には、図9乃至図11に示されるメタデータのうち、受信側で必要とされるメタデータが抽出されて送信されている。
【0248】
放送用素材は、送出された後、保管用記録装置114に記録され、統合管理装置111によって管理される。保管用記録装置114に放送用素材を記録する際に、新たに入力されるメタデータとしては、保管日時,アーカイブオペレーター,アーカイブ端末,アーカイブフラグ,コンパイルフラグがある。
【0249】
上記以外のメタデータは、前段階で使用されたメタデータ、或いは前段階で入力されたメタデータが、保管段階において再度使用される。
【0250】
以上、詳細に説明した画像処理システム1は、放送局においてニュース番組を制作する際に、撮影前段階10,撮影制作段階20,撮影後処理段階30,放送段階40,保管段階50の各段階において、映像データ及び音声データを識別するためのメタデータを記録媒体、或いは記録装置に記録することにより、これらの素材を編集する際に素材データを直ちに検索して編集を行うことが可能となる。
【0251】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0252】
【発明の効果】
以上詳細に説明したように本発明に係る画像処理システムは、撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録する記録手段から、該映像データ、音声データ及び第1のメタデータが入力される入力処理手段と、上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成手段と、上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを上記メタデータ生成手段で生成された第2のメタデータとともに記録するデータ蓄積手段と、上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理手段とを備える素材蓄積装置と、上記出力処理手段から出力された第1のメタデータ及び第2のメタデータに基づいて、上記出力処理手段から出力された映像データ及び音声データを編集する編集装置と、上記編集装置により編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録装置とを備え、上記保管用データ記録装置では、上記編集装置からの要求に応じて、該保管用データ記録装置に保管されている映像データ及び音声データが取り出される。
【0253】
上記別のメタデータとしては、素材データの供給源を示すソース(Source)、データストリームの形式を示すフォーマット(Format)、映像の圧縮を示すビデオ・ビット・レイト(Video Bit Rate)、映像がMPEG形式の場合の圧縮率を示すジー・オー・ピー・サイズ(GOP Size)、解像度を表すレゾリューション(Resolution)、音声データのチャンネル数を表すオーディオ・ナンバ・オブ・チャンネル(Audio Number of Channel)、音声データが圧縮されているか否かを表すオーディオ・コンプレッション(Audio Compression)、オーディオサンプリング周波数を表すオーディオ・サンプリング・レイト(Audio Sampling Rate)、音声データのサイズを表すオーディオ・データ・サイズ(Audio Data Size)、収録方法を示すレック・タイプ(REC_Type)、既存の画像処理システムにおいて使用されている素材を識別するためのIDを示すマテリアル・ID(Material_ID)、素材に対して、数回の編集等を施す間に変形したか否か等を示すサブ・キー(Sub Key)、素材データの種類を示すIDであるユーミッド・データ(UMID(Data))、ユーミッド・オーディオとユーミッド・ビデオとを纏めたユーミッド・システム(UMID(System))、素材の長さを表すファイル・レングス(File Length)、映像及び音声データを含むファイル全体のサイズ表したエッセンシャル・サイズ(Essence_Size)、映像及び音声データを含むファイル全体のサイズ表したエッセンシャル・サイズ(Essence_Size)、映像データが静止画であるか否かを示すオブジェクト・タイプ(Object Type)、素材データの有効期限を示すバリッド・デイト(Valid Date)を表すメタデータが挙げられる。
【0254】
したがって、付加情報としてのメタデータを画像データ及び音声データとともに記録することによって、放送局においてニュース番組を制作する際に、画像データ及び音声データを識別することができる上、素材の編集を行う際に、素材データを直ちに検索することが可能となる。
【0255】
以上詳細に説明したように本発明に係る素材蓄積方法は、撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録手段に記録する記録工程と、上記記録手段に記録された映像データ、音声データ及び第1のメタデータが入力処理手段に入力される入力処理工程と、上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成工程と、上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを、上記メタデータ生成工程で生成された第2のメタデータとともにデータ蓄積手段に記録するデータ蓄積工程と、上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理工程と、上記出力処理工程で出力された第1のメタデータ及び第2のメタデータに基づいて、上記映像データ及び音声データを編集する編集工程と、上記編集工程で編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録工程とを有し、上記保管用データ記録工程では、上記編集工程からの要求に応じて、上記データ蓄積工程で記録された映像データ及び音声データが取り出される。
【0256】
したがって、付加情報としてのメタデータを画像データ及び音声データとともに記録することによって、放送局においてニュース番組を制作する際に、画像データ及び音声データを識別することができる上、素材の編集を行う際に、素材データを直ちに検索することが可能となる。
【図面の簡単な説明】
【図1】取材計画を立てて、取材を行い、取材で得た素材を編集して放送し、これを保管するまでの一連の工程を説明する説明図である。
【図2】計画工程で生成されるメタデータの具体例を示す図である。
【図3】計画工程から取材工程に移行する段階で、基地局から撮像装置に対して伝送されるメタデータの具体例を示す図である。
【図4】 (a)は、撮影時に撮像装置において入力されるメタデータの具体例を示す図であり、(b)は、素材蓄積装置に記憶される際に入力されるメタデータの具体例を示す図である。
【図5】 (a)は、撮影時に撮像装置において入力されるメタデータの具体例を示す図であり、(b)は、NCSにおいて仮編集が行われる際に入力されるメタデータの具体例を示す図である。
【図6】 (a)は、撮影時に撮像装置において入力されるメタデータの具体例を示す図であり、(b)は、本編集工程で入力及び変更されるメタデータの具体例を示す図である。
【図7】自動的にCG合成画面が作成される際に使用されるメタデータの具体例を示す図である。
【図8】本発明の実施の形態の一構成例として示す画像処理システムの具体的な構成を示すブロック図である。
【図9】本発明の実施の形態の一構成例として示す画像処理システムにおいて使用されるメタデータを示す図である。
【図10】本発明の実施の形態の一構成例として示す画像処理システムにおいて使用されるメタデータを示す図である。
【図11】本発明の実施の形態の一構成例として示す画像処理システムにおいて使用されるメタデータを示す図である。
【図12】本発明の実施の形態の一構成例として示す画像処理システムのデータ伝送フォーマットとして用いられるSDIフォーマットを説明する模式図である。
【図13】本発明の実施の形態の一構成例として示す画像処理システムのデータ伝送フォーマットとして用いられるSDTIフォーマットを説明する模式図である。
【図14】本発明の実施の形態の一構成例として示す画像処理システムのデータ伝送フォーマットとして用いられるSDTI-CPフォーマットを説明する模式図である。
【図15】本発明の実施の形態の一構成例として示す画像処理システムのデータ伝送フォーマットとして用いられるKLVフォーマットを説明する模式図である。
【図16】本発明の実施の形態の一構成例として示す画像処理システムのデータ伝送フォーマットとして用いられるUMIDのフォーマットを説明する模式図である。
【図17】本発明の実施の形態の一構成例として示す画像処理システムの撮像装置、基地局、データ管理装置の具体的な構成を示すブロック図である。
【図18】本発明の実施の形態の一構成例として示す画像処理システムの記録再生装置の具体的な構成を示すブロック図である。
【図19】本発明の実施の形態の一構成例として示す画像処理システムの素材蓄積装置の具体的な構成を示すブロック図である。
【図20】本発明の実施の形態の一構成例として示す画像処理システムの編集装置の具体的な構成を示すブロック図である。
【図21】本発明の実施の形態の一構成例として示す画像処理システムにおいて、データ管理装置から送信されるメタデータを撮像装置が受信するときの処理を示すフローチャートである。
【図22】本発明の実施の形態の一構成例として示す画像処理システムにおいて、使用されるメタデータを説明する図である。
【図23】本発明の実施の形態の一構成例として示す画像処理システムにおいて、データ管理装置が、メタデータを受信するときの処理を説明するフローチャートである。
【図24】本発明の実施の形態の一構成例として示す画像処理システムにおけるデータ管理装置が、メタデータを更新するときの処理を説明するフローチャートである。
【図25】本発明の実施の形態の一構成例として示す画像処理システムにおいてCG合成画面を作成するためのグラフィカル・ユーザ・インターフェイスを説明する模式図である。
【図26】本発明の実施の形態の一構成例として示す画像処理システムにおいて、編集装置が位置情報に基づいて地図を検索し、画像データに合成するときの処理を示すフローチャートである。
【図27】本発明の実施の形態の一構成例として示す画像処理システムにおいて、編集装置が時間情報及びタイトルを表示するときの処理を示すフローチャートである。
【符号の説明】
0 画像処理システム、10 撮影前段階、11 計画工程、20 撮影制作段階、21 取材工程、22 素材蓄積工程、23 ボイスオーバ工程、30 撮影後処理段階、31 CG作成工程、32 本編集工程、40 放送段階、41 クローズドキャプション工程、42 生中継、43 オートメーション工程、44 放送工程、50 保管段階、51 仮保管工程、52 保管工程、60NCS、101 撮像装置、102 携帯型電話機、103 データ管理装置、104 基地局、105 記録媒体筐体、106 記録再生装置、107 モニタ、108 素材蓄積装置、109 編集装置、110 モニタ、111 統合管理装置、112 記者用端末、113 入出力端末、114 保管用記録装置、115 オーサリング端末、116 メディアキャスタ、117 マルチプレクサ、118 送出用映像音声記録装置、119 送出部、120 セットトップボックス、121 テレビジョン受像装置、131 画像音声入力部、132 操作部、133 HDD、134 記録部、135 マルチプレクサ、136 アンテナ、140 マイクロコンピュータ、141 マイクロコンピュータ、142 通信部、151 入力端子、152 出力端子、153 入力処理部、154 圧縮符号化/復号部、155 出力処理部、156 エラー訂正処理部、157 チャネルコーディング部、158 記録再生部、159 機構部、160 操作部、161 端子、162 コントローラ、171 入力部、172 エンコーダ、173 記録部、174 デコーダ、175 出力部、176コントローラ、181 入力操作部、182 入力処理部、183 記録部、184 音声ミキサ、185 特殊効果処理部、186 出力処理部、187 制御部、188 メモリ
[0001]
BACKGROUND OF THE INVENTION
The present invention records video data, audio data, and metadata. Image processing system And a material storage method.
[0002]
[Prior art]
When an image pickup apparatus records image data, a technique for recording additional information corresponding to the editing point on a recording medium along with the image data to be recorded is becoming widespread. The editor can search for necessary editing points by referring to the additional information.
[0003]
Conventionally, this additional information has been input by a photographer operating an input device provided in the imaging device before photographing. The imaging apparatus records input additional information together with image data on a recording medium.
[0004]
One of the methods for editing video information recorded on a recording medium such as a video tape is offline editing. In offline editing, video information recorded on the original tape is temporarily copied to another recording tape, that is, an editing tape at the shooting site, and the editing points are recorded on the editing tape. etc There is a method of creating edit data and creating a master tape based on the edit data. In off-line editing, a desired master tape can be created without fear of accidentally erasing or rewriting information recorded on the original tape.
[0005]
However, in offline editing, editing work is performed using an editing tape that is a copy of the original tape, so there is a problem that it takes time and effort to copy the information recorded on the original tape to the editing tape. .
[0006]
Therefore, as one method for solving the above problems, information on the original tape is temporarily copied to a recordable recording medium such as a hard disk and can be randomly accessed. There is a method of creating edit data using the copy information.
[0007]
[Problems to be solved by the invention]
However, since it is troublesome to input additional information for a photographer who should focus on shooting, input of additional information is performed even though the imaging apparatus has a function of inputting additional information. There were many things that I didn't.
[0008]
On the other hand, various contents data such as video data and audio data can be distributed along with the spread of communication using a network such as the so-called Internet, in which a plurality of networks are connected by packet communication to each other. It is becoming.
[0009]
Accordingly, it is necessary for a broadcasting station or the like that produces and broadcasts a program to manage detailed information regarding these pieces of content data even for fragmented video data and audio data. Specifically, various additional information such as information for identifying broadcast material produced as a program at a broadcasting station or the like, information on copyright, and the like need to be distributed along with the content.
[0010]
Therefore, the present invention has been proposed in view of such a conventional situation, and it is possible to record the image data and the audio data together with the additional information for identifying the image data and the audio data. Do Image processing system And a material storage method.
[0011]
[Means for Solving the Problems]
In order to achieve the above-described object, an image processing system according to the present invention uses video data and audio data recorded in an imaging device when the video data and audio data are recorded in the imaging device. And input processing means for inputting the video data, audio data, and first metadata from the recording means for recording together with the first metadata for identifying the video data, and the first metadata is different from the first metadata. Metadata generating means for generating the second metadata, and video data, audio data and first metadata input to the input processing means together with the second metadata generated by the metadata generating means Data storage means for recording, and video data, audio data, first metadata and second metadata recorded in the data storage means are read and output. Edit the video data and audio data output from the output processing means based on the material storage device including the output processing means and the first metadata and the second metadata output from the output processing means. Editing device and storage data recording device for storing video data and audio data edited by said editing device together with third metadata newly input when storing the edited video data and audio data And with In the storage data recording device, the video data and audio data recorded in the material storage device are retrieved in response to a request from the editing device. The
[0012]
In order to achieve the above-described object, the material storage method according to the present invention includes video data and audio data recorded in an imaging device, and the audio data when the video data and audio data are recorded in the imaging device. And a recording step for recording in the recording means together with the first metadata for identifying the video data, and an input for inputting the video data, audio data and first metadata recorded in the recording means to the input processing means A processing step, a metadata generation step for generating second metadata different from the first metadata, and the video data, audio data, and first metadata input to the input processing means, A data storage step for recording in the data storage means together with the second metadata generated in the metadata generation step; and the video data and audio data recorded in the data storage means. An output processing step of reading out and outputting the first metadata and the second metadata, and the video data and audio based on the first metadata and the second metadata output in the output processing step. An editing process for editing data, and a storage for storing the video data and audio data edited in the editing process together with the third metadata newly input when storing the edited video data and audio data Data recording process In the storage data recording step, the video data and audio data recorded in the data storage step are taken out in response to a request from the editing step. The
[0013]
Here, the other metadata includes a source indicating the source of the material data, a format indicating the data stream format (Format), a video bit rate indicating video compression, and a video. GOP Size indicating the compression ratio when MPEG is in MPEG format, Resolution indicating resolution, and Audio Number of Channels indicating the number of channels of audio data (Audio Number of channels) Channel), audio compression indicating whether the audio data is compressed (Audio Compression), audio sampling rate indicating the audio sampling frequency (Audio Sampling Rate), audio data size indicating the size of the audio data ( Audio Data Size), Rec type indicating the recording method (REC_Type), and existing image processing system Material ID (Material_ID) that indicates the ID used to identify the material being used, Sub Key that indicates whether the material has been deformed during several edits, etc. , Umid data (UMID (Data)) which is an ID indicating the type of material data, Umid system (UMID (System)) that combines Umid audio and Umid video, and file length representing the length of the material (File Length), the essential size (Essence_Size) representing the size of the entire file including video and audio data, the essential size (Essence_Size) representing the size of the entire file including video and audio data, and the video data are still images The object type (Object Type) indicating whether or not, and the metadata representing the valid date (Valid Date) indicating the expiration date of the material data are listed It is.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
The image processing system according to the present invention, for example, in a broadcasting station, a video production company, etc., covers video and audio (hereinafter referred to as materials), and edits and processes these materials to produce video for broadcasting. In addition, the image processing system for storing the video includes additional information for identifying the material in detail in each of the image processing processes such as the material gathering process, the editing process, and the storage process. Input to the recording server.
[0015]
The additional information includes metadata. The metadata is data for describing information necessary for identifying the material obtained by the coverage, such as the coverage time, coverage ID, coverage title, photographer name, reporter name, and the like.
[0016]
A case where a news program is produced at a broadcasting station will be described with reference to FIG. However, FIG. 1 illustrates a work flow when producing a news program, and is different from a so-called block diagram showing components such as a device.
[0017]
As shown in FIG. 1, news program production at a broadcasting station includes a pre-production stage (Pri-Production) 10, a production stage (Production) 20, and a post-production stage (Post-production). 30, broadcast stage (Distribution) 40, and archive stage (Archive) 50.
[0018]
Pre-shooting stage 10 is a stage in which producers, directors, announcers, interview staff, etc. make a meeting about the broadcast contents of news programs, etc., determining broadcast items, allocating relay vehicles, interview equipment, and interview crew Etc. are performed. In FIG. 1, this is shown as a planning step 11.
[0019]
The shooting and production stage 20 is a stage for mainly collecting video and audio. In FIG. 1, an acquisition process 21, a material accumulation (ingest) process 22, and a voice over (Voice Over) process are performed. Step 23 corresponds to the photographing production stage 20.
[0020]
The news gathering process 21 indicates “coverage” corresponding to the collection of video and audio. Further, in the material accumulation step 22, accumulation of video and audio (hereinafter referred to as material) obtained by the interview is performed. The material accumulation step 22 corresponds to, for example, storing a video cassette tape or the like on which a material is recorded in a storage shelf, or storing material data in a material accumulation server. In the voice over step 23, voice such as narration is inserted into the video.
[0021]
The post-shooting processing stage 30 is a stage for editing the collected material so that it can be broadcasted. In FIG. 1, a CG (Computer Graphics) creating step 31 and a complete editing step are shown. 32 corresponds to the post-shooting processing stage 30.
[0022]
The CG creation step 31 is to create a video by computer graphics, and to create a map, weather map, characters, etc. to be displayed over the video. Further, the main editing step 32 is to edit the material based on the contents determined in the planning step 11.
[0023]
The broadcast stage 40 is a stage for broadcasting the edited material on air (broadcast). In FIG. 1, a closed caption process 41, a live broadcast 42, an automation process 43, and a broadcast process are performed. 44 corresponds to the broadcasting stage 40.
[0024]
The closed caption process 41 indicates an operation of creating characters for text broadcasting. Live broadcast 42 shows a case where the broadcast is broadcast in real time during the broadcast of the news program. In addition, the automation process 43 indicates a work of automatically generating a news program for broadcasting by mixing the edited material, the closed caption signal, and the video data of the live broadcast 42 under the control of the computer. The broadcast process 44 indicates that the broadcast news program generated in the automation process 43 is transmitted.
[0025]
The storage stage 50 is a stage for storing video data and audio data. In FIG. 1, a temporary storage process (Near Line Archive) 51 and a storage process (Archive) 52 are stored in this storage stage 50. It corresponds to.
[0026]
The temporary storage step 51 shows a case where the edited material that is likely to be used again in the near future is temporarily stored. Moreover, the storage process 52 shows the case where a raw material is stored for a long term.
[0027]
An NCS 60 shown in FIG. 1 represents a Newsroom Computer System (newsroom computer system), and is a place for centrally managing information of the entire newsroom. In NCS60, management of on-air items and material management such as which material is being processed at which stage are performed, and the purchase and sale of materials with other broadcasting stations, etc. are also performed. Yes. In the NCS 60, an article is also written by a reporter from a terminal connected to the NCS 60.
[0028]
Next, an example of metadata input at each stage described above when a news program is produced based on the above-described work flow will be described. The data structure of metadata will be described later.
[0029]
First, in the planning step 11, broadcast items are determined, relay vehicles, news gathering equipment, news crews, etc. are allocated.
[0030]
In the planning step 11, the broadcast content of the news program is examined, and metadata based on the content of the examined news program is input. An example of this metadata is shown in FIG. Examples of metadata determined in the planning step 11 include Gathering_Start_DateTime representing the shooting start time, Gathering_End_DateTime representing the shooting end time, Gathering_Location_Place representing the shooting place name, Photographer representing the photographer name, and information on the reporter. Jurnalist Information, Director representing a news program director, Producer representing a news program producer, Title representing a news coverage subject, Contents for inputting other information related to shooting contents, and NCS (Newsroom Computer System) NCS ID, which is an ID (identifier) set for each news program / broadcast item registered in).
[0031]
In the planning step 11, the metadata exemplified above is written in a memory or the like provided in the NCS 60. Note that the metadata described in the planning process 11 may be changed and rewritten at a stage described later.
[0032]
In the process of shifting from the planning process 11 to the news gathering process 21, metadata is transmitted to a device that conducts the news gathering at the stage of the news gathering process 21, that is, an imaging device. An example of the metadata transmitted here is shown in FIG. The process of shifting from the planning process 11 to the news gathering process 21 can be considered as a period during which the relay vehicle moves toward the news gathering location, for example.
[0033]
In this process, the Gathering_Start_DateTime, Gathering_End_DateTime, Gathering_Location_Place, Photographer, Journalist Information, Director, Producer, Title, Contents, and NCS ID shown in FIG. The metadata is transmitted from the broadcasting station to the imaging device that moves to the coverage location.
[0034]
In the stage of the news gathering process 21, news gathering is performed. An imaging device that records data of a material used in the news gathering step 21 receives metadata by wireless communication and stores it in a memory included in the imaging device. When shooting an image, the imaging device reads the above-mentioned metadata from the memory and records it on a recording medium together with the video data and the audio data. At this time, the imaging apparatus automatically generates new metadata in addition to the metadata transmitted from the broadcasting station, and inputs the new metadata together with the above-described metadata. An example of newly input metadata is shown in FIG.
[0035]
As metadata newly input in the news gathering process 21, in addition to the metadata shown in FIG. 3, Gathering_Location_Latitude (GPS latitude) / Gathering_Location_Longitude (GPS longitude) indicating location information detected by GPS (Grobal Positioning System) -Gathering_Location_Altitude (GPS altitude), Gathering_Location_Time (GPS Time) indicating the time detected by GPS, Gathering_Location_Place (location name) indicating the location name of the coverage location, equipment ID that is the ID of each imaging device, lens information, etc. Camera Setup Imformation, Reel Number that identifies the recording medium, Duration (Time) that indicates the time required for shooting, SOM (Start Of Material) that indicates the start time of each scene, and manually entered mark points Good Shot Mark & REC Start Mark, Audio Channel Information indicating microphone assignment, Audio Type indicating audio recording method, and UMID (Audio And a UMID (Video), include Copyright like representing the copyright.
[0036]
The above metadata is input to the recording medium and the dedicated recording server. The above-mentioned metadata generated and changed in the stage of the news gathering process 21 may be transmitted to the NCS 60.
[0037]
The material collected in the news gathering process 21 is accumulated in the material recording server until there is an opportunity for use through the material accumulation process 22. FIG. 4B shows an example of metadata input to the recording medium in the material accumulation process 22.
[0038]
In the material accumulation step 22, in addition to the metadata illustrated in FIG. 4A, a Source representing the source of the material data, an STC (Start Of Contents) representing the start time of the material data, and a data stream format are provided. Format, indicating Video Bit Rate indicating video compression rate, GOP (Group Of Pictures) Size indicating picture group when video data is MPEG compressed, Resolution indicating resolution, and number of channels of audio data Number of Audio Channels to be represented, Audio Compression indicating whether audio data is compressed, Audio Sampling Rate indicating the audio sampling frequency, Audio Date Size indicating the size of the audio data, REC_Type indicating the recording method, and existing Material ID that identifies the material used in the image processing system, Sub Key that indicates whether the content has been changed when editing, and material data UMID (Data) that describes information, UMID (System) that represents the ID of UMID (Audio) and UMID (Video), File Length that represents the length of the material in time, and the size of the entire file The Essence_Size, the Object Type indicating whether the video data is a still image, or whether it is audio data or video data, Valid Date indicating the expiration date of the material, and the like are input.
[0039]
The metadata shown in FIGS. 4A and 4B is recorded together with image data and audio data on a recording medium, and may be separated from the image data and audio data and managed by the NCS 60 or the like.
[0040]
The metadata and material data generated and recorded at each stage of the planning process 11, the news gathering process 21, and the material accumulation process 22 described above are used when the journalist performs rough editing and article creation.
[0041]
FIG. 5B illustrates metadata used and input when a reporter performs rough editing, article creation, and the like. FIG. 5A shows metadata input mainly in the imaging apparatus, and FIG. 5B shows metadata input mainly in the material accumulation step 22. In addition to these, new metadata is input.
[0042]
Gathering_Start_DateTime, Gathering_End_DateTime, Gathering_Location_Place, Photographer, Journalist Information, Director, Producer, Title, Contents, NCS ID, Gathering_Location_Latitude (GPS latitude), Gathering_Location_Longitude (GPS longitude), Gathering_Location_Altitude (GPS longitude), Gathering_Location_Altitude (GPS longitude) , Gathering_Location_Time (GPS Time), Gathering_Location_Place (place name), equipment ID, Camera Setup Imformation, Reel Number, Duration (Time), SOM, Good Shot Mark & REC Start Mark, Audio Channel Information, Audio Type, UMID (Audio), UMID (Video), Copyright, Source, STC, Format, Compression rate (Video Bit Rate), GOP Size, Resolution, Number of Audio Channels, Audio Compression, Audio Sampling Rate, Audio Date Size, REC_Type, Material_ID, Sub Key, UMID (Data ), UMID (System), File Length, Essence_Size, Object Type, and Valid Date metadata are the planning process 11, the coverage process 21, and the material accumulation process 2. These metadata are used in coarse editing. Some of these metadata are rewritten by rough editing.
[0043]
Examples of metadata newly input at the stage of rough editing and article creation performed by a reporter include EDL (Editing Decision List) Information representing information related to editing contents and Script describing an article manuscript.
[0044]
In the main editing step 32, based on the content determined in the planning step 11, the main editing is performed using the material from the voice over step 23 and the material accumulated in the recording server in the material accumulating step 22. The news program video (hereinafter referred to as “broadcasting material”) to be broadcast is produced. At this time, the CG image created in the CG synthesis 15 and the material stored in the storage step 52 and the temporary storage step 51 may be used. FIGS. 6A and 6B illustrate metadata used when the main editing is performed. 6A shows metadata input mainly in the imaging apparatus, and FIG. 6B shows metadata input mainly in the material accumulation step 22. In addition to these, new metadata is input or the contents are rewritten.
[0045]
Gathering_Start_DateTime, Gathering_End_DateTime, Time Zone, Gathering_Location_Place, Photographer, Journalist Information, Director, Producer, Title, Contents, NCS ID, Gathering_Location_Latitude (GPS latitude), Gathering_Location_Longitude (GPS longitude), Gathering_Location_Altitude (GPS altitude), Gathering_Location_lace_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location_Location (Name), Equipment ID, Camera Setup Imformation, Reel Number, Reel Number, Duration (Time), SOM, Good Shot Mark & REC Start Mark, Audio Channel Information, Audio Type, UMID (Audio), UMID (Video), Copyright , Source, STC, Format, Compression rate (Video Bit Rate), GOP Size, Resolution, Number of Audio Channels, Audio Compression, Audio Sampling Rate, Audio Date Size, REC_Type, Material_ID, Sub Key, UMID (Data), UMID (System ), File Length (Time), Essence_Size (Byte), Object Type, Valid Date, EDL Information, Script metadata, planning process 11, 21, is intended to be generated and used in rough editing by material accumulating process 22 and the press. These metadata are used when the material is edited in the editing step 32.
[0046]
Some of these metadata can be rewritten by this editing. In the editing process 32, metadata mainly representing EDL Information and Script is rewritten and determined according to the edited content.
[0047]
On the other hand, in the CG creation step 31, a weather map, a map, characters, and the like to be displayed overlaid on the video are created by computer graphics. At this time, the CG composition screen is automatically created based on the metadata indicating the position information. This is shown in FIG.
[0048]
The metadata used here includes, for example, location information such as Gathering_Location_Latitude (GPS latitude), Gathering_Location_Longitude (GPS longitude), Gathering_Location_Altitude (GPS altitude), Gathering_Location_Time (GPS Time), etc., which are input by the photographing apparatus in the coverage process 21 stage. And metadata such as Script and Title.
[0049]
Based on the Gathering_Location_Latitude (GPS latitude), Gathering_Location_Longitude (GPS longitude), and Gathering_Location_Altitude (GPS altitude) metadata recorded in the material, a map of the area corresponding to these location information is automatically generated from the database that stores the map. Extracted. The time is automatically displayed with reference to Gathering_Location_Time (GPS Time).
[0050]
The CG composition screen automatically created in this way can be freely edited by the editor in a CG composition GUI (Graphical User Interface) for editing.
[0051]
In the subsequent automation step 43, in addition to the edited video, the closed caption signal generated in the closed caption step 41, the CG composite screen, and the video data broadcasted by the relay video from the live broadcast 42 are added. , Audio data and metadata are synthesized.
[0052]
Here, the metadata that is synthesized and transmitted together with the video and audio data is metadata that is generated and used in the planning step 11, the coverage step 21, the material accumulation step 22, the rough editing by the reporter, and the main editing step 32.
[0053]
In particular, Gathering_Start_DateTime, Gathering_End_DateTime, Time Zone, Gathering_Location_Place, Photographer, Journalist Information, Director, Producer, Title, Contents, NCS ID, Gathering_Location_Latitude (GPS latitude), Gathering_Location_Longitude (GPS longitude), Gathering_Location_Altitude (GPS altitude) , Gathering_Location_Place (place name), equipment ID, Camera Setup Imformation, Reel Number, Reel Number, Duration, SOM, Good Shot Mark & REC Start Mark, Audio Channel Information, Audio Type, UMID (Audio), UMID (Video), Copyright Can be mentioned. Source, STC, Format, Compression rate (Video Bit Rate), GOP Size, Resolution, Number of Audio Channels, Audio Compression, Audio Sampling Rate, Audio Date Size, REC_Type, Material_ID, Sub Key, UMID (Data), UMID (System) , File Length, Essence_Size, Object Type, Valid Date, EDL Information, and Script metadata required for viewers receiving broadcast material can be extracted and transmitted.
[0054]
The news program synthesized in the automation step 43 is aired (broadcast) in the broadcasting step 40.
[0055]
The broadcasted video data, audio data, and metadata are temporarily stored for a certain period in the temporary storage step 51 and then stored for a long period in the storage step 52. The stored material is appropriately extracted from a storage recording device or the like and used.
[0056]
At this time, the additional information of the material described as metadata can be used as a material-specific identifier for identifying the material. Further, by referring to the additional information input as metadata, for example, an editor / reporter can immediately search for a desired material.
[0057]
An image processing system that performs image processing based on the work flow described above will be specifically described with reference to FIG. The image processing system 1 is provided with each device for collecting, editing, and storing materials (video and audio), and records additional information for identifying the materials in detail in the processing steps of each device. It is input to a medium or a dedicated recording server. Here, a case where a news program is produced is shown.
[0058]
The image processing system 1 includes an imaging device 101 that records video and audio as video data and audio data on a recording medium, and a portable type that inputs additional information via a base station described later and transmits the additional information to the imaging device 101 A telephone 102, a data management apparatus 103 that transmits additional information to the base station, and a base station 104 that relays data transmitted from the data management apparatus 103 to the portable telephone 102 are provided.
[0059]
In addition, the image processing system 1 includes a recording medium housing 105 having therein a recording medium on which video data and audio data are recorded and / or reproduced, and a recording / reproducing apparatus 106 that reproduces data recorded on the recording medium. A monitor 107 that displays the operation and playback video in the recording / playback device 106, a material storage device 108 that temporarily stores the played video data and audio data, and an editing device 109 that edits the material. And a monitor 110 for displaying an operation and an edited image in the editing device 109.
[0060]
In addition, the image processing system 1 is connected to an integrated management apparatus 111 that performs material management in the system, a reporter terminal 112 for which a reporter or the like inputs information on the material, and another network to input information. And an input / output terminal 113 that performs output.
[0061]
In addition, the image processing system 1 includes a storage recording device 114 that stores the produced broadcast material, an authoring terminal 115 that generates and adds information unrelated to the time axis of the broadcast material, and an authoring terminal 115. The media caster 116 for adding distribution data for distribution to the information generated in the above, the broadcast material edited by the editing device 109, information not related to the time axis, and the distribution data are mixed. A multiplexer 117, a transmission video / audio recording device 118 that temporarily records broadcast material for transmission, a transmission unit 119 that transmits the broadcast material generated by the multiplexer 117, and a broadcast transmitted from the transmission unit 119 A set-top box 120 for receiving the broadcasting material and a television receiver 121 for receiving and displaying the broadcasting material. That.
[0062]
Further, when the image processing system 1 performs photographing, storage, editing, storage, etc. of the material in each of the imaging device 101, the material storage device 108, the editing device 109, and the storage recording device 114, the additional information regarding the material is obtained. Is input together with video data and audio data (hereinafter referred to as material data), thereby enabling the material to be clearly identified.
[0063]
9 to 11 show specific examples of metadata input as additional information. 9 to 11 are divided for convenience, they are a series of diagrams.
[0064]
In FIG. 9 to FIG. 11, the periods indicated as “F”, “T”, “Sh”, “Sc”, “M”, and “P” represent metadata change periods. That is, “F” (Frame) is metadata that is changed in one frame period of video continuously shot every 1/30 seconds, and “T” (Take) is metadata that is changed for each take. It is data. “Sh” (Shot) is metadata that is changed in a shot cycle. “Sc” (Scene) is metadata that is changed in a scene cycle, and “M” (Media) is metadata determined for each recording medium. “P” (Project) is metadata determined for each news program.
[0065]
In addition, FIG. 9 to FIG. 11 show Japanese notation and English notation for explaining metadata. Further, the metadata already defined by SMPTE (Society of Motion Picture and Television Engineers, Inc) shows an actual value such as “07 01 05 02 04 00 00 00” in the SMPTE Dictionary column.
[0066]
The metadata shown in FIGS. 9 to 11 will be specifically described.
[0067]
Gathering_Location_Latitude is metadata that represents latitude detected by GPS (Grobal Positioning System), Gathering_Location_Longitude is metadata that represents longitude detected by GPS, and Gathering_Location_Altitude is metadata that represents altitude detected by GPS Gathering_Location_Time is metadata representing the time detected by GPS. These GPS position information is generated from time to time by a GPS receiver 138 provided in the imaging apparatus 101. In addition, time information detected by GPS is represented by UTC (Coordinated Universal Time; adjusted Greenwich mean time), and includes time zone information representing a time difference from UTC. For example, in Japan, the time difference from UTC is 9 hours, so information indicating +9 is included.
[0068]
Gathering_Location_Place is metadata representing the place name of the coverage location.
[0069]
UMID (Audio) and UMID (Video) are IDs determined so as to be unique all over the world to identify materials. Details of UMID will be described later.
[0070]
UMID (Data) is metadata for describing information about material data. Unlike UMID (Audio) and UMID (Video), which are described by the imaging device at the time of coverage, whether video data is a still image. ID indicating whether it is a graphic, closed caption signal, audio data is MIDI (Musical Instrument Digital Interface), or the like.
[0071]
UMID (System) represents an ID in which UMID (Audio) and UMID (Video) attached to a certain material are collected.
[0072]
Photographer is metadata that represents the name of the photographer. Jurnalist Information is metadata in which information about a reporter in charge of coverage is written. Director is metadata representing the director of a news program.
[0073]
Good Shot Mark & REC Start Mark is metadata related to mark points that are manually input during shooting.
[0074]
Camera Setup Imformation is metadata including setting information of a CCD (Charge Coupled Device) provided in the imaging apparatus, lens data describing a lens manufacturer, an aperture value, a lens magnification, and the like, and a crane angle, for example. Camera Setup Imformation is particularly necessary at the stage of CG synthesis 15.
[0075]
The equipment ID is metadata representing an imaging device used for coverage, and has a unique identification number for each imaging device.
[0076]
Take Number is metadata that is changed in the take cycle.
[0077]
The material start time code (Start Of Material) is metadata indicating the start time of each scene.
[0078]
Contents is metadata in which other information related to the shooting contents is input.
[0079]
Valid Date is metadata indicating the expiration date of the material.
[0080]
Audio Channel Information is metadata indicating microphone channel information. Audio Channel Information describes microphone information such that, for example, one channel is assigned to a reporter microphone and two channels are assigned to a partner microphone.
[0081]
Audio Type is metadata indicating whether audio recording is monaural, stereo, or bilingual.
[0082]
Source is the material supplied to the recording server recorded on a recording medium etc. and directly brought into the broadcasting station, or transmitted from the interview location by satellite communication, wireless communication, etc. This is metadata representing a video data supply source such as whether it is distributed from another broadcasting station.
[0083]
Format is metadata indicating the format of the data stream, such as whether it is a DV format, an MPEG_MP @ ML format, or an MPEG_4: 2: 2P @ ML format.
[0084]
Video Bit Rate is metadata indicating a video compression rate.
[0085]
Audio Number of Channel is metadata representing the number of channels of audio data. Audio Compression is metadata indicating whether audio data is compressed.
[0086]
Audio Compression is metadata representing the compression rate of audio data.
[0087]
Audio Sampling Rate is metadata representing an audio sampling frequency.
[0088]
Audio Date Size is metadata that displays the size of audio data by time or the number of bytes.
[0089]
REC_Type is metadata indicating a recording method such as Auto, Manual, GPI, Endress, and Open End.
[0090]
Material_ID is an ID for identifying a material used in an existing image processing system. That is, Material ID corresponds to UMID and may not be described.
[0091]
Sub Key is metadata indicating Version, Segment, Revision, etc., and indicates whether or not the material has been deformed during several edits.
[0092]
File Length (Time) is metadata for representing the length of a material in time.
[0093]
Gathering_Start_DateTime is metadata representing the time at which shooting starts, and is expressed in UTC. Gathering_End_DateTime is similarly expressed in UTC, and is metadata representing the photographing end time. These time data include Time Zone information representing a time difference from UTC.
[0094]
REC_Start_DateTime is metadata representing the editing start time in UTC when producing the broadcast material in the editing apparatus 109. REC_End_DateTime is metadata representing the end time of editing in UTC. These pieces of time information include Time Zone information representing a time difference from UTC.
[0095]
Recording_Operator is metadata that represents information on an operator who has performed editing in the editing apparatus 109.
[0096]
File_Owner is metadata representing ownership information of material data such as a photographer.
[0097]
Shot Number is metadata that is changed in the shot cycle.
[0098]
Duration (Time) is metadata indicating the time required for shooting.
[0099]
GOP Size is metadata indicating the compression rate when video is compressed in MPEG format.
[0100]
Resolution is 720 * 512, 720 * 480,544 * 480, 480 * 480, 352 * Metadata representing a resolution such as 480.
[0101]
Essence_Size (Byte) is metadata that represents the size of the entire file including video and audio data by the number of bytes, and may be displayed by time.
[0102]
Object Type (Still, Audio, Video, Key Source) indicates an instruction for Still, which indicates whether the video data is a still image, Audio, Video, or telop, which indicates whether the data is audio data or video data. Metadata including data such as Key Source.
[0103]
Index, Index_Type, and Index_Memo are metadata for performing a search.
[0104]
Scene Number is metadata that is changed in a scene cycle.
[0105]
Recording Terminal and REC Port are metadata representing information related to the terminal that performed recording.
[0106]
The Reel Number is metadata for identifying a recording medium on which video data is recorded, and is generated as a different Number every time the same tape is taken in or out of the imaging apparatus.
[0107]
Copyright is metadata indicating the copyright of video data that has been photographed and recorded, and an individual name, a broadcasting station name, or the like is input.
[0108]
Modified_DateTime is metadata that indicates the date when the broadcast material edited by the editing device 109 is changed. OnAir_DateTime is metadata that indicates the date when the broadcast material is on-air. This metadata indicates the date when the material was stored. These are represented by UTC including Time Zone information.
[0109]
Producer is metadata representing the producer of a news program.
[0110]
Archive_Operator is metadata representing the information of the operator who stored the broadcast material.
[0111]
Title is metadata representing the title of a program that uses the subject of photography or the content to be collected (content of the material).
[0112]
Archive Terminal is metadata representing information related to a terminal that stores broadcast materials.
[0113]
The NCS ID is an ID (identifier) set for each news program item / program registered in the NCS (Newsroom Computer System). However, the NCS ID does not indicate an ID for accessing the NCS 60.
[0114]
EDL Information is metadata relating to edited contents. Specifically, the in-point and out-point of the video data to be used are indicated by time or Reel Number, and are described as an edit point list. Script is metadata that mainly indicates the content of a read original.
[0115]
OnAir_Flag is metadata indicating whether or not the edited broadcast material is on air, and OnAir_Counter is metadata indicating how many times the on-air air has been on air.
[0116]
Archive_Flag is metadata indicating whether or not the material collected by the coverage has been stored.
[0117]
Compile_Flag is metadata indicating that the material once stored is re-arranged and re-recorded when the process of whether or not to delete is performed.
[0118]
Distribution_Flag is metadata indicating whether or not the broadcast material is transmitted from a broadcast station other than the own station. The information is also described when the material is bought and sold.
[0119]
File_Status_Bit is metadata representing the status of the material in the material storage device 108 and the editing device 109.
[0120]
By inputting the metadata as described above in the processing steps in each device, the material can be clearly identified by the state of the material and the additional information related to the material.
[0121]
In the image processing system 1, the transmission format for transmitting video data, audio data, and metadata is SDI (Digital Data Transmission Format standardized by Society of Motion Picture and Television Engineers, Inc.). Serial Digital Interface). FIG. 12A shows the configuration of the entire SDI format data.
[0122]
The SDI format includes a 4-dot EAV (End of Video) area indicating end synchronization, a 268-dot ancillary (ANS) area, a 4-dot SAV (Start of Video) area indicating start synchronization, and 1440 dots. Active video area and is composed of 525 lines. However, the numbers in parentheses indicate values defined by the PAL (Phase Alternation Line) method.
[0123]
The active video area is a 9-line vertical blanking section (VBK 1 ) And 10-line optional blanking section (OBK) 1 ) And 244 lines of active video (ACV) 1 ) And 9-line vertical blanking section (VBK) 2 ) And 10-line optional blanking section (OBK) 2 ) And 243 lines of active video area (ACV) 2 ).
[0124]
SDI is a format for transmitting uncompressed digital data such as the so-called D1 and D2 formats. Audio data is stored in the ancillary area, and video data such as D1 and D2 is stored in the active video area. Is transmitting. In the SDI format, the metadata is inserted into the ancillary area and transmitted.
[0125]
FIG. 12B shows one line of the SDI format. When transmitted, data of 10 bits width per line is transmitted after being subjected to parallel-serial conversion and transmission path coding.
[0126]
Further, as a transmission format for transmitting video data, audio data, and metadata in the image processing system 1, SDTI for transmitting compressed data compressed by the MPEG method, DV method, etc. in addition to the SDI format described above. (Serial Digital Transfer Interface) format or SDTI-CP (Serial Digital Transfer Interface-Content Package) format that further restricts the SDTI format may be used.
[0127]
FIG. 13A shows the data structure of the SDTI format. Similar to the SDI format, the SDTI format is a 4-dot EAV (End of Video) area indicating end synchronization, an 268-dot Ancillary (ANC) area, and a 4-dot SAV (Start of Video) indicating start synchronization. ) Area, but an active video area composed of 525 lines in the SDI format is defined as a payload area. However, the numbers in parentheses indicate values defined by the PAL (Phase Alternation Line) method.
[0128]
In SDTI format, the payload area is the blank data part (BDT 1 , BDT 2 ) And data section (DT 1 , DT 2 ), But the number of lines in each data part is not defined.
[0129]
FIG. 13B shows one line of the SDTI format. When transmitted in the SDTI format, data of 10 bits width per line is transmitted after being subjected to parallel-serial conversion and transmission path coding.
[0130]
In the SDTI format, the ancillary area includes 53 words of SDTI header data into which a source address, a destination address, a line number CRC, and the like are inserted. In the SDTI format, metadata is inserted into the area of the ancillary area excluding the SDTI header data.
[0131]
FIG. 14 shows the data structure of the SDTI-CP format. The packet structure in SDTI-CP further restricts the SDTI format, and changes the payload structure to make it easy to insert various data.
[0132]
Data transmitted in the SDTI-CP format includes MPEG (Moving Picture Expert Group) 2 Video Elementary Stream and the like, and various data such as auxiliary data including audio and metadata can be transmitted together.
[0133]
Data to be inserted into the payload is delimited by “items”, and various data are inserted into each item. Specifically, there are four types of items: System Item, Picture Item, Audio Item, and Auxiliary Item.
[0134]
The System Item has areas such as System Item Bitmap, Content Package rate, SMPTE Universal Label, Package Metadata Set, Picture Metadata Set, Audio Metadata Set, Auxiliary Metadata Set, and the like.
[0135]
In the SDTI-CP format, metadata is inserted and transmitted in the Package Metadata Set, Picture Metadata Set, Audio Metadata Set, and Auxiliary Metadata Set areas of the System Item.
[0136]
Metadata is unique data that is added to identify materials such as video data and audio data, and is KLV (Key Length Value) protocol and UMID (Unique Material Identifier) data based on the SMPTE standard. Transmitted by format.
[0137]
The KLV format stores 16-byte Universal Label Data Key describing Universal Label Data, Value Length indicating the data length of metadata stored in the Value area, and actual metadata corresponding to the SMPTE Dictionary. This is a data transmission format having three areas of Value. FIG. 15 shows the KLV format.
[0138]
Universal Label Data Key is a data area for uniquely labeling stored metadata. The Universal Label Data Key further includes a 1-byte Object ID and a UL (Universal Label) Header area that contains the UL (Universal Label) Size, 1-byte UL (Universal Label) Code, SMPTE Design, and Registry, respectively. It is divided into UL (Universal Label) Designatores area including Design, Data Design, and Reference Version, and 9-byte Data Element Tag area.
[0139]
The UMID is an identifier that is uniquely determined to identify video data, audio (voice) data, and other material data. FIG. 16 shows the data structure of UMID.
[0140]
The UMID is a basic UMID as an ID for identifying material data composed of a series of video, audio, and metadata (hereinafter referred to as content), and a signature for identifying each content in the material data. It consists of Extended UMID.
[0141]
Basic UMID has a 32-byte data area, and consists of a 12-byte Universal Label area, a 1-byte Length Value area, a 3-byte Instance Number area, and a 16-byte Material Number area. Yes.
[0142]
The Universal Label area stores codes for identifying digital data, and the details are standardized in SMPTE-298M. The Length Value area indicates the length of the UMID. Since the code length differs between Basic UMID and Extended UMID, it is indicated by 13h in the case of Basic UMID, and is indicated by 33h in the case of Extended UMID. The Instance Number area indicates whether the material data has been overwritten or edited. The Material Number area has three areas and stores a code for distinguishing material data.
[0143]
Time Snap indicated by 4 bytes indicates the number of snap clock samples per day. This indicates the creation time of the material data in units of clocks. The 8-byte Rnd (Random Number) is duplicated when an incorrect time is set, or when the network address of a device defined by IEEE (The Institute of Electrical and Electronics Engineers, Inc.) changes, for example. It is a random number to prevent numbers from being attached.
[0144]
Extended UMID, on the other hand, is an 8-byte Time / Date Code that identifies the time and date when the material was generated, and correction (time difference information) related to the time when the material was generated, as well as latitude, longitude, and altitude. 12 bytes of Spatial Co-oredinates that define the location information to be defined, and the alphabetic code (Country) of the bytes that define country name 4 and the omitted alphabetic characters and symbols. Are composed of a 4-byte Alphnumeric Code (Organization) that defines the organization name and a 4-byte Alphnumeric Code (User) that defines the name of the user who created the material.
[0145]
The Basic UMID and Extended UMID described above do not include metadata indicating the video size, generation number, and the like. In particular, the Material Number does not indicate other information related to the state of the material or the video of the material. Metadata indicating the video size, generation number, etc. is transmitted based on the KLV format.
[0146]
The imaging device 101, mobile phone 102, data management device 103, and base station 104 in the above-described image processing system 1 will be described in detail with reference to FIG.
[0147]
The imaging apparatus 101 receives metadata from the data management apparatus 103 connected to the material management apparatus 108 via the base station 104 and the mobile phone 102. Therefore, the transmission of data between these devices corresponds to the case where the moving imaging device 101 transmits metadata from the broadcasting station in the process of shifting from the planning step 11 to the coverage 12 in FIG.
[0148]
The imaging device 101 is a digital video camera, and includes an image / sound input unit 131 for inputting video and audio, an operation unit 132 for operating the imaging device 101 and inputting metadata, and a microcomputer 140 described later. HDD (Hard Disk Drive) 133 in which the OS (Operating System) and the like are recorded, a recording unit 134 that records at least video and audio on the recording medium 105, and video and audio data and other data are multiplexed. Multiplexer 135, a memory 136 that mainly stores metadata, a Bluetooth device 137 that is a wireless interface with the mobile phone 102, and GPS reception that receives GPS (Global Positioning System) signals and detects position information. Unit 138, antenna 139 for receiving GPS signals, and each of the above-described components And it includes at least a microcomputer 140 which collectively controls.
[0149]
Although not shown, the image / sound input unit 131 includes a circuit for imaging such as a CCD (Charge Coupled Device) and a circuit for recording such as a microphone, and is input based on an instruction from the microcomputer 140. Video and audio are converted into video data and audio data and supplied to the multiplexer 135.
[0150]
The operation unit 132 has various buttons and switches (not shown), and inputs the metadata of the operation of the image pickup apparatus 101 and if necessary.
[0151]
The HDD 133 stores an OS (Operating System) of the microcomputer 140, software for controlling the mobile phone 102, and the like, and the microcomputer 140 reads and uses these data as appropriate. Further, data is written into the HDD 133 by the microcomputer 140.
[0152]
Although not shown, the recording unit 134 has a recording / reproducing head that records and / or reproduces video data, audio data, and metadata on a recording medium. The recording unit 134 controls the video data supplied from the multiplexer 135 under the control of the microcomputer 140. Record on a recording medium. Further, the recording unit 134 detects metadata described in the recording medium based on an instruction from the microcomputer 140 and supplies the metadata to the microcomputer 140.
[0153]
The multiplexer 135 is controlled by the microcomputer 140, multiplexes the video data supplied from the video / audio input unit 131 and the metadata supplied from the microcomputer 140, and supplies the multiplexed data to the recording unit 134.
[0154]
The memory 136 is a so-called EPROM (Erasable and Programmable ROM) that can be erased and written, and stores metadata supplied from the data management device 103 based on an instruction from the microcomputer 140. The memory 136 supplies the stored metadata to the multiplexer 135 based on an instruction from the microcomputer 140.
[0155]
The Bluetooth device 137 is used as a wireless interface with the mobile phone 102 and is controlled by the microcomputer 140 to receive the metadata supplied from the data management device via the mobile phone 102. To do. Further, the Bluetooth device 137 supplies the tape position information output from the microcomputer 140 to the data management apparatus via the mobile phone 102.
[0156]
Bluetooth is short-range wireless communication using 2.4 GHz band radio waves standardized by Ericsson (Sweden), with a maximum transfer rate of 1 Mbit / sec and a modulation method of GFSK (Gaussian Frequency Shift Keying). It is said that. The maximum transmission distance of Bluetooth is 10m (output: 1mW) and 100m (output: 100mW), and these can be used properly depending on the application.
[0157]
The GPS receiver 138 receives a GPS signal via the antenna 139 and detects position information of the imaging device 101. The position information is represented as latitude, longitude, altitude and the like.
[0158]
Although not shown, the microcomputer 140 includes a CPU (Central Processing Unit), a RAM (Random-Access Memory), and a ROM (Read Only Memory), and controls the above-described components in an integrated manner. The operation of the entire digital video camera is controlled in response to the signal. Also, various metadata relating to photographing are generated.
[0159]
On the other hand, the data management apparatus 103 is a computer that is connected to, for example, a telephone network and can communicate with the integrated management apparatus 111. For example, the data management apparatus 103 is connected to a broadcasting station to which a photographer who uses the imaging apparatus 101 belongs. It is what is installed. A microcomputer 141 provided in the data management apparatus 103 controls the overall operation of the data management apparatus 103 in an integrated manner. When the microcomputer 141 controls the communication unit 142 and receives a signal from the imaging device 101 via the mobile phone 102, the microcomputer 141 identifies the telephone number of the mobile phone 102 and the mobile phone that is the transmission source. The imaging device 101 used by the photographer who owns the telephone 102 is recognized. The data management apparatus 103 transmits metadata corresponding to the recognized imaging apparatus 101 to the mobile phone 102.
[0160]
The metadata corresponding to each imaging device 101 to be transmitted is input in advance in the integrated management device 111 or the like shown in FIG. 8 and stored in, for example, an HDD (not shown) provided in the integrated management device 111.
[0161]
A recording / reproducing apparatus 106 shown in FIG. 8 is an apparatus capable of reproducing at least video data and audio data, and is particularly a digital video tape recorder. The configuration of the recording / reproducing apparatus 106 will be described with reference to FIG.
[0162]
The recording / playback device 106 includes an input terminal 151 for inputting video data, audio data, and metadata supplied in SDI format, an output terminal 152 for outputting video data, audio data, and metadata to the outside in SDI format, and SDI. An input processing unit 153 that extracts video data, audio data, and metadata from data input in a format, a compression encoding / decoding unit 154 that performs data compression encoding and decoding (decompression) processing, and the compression code An output processing unit 155 that converts the signal decoded by the encoding / decoding unit 154 into an SDI format and supplies the converted signal to the output terminal 152.
[0163]
Here, the compression encoding / decoding unit 154 performs a compression encoding process using discrete cosine transform.
[0164]
The recording / reproducing device 106 further adds an error correction code to the signal compression-encoded by the compression encoding / decoding unit 154 and performs error correction processing on the signal obtained by reproducing from the recording medium. And an error correction processing unit 156 that outputs to the video signal encoding / decoding unit 154 and an encoding suitable for recording on the recording medium for the signal to which the error correction code is added by the error correction processing unit 156 A channel coding unit 157 that performs a decoding process corresponding to the encoding process on the video signal reproduced from the recording medium and outputs the video signal to the error correction processing unit 156, and is encoded by the channel coding unit 157 The channel coding unit 15 records the recorded signal on the recording medium and reproduces the signal recorded on the recording medium. And a recording and reproducing unit 158 for outputting to.
[0165]
The recording / reproducing apparatus 106 further includes a mechanism unit 159 for loading the recording medium housing 105 and driving the recording / reproducing unit 158, an operation unit 160 for performing various operations by the user, and the recording medium housing 105. A terminal 162 connected to the terminal 105b of the provided nonvolatile memory 105a, a compression encoding / decoding unit 154, an error correction processing unit 156, a channel coding unit 157, a mechanism unit 159, an operation unit 160, and a terminal 161 are connected. Controller 162.
[0166]
In the recording / reproducing apparatus 106, the operation unit 160 is provided with a plurality of switches for performing predetermined instructions, although details are not shown. The plurality of switches include a switch that indicates the start point (mark-in point) of the effective area in each scene or take, a switch that indicates the end point (mark-out point) of the effective area, and OK and NG ( A switch for instructing “No Good”, a take switch for instructing a take number, and other switches for inputting other metadata are provided.
[0167]
The controller 162 in the recording / reproducing apparatus 106 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output unit, and the like (not shown), and stores the RAM in the ROM as a work area. By executing the program, the overall operation of the recording / reproducing apparatus 106 is controlled based on the time code signal.
[0168]
In the above-described recording / reproducing apparatus 106, when the video data recorded on the recording medium is reproduced, or when the reproduced video data is recorded on the material storage apparatus 108, an operation from the operation unit 161 is performed as necessary. Additional information such as mark-in points, mark-out points, and other metadata can be input. The additional information is recorded together with the video data recorded on the nonvolatile memory 105a and the recording medium.
[0169]
A material storage device 108 shown in FIG. 8 is a storage device that temporarily stores additional information such as video data, audio data, and metadata reproduced from the recording / reproducing device 106. The configuration of the material storage device 108 will be described with reference to FIG. In FIG. 19, a solid line indicates that video data, audio data, and metadata are transmitted, and a broken line indicates the flow of a control signal.
[0170]
The material storage device 108 includes an input processing unit 171 that inputs and separates video data, audio data, and metadata transmitted in the SDI format, an encoder (ENC) 172 that encodes video data and audio data, and video data. , A recording unit 173 for recording additional information such as audio data and metadata, a decoder (DEC) 174 for decoding corresponding to the encoder described above, and outputting decoded video data, audio data, and metadata in SDI format And an output processing unit 175 that controls the respective units.
[0171]
The input processing unit 171 is controlled by the controller 176 to extract video data, audio data, and metadata from data input in the SDI format, and supplies the video data and audio data to the encoder 172. The extracted metadata is supplied to the controller.
[0172]
The encoder 172 is controlled by the controller 176 and encodes the video data and audio data input from the input processing unit 171 by the MPEG method for compressing by inter-frame correlation or the DV or JPEG method for intra-frame compression, A signal obtained by encoding is supplied to the recording unit 173.
[0173]
The recording unit 173 is a recording medium such as an HDD (Hard Disk Drive), and records additional information such as video data, audio data, and metadata. The recording unit 173 receives the compressed stream encoded by the encoder 172 and records it. Further, additional information such as metadata supplied from the controller 176 is input and recorded. Such a recording unit 173 includes an A / V data recording unit for recording A / V (Audio / Video) data such as video data and audio data, and additional information for recording additional information such as metadata. And a recording unit.
[0174]
The decoder 174 is controlled by the controller 176, performs a decoding process corresponding to the encoding in the encoder 172 on the data encoded in the encoder 172, and supplies it to the output processing unit 175.
[0175]
The output processing unit 175 is controlled by the controller 176, receives the video data and audio data decoded by the decoder 174, and the metadata from the controller 176, converts these data into an SDI format, and outputs the data.
[0176]
The controller 176 is composed of a CPU, a ROM, a RAM, an input / output unit, a memory and the like (not shown). And control.
[0177]
In addition, the controller 176 manages metadata supplied from the input processing unit 171, changes the content of the metadata as necessary, and generates new metadata. The controller 176 sends the metadata to the output processing unit 175.
[0178]
The editing device 109 shown in FIG. 8 is an editing device for editing video data and audio data (material data), and can edit the material based on information about the material added as metadata. It is a thing. The configuration of the editing device 109 will be described with reference to FIG.
[0179]
The editing device 109 includes an input operation unit 181 that performs operation input for various editing, an input processing unit 182 that inputs material data transmitted in the SDI format, and a recording unit that records video data, audio data, and metadata. 183, an audio mixer 184 that processes audio data, a special effect processing unit 185 that performs special effect processing on video data, an output processing unit 186 that outputs video data, audio data, and metadata in SDI format, A control unit 187 that performs overall control and a memory 188 that stores editing results as metadata are provided.
[0180]
The input operation unit 181 shows a mouse and a keyboard for editing a material from a GUI (Graphical User Interface) displayed on a monitor connected to the editing device 109. From the input operation unit 181, various editing operations, creation of an article manuscript, editing of a CG composition screen, and the like are performed. The input operation can be performed not only by the input operation unit 181 but also from the integrated management apparatus 111 shown in FIG.
[0181]
The input processing unit 182 is controlled by the control unit 187 to input data from the material storage device 108 transmitted in the SDI format standardized in SMPTE, and from this data, video data, audio data, and metadata are input. Extracted and supplied to a recording unit 183 to be described later. Of each data extracted at this time, video data and audio data are compressed by a compression processing unit (not shown) by the MPEG method using inter-frame correlation or the JPEG method and DV method which are intra-frame compression. It may be. Further, the input processing unit 182 extracts a CG screen such as a map from a recording server (not shown) based on the metadata.
[0182]
The recording unit 183 is a recording medium such as an HDD (Hard Disk Drive) or a RAID (Reduntant Array of Inexpensive Disks) composed of a plurality of HDDs, and video data, audio data, and metadata from the input processing unit 182. Record.
[0183]
The audio mixer 184 can simultaneously input a plurality of audio data supplied from the recording unit 183 through an input system of a plurality of channels. For example, the audio level of one audio data is gradually lowered to the other audio data. The voice data is processed so as to shift smoothly. The audio mixer 184 supplies the processed audio data to the recording unit 183.
[0184]
The special effect processing unit 185 can simultaneously input a plurality of pieces of video data supplied from the recording unit 183 through a plurality of channels of input systems. For example, the special effect processing unit 185 applies special effects such as fade-in / fade-out to the video data. . Further, the special effect processing unit 185 supplies the video data subjected to the special effect processing to the recording unit 183.
[0185]
The output processing unit 186 is controlled by the control unit 187, receives the edited video data, audio data, and metadata from the recording unit 183, converts the data into the SDI format, and outputs the SDI format.
[0186]
The control unit 187 controls the above-described units in an integrated manner, manages the metadata supplied from the input processing unit 182, changes the content of the metadata as necessary, and generates new metadata. Do. The control unit 187 sends metadata to the output processing unit 186.
[0187]
The memory 188 stores the editing results performed by the audio mixer 184 and the special effect processing unit 185 as EDL_Information (EDL; Editing Decision List) that is metadata based on the editing results. Further, it is stored as Script based on metadata based on the article manuscript input in the input operation unit 181 or metadata indicating the contents of the article. The created EDL_Information and Script are sent to the output processing unit 186. Here, the editing result indicates information relating to the editing point in which the IN point and OUT point on the recording medium are represented by a Reel Number or a time code.
[0188]
A monitor 107 shown in FIG. 8 inputs video data, audio data, and metadata transmitted in the SDI format, and performs various displays related to video and operations played back by the recording / playback apparatus 106.
[0189]
The monitor 110 shown in FIG. 8 inputs video data, audio data, and metadata transmitted in the SDI format, and displays information and video necessary for editing performed by the editing device 109.
[0190]
The integrated management apparatus 111 shown in FIG. 8 performs overall management of additional information such as video data, audio data, and metadata in the image processing system 1 and overall information in news program production. It is equivalent. Specifically, the integrated management device 111 performs on-air item management and material management such as which material is processed at which stage, and via an input / output terminal 113 connected to the integrated management device 111. To manage the buying and selling of materials with other broadcasting stations. Also, an article created by a reporter is input from the reporter terminal 112 connected to the integrated management apparatus 111.
[0191]
The reporter terminal 112 and the input / output terminal 113 shown in FIG. 8 are in the relationship between the integrated management apparatus 111 and the host and the client, and are connected to the integrated management apparatus 111 that is a host computer. Work is possible. The input / output terminal 113 is connected to an external network, and can exchange various data (sell and buy in some cases) with other terminals existing in the external network. At this time, information such as exchange / sales of various data is also managed by the integrated management device 111.
[0192]
A storage recording device 114 shown in FIG. 8 is a recording device for storing edited broadcast materials, and includes a recording medium such as an HDD. Although not shown here, the storage recording device 114 includes a long-term recording unit that stores broadcast materials for a long period of time and a temporary recording unit that stores broadcast materials that may be used again for a certain period of time. And may be provided. The storage recording device 114 can freely take out recorded broadcast materials in response to requests from the editing device 109, the integrated management device 111, and the like.
[0193]
The authoring terminal 115 shown in FIG. 8 is a terminal for adding information different from the broadcast material on the time axis, such as clothes worn by performers and shopping information related to a watch worn.
[0194]
The media caster 116 shown in FIG. 8 is a terminal for adding additional information such as a homepage address of a store that sells clothes or watches, for example, with respect to information with different time axes added by the authoring terminal 115.
[0195]
The multiplexer 117 shown in FIG. 8 mixes the signal related to the additional information from the media caster 116 and the broadcast material signal in the SDI format from the editing device 109, and finally sends them, that is, the viewer selects A broadcast material is generated as a program structure to be viewed. The multiplexer 117 supplies the broadcast material to the sending unit 119.
[0196]
The sending video / audio recording device 118 shown in FIG. 8 temporarily records broadcasting material for sending in the SDI format sent from the editing device 109, and includes a recording medium such as an HDD. Yes. The sending video / audio recording device 118 supplies the broadcasting material to the sending unit 119.
[0197]
The sending unit 119 sends the broadcast material supplied from the multiplexer 117 and the sending video / audio recording device 118. The sending unit 119 extracts metadata that is considered necessary on the receiving side, among metadata supplied in the SDI format, and sends it out together with video data and audio data.
[0198]
Whereas the configuration described above corresponds to a broadcasting station or the like that produces and transmits a broadcasting material, the set top box 120 and the television receiver 121 receive broadcasting material supplied from the broadcasting station or the like. This is a configuration provided in
[0199]
The set top box 120 is a connection device for connecting various communication terminals, and is a reception device having a bidirectional communication function, an Internet connection function, a CATV connection function, and the like. The set top box 120 receives the radio wave of the broadcast material sent from the sending unit 119 and supplies it to the television receiver 121. The television receiver 121 processes and displays the supplied signal.
[0200]
Next, the operation of each apparatus when producing a news program using the above-described image processing system 1 will be described. First, at the stage of the planning process 11 shown in FIG. Based on the contents of the coverage, the integrated management apparatus 111 shown in FIG. 8 inputs metadata about the coverage. The integrated management device 111 transmits the metadata to the data management device 103 in order to transmit the metadata to the imaging device 101 heading for coverage. Metadata is transmitted to the imaging apparatus 101 by the data management apparatus 103.
[0201]
First, the operation of the imaging apparatus 101 will be described with reference to FIG. When a user who performs shooting using the imaging apparatus 101 operates the operation unit 132 at a predetermined timing to instruct a metadata transfer request, the microcomputer 140 of the imaging apparatus 101 causes the Bluetooth device 137 in step S1. To request the data management apparatus 103 to transfer metadata via the portable telephone 102.
[0202]
The metadata transferred here is metadata determined at the stage of the planning process 11 shown in FIG. 1 and is unique to each coverage. Specifically, the names of the interview places, photographers, journalists, directors, descriptions about the contents, the start date / time of the interview, the end date / time of the interview, the producer, the news coverage item, and the metadata representing the NCS ID correspond to this. To do.
[0203]
However, among the above-mentioned metadata, the metadata other than the description about the contents and the news coverage item is temporarily input metadata, and may be changed in the process described later.
[0204]
This metadata is input from the material management device 108 for each imaging device before the start of the coverage based on the coverage plan before the coverage, and is stored in advance in a recording unit of the material management device 108 (not shown in FIG. 8). Is.
[0205]
Each imaging device is recognized by an ID that is assigned in advance and stored in the memory 136, or the telephone number of the mobile phone 102 that faces the imaging device 101. Accordingly, the metadata of the plurality of imaging devices is managed for each equipment ID of the imaging device or for each telephone number of the mobile phone 102.
[0206]
The metadata shown in FIG. 22 indicates that of the image pickup apparatus 101 that is used for coverage together with the mobile phone 102 whose mobile phone number is, for example, “090-XXXXXX-XXXXXX”. Yes.
[0207]
In this case, the coverage start date is “2000/3/3 9: 00-10: 00”, “2000/3/3 13: 00-14: 00” and “2000/3/3 17: 00-19: 00 ”is shown, and the corresponding NCS IDs are shown as“ 0001 ”,“ 0002 ”, and“ 0003 ”. Corresponding to each NCS ID, “Prime Minister Interview”, “Street Interview” and “Reporter Club Coverage” are shown as news coverage topics. Similarly, photographers and journalists are shown correspondingly.
[0208]
Here, the processing in the data management apparatus 103 when the transfer of metadata is requested from the imaging apparatus 101 in the step S1 will be described with reference to FIG.
[0209]
When the metadata request from the imaging device 101 is received via the mobile phone 102, in step S21, the data management device 103 determines the telephone number of the mobile phone 103 that is transmitting the received metadata or The device ID of the imaging apparatus 101 is recognized.
[0210]
In step S <b> 22, the data management apparatus 103 transmits, to the mobile phone 102, metadata corresponding to the received time among the metadata of the imaging apparatus 101 corresponding to the received mobile phone 102 telephone number. For example, if a metadata transfer request from the imaging apparatus 101 is made at 9:00 on March 3, 2000, the data management apparatus 103 will issue a news gathering subject corresponding to the NCS ID “0001” corresponding to this time. Metadata representing “prime interview”, photographer, and journalist is transmitted to the imaging apparatus 101 via the mobile phone 102.
[0211]
Here, returning to FIG. In step S <b> 2, the Bluetooth device 137 receives the metadata from the data management apparatus 103 via the mobile phone 102 and notifies the microcomputer 140 that the metadata has been received.
[0212]
In step S <b> 3, the microcomputer 140 receives notification that the metadata is received from the Bluetooth device 137, and temporarily stores the metadata received by the Bluetooth device 137 in the memory 136.
[0213]
In step S4, the microcomputer 140 determines whether or not the recording is started. If it is determined that the recording is not started, the microcomputer 140 proceeds to step S5, and if the recording standby state is canceled, the microcomputer 140 determines that the recording is not started. The computer 140 ends the process. On the other hand, if the recording standby is not canceled, the process returns to step S4. That is, the imaging apparatus 101 repeats the processes of steps S4 and S5 until the recording standby is canceled, and enters a state of waiting for recording start.
[0214]
If it is determined in step S4 that the recording has started, the process proceeds to step S6, where the microcomputer 140 controls the recording unit 134 to read the time stamp of the recording start point of the recording medium and store it in the memory 136. The Bluetooth device 137 is controlled and transmitted to the data management apparatus 103 via the mobile phone 102.
[0215]
Further, the microcomputer 140 controls the audio / video input unit 131 to output the image data to the multiplexer 135 and also controls the memory 136 to output the metadata stored in the memory 136 to the multiplexer 135.
[0216]
In step S7, the microcomputer 140 controls the multiplexer 135, multiplexes the image and audio data, and the metadata, and supplies the multiplexed data to the recording unit 134 as an SDI format.
[0217]
In step S <b> 8, the recording unit 134 records the SDI format data in which the image and audio data supplied from the multiplexer 135 and the metadata are multiplexed on the recording medium.
[0218]
In step S9, the microcomputer 140 determines whether or not the recording is finished. If the recording is not finished, the microcomputer 140 continues the recording waiting state, that is, the recording state.
[0219]
On the other hand, if it is determined in step S9 that the recording has ended, in step S10, the microcomputer 140 controls the recording unit 134, reads a time stamp indicating the recording end point of the recording medium, and controls the Bluetooth device 137. Then, the tape position information of the read recording start point and the recording end point is transmitted to the data management apparatus 103 via the mobile phone 102, and the process ends.
[0220]
The recording medium shown in FIG. 8 is, for example, a tape-like magnetic recording medium, and in particular, here, a digital video tape is shown. The recording medium is capable of recording video and audio as digitized video data and audio data, and has an area for recording auxiliary data such as metadata in addition to video data and audio data. It is. Further, the auxiliary data may be provided with a non-volatile memory 105a in the recording medium casing 105, and the auxiliary data may be stored in the non-volatile memory 105a.
[0221]
Next, processing when the data management apparatus 103 receives tape position information from the imaging apparatus 101 will be described. When the data management apparatus 103 receives the tape position information from the imaging apparatus 101 in step S10 of FIG. 21, the data management apparatus 103 recognizes the telephone number of the portable telephone 102 that is the transmission source of the received tape position information in step S31 shown in FIG. To do.
[0222]
In step S32, the data management apparatus 103 adds the above-described tape position information to the metadata corresponding to the recognized telephone number among the metadata recorded in the HDD (not shown) and records the metadata.
[0223]
In the above explanation, the photographer, journalist, the start date of news gathering, news coverage from the name of the place of interview, photographer, journalist, director, description of contents, start date of interview, end date of interview, producer, news coverage item, NCS ID The items and NCS IDs have been described as examples, but the same applies to the director, description about the contents, the date and time when the interview ended, and the producer.
[0224]
In addition, there is metadata that is generated by the imaging apparatus 101 and automatically added and input. Specifically, among the metadata shown in FIGS. 9 to 11, the coverage position (GPS latitude), coverage position (GPS longitude), coverage position (GPS altitude), coverage position (GPS time), coverage location name, UMID ( Video), UMID (audio), photographer, journalist, good shot marker, camera setup information, equipment ID, take number, material start time code, content description, audio channel assignment, audio type, coverage start date, coverage end date , Metadata indicating the file owner, shot number, recording terminal, recording port, reel number, rights, news coverage.
[0225]
In this way, by recording metadata representing information on material data and tape position information in the recording medium and data management device 103, the material data recorded on the recording medium can be immediately searched and edited. Is possible.
[0226]
The material data and metadata collected by the imaging device 101 and recorded on the recording medium are reproduced by the recording / reproducing device 106 shown in FIG. 8 and supplied to the material accumulating device 108 as SDI format data. In the material storage device 108, the video data, audio data, and metadata transmitted in the SDI format are separated and recorded in the recording unit 173.
[0227]
At this time, the controller 176 changes the content of the metadata as necessary, and generates new metadata. Newly generated metadata includes UMID (video), UMID (audio), UMID (data), UMID (system), good shot marker, take number, material start time code, contents shown in FIGS. Description, expiration date, audio channel allocation, audio type, source information, recording format, compression rate, number of audio channels, audio compression rate, audio sampling frequency, audio data size, recording method, material ID, subkey, file length , Coverage start date, Coverage end date, Recording operator, File owner, Shot number, Coverage period, GOP size, Resolution, Essence size, Object type, Index, Index type, Index memo, Scene number, Reel number, Rights NCS ID, metadata and the like that represents a file status.
[0228]
As described above, when the material storage device 108 temporarily stores the material, the above-described metadata for clearly identifying the material is added to the recording unit 173 and the recording medium of the material storage device 108. By inputting, it becomes possible to immediately search and edit the material data.
[0229]
Video data, audio data, and metadata temporarily recorded in the material storage device 108 are sent to the editing device 109 at a timing as necessary.
[0230]
On the other hand, in the reporter terminal 112 connected to the integrated management apparatus 111, the reporter performs rough editing and article creation. When the edited article is input through the reporter terminal 112 and the created article is input, the editing decision list and the metadata representing the script shown in FIGS. 9 to 11 are added and input.
[0231]
At this time, in the editing device 109, as shown in FIG. 7, among the above-described metadata, for example, the coverage position (GPS latitude), the coverage position (GPS longitude), the coverage position (GPS altitude), the coverage time ( A CG composition screen is automatically created using metadata representing GPS time), news coverage titles, and scripts.
[0232]
In the reporter terminal 112, it is possible for a journalist to perform rough editing from the automatically created CG synthesis screen and freely edit the CG synthesis screen.
[0233]
At this time, the automatically synthesized CG composition screen can be edited by operating a GUI (Graphical User Interface) screen. The editing operation on the GUI screen will be described with reference to FIGS. 25, 26 and 27. FIG.
[0234]
FIG. 24 schematically shows a GUI screen 200 for editing an automatically created CG composition screen. In FIG. 25, an image 201 shows a frame for starting CG synthesis. An image 202 shows a frame for finishing the CG synthesis. A composite image 203 shows a CG composite screen automatically created. The manual selection button 204 is a button for performing selection to switch to a screen for manually changing the position where the CG is synthesized. The template selection button 205 is a button for changing the CG combining position. Templates 206, 207, 208, 209, 210, and 211 indicate patterns of CG combining positions. In FIG. 25, the position pattern of the template 208 with a frame is displayed. The scroll bar 212 is a scroll bar for selecting the templates 206 to 211.
[0235]
Editing of the CG composition screen is performed based on the steps shown in FIGS. The steps shown in FIGS. 26 and 27 show processing for displaying a CG composition screen based on the prepared template when the template selection button 205 is selected.
[0236]
Processing when a map relating to image data is synthesized and displayed will be described with reference to FIG.
[0237]
In step S40, image data and metadata representing position information are input. Subsequently, in step S41, based on the position information indicated by the metadata, a map corresponding to the position information is read from a recording server (not shown) that records a map or the like. In step S42, a CG composite screen is automatically created.
[0238]
Subsequently, when a template change is instructed in step S43, a CG synthesis screen based on the template is displayed in accordance with the instruction in step S44.
[0239]
On the other hand, the process in the case of synthesizing and displaying time information related to image data or a title will be described using FIG. For the time information, title, etc., metadata indicating these is used as it is. That is, in step S50, image data, time information, and metadata as title information are input. Subsequently, in step S51, a CG composite screen is automatically created.
[0240]
Subsequently, when a template change is instructed in step S52, the CG composition screen is changed and displayed according to the instruction in step S53.
[0241]
For example, information such as time information, title font, and character size may be read from the recording server and displayed.
[0242]
As described above, by using the metadata indicating the position information detected by GPS and the metadata indicating the article content, map information and characters to be displayed on the screen are extracted from the recording server, and these are used. Thus, the CG composition screen can be automatically performed.
[0243]
Subsequent to the rough editing, the editing device 109 performs the main editing. In this editing, more rigorous editing is performed in order to make the roughly edited material actually broadcast. Specifically, metadata representing a director, a producer, and an editing decision list among the metadata shown in FIGS. 9 to 11 is newly input along with the editing. For metadata other than the above, metadata used in the previous step or metadata input in the previous step is used again. At this time, various information described as metadata is used for editing.
[0244]
Metadata representing EDL_Information and Script input at the reporter terminal 112 is determined by the main editing process in the editing device 109.
[0245]
The broadcast material edited by the editing device 109 is mixed with the other information added by the authoring terminal 115 and the media caster 116 in the multiplexer 117, and sent to the sending unit 119 in FIG.
[0246]
The process of sending the broadcast material from the sending unit 119 corresponds to the broadcast process 44 in FIG. In the sending unit 119, metadata representing the change date and time and the distribution flag is newly input. The metadata used in the broadcasting step 44 is the metadata used in the previous step or the metadata input in the previous step.
[0247]
When sending from the sending unit 119, metadata required on the receiving side is extracted from the metadata shown in FIGS. 9 to 11 and sent.
[0248]
The broadcast material is sent out, then recorded in the storage recording device 114, and managed by the integrated management device 111. When recording a broadcast material in the storage recording device 114, new input metadata includes storage date / time, archive operator, archive terminal, archive flag, and compile flag.
[0249]
For metadata other than the above, the metadata used in the previous stage or the metadata input in the previous stage is used again in the storage stage.
[0250]
As described above, the image processing system 1 described in detail, when producing a news program at a broadcasting station, at each stage of the pre-shooting stage 10, the shooting production stage 20, the post-shooting processing stage 30, the broadcasting stage 40, and the storage stage 50. By recording metadata for identifying video data and audio data on a recording medium or a recording device, it is possible to immediately search and edit the material data when editing these materials.
[0251]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0252]
【The invention's effect】
As described above in detail, the image processing system according to the present invention uses the video data and audio data recorded in the imaging device when the video data and audio data are recorded in the imaging device. Input processing means for inputting the video data, audio data and first metadata from the recording means for recording together with the first metadata for identifying the data, and the first metadata different from the first metadata. Metadata generating means for generating second metadata, and video data, audio data and first metadata input to the input processing means together with the second metadata generated by the metadata generating means Data storage means and output for reading and outputting video data, audio data, first metadata and second metadata recorded in the data storage means An editing unit that edits the video data and audio data output from the output processing unit based on the first metadata and the second metadata output from the output processing unit. And a storage data recording device for storing video data and audio data edited by the editing device together with third metadata newly input when the edited video data and audio data are stored With In the storage data recording device, the video data and audio data stored in the storage data recording device are retrieved in response to a request from the editing device. The
[0253]
The other metadata includes a source (Source) indicating the source of the material data, a format (Format) indicating the format of the data stream, a video bit rate (Video Bit Rate) indicating the compression of the video, and the video as MPEG. GOP Size indicating the compression ratio in the case of format, Resolution indicating resolution, and Audio Number of Channel indicating the number of channels of audio data , Audio compression indicating whether the audio data is compressed (Audio Compression), audio sampling rate (Audio Sampling Rate) indicating the audio sampling frequency, and audio data size (Audio Data) indicating the size of the audio data Size), Rec type indicating the recording method (REC_Type), and existing image processing system Material ID (Material_ID) that indicates the ID used to identify the material being used, Sub Key that indicates whether the material has been deformed during several edits, etc. , Umid data (UMID (Data)) which is an ID indicating the type of material data, Umid system (UMID (System)) that combines Umid audio and Umid video, and file length representing the length of the material (File Length), the essential size (Essence_Size) representing the size of the entire file including video and audio data, the essential size (Essence_Size) representing the size of the entire file including video and audio data, and the video data are still images The object type (Object Type) indicating whether or not, and the metadata representing the valid date (Valid Date) indicating the expiration date of the material data are listed It is.
[0254]
Therefore, by recording metadata as additional information together with image data and audio data, when producing a news program at a broadcasting station, it is possible to identify image data and audio data, and also when editing material In addition, the material data can be searched immediately.
[0255]
As described above in detail, the material storage method according to the present invention uses the video data and audio data recorded in the imaging device when the video data and audio data are recorded in the imaging device. A recording step of recording in the recording means together with first metadata for identifying data, and an input processing step in which the video data, audio data and first metadata recorded in the recording means are input to the input processing means; A metadata generation step of generating second metadata different from the first metadata, and the video data, audio data, and first metadata input to the input processing means, the metadata A data accumulating step for recording in the data accumulating unit together with the second metadata generated in the generating step, and video data, audio data, first data recorded in the data accumulating unit, An output processing step for reading and outputting the metadata and the second metadata, and editing the video data and the audio data based on the first metadata and the second metadata output in the output processing step And a storage data record for storing the video data and audio data edited in the editing step together with the third metadata newly input when the edited video data and audio data are stored With process In the storage data recording step, the video data and audio data recorded in the data storage step are taken out in response to a request from the editing step. The
[0256]
Therefore, by recording metadata as additional information together with image data and audio data, when producing a news program at a broadcasting station, it is possible to identify image data and audio data, and also when editing material In addition, the material data can be searched immediately.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a series of steps from making a news gathering plan, conducting news gathering, editing and broadcasting a material obtained by news gathering, and storing this.
FIG. 2 is a diagram illustrating a specific example of metadata generated in a planning process.
FIG. 3 is a diagram illustrating a specific example of metadata transmitted from the base station to the imaging apparatus at the stage of transition from the planning process to the reporting process.
FIG. 4A is a diagram illustrating a specific example of metadata input in the imaging device at the time of shooting, and FIG. 4B is a specific example of metadata input when stored in the material storage device. FIG.
FIG. 5A is a diagram illustrating a specific example of metadata input in the imaging apparatus at the time of shooting, and FIG. 5B is a specific example of metadata input when temporary editing is performed in the NCS. FIG.
6A is a diagram illustrating a specific example of metadata input in the imaging apparatus at the time of shooting, and FIG. 6B is a diagram illustrating a specific example of metadata input and changed in the editing process. It is.
FIG. 7 is a diagram illustrating a specific example of metadata used when a CG composition screen is automatically created.
FIG. 8 is a block diagram showing a specific configuration of an image processing system shown as a configuration example of an embodiment of the present invention.
FIG. 9 is a diagram showing metadata used in the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 10 is a diagram showing metadata used in the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 11 is a diagram showing metadata used in the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 12 is a schematic diagram for explaining an SDI format used as a data transmission format of an image processing system shown as one configuration example of an embodiment of the present invention.
FIG. 13 is a schematic diagram for explaining an SDTI format used as a data transmission format of an image processing system shown as one configuration example of an embodiment of the present invention.
FIG. 14 is a schematic diagram for explaining an SDTI-CP format used as a data transmission format of an image processing system shown as one configuration example of an embodiment of the present invention.
FIG. 15 is a schematic diagram illustrating a KLV format used as a data transmission format of an image processing system shown as an example of the configuration of an embodiment of the present invention.
FIG. 16 is a schematic diagram for explaining a UMID format used as a data transmission format of an image processing system shown as one configuration example of an embodiment of the present invention.
FIG. 17 is a block diagram illustrating specific configurations of an imaging device, a base station, and a data management device of the image processing system shown as an example of the configuration of the embodiment of the present invention.
FIG. 18 is a block diagram showing a specific configuration of a recording / reproducing apparatus of an image processing system shown as one configuration example of an embodiment of the present invention.
FIG. 19 is a block diagram showing a specific configuration of a material storage device of the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 20 is a block diagram showing a specific configuration of an editing apparatus of the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 21 is a flowchart illustrating processing when the imaging device receives metadata transmitted from the data management device in the image processing system shown as an example of the configuration of the embodiment of the present invention.
FIG. 22 is a diagram illustrating metadata used in the image processing system shown as an example of the configuration of the embodiment of the present invention.
FIG. 23 is a flowchart illustrating processing when the data management apparatus receives metadata in the image processing system shown as an example of the configuration of the embodiment of the present invention.
FIG. 24 is a flowchart illustrating processing when the data management apparatus in the image processing system shown as an example of the configuration of the embodiment of the present invention updates metadata.
FIG. 25 is a schematic diagram illustrating a graphical user interface for creating a CG composition screen in the image processing system shown as an example of the configuration of the embodiment of the present invention.
FIG. 26 is a flowchart showing processing when the editing apparatus searches for a map based on position information and combines it with image data in the image processing system shown as one configuration example of the embodiment of the present invention.
FIG. 27 is a flowchart showing processing when the editing apparatus displays time information and a title in the image processing system shown as one configuration example of the embodiment of the present invention.
[Explanation of symbols]
0 image processing system, 10 pre-shooting stage, 11 planning process, 20 shooting production stage, 21 coverage process, 22 material accumulation process, 23 voice-over process, 30 post-shooting process stage, 31 CG creation process, 32 main editing process, 40 Broadcast stage, 41 Closed caption process, 42 Live broadcast, 43 Automation process, 44 Broadcast process, 50 Storage stage, 51 Temporary storage process, 52 Storage process, 60 NCS, 101 Imaging device, 102 Mobile phone, 103 Data management device, 104 Base station, 105 recording medium casing, 106 recording / playback device, 107 monitor, 108 material storage device, 109 editing device, 110 monitor, 111 integrated management device, 112 reporter terminal, 113 input / output terminal, 114 storage recording device, 115 authoring terminals, 116 media casters, 117 Plexer, 118 Sending video / audio recording device, 119 Sending unit, 120 set-top box, 121 Television receiver, 131 Video / audio input unit, 132 Operation unit, 133 HDD, 134 Recording unit, 135 Multiplexer, 136 Antenna, 140 Micro Computer, 141 microcomputer, 142 communication unit, 151 input terminal, 152 output terminal, 153 input processing unit, 154 compression encoding / decoding unit, 155 output processing unit, 156 error correction processing unit, 157 channel coding unit, 158 recording / playback Unit, 159 mechanism unit, 160 operation unit, 161 terminal, 162 controller, 171 input unit, 172 encoder, 173 recording unit, 174 decoder, 175 output unit, 176 controller, 181 input operation unit, 182 input processing unit, 18 Recording unit, 184 audio mixer, 185 special effect processing unit, 186 output unit, 187 control unit, 188 memory

Claims (12)

撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録する記録手段から、該映像データ、音声データ及び第1のメタデータが入力される入力処理手段と、
上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成手段と、
上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを上記メタデータ生成手段で生成された第2のメタデータとともに記録するデータ蓄積手段と、
上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理手段と
を備える素材蓄積装置と、
上記出力処理手段から出力された第1のメタデータ及び第2のメタデータに基づいて、上記出力処理手段から出力された映像データ及び音声データを編集する編集装置と、
上記編集装置により編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録装置と
を備え
上記保管用データ記録装置では、上記編集装置からの要求に応じて、上記素材蓄積装置に記録されている映像データ及び音声データが取り出される画像処理システム。
Recording means for recording video data and audio data recorded in the imaging device together with first metadata for identifying the audio data and video data when the video data and audio data are recorded in the imaging device Input processing means to which the video data, audio data and first metadata are input;
Metadata generating means for generating second metadata different from the first metadata;
Data storage means for recording the video data, audio data and first metadata input to the input processing means together with the second metadata generated by the metadata generation means;
A material storage device comprising: output processing means for reading out and outputting video data, audio data, first metadata and second metadata recorded in the data storage means;
An editing device for editing video data and audio data output from the output processing means based on the first metadata and the second metadata output from the output processing means;
A storage data recording device for storing video data and audio data edited by the editing device together with third metadata newly input when storing the edited video data and audio data ;
Above storage data recording apparatus, an image processing system in response to a request from the editing apparatus, Ru video data and audio data recorded in the material storage device is taken out.
上記第1のメタデータは、取材場所の地名を表すギャザリング・ロケーション・プレイス(Gathering_Location_Place)、撮影者の名前を表すフォトグラファ(Photographer)、取材を担当する記者に関する情報を示すジャーナリスト・インフォメーション(Jurnalist Information)、ニュース番組のディレクタを表すディレクタ(Director)、撮影内容に関連するその他の情報が記述されるコンテンツ(Contents)、撮影開始日時を表すギャザリング・スタート・デートタイム(Gathering_Start_DateTime)、撮影終了時間を示すギャザリング・エンド・デートタイム(Gathering_End_DateTime)、ニュース番組のプロデューサを表すプロデューサ(Producer)、NCS(NewsroomComputer System)に登録されているニュース番組項目・番組毎に設定されたIDであるエヌ・シー・エス・アイディー(NCS ID)、撮影場所の緯度を表すギャザリング・ロケーション・ラティテュード(Gathering_Location_Latitude)、撮影場所の経度を表すギャザリング・ロケーション・ロンジテュード(Gathering_Location_Longitude)、撮影場所の高度を表すギャザリング・ロケーション・アルティテュード(Gathering_Location_Altitude)、撮影時の時間を表すギャザリング・ロケーション・タイム(Gathering_Location_Time)、撮像装置を識別する機材ID、撮像装置の設定を示すカメラ・セットアップ・インフォメーション(Camera Setup Imformation)、記録媒体を識別するリール・ナンバ(Reel Number)、撮影に要した時間を示すデュレーション(Duration)、各シーンの開始時間を表すスタート・オブ・マテリアル(Start Of Material)、取材題目を示すタイトル(Title)、撮影の際、手動で入力されるマーク点を示すグッド・ショット・マーク(Good Shot Mark)、及びレコード・スタート・マーク(REC Start Mark)、マイクチャンネルを示すオーディオチャンネル・インフォメーション(Audio Channel Information)、音声の記録がモノラルか、ステレオか、バイリンガルかを示すオーディオ・タイプ(Audio Type)、素材を識別するために唯一的に決められたIDであるユーミッド・オーディオ(UMID(Audio))、及びユーミッド・ビデオ(UMID(Video))、素材データの著作権を表すコピーライト(Copyright)を表すメタデータのうち少なくとも1つである請求項1記載の画像処理システム。  The first metadata includes a gathering location place (Gathering_Location_Place) representing the name of the coverage location, a photographer (Photographer) representing the name of the photographer, and journalist information (Jurnalist Information) representing information about the reporter in charge of the coverage. ), Director representing news program director (Director), Content describing other information related to shooting contents (Contents), Gathering start date time (Gathering_Start_DateTime) showing shooting start date and time, and shooting end time Gathering End Date Time (Gathering_End_DateTime), producer (Producer) representing the producer of a news program, news program item registered in NCS (Newsroom Computer System), ID set for each program Idea -(NCS ID), Gathering Location Latitude (Gathering_Location_Latitude) that represents the latitude of the shooting location, Gathering Location Longitude (Gathering_Location_Longitude) that represents the longitude of the shooting location, and Gathering Location Altitude (Gathering_Location_Longitude) that represents the altitude of the shooting location ( Gathering_Location_Altitude), gathering location time (Gathering_Location_Time) indicating the time of shooting, equipment ID identifying the imaging device, camera setup information (Camera Setup Imformation) indicating the setting of the imaging device, reel identifying the recording medium Number (Reel Number), duration (Duration) indicating the time required for shooting, start of material (Start Of Material) indicating the start time of each scene, title (Title) indicating the subject of the interview, manual shooting Enter in Good shot mark (Good Shot Mark) indicating the recorded mark point, record start mark (REC Start Mark), audio channel information (Audio Channel Information) indicating the microphone channel, whether the sound recording is monaural or stereo Or bilingual audio type (Audio Type), Umid Audio (UMID (Audio)), which is a unique ID for identifying the material, and Umid Video (UMID (Video)), The image processing system according to claim 1, wherein the image processing system is at least one of metadata representing copyright of the material data. 上記第2のメタデータは、素材データの供給源を示すソース(Source)、データストリームの形式を示すフォーマット(Format)、映像の圧縮を示すビデオ・ビット・レイト(Video Bit Rate)、映像がMPEG形式の場合の圧縮率を示すジー・オー・ピー・サイズ(GOP Size)、解像度を表すレゾリューション(Resolution)、音声データのチャンネル数を表すオーディオ・ナンバ・オブ・チャンネル(Audio Number of Channel)、音声データが圧縮されているか否かを表すオーディオ・コンプレッション(Audio Compression)、オーディオサンプリング周波数を表すオーディオ・サンプリング・レイト(Audio Sampling Rate)、音声データのサイズを表すオーディオ・データ・サイズ(Audio Data Size)、収録方法を示すレック・タイプ(REC_Type)、既存の画像処理システムにおいて使用されている素材を識別するためのIDを示すマテリアル・ID(Material_ID)、素材に対して、数回の編集等を施す間に変形したか否か等を示すサブ・キー(Sub Key)、素材データの種類を示すIDであるユーミッド・データ(UMID(Data))、ユーミッド・オーディオとユーミッド・ビデオとを纏めたユーミッド・システム(UMID(System))、素材の長さを表すファイル・レングス(File Length)、映像及び音声データを含むファイル全体のサイズを表したエッセンシャル・サイズ(Essence_Size)、映像及び音声データを含むファイル全体のサイズを表したエッセンシャル・サイズ(Essence_Size)、映像データが静止画であるか否かを示すオブジェクト・タイプ(Object Type)、素材データの有効期限を示すバリッド・デイト(Valid Date)を表すメタデータのうち少なくとも1つである請求項1記載の画像処理システム。  The second metadata includes a source (Source) indicating a source of material data, a format (Format) indicating a data stream format, a video bit rate (Video Bit Rate) indicating video compression, and an MPEG video. GOP Size indicating the compression ratio in the case of format, Resolution indicating resolution, and Audio Number of Channel indicating the number of channels of audio data , Audio compression indicating whether the audio data is compressed (Audio Compression), audio sampling rate (Audio Sampling Rate) indicating the audio sampling frequency, and audio data size (Audio Data) indicating the size of the audio data Size), Rec type indicating the recording method (REC_Type), and existing image processing system Material ID (Material_ID) indicating the ID used to identify the material being used, Sub Key indicating whether the material has been deformed during several edits, etc. Umid data (UMID (Data)), which is an ID indicating the type of material data, a Umid system (UMID (System)) that combines Umid audio and Umid video, and a file length that represents the length of the material ( File Length), the essential size (Essence_Size) representing the size of the entire file including video and audio data, the essential size (Essence_Size) representing the size of the entire file including video and audio data, and the video data as a still image Among the metadata that indicates whether there is an object type (Object Type) and valid date that indicates the expiration date of the material data The image processing system according to claim 1, wherein the one even without. 上記第3のメタデータは、素材データが保管された日付を示す保管日時、素材データの保管を行ったオペレーターの情報を示すアーカイブオペレーター、素材データの保管を行った端末に関する情報を示すアーカイブ端末、取材によって収集した素材データが保管されたか否かを示すアーカイブフラグ及び保管されている素材データを再度整理し、消去するか否かの処理を行った際に再度記録し直されたことを示すコンパイルフラグを表すメタデータのうち少なくとも1つである請求項1記載の画像処理システム。  The third metadata includes a storage date and time indicating the date when the material data is stored, an archive operator indicating information about the operator who stored the material data, an archive terminal indicating information regarding the terminal that stored the material data, An archive flag that indicates whether or not the material data collected by the interview has been stored, and a compilation that indicates that the stored material data has been re-recorded and re-recorded when processed to determine whether or not to delete it. The image processing system according to claim 1, wherein the image processing system is at least one of metadata representing a flag. 上記入力処理手段によって入力された上記画像データと上記音声データとを符号化する符号化手段を備える請求項1記載の画像処理システム。  The image processing system according to claim 1, further comprising an encoding unit that encodes the image data and the audio data input by the input processing unit. データ蓄積手段に符号化されて記録されている上記画像データと上記音声データとを上記符号化に対応する復号処理を行う復号手段を備える請求項5記載の画像処理システム。  6. The image processing system according to claim 5, further comprising decoding means for performing decoding processing corresponding to the encoding of the image data and the audio data encoded and recorded in the data storage means. 撮像装置に収録された映像データ及び音声データを、該映像データ及び音声データが上記撮像装置に収録される際に該音声データ及び映像データを識別するための第1のメタデータとともに記録手段に記録する記録工程と、
上記記録手段に記録された映像データ、音声データ及び第1のメタデータが入力処理手段に入力される入力処理工程と、
上記第1のメタデータとは別の第2のメタデータを生成するメタデータ生成工程と、
上記入力処理手段に入力された映像データ、音声データ及び第1のメタデータを、上記メタデータ生成工程で生成された第2のメタデータとともにデータ蓄積手段に記録するデータ蓄積工程と、
上記データ蓄積手段に記録された映像データ、音声データ、第1のメタデータ及び第2のメタデータを読み出して出力する出力処理工程と、
上記出力処理工程で出力された第1のメタデータ及び第2のメタデータに基づいて、上記映像データ及び音声データを編集する編集工程と、
上記編集工程で編集された映像データ及び音声データを、該編集された映像データ及び音声データを保管する際に新たに入力される第3のメタデータとともに保管する保管用データ記録工程と
を有し、
上記保管用データ記録工程では、上記編集工程からの要求に応じて、上記データ蓄積工程で記録された映像データ及び音声データが取り出される素材蓄積方法。
Recording video data and audio data recorded in the imaging device on a recording unit together with first metadata for identifying the audio data and video data when the video data and audio data are recorded in the imaging device Recording process to
An input processing step in which the video data, audio data and first metadata recorded in the recording means are input to the input processing means;
A metadata generation step of generating second metadata different from the first metadata;
A data storage step of recording the video data, audio data and first metadata input to the input processing means together with the second metadata generated in the metadata generation step in the data storage means;
An output processing step of reading and outputting video data, audio data, first metadata and second metadata recorded in the data storage means;
An editing step of editing the video data and audio data based on the first metadata and the second metadata output in the output processing step;
The video data and audio data edited in the editing step, have a third storage for data recording step stores with meta data newly entered when storing video data and audio data the edited ,
Above the storage data recording step, in response to a request from the editing process, material accumulation method recorded video data and audio data in the data memory step is picked.
上記第1のメタデータは、取材場所の地名を表すギャザリング・ロケーション・プレイス(Gathering_Location_Place)、撮影者の名前を表すフォトグラファ(Photographer)、取材を担当する記者に関する情報を示すジャーナリスト・インフォメーション(Jurnalist Information)、ニュース番組のディレクタを表すディレクタ(Director)、撮影内容に関連するその他の情報が記述されるコンテンツ(Contents)、撮影開始日時を表すギャザリング・スタート・デートタイム(Gathering_Start_DateTime)、撮影終了時間を示すギャザリング・エンド・デートタイム(Gathering_End_DateTime)、ニュース番組のプロデューサを表すプロデューサ(Producer)、NCS(NewsroomComputer System)に登録されているニュース番組項目・番組毎に設定されたIDであるエヌ・シー・エス・アイディー(NCS ID)、撮影場所の緯度を表すギャザリング・ロケーション・ラティテュード(Gathering_Location_Latitude)、撮影場所の経度を表すギャザリング・ロケーション・ロンジテュード(Gathering_Location_Longitude)、撮影場所の高度を表すギャザリング・ロケーション・アルティテュード(Gathering_Location_Altitude)、撮影時の時間を表すギャザリング・ロケーション・タイム(Gathering_Location_Time)、撮像装置を識別する機材ID、撮像装置の設定を示すカメラ・セットアップ・インフォメーション(Camera Setup Imformation)、記録媒体を識別するリール・ナンバ(Reel Number)、撮影に要した時間を示すデュレーション(Duration)、各シーンの開始時間を表すスタート・オブ・マテリアル(Start Of Material)、取材題目を示すタイトル(Title)、撮影の際、手動で入力されるマーク点を示すグッド・ショット・マーク(Good Shot Mark)、及びレコード・スタート・マーク(REC Start Mark)、マイクチャンネルを示すオーディオチャンネル・インフォメーション(Audio Channel Information)、音声の記録がモノラルか、ステレオか、バイリンガルかを示すオーディオ・タイプ(Audio Type)、素材を識別するために唯一的に決められたIDであるユーミッド・オーディオ(UMID(Audio))、及びユーミッド・ビデオ(UMID(Video))、素材データの著作権を表すコピーライト(Copyright)を表すメタデータのうち少なくとも1つである請求項7記載の素材蓄積方法。  The first metadata includes a gathering location place (Gathering_Location_Place) representing the name of the coverage location, a photographer (Photographer) representing the name of the photographer, and journalist information (Jurnalist Information) representing information about the reporter in charge of the coverage. ), Director representing news program director (Director), Content describing other information related to shooting contents (Contents), Gathering start date time (Gathering_Start_DateTime) showing shooting start date and time, and shooting end time Gathering End Date Time (Gathering_End_DateTime), producer (Producer) representing the producer of a news program, news program item registered in NCS (Newsroom Computer System), ID set for each program Idea -(NCS ID), Gathering Location Latitude (Gathering_Location_Latitude) that represents the latitude of the shooting location, Gathering Location Longitude (Gathering_Location_Longitude) that represents the longitude of the shooting location, and Gathering Location Altitude (Gathering_Location_Longitude) that represents the altitude of the shooting location ( Gathering_Location_Altitude), gathering location time (Gathering_Location_Time) indicating the time of shooting, equipment ID identifying the imaging device, camera setup information (Camera Setup Imformation) indicating the setting of the imaging device, reel identifying the recording medium Number (Reel Number), duration (Duration) indicating the time required for shooting, start of material (Start Of Material) indicating the start time of each scene, title (Title) indicating the subject of the interview, manual shooting Enter in Good shot mark (Good Shot Mark) indicating the recorded mark point, record start mark (REC Start Mark), audio channel information (Audio Channel Information) indicating the microphone channel, whether the sound recording is monaural or stereo Or bilingual audio type (Audio Type), Umid Audio (UMID (Audio)), which is a unique ID for identifying the material, and Umid Video (UMID (Video)), 8. The material storage method according to claim 7, wherein the material storage method is at least one of metadata representing copyright of the material data. 上記第2のメタデータは、素材データの供給源を示すソース(Source)、データストリームの形式を示すフォーマット(Format)、映像の圧縮を示すビデオ・ビット・レイト(Video Bit Rate)、映像がMPEG形式の場合の圧縮率を示すジー・オー・ピー・サイズ(GOP Size)、解像度を表すレゾリューション(Resolution)、音声データのチャンネル数を表すオーディオ・ナンバ・オブ・チャンネル(Audio Number of Channel)、音声データが圧縮されているか否かを表すオーディオ・コンプレッション(Audio Compression)、オーディオサンプリング周波数を表すオーディオ・サンプリング・レイト(Audio Sampling Rate)、音声データのサイズを表すオーディオ・データ・サイズ(Audio Data Size)、収録方法を示すレック・タイプ(REC_Type)、既存の画像処理システムにおいて使用されている素材を識別するためのIDを示すマテリアル・ID(Material_ID)、素材に対して、数回の編集等を施す間に変形したか否か等を示すサブ・キー(Sub Key)、素材データの種類を示すIDであるユーミッド・データ(UMID(Data))、ユーミッド・オーディオとユーミッド・ビデオとを纏めたユーミッド・システム(UMID(System))、素材の長さを表すファイル・レングス(File Length)、映像及び音声データを含むファイル全体のサイズを表したエッセンシャル・サイズ(Essence_Size)、映像及び音声データを含むファイル全体のサイズを表したエッセンシャル・サイズ(Essence_Size)、映像データが静止画であるか否かを示すオブジェクト・タイプ(Object Type)、素材データの有効期限を示すバリッド・デイト(Valid Date)を表すメタデータのうち少なくとも1つである請求項7記載の素材蓄積方法。  The second metadata includes a source (Source) indicating a source of material data, a format (Format) indicating a data stream format, a video bit rate (Video Bit Rate) indicating video compression, and an MPEG video. GOP Size indicating the compression ratio in the case of format, Resolution indicating resolution, and Audio Number of Channel indicating the number of channels of audio data , Audio compression indicating whether the audio data is compressed (Audio Compression), audio sampling rate (Audio Sampling Rate) indicating the audio sampling frequency, and audio data size (Audio Data) indicating the size of the audio data Size), Rec type indicating the recording method (REC_Type), and existing image processing system Material ID (Material_ID) indicating the ID used to identify the material being used, Sub Key indicating whether the material has been deformed during several edits, etc. Umid data (UMID (Data)), which is an ID indicating the type of material data, a Umid system (UMID (System)) that combines Umid audio and Umid video, and a file length that represents the length of the material ( File Length), the essential size (Essence_Size) representing the size of the entire file including video and audio data, the essential size (Essence_Size) representing the size of the entire file including video and audio data, and the video data as a still image Among the metadata that indicates whether there is an object type (Object Type) and valid date that indicates the expiration date of the material data One in material accumulating method according to claim 7, wherein even without. 上記第3のメタデータは、素材データが保管された日付を示す保管日時、素材データの保管を行ったオペレーターの情報を示すアーカイブオペレーター、素材データの保管を行った端末に関する情報を示すアーカイブ端末、取材によって収集した素材データが保管されたか否かを示すアーカイブフラグ及び保管されている素材データを再度整理し、消去するか否かの処理を行った際に再度記録し直されたことを示すコンパイルフラグを表すメタデータのうち少なくとも1つである請求項7記載の素材蓄積方法。  The third metadata includes a storage date and time indicating the date when the material data is stored, an archive operator indicating information about the operator who stored the material data, an archive terminal indicating information regarding the terminal that stored the material data, An archive flag that indicates whether or not the material data collected by the interview has been stored, and a compilation that indicates that the stored material data has been re-recorded and re-recorded when processed to determine whether or not to delete it. The material storage method according to claim 7, wherein the material storage method is at least one of metadata representing a flag. 上記入力処理工程において入力された上記画像データと上記音声データとを符号化する符号化工程を備える請求項7記載の素材蓄積方法。  The material storage method according to claim 7, further comprising an encoding step of encoding the image data and the audio data input in the input processing step. 上記データ蓄積工程において記録される際に、符号化されて記録されている画像データと音声データとを上記符号化に対応する復号処理を行う復号工程を備える請求項11記載の素材蓄積方法。  12. The material storage method according to claim 11, further comprising a decoding step of performing a decoding process corresponding to the encoding on the encoded image data and audio data when recording is performed in the data storage step.
JP2000113275A 2000-04-10 2000-04-10 Image processing system and material storage method Expired - Fee Related JP4846892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000113275A JP4846892B2 (en) 2000-04-10 2000-04-10 Image processing system and material storage method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000113275A JP4846892B2 (en) 2000-04-10 2000-04-10 Image processing system and material storage method

Publications (3)

Publication Number Publication Date
JP2001292412A JP2001292412A (en) 2001-10-19
JP2001292412A5 JP2001292412A5 (en) 2007-05-10
JP4846892B2 true JP4846892B2 (en) 2011-12-28

Family

ID=18625269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000113275A Expired - Fee Related JP4846892B2 (en) 2000-04-10 2000-04-10 Image processing system and material storage method

Country Status (1)

Country Link
JP (1) JP4846892B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310330A (en) * 2003-04-04 2004-11-04 Sony Corp Program, and method and device therefor
JP2004355794A (en) * 2003-05-07 2004-12-16 Matsushita Electric Ind Co Ltd Recording and reproducing device and method
CN103947202A (en) * 2011-11-30 2014-07-23 英特尔公司 Perceptual media encoding
CN113938652B (en) * 2021-10-12 2022-07-26 深圳蓝集科技有限公司 Wireless image transmission system

Also Published As

Publication number Publication date
JP2001292412A (en) 2001-10-19

Similar Documents

Publication Publication Date Title
JP5206838B2 (en) Image processing apparatus and image processing method
JP3671421B2 (en) Portable AV editing device
US7583886B2 (en) Information processor
US20030085997A1 (en) Asset management system and asset management method
JP4438177B2 (en) Data transmission / reception system
JP4613390B2 (en) Image processing apparatus and image processing method
JP4846892B2 (en) Image processing system and material storage method
JP2001292411A (en) Image data recorder and image data recording method
JP4613389B2 (en) Image processing apparatus and image processing method
JP4466482B2 (en) Information processing apparatus and method, recording medium, and program
JP4433566B2 (en) Production system, asset management system and archive system, production method, asset management method and archive method
JP4240757B2 (en) Production system and control method thereof
JP4407011B2 (en) Production system and control method thereof
JP4433559B2 (en) Production system and production method
JP3714312B2 (en) Editing method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090204

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees