JP2004310331A - Program, method therefor, and device therefor - Google Patents

Program, method therefor, and device therefor Download PDF

Info

Publication number
JP2004310331A
JP2004310331A JP2003101415A JP2003101415A JP2004310331A JP 2004310331 A JP2004310331 A JP 2004310331A JP 2003101415 A JP2003101415 A JP 2003101415A JP 2003101415 A JP2003101415 A JP 2003101415A JP 2004310331 A JP2004310331 A JP 2004310331A
Authority
JP
Japan
Prior art keywords
data
file
attribute
procedure
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003101415A
Other languages
Japanese (ja)
Inventor
Ryusuke Nishida
竜介 西田
Kazuhisa Tsuchiya
和久 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003101415A priority Critical patent/JP2004310331A/en
Priority to PCT/JP2004/004844 priority patent/WO2004090728A1/en
Publication of JP2004310331A publication Critical patent/JP2004310331A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program capable of displaying attribute data included in file data. <P>SOLUTION: A CPU 18 executes a program PRG stored in a memory 17, parses the pieces of file data FILE_1 to FILE_N inputted from an external device designated as a connection destination, and extracts the attribute data. Then, the CPU 18 generates image data of a GUI screen for displaying the extracted attribute data, and outputs the image data on a display 16 through an interface 12. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ファイルデータ内に含まれる属性データを表示することを可能にするプログラム、その方法およびその装置に関する。
【0002】
【従来の技術】
MXF(Material eXchange Format)と呼ばれる機器間でのデータ交換フォマットが提案されている。
例えば、編集装置は、外部装置に記憶されているファイルデータのリストを表示する場合に、例えば、所定のファイル管理データから取得したファイル名、ファイルのサイズ、並びに更新時を示すリストビュー画面を表示する。
【0003】
ところで、MXFのファイルデータ内には、上記ファイル管理データには示されていない、コンテンツデータ(素材データ)の属性を示すUMIDデータ、並びに上記コンテンツデータのチャンネル(系統)を示すV/A_Cデータなどの属性データが含まれている。また、コンテンツデータ内には、ユーザがコンテンツの記録(生成)時にグットシーンとして指定した画像の画像データに対応付けられたEM(Essence Mark)データが含まれている。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した従来の編集装置は、上記リストビュー画面を表示する場合に、上記ファイル管理データのみから情報を取得するため、上述したファイルデータに含まれるUMIDデータ、V/A_CデータおよびEMデータなどの属性データを表示できないという問題がある。
【0005】
本発明はかかる事情に鑑みてなされたものであり、その目的は、ファイルデータ内に含まれる属性データを表示することを可能にするプログラム、その方法およびその装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記の目的を達成するため、第1の発明のプログラムは、コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の手順と、前記第1の手順で抽出した前記属性データを表示する画像データを生成する第2の手順とをコンピュータに実行させる。
【0007】
第1の発明のプログラムの作用は以下のようになる。
本発明のプログラムがコンピュータで実行され、当該コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の手順を当該コンピュータに実行させる。
次に、当該プログラムが、前記第1の手順で抽出した前記属性データを表示する画像データを生成する第2の手順を前記コンピュータに実行させる。
【0008】
第2の発明のデータ処理方法は、コンピュータが実行するデータ処理方法であって、コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の工程と、前記第1の工程で抽出した前記属性データを表示する画像データを生成する第2の工程とを有する。
【0009】
第3の発明のデータ処理装置は、コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の手段と、前記第1の手段で抽出した前記属性データを表示する画像データを生成する第2の手段とを有する。
【0010】
第3の発明のデータ処理装置の作用は以下のようになる。
第1の手段が、コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する。
次に、第2の手段が、前記第1の手段で抽出した前記属性データを表示する画像データを生成する。
【0011】
【発明の実施の形態】
以下、本発明の実施形態に係わる編集システムについて説明する。
図1は、本発明の実施形態に係わる編集システム1の構成図である。
図1に示すように、編集システム1は、例えば、外部装置3_1〜3_Nおよび編集装置4を有する。
ここで、編集装置4が第3の発明のデータ処理装置に対応している。
外部装置3_1〜3_Nは、例えば、VTR(Video Tape Recorder) 、光ディスクドライブ、FTP(File Transfer Protocol)サーバあるいはローカルドライブなどである。
外部装置3_1〜3_Nは、所定のデータを記憶し、編集装置4と接続されると、当該データをMXFのファイルデータFILE_1〜FILE_Nに変換して編集装置4に転送(出力)する。
外部装置3_1〜3_Nと編集装置4との間のデータ転送は、FTP(File Transfer Protocol)、PC(Personal Computer) ネットワーク、USB(Universal Serial Bus)、IEEE(Institute Electrical and Electronics Engineers)1394などのプロトコルで行われる。
【0012】
以下、図1に示す編集装置4について説明する。
図2は、図1に示す編集装置4のハードウェア構成図である。
図2に示すように、編集装置4は、例えば、インタフェース11、インタフェース12、インタフェース13、操作部14、スピーカ15、ディスプレイ16、メモリ17およびCPU(Central Processing Unit) 18を有し、これらがバス10を介して接続されている。
ここで、CPU18が本発明のコンピュータに対応している。
また、メモリ17が、本発明のプログラムに対応するプログラムPRGを記憶している。
【0013】
インタフェース11は、図1に示す外部装置3_1〜3_NからファイルデータFILE_1〜FILE_Nの全部または一部を入力する。
インタフェース12は、CPU18によるプログラムPRGの実行に応じて生成されたGUI(Graphical User Interface)画面の画像信号をディスプレイ16に出力する。
また、インタフェース12は、CPU18が生成した上記GUI画面に対応した音声の音声信号をスピーカ15に出力する。
スピーカ15は、インタフェース12を介してCPU18から入力した音声信号に応じた音声を出力する。
ディスプレイ16は、インタフェース12を介してCPU18から入力した画像信号に応じた画面を表示する。
インタフェース13は、操作部14を介して入力されたユーザの操作の応じた操作信号をCPU18に出力する。
操作部14は、マウスやキーボードなどの操作手段である。
【0014】
メモリ17は、プログラムPRG、並びにプログラムPRGの実行に用いられるデータなどを記憶する。
【0015】
CPU18は、メモリ17に記憶されたプログラムPRGを実行し、接続先として指定された外部装置3_1〜3_Nから入力したファイルデータFILE_1〜FLIE_Nをパースして、属性データを抽出する。
具体的には、CPU18は、図3を用いて後述するKLVデータによって構成ファイルデータFILE_1〜FLIE_Nをパースし、KLVデータのキー(K)を検出し、当該キー(K)を基に所定の属性データを抽出する。
そして、CPU18は、上記抽出した属性データを表示するためのGUI画面の画像データを生成し、当該画像データをインタフェース12を介してディスプレイ16に出力する。
CPU18の動作例は、後述する編集装置4の動作例と関連付けて詳細に説明する。
【0016】
先ず、MXFのファイルデータFILE_1〜FLIE_Nのフォーマットを説明する。
図3は,MXFのファイルデータFILE_1〜FLIE_Nのフォーマットを説明するための図である。
図3に示すように、ファイルデータFILE_1〜FLIE_Nは、ヘッダデータ、ボディデータおよびフッタデータで構成され、各々がパーティションPATと呼ばれるモジュールデータとして規定されている。
各パーティションは、複数のパックPACKと呼ばれるモジュールデータで構成される。
【0017】
例えば、ヘッダデータは、パックPACKであるプリアンブルPREAおよびメタデータMETA1を有する。
メタデータMETA1は、図3に示すように、UMID(Unique Material Identifier)データと、V/A_Cデータとを含んでいる。
UMIDデータは、ボディデータ内のビデオデータVIDEOやオーディオデータAUDIO1〜8などのコンテンツデータ(素材データ)の属性を示すデータである。
UMIDデータは、例えば、上記コンテンツデータの形式、生成方法、生成時、生成者、生成国名などを示している。
【0018】
V/A_Cデータは、例えば、ボディデータに含まれる上記コンテンツデータのチャンネル(系統)を示している。
図3に示す例では、V/A_Cデータは、ビデオデータVIDEOと、8チャンネル分のオーディオデータAUDIO1〜AUDIO8との9チャンネルのコンテンツデータがボディデータ内に含まれていることを示している。
【0019】
ボディデータは、パックPACKであるビデオデータVIDEO、8チャンネル分のオーディオデータAUDIO1〜AUDIO8を有する。
ビデオデータVIDEO内には、図3に示すように、複数の画像(フレーム)の画像データと、ユーザが当該画像の記録(生成)時にグットシーン(Good Sene) として指定した画像の画像データに対応付けられたEM(Essence Mark)データとが含まれている。
フッタデータは、パックPACKであるポストアンブルPOSAおよびメタデータMETA2を有する。
【0020】
上述したパックPACK、並びにパックPACK内のデータは全てKLVデータ(本発明のモジュールデータ)である。
ヘッダデータ、ボディデータおよびフッタデータを構成するパックデータ、並びに当該パックデータ内の各データが、キー(K)、データ長(L)およびデータ(V)で構成されるKLVデータであるというデータ構造をファイルデータFILE_1〜FLIE_Nは有している。当該データ構造は、例えば、MXFにより規定されている。
ここで、キー(K)が本発明の識別データに対応し、データ(V)が本発明の所定のデータに対応している。
KLVデータは、例えば、図4に示すように、データ(V)としてKLVデータを持つことが許されている。
【0021】
CPU18は、上述したデータ構造のファイルデータFILE_1〜FLIE_Nをパースして、当該フィアルデータ内のKLVデータのキー(K)を検出し、当該キー(K)を基に、UMIDデータ、V/A_CデータおよびEMデータなどの属性データを抽出する。
【0022】
以下、上述したように、CPU18が生成した画像データを基にディスプレイ16に表示されるGUI画面について説明する。
図5は、当該GUI画面30を説明するための図である。
図5に示すように、GUI画面30は、例えば、接続先指定欄41、ファイル属性表示欄42、プレビュー欄43、プレビュー進行表示欄44、プレビュー中チャンネル表示欄45、プレビュー操作ボタン群46、クリップ名入力欄47およびインポート指示ボタン48を有する。
【0023】
接続先指定欄41は、ユーザによる図2に示す操作部14の操作に応じて、ユーザが編集装置4の接続先を指定するために用いられる。
図1に示す例では、外部装置3_1〜3_Nのいずれかが接続先として指定さえる。
ファイル属性表示欄42は、図5および図6に示すように、接続先指定欄41によって指定された接続先から入力した上記ファイルデータをCPU18がパースして抽出したUMIDデータ、V/A_CデータおよびEMデータを表示する。
また、ファイル属性表示欄42は、図5および図6に示すように、上記ファイルデータのファイル名(NAME)、サイズ(SIZE)、並びに更新時(TIME)などの情報を表示する。これらの情報は、CPU18が、上記ファイルデータから抽出してもよいし、当該ファイルデータとは別の所定のデータから取得してもよい。
図6に示す例では、ファイル属性表示欄42は、例えば、外部装置3_1に記憶されたファイルデータの名前「a.mxf」と、そのサイズ「13,235MByte」と、EMマークの有無および個数「Yes,5」と、UMIDデータの有無「Yes」と、V/A_Cデータが示すチャンネル「V,A1,A2,A7」と、生成時「2003/03/03」とを対応付けて表示している。
【0024】
プレビュー欄43は、例えば、ファイル属性表示欄42上でユーザが操作部14を用いて指定したファイルデータのプレビュー画像を表示する。
プレビュー欄43には、プレビュー中の画像のタイムコード51が表示される。
また、上記プレビュー画像に対応した音声がスピーカ15から出力される。
【0025】
プレビュー進行表示欄44は、図7に示すように、時間軸60と、ファイル属性表示欄42上で指定されたファイルデータ内のEMデータの位置を示すマークEM_Mと、プレビュー中の画像の時間軸60上での位置を示すマークCP_Mと、IN点のタイムコードを指定する欄61と、OUT点のタイムコードを指定する欄62とを有する。IN点とOUT点は、ユーザがクリップデータとして編集装置4に取り込むコンテンツデータの範囲を指定するために用いられる。
クリップデータは、編集に用いる単位となるコンテツデータをいう。
また、プレビュー進行表示欄44には、EMデータが付されたビデオデータの画像を表示しているタイミングで、EMデータが付されていることを示すマーク65が表示される。
【0026】
プレビュー操作ボタン群46は、上記プレビューの動作(再生、停止等)を指示を入力する複数の操作ボタン画像を有する。
【0027】
クリップ名入力欄47は、例えば、プレビュー欄43にプレビュー中の画像データ、並びにそれに対応する音声データをクリップして得られるクリップデータに付ける名前(クリップ名)を入力するために用いられる。
【0028】
インポート指示ボタン48は、プレビュー進行表示欄44において、プレビュー欄43にプレビュー中のファイルデータFILE_1〜FLIE_Nのうち、IN点およびOUT点とで指定されたビデオデータおよびオーディオデータをインポートしてクリップデータを生成するための指示を入力するために用いられる。
【0029】
以下、編集装置4の動作例を、CPU18の動作例と関連付けて説明する。
図8は、当該動作例を説明するためのフローチャートである。
図8において、ステップST2が第1および第2の発明の第1の手順および第1の工程に対応し、ステップST3が第1および第2の発明の第2の手順および第2の工程に対応し、ステップST1およびST2が第1および第2の発明の第3の手順および第3の工程に対応し、ステップST3が第1の発明の第4の手順に対応し、ステップST7が第1の発明の第5の手順に対応している。
また、ステップST2によって第3の発明の第1の手段が実現され、ステップST3によって第3の発明の第2の手段が実現される。
【0030】
ステップST1:
CPU18は、ユーザが図5に示す接続先指定欄41を基に外部装置3_1〜3_Nのいずれかを接続先として指定したか否かを判断し、指定したと判断するとステップST2の進み、そうでない場合には処理を繰り返す。
【0031】
ステップST2:
CPU18は、ステップST1で接続先として指定された外部装置3_1〜3_Nに接続し、当該外部装置から入力したファイルデータFILE_1〜FLIE_Nをパースして、前述したように、KLVデータのキー(K)を基に、KLVデータのデータ(V)として格納されたUMIDデータ、V/A_CデータおよびEMデータなどの属性データを抽出する。
ステップST3:
CPU18は、ステップST2で抽出した属性データを表示する図5に示すファイル属性表示欄42に表示する画像データを生成し、当該画像データをインタフェース12を介してディスプレイ16に出力する。
これにより、図5に示すGUI画面30のファイル属性表示欄42に、ステップST2で抽出されたUMIDデータ、V/A_CデータおよびEMデータなどの属性データが、ファイメル名、サイズおよび生成時のデータと共に表示される。
【0032】
ステップST4:
CPU18は、ステップST2で抽出したEMデータを基に、ステップST2で接続した外部装置3_1〜3_Nから入力したファイルデータFILE_1〜FLIE_N内のEMデータが付された画像の画像信号を生成し、これをインタフェース12を介してディスプレイ16に出力する。
これにより、図5にプレビュー欄43に、EMデータで指定された画像のプレビューが表示される。
なお、ステップST2で接続した外部装置3_1〜3_Nに複数のファイルデータが記憶されている場合には、CPU18は、ユーザによって指定されたファイルデータについて上記プレビューの表示を行う。
【0033】
ステップST5:
CPU18は、ユーザによる操作部14の操作によって図5に示すインポート指示ボタン48が指定されたか否かを判断し、指定されたと判断すると、ステップST8に進み、そうでない場合にはステップST6の処理に戻る。
ステップST6:
CPU18は、図5に示すプレビュー欄43にプレビュー中のファイルデータFILE_1〜FLIE_N内の欄61,62で指定されたIN点とOUT点とで規定される部分(範囲)を接続中の外部装置3_1〜3_Nから入力(インポート)する。
【0034】
ステップST7:
CPU18は、ステップST6で外部装置3_1〜3_Nから入力したデータをノンリニア編集(Non Linear Edition)用のネイティブフォーマットに変換してクリップデータを生成する。当該クリップデータには、図5に示すクリップ名入力欄47に入力された名前が付けられる。
CPU18は、上記クリップデータを編集用メモリ(図示せず)に記憶する。
その後、CPU18は、編集処理において、上記クリップデータを読み出して使用する。
ステップST8:
CPU18は、所定の終了条件を満たしたか否かを判断し、満たしたと判断すると処理を終了し、そうでない場合にはステップST4の処理に戻る。
【0035】
以上説明したように、編集装置4では、接続先として指定された外部装置3_1〜3_Nから入力したファイルデータのファイル名(NAME)、サイズ(SIZE)、並びに更新時(TIME)の他に、当該ファイルデータをパースして得られるUMIDデータの有無、V/A_CデータおよびEMデータの有無および個数を示す図5に示すファイル属性表示欄42を自動的に表示する。
そのため、ファイル属性表示欄42を見るだけで、そのファイルデータ内にインポートしようとするコンテンツが含まれているか否かを容易に判断できる。
また、編集装置4によれば、プレビュー欄43でプレビュー中の画像の進行状況をプレビュー進行表示欄44を基にユーザが容易に把握できる。
また、プレビュー進行表示欄44内の時間軸60にはマークEM_Mが表示され、また、EMデータが付された画像のプレビュー画面にマーク65が表示されるため、EMデータが付された画像をユーザは容易に特定できる。
また、編集装置4によれば、ファイル属性表示欄42に表示されるファイルデータについてのプレビューを簡単な操作でプレビュー欄43に表示でき、ユーザが図7に示す欄61,62でIN点およびOUT点を指定し、続いてインポート指示ボタン48を指定するだけど、クリップデータを自動的を自動的に生成できる。
【0036】
本発明は上述した実施形態には限定されない。
例えば、上述した実施形態では、本発明のファイルデータとして、図3などを用いて説明したMXFのファイルデータFILE_1〜FLIE_Nを例示したが、本発明のファイルデータは、コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むものであれば特に限定されない。
また、上述した実施形態では、図5に示すGUI画面30を例示したが、当該画面に例えばファイル属性表示欄42のみを表示してもよい。
また、本発明の属性データは、ファイルデータに含まれ、当該ファイルデータに含まれるコンテンツデータの属性を示すものであれば特に限定されない。例えば、属性データは、当該コンテンツデータが写真である場合にその写真を写したカメラマンの名前、あるいは、当該コンテンツデータが映画のコンテツに関するものである場合に当該映画の監督の名前などであってもよい。
【0037】
【発明の効果】
以上説明したように、本発明によれば、ファイルデータ内に含まれる属性データを表示することを可能にするプログラム、その方法およびその装置を提供することができる。
【図面の簡単な説明】
【図1】図1は、本発明の実施形態に係わる編集システムの構成図である。
【図2】図2は、図1に示す編集装置のハードウェア構成図である。
【図3】図3は、図1に示すMXFのファイルデータのフォーマットを説明するための図である。
【図4】図4は、KLVデータを説明するための図である。
【図5】図5は、図2に示すディスプレイ16に表示されるGUI画面を説明するための図である。
【図6】図6は、図5に示すファイル属性表示欄を説明ための図である。
【図7】図7は、図5に示すプレビュー欄およびプレビュー進行表示欄を説明するための図である。
【図8】図8は、図1に示す編集装置の動作例を説明するためのフローチャートである。
【符号の説明】
1…編集システム、3…外部装置、4…編集装置、10…バス、11…インタフェース、12…インタフェース、13…インタフェース、14…操作部、15…スピーカ、16…ディスプレイ、17…メモリ、18…CPU、30…GUI画面、41…接続先指定欄、42…ファイル属性表示欄、43…プレビュー欄、44…プレビュー進行表示欄、45…プレビュー中チャンネル表示欄、46…プレビュー操作ボタン群、47…クリップ名入力欄、48…インポート指示ボタン
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a program, a method, and an apparatus for enabling display of attribute data included in file data.
[0002]
[Prior art]
A data exchange format between devices called MXF (Material exchange Format) has been proposed.
For example, when displaying a list of file data stored in an external device, the editing device displays a list view screen showing, for example, a file name acquired from predetermined file management data, a file size, and update time. I do.
[0003]
By the way, in the MXF file data, UMID data indicating the attribute of the content data (material data), V / A_C data indicating the channel (system) of the content data, etc., which are not indicated in the file management data, etc. Attribute data is included. Further, the content data includes EM (Essence Mark) data associated with image data of an image designated as a good scene when the user records (generates) the content.
[0004]
[Problems to be solved by the invention]
However, the above-described conventional editing apparatus acquires information only from the file management data when displaying the list view screen. Therefore, the UMID data, V / A_C data, EM data, and the like included in the file data described above. There is a problem that the attribute data of cannot be displayed.
[0005]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a program, a method, and an apparatus for enabling display of attribute data included in file data.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, a program according to a first aspect of the present invention includes a first procedure for parsing file data including content data and attribute data indicating an attribute of the content data and extracting the attribute data; And a second procedure for generating image data for displaying the attribute data extracted in the first procedure.
[0007]
The operation of the program of the first invention is as follows.
A program of the present invention is executed by a computer, and causes the computer to execute a first procedure of parsing file data including the content data and attribute data indicating an attribute of the content data and extracting the attribute data.
Next, the program causes the computer to execute a second procedure of generating image data for displaying the attribute data extracted in the first procedure.
[0008]
A data processing method according to a second aspect of the present invention is a data processing method executed by a computer, wherein the first attribute data is extracted by parsing file data including content data and attribute data indicating an attribute of the content data. And a second step of generating image data for displaying the attribute data extracted in the first step.
[0009]
A data processing apparatus according to a third aspect of the present invention includes a first means for parsing file data including content data and attribute data indicating an attribute of the content data to extract the attribute data, and a first means for extracting the attribute data. Second means for generating image data for displaying the attribute data.
[0010]
The operation of the data processing device of the third invention is as follows.
A first means parses file data including content data and attribute data indicating an attribute of the content data to extract the attribute data.
Next, second means generates image data for displaying the attribute data extracted by the first means.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an editing system according to an embodiment of the present invention will be described.
FIG. 1 is a configuration diagram of an editing system 1 according to the embodiment of the present invention.
As illustrated in FIG. 1, the editing system 1 includes, for example, external devices 3_1 to 3_N and an editing device 4.
Here, the editing device 4 corresponds to the data processing device of the third invention.
The external devices 3_1 to 3_N are, for example, a VTR (Video Tape Recorder), an optical disk drive, an FTP (File Transfer Protocol) server or a local drive.
The external devices 3_1 to 3_N store predetermined data and, when connected to the editing device 4, convert the data into MXF file data FILE_1 to FILE_N and transfer (output) them to the editing device 4.
The data transfer between the external devices 3_1 to 3_N and the editing device 4 is performed by FTP (File Transfer Protocol), PC (Personal Computer) network, USB (Universal Serial Bus), IEEE (Institute of Electronic and Electronic Industrial, etc.). Done in
[0012]
Hereinafter, the editing device 4 shown in FIG. 1 will be described.
FIG. 2 is a hardware configuration diagram of the editing device 4 shown in FIG.
As shown in FIG. 2, the editing device 4 includes, for example, an interface 11, an interface 12, an interface 13, an operation unit 14, a speaker 15, a display 16, a memory 17, and a CPU (Central Processing Unit) 18, and these are buses. 10 are connected.
Here, the CPU 18 corresponds to the computer of the present invention.
Further, the memory 17 stores a program PRG corresponding to the program of the present invention.
[0013]
The interface 11 inputs all or a part of the file data FILE_1 to FILE_N from the external devices 3_1 to 3_N shown in FIG.
The interface 12 outputs an image signal of a GUI (Graphical User Interface) screen generated in response to the execution of the program PRG by the CPU 18 to the display 16.
Further, the interface 12 outputs an audio signal of an audio corresponding to the GUI screen generated by the CPU 18 to the speaker 15.
The speaker 15 outputs a sound corresponding to the sound signal input from the CPU 18 via the interface 12.
The display 16 displays a screen corresponding to an image signal input from the CPU 18 via the interface 12.
The interface 13 outputs an operation signal corresponding to a user operation input via the operation unit 14 to the CPU 18.
The operation unit 14 is operation means such as a mouse and a keyboard.
[0014]
The memory 17 stores a program PRG, data used for executing the program PRG, and the like.
[0015]
The CPU 18 executes the program PRG stored in the memory 17, parses the file data FILE_1 to FILE_N input from the external devices 3_1 to 3_N designated as connection destinations, and extracts attribute data.
Specifically, the CPU 18 parses the configuration file data FILE_1 to FILE_N using KLV data described later with reference to FIG. 3, detects a key (K) of the KLV data, and determines a predetermined attribute based on the key (K). Extract the data.
Then, the CPU 18 generates image data of a GUI screen for displaying the extracted attribute data, and outputs the image data to the display 16 via the interface 12.
An operation example of the CPU 18 will be described in detail in association with an operation example of the editing device 4 described later.
[0016]
First, the format of MXF file data FILE_1 to FILE_N will be described.
FIG. 3 is a diagram for explaining the format of MXF file data FILE_1 to FILE_N.
As shown in FIG. 3, file data FILE_1 to FILE_N are composed of header data, body data, and footer data, each of which is defined as module data called a partition PAT.
Each partition is composed of a plurality of module data called packs.
[0017]
For example, the header data has a preamble PREA that is a packed PACK and metadata META1.
As shown in FIG. 3, the metadata META1 includes UMID (Unique Material Identifier) data and V / A_C data.
The UMID data is data indicating attributes of content data (material data) such as video data VIDEO and audio data AUDIO1 to AUDIO8 in the body data.
The UMID data indicates, for example, the format, generation method, generation time, creator, and country of generation of the content data.
[0018]
The V / A_C data indicates, for example, a channel (system) of the content data included in the body data.
In the example illustrated in FIG. 3, the V / A_C data indicates that body data includes video data VIDEO and 9-channel content data of audio data AUDIO1 to AUDIO8 for 8 channels.
[0019]
The body data includes video data VIDEO, which is a packed PACK, and audio data AUDIO1 to AUDIO8 for eight channels.
As shown in FIG. 3, the video data VIDEO corresponds to image data of a plurality of images (frames) and image data of an image designated as a good scene (Good Scene) by the user when recording (generating) the image. And attached EM (Essence Mark) data.
The footer data has a postamble POSA that is a packed PACK and metadata META2.
[0020]
The above-described pack PACK and the data in the pack PACK are all KLV data (module data of the present invention).
Data structure in which pack data constituting header data, body data and footer data, and each data in the pack data is KLV data composed of a key (K), a data length (L) and data (V) File data FILE_1 to FLIE_N. The data structure is specified by, for example, MXF.
Here, the key (K) corresponds to the identification data of the present invention, and the data (V) corresponds to the predetermined data of the present invention.
For example, as shown in FIG. 4, the KLV data is allowed to have KLV data as data (V).
[0021]
The CPU 18 parses the file data FILE_1 to FLIE_N having the above-described data structure, detects a key (K) of KLV data in the file data, and based on the key (K), generates UMID data, V / A_C data. And attribute data such as EM data.
[0022]
Hereinafter, the GUI screen displayed on the display 16 based on the image data generated by the CPU 18 as described above will be described.
FIG. 5 is a diagram for explaining the GUI screen 30.
As shown in FIG. 5, the GUI screen 30 includes, for example, a connection destination specification field 41, a file attribute display field 42, a preview field 43, a preview progress display field 44, a preview channel display field 45, a preview operation button group 46, a clip It has a name input field 47 and an import instruction button 48.
[0023]
The connection destination specification field 41 is used by the user to specify the connection destination of the editing device 4 in accordance with the operation of the operation unit 14 shown in FIG. 2 by the user.
In the example illustrated in FIG. 1, one of the external devices 3_1 to 3_N is designated as a connection destination.
As shown in FIGS. 5 and 6, the file attribute display field 42 includes UMID data, V / A_C data, and UMID data extracted by the CPU 18 by parsing and extracting the file data input from the connection destination specified by the connection destination specification field 41. Display EM data.
As shown in FIGS. 5 and 6, the file attribute display field 42 displays information such as the file name (NAME), size (SIZE), and update time (TIME) of the file data. These pieces of information may be extracted from the file data by the CPU 18 or may be obtained from predetermined data different from the file data.
In the example shown in FIG. 6, for example, the file attribute display field 42 includes the name “a.mxf” of the file data stored in the external device 3_1, the size “13,235 MByte”, and the presence / absence and number of the EM mark. “Yes, 5”, presence or absence of UMID data “Yes”, channel “V, A1, A2, A7” indicated by V / A_C data, and “2003/03/03” at the time of generation are displayed in association with each other. I have.
[0024]
The preview column 43 displays, for example, a preview image of the file data specified by the user using the operation unit 14 on the file attribute display column 42.
The preview column 43 displays the time code 51 of the image being previewed.
Further, a sound corresponding to the preview image is output from the speaker 15.
[0025]
As shown in FIG. 7, the preview progress display field 44 includes a time axis 60, a mark EM_M indicating the position of the EM data in the file data specified on the file attribute display field 42, and a time axis of the image being previewed. It has a mark CP_M indicating a position on 60, a column 61 for specifying the time code of the IN point, and a column 62 for specifying the time code of the OUT point. The IN point and the OUT point are used by the user to specify a range of content data to be imported into the editing apparatus 4 as clip data.
The clip data is content data that is a unit used for editing.
In the preview progress display column 44, a mark 65 indicating that the EM data is attached is displayed at a timing when the image of the video data to which the EM data is attached is displayed.
[0026]
The preview operation button group 46 has a plurality of operation button images for inputting an instruction for the preview operation (playback, stop, etc.).
[0027]
The clip name input field 47 is used, for example, to input a name (clip name) given to clip data obtained by clipping image data being previewed in the preview field 43 and audio data corresponding to the image data.
[0028]
The import instruction button 48 imports the video data and audio data specified by the IN point and the OUT point among the file data FILE_1 to FLIE_N being previewed in the preview column 43 in the preview progress display column 44, and imports the clip data. Used to input instructions for generation.
[0029]
Hereinafter, an operation example of the editing device 4 will be described in association with an operation example of the CPU 18.
FIG. 8 is a flowchart for explaining the operation example.
In FIG. 8, step ST2 corresponds to the first procedure and the first step of the first and second inventions, and step ST3 corresponds to the second procedure and the second step of the first and second inventions. Steps ST1 and ST2 correspond to the third procedure and the third step of the first and second inventions, step ST3 corresponds to the fourth procedure of the first invention, and step ST7 corresponds to the first procedure. This corresponds to the fifth procedure of the present invention.
Step ST2 implements the first means of the third invention, and step ST3 implements the second means of the third invention.
[0030]
Step ST1:
The CPU 18 determines whether or not the user has specified any of the external devices 3_1 to 3_N as a connection destination based on the connection destination specification field 41 shown in FIG. 5, and proceeds to step ST2 if it determines that the external device 3_1 to 3_N has been specified. If so, the process is repeated.
[0031]
Step ST2:
The CPU 18 connects to the external devices 3_1 to 3_N designated as the connection destinations in step ST1, parses the file data FILE_1 to FLIE_N input from the external devices, and, as described above, sets the key (K) of the KLV data as described above. Based on this, attribute data such as UMID data, V / A_C data and EM data stored as KLV data (V) is extracted.
Step ST3:
The CPU 18 generates image data to be displayed in the file attribute display field 42 shown in FIG. 5 that displays the attribute data extracted in step ST2, and outputs the image data to the display 16 via the interface 12.
Thereby, the attribute data such as the UMID data, V / A_C data and EM data extracted in step ST2 are displayed in the file attribute display column 42 of the GUI screen 30 shown in FIG. Is displayed.
[0032]
Step ST4:
The CPU 18 generates an image signal of an image to which the EM data in the file data FILE_1 to FLIE_N input from the external devices 3_1 to 3_N connected in step ST2 is based on the EM data extracted in step ST2. Output to the display 16 via the interface 12.
As a result, a preview of the image specified by the EM data is displayed in the preview column 43 in FIG.
When a plurality of file data are stored in the external devices 3_1 to 3_N connected in step ST2, the CPU 18 displays the preview of the file data specified by the user.
[0033]
Step ST5:
The CPU 18 determines whether or not the import instruction button 48 shown in FIG. 5 has been designated by the operation of the operation unit 14 by the user. If it is determined that the import instruction button 48 has been designated, the process proceeds to step ST8. If not, the process proceeds to step ST6. Return.
Step ST6:
The CPU 18 connects the portion (range) defined by the IN point and the OUT point specified by the columns 61 and 62 in the file data FILE_1 to FILE_N being previewed to the preview column 43 shown in FIG. Input from 3_N (import).
[0034]
Step ST7:
The CPU 18 converts the data input from the external devices 3_1 to 3_N in step ST6 into a native format for non-linear editing (Non Linear Edition) to generate clip data. The clip data is given the name input in the clip name input field 47 shown in FIG.
The CPU 18 stores the clip data in an editing memory (not shown).
Thereafter, the CPU 18 reads and uses the clip data in the editing process.
Step ST8:
The CPU 18 determines whether or not a predetermined end condition is satisfied. If it is determined that the predetermined end condition is satisfied, the process ends. If not, the process returns to step ST4.
[0035]
As described above, in the editing device 4, in addition to the file name (NAME), size (SIZE), and update time (TIME) of the file data input from the external devices 3_1 to 3_N designated as the connection destination, The file attribute display field 42 shown in FIG. 5 showing the presence / absence of UMID data and the presence / absence and number of V / A_C data and EM data obtained by parsing the file data is automatically displayed.
Therefore, it is possible to easily determine whether or not the content to be imported is included in the file data only by looking at the file attribute display column 42.
Further, according to the editing device 4, the user can easily grasp the progress of the image being previewed in the preview column 43 based on the preview progress display column 44.
Further, the mark EM_M is displayed on the time axis 60 in the preview progress display column 44, and the mark 65 is displayed on the preview screen of the image to which the EM data is added. Can be easily identified.
Further, according to the editing device 4, a preview of the file data displayed in the file attribute display column 42 can be displayed in the preview column 43 by a simple operation, and the user can input the IN point and the OUT in the columns 61 and 62 shown in FIG. By specifying a point and subsequently specifying the import instruction button 48, clip data can be automatically generated.
[0036]
The present invention is not limited to the embodiments described above.
For example, in the above-described embodiment, the MXF file data FILE_1 to FILE_N described with reference to FIG. 3 and the like are illustrated as the file data of the present invention. However, the file data of the present invention includes content data and attributes of the content data. There is no particular limitation as long as the attribute data includes attribute data indicating.
Further, in the above-described embodiment, the GUI screen 30 illustrated in FIG. 5 is illustrated, but, for example, only the file attribute display field 42 may be displayed on the screen.
The attribute data of the present invention is not particularly limited as long as it is included in the file data and indicates the attribute of the content data included in the file data. For example, the attribute data may be the name of the photographer who took the picture when the content data is a photograph, or the name of the director of the movie if the content data is related to the contents of the movie. Good.
[0037]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a program capable of displaying attribute data included in file data, a method thereof, and a device thereof.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an editing system according to an embodiment of the present invention.
FIG. 2 is a hardware configuration diagram of the editing device shown in FIG. 1;
FIG. 3 is a diagram for explaining a format of MXF file data shown in FIG. 1;
FIG. 4 is a diagram for explaining KLV data;
FIG. 5 is a diagram for explaining a GUI screen displayed on a display 16 shown in FIG. 2;
FIG. 6 is a diagram for explaining a file attribute display column shown in FIG. 5;
FIG. 7 is a diagram for explaining a preview column and a preview progress display column shown in FIG. 5;
FIG. 8 is a flowchart for explaining an operation example of the editing device shown in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Editing system, 3 ... External device, 4 ... Editing device, 10 ... Bus, 11 ... Interface, 12 ... Interface, 13 ... Interface, 14 ... Operation unit, 15 ... Speaker, 16 ... Display, 17 ... Memory, 18 ... CPU, 30: GUI screen, 41: connection destination designation field, 42: file attribute display field, 43: preview field, 44: preview progress display field, 45: preview channel display field, 46: preview operation button group, 47 ... Clip name input field, 48 ... Import instruction button

Claims (9)

コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の手順と、
前記第1の手順で抽出した前記属性データを表示する画像データを生成する第2の手順と
をコンピュータに実行させるプログラム。
A first procedure of parsing file data including content data and attribute data indicating the attribute of the content data to extract the attribute data;
And a second procedure for generating image data for displaying the attribute data extracted in the first procedure.
前記ファイルデータを保持する保持元に接続する第3の手順
を前記コンピュータにさらに実行させ、
前記第1の手順は、前記第3の手順で接続した前記保持元から入力した前記ファイルデータをパースする
請求項1に記載のプログラム。
Causing the computer to further execute a third procedure of connecting to a holding source that holds the file data,
The program according to claim 1, wherein the first procedure parses the file data input from the holding source connected in the third procedure.
前記第2の手順は、前記第3の手順で接続した前記保持元から入力した前記ファイルデータの一覧と共に前記属性データを表示する前記画像データを生成する
請求項2に記載のプログラム。
The program according to claim 2, wherein the second procedure generates the image data for displaying the attribute data together with a list of the file data input from the holding source connected in the third procedure.
前記ファイルデータの全体あるいは一部を指定するための画像の画像データを生成する第4の手順と、
前記第4の手順で生成された前記画像データによる前記画像を基に指定された前記ファイルデータの一部を基にクリップデータを生成する第5の手順と
を前記コンピュータにさらに実行させる
請求項1に記載のプログラム。
A fourth procedure for generating image data of an image for designating all or a part of the file data;
And causing the computer to further execute a fifth procedure of generating clip data based on a part of the file data designated based on the image based on the image data generated in the fourth procedure. The program described in.
前記ファイルデータは、所定のデータと当該所定のデータを識別する識別データとをそれぞれ含む複数のモジュールデータで構成され、
前記第1の手順は、前記ファイルデータをパースして前記モジュールデータの前記識別データを検出し、当該検出した前記識別データを基に、前記属性データを抽出する
請求項1に記載のプログラム。
The file data is configured by a plurality of module data each including predetermined data and identification data for identifying the predetermined data,
2. The program according to claim 1, wherein the first procedure parses the file data to detect the identification data of the module data, and extracts the attribute data based on the detected identification data.
前記第1の手順は、前記コンテンツデータの形式、生成方法、生成時、生成者、生成国名、前記コンテンツデータがビデオデータである場合の記録時に指定された画像の特定、並びに複数の系統のコンテンツデータが前記ファイルデータに格納されている場合に前記系統のうち少なくとも一つを示す前記属性データを抽出する
請求項1に記載のプログラム。
The first procedure includes specifying a format, a generation method, a generation time, a creator, a generation country name, an image specified at the time of recording when the content data is video data, and a plurality of types of content data. The program according to claim 1, wherein the attribute data indicating at least one of the systems is extracted when data is stored in the file data.
コンピュータが実行するデータ処理方法であって、
コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の工程と、
前記第1の工程で抽出した前記属性データを表示する画像データを生成する第2の工程と
を有するデータ処理方法。
A data processing method executed by a computer,
A first step of parsing file data including content data and attribute data indicating the attribute of the content data to extract the attribute data;
A second step of generating image data for displaying the attribute data extracted in the first step.
前記ファイルデータを保持する保持元に接続する第3の工程
をさらに有し、
前記第1の工程は、前記第3の工程で接続した前記保持元から入力した前記ファイルデータをパースする
請求項7に記載のデータ処理方法。
A third step of connecting to a holding source that holds the file data,
The data processing method according to claim 7, wherein the first step parses the file data input from the holding source connected in the third step.
コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むファイルデータをパースして前記属性データを抽出する第1の手段と、
前記第1の手段で抽出した前記属性データを表示する画像データを生成する第2の手段と
を有するデータ処理装置。
First means for parsing file data including content data and attribute data indicating the attribute of the content data to extract the attribute data;
A second means for generating image data for displaying the attribute data extracted by the first means.
JP2003101415A 2003-04-04 2003-04-04 Program, method therefor, and device therefor Pending JP2004310331A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003101415A JP2004310331A (en) 2003-04-04 2003-04-04 Program, method therefor, and device therefor
PCT/JP2004/004844 WO2004090728A1 (en) 2003-04-04 2004-04-02 Program, method thereof, and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003101415A JP2004310331A (en) 2003-04-04 2003-04-04 Program, method therefor, and device therefor

Publications (1)

Publication Number Publication Date
JP2004310331A true JP2004310331A (en) 2004-11-04

Family

ID=33156759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003101415A Pending JP2004310331A (en) 2003-04-04 2003-04-04 Program, method therefor, and device therefor

Country Status (2)

Country Link
JP (1) JP2004310331A (en)
WO (1) WO2004090728A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002025232A (en) * 2000-06-30 2002-01-25 Sony Corp Device and method for recording information and device, method and system for processing information
GB0029893D0 (en) * 2000-12-07 2001-01-24 Sony Uk Ltd Video information retrieval

Also Published As

Publication number Publication date
WO2004090728A1 (en) 2004-10-21

Similar Documents

Publication Publication Date Title
JP2002351878A (en) Digital contents reproduction device, data acquisition system, digital contents reproduction method, metadata management method, electronic watermark embedding method, program, and recording medium
TWI310545B (en) Storage medium storing search information and reproducing apparatus
JP4885841B2 (en) Cyclic referencing management method and apparatus, and purging method and apparatus
KR100607969B1 (en) Method and apparatus for playing multimedia play list and storing media therefor
JP4988012B2 (en) Electronic device and indexing control method
WO2005124557A1 (en) Electronic document read system
JP2005327257A (en) File management method and apparatus for controlling asset in multimedia appliance and information recording medium therefor
US20070201864A1 (en) Information processing apparatus, information processing method, and program
TW200402987A (en) Method and device for linking multimedia data
KR20030062315A (en) Method, system, and program for creating, recording and distributing digital stream contents
KR100453060B1 (en) Methods for fixing-up lastURL representing path name and file name of asset in MPV environment
US20060271855A1 (en) Operating system shell management of video files
US7610554B2 (en) Template-based multimedia capturing
JP2005033276A (en) System, program, and method for image reproducing
JP2004310331A (en) Program, method therefor, and device therefor
WO2019244731A1 (en) File generation device, file generation method, processing device, processing method, and program
JP2005039354A (en) Metadata input method and editing system
RU2331936C2 (en) Device and method for playback of audio and video data
JP2011193386A (en) Electronic apparatus and image processing method
JP2004120401A (en) Method, device, and program for picture reproduction
JP4250662B2 (en) Digital data editing device
JPH11249941A (en) Method of generating file for arrangement
JP2022076078A (en) Information processing system, information processing apparatus, information processing method, and program
JP2015192423A (en) Video data management apparatus, video data management method, video data management program
JP2003308674A (en) Information recording medium and production method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081118