JP4314922B2 - Program, data processing method and apparatus - Google Patents
Program, data processing method and apparatus Download PDFInfo
- Publication number
- JP4314922B2 JP4314922B2 JP2003283178A JP2003283178A JP4314922B2 JP 4314922 B2 JP4314922 B2 JP 4314922B2 JP 2003283178 A JP2003283178 A JP 2003283178A JP 2003283178 A JP2003283178 A JP 2003283178A JP 4314922 B2 JP4314922 B2 JP 4314922B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- video
- audio
- file
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
本発明は、ビデオデータおよびオーディオデータのフォーマット変換を行うプログラム、データ処理方法およびその装置に関する。 The present invention relates to a program for converting the format of video data and audio data, a data processing method, and an apparatus therefor.
ビデオデータやオーディオデータのファイル交換フォーマットの一つに、MXF(Material eXchange Format)がある。
MXFは、ヘッダデータに含まれるメタデータと、複数のフレームデータ等で構成され、各フレームデータには1フレーム分のビデオデータとそれに対応するオーディオデータと、これらビデオデータおよびオーディオデータの属性を示すシステムデータ等が含まれる。
すなわち、MXFのデータでは、ビデオデータ、オーディオデータおよびシステムデータがインターリーブにより混在して格納されている。
MXFでは、上記メタデータおよびシステムデータにおいて各フレームデータ内のビデオデータおよびオーディオデータの符号化方式、圧縮方式、データ構造、タイムコード、編集内容などの属性を記述することで、ビデオデータおよびオーディオデータの属性に依存しないフォーマットでファイル交換を可能にする。
MXF (Material eXchange Format) is one of file exchange formats for video data and audio data.
MXF is composed of metadata included in header data, a plurality of frame data, and the like. Each frame data indicates one frame of video data and corresponding audio data, and attributes of these video data and audio data. System data etc. are included.
That is, in MXF data, video data, audio data, and system data are mixedly stored by interleaving.
In MXF, video data and audio data are described by describing attributes such as the encoding method, compression method, data structure, time code, and editing content of video data and audio data in each frame data in the above metadata and system data. Allows file exchange in a format independent of the attributes of
ところで、パーソナルコンピュータなどのコンピュータでは、ビデオデータやオーディオデータの再生処理を行う場合に、ビデオデータおよびビデオデータがそれぞれ個別のビデオファイルデータおよびオーディオファイルデータとして存在する必要がある。
そのため、コンピュータは、MXFのデータのままでは、ビデオデータおよびオーディオデータの再生を行うことができないという問題がある。
また、コンピュータなどが記憶するビデオファイルデータおよびオーディオファイルデータを基に、上記MXFのデータを自動的に生成して転送したいという要請がある。
By the way, in a computer such as a personal computer, when performing reproduction processing of video data and audio data, the video data and the video data need to exist as individual video file data and audio file data, respectively.
Therefore, there is a problem that the computer cannot reproduce the video data and the audio data with the MXF data as it is.
Further, there is a demand for automatically generating and transferring the MXF data based on video file data and audio file data stored in a computer or the like.
本発明は、上述した従来技術の問題点に鑑みてなされ、ビデオデータ、オーディオデータおよび属性データがインターリーブにより混在して格納されているデータから、ビデオファイルデータおよびオーディオファイルデータを個別に生成できるプログラム、その方法およびその装置を提供することを目的とする。
また、本発明は、ビデオファイルデータおよびオーディオファイルデータから、ビデオデータ、オーディオデータおよび属性データがインターリーブにより混在して格納されているデータを生成できるプログラム、その方法およびその装置を提供することを目的とする。
The present invention has been made in view of the above-described problems of the prior art, and a program capable of individually generating video file data and audio file data from data in which video data, audio data, and attribute data are mixedly stored by interleaving. It is an object to provide a method and an apparatus thereof.
Another object of the present invention is to provide a program, a method thereof, and an apparatus thereof capable of generating data in which video data, audio data, and attribute data are mixedly stored by interleaving from video file data and audio file data. And
上述した従来技術の問題点を解決するために、第1の発明のプログラムは、各々が1フレーム分のビデオデータである複数のビデオデータと、前記ビデオデータに対応する各々が1フレーム分のオーディオデータである複数のオーディオデータと、前記ビデオデータおよび前記オーディオデータの属性を示す属性データとを各々が含む複数のモジュールデータから構成される被処理データをパースする第1の手順と、前記第1の手順において前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の手順で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の手順と、前記第1の手順で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の手順で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の手順と、前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の手順と、を含むパースプロセスと、前記第4の手順において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の手順と、を含む生成プロセスと、を含む処理をコンピュータに実行させる。 In order to solve the above-described problems of the prior art, a program according to a first aspect of the invention includes a plurality of video data, each of which is video data for one frame, and audio corresponding to one video each corresponding to the video data. a plurality of audio data which is data, a first procedure for parsing the processed data comprised of a plurality of modules data, each including the attribute data indicating an attribute of the video data and the audio data, the first The video file attribute data relating to the video is generated by counting the number of the parsed module data in the procedure of the above, and the video file attribute data further indicating the frame number data obtained based on the count result and the first A video file including the plurality of video data parsed in the procedure of Audio file attribute data relating to audio is generated based on the attribute data parsed in the first procedure and the attribute data parsed in the first procedure, and the parsing is performed in the audio file attribute data and the first procedure. A parsing process including a third procedure for generating audio file data including the plurality of audio data and a fourth procedure for generating attribute file data indicating attributes of the video file data and the audio file data And using the attribute file data generated in the fourth procedure, the video file data and the audio file data are received and converted, and the video data and audio data corresponding to the video data are Generate module data including the attribute data That is executed in the fifth step, the production process comprising, a processing including a computer.
第2の発明のデータ処理方法は、各々が1フレーム分のビデオデータである複数のビデオデータと、前記ビデオデータに対応する各々が1フレーム分のオーディオデータである複数のオーディオデータと、前記ビデオデータおよび前記オーディオデータの属性を示す属性データとを各々が含む複数のモジュールデータから構成される被処理データをパースする第1の工程と、前記第1の工程において前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の工程で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の工程と、前記第1の工程で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の工程で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の工程と、前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の工程と、前記第4の工程において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の工程と、を有する。 According to a second aspect of the present invention, there is provided a data processing method including a plurality of video data, each of which is video data for one frame, a plurality of audio data each corresponding to one frame of audio data, and the video data. a first step of parsing the processed data composed and attribute data indicating an attribute of the data and the audio data from the plurality of the module data included in each of the first of said module data the parsed in step The video file attribute data relating to the video is generated by counting the number, and the video file attribute data further indicating the frame number data obtained based on the count result and the plurality of video data parsed in the first step A second step of generating video file data including: the first step Audio file attribute data related to audio is generated based on the attribute data parsed in the step, and audio file data including the audio file attribute data and the plurality of audio data parsed in the first step is generated. A third step, a fourth step of generating attribute file data indicating attributes of the video file data and the audio file data, and the attribute file data generated in the fourth step, Receiving a video file data and the audio file data, performing a conversion process, and generating a module data including the video data, audio data corresponding to the video data, and the attribute data.
第3の発明のデータ処理方法は、各々が1フレーム分のビデオデータである複数のビデオデータと、前記ビデオデータに対応する各々が1フレーム分のオーディオデータである複数のオーディオデータと、前記ビデオデータおよび前記オーディオデータの属性を示す属性データとを各々が含む複数のモジュールデータから構成される被処理データをパースする第1の手段と、前記第1の手段で前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の手段で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の手段と、前記第1の手段で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の手段で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の手段と、前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の手段と、前記第4の手段において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の手段と、を有する。 According to a third aspect of the present invention, there is provided a data processing method comprising: a plurality of video data each of which is video data for one frame; a plurality of audio data each corresponding to the video data of one frame of audio data; and the video first means for parsing the processed data composed and attribute data indicating an attribute of the data and the audio data from the plurality of the module data each including the parsed in said module data with said first means The video file attribute data relating to the video is generated by counting the number, and the video file attribute data further indicating the frame number data obtained based on the count result and the plurality of video data parsed by the first means And second means for generating video file data including the first means Audio file attribute data related to audio is generated based on the parsed attribute data, and audio file data including the audio file attribute data and the plurality of audio data parsed by the first means is generated. Means for generating attribute file data indicating attributes of the video file data and the audio file data, and the video file using the attribute file data generated by the fourth means. 5th means which receives data and the said audio file data, performs a conversion process, and produces | generates the module data containing the said video data, the audio data corresponding to the said video data, and the said attribute data.
第1〜第3の発明によれば、ビデオデータ、オーディオデータおよび属性データが混在したデータから、ビデオファイルデータおよびオーディオファイルデータを個別に生成できるプログラム、その方法およびその装置を提供することができる。
第4〜第6の発明によれば、ビデオファイルデータおよびオーディオファイルデータから、ビデオデータ、オーディオデータおよび属性データが混在したデータを生成できるプログラム、その方法およびその装置を提供することができる。
According to the first to third aspects of the present invention, it is possible to provide a program, a method thereof, and an apparatus thereof that can individually generate video file data and audio file data from data in which video data, audio data, and attribute data are mixed. .
According to the fourth to sixth inventions, it is possible to provide a program, a method and an apparatus thereof that can generate data in which video data, audio data, and attribute data are mixed from video file data and audio file data.
以下、本発明の実施形態について説明する。
先ず、本発明の構成と、本実施形態の構成との対応関係を説明する。
本実施形態の図5に示すデータMXF_Dが、第1〜第3の発明の被処理データ、並びに第4〜第6の発明の第2の手順、第2の工程および第2の手段で生成されるデータに対応している。
また、本実施形態の図7に示すビデオファイルデータVFが本発明のビデオファイルデータに対応し、図9に示すオーディオファイルデータAFが本発明のオーディオファイルデータに対応している。
また、図6に示すビデオデータPICが本発明の被処理データ内のビデオデータに対応し、オーディオデータAUDIOが本発明の被処理データ内のオーディオデータに対応している。
また、図7等に示すビデオデータVIDEOが本発明のビデオファイルデータ内のビデオデータに対応し、図9等に示すオーディオデータAUDIOが本発明のオーディオファイルデータ内のオーディオデータに対応している。
また、本実施形態のシステムデータSYSが第1〜第3の発明の第1の属性データ、並びに第4〜第6の発明のモジュール属性データに対応している。
また、図7に示すビデオファイル属性データVFPDが第1〜第3の発明の第2の属性データに対応している。
また、図9に示すオーディオファイル属性データAFPDが第1〜第3の発明の第3の属性データに対応している。
また、図5に示すヘッダデータHEADER、並びにメタデータMETAが本発明の第4の属性データに対応している。
また、図6に示すKLVデータが本発明の単位データに対応し、キー(K)が本発明の識別データ、データ長(L)が本発明のデータ長データ、データ(V)が本発明のデータ本体に対応している。
Hereinafter, embodiments of the present invention will be described.
First, the correspondence between the configuration of the present invention and the configuration of the present embodiment will be described.
Data MXF_D shown in FIG. 5 of the present embodiment is generated by the data to be processed of the first to third inventions, the second procedure, the second step, and the second means of the fourth to sixth inventions. Data.
Also, the video file data VF shown in FIG. 7 of the present embodiment corresponds to the video file data of the present invention, and the audio file data AF shown in FIG. 9 corresponds to the audio file data of the present invention.
Also, the video data PIC shown in FIG. 6 corresponds to the video data in the processed data of the present invention, and the audio data AUDIO corresponds to the audio data in the processed data of the present invention.
7 corresponds to the video data in the video file data of the present invention, and the audio data AUDIO shown in FIG. 9 corresponds to the audio data in the audio file data of the present invention.
The system data SYS of the present embodiment corresponds to the first attribute data of the first to third inventions and the module attribute data of the fourth to sixth inventions.
The video file attribute data VFPD shown in FIG. 7 corresponds to the second attribute data of the first to third inventions.
The audio file attribute data AFPD shown in FIG. 9 corresponds to the third attribute data of the first to third inventions.
Further, the header data HEADER and the metadata META shown in FIG. 5 correspond to the fourth attribute data of the present invention.
6 corresponds to the unit data of the present invention, the key (K) is the identification data of the present invention, the data length (L) is the data length data of the present invention, and the data (V) is the data of the present invention. It corresponds to the data body.
また、本実施形態のMXF処理プログラムPRG1が第1の発明および第4の発明のプログラムに対応している。ここで、MXF処理プログラムPRG1の実行によって起動されるMXFパーサスレッド43が第1の発明に対応し、MXFパーサスレッド43が第4の発明に対応している部分である。
また、コンピュータ4が第3の発明および第6の発明のデータ処理装置に対応している。
また、第1の発明の第1の手順、第2の発明の第1の工程、第3の発明の第1の手段は、図13に示すステップST1、図18に示すステップST21、並びに図19に示すステップST31によって実現される。
また、第1の発明の第2の手順、第2の発明の第2の工程、第3の発明の第2の手段は、図13に示すステップST5,ST7,ST10、並びに図18の処理によって実現される。
また、第1の発明の第3の手順、第2の発明の第3の工程、第3の発明の第3の手段は、図13に示すステップST5,ST7,ST13,ST14、並びに図19の処理によって実現される。
また、第4の発明の第1の手順、第5の発明の第1の工程、第6の発明の第1の手段は、図20に示すステップST41,ST42によって実現される。
また、第4の発明の第2の手順、第5の発明の第2の工程、第6の発明の第2の手段は、図20に示すステップST43〜ST48によって実現される。
Further, the MXF processing program PRG1 of the present embodiment corresponds to the programs of the first invention and the fourth invention. Here, the
The computer 4 corresponds to the data processing apparatus of the third invention and the sixth invention.
Further, the first procedure of the first invention, the first step of the second invention, and the first means of the third invention are shown in step ST1 shown in FIG. 13, step ST21 shown in FIG. 18, and FIG. This is realized by step ST31 shown in FIG.
Further, the second procedure of the first invention, the second step of the second invention, and the second means of the third invention are carried out by steps ST5, ST7, ST10 shown in FIG. 13 and the processing of FIG. Realized.
The third procedure of the first invention, the third step of the second invention, and the third means of the third invention are the steps ST5, ST7, ST13, ST14 shown in FIG. Realized by processing.
The first procedure of the fourth invention, the first step of the fifth invention, and the first means of the sixth invention are realized by steps ST41 and ST42 shown in FIG.
Further, the second procedure of the fourth invention, the second step of the fifth invention, and the second means of the sixth invention are realized by steps ST43 to ST48 shown in FIG.
次に、図1〜図27に示す編集システム1の概要について説明する。
図11に示すMXFパーサスレッド43は、図5に示す複数のビデオデータPICと、複数のオーディオデータSOUと、システムデータSYSとが混在したデータMXF_Dをパースする。
そして、MXFパーサスレッド43は、上記パースしたシステムデータとメタデータMETAを基にビデオに関する図7に示すビデオファイル属性データVFPDを生成し、ビデオファイル属性データVFPDと、上記パースした複数のビデオデータPIC(VIDEO)とを含むビデオファイルデータVFを生成する。
また、MXFパーサスレッド43は、上記パースしたシステムデータとメタデータMETAを基にオーディオに関する図9に示すオーディオファイル属性データAFPDを生成し、オーディオファイル属性データAFPDと、上記パースした複数のオーディオデータSOU(AUDIO)とを含むオーディオファイルデータAFを生成する。
Next, an overview of the
The
Then, the
Further, the
また、図11に示すMXF−MUXスレッド44は、図7に示すビデオファイルデータVFに含まれるビデオファイル属性データVFPDを基に、フォーマット(D10)を特定する。
そして、MXF−MUXスレッド44は、ビデオファイルデータVFに含まれる複数のビデオデータVIDEOの各々に対応して規定され、上記特定したフォーマットを示すシステムデータSYSと、単数のビデオデータPIC(VIDEO)と、図9に示すオーディオファイルデータAFに含まれる複数のオーディオデータVIDEOのうち当該ビデオデータPICに対応する単数のオーディオデータSOU(AUDIO)とをそれぞれ含む複数のフレームデータFLD_1〜FLD_nで構成される図5に示すデータMXF_Dを生成する。
Further, the MXF-
The MXF-
以下、各図面を基に、編集システム1について詳細に説明する。
図1は、本発明の実施形態に係わる編集システム1の全体構成図である。
図1に示すように、編集システム1は、例えば、FTP(File Transfer Protorol)サーバ3、コンピュータ4、コンピュータ5、RAID(Redundant Array of Inexpensive Disks)6を有し、これらがネットワーク2を介して通信する。
本実施形態では、例えば、コンピュータ4、コンピュータ5およびRAID6は、SAN(Storage Area Network)などのネットワークを介して接続させている。
〔FTPサーバ3〕
FTPサーバ3は、受信したMXFデータを、ネットワーク2を介してFTPを基に、コンピュータ4およびコンピュータ5に送信する。
Hereinafter, the
FIG. 1 is an overall configuration diagram of an
As shown in FIG. 1, the
In this embodiment, for example, the computer 4, the
[FTP server 3]
The FTP server 3 transmits the received MXF data to the computer 4 and the
〔コンピュータ4〕
コンピュータ4では、例えば、図2に示すように、MXFデータを処理するMXFプロセス8と、非線形編集NLE(None Linear Edit)処理などの編集処理を行う編集プロセス9aとが動作する。
図3は、図1および図2に示すコンピュータ4の構成図である。
図3に示すように、コンピュータ4は、例えば、通信部11、操作部12、表示部13、メモリ14および処理部15を有し、これらがデータ線10を介して接続されている。 通信部11は、ネットワーク2を介して、FTPサーバ3、コンピュータ5およびRAID6とデータ授受を行う。
操作部12は、キーボードやマウスなどの操作手段であり、ユーザの操作に応じた操作信号を処理部15に出力する。
表示部13は、処理部15からの表示信号に応じた画像(画面)を表示する。
メモリ14は、図2に示すMXFプロセス8の処理を記述したMXF処理プログラムPRG1と、編集プロセス9aの処理を記述した編集処理プログラムPRG2とを記録する。
処理部15は、メモリ14に記録されたMXF処理プログラムPRG1を基に(実行して)MXFプロセス8を起動し、編集処理プログラムPRG2を基に編集プロセス9aを起動する。
なお、本実施形態において、MXFプロセス8に関する各スレッドは、処理部15がMXF処理プログラムPRG1を実行して実現される。また、編集プロセス9aに関する各スレッドは、処理部15が編集処理プログラムPRG2を実行して実現される。
〔コンピュータ5〕
コンピュータ5では、例えば、図2に示すように、編集などの編集処理を行う編集プロセス9bが動作する。
図4は、図1および図2に示すコンピュータ5の構成図である。
図4に示すように、コンピュータ5は、例えば、通信部21、操作部22、表示部23、メモリ24および処理部25を有し、これらがデータ線20を介して接続されている。 通信部21は、ネットワーク2を介して、FTPサーバ3、コンピュータ4およびRAID6とデータ授受を行う。
操作部22は、キーボードやマウスなどの操作手段であり、ユーザの操作に応じた操作信号を処理部25に出力する。
表示部23は、処理部25からの表示信号に応じた画像(画面)を表示する。
メモリ24は、図2に示す編集プロセス9bの処理を記述した編集処理プログラムPRG3を記録する。
処理部25は、メモリ24に記録された編集処理プログラムPRG3を基に編集プロセス9bを起動する。
また、編集プロセス9bに関する各スレッドは、処理部25が編集処理プログラムPRG3を実行して実現される。
[Computer 4]
In the computer 4, for example, as shown in FIG. 2, an
FIG. 3 is a configuration diagram of the computer 4 shown in FIGS. 1 and 2.
As shown in FIG. 3, the computer 4 includes, for example, a communication unit 11, an
The
The
The
The
In the present embodiment, each thread related to the
[Computer 5]
In the
FIG. 4 is a configuration diagram of the
As illustrated in FIG. 4, the
The
The display unit 23 displays an image (screen) corresponding to the display signal from the
The memory 24 records an editing processing program PRG3 describing the processing of the
The
Each thread related to the
RAID6は、MXFデータ、ビデオファイルデータVF、オーディオファイルデータAF、並びに属性ファイルデータPFを記録する。
ここで、MXFデータは、後述するMXFで規定されている。
また、ビデオファイルデータVF、並びにオーディオファイルデータAFは、編集プロセス9a,9bで利用(再生)できるフォーマットを有している。
属性ファイルデータPFは、ビデオファイルデータVFおよびオーディオファイルデータAFの属性を示す。
Here, the MXF data is defined by MXF described later.
The video file data VF and the audio file data AF have a format that can be used (reproduced) in the editing processes 9a and 9b.
The attribute file data PF indicates the attributes of the video file data VF and the audio file data AF.
以下、MXFデータ、ビデオファイルデータVF、並びにオーディオファイルデータAFについてそれぞれ説明する。
〔MXF_D〕
以下、MXFフォーマットのデータMXF_Dについて説明する。
図5は、データMXF_Dのフォーマットを説明するための図である。
図5に示すように、データMXF_Dは、ヘッダデータHEADER、ボディデータBODYおよびフッタデータFOOTERで構成される。
ヘッダデータHEADER、ボディデータBODYおよびフッタデータFOOTERの各々は、パックPACKと呼ばれる複数のモジュールデータで構成される。
ヘッダデータHEADERは、ヘッダパーティションパックHPP、メタデータMETA、インデックステーブルINDEXTなどで構成される。
ヘッダパーティションパックHPPは、データMXF_D全体に対しての属性データを示す。
ヘッダパーティションパックHPPは、例えば、Closed partitionを示す場合には、データMXF_Dに含まれるフレームデータの数であるフレーム数をメタデータMETA内で示すことができる。
Hereinafter, MXF data, video file data VF, and audio file data AF will be described.
[MXF_D]
The MXF format data MXF_D will be described below.
FIG. 5 is a diagram for explaining the format of the data MXF_D.
As shown in FIG. 5, the data MXF_D includes header data HEADER, body data BODY, and footer data FOTER.
Each of header data HEADER, body data BODY, and footer data FOTER is composed of a plurality of module data called pack PACK.
The header data HEADER is composed of a header partition pack HPP, metadata META, an index table INDEX, and the like.
The header partition pack HPP indicates attribute data for the entire data MXF_D.
For example, when the header partition pack HPP indicates a Closed partition, the number of frames that is the number of frame data included in the data MXF_D can be indicated in the metadata META.
メタデータMETAは、ボディデータBODYに格納されたフレームデータ(ビデオデータおよびオーディオデータ)の符号化方式、当該フレームデータの内容に関するキーワード、タイトル、識別データ、編集データ、作成時データ、編集時データなどの属性を示す。
また、メタデータMETAは、その他、例えば、フレームデータに関するタイムコード、欠落フレームデータを特定するためのデータ、上記フレーム数(Duration)などを含む。
インデックステーブルINDEXTは、データMXF_Dの利用時に、ボディデータBODY内のフレームデータに高速にアクセスするために用いられるデータを示す。
The metadata META is an encoding method of frame data (video data and audio data) stored in the body data BODY, keywords related to the contents of the frame data, title, identification data, editing data, creation data, editing data, etc. Indicates the attribute.
In addition, the metadata META includes, for example, a time code related to frame data, data for specifying missing frame data, the number of frames (Duration), and the like.
The index table INDEX indicates data used for accessing the frame data in the body data BODY at high speed when the data MXF_D is used.
ボディデータBODYは、複数のフレームデータFLD_1〜FLD_nを含む。ここで、nは1以上の任意の整数である。
フレームデータFLD_1〜FLD_nの各々は、図5に示すように、1フレーム分のビデオデータPICおよびオーディオデータSOUと、これらの属性を示すシステムデータSYSと、データAUXとを含む。
システムデータSYSは、例えば、ビデオデータPICおよびオーディオデータSOUのフォーマットや種別を示す。
システムデータSYSは、例えば、MXF_Dのフォーマット(例えば、SMPTEで規格化されたD10)、並びにそのフォーマット内で種別(例えば、SMPTEで規格化されたIMX50_625,IMX40_625,IMX30_625,IMX50_525,IMX40_525,IMX30_525などを示す。
システムデータSYSは、上記以外に、例えば、符号化方式、タイムコード、データMXF_Dの識別データであるUMID(Unique Material IDentifier)などを示す。
The body data BODY includes a plurality of frame data FLD_1 to FLD_n. Here, n is an arbitrary integer of 1 or more.
Each of the frame data FLD_1 to FLD_n includes video data PIC and audio data SOU for one frame, system data SYS indicating these attributes, and data AUX, as shown in FIG.
The system data SYS indicates, for example, the format and type of the video data PIC and the audio data SOU.
The system data SYS includes, for example, an MXF_D format (for example, D10 standardized by SMPTE), and a type (for example, IMX50_625, IMX40_625, IMX30_625, IMX50_525, IMX40_525, IMX30_525, etc., standardized by SMPTE). Show.
In addition to the above, the system data SYS indicates, for example, an encoding method, a time code, UMID (Unique Material IDentifier) that is identification data of the data MXF_D, and the like.
ビデオデータPICは、MPEG(Moving Picture Experts Group)などで符号化されたビデオデータである。
オーディオデータSOUは、AES(Audio Engineering Society) 3などで符号化されたオーディオデータである。
このように、データMXF_Dは、ビデオデータPICとオーディオデータSOUとがインターリーブされた状態(混在した状態)で格納する。
フッタデータFOOTERは、データMXF_Dの終端を示す識別データを含む。
The video data PIC is video data encoded by MPEG (Moving Picture Experts Group) or the like.
The audio data SOU is audio data encoded by AES (Audio Engineering Society) 3 or the like.
As described above, the data MXF_D is stored in a state where the video data PIC and the audio data SOU are interleaved (in a mixed state).
The footer data FOTER includes identification data indicating the end of the data MXF_D.
上述したヘッダパーティションパックHPP、メタデータMETA、インデックステーブルINDEXT、フレームデータFLD_1〜FLD_n、フッタデータFOOTERの各々は、単数または複数のパックデータPACKで構成され、各パックデータは単数または複数のKLVデータで構成される。
図6は、KLVデータを説明するための図である。
図6に示すように、KLVデータは、キー(K)、データ長(L)およびデータ(V)で構成される。
キー(K)、データ長(L)は、各々固定長のデータであり、キー(K)は例えばデータ(V)の内容の識別データであり、データ長(L)はデータ(V)のデータ長を示す。
KLVデータは、図6に示すように、データ(V)としてKLVデータを用いることができる。
Each of the above-described header partition pack HPP, metadata META, index table INDEX, frame data FLD_1 to FLD_n, and footer data FOTER is composed of one or a plurality of pack data PACK, and each pack data is a single or a plurality of KLV data. Composed.
FIG. 6 is a diagram for explaining the KLV data.
As shown in FIG. 6, the KLV data includes a key (K), a data length (L), and data (V).
The key (K) and the data length (L) are fixed-length data, the key (K) is identification data of the content of the data (V), for example, and the data length (L) is the data of the data (V). Indicates length.
As shown in FIG. 6, the KLV data can be KLV data as data (V).
〔VF〕
以下、本実施形態のビデオファイルデータVFについて説明する。
図7は、本実施形態のビデオファイルデータVFのフォーマットを説明するための図である。
図7に示すように、ビデオファイルデータVFは、例えば、識別データVIO、データVF_SIZE、ビデオ特性データVPRD、ビデオ共通特性デーVCPD、ビデオ固有特性データVUPD、ビデオオーナデータVOD、ダミーデータDUMY、データV_SEIZE、並びにビデオデータVIDEOを含む。
本実施形態では、識別データVIO、データVF_SIZE、ビデオ特性データVPRD、ビデオ共通特性デーVCPD、ビデオ固有特性データVUPD、ビデオオーナデータVOD、ダミーデータDUMY、データV_SEIZEによってビデオファイル属性データVFPDが構成される。
識別データVIOは、ビデオファイルデータVFの先頭を示す。
データVF_SIZEは、ビデオファイルデータVFのデータ長を示す。
ビデオ特性データVPRDは、ビデオファイルデータVFの識別データや、バージョン情報などを示す。
[VF]
Hereinafter, the video file data VF of this embodiment will be described.
FIG. 7 is a diagram for explaining the format of the video file data VF of the present embodiment.
As shown in FIG. 7, the video file data VF includes, for example, identification data VIO, data VF_SIZE, video characteristic data VPRD, video common characteristic data VCPD, video specific characteristic data VUPD, video owner data VOD, dummy data DUMY, data V_SEIZE. , As well as video data VIDEO.
In this embodiment, video file attribute data VFPD is constituted by identification data VIO, data VF_SIZE, video characteristic data VPRD, video common characteristic data VCPD, video unique characteristic data VUPD, video owner data VOD, dummy data DUMY, and data V_SEIZE. .
The identification data VIO indicates the head of the video file data VF.
Data VF_SIZE indicates the data length of the video file data VF.
The video characteristic data VPRD indicates identification data of the video file data VF, version information, and the like.
ビデオ共通特性デーVCPDは、全ビデオフォーマットに共通の特定情報を示す。
ビデオ共通特性デーVCPDは、例えば、図8に示すように、データVideoFormat,Width,Heigth,Framesize,Scale,Rate,Scanlineinfoなどを示す。
データVideoFormatは、ビデオデータVIDEOの種別、例えば、圧縮の有無、DV(Digital Video) か否か、MPEGか否か(符号化方式)、HDCAM(ハンディカム)か否かなどを示す。
データWidthは、ビデオデータVIDEOによるイメージの横のピクセス数(横幅)を示す。
データHeigthは、ビデオデータVIDEOによるイメージの縦のライン数(縦幅)を示す。
データFramesizeは、1フレームのサイズ(データ長)をバイト数で示す。本実施形態では、当該サイズは、4096バイトの倍数である。
データScale,Rateは、時間の単位RateをScaleで除算することで、再生レートを秒当たりのフレーム数で示すデータを得るために用いられる。
データScanlineinfoは、スキャンライン情報を示す。
The video common characteristic data VCPD indicates specific information common to all video formats.
The video common characteristic data VCPD indicates, for example, data VideoFormat, Width, Height, Framesize, Scale, Rate, Scanlineinfo, etc., as shown in FIG.
Data VideoFormat indicates the type of video data VIDEO, for example, whether compression is present, whether it is DV (Digital Video), whether it is MPEG (encoding method), whether it is HDCAM (handycam), or the like.
Data Width indicates the number of pixels (horizontal width) of an image by video data VIDEO.
Data Height indicates the number of vertical lines (vertical width) of the image by video data VIDEO.
Data Framesize indicates the size (data length) of one frame in bytes. In the present embodiment, the size is a multiple of 4096 bytes.
The data Scale and Rate are used to obtain data indicating the reproduction rate by the number of frames per second by dividing the unit of time Rate by Scale.
Data Scanlineinfo indicates scan line information.
ビデオ固有特性データVUPDは、上記データVideFormatで指定されたフォーマットに固有の特性情報を示す。
ビデオ固有特性データVUPDは、例えば、非圧縮データのタイプ、DVフォーマットの種類、MPEGフォーマットの種類、MPEGのデータタイプなどを示す。
ビデオオーナデータVODは、ビデオファイルデータVFを現在所有しているアプリケーションに関する情報を示す。
ダミーデータDUMYは、ビデオファイル属性データVFPDのサイズが4096バイトになるように規定されるデータである。
データV_SEIZEは、ビデオファイルデータVIDEOのデータサイズを示す。
ビデオデータVIDEOは、1フレームが4096バイトの整数倍になるように規定された複数のフレームのビデオデータである。
これにより、4096バイトを最小単位としてビデオデータVIDEOにアクセスを行うことが可能になる。
データMXF_Dでは、ビデオデータVIDEOの符号化方式、並びに圧縮方式等のフォーマットは任意である。
The video unique characteristic data VUPD indicates characteristic information specific to the format specified by the data VideoFormat.
The video unique characteristic data VUPD indicates, for example, the type of uncompressed data, the type of DV format, the type of MPEG format, the data type of MPEG, and the like.
The video owner data VOD indicates information regarding an application that currently owns the video file data VF.
The dummy data DUMY is data specified so that the size of the video file attribute data VFPD is 4096 bytes.
Data V_SEIZE indicates the data size of the video file data VIDEO.
Video data VIDEO is video data of a plurality of frames defined so that one frame is an integral multiple of 4096 bytes.
As a result, the video data VIDEO can be accessed using 4096 bytes as a minimum unit.
In the data MXF_D, the format of the encoding method and the compression method of the video data VIDEO is arbitrary.
〔AF〕
以下、本実施形態のオーディオファイルデータAFについて説明する。
図9は、本実施形態のオーディオファイルデータAFのフォーマットを説明するための図である。
図9に示すように、アプリケーションプログラムAPは、識別データRIFF、データAF_SIZE、WAVE特性データWFPD、オーディオ特性データAPRD、オーディオオーナデータAOD、チャンネルステータスデータCSD、ダミーデータDUMY、データA_SEIZE、並びにオーディオデータAUDIOを含む。
本実施形態では、識別データRIFF、データAF_SIZE、WAVE特性データWFPD、オーディオ特性データAPRD、オーディオオーナデータAOD、チャンネルステータスデータCSD、ダミーデータDUMY、データA_SEIZEによってオーディオファイル属性データAFPDが構成される。
識別データRIFFは、オーディオファイルデータAFの先頭を示す。
データAF_SIZEは、オーディオファイルデータAFのデータ長を示す。
WAVE特性データWFPDは、例えば、図10に示すように、データwFormatTag,nChannels,nSamplesPerSec,nAvgBytesPerSec,nBlockAlign,wBitsPerSample,cbSiseを示す。
データwFormatTagは、オーディオファイルデータAFのフォーマットを示す。
データnChannelsは、チャンネル数を示す。
データnSamplesPerSecは、サンプルレートを示す。
データnAvgBytesPerSecは、バッファエスティメーションを示す。
デ−タnBlockAlignは、データのブロックサイズを示す。
データwBitsPerSampleは、モノデータの単位のサンプルビット数を示す。
データcbSiseは、拡張情報のサイズのバイト数を示す。
[AF]
Hereinafter, the audio file data AF of the present embodiment will be described.
FIG. 9 is a diagram for explaining the format of the audio file data AF of the present embodiment.
As shown in FIG. 9, the application program AP includes identification data RIFF, data AF_SIZE, WAVE characteristic data WFPD, audio characteristic data APRD, audio owner data AOD, channel status data CSD, dummy data DUMY, data A_SEIZE, and audio data AUDIO. including.
In the present embodiment, audio file attribute data AFPD is constituted by identification data RIFF, data AF_SIZE, WAVE characteristic data WFPD, audio characteristic data APRD, audio owner data AOD, channel status data CSD, dummy data DUMY, and data A_SEIZE.
The identification data RIFF indicates the beginning of the audio file data AF.
Data AF_SIZE indicates the data length of the audio file data AF.
The WAVE characteristic data WFPD indicates data wFormatTag, nChannels, nSamplesPerSec, nAvgBytesPerSec, nBlockAlign, wBitsPerSample, cbSise, for example, as shown in FIG.
Data wFormatTag indicates the format of audio file data AF.
Data nChannels indicates the number of channels.
Data nSamplesPerSec indicates the sample rate.
The data nAvgBytesPerSec indicates buffer estimation.
Data nBlockAlign indicates the block size of data.
Data wBitsPerSample indicates the number of sample bits in a unit of mono data.
Data cbSise indicates the number of bytes of the size of the extension information.
オーディオ特性データAPRDは、オーディオデータAUDIOのデータ長、オーディオファイルデータAFのバージョンなどを示す。
オーディオオーナデータAODは、オーディオファイルデータAFを現在所有しているアプリケーションに関する情報を示す。
チャンネルステータスデータCSDは、オーディオデータAUDIOのチャンネルに関する情報を示す。
ダミーデータDUMYは、オーディオファイル属性データAFPDのサイズが4096バイトになるように規定されるデータである。
データA_SEIZEは、オーディオデータAUDIOのデータ長を示す。
オーディオデータAUDIOは、例えば、AES(Audio Engineering Society) 3などのフォーマットのオーディオデータである。
The audio characteristic data APRD indicates the data length of the audio data AUDIO, the version of the audio file data AF, and the like.
The audio owner data AOD indicates information related to an application that currently owns the audio file data AF.
The channel status data CSD indicates information regarding the channel of the audio data AUDIO.
The dummy data DUMY is data defined such that the size of the audio file attribute data AFPD is 4096 bytes.
Data A_SEIZE indicates the data length of the audio data AUDIO.
The audio data AUDIO is audio data in a format such as AES (Audio Engineering Society) 3.
〔MXFプロセス8〕
図11は、図2に示すMXFプロセス8を説明するための図である。
MXFプロセス8は、例えば、データMXF_DからビデオファイルデータVFおよびオーディオファイルデータAFの生成、並びにビデオファイルデータVFおよびオーディオファイルデータAFからデータMXF_Dの生成を行う。
この場合に、MXFプロセス8は、図11に示すように、例えば、スレッドマネージャ41、FTPスレッド42、MXFパーサスレッド43およびMXF−MUXスレッド44を有する。
[MXF process 8]
FIG. 11 is a diagram for explaining the
For example, the
In this case, the
〔スレッドマネージャ41〕
スレッドマネージャ41は、例えば、編集プロセス9a,9bからのコマンド、あるいは図3に示す操作部12からの操作信号などの要求に応じて、MXFパーサスレッド43およびMXF−MUXスレッド44を起動する。
[Thread manager 41]
For example, the
〔FTPスレッド42〕
FTPスレッド42は、FTPサーバ3との間でFTPによるデータMXF_Dの送受信を行う。
FTPスレッド42は、FTPサーバ3から受信したデータMXF_DをMXFパーサスレッド43にFTPで出力する。
FTPスレッド42は、MXF−MUXスレッド44から入力したデータMXF_DをFTPサーバ3にFTPで送信する。
[FTP thread 42]
The
The
The
〔MXFパーサスレッド43〕
MXFパーサスレッド43は、FTPスレッド42を介して受信したデータMXF_DあるいはRAID6から読み出したデータMXF_Dを、ビデオファイルデータVFおよびオーディオファイルデータAFに変換してRAID6に書き込む。
また、MXFパーサスレッド43は、FTPスレッド42から入力したデータMXF_Dをパースして抽出したビデオデータVIDEOと、オーディオデータAUDIOとを編集プロセス9a,9bが再生可能なフォーマットで編集プロセス9a,9bに出力する。 本実施形態では、MXFパース処理を行わない状態ではMXFパーサスレッド43が起動されず、MXFパース処理を行う場合に、スレッドマネージャ41が、編集プロセス9a,9bからのコマンド、あるいは図3に示す操作部12からの操作信号などの要求に応じてMXFパーサスレッド43を起動する。そのため、MXFパース処理を行わない状態でのコンピュータ4(処理部15)の処理負荷を軽減できる。
[MXF parser thread 43]
The
Further, the
また、本実施形態では、FTPスレッド42とMXFパーサスレッド43とを異なるプログラムではなく、同じMXFプロセス8によって実現するため、MXFパーサスレッド43がFTPスレッド42を介して受信したデータMXF_Dを変換処理する場合に、FTPスレッド42によるデータMXF_Dの受信処理と並行して、既に受信したデータMXF_DのMXFパース処理を行うことができる。
そのため、FTPを行うプログラムと、MXFパース処理を行うプログラムとを別個に規定し、データMXF_D全体に対してのFTP処理が終了した後に、MXFパース処理を行う場合に比べて処理時間を短縮できる。
In the present embodiment, the
Therefore, a program for performing FTP and a program for performing MXF parsing processing are separately defined, and the processing time can be shortened as compared with the case of performing MXF parsing after completion of FTP processing for the entire data MXF_D.
図12は、図11に示すMXFパーサスレッド43の機能ブロック図である。
図12に示すように、MXFパーサスレッド43は、例えば、SYSパースルーチン61、PICパースルーチン62、SOUパースルーチン63を有する。
MXFパーサスレッド43は、以下に示すように、SYSパースルーチン61が生成したビデオ属性ファイルデータVFPD、並びにPICパースルーチン62が生成したビデオデータVIDEOからなるビデオファイルデータVFを生成する。
MXFパーサスレッド43は、以下に示すように、SYSパースルーチン61が生成したオーディオ属性ファイルデータAFPD、並びにSOUパースルーチン63が生成したオーディオデータAUDIOからなるオーディオファイルデータAFを生成する。
また、MXFパーサスレッド43は、以下に示すように、SYSパースルーチン61によって、例えば、ビデオファイルデータVFおよびオーディオファイルデータAFに関する属性を示す属性ファイルデータPFを生成する。
この場合に、SYSパースルーチン61、PICパースルーチン62およびSOUパースルーチン63の実行順序は特に限定されない。
FIG. 12 is a functional block diagram of the
As shown in FIG. 12, the
The
The
Further, the
In this case, the execution order of the SYS parse routine 61, the PIC parse routine 62, and the SOU parse routine 63 is not particularly limited.
SYSパースルーチン61、PICパースルーチン62およびSOUパースルーチン63は、図5に示すデータMXF_Dをパースして、図6に示すKLVデータのキー(K)を検出し、当該検出したキー(K)を基に、予め決められたデータを用いて以下に示すデータを生成する。 The SYS parse routine 61, the PIC parse routine 62, and the SOU parse routine 63 parse the data MXF_D shown in FIG. 5, detect the key (K) of the KLV data shown in FIG. 6, and use the detected key (K). Based on the predetermined data, the following data is generated.
SYSパースルーチン61は、図5に示すデータMXF_DをパースしてデータMXF_D内のヘッダデータHEADER、フレームデータFLD_1〜FLD_n内のシステムデータSYS、フッタデータFOOTERを基に、図7に示すビデオファイルデータVFのビデオファイル属性データVFPDと、図9に示すオーディオファイルデータAFのオーディオファイルデータAFのオーディオファイル属性データAFPDとを生成する。 The SYS parsing routine 61 parses the data MXF_D shown in FIG. 5 and based on the header data HEADER in the data MXF_D, the system data SYS in the frame data FLD_1 to FLD_n, and the footer data FOTER, the video file data VF shown in FIG. Video file attribute data VFPD and audio file attribute data AFPD of audio file data AF of audio file data AF shown in FIG. 9 are generated.
図13および図14は、図12に示すSYSパースルーチン61の処理を説明するためのフローチャートである。
なお、図13において、ステップST3の判断に先立ってステップST6の判断を行ってもよい。
ステップST1:
SYSパースルーチン61は、FTPスレッド42から入力したデータMXF_DあるいはRAID6から読み出したデータMXF_Dをパースする。
ステップST2:
SYSパースルーチン61は、ステップST1のパースでデータMXF_Dを構成するKLVデータのキー(K)が検出されたか否かを判断し、検出された場合にステップST4に進み、検出されない場合にステップST1へ戻る。
ステップST3:
SYSパースルーチン61は、ステップST1で検出されたキー(K)がシステムデータSYSの14バイト目(所定の位置のデータ)に関するものであるか否かを判断し、14バイト目に関するものであると判断するとステップST4に進み、そうでない場合にはステップST6に進む。
13 and 14 are flowcharts for explaining the processing of the SYS parse routine 61 shown in FIG.
In FIG. 13, the determination in step ST6 may be performed prior to the determination in step ST3.
Step ST1:
The SYS parsing routine 61 parses the data MXF_D input from the
Step ST2:
The SYS parsing routine 61 determines whether or not the key (K) of the KLV data constituting the data MXF_D has been detected in the parsing at step ST1, and proceeds to step ST4 if detected, and to step ST1 if not detected. Return.
Step ST3:
The SYS parsing routine 61 determines whether or not the key (K) detected in step ST1 relates to the 14th byte (data at a predetermined position) of the system data SYS, and relates to the 14th byte. If it judges, it will progress to step ST4, and if that is not right, it will progress to step ST6.
ステップST4:
SYSパースルーチン61は、上記14バイト目を基に、データMXF_Dが「D10」フォーマット(所定のフォーマット)であるか否かを判断し、「D10」フォーマットである場合にステップST5に進み、そうでない場合に処理を終了するか、他のフォーマットに関する処理を行う。
ステップST5:
SYSパースルーチン61は、システムデータSYSの15バイト目を基に、データMXF_Dの種別がIMX50_625,IMX40_625,IMX30_625である場合に、図7に示すビデオ共通特性データVCPDの図8に示すデータVideoFormat,Width,Heigth,Framesize,Scale,Rate,Scanlineinfoとして、例えば、予め規定した図15(A)に示す値を設定してビデオファイル属性データVFPDを更新する。
ここで、データFramesizeは、フォーマットの種別に応じて、例えば、図16に示すように規定される。
また、SYSパースルーチン61は、図9に示すWAVE特性データWFPDの図10に示すデータwFormatTag,nChannels,nSamplesPerSec,nAvgBytesPerSec,nBlockAlign,wBitsPerSample,cbSiseとして、例えば、予め規定した図17に示す値を設定してオーディオファイル属性データAFPDを更新する。
一方、SYSパースルーチン61は、システムデータSYSの15バイト目を基に、データMXF_DがIMX50_525,IMX40_525,IMX30_525である場合に、図7に示すビデオ共通特性データVCPDの図8に示すデータVideoFormat,Width,Heigth,Framesize,Scale,Rate,Scanlineinfoとして、例えば、予め規定した図15(B)に示す値を設定してビデオファイル属性データVFPDを更新する。
Step ST4:
The SYS parsing routine 61 determines whether or not the data MXF_D is in the “D10” format (predetermined format) based on the 14th byte. If the data is in the “D10” format, the process proceeds to step ST5. In this case, the process is terminated or a process related to another format is performed.
Step ST5:
When the type of the data MXF_D is IMX50_625, IMX40_625, IMX30_625, the SYS parsing routine 61 uses the data VideoFormat, Width shown in FIG. 8 of the video common characteristic data VCPD shown in FIG. , Height, Framesize, Scale, Rate, Scanlineinfo, for example, the values shown in FIG. 15A defined in advance are set, and the video file attribute data VFPD is updated.
Here, the data Framesize is defined as shown in FIG. 16, for example, according to the format type.
In addition, the SYS parsing routine 61 sets the data wFormatTag, nChannels, nSamplesPerSec, nAvgBytesPerSec, nBlockAlign, wBitsPerSample, cbSise shown in FIG. The audio file attribute data AFPD is updated.
On the other hand, the SYS parsing routine 61, when the data MXF_D is IMX50_525, IMX40_525, IMX30_525, based on the 15th byte of the system data SYS, the data VideoFormat, Width shown in FIG. , Height, Framesize, Scale, Rate, Scanlineinfo, for example, the values shown in FIG. 15B defined in advance are set and the video file attribute data VFPD is updated.
ステップST6:
SYSパースルーチン61は、ステップST1で検出されたキー(K)がメタデータMETAあるいはシステムデータSYSに関するものであるか否かを判断し、そうである場合にステップST7に進み、そうでない場合にはステップST9に進む。
ステップST7:
SYSパースルーチン61は、ステップST1で検出したキー(K)に対応するデータ(V)を基に、図7に示すビデオファイル属性データVFPDおよび図9に示すオーディオファイル属性データAFPDを生成あるいは更新する。
ステップST8:
SYSパースルーチン61は、ステップST1で検出したキー(K)に対応するデータ(V)を基に、XMLなどを用いて属性ファイルデータPFを生成あるいは更新する。
すなわち、SYSパースルーチン61は、データMXF_D内のメタデータMETAあるいはシステムデータSYSに記述された属性データを基に、ビデオファイルデータVFおよびオーディオファイルデータAFの属性を示す属性ファイルデータPFを生成する。
Step ST6:
The SYS parsing routine 61 determines whether or not the key (K) detected in step ST1 relates to the metadata META or the system data SYS. If so, the process proceeds to step ST7, and if not, Proceed to step ST9.
Step ST7:
The SYS parsing routine 61 generates or updates the video file attribute data VFPD shown in FIG. 7 and the audio file attribute data AFPD shown in FIG. 9 based on the data (V) corresponding to the key (K) detected in step ST1. .
Step ST8:
The SYS parsing routine 61 generates or updates the attribute file data PF using XML or the like based on the data (V) corresponding to the key (K) detected in step ST1.
That is, the SYS parsing routine 61 generates attribute file data PF indicating the attributes of the video file data VF and the audio file data AF based on the attribute data described in the metadata META or the system data SYS in the data MXF_D.
ステップST9:
SYSパースルーチン61は、ステップST1で検出されたキー(K)がビデオデータPICに関するものであるか否かを判断し、そうである場合にステップST10に進み、そうでない場合にはステップST12に進む。
ステップST10:
SYSパースルーチン61は、ステップST1で検出したキー(K)に対応するデータ長(L)を、データV_SIZEに加算してデータV_SIZEを更新する。
ステップST11:
SYSパースルーチン61は、フレーム数データFNを更新(インクリメント)する。
Step ST9:
The SYS parsing routine 61 determines whether or not the key (K) detected in step ST1 relates to the video data PIC. If so, the process proceeds to step ST10, and if not, the process proceeds to step ST12. .
Step ST10:
The SYS parsing routine 61 updates the data V_SIZE by adding the data length (L) corresponding to the key (K) detected in step ST1 to the data V_SIZE.
Step ST11:
The SYS parse routine 61 updates (increments) the frame number data FN.
ステップST12:
SYSパースルーチン61は、ステップST1で検出されたキー(K)がオーディオデータSOUに関するものであるか否かを判断し、そうである場合にステップST13に進み、そうでない場合には処理を終了するか、他の処理を行う。
ステップST13:
SYSパースルーチン61は、図9に示すオーディオファイル属性データAFPDの図10に示すWAVE特性データWFPDとして、例えば、予め決められた図17に示す値を設定する。当該設定は、ステップST13を最初に実行するときのみ行えばよい。
SYSパースルーチン61は、ステップST1で検出されたキー(K)に対応するデータ(V)、すなわちAES3のオーディオデータSOUのデータChannnel_Statusを基に、図9に示すオーディオファイル属性データAFPDのチャンネルステータスデータCSDに設定する。
データChannnel_Statusには、例えば、有効なチャンネルを指定する情報などが示されている。
また、SYSパースルーチン61が、上記オーディオデータSOUのAES3で規定されたデータSamplingRate,AuxSampleBits,WordLengthを基に、図9に示すWAVE特性データWFPDの図10に示すデータnSamplesPerSec,nAvgBytesPerSec,nBlockAlign,wBitsPerSampleを変更する。
ステップST14:
SYSパースルーチン61は、ステップST1で検出したキー(K)に対応するデータ長(L)を、データA_SIZEに加算してデータA_SIZEを更新する。
Step ST12:
The SYS parsing routine 61 determines whether or not the key (K) detected in step ST1 is related to the audio data SOU. If so, the process proceeds to step ST13. If not, the process ends. Or do other processing.
Step ST13:
The SYS parsing routine 61 sets, for example, a predetermined value shown in FIG. 17 as the WAVE characteristic data WFPD shown in FIG. 10 of the audio file attribute data AFPD shown in FIG. This setting only needs to be performed when step ST13 is executed for the first time.
The SYS parsing routine 61 uses the data (V) corresponding to the key (K) detected in step ST1, that is, the channel status data of the audio file attribute data AFPD shown in FIG. 9 based on the data Channel_Status of the audio data SOU of AES3. Set to CSD.
The data Channel_Status indicates information specifying a valid channel, for example.
In addition, the SYS parsing routine 61 uses the data SamplingPerScSBSesBetBitsPetScSBsBetsBetSesBetSesBetSesBetSesPetScSBSesBetSesPetScSBSBesSesBetSPerScSBSPBSBSBSBSBSBSBSBSBSBSBSBSBSBSBSBBB from the SamplingRate, AuxSampleBits, and WordLength specified in AES3 of the audio data SOU, based on the WAVE characteristic data WFPD shown in FIG. change.
Step ST14:
The SYS parsing routine 61 updates the data A_SIZE by adding the data length (L) corresponding to the key (K) detected in step ST1 to the data A_SIZE.
ステップST15:
SYSパースルーチン61は、データMXF_D全体をパースしたか否かを判断し、パースしたと判断すると処理を終了し、そうでない場合にステップST1に戻る。
上記図13および図14の処理により、図5に示すヘッダデータHEADER、システムデータSYSが生成される。
Step ST15:
The SYS parsing routine 61 determines whether or not the entire data MXF_D has been parsed. If it is determined that the parsing has been performed, the processing ends. If not, the process returns to step ST1.
The header data HEADER and the system data SYS shown in FIG. 5 are generated by the processing of FIG. 13 and FIG.
PICパースルーチン62は、図5に示すデータMXF_DをパースしてデータMXF_DのフレームデータFLD_1〜FLD_n内のビデオデータPICを基に、図7に示すビデオファイルデータVFのビデオデータVIDEOを生成する。
PICパースルーチン62は、ビデオデータPICがMPEGで符号化されている場合には、例えば、ビデオデータPICをMPEGで復号してビデオデータVIDEOを生成する。
The
If the video data PIC is encoded in MPEG, the PIC parse routine 62 generates video data VIDEO by decoding the video data PIC in MPEG, for example.
図18は、図12に示すPICパースルーチン62の処理を説明するためのフローチャートである。
ステップST21:
PICパースルーチン62は、データMXF_Dをパースする。
ステップST22:
PICパースルーチン62は、ステップST21のパースでデータMXF_Dを構成するKLVデータのキー(K)が検出されたか否かを判断し、検出された場合にステップST22に進み、検出されない場合にステップST21に戻る。
ステップST23:
PICパースルーチン62は、ステップST21で検出されたキー(K)がビデオデータPICに関するものであるか否かを判断し、そうであると判断するとステップST24に進み、そうでない場合にはステップST21に戻る。
FIG. 18 is a flowchart for explaining the processing of the PIC parse routine 62 shown in FIG.
Step ST21:
The
Step ST22:
The
Step ST23:
The
ステップST24:
PICパースルーチン62は、ステップST21で検出されたキー(K)がビデオデータPICを、例えば、それに対応するシステムデータSYS内あるいはメタデータMETAに記述された符号化方式に対応する復号方式で復号する。
ステップST25:
PICパースルーチン62は、ステップST24の復号により得たビデオデータPICを、図7に示すビデオファイルデータVFのビデオデータVIDEOとする。
ステップST26:
PICパースルーチン62は、データMXF_Dを全てパースしたか否かを判断し、全てパースしたと判断すると処理を終了し、そうでない場合にステップST21に戻る。
Step ST24:
The
Step ST25:
The PIC parse routine 62 sets the video data PIC obtained by the decoding in step ST24 as the video data VIDEO of the video file data VF shown in FIG.
Step ST26:
The
SOUパースルーチン63は、図5に示すデータMXF_DをパースしてデータMXF_DのフレームデータFLD_1〜FLD_n内のオーディオデータSOUを基に、図9に示すオーディオファイルデータAFのオーディオデータAUDIOを生成する。
この場合に、SOUパースルーチン63は、オーディオデータSOUがAES3規格の場合には、複数のチャンネルデータを分離してオーディオデータAUDIOを生成する。
The
In this case, if the audio data SOU is AES3 standard, the SOU parse routine 63 separates a plurality of channel data and generates audio data AUDIO.
図19は、図12に示すSOUパースルーチン63の処理を説明するためのフローチャートである。
ステップST31:
SOUパースルーチン63は、データMXF_Dをパースする。
ステップST32:
SOUパースルーチン63は、ステップST31のパースでデータMXF_Dを構成するKLVデータのキー(K)が検出されたか否かを判断し、検出された場合にステップST32に進み、検出されない場合にステップST31に戻る。
ステップST33:
SOUパースルーチン63は、ステップST32で検出されたキー(K)がオーディオデータSOUに関するものであるか否かを判断し、そうであると判断するとステップST34に進み、そうでない場合にはステップST31に戻る。
FIG. 19 is a flowchart for explaining the processing of the SOU parse routine 63 shown in FIG.
Step ST31:
The
Step ST32:
The
Step ST33:
The SOU parse routine 63 determines whether or not the key (K) detected in step ST32 is related to the audio data SOU. If so, the process proceeds to step ST34. If not, the process proceeds to step ST31. Return.
ステップST34:
SOUパースルーチン63は、ステップST31で検出されたキー(K)がオーディオデータSOUを、例えば、それに対応するシステムデータSYS内に記述された符号化方式に対応する復号方式で復号する。
ステップST35:
SOUパースルーチン63は、ステップST34の復号により得たオーディオデータSOUを、図9に示すオーディオファイルデータAFのオーディオデータAUDIOとする。
ステップST36:
SOUパースルーチン63は、データMXF_Dを全てパースしたか否かを判断し、全てパースしたと判断すると処理を終了し、そうでない場合にステップST31に戻る。
Step ST34:
The
Step ST35:
The SOU parse routine 63 sets the audio data SOU obtained by the decoding in step ST34 as the audio data AUDIO of the audio file data AF shown in FIG.
Step ST36:
The
〔MXF−MUXスレッド44〕
MXF−MUXスレッド44は、属性ファイルデータPF、ビデオファイルデータVFおよびオーディオファイルデータAFを基に、データMXF_Dを生成する。
本実施形態では、MXF−MUX処理を行わない状態ではMXF−MUXスレッド44が起動されず、MXF−MUX処理を行う場合に、スレッドマネージャ41が、編集プロセス9a,9bからのコマンド、あるいは図3に示す操作部12からの操作信号などの要求に応じてMXF−MUXスレッド44を起動する。そのため、MXF−MUX処理を行わない状態でのコンピュータ4(処理部15)の処理負荷を軽減できる。
[MXF-MUX thread 44]
The MXF-
In the present embodiment, when the MXF-
図20は、MXF−MUXスレッド44によるデータMXF_Dの生成処理を説明するためのフローチャートである。
ステップST41:
MXF−MUXスレッド44は、上記要求により変換対象として指定された図7に示すビデオファイルデータVFをRAID6から読み出し、当該ビデオファイルデータVF内のビデオ共通特性データVCPD内の図8に示すデータを基に、データMXF_Dとして用いるフォーマットを検出する。
ステップST42:
MXF−MUXスレッド44は、ステップST41で検出したフォーマットが「D10」(所定のフォーマット)であるか否かを判断し、「D10」であると判断するとステップST43に進み、そうでない場合には「D10」以外のフォーマットに対応した処理を行う。
FIG. 20 is a flowchart for explaining a process of generating data MXF_D by the MXF-
Step ST41:
The MXF-
Step ST42:
The MXF-
ステップST43:
MXF−MUXスレッド44は、図5に示すデータMXF_DのフレームデータFLD_1〜FLD_nのシステムデータSYSの14バイト目(所定の位置のデータ)として「D10」を示すデータを設定する。
また、MXF−MUXスレッド44は、ビデオファイルデータVF内の図15(A),(B)に示すデータ、並びに図16に示すデータframeSise等を基にフォーマットの種別を特定し、当該特定した種別をシステムデータSYSの15バイト目として設定する。
ステップST44:
MXF−MUXスレッド44は、ビデオファイルデータVFのビデオファイル属性データVFPD、オーディオファイルデータAFのオーディオファイル属性データAFPD、属性ファイルデータPFを基に、図5に示すヘッダデータHEADERを生成すると共に、システムデータSYSを更新する。
ステップST45:
MXF−MUXスレッド44は、ビデオファイルデータVF内のビデオデータVIDEOを、例えば、ビデオファイル属性データVFPDが示す符号化方式(例えば、MPEG)で符号化してビデオデータPICを生成する。
Step ST43:
The MXF-
The MXF-
Step ST44:
The MXF-
Step ST45:
The MXF-
ステップST46:
MXF−MUXスレッド44は、オーディオファイルデータAFのオーディオファイル属性データAFPDと属性ファイルデータPFを基に、図5に示すフレームデータFL_1〜FL_n内のAES3のオーディオデータSOUの「Channnel Status」、「SamplingRate」、「AuxSmpleBits」、「WordLength」を設定する。
ステップST47:
MXF−MUXスレッド44は、ステップST46で設定したデータ、並びにオーディオファイルデータAF内のオーディオデータAUDIOを基に、オーディオデータSOUを生成する。
Step ST46:
Based on the audio file attribute data AFPD and the attribute file data PF of the audio file data AF, the MXF-
Step ST47:
The MXF-
ステップST47:
MXF−MUXスレッド44は、上記ステップST43〜ST47で生成したシステムデータSYS、ビデオデータPIC、オーディオデータSOU、並びに新たに生成したデータAUXを基にフレームデータFLD_1〜FLD_nを生成する。
また、MXF−MUXスレッド44は、ステップST44で生成したヘッダデータHEADER、上記生成したフレームデータFLD_1〜FLD_n、並びに新たに生成したフッタデータFOOTERによって構成されるデータMXF_Dを生成し、これをRAID6に書き込む。
本実施形態では、MXF−MUXスレッド44が図20に示すように、ビデオファイルデータVFおよびオーディオファイルデータAFを直接受けて処理を行ってデータMXF_Dを生成することで、ビデオファイルデータVFおよびオーディオファイルデータAFを一端テンポラリファイルとして落とす必要がなく、変換時間を短くできる。
Step ST47:
The MXF-
Further, the MXF-
In the present embodiment, as shown in FIG. 20, the MXF-
〔編集プロセス9a,9b〕
図21は、編集プロセス9a,9bの構成を説明するための図である。
図21に示すように、編集プロセス9a,9bは、例えば、コマンドスレッド51、ステータススレッド52よび編集スレッド53を有する。
コマンドスレッド51は、例えば、図3および図4に示す操作部12,13からの操作信号に応じた、例えば、パースコマンド、MUXコマンドなどのコマンドを、MXFプロセス8のスレッドマネージャ41に出力する。
ステータススレッド52は、パースやMUXの対象とするデータMXF_DやビデオファイルデータVFおよびオーディオファイルデータAFなどの指定情報(例えば、URLなどのアドレス)、編集プロセス9a,9bのユーザの識別データおよびパスワードなどのデータを情報をMXFパーサスレッド43やMXF−MUXスレッド44に出力する。 編集スレッド53は、例えば、MXFパーサスレッド43がRAID6に書き込んだビデオファイルデータVFおよびオーディオファイルデータAF、必要に応じて属性ファイルデータPFを用いて編集処理を行う。
[
FIG. 21 is a diagram for explaining the configuration of the editing processes 9a and 9b.
As shown in FIG. 21, the editing processes 9a and 9b have, for example, a
The
The
図22は、編集プロセス9a,9bからの要求に応じてMXFプロセス8のMXFパーサスレッド43がパース処理を行う場合に、MXFプロセス8と編集プロセス9a,9bとの間で授受される要求等を説明するための図である。
ステップST51:
コマンドスレッド51は、例えば、図3および図4に示す操作部12,13からの操作信号に応じた、例えば、パースコマンドPARSE_COMDをMXFプロセス8のスレッドマネージャ41に出力する。
スレッドマネージャ41は、パースコマンドPARSE_COMDに応じてMXFパーサスレッド43を起動する。
ステップST52:
スレッドマネージャ41は、コマンドスレッド51とのデータ授受に用いるインタフェース名(例えば、パイプ名)を含む応答ACKをコマンドスレッド51に出力する。
以後、スレッドマネージャ41とコマンドスレッド51との間のデータや要求の授受は、当該パイプ名を指定して行われる。
ステップST53:
ステータススレッド52は、パースやMUXの対象とするデータMXF_Dの指定情報(例えば、URLなどのアドレス)、編集プロセス9a,9bのユーザの識別データIDおよびパスワードPASSなどをMXFパーサスレッド43に出力する。
ステップST54:
MXFパーサスレッド43は、ステップST52で受けた指定情報によって指定されたデータMXF_Dに対して、図13、図14、図18および図19を基に前述したパース処理を行い、それによって生成したビデオファイルデータVF、オーディオファイルデータAFおよび属性ファイルデータPFをRAID6に書き込む。
ステップST54におけるMXFパーサスレッド43によるパース処理は、図13、図14、図18および図19の全ての処理を行ってもよいし、ビデオデータVIDEOおよびオーディオデータAUDIOの生成に関するものだけを行ってもよい。
そして、MXFパーサスレッド43は、上記パース処理を進行に応じて、パース処理を終えたフレームデータFLD_1〜FLD_nのタイムコード、並びにフレーム番号をステータススレッド52に出力する。
MXFパーサスレッド43は、データMXF_D内の全てのフレームデータFLD_1〜FLD_nについてのパース処理を完了するまで、各フレームデータのパース処理が完了する度に上記タイムコード、並びにフレーム番号をステータススレッド52に出力する。
ステップST55:
MXFパーサスレッド43は、データMXF_D内の全てのフレームデータFLD_1〜FLD_nについてのパース処理を完了すると、終了コードをステータススレッド52に出力する。
FIG. 22 shows requests and the like exchanged between the
Step ST51:
The
The
Step ST52:
The
Thereafter, data and requests are exchanged between the
Step ST53:
The
Step ST54:
The
The parsing process by the
Then, the
The
Step ST55:
When the
例えば、図2(A)に示すコンピュータ4上の編集プロセス9aは、図22に示すように、データMXF_Dの名前とビデオファイルデータVFおよびオーディオファイルデータAFの名前とを指定したパースコマンドPARSE_COMDをコンピュータ4上のMXFプロセス8に対して出力する。
これにより、MXFプロセス8は、FTPスレッド42からデータMXF_Dを入力しながら、データMXF_Dのパース処理を行い、その結果を例えばRAID6に書き込む。
この場合に、MXFプロセス8と編集プロセス9aとが同じコンピュータ4上で動作しているため、MXFプロセス8の処理負荷が編集プロセス9の処理に影響を与える。そのため、編集プロセス9aは、ユーザの操作に応じて、MXFプロセス8のパース処理を中断する要求をMXFプロセス8に出す。これにより、MXFプロセス8は、パース処理を中断し、コンピュータ4は編集プロセス9の処理に集中できる。
For example, as shown in FIG. 22, the
Thereby, the
In this case, since the
一方、図2(B)に示すコンピュータ5上の編集プロセス9bは、図22に示すように、データMXF_Dの名前とビデオファイルデータVFおよびオーディオファイルデータAFの名前とを指定したパースコマンドPARSE_COMDをコンピュータ4上のMXFプロセス8に対して出力する。
これにより、MXFプロセス8は、FTPスレッド42からデータMXF_Dを入力しながら、データMXF_Dのパース処理を大内、その結果を例えばRAID6に書き込む。
この場合に、MXFプロセス8と編集プロセス9aとが異なるコンピュータ4,5上で動作しているため、MXFプロセス8の処理負荷が編集プロセス9の処理に影響を与えることはない。
On the other hand, as shown in FIG. 22, the
As a result, the
In this case, since the
〔再生プロセス80〕
コンピュータ4あるいはコンピュータ5は、例えば、所定の再生プログラムを実行して図23に示す再生プロセス80を起動する。
再生プロセス80は、例えば、図23に示すように、コマンドスレッド81、ステータススレッド82および再生スレッド83を有する。
再生スレッド83は、MXFプロセス8のMXFパーサスレッド43から入力したビデオデータVIDEOおよびオーディオデータAUDIOの再生処理を行う。
図24は、図23に示す再生スレッド83の構成図である。
図24に示すように、再生スレッド83は、例えば、UIシーク画面ルーチン71、ビデオレンダルーチン72、UIオーディオチャンネル選択ルーチン73およびオーディオレンダルーチン74を有する。
UIシーク画面ルーチン71は、例えば、操作部12,22からの操作信号に応じて、図25に示すように、フレームデータのシーク要求SEEK_REQをSYSパースルーチン61に出力するためのUI(User Interface)画面を表示部13,23に表示する。当該シーク要求SEEK_REQは、例えば、MXFプロセス8のMXFパーサスレッド43がパースするフレームデータを、例えば、フレーム番号などで指定するための要求である。
[Regeneration process 80]
For example, the computer 4 or the
The playback process 80 includes, for example, a
The
FIG. 24 is a configuration diagram of the
As shown in FIG. 24, the
The UI seek
ビデオレンダルーチン72は、PICパースルーチン62から入力したビデオデータVIDEOの再生処理を行う。これにより、ビデオデータVIDEOに応じた画像が表示部13,23に表示される。
この場合に、ビデオレンダルーチン72は、例えば、再生された画像と音声が同期するように、オーディオレンダルーチン74と同期処理を行う。
ビデオレンダルーチン72は,例えば、1フレームデータに対応するビデオデータVIDEOの前回の再生処理時間が、当該1フレームデータを再生する時間として予め決められた時間より長いか否かを判断し、長いと判断した場合に、図25に示すように、ドロップ要求DROP_REQをPICパースルーチン62に出力する。すなわち、ビデオレンダルーチン72は、図3に示す処理部15あるいは図4に示す処理部25の処理能力に起因してビデオデータVIDEOの1倍速以上の再生処理を行えない場合に、ドロップ要求DROP_REQをPICパースルーチン62に出力する。
これにより、処理部15,25によるビデオデータVIDEOの再生処理の遅れにより、音声出力と画像出力とのタイミングがずれたり、画質が劣化することを防止できる。
The video render routine 72 performs reproduction processing of the video data VIDEO input from the PIC parse routine 62. As a result, an image corresponding to the video data VIDEO is displayed on the
In this case, the video render routine 72 performs a synchronization process with the audio render routine 74 so that the reproduced image and sound are synchronized, for example.
For example, the video render routine 72 determines whether or not the previous reproduction processing time of the video data VIDEO corresponding to one frame data is longer than a predetermined time for reproducing the one frame data. If it is determined, a drop request DROP_REQ is output to the PIC parse routine 62 as shown in FIG. That is, the video render routine 72 issues a drop request DROP_REQ when the video data VIDEO cannot be played back at a speed of 1 × or higher due to the processing capability of the
Thereby, it is possible to prevent the timing of the audio output and the image output from being shifted or the image quality from being deteriorated due to a delay in the reproduction processing of the video data VIDEO by the
UIオーディオチャンネル選択ルーチン73は、例えば、データMXF_DのフレームデータFLD1_FLD_nのオーディオデータSOU内にAES3によって規定された複数のチャンネルのオーディオデータが含まれている場合に、再生スレッド54において再生しないチャンネルを選択する処理を行う。
UIオーディオチャンネル選択ルーチン73は、ユーザによって指定された再生しないチャンネルを特定した不要チャンネル指定要求CH_REQをSOUパースルーチン63に出力する。
The UI audio
The UI audio
オーディオレンダルーチン74は、SOUパースルーチン63から入力したオーディオデータAUDIOの再生処理を行う。これにより、オーディオデータAUDIOに応じた音声出力が行われる。 The audio render routine 74 performs reproduction processing of the audio data AUDIO input from the SOU parse routine 63. As a result, audio output according to the audio data AUDIO is performed.
以下、MXFプロセス8のMXFパーサスレッド43が、編集プロセス9a,9bからのコマンド、あるいは図3に示す操作部12からの操作信号などの要求に応じて、再生スレッド83にビデオデータVIDEOおよびオーディオデータAUDIOを出力する処理を説明する。
MXFパーサスレッド43は、編集プロセス9a,9bからのコマンド、あるいは図3に示す操作部12からの操作信号などの要求に応じてスレッドマネージャ41によって起動され、以下の処理を行う。
以下に示すMXFパーサスレッド43の処理は、例えば、FTPスレッド42による受信処理を経てFTPスレッド42から入力したデータMXF_Dに対して行われ、FTPスレッド42による受信処理と並行して行われる。
また、以下に示すMXFパーサスレッド43の処理は、RAID6から読み出したデータMXF_Dに対して行ってもよい。
なお、MXFパーサスレッド43は、FTPスレッド42から入力したデータMXF_Dに対して図26の処理を行う場合には、ステップST71,ST72の処理は行わない。
Thereafter, the
The
The following processing of the
Further, the following processing of the
The
図26は、MXFプロセス8のMXFパーサスレッド43が、再生スレッド83にビデオデータVIDEOおよびオーディオデータAUDIOを出力する処理を説明するためのフローチャートである。
MXFパーサスレッド43は、再生スレッド83との間で処理を行う場合には、図5に示すフレームデータFLD_1〜FLD_nの各々について、SYSパースルーチン61、PICパースルーチン62、SOUパースルーチン63およびAUXパースルーチンによるパース処理を順に行う。
ステップST71:
図12に示すMXFパーサスレッド43のSYSパースルーチン61は、図24に示す再生スレッド83のUIシーク画面ルーチン71から、シーク要求SEEK_REQを入力したか否かを判断し、入力したと判断するとステップST72に進み、そうでない場合にはステップST73に進む。
ステップST72:
SYSパースルーチン61は、例えば、RAID6に記録されたデータMXF_Dの読み出し位置(アドレス)を示すシークポインタSPを、ステップST71で受けたシーク要求SEEK_REQが示すフレーム番号に対応するアドレスに移動する。
当該シークポインタSPは、データMXF_Dのフレームデータが読み出される度に、次に読み出すフレームデータのアドレスに更新される。
このようにSYSパースルーチン61、PICパースルーチン62およびSOUパースルーチン63の処理に先立ってシークポインタSPの移動を行うことで、PICパースルーチン62およびSOUパースルーチン63の処理に影響を与えることなく、シーク動作が可能になり、MXFパーサスレッド43の構成を簡単にできる。
FIG. 26 is a flowchart for explaining processing in which the
When performing processing with the
Step ST71:
The SYS parse routine 61 of the
Step ST72:
The SYS parsing routine 61 moves, for example, the seek pointer SP indicating the read position (address) of the data MXF_D recorded in
The seek pointer SP is updated to the address of the next frame data to be read each time the frame data of the data MXF_D is read.
Thus, by moving the seek pointer SP prior to the processing of the SYS parse routine 61, the PIC parse routine 62, and the SOU parse routine 63, the processing of the PIC parse routine 62 and the SOU parse routine 63 is not affected. A seek operation is possible, and the configuration of the
ステップST73:
SYSパースルーチン61は、シークポインタSPが示すRAID6上のアドレスに記録されたフレームデータFLDのシステムデータSYSを読み出してパース処理する。
Step ST73:
The SYS parsing routine 61 reads and parses the system data SYS of the frame data FLD recorded at the address on
ステップST74:
PICパースルーチン62は、ステップST73で読み出したシステムデータに続くビデオデータPICをRAID6から読み出してパース処理する。
ステップST75:
PICパースルーチン62は、ビデオレンダルーチン72からドロップ要求DROP_REQを入力したか否かを判断し、入力したと判断するとステップST76に進み、そうでない場合にはステップST77に進む。
ステップST76:
PICパースルーチン62は、ステップST74で読み出したビデオデータPICを、ステップST73で読み出したシステムコードSYSが示す符号化方式に対応する復号方式で復号(デコード)してビデオデータVIDEOを生成し、これをビデオレンダルーチン72に出力する。
すなわち、ステップST75,ST76により、PICパースルーチン62は、ドロップ要求DROP_REQを受けると、1フレーム分のビデオデータVIDEOのビデオレンダルーチン72への出力を中止する。なお、2フレーム分以上のビデオデータVIDEOの出力を中止してもよい。
Step ST74:
The PIC parsing routine 62 reads out the video data PIC following the system data read out in step ST73 from the
Step ST75:
The
Step ST76:
The
That is, in steps ST75 and ST76, when receiving the drop request DROP_REQ, the PIC parse routine 62 stops outputting the video data VIDEO for one frame to the video render routine 72. Note that the output of video data VIDEO for two frames or more may be stopped.
ステップST77:
SOUパースルーチン63は、ステップST74で読み出したビデオデータPICに続くオーディオデータSOUをRAID6から読み出してパース処理する。
ステップST78:
SOUパースルーチン63は、UIオーディオチャンネル選択ルーチン73から不要チャンネル指定要求CH_REQを入力したか否かを判断し、入力したと判断するとステップST79に進み、そうでない場合にはステップST80に進む。
ステップST79:
SOUパースルーチン63は、ステップST77で読み出したオーディオデータSOUを複数のチャンネルのオーディオデータAUDIOに分離し、そのなかで不要チャンネル指定要求CH_REQで指定されていないチャンネルのオーディオデータAUDIOを選択および復号してオーディオレンダルーチン74に出力する。
この場合に、SOUパースルーチン63は、ステップST73で読み出したシステムコードSYSが示す符号化方式に対応する復号方式でオーディオデータAUDIOの復号を行う。
ステップST80:
SOUパースルーチン63は、ステップST77で読み出したオーディオデータSOUが構成する複数のチャンネルの全てのオーディオデータAUDIOをオーディオレンダルーチン74に出力する。
なお、上述した図26に示す処理において、ステップST75の判断をステップST74に先立って行い、ドロップ要求DROP_REQを受けた場合に、ステップST74によるビデオデータPICのパース処理を行わないようにしてもよい。
Step ST77:
The SOU parsing routine 63 reads out the audio data SOU following the video data PIC read out in step ST74 from the
Step ST78:
The SOU parse routine 63 determines whether or not an unnecessary channel designation request CH_REQ has been input from the UI audio
Step ST79:
The
In this case, the SOU parse routine 63 decodes the audio data AUDIO by a decoding method corresponding to the encoding method indicated by the system code SYS read in step ST73.
Step ST80:
The SOU parse routine 63 outputs to the audio render routine 74 all the audio data AUDIO of a plurality of channels included in the audio data SOU read in step ST77.
In the process shown in FIG. 26 described above, the determination in step ST75 may be performed prior to step ST74, and the video data PIC parsing process in step ST74 may not be performed when a drop request DROP_REQ is received.
図27は、再生プロセス80からの要求に応じてMXFプロセス8のMXFパーサスレッド43がパース処理を行う場合に、MXFプロセス8と再生プロセス80との間で授受される要求等を説明するための図である。
ステップST91:
コマンドスレッド81は、例えば、図3および図4に示す操作部12,13からの操作信号に応じた、例えば、再生コマンドPLAY_COMDをMXFプロセス8のスレッドマネージャ41に出力する。
スレッドマネージャ41は、再生コマンドPLAY_COMDに応じてMXFパーサスレッド43を起動する。
ステップST92:
スレッドマネージャ41は、再生コマンドPLAY_COMDに応じて、通信に用いるインタフェースであるパイプの名前を含む応答ACKをコマンドスレッド51に出力する。
ステップST93:
ステータススレッド82は、再生の対象とするデータMXF_Dの指定情報(例えば、URLなどのアドレス)、再生プロセス80のユーザの識別データIDおよびパスワードPASSなどをMXFパーサスレッド43に出力する。
ステップST94:
ステータススレッド82は、再生処理の進行に応じて、次に再生を行うフレームデータFLD_1〜FLD_nのフレーム番号を含む再生要求R_REQをMXFパーサスレッド43に出力する。
ステップST95:
MXFパーサスレッド43は、ステップST94の再生要求R_REQに応じて、当該再生要求R_REQで指定されたフレーム番号のフレームデータFLD_1〜FLD_nに対して図25および図26を用いて説明したパース処理を行う。
また、MXFパーサスレッド43のSYSパースルーチン61、PICパースルーチン62およびSOUパースルーチン63の少なくと一つのルーチンが、上記パース処理を行ったフレームデータFLD_1〜FLD_nのタイムコード、並びにフレーム番号をステータススレッド82に出力する。
MXFパーサスレッド43は、データMXF_D内の全てのフレームデータFLD_1〜FLD_nについてのパース処理を完了するまで、上記処理を繰り返す。
ステップST96:
ステータススレッド82は、再生終了要求PLAY_ENDをMXFパーサスレッド43に出力する。
ステップST97:
MXFパーサスレッド43は、再生終了要求PLAY_ENDに応じて、上記パース処理を終了する。
そして、MXFパーサスレッド43は、終了コードをステータススレッド82に出力する。
このように、MXFパーサスレッド43は、ステータススレッド82から再生終了要求PLAY_ENDを受ける機能を有することで、コンピュータ4のようにMXFプロセス8と編集プロセス9aとが同じコンピュータ上で動作する場合に、編集プロセス9aによる編集処理を優先させることが可能であり、編集作業を効率的に行える。
FIG. 27 is a diagram for explaining a request and the like exchanged between the
Step ST91:
For example, the
The
Step ST92:
The
Step ST93:
The
Step ST94:
The
Step ST95:
In response to the reproduction request R_REQ in step ST94, the
In addition, at least one of the SYS parse routine 61, the PIC parse routine 62, and the SOU parse
The
Step ST96:
The
Step ST97:
The
Then, the
As described above, the
以下、編集システム1の主な動作例を再び説明する。
〔データMXF_DからビデオファイルデータVF等を生成する場合〕
コンピュータ4上で動作するMXFプロセス8のMXFパーサスレッド43が、図13および図14を基に前述したようにSYSパースルーチン61が生成したビデオ属性ファイルデータVFPD、並びに図18を基に前述したようにPICパースルーチン62が生成したビデオデータVIDEOからなるビデオファイルデータVFを生成する。
また、MXF−MUXスレッド44が、SYSパースルーチン61が生成したオーディオ属性ファイルデータAFPD、並びに図19を基に前述したようにSOUパースルーチン63が生成したオーディオデータAUDIOからなるオーディオファイルデータAFを生成する。
Hereinafter, the main operation examples of the
[When generating video file data VF and the like from data MXF_D]
The
Further, the MXF-
〔ビデオファイルデータVF等からデータMXF_Dを生成する場合〕
コンピュータ4上で動作するMXFプロセス8のMXF−MUXスレッド44が、図20に示す処理により、ビデオファイルデータVF等からデータMXF_Dを生成する。
[When generating data MXF_D from video file data VF, etc.]
The MXF-
以上説明したように、コンピュータ4によれば、図5に示すデータMXF_Dから、図7に示すビデオファイルデータVFおよび図9に示すオーディオファイルデータAFを自動的に生成できる。
また、コンピュータ4によれば、図7に示すビデオファイルデータVFおよび図9に示すオーディオファイルデータAFから、図5に示すデータMXF_Dを自動的に生成できる。
As described above, the computer 4 can automatically generate the video file data VF shown in FIG. 7 and the audio file data AF shown in FIG. 9 from the data MXF_D shown in FIG.
Further, the computer 4 can automatically generate the data MXF_D shown in FIG. 5 from the video file data VF shown in FIG. 7 and the audio file data AF shown in FIG.
また、コンピュータ4によれば、MXFパーサスレッド43によりデータMXF_Dを、再生プロセス80が再生可能なデータに変換することで、データMXF_Dを基にした再生プロセス80による再生処理が可能になる。
また、コンピュータ4によれば、図11に示すように、FTPスレッド42とMXFパーサスレッド43をMXFプロセス8によって規定し、FTPスレッド42による受信処理とMXFパーサスレッド43によるパース処理とを並行して行うことで、FTP受信時間とパース処理の総時間を短縮できる。
また、コンピュータ4によれば、スレッドマネージャ41が、MXFパース処理を行うときにMXFパーサスレッド43を起動し、MUX処理を行うときにMXF−MUXスレッド44を起動するため、MXFパース処理およびMUX処理を行わないときの処理部15の処理負荷を少なくできる。
Also, according to the computer 4, the
Further, according to the computer 4, as shown in FIG. 11, the
Further, according to the computer 4, since the
また、コンピュータ4によれば、MXFパーサスレッド43が、図25に示すように、シーク要求SEEK_REQを受けてシーク処理を行うことで、再生スレッド83が再生したいフレームデータを簡単な構成で即座にMXFポース処理することができる。
また、コンピュータ4によれば、MXFパーサスレッド43が、ドロップ要求DROP_REQを受けて駒落とし処理を行うことで、再生スレッド83が1倍速再生を安定して行うことが可能になる。
また、コンピュータ4によれば、MXFパーサスレッド43が、不要チャンネル指定要求CH_REQを基に不要なチャンネルについてSOUパースルーチン63のパース処理を行うため、コンピュータ4の処理負荷を軽減できる。
Further, according to the computer 4, the
Further, according to the computer 4, the
Further, according to the computer 4, the
本発明は上述した実施形態には限定されない。
例えば、上述した実施形態では、編集プロセス9a,9bで処理可能なフォーマットとしてビデオファイルデータVFおよびオーディオファイルデータAFを例示したが、一般のコンピュータ上で処理できるフォーマットであれば特に限定されず、その他、ビデオデータとしてRGBフォーマットや、YUVフォーマットなどのフォーマットを用いてもよい。
また、上述した実施形態では、本発明の被処理データとしてデータMXF_Dを例示したが、本発明は、複数のオーディオデータと、前記ビデオデータおよびオーディオデータの属性を示す複数の第1の属性データとが混在したデータであれば、データMXF_D以外のデータを被処理データとして用いてもよい。
The present invention is not limited to the embodiment described above.
For example, in the above-described embodiment, the video file data VF and the audio file data AF are exemplified as formats that can be processed by the editing processes 9a and 9b. However, the format is not particularly limited as long as the format can be processed on a general computer. Further, as the video data, a format such as RGB format or YUV format may be used.
In the above-described embodiment, the data MXF_D is exemplified as the data to be processed according to the present invention. However, the present invention includes a plurality of audio data and a plurality of first attribute data indicating attributes of the video data and the audio data. May be used as the data to be processed.
本発明は、ビデオデータおよびオーディオデータに関するデータのフォーマット変換を行うシステムに適用可能である。 The present invention can be applied to a system that performs format conversion of data relating to video data and audio data.
1…編集システム、2…ネットワーク、3…FTPサーバ、4,5…コンピュータ、6…RAID、8…MXFプロセス、9a,9b…編集プロセス、11,21…通信部、12,22…操作部、13,23…表示部、14,24…メモリ、41…スレッドマネージャ、42…FTPスレッド、43…MXFパーサスレッド、44…MXF−MUXスレッド、61…SYSパースルーチン、62…PICパースルーチン、63…SOUパースルーチン、51…コマンドスレッド、52…ステータススレッド、53…編集スレッド、80…再生プロセス、81…コマンドスレッド、82…ステータススレッド、83…再生スレッド
DESCRIPTION OF
Claims (11)
前記第1の手順において前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の手順で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の手順と、
前記第1の手順で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の手順で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の手順と、
前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の手順と、
を含むパースプロセスと、
前記第4の手順において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の手順と、
を含む生成プロセスと、
を含む処理をコンピュータに実行させるプログラム。 A plurality of video data, each of which is video data for one frame, a plurality of audio data, each corresponding to one frame of audio data, and attributes indicating attributes of the video data and the audio data A first procedure for parsing processed data composed of a plurality of module data each including data ,
Generating the video file attribute data relating to the video by counting the number of the module data parsed in the first procedure, and the video file attribute data further indicating the frame number data obtained based on the count result ; A second procedure for generating video file data including the plurality of video data parsed in the first procedure;
Audio file attribute data relating to audio is generated based on the attribute data parsed in the first procedure, and an audio file including the audio file attribute data and the plurality of audio data parsed in the first procedure A third procedure for generating data;
A fourth procedure for generating attribute file data indicating attributes of the video file data and the audio file data;
Including a parsing process,
Using the attribute file data generated in the fourth procedure, the video file data and the audio file data are received and converted, and the video data, the audio data corresponding to the video data, and the attributes A fifth procedure for generating module data including the data ;
A generation process including:
A program that causes a computer to execute processing including
前記第2の手順は、前記第1の手順で検出された前記ビデオデータおよび前記属性データを基に、前記ビデオファイルデータを生成し、
前記第3の手順は、前記第1の手順で検出された前記オーディオデータおよび前記属性データを基に、前記オーディオファイルデータを生成する
請求項1に記載のプログラム。 In the first procedure, when each of the video data, the audio data, and the attribute data includes a plurality of unit data each including identification data for identifying each unit data and a data body, the parsing is performed. And detecting the video data, the audio data and the attribute data based on the identification data,
The second procedure generates the video file data based on the video data and the attribute data detected in the first procedure,
The program according to claim 1, wherein the third procedure generates the audio file data based on the audio data and the attribute data detected in the first procedure.
前記第3の手順は、前記属性データを基に前記被処理データのフォーマットを特定し、当該特定したフォーマットに対応して予め規定した前記オーディオファイル属性データを含む前記オーディオファイルデータを生成する
請求項1に記載のプログラム。 The second procedure specifies the format of the data to be processed based on the attribute data, generates the video file data including the video file attribute data defined in advance corresponding to the specified format,
The third procedure specifies a format of the data to be processed based on the attribute data, and generates the audio file data including the audio file attribute data defined in advance corresponding to the specified format. The program according to 1.
前記オーディオファイル属性データは、前記オーディオデータによって得られるチャンネル数、前記オーディオデータのサンプリングレートの少なくとも一つを示す
請求項1に記載のプログラム。 The video file attribute data indicates at least one of an image display size corresponding to the video data, a frame data size of the image, and a playback rate of the video data,
The program according to claim 1, wherein the audio file attribute data indicates at least one of the number of channels obtained from the audio data and a sampling rate of the audio data.
前記第2の手順は、前記第1の手順で前記ビデオデータに関して検出された前記データ長データを基に、前記ビデオファイルデータが含む前記複数のビデオデータの総データ長を特定し、当該総データ長を示す前記ビデオファイル属性データを含む前記ビデオファイルデータを生成し、
前記第3の手順は、前記第1の手順で前記オーディオデータに関して検出された前記データ長データを基に、前記オーディオファイルデータが含む前記複数のオーディオデータの総データ長を特定し、当該総データ長を示す前記オーディオファイル属性データを含む前記オーディオファイルデータを生成する
請求項2に記載のプログラム。 The first procedure further detects the data length data when each of the unit data further includes data length data indicating a data length of the data body included in the unit data,
The second procedure specifies a total data length of the plurality of video data included in the video file data based on the data length data detected for the video data in the first procedure, and the total data Generating the video file data including the video file attribute data indicating a length;
The third procedure specifies a total data length of the plurality of audio data included in the audio file data based on the data length data detected for the audio data in the first procedure, and the total data The program according to claim 2, wherein the audio file data including the audio file attribute data indicating a length is generated.
請求項1に記載のプログラム。 The program according to claim 1, wherein the fifth procedure updates the attribute data further indicating a time code of the video data based on the attribute file data indicating an attribute of the video file data and the audio file data. .
請求項1に記載のプログラム。 The fifth procedure includes: encoding data of the video data and audio data, a keyword, a title, identification data, edited content, attribute data indicating at least one of creation time and editing time, and the plurality of module data. The program according to claim 1, wherein the data is generated.
請求項1に記載のプログラム。 The program according to claim 1, wherein the data to be processed and the module data are MXF data.
請求項1に記載のプログラム。 The fifth procedure includes a plurality of module attribute data, video data, and audio data included in each of the plurality of module data, each including identification data for identifying unit data and a data body. The program according to claim 1, comprising and generating the unit data.
前記第1の工程において前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の工程で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の工程と、
前記第1の工程で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の工程で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の工程と、
前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の工程と、
前記第4の工程において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の工程と、
を有するデータ処理方法。 A plurality of video data, each of which is video data for one frame, a plurality of audio data, each corresponding to one frame of audio data, and attributes indicating attributes of the video data and the audio data A first step of parsing processed data composed of a plurality of module data each including data ,
Video file attribute data relating to video is generated by counting the number of the module data parsed in the first step, and the video file attribute data further indicating frame number data obtained based on the count result ; A second step of generating video file data including the plurality of video data parsed in the first step;
Audio file attribute data relating to audio is generated based on the attribute data parsed in the first step, and the audio file includes the audio file attribute data and the plurality of audio data parsed in the first step A third step of generating data;
A fourth step of generating attribute file data indicating attributes of the video file data and the audio file data;
Using the attribute file data generated in the fourth step, the video file data and the audio file data are received and converted, and the video data, the audio data corresponding to the video data, and the attributes A fifth step of generating module data including the data;
A data processing method.
前記第1の手段で前記パースされた前記モジュールデータの数をカウントすることによりビデオに関するビデオファイル属性データを生成し、当該カウント結果を基に得たフレーム数データをさらに示す前記ビデオファイル属性データと前記第1の手段で前記パースした前記複数のビデオデータとを含むビデオファイルデータを生成する第2の手段と、
前記第1の手段で前記パースした前記属性データを基にオーディオに関するオーディオファイル属性データを生成し、当該オーディオファイル属性データと前記第1の手段で前記パースした前記複数のオーディオデータとを含むオーディオファイルデータを生成する第3の手段と、
前記ビデオファイルデータ及び前記オーディオファイルデータの属性を示す属性ファイルデータを生成する第4の手段と、
前記第4の手段において生成された前記属性ファイルデータを利用して、前記ビデオファイルデータと前記オーディオファイルデータを受けて変換処理を行い、前記ビデオデータと当該ビデオデータに対応するオーディオデータと前記属性データとを含むモジュールデータを生成する第5の手段と、
を有するデータ処理装置。 A plurality of video data, each of which is video data for one frame, a plurality of audio data, each corresponding to one frame of audio data, and attributes indicating attributes of the video data and the audio data First means for parsing processed data composed of a plurality of module data each including data ;
Video file attribute data relating to video is generated by counting the number of the module data parsed by the first means, and the video file attribute data further indicating frame number data obtained based on the count result ; Second means for generating video file data including the plurality of video data parsed by the first means;
Audio file attribute data relating to audio is generated based on the attribute data parsed by the first means, and an audio file including the audio file attribute data and the plurality of audio data parsed by the first means A third means for generating data;
Fourth means for generating attribute file data indicating attributes of the video file data and the audio file data;
Using the attribute file data generated in the fourth means, the video file data and the audio file data are received and converted, and the video data, the audio data corresponding to the video data, and the attributes A fifth means for generating module data including the data;
A data processing apparatus.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003283178A JP4314922B2 (en) | 2003-07-30 | 2003-07-30 | Program, data processing method and apparatus |
US10/901,804 US7373439B2 (en) | 2003-07-30 | 2004-07-29 | System method using material exchange format (MXF) converting program for audio and video data files having routines that generates attribute data from audio and video data file |
EP04254562A EP1503593A2 (en) | 2003-07-30 | 2004-07-29 | Demultiplexer for MXF metadata |
CNB200410079491XA CN100343850C (en) | 2003-07-30 | 2004-07-30 | Program, data processing method and system thereof |
US11/890,159 US20080033978A1 (en) | 2003-07-30 | 2007-08-03 | Program, data processing method, and system of same |
US11/890,158 US20090007208A1 (en) | 2003-07-30 | 2007-08-03 | Program, data processing method, and system of same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003283178A JP4314922B2 (en) | 2003-07-30 | 2003-07-30 | Program, data processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005051630A JP2005051630A (en) | 2005-02-24 |
JP4314922B2 true JP4314922B2 (en) | 2009-08-19 |
Family
ID=34268141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003283178A Expired - Fee Related JP4314922B2 (en) | 2003-07-30 | 2003-07-30 | Program, data processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4314922B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8091751B2 (en) | 2007-04-02 | 2012-01-10 | Max Co., Ltd. | Gas internal combustion type nailing machine |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011160410A (en) * | 2010-01-06 | 2011-08-18 | Panasonic Corp | Recording device and recording method |
-
2003
- 2003-07-30 JP JP2003283178A patent/JP4314922B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8091751B2 (en) | 2007-04-02 | 2012-01-10 | Max Co., Ltd. | Gas internal combustion type nailing machine |
Also Published As
Publication number | Publication date |
---|---|
JP2005051630A (en) | 2005-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1400114B1 (en) | Efficient transmission and playback of digital information | |
JP4421156B2 (en) | Image reproducing apparatus and image recording / reproducing apparatus | |
US20090007208A1 (en) | Program, data processing method, and system of same | |
US20050228861A1 (en) | Minute file creation method, minute file management method, conference server, and network conference system | |
RU2420015C2 (en) | Method and device to record and reproduce video data and information data carrier, on which video data is recorded | |
US8676038B2 (en) | Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program | |
JP2004007648A (en) | Device and method for recording video voice data, and device and method for reproducing video voice data | |
US20040148454A1 (en) | Information processing apparatus and method | |
JP2868981B2 (en) | Apparatus and method for generating compressed signal and apparatus and method for reproducing | |
JP4548226B2 (en) | Data processing method, apparatus and program thereof | |
US7664373B2 (en) | Program, data processing method, and system of same | |
JP4314922B2 (en) | Program, data processing method and apparatus | |
JP4314923B2 (en) | Program, data processing method and apparatus | |
EP0858220A1 (en) | Object based digital video transmission method, data structure, decoder and recording media | |
US20050069297A1 (en) | Video signal processing apparatus video signal processing method program and recording medium | |
KR20010092278A (en) | Image recording apparatus and method, image reproducing apparatus and method, and recording medium | |
JP3540761B2 (en) | Computer system and video playback method | |
JP3436818B2 (en) | Computer system and video playback method | |
JP4484220B2 (en) | Video distribution device | |
JPH10285593A (en) | Data structure for image transmission, image transmission method, image decoder and data recording medium | |
JP2007158431A (en) | Video recording device and video recording and reproducing device | |
JPH11298859A (en) | Video signal encoding system and video signal encoding method | |
JP2001339685A (en) | Image processing apparatus | |
JP2002135691A (en) | Reproducing device, reproducing method and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070904 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081021 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090511 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |