JP2010045862A - Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program - Google Patents
Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program Download PDFInfo
- Publication number
- JP2010045862A JP2010045862A JP2009266308A JP2009266308A JP2010045862A JP 2010045862 A JP2010045862 A JP 2010045862A JP 2009266308 A JP2009266308 A JP 2009266308A JP 2009266308 A JP2009266308 A JP 2009266308A JP 2010045862 A JP2010045862 A JP 2010045862A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- information
- recording
- moving image
- reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004590 computer program Methods 0.000 title claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 19
- 230000008929 regeneration Effects 0.000 description 7
- 238000011069 regeneration method Methods 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001172 regenerating effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Abstract
Description
本発明は、記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムに関する。 The present invention relates to a recording / reproducing apparatus, a recording apparatus, a reproducing apparatus, a recording method, a reproducing method, and a computer program.
従来、映像や音声を収録するカムコーダのような記録再生装置では、映像や音声の記録や再生という基本的な機能だけでなく、記録した映像や音声の分割、記録に失敗して破損した映像・音声ファイルの修復(サルベージ)といった機能も有している。 Conventional recording / playback devices such as camcorders that record video and audio not only have the basic functions of recording and playback of video and audio, but also the It also has a function of audio file repair (salvage).
映像や音声の収録には様々なフォーマットが存在する。フォーマットの一例としては、RIFF(Resource Interchange File Format)、QuickTime、TS(Transport Stream)、PS(Program Stream)、MXF(Material Exchange Format)等がある。そして、カムコーダで映像や音声を収録する際のフォーマットと、収録した映像や音声を編集する際に要求されるフォーマットとが異なる場合が多々存在する。異なるフォーマットでも映像や音声を編集することができるように、各フォーマットは映像や音声を収録する際に、記録されたファイルにおける映像や音声の位置が分かるようにインデックス情報を併せて記録している(特許文献1〜3参照)。
There are various formats for recording video and audio. Examples of formats include RIFF (Resource Interchange Format), QuickTime, TS (Transport Stream), PS (Program Stream), MXF (Material Exchange Format), and the like. There are many cases where the format for recording video and audio with a camcorder is different from the format required for editing the recorded video and audio. In order to be able to edit video and audio in different formats, each format also records index information so that the position of video and audio in the recorded file can be understood when recording video and audio. (See
このように、インデックス情報を併せて記録することで、映像や音声の収録時に用いるフォーマットと、映像や音声の再生時や編集時に用いるフォーマットとが異なっている場合であっても、インデックス情報を参照することで、異なるフォーマット間で映像や音声の再生や編集が可能となる。 In this way, by recording index information together, even if the format used when recording video and audio is different from the format used when playing or editing video and audio, the index information is referenced. By doing so, it becomes possible to reproduce and edit video and audio between different formats.
しかし、従来の方法では、フォーマットごとに個別にプロセッサを用意し、多くの機能を実装する必要があった。映像や音声の記録に関しては処理を共通化できる箇所は多いが、フォーマットごとにプロセッサを用意しなければならないので処理が冗長であり、また多くのフォーマットに対応しようとすればするほど、回路規模が大きくなる問題があった。 However, in the conventional method, it is necessary to prepare a processor individually for each format and to implement many functions. For video and audio recording, there are many places where processing can be shared, but since a processor must be prepared for each format, the processing is redundant. There was a problem of getting bigger.
また、従来の方法では、サルベージ(破損ファイルの修復)に使えるほどの短い間隔でインデックス情報を記録していくことができず、また映像と音声の同期情報がストリームの先頭で記述されるため、例えばストリーム中の任意の点から再生したい場合には、インデックスの先頭から経過時間を積分する必要があり、処理に時間を要する問題があった。 Also, with the conventional method, index information cannot be recorded at such a short interval that it can be used for salvage (corruption of damaged files), and synchronization information of video and audio is described at the beginning of the stream. For example, when playback is desired from an arbitrary point in the stream, it is necessary to integrate the elapsed time from the beginning of the index, and there is a problem that processing takes time.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、映像や音声の記録時に、記録方式によらずに共通の書式のインデックス情報を記録し、インデックス情報には映像と音声とを同期する情報を記録することで、記録したインデックス情報を元に多くの機能を実現することが可能な、新規かつ改良された記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムを提供することにある。 Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to record index information in a common format regardless of the recording method when recording video and audio, and By recording information that synchronizes video and audio in information, a new and improved recording / reproducing apparatus, recording apparatus, reproducing apparatus, which can realize many functions based on the recorded index information, To provide a recording method, a reproducing method, and a computer program.
上記課題を解決するために、本発明のある観点によれば、動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、再生情報に基づいて動画像および音声を再生する再生部と、を備える記録再生装置であって、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録再生装置が提供される。 In order to solve the above problems, according to an aspect of the present invention, the present invention relates to an imaging unit that captures a moving image, an audio recording unit that records audio, and reproduction of the moving image and audio during recording of the moving image and audio. A recording / reproducing apparatus comprising: a reproduction information recording unit that records reproduction information together; and a reproduction unit that reproduces a moving image and sound based on the reproduction information. The reproduction information recording unit records reproduction information. In addition, a recording / reproducing apparatus is provided that records audio synchronization information for synchronizing video and audio in parallel with reproduction information for each chunk of audio data.
かかる構成によれば、記録再生装置は動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、再生情報に基づいて動画像および音声を再生する再生部と、を備え、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。 According to this configuration, the recording / reproducing apparatus records the reproduction information related to the reproduction of the moving image and the sound at the time of recording the moving image and the sound at the time of recording the image capturing unit that captures the moving image, the sound recording unit that records the sound. A reproduction information recording unit; and a reproduction unit that reproduces a moving image and sound based on the reproduction information. The reproduction information recording unit synchronizes video and audio when recording reproduction information. Information is recorded in parallel with playback information for each chunk of audio data. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.
再生部は、音声データのチャンク毎に記録された音声同期情報に基づいて動画像と音声とを同期して再生してもよい。その結果、音声データのチャンク毎に記録された映像と音声とを同期するための音声同期情報を用いることで、動画像と音声とを同期して再生することができる。 The reproduction unit may reproduce the moving image and the sound in synchronization based on the sound synchronization information recorded for each chunk of the sound data. As a result, by using the audio synchronization information for synchronizing the video and audio recorded for each chunk of audio data, the moving image and the audio can be reproduced in synchronization.
また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、を備える記録装置であって、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録装置が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, an image capturing unit that captures a moving image, a sound recording unit that records sound, and a moving image and sound when recording a moving image and sound are recorded. A reproduction information recording unit that records reproduction information related to reproduction of the audio, wherein the reproduction information recording unit synchronizes video and audio when recording the reproduction information. Is recorded in parallel with the reproduction information for each chunk of the audio data.
かかる構成によれば、記録装置は動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、を備え、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。 According to such a configuration, the recording apparatus records an image capturing unit that captures a moving image, an audio recording unit that records audio, and playback information related to playback of the moving image and audio when recording the moving image and audio. An information recording unit, and the reproduction information recording unit records audio synchronization information for synchronizing video and audio in parallel with the reproduction information for each chunk of audio data when recording the reproduction information. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.
また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生部を備える再生装置であって、再生部は、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、再生装置が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. And a playback device including a playback unit that plays back the audio and synchronizes the moving image and the sound recorded in parallel with the playback information for each chunk of the audio data included in the playback information. A playback device is provided, which plays back a moving image and sound in synchronization based on the synchronization information.
かかる構成によれば、再生装置は、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生部を備え、再生部は、再生情報に含まれる動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生する。その結果、音声データのチャンク毎に再生情報と並行して記録された映像と音声とを同期するための音声同期情報を用いることで、動画像と音声とを同期して再生することができる。 According to such a configuration, the playback device includes the playback unit that plays back based on the playback information related to playback recorded when the moving image and the sound are recorded when the moving image and the sound are played back. Reproduces the moving image and the sound in synchronization based on the sound synchronization information for synchronizing the moving image and the sound included in the reproduction information. As a result, by using the audio synchronization information for synchronizing the video and audio recorded in parallel with the reproduction information for each chunk of audio data, the moving image and the audio can be reproduced in synchronization.
また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像ステップと、音声を記録する音声記録ステップと、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録ステップと、を含む記録方法であって、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録方法が提供される。 In order to solve the above problems, according to another aspect of the present invention, an imaging step for capturing a moving image, an audio recording step for recording audio, and a moving image and audio at the time of recording the moving image and audio are recorded. And a reproduction information recording step for recording reproduction information relating to reproduction of the audio, wherein the reproduction information recording step includes audio synchronization information for synchronizing video and audio when recording the reproduction information. Is recorded in parallel with the reproduction information for each chunk of the audio data.
かかる構成によれば、撮像ステップは動画像を撮影し、音声記録ステップは音声を記録し、再生情報記録ステップは撮像ステップで撮影する動画像および音声記録ステップで記録する音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する。そして、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。 According to such a configuration, the imaging step captures a moving image, the audio recording step records audio, and the reproduction information recording step records the moving image captured in the imaging step and the audio recorded in the audio recording step. In addition, playback information relating to the playback of audio is recorded together. In the reproduction information recording step, audio synchronization information for synchronizing the video and audio when recording the reproduction information is recorded in parallel with the reproduction information for each chunk of audio data. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.
また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生ステップを含む再生方法であって、再生ステップは、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、再生方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. A playback method including a playback step for playback, wherein the playback step includes audio for synchronizing the audio and video recorded in parallel with the playback information for each chunk of audio data included in the playback information. There is provided a playback method characterized in that a moving image and sound are played back synchronously based on the synchronization information.
かかる構成によれば、再生ステップは、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する。そして、再生ステップは、再生の際に、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生する。その結果、音声データのチャンク毎に記録された映像と音声とを同期するための音声同期情報を用いることで、動画像および音声の記録方式によらずに、動画像と音声とを同期して再生することができる。 According to this configuration, in the playback step, when playing back the moving image and the sound, the playback is performed based on the playback information related to the playback that is recorded when the moving image and the sound are recorded. In the playback step, the video is based on the audio synchronization information for synchronizing the moving image and the audio recorded in parallel with the playback information for each chunk of the audio data included in the playback information at the time of playback. Play the image and sound in sync. As a result, by using audio synchronization information to synchronize the video and audio recorded for each chunk of audio data, the video and audio can be synchronized regardless of the video and audio recording method. Can be played.
また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像ステップと、音声を記録する音声記録ステップと、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録ステップと、を含む処理をコンピュータに実行させるコンピュータプログラムであって、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、コンピュータプログラムが提供される。 In order to solve the above problems, according to another aspect of the present invention, an imaging step for capturing a moving image, an audio recording step for recording audio, and a moving image and audio at the time of recording the moving image and audio are recorded. A reproduction information recording step for recording the reproduction information relating to the reproduction of the video, and a computer program for causing the computer to execute a process including the reproduction information recording step, wherein the reproduction information recording step synchronizes the video and the audio when recording the reproduction information. A computer program is provided that records audio synchronization information to be performed in parallel with reproduction information for each chunk of audio data.
また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生ステップを含む処理をコンピュータに実行させるコンピュータプログラムであって、再生ステップは、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、コンピュータプログラムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. A computer program for causing a computer to execute a process including a playback step for playback, wherein the playback step includes a moving image and sound recorded in parallel with the playback information for each chunk of audio data included in the playback information. There is provided a computer program characterized in that a moving image and audio are reproduced in synchronization based on audio synchronization information for performing synchronization.
以上説明したように本発明によれば、映像や音声の記録時に、記録方式によらずに共通の書式のインデックス情報を記録し、インデックス情報と併せて映像と音声を同期する音声同期情報を音声データのチャンク毎に記録することで、記録したインデックス情報および音声同期情報を元に多くの機能を実現することが可能な、新規かつ改良された記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムを提供することができる。 As described above, according to the present invention, when recording video and audio, the index information in a common format is recorded regardless of the recording method, and the audio synchronization information that synchronizes the video and audio together with the index information is recorded as audio. A new and improved recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method capable of realizing many functions based on the recorded index information and audio synchronization information by recording each chunk of data, A playback method and a computer program can be provided.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
図1は、本発明の一実施形態にかかる記録再生装置100の構成について説明する説明図である。以下、図1を用いて本発明の一実施形態にかかる記録再生装置100の構成について説明する。
FIG. 1 is an explanatory diagram for explaining the configuration of a recording / reproducing
図1に示したように、本発明の一実施形態にかかる記録再生装置100は、カメラ102と、マイク104と、映像・音声I/F部106と、エンコード・デコード部108と、再生情報生成部110と、DRAM(Dynamic Random Access Memory)111と、記録部112と、再生部114と、表示部116と、音声出力部118と、システム制御部120と、メモリ122と、ユーザインタフェース部124と、を含んで構成される。
As shown in FIG. 1, a recording / reproducing
カメラ102は、被写体を動画像または静止画像として撮影し、撮影した結果得られる画像をデジタル信号に変換して、画像データとして映像・音声I/F部106に送る。マイク104は、カメラ102が撮影を行った時点での記録再生装置100の周囲の音声を収録し、収録した音声をデジタルデータに変換して音声データとして、映像・音声I/F部106に送る。
The
映像・音声I/F部106は、カメラ102で撮影された画像データおよびマイク104で収録された音声データをエンコード・デコード部108に送る。また、エンコード・デコード部108から送られた画像のデータを表示部116に送り、音声のデータを音声出力部118に送る役割も有する。
The video / audio I /
エンコード・デコード部108は、映像・音声I/F部106から送られた画像データ及び音声データを、各種方式に基づいてエンコードし、エンコード後の画像データ及び音声データを再生情報生成部110と記録部112とに送る。エンコードする方式としては、例えばMPEG−1、MPEG−2、MPEG−4等がある。
The encoding /
また、エンコード・デコード部108は、記録部112に記録される画像データ及び音声データを読み出して、エンコードした方式に応じてデコードし、デコード後の画像データ及び音声データを映像・音声I/F部106に送る役割も有する。
Also, the encoding /
再生情報生成部110は、エンコード・デコード部108でエンコードされた画像データ及び音声データを入力し、画像データ及び音声データから再生情報ファイルを作成するものである。再生情報ファイルの構成については後述する。作成した再生情報ファイルは記録部112に送られて記録される。
The reproduction
再生情報ファイルは、記録再生装置100で録画を開始すると、DRAM111に含まれる再生情報記録領域に再生情報を順次記録し、録画を終了すると、DRAM111の再生情報記録領域に記録された再生情報を再生情報ファイルとして作成することによって作成してもよい。DRAM111への再生情報の記録は所定の間隔で行う。所定の間隔の一例として、例えば2秒間隔で行ってもよい。
When recording is started by the recording /
記録部112は、エンコード・デコード部108でエンコードされた画像データおよび音声データを、動画ファイルの形式にして記録するものである。また、エンコード・デコード部108でエンコードされた画像データおよび音声データに基づいて再生情報生成部110で作成された再生情報ファイルも併せて記録する。
The
システム制御部120は、記録再生装置100の各部の制御を行うものである。システム制御部120で制御する記録再生装置100の各部の制御としては、例えば、ユーザインタフェース部124から録画の開始が指示されると、システム制御部120は、カメラ102およびマイク104に対して録画および録音の開始を指示する。もちろん、システム制御部120が行う制御はかかる例に限定されない。
The
ユーザインタフェース部124は、記録再生装置100を使用するユーザから操作部(図示せず)の操作を受け付け、その操作を表す操作信号をシステム制御部120に送るものである。ユーザが操作部で操作するものとしては、動画の撮影開始指示や、撮影した動画の再生指示等がある。
The
メモリ122は、記録再生装置100の各部が行う処理に必要となるデータを記憶するものである。例えば、メモリ122にコンピュータプログラムを格納し、システム制御部120が格納されたコンピュータプログラムを読み出して実行することによって、再生する動画ファイルに対する処理を行うことができる。
The
以上、図1を用いて本発明の一実施形態にかかる記録再生装置100の構成について説明した。次に、本発明の一実施形態にかかる、再生情報生成部110で生成される再生情報ファイルの内部構成について説明する。
The configuration of the recording / reproducing
図2は、本発明の一実施形態にかかる、再生情報生成部110で生成される再生情報ファイルの内部構成について説明する説明図である。以下、図2を用いて本発明の一実施形態にかかる再生情報ファイルの内部構成について説明する。
FIG. 2 is an explanatory diagram illustrating the internal configuration of the reproduction information file generated by the reproduction
図2に示したように、本発明の一実施形態にかかる再生情報ファイルは、16バイトのデータを1つの固まりとして構成されている。ファイルの先頭から、ファイルヘッダ、拡張ファイルヘッダ1〜n、各フレームに対応するデータが順次格納される。
As shown in FIG. 2, the reproduction information file according to the embodiment of the present invention is configured by 16 bytes of data as one block. From the top of the file, a file header,
ファイルヘッダは、記録再生装置100で記録される画像データや音声データに関する基本情報が格納されるものである。ファイルヘッダに格納される、画像データや音声データに関する基本情報の一例として、バージョン情報、ファイル基本情報、映像基本情報、音声基本情報、タイムコード情報が記録される。もちろん、本発明においてファイルヘッダに記録する情報は係る例に限られない。
The file header stores basic information regarding image data and audio data recorded by the recording / reproducing
拡張ファイルヘッダは、ファイルヘッダには記録しないが、記録再生装置100で記録される画像データや音声データに関する情報が格納されるものである。本実施形態においては、拡張ファイルヘッダには先頭部分で非表示にするフレームの数、再生するフレームの数、サムネイル一覧に用いる代表画のフレーム番号を記録する。もちろん、本発明においては拡張ファイルヘッダに記録する情報は係る例に限られない。また、拡張ファイルヘッダの数は1つであってもよく、2つ以上であってもよい。図2では、拡張ファイルヘッダをn個設けた場合のデータ構造について示している。
The extended file header is not recorded in the file header, but stores information related to image data and audio data recorded by the recording / reproducing
各フレームに対応するデータは、画像データおよび音声データの各フレームにおける情報が格納されるものである。本実施形態においては、格納される情報は、GOP(Group Of Picture)先頭フラグ、ピクチャタイプ、映像情報、音声同期情報、音声情報がある。映像情報としては、例えばフレーム毎の画像データのサイズ、画像データの絶対アドレスが格納され、音声情報としては、例えばフレーム毎の音声データサイズ、音声データの相対アドレスまたは絶対アドレスが格納される。 Data corresponding to each frame stores information in each frame of image data and audio data. In the present embodiment, stored information includes a GOP (Group Of Picture) head flag, a picture type, video information, audio synchronization information, and audio information. As the video information, for example, the size of image data for each frame and the absolute address of the image data are stored, and as the audio information, for example, the audio data size for each frame, the relative address or the absolute address of the audio data is stored.
各フレームに対応するデータは、記録再生装置100で画像データおよび音声データを記録すると、記録したデータに基づいて0番目のフレーム(フレーム0)から順次作成される。そして、フレームが増えると、フレームの増加に伴って既に作成された各フレームに対応するデータに順次追加して作成される。各フレームに対応するデータは所定の間隔で作成することが望ましい。本実施形態においては、2分間隔で各フレームに対応するデータが作成される。
Data corresponding to each frame is sequentially generated from the 0th frame (frame 0) based on the recorded data when the recording /
以上、図2を用いて本発明の一実施形態にかかる再生情報ファイルの内部構成について説明した。次に、本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する。 The internal configuration of the reproduction information file according to the embodiment of the present invention has been described above with reference to FIG. Next, the data structure of the file header according to the embodiment of the present invention will be described.
図3は、本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する説明図である。以下、図3を用いて本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する。 FIG. 3 is an explanatory diagram illustrating the data structure of the file header according to the embodiment of the present invention. The data structure of the file header according to the embodiment of the present invention will be described below using FIG.
図3に示したように、また上述したように、ファイルヘッダは16バイトの領域を有している。またファイルヘッダにはバージョン情報、ファイル基本情報、映像基本情報、音声基本情報、タイムコード情報が記録される。 As shown in FIG. 3 and as described above, the file header has a 16-byte area. In the file header, version information, file basic information, video basic information, audio basic information, and time code information are recorded.
ファイル基本情報としては、映像チャンクヘッダ長、音声チャンクヘッダ長が含まれ、映像基本情報にはフレームレート、画像のアスペクト比、水平・垂直画素数、映像圧縮規格が含まれ、音声基本情報には、音声量子化ビット数、音声トラック構成、音声標本化周波数、音声圧縮規格の情報が含まれる。これらの情報を格納する箇所を、ファイルヘッダの16バイトの領域に収まるように定義する。なお、映像チャンクヘッダ長は、後述するピクチャタイプによって値が異なる場合があり、その場合にはピクチャタイプ別に映像チャンクヘッダ長のデータを格納してもよい。例えば、ピクチャタイプがIピクチャとIピクチャ以外とで映像チャンクヘッダ長が異なる場合には、2種類の値をファイル基本情報に格納する。 Basic file information includes video chunk header length and audio chunk header length. Basic video information includes frame rate, image aspect ratio, number of horizontal and vertical pixels, video compression standard, basic audio information. , Audio quantization bit number, audio track configuration, audio sampling frequency, and audio compression standard information. The location for storing these pieces of information is defined so as to fit in the 16-byte area of the file header. Note that the value of the video chunk header length may differ depending on the picture type to be described later. In this case, the video chunk header length data may be stored for each picture type. For example, when the picture chunk header length differs between the I picture and the non-I picture, two types of values are stored in the file basic information.
以上、図3を用いて本発明の一実施形態にかかるファイルヘッダのデータ構成について説明した。次に、本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する。 The data structure of the file header according to the embodiment of the present invention has been described above using FIG. Next, a data configuration of data corresponding to each frame according to the embodiment of the present invention will be described.
図4は、本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する説明図である。以下、図4を用いて本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する。 FIG. 4 is an explanatory diagram for explaining the data structure of data corresponding to each frame according to the embodiment of the present invention. Hereinafter, the data configuration of data corresponding to each frame according to the embodiment of the present invention will be described with reference to FIG.
図4に示したように、また上述したように、各フレームに対応するデータは16バイトの領域を有している。各フレームに対応するデータには、GOP(Group Of Picture)先頭フラグ、ピクチャタイプ、映像情報、音声同期情報、音声情報がある。また映像情報として当該フレームにおける画像データのサイズ、画像データの絶対アドレスが格納され、音声情報として当該フレームにおける音声データのサイズ、音声データの相対アドレスまたは絶対アドレスが格納される。また、音声同期情報として、画像データの時刻情報と音声データの時刻情報との差分の値が格納される。これらの情報を格納する箇所を、各フレームに対応するデータの16バイトの領域に収まるように定義する。 As shown in FIG. 4 and as described above, the data corresponding to each frame has a 16-byte area. Data corresponding to each frame includes a GOP (Group Of Picture) head flag, a picture type, video information, audio synchronization information, and audio information. In addition, the size of image data and the absolute address of image data in the frame are stored as video information, and the size of audio data and the relative address or absolute address of audio data in the frame are stored as audio information. In addition, a difference value between the time information of the image data and the time information of the sound data is stored as the sound synchronization information. The location for storing these pieces of information is defined so as to fit in the 16-byte area of data corresponding to each frame.
各フレームに対応するデータとしてGOP先頭フラグやピクチャタイプを格納することで、フレームの途中から再生を行う場合でも、再生を開始するフレームに対応する再生情報を読み込むことで、当該フレーム及び当該フレームの前後のフレームの画像データを読み込んでデコードを行うことができる。 By storing the GOP head flag and the picture type as data corresponding to each frame, even when playback is performed from the middle of the frame, by reading the playback information corresponding to the frame from which playback is to be started, the frame and the frame It is possible to read and decode image data of previous and subsequent frames.
以上、図4を用いて本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明した。なお、図3や図4に示したデータ構成は本発明の一例であり、各データの格納位置は図3や図4に示した場合に限られないことは言うまでもない。 The data structure of the data corresponding to each frame according to the embodiment of the present invention has been described above using FIG. It should be noted that the data configuration shown in FIGS. 3 and 4 is an example of the present invention, and it goes without saying that the storage position of each data is not limited to the case shown in FIGS.
次に、本発明の一実施形態にかかる再生情報生成部110で生成される再生情報ファイルの生成方法について説明する。
Next, a method for generating a reproduction information file generated by the reproduction
図5は、MXF(Material Exchange Format)に基づいて記録される映像および音声データの構成の一例を示す説明図である。図5に示したように、MXFにおいては音声データ(A0、A1、A2、・・・)と画像データ(B0、B1、I2、・・・、P5、・・・)とが混在して記録される。ここで、B、I、Pはそれぞれピクチャタイプを表し、B0はピクチャタイプがBである0番目のフレームであることを表している。また、画像データはフレームごとにサイズが異なって記録される。 FIG. 5 is an explanatory diagram showing an example of the configuration of video and audio data recorded based on MXF (Material Exchange Format). As shown in FIG. 5, in MXF, audio data (A0, A1, A2,...) And image data (B0, B1, I2,..., P5,...) Are mixedly recorded. Is done. Here, B, I, and P each represent a picture type, and B0 represents the 0th frame whose picture type is B. The image data is recorded with a different size for each frame.
ここで、図5に示したlenHAは音声チャンクヘッダ長を、lenHIはピクチャタイプがIピクチャである映像フレームの映像チャンクヘッダ長を、lenHVはピクチャタイプがIピクチャ以外である映像フレームの映像チャンクヘッダ長を、それぞれ表している。またsizeV[n]はn番目のフレームの映像データサイズを、offsV[n]はn番目のフレームの映像データアドレスを表し、sizeA[n]はn番目のフレームの音声データサイズを、offA[n]はn番目のフレームの音声データアドレスを表している。これらの表記は以下の図においても同様である。 Here, lenHA shown in FIG. 5 is the audio chunk header length, lenHI is the video chunk header length of a video frame whose picture type is I picture, and lenHV is the video chunk header of a video frame whose picture type is other than I picture. Each represents a length. Also, sizeV [n] represents the video data size of the nth frame, offsV [n] represents the video data address of the nth frame, sizeA [n] represents the audio data size of the nth frame, and offA [n ] Represents the audio data address of the nth frame. These notations are the same in the following drawings.
そのため、MXFに基づいて映像および音声データが記録される場合に、各データのフレームごとの情報を再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルを参照することで、当該動画ファイルをファイルの途中から再生することができる。 Therefore, when video and audio data is recorded based on MXF, information for each frame of each data is recorded in the reproduction information file. Then, when reproducing a moving image file in which video and audio data are recorded, the moving image file can be reproduced from the middle of the file by referring to the generated reproduction information file.
図6は、MXFに基づいて記録される映像および音声データの再生について説明する説明図である。Videoは映像フレームを、Audioは音声フレームをそれぞれ意味し、skipFは動画ファイルを再生する際に、デコード不能等により非表示とするフレームの数を表している。fpsは1秒間に再生するフレームの数(frame per second)を表し、1/fpsは1フレームの時間を示す。なおfpsに関する情報は、再生情報ファイルのファイルヘッダに格納される。再生情報ファイルにfpsに関する情報を格納する際には、実際の値で格納してもよく、パラメータとして格納してもよい。本実施形態ではパラメータの形式で再生情報ファイルのファイルヘッダに格納する。 FIG. 6 is an explanatory diagram for explaining reproduction of video and audio data recorded based on MXF. Video means a video frame, Audio means an audio frame, and skip F represents the number of frames that are not displayed when a moving image file is reproduced due to inability to decode. fps represents the number of frames played back per second (frame per second), and 1 / fps represents the time of one frame. Information about fps is stored in the file header of the reproduction information file. When information about fps is stored in the reproduction information file, it may be stored as an actual value or as a parameter. In this embodiment, it is stored in the file header of the reproduction information file in the form of parameters.
図5と同様に、映像フレームにおけるB、I、Pはそれぞれピクチャタイプを表し、B0はピクチャタイプがBである0番目のフレームであることを表している。音声フレームにおけるA0は、0番目のフレームの音声データであることを表している。また、TCはタイムコードを指しており、orgTCはタイムコードの初期値を表している。skipFとorgTCの値は再生情報ファイルのファイルヘッダまたは拡張ファイルヘッダに格納し、動画ファイルを再生する際にはこれらの情報を再生情報ファイルから読み込んで再生する。 Similarly to FIG. 5, B, I, and P in the video frame each represent a picture type, and B0 represents the 0th frame having a picture type of B. A0 in the audio frame represents the 0th frame audio data. TC indicates a time code, and orgTC indicates an initial value of the time code. The values of skipF and orgTC are stored in the file header or extended file header of the reproduction information file, and when reproducing a moving image file, the information is read from the reproduction information file and reproduced.
図6に示したように、MXFにおいては、再生の開始時点(図6のPB beginに示した時点)で、映像の再生タイミングと音声の再生タイミングとが異なる(ディレイする)場合がある。図6に示したdelA[2]は、2番目のフレームにおける音声同期タイミングを表している。つまり、図6のように映像の再生タイミングと音声の再生タイミングとが異なる場合には、delA[2]だけ音声の再生を遅らせれば、映像と音声とを同期して再生することが出来る。なお、図6に示した例では、映像より音声のほうが遅れているため、delA[2]は負の値を示している。 As shown in FIG. 6, in MXF, the playback timing of video and the playback timing of audio may be different (delayed) at the start of playback (the time indicated by PB begin in FIG. 6). DelA [2] shown in FIG. 6 represents the audio synchronization timing in the second frame. That is, as shown in FIG. 6, when the video playback timing and the audio playback timing are different, the video and the audio can be played back in synchronization by delaying the playback of the audio by delA [2]. In the example shown in FIG. 6, since the audio is delayed from the video, delA [2] indicates a negative value.
従って、MXFに基づいて映像および音声データが記録される場合に、各データのフレームごとのディレイ情報を再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルに含まれるディレイ情報を参照することで、映像と音声とを同期して再生することができる。 Therefore, when video and audio data are recorded based on MXF, delay information for each frame of each data is recorded in the reproduction information file. When a moving image file in which video and audio data is recorded is reproduced, the video and audio can be reproduced in synchronization by referring to the delay information included in the generated reproduction information file.
図7は、MXFに基づいて記録される音声データの固まり(チャンク)の例について説明する説明図である。図7は、k番目のフレームを例に挙げて説明したものである。図7に示したように、MXFに基づいて記録される音声データの固まりは、ステレオで2トラック(stereo 2tracks)を使用する場合や、モノラルで4トラック(mono 4tracks)を使用する場合などがある。 FIG. 7 is an explanatory diagram for explaining an example of chunks of audio data recorded based on MXF. FIG. 7 illustrates the kth frame as an example. As shown in FIG. 7, the mass of audio data recorded based on MXF may be in the case of using 2 tracks (stereo 2tracks) in stereo, or in the case of using 4 tracks (mono 4tracks) in monaural. .
図7において、ステレオで2トラックを使用する場合には、ch(チャンネル)1およびch2を1つの固まりとして、ch3およびch4を1つの固まりとしてデータを記録している。またモノラルで4トラックを使用する場合には、チャンネルごとに1つの固まりとしてデータを記録している。lenHAは音声データのチャンクサイズを示しており、再生情報ファイルのファイルヘッダに格納される情報である。 In FIG. 7, when two tracks are used in stereo, data is recorded with ch (channel) 1 and ch2 as one block and ch3 and ch4 as one block. When 4 tracks are used in monaural, data is recorded as one block for each channel. lenHA indicates the chunk size of the audio data and is information stored in the file header of the reproduction information file.
このような場合に、音声データのサイズsizeA[k]と相対アドレスoffsA[k]とを再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルを参照することで、当該動画ファイルをファイルの途中から再生した場合でも音声を当該再生場所から再生することができる。 In such a case, the audio data size sizeA [k] and relative address offsA [k] are recorded in the reproduction information file. Then, when playing back a moving image file in which video and audio data is recorded, by referring to the generated reproduction information file, even when the moving image file is played from the middle of the file, the sound is played from the playback location. Can do.
図8は、本発明の一実施形態にかかる、MXFに基づいて動画ファイルを記録する際に生成される再生情報ファイルのデータ構成について説明する説明図である。 FIG. 8 is an explanatory diagram illustrating a data configuration of a reproduction information file generated when a moving image file is recorded based on MXF according to an embodiment of the present invention.
図8に示したように、フレームごとに画像データのサイズ(sizeV[])、画像データの絶対アドレス(offsV[])、ディレイ情報(delA[])、音声データのサイズ(sizeA[])、音声データの相対アドレス(offsA[])を記録する。また、フレームごとにGOP先頭フラグ(1または0。1の場合、そのフレームがGOPの先頭であることを示す)、ピクチャタイプ(B、P、I)の情報も併せて格納する。 As shown in FIG. 8, image data size (sizeV []), image data absolute address (offsV []), delay information (delA []), audio data size (sizeA []) for each frame, Record the relative address (offsA []) of the audio data. Also, GOP head flag (1 or 0. 1 indicates that the frame is the head of GOP) and picture type (B, P, I) information are also stored for each frame.
このように、MXFに基づいて動画ファイルを記録する際に再生情報ファイルを生成することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルに格納されている情報を参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。 Thus, by generating a playback information file when recording a video file based on MXF, even when the video file is played from the middle of the file, information stored in the playback information file can be referred to. The video and audio can be reproduced from the reproduction location. And since the audio information is also recorded in the playback information file, even if the video file is played from the middle of the file, the video and audio are synchronized by referring to the playback information file, Video and audio can be played from the playback location.
例えば、k番目のフレームの映像データを取得する場合には、当該フレームがIピクチャである場合には、(offsV[k]+lenHI)〜(offsV[k]+sizeV[k]−1)の範囲がk番目のフレームの映像データに相当し、当該フレームがPピクチャまたはBピクチャである場合には、(offsV[k]+lenHV)〜(offsV[k]+sizeV[k]−1)の範囲がk番目のフレームの映像データに相当する。 For example, when acquiring video data of the kth frame, if the frame is an I picture, the range from (offsV [k] + lenHI) to (offsV [k] + sizeV [k] −1) If the frame corresponds to video data of the kth frame and the frame is a P picture or a B picture, the range from (offsV [k] + lenHV) to (offsV [k] + sizeV [k] -1) is kth. Corresponds to the video data of the frame.
また、k番目のフレームの音声データを取得する場合には、音声トラック単位_lenAは_lenA=sizeA[k]/(trksA & 0xf)、音声データ番地はoffsA[k]+offsV[k]+(_lenA*j)+lenHA、音声データ長は_lenA−lenHAでそれぞれ表される。ここでtrksAは音声トラック数を表し、再生情報ファイルのファイルヘッダに格納されるデータである。 Further, when acquiring the audio data of the kth frame, the audio track unit_lenA is _lenA = sizeA [k] / (trksA & 0xf), and the audio data address is offsA [k] + offsV [k] + (_ lenA * j) + lenHA, and the voice data length is represented by _lenA-lenHA. Here, trksA represents the number of audio tracks and is data stored in the file header of the reproduction information file.
画像データと音声データを1つの動画ファイルに記録する場合だけで無く、音声データを動画ファイルから独立して音声ファイルとして記録する場合でも、再生情報ファイルを生成することができる。図9は、MXFに基づいて音声データを記録する際に、音声データを独立して音声ファイルとして記録する場合について説明する説明図である。図9に示した例では、音声をモノクロ2チャンネルで、それぞれファイル名をxxxxxA01.audとxxxxxA02.audとして記録する場合を示している。 A reproduction information file can be generated not only when image data and audio data are recorded in one moving image file, but also when audio data is recorded as an audio file independently of the moving image file. FIG. 9 is an explanatory diagram for explaining a case where audio data is recorded as an audio file independently when audio data is recorded based on MXF. In the example shown in FIG. 9, the audio is monochrome 2 channels and the file names are xxxxA01. aud and xxxxA02. The case of recording as aud is shown.
音声データを動画ファイルから独立して音声ファイルとして記録する場合でも、各フレームに対応する音声データのデータサイズおよび相対アドレスを記録することで、当該動画ファイルをファイルの途中から再生した場合でも、生成した再生情報ファイルを参照することで、音声を当該再生場所から再生することができる。 Even when audio data is recorded as an audio file independently of the video file, the data size and relative address of the audio data corresponding to each frame can be recorded, so that even if the video file is played from the middle of the file, it is generated By referring to the reproduced information file, the sound can be reproduced from the reproduction location.
以上、MXFに基づいて動画ファイルを記録する際に生成する再生情報ファイルのデータ構成について説明した。なお、RIFF(Resource Interchange File Format)は、MXFと似たデータ構造を持つので、インデックスはMXFと完全に等しい書式となり、また再生等のインデックスを使用する処理もMXFの場合の処理と共通となる。MXF以外の規格に基づいて動画ファイルを記録する際にも、再生情報ファイルを生成し、生成した再生情報ファイルを参照することで、映像および音声の再生を行うことができる。以下、その他の規格における実施例について説明する。 The data structure of the reproduction information file generated when recording a moving image file based on MXF has been described above. Since RIFF (Resource Interchange File Format) has a data structure similar to MXF, the index has the completely same format as MXF, and the processing using the index for reproduction and the like is the same as the processing in MXF. . Even when a moving image file is recorded based on a standard other than MXF, it is possible to reproduce video and audio by generating a reproduction information file and referring to the generated reproduction information file. Examples according to other standards will be described below.
(MP4規格における実施例)
図10は、MP4規格に基づいて記録される映像および音声データの構成の一例を示す説明図である。図10に示したように、MP4規格においては音声データ(A0−A14、A15−A29、・・・)と画像データ(I2、P5、P8、P11、P14、I17、・・・)とが混在して記録される。また、MP4規格に基づいて記録される音声データは15フレーム分が一固まりとなって記録される。
(Example in the MP4 standard)
FIG. 10 is an explanatory diagram showing an example of the configuration of video and audio data recorded based on the MP4 standard. As shown in FIG. 10, in the MP4 standard, audio data (A0-A14, A15-A29,...) And image data (I2, P5, P8, P11, P14, I17,...) Are mixed. And recorded. Further, audio data recorded based on the MP4 standard is recorded as a set of 15 frames.
なお、図10で、stsz[]はMP4規格に基づいて記録される映像および音声データの各フレームのサイズを、stco[]は映像および音声データのチャンクを、stsc[]は映像および音声データのチャンクに関する情報を示している。 In FIG. 10, stsz [] is the size of each frame of video and audio data recorded based on the MP4 standard, stco [] is a chunk of video and audio data, and stsc [] is video and audio data. Shows information about chunks.
図11は、MP4規格に基づいて記録される音声データについて説明する説明図である。上述の通り、MP4規格に基づいて記録される音声データは15フレーム分が一塊となって記録される。図11に示した例では、従って、再生情報ファイルを生成する際には、15フレーム分の音声データのデータサイズを記録する。 FIG. 11 is an explanatory diagram for explaining audio data recorded based on the MP4 standard. As described above, 15 frames of audio data recorded based on the MP4 standard are recorded in a lump. In the example shown in FIG. 11, therefore, the data size of 15 frames of audio data is recorded when the reproduction information file is generated.
このようにMP4規格に基づいて記録される映像及び音声データを基に再生情報ファイルを生成する。図12は、本発明の一実施形態にかかる、MP4規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。図12に示したように、MP4規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルは、フレームごとの画像データのサイズ(sizeV[])と画像データの絶対アドレス(offsV[])が格納される。 In this way, a reproduction information file is generated based on the video and audio data recorded based on the MP4 standard. FIG. 12 is an explanatory diagram illustrating a data structure of a reproduction information file generated based on video and audio data recorded based on the MP4 standard according to an embodiment of the present invention. As shown in FIG. 12, the reproduction information file generated based on the video and audio data recorded based on the MP4 standard includes the size (sizeV []) of the image data for each frame and the absolute address ( offsV []) is stored.
また、上述したようにMP4規格に基づいて記録される音声データは15フレーム分が一固まりとなって記録される。そのため、音声データは1フレーム単位ではなく15フレーム単位に記録する。すなわち、図12に示したように、フレーム0の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[0])、音声データの相対アドレス(offsA[0])およびディレイ情報(delA[0])を記録すると、フレーム1〜フレーム14の音声データに関する情報を格納する箇所には0を記録する。そして、フレーム15の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[15])、音声データの相対アドレス(offsA[15])およびディレイ情報(delA[15])を記録する。
Further, as described above, the audio data recorded based on the MP4 standard is recorded as a set of 15 frames. For this reason, audio data is recorded in units of 15 frames, not in units of 1 frame. That is, as shown in FIG. 12, the size of the audio data (sizeA [0]), the relative address (offsA [0]) of the audio data and the delay information (delA [del] [ When 0]) is recorded, 0 is recorded at a location where information relating to audio data of
このように、MP4規格に基づいて動画ファイルを生成する場合であっても再生情報ファイルを生成することができる。MP4規格に基づいて生成される動画ファイルの画像データおよび音声データに関する情報を再生情報ファイルに記録することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。また、QuickTimeフォーマットはMP4と似たデータ構造を持つので、インデックスはMP4と完全に等しい書式となり、また再生等のインデックスを使用する処理もMP4の場合と共通の処理となる。 Thus, even when a moving image file is generated based on the MP4 standard, a reproduction information file can be generated. By recording information related to the image data and audio data of the moving image file generated based on the MP4 standard in the reproduction information file, even when the moving image file is reproduced from the middle of the file, the image can be obtained by referring to the reproduction information file. And audio can be reproduced from the reproduction location. And since the audio information is also recorded in the playback information file, even if the video file is played from the middle of the file, the video and audio are synchronized by referring to the playback information file, Video and audio can be played from the playback location. In addition, since the QuickTime format has a data structure similar to that of MP4, the index has the completely same format as MP4, and the processing using the index for reproduction and the like is the same processing as in MP4.
(MPEG−2 TS規格における実施例)
図13は、MPEG−2 TS(Transport Stream)規格に基づいて記録されるデータの構成の一例を示す説明図である。図13に示したように、MPEG−2 TS規格に基づいて記録されるデータとして、映像および音声データの他に、SIT(Selection Information Table;伝送される番組に関する情報の指示についての情報)、PAT(Program Association Table;ストリームで伝送されるコンテンツを管理する情報)、PMT(Program Map Table;ストリームで伝送されるコンテンツを構成する映像や音声データを管理する情報)、PCR(Program Clock Reference;プログラム時刻基準値)等の情報も作成される。
(Example in the MPEG-2 TS standard)
FIG. 13 is an explanatory diagram showing an example of the structure of data recorded based on the MPEG-2 TS (Transport Stream) standard. As shown in FIG. 13, as data to be recorded based on the MPEG-2 TS standard, in addition to video and audio data, SIT (Selection Information Table; information on instruction of information related to transmitted program), PAT (Program Association Table; information for managing content transmitted in the stream), PMT (Program Map Table; information for managing video and audio data constituting the content transmitted in the stream), PCR (Program Clock Reference; program time) Information such as a reference value is also created.
また、MPEG−2 TS規格に基づいて生成される映像および音声データは多重化されて記録される(AUX−V,AUX−A)。 In addition, video and audio data generated based on the MPEG-2 TS standard are multiplexed and recorded (AUX-V, AUX-A).
このようにMPEG−2 TS規格に基づいて生成される動画ファイルであっても、映像および音声データの各フレームの位置およびサイズに関する情報を再生情報ファイルに記録することで、再生情報ファイルを参照して当該動画ファイルを再生することが可能となる。 Even in the case of a moving image file generated based on the MPEG-2 TS standard in this manner, information on the position and size of each frame of video and audio data is recorded in the reproduction information file, so that the reproduction information file can be referred to. Thus, the moving image file can be played back.
図14は、MPEG−2 TS規格に基づいて記録される音声データの構成を詳細に示す説明図である。図14に示したように、MPEG−2 TS規格におけるオーディオパケットは、集中的にPES(Packetized Elementary Stream)単位で配置し、さらにVideo Packに対応する4〜5PES(59.94i)を集めて1つのAudio Packを構成している。MPEG−2 TS規格に基づいて記録される音声データを、本発明の再生情報として記録する際には、一般的なフレーム単位の記述も可能であるが、本実施形態では、構成されたAudio Packを一つの音声データの固まりと扱っている。 FIG. 14 is an explanatory diagram showing in detail the structure of audio data recorded based on the MPEG-2 TS standard. As shown in FIG. 14, audio packets in the MPEG-2 TS standard are intensively arranged in units of PES (Packetized Elementary Stream), and 4 to 5 PES (59.94i) corresponding to the Video Pack are collected to 1 One Audio Pack is configured. When audio data recorded based on the MPEG-2 TS standard is recorded as reproduction information of the present invention, it is possible to describe a general frame unit. However, in this embodiment, the configured audio pack is used. Are treated as a single block of audio data.
図15は、MPEG−2 TS規格に基づいて映像および音声データとして記録されるデータの一例を示す説明図である。MPEG−2 TSやMPEG−2 PSでは、映像データおよび音声データの内、先頭32ビットがヘッダとして割り当てられている。従って、実際に映像データ及び音声データのサイズとして記録するのは、先頭の32ビットを除いたサイズとなる。 FIG. 15 is an explanatory diagram showing an example of data recorded as video and audio data based on the MPEG-2 TS standard. In MPEG-2 TS and MPEG-2 PS, the first 32 bits of video data and audio data are assigned as a header. Therefore, what is actually recorded as the size of video data and audio data is the size excluding the leading 32 bits.
このようにMPEG−2 TS規格に基づいて記録される映像及び音声データを基に再生情報ファイルを生成する。図16は、本発明の一実施形態にかかる、MPEG−2 TS規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。 In this way, a reproduction information file is generated based on the video and audio data recorded based on the MPEG-2 TS standard. FIG. 16 is an explanatory diagram for explaining the data structure of a reproduction information file generated based on video and audio data recorded based on the MPEG-2 TS standard according to an embodiment of the present invention.
図16に示したように、MPEG−2 TS規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルは、フレームごとの画像データのサイズ(sizeV[])と画像データの絶対アドレス(offsV[])が格納される。 As shown in FIG. 16, the reproduction information file generated based on the video and audio data recorded based on the MPEG-2 TS standard includes the size (sizeV []) of the image data for each frame and the image data. An absolute address (offsV []) is stored.
そして、音声データは1フレーム単位ではなく3フレーム単位に記録する。すなわち、図16に示したように、フレーム0の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[0])、音声データの相対アドレス(offsA[0])およびディレイ情報(delA[0])を記録すると、フレーム1およびフレーム2の音声データに関する情報を格納する箇所には0を記録する。そして、フレーム3の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[3])、音声データの相対アドレス(offsA[3])およびディレイ情報(delA[3])を記録する。
Audio data is recorded in units of three frames, not in units of one frame. That is, as shown in FIG. 16, the size of the audio data (sizeA [0]), the relative address (offsA [0]) of the audio data, and the delay information (delA [del] [ When 0]) is recorded, 0 is recorded at a location where information relating to audio data of
このように、MPEG−2 TS規格に基づいて動画ファイルを生成する場合であっても再生情報ファイルを生成することができる。MPEG−2 TS規格に基づいて生成される動画ファイルの画像データおよび音声データに関する情報を再生情報ファイルに記録することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、音声のディレイ情報を用いて映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。 Thus, even when a moving image file is generated based on the MPEG-2 TS standard, a reproduction information file can be generated. By recording information related to image data and audio data of a moving image file generated based on the MPEG-2 TS standard in a reproduction information file, the reproduction information file is referred to even when the moving image file is reproduced from the middle of the file. Thus, video and audio can be reproduced from the reproduction location. Since the playback information file also records audio delay information, even when the video file is played from the middle of the file, the playback information file can be used to refer to the video using the audio delay information. And the audio can be synchronized and the video and audio can be reproduced from the reproduction location.
以上、本発明の一実施形態にかかる再生情報生成部110で生成される再生情報ファイルの生成方法について説明した。
The method for generating the reproduction information file generated by the reproduction
このように、各規格に対応するように再生情報ファイルを生成しておけば、録画した際の規格と異なる規格で動画ファイルの再生や編集等の処理を行う再生装置であっても、再生情報ファイルを参照することによって動画ファイルの再生や編集を行うことができる。次に、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置について説明する。 Thus, if a playback information file is generated so as to correspond to each standard, even if the playback device performs processing such as playback and editing of a moving image file with a standard different from the standard at the time of recording, By referring to the file, it is possible to play or edit the movie file. Next, a playback device that plays back a moving image file using a playback information file according to an embodiment of the present invention will be described.
図17は、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置200について説明する説明図である。図17に示したように、本発明の一実施形態にかかる再生装置200は、記録部202と、再生情報解析部204と、デコード部206と、再生部208と、表示部210と、音声出力部212と、システム制御部214と、メモリ216と、ユーザインタフェース部218と、を含んで構成される。
FIG. 17 is an explanatory diagram illustrating a
記録部202は、所定の規格に基づいて作成された動画ファイルと、当該動画ファイルの画像データおよび音声データに基づいて生成された再生情報ファイルとが記録されているものである。所定の規格の例としてはMXFやMP4等の規格がある。記録部202としては、再生装置200に固定して備えられるハードディスクドライブ(HDD)や再生装置200に接続して用いられる各種メモリカード、CD−ROM、DVD−ROM等の記録媒体を用いることができる。
The
再生情報解析部204は、記録部202に記録されている再生情報ファイルを読み取って解析するものである。再生情報解析部204は、システム制御部214を介してユーザインタフェース部218から再生開始位置の指示を受け、指示を受けた再生開始位置に対応する再生情報を読み取る。そして、再生装置200は、再生情報解析部204で読み取って解析した再生情報に基づいて、再生情報ファイルの元となった動画ファイルの再生を行う。
The reproduction
例えば、ユーザインタフェース部218から動画ファイルの10フレーム目から再生するよう指示をした場合、ユーザインタフェース部218からシステム制御部214を介して、再生情報解析部204に対して10フレーム目の再生情報を取得して解析するように指示する。
For example, when the
10フレーム目の再生情報を取得して解析するように指示を受けた再生情報解析部204は、再生情報ファイルから当該10フレーム目の画像データのサイズ、画像データの絶対アドレス、音声データのサイズ、音声データの相対アドレスおよびディレイ情報を取得する。取得したこれらの情報に基づいて、動画ファイルにおける画像データおよび音声データの読み取り位置や読み取りサイズを決定する。
Receiving the instruction to acquire and analyze the reproduction information of the 10th frame, the reproduction
デコード部206は、記録部202に記録されている動画ファイルのデコードを行うものである。デコード部206でデコードを行う際には、再生情報解析部204で解析した再生情報に基づいてデコードを行う。例えば、ユーザインタフェース部218から動画ファイルの10フレーム目から再生するよう指示をした場合、再生情報解析部204で当該10フレーム目の再生情報を取得し、当該10フレーム目からデコードを行う。
The
再生部208は、デコード部206でデコードされたデータを受け取って動画ファイルの再生を行うものである。表示部210に再生を行う動画ファイルに記録されている動画像が表示され、音声出力部212に再生を行う動画ファイルの音声が出力される。
The
システム制御部214は、再生装置200の各部の制御を行うものである。例えば、ユーザインタフェース部218から動画ファイルの再生開始位置が指示されると、システム制御部214は、再生情報解析部204に対して動画ファイルの再生開始位置に対応する、再生情報ファイルに含まれる再生情報の取得を指示する。もちろん、システム制御部214が行う制御はかかる例に限定されない。
The
ユーザインタフェース部218は、再生装置200を使用するユーザから操作部(図示せず)の操作を受け付け、その操作を表す操作信号をシステム制御部214に送るものである。ユーザが操作部で操作するものとしては、再生する動画ファイルの選択や、選択した動画ファイルの再生開始位置の指定等がある。
The
メモリ216は、再生装置200の各部が行う処理に必要となるデータを記憶するものである。例えば、メモリ216にコンピュータプログラムを格納し、システム制御部214が格納されたコンピュータプログラムを読み出して実行することによって、再生する動画ファイルに対する処理を行うことができる。
The
このように再生装置200を構成し、再生装置200において動画ファイルと再生情報ファイルとから画像データ及び音声データのデコードを行うことで、再生装置200が有する方式と異なる方式でエンコードされて生成された動画ファイルであっても再生が容易に可能となる。また、再生情報ファイルには音声同期情報が含まれているため、音声同期情報を参照することで画像と音声の同期も可能となる。
In this way, the
図18は、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置300について説明する説明図である。図18に示したように、本発明の一実施形態にかかる再生装置300は、記録部302と、切換部304と、TSバッファ306と、QTバッファ308と、DSP(Digital Signal Processor)310と、ビデオESバッファ318と、MP2バッファ320と、L−PCMバッファ322と、エンコーダ/デコーダ324と、を含んで構成される。
FIG. 18 is an explanatory diagram illustrating a
記録部302は、上述した再生装置200における記録部202と同様に、所定の規格に基づいて作成された動画ファイルと、当該動画ファイルの画像データおよび音声データに基づいて生成された再生情報ファイルとが記録されているものである。所定の規格の例としてはMXFやMP4等の規格がある。記録部302としては、再生装置300に固定して備えられるハードディスクドライブ(HDD)や再生装置300に接続して用いられる各種メモリカード、CD−ROM、DVD−ROM等の記録媒体を用いることができる。
Similar to the
切換部304は、記録部302に記録されている動画ファイルを読み取り、動画ファイルの種類によってデータの送り先を切り換えるものである。本実施形態においては、切換部304は読み取った動画ファイルの種類に応じて、TSバッファ306かQTバッファ308のどちらかにデータを送る。
The
切換部304からデータを送る際には、再生情報ファイルから画像データおよび音声データの記録位置に関する情報(offV[]、offA[])を読み取り、読み取った当該情報に基づいて動画ファイルからデータを取得する。
When data is sent from the
TSバッファ306は、切換部304からデータを受け取って一時的に格納しておくものである。同様に、QTバッファ308は、切換部304から映像および音声データを受け取って一時的に格納しておくものである。
The
DSP310は、TSバッファ306およびQTバッファ308に一時的に格納されている映像および音声データを受け取り、受け取った映像および音声データに対して多重化処理や分離処理等の、動画ファイルの再生に必要な処理を行って、後段のビデオESバッファ318、MP2バッファ320、L−PCMバッファ322に出力するものである。
The
DSP310では、映像および音声データに対して、多重化処理や分離処理の他に、映像と音声とを同期するための処理を行う。映像と音声とを同期するためには、再生情報ファイルに記録した各フレームにおける同期情報を参照することによって行う。DSP310は、TS分離部312と、マルチプレクサ314と、デマルチプレクサ316と、を含んで構成される。
The
ビデオESバッファ318は、DSP310から出力されたデータを受け取って一時的に格納しておくものである。同様に、MP2バッファ320およびL−PCMバッファ322も、DSP310から出力されたデータを受け取って一時的に格納しておくものである。
The
エンコーダ/デコーダ324は、ビデオESバッファ318およびMP2バッファ320からデータを受け取り、受け取ったデータのデコードを行って出力するものである。エンコーダ/デコーダ324でデコードを行う際には、再生情報ファイルからデコード方法の情報を取得し、取得したデコード情報に基づいてデコード処理を行う。
The encoder /
このように再生装置300を構成した場合であっても、再生装置300において動画ファイルと再生情報ファイルとから画像データ及び音声データのデコードを行うことで、再生装置300が有する方式と異なる方式でエンコードされて生成された動画ファイルであっても再生が容易に可能となる。また、再生情報ファイルには音声同期情報が含まれているため、音声同期情報を参照することで画像と音声の同期も可能となる。
Even when the
以上、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置について説明した。次に、本発明の一実施形態にかかる動画ファイルの再生方法について説明する。 Heretofore, the playback apparatus that plays back a moving image file using the playback information file according to the embodiment of the present invention has been described. Next, a method for reproducing a moving image file according to an embodiment of the present invention will be described.
図19は、本発明の一実施形態にかかる動画ファイルの再生方法について説明する説明図である。以下、図19を用いて本発明の一実施形態にかかる動画ファイルの再生方法について説明する。なお、以下においては、再生装置200で動画ファイルを再生する方法について述べる。
FIG. 19 is an explanatory diagram illustrating a moving image file playback method according to an embodiment of the present invention. Hereinafter, a method for reproducing a moving image file according to an embodiment of the present invention will be described with reference to FIG. In the following, a method for reproducing a moving image file with the reproducing
まず、再生情報解析部204で、頭出ししたいf0番目のフレームの再生情報ファイル上の番地を求める(ステップS102)。再生情報ファイルは16バイトを1つの集まりとしているため、頭出ししたいフレームのフレーム番号f0が分かれば、再生情報ファイル上の番地を求めることができる。そして、ステップS102で求めた番地から記録されている、頭出ししたいフレームの再生情報を読み込む。
First, the reproduction
続いて、再生情報解析部204で、再生情報に含まれるピクチャタイプを読み込む(ステップS104)。ピクチャタイプには、Iピクチャ(Intra Picture)、Bピクチャ(Bidirectionally Predictive Picture)、Pピクチャ(Predictive Picture)の3種類がある。
Subsequently, the reproduction
Iピクチャは、当該フレーム内の画面を全て符号化することによって得られる画面であり、GOPにおける基準となるピクチャである。Pピクチャは、画面間の順方向予測によって得られる画面である。そしてBピクチャは、順方向予測および/または逆方向予測、すなわち双方向予測によって得られる画面である。 The I picture is a screen obtained by encoding all the screens in the frame, and is a reference picture in the GOP. A P picture is a screen obtained by forward prediction between screens. The B picture is a screen obtained by forward prediction and / or backward prediction, that is, bidirectional prediction.
またBピクチャには、フレームの前後の予測をともに行わない符号化(イントラ符号化)、過去の再生画面から予測する順方向予測符号化(Forward予測符号化)、未来から予測される逆方向予測符号化(Backward予測符号化)、前後両方を予測に使用する双方向予測符号化(Interpolative予測符号化)の4種類に分類することができる。 In addition, for B pictures, encoding that does not perform prediction before and after a frame (intra encoding), forward prediction encoding that predicts from a previous playback screen (forward prediction encoding), and backward prediction that is predicted from the future It can be classified into four types of encoding (Backward predictive encoding) and bidirectional predictive encoding (Interpolative predictive encoding) in which both the front and rear are used for prediction.
再生情報解析部204は、ステップS104でピクチャタイプを読み取ると、読み取ったピクチャタイプに応じてデコードするフレームを決定する。読み取ったピクチャタイプがIピクチャか、BピクチャでClosed B0かClosed B1であれば、フレーム番号f0+1、f0+2のピクチャタイプを読み込む(ステップS110)。一方、ピクチャタイプがこれ以外の場合には、ピクチャタイプがIピクチャであるフレームになるまで、フレームを遡って再生情報を読み出す(ステップS106)。
When the reproduction
ここで、Closed B0とは当該フレームのピクチャタイプがBピクチャにおける逆方向予測符号化を行うフレームであり、次のフレームのピクチャタイプがIピクチャであることを示す。また、Closed B1とは当該フレームおよび次のフレームのピクチャタイプがBピクチャにおける逆方向予測符号化を行うフレームであり、2つ次のフレームのピクチャタイプがIピクチャであることを示す。 Here, Closed B0 is a frame in which the picture type of the current frame is reverse predictive coding in a B picture, and the picture type of the next frame is an I picture. Closed B1 is a frame in which the picture type of the current frame and the next frame is subjected to backward predictive coding in a B picture, and the picture type of the second frame is an I picture.
ピクチャタイプがIピクチャであるフレームまで遡ると、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS108)。
When going back to a frame whose picture type is an I picture, the reproduction information of the frame is read, and based on the read reproduction information, image data is sent from the moving image file to the
デコード部206がステップS108でデコードを行うと、再生情報解析部204で、当該フレームからf0番目のフレームまで再生情報のピクチャタイプを読み込みながらフレームを下る。フレームを下る際に、ピクチャタイプがPピクチャであるフレームが現れたら、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う。
When the
f0番目のフレームに到達すると、続けて、再生情報解析部204でフレーム番号f0+1、f0+2のピクチャタイプを読み込む(ステップS110)。当該フレームのピクチャタイプがIピクチャかPピクチャであれば、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う。
When the f0th frame is reached, the reproduction
続いて、所望のf0番目のフレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS112)。
Subsequently, the reproduction information of the desired f0th frame is read, and based on the read reproduction information, image data is sent from the moving image file to the
その後は、offsV[]の値が小さい順、つまり動画ファイルにおける画像データの絶対アドレスの小さい順に動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS114)。
After that, the image data is sent from the moving image file to the
一方音声データは、所望のf0番目のフレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから音声データをデコード部206に送ってデコードする。映像と音声との同期は、f0番目のフレームの再生情報に記録されている同期情報(delA[f0])を読み込んで、デコード部206でのデコード結果に反映させることによって行う。
On the other hand, the audio data is read from the reproduction information of the desired f0th frame, and the audio data is sent from the moving image file to the
以上のように、再生情報ファイルから再生情報を読み込むことで、所望のフレームからの動画ファイルの再生を行うことができる。また、再生情報ファイルには映像と音声とを同期する音声同期情報が記録されているので、動画ファイルを再生する際に再生情報ファイルから再生情報を読み込むことで、映像と音声とを同期して再生することが可能となる。 As described above, by reading the reproduction information from the reproduction information file, it is possible to reproduce the moving image file from the desired frame. Also, since the audio information that synchronizes the video and audio is recorded in the playback information file, the video and audio are synchronized by reading the playback information from the playback information file when playing a video file. It can be played back.
以上、本発明の一実施形態にかかる動画ファイルの再生方法について説明した。 In the foregoing, the method for reproducing a moving image file according to an embodiment of the present invention has been described.
以上説明したように本発明の一実施形態によれば、記録再生装置100で動画像を動画ファイルとして記録する際に、当該動画像の再生情報が含まれる再生情報ファイルを併せて作成する。そして、記録再生装置100で記録された動画ファイルを再生する際には、当該動画ファイルに含まれる再生に関する情報ではなく、記録再生装置100で作成された再生情報ファイルを参照しながら再生する。再生情報ファイルを参照しながら再生することで、記録再生装置100と異なる規格でデコードを行う再生装置であっても再生が可能となる。
As described above, according to an embodiment of the present invention, when a moving image is recorded as a moving image file by the recording / reproducing
再生情報ファイルを生成することで、動画ファイルの再生以外にも様々な処理が可能となる。以下ではそれらの処理の一例を示す。 By generating the reproduction information file, various processes can be performed in addition to the reproduction of the moving image file. Below, an example of those processes is shown.
(処理例1.サルベージ)
記録再生装置100の録画時に併せて生成される再生情報に基づいて、録画時に記録再生装置100が電池切れ等の原因で電源が切断した等により録画が正常に終了しなかった場合に、生成された再生情報に含まれる各フレームの情報から、動画ファイルの復旧を行うことができる。
(Processing Example 1. Salvage)
Based on the playback information generated together with recording by the recording / reproducing
(処理例2.分割)
記録再生装置100で動画ファイルを生成する際に併せて生成される再生情報ファイルを用いることで、動画ファイルの分割を行うことができる。再生情報ファイルによって分割点を割り出し、次に再生情報ファイル自体を分割する。分割した再生情報ファイルに従って動画ファイルのストリーム部分を分割し部分複製する。その後、分割したそれぞれの動画ファイルに対して記録終了処理を行うことで、2つの動画ファイルが完成する。
(Processing example 2. Division)
By using a reproduction information file that is also generated when the recording /
なお、分割する際には、場合によっては表示する必要が無いフレームもデコードする必要があるため、その場合には所定の長さの重複部分を設けて分割することになる。その際、再生情報ファイルも所定の長さの重複部分を設けて分割することで、動画ファイルの分割が可能となる。 When dividing, it is necessary to decode a frame that does not need to be displayed depending on the case. In that case, an overlapping portion having a predetermined length is provided and divided. At this time, the reproduction information file is also divided by providing an overlap portion having a predetermined length, so that the moving image file can be divided.
(処理例3.動画ファイルからの再生情報ファイルの作成)
再生情報ファイルを持たない動画ファイルが記録再生装置100に与えられた場合、各ラッパー方式で定めるインデックス情報を読み取って再生情報ファイルに変換することができる。変換して得られた再生情報ファイルを用いることで、通常再生や頭出し、さらには分割も、再生情報ファイルを有している動画ファイルと同様の処理で実現することができる。
(Processing example 3. Creation of reproduction information file from moving image file)
When a moving image file having no reproduction information file is given to the recording / reproducing
以上説明したように、本発明の一実施形態によれば、動画ファイルを作成する際に再生情報ファイルを併せて作成する。再生情報ファイルには、動画ファイルの規格、動画ファイルの基本情報、各フレームのサイズやアドレス等の情報、映像と音声を同期するための同期情報を記録する。そして、動画ファイルを再生したり、編集したりする際には、当該動画ファイルに記録されたインデックス情報では無く、再生情報ファイルを参照することで、当該動画ファイルとは異なる規格によって再生や編集を容易に行うことが可能となる。その結果、異なる規格を扱うシステムであっても、再生情報ファイルを参照することでマルチフォーマットに対応するシステムを実現することができる。 As described above, according to an embodiment of the present invention, a reproduction information file is created together with a moving image file. In the reproduction information file, moving picture file standards, basic information of the moving picture file, information such as the size and address of each frame, and synchronization information for synchronizing video and audio are recorded. When playing or editing a movie file, the playback information file is referred to instead of the index information recorded in the movie file. It can be easily performed. As a result, even a system that handles different standards can realize a system that supports multiple formats by referring to the reproduction information file.
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
例えば、上記実施形態では、記録再生装置100で動画ファイルの作成と併せて再生情報ファイルを作成する際には、所定の間隔でDRAM111に再生情報を追加しながら記録し、録画が終了した場合にDRAM111に記録されている再生情報から再生情報ファイルを作成していたが、本発明はかかる例に限定されない。記録再生装置100で動画ファイルの作成と併せて再生情報ファイルを作成する際には、所定の間隔でDRAM111に再生情報ファイルの形式で作成し、所定の間隔で当該再生情報ファイルのオープンとクローズを繰り返して、再生情報を追加しながら作成してもよい。
For example, in the above embodiment, when the playback information file is created together with the creation of the moving image file by the recording /
本発明は、記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムに適用可能である。 The present invention is applicable to a recording / reproducing apparatus, a recording apparatus, a reproducing apparatus, a recording method, a reproducing method, and a computer program.
100 記録再生装置
102 カメラ
104 マイク
106 映像・音声I/F部
108 エンコード・デコード部
110 再生情報生成部
111 DRAM
112 記録部
114 再生部
116 表示部
118 音声出力部
120 システム制御部
122 メモリ
124 ユーザインタフェース部
200 再生装置
202 記録部
204 再生情報解析部
206 デコード部
208 再生部
210 表示部
212 音声出力部
214 システム制御部
216 メモリ
218 ユーザインタフェース部
300 再生装置
302 記録部
304 切換部
DESCRIPTION OF
112
Claims (8)
前記再生情報記録部は、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録再生装置。 An imaging unit that captures a moving image, an audio recording unit that records audio, a reproduction information recording unit that records reproduction information related to reproduction of the moving image and the audio at the time of recording the moving image and audio, and a recording A recording / playback apparatus comprising: a playback unit that plays back the moving image and sound based on the playback information:
The reproduction information recording unit records the moving image, the audio, and the reproduction information at the same time, records video basic information and audio basic information in a header of the reproduction information, and records the reproduction information as a moving image. A recording / reproducing apparatus, wherein audio synchronization information for synchronizing an image and audio is recorded in parallel with the reproduction information for each chunk of audio data.
前記再生情報記録部は、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録装置。 An imaging unit that captures a moving image, an audio recording unit that records audio, and a reproduction information recording unit that records reproduction information related to reproduction of the moving image and the audio at the time of recording the moving image and audio. Recording device:
The reproduction information recording unit records the moving image, the audio, and the reproduction information at the same time, records video basic information and audio basic information in a header of the reproduction information, and moves the moving image when recording the reproduction information. A recording apparatus for recording audio synchronization information for synchronizing an image and audio in parallel with the reproduction information for each chunk of audio data.
前記再生部は、前記再生情報に含まれる、音声データのチャンク毎に記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、再生装置。 When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A playback device comprising a playback unit:
The reproduction unit synchronizes the moving image and the audio based on audio synchronization information for synchronizing the moving image and the audio recorded for each chunk of audio data included in the reproduction information. A playback device characterized by playing back.
音声を記録する音声記録ステップと;
前記撮像ステップで撮像する動画像および前記音声記録ステップで記録する音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録ステップと;
を含む記録方法であって、
前記再生情報記録ステップは、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録方法。 An imaging step for capturing a moving image;
An audio recording step for recording audio;
A reproduction information recording step for recording the reproduction information relating to reproduction of the moving image and the sound at the time of recording the moving image picked up in the imaging step and the sound recorded in the sound recording step;
A recording method including:
In the reproduction information recording step, the moving image, the audio, and the reproduction information are simultaneously recorded, video basic information and audio basic information are recorded in a header of the reproduction information, and a moving image is recorded when the reproduction information is recorded. A recording method, wherein audio synchronization information for synchronizing an image and audio is recorded in parallel with the reproduction information for each chunk of audio data.
前記再生ステップは、前記再生情報に含まれる、音声データのチャンク毎に前記再生情報と並行して記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、再生方法。 When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A playback method that includes a playback step:
The reproduction step includes the moving image based on audio synchronization information for synchronizing the audio and the moving image recorded in parallel with the reproduction information for each chunk of audio data included in the reproduction information. And the audio are reproduced in synchronization with each other.
音声を記録する音声記録ステップと;
前記撮像ステップで撮像する動画像および前記音声記録ステップで記録する音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録ステップと;
を含む処理をコンピュータに実行させるコンピュータプログラムであって、
前記再生情報記録ステップは、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、コンピュータプログラム。 An imaging step for capturing a moving image;
An audio recording step for recording audio;
A reproduction information recording step for recording the reproduction information relating to reproduction of the moving image and the sound at the time of recording the moving image picked up in the imaging step and the sound recorded in the sound recording step;
A computer program for causing a computer to execute a process including:
In the reproduction information recording step, the moving image, the audio, and the reproduction information are simultaneously recorded, video basic information and audio basic information are recorded in a header of the reproduction information, and a moving image is recorded when the reproduction information is recorded. A computer program for recording audio synchronization information for synchronizing an image and audio in parallel with the reproduction information for each chunk of audio data.
前記再生ステップは、前記再生情報に含まれる、音声データのチャンク毎に前記再生情報と並行して記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、コンピュータプログラム。
When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A computer program that causes a computer to execute processing including a playback step,
The reproduction step includes the moving image based on audio synchronization information for synchronizing the audio and the moving image recorded in parallel with the reproduction information for each chunk of audio data included in the reproduction information. And a computer program for reproducing the sound in synchronization with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009266308A JP4725675B2 (en) | 2009-11-24 | 2009-11-24 | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009266308A JP4725675B2 (en) | 2009-11-24 | 2009-11-24 | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007177363A Division JP4450021B2 (en) | 2007-07-05 | 2007-07-05 | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010045862A true JP2010045862A (en) | 2010-02-25 |
JP4725675B2 JP4725675B2 (en) | 2011-07-13 |
Family
ID=42016754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009266308A Expired - Fee Related JP4725675B2 (en) | 2009-11-24 | 2009-11-24 | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4725675B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084972A (en) * | 2010-10-07 | 2012-04-26 | Ntt Electornics Corp | Mxf processing unit |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1075424A (en) * | 1996-08-29 | 1998-03-17 | Sony Corp | Recording/reproduction device for compressed image data and compressed audio data, recording medium and transmission system |
JPH10210409A (en) * | 1997-01-16 | 1998-08-07 | Sony Corp | Image and voice recorder, and image and voice recorder and reproducer using semiconductor memory |
JPH11355722A (en) * | 1998-06-11 | 1999-12-24 | Sharp Corp | Multiplexing method and multiplexer for high efficiency coded data |
-
2009
- 2009-11-24 JP JP2009266308A patent/JP4725675B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1075424A (en) * | 1996-08-29 | 1998-03-17 | Sony Corp | Recording/reproduction device for compressed image data and compressed audio data, recording medium and transmission system |
JPH10210409A (en) * | 1997-01-16 | 1998-08-07 | Sony Corp | Image and voice recorder, and image and voice recorder and reproducer using semiconductor memory |
JPH11355722A (en) * | 1998-06-11 | 1999-12-24 | Sharp Corp | Multiplexing method and multiplexer for high efficiency coded data |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084972A (en) * | 2010-10-07 | 2012-04-26 | Ntt Electornics Corp | Mxf processing unit |
Also Published As
Publication number | Publication date |
---|---|
JP4725675B2 (en) | 2011-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4450021B2 (en) | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program | |
JP4904914B2 (en) | STREAM GENERATION DEVICE, IMAGING DEVICE, AND STREAM GENERATION METHOD | |
JP3900050B2 (en) | Data processing apparatus, video camera, and data processing method | |
KR20050111722A (en) | Recording method, recording device, recording medium, reproduction method, reproduction device, and image pickup device | |
JP4775208B2 (en) | REPRODUCTION METHOD, REPRODUCTION PROGRAM, AND REPRODUCTION DEVICE | |
US20180012618A1 (en) | Image processing apparatus, image pickup device, image processing method, and program | |
US8018502B2 (en) | Image recording device, image reproducing device, recording medium, and image recording method for capturing images at different frames rates and generating timestamps for presentation | |
US7650061B2 (en) | Information recording apparatus, information reproducing apparatus, and related computer programs | |
US7650062B2 (en) | Information recording apparatus, information reproducing apparatus, and related computer programs | |
JP4725675B2 (en) | Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program | |
US20130287361A1 (en) | Methods for storage and access of video data while recording | |
US20070122113A1 (en) | Information reproducing apparatus and information reproducing method | |
JP5803814B2 (en) | Recording apparatus and recording control method | |
JP5811037B2 (en) | Recording apparatus and recording control method | |
JP4169002B2 (en) | Audio format conversion apparatus and encoding apparatus | |
JP2004186905A (en) | Imaging device | |
JP2008219921A (en) | Recording apparatus, recording method, image pickup apparatus, and image pickup method | |
JP2007259029A (en) | Video signal recording device, recording medium, and video signal reproducing device | |
JP2006129338A (en) | Video recording and reproducing apparatus and recording medium | |
JP2005286829A (en) | Video signal recording regenerating system | |
JP2005011453A (en) | Digital information recorder | |
JP2008005198A (en) | Device and method for reproducing multiple av streams | |
JP2007074468A (en) | Recorder and method, and program | |
JP2006349976A (en) | Voice format converter | |
JP2010258785A (en) | Multiplexed stream data reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110328 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4725675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140422 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |