JP2010045862A - Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program - Google Patents

Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program Download PDF

Info

Publication number
JP2010045862A
JP2010045862A JP2009266308A JP2009266308A JP2010045862A JP 2010045862 A JP2010045862 A JP 2010045862A JP 2009266308 A JP2009266308 A JP 2009266308A JP 2009266308 A JP2009266308 A JP 2009266308A JP 2010045862 A JP2010045862 A JP 2010045862A
Authority
JP
Japan
Prior art keywords
audio
information
recording
moving image
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009266308A
Other languages
Japanese (ja)
Other versions
JP4725675B2 (en
Inventor
Minoru Kawahara
実 河原
Kenji Yamazaki
健治 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009266308A priority Critical patent/JP4725675B2/en
Publication of JP2010045862A publication Critical patent/JP2010045862A/en
Application granted granted Critical
Publication of JP4725675B2 publication Critical patent/JP4725675B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a novel and enhanced recording/reproducing apparatus, recording apparatus, recording method, and computer program, which record index information in common format, without reference to a recording system, in recording videos and audio and providing many functions based on the recorded index information. <P>SOLUTION: A recording/reproducing apparatus is provided which includes an imaging unit for photographing moving image; an audio recording unit for recording audio; a reproduction information recording unit for recording, at recording of moving images and audio, both of reproduction information on moving image and audio; and a reproducing unit for reproducing moving image and audio based on reproduction information. The reproduction information recording unit records, for each chunk of audio data, audio synchronization information for synchronizing video and audio when recording the reproduction information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムに関する。   The present invention relates to a recording / reproducing apparatus, a recording apparatus, a reproducing apparatus, a recording method, a reproducing method, and a computer program.

従来、映像や音声を収録するカムコーダのような記録再生装置では、映像や音声の記録や再生という基本的な機能だけでなく、記録した映像や音声の分割、記録に失敗して破損した映像・音声ファイルの修復(サルベージ)といった機能も有している。   Conventional recording / playback devices such as camcorders that record video and audio not only have the basic functions of recording and playback of video and audio, but also the It also has a function of audio file repair (salvage).

映像や音声の収録には様々なフォーマットが存在する。フォーマットの一例としては、RIFF(Resource Interchange File Format)、QuickTime、TS(Transport Stream)、PS(Program Stream)、MXF(Material Exchange Format)等がある。そして、カムコーダで映像や音声を収録する際のフォーマットと、収録した映像や音声を編集する際に要求されるフォーマットとが異なる場合が多々存在する。異なるフォーマットでも映像や音声を編集することができるように、各フォーマットは映像や音声を収録する際に、記録されたファイルにおける映像や音声の位置が分かるようにインデックス情報を併せて記録している(特許文献1〜3参照)。   There are various formats for recording video and audio. Examples of formats include RIFF (Resource Interchange Format), QuickTime, TS (Transport Stream), PS (Program Stream), MXF (Material Exchange Format), and the like. There are many cases where the format for recording video and audio with a camcorder is different from the format required for editing the recorded video and audio. In order to be able to edit video and audio in different formats, each format also records index information so that the position of video and audio in the recorded file can be understood when recording video and audio. (See Patent Documents 1 to 3).

このように、インデックス情報を併せて記録することで、映像や音声の収録時に用いるフォーマットと、映像や音声の再生時や編集時に用いるフォーマットとが異なっている場合であっても、インデックス情報を参照することで、異なるフォーマット間で映像や音声の再生や編集が可能となる。   In this way, by recording index information together, even if the format used when recording video and audio is different from the format used when playing or editing video and audio, the index information is referenced. By doing so, it becomes possible to reproduce and edit video and audio between different formats.

特開2007−20195号公報JP 2007-20195 A 特開平10−84525号公報JP-A-10-84525 特開平05−282380号公報JP 05-282380 A

しかし、従来の方法では、フォーマットごとに個別にプロセッサを用意し、多くの機能を実装する必要があった。映像や音声の記録に関しては処理を共通化できる箇所は多いが、フォーマットごとにプロセッサを用意しなければならないので処理が冗長であり、また多くのフォーマットに対応しようとすればするほど、回路規模が大きくなる問題があった。   However, in the conventional method, it is necessary to prepare a processor individually for each format and to implement many functions. For video and audio recording, there are many places where processing can be shared, but since a processor must be prepared for each format, the processing is redundant. There was a problem of getting bigger.

また、従来の方法では、サルベージ(破損ファイルの修復)に使えるほどの短い間隔でインデックス情報を記録していくことができず、また映像と音声の同期情報がストリームの先頭で記述されるため、例えばストリーム中の任意の点から再生したい場合には、インデックスの先頭から経過時間を積分する必要があり、処理に時間を要する問題があった。   Also, with the conventional method, index information cannot be recorded at such a short interval that it can be used for salvage (corruption of damaged files), and synchronization information of video and audio is described at the beginning of the stream. For example, when playback is desired from an arbitrary point in the stream, it is necessary to integrate the elapsed time from the beginning of the index, and there is a problem that processing takes time.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、映像や音声の記録時に、記録方式によらずに共通の書式のインデックス情報を記録し、インデックス情報には映像と音声とを同期する情報を記録することで、記録したインデックス情報を元に多くの機能を実現することが可能な、新規かつ改良された記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to record index information in a common format regardless of the recording method when recording video and audio, and By recording information that synchronizes video and audio in information, a new and improved recording / reproducing apparatus, recording apparatus, reproducing apparatus, which can realize many functions based on the recorded index information, To provide a recording method, a reproducing method, and a computer program.

上記課題を解決するために、本発明のある観点によれば、動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、再生情報に基づいて動画像および音声を再生する再生部と、を備える記録再生装置であって、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録再生装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, the present invention relates to an imaging unit that captures a moving image, an audio recording unit that records audio, and reproduction of the moving image and audio during recording of the moving image and audio. A recording / reproducing apparatus comprising: a reproduction information recording unit that records reproduction information together; and a reproduction unit that reproduces a moving image and sound based on the reproduction information. The reproduction information recording unit records reproduction information. In addition, a recording / reproducing apparatus is provided that records audio synchronization information for synchronizing video and audio in parallel with reproduction information for each chunk of audio data.

かかる構成によれば、記録再生装置は動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、再生情報に基づいて動画像および音声を再生する再生部と、を備え、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。   According to this configuration, the recording / reproducing apparatus records the reproduction information related to the reproduction of the moving image and the sound at the time of recording the moving image and the sound at the time of recording the image capturing unit that captures the moving image, the sound recording unit that records the sound. A reproduction information recording unit; and a reproduction unit that reproduces a moving image and sound based on the reproduction information. The reproduction information recording unit synchronizes video and audio when recording reproduction information. Information is recorded in parallel with playback information for each chunk of audio data. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.

再生部は、音声データのチャンク毎に記録された音声同期情報に基づいて動画像と音声とを同期して再生してもよい。その結果、音声データのチャンク毎に記録された映像と音声とを同期するための音声同期情報を用いることで、動画像と音声とを同期して再生することができる。   The reproduction unit may reproduce the moving image and the sound in synchronization based on the sound synchronization information recorded for each chunk of the sound data. As a result, by using the audio synchronization information for synchronizing the video and audio recorded for each chunk of audio data, the moving image and the audio can be reproduced in synchronization.

また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、を備える記録装置であって、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録装置が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, an image capturing unit that captures a moving image, a sound recording unit that records sound, and a moving image and sound when recording a moving image and sound are recorded. A reproduction information recording unit that records reproduction information related to reproduction of the audio, wherein the reproduction information recording unit synchronizes video and audio when recording the reproduction information. Is recorded in parallel with the reproduction information for each chunk of the audio data.

かかる構成によれば、記録装置は動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録部と、を備え、再生情報記録部は、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。   According to such a configuration, the recording apparatus records an image capturing unit that captures a moving image, an audio recording unit that records audio, and playback information related to playback of the moving image and audio when recording the moving image and audio. An information recording unit, and the reproduction information recording unit records audio synchronization information for synchronizing video and audio in parallel with the reproduction information for each chunk of audio data when recording the reproduction information. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.

また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生部を備える再生装置であって、再生部は、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、再生装置が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. And a playback device including a playback unit that plays back the audio and synchronizes the moving image and the sound recorded in parallel with the playback information for each chunk of the audio data included in the playback information. A playback device is provided, which plays back a moving image and sound in synchronization based on the synchronization information.

かかる構成によれば、再生装置は、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生部を備え、再生部は、再生情報に含まれる動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生する。その結果、音声データのチャンク毎に再生情報と並行して記録された映像と音声とを同期するための音声同期情報を用いることで、動画像と音声とを同期して再生することができる。   According to such a configuration, the playback device includes the playback unit that plays back based on the playback information related to playback recorded when the moving image and the sound are recorded when the moving image and the sound are played back. Reproduces the moving image and the sound in synchronization based on the sound synchronization information for synchronizing the moving image and the sound included in the reproduction information. As a result, by using the audio synchronization information for synchronizing the video and audio recorded in parallel with the reproduction information for each chunk of audio data, the moving image and the audio can be reproduced in synchronization.

また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像ステップと、音声を記録する音声記録ステップと、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録ステップと、を含む記録方法であって、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、記録方法が提供される。   In order to solve the above problems, according to another aspect of the present invention, an imaging step for capturing a moving image, an audio recording step for recording audio, and a moving image and audio at the time of recording the moving image and audio are recorded. And a reproduction information recording step for recording reproduction information relating to reproduction of the audio, wherein the reproduction information recording step includes audio synchronization information for synchronizing video and audio when recording the reproduction information. Is recorded in parallel with the reproduction information for each chunk of the audio data.

かかる構成によれば、撮像ステップは動画像を撮影し、音声記録ステップは音声を記録し、再生情報記録ステップは撮像ステップで撮影する動画像および音声記録ステップで記録する音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する。そして、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録する。その結果、映像と音声とを同期する情報が含まれる、記録方式によらずに共通の書式のインデックス情報を記録することで、記録したインデックス情報を元に多くの機能を実現することができる。   According to such a configuration, the imaging step captures a moving image, the audio recording step records audio, and the reproduction information recording step records the moving image captured in the imaging step and the audio recorded in the audio recording step. In addition, playback information relating to the playback of audio is recorded together. In the reproduction information recording step, audio synchronization information for synchronizing the video and audio when recording the reproduction information is recorded in parallel with the reproduction information for each chunk of audio data. As a result, many functions can be realized based on the recorded index information by recording the index information in a common format regardless of the recording method including information for synchronizing video and audio.

また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生ステップを含む再生方法であって、再生ステップは、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、再生方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. A playback method including a playback step for playback, wherein the playback step includes audio for synchronizing the audio and video recorded in parallel with the playback information for each chunk of audio data included in the playback information. There is provided a playback method characterized in that a moving image and sound are played back synchronously based on the synchronization information.

かかる構成によれば、再生ステップは、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する。そして、再生ステップは、再生の際に、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生する。その結果、音声データのチャンク毎に記録された映像と音声とを同期するための音声同期情報を用いることで、動画像および音声の記録方式によらずに、動画像と音声とを同期して再生することができる。   According to this configuration, in the playback step, when playing back the moving image and the sound, the playback is performed based on the playback information related to the playback that is recorded when the moving image and the sound are recorded. In the playback step, the video is based on the audio synchronization information for synchronizing the moving image and the audio recorded in parallel with the playback information for each chunk of the audio data included in the playback information at the time of playback. Play the image and sound in sync. As a result, by using audio synchronization information to synchronize the video and audio recorded for each chunk of audio data, the video and audio can be synchronized regardless of the video and audio recording method. Can be played.

また、上記課題を解決するために、本発明の別の観点によれば、動画像を撮影する撮像ステップと、音声を記録する音声記録ステップと、動画像および音声の記録時に、動画像および音声の再生に関する再生情報を併せて記録する再生情報記録ステップと、を含む処理をコンピュータに実行させるコンピュータプログラムであって、再生情報記録ステップは、再生情報を記録する際に映像と音声との同期を行うための音声同期情報を音声データのチャンク毎に再生情報と並行して記録することを特徴とする、コンピュータプログラムが提供される。   In order to solve the above problems, according to another aspect of the present invention, an imaging step for capturing a moving image, an audio recording step for recording audio, and a moving image and audio at the time of recording the moving image and audio are recorded. A reproduction information recording step for recording the reproduction information relating to the reproduction of the video, and a computer program for causing the computer to execute a process including the reproduction information recording step, wherein the reproduction information recording step synchronizes the video and the audio when recording the reproduction information. A computer program is provided that records audio synchronization information to be performed in parallel with reproduction information for each chunk of audio data.

また、上記課題を解決するために、本発明の別の観点によれば、動画像および音声を再生する際に、動画像および音声を記録する際に併せて記録された再生に関する再生情報に基づいて再生する再生ステップを含む処理をコンピュータに実行させるコンピュータプログラムであって、再生ステップは、再生情報に含まれる、音声データのチャンク毎に再生情報と並行して記録された動画像と音声との同期を行うための音声同期情報に基づいて動画像と音声とを同期して再生することを特徴とする、コンピュータプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, when playing back a moving image and sound, based on the reproduction information related to the reproduction recorded together with the recording of the moving image and sound. A computer program for causing a computer to execute a process including a playback step for playback, wherein the playback step includes a moving image and sound recorded in parallel with the playback information for each chunk of audio data included in the playback information. There is provided a computer program characterized in that a moving image and audio are reproduced in synchronization based on audio synchronization information for performing synchronization.

以上説明したように本発明によれば、映像や音声の記録時に、記録方式によらずに共通の書式のインデックス情報を記録し、インデックス情報と併せて映像と音声を同期する音声同期情報を音声データのチャンク毎に記録することで、記録したインデックス情報および音声同期情報を元に多くの機能を実現することが可能な、新規かつ改良された記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムを提供することができる。   As described above, according to the present invention, when recording video and audio, the index information in a common format is recorded regardless of the recording method, and the audio synchronization information that synchronizes the video and audio together with the index information is recorded as audio. A new and improved recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method capable of realizing many functions based on the recorded index information and audio synchronization information by recording each chunk of data, A playback method and a computer program can be provided.

本発明の一実施形態にかかる記録再生装置100の構成について説明する説明図である。It is explanatory drawing explaining the structure of the recording / reproducing apparatus 100 concerning one Embodiment of this invention. 本発明の一実施形態にかかる、再生情報生成部110で生成される再生情報ファイルの内部構成について説明する説明図である。It is explanatory drawing explaining the internal structure of the reproduction | regeneration information file produced | generated by the reproduction | regeneration information generation part 110 concerning one Embodiment of this invention. 本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する説明図である。It is explanatory drawing explaining the data structure of the file header concerning one Embodiment of this invention. 本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する説明図である。It is explanatory drawing explaining the data structure of the data corresponding to each flame | frame concerning one Embodiment of this invention. MXFに基づいて記録される映像および音声データの構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the image | video and audio | voice data recorded based on MXF. MXFに基づいて記録される映像および音声データの再生について説明する説明図である。It is explanatory drawing explaining reproduction | regeneration of the image | video and audio | voice data recorded based on MXF. MXFに基づいて記録される音声データのチャンクの例について説明する説明図である。It is explanatory drawing explaining the example of the chunk of the audio | voice data recorded based on MXF. MXFに基づいて動画ファイルを記録する際に生成される再生情報ファイルのデータ構成について説明する説明図である。It is explanatory drawing explaining the data structure of the reproduction | regeneration information file produced | generated when recording a moving image file based on MXF. MXFに基づいて音声データを記録する際に、音声データを独立して音声ファイルとして記録する場合について説明する説明図である。It is explanatory drawing explaining the case where audio | voice data is recorded as an audio | voice file independently, when audio | voice data is recorded based on MXF. MP4規格に基づいて記録される映像および音声データの構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the image | video and audio | voice data recorded based on MP4 specification. MP4規格に基づいて記録される音声データについて説明する説明図である。It is explanatory drawing explaining the audio | voice data recorded based on MP4 specification. MP4規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。It is explanatory drawing explaining the data structure of the reproduction | regeneration information file produced | generated based on the image | video and audio | voice data recorded based on MP4 specification. MPEG−2 TS規格に基づいて記録されるデータの構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the data recorded based on MPEG-2 TS specification. MPEG−2 TS規格に基づいて記録される音声データの構成を詳細に示す説明図である。It is explanatory drawing which shows the structure of the audio | voice data recorded based on MPEG-2 TS specification in detail. MPEG−2 TS規格に基づいて映像および音声データとして記録されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data recorded as video and audio | voice data based on MPEG-2 TS specification. MPEG−2 TS規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。It is explanatory drawing explaining the data structure of the reproduction | regeneration information file produced | generated based on the image | video and audio | voice data recorded based on MPEG-2 TS specification. 本発明の一実施形態にかかる再生装置200について説明する説明図である。It is explanatory drawing explaining the reproducing | regenerating apparatus 200 concerning one Embodiment of this invention. 本発明の一実施形態にかかる再生装置300について説明する説明図である。It is explanatory drawing explaining the reproducing | regenerating apparatus 300 concerning one Embodiment of this invention. 本発明の一実施形態にかかる動画ファイルの再生方法について説明する説明図である。It is explanatory drawing explaining the reproducing method of the moving image file concerning one Embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

図1は、本発明の一実施形態にかかる記録再生装置100の構成について説明する説明図である。以下、図1を用いて本発明の一実施形態にかかる記録再生装置100の構成について説明する。   FIG. 1 is an explanatory diagram for explaining the configuration of a recording / reproducing apparatus 100 according to an embodiment of the present invention. Hereinafter, the configuration of the recording / reproducing apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

図1に示したように、本発明の一実施形態にかかる記録再生装置100は、カメラ102と、マイク104と、映像・音声I/F部106と、エンコード・デコード部108と、再生情報生成部110と、DRAM(Dynamic Random Access Memory)111と、記録部112と、再生部114と、表示部116と、音声出力部118と、システム制御部120と、メモリ122と、ユーザインタフェース部124と、を含んで構成される。   As shown in FIG. 1, a recording / reproducing apparatus 100 according to an embodiment of the present invention includes a camera 102, a microphone 104, a video / audio I / F unit 106, an encoding / decoding unit 108, and reproduction information generation. Unit 110, DRAM (Dynamic Random Access Memory) 111, recording unit 112, playback unit 114, display unit 116, audio output unit 118, system control unit 120, memory 122, user interface unit 124, , Including.

カメラ102は、被写体を動画像または静止画像として撮影し、撮影した結果得られる画像をデジタル信号に変換して、画像データとして映像・音声I/F部106に送る。マイク104は、カメラ102が撮影を行った時点での記録再生装置100の周囲の音声を収録し、収録した音声をデジタルデータに変換して音声データとして、映像・音声I/F部106に送る。   The camera 102 captures a subject as a moving image or a still image, converts an image obtained as a result of the capturing into a digital signal, and sends the digital signal to the video / audio I / F unit 106. The microphone 104 records the sound around the recording / playback apparatus 100 at the time when the camera 102 has taken a picture, converts the recorded sound into digital data, and sends it to the video / audio I / F unit 106 as sound data. .

映像・音声I/F部106は、カメラ102で撮影された画像データおよびマイク104で収録された音声データをエンコード・デコード部108に送る。また、エンコード・デコード部108から送られた画像のデータを表示部116に送り、音声のデータを音声出力部118に送る役割も有する。   The video / audio I / F unit 106 sends the image data captured by the camera 102 and the audio data recorded by the microphone 104 to the encode / decode unit 108. Also, it has a role of sending image data sent from the encoding / decoding unit 108 to the display unit 116 and sending audio data to the audio output unit 118.

エンコード・デコード部108は、映像・音声I/F部106から送られた画像データ及び音声データを、各種方式に基づいてエンコードし、エンコード後の画像データ及び音声データを再生情報生成部110と記録部112とに送る。エンコードする方式としては、例えばMPEG−1、MPEG−2、MPEG−4等がある。   The encoding / decoding unit 108 encodes the image data and audio data sent from the video / audio I / F unit 106 based on various methods, and records the encoded image data and audio data with the reproduction information generation unit 110. To the unit 112. Examples of encoding methods include MPEG-1, MPEG-2, MPEG-4, and the like.

また、エンコード・デコード部108は、記録部112に記録される画像データ及び音声データを読み出して、エンコードした方式に応じてデコードし、デコード後の画像データ及び音声データを映像・音声I/F部106に送る役割も有する。   Also, the encoding / decoding unit 108 reads out the image data and audio data recorded in the recording unit 112 and decodes them according to the encoded method, and the decoded image data and audio data is a video / audio I / F unit. It also has a role to send to 106.

再生情報生成部110は、エンコード・デコード部108でエンコードされた画像データ及び音声データを入力し、画像データ及び音声データから再生情報ファイルを作成するものである。再生情報ファイルの構成については後述する。作成した再生情報ファイルは記録部112に送られて記録される。   The reproduction information generation unit 110 inputs the image data and audio data encoded by the encoding / decoding unit 108, and creates a reproduction information file from the image data and audio data. The structure of the reproduction information file will be described later. The created reproduction information file is sent to the recording unit 112 and recorded.

再生情報ファイルは、記録再生装置100で録画を開始すると、DRAM111に含まれる再生情報記録領域に再生情報を順次記録し、録画を終了すると、DRAM111の再生情報記録領域に記録された再生情報を再生情報ファイルとして作成することによって作成してもよい。DRAM111への再生情報の記録は所定の間隔で行う。所定の間隔の一例として、例えば2秒間隔で行ってもよい。   When recording is started by the recording / playback apparatus 100, the playback information file sequentially records the playback information in the playback information recording area included in the DRAM 111. When the recording ends, the playback information recorded in the playback information recording area of the DRAM 111 is played back. You may create by creating as an information file. Recording of reproduction information in the DRAM 111 is performed at predetermined intervals. As an example of the predetermined interval, it may be performed at intervals of 2 seconds, for example.

記録部112は、エンコード・デコード部108でエンコードされた画像データおよび音声データを、動画ファイルの形式にして記録するものである。また、エンコード・デコード部108でエンコードされた画像データおよび音声データに基づいて再生情報生成部110で作成された再生情報ファイルも併せて記録する。   The recording unit 112 records the image data and audio data encoded by the encoding / decoding unit 108 in a moving image file format. In addition, a reproduction information file created by the reproduction information generation unit 110 based on the image data and audio data encoded by the encoding / decoding unit 108 is also recorded.

システム制御部120は、記録再生装置100の各部の制御を行うものである。システム制御部120で制御する記録再生装置100の各部の制御としては、例えば、ユーザインタフェース部124から録画の開始が指示されると、システム制御部120は、カメラ102およびマイク104に対して録画および録音の開始を指示する。もちろん、システム制御部120が行う制御はかかる例に限定されない。   The system control unit 120 controls each unit of the recording / reproducing apparatus 100. As control of each part of the recording / reproducing apparatus 100 controlled by the system control unit 120, for example, when the user interface unit 124 instructs to start recording, the system control unit 120 performs recording and recording on the camera 102 and the microphone 104. Instruct the start of recording. Of course, the control performed by the system control unit 120 is not limited to this example.

ユーザインタフェース部124は、記録再生装置100を使用するユーザから操作部(図示せず)の操作を受け付け、その操作を表す操作信号をシステム制御部120に送るものである。ユーザが操作部で操作するものとしては、動画の撮影開始指示や、撮影した動画の再生指示等がある。   The user interface unit 124 receives an operation of an operation unit (not shown) from a user who uses the recording / reproducing apparatus 100, and sends an operation signal representing the operation to the system control unit 120. As the user operating with the operation unit, there are an instruction to start capturing a moving image, an instruction to reproduce the captured moving image and the like.

メモリ122は、記録再生装置100の各部が行う処理に必要となるデータを記憶するものである。例えば、メモリ122にコンピュータプログラムを格納し、システム制御部120が格納されたコンピュータプログラムを読み出して実行することによって、再生する動画ファイルに対する処理を行うことができる。   The memory 122 stores data necessary for processing performed by each unit of the recording / reproducing apparatus 100. For example, a computer program is stored in the memory 122, and the computer program stored in the system control unit 120 is read and executed, whereby processing for a moving image file to be reproduced can be performed.

以上、図1を用いて本発明の一実施形態にかかる記録再生装置100の構成について説明した。次に、本発明の一実施形態にかかる、再生情報生成部110で生成される再生情報ファイルの内部構成について説明する。   The configuration of the recording / reproducing apparatus 100 according to the embodiment of the present invention has been described above with reference to FIG. Next, the internal structure of the reproduction information file generated by the reproduction information generation unit 110 according to an embodiment of the present invention will be described.

図2は、本発明の一実施形態にかかる、再生情報生成部110で生成される再生情報ファイルの内部構成について説明する説明図である。以下、図2を用いて本発明の一実施形態にかかる再生情報ファイルの内部構成について説明する。   FIG. 2 is an explanatory diagram illustrating the internal configuration of the reproduction information file generated by the reproduction information generation unit 110 according to an embodiment of the present invention. Hereinafter, the internal structure of the reproduction information file according to the embodiment of the present invention will be described with reference to FIG.

図2に示したように、本発明の一実施形態にかかる再生情報ファイルは、16バイトのデータを1つの固まりとして構成されている。ファイルの先頭から、ファイルヘッダ、拡張ファイルヘッダ1〜n、各フレームに対応するデータが順次格納される。   As shown in FIG. 2, the reproduction information file according to the embodiment of the present invention is configured by 16 bytes of data as one block. From the top of the file, a file header, extended file headers 1 to n, and data corresponding to each frame are sequentially stored.

ファイルヘッダは、記録再生装置100で記録される画像データや音声データに関する基本情報が格納されるものである。ファイルヘッダに格納される、画像データや音声データに関する基本情報の一例として、バージョン情報、ファイル基本情報、映像基本情報、音声基本情報、タイムコード情報が記録される。もちろん、本発明においてファイルヘッダに記録する情報は係る例に限られない。   The file header stores basic information regarding image data and audio data recorded by the recording / reproducing apparatus 100. As an example of basic information related to image data and audio data stored in the file header, version information, file basic information, video basic information, audio basic information, and time code information are recorded. Of course, the information recorded in the file header in the present invention is not limited to this example.

拡張ファイルヘッダは、ファイルヘッダには記録しないが、記録再生装置100で記録される画像データや音声データに関する情報が格納されるものである。本実施形態においては、拡張ファイルヘッダには先頭部分で非表示にするフレームの数、再生するフレームの数、サムネイル一覧に用いる代表画のフレーム番号を記録する。もちろん、本発明においては拡張ファイルヘッダに記録する情報は係る例に限られない。また、拡張ファイルヘッダの数は1つであってもよく、2つ以上であってもよい。図2では、拡張ファイルヘッダをn個設けた場合のデータ構造について示している。   The extended file header is not recorded in the file header, but stores information related to image data and audio data recorded by the recording / reproducing apparatus 100. In this embodiment, the number of frames to be hidden at the top, the number of frames to be reproduced, and the frame number of the representative image used for the thumbnail list are recorded in the extension file header. Of course, in the present invention, the information recorded in the extension file header is not limited to this example. Further, the number of extension file headers may be one, or two or more. FIG. 2 shows a data structure when n extension file headers are provided.

各フレームに対応するデータは、画像データおよび音声データの各フレームにおける情報が格納されるものである。本実施形態においては、格納される情報は、GOP(Group Of Picture)先頭フラグ、ピクチャタイプ、映像情報、音声同期情報、音声情報がある。映像情報としては、例えばフレーム毎の画像データのサイズ、画像データの絶対アドレスが格納され、音声情報としては、例えばフレーム毎の音声データサイズ、音声データの相対アドレスまたは絶対アドレスが格納される。   Data corresponding to each frame stores information in each frame of image data and audio data. In the present embodiment, stored information includes a GOP (Group Of Picture) head flag, a picture type, video information, audio synchronization information, and audio information. As the video information, for example, the size of image data for each frame and the absolute address of the image data are stored, and as the audio information, for example, the audio data size for each frame, the relative address or the absolute address of the audio data is stored.

各フレームに対応するデータは、記録再生装置100で画像データおよび音声データを記録すると、記録したデータに基づいて0番目のフレーム(フレーム0)から順次作成される。そして、フレームが増えると、フレームの増加に伴って既に作成された各フレームに対応するデータに順次追加して作成される。各フレームに対応するデータは所定の間隔で作成することが望ましい。本実施形態においては、2分間隔で各フレームに対応するデータが作成される。   Data corresponding to each frame is sequentially generated from the 0th frame (frame 0) based on the recorded data when the recording / playback apparatus 100 records image data and audio data. Then, when the number of frames increases, it is created by sequentially adding to the data corresponding to each frame already created as the number of frames increases. It is desirable to create data corresponding to each frame at a predetermined interval. In the present embodiment, data corresponding to each frame is created at intervals of 2 minutes.

以上、図2を用いて本発明の一実施形態にかかる再生情報ファイルの内部構成について説明した。次に、本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する。   The internal configuration of the reproduction information file according to the embodiment of the present invention has been described above with reference to FIG. Next, the data structure of the file header according to the embodiment of the present invention will be described.

図3は、本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する説明図である。以下、図3を用いて本発明の一実施形態にかかるファイルヘッダのデータ構成について説明する。   FIG. 3 is an explanatory diagram illustrating the data structure of the file header according to the embodiment of the present invention. The data structure of the file header according to the embodiment of the present invention will be described below using FIG.

図3に示したように、また上述したように、ファイルヘッダは16バイトの領域を有している。またファイルヘッダにはバージョン情報、ファイル基本情報、映像基本情報、音声基本情報、タイムコード情報が記録される。   As shown in FIG. 3 and as described above, the file header has a 16-byte area. In the file header, version information, file basic information, video basic information, audio basic information, and time code information are recorded.

ファイル基本情報としては、映像チャンクヘッダ長、音声チャンクヘッダ長が含まれ、映像基本情報にはフレームレート、画像のアスペクト比、水平・垂直画素数、映像圧縮規格が含まれ、音声基本情報には、音声量子化ビット数、音声トラック構成、音声標本化周波数、音声圧縮規格の情報が含まれる。これらの情報を格納する箇所を、ファイルヘッダの16バイトの領域に収まるように定義する。なお、映像チャンクヘッダ長は、後述するピクチャタイプによって値が異なる場合があり、その場合にはピクチャタイプ別に映像チャンクヘッダ長のデータを格納してもよい。例えば、ピクチャタイプがIピクチャとIピクチャ以外とで映像チャンクヘッダ長が異なる場合には、2種類の値をファイル基本情報に格納する。   Basic file information includes video chunk header length and audio chunk header length. Basic video information includes frame rate, image aspect ratio, number of horizontal and vertical pixels, video compression standard, basic audio information. , Audio quantization bit number, audio track configuration, audio sampling frequency, and audio compression standard information. The location for storing these pieces of information is defined so as to fit in the 16-byte area of the file header. Note that the value of the video chunk header length may differ depending on the picture type to be described later. In this case, the video chunk header length data may be stored for each picture type. For example, when the picture chunk header length differs between the I picture and the non-I picture, two types of values are stored in the file basic information.

以上、図3を用いて本発明の一実施形態にかかるファイルヘッダのデータ構成について説明した。次に、本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する。   The data structure of the file header according to the embodiment of the present invention has been described above using FIG. Next, a data configuration of data corresponding to each frame according to the embodiment of the present invention will be described.

図4は、本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する説明図である。以下、図4を用いて本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明する。   FIG. 4 is an explanatory diagram for explaining the data structure of data corresponding to each frame according to the embodiment of the present invention. Hereinafter, the data configuration of data corresponding to each frame according to the embodiment of the present invention will be described with reference to FIG.

図4に示したように、また上述したように、各フレームに対応するデータは16バイトの領域を有している。各フレームに対応するデータには、GOP(Group Of Picture)先頭フラグ、ピクチャタイプ、映像情報、音声同期情報、音声情報がある。また映像情報として当該フレームにおける画像データのサイズ、画像データの絶対アドレスが格納され、音声情報として当該フレームにおける音声データのサイズ、音声データの相対アドレスまたは絶対アドレスが格納される。また、音声同期情報として、画像データの時刻情報と音声データの時刻情報との差分の値が格納される。これらの情報を格納する箇所を、各フレームに対応するデータの16バイトの領域に収まるように定義する。   As shown in FIG. 4 and as described above, the data corresponding to each frame has a 16-byte area. Data corresponding to each frame includes a GOP (Group Of Picture) head flag, a picture type, video information, audio synchronization information, and audio information. In addition, the size of image data and the absolute address of image data in the frame are stored as video information, and the size of audio data and the relative address or absolute address of audio data in the frame are stored as audio information. In addition, a difference value between the time information of the image data and the time information of the sound data is stored as the sound synchronization information. The location for storing these pieces of information is defined so as to fit in the 16-byte area of data corresponding to each frame.

各フレームに対応するデータとしてGOP先頭フラグやピクチャタイプを格納することで、フレームの途中から再生を行う場合でも、再生を開始するフレームに対応する再生情報を読み込むことで、当該フレーム及び当該フレームの前後のフレームの画像データを読み込んでデコードを行うことができる。   By storing the GOP head flag and the picture type as data corresponding to each frame, even when playback is performed from the middle of the frame, by reading the playback information corresponding to the frame from which playback is to be started, the frame and the frame It is possible to read and decode image data of previous and subsequent frames.

以上、図4を用いて本発明の一実施形態にかかる各フレームに対応するデータのデータ構成について説明した。なお、図3や図4に示したデータ構成は本発明の一例であり、各データの格納位置は図3や図4に示した場合に限られないことは言うまでもない。   The data structure of the data corresponding to each frame according to the embodiment of the present invention has been described above using FIG. It should be noted that the data configuration shown in FIGS. 3 and 4 is an example of the present invention, and it goes without saying that the storage position of each data is not limited to the case shown in FIGS.

次に、本発明の一実施形態にかかる再生情報生成部110で生成される再生情報ファイルの生成方法について説明する。   Next, a method for generating a reproduction information file generated by the reproduction information generation unit 110 according to an embodiment of the present invention will be described.

図5は、MXF(Material Exchange Format)に基づいて記録される映像および音声データの構成の一例を示す説明図である。図5に示したように、MXFにおいては音声データ(A0、A1、A2、・・・)と画像データ(B0、B1、I2、・・・、P5、・・・)とが混在して記録される。ここで、B、I、Pはそれぞれピクチャタイプを表し、B0はピクチャタイプがBである0番目のフレームであることを表している。また、画像データはフレームごとにサイズが異なって記録される。   FIG. 5 is an explanatory diagram showing an example of the configuration of video and audio data recorded based on MXF (Material Exchange Format). As shown in FIG. 5, in MXF, audio data (A0, A1, A2,...) And image data (B0, B1, I2,..., P5,...) Are mixedly recorded. Is done. Here, B, I, and P each represent a picture type, and B0 represents the 0th frame whose picture type is B. The image data is recorded with a different size for each frame.

ここで、図5に示したlenHAは音声チャンクヘッダ長を、lenHIはピクチャタイプがIピクチャである映像フレームの映像チャンクヘッダ長を、lenHVはピクチャタイプがIピクチャ以外である映像フレームの映像チャンクヘッダ長を、それぞれ表している。またsizeV[n]はn番目のフレームの映像データサイズを、offsV[n]はn番目のフレームの映像データアドレスを表し、sizeA[n]はn番目のフレームの音声データサイズを、offA[n]はn番目のフレームの音声データアドレスを表している。これらの表記は以下の図においても同様である。   Here, lenHA shown in FIG. 5 is the audio chunk header length, lenHI is the video chunk header length of a video frame whose picture type is I picture, and lenHV is the video chunk header of a video frame whose picture type is other than I picture. Each represents a length. Also, sizeV [n] represents the video data size of the nth frame, offsV [n] represents the video data address of the nth frame, sizeA [n] represents the audio data size of the nth frame, and offA [n ] Represents the audio data address of the nth frame. These notations are the same in the following drawings.

そのため、MXFに基づいて映像および音声データが記録される場合に、各データのフレームごとの情報を再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルを参照することで、当該動画ファイルをファイルの途中から再生することができる。   Therefore, when video and audio data is recorded based on MXF, information for each frame of each data is recorded in the reproduction information file. Then, when reproducing a moving image file in which video and audio data are recorded, the moving image file can be reproduced from the middle of the file by referring to the generated reproduction information file.

図6は、MXFに基づいて記録される映像および音声データの再生について説明する説明図である。Videoは映像フレームを、Audioは音声フレームをそれぞれ意味し、skipFは動画ファイルを再生する際に、デコード不能等により非表示とするフレームの数を表している。fpsは1秒間に再生するフレームの数(frame per second)を表し、1/fpsは1フレームの時間を示す。なおfpsに関する情報は、再生情報ファイルのファイルヘッダに格納される。再生情報ファイルにfpsに関する情報を格納する際には、実際の値で格納してもよく、パラメータとして格納してもよい。本実施形態ではパラメータの形式で再生情報ファイルのファイルヘッダに格納する。   FIG. 6 is an explanatory diagram for explaining reproduction of video and audio data recorded based on MXF. Video means a video frame, Audio means an audio frame, and skip F represents the number of frames that are not displayed when a moving image file is reproduced due to inability to decode. fps represents the number of frames played back per second (frame per second), and 1 / fps represents the time of one frame. Information about fps is stored in the file header of the reproduction information file. When information about fps is stored in the reproduction information file, it may be stored as an actual value or as a parameter. In this embodiment, it is stored in the file header of the reproduction information file in the form of parameters.

図5と同様に、映像フレームにおけるB、I、Pはそれぞれピクチャタイプを表し、B0はピクチャタイプがBである0番目のフレームであることを表している。音声フレームにおけるA0は、0番目のフレームの音声データであることを表している。また、TCはタイムコードを指しており、orgTCはタイムコードの初期値を表している。skipFとorgTCの値は再生情報ファイルのファイルヘッダまたは拡張ファイルヘッダに格納し、動画ファイルを再生する際にはこれらの情報を再生情報ファイルから読み込んで再生する。   Similarly to FIG. 5, B, I, and P in the video frame each represent a picture type, and B0 represents the 0th frame having a picture type of B. A0 in the audio frame represents the 0th frame audio data. TC indicates a time code, and orgTC indicates an initial value of the time code. The values of skipF and orgTC are stored in the file header or extended file header of the reproduction information file, and when reproducing a moving image file, the information is read from the reproduction information file and reproduced.

図6に示したように、MXFにおいては、再生の開始時点(図6のPB beginに示した時点)で、映像の再生タイミングと音声の再生タイミングとが異なる(ディレイする)場合がある。図6に示したdelA[2]は、2番目のフレームにおける音声同期タイミングを表している。つまり、図6のように映像の再生タイミングと音声の再生タイミングとが異なる場合には、delA[2]だけ音声の再生を遅らせれば、映像と音声とを同期して再生することが出来る。なお、図6に示した例では、映像より音声のほうが遅れているため、delA[2]は負の値を示している。   As shown in FIG. 6, in MXF, the playback timing of video and the playback timing of audio may be different (delayed) at the start of playback (the time indicated by PB begin in FIG. 6). DelA [2] shown in FIG. 6 represents the audio synchronization timing in the second frame. That is, as shown in FIG. 6, when the video playback timing and the audio playback timing are different, the video and the audio can be played back in synchronization by delaying the playback of the audio by delA [2]. In the example shown in FIG. 6, since the audio is delayed from the video, delA [2] indicates a negative value.

従って、MXFに基づいて映像および音声データが記録される場合に、各データのフレームごとのディレイ情報を再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルに含まれるディレイ情報を参照することで、映像と音声とを同期して再生することができる。   Therefore, when video and audio data are recorded based on MXF, delay information for each frame of each data is recorded in the reproduction information file. When a moving image file in which video and audio data is recorded is reproduced, the video and audio can be reproduced in synchronization by referring to the delay information included in the generated reproduction information file.

図7は、MXFに基づいて記録される音声データの固まり(チャンク)の例について説明する説明図である。図7は、k番目のフレームを例に挙げて説明したものである。図7に示したように、MXFに基づいて記録される音声データの固まりは、ステレオで2トラック(stereo 2tracks)を使用する場合や、モノラルで4トラック(mono 4tracks)を使用する場合などがある。   FIG. 7 is an explanatory diagram for explaining an example of chunks of audio data recorded based on MXF. FIG. 7 illustrates the kth frame as an example. As shown in FIG. 7, the mass of audio data recorded based on MXF may be in the case of using 2 tracks (stereo 2tracks) in stereo, or in the case of using 4 tracks (mono 4tracks) in monaural. .

図7において、ステレオで2トラックを使用する場合には、ch(チャンネル)1およびch2を1つの固まりとして、ch3およびch4を1つの固まりとしてデータを記録している。またモノラルで4トラックを使用する場合には、チャンネルごとに1つの固まりとしてデータを記録している。lenHAは音声データのチャンクサイズを示しており、再生情報ファイルのファイルヘッダに格納される情報である。   In FIG. 7, when two tracks are used in stereo, data is recorded with ch (channel) 1 and ch2 as one block and ch3 and ch4 as one block. When 4 tracks are used in monaural, data is recorded as one block for each channel. lenHA indicates the chunk size of the audio data and is information stored in the file header of the reproduction information file.

このような場合に、音声データのサイズsizeA[k]と相対アドレスoffsA[k]とを再生情報ファイルに記録する。そして、映像および音声データが記録された動画ファイルを再生する際に、生成した再生情報ファイルを参照することで、当該動画ファイルをファイルの途中から再生した場合でも音声を当該再生場所から再生することができる。   In such a case, the audio data size sizeA [k] and relative address offsA [k] are recorded in the reproduction information file. Then, when playing back a moving image file in which video and audio data is recorded, by referring to the generated reproduction information file, even when the moving image file is played from the middle of the file, the sound is played from the playback location. Can do.

図8は、本発明の一実施形態にかかる、MXFに基づいて動画ファイルを記録する際に生成される再生情報ファイルのデータ構成について説明する説明図である。   FIG. 8 is an explanatory diagram illustrating a data configuration of a reproduction information file generated when a moving image file is recorded based on MXF according to an embodiment of the present invention.

図8に示したように、フレームごとに画像データのサイズ(sizeV[])、画像データの絶対アドレス(offsV[])、ディレイ情報(delA[])、音声データのサイズ(sizeA[])、音声データの相対アドレス(offsA[])を記録する。また、フレームごとにGOP先頭フラグ(1または0。1の場合、そのフレームがGOPの先頭であることを示す)、ピクチャタイプ(B、P、I)の情報も併せて格納する。   As shown in FIG. 8, image data size (sizeV []), image data absolute address (offsV []), delay information (delA []), audio data size (sizeA []) for each frame, Record the relative address (offsA []) of the audio data. Also, GOP head flag (1 or 0. 1 indicates that the frame is the head of GOP) and picture type (B, P, I) information are also stored for each frame.

このように、MXFに基づいて動画ファイルを記録する際に再生情報ファイルを生成することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルに格納されている情報を参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。   Thus, by generating a playback information file when recording a video file based on MXF, even when the video file is played from the middle of the file, information stored in the playback information file can be referred to. The video and audio can be reproduced from the reproduction location. And since the audio information is also recorded in the playback information file, even if the video file is played from the middle of the file, the video and audio are synchronized by referring to the playback information file, Video and audio can be played from the playback location.

例えば、k番目のフレームの映像データを取得する場合には、当該フレームがIピクチャである場合には、(offsV[k]+lenHI)〜(offsV[k]+sizeV[k]−1)の範囲がk番目のフレームの映像データに相当し、当該フレームがPピクチャまたはBピクチャである場合には、(offsV[k]+lenHV)〜(offsV[k]+sizeV[k]−1)の範囲がk番目のフレームの映像データに相当する。   For example, when acquiring video data of the kth frame, if the frame is an I picture, the range from (offsV [k] + lenHI) to (offsV [k] + sizeV [k] −1) If the frame corresponds to video data of the kth frame and the frame is a P picture or a B picture, the range from (offsV [k] + lenHV) to (offsV [k] + sizeV [k] -1) is kth. Corresponds to the video data of the frame.

また、k番目のフレームの音声データを取得する場合には、音声トラック単位_lenAは_lenA=sizeA[k]/(trksA & 0xf)、音声データ番地はoffsA[k]+offsV[k]+(_lenA*j)+lenHA、音声データ長は_lenA−lenHAでそれぞれ表される。ここでtrksAは音声トラック数を表し、再生情報ファイルのファイルヘッダに格納されるデータである。   Further, when acquiring the audio data of the kth frame, the audio track unit_lenA is _lenA = sizeA [k] / (trksA & 0xf), and the audio data address is offsA [k] + offsV [k] + (_ lenA * j) + lenHA, and the voice data length is represented by _lenA-lenHA. Here, trksA represents the number of audio tracks and is data stored in the file header of the reproduction information file.

画像データと音声データを1つの動画ファイルに記録する場合だけで無く、音声データを動画ファイルから独立して音声ファイルとして記録する場合でも、再生情報ファイルを生成することができる。図9は、MXFに基づいて音声データを記録する際に、音声データを独立して音声ファイルとして記録する場合について説明する説明図である。図9に示した例では、音声をモノクロ2チャンネルで、それぞれファイル名をxxxxxA01.audとxxxxxA02.audとして記録する場合を示している。   A reproduction information file can be generated not only when image data and audio data are recorded in one moving image file, but also when audio data is recorded as an audio file independently of the moving image file. FIG. 9 is an explanatory diagram for explaining a case where audio data is recorded as an audio file independently when audio data is recorded based on MXF. In the example shown in FIG. 9, the audio is monochrome 2 channels and the file names are xxxxA01. aud and xxxxA02. The case of recording as aud is shown.

音声データを動画ファイルから独立して音声ファイルとして記録する場合でも、各フレームに対応する音声データのデータサイズおよび相対アドレスを記録することで、当該動画ファイルをファイルの途中から再生した場合でも、生成した再生情報ファイルを参照することで、音声を当該再生場所から再生することができる。   Even when audio data is recorded as an audio file independently of the video file, the data size and relative address of the audio data corresponding to each frame can be recorded, so that even if the video file is played from the middle of the file, it is generated By referring to the reproduced information file, the sound can be reproduced from the reproduction location.

以上、MXFに基づいて動画ファイルを記録する際に生成する再生情報ファイルのデータ構成について説明した。なお、RIFF(Resource Interchange File Format)は、MXFと似たデータ構造を持つので、インデックスはMXFと完全に等しい書式となり、また再生等のインデックスを使用する処理もMXFの場合の処理と共通となる。MXF以外の規格に基づいて動画ファイルを記録する際にも、再生情報ファイルを生成し、生成した再生情報ファイルを参照することで、映像および音声の再生を行うことができる。以下、その他の規格における実施例について説明する。   The data structure of the reproduction information file generated when recording a moving image file based on MXF has been described above. Since RIFF (Resource Interchange File Format) has a data structure similar to MXF, the index has the completely same format as MXF, and the processing using the index for reproduction and the like is the same as the processing in MXF. . Even when a moving image file is recorded based on a standard other than MXF, it is possible to reproduce video and audio by generating a reproduction information file and referring to the generated reproduction information file. Examples according to other standards will be described below.

(MP4規格における実施例)
図10は、MP4規格に基づいて記録される映像および音声データの構成の一例を示す説明図である。図10に示したように、MP4規格においては音声データ(A0−A14、A15−A29、・・・)と画像データ(I2、P5、P8、P11、P14、I17、・・・)とが混在して記録される。また、MP4規格に基づいて記録される音声データは15フレーム分が一固まりとなって記録される。
(Example in the MP4 standard)
FIG. 10 is an explanatory diagram showing an example of the configuration of video and audio data recorded based on the MP4 standard. As shown in FIG. 10, in the MP4 standard, audio data (A0-A14, A15-A29,...) And image data (I2, P5, P8, P11, P14, I17,...) Are mixed. And recorded. Further, audio data recorded based on the MP4 standard is recorded as a set of 15 frames.

なお、図10で、stsz[]はMP4規格に基づいて記録される映像および音声データの各フレームのサイズを、stco[]は映像および音声データのチャンクを、stsc[]は映像および音声データのチャンクに関する情報を示している。   In FIG. 10, stsz [] is the size of each frame of video and audio data recorded based on the MP4 standard, stco [] is a chunk of video and audio data, and stsc [] is video and audio data. Shows information about chunks.

図11は、MP4規格に基づいて記録される音声データについて説明する説明図である。上述の通り、MP4規格に基づいて記録される音声データは15フレーム分が一塊となって記録される。図11に示した例では、従って、再生情報ファイルを生成する際には、15フレーム分の音声データのデータサイズを記録する。   FIG. 11 is an explanatory diagram for explaining audio data recorded based on the MP4 standard. As described above, 15 frames of audio data recorded based on the MP4 standard are recorded in a lump. In the example shown in FIG. 11, therefore, the data size of 15 frames of audio data is recorded when the reproduction information file is generated.

このようにMP4規格に基づいて記録される映像及び音声データを基に再生情報ファイルを生成する。図12は、本発明の一実施形態にかかる、MP4規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。図12に示したように、MP4規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルは、フレームごとの画像データのサイズ(sizeV[])と画像データの絶対アドレス(offsV[])が格納される。   In this way, a reproduction information file is generated based on the video and audio data recorded based on the MP4 standard. FIG. 12 is an explanatory diagram illustrating a data structure of a reproduction information file generated based on video and audio data recorded based on the MP4 standard according to an embodiment of the present invention. As shown in FIG. 12, the reproduction information file generated based on the video and audio data recorded based on the MP4 standard includes the size (sizeV []) of the image data for each frame and the absolute address ( offsV []) is stored.

また、上述したようにMP4規格に基づいて記録される音声データは15フレーム分が一固まりとなって記録される。そのため、音声データは1フレーム単位ではなく15フレーム単位に記録する。すなわち、図12に示したように、フレーム0の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[0])、音声データの相対アドレス(offsA[0])およびディレイ情報(delA[0])を記録すると、フレーム1〜フレーム14の音声データに関する情報を格納する箇所には0を記録する。そして、フレーム15の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[15])、音声データの相対アドレス(offsA[15])およびディレイ情報(delA[15])を記録する。   Further, as described above, the audio data recorded based on the MP4 standard is recorded as a set of 15 frames. For this reason, audio data is recorded in units of 15 frames, not in units of 1 frame. That is, as shown in FIG. 12, the size of the audio data (sizeA [0]), the relative address (offsA [0]) of the audio data and the delay information (delA [del] [ When 0]) is recorded, 0 is recorded at a location where information relating to audio data of frames 1 to 14 is stored. Then, the size of the audio data (sizeA [15]), the relative address (offsA [15]) of the audio data, and the delay information (delA [15]) are recorded at the location where the information related to the audio data of the frame 15 is stored.

このように、MP4規格に基づいて動画ファイルを生成する場合であっても再生情報ファイルを生成することができる。MP4規格に基づいて生成される動画ファイルの画像データおよび音声データに関する情報を再生情報ファイルに記録することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。また、QuickTimeフォーマットはMP4と似たデータ構造を持つので、インデックスはMP4と完全に等しい書式となり、また再生等のインデックスを使用する処理もMP4の場合と共通の処理となる。   Thus, even when a moving image file is generated based on the MP4 standard, a reproduction information file can be generated. By recording information related to the image data and audio data of the moving image file generated based on the MP4 standard in the reproduction information file, even when the moving image file is reproduced from the middle of the file, the image can be obtained by referring to the reproduction information file. And audio can be reproduced from the reproduction location. And since the audio information is also recorded in the playback information file, even if the video file is played from the middle of the file, the video and audio are synchronized by referring to the playback information file, Video and audio can be played from the playback location. In addition, since the QuickTime format has a data structure similar to that of MP4, the index has the completely same format as MP4, and the processing using the index for reproduction and the like is the same processing as in MP4.

(MPEG−2 TS規格における実施例)
図13は、MPEG−2 TS(Transport Stream)規格に基づいて記録されるデータの構成の一例を示す説明図である。図13に示したように、MPEG−2 TS規格に基づいて記録されるデータとして、映像および音声データの他に、SIT(Selection Information Table;伝送される番組に関する情報の指示についての情報)、PAT(Program Association Table;ストリームで伝送されるコンテンツを管理する情報)、PMT(Program Map Table;ストリームで伝送されるコンテンツを構成する映像や音声データを管理する情報)、PCR(Program Clock Reference;プログラム時刻基準値)等の情報も作成される。
(Example in the MPEG-2 TS standard)
FIG. 13 is an explanatory diagram showing an example of the structure of data recorded based on the MPEG-2 TS (Transport Stream) standard. As shown in FIG. 13, as data to be recorded based on the MPEG-2 TS standard, in addition to video and audio data, SIT (Selection Information Table; information on instruction of information related to transmitted program), PAT (Program Association Table; information for managing content transmitted in the stream), PMT (Program Map Table; information for managing video and audio data constituting the content transmitted in the stream), PCR (Program Clock Reference; program time) Information such as a reference value is also created.

また、MPEG−2 TS規格に基づいて生成される映像および音声データは多重化されて記録される(AUX−V,AUX−A)。   In addition, video and audio data generated based on the MPEG-2 TS standard are multiplexed and recorded (AUX-V, AUX-A).

このようにMPEG−2 TS規格に基づいて生成される動画ファイルであっても、映像および音声データの各フレームの位置およびサイズに関する情報を再生情報ファイルに記録することで、再生情報ファイルを参照して当該動画ファイルを再生することが可能となる。   Even in the case of a moving image file generated based on the MPEG-2 TS standard in this manner, information on the position and size of each frame of video and audio data is recorded in the reproduction information file, so that the reproduction information file can be referred to. Thus, the moving image file can be played back.

図14は、MPEG−2 TS規格に基づいて記録される音声データの構成を詳細に示す説明図である。図14に示したように、MPEG−2 TS規格におけるオーディオパケットは、集中的にPES(Packetized Elementary Stream)単位で配置し、さらにVideo Packに対応する4〜5PES(59.94i)を集めて1つのAudio Packを構成している。MPEG−2 TS規格に基づいて記録される音声データを、本発明の再生情報として記録する際には、一般的なフレーム単位の記述も可能であるが、本実施形態では、構成されたAudio Packを一つの音声データの固まりと扱っている。   FIG. 14 is an explanatory diagram showing in detail the structure of audio data recorded based on the MPEG-2 TS standard. As shown in FIG. 14, audio packets in the MPEG-2 TS standard are intensively arranged in units of PES (Packetized Elementary Stream), and 4 to 5 PES (59.94i) corresponding to the Video Pack are collected to 1 One Audio Pack is configured. When audio data recorded based on the MPEG-2 TS standard is recorded as reproduction information of the present invention, it is possible to describe a general frame unit. However, in this embodiment, the configured audio pack is used. Are treated as a single block of audio data.

図15は、MPEG−2 TS規格に基づいて映像および音声データとして記録されるデータの一例を示す説明図である。MPEG−2 TSやMPEG−2 PSでは、映像データおよび音声データの内、先頭32ビットがヘッダとして割り当てられている。従って、実際に映像データ及び音声データのサイズとして記録するのは、先頭の32ビットを除いたサイズとなる。   FIG. 15 is an explanatory diagram showing an example of data recorded as video and audio data based on the MPEG-2 TS standard. In MPEG-2 TS and MPEG-2 PS, the first 32 bits of video data and audio data are assigned as a header. Therefore, what is actually recorded as the size of video data and audio data is the size excluding the leading 32 bits.

このようにMPEG−2 TS規格に基づいて記録される映像及び音声データを基に再生情報ファイルを生成する。図16は、本発明の一実施形態にかかる、MPEG−2 TS規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルのデータ構造について説明する説明図である。   In this way, a reproduction information file is generated based on the video and audio data recorded based on the MPEG-2 TS standard. FIG. 16 is an explanatory diagram for explaining the data structure of a reproduction information file generated based on video and audio data recorded based on the MPEG-2 TS standard according to an embodiment of the present invention.

図16に示したように、MPEG−2 TS規格に基づいて記録される映像及び音声データを基に生成される再生情報ファイルは、フレームごとの画像データのサイズ(sizeV[])と画像データの絶対アドレス(offsV[])が格納される。   As shown in FIG. 16, the reproduction information file generated based on the video and audio data recorded based on the MPEG-2 TS standard includes the size (sizeV []) of the image data for each frame and the image data. An absolute address (offsV []) is stored.

そして、音声データは1フレーム単位ではなく3フレーム単位に記録する。すなわち、図16に示したように、フレーム0の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[0])、音声データの相対アドレス(offsA[0])およびディレイ情報(delA[0])を記録すると、フレーム1およびフレーム2の音声データに関する情報を格納する箇所には0を記録する。そして、フレーム3の音声データに関する情報を格納する箇所に音声データのサイズ(sizeA[3])、音声データの相対アドレス(offsA[3])およびディレイ情報(delA[3])を記録する。   Audio data is recorded in units of three frames, not in units of one frame. That is, as shown in FIG. 16, the size of the audio data (sizeA [0]), the relative address (offsA [0]) of the audio data, and the delay information (delA [del] [ When 0]) is recorded, 0 is recorded at a location where information relating to audio data of frame 1 and frame 2 is stored. Then, the size of the audio data (sizeA [3]), the relative address (offsA [3]) of the audio data, and the delay information (delA [3]) are recorded in a location where information related to the audio data of frame 3 is stored.

このように、MPEG−2 TS規格に基づいて動画ファイルを生成する場合であっても再生情報ファイルを生成することができる。MPEG−2 TS規格に基づいて生成される動画ファイルの画像データおよび音声データに関する情報を再生情報ファイルに記録することで、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで映像および音声を当該再生場所から再生することができる。そして、再生情報ファイルには音声のディレイ情報を併せて記録しているので、当該動画ファイルをファイルの途中から再生した場合でも、再生情報ファイルを参照することで、音声のディレイ情報を用いて映像と音声を同期させて、映像および音声を当該再生場所から再生することができる。   Thus, even when a moving image file is generated based on the MPEG-2 TS standard, a reproduction information file can be generated. By recording information related to image data and audio data of a moving image file generated based on the MPEG-2 TS standard in a reproduction information file, the reproduction information file is referred to even when the moving image file is reproduced from the middle of the file. Thus, video and audio can be reproduced from the reproduction location. Since the playback information file also records audio delay information, even when the video file is played from the middle of the file, the playback information file can be used to refer to the video using the audio delay information. And the audio can be synchronized and the video and audio can be reproduced from the reproduction location.

以上、本発明の一実施形態にかかる再生情報生成部110で生成される再生情報ファイルの生成方法について説明した。   The method for generating the reproduction information file generated by the reproduction information generating unit 110 according to the embodiment of the present invention has been described above.

このように、各規格に対応するように再生情報ファイルを生成しておけば、録画した際の規格と異なる規格で動画ファイルの再生や編集等の処理を行う再生装置であっても、再生情報ファイルを参照することによって動画ファイルの再生や編集を行うことができる。次に、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置について説明する。   Thus, if a playback information file is generated so as to correspond to each standard, even if the playback device performs processing such as playback and editing of a moving image file with a standard different from the standard at the time of recording, By referring to the file, it is possible to play or edit the movie file. Next, a playback device that plays back a moving image file using a playback information file according to an embodiment of the present invention will be described.

図17は、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置200について説明する説明図である。図17に示したように、本発明の一実施形態にかかる再生装置200は、記録部202と、再生情報解析部204と、デコード部206と、再生部208と、表示部210と、音声出力部212と、システム制御部214と、メモリ216と、ユーザインタフェース部218と、を含んで構成される。   FIG. 17 is an explanatory diagram illustrating a playback device 200 that plays back a moving image file using a playback information file according to an embodiment of the present invention. As shown in FIG. 17, a playback apparatus 200 according to an embodiment of the present invention includes a recording unit 202, a playback information analysis unit 204, a decoding unit 206, a playback unit 208, a display unit 210, and an audio output. Unit 212, system control unit 214, memory 216, and user interface unit 218.

記録部202は、所定の規格に基づいて作成された動画ファイルと、当該動画ファイルの画像データおよび音声データに基づいて生成された再生情報ファイルとが記録されているものである。所定の規格の例としてはMXFやMP4等の規格がある。記録部202としては、再生装置200に固定して備えられるハードディスクドライブ(HDD)や再生装置200に接続して用いられる各種メモリカード、CD−ROM、DVD−ROM等の記録媒体を用いることができる。   The recording unit 202 records a moving image file created based on a predetermined standard and a reproduction information file generated based on the image data and audio data of the moving image file. Examples of the predetermined standard include standards such as MXF and MP4. As the recording unit 202, a recording medium such as a hard disk drive (HDD) fixed to the playback device 200 or various memory cards, a CD-ROM, a DVD-ROM, or the like used by being connected to the playback device 200 can be used. .

再生情報解析部204は、記録部202に記録されている再生情報ファイルを読み取って解析するものである。再生情報解析部204は、システム制御部214を介してユーザインタフェース部218から再生開始位置の指示を受け、指示を受けた再生開始位置に対応する再生情報を読み取る。そして、再生装置200は、再生情報解析部204で読み取って解析した再生情報に基づいて、再生情報ファイルの元となった動画ファイルの再生を行う。   The reproduction information analysis unit 204 reads and analyzes the reproduction information file recorded in the recording unit 202. The reproduction information analysis unit 204 receives an instruction for a reproduction start position from the user interface unit 218 via the system control unit 214, and reads reproduction information corresponding to the reproduction start position that has received the instruction. Then, the playback apparatus 200 plays back the moving image file that is the source of the playback information file, based on the playback information read and analyzed by the playback information analysis unit 204.

例えば、ユーザインタフェース部218から動画ファイルの10フレーム目から再生するよう指示をした場合、ユーザインタフェース部218からシステム制御部214を介して、再生情報解析部204に対して10フレーム目の再生情報を取得して解析するように指示する。   For example, when the user interface unit 218 instructs the playback from the 10th frame of the moving image file, the playback information analysis unit 204 receives the playback information of the 10th frame from the user interface unit 218 via the system control unit 214. Instruct to get and analyze.

10フレーム目の再生情報を取得して解析するように指示を受けた再生情報解析部204は、再生情報ファイルから当該10フレーム目の画像データのサイズ、画像データの絶対アドレス、音声データのサイズ、音声データの相対アドレスおよびディレイ情報を取得する。取得したこれらの情報に基づいて、動画ファイルにおける画像データおよび音声データの読み取り位置や読み取りサイズを決定する。   Receiving the instruction to acquire and analyze the reproduction information of the 10th frame, the reproduction information analysis unit 204 receives the size of the image data of the 10th frame, the absolute address of the image data, the size of the audio data from the reproduction information file, Get the relative address and delay information of the audio data. Based on the acquired information, the reading position and reading size of the image data and audio data in the moving image file are determined.

デコード部206は、記録部202に記録されている動画ファイルのデコードを行うものである。デコード部206でデコードを行う際には、再生情報解析部204で解析した再生情報に基づいてデコードを行う。例えば、ユーザインタフェース部218から動画ファイルの10フレーム目から再生するよう指示をした場合、再生情報解析部204で当該10フレーム目の再生情報を取得し、当該10フレーム目からデコードを行う。   The decoding unit 206 decodes the moving image file recorded in the recording unit 202. When decoding is performed by the decoding unit 206, decoding is performed based on the reproduction information analyzed by the reproduction information analysis unit 204. For example, when the user interface unit 218 instructs to reproduce from the 10th frame of the moving image file, the reproduction information analysis unit 204 acquires the reproduction information of the 10th frame and performs decoding from the 10th frame.

再生部208は、デコード部206でデコードされたデータを受け取って動画ファイルの再生を行うものである。表示部210に再生を行う動画ファイルに記録されている動画像が表示され、音声出力部212に再生を行う動画ファイルの音声が出力される。   The reproduction unit 208 receives the data decoded by the decoding unit 206 and reproduces the moving image file. The moving image recorded in the moving image file to be reproduced is displayed on the display unit 210, and the sound of the moving image file to be reproduced is output to the audio output unit 212.

システム制御部214は、再生装置200の各部の制御を行うものである。例えば、ユーザインタフェース部218から動画ファイルの再生開始位置が指示されると、システム制御部214は、再生情報解析部204に対して動画ファイルの再生開始位置に対応する、再生情報ファイルに含まれる再生情報の取得を指示する。もちろん、システム制御部214が行う制御はかかる例に限定されない。   The system control unit 214 controls each unit of the playback device 200. For example, when the reproduction start position of the moving image file is instructed from the user interface unit 218, the system control unit 214 instructs the reproduction information analysis unit 204 to reproduce the reproduction information file corresponding to the reproduction start position of the moving image file. Instructs the acquisition of information. Of course, the control performed by the system control unit 214 is not limited to this example.

ユーザインタフェース部218は、再生装置200を使用するユーザから操作部(図示せず)の操作を受け付け、その操作を表す操作信号をシステム制御部214に送るものである。ユーザが操作部で操作するものとしては、再生する動画ファイルの選択や、選択した動画ファイルの再生開始位置の指定等がある。   The user interface unit 218 receives an operation of an operation unit (not shown) from a user who uses the playback device 200, and sends an operation signal indicating the operation to the system control unit 214. The user operates the operation unit to select a moving image file to be reproduced and to specify a reproduction start position of the selected moving image file.

メモリ216は、再生装置200の各部が行う処理に必要となるデータを記憶するものである。例えば、メモリ216にコンピュータプログラムを格納し、システム制御部214が格納されたコンピュータプログラムを読み出して実行することによって、再生する動画ファイルに対する処理を行うことができる。   The memory 216 stores data necessary for processing performed by each unit of the playback device 200. For example, a computer program is stored in the memory 216, and the computer program stored in the system control unit 214 is read and executed, so that the processing for the moving image file to be reproduced can be performed.

このように再生装置200を構成し、再生装置200において動画ファイルと再生情報ファイルとから画像データ及び音声データのデコードを行うことで、再生装置200が有する方式と異なる方式でエンコードされて生成された動画ファイルであっても再生が容易に可能となる。また、再生情報ファイルには音声同期情報が含まれているため、音声同期情報を参照することで画像と音声の同期も可能となる。   In this way, the playback device 200 is configured, and the playback device 200 decodes the image data and the audio data from the moving image file and the playback information file, thereby being encoded and generated by a method different from the method of the playback device 200. Even video files can be easily played back. In addition, since the reproduction information file includes audio synchronization information, it is possible to synchronize the image and the audio by referring to the audio synchronization information.

図18は、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置300について説明する説明図である。図18に示したように、本発明の一実施形態にかかる再生装置300は、記録部302と、切換部304と、TSバッファ306と、QTバッファ308と、DSP(Digital Signal Processor)310と、ビデオESバッファ318と、MP2バッファ320と、L−PCMバッファ322と、エンコーダ/デコーダ324と、を含んで構成される。   FIG. 18 is an explanatory diagram illustrating a playback device 300 that plays back a moving image file using a playback information file according to an embodiment of the present invention. As shown in FIG. 18, a playback apparatus 300 according to an embodiment of the present invention includes a recording unit 302, a switching unit 304, a TS buffer 306, a QT buffer 308, a DSP (Digital Signal Processor) 310, A video ES buffer 318, an MP2 buffer 320, an L-PCM buffer 322, and an encoder / decoder 324 are configured.

記録部302は、上述した再生装置200における記録部202と同様に、所定の規格に基づいて作成された動画ファイルと、当該動画ファイルの画像データおよび音声データに基づいて生成された再生情報ファイルとが記録されているものである。所定の規格の例としてはMXFやMP4等の規格がある。記録部302としては、再生装置300に固定して備えられるハードディスクドライブ(HDD)や再生装置300に接続して用いられる各種メモリカード、CD−ROM、DVD−ROM等の記録媒体を用いることができる。   Similar to the recording unit 202 in the playback apparatus 200 described above, the recording unit 302 includes a moving image file created based on a predetermined standard, and a reproduction information file generated based on image data and audio data of the moving image file. Is recorded. Examples of the predetermined standard include standards such as MXF and MP4. As the recording unit 302, a recording medium such as a hard disk drive (HDD) fixedly provided in the playback device 300 or various memory cards, CD-ROMs, DVD-ROMs, etc. used by being connected to the playback device 300 can be used. .

切換部304は、記録部302に記録されている動画ファイルを読み取り、動画ファイルの種類によってデータの送り先を切り換えるものである。本実施形態においては、切換部304は読み取った動画ファイルの種類に応じて、TSバッファ306かQTバッファ308のどちらかにデータを送る。   The switching unit 304 reads the moving image file recorded in the recording unit 302 and switches the data destination depending on the type of the moving image file. In the present embodiment, the switching unit 304 sends data to either the TS buffer 306 or the QT buffer 308 depending on the type of the read moving image file.

切換部304からデータを送る際には、再生情報ファイルから画像データおよび音声データの記録位置に関する情報(offV[]、offA[])を読み取り、読み取った当該情報に基づいて動画ファイルからデータを取得する。   When data is sent from the switching unit 304, information (offV [], offA []) relating to the recording position of image data and audio data is read from the reproduction information file, and data is acquired from the moving image file based on the read information. To do.

TSバッファ306は、切換部304からデータを受け取って一時的に格納しておくものである。同様に、QTバッファ308は、切換部304から映像および音声データを受け取って一時的に格納しておくものである。   The TS buffer 306 receives data from the switching unit 304 and temporarily stores it. Similarly, the QT buffer 308 receives video and audio data from the switching unit 304 and temporarily stores them.

DSP310は、TSバッファ306およびQTバッファ308に一時的に格納されている映像および音声データを受け取り、受け取った映像および音声データに対して多重化処理や分離処理等の、動画ファイルの再生に必要な処理を行って、後段のビデオESバッファ318、MP2バッファ320、L−PCMバッファ322に出力するものである。   The DSP 310 receives video and audio data temporarily stored in the TS buffer 306 and the QT buffer 308, and is necessary for reproduction of a moving image file such as multiplexing processing and separation processing on the received video and audio data. The processing is performed and output to the video ES buffer 318, the MP2 buffer 320, and the L-PCM buffer 322 in the subsequent stage.

DSP310では、映像および音声データに対して、多重化処理や分離処理の他に、映像と音声とを同期するための処理を行う。映像と音声とを同期するためには、再生情報ファイルに記録した各フレームにおける同期情報を参照することによって行う。DSP310は、TS分離部312と、マルチプレクサ314と、デマルチプレクサ316と、を含んで構成される。   The DSP 310 performs processing for synchronizing video and audio on video and audio data, in addition to multiplexing processing and separation processing. Video and audio are synchronized by referring to the synchronization information in each frame recorded in the reproduction information file. The DSP 310 includes a TS separator 312, a multiplexer 314, and a demultiplexer 316.

ビデオESバッファ318は、DSP310から出力されたデータを受け取って一時的に格納しておくものである。同様に、MP2バッファ320およびL−PCMバッファ322も、DSP310から出力されたデータを受け取って一時的に格納しておくものである。   The video ES buffer 318 receives the data output from the DSP 310 and temporarily stores it. Similarly, the MP2 buffer 320 and the L-PCM buffer 322 receive the data output from the DSP 310 and temporarily store it.

エンコーダ/デコーダ324は、ビデオESバッファ318およびMP2バッファ320からデータを受け取り、受け取ったデータのデコードを行って出力するものである。エンコーダ/デコーダ324でデコードを行う際には、再生情報ファイルからデコード方法の情報を取得し、取得したデコード情報に基づいてデコード処理を行う。   The encoder / decoder 324 receives data from the video ES buffer 318 and the MP2 buffer 320, decodes the received data, and outputs the decoded data. When decoding is performed by the encoder / decoder 324, decoding method information is acquired from the reproduction information file, and decoding processing is performed based on the acquired decoding information.

このように再生装置300を構成した場合であっても、再生装置300において動画ファイルと再生情報ファイルとから画像データ及び音声データのデコードを行うことで、再生装置300が有する方式と異なる方式でエンコードされて生成された動画ファイルであっても再生が容易に可能となる。また、再生情報ファイルには音声同期情報が含まれているため、音声同期情報を参照することで画像と音声の同期も可能となる。   Even when the playback device 300 is configured as described above, the playback device 300 decodes the image data and the audio data from the moving image file and the playback information file, thereby encoding with a method different from the method that the playback device 300 has. Thus, even a moving image file generated can be easily reproduced. In addition, since the reproduction information file includes audio synchronization information, it is possible to synchronize the image and the audio by referring to the audio synchronization information.

以上、本発明の一実施形態にかかる再生情報ファイルを用いて動画ファイルを再生する再生装置について説明した。次に、本発明の一実施形態にかかる動画ファイルの再生方法について説明する。   Heretofore, the playback apparatus that plays back a moving image file using the playback information file according to the embodiment of the present invention has been described. Next, a method for reproducing a moving image file according to an embodiment of the present invention will be described.

図19は、本発明の一実施形態にかかる動画ファイルの再生方法について説明する説明図である。以下、図19を用いて本発明の一実施形態にかかる動画ファイルの再生方法について説明する。なお、以下においては、再生装置200で動画ファイルを再生する方法について述べる。   FIG. 19 is an explanatory diagram illustrating a moving image file playback method according to an embodiment of the present invention. Hereinafter, a method for reproducing a moving image file according to an embodiment of the present invention will be described with reference to FIG. In the following, a method for reproducing a moving image file with the reproducing apparatus 200 will be described.

まず、再生情報解析部204で、頭出ししたいf0番目のフレームの再生情報ファイル上の番地を求める(ステップS102)。再生情報ファイルは16バイトを1つの集まりとしているため、頭出ししたいフレームのフレーム番号f0が分かれば、再生情報ファイル上の番地を求めることができる。そして、ステップS102で求めた番地から記録されている、頭出ししたいフレームの再生情報を読み込む。   First, the reproduction information analysis unit 204 obtains the address on the reproduction information file of the f0th frame to be searched (step S102). Since the reproduction information file is a collection of 16 bytes, if the frame number f0 of the frame to be searched is known, the address on the reproduction information file can be obtained. Then, the reproduction information of the frame to be cued recorded from the address obtained in step S102 is read.

続いて、再生情報解析部204で、再生情報に含まれるピクチャタイプを読み込む(ステップS104)。ピクチャタイプには、Iピクチャ(Intra Picture)、Bピクチャ(Bidirectionally Predictive Picture)、Pピクチャ(Predictive Picture)の3種類がある。   Subsequently, the reproduction information analysis unit 204 reads the picture type included in the reproduction information (step S104). There are three types of picture types: an I picture (Intra Picture), a B picture (Bidirectionally Predictive Picture), and a P picture (Predictive Picture).

Iピクチャは、当該フレーム内の画面を全て符号化することによって得られる画面であり、GOPにおける基準となるピクチャである。Pピクチャは、画面間の順方向予測によって得られる画面である。そしてBピクチャは、順方向予測および/または逆方向予測、すなわち双方向予測によって得られる画面である。   The I picture is a screen obtained by encoding all the screens in the frame, and is a reference picture in the GOP. A P picture is a screen obtained by forward prediction between screens. The B picture is a screen obtained by forward prediction and / or backward prediction, that is, bidirectional prediction.

またBピクチャには、フレームの前後の予測をともに行わない符号化(イントラ符号化)、過去の再生画面から予測する順方向予測符号化(Forward予測符号化)、未来から予測される逆方向予測符号化(Backward予測符号化)、前後両方を予測に使用する双方向予測符号化(Interpolative予測符号化)の4種類に分類することができる。   In addition, for B pictures, encoding that does not perform prediction before and after a frame (intra encoding), forward prediction encoding that predicts from a previous playback screen (forward prediction encoding), and backward prediction that is predicted from the future It can be classified into four types of encoding (Backward predictive encoding) and bidirectional predictive encoding (Interpolative predictive encoding) in which both the front and rear are used for prediction.

再生情報解析部204は、ステップS104でピクチャタイプを読み取ると、読み取ったピクチャタイプに応じてデコードするフレームを決定する。読み取ったピクチャタイプがIピクチャか、BピクチャでClosed B0かClosed B1であれば、フレーム番号f0+1、f0+2のピクチャタイプを読み込む(ステップS110)。一方、ピクチャタイプがこれ以外の場合には、ピクチャタイプがIピクチャであるフレームになるまで、フレームを遡って再生情報を読み出す(ステップS106)。   When the reproduction information analysis unit 204 reads the picture type in step S104, the reproduction information analysis unit 204 determines a frame to be decoded according to the read picture type. If the read picture type is an I picture, or a B picture and Closed B0 or Closed B1, the picture types of frame numbers f0 + 1 and f0 + 2 are read (step S110). On the other hand, when the picture type is other than this, reproduction information is read back by going back to the frame until the picture type is a frame of I picture (step S106).

ここで、Closed B0とは当該フレームのピクチャタイプがBピクチャにおける逆方向予測符号化を行うフレームであり、次のフレームのピクチャタイプがIピクチャであることを示す。また、Closed B1とは当該フレームおよび次のフレームのピクチャタイプがBピクチャにおける逆方向予測符号化を行うフレームであり、2つ次のフレームのピクチャタイプがIピクチャであることを示す。   Here, Closed B0 is a frame in which the picture type of the current frame is reverse predictive coding in a B picture, and the picture type of the next frame is an I picture. Closed B1 is a frame in which the picture type of the current frame and the next frame is subjected to backward predictive coding in a B picture, and the picture type of the second frame is an I picture.

ピクチャタイプがIピクチャであるフレームまで遡ると、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS108)。   When going back to a frame whose picture type is an I picture, the reproduction information of the frame is read, and based on the read reproduction information, image data is sent from the moving image file to the decoding unit 206 for decoding (step S108).

デコード部206がステップS108でデコードを行うと、再生情報解析部204で、当該フレームからf0番目のフレームまで再生情報のピクチャタイプを読み込みながらフレームを下る。フレームを下る際に、ピクチャタイプがPピクチャであるフレームが現れたら、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う。   When the decoding unit 206 performs decoding in step S108, the reproduction information analysis unit 204 moves down the frame while reading the picture type of the reproduction information from the frame to the f0th frame. When a frame with a picture type of P picture appears when going down the frame, the reproduction information of the frame is read, and based on the read reproduction information, image data is sent from the moving image file to the decoding unit 206 for decoding.

f0番目のフレームに到達すると、続けて、再生情報解析部204でフレーム番号f0+1、f0+2のピクチャタイプを読み込む(ステップS110)。当該フレームのピクチャタイプがIピクチャかPピクチャであれば、当該フレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う。   When the f0th frame is reached, the reproduction information analysis unit 204 reads the picture types of frame numbers f0 + 1 and f0 + 2 (step S110). If the picture type of the frame is an I picture or a P picture, the playback information of the frame is read, and based on the read playback information, image data from the moving image file is sent to the decoding unit 206 for decoding.

続いて、所望のf0番目のフレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS112)。   Subsequently, the reproduction information of the desired f0th frame is read, and based on the read reproduction information, image data is sent from the moving image file to the decoding unit 206 to be decoded (step S112).

その後は、offsV[]の値が小さい順、つまり動画ファイルにおける画像データの絶対アドレスの小さい順に動画ファイルから画像データをデコード部206に送ってデコードを行う(ステップS114)。   After that, the image data is sent from the moving image file to the decoding unit 206 in order from the smallest value of offsV [], that is, in ascending order of the absolute address of the image data in the moving image file to perform decoding (step S114).

一方音声データは、所望のf0番目のフレームの再生情報を読み込み、読み込んだ再生情報に基づいて、動画ファイルから音声データをデコード部206に送ってデコードする。映像と音声との同期は、f0番目のフレームの再生情報に記録されている同期情報(delA[f0])を読み込んで、デコード部206でのデコード結果に反映させることによって行う。   On the other hand, the audio data is read from the reproduction information of the desired f0th frame, and the audio data is sent from the moving image file to the decoding unit 206 and decoded based on the read reproduction information. Video and audio are synchronized by reading the synchronization information (delA [f0]) recorded in the reproduction information of the f0th frame and reflecting it in the decoding result of the decoding unit 206.

以上のように、再生情報ファイルから再生情報を読み込むことで、所望のフレームからの動画ファイルの再生を行うことができる。また、再生情報ファイルには映像と音声とを同期する音声同期情報が記録されているので、動画ファイルを再生する際に再生情報ファイルから再生情報を読み込むことで、映像と音声とを同期して再生することが可能となる。   As described above, by reading the reproduction information from the reproduction information file, it is possible to reproduce the moving image file from the desired frame. Also, since the audio information that synchronizes the video and audio is recorded in the playback information file, the video and audio are synchronized by reading the playback information from the playback information file when playing a video file. It can be played back.

以上、本発明の一実施形態にかかる動画ファイルの再生方法について説明した。   In the foregoing, the method for reproducing a moving image file according to an embodiment of the present invention has been described.

以上説明したように本発明の一実施形態によれば、記録再生装置100で動画像を動画ファイルとして記録する際に、当該動画像の再生情報が含まれる再生情報ファイルを併せて作成する。そして、記録再生装置100で記録された動画ファイルを再生する際には、当該動画ファイルに含まれる再生に関する情報ではなく、記録再生装置100で作成された再生情報ファイルを参照しながら再生する。再生情報ファイルを参照しながら再生することで、記録再生装置100と異なる規格でデコードを行う再生装置であっても再生が可能となる。   As described above, according to an embodiment of the present invention, when a moving image is recorded as a moving image file by the recording / reproducing apparatus 100, a reproduction information file including reproduction information of the moving image is also created. When the moving image file recorded by the recording / reproducing apparatus 100 is reproduced, the reproduction is performed while referring to the reproduction information file created by the recording / reproducing apparatus 100 instead of the information related to reproduction included in the moving image file. By reproducing while referring to the reproduction information file, reproduction is possible even with a reproduction apparatus that performs decoding according to a different standard from the recording / reproduction apparatus 100.

再生情報ファイルを生成することで、動画ファイルの再生以外にも様々な処理が可能となる。以下ではそれらの処理の一例を示す。   By generating the reproduction information file, various processes can be performed in addition to the reproduction of the moving image file. Below, an example of those processes is shown.

(処理例1.サルベージ)
記録再生装置100の録画時に併せて生成される再生情報に基づいて、録画時に記録再生装置100が電池切れ等の原因で電源が切断した等により録画が正常に終了しなかった場合に、生成された再生情報に含まれる各フレームの情報から、動画ファイルの復旧を行うことができる。
(Processing Example 1. Salvage)
Based on the playback information generated together with recording by the recording / reproducing apparatus 100, the recording / reproducing apparatus 100 is generated when the recording does not end normally due to the power being cut off due to a battery exhaustion or the like during recording. The moving image file can be restored from the information of each frame included in the reproduced information.

(処理例2.分割)
記録再生装置100で動画ファイルを生成する際に併せて生成される再生情報ファイルを用いることで、動画ファイルの分割を行うことができる。再生情報ファイルによって分割点を割り出し、次に再生情報ファイル自体を分割する。分割した再生情報ファイルに従って動画ファイルのストリーム部分を分割し部分複製する。その後、分割したそれぞれの動画ファイルに対して記録終了処理を行うことで、2つの動画ファイルが完成する。
(Processing example 2. Division)
By using a reproduction information file that is also generated when the recording / playback apparatus 100 generates a moving image file, the moving image file can be divided. The division point is determined by the reproduction information file, and then the reproduction information file itself is divided. The stream portion of the moving image file is divided and partially duplicated according to the divided reproduction information file. Thereafter, a recording end process is performed on each of the divided moving image files to complete two moving image files.

なお、分割する際には、場合によっては表示する必要が無いフレームもデコードする必要があるため、その場合には所定の長さの重複部分を設けて分割することになる。その際、再生情報ファイルも所定の長さの重複部分を設けて分割することで、動画ファイルの分割が可能となる。   When dividing, it is necessary to decode a frame that does not need to be displayed depending on the case. In that case, an overlapping portion having a predetermined length is provided and divided. At this time, the reproduction information file is also divided by providing an overlap portion having a predetermined length, so that the moving image file can be divided.

(処理例3.動画ファイルからの再生情報ファイルの作成)
再生情報ファイルを持たない動画ファイルが記録再生装置100に与えられた場合、各ラッパー方式で定めるインデックス情報を読み取って再生情報ファイルに変換することができる。変換して得られた再生情報ファイルを用いることで、通常再生や頭出し、さらには分割も、再生情報ファイルを有している動画ファイルと同様の処理で実現することができる。
(Processing example 3. Creation of reproduction information file from moving image file)
When a moving image file having no reproduction information file is given to the recording / reproducing apparatus 100, index information determined by each wrapper method can be read and converted into a reproduction information file. By using the reproduction information file obtained by conversion, normal reproduction, cueing, and further division can be realized by the same processing as a moving image file having a reproduction information file.

以上説明したように、本発明の一実施形態によれば、動画ファイルを作成する際に再生情報ファイルを併せて作成する。再生情報ファイルには、動画ファイルの規格、動画ファイルの基本情報、各フレームのサイズやアドレス等の情報、映像と音声を同期するための同期情報を記録する。そして、動画ファイルを再生したり、編集したりする際には、当該動画ファイルに記録されたインデックス情報では無く、再生情報ファイルを参照することで、当該動画ファイルとは異なる規格によって再生や編集を容易に行うことが可能となる。その結果、異なる規格を扱うシステムであっても、再生情報ファイルを参照することでマルチフォーマットに対応するシステムを実現することができる。   As described above, according to an embodiment of the present invention, a reproduction information file is created together with a moving image file. In the reproduction information file, moving picture file standards, basic information of the moving picture file, information such as the size and address of each frame, and synchronization information for synchronizing video and audio are recorded. When playing or editing a movie file, the playback information file is referred to instead of the index information recorded in the movie file. It can be easily performed. As a result, even a system that handles different standards can realize a system that supports multiple formats by referring to the reproduction information file.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上記実施形態では、記録再生装置100で動画ファイルの作成と併せて再生情報ファイルを作成する際には、所定の間隔でDRAM111に再生情報を追加しながら記録し、録画が終了した場合にDRAM111に記録されている再生情報から再生情報ファイルを作成していたが、本発明はかかる例に限定されない。記録再生装置100で動画ファイルの作成と併せて再生情報ファイルを作成する際には、所定の間隔でDRAM111に再生情報ファイルの形式で作成し、所定の間隔で当該再生情報ファイルのオープンとクローズを繰り返して、再生情報を追加しながら作成してもよい。   For example, in the above embodiment, when the playback information file is created together with the creation of the moving image file by the recording / playback apparatus 100, the playback information is recorded while being added to the DRAM 111 at a predetermined interval, and the recording ends. Although the reproduction information file is created from the reproduction information recorded in the DRAM 111, the present invention is not limited to such an example. When the recording / playback apparatus 100 creates a playback information file together with the creation of a moving image file, it creates the playback information file in the DRAM 111 at a predetermined interval, and opens and closes the playback information file at a predetermined interval. It may be repeated while adding reproduction information.

本発明は、記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラムに適用可能である。   The present invention is applicable to a recording / reproducing apparatus, a recording apparatus, a reproducing apparatus, a recording method, a reproducing method, and a computer program.

100 記録再生装置
102 カメラ
104 マイク
106 映像・音声I/F部
108 エンコード・デコード部
110 再生情報生成部
111 DRAM
112 記録部
114 再生部
116 表示部
118 音声出力部
120 システム制御部
122 メモリ
124 ユーザインタフェース部
200 再生装置
202 記録部
204 再生情報解析部
206 デコード部
208 再生部
210 表示部
212 音声出力部
214 システム制御部
216 メモリ
218 ユーザインタフェース部
300 再生装置
302 記録部
304 切換部
DESCRIPTION OF SYMBOLS 100 Recording / reproducing apparatus 102 Camera 104 Microphone 106 Video | audio / I / F part 108 Encoding / decoding part 110 Reproduction | regeneration information generation part 111 DRAM
112 Recording unit 114 Playback unit 116 Display unit 118 Audio output unit 120 System control unit 122 Memory 124 User interface unit 200 Playback device 202 Recording unit 204 Playback information analysis unit 206 Decoding unit 208 Playback unit 210 Display unit 212 Audio output unit 214 System control Unit 216 memory 218 user interface unit 300 playback device 302 recording unit 304 switching unit

Claims (8)

動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録部と、記録された動画像および音声を前記再生情報に基づいて再生する再生部と、を備える記録再生装置であって:
前記再生情報記録部は、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録再生装置。
An imaging unit that captures a moving image, an audio recording unit that records audio, a reproduction information recording unit that records reproduction information related to reproduction of the moving image and the audio at the time of recording the moving image and audio, and a recording A recording / playback apparatus comprising: a playback unit that plays back the moving image and sound based on the playback information:
The reproduction information recording unit records the moving image, the audio, and the reproduction information at the same time, records video basic information and audio basic information in a header of the reproduction information, and records the reproduction information as a moving image. A recording / reproducing apparatus, wherein audio synchronization information for synchronizing an image and audio is recorded in parallel with the reproduction information for each chunk of audio data.
前記再生部は、音声データのチャンク毎に記録された前記音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、請求項1に記載の記録再生装置。   The recording / reproducing apparatus according to claim 1, wherein the reproduction unit reproduces the moving image and the audio in synchronization based on the audio synchronization information recorded for each chunk of audio data. 動画像を撮影する撮像部と、音声を記録する音声記録部と、動画像および音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録部と、を備える記録装置であって:
前記再生情報記録部は、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録装置。
An imaging unit that captures a moving image, an audio recording unit that records audio, and a reproduction information recording unit that records reproduction information related to reproduction of the moving image and the audio at the time of recording the moving image and audio. Recording device:
The reproduction information recording unit records the moving image, the audio, and the reproduction information at the same time, records video basic information and audio basic information in a header of the reproduction information, and moves the moving image when recording the reproduction information. A recording apparatus for recording audio synchronization information for synchronizing an image and audio in parallel with the reproduction information for each chunk of audio data.
動画像および音声を再生する際に、前記動画像および前記音声を記録する際に併せて同時に記録され、ヘッダには映像基本情報及び音声基本情報が記録され、再生に関する再生情報に基づいて再生する再生部を備える再生装置であって:
前記再生部は、前記再生情報に含まれる、音声データのチャンク毎に記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、再生装置。
When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A playback device comprising a playback unit:
The reproduction unit synchronizes the moving image and the audio based on audio synchronization information for synchronizing the moving image and the audio recorded for each chunk of audio data included in the reproduction information. A playback device characterized by playing back.
動画像を撮影する撮像ステップと;
音声を記録する音声記録ステップと;
前記撮像ステップで撮像する動画像および前記音声記録ステップで記録する音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録ステップと;
を含む記録方法であって、
前記再生情報記録ステップは、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、記録方法。
An imaging step for capturing a moving image;
An audio recording step for recording audio;
A reproduction information recording step for recording the reproduction information relating to reproduction of the moving image and the sound at the time of recording the moving image picked up in the imaging step and the sound recorded in the sound recording step;
A recording method including:
In the reproduction information recording step, the moving image, the audio, and the reproduction information are simultaneously recorded, video basic information and audio basic information are recorded in a header of the reproduction information, and a moving image is recorded when the reproduction information is recorded. A recording method, wherein audio synchronization information for synchronizing an image and audio is recorded in parallel with the reproduction information for each chunk of audio data.
動画像および音声を再生する際に、前記動画像および前記音声を記録する際に併せて同時に記録され、ヘッダには映像基本情報及び音声基本情報が記録され、再生に関する再生情報に基づいて再生する再生ステップを含む再生方法であって:
前記再生ステップは、前記再生情報に含まれる、音声データのチャンク毎に前記再生情報と並行して記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、再生方法。
When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A playback method that includes a playback step:
The reproduction step includes the moving image based on audio synchronization information for synchronizing the audio and the moving image recorded in parallel with the reproduction information for each chunk of audio data included in the reproduction information. And the audio are reproduced in synchronization with each other.
動画像を撮影する撮像ステップと;
音声を記録する音声記録ステップと;
前記撮像ステップで撮像する動画像および前記音声記録ステップで記録する音声の記録時に、前記動画像および前記音声の再生に関する再生情報を併せて記録する再生情報記録ステップと;
を含む処理をコンピュータに実行させるコンピュータプログラムであって、
前記再生情報記録ステップは、前記動画像および前記音声と前記再生情報とを同時に記録し、前記再生情報のヘッダには映像基本情報及び音声基本情報を記録し、前記再生情報を記録する際に動画像と音声との同期を行うための音声同期情報を音声データのチャンク毎に前記再生情報と並行して記録することを特徴とする、コンピュータプログラム。
An imaging step for capturing a moving image;
An audio recording step for recording audio;
A reproduction information recording step for recording the reproduction information relating to reproduction of the moving image and the sound at the time of recording the moving image picked up in the imaging step and the sound recorded in the sound recording step;
A computer program for causing a computer to execute a process including:
In the reproduction information recording step, the moving image, the audio, and the reproduction information are simultaneously recorded, video basic information and audio basic information are recorded in a header of the reproduction information, and a moving image is recorded when the reproduction information is recorded. A computer program for recording audio synchronization information for synchronizing an image and audio in parallel with the reproduction information for each chunk of audio data.
動画像および音声を再生する際に、前記動画像および前記音声を記録する際に併せて同時に記録され、ヘッダには映像基本情報及び音声基本情報が記録され、再生に関する再生情報に基づいて再生する再生ステップを含む処理をコンピュータに実行させるコンピュータプログラムであって、
前記再生ステップは、前記再生情報に含まれる、音声データのチャンク毎に前記再生情報と並行して記録された前記動画像と前記音声との同期を行うための音声同期情報に基づいて前記動画像と前記音声とを同期して再生することを特徴とする、コンピュータプログラム。
When playing back a moving image and audio, the video and audio are recorded at the same time, and video basic information and audio basic information are recorded in the header, and are played back based on playback information related to playback. A computer program that causes a computer to execute processing including a playback step,
The reproduction step includes the moving image based on audio synchronization information for synchronizing the audio and the moving image recorded in parallel with the reproduction information for each chunk of audio data included in the reproduction information. And a computer program for reproducing the sound in synchronization with each other.
JP2009266308A 2009-11-24 2009-11-24 Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program Expired - Fee Related JP4725675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009266308A JP4725675B2 (en) 2009-11-24 2009-11-24 Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266308A JP4725675B2 (en) 2009-11-24 2009-11-24 Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007177363A Division JP4450021B2 (en) 2007-07-05 2007-07-05 Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program

Publications (2)

Publication Number Publication Date
JP2010045862A true JP2010045862A (en) 2010-02-25
JP4725675B2 JP4725675B2 (en) 2011-07-13

Family

ID=42016754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266308A Expired - Fee Related JP4725675B2 (en) 2009-11-24 2009-11-24 Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program

Country Status (1)

Country Link
JP (1) JP4725675B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084972A (en) * 2010-10-07 2012-04-26 Ntt Electornics Corp Mxf processing unit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075424A (en) * 1996-08-29 1998-03-17 Sony Corp Recording/reproduction device for compressed image data and compressed audio data, recording medium and transmission system
JPH10210409A (en) * 1997-01-16 1998-08-07 Sony Corp Image and voice recorder, and image and voice recorder and reproducer using semiconductor memory
JPH11355722A (en) * 1998-06-11 1999-12-24 Sharp Corp Multiplexing method and multiplexer for high efficiency coded data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075424A (en) * 1996-08-29 1998-03-17 Sony Corp Recording/reproduction device for compressed image data and compressed audio data, recording medium and transmission system
JPH10210409A (en) * 1997-01-16 1998-08-07 Sony Corp Image and voice recorder, and image and voice recorder and reproducer using semiconductor memory
JPH11355722A (en) * 1998-06-11 1999-12-24 Sharp Corp Multiplexing method and multiplexer for high efficiency coded data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084972A (en) * 2010-10-07 2012-04-26 Ntt Electornics Corp Mxf processing unit

Also Published As

Publication number Publication date
JP4725675B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
JP4450021B2 (en) Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program
JP4904914B2 (en) STREAM GENERATION DEVICE, IMAGING DEVICE, AND STREAM GENERATION METHOD
JP3900050B2 (en) Data processing apparatus, video camera, and data processing method
KR20050111722A (en) Recording method, recording device, recording medium, reproduction method, reproduction device, and image pickup device
JP4775208B2 (en) REPRODUCTION METHOD, REPRODUCTION PROGRAM, AND REPRODUCTION DEVICE
US20180012618A1 (en) Image processing apparatus, image pickup device, image processing method, and program
US8018502B2 (en) Image recording device, image reproducing device, recording medium, and image recording method for capturing images at different frames rates and generating timestamps for presentation
US7650061B2 (en) Information recording apparatus, information reproducing apparatus, and related computer programs
US7650062B2 (en) Information recording apparatus, information reproducing apparatus, and related computer programs
JP4725675B2 (en) Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program
US20130287361A1 (en) Methods for storage and access of video data while recording
US20070122113A1 (en) Information reproducing apparatus and information reproducing method
JP5803814B2 (en) Recording apparatus and recording control method
JP5811037B2 (en) Recording apparatus and recording control method
JP4169002B2 (en) Audio format conversion apparatus and encoding apparatus
JP2004186905A (en) Imaging device
JP2008219921A (en) Recording apparatus, recording method, image pickup apparatus, and image pickup method
JP2007259029A (en) Video signal recording device, recording medium, and video signal reproducing device
JP2006129338A (en) Video recording and reproducing apparatus and recording medium
JP2005286829A (en) Video signal recording regenerating system
JP2005011453A (en) Digital information recorder
JP2008005198A (en) Device and method for reproducing multiple av streams
JP2007074468A (en) Recorder and method, and program
JP2006349976A (en) Voice format converter
JP2010258785A (en) Multiplexed stream data reproducing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

R151 Written notification of patent or utility model registration

Ref document number: 4725675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees