JP2015012544A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2015012544A
JP2015012544A JP2013138347A JP2013138347A JP2015012544A JP 2015012544 A JP2015012544 A JP 2015012544A JP 2013138347 A JP2013138347 A JP 2013138347A JP 2013138347 A JP2013138347 A JP 2013138347A JP 2015012544 A JP2015012544 A JP 2015012544A
Authority
JP
Japan
Prior art keywords
moving image
image data
recording
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013138347A
Other languages
Japanese (ja)
Other versions
JP2015012544A5 (en
Inventor
昭雄 藤井
Akio Fujii
昭雄 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013138347A priority Critical patent/JP2015012544A/en
Publication of JP2015012544A publication Critical patent/JP2015012544A/en
Publication of JP2015012544A5 publication Critical patent/JP2015012544A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To reproduce video images recording the situation where reproduction video images are appreciated, easily synchronously with recorded video images of persons appreciating the video images when viewing the reproduced video images later.SOLUTION: An image processing apparatus comprises: reproduction means for reproducing moving image data; output means for outputting the moving image data reproduced by the reproduction means to a display device; capture means for capturing moving image data; recording means for recording moving image data, and control means in which, when recording second moving image data by means of the recording means while reproducing first moving image data by means of the reproduction means, in the case where a plurality of frames in the second moving image data are captured by the capture means, respectively, additional information is generated for identifying a frame in the first moving image data being outputted to the display device and the recording means is controlled to record the additional information and the second moving image data together.

Description

本発明は画像処理装置及び画像処理方法に関し、特に、動画の再生中に動画を撮影し、記録するために用いて好適な技術に関するものである。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique suitable for use in shooting and recording a moving image during reproduction of the moving image.

従来、ダンス等のお手本となる映像を再生しながら、自分がそれに合わせて踊る映像をビデオカメラで撮影し、撮影映像をお手本の再生映像と合成して記録するシステムが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a system has been proposed in which a video that is used as a model for dancing or the like is played, a video that is danced in accordance with the video is shot with a video camera, and the shot video is combined with a playback video of the model and recorded (for example, Patent Document 1).

特開2010−279012号公報JP 2010-279012 A

しかしながら、従来例では、再生された動画と、撮影した動画とを合成して記録しているので、再生画像と撮影画像が重なってしまい、見にくくなってしまうという問題がある。
そこで、撮影した動画を再生した動画とは別に記録しておき、後でこれらを同期して再生することも考えられる。
However, in the conventional example, since the reproduced moving image and the photographed moving image are combined and recorded, there is a problem that the reproduced image and the photographed image are overlapped and are difficult to see.
Therefore, it is also conceivable to record the captured moving image separately from the reproduced moving image and to reproduce these in synchronization later.

しかし、お手本の動画などを再生している際に、早送り、巻き戻しなどを行った場合、後で、このお手本の動画と撮影した動画とを簡単に同期して再生させることができないという問題がある。
本発明は前述の問題点に鑑み、再生映像を鑑賞する様子を記録した映像を後で視聴する場合に、再生された映像と鑑賞している人たちの記録映像とを簡単に同期して再生できるようにすることを目的とする。
However, if you fast-forward or rewind while playing a model video, you may not be able to easily synchronize the sample video and the video you shot later. is there.
In view of the above-mentioned problems, the present invention easily reproduces the reproduced video and the recorded video of the viewers when the video recorded to view the reproduced video is viewed later. The purpose is to be able to.

本発明の画像処理装置は、動画データを再生する再生手段と、前記再生手段により再生された動画データを表示装置に出力する出力手段と、動画データを取得する取得手段と、動画データを記録する記録手段と、前記再生手段により第1の動画データを再生しながら、前記記録手段により第2の動画データを記録する場合に、前記第2の動画データにおける複数のフレームについて、前記複数のフレームがそれぞれ前記取得手段により取得されたときに、前記表示装置に出力されていた前記第1の動画データにおけるフレームを識別するための付加情報を生成し、前記付加情報を前記第2の動画データと共に記録するように前記記録手段を制御する制御手段とを備える。   An image processing apparatus according to the present invention records a moving image data, a reproducing unit that reproduces the moving image data, an output unit that outputs the moving image data reproduced by the reproducing unit to a display device, an acquisition unit that acquires the moving image data, and the moving image data. When the second moving image data is recorded by the recording unit while the first moving image data is reproduced by the recording unit and the reproducing unit, the plurality of frames are included in the plurality of frames in the second moving image data. Generating additional information for identifying a frame in the first moving image data that has been output to the display device when acquired by the acquiring means, and recording the additional information together with the second moving image data Control means for controlling the recording means.

本発明によれば、媒体に既に記録されている映像1データを再生して表示手段に表示する。そして、映像1を視聴している人を撮影して映像2データとして記録する場合、映像2の記録データ内に、映像1を再生した時の映像1と2の固有の情報と、再生したフレームと撮影したフレームの対応情報及び再生モードを記録するようにした。このことで、映像2を再生して、さらにそれに対応する映像1を再生し、映像2に撮影されている人が、映像1を特殊再生していた場合でも、映像1のどういう表示シーンを見て反応しているかを忠実に再現できるようになった。
また、本発明の他の特徴によれば、映像2に対して映像1は別の記録データ(別のファイル)としたので、映像2と映像1の二つの映像再生時、表示の仕方の自由度を高めることができる。
According to the present invention, the video 1 data already recorded on the medium is reproduced and displayed on the display means. When a person who views the video 1 is photographed and recorded as video 2 data, the information specific to the video 1 and 2 when the video 1 is reproduced and the reproduced frame are recorded in the video 2 recording data. Corresponding information and playback mode of recorded frames were recorded. As a result, the video 2 is played back, and the video 1 corresponding to the video 2 is played back. Even if the person photographed in the video 2 plays the video 1 specially, what kind of display scene of the video 1 is viewed. Can be faithfully reproduced.
Further, according to another feature of the present invention, video 1 is set as different recorded data (separate file) with respect to video 2, so that the display method is free when two videos of video 2 and video 1 are reproduced. The degree can be increased.

本発明の第1の実施形態を示し、撮像装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment of the present invention. 第1の実施形態の撮像装置の動作手順を説明するフローチャートである。3 is a flowchart illustrating an operation procedure of the imaging apparatus according to the first embodiment. 第1の実施形態を示し、データの記録形式について説明するための図である。It is a figure for showing a 1st embodiment and explaining a data recording format. 第1の実施形態を示し、データの記録形式について説明するための図である。It is a figure for showing a 1st embodiment and explaining a data recording format. 第1の実施形態を示し、データの記録形式について説明するための図である。It is a figure for showing a 1st embodiment and explaining a data recording format. 付加データの記録形式について説明するための図である。It is a figure for demonstrating the recording format of additional data. 付加データの記録形式について説明するための図である。It is a figure for demonstrating the recording format of additional data. 本発明の第2の実施形態を示し、撮像装置の構成例を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of this invention and shows the structural example of an imaging device. 第2の実施形態の撮像装置の動作手順を説明するフローチャートである。It is a flowchart explaining the operation | movement procedure of the imaging device of 2nd Embodiment. 第2の実施形態の付加データ記録形式について説明するための図である。It is a figure for demonstrating the additional data recording format of 2nd Embodiment. 実施形態を説明する再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reproducing | regenerating apparatus explaining embodiment.

(第1の実施形態)
本発明の画像処理装置の第1の実施形態について図1を用いて説明する。図1は、本発明の実施形態を説明する撮像装置100の構成例を示すブロック図である。
図1の101は撮像回路であり、被写体を撮影して動画データを出力する。カメラ信号処理回路102は撮像回路101から送られた動画データにホワイトバランス、γ処理、色分離等のカメラ信号処理を施してバス119を介してメモリ104に書き込む。
(First embodiment)
A first embodiment of the image processing apparatus of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus 100 illustrating an embodiment of the present invention.
Reference numeral 101 in FIG. 1 denotes an imaging circuit that captures a subject and outputs moving image data. The camera signal processing circuit 102 performs camera signal processing such as white balance, γ processing, and color separation on the moving image data sent from the imaging circuit 101, and writes it to the memory 104 via the bus 119.

メモリ104は、記録時においては、撮影された動画データや符号化された動画データ等を記憶する。また、メモリ104は、再生時においては、再生された動画データ、音声データなどを記憶するための記憶メモリとしても用いられる。
符号化回路103は、メモリ104に記憶された動画データを読み出し、MPEG-2やMPEG-4、AVC/H.264等の符号化方式を用いて符号化し、メモリ104に記憶する。
At the time of recording, the memory 104 stores captured moving image data, encoded moving image data, and the like. The memory 104 is also used as a storage memory for storing reproduced moving image data, audio data, and the like during reproduction.
The encoding circuit 103 reads the moving image data stored in the memory 104, encodes it using an encoding method such as MPEG-2, MPEG-4, AVC / H.264, and stores the encoded data in the memory 104.

オーディオ入力回路113は、不図示のマイクから入力されたオーディオ信号をAD変換し、ディジタル化されたオーディオデータに対してレベル変換、ノイズ除去等の信号処理を施し、メモリ104に取り込む。または、外部入力されたオーディオデータをメモリ104に取り込む。   The audio input circuit 113 performs AD conversion on an audio signal input from a microphone (not shown), performs signal processing such as level conversion and noise removal on the digitized audio data, and fetches it into the memory 104. Alternatively, externally input audio data is taken into the memory 104.

オーディオ符号化回路114は、メモリ104に取り込まれたオーディオデータを必要に応じて符号化し、メモリ104に記憶する。
記録情報生成回路105は、後述のように、記録媒体120からの動画の再生中に、撮像回路101により撮影した動画を記録する場合に、付加情報を生成する。
記録回路106は、メモリ104に符号化データ、オーディオ符号化データ、およびヘッダ情報が所定量蓄積されたらスイッチ107を端子a側にして、記録媒体120に動画と音声のストリームを記録する。
The audio encoding circuit 114 encodes the audio data captured in the memory 104 as necessary, and stores the encoded audio data in the memory 104.
As will be described later, the recording information generation circuit 105 generates additional information when a moving image shot by the imaging circuit 101 is recorded during reproduction of a moving image from the recording medium 120.
When a predetermined amount of encoded data, audio encoded data, and header information is stored in the memory 104, the recording circuit 106 sets the switch 107 to the terminal a side and records moving image and audio streams on the recording medium 120.

本実施形態では、動画データと音声データを、例えばQuickTime(登録商標)をベースとしたファイル形式により記録する。
QuickTimeファイルフォーマットは、図3の(a)に示すように、atomと呼ぶ基本単位で構成されている。atomは自身のサイズ(バイト数)を示すsizeフィールド301a、atomの種類を4個の文字列により識別するtypeフィールド302a、及びatomの実際のデータを格納するdataフィールド303aから構成される。
In this embodiment, moving image data and audio data are recorded in a file format based on, for example, QuickTime (registered trademark).
As shown in FIG. 3A, the QuickTime file format is composed of basic units called atoms. The atom is composed of a size field 301a indicating its size (number of bytes), a type field 302a for identifying the type of atom by four character strings, and a data field 303a for storing actual data of atom.

1つのメタデータと1つのメディアデータから構成される映像データのファイル構成例を図3(b)に示す。ここでメタデータとは、メディアデータをデコードし、再生するために必要な情報のことである。
図3(b)において、File Type Box(ftyp)311bは、ファイルタイプ(QuickTime、MP4等)を示す情報を格納する。Movie Box(moov)312bは、メタデータ全体を格納するatomである。また、Media Data Box(mdat)313bは、メディアデータ全体を格納するatomである。
FIG. 3B shows a file configuration example of video data composed of one metadata and one media data. Here, the metadata is information necessary for decoding and reproducing the media data.
In FIG. 3B, a File Type Box (ftyp) 311b stores information indicating a file type (QuickTime, MP4, etc.). Movie Box (moov) 312b is an atom that stores the entire metadata. The Media Data Box (mdat) 313b is an atom that stores the entire media data.

図3(c)は、mdat内部の構成を示す図である。mdat内部は「チャンク(chunk)」と呼ばれるデータ単位の連続で構成される。図3(c)ではオーディオチャンク(1)AC1、映像チャンク(1)VC1、オーディオチャンク(2)AC2、映像チャンク(2)VC2、・・・という順序で、異なるメディア形式のチャンクが交互に配置された構成の例を示している。さらに、個々のチャンクは、同じメディアの種類の「サンプル(sample)」の連続として複数のサンプルが構成される。   FIG. 3C is a diagram showing an internal configuration of mdat. The inside of mdat is composed of a series of data units called “chunks”. In Fig. 3 (c), chunks of different media formats are alternately arranged in the order of audio chunk (1) AC1, video chunk (1) VC1, audio chunk (2) AC2, video chunk (2) VC2, ... An example of the configured configuration is shown. Further, each chunk is composed of a plurality of samples as a series of “samples” of the same media type.

ここでサンプルとは、分割可能な最小符号化データ単位であり、映像やオーディオデータの1フレームに相当するデータ単位を表す。図3(c)では、映像チャンク(1)VC1は、映像サンプル(1)VS1から映像サンプル(V1)VSV1までの連続として複数のサンプルが構成された例を示している。同様にオーディオチャンク(1)AC1は、オーディオサンプル(1)AS1からオーディオサンプル(A1)ASA1までの連続として複数のサンプルが構成された例を示している。   Here, a sample is a minimum encoded data unit that can be divided, and represents a data unit corresponding to one frame of video or audio data. FIG. 3C shows an example in which the video chunk (1) VC1 is composed of a plurality of samples as a series from the video sample (1) VS1 to the video sample (V1) VSV1. Similarly, the audio chunk (1) AC1 shows an example in which a plurality of samples are configured as a series from the audio sample (1) AS1 to the audio sample (A1) ASA1.

図4にMovie Box(moov)atom内の構成を示す。Moov312bは、ヘッダ情報をMovie Header (mvhd) atom401aとTrack(trak)atom402a、403aから構成される。ここでtrakとは、ファイルのシーンを構成する各メディアに関する情報を格納するatomである。   FIG. 4 shows the configuration in the Movie Box (moov) atom. The Moov 312b is made up of Movie Header (mvhd) atom 401a and Track (trak) atoms 402a and 403a. Here, trak is an atom that stores information about each medium constituting the scene of the file.

図4では、映像データのTrack(trak)402aと、オーディオデータのtrak403aから構成される例を示している。
図4に示すように、各trak内には多数のatomが形成されている(オーディオtrakの内部構成は映像と同様なので省略する)。
以下では、各trakに含まれるSample To Chunk(stsc)atom404a、Sample Size(stsz)atom405a、およびChunk Offset(stco) atom406aの機能を簡単に説明する。ユーザーデータudta407aは、図7を参照しながら後述する。
FIG. 4 shows an example composed of Track (trak) 402a of video data and trak 403a of audio data.
As shown in FIG. 4, a large number of atoms are formed in each trak (the internal structure of the audio trak is the same as that of the video and is omitted).
Hereinafter, functions of Sample To Chunk (stsc) atom 404a, Sample Size (stsz) atom 405a, and Chunk Offset (stco) atom 406a included in each trak will be briefly described. The user data udta 407a will be described later with reference to FIG.

図5(a)に示すstsc404aは、各メディアの各チャンクに含まれるサンプル情報(サンプル数、およびサンプル記述番号)を格納するatomであり、mdat内の所望のデータをアクセスする時に用いられる。stsc404aは前述したtrak(402a、403a)にそれぞれ一つだけ存在する。   The stsc 404a shown in FIG. 5A is an atom that stores sample information (number of samples and sample description number) included in each chunk of each medium, and is used when accessing desired data in the mdat. Only one stsc 404a exists in each of the aforementioned trak (402a, 403a).

図5(b)に示すstsz405aは、各メディアの各サンプルのサイズ(バイト数)情報を格納するatomであり、mdat内の所望のデータをアクセスする時に用いられる。stsz405aは前述したtrak(402a、403a)にそれぞれ一つだけ存在する。   The stsz 405a shown in FIG. 5B is an atom that stores size (number of bytes) information of each sample of each medium, and is used when accessing desired data in the mdat. Only one stsz 405a exists in each of the above-described trak (402a, 403a).

図5(c)に示すstco406aは、各メディアの各チャンクのファイルオフセット値を格納するatomであり、前述したtrak(402a、403a)にそれぞれ一つだけ存在する。
stco406aには、前述した映像チャンクの総数(図5(c)では、映像チャンクの総数を仮にMとする)CT1、及びM個の映像チャンクの先頭オフセット値(CF1〜CFM)が格納されている。
The stco 406a shown in FIG. 5C is an atom that stores the file offset value of each chunk of each medium, and only one exists in each of the above-described trak (402a, 403a).
The stco 406a stores the total number of video chunks described above (in FIG. 5C, the total number of video chunks is assumed to be M) CT1, and the head offset values (CF1 to CFM) of M video chunks. .

ここで、チャンクの先頭オフセット値とは、チャンクを構成するサンプルのうち、先頭サンプルの先頭バイトへのオフセット値を意味する。すなわち、前述した映像チャンクの先頭オフセット値(CF1〜CFM)とは、図3(c)で述べた映像チャンク(VC1、VC2、...)の先頭サンプル(VS1、VSV1+1、...)の先頭バイトへのオフセット値である。   Here, the head offset value of the chunk means an offset value to the head byte of the head sample among samples constituting the chunk. That is, the start offset values (CF1 to CFM) of the video chunk described above are the start samples (VS1, VSV1 + 1,...) Of the video chunk (VC1, VC2,...) Described in FIG. ) Is the offset value to the first byte.

前述したstsc 404a、stsz 405a、及びstco 406aに格納される情報を用いて、ファイル中のメディアの任意のサンプルの位置とサイズ情報を取得することができる。
すなわち、サンプル番号によりあるサンプルが指定された場合、まず前述したstsz405a内の情報により、指定サンプルのサイズを知ることができる。次に、前述したstsc 404aにより、指定サンプルが何番目のチャンクに属するかを知ることができる。
Using the information stored in the aforementioned stsc 404a, stsz 405a, and stco 406a, the position and size information of any sample of media in the file can be obtained.
That is, when a certain sample is designated by the sample number, first, the size of the designated sample can be known from the information in the stsz 405a. Next, it is possible to know what number chunk the specified sample belongs to by the above-described stsc 404a.

そして、stsz 405aにより、指定サンプルの属するチャンク内の、先頭サンプルから指定サンプルの直前までのサイズSを知ることができる。そして、stco 406aにより、指定サンプルの属するチャンクの先頭位置Tが取得できる。前述した先頭位置Tと、前述した先頭位置Tから指定サンプル直前までのサイズSとを足すことにより、指定サンプルの先頭位置を取得することができる。   The stsz 405a makes it possible to know the size S from the first sample to immediately before the designated sample in the chunk to which the designated sample belongs. Then, the start position T of the chunk to which the designated sample belongs can be acquired by stco 406a. By adding the above-described leading position T and the above-described size S from the leading position T to immediately before the designated sample, the leading position of the designated sample can be acquired.

前述したように、各trak(402a、403a)内のstsz、stsc、及びstcoを解析することで、任意のサンプルのファイル上における位置とサイズが取得でき、任意のサンプルデータをファイルから読み出すことが可能となる。   As described above, by analyzing stsz, stsc, and stco in each trak (402a, 403a), the position and size of an arbitrary sample on the file can be acquired, and arbitrary sample data can be read from the file. It becomes possible.

再生回路108は、スイッチ107の端子bを選択して、記録媒体120に記録された符号化データ(ここでは、QuickTimeベースのファイルフォーマットを用いて記録されている)を読み出してメモリ104に記憶する。本実施形態の再生回路108は、通常再生速度とは異なる再生速度で動画データを再生可能である。
再生情報抽出回路109は、メモリ104に記憶された符号化データの再生情報(ftyp、moov atom)を読み出し、解析する。
The reproduction circuit 108 selects the terminal b of the switch 107, reads out the encoded data recorded in the recording medium 120 (here, recorded using the QuickTime-based file format), and stores it in the memory 104. . The playback circuit 108 of the present embodiment can play back moving image data at a playback speed different from the normal playback speed.
The reproduction information extraction circuit 109 reads and analyzes the reproduction information (ftyp, moov atom) of the encoded data stored in the memory 104.

復号化回路110は、メモリ104に記憶された符号化データを復号し、復号したデータをメモリ104に記憶する。
オーディオ復号化回路115は、メモリ104に記憶されたオーディオデータが符号化されている場合は復号化してメモリ104に復号化したオーディオデータを記憶する。
The decoding circuit 110 decodes the encoded data stored in the memory 104 and stores the decoded data in the memory 104.
When the audio data stored in the memory 104 is encoded, the audio decoding circuit 115 stores the decoded audio data in the memory 104 after decoding.

表示情報抽出回路111は、表示回路112を介して表示される動画データのフレーム情報、及び再生モードを抽出する。
表示回路112は、復号化回路110で復号された動画データを不図示の表示装置に送出する。
The display information extraction circuit 111 extracts frame information and playback mode of moving image data displayed via the display circuit 112.
The display circuit 112 sends the moving image data decoded by the decoding circuit 110 to a display device (not shown).

オーディオ出力回路116は、メモリ104に記憶されたオーディオデータを不図示のスピーカー等に出力する。
制御回路117はCPU等を有し、撮像装置100の各部を制御する。操作入力回路118は各種のスイッチやボタンなどの操作部材を備え、ユーザーの操作信号を制御回路に送出する。
The audio output circuit 116 outputs the audio data stored in the memory 104 to a speaker (not shown) or the like.
The control circuit 117 includes a CPU and the like, and controls each unit of the imaging device 100. The operation input circuit 118 includes operation members such as various switches and buttons, and sends out user operation signals to the control circuit.

前述のように構成された本実施形態の撮像装置100は、通常の記録モード、再生モードを持つ。また、撮像装置100は、記録媒体120から動画データを再生しながら、撮像回路101による撮影を行い、動画データや音声データを記録する同時記録モードを持つ。   The imaging apparatus 100 of the present embodiment configured as described above has a normal recording mode and a reproduction mode. In addition, the imaging apparatus 100 has a simultaneous recording mode in which the imaging circuit 101 performs shooting while reproducing moving image data from the recording medium 120 and records moving image data and audio data.

ユーザーが操作入力回路118を操作して、通常記録モードを設定した場合、制御回路117はユーザーによる記録指示を待つ。記録開始が指示されると、制御回路117は各部を制御し、前述のように、撮影された動画データと、音声データの記録を開始する。また、記録停止の指示があった場合、制御回路117は、動画と音声の記録を停止する。   When the user operates the operation input circuit 118 to set the normal recording mode, the control circuit 117 waits for a recording instruction from the user. When the start of recording is instructed, the control circuit 117 controls each unit and starts recording the captured moving image data and audio data as described above. Further, when there is an instruction to stop recording, the control circuit 117 stops the recording of the moving image and the sound.

ユーザーが操作入力回路118を操作して、通常再生速度で再生する通常再生モードを設定する再生モード指定をした場合、制御回路117はユーザーによる再生指示を待つ。ユーザーが記録媒体120に記録された動画から、再生する動画を指定して再生開始を指示した場合、制御回路117は、各部を制御して、記録媒体120から指定された動画の再生を開始する。また、再生停止の指示があった場合、制御回路117は、動画の再生を停止する。   When the user operates the operation input circuit 118 and designates a reproduction mode for setting a normal reproduction mode for reproduction at a normal reproduction speed, the control circuit 117 waits for a reproduction instruction from the user. When the user designates a moving image to be reproduced from the moving images recorded on the recording medium 120 and gives an instruction to start reproduction, the control circuit 117 controls each unit to start reproducing the moving image designated from the recording medium 120. . When there is an instruction to stop playback, the control circuit 117 stops playback of the moving image.

次に、同時記録モードについて説明する。
同時記録モードでは、前述のように、記録媒体120に記録された動画を再生しながら、撮像回路101により撮影した動画を記録する。以下、同時記録モードにおいて再生される動画と音声を映像1とし、同時に記録される動画と音声を映像2として説明する。
Next, the simultaneous recording mode will be described.
In the simultaneous recording mode, as described above, the moving image recorded by the imaging circuit 101 is recorded while reproducing the moving image recorded on the recording medium 120. In the following description, it is assumed that the moving image and audio reproduced in the simultaneous recording mode are video 1 and the moving image and audio simultaneously recorded are video 2.

ユーザーが操作入力回路118を操作して、同時記録モードを設定した場合、制御回路117は、映像1として再生する動画を選択する指示を促す情報を表示回路112に表示する。ユーザーは操作入力回路118を操作して、記録媒体120に記録された動画ファイルから、映像1として再生する動画ファイルを選択する。ユーザーにより映像1として再生する動画ファイルが選択され、再生開始が指示されると、同時記録が開始される。   When the user operates the operation input circuit 118 to set the simultaneous recording mode, the control circuit 117 displays information prompting an instruction to select a moving image to be reproduced as the video 1 on the display circuit 112. The user operates the operation input circuit 118 to select a moving image file to be reproduced as the video 1 from the moving image files recorded on the recording medium 120. When the user selects a moving image file to be played back as video 1, and starts playback, simultaneous recording is started.

図2は、同時記録モードにおける撮像装置100の処理を示すフローチャートである。図2の処理は、制御回路117が各部を制御することにより実行される。
まず、S201において、制御回路117は撮像回路101、カメラ信号処理回路102、オーディオ入力回路113を制御し、撮影を開始する。カメラ信号処理回路102は撮影された映像2の動画データを処理し、メモリ104に記憶する。
FIG. 2 is a flowchart illustrating processing of the imaging apparatus 100 in the simultaneous recording mode. The processing in FIG. 2 is executed by the control circuit 117 controlling each unit.
First, in S201, the control circuit 117 controls the imaging circuit 101, the camera signal processing circuit 102, and the audio input circuit 113, and starts photographing. The camera signal processing circuit 102 processes the moving image data of the captured video 2 and stores it in the memory 104.

S202において、制御回路117は再生回路108を介して記録媒体120から映像1の符号化データを読み出し、メモリ104に記憶する。再生情報抽出回路109はメモリ104に記憶された映像1の符号化データ(映像1データ)から、符号化データの再生情報(fytp、moov、trak atom)を抽出する。また映像1のファイル名、撮影日時、ファイルサイズあるいは符号化されたデータサイズも取得する。   In S <b> 202, the control circuit 117 reads the encoded data of the video 1 from the recording medium 120 via the reproduction circuit 108 and stores it in the memory 104. The reproduction information extraction circuit 109 extracts reproduction information (fytp, moov, trak atom) of the encoded data from the encoded data of the video 1 (video 1 data) stored in the memory 104. Also, the file name, shooting date / time, file size or encoded data size of video 1 is acquired.

S203において、制御回路117は再生モードを検出する。ここでは、早送り、スロー、再生停止の指示を検出する。
S204において、制御回路117はS203で検出した再生モードが変化したか否かを観測する。ここでは、操作者が映像1を選択して再生したところなので、通常再生モードのままであるので、noが選択され、S207に進む。
In S203, the control circuit 117 detects the reproduction mode. Here, instructions for fast forward, slow, and playback stop are detected.
In S204, the control circuit 117 observes whether or not the reproduction mode detected in S203 has changed. Here, since the operator has selected and played back video 1, the normal playback mode is maintained, so no is selected, and the process proceeds to S207.

S207で、制御回路117は再生情報抽出回路109に通常再生の指示をし、再生情報抽出回路109は映像1ファイル内の映像とオーディオの符号化データの先頭の位置を計算して取得し、制御回路117に通知する。   In step S207, the control circuit 117 instructs the reproduction information extraction circuit 109 to perform normal reproduction, and the reproduction information extraction circuit 109 calculates and acquires the position of the beginning of the encoded video and audio data in the video 1 file, and performs control. Notify the circuit 117.

S208において、制御回路117は映像1の符号化データの先頭の符号化データがメモリ104に記憶されている場合はメモリ104から、記憶されていない場合は記録媒体120から映像1の符号化データを読み出し、メモリ104に記憶する。   In S208, the control circuit 117 obtains the encoded data of video 1 from the memory 104 if the encoded data at the beginning of the encoded data of video 1 is stored in the memory 104, and from the recording medium 120 otherwise. Read and store in memory 104.

S209において、復号化回路110、オーディオ復号化回路115はメモリ104に記憶された映像1の符号化データを読み出し、復号し、復号化した映像1の画像データ、オーディオデータをメモリ104に記憶する。
S210において、制御回路117はメモリ104に記憶された復号化した映像1の画像データ、オーディオデータが操作者に表示できるタイミングか否かを判断する。まだ表示できない場合はS203に戻る。
In step S209, the decoding circuit 110 and the audio decoding circuit 115 read and decode the encoded data of the video 1 stored in the memory 104, and store the decoded image data and audio data of the video 1 in the memory 104.
In step S <b> 210, the control circuit 117 determines whether the image data and audio data of the decoded video 1 stored in the memory 104 can be displayed to the operator. If it cannot be displayed yet, the process returns to S203.

表示できると判断した場合はS211に進み、映像1の画像データを表示回路112を介して表示するとともに、通常再生の場合はオーディオデータをオーディオ出力回路116を介して再生する。   If it is determined that it can be displayed, the process proceeds to S211 to display the image data of the video 1 via the display circuit 112, and the audio data is reproduced via the audio output circuit 116 in the case of normal reproduction.

S212で制御回路117は、表示された映像1のフレーム番号m0を、再生情報抽出回路109で抽出した再生情報(trak atom内の映像チャンクとそのサンプル情報)から計算して算出する。さらに、フレームを復号した時の再生モードfw1(今は通常再生)を取得する再生モード取得処理を行う。   In S212, the control circuit 117 calculates and calculates the frame number m0 of the displayed video 1 from the playback information (the video chunk in the trak atom and its sample information) extracted by the playback information extraction circuit 109. Further, a playback mode acquisition process is performed to acquire the playback mode fw1 (now normal playback) when the frame is decoded.

次に、S213で映像1のフレーム番号m0を表示した時間に撮像回路101で撮像した映像2の画像フレームを取得する。
次に、S214で制御回路117は、S213で取得した映像2の画像フレームのフレーム番号1を生成する。
そしてS215では、S213で取得した映像2の画像フレームの映像2データを符号化回路103で符号化し、メモリ104に記憶する。また、オーディオ符号化回路114で符号化する画像フレームと同期する位置からオーディオデータの符号化を開始し、符号化したオーディオデータをメモリ104に記憶していく。
Next, an image frame of video 2 captured by the imaging circuit 101 at the time when the frame number m0 of video 1 is displayed in S213 is acquired.
Next, in S214, the control circuit 117 generates the frame number 1 of the image frame of the video 2 acquired in S213.
In step S215, the video 2 data of the video frame of video 2 acquired in step S213 is encoded by the encoding circuit 103 and stored in the memory 104. Also, encoding of audio data is started from a position synchronized with an image frame encoded by the audio encoding circuit 114, and the encoded audio data is stored in the memory 104.

次に、S216で制御回路117は、S212で取得した映像1のフレーム番号m0、および再生モードfw1と、S214で取得した映像2のフレーム番号1を対応付けして図6に示すように、記録用付加データを生成する。すなわち、映像2のフレーム番号:1、映像1のフレーム番号:m0、映像1の再生モード:通常再生(fw1)のように、映像2データのフレーム画像と、映像1のフレーム画像との対応付けを行う。また、S202で取得した映像1のファイル名、撮影日時、ファイルサイズあるいは符号化されたデータサイズも記録用付加データとして生成する。   Next, in S216, the control circuit 117 associates the frame number m0 of the video 1 acquired in S212 and the playback mode fw1 with the frame number 1 of the video 2 acquired in S214, as shown in FIG. Generate additional data. That is, associating the frame image of video 2 with the frame image of video 1 as in frame number 1 of video 2, frame number of video 1: m0, and playback mode of video 1: normal playback (fw1). I do. In addition, the file name, shooting date and time, file size, or encoded data size of the video 1 acquired in S202 is also generated as additional data for recording.

例えば、図7(a)に示すように、ユーザーデータudta atomを用意し、udta atom内のユーザー1 atomとして、映像1のファイル名、撮影日時、ファイルサイズあるいは符号化されたデータサイズを用意する。これは、映像2の記録後、映像2を再生する際に、対応する映像1が存在するか、または編集などされて変更されていないかなどをチェックするために使用する。   For example, as shown in FIG. 7A, user data udta atom is prepared, and the file name, shooting date, file size, or encoded data size of video 1 is prepared as user 1 atom in udta atom. . This is used to check whether or not the corresponding video 1 exists or has been edited and changed when the video 2 is reproduced after the video 2 is recorded.

S217で制御回路117は、記録媒体120に記録するかどうかを判断する。映像2の画像、オーディオの符号化データがメモリ104に所定量記憶されたと判断するとyesが選択され、S218に進む。   In step S217, the control circuit 117 determines whether to record on the recording medium 120. If it is determined that a predetermined amount of the image 2 and audio encoded data of the video 2 is stored in the memory 104, yes is selected, and the process proceeds to S218.

S218では、図3(c)に示すようにmdat atomとして、符号化された映像、オーディオデータを、記録回路106を介して記録媒体120に記録開始する。そして、記録後にS203に戻る。
S217でまだ所定量に達していないと判断された場合は、S203に戻る。
S203では、操作入力回路118から入力される操作情報から、再び再生モードを検出し、S204に進む。
In S218, as shown in FIG. 3C, recording of the encoded video and audio data to the recording medium 120 via the recording circuit 106 is started as an mdat atom. Then, after recording, the process returns to S203.
If it is determined in S217 that the predetermined amount has not yet been reached, the process returns to S203.
In S203, the reproduction mode is detected again from the operation information input from the operation input circuit 118, and the process proceeds to S204.

S204で、前回と再生モードに変化があったか否かを判断する再生モード検出を行う。再生モードに変化がなければS207に進み、前回と同じ通常再生として、次のフレームのファイル内でのデコード位置を計算する。
通常再生(fw1)であれば、映像1はフレーム番号m0に続いて、m0+1、m0+2、m0+3、・・・、と再生される。そして、S216の付加データ生成処理で、図6に示すように、映像2のフレーム番号2、3、4、・・・、と対応付けされて記録用付加データとして、映像2の各フレームを撮影順に番号付けして追加していく。そして、映像2の各フレームに対応付けられる映像1のフレームは、映像1の先頭フレームからのオフセット番号で指定される。
In S204, reproduction mode detection is performed to determine whether or not there has been a change in the previous and reproduction modes. If there is no change in the playback mode, the process proceeds to S207, and the decoding position in the file of the next frame is calculated as the same normal playback as the previous time.
For normal playback (fw1), video 1 is played back as frame number m0 followed by m0 + 1, m0 + 2, m0 + 3,. Then, in the additional data generation process of S216, as shown in FIG. 6, each frame of video 2 is captured as additional data for recording in association with frame numbers 2, 3, 4,. Number them in order and add them. The frame of video 1 associated with each frame of video 2 is designated by an offset number from the first frame of video 1.

S204の再生モード検出で再生モードに変化があったと判断した場合はS205に進む。
S205では、再生モードが映像1の再生停止になったかどうかを判断する。再生停止でなければ、S206に進む。
S206では、変化した映像1の再生モードに応じて次のファイル内のデコード位置を計算する。例えば、映像1がフレーム番号m0+n0-1まで再生されて、次に順方向に6倍速再生(fw6)が要求されたとする。この場合、制御回路117はフレーム番号m0+n0+6の映像1のファイル内の画像データ位置を再生情報抽出回路109にある再生情報(trak atom内の情報)から再度計算する。そして、映像1のファイル内の画像データ位置を再度取得して復号化回路110に供給する。
If it is determined in S204 that the playback mode has been changed, the process proceeds to S205.
In S205, it is determined whether or not the playback mode is the playback stop of the video 1. If the reproduction is not stopped, the process proceeds to S206.
In S206, the decoding position in the next file is calculated according to the changed playback mode of the video 1. For example, suppose that video 1 is played up to frame number m0 + n0-1, and then 6x playback (fw6) is requested in the forward direction. In this case, the control circuit 117 recalculates the image data position in the video 1 file of frame number m0 + n0 + 6 from the reproduction information (information in the trak atom) in the reproduction information extraction circuit 109. Then, the image data position in the video 1 file is obtained again and supplied to the decoding circuit 110.

この場合、S216で生成される付加データは、図6に示すように、映像2のフレーム番号n0、n0+1、n0+2、n0+3、・・・に対し、映像1のフレーム番号はm0+n0-1、m0+n0+6、m0+n0+12、m0+n0+18、・・・となる。これにより、再生モードは順方向6倍速再生(fw6)となる。   In this case, as shown in FIG. 6, the additional data generated in S216 is the frame number of video 1 with respect to frame numbers n0, n0 + 1, n0 + 2, n0 + 3,. m0 + n0-1, m0 + n0 + 6, m0 + n0 + 12, m0 + n0 + 18, and so on. As a result, the playback mode is forward 6 × speed playback (fw6).

操作者が例えば、映像1のフレーム番号m1まで再生した時点で逆再生(例えば−3倍速)した場合を説明する。この場合は、先に説明したのと同様にして、S216で生成される付加データは図6に示すようになる。すなわち、映像2のフレーム番号n1、n1+1、n1+2、n1+3、・・・、に対して、映像1のフレーム番号はm1、m1-3、m1-6、m1-9、・・・、となる。再生モードは、再生方向が逆方向−3倍速(rw3)である。   For example, a case will be described in which the operator performs reverse reproduction (for example, −3 times speed) at the time of reproduction up to frame number m1 of video 1. In this case, as described above, the additional data generated in S216 is as shown in FIG. That is, for frame number n1, n1 + 1, n1 + 2, n1 + 3,... Of image 2, the frame numbers of image 1 are m1, m1-3, m1-6, m1-9,.・ ・. In the playback mode, the playback direction is the reverse direction—3 × speed (rw3).

図6では、その後通常再生に戻り(n2、n2+1、・・・、m2、m2+1、・・・)、映像1のフレーム番号m4から順方向スロー再生(+1/4倍速)になる。この場合、映像2のフレーム番号n3に対して映像1のフレーム番号m4とすると、映像2のn3+1〜n3+4に対してm4+1、映像2のn3+5〜n3+8に対して映像1のフレーム番号はm4+2となる。再生モードは順方向1/4倍速(fsl 1/4)である。   In FIG. 6, normal playback is then resumed (n2, n2 + 1,..., M2, m2 + 1,...), And forward slow playback (+ 1/4 × speed) starts from frame number m4 of video 1. . In this case, if the frame number m4 of image 1 is set to the frame number n3 of image 2, m4 + 1 is applied to n3 + 1 to n3 + 4 of image 2, and n3 + 5 to n3 + 8 of image 2 is applied. Thus, the frame number of video 1 is m4 + 2. Playback mode is forward 1 / 4x (fsl 1/4).

スロー再生では、映像2の異なるフレーム番号に対して、映像1のフレーム番号が同一になる。このため、映像2と伴に対応する映像1を再生する場合、対応するフレーム番号のみ見ていたのでは、それがポーズ、あるいはスキップ再生状態なのか、それともスロー再生なのか区別がつかない。そこで、映像2を記録する時の映像1の再生モードからスロー再生であることを知ることにより、記録時と同じ再生状態を再現できる。
その後、図6では、映像1のフレーム番号m4+10で通常再生に戻っている。
In slow playback, the frame number of video 1 is the same for different frame numbers of video 2. For this reason, when the video 1 corresponding to the video 2 is played back, if only the corresponding frame number is viewed, it cannot be distinguished whether it is a pause, skip playback state, or slow playback. Therefore, knowing that the playback mode is slow playback from the playback mode of video 1 when recording video 2, the same playback state as when recording can be reproduced.
Thereafter, in FIG. 6, the normal playback is resumed at the frame number m4 + 10 of the video 1.

制御回路117は、S204で再生モードの変化を検出し、S205で映像1の再生停止を検出した場合、映像2の記録を終了する。その場合、図4映像2のmoov atomに対して、映像trak内に図7(a)に示すユーザーデータ udta atom を生成して記録する。   When the control circuit 117 detects a change in the playback mode in S204 and detects the stop of playback of the video 1 in S205, the control circuit 117 ends the recording of the video 2. In that case, the user data udta atom shown in FIG. 7A is generated and recorded in the video trak for the moov atom of the video 2 in FIG.

ユーザーデータ(udta atom)情報は、図7(a)に示すように、映像2の:ファイル名、撮影日時、ファイルサイズ(乃至は符号化データサイズ)。対応する映像1の:ファイル名、撮影日時、ファイルサイズ(乃至は符号化データサイズ)をユーザー1情報とし(ユーザー1 atom)である。そして、図6に示す記録された映像2に対応する映像1の再生情報をユーザー2情報(ユーザー2 atom)として記録する。   The user data (udta atom) information includes, as shown in FIG. 7A, video 2: file name, shooting date and time, and file size (or encoded data size). Corresponding video 1: file name, shooting date and time, and file size (or encoded data size) are user 1 information (user 1 atom). Then, the reproduction information of the video 1 corresponding to the recorded video 2 shown in FIG. 6 is recorded as user 2 information (user 2 atom).

次に、同時記録モードで映像2として記録された動画データを、記録時に再生されていた映像1の動画と同期して再生する再生装置について説明する。
図11は、再生装置の構成例を示すブロック図である。なお、図11の構成を、図1の撮像装置に含まれるように構成することも可能である。
Next, a playback device that plays back moving image data recorded as video 2 in the simultaneous recording mode in synchronization with the moving image of video 1 that was being played back at the time of recording will be described.
FIG. 11 is a block diagram illustrating a configuration example of a playback device. Note that the configuration shown in FIG. 11 can be configured to be included in the imaging apparatus shown in FIG.

記録媒体120に記録された映像2のファイルは再生回路1101を介して再生され、メモリ1103に記憶される。再生情報抽出回路1102は、メモリ1103に記憶された映像2の再生データから再生情報(ftyp、moov atom)を抽出する。
再生情報抽出回路1102で抽出された再生情報から、制御回路1111はユーザ付加情報(udta atom)を探す。
The video 2 file recorded on the recording medium 120 is reproduced via the reproduction circuit 1101 and stored in the memory 1103. The reproduction information extraction circuit 1102 extracts reproduction information (ftyp, moov atom) from the reproduction data of the video 2 stored in the memory 1103.
From the reproduction information extracted by the reproduction information extraction circuit 1102, the control circuit 1111 searches for user additional information (udta atom).

ここで、第1の実施形態で記録されたファイルの場合は、図7(a)に示すユーザ付加情報があるので、この情報を読み込む。そして、対応する映像1のファイルが記録媒体120に記録されているか否かを(ファイル名から)確認する。
映像1のファイルが記録されていない場合は表示回路1108または1109によりその旨を通知し、映像2のストリームだけを再生するようにする。
Here, in the case of the file recorded in the first embodiment, since there is user additional information shown in FIG. 7A, this information is read. Then, it is confirmed (from the file name) whether or not the corresponding video 1 file is recorded on the recording medium 120.
If the video 1 file is not recorded, the display circuit 1108 or 1109 notifies the fact and only the video 2 stream is reproduced.

映像1のファイルが記録媒体120に記録されている場合は、次に映像1のファイルサイズ(あるいは符号化データのサイズ)が、映像2が記録された時から変わっていないか比較する。これは、ファイルシステムに登録されているファイルサイズと比較することでわかる。符号化のデータサイズが記録されている場合は、映像1のファイルを記録媒体120から読み込み、moov atom内のtrak 情報から符号化データのサイズを計算して比較する。   When the file of video 1 is recorded on the recording medium 120, it is compared whether the file size of video 1 (or the size of the encoded data) has not changed since the video 2 was recorded. This can be understood by comparing with the file size registered in the file system. When the encoded data size is recorded, the video 1 file is read from the recording medium 120, and the encoded data size is calculated from the trak information in the moov atom and compared.

ここで、サイズが一致しない場合は、映像1が編集等をされて、映像2の記録時とは変わってしまっているので、やはり映像2のみを再生するようにする。
サイズが一致する場合は、映像1のファイルも再生回路1101を介してメモリ1103に読み込み、再生情報(moov atom)を取得する。
Here, if the sizes do not match, the video 1 has been edited or the like and has changed from when the video 2 was recorded, so that only the video 2 is reproduced.
If the sizes match, the video 1 file is also read into the memory 1103 via the playback circuit 1101 to obtain playback information (moov atom).

制御回路1111は、映像2のmoov atomに記録されているユーザ付加情報(図6のテーブル情報)を抽出する。そして、映像2の再生に従って、映像2の画像フレームと、対応している映像1の画像フレームを記録媒体120から再生回路を介してメモリ1103に読み出す。   The control circuit 1111 extracts user additional information (table information in FIG. 6) recorded in the moov atom of the video 2. Then, in accordance with the reproduction of the video 2, the image frame of the video 2 and the corresponding image frame of the video 1 are read from the recording medium 120 to the memory 1103 via the reproduction circuit.

メモリ1103に読み出された映像2の画像データは、復号化回路1(1104)で、映像1の画像データは復号化回路2(1105)で復号化し、復号化した映像1、2のフレームをメモリ1103に記憶する。オーディオデータは、映像2のオーディオデータが読み出され、オーディオ復号化回路1106で復号化し、メモリ1103に記憶される。
復号化された映像2の画像データ、オーディオデータ、映像1の画像データがメモリ1103に所定量蓄積されると、制御回路1111は再生を開始する。
The image data of video 2 read to the memory 1103 is decoded by the decoding circuit 1 (1104), the image data of video 1 is decoded by the decoding circuit 2 (1105), and the decoded frames of the video 1 and 2 are obtained. Store in the memory 1103. As the audio data, the audio data of the video 2 is read, decoded by the audio decoding circuit 1106, and stored in the memory 1103.
When the decoded image data of video 2, audio data, and video data of video 1 are stored in a predetermined amount in the memory 1103, the control circuit 1111 starts reproduction.

ここで、再生の仕方は視聴者が選択できるので、視聴者は操作入力回路1112を介して、再生の仕方を指示する。例えば、一つの表示装置にミックス(映像1、映像2のミックスのさせ方も選べる)させて表示させることを選択しているとする。この場合は、制御回路1111はメモリ1103に記憶された復号された映像1と映像2の画像データをミックス回路1107でミックスして表示回路1(1108)を介して不図示の表示装置に表示する。また、メモリ1103に記憶された復号されたオーディオデータはオーディオ出力回路1110を介して出力される。視聴者が映像1と映像2を別々の表示装置に表示する指定をした場合は、制御回路1111は映像1、映像2の画像データをそれぞれ表示回路1(1108)、表示回路2(1109)に出力する。   Here, since the viewer can select the playback method, the viewer instructs the playback method via the operation input circuit 1112. For example, it is assumed that the display is selected to be mixed (displayed by selecting how to mix video 1 and video 2) on one display device. In this case, the control circuit 1111 mixes the decoded image data of the video 1 and video 2 stored in the memory 1103 by the mixing circuit 1107 and displays them on a display device (not shown) via the display circuit 1 (1108). . The decoded audio data stored in the memory 1103 is output via the audio output circuit 1110. When the viewer designates to display video 1 and video 2 on separate display devices, the control circuit 1111 sends the image data of video 1 and video 2 to the display circuit 1 (1108) and the display circuit 2 (1109), respectively. Output.

前述したように、映像2の再生に対して、映像1の各フレームが対応付けられているので、映像2の記録時と全く同じ映像1の再生を行なうことができる。また、映像1の再生モードも記録されているので、通常再生速度で再生する通常再生のみならずスロー再生、早送り再生、コマ送り再生等も再現して再生できる。さらに、映像2を特殊再生した場合でもそれに付随して映像1を復号して再生できる。   As described above, since each frame of video 1 is associated with playback of video 2, playback of video 1 that is exactly the same as when video 2 was recorded can be performed. Also, since the playback mode of video 1 is recorded, not only normal playback that plays back at the normal playback speed but also slow playback, fast forward playback, frame advance playback, etc. can be reproduced and played back. Further, even when the video 2 is specially reproduced, the video 1 can be decoded and reproduced.

本実施形態では前述したように、記録媒体に既に記録されている映像1を再生し、視聴している人を撮影して映像2として記録する場合。このような場合、映像2の記録データ内に映像1を再生した時の映像1と映像2の固有の情報(ファイル名、撮影日時、ファイルサイズ、あるいは符号化データサイズ等)と、再生したフレームと撮影したフレームの対応情報及び再生モードを記録するようにした。これにより、映像2の記録中に再生されている映像1の再生速度に関する情報を生成することができる。したがって、映像2を再生して、さらにそれに対応する映像1を再生し、映像2に撮影されている人が、映像1を特殊再生していた場合でも、映像1のどういう表示シーンを見て反応しているかを忠実に再現できるようになった。   In the present embodiment, as described above, the case where the video 1 already recorded on the recording medium is reproduced, the person being viewed is photographed and recorded as the video 2 is recorded. In such a case, the unique information (file name, shooting date / time, file size, encoded data size, etc.) of video 1 and video 2 when video 1 is played back in the recorded data of video 2 and the played frame Corresponding information and playback mode of recorded frames were recorded. As a result, it is possible to generate information related to the playback speed of the video 1 being played back during the recording of the video 2. Therefore, even when the video 2 is played back, and the video 1 corresponding to the video 2 is played back, and the person photographed in the video 2 is playing back the video 1 specially, what kind of display scene of the video 1 is seen and reacted You can now faithfully reproduce what you are doing.

また、映像2に対して映像1は別の記録データ(別のファイル)としてあるので、映像2と映像1の2つの映像再生時、表示の仕方の自由度が高まった。
また、映像1を再生した時の映像1と映像2の固有の情報(ファイル名、撮影日時、ファイルサイズ、あるいは符号化データサイズ等)が記録されている。これにより、映像2を再生する時に映像1が存在するか、または映像1、映像2が、映像2の記録時から変更(編集)されていないかを知ることができ、映像2の記録時の再現ができるかできないかを判断できる。
また、図6に示す再生したフレームと撮影したフレームの対応情報及び再生モード情報は、図7(b)に示すように変化点だけを保持するようにしてもよい。
In addition, since the video 1 is recorded as different recording data (separate file) with respect to the video 2, the degree of freedom of display is increased when the two videos of the video 2 and the video 1 are reproduced.
In addition, information unique to the video 1 and the video 2 when the video 1 is reproduced (file name, shooting date, file size, encoded data size, etc.) is recorded. Thereby, it is possible to know whether the video 1 exists when the video 2 is reproduced or whether the video 1 and the video 2 have been changed (edited) since the video 2 was recorded. It can be judged whether it can be reproduced or not.
Further, the correspondence information between the reproduced frame and the photographed frame and the reproduction mode information shown in FIG. 6 may hold only the change point as shown in FIG. 7B.

(第2の実施形態)
図8は、本発明の第2の実施形態を示し、撮像装置800の構成例を説明するブロック図である。図8において、第1の実施形態と同様の働きをするものは同じ符号が付してある。また、図9は撮像装置800の処理シーケンスを説明するためのフローチャートである。第1の実施形態と同じシーケンスの箇所は、図2のフローチャートのステップ番号と同じ符号が付してある。
(Second Embodiment)
FIG. 8 is a block diagram illustrating a configuration example of an imaging apparatus 800 according to the second embodiment of this invention. In FIG. 8, the same reference numerals are given to the same functions as those in the first embodiment. FIG. 9 is a flowchart for explaining the processing sequence of the imaging apparatus 800. The same sequence portions as those in the first embodiment are denoted by the same reference numerals as the step numbers in the flowchart of FIG.

以下、第1の実施形態と異なる箇所のみ説明する。
S211で映像1の画像データを表示すると、S901に進む。
S901では、表示された映像1の画像データを制御回路117は第2の符号化回路801において符号化し、メモリ104に記憶する。
Hereinafter, only different points from the first embodiment will be described.
When the image data of video 1 is displayed in S211, the process proceeds to S901.
In step S <b> 901, the control circuit 117 encodes the image data of the displayed video 1 in the second encoding circuit 801 and stores the encoded data in the memory 104.

次に、S213で、S211にて表示された映像1と同じタイミングで撮影された(撮像回路101で撮像された)映像2の画像データを取得し、S215にて画像データ、並びに付随するオーディオデータを符号化する。   Next, in S213, image data of video 2 (captured by the imaging circuit 101) captured at the same timing as video 1 displayed in S211 is acquired, and in S215, image data and accompanying audio data are acquired. Is encoded.

次に、S902に進み、付加データ、および再生情報を生成する。ここで、S901とS215で符号化された画像データが同一のフレーム番号となる(記録開始からのフレーム数が同一になる)ように再生情報を生成する。それは、図10(a)のtrak atom 1001a内のmdia atomに格納される。ここで、trak atom 1001aは映像2の再生情報である。再生され、表示された映像1の符号化データは映像3として符号化し、trak atom 1003aに映像3データの再生情報として記録される。trak atom 1002aはオーディオの符号化データの再生情報である。   In step S902, additional data and reproduction information are generated. Here, reproduction information is generated so that the image data encoded in S901 and S215 have the same frame number (the same number of frames from the start of recording). It is stored in the mdia atom in the trak atom 1001a in FIG. Here, trak atom 1001a is reproduction information of video 2. The encoded data of video 1 reproduced and displayed is encoded as video 3 and recorded in the trak atom 1003a as reproduction information of video 3 data. A trak atom 1002a is reproduction information of encoded audio data.

また、S902では、図10(b)に示すように、映像2のファイル名、撮影日時、符号化データサイズ(ないしはファイルサイズ)、および映像3の撮影日時(記録日時)、符号化データサイズ(ファイルサイズ)を付加データとして関連づけて生成する。そして、ユーザーデータとして、udta atom 1004a、1005aに記録する。   In S902, as shown in FIG. 10B, the file name, shooting date / time, encoded data size (or file size) of video 2, and shooting date / time (recording date / time) of video 3 and encoded data size ( File size) as additional data. And it records on udta atom 1004a and 1005a as user data.

以上、説明したように、本実施形態においては、記録媒体に既に記録されている映像1を再生し、視聴している人を撮影して映像2として記録する場合。このような場合、撮影される映像2の各フレームのタイミングで表示されている映像1のフレームを取り込んで符号化していき、映像3として映像2とともに記録するようにした。これにより、映像2の再生時、再生情報から同じフレーム番号の映像3を再生することで、映像2の記録時に視聴者が見ていた映像1の再生状態を再現できるようになった。   As described above, in the present embodiment, the video 1 that has already been recorded on the recording medium is reproduced, and the person being viewed is photographed and recorded as the video 2. In such a case, the frame of the video 1 displayed at the timing of each frame of the video 2 to be shot is captured and encoded, and the video 3 is recorded together with the video 2. As a result, when the video 2 is reproduced, the video 3 having the same frame number is reproduced from the reproduction information, so that the reproduction state of the video 1 viewed by the viewer when the video 2 is recorded can be reproduced.

また、視聴していた人が映像1を早送り、スロー等の特殊再生した場合も、その表示画像を映像3として記録しているので、視聴していた人が見ていた映像1の再生状態を完全に再現できるようになった。   In addition, when the viewer is fast-forwarding video 1 and performing special playback such as slow motion, the display image is recorded as video 3, so that the playback status of video 1 that the viewer was watching is displayed. It can be reproduced completely.

また、映像1の表示映像は、映像3として映像2に記録されているので、映像1が別の記録媒体等に移されたり、編集されたりしても映像2の記録時の視聴状態を再現できる。
また、映像2に対して映像3は別の記録映像データとしてあるので、映像2と映像3の2つの映像再生時、表示の仕方の自由度が高まった。
また、ここで映像3は映像2とは別ファイルとして記録しても同様の効果が得られる。
Since the display video of video 1 is recorded in video 2 as video 3, even if video 1 is moved to another recording medium or edited, the viewing state at the time of recording video 2 is reproduced. it can.
In addition, since the video 3 is recorded as different recorded video data with respect to the video 2, the degree of freedom in display is increased when the two videos, the video 2 and the video 3, are reproduced.
Here, even if the video 3 is recorded as a separate file from the video 2, the same effect can be obtained.

第2の実施形態で、映像1の表示データを映像3データとして符号化して、映像2のファイルに記録(あるいは別ファイルとして記録)した場合でも、映像2の再生情報と映像3の再生情報は一対一に対応付けられるので、前述と同様に再生できる。   In the second embodiment, even when the display data of video 1 is encoded as video 3 data and recorded in the file of video 2 (or as a separate file), the playback information of video 2 and the playback information of video 3 are Since it is associated one-to-one, it can be played back as described above.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

100 撮像装置
101 撮像回路
102 カメラ信号処理回路
103 符号化回路
104 メモリ
105 記録情報生成回路
106 記録回路
107 スイッチ
108 再生回路
109 再生情報抽出回路
110 復号化回路
111 表示情報抽出回路
112 表示回路
113 オーディオ入力回路
114 オーディオ符号化回路
115 オーディオ復号化回路
116 オーディオ出力回路
117 制御回路
118 操作入力回路
119 バス
120 記録媒体
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Imaging circuit 102 Camera signal processing circuit 103 Encoding circuit 104 Memory 105 Recording information generation circuit 106 Recording circuit 107 Switch 108 Playback circuit 109 Playback information extraction circuit 110 Decoding circuit 111 Display information extraction circuit 112 Display circuit 113 Audio input Circuit 114 audio encoding circuit 115 audio decoding circuit 116 audio output circuit 117 control circuit 118 operation input circuit 119 bus 120 recording medium

Claims (9)

動画データを再生する再生手段と、
前記再生手段により再生された動画データを表示装置に出力する出力手段と、
動画データを取得する取得手段と、
動画データを記録する記録手段と、
前記再生手段により第1の動画データを再生しながら、前記記録手段により第2の動画データを記録する場合に、前記第2の動画データにおける複数のフレームについて、前記複数のフレームがそれぞれ前記取得手段により取得されたときに、前記表示装置に出力されていた前記第1の動画データにおけるフレームを識別するための付加情報を生成し、前記付加情報を前記第2の動画データと共に記録するように前記記録手段を制御する制御手段とを備える画像処理装置。
Playback means for playing back video data;
Output means for outputting the moving image data reproduced by the reproducing means to a display device;
An acquisition means for acquiring video data;
Recording means for recording video data;
When the second moving image data is recorded by the recording unit while the first moving image data is reproduced by the reproducing unit, the plurality of frames of the plurality of frames in the second moving image data are respectively obtained by the acquiring unit. Generating additional information for identifying a frame in the first moving image data that has been output to the display device, and recording the additional information together with the second moving image data. An image processing apparatus comprising control means for controlling recording means.
前記制御手段は、前記第2の動画データを記録したときに再生されていた前記第1の動画データを識別するための情報を含む前記付加情報を生成することを特徴とする請求項1に記載の画像処理装置。   The said control means produces | generates the said additional information containing the information for identifying the said 1st moving image data reproduced when recording the said 2nd moving image data. Image processing apparatus. 前記再生手段は、通常再生速度とは異なる再生速度で動画データを再生可能であり、前記制御手段は、前記第2の動画データにおける複数のフレームについて、前記第2の動画データの記録中に再生されている前記第1の動画データの再生速度に関する情報を生成し、前記再生速度に関する情報を含む前記付加情報を記録するように前記記録手段を制御することを特徴とする請求項1に記載の画像処理装置。   The reproduction means can reproduce moving image data at a reproduction speed different from the normal reproduction speed, and the control means reproduces a plurality of frames in the second moving image data during recording of the second moving image data. 2. The recording apparatus according to claim 1, further comprising: generating information related to a reproduction speed of the first moving image data being recorded, and controlling the recording unit to record the additional information including the information related to the reproduction speed. Image processing device. 前記再生手段は、動画データの再生方向を順方向と逆方向とに変更することが可能であり、前記制御手段は、前記第2の動画データにおける複数のフレームについて、前記第2の動画データの記録中に再生されている前記第1の動画データの再生方向に関する情報を生成し、前記再生方向に関する情報を含む前記付加情報を記録するように前記記録手段を制御することを特徴とする請求項1に記載の画像処理装置。   The reproduction unit can change the reproduction direction of the moving image data between a forward direction and a reverse direction, and the control unit performs the second moving image data on a plurality of frames in the second moving image data. 2. The recording unit is controlled to generate information relating to a reproduction direction of the first moving image data being reproduced during recording, and to record the additional information including information relating to the reproduction direction. The image processing apparatus according to 1. 前記再生手段は、記録媒体から前記第1の動画データを再生し、前記記録手段は、前記記録媒体に前記第2の動画データを記録することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reproduction unit reproduces the first moving image data from a recording medium, and the recording unit records the second moving image data on the recording medium. . 前記制御手段は、前記再生手段による前記第1の動画データの再生開始に応じて前記第2の動画データの記録を開始し、前記第1の動画データの再生停止に応じて前記第2の動画データの記録を停止するように、前記記録手段を制御することを特徴とする請求項1に記載の画像処理装置。   The control means starts recording the second moving image data in response to the reproduction start of the first moving image data by the reproducing means, and the second moving image in response to the reproduction stop of the first moving image data. The image processing apparatus according to claim 1, wherein the recording unit is controlled to stop data recording. 動画データを再生する再生手段と、
前記再生手段により再生された動画データを表示装置に出力する出力手段と、
動画データを取得する取得手段と、
動画データを記録する記録手段と、
前記再生手段により第1の動画データを再生しながら、前記記録手段により第2の動画データを記録する場合に、前記第1の動画データを用いて第3の動画データを生成すると共に前記第3の動画データと前記第2の動画データとを関連づけるための付加情報を生成し、前記第3の動画データと前記付加情報とを前記第2の動画データと共に記録するように前記記録手段を制御する制御手段とを備える画像処理装置。
Playback means for playing back video data;
Output means for outputting the moving image data reproduced by the reproducing means to a display device;
An acquisition means for acquiring video data;
Recording means for recording video data;
When the second moving image data is recorded by the recording unit while the first moving image data is reproduced by the reproducing unit, the third moving image data is generated using the first moving image data and the third moving image data is generated. Additional information for associating the second moving image data with the second moving image data is generated, and the recording means is controlled to record the third moving image data and the additional information together with the second moving image data. An image processing apparatus comprising control means.
動画データを再生する再生工程と、
前記再生工程において再生された動画データを表示装置に出力する出力工程と、
動画データを取得する取得工程と、
動画データを記録する記録工程と、
前記再生工程において第1の動画データを再生しながら、前記記録工程において第2の動画データを記録する場合に、前記第2の動画データにおける複数のフレームについて、前記複数のフレームがそれぞれ前記取得工程において取得されたときに、前記表示装置に出力されていた前記第1の動画データにおけるフレームを識別するための付加情報を生成し、前記付加情報を前記第2の動画データと共に記録するように前記記録工程を制御する制御工程とを備える画像処理方法。
A playback process for playing back video data;
An output step of outputting the video data reproduced in the reproduction step to a display device;
An acquisition process for acquiring video data;
A recording process for recording video data;
When the second moving image data is recorded in the recording step while the first moving image data is reproduced in the reproducing step, the plurality of frames of the plurality of frames in the second moving image data are respectively obtained in the obtaining step. Generating additional information for identifying a frame in the first moving image data that has been output to the display device, and recording the additional information together with the second moving image data. An image processing method comprising: a control process for controlling a recording process.
動画データを再生する再生工程と、
前記再生工程において再生された動画データを表示装置に出力する出力工程と、
動画データを取得する取得工程と、
動画データを記録する記録工程と、
前記再生工程において第1の動画データを再生しながら、前記記録工程において第2の動画データを記録する場合に、前記第1の動画データを用いて第3の動画データを生成すると共に前記第3の動画データと前記第2の動画データとを関連づけるための付加情報を生成し、前記第3の動画データと前記付加情報とを前記第2の動画データと共に記録するように前記記録工程を制御する制御工程とを備える画像処理方法。
A playback process for playing back video data;
An output step of outputting the video data reproduced in the reproduction step to a display device;
An acquisition process for acquiring video data;
A recording process for recording video data;
When recording the second moving image data in the recording step while reproducing the first moving image data in the reproducing step, the third moving image data is generated using the first moving image data and the third moving image data is generated. Additional information for associating the second moving image data with the second moving image data is generated, and the recording step is controlled so as to record the third moving image data and the additional information together with the second moving image data. An image processing method comprising a control step.
JP2013138347A 2013-07-01 2013-07-01 Image processing apparatus and image processing method Pending JP2015012544A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013138347A JP2015012544A (en) 2013-07-01 2013-07-01 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013138347A JP2015012544A (en) 2013-07-01 2013-07-01 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2015012544A true JP2015012544A (en) 2015-01-19
JP2015012544A5 JP2015012544A5 (en) 2016-08-12

Family

ID=52305306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013138347A Pending JP2015012544A (en) 2013-07-01 2013-07-01 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2015012544A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228803A (en) * 2003-01-21 2004-08-12 Canon Inc Photographing device
JP2012089909A (en) * 2010-10-15 2012-05-10 Sony Corp Information processor, and synchronization method and program
JP2012124723A (en) * 2010-12-08 2012-06-28 Jvc Kenwood Corp Video/audio processing device, and video/audio processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228803A (en) * 2003-01-21 2004-08-12 Canon Inc Photographing device
JP2012089909A (en) * 2010-10-15 2012-05-10 Sony Corp Information processor, and synchronization method and program
JP2012124723A (en) * 2010-12-08 2012-06-28 Jvc Kenwood Corp Video/audio processing device, and video/audio processing method

Similar Documents

Publication Publication Date Title
JP4515465B2 (en) Moving picture photographing apparatus and moving picture photographing method, moving picture reproducing apparatus and moving picture reproducing method for reproducing a video signal recorded on a recording medium
KR101295430B1 (en) Image recording apparatus, image reproducing apparatus, image recording method, and image reproducing method
JP2005094168A (en) File structure, image recording apparatus and image reproducing apparatus employing the same
JP6320366B2 (en) System and method for generating and playing 3D stereoscopic video files based on 2D video media standards
JP2010272999A5 (en) Imaging device and playback device
JP5498064B2 (en) Imaging apparatus and control method thereof
KR101711009B1 (en) Apparatus to store image, apparatus to play image, method to store image, method to play image, recording medium, and camera
JP2012033243A (en) Data generation device and data generation method, data processing device and data processing method
CN107251551B (en) Image processing device, image capturing apparatus, image processing method, and storage medium
JP2013093755A (en) Video recording device and video recording method
JP2008118508A (en) Recording device and recording program
JP2012156587A (en) Video recording device
JP2005312022A (en) Audio-visual recording/reproducing apparatus and digital video camera
JP2010258917A (en) Imaging apparatus, program, and imaging method
JP2011041154A (en) Image processing apparatus and image processing method
KR101796226B1 (en) System for outputting multiple videos simultaneously
JP6278353B2 (en) RECORDING DEVICE, RECORDING METHOD, PROGRAM, AND IMAGING DEVICE
JP2015012544A (en) Image processing apparatus and image processing method
JP2008288934A (en) Moving picture photographing device and moving picture reproducing device
JP2007158434A (en) Camera recorder
KR20200087754A (en) Information processing apparatus, information processing method, recording medium, reproduction apparatus, reproduction method, and program
JP2002290901A (en) Viewer video recording and reproducing device
JP6071358B2 (en) Image processing apparatus, image processing method, and program
JP2015029211A (en) Imaging device
JP2006180315A (en) Moving picture photographing device and moving picture reproducing device, and moving picture photographing method and moving picture reproducing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171107