JP6066712B2 - 記録装置、記録方法およびプログラム - Google Patents

記録装置、記録方法およびプログラム Download PDF

Info

Publication number
JP6066712B2
JP6066712B2 JP2012276875A JP2012276875A JP6066712B2 JP 6066712 B2 JP6066712 B2 JP 6066712B2 JP 2012276875 A JP2012276875 A JP 2012276875A JP 2012276875 A JP2012276875 A JP 2012276875A JP 6066712 B2 JP6066712 B2 JP 6066712B2
Authority
JP
Japan
Prior art keywords
moving image
recording
audio data
data
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012276875A
Other languages
English (en)
Other versions
JP2014121049A (ja
JP2014121049A5 (ja
Inventor
尚之 村上
尚之 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012276875A priority Critical patent/JP6066712B2/ja
Priority to US14/106,023 priority patent/US9025931B2/en
Priority to CN201310706201.9A priority patent/CN103888662B/zh
Publication of JP2014121049A publication Critical patent/JP2014121049A/ja
Publication of JP2014121049A5 publication Critical patent/JP2014121049A5/ja
Application granted granted Critical
Publication of JP6066712B2 publication Critical patent/JP6066712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は記録装置に関し、特に、動画や音声を符号化して記録する装置に関する。
従来、動画像信号や音声信号を記録媒体に記録する記録装置が知られている。この種の記録装置においては、記録した動画や音声を所定のファイルシステムに従ってファイルとして管理する。動画や音声を記録するためのファイル形式として、MP4ファイルフォーマットが知られている(例えば、特許文献1参照)。
特開2008−283232号公報
MP4ファイル形式で記録される動画と音声を符号化するための符号化の単位時間が互いに異なる。そのため、1シーンの終端部分において、動画と音声のサンプルのタイミングが一致することは希で、ほとんどの場合、動画と音声の終端のサンプル位置が異なる。
そのため、二つのMP4ファイルに格納された動画と音声を結合し、新たにMP4ファイルを作成する編集処理を行った場合、サンプル位置がずれた状態で結合されてしまう。
MP4形式では、データの途中に再生しない時間を設定する仕組みがなく、全てのデータはファイルの先頭から連続して再生される。そのため、シーン境界で動画と音声のサンプル位置がずれていた場合、境界部分以降の動画と音声の再生タイミングがずれてしまうという問題があった。
本発明は前述の問題点に鑑み、符号化された動画データと音声データを格納したファイルに対して、別の動画データと音声データを結合した場合に、動画と音声の再生タイミングのずれによる不自然な再生となることを防ぐことを目的とする。
本発明においては、動画取得手段で取得された動画データと音声取得手段で取得された音声データを動画ファイルとして記録媒体に記録する記録装置は、第1の期間に対応した動画サンプルを符号化単位として取得された動画データを符号化し、第2の期間に対応した音声サンプルを符号化単位として取得された音声データを符号化する符号化手段と、符号化手段により符号化された動画データと音声データとを動画ファイルに格納して記録媒体に記録する記録手段と、取得された動画データの記録開始位置に基づいて、取得された音声データの記録開始位置を、取得された動画データの記録開始位置よりも、少なくとも第2の期間に対応した音声サンプルだけ前の位置に決定し、記録された音声データの再生開始位置を、記録された音声データの先頭から音声データの符号化単位だけ後の位置と決定する制御手段とを備える。
符号化された動画データと音声データを格納したファイルに対して、別の動画データと音声データを結合した場合に、動画と音声の再生タイミングのずれによる不自然な再生となることを防ぐことができる。
本発明の実施形態に係る記録装置の構成例を示すブロック図である。 動画ファイルの構成を示す図である。 管理情報と動画データ、音声データとの対応を示す図である。 結合された動画データと音声データの構成を示す図である。 図4に示す動画ファイルの管理情報を示す図である。 結合された動画データと音声データの再生時間の時間差を示す図である。 本発明の実施形態に係る記録装置における記録モードでの動作のフローチャートを示す図である。 本発明の実施形態に係る、記録された動画ファイルと結合された動画データと音声データの動画ファイルの構成を示す図である。 本発明の実施例に係わる、結合された動画データと音声データの再生時間の時間差を示す図である。 本発明の実施形態に係る動画データと音声データの結合動作のフローチャートを示す図である。 動画ファイルに追記された動画データと音声データの構成を示す図である。 図11に示す動画ファイルの管理情報を示す図である。 動画ファイルに追記された動画データと音声データの再生時間を示す図である。 本発明の実施形態に係る記録装置における同時記録モードでの動作のフローチャートを示す図である。 本発明の実施形態に係る同時記録モードでの音声データの先頭位置の決定動作を説明するための図である。 本発明の実施形態に係る同時記録モードで記録された動画データと音声データの構成を示す図である。 本実施形態に係る部分削除動作における接続パターンを示す図である。 本発明の実施形態に係る記録装置における部分削除の動作のフローチャートを示す図である。 本発明の実施形態に係る記録装置における追記モードでの動作のフローチャートを示す図である。
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本実施形態に係る記録装置100の構成例を示すブロック図である。本実施形態は例えばビデオカメラなどの撮像装置に本発明を適用した例であるが、カメラとマイクロフォンを有する、あるいは接続されたPC、またはスマートフォンなどの携帯機器などの動画撮影が可能な装置にも適用可能である。
図1において、撮像部101は、公知の撮像素子やAD変換器などを備える動画取得部として機能し、被写体を撮影して動画データを出力する。音声取得部102は、マイクロフォンやAD変換器などを備え、被写体の周辺の音声を取得し、音声データを出力する。
メモリ103は、動画データや音声データを記憶する。記録装置100の各ブロックは、メモリ103対してアクセスすることにより、動画データや音声データを処理する。また、メモリ103は、動画データや音声データの他に、ファイルシステムの情報や、管理情報など、各種の情報を記憶し、更に、制御部106による制御のためのワークメモリ等の役割を果たす。また、後述のように同時記録モードが設定された場合、記録待機状態において、所定時間分の動画データと音声データが繰り返しメモリ103に記憶される。
表示部104は、撮影時においては撮像部101により得られた動画を表示し、再生時においては、再生された動画を表示する。また、表示部104は、メニュー画面等の各種の情報を表示する。
信号処理部105は、動画の記録時においては、撮像部101により得られた動画データと音声取得部により得られた音声データを公知の符号化形式に従って符号化して、その情報量を圧縮する。また、動画データや音声データを記録するために必要な処理を施す。本実施形態では、動画データはH.264/AVC方式に従って符号化され、音声データはAAC(Advanced Audio Coding)方式に従って符号化される。また、信号処理部105は、再生時においては、再生された動画データや音声データを復号し、その情報量を伸張する。
また、信号処理部105は、静止画の記録時においては、撮像部101により得られた1画面の静止画データをJPEGなどの公知の符号化方式に従って符号化する。また、静止画の再生時においては、再生された静止画データを復号する。
制御部10は6、操作部107からの入力に応じて記録装置100の動作全体を制御する。制御部106はマイクロコンピュータ(CPU)やメモリ等を含み、不図示の不揮発メモリに記憶されたコンピュータプログラム(ソフトウェア)に従って記録装置100を制御する。また、制御部106は、記録再生部108との間でデータやコマンドを通信するための記録媒体インターフェイスを内蔵している。操作部107は、ユーザにより操作可能な各種のスイッチを含む。そして、操作部107は、ユーザによる各種の指示などを受理して制御部106へ通知する。また、操作部107は、電源スイッチや記録の開始、停止を指示するためのスイッチ、記録装置100のモードを切り替えるためのスイッチ等を含む。
記録再生部108は、記録媒体109に対し、動画データや音声データ、或いは、各種の情報を書き込み、或いは、読み出す。記録再生部108は、記録時においては、メモリ103に蓄積された動画データや音声データを記録媒体109に書き込む。また、記録再生部108は、再生時においては、記録媒体109から動画データや音声データを読み出し、メモリ103に記憶する。本実施形態では、記録媒体109ハードディスク(HDD)、フラッシュメモリカード等、ランダムアクセスの記録媒体である。
また、記録再生部108は、記録媒体109に記録する動画、音声データや、各種の情報を、FAT(File Allocation Table)等のファイルシステムに従い、ファイルとして管理する。また、記録再生部108は、ATA(AT Attachment)等の公知のインターフェイス(IF)を有し、制御部106における記録媒体IFとの間でデータや各種のコマンドを通信する。また、不図示の装着、排出機構により、記録装置100に対して記録媒体109を容易に装着、排出することができるように構成するが、記録装置100に記録媒体109が内蔵される構成でもよい。
制御部106は、記録媒体109に対して動画データや音声データを含む動画ファイルの書き込み、読み出しを行う場合、記録再生部108を制御して、記録媒体109から、ファイルシステムデータ(管理データ)を再生してメモリ103に記憶する。このファイルシステムデータは、記録媒体109に記録されたデータのファイル名やファイルのサイズ、データの記録アドレスなどを示すデータであり、ファイルを管理するための情報である。そして、制御部106は、読み出したファイルシステムデータに従ってファイルの書き込み、読み出しを制御する。制御部106は、記録媒体109へのファイルの書き込みに応じて、メモリ103に記憶されたファイルシステムデータを更新する。そして、更新したファイルシステムデータを、記録再生部108により記録媒体109に記録する。
データバス110は、記録装置100の各部の間でデータや各種の制御コマンドなどを送受信するために用いられる。
本実施形態では、記録媒体109に対し、MP4ファイル形式で動画データと音声データを記録する。図2(a)は、MP4ファイルの基本構成を示している。MP4ファイル200はボックスと呼ばれる格納単位により構成される。一つのMP4ファイルを構成する最上位のボックスには、ftypボックス201、moovボックス202、mdatボックス203が含まれる。ftyp201はファイルの互換性情報、moov202は動画データ、音声データに関する管理情報が格納される。また、mdat203には符号化された動画データ、音声データの実データが格納される。
図2(b)はmoovボックス202の構成例を示す図である。trakボックスは一つの動画データ、音声データを定義するためのボックスである。図2(b)では、動画データと音声データをそれぞれ定義するための二つのtrakが格納される。各trakにおいて、edtsにはトラックの再生出力開始タイミングの情報が格納される。stsdには、トラックがビデオ(動画)かオーディオかを判定するための情報が格納される。sttsには、ビデオ、オーディオデータの1サンプルの継続時間(再生時間、duration)の情報が格納される。stszには、各チャンク(chunk)内のサンプルのサイズを示す情報が格納される。また、stcoには、ファイル先頭からの各チャンクのオフセット(データサイズ)の情報が格納される。MP4では、mdatに格納された動画データと音声データをそれぞれチャンクと呼ばれる単位で管理する。このようなmoovのデータにより、mdatに格納された各データのファイル内での位置が特定される。
図3は、moovに格納されたstszとstcoが示す情報と、mdatに格納されたデータのオフセットとの対応を示している。moov301のトラック1、トラック2はそれぞれ、ビデオデータのトラックと音声データのトラックである。また、各トラックは三つのチャンクから構成されている。stszは、mdat302に格納されたビデオ、オーディオデータに含まれるサンプルの数とサイズを示し、stcoは、各ビデオチャンク、オーディオチャンクのオフセット303を示している。
次に、本実施形態における通常の記録モードにおける記録動作について説明する。記録装置100は、通常の記録モード(第1の記録モード)において、動画データと静止画データとを記録可能である。なお、後述するように、本実施形態の記録装置は、本記録モードの他に、静止画の記録と供に所定時間の動画データと音声データを記録する同時記録モード、記録されている動画ファイルに動画及び音声データを追記する追記モードを有する(第2の記録モード)。また、これらの記録モードで記録された動画ファイルを再生する再生モードを有し、再生モードでは動画ファイルの結合の指示、同時記録モードで記録された動画ファイルの部分削除の指示が可能である。
制御部106は、操作部107から通常の記録モードの指示を受けた場合、記録装置100を記録待機状態へ遷移し、記録開始の指示を待つ。そして、記録待機状態において、撮像部101から入力された動画データに係る動画を表示部104に表示する。操作部107から記録開始の指示が入力されると、制御部106は、信号処理部105による符号化を開始するように指示する。信号処理部105は、撮像部101により得られた動画データと、音声取得部102により得られた音声データをメモリ103より読み出して、符号化を開始する。そして、信号処理部105は、符号化されたデータをメモリ103に記憶する。
記録再生部108は、メモリ103から符号化データを読み出して、記録媒体109に記録する。このとき、ファイルを開いていない場合は、新規に符号化データを記録するファイルを作成して開き、符号化データを動画ファイルとして記録する。
このように動画の記録を開始した後、操作部107から記録停止の指示を受けた場合は、制御部106は信号処理部105による動画データと音声データの符号化を停止し、記録再生部108により記録中のファイルを閉じる。また、制御部106は、ファイルシステムデータの内容を変更し、記録媒体に記録するよう、記録再生部108に指示する。
本実施形態では、通常の記録モードにおいて、記録開始の指示から記録停止の指示までの間に記録された動画データと音声データは、一つのMP4形式の動画ファイルに格納される。
次に、静止画記録について説明する。前述のように、通常の記録モードが設定されると、制御部106は、記録装置100を記録待機状態に設定する。この状態で、操作部107より静止画記録の指示が出力された場合、制御部106は、撮像部101に対し、静止画記録の指示に応じた1画面の静止画を撮影するように指示する。撮像部101は、制御部106からの指示に応じて1画面の静止画データを撮影し、メモリ103に出力する。信号処理部105は、制御部106からの指示により、メモリ103より静止画データを読み出して符号化し、記録再生部108に送る。記録再生部108は、信号処理部105からの静止画データを記録媒体109に記録する。
次に、本実施形態の記録装置100の動画ファイルの結合動作について説明する。記録装置100は、記録媒体109に記録された複数の動画ファイルから選択された二つの動画ファイルを結合する機能を持つ。結合動作では、ユーザに選択された二つの動画ファイルに格納された動画データと音声データ同士が符号化された状態で結合される。そして、結合された動画データと音声データを格納した動画ファイルが新たに生成され、記録媒体109に記録される。
図4は、二つの動画ファイルの動画データと音声データとが結合され、新たに生成された動画ファイルを示す図である。図4において、元の動画ファイル401の動画データV1、音声データA1と、動画ファイル402の動画データV2、音声データA2が結合され、新たに動画ファイル403が生成される。動画ファイル403において、動画データと音声データの先頭のチャンクのオフセットO1−O4が算出され、moovに格納される。結合後の動画ファイル403の動画データと音声データのオフセット情報を図5(a)に示す。
図6は、二つの動画ファイルを結合した際の、動画データと音声データの再生タイミングを示す図である。図6において、601、603はそれぞれ各動画ファイルの動画データV1とV2であり、602、604はそれぞれ各動画ファイルの音声データA1とA2である。なお、図の水平方向は時間の経過方向になっていて、データの異なる位置間の差は再生時の時間差に対応する。
また、v1−vn、v1−vn’はそれぞれ各動画データの符号化単位を示している。本実施形態では、同時記録モードにおいては、動画データの1フレームの動画サンプルを一つの符号化単位として符号化し、各フレームをフレーム内符号化により符号化する。動画データのフレームレート(単位時間あたりのフレーム数、ここでは1秒あたりのフレーム数を示す)を29.97フレーム/秒とした場合、符号化単位は33.3ミリ秒に対応する(第1の期間)。
また、a1−am、a1−am’はそれぞれ音声データの符号化単位を示している。本実施形態では、音声データの1024の音声サンプルを一つの符号化単位として符号化する。音声データのサンプリング周波数を48kHzとした場合、一つの音声データの符号化単位は21.3ミリ秒に対応する(第2の期間)。また、音声データの1符号化単位を、以下、AAU(Audio Access Unit)と呼ぶ。
また、音声データは動画データの記録時間に合わせて記録されるが、前記の様に、動画データと音声データの符号化単位の長さが異なるので、音声データの記録時間が動画と同じになることはほとんどない。そのため、例えば、音声データの再生時間が動画データの再生時間を超えないように、1回に記録される音声データの符号化単位の数が決められる。
また、本実施形態では、動画データと音声データにおける一つの符号化単位をそれぞれ動画ファイルにおける動画と音声の1チャンクとする。
このように、動画データと音声データの符号化単位に対応した時間長が異なるため、各シーンの終端部において、動画と音声の終了部分に時間差が発生する。更に、この終端部分の時間差は、記録される動画と音声の長さにより異なるため、動画ファイル毎に異なる。例えば、動画データ601と音声データ602の終端部分の時間差はg1であり、動画データ603と音声データ604の終端部分の時間差はg2である。
そのため、このように時間差を持つ二つの動画ファイルの動画データと音声データをV1とA1に対し、別の動画ファイルの動画V2と音声A2がそのまま続けて結合された場合、結合後の動画データが604となり、音声データが605となる。
このように結合されたMP4形式の動画ファイルを再生する際、動画データ604と音声データ605はそれぞれ先頭から連続して再生される。そのため、V2の先頭フレームv1よりも、A2の先頭の符号化単位a1の方がg1だけ早く再生されることになる。従って、例えば、人物の口が動くよりも先に声が聞こえてしまう、といった不自然な再生となってしまう。更に、V2の最後の動画データvn’よりも、A2の最後の音声データam’の方がg1+g2の分だけ、早く再生が終了してしまう。
そこで、本実施形態では、元の動画ファイルを記録する際に、音声の記録開始タイミングを動画のそれよりも先にして記録しておき、動画ファイルを結合した際に、結合位置以降の部分において、動画よりも音声の方が先に再生されてしまうのを防ぐようにした。
図7は、本実施形態に係る記録モードにおける記録装置の動作のフローチャートを示す図である。図7の動作は、制御部106が各部を制御することにより実行される。前述の様に、記録装置100の電源が投入され、記録待機状態となると、図7の処理が開始される。
制御部106は、音声取得部102からの音声データのメモリ103への記憶を開始する(S701)。このとき、制御部106は、音声データを符号化せずに、音声取得部102から出力された状態でメモリ103に記憶する。
このように音声データをメモリ103に順次記憶し、所定時間分の音声データが記憶されると、最も古いデータは消去(上書き)される。具体的には、1AAUに対応した時間期間(サンプル数)より長い時間期間(第3の期間)の音声データをメモリ103に記憶しておく。
このように音声データを繰り返しメモリ103に記憶しながら、制御部106は、操作部107より記録開始の指示が出力されるのを待つ(S702)。記録開始の指示が出力された場合、制御部106は、メモリ103に記憶されている音声データにおける記録先頭位置を決定する。具体的には、制御部106は、メモリ103に記憶された音声データのうち、記録開始の指示が出力された時点から1024サンプル前の位置を先頭位置として決定する。そして、制御部106は、動画データの符号化を開始すると共に、メモリ103に記憶された音声データの決定された先頭位置から符号化を開始するように、信号処理部105に指示する。信号処理部105は、撮像部101からの動画データの符号化を開始すると共に、決定された符号化開始位置から音声データの符号化を開始する(S704)。そして、記録再生部108は、符号化された動画データと音声データとを記録媒体109に記録する(S705)。
このように記録を開始した後、記録停止の指示が出力された場合、制御部106は、メモリ103に対する動画データと音声データの記憶を停止して(S707)、符号化を停止する(S708)。この際、音声の符号化単位は動画とは異なるので、制御部106は、音声の再生時間が動画の再生時間を超えない範囲で符号化を停止するように信号処理部105に指示する。そして、制御部106は、記録再生部108に対し記録停止を指示し、記録再生部108は、動画データと音声データの記録を停止する(S709)。更に、制御部106は、moovを生成して、記録再生部108により記録媒体109に記録する(S710)。
この際、制御部106は、音声データの先頭チャンクのオフセットの情報として、先頭のAAU(以下、追加音声と呼ぶ)ではなく、2番目のAAUのオフセットの情報を格納しておく。また、制御部106は、追加音声のファイル先頭からのオフセット位置の情報を、付加情報として動画ファイルのmoovに格納しておく。
このように、音声トラックの先頭チャンクのオフセット(再生開始位置)として2番目のAAUのオフセット位置を記録しておくことで、動画ファイルを再生した場合に、対応する音声の追加音声が再生されず、符号化単位で動画と音声の再生タイミングが一致する。
図8(a)はこのように記録された動画データと音声データを示す図である。図8(a)において、801と802はそれぞれ、1回に記録された動画データV1と音声データA1を示している。また、記録開始の指示が出力された時間803よりも所定時間分前の追加音声804が記録される。
動画ファイル805において、動画データの先頭チャンクのオフセットO1と、音声データの先頭チャンクのオフセットO2がmoovに格納される。また、追加音声のオフセットO21もmoovに格納される。動画ファイル805を再生した場合、音声データは先頭チャンクのオフセット位置であるO2のデータから再生される。動画ファイル805の動画データと音声データの先頭チャンクのオフセット情報を図5(b)に示す。
次に、このように追加音声が記録された異なる動画ファイルの結合動作について説明する。本実施形態の記録装置においては、再生モードにおいて、ユーザが操作部107を操作することにより動画ファイルの結合を指示することができる。
図9は結合時の動画データと音声データを示す図である。図9において、901−904はそれぞれ、図6の601−604と同様、二つの動画ファイルの動画データと音声データを示している。ただし、音声データ902と904には、先頭のAAUa0が追加音声として記録されている。この追加音声a0の再生時間をtaとする。なお、図の水平方向は時間の経過方向になっていて、データの異なる位置間の差は再生時の時間差に対応する。
そして、動画V1と音声A1に対し、動画V2と音声A2を結合し、動画905と音声906が生成される。この際、結合後の音声トラックに、A2の先頭のAAUa0のオフセット位置を格納することで、A1の最後の音声amに続いてA2の追加音声a0を再生させるようにする。こうすることで、V2の先頭の動画v1よりも、ta−g1だけ、それに対応するa1の方が後に再生されることになり、対応する動画よりも音声の方が先に再生されることを防ぐことができる。
また、この結果、A2の最後の音声am’がV2の最後の動画vn’よりも後に再生されることになるため、例えば、このam’のオフセットを、結合後の動画ファイルの音声トラックから削除し、付加情報として結合後の動画ファイルのmoovに格納しておく。ただし、追加音声の再生を有効にした場合でも、音声の再生終了時間が動画の再生終了時間よりも早い場合は、最後の音声のオフセットを音声トラックから削除しない。
図10は、本実施形態に係る記録装置100の結合動作のフローチャートを示す図である。図10の動作は制御部106が各部を制御することにより実行される。
記録媒体109に記録された複数の動画ファイルから、ユーザにより二つの動画ファイルが選択され、結合が指示された場合、図10の処理が開始する。ユーザは二つの動画ファイルのうち、先に再生する方の動画ファイルを指定する。先に再生される動画ファイルを前半シーン、後に再生される動画ファイルを後半シーンとする。
制御部106は、後半シーンのmoovに格納されたビデオトラックのオフセット情報に基づいて、結合後の動画ファイルにおける、後半シーンの動画データの各チャンクオフセットを算出する(S1001)。続いて、制御部106は、後半シーンのmoovに格納された付加情報に基づいて、結合後の動画ファイルにおける、追加音声データのオフセットを算出する(S1002)。また、制御部106は、後半シーンのmoovに格納された音声トラックのオフセット情報に基づいて、結合後の動画ファイルにおける、後半シーンの動画データの各チャンクオフセットを算出する(S1003)。
そして、制御部106は、記録再生部108に対し、前半シーンと後半シーンを結合するように指示する(S1004)。具体的には、記録再生部108は、前半シーンの動画データと音声データ及び、後半シーンの動画データと音声データをそれぞれ記録媒体109の別の記録領域にコピーする。
次に、制御部106は、前述のように算出したビデオトラックと音声トラックのオフセット情報を含む、結合後の動画ファイルのmoovを作成する(S1005)。このとき、前半シーンのオフセット情報については、結合前の前半シーンのmoovに格納されたオフセット情報をそのまま用いる。そして、制御部106は、記録再生部108により、生成したmoovと、結合された動画データ、音声データを含む結合後の動画ファイルを記録媒体109に記録する(S1006)。
図8(b)は、このように結合された動画ファイルを示している。図8(b)において、806は結合後の動画ファイルであり、O1、O2はそれぞれ、前半シーンの動画、音声の先頭チャンクのオフセット情報である。また、O21は、前半シーンの追加音声のオフセットである。また、O3。O4はそれぞれ、結合後の動画ファイルにおける、後半シーンの動画、音声の先頭チャンクのオフセット情報である。また、O41は、結合後の動画ファイルにおける、後半シーンの追加音声のオフセットである。
そして、図9にて説明したように、後半シーンの追加音声が再生されるように、この追加音声のオフセットO41が、結合後の動画ファイルの音声トラックに格納される。結合後の動画ファイルのオフセット情報を図5(c)に示す。
このように、本実施形態では、動画と音声を記録する際に、記録開始の指示よりも所定時間だけ前から音声を記録している。そして、通常の再生時においては、この先頭の音声データが再生されないようにオフセットを記録しておき、二つの動画ファイルを結合する際に、結合先の動画ファイルの終端部分の動画と音声の時間差に従って、追加音声を再生させるようにする。
これにより、結合部分以降の動画よりも音声が先に再生されることがなく、不自然な再生となることを防ぐことができる。また、結合部分において、無音のデータを挿入しないので、結合後の動画ファイルの再生中に音声が途切れてしまうことがない。
次に、同時記録モードについて説明する。記録装置100は、静止画の記録指示があった場合に、静止画と共に、静止画記録の指示の直前のn秒(nは所定値)分の動画と、このn秒分の動画に対応した音声を記録する同時記録モードを持つ。また、同時記録モードで記録された動画データと音声データは、一つの動画ファイルに追記されて記録される。なお、同時記録モードでは、動画データの各フレームがフレーム内予測符号化により符号化されて記録されるものとする。
操作部107より同時記録モードの指示が出力された場合、制御部106は、記録装置100を同時記録モードに設定し、記録待機状態とする。同時記録モードの記録待機状態では、制御部106は、後述のように、撮像部101から出力されたn秒分の動画データと、このn秒に対応した、音声取得部102により得られた音声データをメモリ103に繰り返し記憶する。この際、後述のように、n秒分の動画データは、信号処理部105により符号化された状態でメモリ103に記憶される。また、n秒分の動画に対応した音声データも、信号処理部105により符号化された状態でメモリ103に格納される。
また、制御部106は、同時記録モードが設定された場合、記録再生部108を制御して、記録媒体109から、同時記録モードで記録された動画ファイルを検出する。同時記録モードで記録された動画ファイルが記録媒体109に記録されていた場合、この動画ファイルのファイル名の情報を検出し、メモリ103に記憶しておく。
このように、同時記録モードの記録待機状態において、静止画記録の指示が出力された場合、制御部106は、メモリ103に対する符号化された動画データと音声データのメモリ103への記憶を停止する。また、制御部106は、静止画記録の指示に応じた1画面の静止画を撮影するように指示し、前述の静止画記録モードのときと同様に、符号化された静止画データが記録再生部108により記録媒体109に記録される。
制御部106は、記録再生部108に対し、メモリ103に記憶されたn秒分の動画データと音声データを記録するように指示する。このとき、制御部106は、同時記録モードで記録された動画ファイルが既に記録媒体109に記録されていた場合、この動画ファイルに対し、今回の記録による動画データと音声データを追加して記録するように指示する。また、同時記録モードで記録された動画ファイルが記録媒体109に記録されてなかった場合、制御部106は、新たに動画ファイルを作成して、動画データと音声データを記録するように指示する。なお、新たに動画ファイルを作成する場合、制御部106は、この動画ファイルが同時記録モードで記録されたものであることを識別するための付加情報を、動画ファイルに付加して記録する。
図11は、同時記録モードで記録された動画データと音声データと、各データが格納される動画ファイルを示す図である。図11において、時間1101、1102、1103でそれぞれ静止画記録の指示が出力され、その直前の動画と音声であるV1、A1、V2、A2、V3、A3がそれぞれ記録される。また、これらの動画と音声データは、一つの動画ファイル1104に対し、追加して記録される。また、各動画データ、音声データの先頭チャンクのオフセットが、図12に示すように、moovに格納される。図12に示すように、ビデオトラックのstcoには、各動画データの先頭チャンクのオフセットであるO1、O3、O5が格納され、音声トラックのstcoには、各音声データの先頭チャンクのオフセットであるO2、O4、O6が格納される。
図13は、同時記録モードにより記録された三つのシーンの動画データと音声データの様子を示す図である。図13において、V1−V3はそれぞれ、記録開始の指示からn秒分である1シーンの動画データであり、A1−A3はそれぞれ1シーンの音声データである。なお、図の水平方向は時間の経過方向になっていて、データの異なる位置間の差は再生時の時間差に対応する。
また、図6と同様に、v1−v15はそれぞれ動画データの符号化単位を示し、a1−a23(a24)はそれぞれ音声データの符号化単位を示している。図13では、説明を簡単にするため、1回の同時記録により記録される動画データの時間を15フレームに対応した期間としている。また、音声データは動画データの記録時間に合わせて記録しているが、前記の様に、動画データと音声データの符号化単位の長さが異なるので、音声データの記録時間が動画と同じになることはほとんどない。更に、同時記録モードでは、動画データと音声データはそれぞれ順次符号化されてメモリ103に繰り返し記憶されている。そのため、本実施形態では、静止画撮影の指示があった場合に、この静止画撮影指示に応じた動画のフレームを最後のフレームとし、この最後のフレームの直前の所定期間、ここでは15フレームの動画を記録するものとする。また、音声データの再生時間が、動画データの最後のフレームよりも後にならないように、音声データの最後のAAUが決められる。そして、メモリ103に記憶された音声データのうち、記録される所定時間(15フレーム)の動画の先頭フレームに対応したサンプルを含むAAUが、記録される先頭のAAUとして決められる。この先頭のAAUから最後のAAUまでの、符号化された音声データが、1回に記録される音声データとなる。例えば、図13では、最後のフレームであるV15の再生時間を超えないように、a23が最後のAAUとなる。そして、V1に対応したサンプルを含むa1が、記録される音声データの先頭のAAUとなる。このa1からa23までが記録される。
このように、動画データと音声データの符号化単位に対応した時間長が異なるため、各シーンの終端部において、動画と音声の終了部分に時間差が発生する。例えば、図13では、V1とA1の終端部の時間差はg1である。同時記録モードにおいては、一つの動画ファイルに動画データと音声データが追加して記録される。そのため、このように時間差を持つV1とA1に対し、次のシーンの動画V2と音声A2が追記される。
このように記録された図13のMP4形式の動画ファイルを再生する際、動画データと音声データはそれぞれ先頭から連続して再生される。そのため、V2の先頭フレームv1よりも、A2の先頭の符号化単位a1の方がg1だけ早く再生されることになる。
そこで、本実施形態では、同時記録モードにおいても、音声データの先頭に追加音声を記録する。そして、同時記録モードにおいて、追記先の動画ファイルにおける先頭から動画データと音声データを再生した場合の、終端部分の動画と音声の時間差に基づいて、この追加音声を再生させるかどうかを制御することにより、不自然な再生になることを防ぐようにした。具体的には、追記先の動画ファイルにおける先頭から動画データと音声データを再生した場合の、終端部分の動画と音声の時間差が、1AAUの再生時間を超える場合は、追加音声を再生させるようにする。また、そうでない場合は、追加音声を再生させないようにしておく。これにより、音声の再生タイミングが動画よりも大幅に先行されるのを防ぐ。
更に、同時記録モードにより記録された動画データを、n秒単位で一部を削除する編集処理を行った結果、編集後の動画ファイルを再生した際に、この追加音声を再生させるようにすることで、対応する動画よりも音声の方が先に再生されるのを防ぐようにする。
図14は、本実施形態に係る記録装置の同時記録モードでの動作のフローチャートを示す図である。図14の動作は、制御部106が各部を制御することにより実行される。前述の様に、記録待機状態で同時記録モードが設定されると、図14の処理が開始される。
制御部106は、信号処理部105に対し、撮像部101からの動画データと音声取得部102からの音声データの符号化を開始するように指示する(S1401)。信号処理部105は、メモリ103から順次動画データを読み出し、符号化した後、再度メモリ103に記憶する(S1402)。
このように符号化された動画データと音声データとをメモリ103に順次記憶し、n秒分の動画データが記憶されると、最も古いデータは消去(上書き)される。また、音声データについては、n秒よりも所定時間だけ余計にメモリ103に記憶する。具体的には、現時点からn秒よりも、二つ分のAAUだけ前のデータからメモリ103に記憶しておく。
以上のように、符号化された動画データと、音声データとを繰り返しメモリ103に記憶しながら、制御部106は、操作部107より静止画撮影の指示が出力されるのを待つ(S1403)。静止画撮影の指示が出力された場合、制御部106は、前述のように、1画面の静止画データを生成し、記録媒体109に記録する(S1404)。
そして、制御部106は、動画データと音声データの符号化を停止して、新たに符号化された動画データと音声データとがメモリ103に記憶されるのを停止する(S1405)。次に、制御部106は、メモリ103に記憶された動画データのうち、記録される先頭フレームと最終フレームを前述のように決定する。また、制御部106は、記録される音声データの先頭のAAUと最終のAAUとを前述のように決定する(S1406)。
御部106は、記録再生部108に対し、符号化された動画データと音声データとを、記録媒体109に既に記録されている同時記録モードの動画ファイルに追記するように指示する。記録再生部108は、指定された動画ファイルに対し、メモリ103に記憶された動画データと音声データとを追加して記録する(S1407)。
次に、制御部106は、同時記録モードで記録された動画ファイルが既に記録媒体109に記録されていた場合、この動画ファイルを先頭から再生した場合の、動画データと音声データの終端部における動画と音声の時間差を検出する(S1408)。終端部分(再生終了位置)の時間差は以下のように求められる。
時間差=ビデオトラックの再生終了時間−音声トラックの再生終了時間
ビデオトラックの再生終了時間=ビデオ再生開始タイミング(edts)+ビデオサンプルの再生時間(stsc)×ビデオサンプル数(stsz)
音声トラックの再生終了時間=音声再生開始タイミング(edts)+音声サンプルの再生時間(stsc)×音声サンプル数(stsz)
このように、ファイルの先頭から再生した場合の、終端部分の動画と音声の時間差が求められる。
更に、本実施形態では、同時記録モードでの1回の記録が終了する毎に、この1回の記録により記録される動画データと音声データの先頭と終端部それぞれにおける動画と音声の時間差を検出し、付加情報としてmoovに格納する。以下、1回の記録により記録される動画と音声を1シーンと呼ぶ。本実施形態では、各シーンについて、先頭と終端部分それぞれについての時間差の情報がmoovに格納される。この際、追加音声と動画の先頭との時間差ではなく、追加音声の次のAAUと動画の先頭との時間差が、先頭部分の時間差として記録される。
本実施形態では、時間差を示す情報として、所定の周波数のクロックのカウント値を記録する。例えば、MPEG符号化では、決められた周波数のクロックをカウントするカウンタのカウント値に基づき、復号タイミングや、復号された画像、音声の出力タイミングが管理される。そこで、この復号のための所定周波数のクロックのカウント値が時間差の情報として記録される。なお、これ以外にも、動画と音声の時間差を示す情報であれば、他の形式でもよい。
なお、同時記録モードで記録された動画ファイルが記録媒体109に記録されていない場合、制御部106は、時間差が無いものとして処理を行う。
次に、制御部106は、記録再生部108に対し、この追記された動画ファイルの管理情報moovの内容を更新するように指示する(S1409)。この際、制御部106は、追記先の動画ファイルの終端部分の動画と音声の時間差が、1AAUの再生時間よりも長い場合か否かを判別する。そして、終端部分の時間差が、1AAUの再生時間以下の場合、制御部106は、追加して記録する音声データの先頭AAUのオフセット情報を音声トラックには格納せず、2番目のAAUのオフセット情報を音声トラックに格納する。そして、制御部106は、この先頭のAAU(追加音声)のオフセット情報を、付加情報としてmoovに格納する。
一方、終端部分の時間差が、1AAUの再生時間よりも大きい場合、制御部106は、追加して記録する音声データの先頭AAUのオフセット情報を音声トラックに格納する。このように、新たに記録された動画データと音声データの情報がmoovに追加される。更に、制御部106は、今回記録したシーンについて、先頭部分と終端部分の動画と音声の時間差の情報を付加情報としてmoovに格納する。
この後、引き続き同時記録モードが設定されている場合、制御部106は、S710でmoovの更新が終了すると、再度S701に戻り、動画データと音声データのメモリ103への記憶を開始する。
図15は、同時記録モードにおいて記録される動画データと音声データを示す図である。図15において、v1−v15は符号化された動画データの符号化単位を示し、a0−a23は音声データの符号化単位を示している。前述のように、本実施形態では、同時記録モードでは、動画データの各フレームがフレーム内予測符号化により符号化される。そのため、v1−v15の各符号化単位は1フレームに対応する。なお、図の水平方向は時間の経過方向になっていて、データの異なる位置間の差は再生時の時間差に対応する。
図15のように、時間1501において静止画記録の指示があった場合、動画データの最終位置(フレーム)v15と、先頭位置(フレーム)v15が決定される。そして、最終位置よりも再生時間が後にならないように、音声データの最終位置a23が決定される。また、動画データの先頭位置1502に対応したサンプルを含むAAUであるa1よりも一つ前のa0が音声データの先頭の符号化単位として決定される。
先頭のAAUa0は付加音声として記録される。そして、追記先の動画ファイルを先頭から再生した場合の、終端部分の動画と音声の時間差が、1AAUの再生時間以下の場合、音声トラックには、追加した音声データの先頭のチャンクオフセットとして、a1のオフセット情報が格納され、a0のオフセット情報は、付加情報としてmoovに格納される。
一方、終端部分の動画と音声の時間差が、1AAUの再生時間を超える場合、先頭の追加音声であるa0のオフセットがmoovに格納される。
図16は、同時記録モードで記録された動画データと音声データと、各データが格納される動画ファイルを示す図であり、前記のように追加音声を記録した場合の動画ファイルを示している。なお、図の水平方向は時間の経過方向になっていて、データの異なる位置間の差は再生時の時間差に対応する。
図16において、時間1601、1602、1603でそれぞれ静止画記録の指示が出力され、その直前の動画と音声であるV1、A1、V2、A2、V3、A3がそれぞれ記録される。更に、各シーンの音声データに対し、1AAU分の追加音声1604、1605、1606が記録される。これらの動画と音声データは、一つの動画ファイル1607に対し、追加して記録される。それぞれのシーンを追加した際に、追記先の動画ファイルにおける、終端部分の時間差が1AAUを超えていない場合は、動画ファイル1607における各動画データ、音声データの先頭チャンクのオフセットが、図12に示すように、moovに格納される。図12に示すように、ビデオトラックのstcoには、各動画データの先頭チャンクのオフセットであるO1、O3、O5が格納され、音声トラックのstcoには、各音声データの先頭チャンクのオフセットであるO2、O4、O6が格納される。また、追加音声のオフセット情報O21、O41、O61が付加情報としてmoovに格納される。
そのため、同時記録モードにより記録された動画ファイル1607を再生した場合、追加音声1604、1605、1606は再生されない。
次に、同時記録モードで記録された動画ファイルの部分削除の処理について説明する。記録装置100は、同時記録モードで記録された動画ファイルの一部を、n秒を単位として削除し、削除後の残りのデータを一つのファイルとして記録する、部分削除の機能を持つ。部分削除においては、削除された部分の前後の動画データと音声データが、符号化された状態で結合される。そして、削除部分の前後の動画データと音声データの再生時間の差に基づいて、各シーンの追加音声を有効に再生させるかどうかを制御することで、削除部分以降の動画と音声が不自然な再生とならないように再生タイミングを調整する。
例えば、動画ファイル1607において、n秒分の動画V2と対応した音声A2を削除した場合、その前後の動画V1とV3を結合し、音声A1とA3を結合する。
図17は、部分削除の処理における削除部分の前後の動画、音声データと、その接続パターンを示す図である。図17(a)において、動画1と音声1は、削除部分の直前の動画、音声データであり、動画2と音声2は、削除部分の直後の動画、音声データである。また、x1は動画1と音声1の先頭部分の時間差、y1は動画1と音声1の後端部分の時間差、x2は動画2と音声2の先頭部分の時間差、y2は動画2と音声2の後端部分の時間差をそれぞれ示している。
そして、部分削除の後、削除部分前後の動画と音声を接続する際、これらの時間差に基づいて、結合後の動画ファイルにおける音声データの再生タイミングを制御する。
まず、y1=x2の場合、図17(b)に示すように、前後の動画と音声はそのまま接続する。この場合、接続部分以降の動画と音声のチャンクオフセットについては、削除前のオフセットから、削除部分のサイズを削除することにより求められる。また、図17(b)において、再生位置1701と1702は、動画2と音声2において、互いに対応する動画と音声の再生位置を示している。y1=x2の場合、接続後において、再生位置1701と1702の再生タイミングは同じタイミングとなる。
次に、「y1>x2で、且つ、(y1−x2)+y2≧1AAU分の時間」である場合、図17(c)に示すように、音声2の追加音声である符号化単位a0の再生を有効に設定する。即ち、この場合、y1の方がx2よりも大きいので、動画1、2と音声1、2をそのまま接続すると、音声2の再生タイミングが動画2よりも早くなってしまう。そのため、音声2の追加音声である、先頭のAAUa0の再生を有効にする。具体的には、このa0のオフセットを算出して音声トラックに格納する。これにより、音声2の再生タイミングがa0の分だけ遅れるので、不自然な再生となることがない。
また、追加音声の時間だけ音声2の再生タイミングが遅れるが、「(y1−x2)+y2≧1AAU分の時間」である場合、音声2の再生終了時間よりも動画2の再生終了時間の方が遅いので、音声2の最後の符号化単位まで再生させる。
次に、「y1>x2で、且つ、(y1−x2)+y2<1AAU分の時間」である場合、図17(d)に示すように、音声2の追加音声である符号化単位a0の再生を有効に設定する。この場合も、y1の方がx2よりも大きいので、音声2の追加音声である、先頭の符号化単位a0の再生を有効にする。
また、「(y1−x2)+y2<1AAU分の時間」である場合、追加音声の時間だけ音声2の再生タイミングが遅れることにより、動画2の再生終了時間よりも音声2の再生終了時間の方が遅くなってしまう。そのため、音声2の最後の符号化単位amを再生させないように、このamのオフセットをmoovから削除する。そして、この最後の符号化単位amのオフセットと、amの再生を禁止した場合の、動画2と音声2の終端部分における時間差の情報を、付加情報としてmoovに格納する。
次に、「y1<x2で、且つ、(x2−y1)−y2>0」の場合、図17(e)に示すように、音声2の追加音声であるa0の再生を有効に設定せず、動画1、2と音声1、2をそのまま接続する。即ち、この場合、x2の方がy1よりも大きいので、動画1、2と音声1、2を接続した結果、動画2よりも音声2の再生タイミングが遅くなる。従って、追加音声を再生させる必要がない。
また、「(x2−y1)−y2>0」である場合、動画2の再生終了時間よりも音声2の再生終了時間の方が遅くなってしまう。そのため、音声2の最後の符号化単位amを再生させないように、この符号化単位amのオフセットをmoovから削除する。そして、amのオフセットと、amの再生を禁止した場合の、動画2と音声2の終端部分における時間差の情報を、付加情報としてmoovに格納する。
次に、「y1<x2で、且つ、(x2−y1)−y2≦0」の場合、図17(f)に示すように、音声2の追加音声である符号化単位a0の再生を有効に設定せず、動画1、2と音声1、2をそのまま接続する。
また、「(x2−y1)−y2≦0の」場合、動画2の再生タイミングよりも音声2の再生タイミングが遅れるが、音声2の再生終了時間よりも動画2の再生終了時間の方が遅いので、音声2の最後の符号化単位まで再生させる。
制御部106は、以上のように部分削除の処理を実行した後、削除部分以降の各シーンについて、動画ファイルを先頭から再生した場合の、動画データと音声データの各シーンにおける終端部分の時間差を前述の様に算出する。
そして、終端部分の時間差が1AAUの再生時間を超える場合、制御部106は、その次のシーンの先頭のAAUである追加音声を再生させるように、先頭のAAUのオフセットをmoovに追加する。
図18は、本実施形態に係る同時記録モードで記録された動画ファイルにおける部分削除動作のフローチャートを示す図である。図18の動作は、制御部106が各部を制御することにより行なわれる。
ユーザは再生モードにおいて、操作部107を操作することにより、同時記録モードで記録された動画ファイルの部分削除を指示する。制御部106は、部分削除が指示されると、各部を制御して、指定された動画ファイルにおける先頭からn秒ごとの画面の縮小画像を表示部104に表示する。具体的には、制御部106は、指定された動画ファイルのmoovに格納されたオフセット情報から、n秒毎の動画データの位置を検出する。そして、制御部106は、検出したn秒毎の動画データを再生し、縮小画像を生成するように記録再生部108と信号処理部105に指示する。
記録再生部108は、指定された位置の動画データを読み出してメモリ103に記憶する。信号処理部105は、読み出された動画データを復号し、復号された動画データの各画面を縮小し、表示部104に表示する。
ユーザは表示部104に表示されたn秒毎の縮小画像から、削除したい部分に対応した縮小画像を選択し、削除を指示する。なお、このとき、削除部分として、n秒単位の動画データを一つ以上選択できるようにしてもよい。このように削除部分が指定されると、図18の処理が開始される。
制御部106は、元の動画ファイルから、図17(a)に示すような、削除部分お前後の動画と音声の時間差を検出する(S1801)。前述のように、同時記録モードで動画ファイルを記録する際に、n秒毎のシーンそれぞれについて、先頭部分と終端部分の動画と音声の時間差の情報が付加情報としてmoovに格納されている。制御部106は、この時間差の情報に基づいて時間差を検出する。次に、制御部106は、元の動画ファイルのmoovに格納されたオフセット情報に基づき、削除部分以降の動画と音声のオフセットを算出する(S1802)。
次に、制御部106は、図17に示したように、削除部分の前後の動画と音声の時間差が、y1=x2となっているか否かを判別する(S1803)。y1=x2であった場合、制御部106は、削除部分以降の各シーンの終端部分の動画と音声の時間差を算出する(S1804)。終端部分の時間差が1AAUの再生時間を超える場合、制御部106は、その次のシーンの先頭のAAUである追加音声を再生させるように、先頭のAAUのオフセットをmoovに追加する(S1805)。次に、制御部106は、このように算出、及び変更したオフセット情報を、部分削除後の動画ファイルのmoovに格納する(S1806)。これにより、削除部分の前後の動画と音声が接続される。
また、S1803で、y1=x2でなかった場合、制御部106は、y1>x2となっているか否かを判別する(S1807)。y1>x2であった場合、制御部106は、削除部分の直後の音声データの先頭符号化単位である追加音声のオフセットを算出する(S1808)。そして、制御部106は、この追加音声のオフセットをmoovに格納する(S1809)。
更に、制御部106は、(y1−x2)+y2≧1AAU時間となっているか否かを判別し、(y1−x2)+y2≧1AAU時間の場合、S1804に進む(S1810)。また、(y1−x2)+y2≧1AAU時間でない場合、即ち、(y1−x2)+y2<1AAUである場合、削除部分の直後のn秒分の音声データの最後の符号化単位のオフセットを、S1802で算出したオフセットから削除する(S1811)。また、制御部106は、この最後の符号化単位のオフセット情報を、付加情報としてmoovに格納し(S1812)、S1804に進む。
また、S1807で、y1>x2でない場合、y1<x2であるので、制御部106は、(x2−y1)−y2>0であるか否かを判別する(S1813)。(x2−y1)−y2>0の場合、削除部分の直後のn秒分の音声データの最後の符号化単位のオフセットを、S1802で算出したオフセットから削除する(S1811)。また、制御部106は、この最後の符号化単位のオフセット情報を、付加情報としてmoovに格納し(S1812)、S1804に進む。
また、(x2−y1)−y2>0でない場合、即ち、(x2−y1)−y2≦0の場合、制御部106は、S1804に進む。
なお、制御部106は、部分削除の処理の後に記録される残りの動画と音声について、それぞれn秒毎の先頭部分と終端部分の時間差、並びに、追加音声のオフセットの情報はそのままmoovに格納しておく。
このように、同時記録モードで記録された動画ファイルからn秒を単位として動画データと対応する音声データを削除した場合に、削除部分以降の動画と音声が不自然な再生となることを防ぐことができる。
次に、本実施形態に係るか記録装置の再生時の動作を説明する。操作部107より再生モードの指示が出力された場合、制御部106は、記録再生部108に対し、記録媒体109に記録された各動画ファイルのサムネイル画像を読みだしてメモリ103に記憶するように指示する。なお、本実施形態では、制御部106が、動画ファイルを新たに作成して記録する際に、動画データの先頭のフレームを縮小した画像データを生成し、サムネイル画像データとして動画ファイルに格納して記録する。
信号処理部105はメモリ103に記憶された各サムネイル画像データを用いて、各動画ファイルのインデックス画面を生成し、表示部104に表示する。ユーザは、操作部107を操作し、表示されたインデックス画面から何れかを選択し、再生を指示する。
制御部106は、再生指示が出力された場合、選択された動画ファイルを再生するように、記録再生部108に指示する。記録再生部108は、指定された動画ファイルを再生し、メモリ103に記憶する。信号処理部105は、メモリ103より符号化された動画データと音声データを読み出し、これらを復号して再度メモリ103に記憶する。復号された動画データは表示部104に送られ、表示される。また、復号された音声データは不図示の出力部などから出力される。
このように、本実施形態では、同時記録モードにおいて、一つの動画ファイル対して動画と音声を追加して記録する場合に、動画の先頭に対応した音声データの先頭位置よりも所定時間だけ前から音声を記録している。そして、シーンの終端部分における動画と音声の時間差が所定時間以下の場合、この先頭の音声データが再生されないようにオフセットを記録し、部分削除の後、動画と音声を接続する際に、接続部分の前後の動画と音声の時間差に基づいて、追加音声を再生させるようにする。また、終端部分の動画と音声の時間差が所定時間を超える場合、先頭の音声データを再生させるように記録する。
これにより、同時記録モードにより追加されて記録されるシーンにおいて、動画よりも音声が大幅に先行して再生されることがない。また、部分削除を行った場合、削除部分の前後のシーンの結合部分以降の動画よりも音声が先に再生されることがなく、不自然な再生となることを防ぐことができる。また、結合部分において、無音のデータを挿入しないので、部分削除後の動画ファイルの再生中に音声が途切れてしまうことがない。
なお、本実施形態では、音声データの再生時間が動画データの再生時間を超えない様に記録していたが、動画データの終端に対応した音声データの符号化単位までを記録する構成としてもよい。
また、本実施形態では、同時記録モードでは、動画データの各フレームをフレーム内予測符号化により符号化したが、通常の記録モードと同じく、フレーム内符号化と、フレーム間符号化とを用いて動画データを符号化してもよい。
この場合、動画データは、GOPと呼ばれる単位で復号が可能となるため、動画データの記録先頭、及び終了位置を、GOPの単位で決定する。従って、S1405で動画と音声の符号化を停止した後、動画の記録先頭位置を以下の様に決める。即ち、制御部106は、静止画記録の指示の時点からn秒前のフレームを含むGOPを検出する。そして、このGOPの先頭のフレームを動画データの記録開始位置として設定する。また、静止画記録の指示に対応したフレームを含むGOPを動画データの記録終了位置として設定s得る。
また、このように動画データの記録開始位置が決定された場合、制御部106は、この動画データの記録開始位置に対応した、音声データのサンプル位置を検出し、このサンプルを含む音声符号化単位(AAU)よりも一つ前のAAUを音声の記録開始位置として決定する。
また、本実施形態では、同時記録モードでは、静止画撮影指示のn秒前の動画と音声を記録するが、静止画を記録せずに、ユーザによる記録指示の直前のn秒分の動画と音声を一つのファイルに追加して記録するようにしてもよい。また、これ以外にも、既に記録媒体109に記録されている動画ファイルに新たに動画と音声を追記する場合、同じように処理を行うことが可能である。
以下、このような追記モードについて説明する。追記モードでは、ユーザによる記録開始の指示からn秒分の動画と音声を記録した後、記録が停止される。そして、追記モードで記録媒体109に記録されている一つの動画ファイルに対し、このn秒分の動画と音声が追加して記録される。
図19は本実施形態に係る追記モードでの動作のフローチャートを示す図である。図19の動作は、制御部106が各部を制御することにより実行される。前述の様に、記録待機状態で追記モードが設定されると、図19の処理が開始される。
制御部106は、まず、記録媒体109から、追記モードで記録された動画ファイルを検出し、この動画ファイルを先頭から再生した場合の、動画データと音声データの終端部における動画と音声の時間差を検出する(S1901)。ここで、時間差は、S1406の処理と同様の方法により検出される。
次に、制御部106は、音声取得部102からの音声データのメモリ103への記憶を開始する(S1902)。ここでは、少なくとも二つの音声データの符号化単位に対応したサンプル数の音声データを記憶しておけばよく、この2符号化単位分の音声データが繰り返しメモリ103に記憶される。
この状態で、制御部106は、記録開始の指示が出力されたか否かを判別する(S1903)。記録開始の指示が出力された場合、制御部106は、S1901で検出した時間差に基づき、記録開始の指示に対応した音声サンプルよりも、S1901で検出した時間差だけ前のサンプルを記録開始位置として決定する(S1904)。次に、このように音声データの記録先頭位置が決定されると、制御部106は、動画と音声のシーン境界におけるオフセットを算出して、メモリ103に記憶する(S1905)。具体的には、制御部106は、S1901で算出された時間差が、1AAUの再生時間以下であるか否かを判別する。そして、時間差が1AAUの再生時間以下の場合、制御部106は、記録先頭位置のAAUの次のAAUのオフセットをmoovに格納することで、先頭のAAUを再生させないようにする。そして、先頭のAAUのオフセット情報は、付加情報としてmoovに格納される。一方、時間差が1AAUの再生時間を超える場合、制御部106は、記録先頭位置のAAUをmoovに格納することで、先頭のAAUを再生させるようにする。
そして、制御部106は、撮像部101から出力された動画データのメモリ103への記憶を開始すると共に、信号処理部105に対し、動画データと音声データの符号化を開始するように指示する(S1906)。このとき、制御部106は、動画データについては、記録開始の指示に対応したフレームから符号化を開始するように指示し、音声データについては、S1904で決定した先頭位置から符号化する様に指示する。次に、制御部106は、記録再生部108に対し、符号化された動画データと音声データとを、指定された動画ファイルに追加して記録する様に指示する。記録再生部108は、メモリ103から符号化された動画データと音声データとを読み出し、追記先の動画ファイルに追加して記録する(S1907)。
このように記録を開始した後、制御部106は、記録開始からn秒が経過したか否かを判別する(S1908)。記録開始の指示からn秒か経過した場合、制御部109は、動画データと音声データの符号化、及び記録を停止する(S1909)。このとき、動画データの再生停止位置よりも音声の再生停止位置が前になるように、動画データと音声データの記録停止位置が決定される。
次に、制御部106は、記録再生部108に対し、この追記された動画ファイルの管理情報moovの内容を更新するように指示する(S1910)。これにより、新たに記録された動画データと音声データの情報がmoovに追加される。また、S1905でメモリ103に記憶された、シーン境界の動画と音声のオフセット情報がmoovに格納される。また、先頭のAAUを再生させない場合には、この先頭のAAUのオフセット情報が付加情報としてmoovに格納される。また、各シーンの先頭、終端部分の動画と音声の時間差の情報は、moovに格納される。
なお、上述した追記モードで記録した動画ファイルの一部を削除することができる。この場合、moovに格納されたシーン境界のオフセット情報に基づいて、シーン境界部分の縮小画像を表示部104に表示し、ユーザにより選択された縮小画像に対応するシーンの先頭から終端までが動画ファイルから削除される。削除後、削除部分の前後の動画と音声を、図17、図18に示す動作に従って接続する。
上述した本発明の動画ファイルの記録構成によれば、たとえ記録後に動画ファイルの結合や一部削除を行なったとしても、その動画ファイルの再生において動画と音声の再生タイミングのずれによる不自然な再生となることを防ぐことが可能となる。
なお、追記モードにおいて、ユーザが記録開始と停止を指示する構成とし、ユーザによる記録開始から記録停止の指示までの動画と音声を記録するようにしてもよい。また、追記モードにおいて、記録媒体109に記録済みの動画ファイルの中から、ユーザが選択した動画ファイルに対して動画と音声を追記する構成としてもよい。また、追記モードが設定される直前に記録された動画ファイルを選択する等、その他の構成とすることも可能である。
(その他の実施形態)
前述した本発明の実施形態における記録装置を構成する各手段、並びに記録方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。
また、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、その他の方法として、まず記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。

Claims (12)

  1. 動画データを取得する動画取得手段と、
    音声データを取得する音声取得手段と、
    第1の期間に対応した動画サンプルを符号化単位として前記取得された動画データを符号化し、第2の期間に対応した音声サンプルを符号化単位として前記取得された音声データを符号化する符号化手段と、
    前記符号化手段により符号化された動画データと音声データとを動画ファイルに格納して記録媒体に記録する記録手段と、
    前記取得された動画データの記録開始位置に基づいて、前記取得された音声データの記録開始位置を決定する制御手段とを備え、
    前記制御手段は、前記取得された動画データの記録開始位置よりも、少なくとも前記第2の期間に対応した音声サンプルだけ前の位置を前記取得された音声データの記録開始位置として決定し、前記記録された音声データの再生開始位置を、前記記録された音声データの先頭から前記音声データの符号化単位だけ後の位置と決定することを特徴とする記録装置。
  2. 前記記録手段は、記録指示に応じて新たな動画ファイルを生成して記録し、前記制御手段は、前記取得された音声データの記録開始位置を、前記取得された動画データの記録開始位置よりも前記第2の期間に対応した音声サンプルだけ前の位置と決定することを特徴とする請求項1に記載の記録装置。
  3. 前記記録手段は、前記記録媒体に既に記録されている所定の動画ファイルに対し、記録指示に応じて前記記録媒体に記録された動画データと音声データとを追加し、前記制御手段は、前所定の動画ファイルにおける動画データの再生終了位置と音声データの再生終了位置との時間差だけ前の位置を、前記取得した音声データの記録開始位置と決定することを特徴とする請求項1に記載の記録装置。
  4. 前記制御手段は、前記時間差が前記第2の期間よりも大きいか否かを判別し、前記時間差が前記第2の期間より小さい場合、前記記録された音声データの再生開始位置を、前記記録された音声データの先頭から前記音声データの符号化単位だけ後の位置とし、前記時間差が前記第2の期間よりも大きい場合、前記記録された音声データの先頭を再生開始位置とすることを特徴とする請求項3に記載の記録装置。
  5. 前記符号化手段により符号化された動画データと音声データとを記憶するメモリを備え、
    前記符号化手段は、記録待機状態において、前記動画取得手段により取得された動画データと前記音声取得手段により取得された音声データとを順次符号化しながら、少なくとも所定期間の前記符号化した動画データと前記符号化した音声データとを前記メモリに記憶し、
    前記記録手段は、前記記録待機状態における記録指示に応じて、前記メモリに記憶された、前記所定期間の符号化された動画データと、前記所定期間の符号化された動画データに対応した期間の符号化された音声データとを、前記記録媒体に記録し、前記記録指示に応じて記録した動画データと音声データとを、前記記録媒体に既に記録されている所定の動画ファイルに対して追加し
    前記制御手段は、前記記録指示に応じた前記動画サンプルから前記所定期間だけ前の動画サンプルに対応した音声サンプルを含む前記音声データの符号化単位の一つ前の符号化単位の先頭の音声サンプルを、前記音声データの記録開始位置とすることを特徴とする請求項1に記載の記録装置。
  6. 前記制御手段は、前記所定の動画ファイルの動画データの再生終了位置と音声データの再生終了位置との時間差が、前記第2の期間よりも大きいか否かを判別し、前記時間差が前記第2の期間以下である場合、前記記録指示に応じて記録された音声データの再生開始位置を、前記記録指示に応じて記録された音声データの先頭から前記音声データの符号化単位だけ後の位置とし、前記時間差が前記第2の期間よりも大きい場合、前記記録指示に応じて記録された音声データの先頭を再生開始位置とすることを特徴とする請求項に記載の記録装置。
  7. 前記制御手段は、前記取得された動画データの記録開始位置を前記記録指示に応じて決定し、前記記録指示があるまで前記符号化手段を制御して、前記符号化された音声データの少なくとも前記第2の期間より長い第3の期間に対応した音声サンプルを前記メモリに繰り返し記憶することを特徴とする請求項5に記載の記録装置。
  8. 前記制御手段は、前記符号化された音声データの再生開始位置を示す管理情報を生成して前記記録手段が記録する前記動画ファイルに格納するとともに、前記取得された動画データの記録開始位置を前記符号化された動画データの再生開始位置とする管理情報を生成して前記動画ファイルに格納することを特徴とする請求項1に記載の記録装置。
  9. 前記制御手段は、前記記録媒体に記録されている一つの動画ファイルに格納された符号化された動画データおよび音声データに、前記記録媒体に記録されている他の動画ファイルに格納された符号化された動画データおよび音声データを結合したときは、前記他の動画ファイルの符号化された音声データの再生開始位置を、前記一つの動画ファイルの符号化された動画データの再生終了位置と前記一つの動画ファイルの符号化された音声データに結合された前記他の動画ファイルの音声データの再生開始位置との時間差に従って変更することを特徴とする請求項に記載の記録装置。
  10. 前記制御手段は、結合された複数の符号化された動画データと音声データから一つの符号化された動画データと音声データを削除して前記削除した符号化された動画データと音声データの直前と直後の符号化された動画データと音声データをそれぞれ結合する時は、前記削除した符号化された動画データおよび音声データの直前の符号化された動画データと音声データの再生終了位置の時間差と前記削除した符号化された動画データおよび音声データの直後の符号化された動画データと音声データの再生終了位置の時間差とに従って、前記直前の符号化された音声データに結合された前記直後の符号化された音声データの再生開始位置を変更することを特徴とする請求項又はに記載の記録装置。
  11. 前記動画取得手段は、撮像手段を含むことを特徴とする請求項1から10のいずれか一項に記載の記録装置。
  12. 動画データを取得するステップと、
    音声データを取得するステップと、
    第1の期間に対応した動画サンプルを符号化単位として前記取得された動画データを符号化し、第2の期間に対応した音声サンプルを符号化単位として前記取得された音声データを符号化するステップと、
    前記符号化された動画データと音声データとを動画ファイルに格納して記録媒体に記録するステップと、
    前記取得された動画データの記録開始位置に基づいて、前記取得された音声データの記録開始位置を決定するステップとを備え、
    前記決定するステップは、前記取得された動画データの記録開始位置よりも、少なくとも前記第2の期間に対応した音声サンプルだけ前の位置を前記取得された音声データの記録開始位置として決定し、前記記録された音声データの再生開始位置を、前記記録された音声データの先頭から前記音声データの符号化単位だけ後の位置と決定することを特徴とする記録方法。
JP2012276875A 2012-12-19 2012-12-19 記録装置、記録方法およびプログラム Active JP6066712B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012276875A JP6066712B2 (ja) 2012-12-19 2012-12-19 記録装置、記録方法およびプログラム
US14/106,023 US9025931B2 (en) 2012-12-19 2013-12-13 Recording apparatus, recording method, and program
CN201310706201.9A CN103888662B (zh) 2012-12-19 2013-12-19 记录设备和记录方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012276875A JP6066712B2 (ja) 2012-12-19 2012-12-19 記録装置、記録方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2014121049A JP2014121049A (ja) 2014-06-30
JP2014121049A5 JP2014121049A5 (ja) 2016-02-12
JP6066712B2 true JP6066712B2 (ja) 2017-01-25

Family

ID=50930986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012276875A Active JP6066712B2 (ja) 2012-12-19 2012-12-19 記録装置、記録方法およびプログラム

Country Status (3)

Country Link
US (1) US9025931B2 (ja)
JP (1) JP6066712B2 (ja)
CN (1) CN103888662B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6745629B2 (ja) * 2016-04-01 2020-08-26 キヤノン株式会社 情報処理装置およびその制御方法
CN108664534A (zh) * 2017-04-02 2018-10-16 田雪松 应用服务数据的获取方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261916A3 (en) * 1998-02-23 2011-03-09 Kabushiki Kaisha Toshiba Information storage medium, information playback method and apparatus and information recording method
JP2000078531A (ja) * 1998-04-28 2000-03-14 Hitachi Ltd オ―ディオデ―タ編集方法、編集システム
JP3224371B2 (ja) * 1998-11-30 2001-10-29 松下電器産業株式会社 符号化av信号の同期方法
US7274862B2 (en) * 2001-09-27 2007-09-25 Sony Corporation Information processing apparatus
JP2004248104A (ja) * 2003-02-14 2004-09-02 Sony Corp 情報処理装置及び情報処理方法
JP3675465B2 (ja) * 2003-10-29 2005-07-27 ソニー株式会社 符号化制御装置および符号化システム
JP5059301B2 (ja) * 2005-06-02 2012-10-24 ルネサスエレクトロニクス株式会社 同期再生装置および同期再生方法
JP4227604B2 (ja) * 2005-07-25 2009-02-18 シャープ株式会社 動画像再生装置及び記録媒体
JP4501854B2 (ja) * 2005-12-22 2010-07-14 株式会社日立製作所 映像音声記録装置
JP4838191B2 (ja) 2007-05-08 2011-12-14 シャープ株式会社 ファイル再生装置、ファイル再生方法、ファイル再生を実行させるプログラム及びそのプログラムを記録した記録媒体
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata

Also Published As

Publication number Publication date
US20140169753A1 (en) 2014-06-19
CN103888662B (zh) 2017-04-12
JP2014121049A (ja) 2014-06-30
US9025931B2 (en) 2015-05-05
CN103888662A (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
JP6066712B2 (ja) 記録装置、記録方法およびプログラム
JP2012156587A (ja) 動画記録装置
JP5917123B2 (ja) 記録装置
JP5713701B2 (ja) 動画記録装置
JP6112852B2 (ja) 記録装置、記録方法およびプログラム
JP4883797B2 (ja) 記録装置
JP5848594B2 (ja) 記録装置
JP6049410B2 (ja) 画像処理装置および画像処理方法
JP2014045353A (ja) 画像処理装置
JP4385987B2 (ja) 映像処理装置,映像処理方法,およびコンピュータプログラム
JP2004220679A (ja) 再生装置
KR20080095382A (ko) 동영상 파일 목록 편집 방법
JP2015099995A (ja) 記録装置及び記録装置の制御方法
JP4724551B2 (ja) 動画像処理装置及び動画像処理方法
JP2014075730A (ja) 画像処理装置、画像処理方法、プログラム
JP2009105477A (ja) 再生装置及び再生方法
JP5889459B2 (ja) 記録装置
JP5511739B2 (ja) 記録装置及び記録方法
JP2015046948A (ja) 画像処理装置
JP2014096194A (ja) 記録装置及び記録方法
JP2013240111A (ja) データ処理装置、方法および制御プログラム
JP2008028948A (ja) 画像処理装置及び画像処理方法
JP2014022868A (ja) 画像処理装置
JP2014060498A (ja) 画像処理装置、画像処理方法、プログラム
JP2011124851A (ja) 信号処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161220

R151 Written notification of patent or utility model registration

Ref document number: 6066712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151