JP2004040182A - Moving picture storage method and moving picture storage apparatus - Google Patents

Moving picture storage method and moving picture storage apparatus Download PDF

Info

Publication number
JP2004040182A
JP2004040182A JP2002190538A JP2002190538A JP2004040182A JP 2004040182 A JP2004040182 A JP 2004040182A JP 2002190538 A JP2002190538 A JP 2002190538A JP 2002190538 A JP2002190538 A JP 2002190538A JP 2004040182 A JP2004040182 A JP 2004040182A
Authority
JP
Japan
Prior art keywords
moving image
additional information
file
dubbing
storage medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002190538A
Other languages
Japanese (ja)
Inventor
Satoru Yashiro
八代 哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002190538A priority Critical patent/JP2004040182A/en
Publication of JP2004040182A publication Critical patent/JP2004040182A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving picture storage method whereby a function such as the searching of a moving picture can be utilized in a comparatively short period of dubbing time without the need for troublesome apparatus operations by a user, and to provide a moving picture storage apparatus. <P>SOLUTION: First attachment information is dubbed from all files at a reproduction side (S601). The first attachment information is attachment information in a form of an independent file, or attachment information attached to the head or end of a moving picture file. Then second attachment information of undubbed parts is dubbed (S602). The second attachment information indicates the attachment information of a TS packet having an identifier as the attachment information among TS packets configuring the moving picture file and other than the first attachment information. Then moving picture data are dubbed (S603). The moving picture data are TS packets having identifiers other than those for the attachment information among TS packets configuring the moving picture file. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、他の記憶媒体から転送された映像や音声を再生する動画蓄積装置、動画蓄積方法、動画蓄積装置の制御プログラムおよびその制御プログラムを格納したコンピュータ可読の記憶媒体に関する。
【0002】
【従来の技術】
近年ハードディスクの大容量化、高速化、また、コンピューター技術の進歩により動画をハードディスクに記憶して再生することが可能になってきつつある。例えば、家庭用ビデオカメラで撮影した映像や放送される映像をハードディスクに録画蓄積(ダビング)し、ダビングした映像を再生することができるハードディスクレコーダーが実現可能となってきた。
【0003】
ところで、今まで一般の家庭において旅行やイベントなどを記憶に残すためビデオカメラで撮影した場合、撮影した日にだけ再生して、あとはあまり見ることがないという場合が多かった。この理由は、撮影したメディアの入れ替えが面倒であったり、再生を繰り返すことによる記憶メディアの劣化が気になったためである。しかし、上記ハードディスクレコーダーのような動画蓄積装置があれば、例えば、ビデオカメラで撮影した映像をその日のうちに再生しながらハードディスクレコーダーにダビングしておけば、後日、メディアの入れ替えも不要であり、再生を繰り返すことによる記憶メディアの劣化の心配もなく、好きな箇所から自由に撮影した映像の動画を再生させることができ、上記の問題を解消することが可能となる。
【0004】
しかしながら、従来のハードディスクレコーダーでは、例えばビデオカメラで撮影した映像をハードディスクにデータをダビングしている間は、ビデオカメラで撮影した映像を再生をし続ける必要があった。また、途中で再生を止めたり、ビデオカメラに装着された記憶メディアを交換したり、早回しなどのトリックプレイを行うと、その時点で映像のダビングが終了してしまうか、あるいは、止めた映像や早回しした映像そのものがダビングされてしまうという不具合を生じた。
【0005】
一方、動画には付属情報が付加されており、この付属情報は、映像、音声に対して関連付けられた文字や画像などの情報であり、基本的な種類と記述方法はMPEG7で規格化が進められている。このような付属情報の利用方法としては、例えば、動画ファイルの検索を容易にするために、動画ファイルの付属情報を利用して、文字による検索を行う方法が考えられる。また別の利用方法としては、動画ファイルの付属情報を利用して動画中の所望シーンをすばやく検索し、この所望シーンを縮小した静止画で一覧表示することで動画の概要を把握する方法も考えられる。
【0006】
付属情報のダビングに関しては、例えば、特開平8−116510号では、サブコードデータや映像及び音声のAUXデータ、メモリ付カセットではカセットに関する情報を付属情報として扱い、従来はダビングの対象とはならなかった付属情報を動画と共に完全にコピーする方法が開示されている。
【0007】
【発明が解決しようとする課題】
しかしながら、従来のハードディスクレコーダーでは、上記説明したメディア上の付属情報を利用して所定の機能を実行する場合には、例えば、家庭用のビデオカメラなどで新しく撮影して記憶されているソースメディアから動画データをハードディスクレコーダーに完全にダビングしてから、そのダビングした動画データに含まれる付属情報を抽出して利用していた。そのため、付属情報を入手するためには、ソースメディアから動画データをハードディスクレコーダーに完全にダビングする必要があり、当然のことながら、付属情報の完全なダビングには動画データをダビングする時間と同等の時間を必要とした。
【0008】
本発明は、上記従来技術の問題点を解決することを出発点としてなされたものであり、その目的は、動画を検索するなどの機能を、比較的短いダビング時間でユーザによる機器操作の煩わしさなしに利用できる動画蓄積方法および動画蓄積装置を提供することである。
【0009】
【課題を解決するための手段】
上記目的を達成するための本発明に係る一実施形態の動画蓄積方法は、以下の構成を有する。すなわち、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする場合に、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングすることを特徴とする。
【0010】
ここで、前記付属情報は第1付属情報と第2付属情報とを含み、該第1付属情報は、前記動画ファイルと独立の付属情報ファイルと、前記動画ファイルの先頭部または末尾部に含まれる付属情報とからなり、該第2付属情報は、前記動画データの先頭部と末尾部以外に含まれる付属情報からなる。また、前記動画データの先頭部と末尾部に含まれる付属情報は、動画ファイル全体に関する付属情報であり、前記動画データの先頭部と末尾部以外に含まれる付属情報は、前記動画ファイルの各画像フレームに関する付属情報である。また、前記動画ファイル全体に関する付属情報は、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態を含む。また、前記各フレームに関する付属情報は、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態を含む。また、前記第1付属情報は、プレイリストや欠損リストを含む。また、前記付属情報をダビングする際には、前記第1の記録媒体に記録された動画ファイルとダビングする付属情報のファイルオフセットが一致するように同期をとってダビングする。また、前記付属情報をダビングする際には、前記ダビングする付属情報をMPEG7におけるMedia Instanceタグとして表現し、前記動画データに含まれる動画ファイルの末尾の付属情報としてダビングする。また、前記第1及び/又は第2記憶媒体は、ランダムアクセス可能な記憶媒体である。また、転送中に正常な転送ができないと判断する場合は、前記転送を停止する工程と、前記転送停止により発生する未転送部分を示す情報を保持する工程とを更に有する。
【0011】
上記目的を達成するための本発明に係る一実施形態の動画蓄積装置は、以下の構成を有する。すなわち、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビング手段と、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビング手段とを有することを特徴とする。
【0012】
上記目的を達成するための本発明に係る一実施形態の制御プログラムは、以下の構成を有する。すなわち、動画蓄積装置を制御する制御プログラムであって、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする。
【0013】
上記目的を達成するための本発明に係る一実施形態のコンピュータ可読記憶媒体は、以下の構成を有する。すなわち、動画蓄積装置を制御する制御プログラムを格納したコンピュータ可読の記憶媒体であって、前記制御プログラムは、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする。
【0014】
【発明の実施の形態】
<第1実施形態>
以下、本発明の実施形態の動画蓄積装置100について図面に基づいて詳細に説明する。なお以下の説明では、ダビングのことをキャプチャと呼ぶ場合もある。
【0015】
[動画蓄積装置のハードウエア構成:図1]
図1は本実施形態の動画蓄積装置100のハードウエア構成を示している。図1に基づいて、動画蓄積装置100のハードウエアの構成について説明する。
【0016】
101はCPUであり、ROMやRAMに格納された制御プログラムを実行する中央演算処理部である。102はROMであり、本発明によるプログラムやデータが格納される。103は一時的なデータを記憶するRAMである。動画編集などの為の一時的なダビングを目的とした場合にはRAMの一部の領域をダビングする際の動画、および付属情報、複製情報を記憶する目的で使用することができる。
【0017】
104はハードディスク(第2の記憶媒体)であり、映像や音声や付属情報を記憶する。本実施形態では、ダビングする際、動画を録画する目的で使用されるため、DVD−RAM、CD−RW、MO、その他のストレージデバイス、また、ネットワークに接続されたストレージデバイスであってもよい。105はビデオカメラである。本実施形態では、ダビングする際、録画した動画の再生を行う目的で接続するため、ビデオデッキ等のAV機器、またはパーソナルコンピューター等であってもよい。
【0018】
106はIEEE1394インターフェースであり、ビデオカメラ105と接続され、ビデオカメラ105より動画映像音声情報および付属情報の帯域を確保してリアルタイムに確実に入出力したり、ビデオカメラ105を操作する制御コマンドの入出力を行ったり、ビデオカメラ105のソースメディア(第1の記憶媒体)がイジェクトされたり、ビデオカメラ105の電源ON/OFFなどの状態を知ることができ、さらに、接続されたストレージデバイス上のデータをファイルとして扱い、ファイルの一覧、ファイルの属性やファイルの任意の位置のデータを入出力すること等が可能である。目的を達すればIEEE1394インターフェースの代わりに、USBなどその他の有線インターフェースを用いても良いし、802.11やHomeRFなどの無線インターフェースを使用することもできる。
【0019】
107はスイッチやつまみ、ボタンなどから構成される操作パネルである。108はシリアルインターフェースであり、操作パネル107からの信号をCPU101で処理可能なデジタルデータに変換する。109はリモコンであり、ボタンからの押下情報を赤外線で発信する。110は、IrDAインターフェースであり、リモコン109の発信する赤外線を受信し、CPU101で処理可能なデジタルデータに変換する。
【0020】
111は映像や音声を出力するTVである。TV111は、パーソナルコンピュータ向けの高解像度のディスプレイや携帯端末向けなど低解像度のディスプレイ、ブラウン管や液晶ディスプレイ、カラーモニター、白黒モニターなどでもよい。112は出力部で、TV111で表示する機能メニューや動作モードおよび、符号化された動画データを復号し映像や音声信号を出力する。
【0021】
113はフロッピーディスクやCD−ROMなどのリムーバブルディスクドライブ(FDD)であり、後述するアプリケーションプログラム媒体からの読み出しなどに用いられる。114はネットワークインターフェイス(Net−I/F)であり、後述するインターネットなどのネットワークシステムとのデータ転送を行う為のデータ制御や診断を行う。115は上述した各ユニット間を接続する為のI/Oバス(アドレスバス、データバスおよび制御バス)である。
【0022】
[リモコン:図2]
図2はリモコン109の概観を示すものである。
【0023】
201はメニューボタンでメニューボタン201を押下すると、ビデオ操作以外の比較的使用頻度の低い機能の階層化された一覧がTV111上に表示される。202はカーソル移動ボタンで、TV111上に表示される注目点をそれぞれの方向に移動する。203は実行ボタンで、カーソルのあるアイテムを指定したり、操作遷移を進めるものである。204は取消ボタンで、実行ボタン203による指定をキャンセルしたり、操作遷移を前の状態に戻すものである。
【0024】
205はビデオ操作ボタンで、それぞれ、早戻し、再生、早回し、録画、ポーズ、停止を指示するものである。なお、ビデオ操作ボタンは、動画蓄積装置100の操作のほか、IEEE1394インターフェース106を通してビデオカメラ105にビデオ操作制御コマンドを送ることでビデオカメラ105を操作することも可能である。動画蓄積装置100またはビデオカメラ105のどちらを操作するかはターゲットデバイスモードの状態による。例えば、ターゲットデバイスモードを再生側に設定すれば、ビデオカメラ105に搭載されたソースメディアに記憶された動画データを動画蓄積装置100に転送することができる。206は電源ボタンであり、動画蓄積装置100の電源のON/OFFを行う。
【0025】
リモコン109を用いて機能を実行する場合には、メニューボタン201を押下し、TV111に表示される階層化された機能一覧からカーソル移動ボタンにより注目点を移動することで機能を選択し、実行ボタン203を押下することで機能コマンドが発生し実行される。操作パネル107にもリモコンと同等のボタンやリモコンで選択可能な機能を割り当てたボタンやつまみが配置されている。
【0026】
なお機能コマンドの入力部としてはリモコン109や操作パネル107の各ボタンなどのほかに、パソコンのキーボードやマウスのような入力部によって構成してもよく、より多くのボタンを配し、携帯性には劣るが操作性を向上した操作盤によって構成してもよい。
【0027】
[動画データの構成例:図3]
次に記憶媒体に記憶される動画データの例を図3に示す。
【0028】
動画データは主に動画ファイル301(図3(a))とプレイリストファイル302(図3(b))の2種類のファイルで構成される。動画ファイル301は本実施形態ではMPEG2規格のトランスポートストリーム形式によって映像(Video)、音声(Audio)、付属情報が多重化されたファイルとして記憶されている。なお、動画ファイル301の形式はMPEG2に限ったものではなく、DVやその他の形式であってもよい。
【0029】
(動画ファイル:図3(a))
動画ファイルは、トランスポートストリーム形式の場合には連続した固定長のTSパケットで構成され、各TSパケットのヘッダには本体データの種別をあらわす識別情報やクロック情報が含まれ、識別情報によって、映像(Video)、音声(Audio)、付属情報、またその他に、動画再生手段が追加した独自のデータを識別し、分離することができる。
【0030】
この動画ファイル301は、ビデオカメラ105において録画が開始されるたびに作成され、原則として1ショットが1動画ファイルに対応する。後に編集などの処理を行った場合は1ショットが複数の動画ファイルで構成され、プレイリストファイル302により再生方法が定義される。動画ファイルのファイル名は、例えば、録画が開始された日付と時間から決められる。一例を示せば、20010523201595.MP2のように付けられる。ただし、以下の動作説明の図面においては、ファイル名を簡略して説明するため、桁数の少ない数字をファイル名として用いて表現している。又、MACアドレス、IPv4やIPv6等のIPアドレスのような装置を識別する情報や、メディアにユニーク性を保証するメディア識別情報を記録しておき、それらと日付時刻を組み合わせてユニークなファイル名を生成してもよいし、単純な連番でもよい。
【0031】
メディアの識別はこのようなファイル名がメディアに存在するか否かによって識別する。装置の識別番号と時刻情報から識別情報を生成するとより確実である。映像(VIDEO)、音声(AUDIO)には、同期を取る為にそれぞれタイムスタンプ情報が格納されている。
【0032】
(付属情報:表1)
次に、付属情報について表1を参照しながら説明する。
【0033】
【表1】

Figure 2004040182
【0034】
付属情報のうち動画ファイル全体に関する付属情報(第1付属情報)は、先頭部分、末尾部分に配置される。先頭部分の付属情報は、動画ファイルの先頭TSパケットからTSパケット単位でファイル末尾方向へ走査し、データサイズ情報を獲得するか、付属情報の終端を示すデリミタによって範囲を特定できる。
【0035】
末尾部の付属情報は、動画ファイルの末尾のTSパケットからTSパケット単位でファイル先頭方向へ捜査し、データサイズ情報を獲得するか、付属情報の先頭を示すデリミタによって範囲を特定できる。
【0036】
画像フレームや任意の区間に関する情報(第2付属情報)は、対応する画像データや音声データの近傍に配置される様に多重化される。
【0037】
当然の事ながら、付属情報の一部またはすべてを動画ファイルとは独立したファイルとして配置してもよい。
【0038】
動画ファイル全体に関する付属情報(第1付属情報)には、たとえば、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態が格納される。また付属情報の修正や更新がされた場合、その差分情報が動画ファイル末尾に追加される。
【0039】
各フレームに関する付属情報(第2付属情報)は、ズームなどの操作情報、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態が格納される。また、複数の動画ファイルを対象とした付属情報(第1付属情報)としてプレイリストや欠損情報リストがある。これらの情報は動画編集、解析、動画検索のための手がかりとして使用される。
【0040】
表2にズーム等の操作情報の記述内容を挙げる。
【0041】
【表2】
Figure 2004040182
【0042】
付属情報の符号化形式は、それぞれのビットに意味を定義したバイナリデータでもよく、テキストデータでもよい。テキストデータの場合は、XML形式の独自の型定義によって表現してもよく、MPEG7規格にに準拠する型定義を用いて表現してもよい。
【0043】
(プレイリストファイル:図3(b))
プレイリストファイル302は、1つまたは複数の動画ファイルの任意の範囲または全部を指定したリストであり、動画再生処理は、このリストに従って動画をシームレスに再生することが可能である。
【0044】
プレイリストファイル302に格納するデータの内容は本実施形態では動画ファイル名、開始タイム、終了タイムからなるリストである。タイムは時:分:秒:フレーム番号の形式で格納される。なお動画区間が特定できる情報であれば、開始タイム、終了タイムの代わりに、クロック情報や、ファイルオフセット、記憶媒体上の物理的、論理的な位置情報を用いてもよい。
【0045】
[動画蓄積処理のメイン動作手順例:図4]
図4は、本実施形態の動画蓄積装置100において、本体の電源を投入してからCPU101がRAM103を用いてROM102に格納された動画蓄積処理の制御プログラムを実行するフローを示している。また、図7は、例えばソースメディア上の動画データ一覧の一例を示すものである。
【0046】
なお、以下の説明では、ビデオカメラ105に搭載されているソースメディア(第1記憶媒体)に記憶されている動画データを動画蓄積装置100のハードディスク104(第2記憶媒体)にダビング(キャプチャ)する例を用いて説明する。
【0047】
以下、図4に基づいて制御プログラムを実行するフローを詳細に説明する。
【0048】
電源を投入すると、ステップS401に進み、各種インターフェースの初期化などのシステムの初期化を行う。次に、ステップS402に進み、操作パネル114またはリモコン109からコマンドが入力されたか否かを調べ、コマンドが入力された場合にはステップS403に進み、入力されたコマンドの識別をし、入力されたコマンドに応じて、ステップS404、ステップS407、ステップS410またはステップS409の各処理を行う。
【0049】
(キャプチャ開始コマンド処理)
まずステップS403のコマンドの識別で、入力されたコマンドがソースメディア(第1記憶媒体)から第2記憶媒体にダビングを開始するためのキャプチャ開始コマンドであった場合(例えば、図2の録画が押された場合)には、ステップS404〜S406でダビング開始の準備処理を行う。
【0050】
すなわち、まず、ステップS404に進み、キャプチャモード中であることを示すフラグをONにする。このフラグを参照することにより、以降の処理でキャプチャモード処理を行う。次にステップS405に進み、ターゲットデバイスモードを再生側すなわちビデオカメラに設定する。以降の操作パネル107やリモコン109からのビデオ操作は再生側であるビデオカメラ105を操作するようになる。
【0051】
次にステップS406に進み、再生側のビデオカメラ105に装着されたソースメディア(第1記憶媒体)からメディア情報を取得する。ただし、転送元であるソースメディアのすべての情報を入手することは転送時間の制約から不可能なので、ここでは、動画ファイルの全リスト(図7の(a)参照)、およびプレイリストファイル(図7の(b)参照)の内容をハードディスク104(第2記憶媒体)に転送する。尚、この場合は、ダビング停止後の再開時には、ステップS406は実行されない。ステップS406でソースメディア(第1記憶媒体)からどれだけのデータを得るかは、転送時間の制約から選択される。
【0052】
次に、ステップS402に戻り、次のコマンドの入力があるまで待機する。
【0053】
(ソースメディアの動画データ一覧:図7)
なお、図7は、ステップS406において、ソースメディア(第1記憶媒体)から取得され、ハードディスク104に蓄積される情報の例である。図中、701はソースメディアに格納されているファイルの一覧である。拡張子が「.mp2」であるものが動画ファイルであり、拡張子が「.lst」であるものがプレイリストファイルである。また702は、プレイリストファイルの内容例を示すものである。
【0054】
(通常再生コマンド処理)
一方、ステップS403の入力されたコマンド識別で、入力されたコマンドが通常再生開始コマンドだった場合(図2の再生が押された場合)には、ステップS407に進み、キャプチャモードを調べる。
【0055】
次に、ステップS407において、キャプチャモードがONでなかった場合には、何もしないでステップS409に進み、キャプチャモードがONであった場合は、ステップS408でキャプチャ開始処理をしてからステップS409に進んで再生処理をスタートさせてから、ステップS402に戻り、次のコマンドの入力があるまで待機する。
【0056】
なおステップS408におけるキャプチャ開始処理は以下の通りである。まず、キャプチャ開始処理は受け側のハードディスク104(第2記憶媒体)に動画ファイルを作成し、IEEE1394インターフェースから受信する動画データをハードディスク104にダビング可能な状態にして、図9で後述するキャプチャ済みリストに新たなファイル名とキャプチャ開始時間を追加する。ダビング可能な状態となったら再生側のビデオカメラ105に再生コマンドを送りビデオカメラ105のソースメディア(第1記憶媒体)の動画データのダビング(キャプチャ)を開始する。
【0057】
なお、キャプチャしたデータの動画ファイルへの書き込みは論理的なデータのまとまりを単位として行う。これについて詳細は後述するが、まとまりが完成するまではRAM103に一時的に蓄積しておく。キャプチャが中断したときにデータがまとまりの途中で切れた状態のままハードディスクに蓄積することがない様にする。また記憶する動画ファイルは、再生側の動画ファイルが切り替わる箇所で一旦クローズし、再生側と同様に新しい動画ファイルに切り替える。記憶するファイル名は再生側のファイル名の後に連番を付けたものとし、記憶した動画ファイル名から再生側の動画ファイル名が機械的に特定できる様にする。
【0058】
従って、新しい動画ファイルに切り替える時点(例えば、図8のP2やP3)で、キャプチャ済みリストの最後のファイルの長さが記入され、キャプチャ済みリストに新たなファイル名が開始時間(0)と共に追加される。
【0059】
(トリックプレイ開始コマンド等の処理)
一方、ステップS403のコマンド評価で入力されたコマンドが早回し、早戻し等のトリックプレイ開始コマンド、停止コマンド、ポーズコマンド、ソースメディアイジェクトコマンド、電源OFFコマンドなどの正常なダビングができないコマンドであった場合は、ステップS410に進む。
【0060】
ステップS410において、キャプチャモードを調べ、キャプチャモードがONでなかった場合には何もしないでステップS414に進み、キャプチャモードがONであった場合は、ステップS411〜S413の処理をしてからステップS414に進む。ステップS414では、各々のコマンド処理を開始させてからステップS402に戻り、次のコマンドの入力があるまで待機する。
【0061】
なおステップS411〜ステップS413の処理は以下の通りである。
【0062】
すなわち、キャプチャモードがONであった場合は、ステップS411でキャプチャ処理を終了し、動画ファイルをクローズする。このキャプチャの終了処理では、RAM103に残っているハードディスクにダビングする前の不完全な動画データのまとまりは破棄して、ステップS408あるいは動画ファイルが切り替わった時点で、新たに追加したキャプチャ済みリストのファイルに長さを記入する。次に、ステップS412で、欠損リストの作成処理を行う。なおこの欠損リストの作成処理は、図5を用いて詳細に説明するのでここでの説明は省略する。次にステップS413で、キャプチャモード中を示すフラグをOFFにする。
【0063】
(その他のコマンドの処理)
一方、ステップS403のコマンド評価で入力されたコマンドがその他のコマンドであった場合は、何もしないでステップS415に進み、入力されたコマンドの処理を行ってからステップS402に戻り、次のコマンドの入力があるまで待機する。
【0064】
尚、上記図4の処理例では、欠損リストの作成・更新をダビング停止時に行うように説明したが、ダビング再開時にも欠損リストを更新するように制御してもよく、図4の簡単な修正、例えばステップS408のキャプチャ開始処理で欠損リストの更新を行うことにより実現される。又、停止ボタンなどが押されない間は、ポーズやトリックプレイを終了するとダビングを自動的に再開するよう制御してもよく、この場合にはキャプチャフラグのON/OFFの手順の変更、例えば、図4のステップS413のキャプチャフラグOFFの処理をポーズやトリックプレイ開始などでは行なわず、ポーズやトリックプレイ終了時にはキャプチャフラグONのまま通常再生を開始するようにすればよい。
【0065】
[バイトオフセットの同期例]
ダビングするファイルと再生側の動画ファイルのバイトオフセットを同期させる方法の一例について、以下詳細に説明する。
【0066】
バイトオフセットを同期させることにより、キャプチャが欠損なく完全に終了した時点で、再生側とダビング側の動画ファイルのサイズは一致するようになる。
【0067】
通常、動画再生中に送受信される動画データには再生する動画ファイルに格納されているTSパケットの他に、転送中の動画データの時間情報とそれを表示すべき時刻に大きなずれが表示した場合に時間調節の為に使われる空のTSパケットや、転送回線が機能していることを示す一定間隔で発生するTSパケットなどが多重化されている。これらのデータの種類を示す識別子はTSパケットヘッダに格納されているので、これを参照して必要なTSパケットを抽出して記録している。
【0068】
また、通常、動画再生中に送受信される動画データにはファイル上のバイトオフセットを示す情報はなく、受信されたデータから抽出した動画データのTSパケットをそのまま追記記録したのでは、たとえばトリックプレイなどの操作を行った時点で、再生側と記録側でバイトオフセットがずれてしまい、同期が取れなくなってしまう。
【0069】
そこで、動画再生部は、送出する動画データのファイルを記録する為のファイル名と、ファイル中のバイトオフセット情報を格納したTSパケットを一定の時間間隔で定期的に挿入し、またプレイリスト上の各要素の境界点で発生する非連続点でも挿入し送出する。これを、受信側で参照することで記録側のファイルは再生側とバイトオフセットを同期させることができる。
【0070】
本実施形態ではMPEG2規格に準じた例を示したが、独自に拡張した形式で同期情報を転送してもよい。DV形式のデータにおいては、たとえば、動画データ中にはタイムコードが格納されているので、タイムコードとバイトオフセットの対応関係を示した情報を転送すればよい。転送方法に関しては動画データに挿入、多重化する方法や、動画データとは別のチャンネルでファイル転送などによって転送すればよい。
【0071】
[欠損リスト作成処理の動作手順例:図5]
次に、図4のステップS412の欠損リスト作成処理について詳細に説明する。図5は欠損リスト作成処理を示したフローチャートである。
【0072】
はじめに、図5の欠損リスト作成処理の概要を説明すると、欠損リスト作成処理とは、再生側のビデオカメラ105に装着されたソースメディア(第1記憶媒体)から動画蓄積装置100のハードディスク104(第2記憶媒体)へ動画データをダビング中に、再生側のビデオカメラ105を早回ししたり、早戻ししたり、再生を停止したりするなどの正常なダビングが出来ない各種操作が行なわれた場合に、それらの操作中は、ハードディスク104への動画データのダビングを中断し、さらにダビングを中断した部分(未ダビング部分)が分かるようにダビング情報をハードディスク104へ記憶すると共に、処理負荷が低い状態、例えば停止やポーズなどの場合は、未ダビング部分をハードディスク104へ記憶されたダビング情報に基づいてダビングする処理である。
【0073】
以下、図5のフローチャートに基づいて、欠損リスト作成処理を詳細に説明する。
【0074】
まず、欠損リスト作成処理が開始すると、ステップS501に進み、キャプチャ開始時にソースメディアから取得したプレイリストファイル(図7参照)と、ソースメディア情報、すなわち、トリック処理が行われた場合にハードディスク104に蓄積されたキャプチャ済み区間のリスト(図9や図12参照)との内容を比較する。
【0075】
次に、ステップS502に進み、作成されたキャプチャ済み区間のリストとソースメディアから取得した動画ファイル一覧とから欠損リスト(図10や図13参照)を作成し、RAM103またはハードディスク104に記憶する。
【0076】
次に、ステップS503に進み、プレイリストファイルとキャプチャ済み区間のリストと欠損リストとから新プレイリストファイルを作成し、RAM103またはハードディスク104に新プレイリストファイルを記憶する。新プレイリストファイルの各要素は、キャプチャ済みと欠損部分の境界で分割され、キャプチャ済みか否かが判別できるような属性を持たせて作成され、保存される。
【0077】
次に、ステップS504に進み、欠損リストを用いた再キャプチャ処理が可能かどうか(処理負荷が低い状態か否か)を調べ、再キャプチャ処理が可能でない場合にはリターンし、再キャプチャ処理が可能な場合には、ステップS505に進み、図6を用いて詳細を説明する再キャプチャ処理をしてからリターンする。
[欠損リスト作成処理の具体例:図8〜図14]
図8〜図14は、ビデオカメラ105と動画蓄積装置100を用いて、ビデオカメラ105のソースメディア(第1記録媒体)から動画蓄積装置100のハードディスク104(第2記録媒体)にダビングしている際に、トリック処理を行ったために正常なダビングができないで未ダビング部が生じる場合の一例を具体的に説明するための図である。なおトリック処理は図8に限ることはなく、他の場合であっても良い。
【0078】
図8は、トリック処理の一例として、通常再生でダビングしている際に早送りすなわち高速再生(トリックモードの処理)を行い、次に、通常再生に戻してダビングし、さらに、再生停止(トリックモードの処理)を行った場合を例にとり、ダビングできた部分、ダビングできなかった未ダビング部分(欠損部分)のデータを具体的に示している。
【0079】
シーケンス2の再生途中P2−1〜P2−2の区間において、高速再生(早送り:トリックモード処理)を行い、シーケンス3の再生中P3−1のタイミングで再生を停止(トリックモードの処理)したことを示す。しかしながら、動画データの復号化には遅延が発生し、また動画を安定的に再生する為に、通常、転送するデータは表示する時間より先行している為、実際の操作とデータ上では若干の差が発生する。そこでP2−1、P2−2、及びP3−1に対応する境界をそれぞれP2−1’、P2−2’、及びP3−1’としている。
【0080】
なおトリックモードか否かを判定する方法としては、転送される動画データには、TSパケットのヘッダ情報内にトリックモードか否かが分かるフラグがあり、これを参照することで対応する境界を判断することができる。なおトリックモードの判定はこれに限ったものではなく、例えば、動画データ中に独自のデータ形式によってトリックモードが判別できる情報を挿入してもよい。また、リモコン109や操作パネル107などの入力部からのトリックプレイ操作に基づいて判定してもよい。
【0081】
(図8の(P2−1)時点で早送りを開始した場合:図9〜図11)
図9は、図8の(P2−1)時点で早送りを行った場合のキャプチャ(ダビング)済み区間のリストの内容を示す図であり、図10は、その時点で作成される欠損リスト(未ダビング部分)を示す図であり、図11は、その時点で更新されるプレイリストの内容を示した図である。
【0082】
まず、早送りによって作成されたキャプチャ済み区間のリスト(図9)をプレイリストファイル(図7)と比較して(S501)、欠損リスト(図10)を作成して記録する(S502)。早送りによって作成されたキャプチャ済み区間のリスト(図9)、欠損リスト(図10)、プレイリストファイル(図7)から新プレイリストファイル(図11)を作成して記録する(S503)。
【0083】
(図8の(P2−2)時点で早送りを停止してダビングを再開した場合)
図示しないが、図9の3行目に図12の3行目の開始時間のみが記入されて付加され、キャプチャ済み区間のリストが更新される(S408)。
【0084】
(図8の(P3−1)時点で停止した場合:図12〜図14)
P1〜P2−1’、及びP2−2’〜P3−1’の区間における動画のキャプチャが完了すると、キャプチャ完了した区間とソースメディア上の動画ファイルを対応づけたキャプチャ済み区間のリストを作成できる。これが図12である。キャプチャ中にこのリストを参照することにより、重複してキャプチャすることを防ぐことができる。キャプチャ済み区間のリスト(図12)と図7に示したソースメディア上の情報から欠損リストが作成できる。これが図13である。なお、図12のキャプチャ済み区間のリスト、および図13の欠損リストにおいて、開始、長さの項目に式等が用いられているが、実際はこの数式と等価な値が時:分:秒:フレーム番号の形式で格納される。
【0085】
まず、再生停止によって作成されるキャプチャ済み区間のリスト(図12)をプレイリストファイル(図7)と比較する(S501)。次に、キャプチャ済み区間のリスト(図12)とプレイリストファイル(図7)から欠損リスト(図13)を更新する(S502)。再生停止によって作成されたキャプチャ済み区間のリスト(図12)、欠損リスト(図13)、プレイリストファイル(図7)から新プレイリストファイル(図14)を更新する(S503)。
【0086】
尚、上記欠損リストの内容は独自フォーマットの形式のバイナリ形式でもよいし、可読性のあるテキスト形式でもよい。テキスト形式の場合は、MPEG7に準拠させてもよい。また欠損情報はキャプチャ済み情報とソースメディア上の情報から生成できるのでキャプチャ済み情報を記憶してもよい。
【0087】
(MPEG7インスタンスの例:図15)
図15はMPEG7に準拠させた場合のMPEG7インスタンスの例である。これにはキャプチャ済みの動画について、複製されたものであるという情報と、キャプチャされたファイルのコピー元となったオリジナルの動画ファイルと、その中のどの区間であるかを特定可能な情報などを格納している。このような情報をキャプチャ済みの動画ごとに付与して、複製情報を記憶する。
【0088】
[欠損リストによるダビング時の再キャプチャ処理:図6,図18〜図20]次に図6及び図18〜図20を用いて、欠損リストの再キャプチャ処理スレッドについて説明する。以下の説明では、図13の欠損リストを一例として説明するが、プレイリストを用いても同様の処理ができる。
【0089】
この欠損リストの再キャプチャ処理は、ビデオカメラ105のソースメディア(第1記憶媒体)からハードディスク104(第2記憶媒体)にダビングする際に、トリックプレイ処理の操作によってダビングされていない部分があると、システムおよびビデオカメラ105が停止、ポーズ状態のようなアイドリング中で、IEEE1394インターフェース上の使用帯域にも余裕があるときに処理が実行されるものである。さらに、ビデオカメラ105においてソースメディアの装着が行われた場合、ソースメディア交換コマンドを106に送信し、CPU101がこのコマンドの受信を確認したときに本スレッドを起動してもよい。そしてシステム、および、ビデオカメラが停止、ポーズ状態でなくなったときや、IEEE1394インターフェース上の使用帯域が他の処理の為に使われる場合は速やかに処理を中断し、他の処理を優先して行う。
【0090】
まず、ステップS601に進み、再生側のすべてのファイルから、第1の付属情報をダビング(複製)する。第1の付属情報とは、付属情報が独立したファイルであるもの、または、動画ファイルの先頭、末尾に付加された付属情報である。
【0091】
次に、ステップS602に進み、第2の付属情報をダビング(複製)する。第2の付属情報とは、動画ファイルを構成するTSパケットのうち、付属情報としての識別子をもつTSパケットで第1の付属情報以外の付属情報である。
【0092】
次にステップS603に進み、動画データをダビング(複製)する。これは動画ファイルを構成するTSパケットのうち付属情報以外の識別子をもつTSパケットである。これで、一連の作業を終了する。
【0093】
尚、ステップS603の動画データの再ダビングは、転送時間などの制限により実施しなくてもよい。しかしながら、空き時間を有効に利用するために、ステップS603を実行するのが望ましい。
【0094】
本実施形態では、第2付属情報は転送元と転送先が同一のファイルオフセット上に配置されるように転送して、ハードディスク104に蓄積する。 従って、ステップS602を終えた時点ではサイズは転送元の動画ファイルとほぼ同じで、動画データの抜けた虫食い状のファイルが出来上がる。そして、ステップS603が完了すると、転送元と転送先は同じファイルが出来上がっている。しかしながら、これに限定されるものではない。
【0095】
尚、ファイルの論理的なアドレスに物理的な記憶領域を割り当てる方法は、ファイルシステムに依存するものであり、本実施形態では説明を省く。
(第1付属情報のダビング処理の手順例:図18)
次に、図6のステップS601における第1の付属情報を取得する処理について、図18を用いて詳細に説明する。図18は、再生側(ビデオカメラ105のソースメディア(第1記憶媒体))にある個々のファイルについての処理を示したものである。
【0096】
処理が開始すると、ステップS701に進み、ソースメディアから読み出したファイルが付属情報ファイルか否かを判断する。付属情報ファイルであるか否かは、ファイル名の拡張子が所定の文字列かどうかで判断できる。ステップS701において付属情報ファイルであった場合には、ステップS702に進み、同一のファイルがハードディスク104(記録側)にすでにダビングされて存在しているか否かをチェックする。ステップS702において、同一のファイルがダビングされている場合には何もしないでリターンし、同一のファイルがダビングされていない場合には、ステップS703で付属情報ファイルをコピーしてからリターンする。
【0097】
一方、ステップS701でソースメディアから読み出したファイルが付属情報ファイルでなかった場合には、ステップS704に進み、このファイルが動画ファイルであるかどうかチェックする。動画ファイルであるか否かは付属情報ファイルと同様に、ファイル名の拡張子によって判断できる。
【0098】
ステップS704において、動画ファイルでない場合には何もしないでリターンし、動画ファイルであった場合には、ステップS705に進み、先頭の付属情報がハードディスク104にダビングされている(取得済み)か否かを判断する。これは実際にハードディスク上の動画ファイルの先頭部分にある付属情報の存在を確認する。ステップS705において、先頭の付属情報を取得済みの場合には何もしないでステップS707に進み、先頭の付属情報を取得済みでなければ、ステップS706で先頭の付属情報を取得してからステップS707に進む。次に、ステップS707では、末尾の付属情報がハードディスク104に取得済みか否かを判断する。これは実際にハードディスク上の動画ファイルの末尾部分にある付属情報の存在を確認する。ステップS707において、末尾の付属情報を取得済みの場合には何もしないでステップS709に進み、末尾の付属情報を取得済みでなければ、ステップS708で末尾の付属情報を取得してから、リターンする。
【0099】
(第2付属情報のダビング処理の手順例:図19)
次に、図6のステップS602における第2の付属情報を取得する処理について、図19を用いて詳細に説明する。
【0100】
処理が開始するとステップS801に進み、欠損リストの先頭の要素へポインタを設定する。次にステップS802に進み、再生側、記録側両方の動画ファイル上の欠損開始点へシークする。次にステップS803に進み、シークが成功したか確認し、シークが失敗した場合は、その欠損情報の区間については無視してステップS807に進み、次の欠損情報を処理する。シークが失敗した場合は、ソースメディアが装着されていないか、または、異なるメディアが装着されているか、削除操作などで、ソースメディア中に所望のファイルが存在しないことを意味する。
【0101】
一方、ステップS803でシークが成功した場合は、ステップS804に進み、ソースメディアより付属情報(第2付属情報)を抽出する。付属情報であるか否かはTSパケットのヘッダ情報を参照することで判断できる。次に、ステップS805に進み、付属情報のTSパケットをハードディスク104に転送(ダビング)する。転送するデータは再生側と記録側が同一のファイルオフセット上に配置される様に転送してハードディスク104に蓄積する。次に、ステップS806に進み、転送されるデータ中のパケットのヘッダに格納されたクロック情報を参照して、欠損終了時刻であるか否かを判断し、欠損終了時刻の場合には、ステップS807に進み、終了時刻に達していない場合には、ステップS804に戻り、上記説明したブロック転送を繰り返す。
【0102】
次に、ステップS807に進み、次の欠損情報へポインタを進めてから、次にステップS808に進み、欠損リストをすべて処理したか判断し、欠損情報を全て処理した場合にはリターンする。
【0103】
一方、ステップS808において、欠損情報が残っている場合はステップS802に戻り、上記説明したステップS802〜ステップS807の処理を継続して行う。
(動画データのダビング処理の手順例:図20)
次に図6のステップS603における動画データを取得する処理について、図20を用いて詳細に説明する。
【0104】
以下の説明では、図13の欠損リストを一例として説明するが、プレイリストを用いても同様の処理ができる。この欠損リストによる再キャプチャ処理は、ビデオカメラ105のソースメディア(第1記憶媒体)からハードディスク104(第2記憶媒体)にダビングする際に、トリックプレイ処理の操作によってダビングされていない部分がある場合に、欠損リスト(図13)に基づいて未ダビング部分をソースメディアからハードディスク104に再ダビングするものである。
【0105】
処理が開始するとステップS901に進み、欠損リストの先頭の要素へポインタを設定する(図13の場合は、ファイル002.mp2の{(P−1’)−1})。次にステップS902に進み、ソースメディア(再生側)、ハードディスク104(ダビング側)両方の動画ファイル上の欠損開始点へシークする。次にステップS903に進み、シークが成功したか否かを確認する。シークが失敗した場合は、その欠損情報の区間については無視してステップS908に進み、次の欠損情報を処理する。シークが失敗した場合は、ソースメディアが装着されていないか、または、異なるメディアが装着されているか、削除操作などで、ソースメディア中に所望のファイルが存在しないことを意味する。
【0106】
一方、ステップS903において、シークが成功した場合はステップS904に進み、ソースメディア中の動画ファイルのデータをブロック転送し、ハードディスク104にダビング(蓄積)する。
【0107】
次に、ステップS905に進み、転送されるデータ中のパケットのヘッダに格納されたクロック情報を参照して、欠損終了時刻であるか否かを判断し、欠損終了時刻に達していない場合はステップS904に戻りブロック転送を繰り返し、欠損終了時刻に達した場合、すなわち、1つの欠損情報について転送が終了したら、ステップS906に進み、欠損情報リストから転送済みの欠損情報を削除する。(図16に欠損リストを削除の一例を示す)。
【0108】
次にステップS907に進み、プレイリストを更新する。すなわち、すべてのプレイリストから転送済みの動画データについてキャプチャ済みフラグを操作し、プレイリスト中の隣り合うシーケンス番号の動画内容がキャプチャ済みで連続している場合は1つに統合する(図17にプレイリストファイルの更新の一例を示す)。
【0109】
次に、ステップS908に進み、次の欠損情報へポインタを進める。次に、ステップS909に進み、欠損リストをすべて処理したか判断し、まだ欠損情報が残っている場合はステップS902に戻り、上記説明したステップS902〜ステップS908までの処理を繰り返し行い、ステップS608において、全ての欠損リストを処理した場合にはリターンする。
【0110】
上記実施形態においては、プログラムをROMに保持する場合について説明したが、これに限定されるものではなく、任意の記録媒体を用いて実現してもよい。また、同様の動作をする回路で実現してもよい。
【0111】
なお、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
【0112】
プログラムコードを供給する為の記録媒体としては、たとえば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW,DVD,磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
【0113】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0114】
更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0115】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0116】
また、上述した実施形態では、動画蓄積装置自体について説明したが、複数の装置をインターネットなどのネットワークへ接続する場合に適用可能であることは言うまでもない。この時、通信コストの高い、動画データなどを光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW,DVD,磁気テープ、不揮発性のメモリカード、ROMなどのメディアを使ってオフラインで供給しておき、供給済みのデータはネットワークを経由しないで利用できるようにしてもよい。
【0117】
以上説明したように、本発明の動画蓄積装置100は、付属情報を得るためにソースメディアのダビングされていない動画データより第1付属情報(付属情報ファイルと動画ファイルの先頭・末尾の付属情報)と第2付属情報(動画ファイルの先頭・末尾以外の付属情報)とを自動で抽出し、そのデータを付属情報として転送するため、たとえハードディスク104にダビングされていない動画データがあっても、全ての付属情報のみをソースメディアから完全に複製を行うことができる。
【0118】
【発明の効果】
以上説明したように、本発明によれば、例えば、ソースメディアから動画データに含まれる付属情報を効率よくダビングできる動画蓄積方法および動画蓄積装置を提供できる。また、ユーザがソースメディアから動画データに含まれる付属情報をダビングする際には、ユーザを機器操作にかかる煩わしさから開放して付属情報を容易に利用できる動画蓄積方法および動画蓄積装置を提供できる。
【図面の簡単な説明】
【図1】本実施形態の動画蓄積装置のハードウェア構成の一例を示すブロック図である。
【図2】本実施形態の動画蓄積装置に用いられるリモコンの概観の一例を示す図である。
【図3】本実施形態の動画蓄積装置の記憶媒体に記憶される動画データの一例を示す図である。
【図4】本実施形態の動画蓄積装置のROMに記憶された制御プログラムによる処理手順を示すフローチャートである。
【図5】図4の制御プログラムにおけるS412の欠損リスト作成処理の詳細を示すフローチャートである。
【図6】図5の欠損リスト作成処理におけるS505の欠損リストの再キャプチャ処理スレッドの処理の詳細を示すフローチャートである。
【図7】本実施形態の動画蓄積装置に接続される再生元であるビデオカメラのソースメディア(第1の記憶媒体)に蓄積された動画データの内容の一例を示す図である。
【図8】本実施形態の動画蓄積装置におけるダビング中の操作の一例(ダビング→早送り→ダビング→停止)とその際に動画蓄積装置にダビングされるデータの範囲を説明する図である。
【図9】図8の(P2−1)時点での早送り開始におけるキャプチャ済み区間のリストの内容を説明する図である。
【図10】図8の(P2−1)時点での早送り開始において得られる欠損リストの一例を示す図である。
【図11】図8の(P2−1)時点での早送り開始において得られるプレイリストの内容を示した図である。
【図12】図8の(P3−1)時点での再生停止におけるキャプチャ済み区間のリストの内容を説明する図である。
【図13】図8の(P3−1)時点での再生停止において得られる欠損リスト(未ダビング部分)の一例を示す図である。
【図14】図8の(P3−1)時点での再生停止において得られる新プレイリストの内容を示した図である。
【図15】本実施形態の動画蓄積装置において、ダビング済みの情報をMPEG7準拠の形式で記憶する場合のインスタンス例を示した図である。
【図16】本実施形態の動画蓄積装置における欠損リストの更新前と更新後の一例を説明する図である。
【図17】本実施形態の動画蓄積装置におけるプレイリストの更新前と更新後の一例を説明する図である。
【図18】図6の欠損リストの再キャプチャ処理におけるS601の第1の付属情報の複製処理の詳細を示すフローチャートである。
【図19】図6の欠損リストの再キャプチャ処理におけるS602の第2の付属情報の複製処理の詳細を示すフローチャートである。
【図20】図6の欠損リストの再キャプチャ処理におけるS603の動画データの複製処理の詳細を示すフローチャートである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image storage device for reproducing video and audio transferred from another storage medium, a moving image storage method, a control program for the moving image storage device, and a computer-readable storage medium storing the control program.
[0002]
[Prior art]
In recent years, with the increase in capacity and speed of hard disks, and advances in computer technology, it has become possible to store and play moving images on hard disks. For example, a hard disk recorder capable of recording (dubbing) video shot by a home video camera or broadcast video on a hard disk and reproducing the dubbed video has become feasible.
[0003]
By the way, in the past, in general homes, when shooting with a video camera in order to memorize trips, events, and the like, in many cases, it is often played back only on the day of shooting and rarely seen. The reason for this is that replacement of photographed media is troublesome, or deterioration of the storage medium due to repeated reproduction is a concern. However, if there is a moving image storage device such as the above hard disk recorder, for example, if dubbing to the hard disk recorder while playing the video taken by the video camera on the same day, it is not necessary to replace the media at a later date, It is possible to reproduce a moving image of a video freely taken from a desired place without worrying about deterioration of the storage medium due to repeated reproduction, and the above problem can be solved.
[0004]
However, in a conventional hard disk recorder, for example, while dubbing a video shot by a video camera to data on a hard disk, it is necessary to continuously play back the video shot by the video camera. Also, if you stop playback midway, replace the storage medium attached to the video camera, or perform trick play such as fast-turning, the dubbing of the video will end at that point, or the stopped video The problem was that the video itself that had been quickly turned was dubbed.
[0005]
On the other hand, attached information is added to a moving image, and the attached information is information such as characters and images associated with video and audio. The basic types and description methods are being standardized by MPEG7. Have been. As a method of using such additional information, for example, a method of performing a search using characters using the additional information of a moving image file in order to facilitate a search for a moving image file can be considered. As another use method, a method of quickly searching for a desired scene in a moving image by using the attached information of the moving image file and displaying the desired scene in a list of reduced still images to grasp the outline of the moving image is also considered. Can be
[0006]
Regarding the dubbing of the attached information, for example, in Japanese Patent Application Laid-Open No. Hei 8-116510, subcode data, AUX data of video and audio, and information on the cassette in the case of a cassette with memory are treated as attached information, and are not conventionally subjected to dubbing. A method of completely copying attached information together with a moving image is disclosed.
[0007]
[Problems to be solved by the invention]
However, in a conventional hard disk recorder, when a predetermined function is executed by using the above-described attached information on the medium, for example, a source medium newly shot and stored by a home video camera or the like is used. After completely dubbing the moving image data on the hard disk recorder, the auxiliary information included in the dubbed moving image data was extracted and used. Therefore, in order to obtain additional information, it is necessary to completely dub the video data from the source media to the hard disk recorder. Naturally, complete dubbing of the additional information requires the same time as dubbing the video data. Needed time.
[0008]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the related art as a starting point, and has as its object to provide a function for searching for a moving image, etc., with a relatively short dubbing time and a troublesome operation of a device by a user. It is an object of the present invention to provide a moving image storage method and a moving image storage device that can be used without any method.
[0009]
[Means for Solving the Problems]
A moving image storage method according to an embodiment of the present invention for achieving the above object has the following configuration. That is, when the moving image data stored in the first storage medium is dubbed to the second storage medium, the additional information included in the non-dubbed portion is extracted from the moving image data stored in the first storage medium, It is characterized in that dubbing is performed on the second storage medium.
[0010]
Here, the additional information includes first additional information and second additional information, and the first additional information is included in an additional information file independent of the moving image file and at a beginning or end of the moving image file. The second attached information is made up of attached information other than the head and tail of the moving image data. The additional information included at the beginning and end of the moving image data is additional information relating to the entire moving image file, and the additional information included at positions other than the beginning and end of the moving image data includes the respective images of the moving image file. This is additional information about the frame. Further, the attached information relating to the entire moving image file includes a photographing state of the camera such as a time required for reproducing the moving image, a photographing date and time, an AE mode at the time of photographing. Further, the attached information on each frame includes a photographing state of the camera that changes in real time, such as an aperture, a shutter speed, and a focus at the time of photographing. Further, the first attached information includes a play list and a lost list. When dubbing the additional information, the moving image file recorded on the first recording medium is dubbed in synchronization with the file offset of the additional information to be dubbed. When dubbing the additional information, the additional information to be dubbed is expressed as a Media Instance tag in MPEG7, and dubbed as the additional information at the end of the moving image file included in the moving image data. Further, the first and / or second storage medium is a storage medium that can be randomly accessed. The method further includes a step of stopping the transfer when it is determined that a normal transfer cannot be performed during the transfer, and a step of holding information indicating an untransferred portion generated by the stop of the transfer.
[0011]
A moving image storage device according to an embodiment of the present invention for achieving the above object has the following configuration. That is, moving image data dubbing means for dubbing moving image data stored in the first storage medium to the second storage medium, and additional information included in a portion not to be dubbed is extracted from the moving image data stored in the first storage medium. And additional information dubbing means for dubbing to the second storage medium.
[0012]
A control program according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a control program for controlling the moving image storage device, the moving image data dubbing module for dubbing the moving image data stored in the first storage medium to the second storage medium, and the additional information included in the non-dubbed portion. And an additional information dubbing module for extracting from moving image data stored in one storage medium and dubbing the moving image data to a second storage medium.
[0013]
A computer-readable storage medium according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a computer-readable storage medium storing a control program for controlling a moving image storage device, wherein the control program includes a moving image data dubbing module for dubbing moving image data stored in a first storage medium to a second storage medium. And an additional information dubbing module for extracting additional information included in a portion that is not dubbed from the moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
Hereinafter, a moving image storage device 100 according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following description, dubbing may be called capture.
[0015]
[Hardware configuration of moving image storage device: FIG. 1]
FIG. 1 shows a hardware configuration of a moving image storage device 100 according to the present embodiment. The hardware configuration of the moving image storage device 100 will be described with reference to FIG.
[0016]
Reference numeral 101 denotes a CPU, which is a central processing unit that executes a control program stored in a ROM or a RAM. A ROM 102 stores programs and data according to the present invention. 103 is a RAM for storing temporary data. When the purpose is temporary dubbing for editing a moving image, it can be used to store a moving image, ancillary information, and duplicate information when dubbing a partial area of the RAM.
[0017]
Reference numeral 104 denotes a hard disk (second storage medium) for storing video, audio, and attached information. In the present embodiment, when dubbing is performed, it is used for recording a moving image, and thus may be a DVD-RAM, CD-RW, MO, other storage device, or a storage device connected to a network. 105 is a video camera. In the present embodiment, when dubbing, an AV device such as a VCR or a personal computer may be used because the connection is made for the purpose of reproducing the recorded moving image.
[0018]
Reference numeral 106 denotes an IEEE 1394 interface, which is connected to the video camera 105 and secures a band of moving image / video information and attached information from the video camera 105 to reliably input / output in real time and input control commands for operating the video camera 105. Output, the source medium (first storage medium) of the video camera 105 is ejected, the power supply ON / OFF state of the video camera 105 is known, and the data on the connected storage device Can be treated as a file, and a file list, file attributes, and data at an arbitrary position in the file can be input / output. If the purpose is achieved, another wired interface such as USB may be used instead of the IEEE1394 interface, or a wireless interface such as 802.11 or HomeRF may be used.
[0019]
An operation panel 107 includes switches, knobs, buttons, and the like. A serial interface 108 converts a signal from the operation panel 107 into digital data that can be processed by the CPU 101. Reference numeral 109 denotes a remote controller, which transmits information of pressing a button by infrared rays. Reference numeral 110 denotes an IrDA interface that receives infrared rays transmitted from the remote controller 109 and converts the infrared rays into digital data that can be processed by the CPU 101.
[0020]
Reference numeral 111 denotes a TV that outputs video and audio. The TV 111 may be a high-resolution display for a personal computer, a low-resolution display for a portable terminal, a CRT, a liquid crystal display, a color monitor, a monochrome monitor, or the like. Reference numeral 112 denotes an output unit which decodes function menus and operation modes displayed on the TV 111 and encoded moving image data and outputs video and audio signals.
[0021]
Reference numeral 113 denotes a removable disk drive (FDD) such as a floppy disk or a CD-ROM, which is used for reading from an application program medium described later. A network interface (Net-I / F) 114 performs data control and diagnosis for performing data transfer with a network system such as the Internet described later. Reference numeral 115 denotes an I / O bus (address bus, data bus, and control bus) for connecting the above-described units.
[0022]
[Remote control: Fig. 2]
FIG. 2 shows an overview of the remote controller 109.
[0023]
Reference numeral 201 denotes a menu button. When the menu button 201 is pressed, a hierarchical list of functions that are relatively infrequently used other than the video operation is displayed on the TV 111. Reference numeral 202 denotes a cursor movement button for moving a point of interest displayed on the TV 111 in each direction. Reference numeral 203 denotes an execution button for designating an item with a cursor and for performing an operation transition. Reference numeral 204 denotes a cancel button for canceling designation by the execute button 203 or returning operation transition to a previous state.
[0024]
Reference numeral 205 denotes video operation buttons for instructing fast rewind, playback, fast forward, recording, pause, and stop, respectively. The video operation button can operate the video camera 105 by sending a video operation control command to the video camera 105 through the IEEE 1394 interface 106, in addition to the operation of the moving image storage device 100. Whether to operate the video storage device 100 or the video camera 105 depends on the state of the target device mode. For example, if the target device mode is set to the playback side, the moving image data stored in the source medium mounted on the video camera 105 can be transferred to the moving image storage device 100. A power button 206 turns on / off the power of the moving image storage device 100.
[0025]
To execute a function using the remote control 109, the user presses the menu button 201, selects a function by moving a point of interest with a cursor movement button from a hierarchical function list displayed on the TV 111, and selects an execution button. By pressing the button 203, a function command is generated and executed. The operation panel 107 is also provided with buttons and knobs to which buttons equivalent to those of the remote controller and functions which can be selected with the remote controller are assigned.
[0026]
The input section of the function command may be constituted by an input section such as a keyboard or a mouse of a personal computer in addition to the buttons of the remote controller 109 and the operation panel 107. Although it is inferior, an operation panel having improved operability may be used.
[0027]
[Configuration example of moving image data: FIG. 3]
Next, FIG. 3 shows an example of moving image data stored in a storage medium.
[0028]
The moving image data mainly includes two types of files, a moving image file 301 (FIG. 3A) and a playlist file 302 (FIG. 3B). In the present embodiment, the moving image file 301 is stored as a file in which video (Video), audio (Audio), and attached information are multiplexed in the MPEG-2 transport stream format. The format of the moving image file 301 is not limited to MPEG2, but may be DV or another format.
[0029]
(Video file: Fig. 3 (a))
In the case of the transport stream format, the moving image file is composed of continuous fixed-length TS packets, and the header of each TS packet contains identification information indicating the type of main data and clock information. (Video), audio (Audio), attached information, and other unique data added by the moving image reproducing means can be identified and separated.
[0030]
The moving image file 301 is created each time recording is started in the video camera 105, and one shot corresponds to one moving image file in principle. When processing such as editing is performed later, one shot is composed of a plurality of moving image files, and a reproduction method is defined by the playlist file 302. The file name of the moving image file is determined, for example, from the date and time when the recording was started. One example is 200105523201595. It is attached like MP2. However, in the following description of the operation description, in order to simplify the file name, numerals having a small number of digits are used as the file name. In addition, information for identifying a device such as a MAC address, an IP address such as IPv4 or IPv6, and media identification information for guaranteeing uniqueness on a medium are recorded, and a unique file name is formed by combining them with a date and time. It may be generated or a simple serial number may be used.
[0031]
The medium is identified by whether or not such a file name exists on the medium. It is more reliable to generate the identification information from the identification number of the device and the time information. For video (VIDEO) and audio (AUDIO), time stamp information is stored for synchronization.
[0032]
(Attached information: Table 1)
Next, the attached information will be described with reference to Table 1.
[0033]
[Table 1]
Figure 2004040182
[0034]
Among the additional information, additional information (first additional information) relating to the entire moving image file is arranged at the beginning and end. The attached information at the top can be scanned from the first TS packet of the moving image file toward the end of the file in TS packet units to acquire data size information or to specify a range by a delimiter indicating the end of the attached information.
[0035]
The attached information at the end can be searched in the direction of the file beginning from the end TS packet of the moving image file in units of TS packets to acquire data size information, or a range can be specified by a delimiter indicating the beginning of the attached information.
[0036]
Information (second attached information) on an image frame or an arbitrary section is multiplexed so as to be arranged near corresponding image data or audio data.
[0037]
As a matter of course, some or all of the attached information may be arranged as a file independent of the moving image file.
[0038]
The attached information (first attached information) relating to the entire moving image file stores, for example, the shooting time of the moving image, the shooting date and time, the AE mode at the time of shooting, and the shooting state of the camera. When the supplementary information is corrected or updated, the difference information is added to the end of the moving image file.
[0039]
The additional information (second additional information) relating to each frame stores operation information such as zooming, a shooting state of the camera that changes in real time such as an aperture at the time of shooting, a shutter speed, and focus. In addition, there is a playlist and a missing information list as additional information (first additional information) for a plurality of moving image files. This information is used as a clue for video editing, analysis, and video search.
[0040]
Table 2 shows description contents of operation information such as zoom.
[0041]
[Table 2]
Figure 2004040182
[0042]
The encoding format of the attached information may be binary data in which the meaning of each bit is defined, or text data. In the case of text data, it may be expressed by a unique type definition in the XML format, or may be expressed using a type definition conforming to the MPEG7 standard.
[0043]
(Playlist file: FIG. 3 (b))
The playlist file 302 is a list that designates an arbitrary range or all of one or a plurality of moving image files, and the moving image reproducing process can seamlessly reproduce the moving images according to the list.
[0044]
In the present embodiment, the content of the data stored in the playlist file 302 is a list including a moving image file name, a start time, and an end time. The time is stored in the format of hour: minute: second: frame number. Note that as long as the information can identify a moving image section, clock information, a file offset, and physical and logical position information on a storage medium may be used instead of the start time and the end time.
[0045]
[Example of main operation procedure of moving image storage processing: FIG. 4]
FIG. 4 shows a flow in which the CPU 101 executes the control program of the moving image storage process stored in the ROM 102 using the RAM 103 after the power of the main body is turned on in the moving image storage device 100 of the present embodiment. FIG. 7 shows an example of a moving image data list on a source medium, for example.
[0046]
In the following description, moving image data stored on a source medium (first storage medium) mounted on the video camera 105 is dubbed (captured) on the hard disk 104 (second storage medium) of the moving image storage device 100. This will be described using an example.
[0047]
Hereinafter, the flow of executing the control program will be described in detail with reference to FIG.
[0048]
When the power is turned on, the process proceeds to step S401, and system initialization such as initialization of various interfaces is performed. Next, the process proceeds to step S402 to check whether or not a command has been input from the operation panel 114 or the remote controller 109. If the command has been input, the process proceeds to step S403 to identify the input command and determine whether the input command has been input. According to the command, each processing of step S404, step S407, step S410 or step S409 is performed.
[0049]
(Capture start command processing)
First, in the identification of the command in step S403, when the input command is a capture start command for starting dubbing from the source medium (first storage medium) to the second storage medium (for example, the recording in FIG. 2 is pressed). If it is, the dubbing start preparation process is performed in steps S404 to S406.
[0050]
That is, first, the process proceeds to step S404, and a flag indicating that the camera is in the capture mode is turned ON. By referring to this flag, the capture mode processing is performed in the subsequent processing. Next, proceeding to step S405, the target device mode is set to the reproduction side, that is, the video camera. Subsequent video operations from the operation panel 107 or the remote control 109 operate the video camera 105 on the playback side.
[0051]
Next, the process proceeds to step S406, where media information is acquired from a source medium (first storage medium) attached to the video camera 105 on the playback side. However, since it is impossible to obtain all the information of the source media that is the transfer source due to the restriction of the transfer time, here, the entire list of moving image files (see (a) of FIG. 7) and the playlist file (see FIG. 7 (b) is transferred to the hard disk 104 (second storage medium). In this case, step S406 is not executed when dubbing is resumed. The amount of data to be obtained from the source medium (first storage medium) in step S406 is selected based on transfer time restrictions.
[0052]
Next, the process returns to step S402, and waits until the next command is input.
[0053]
(List of video data of source media: Fig. 7)
FIG. 7 is an example of information acquired from the source medium (first storage medium) and stored in the hard disk 104 in step S406. In the figure, reference numeral 701 denotes a list of files stored in the source medium. A file having the extension “.mp2” is a moving image file, and a file having the extension “.lst” is a playlist file. Reference numeral 702 denotes an example of the contents of a playlist file.
[0054]
(Normal playback command processing)
On the other hand, if it is determined in step S403 that the input command is the normal reproduction start command (in the case where the reproduction in FIG. 2 is pressed), the flow advances to step S407 to check the capture mode.
[0055]
Next, in step S407, if the capture mode is not ON, the process proceeds to step S409 without doing anything. If the capture mode is ON, the capture start process is performed in step S408, and the process proceeds to step S409. After proceeding to start the reproduction process, the process returns to step S402 and waits until the next command is input.
[0056]
The capture start process in step S408 is as follows. First, in the capture start processing, a moving image file is created on the receiving hard disk 104 (second storage medium), and the moving image data received from the IEEE 1394 interface is made dubbable on the hard disk 104, and a captured list described later with reference to FIG. To add a new file name and capture start time. When dubbing is possible, a playback command is sent to the video camera 105 on the playback side, and dubbing (capture) of moving image data of the source medium (first storage medium) of the video camera 105 is started.
[0057]
The writing of the captured data to the moving image file is performed in units of logical data. This will be described in detail later, but is temporarily stored in the RAM 103 until the unit is completed. When capture is interrupted, data is not stored on the hard disk in the state of being cut off in the middle. Also, the moving image file to be stored is closed once at the point where the moving image file on the reproduction side is switched, and is switched to a new moving image file in the same manner as the reproduction side. The file name to be stored is obtained by adding a serial number after the file name on the playback side, so that the video file name on the playback side can be mechanically specified from the stored video file name.
[0058]
Therefore, at the time of switching to a new moving image file (for example, P2 or P3 in FIG. 8), the length of the last file in the captured list is entered, and a new file name is added to the captured list along with the start time (0). Is done.
[0059]
(Processing of trick play start command, etc.)
On the other hand, the command input in the command evaluation in step S403 is a command that does not allow normal dubbing, such as a trick play start command such as fast reverse, a stop command, a pause command, a source media eject command, and a power OFF command. In this case, the process proceeds to step S410.
[0060]
In step S410, the capture mode is checked. If the capture mode is not ON, the process proceeds to step S414 without doing anything. If the capture mode is ON, the processes in steps S411 to S413 are performed, and then the process proceeds to step S414. Proceed to. In step S414, after each command process is started, the process returns to step S402, and waits until the next command is input.
[0061]
The processing in steps S411 to S413 is as follows.
[0062]
That is, if the capture mode is ON, the capture process ends in step S411, and the moving image file is closed. In the capture ending process, the incomplete block of moving image data before dubbing to the hard disk remaining in the RAM 103 is discarded, and the file of the newly added captured list is deleted in step S408 or when the moving image file is switched. Fill in the length. Next, in step S412, a process of creating a missing list is performed. Note that the process of creating the loss list will be described in detail with reference to FIG. 5, and a description thereof will be omitted. Next, in step S413, the flag indicating the capture mode is turned off.
[0063]
(Processing of other commands)
On the other hand, if the command input in the command evaluation in step S403 is another command, the process proceeds to step S415 without performing any processing, returns to step S402 after processing the input command, and returns to step S402. Wait for input.
[0064]
In the processing example of FIG. 4 described above, the loss list is created and updated when dubbing is stopped. However, control may be performed so that the loss list is updated even when dubbing is resumed. For example, this is realized by updating the loss list in the capture start processing in step S408. As long as the stop button or the like is not pressed, dubbing may be automatically restarted when the pause or trick play ends. In this case, the capture flag ON / OFF procedure may be changed. The process of turning off the capture flag in step S413 of step 4 is not performed at the start of pause or trick play, and normal playback may be started with the capture flag ON at the end of pause or trick play.
[0065]
[Example of byte offset synchronization]
An example of a method for synchronizing the byte offset between the file to be dubbed and the moving image file on the playback side will be described in detail below.
[0066]
By synchronizing the byte offsets, the size of the moving image file on the reproduction side and the size of the moving image file on the dubbing side become the same when the capture is completely completed without any loss.
[0067]
Normally, when the moving image data transmitted / received during the moving image reproduction shows a large difference between the time information of the moving image data being transferred and the time at which it should be displayed, in addition to the TS packet stored in the moving image file to be reproduced. An empty TS packet used for time adjustment, a TS packet generated at a constant interval indicating that the transfer line is functioning, and the like are multiplexed. Since identifiers indicating the types of these data are stored in the TS packet header, necessary TS packets are extracted and recorded with reference to the identifiers.
[0068]
Also, normally, there is no information indicating the byte offset on the file in the moving image data transmitted and received during the reproduction of the moving image. If the TS packet of the moving image data extracted from the received data is additionally recorded as it is, for example, trick play, etc. When the above operation is performed, the byte offset is shifted between the reproducing side and the recording side, so that synchronization cannot be achieved.
[0069]
Therefore, the moving image reproducing unit periodically inserts a file name for recording the file of the moving image data to be transmitted and a TS packet storing the byte offset information in the file at a fixed time interval. Even non-continuous points generated at the boundary points of each element are inserted and transmitted. By referencing this on the receiving side, the file on the recording side can synchronize the byte offset with the file on the reproducing side.
[0070]
In the present embodiment, an example according to the MPEG2 standard has been described. However, the synchronization information may be transferred in a uniquely extended format. In DV format data, for example, since a time code is stored in moving image data, information indicating the correspondence between the time code and the byte offset may be transferred. The transfer method may be a method of inserting and multiplexing the data in the moving image data, or a method of transferring the file on a channel different from that of the moving image data.
[0071]
[Example of operation procedure of missing list creation processing: FIG. 5]
Next, the loss list creation processing in step S412 in FIG. 4 will be described in detail. FIG. 5 is a flowchart showing the loss list creation processing.
[0072]
First, an outline of the loss list creation processing of FIG. 5 will be described. The loss list creation processing is performed by using a source medium (first storage medium) mounted on the video camera 105 on the playback side and a hard disk 104 (first storage medium) of the moving image storage device 100. (2 storage media) When dubbing of the video camera 105 on the playback side is performed during the dubbing of the moving image data to the fast-moving, fast-rewinding, or stopping the playback, etc. During these operations, dubbing of moving image data to the hard disk 104 is interrupted, dubbing information is stored in the hard disk 104 so that a portion where dubbing has been interrupted (undubbed portion) can be recognized, and the processing load is low. For example, in the case of a stop or a pause, the undubbed portion is added to the dubbing information stored in the hard disk 104. It is a process of dubbing in Zui.
[0073]
Hereinafter, the loss list creation processing will be described in detail based on the flowchart of FIG.
[0074]
First, when the loss list creation process starts, the process proceeds to step S501, where the playlist file (see FIG. 7) acquired from the source media at the start of capture and the source media information, that is, the hard disk 104 when the trick process is performed. The contents of the stored list of captured sections (see FIGS. 9 and 12) are compared.
[0075]
Next, the process proceeds to step S502, where a loss list (see FIGS. 10 and 13) is created from the created list of captured sections and the moving image file list acquired from the source medium, and stored in the RAM 103 or the hard disk 104.
[0076]
Next, the process advances to step S503 to create a new playlist file from the playlist file, the list of captured sections, and the missing list, and store the new playlist file in the RAM 103 or the hard disk 104. Each element of the new playlist file is divided at the boundary between the captured portion and the missing portion, and is created and stored with an attribute that enables determination of whether or not the captured portion has been captured.
[0077]
Next, the process proceeds to step S504 to check whether the recapture process using the missing list is possible (whether the processing load is low). If the recapture process is not possible, the process returns and the recapture process is possible. If not, the process advances to step S505 to perform a recapture process described in detail with reference to FIG. 6, and then returns.
[Specific Example of Loss List Creation Processing: FIGS. 8 to 14]
8 to 14, the video camera 105 and the moving image storage device 100 are used to dub from the source medium (first recording medium) of the video camera 105 to the hard disk 104 (second recording medium) of the moving image storage device 100. FIG. 9 is a diagram specifically illustrating an example of a case where a normal dubbing cannot be performed due to a trick process and an undubbed portion occurs. The trick process is not limited to FIG. 8, and may be other cases.
[0078]
FIG. 8 shows an example of a trick process in which fast-forwarding, that is, high-speed playback (trick mode processing) is performed during normal playback dubbing, then normal playback is resumed, dubbing is performed, and playback is stopped (trick mode). In this example, the data of the portion that was dubbed and the data of the undubbed portion (deleted portion) that was not dubbed are specifically shown.
[0079]
High-speed playback (fast-forward: trick mode processing) was performed in the section from P2-1 to P2-2 during playback of sequence 2, and playback was stopped (trickle mode processing) at the timing of P3-1 during playback of sequence 3. Is shown. However, there is a delay in the decoding of the video data, and in order to play the video stably, the data to be transferred usually precedes the display time. A difference occurs. Therefore, boundaries corresponding to P2-1, P2-2, and P3-1 are defined as P2-1 ', P2-2', and P3-1 ', respectively.
[0080]
As a method of determining whether or not the mode is the trick mode, the transferred moving image data has a flag in the header information of the TS packet that indicates whether or not the mode is the trick mode. By referring to this, the corresponding boundary is determined. can do. The determination of the trick mode is not limited to this. For example, information that can determine the trick mode by a unique data format may be inserted into the moving image data. Alternatively, the determination may be made based on a trick play operation from an input unit such as the remote controller 109 or the operation panel 107.
[0081]
(When fast-forwarding is started at (P2-1) in FIG. 8: FIGS. 9 to 11)
FIG. 9 is a diagram showing the contents of a list of captured (dubbed) sections when fast-forwarding is performed at the time (P2-1) in FIG. 8, and FIG. 10 is a diagram showing a lost list (not yet created) created at that time. FIG. 11 is a diagram showing the contents of the playlist updated at that time.
[0082]
First, the list of captured sections (FIG. 9) created by fast-forwarding is compared with the playlist file (FIG. 7) (S501), and a loss list (FIG. 10) is created and recorded (S502). A new playlist file (FIG. 11) is created and recorded from the captured section list (FIG. 9), the missing list (FIG. 10), and the playlist file (FIG. 7) created by the fast forward (S503).
[0083]
(When fast-forwarding is stopped and dubbing is restarted at the point (P2-2) in FIG. 8)
Although not shown, only the start time of the third line of FIG. 12 is entered and added to the third line of FIG. 9, and the list of captured sections is updated (S408).
[0084]
(When stopped at (P3-1) in FIG. 8: FIGS. 12 to 14)
When the capturing of the moving image in the sections P1 to P2-1 ′ and P2-2 ′ to P3-1 ′ is completed, a list of captured sections in which the captured section is associated with the moving image file on the source medium can be created. . This is shown in FIG. By referring to this list during capture, duplicate capture can be prevented. A missing list can be created from the list of captured sections (FIG. 12) and the information on the source media shown in FIG. This is shown in FIG. In the list of captured sections in FIG. 12 and the missing list in FIG. 13, expressions and the like are used for the items of start and length. Actually, values equivalent to the mathematical expressions are hours: minutes: seconds: frames. Stored in number format.
[0085]
First, the list of captured sections (FIG. 12) created by stopping the reproduction is compared with the playlist file (FIG. 7) (S501). Next, the lost list (FIG. 13) is updated from the list of captured sections (FIG. 12) and the playlist file (FIG. 7) (S502). The new playlist file (FIG. 14) is updated from the list of captured sections (FIG. 12), the missing list (FIG. 13), and the playlist file (FIG. 7) created by stopping the reproduction (S503).
[0086]
Note that the contents of the above-mentioned loss list may be in a binary format in a format of a unique format, or may be in a readable text format. In the case of a text format, it may be compliant with MPEG7. Further, since the missing information can be generated from the captured information and the information on the source medium, the captured information may be stored.
[0087]
(Example of MPEG7 instance: Fig. 15)
FIG. 15 shows an example of an MPEG7 instance in the case of conforming to MPEG7. This includes information about the captured video that was copied, the original video file from which the captured file was copied, and information that could identify which section of the video file. Stored. Such information is provided for each captured moving image, and the copy information is stored.
[0088]
[Recapture Process at Dubbing Using Missing List: FIGS. 6, 18 to 20] Next, a thread for recapturing the missing list will be described with reference to FIGS. 6 and 18 to 20. In the following description, the missing list in FIG. 13 will be described as an example, but the same processing can be performed using a playlist.
[0089]
In the recapture process of the lost list, when dubbing from the source medium (first storage medium) of the video camera 105 to the hard disk 104 (second storage medium), if there is a portion that has not been dubbed by the trick play processing operation The processing is executed when the system and the video camera 105 are stopped or in an idle state such as a pause state and there is a margin in the band used on the IEEE1394 interface. Further, when the source media is mounted in the video camera 105, a source media exchange command may be transmitted to the video camera 105, and the thread may be activated when the CPU 101 confirms reception of the command. When the system and the video camera are not in the stop or pause state, or when the bandwidth used on the IEEE 1394 interface is used for other processing, the processing is immediately interrupted, and the other processing is performed with priority. .
[0090]
First, the process proceeds to step S601, where the first additional information is dubbed (copied) from all the files on the reproduction side. The first additional information is one in which the additional information is an independent file, or additional information added to the beginning or end of the moving image file.
[0091]
Next, the process proceeds to step S602, where the second attached information is dubbed (copied). The second attached information is a TS packet having an identifier as attached information among TS packets constituting the moving image file, and is attached information other than the first attached information.
[0092]
Next, the process proceeds to step S603, in which the moving image data is dubbed (copied). This is a TS packet having an identifier other than the attached information among the TS packets constituting the moving image file. This ends a series of operations.
[0093]
Note that the re-dubbing of the moving image data in step S603 does not have to be performed due to restrictions on the transfer time and the like. However, it is desirable to execute step S603 in order to effectively use the idle time.
[0094]
In the present embodiment, the second attached information is transferred such that the transfer source and the transfer destination are arranged at the same file offset, and is stored in the hard disk 104. Therefore, when step S602 is finished, the size is almost the same as the transfer source moving image file, and a worm-like file without moving image data is completed. When step S603 is completed, the same file has been created for the transfer source and the transfer destination. However, it is not limited to this.
[0095]
The method of allocating a physical storage area to a logical address of a file depends on the file system, and a description thereof will be omitted in this embodiment.
(Example of procedure for dubbing first attached information: FIG. 18)
Next, the process of acquiring the first attached information in step S601 in FIG. 6 will be described in detail with reference to FIG. FIG. 18 shows processing for individual files on the playback side (source medium (first storage medium) of the video camera 105).
[0096]
When the process starts, the process proceeds to step S701, and it is determined whether the file read from the source medium is an attached information file. Whether or not the file is an attached information file can be determined based on whether or not the extension of the file name is a predetermined character string. If the file is an attached information file in step S701, the process advances to step S702 to check whether the same file has already been dubbed on the hard disk 104 (recording side). In step S702, if the same file has been dubbed, the process returns without doing anything. If the same file has not been dubbed, the process returns after copying the attached information file in step S703.
[0097]
On the other hand, if the file read from the source medium is not an attached information file in step S701, the flow advances to step S704 to check whether this file is a moving image file. Whether or not the file is a moving image file can be determined based on the extension of the file name as in the case of the attached information file.
[0098]
In step S704, if the file is not a moving image file, the process returns without doing anything. If the file is a moving image file, the process proceeds to step S705 to determine whether or not the head attached information has been dubbed on the hard disk 104 (acquired). Judge. This actually confirms the presence of additional information at the beginning of the movie file on the hard disk. If it is determined in step S705 that the head attached information has been acquired, the process proceeds to step S707 without performing any operation. If the head attached information has not been acquired, the head attached information is acquired in step S706, and the process proceeds to step S707. move on. Next, in step S707, it is determined whether or not the attached information at the end has been acquired by the hard disk 104. This actually confirms the existence of additional information at the end of the movie file on the hard disk. If it is determined in step S707 that the end attached information has been acquired, the process proceeds to step S709 without performing anything. If the end attached information has not been acquired, the end attached information is acquired in step S708, and the process returns. .
[0099]
(Example of the procedure for dubbing the second attached information: FIG. 19)
Next, the process of acquiring the second attached information in step S602 in FIG. 6 will be described in detail with reference to FIG.
[0100]
When the process starts, the process advances to step S801 to set a pointer to the first element of the missing list. Next, the process proceeds to step S802 to seek to the loss start point on the moving image file on both the reproducing side and the recording side. Next, the process proceeds to step S803 to check whether the seek has succeeded. If the seek has failed, the section of the missing information is ignored and the process proceeds to step S807 to process the next missing information. If the seek has failed, it means that the source medium is not mounted, a different medium is mounted, or a desired file does not exist in the source medium due to a deletion operation or the like.
[0101]
On the other hand, if the seek is successful in step S803, the process advances to step S804 to extract additional information (second additional information) from the source medium. Whether it is the additional information can be determined by referring to the header information of the TS packet. Next, the process proceeds to step S805, in which the TS packet of the attached information is transferred (dubbed) to the hard disk 104. The data to be transferred is transferred so that the reproducing side and the recording side are arranged at the same file offset, and is stored in the hard disk 104. Next, the process proceeds to step S806, where it is determined whether or not the time is the loss end time by referring to the clock information stored in the header of the packet in the data to be transferred. If the time has not reached the end time, the process returns to step S804 to repeat the block transfer described above.
[0102]
Next, the process proceeds to step S807 to advance the pointer to the next missing information, and then proceeds to step S808 to determine whether all the missing lists have been processed. When all the missing information has been processed, the process returns.
[0103]
On the other hand, if the missing information remains in step S808, the process returns to step S802, and the above-described processing in steps S802 to S807 is continuously performed.
(Example of moving image data dubbing process: FIG. 20)
Next, the process of acquiring moving image data in step S603 in FIG. 6 will be described in detail with reference to FIG.
[0104]
In the following description, the missing list in FIG. 13 will be described as an example, but the same processing can be performed using a playlist. The re-capture processing based on the lost list is performed when dubbing from the source medium (first storage medium) of the video camera 105 to the hard disk 104 (second storage medium) by a trick play processing operation. Then, the undubbed portion is re-dubbed from the source medium to the hard disk 104 based on the loss list (FIG. 13).
[0105]
When the process starts, the process advances to step S901 to set a pointer to the first element of the loss list (in the case of FIG. 13, {(P-1 ′)-1} of the file 002.mp2). Next, the process proceeds to step S902, in which seek is performed to a loss start point in the moving image file of both the source medium (reproduction side) and the hard disk 104 (dubbing side). Next, the process advances to step S903 to check whether the seek has been successful. If the seek has failed, the section of the missing information is ignored and the process proceeds to step S908 to process the next missing information. If the seek has failed, it means that the source medium is not mounted, a different medium is mounted, or a desired file does not exist in the source medium due to a deletion operation or the like.
[0106]
On the other hand, if the seek is successful in step S903, the process advances to step S904 to block-transfer the data of the moving image file in the source medium and dub (accumulate) it on the hard disk 104.
[0107]
Next, the process proceeds to step S905, where it is determined whether or not the loss end time has been reached by referring to the clock information stored in the header of the packet in the transferred data. Returning to S904, block transfer is repeated, and when the loss end time has been reached, that is, when transfer of one piece of loss information has been completed, the process proceeds to step S906, where the transferred loss information is deleted from the loss information list. (FIG. 16 shows an example of deleting the missing list).
[0108]
Next, the process proceeds to step S907, and the play list is updated. That is, the captured flag is operated for the moving image data transferred from all the playlists, and when the moving image contents of adjacent sequence numbers in the playlist are captured and continuous, they are integrated into one (see FIG. 17). An example of updating the playlist file is shown).
[0109]
Next, the process advances to step S908 to advance the pointer to the next missing information. Next, the process proceeds to step S909, where it is determined whether or not all the missing lists have been processed. If there is still missing information, the process returns to step S902, and the above-described processes of steps S902 to S908 are repeated. When all the missing lists have been processed, the process returns.
[0110]
In the above-described embodiment, the case where the program is stored in the ROM has been described. However, the present invention is not limited to this, and may be realized using an arbitrary recording medium. Further, it may be realized by a circuit that performs the same operation.
[0111]
The present invention may be applied to a system including a plurality of devices or to an apparatus including a single device. A recording medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads out the program codes stored in the recording medium. Needless to say, it can also be achieved by executing. In this case, the program code itself read from the recording medium implements the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
[0112]
As a recording medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD, magnetic tape, nonvolatile memory card, ROM, etc. Can be used.
[0113]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS or the like running on the computer performs actual processing based on the instructions of the program code. It goes without saying that a case where some or all of the operations are performed and the functions of the above-described embodiments are realized by the processing is also included.
[0114]
Further, after the program code read from the recording medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the board or the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0115]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0116]
Further, in the above-described embodiment, the moving image storage device itself has been described. However, it is needless to say that the present invention can be applied to a case where a plurality of devices are connected to a network such as the Internet. At this time, moving image data and the like having high communication costs can be transferred off-line using media such as optical disks, magneto-optical disks, CD-ROMs, CD-Rs, CD-RWs, DVDs, magnetic tapes, nonvolatile memory cards, and ROMs. The data may be supplied, and the supplied data may be used without passing through the network.
[0117]
As described above, the moving image storage device 100 of the present invention uses the first attached information (the attached information file and the attached information at the beginning and end of the movie file) from the undubbed movie data to obtain the attached information. And the second attached information (attached information other than the beginning / end of the movie file) is automatically extracted and the data is transferred as attached information. Can be completely copied from the source media.
[0118]
【The invention's effect】
As described above, according to the present invention, for example, it is possible to provide a moving image storage method and a moving image storage device capable of efficiently dubbing additional information included in moving image data from a source medium. Further, when the user dubs the additional information included in the moving image data from the source media, it is possible to provide a moving image storage method and a moving image storage device that can release the user from troublesome operation of the device and easily use the additional information. .
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a hardware configuration of a moving image storage device according to an embodiment.
FIG. 2 is a diagram illustrating an example of an overview of a remote controller used in the moving image storage device of the embodiment.
FIG. 3 is a diagram illustrating an example of moving image data stored in a storage medium of the moving image storage device of the present embodiment.
FIG. 4 is a flowchart illustrating a processing procedure according to a control program stored in a ROM of the moving image storage device of the present embodiment.
FIG. 5 is a flowchart showing details of a loss list creation process of S412 in the control program of FIG. 4;
FIG. 6 is a flowchart showing details of processing of a lost list recapture processing thread in S505 in the lost list creation processing of FIG. 5;
FIG. 7 is a diagram illustrating an example of the content of moving image data stored in a source medium (first storage medium) of a video camera that is a playback source connected to the moving image storage device of the embodiment.
FIG. 8 is a diagram illustrating an example of an operation during dubbing (dubbing → fast forward → dubbing → stop) in the moving image storage device of the embodiment and a range of data to be dubbed to the moving image storage device at that time.
FIG. 9 is a diagram illustrating the contents of a list of captured sections at the start of fast-forwarding at (P2-1) in FIG. 8;
FIG. 10 is a diagram showing an example of a loss list obtained at the start of fast-forwarding at (P2-1) in FIG.
FIG. 11 is a diagram showing the contents of a playlist obtained at the start of fast-forwarding at (P2-1) in FIG.
FIG. 12 is a diagram for explaining the contents of a list of captured sections at the time of stopping reproduction at (P3-1) in FIG. 8;
FIG. 13 is a diagram showing an example of a loss list (undubbed portion) obtained when reproduction is stopped at the point (P3-1) in FIG.
FIG. 14 is a diagram showing the contents of a new playlist obtained when reproduction is stopped at the point (P3-1) in FIG.
FIG. 15 is a diagram showing an example of an instance in the case where dubbed information is stored in a format conforming to MPEG7 in the moving image storage device of the present embodiment.
FIG. 16 is a diagram illustrating an example before and after updating of a loss list in the moving image storage device of the present embodiment.
FIG. 17 is a diagram illustrating an example of a playlist before and after updating in the moving image storage device of the embodiment.
FIG. 18 is a flowchart illustrating details of a process of copying the first attached information in S601 in the process of recapturing the lost list in FIG. 6;
FIG. 19 is a flowchart illustrating details of a process of copying the second attached information in S602 in the process of recapturing the lost list in FIG. 6;
20 is a flowchart showing details of the moving image data copying process in S603 in the lost list recapture process of FIG. 6;

Claims (22)

第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする場合に、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングすることを特徴とする動画蓄積方法。
When dubbing the moving image data stored in the first storage medium to the second storage medium,
A moving image storage method, comprising: extracting auxiliary information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the extracted information to a second storage medium.
前記付属情報は第1付属情報と第2付属情報とを含み、該第1付属情報は、前記動画ファイルと独立の付属情報ファイルと、前記動画ファイルの先頭部または末尾部に含まれる付属情報とからなり、該第2付属情報は、前記動画データの先頭部と末尾部以外に含まれる付属情報からなることを特徴とする請求項1に記載の動画蓄積方法。The additional information includes first additional information and second additional information, and the first additional information includes an additional information file independent of the video file, and additional information included in a head or end of the video file. 2. The moving image storage method according to claim 1, wherein the second additional information includes additional information included in a part other than a head part and a tail part of the moving image data. 3. 前記動画データの先頭部と末尾部に含まれる付属情報は、動画ファイル全体に関する付属情報であり、前記動画データの先頭部と末尾部以外に含まれる付属情報は、前記動画ファイルの各画像フレームに関する付属情報であることを特徴とする請求項1又は2に記載の動画蓄積方法。The additional information included at the beginning and end of the moving image data is additional information relating to the entire moving image file, and the additional information included at positions other than the beginning and end of the moving image data is associated with each image frame of the moving image file. The moving image storage method according to claim 1, wherein the moving image storage device is attached information. 前記動画ファイル全体に関する付属情報は、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態を含むことを特徴とする請求項3に記載の動画蓄積方法。4. The moving image storage method according to claim 3, wherein the attached information on the entire moving image file includes a shooting state of the camera, such as a time required for reproducing the moving image, a shooting date and time, and an AE mode at the time of shooting. 前記各フレームに関する付属情報は、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態を含むことを特徴とする請求項3に記載の動画蓄積方法。The moving image storage method according to claim 3, wherein the attached information on each frame includes a shooting state of a camera that changes in real time, such as an aperture, a shutter speed, and a focus at the time of shooting. 前記第1付属情報は、プレイリストや欠損リストを含むことを特徴とする請求項2に記載の動画蓄積方法。The moving image storage method according to claim 2, wherein the first attached information includes a play list or a lost list. 前記付属情報をダビングする際には、前記第1の記録媒体に記録された動画ファイルとダビングする付属情報のファイルオフセットが一致するように同期をとってダビングすることを特徴とする請求項1乃至6のいずれか1つに記載の動画蓄積方法。4. The dubbing of the attached information, wherein the moving image file recorded on the first recording medium is dubbed in synchronization with a file offset of the attached information to be copied. 6. The moving image storage method according to any one of 6. 前記付属情報をダビングする際には、前記ダビングする付属情報をMPEG7におけるMedia Instanceタグとして表現し、前記動画データに含まれる動画ファイルの末尾の付属情報としてダビングすることを特徴とする請求項1乃至7のいずれか1つに記載の動画蓄積方法。The method according to claim 1, wherein when dubbing the additional information, the additional information to be dubbed is expressed as a Media @ Instance tag in MPEG7, and dubbed as additional information at the end of a moving image file included in the moving image data. 7. The moving image storage method according to any one of 7. 前記第1及び/又は第2記憶媒体は、ランダムアクセス可能な記憶媒体であることを特徴とする請求項1に記載の動画蓄積方法。The moving image storage method according to claim 1, wherein the first and / or second storage medium is a storage medium that can be randomly accessed. 転送中に正常な転送ができないと判断する場合は、前記転送を停止する工程と、
前記転送停止により発生する未転送部分を示す情報を保持する工程とを更に有することを特徴とする請求項1に記載の動画蓄積方法。
If it is determined that normal transfer cannot be performed during the transfer, the step of stopping the transfer,
Holding the information indicating the untransferred portion generated due to the stop of the transfer.
第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビング手段と、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビング手段とを有することを特徴とする動画蓄積装置。
Moving image data dubbing means for dubbing moving image data stored in the first storage medium to the second storage medium;
A moving image storage device, comprising: auxiliary information dubbing means for extracting additional information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
前記付属情報は第1付属情報と第2付属情報とを含み、該第1付属情報は、前記動画ファイルと独立の付属情報ファイルと、前記動画ファイルの先頭部または末尾部に含まれる付属情報とからなり、該第2付属情報は、前記動画データの先頭部と末尾部以外に含まれる付属情報からなることを特徴とする請求項11に記載の動画蓄積装置。The additional information includes first additional information and second additional information, and the first additional information includes an additional information file independent of the video file, and additional information included in a head or end of the video file. 12. The moving image storage device according to claim 11, wherein the second additional information includes additional information included in a part other than a head part and a tail part of the moving image data. 前記動画データの先頭部と末尾部に含まれる付属情報は、動画ファイル全体に関する付属情報であり、前記動画データの先頭部と末尾部以外に含まれる付属情報は、前記動画ファイルの各画像フレームに関する付属情報であることを特徴とする請求項11又は12に記載の動画蓄積装置。The additional information included at the beginning and end of the moving image data is additional information relating to the entire moving image file, and the additional information included at positions other than the beginning and end of the moving image data is associated with each image frame of the moving image file. 13. The moving image storage device according to claim 11, wherein the moving image storage device is attached information. 前記動画ファイル全体に関する付属情報は、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態を含むことを特徴とする請求項13に記載の動画蓄積装置。14. The moving image storage device according to claim 13, wherein the attached information on the entire moving image file includes a shooting time of the moving image, a shooting date and time, an AE mode at the time of shooting, and a shooting state of the camera. 前記各フレームに関する付属情報は、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態を含むことを特徴とする請求項13に記載の動画蓄積装置。14. The moving image storage device according to claim 13, wherein the attached information on each frame includes a shooting state of a camera that changes in real time, such as an aperture, a shutter speed, and a focus at the time of shooting. 前記第1付属情報は、プレイリストや欠損リストを含むことを特徴とする請求項12に記載の動画蓄積装置。The moving image storage device according to claim 12, wherein the first attached information includes a play list or a lost list. 前記付属情報ダビング手段は、前記第1の記録媒体に記録された動画ファイルとダビングする付属情報のファイルオフセットが一致するように同期をとってダビングすることを特徴とする請求項11乃至16のいずれか1つに記載の動画蓄積装置。17. The dubbing device according to claim 11, wherein the additional information dubbing unit synchronizes and dubs the moving image file recorded on the first recording medium so that a file offset of the additional information to be dubbed matches. The moving image storage device according to any one of the above. 前記付属情報ダビング手段は、前記ダビングする付属情報をMPEG7におけるMedia Instanceタグとして表現し、前記動画データに含まれる動画ファイルの末尾の付属情報としてダビングすることを特徴とする請求項11乃至17のいずれか1つに記載の動画蓄積装置。18. The method according to claim 11, wherein the additional information dubbing means expresses the additional information to be dubbed as a Media @ Instance tag in MPEG7, and performs dubbing as additional information at the end of a moving image file included in the moving image data. The moving image storage device according to any one of the above. 前記第1及び/又は第2記憶媒体は、ランダムアクセス可能な記憶媒体であることを特徴とする請求項11に記載の動画蓄積装置。The moving image storage device according to claim 11, wherein the first and / or second storage medium is a storage medium that can be randomly accessed. 転送中に正常な転送ができないと判断する場合は、前記転送を停止する転送停止手段と、
前記転送停止により発生する未転送部分を示す情報を保持する情報保持手段とを更に有することを特徴とする請求項11に記載の動画蓄積装置。
When it is determined that normal transfer cannot be performed during transfer, transfer stop means for stopping the transfer,
12. The moving image storage device according to claim 11, further comprising an information holding unit that holds information indicating an untransferred portion generated by the transfer stop.
動画蓄積装置を制御する制御プログラムであって、
第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする制御プログラム。
A control program for controlling a moving image storage device,
A moving image data dubbing module for dubbing moving image data stored in the first storage medium to a second storage medium;
A control program, comprising: an auxiliary information dubbing module for extracting auxiliary information included in a part that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
動画蓄積装置を制御する制御プログラムを格納したコンピュータ可読の記憶媒体であって、
前記制御プログラムは、
第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする記憶媒体。
A computer-readable storage medium storing a control program for controlling a moving image storage device,
The control program includes:
A moving image data dubbing module for dubbing moving image data stored in the first storage medium to a second storage medium;
A storage medium, comprising: an auxiliary information dubbing module for extracting auxiliary information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
JP2002190538A 2002-06-28 2002-06-28 Moving picture storage method and moving picture storage apparatus Withdrawn JP2004040182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002190538A JP2004040182A (en) 2002-06-28 2002-06-28 Moving picture storage method and moving picture storage apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002190538A JP2004040182A (en) 2002-06-28 2002-06-28 Moving picture storage method and moving picture storage apparatus

Publications (1)

Publication Number Publication Date
JP2004040182A true JP2004040182A (en) 2004-02-05

Family

ID=31700437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002190538A Withdrawn JP2004040182A (en) 2002-06-28 2002-06-28 Moving picture storage method and moving picture storage apparatus

Country Status (1)

Country Link
JP (1) JP2004040182A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533913A (en) * 2005-03-15 2008-08-21 レディオスパイア ネットワークス, インコーポレイテッド System, method, and apparatus for wireless content distribution between a general content source and a general content sink
JP2009252265A (en) * 2008-04-02 2009-10-29 Canon Inc Video storage and reproducing apparatus and control method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533913A (en) * 2005-03-15 2008-08-21 レディオスパイア ネットワークス, インコーポレイテッド System, method, and apparatus for wireless content distribution between a general content source and a general content sink
JP2009252265A (en) * 2008-04-02 2009-10-29 Canon Inc Video storage and reproducing apparatus and control method therefor

Similar Documents

Publication Publication Date Title
JP3815458B2 (en) Information processing apparatus, information processing method, and program
EP1111612B1 (en) Method and device for managing multimedia file
JP4224690B2 (en) Recording method, recording apparatus, reproducing method, reproducing apparatus, and imaging apparatus
WO2006030767A1 (en) Data processing device
JP4542546B2 (en) Data processing device
JP2007082088A (en) Contents and meta data recording and reproducing device and contents processing device and program
US20070263102A1 (en) Image-Information Recording Device and Image-Information Display Device
JP4591405B2 (en) Information processing apparatus, information processing method, and computer program
WO2006121049A1 (en) Data processing device
JP2002101372A (en) Camera incorporated type data recording and reproducing device and data recording and reproducing method
JP2002152665A (en) Recording/reproducing device with play list generation guide function
US20050105892A1 (en) Reproducing device
JPH11185446A (en) Image-recording/reproduction device
JP2004040182A (en) Moving picture storage method and moving picture storage apparatus
JP2009010839A (en) Image data reproduction apparatus and image data reproduction method
JP2006245744A (en) Video signal recording device, information recording medium, and video signal reproducing device
JP2003339019A (en) Recording and reproducing apparatus and recording and reproducing method
JPWO2002080542A1 (en) AV data recording / reproducing apparatus and method, and recording medium recorded by the AV data recording / reproducing apparatus or method
JP2004040183A (en) Moving picture storage method and moving picture storage apparatus
JP3901555B2 (en) AV data recording apparatus and method, disc recorded by the AV data recording apparatus or method, and AV data reproducing apparatus and method or AV data recording / reproducing apparatus and method for reproducing the disc
JP3973568B2 (en) Data processing apparatus, data reproducing apparatus, data processing method, and data reproducing method
JP2004056396A (en) Moving picture storage method and moving picture storage apparatus
JP2008252438A (en) Recording method
JP2010010964A (en) Electronic device
JP2004040181A (en) Moving picture storage method and moving picture storage apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906